FR3077393A1 - Véhicules aériens à vision artificielle - Google Patents

Véhicules aériens à vision artificielle Download PDF

Info

Publication number
FR3077393A1
FR3077393A1 FR1900778A FR1900778A FR3077393A1 FR 3077393 A1 FR3077393 A1 FR 3077393A1 FR 1900778 A FR1900778 A FR 1900778A FR 1900778 A FR1900778 A FR 1900778A FR 3077393 A1 FR3077393 A1 FR 3077393A1
Authority
FR
France
Prior art keywords
air vehicle
sensor data
geographic
indicator
unmanned aerial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1900778A
Other languages
English (en)
Other versions
FR3077393B1 (fr
Inventor
Stefan Alexander SCHWINDT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GE Aviation Systems Ltd
Original Assignee
GE Aviation Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GE Aviation Systems Ltd filed Critical GE Aviation Systems Ltd
Publication of FR3077393A1 publication Critical patent/FR3077393A1/fr
Application granted granted Critical
Publication of FR3077393B1 publication Critical patent/FR3077393B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • G08G5/025Navigation or guidance aids
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/06Traffic control systems for aircraft, e.g. air-traffic control [ATC] for control when on the ground
    • G08G5/065Navigation or guidance aids, e.g. for taxiing or rolling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/25Fixed-wing aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

La présente invention propose un véhicule aérien (200). Le véhicule aérien (200) peut être doté d’une pluralité de capteurs (404) montés sur le véhicule, d’un système avionique (412) configuré pour faire fonctionner au moins une partie du véhicule aérien (200), et d’un contrôleur de vision artificielle (402) qui est en communication fonctionnelle avec le système avionique (412) et la pluralité de capteurs (404). Le contrôleur de vision artificielle (402) est configuré pour exécuter un procédé. Le procédé comprend l’obtention de données de capteur à partir d’au moins un capteur de la pluralité de capteurs (404), la détermination de données de performance depuis le système avionique (412) ou un capteur supplémentaire de la pluralité de capteurs (404), le traitement des données de capteur, sur la base des données de performance, pour compenser le mouvement du véhicule aérien sans pilote, l’identification d’au moins un indicateur géographique, sur la base du traitement des données de capteur, et la détermination d’une position géographique du véhicule aérien (200), sur la base de l’indicateur géographique, au nombre d’au moins un. Figure pour l’abrégé : figure 4

Description

Titre de l'invention : Véhicules aériens à vision artificielle
Domaine technique [0001] La présente invention a pour objet d’une manière générale des véhicules aériens et, en particulier, des véhicules aériens et d’autres aéronefs à vision artificielle.
[0002] ARRIERE-PLAN [0003] En général, il est utile de connaître la position géographique d'un aéronef par rapport à un emplacement ou une aire d'atterrissage désirée, par exemple une piste, une plateforme d'atterrissage ou une autre aire d'atterrissage appropriée. Pendant le vol, la position de l'aéronef par rapport à l’aire d'atterrissage souhaitée aide à faire atterrir l’aéronef avec succès. D’autre part, le fait de comprendre un vecteur d'approche lors d'une tentative d'atterrissage peut également aider à faire atterrir l’aéronef en toute sécurité.
[0004] Bien que les pilotes et les opérateurs de l'aéronef disposent généralement d'une pluralité d'instruments pour les aider à manœuvrer l'aéronef en toute sécurité pendant le vol, il y a éventuellement peu d'instruments pour les aider à se poser dans d'autres scénarios. L'utilité des instruments peut être limitée lorsqu'une position est inconnue, que la visibilité est réduite à partir d'un poste de contrôle de l'aéronef ou que d'autres problèmes se posent pour déterminer la position d'un aéronef. Par exemple, une visibilité limitée peut avoir pour effet qu’un pilote identifie mal une piste ou une aire d'atterrissage. D’autre part, une visibilité restreinte peut faire en sorte qu’un pilote ou l’équipage de soutien ne remarquent pas d’éventuels obstacles sur la piste de l'aéroport. De plus, d'autres conditions peuvent entraîner une mauvaise identification d’une aire d'atterrissage ou un atterrissage dans des conditions dangereuses.
[0005] Les systèmes actuels nécessitent des systèmes radar, des systèmes mondiaux de localisation, dits global positioning System, d’acronymes GPS en termes anglo-saxons et des méthodologies de communication complexes afin d'éviter ces risques et d'autres problèmes potentiels. Bon nombre de ces systèmes dépendent de ressources externes à l'aéronef et de la communication avec l'aéronef, ce qui a pour effet qu’ils ne sont plus utiles en cas de perte de communication avec un pilote. Par ailleurs, de nombreux systèmes GPS ne fournissent aucune information utile concernant les obstacles, les conditions d'atterrissage dangereuses ou l'identification erronée d'une piste si une position générale (basée sur le GPS) est correcte.
[0006] BRÈVE DESCRIPTION [0007] Des aspects et des avantages de la technologie divulguée seront exposés en partie dans la description qui suit, ou pourront ressortir de la description, ou peuvent être mieux compris par la mise en pratique de l’invention.
[0008] Selon un exemple, il est prévu un véhicule aérien. Ce véhicule aérien peut comprendre une pluralité de capteurs montés sur celui-ci, un système avionique configuré pour faire fonctionner au moins une partie du véhicule aérien, et un contrôleur de vision artificielle en communication fonctionnelle avec le système avionique et la pluralité de capteurs. Le contrôleur de vision artificielle peut être configuré pour exécuter un procédé. Le procédé peut comprendre l'obtention de données de capteur à partir d'au moins un capteur de la pluralité de capteurs. Les données de capteur sont associées à un emplacement proximal du véhicule aérien, et l’emplacement proximal se situe à portée de détection du véhicule aérien. Le procédé peut également comprendre la détermination des données de performance associées au véhicule aérien, le traitement des données de capteur sur la base des données de performance pour compenser le mouvement du véhicule aérien sans pilote, l'identification d'au moins un indicateur géographique sur la base du traitement des données de capteur, et la détermination de la position géographique du véhicule aérien sur la base de l’indicateur géographique, au nombre d’au moins un.
[0009] Par exemple, le traitement des données de capteur comprend la détermination de la hauteur d’une pluralité d’éléments géographiques à l’emplacement proximal ; la comparaison de la pluralité de caractéristiques géographiques avec une base de données identifiant une pluralité d’indicateurs géographiques prédéterminés associés à des lieux d’atterrissage connus, la base de données comprenant un identificateur de hauteur pour chaque indicateur de la pluralité d’indicateurs géographiques prédéterminés ; où la détermination de la position géographique du véhicule aérien comprend l’identification de la position géographique du véhicule aérien, sur la base, au moins en partie, de l’identificateur de hauteur pour l’indicateur géographique, au nombre d’au moins un, et la hauteur d’un élément géographique correspondant.
[0010] Les données de capteur sont, par exemple, basées sur des images fixes ou des enregistrements vidéo réalisés par un dispositif de capture d’images situé sur le véhicule aérien.
[0011] Les données de capteur sont, par exemple, basées sur la télédétection associée à un laser, à la détection et la télémétrie par ondes lumineuses (LIDAR) ou à un radar. [0012] Le traitement des données de capteur peut comprendre le traitement des données de capteur en vue de réduire la distorsion sur la base des données de performance associées au véhicule aérien.
[0013] Le traitement des données de capteur pour réduire la distorsion peut comprendre la détermination d’une valeur de vent de travers ; l’estimation d’un vecteur d’approche sur la base de la valeur de vent de travers et des données de performance ; et la transposition des données de capteur sur la base du vecteur d’approche.
[0014] L’identification de l’indicateur géographique, au nombre d’au moins un, peut comprendre la comparaison des données de capteur avec un modèle de la zone proximale ; et l’appariement d’un premier indicateur géographique associé aux données de capteur, avec au moins un deuxième indicateur géographique associé au modèle de la zone proximale.
[0015] L’identification de l’indicateur géographique, au nombre d’au moins un, peut comprendre la comparaison des données de capteur avec un ensemble prédéterminé de données de capteur ; et l’identification d’un obstacle associé aux données de capteur, sur la base de la comparaison.
[0016] Par exemple, le procédé comprend en outre la détermination constatant que la position géographique du véhicule aérien est absente d’un plan de vol du véhicule aérien ; et l’instruction au système avionique d’effectuer une manœuvre corrective en réponse à la détermination constatant que la position géographique du véhicule aérien est absente.
[0017] Par exemple, le procédé comprend en outre la détermination, sur la base des données de performance, pour savoir si le véhicule aérien est en train de tenter un atterrissage ; la détermination pour savoir si l’indicateur géographique, au nombre d’au moins un, est associé à une aire d’atterrissage appropriée du véhicule aérien ; et en réponse à la détermination constatant que le véhicule aérien est en train de tenter un atterrissage et que l’indicateur géographique, au nombre d’au moins un, est associé à une aire d’atterrissage appropriée, fourniture de la preuve d’une indication visuelle montrant que la position géographique correspond à une aire d’atterrissage appropriée.
[0018] Par exemple, le procédé comprend en outre en réponse à la détermination constatant que le véhicule aérien n’est pas en train de tenter un atterrissage et que l’indicateur géographique, au nombre d’au moins un, est associé à une aire d’atterrissage appropriée, détermination signifiant que l’indication visuelle ne doit pas être affichée.
[0019] Selon un autre exemple, il est prévu un véhicule aérien sans pilote. Ce véhicule aérien sans pilote peut comprendre une pluralité de capteurs montés sur celui-ci, un système avionique configuré pour faire fonctionner au moins une partie du véhicule aérien sans pilote, et un contrôleur de vision artificielle qui est en communication fonctionnelle avec le système avionique et la pluralité de capteurs. Le contrôleur de vision artificielle peut être configuré pour exécuter un procédé. Le procédé peut comprendre l'obtention de données de capteur à partir d'au moins un capteur de la pluralité de capteurs. Les données de capteur sont associées à un emplacement proximal du véhicule aérien sans pilote et l’emplacement proximal se situe à portée de détection du véhicule aérien sans pilote. Le procédé peut également comprendre l'identification d'au moins un indicateur géographique, sur la base du traitement des données de capteur, la détermination pour savoir si l'indicateur géographique, au nombre d’au moins un, est associé à un plan de vol du véhicule aérien sans pilote, et l'exécution d'une manœuvre automatique du véhicule aérien sans pilote, sur la base de cette détermination.
[0020] Par exemple, l’indicateur géographique, au nombre d’au moins un, comprend au moins un indicateur géographique prédéterminé associé à une aire d’atterrissage pour le véhicule aérien sans pilote, et le procédé comprend en outre l’exécution d’une manœuvre automatique du véhicule aérien sans pilote, qui comprend l’atterrissage automatique du véhicule aérien sans pilote, sur la base, au moins en partie, de l’indicateur géographique prédéterminé.
[0021] Par exemple, l’identification de l’indicateur géographique, au nombre d’au moins un, comprend la détermination d’une distance du véhicule aérien sans pilote par rapport à l’indicateur géographique, au nombre d’au moins un.
[0022] Par exemple, l’identification de l’indicateur géographique, au nombre d’au moins un, comprend la détermination d’une position et d’un vecteur d’approche du véhicule aérien sans pilote par rapport à l’indicateur géographique, au nombre d’au moins un.
[0023] Par exemple, l’exécution d’une manœuvre automatique comprend le fait d’éviter automatiquement un atterrissage.
[0024] Par exemple, l’exécution d’une manœuvre automatique comprend la modification d’un plan de vol pour créer un autre plan de vol, et les manœuvres pour se conformer au nouveau plan de vol.
[0025] Par exemple, le traitement des données de capteur comprend le traitement des données de capteur en vue de réduire la distorsion due à la performance de l’aéronef.
[0026] Par exemple, l’identification de l’indicateur géographique, au nombre d’au moins un, comprend la comparaison des données de capteur traitées avec un ensemble prédéterminé de données de capteur ; et l’appariement d’un premier indicateur géographique associé aux données de capteur traitées, avec au moins un deuxième indicateur géographique associé à l’ensemble prédéterminé de données de capteur.
[0027] Selon un autre exemple, il est proposé un procédé de localisation d'un véhicule aérien par rapport à un emplacement proximal. Le procédé peut comprendre l'obtention de données de capteur à partir d'un ou plusieurs capteurs optiques montés sur le véhicule aérien. Les données de capteur sont associées à l’emplacement proximal, et l’emplacement proximal se trouve à portée de détection du véhicule aérien. Le procédé peut également comprendre la détermination de données de performance à partir d'un ou plusieurs capteurs supplémentaires montés sur le véhicule aérien, le traitement des données de capteur sur la base des données de performance pour compenser le mouvement du véhicule aérien sans pilote, l'identification d'au moins un indicateur géographique sur la base du traitement des données de capteur, et la détermination d'une position géographique du véhicule aérien sur la base de l’indicateur géographique, au nombre d’au moins un.
Brève description des dessins [0028] Un exposé complet et utile de la présente invention, y compris le meilleur mode de réalisation, qui s’adresse à l’homme du métier, est fourni dans la description qui fait référence aux dessins annexés, sur lesquels :
[0029] [fig-1] est une illustration schématique d'un exemple d’une piste ou d'une aire d'atterrissage pour un véhicule aérien ;
[0030] [fig.2A] est une illustration schématique d'un véhicule aérien approchant d'une partie de l’aire d'atterrissage de la [FIG.l] ;
[0031] [fig.2B] est une illustration schématique d'un exemple de données de capteur obtenues par le véhicule aérien de la [FIG. 2A] ;
[0032] [fig.3A] est une illustration schématique d'un autre véhicule aérien s'approchant d'une partie de l’aire d'atterrissage de la [FIG.l] ;
[0033] [fig.3B] est une illustration schématique d'un exemple de données de capteur obtenues par le véhicule aérien de la [FIG.3A] ;
[0034] [fig.4] est un schéma d'un exemple de véhicule aérien, conformément à des exemples de réalisation de la présente invention ;
[0035] [fig.5] est un organigramme d'un procédé de traitement par vision artificielle des données de capteur d'un véhicule aérien, conformément à des exemples de réalisation de la présente invention ;
[0036] [fig.6] est un organigramme d'un autre procédé de traitement par vision artificielle des données des capteurs d'un véhicule aérien, conformément à des exemples de réalisation de la présente invention ; et [0037] [fig.7] est un schéma fonctionnel d'un exemple d’un système informatique qui peut être utilisé pour mettre en œuvre des procédés et des systèmes selon des exemples de réalisation de la présente invention.
Description des modes de réalisation [0038] Il sera maintenant fait référence en détail aux modes de réalisation de la technologie divulguée, dont un ou plusieurs exemples sont illustrés dans les dessins. Chaque exemple est fourni à titre d'explication de la technologie divulguée, sans être limitatif de la technologie divulguée. De fait, il sera évident pour l’homme du métier que diverses modifications et variantes peuvent être apportées à la présente invention sans s'écarter de la portée ou de l'esprit des -revendications. Par exemple, des caractéristiques illustrées ou décrites comme faisant partie d'exemples de réalisation peuvent être utilisées avec un autre mode de réalisation pour donner encore un autre mode de réalisation. Par conséquent, la présente description est destinée à couvrir ces modifications et variantes qui entrent dans le champ d'application des -revendications jointes en annexe et de leurs équivalences.
[0039] Tels qu’ils sont utilisés dans la description et dans les -revendications jointes, les singuliers « un », « une » et « le » ou « la » incluent les pluriels, à moins que le contexte n’indique clairement le contraire. L'utilisation du terme environ, conjointement avec une valeur numérique, désigne jusqu’à 25 % de la valeur indiquée.
[0040] Selon des exemples, il est proposé un contrôleur de vision artificielle pour un véhicule aérien ou un aéronef. Dans certains modes de réalisation, le contrôleur de vision artificielle peut exécuter des instructions de programme lisibles par ordinateur pour : traiter des données de capteur, identifier des identificateurs géographiques dans les données de capteur, comparer les données de capteur obtenues avec des données de capteur désirées, identifier la position géographique à partir des données de capteur, manœuvrer automatiquement le véhicule aérien en réponse aux données de capteur et d’autres données, déterminer si un vecteur d’approche permet un atterrissage sûr, réduire le risque lié aux atterrissages uniquement aux instruments et/ou à d’autres instructions. Le contrôleur de vision artificielle peut être intégré dans un véhicule aérien ou bien il peut s’agir d’un contrôleur à distance configuré pour transmettre au véhicule aérien des données calculées. D’autre part, le contrôleur de vision artificielle peut également être configuré pour fournir des avertissements, à la fois sonores et visuels, aux opérateurs du véhicule aérien, afin de les aider pour une pluralité de manœuvres de l'aéronef. Une description détaillée de plusieurs exemples de réalisation de véhicules aériens et de contrôleurs de vision artificielle est fournie ci-après.
[0041] Des modes de réalisation de la technologie exposée offrent un certain nombre d'avantages et d’atouts techniques, en particulier dans le domaine de la sécurité des aéronefs. Dans un exemple, la technologie divulguée permet d'assurer des atterrissages plus sûrs en garantissant qu'un véhicule aérien s'approche d'une piste ou d'un aéroport appropriés. La technologie décrite peut également faciliter les manœuvres d'évitement automatique grâce à l'identification d'indicateurs géographiques. En identifiant les indicateurs géographiques et en associant les indicateurs géographiques à une carte ou à un modèle d'une zone proximale prévue, les systèmes décrits peuvent éviter de déclencher une opération d'atterrissage si une zone est imprévue ou s’il y a des obstacles.
[0042] Des modes de réalisation de la technologie décrite offrent en outre un certain nombre d'avantages et d’atouts techniques dans le domaine de la technologie informatique. Par exemple, le système divulgué peut obtenir des données de capteur associées à des données de performance d'un véhicule aérien et déterminer automatiquement si la performance d'un aéronef a des conséquences pour une approche à l'atterrissage. Un système informatique mis en œuvre conformément à la technologie divulguée peut donc éviter des manœuvres d'atterrissage coûteuses dans des conditions défavorables ou exécuter des procédures d'atterrissage plus sûres en garantissant qu'un vecteur d'approche réel est correct pour un véhicule aérien précis.
[0043] La Figure 1 est une illustration schématique d'un exemple d'aire d'atterrissage 2 pour un véhicule aérien. En général, l'aire d'atterrissage 2 peut être alignée avec une piste 4. La piste 4 peut comporter plusieurs repères d'identification peints sur la piste, dont plusieurs éléments de signalisation. Par exemple, la piste 4 peut comporter des marques de seuil de piste 6, des marques d’identification de piste 8, des marques de point cible 10, des marques de zone de toucher des roues 12, des marques d'axe de piste 14, des marques de bande latérale de piste 16, un balisage lumineux de piste 18, des marques de voie de circulation incluant l'axe de voie de circulation 20, des marques de bord de voie de circulation 22, un balisage lumineux de voie de circulation 24, une marque de point d’attente 26, un repère de point d’attente 28 et un repère de point d’attente 30. Les marques et repères d'identification peuvent être traités par les contrôleurs de vision artificielle décrits dans le présent document pour faciliter la circulation d'un véhicule aérien aussi bien avant le décollage que pour l'atterrissage en toute sécurité d'un véhicule aérien pendant ou après une approche d’atterrissage.
[0044] Dans certaines circonstances, par exemple lorsque les conditions météorologiques sont relativement mauvaises ou lorsque la visibilité est limitée, il est possible qu’un véhicule aérien n’ait pas une visibilité totale de certains ou de tous les repères d'identification décrits ci-dessus. Dans ce cas, il peut être avantageux pour un véhicule aérien d'obtenir des données de capteurs, telles que des données optiques, des données vidéo, des données photographiques, des données radar et/ou des données de détection et de télémétrie par ondes lumineuses LIDAR dit Light Détection and Ranging en termes anglo-saxons. Les données des capteurs peuvent ensuite être traitées pour déterminer si un véhicule aérien peut atterrir en toute sécurité ou s’il convient d’exécuter une manœuvre d'évitement. D’autre part, dans certaines circonstances, les données des capteurs peuvent être comparées avec une carte ou un modèle d'une zone proximale située près de l'aéronef. La comparaison permet d'identifier des indicateurs géographiques, tels que des bâtiments, des points de repère, des caractéristiques topographiques, les pistes, des marques de piste et d'autres indicateurs géographiques, afin de déterminer si le véhicule aérien fonctionne ou tente d'atterrir dans une zone sûre ou prévue. Des scénarios concernant un véhicule aérien s'approchant de la piste 4 sont décrits ci-après en détail, en référence aux Figures 2A, 2B, 3A et 3B.
[0045] La Figure 2A est une illustration schématique d'un véhicule aérien 200 s’approchant d'une portion 215 de l'aire d'atterrissage de la Figure 1. Par exemple, la voie de circulation 40 et la voie de circulation 42 avec les marques de position géographique 44, comprenant un indicateur de direction 46 et un repère de localisation 48, sont présentées sur la portion 215. D’autre part, le véhicule aérien 200 s'approche de la portion 215 avec le vecteur d'approche 202.
[0046] Pendant l'approche, le véhicule aérien 200 peut obtenir diverses données de capteur.
La Figure 2B est une illustration schématique d'un exemple de données de capteur 210 obtenues par le véhicule aérien 200. Comme montré, le vecteur d'approche directe 202 permet aux données de capteur 210 d'apparaître relativement sans distorsion. Dans cet exemple, un contrôleur de vision artificielle associé au véhicule aérien 200 peut traiter les données de capteur 210 pour déterminer qu'un indicateur de direction 46 et des repères de position 44 sont correctement situés par rapport au véhicule aérien 200. Dans certains modes de mise en œuvre, le contrôleur de vision artificielle peut générer un ou plusieurs affichages pour un pilote ou un autre opérateur, pour fournir l'indicateur de direction 46, les repères de position 44 et/ou une représentation de tout autre indicateur géographique.
[0047] Le contrôleur de vision artificielle peut utiliser diverses techniques de traitement d'image et/ou de traitement par vision artificielle pour identifier des objets à l'aide de données d'image. La modélisation à base physique et/ou les modèles obtenus par apprentissage automatique peuvent être utilisés pour la détection d'objets. Les objets peuvent être détectés et classés à l'aide de diverses techniques de traitement d'image et/ ou de vision artificielle.
[0048] Ainsi, le véhicule aérien 200 peut en toute sécurité poursuivre son approche et effectuer les manœuvres d'atterrissage. Toutefois, si le véhicule aérien 200 et le contrôleur de vision artificielle associé déterminent que le vecteur d'approche 202 est inapproprié ou mal aligné, le contrôleur de vision artificielle associé au véhicule aérien 200 peut fournir des avertissements, des indications et d'autres données au pilote ou à l'opérateur pour s'assurer que le pilote est conscient de la situation de la position et de l'approche du véhicule aérien 200.
[0049] Dans certaines circonstances, les avertissements peuvent être utilisés pour déterminer qu'un atterrissage ne peut se poursuivre en raison d'obstacles, de vecteurs mal alignés, de zones géographiques incorrectes ou d'autres informations erronées. Par conséquent, le véhicule aérien 200 peut être équipé pour corriger efficacement les renseignements erronés, modifier un plan de vol et/ou éviter un atterrissage afin de s'assurer que le véhicule aérien 200 atterrit en toute sécurité à un emplacement géographique correct. Dans d'autres circonstances, le traitement typique en vision artificielle des données de capteur 210 peut être inapproprié en raison de divers facteurs, tels que les conditions météorologiques ou les vecteurs d'approche qui sont différents du vecteur de poussée d'un véhicule aérien.
[0050] Dans certains modes de mise en œuvre, les données de performance de l'aéronef peuvent être utilisées pour déclencher sélectivement des alertes ou des affichages qui sont générés sur la base des données de capteur, telles que des données d'image. Par exemple, le contrôleur de vision artificielle peut obtenir des données d'altitude et/ou de configuration de l'aéronef, à partir des données de performance, et utiliser ces in formations pour générer de manière sélective des alertes à base géographique. À titre d'exemple, le contrôleur de vision artificielle peut déterminer, à partir des données de performance, si l'aéronef se trouve au-dessous d’une certaine altitude et/ou si le train d'atterrissage est sorti. Si les données de performances indiquent que l’aéronef tente un atterrissage, des affichages peuvent être générés en fonction des indicateurs géographiques. Par exemple, des marques de piste et d'autres identificateurs peuvent être affichés si les données de performance indiquent que l’aéronef est en train de se poser. Toutefois, si les données de performances indiquent que l’aéronef ne tente pas d'atterrir, les alertes ou les affichages qui seraient autrement générés en réponse à des indicateurs géographiques pourraient ne pas s'afficher.
[0051] La Figure 3A est une illustration schématique du véhicule aérien 200 s'approchant de la portion 215 de l'aire d'atterrissage de la Figure 1. Comme montré, le véhicule aérien 200 présente un vecteur de poussée 302 pour tenter de corriger le vent de travers 306 qui souffle perpendiculairement à la portion 215 de l'aire d'atterrissage de la Figure 1. Ainsi, alors que le vecteur de poussée 302 est en général dirigé dans le sens opposé à l'aire d'atterrissage 215, le véhicule aérien 200 est en réalité sur un vecteur d'approche 304. La direction du véhicule aérien n'étant pas parfaitement alignée avec l'aire d'atterrissage 215, les données de capteur obtenues par le véhicule aérien 200 peuvent être déformées ou difficiles à traiter.
[0052] A titre d'exemple, la Figure 3B est une illustration schématique d'un exemple de données de capteur 310 obtenues par le véhicule aérien 200 de la Figure 3A sur le vecteur poussée 302. Comme on le voit, en raison du vecteur de poussée 302, et donc de l'alignement axial du véhicule aérien 200 qui ne s'aligne pas sur la portion 215 de l'aire d'atterrissage, les données de capteur 310 semblent pointer vers une aire d'atterrissage différente de celle des données de capteur 210. Dans ce scénario, un contrôleur de vision artificielle associé au véhicule aérien 200 peut traiter les données de capteur 310 pour compenser les données de mouvement et/ou de performance du véhicule aérien 200. Par exemple, le contrôleur de vision artificielle peut déterminer une valeur de vent de travers 306, ainsi que des données de performance englobant le vecteur de poussée 302. Le contrôleur de vision artificielle peut également estimer le vecteur d'approche 304 à partir de la valeur de vent de travers 306 et des données de performance. Ensuite, le contrôleur de vision artificielle peut transposer les données de capteur 310 en 320, sur la base du vecteur d'approche 304. Par conséquent, le contrôleur de vision artificielle peut corriger le défaut d’alignement ou la distorsion apparents, en fonction du vecteur de poussée 302, du vecteur d'approche 304 et du vent de travers 306, produisant ainsi les données de capteur 320. Les données de capteur 320 sont suffisamment similaires aux données de capteur 210 et permettent d'identifier avec succès la portion 215, y compris toutes les marques visuelles qui y sont re présentées. D’autre part, dans certaines circonstances, les données de capteur 320 peuvent être comparées avec une carte ou un modèle d'une zone proximale située près du véhicule aérien 200. La carte ou le modèle peuvent inclure une cartographie bidimensionnelle des informations, avec des informations sur la hauteur, la profondeur ou d'autres dimensions associées, par exemple, des bâtiments et des points de repère environnants. La comparaison permet d'identifier des indicateurs géographiques, tels que des bâtiments, des points de repère, des caractéristiques topographiques, des pistes, des marques de piste et d'autres indicateurs géographiques, afin de déterminer si le véhicule aérien 200 fonctionne ou tente d'atterrir dans une zone sûre ou prévue.
[0053] Comme décrit ci-dessus, le véhicule aérien 200 peut être équipé d’un contrôleur de vision artificielle configuré pour traiter des données de capteur, identifier des identificateurs géographiques dans des données de capteur, comparer les données de capteur obtenues avec des données de capteur souhaitées, identifier une position géographique à partir de données de capteur, manœuvrer automatiquement le véhicule aérien en fonction de données de capteur et d’autres données, déterminer si un vecteur d’approche est sûr en vue d’un atterrissage et/ou réduire le risque associé aux atterrissages uniquement aux instruments. Par ailleurs, dans certaines circonstances, le contrôleur de vision artificielle peut prédire une trajectoire de vol du véhicule aérien 200 à partir du traitement des données de capteur. La prédiction de trajectoire de vol peut comprendre une trajectoire de vol estimée ou prévue en fonction d'un vecteur de poussée, du vent de travers, de l'alignement axial en fonction d'un plan de référence au sol, de valeurs des instruments et d'autres données de performance du véhicule aérien.
Le contrôleur de vision artificielle peut être intégré dans le véhicule aérien 200 ou peut être un contrôleur à distance configuré pour transmettre les données calculées au véhicule aérien. Le contrôleur de vision artificielle peut également être configuré pour fournir des avertissements, tant sonores que visuels, aux opérateurs du véhicule aérien, afin de les aider dans une pluralité de manœuvres de l'aéronef. Un exemple de véhicule aérien 200 équipé d'un contrôleur de vision artificielle 402 intégré sera décrit en détail ci-après.
[0054] La Figure 4 est un schéma d'un exemple de véhicule aérien 200 conforme à des exemples de réalisation de la présente invention. Comme illustré, le véhicule aérien 200 peut inclure un contrôleur de vision artificielle 402 configuré pour le traitement de données de capteur, tel qu’il est décrit ici. Le contrôleur de vision artificielle 402 peut être un contrôleur autonome, un contrôleur personnalisé ou un contrôleur informatique générique configuré pour traiter des données de capteur, en tant que processeur de vision artificielle.
[0055] Le contrôleur 402 peut être configuré pour obtenir des données d'un premier réseau de capteurs 404. Ce réseau de capteurs 404 peut être un ensemble de capteurs monté à l'extérieur ou un ensemble de capteurs monté à l'intérieur. Le réseau de capteurs 402 peut comprendre un ou plusieurs capteurs optiques, capteurs de caméra, capteurs acoustiques, capteurs radar, capteurs laser et/ou capteurs LIDAR. Les capteurs optiques peuvent comprendre des capteurs de lumière visible, des capteurs infrarouges et d'autres capteurs optiques réglés sur des fréquences plus ou moins élevées. Par exemple, les capteurs optiques capables de détecter et d'encoder les fréquences infrarouges peuvent avoir de meilleures caractéristiques de performance dans des conditions de faible luminosité et de mauvais temps que la vue humaine typique. D'autres capteurs appropriés peuvent également être inclus dans le réseau de capteurs 404, en fonction de tout mode de mise en œuvre souhaitée du véhicule aérien 200.
[0056] Le contrôleur 402 peut également être configuré pour obtenir les données d'un deuxième réseau de capteurs 406. Le réseau de capteurs 406 peut être un ensemble de capteurs monté à l'extérieur ou un ensemble de capteurs monté à l'intérieur. Le réseau de capteurs 406 peut comprendre un ou plusieurs capteurs optiques, capteurs de caméra, capteurs acoustiques, capteurs radar, capteurs laser et/ou capteurs LIDAR. Les capteurs optiques peuvent comprendre des capteurs de lumière visible, des capteurs infrarouges et d'autres capteurs optiques réglés sur des fréquences plus ou moins élevées. D'autres capteurs appropriés peuvent également être inclus dans le réseau de capteurs 406, en fonction de la mise en œuvre souhaitée du véhicule aérien 200.
[0057] Le contrôleur 402 peut être configuré pour communiquer avec des processeurs externes, des contrôleurs et/ou des équipements au sol et d'autres aéronefs, par l'intermédiaire de l'interface 408. L'interface 408 peut être une interface de communication normalisée, configurée pour envoyer et recevoir des données via un réseau d'antennes 410. Il est à noter que, bien que le réseau soit représenté ici notamment sous la forme d'un réseau d'antennes monté à l'extérieur, sur la surface supérieure du véhicule aérien 200, il est possible d’utiliser toute autre forme de réseau d'antennes.
[0058] Le contrôleur 402 peut également être configuré pour communiquer avec le système avionique 412 du véhicule aérien 200, par l'intermédiaire du bus de communication 450. Par exemple, le contrôleur 402 peut fournir des renseignements appropriés au système avionique 412, de sorte que le train d'atterrissage 422 soit commandé en montée et en descente, en fonction du traitement de la vision artificielle. D’autre part, le contrôleur 402 peut fournir au système avionique 412 les informations appropriées pour que la poussée des moteurs 424 soit contrôlée en fonction du traitement de la vision artificielle. Par ailleurs, le contrôleur 402 peut fournir des renseignements appropriés au système avionique 412 afin que les gouvernes 426 soient ajustées pour les manœuvres automatiques, telles que les refus d'atterrissage, l'évitement d'obstacles, les manœuvres de sécurité et d’autres mouvements du véhicule aérien 200.
[0059] On comprendra aisément que le véhicule aérien 200 peut comporter un nombre plus important ou plus faible de composants de commande que ceux qui sont représentés en particulier ici. D’autre part, le véhicule aérien 200 peut comprendre plusieurs composants, aspects et structures nécessaires qui ne sont pas particulièrement illustrés dans le présent document pour des raisons de concision, de clarté et de divulgation concise des exemples de réalisation décrits ici. Les détails de fonctionnement du véhicule aérien 200 sont présentés ci-après en référence à la Figure 5 et à la Figure 6. [0060] Le contrôleur et le système avionique peuvent d’une manière générale comprendre un ou plusieurs processeurs et une mémoire associée, configurés pour exécuter diverses fonctions mises en œuvre par ordinateur, telles que différents procédés, étapes, calculs et autres opérations décrits ici. Dans certains exemples, le contrôleur et/ ou le système avionique peuvent être des dispositifs logiques programmables, tels qu'un réseau de circuits intégrés prédiffusés programmables par l’utilisateur (FPGA), mais ils peuvent être mis en œuvre en utilisant tout matériel et/ou logiciel approprié. [0061] Le terme « processeur » peut se référer d’une manière générale à des circuits intégrés, et peut également se référer à un contrôleur, un microcontrôleur, un microordinateur, un contrôleur logique programmable (PLC), un circuit intégré à application spécifique (ASIC), un réseau de circuits intégrés prédiffusés programmables par Γutilisateur (FPGA) et d'autres circuits programmables. D’autre part, la mémoire décrite ici peut comprendre d’une manière générale un ou plusieurs éléments de mémoire, comportant, mais sans y être limité, un support lisible par ordinateur (par exemple une mémoire vive (RAM)), un support non volatile lisible par ordinateur (par exemple une mémoire flash), un disque compact à mémoire morte (CD-ROM), un disque magnéto-optique (MOD), un disque numérique polyvalent (DVD) et/ou tout autre élément de mémoire approprié ou des combinaisons de ces supports. [0062] Le système de gestion de vol ou le système de commande du véhicule ou une combinaison de ces deux systèmes peut également comporter une interface de communication. L'interface de communication peut comprendre des circuits électroniques associés qui sont utilisés pour envoyer et recevoir des données. Plus précisément, l'interface de communication peut être utilisée pour envoyer et recevoir des données entre les différents systèmes. De même, une interface de communication sur n'importe lequel des systèmes peut être utilisée pour communiquer avec des composants extérieurs, tels qu'un autre véhicule aérien et/ou un poste de commande au sol. Une interface de communication peut être constituée de n'importe quelle combinaison d'interfaces de communication avec ou sans fil appropriées.
[0063] La Figure 5 est un organigramme d’un procédé 500 de traitement par vision artificielle de données de capteur d'un véhicule aérien, et la Figure 6 est un organigramme d’un procédé 600 de traitement par vision artificielle de données de capteur d'un véhicule aérien, conformément à des exemples de réalisation de la présente invention.
Il est à noter que les étapes des procédés divulgués ici ne sont pas nécessairement présentées dans un ordre particulier et que l'exécution d'une partie ou de la totalité des étapes dans un ou plusieurs ordres différents est possible et envisagée. Les étapes ont été présentées dans l'ordre indiqué pour en faciliter la description et l'illustration. Des étapes peuvent être ajoutées, omises et/ou exécutées simultanément, sans s'écarter du champ d'application des -revendications annexées.
[0064] Par exemple, les étapes des procédés 500 et 600 sont décrites ici comme étant mises en œuvre, au moins en partie, par des composants de système tels que le contrôleur 402 qui peut comprendre un processeur, une application de commande, des circuits de vision artificielle, des composants de vision artificielle et/ou des applications de vision artificielle. Dans certaines configurations, les composants du système présentent des fonctionnalités produites par une interface de programmation d'application (API), un programme compilé, un programme interprété, un service réseau, un script ou tout autre ensemble d'instructions exécutable.
[0065] Bien que l'illustration qui suit se réfère aux composants de la Figure 4, on comprendra que les étapes des procédés 500 et 600 peuvent également être mises en œuvre de bien d'autres manières. Par exemple, les procédés 500 et 600 peuvent être mis en œuvre, au moins en partie, par un processeur d'un contrôleur à distance ou d'un circuit local, y compris un centre de pilotage à distance pour contrôler un véhicule aérien sans pilote. Par ailleurs, en variante ou en plus, une ou plusieurs des étapes des procédés 500 et 600 peuvent être mises en œuvre, au moins en partie, par un jeu de puces fonctionnant seul ou en liaison avec des modules logiciels à bord du véhicule aérien 200. Tout service ou circuit ou toute application apte à fournir les techniques décrites dans le présent document peut être utilisé(e) pour les opérations décrites dans le présent document, soit à distance, soit à bord du véhicule aérien 200, ou une combinaison des deux par rapport à ce dernier.
[0066] Comme le montre la Figure 5, le procédé 500 comprend l'obtention de données de capteur à partir d'un réseau de capteurs 404 ou 406, au bloc 502. Les données de capteur peuvent par exemple inclure des données optiques ou des données radar obtenues à partir d'au moins un capteur des réseaux de capteurs 404 et 406. Il est également possible d'obtenir des données de capteurs optiques, notamment des images stéréoscopiques, des images fixes ou des vidéos enregistrées par un capteur optique des réseaux de capteurs 404 et 406. D'autres données de capteur peuvent inclure l'altitude, la distance par rapport au sol et d'autres données appropriées.
[0067] Le procédé 500 comprend en outre l'obtention de données de performance de l'avionique 412 et/ou du réseau de capteurs 404 ou 406, au bloc 504. Les données de performance peuvent par exemple inclure un vecteur d'approche calculé, un vecteur de poussée, une vitesse de montée, une vitesse de descente, un angle par rapport au plan au sol et d'autres données de performance appropriées. Dans au moins un exemple, les données de performance sont obtenues à partir de capteurs et/ou du système avionique 412. Les données de performance peuvent être obtenues directement des capteurs et/ou du système avionique 412, ou bien elles peuvent être dérivées des données des capteurs. Selon d'autres exemples, les données de performance sont saisies manuellement. D'après encore d'autres exemples, les données de performance peuvent être basées sur la position des gouvernes et sur l'état du moteur fourni par l'avionique 412 ou d'autres composants du véhicule aérien 200.
[0068] Le procédé 500 comprend en outre le traitement des données des capteurs sur la base des données de performance, au bloc 506. Dans certains exemples, le bloc 506 peut comprendre le traitement des données de capteur pour compenser les données de performance. Dans certains cas, les données de capteur sont traitées par un contrôleur de vision artificielle à l'aide de techniques de vision artificielle et/ou de traitement d'image. Dans certains exemples, les données de capteur sont traitées pour compenser les mouvements du véhicule aérien, tels qu’ils sont déterminés à partir des données de performance. Selon au moins un exemple, le traitement peut inclure le traitement d'une image déformée en utilisant la vision artificielle pour créer une image avec une distorsion réduite, minimisée ou corrigée. L'image corrigée peut inclure des signes lisibles et d'autres corrections. Le traitement peut également comprendre le traitement pour compenser les mouvements, par exemple en corrigeant les perspectives des bâtiments, les points de repère et d'autres caractéristiques. De plus, le traitement peut inclure l'isolement de repères, de points de repère, d'indices, de caractéristiques géographiques et d'autres données optiques pour une identification supplémentaire lors du traitement ultérieur ou parallèle par vision artificielle. Par exemple, et comme le montre la Figure 3B, les données de capteur 310 peuvent être traitées pour créer des données de capteur corrigées 320. Le contrôleur de vision artificielle 402 peut traiter les données de capteur 310 pour corriger les distorsions apparentes, les défauts d’alignement et d’autres problèmes en utilisant les données de performance et toute autre donnée disponible.
[0069] Le procédé 500 comprend en outre l'identification d'un indicateur géographique dans les données de capteur traitées, au bloc 508. Par exemple, le contrôleur de vision artificielle 402 peut interpréter les données de capteur traitées pour identifier des indicateurs visuels tels que ceux illustrés dans la Figure 1. D'autres indicateurs géographiques peuvent par exemple comprendre un certain nombre de bâtiments entourant une aire d'atterrissage, la hauteur des bâtiments entourant une aire d'atterrissage, des éléments plus hauts dans les environs (par exemple des montagnes ou des éléments naturels), des éléments plus bas dans les environs (par exemple des crevasses ou des éléments naturels) et d'autres indicateurs géographiques. D’autre part, les indicateurs géographiques peuvent comprendre des données GPS, des rivières, des plans d'eau, des balises physiques ou virtuelles, des structures temporaires telles que des tours/cônes et d'autres indicateurs.
[0070] Le procédé 500 comprend en outre la détermination de la position géographique du véhicule aérien en fonction de l'indicateur géographique identifié, au bloc 510. Le contrôleur de vision artificielle 402 peut comparer les indicateurs géographiques identifiés avec un ensemble prédéterminé d'indicateurs géographiques, tels que les caractéristiques géographiques prévues ou une carte ou un modèle des caractéristiques prévues, pour déterminer la position du véhicule aérien 200. Par exemple, le contrôleur de vision artificielle 402 peut déterminer si une tour de contrôle prévue dans un aéroport peut être détectée dans les données des capteurs. Le contrôleur de vision artificielle 402 peut également déterminer si les bâtiments de l'aéroport peuvent être détectés dans les données de capteur. Ainsi, en utilisant toutes les données de capteur disponibles, le contrôleur de vision artificielle 402 peut comparer les données de capteur avec les données attendues d'un plan de vol, afin de déterminer la position géographique.
[0071] Dans certains exemples, un modèle des caractéristiques prévues peut inclure des informations de profondeur ou de hauteur. Par conséquent, dans certains exemples, le contrôleur de vision artificielle 402 est configuré pour déterminer une hauteur d'éléments géographiques situés à proximité du véhicule aérien, sur la base du traitement des données des capteurs. Par exemple, le contrôleur de vision artificielle 402 peut accéder à une ou plusieurs images obtenues par un ou plusieurs capteurs d'image, afin d’identifier une ou plusieurs caractéristiques géographiques. Une caméra de profondeur, un radar/LIDAR et/ou d'autres capteurs peuvent être utilisés pour déterminer les informations tridimensionnelles ou de hauteur associées aux caractéristiques géographiques. Le contrôleur de vision artificielle 402 peut accéder à une base de données d'indicateurs géographiques prédéterminés associés à un emplacement géographique, par exemple les emplacements d'atterrissage connus. La base de données peut comprendre des informations sur la hauteur ou d'autres renseignements de profondeur associés aux indicateurs géographiques prédéterminés. Le contrôleur de vision artificielle 402 peut comparer la base de données, contenant la hauteur des indicateurs géographiques, afin d'identifier les caractéristiques géographiques à partir des données d'image. Le contrôleur de vision artificielle 402 peut déterminer un emplacement géographique correspondant à un élément géographique, en comparant la hauteur des éléments géographiques, obtenue à partir des données de capteur, avec les informations de hauteur dans la base de données.
[0072] En utilisant la position géographique déterminée, le pilote ou l'opérateur du véhicule aérien 200 peut décider d’atterrir en toute sécurité, de modifier un plan de vol ou de commander le véhicule aérien d’une autre manière. Il est envisageable d'utiliser également des indicateurs visuels, tels que des avertissements, et des indicateurs sonores, tels que des alarmes. Ainsi, il est possible de fournir un indicateur, par exemple un indicateur visuel signalant si l'atterrissage peut être effectué en toute sécurité ou non. Dans certaines applications, l'indicateur peut identifier une piste ou une autre caractéristique avec laquelle le véhicule aérien est aligné en vue de l'atterrissage. Dans certains modes de mise en œuvre, un indicateur peut inclure un avertissement indiquant que le véhicule aérien est mal aligné. Par exemple, le système peut comparer l'indicateur géographique avec les données du plan de vol et générer un avertissement si l'indicateur géographique n'est pas associé aux données du plan de vol. Dans certains cas, un avertissement peut être émis si les indicateurs géographiques signalent des obstacles identifiés lors du traitement par vision artificielle. D’autre part, les indicateurs visuels et sonores peuvent inclure des indications positives signalant qu'une trajectoire d'atterrissage est considérée comme sûre par le contrôleur de vision artificielle 402, de sorte que le pilote ou l'opérateur peut se concentrer sur d'autres manœuvres pour effectuer un atterrissage en toute sécurité.
[0073] Par ailleurs, le pilote ou l’opérateur du véhicule aérien 200 peut se trouver à distance, et le véhicule aérien peut être un véhicule aérien sans pilote, de sorte que des alertes, des indicateurs et une position géographique sont fournis au pilote ou à l’opérateur qui se trouve dans un endroit éloigné. Dans ces circonstances, l'emplacement géographique identifié peut être utilisé pour manœuvrer automatiquement l'aéronef, comme décrit cidessous en référence à la Figure 6. Toutefois, il est à noter qu'un aéronef piloté peut être manœuvré de façon automatique, conformément à des modes de réalisation de la technologie divulguée. La Figure 6 est un organigramme d'un procédé supplémentaire 600 de traitement des données des capteurs d'un véhicule aérien par vision artificielle, conformément à des exemples d'application de la présente invention.
[0074] Comme le montre la Figure 6, le procédé 600 comprend l'obtention de données de capteurs à partir d'un réseau de capteurs 404 ou 406, au bloc 602. Les données de capteur peuvent être essentiellement similaires aux données de capteur décrites cidessus. Le procédé 600 comprend en outre le traitement des données de capteur obtenues pour identifier les caractéristiques géographiques dans la zone proximale du véhicule aérien, au bloc 604. Le traitement peut comprendre la correction de la distorsion, la compensation des mouvements, l'identification des obstacles et/ou l'adaptation des plans de vol aux caractéristiques géographiques prévues.
[0075] Selon au moins un exemple, le traitement peut inclure le traitement d'une image déformée ou de données de capteurs déformées, en utilisant la vision artificielle pour créer une image traitée ou des données de capteur traitées avec une distorsion réduite, minimisée ou corrigée. L'image traitée peut comporter des signes lisibles et d'autres corrections. Le traitement peut également inclure le traitement pour compenser les mouvements, par exemple en corrigeant les perspectives des bâtiments, les points de repère et d'autres caractéristiques. De plus, le traitement peut comprendre l'isolement de points de repère, d’éléments de signalisation, de caractéristiques géographiques et d'autres données optiques pour une identification supplémentaire lors du traitement ultérieur ou parallèle par vision artificielle.
[0076] Dans certains exemples, le traitement des données des capteurs comprend le traitement des données d'image sur la base du défaut d’alignement de l'avion. Par exemple, des données de performance telles que le vent de travers et d'autres informations peuvent être utilisées pour déterminer un mauvais alignement d'un vecteur d'approche d'aéronef par rapport aux données d'image obtenues d'un ou plusieurs capteurs. Les données de performance peuvent être utilisées pour transposer ou déterminer d'une autre manière des données de capteur modifiées pour corriger ou compenser le défaut d’alignement. Par exemple, à l'approche d'une aire d'atterrissage, les données d'image peuvent identifier une première piste en fonction d'un premier repère de piste. Toutefois, les données de performance peuvent indiquer que le véhicule aérien atterrit avec un fort vent de travers. Ces données et/ou d'autres données de performance peuvent indiquer que le véhicule aérien n'est pas aligné avec son vecteur d'approche. Ces informations peuvent être utilisées pour modifier les données de capteur afin d'indiquer les informations appropriées correspondant à l'approche. Par conséquent, le contrôleur de vision artificielle 402 peut déterminer que l'avion approche en réalité d'une deuxième piste qui est adjacente à la première piste. La détermination peut être effectuée même si les données d'image correspondent à la première piste.
[0077] Le procédé 600 comprend en outre l'identification d'un indicateur géographique dans les données de capteur traitées, au bloc 606. L'indicateur géographique peut inclure un indicateur souhaité ou un obstacle. Par exemple, l'indicateur géographique peut comprendre un point de repère, un plan d'eau, un aéroport, une piste particulière d'un aéroport ou un autre indicateur géographique, y compris tous les indicateurs géographiques décrits dans le présent document. L'indicateur géographique peut être identifié dans les données de capteur traitées, en utilisant un traitement par vision artificielle et/ou un algorithme de vision artificielle. De plus, le contrôleur de vision artificielle peut identifier les obstacles au bloc 606. Par exemple, un obstacle peut inclure tout objet ou indice qui n'est pas prévu dans une aire d'atterrissage. Les obstacles peuvent être temporaires ou permanents. D’autre part, les obstacles peuvent inclure des signes intentionnellement apposés (par exemple un « X » ou « PAS SUR POUR L'ATERRISSAGE ») pour permettre aux pilotes et aux opérateurs d'identifier le fait qu'une aire d'atterrissage ne doit pas être utilisée pour un atterrissage. Dans certains cas, le contrôleur de vision artificielle 402 peut indiquer immédiatement la présence d'un obstacle. Dans certains cas, le contrôleur de vision artificielle 402 peut retarder une alerte si un obstacle est un obstacle en mouvement, tel qu'un véhicule d'aide à l'atterrissage qui se trouvera à l'écart d'une aire d'atterrissage active avant que le véhicule aérien ne se pose. D’autre part, le contrôleur de vision artificielle 402 peut émettre de multiples formes d'alertes légères et de hautes alertes, si les obstacles en mouvement sont jugés dangereux ou ne se déplacent pas comme prévu ou bien ne suivent pas un modèle prévu. Le traitement et l'identification des obstacles peuvent être facilités par l'utilisation d'informations radar/LIDAR et d'autres données appropriées fournies par les capteurs.
[0078] Le procédé 600 comprend également la détermination pour savoir si l'indicateur géographique identifié figure dans un plan de vol associé au véhicule aérien, au bloc 608. Par exemple, le contrôleur de vision artificielle 402 peut traiter les données des capteurs et les comparer avec les données prévues du plan de vol. Les données attendues des capteurs peuvent comprendre des cartes, des modèles, des rendus et/ou d'autres données appropriées pour le traitement par vision artificielle et la comparaison avec les données de capteur traitées. Les données de capteur prévues peuvent par exemple inclure une carte bidimensionnelle à laquelle sont associées des informations de hauteur ou de dimensions. Le traitement par vision artificielle peut faciliter les comparaisons entre les données de capteur traitées et ces données de capteur attendues, afin de déterminer si une correspondance existe ou si l'indicateur géographique existe dans le plan de vol.
[0079] Le procédé 600 comprend en outre la manœuvre automatique du véhicule aérien ou la fourniture d'une indication visuelle, sur la base de la détermination, au bloc 610. Par exemple, en fonction de la détermination, le véhicule aérien peut être manœuvré automatiquement pour éviter un atterrissage ou poursuivre le vol. D'autres manœuvres automatiques, telles que l'évitement d'obstacles, l'atterrissage et le décollage rapides et des manœuvres similaires basées sur des indicateurs géographiques, peuvent également être effectuées. Le contrôleur de vision artificielle 402 peut également fournir des indications vidéo ou audio, comme décrit ci-dessus.
[0080] Il convient de noter que les blocs fonctionnels des procédés 500 et 600 ne décrivent pas forcément de manière exhaustive tous les aspects de la commande de véhicules aériens. Ces blocs fonctionnels peuvent former un organigramme fonctionnel simplifié, ne décrivant que des aspects partiels de la commande de véhicules aériens, et ne doivent pas être interprétés comme illustrant tous les scénarios de commande possibles.
[0081] La Figure 7 représente un schéma fonctionnel d'un exemple de système informatique 1000 qui peut être utilisé pour mettre en œuvre des procédés et des systèmes, conformément à des exemples de réalisation de la présente invention. Le système informatique 1000 peut être utilisé pour mettre en œuvre un contrôleur de vision artificielle 402, comme décrit ici. Toutefois, il est à noter que le système informatique 1000 est simplement un exemple de système informatique approprié pour la mise en œuvre du contrôleur de vision artificielle 402 et d'autres éléments informatiques décrits ici.
[0082] Comme illustré, le système informatique 1000 peut comprendre un ou plusieurs dispositifs informatiques 1002. Le ou les dispositifs informatiques 1002 peuvent comporter un ou plusieurs processeurs 1004 et un ou plusieurs dispositifs de mémoire 1006. Le ou les processeurs 1004 peuvent comprendre tout dispositif de traitement approprié, tel qu'un microprocesseur, un microcontrôleur, un circuit intégré, un dispositif logique ou tout autre dispositif de traitement approprié. Le ou les dispositifs de mémoire 1006 peuvent inclure un ou plusieurs supports lisibles par ordinateur, y compris, mais sans s'y limiter, des supports non transitoires lisibles par ordinateur, une RAM, une ROM, des unités de disques durs, des lecteurs flash ou d’autres dispositifs de mémoire.
[0083] Le ou les dispositifs de mémoire 1006 peuvent stocker des informations accessibles par le ou les processeurs 1004, y compris des instructions lisibles par ordinateur 1008 qui peuvent être exécutées par le ou les processeurs 1004. Les instructions 1008 peuvent être constituées de n'importe quel ensemble d'instructions qui, lorsqu'elles sont exécutées par un ou plusieurs processeurs 1004, font en sorte que le ou les processeurs 1004 exécutent des opérations. Les instructions 1008 peuvent se présenter sous la forme d’un logiciel écrit dans n'importe quel langage de programmation approprié, ou bien elles peuvent être mises en œuvre dans le matériel. Dans certains modes de réalisation, les instructions 1008 peuvent être exécutées par le ou les processeurs 1004 pour faire en sorte que le ou les processeurs 1004 effectuent des opérations, telles que les opérations de traitement par vision artificielle des données des capteurs, l'identification des caractéristiques géographiques et des indicateurs, la localisation d'un véhicule aérien à partir des données de capteur et d'autres opérations telles que celles décrites ci-dessus en référence aux procédés 500 et 600 et/ou toute autre opération ou fonction du ou des dispositifs informatiques 1002.
[0084] Le ou les dispositifs de mémoire 1006 peuvent en outre stocker des données 1010 accessibles par les processeurs 1004. Par exemple, les données 1010 peuvent inclure des données de capteur, telles que des paramètres de moteur, des données de modèle, des données logiques ou autres, comme décrit ici. Les données 1010 peuvent comprendre une/un ou plusieurs tables, fonctions, algorithmes, modèles, équations, ou autres, conformément aux exemples de la présente divulgation.
[0085] Le ou les dispositifs informatiques 1002 peuvent également comprendre une interface de communication 1012 utilisée par exemple pour communiquer avec les autres composants du système. L'interface de communication 1012 peut inclure tout composant approprié pour l'interfaçage avec un ou plusieurs réseaux, y compris par exemple des émetteurs, des récepteurs, des ports, des contrôleurs, des antennes ou d’autres composants appropriés.
[0086] La technologie dont il est question dans le présent document fait référence aux systèmes informatisés et aux mesures prises par les systèmes informatisés, ainsi qu'aux informations envoyées à partir de ces systèmes et à destination de ceux-ci. L'homme du métier comprendra aisément que la souplesse inhérente aux systèmes informatisés permet une grande variété de configurations, de combinaisons et de répartitions possibles des tâches et des fonctionnalités entre les composants et parmi eux. Par exemple, les processus décrits ici peuvent être mis en œuvre à l'aide d'un seul dispositif informatique ou de plusieurs dispositifs informatiques fonctionnant en combinaison. Les bases de données, la mémoire, les instructions et les applications peuvent être mises en œuvre sur un seul système ou réparties sur plusieurs systèmes. Les composants répartis peuvent fonctionner de façon séquentielle ou en parallèle.
[0087] Bien que des caractéristiques spécifiques de différents modes de réalisation soient éventuellement montrées dans certains dessins et pas dans d’autres, cela est dû uniquement à des raisons de commodité. Conformément aux principes de la présente invention, n’importe quelle caractéristique d’un dessin peut être citée et/ou revendiquée en combinaison avec n’importe quelle caractéristique de n’importe quel autre dessin.
[0088] La présente description écrite utilise des exemples pour exposer l'invention, y compris le mode de réalisation préféré, et pour permettre à tout homme du métier de mettre en œuvre l'invention, y compris de réaliser et d'utiliser tout type de dispositif ou de système et d'exécuter tout type de procédé incorporé. Le champ d'application brevetable de la technologie divulguée est défini par les -revendications et peut englober d'autres exemples qui se présentent à l'esprit de l'homme du métier. Ces autres exemples entreront dans le champ d'application des -revendications, s'ils comportent des éléments de structure qui ne sont pas différents du sens littéral des termes des -revendications, ou s'ils comportent des éléments structurels équivalents, avec des différences non substantielles par rapport au sens littéral des termes des •revendications.

Claims (1)

  1. Véhicule aérien, comprenant :
    une pluralité de capteurs montés sur celui-ci ;
    un système avionique configuré pour faire fonctionner au moins une partie du véhicule aérien ; et un contrôleur de vision artificielle qui est en communication fonctionnelle avec le système avionique et la pluralité de capteurs, le contrôleur de vision artificielle étant configuré pour exécuter un procédé, le procédé comprenant :
    l’obtention de données de capteur à partir d’au moins un capteur de la pluralité de capteurs, les données de capteur étant associées à un emplacement proximal du véhicule aérien, et l’emplacement proximal se situant à portée de détection du véhicule aérien ;
    la détermination de données de performance associées au véhicule aérien ;
    le traitement des données de capteur, sur la base des données de performance, pour compenser le mouvement du véhicule aérien sans pilote ;
    l’identification d’au moins un indicateur géographique, sur la base du traitement des données de capteur ; et la détermination d’une position géographique du véhicule aérien, sur la base de l’indicateur géographique, au nombre d’au moins un.
    Véhicule aérien selon la revendication 1, caractérisé en ce que le traitement des données de capteur comprend :
    la détermination de la hauteur d’une pluralité d’éléments géographiques à l’emplacement proximal ;
    la comparaison de la pluralité de caractéristiques géographiques avec une base de données identifiant une pluralité d’indicateurs géographiques prédéterminés associés à des lieux d’atterrissage connus, la base de données comprenant un identificateur de hauteur pour chaque indicateur de la pluralité d’indicateurs géographiques prédéterminés ; où la détermination de la position géographique du véhicule aérien comprend l’identification de la position géographique du véhicule aérien, sur la base, au moins en partie, de l’identificateur de hauteur pour l’indicateur géographique, au nombre d’au moins un, et la hauteur d’un élément géographique correspondant.
    Véhicule aérien selon l’une des revendications précédentes, caractérisé [Revendication 4] [Revendication 5] [Revendication 6] [Revendication 7] [Revendication 8] [Revendication 9] en ce que les données de capteur sont basées sur des images fixes ou des enregistrements vidéo réalisés par un dispositif de capture d’images situé sur le véhicule aérien.
    Véhicule aérien selon l’une quelconque des revendications précédentes, caractérisé en ce que les données de capteur sont basées sur la télédétection associée à un laser, à la détection et la télémétrie par ondes lumineuses (LIDAR) ou à un radar.
    Véhicule aérien selon l’une quelconque des revendications précédentes, caractérisé en ce que le traitement des données de capteur comprend le traitement des données de capteur en vue de réduire la distorsion sur la base des données de performance associées au véhicule aérien.
    Véhicule aérien selon la revendication 5, caractérisé en ce que le traitement des données de capteur pour réduire la distorsion comprend : la détermination d’une valeur de vent de travers ;
    l’estimation d’un vecteur d’approche sur la base de la valeur de vent de travers et des données de performance ; et la transposition des données de capteur sur la base du vecteur d’approche.
    Véhicule aérien selon l’une quelconque des revendications précédentes, caractérisé en ce que l’identification de l’indicateur géographique, au nombre d’au moins un, comprend :
    la comparaison des données de capteur avec un modèle de la zone proximale ; et l’appariement d’un premier indicateur géographique associé aux données de capteur, avec au moins un deuxième indicateur géographique associé au modèle de la zone proximale.
    Véhicule aérien selon l’une quelconque des revendications précédentes, caractérisé en ce que l’identification de l’indicateur géographique, au nombre d’au moins un, comprend :
    la comparaison des données de capteur avec un ensemble prédéterminé de données de capteur ; et l’identification d’un obstacle associé aux données de capteur, sur la base de la comparaison.
    Véhicule aérien selon l’une quelconque des revendications précédentes, caractérisé en ce que le procédé comprend en outre :
    la détermination constatant que la position géographique du véhicule aérien est absente d’un plan de vol du véhicule aérien ; et l’instruction au système avionique d’effectuer une manœuvre corrective [Revendication 10] [Revendication 11] [Revendication 12] en réponse à la détermination constatant que la position géographique du véhicule aérien est absente.
    Véhicule aérien selon l’une quelconque des revendications précédentes, caractérisé en ce que le procédé comprend en outre :
    la détermination, sur la base des données de performance, pour savoir si le véhicule aérien est en train de tenter un atterrissage ;
    la détermination pour savoir si l’indicateur géographique, au nombre d’au moins un, est associé à une aire d’atterrissage appropriée du véhicule aérien ; et en réponse à la détermination constatant que le véhicule aérien est en train de tenter un atterrissage et que l’indicateur géographique, au nombre d’au moins un, est associé à une aire d’atterrissage appropriée, fourniture de la preuve d’une indication visuelle montrant que la position géographique correspond à une aire d’atterrissage appropriée. Véhicule aérien selon la revendication 10, caractérisé en ce que le procédé comprend en outre :
    en réponse à la détermination constatant que le véhicule aérien n’est pas en train de tenter un atterrissage et que l’indicateur géographique, au nombre d’au moins un, est associé à une aire d’atterrissage appropriée, détermination signifiant que l’indication visuelle ne doit pas être affichée.
    Véhicule aérien sans pilote, comprenant : une pluralité de capteurs montés sur celui-ci ;
    un système avionique configuré pour faire fonctionner au moins une partie du véhicule aérien sans pilote ; et un contrôleur de vision artificielle qui est en communication fonctionnelle avec le système avionique et la pluralité de capteurs, le contrôleur de vision artificielle étant configuré pour exécuter un procédé, le procédé comprenant : l’obtention de données de capteur à partir d’au moins un capteur de la pluralité de capteurs, les données de capteur étant associées à un emplacement proximal du véhicule aérien sans pilote, et l’emplacement proximal se situant à portée de détection du véhicule aérien sans pilote ; l’identification d’au moins un indicateur géographique, sur la base du traitement des données de capteur ;
    la détermination pour savoir si l’indicateur géographique, au nombre d’au moins un, est associé à un plan de vol du véhicule aérien sans pilote ; et [Revendication 13] [Revendication 14] [Revendication 15] l’exécution d’une manœuvre automatique du véhicule aérien sans pilote, sur la base de la détermination.
    Véhicule aérien sans pilote selon la revendication 12, caractérisé en ce que l’indicateur géographique, au nombre d’au moins un, comprend au moins un indicateur géographique prédéterminé associé à une aire d’atterrissage pour le véhicule aérien sans pilote, et en ce que le procédé comprend en outre :
    l’exécution d’une manœuvre automatique du véhicule aérien sans pilote, qui comprend l’atterrissage automatique du véhicule aérien sans pilote, sur la base, au moins en partie, de l’indicateur géographique prédéterminé.
    Véhicule aérien sans pilote selon l’une ou l’autre des revendications 12 ou 13, caractérisé en ce que l’identification de l’indicateur géographique, au nombre d’au moins un, comprend la détermination d’une distance du véhicule aérien sans pilote par rapport à l’indicateur géographique, au nombre d’au moins un.
    Procédé de localisation d’un véhicule aérien par rapport à un emplacement proximal, le procédé comprenant :
    l’obtention de données de capteur à partir d’un ou plusieurs capteurs optiques montés sur le véhicule aérien, les données de capteur étant associées à l’emplacement proximal, et l’emplacement proximal se situant à portée de détection du véhicule aérien ;
    la détermination de données de performance à partir d’un ou plusieurs capteurs supplémentaires, montés sur le véhicule aérien ;
    le traitement des données de capteur, sur la base des données de performance, en vue de compenser le mouvement du véhicule aérien sans pilote ;
    l’identification d’au moins un indicateur géographique, sur la base du traitement des données de capteur ; et la détermination d’une position géographique du véhicule aérien, sur la base de l’indicateur géographique, au nombre d’au moins un.
FR1900778A 2018-01-29 2019-01-29 Véhicules aériens à vision artificielle Active FR3077393B1 (fr)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1801416.7A GB2570497B (en) 2018-01-29 2018-01-29 Aerial vehicles with machine vision
GB1801416.7 2018-01-29

Publications (2)

Publication Number Publication Date
FR3077393A1 true FR3077393A1 (fr) 2019-08-02
FR3077393B1 FR3077393B1 (fr) 2022-06-24

Family

ID=61558237

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1900778A Active FR3077393B1 (fr) 2018-01-29 2019-01-29 Véhicules aériens à vision artificielle

Country Status (3)

Country Link
US (2) US11440657B2 (fr)
FR (1) FR3077393B1 (fr)
GB (1) GB2570497B (fr)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11355022B2 (en) * 2019-09-13 2022-06-07 Honeywell International Inc. Systems and methods for computing flight controls for vehicle landing
US11400940B2 (en) * 2020-09-28 2022-08-02 Ford Global Technologies, Llc Crosswind risk determination
CN115626159A (zh) * 2021-07-01 2023-01-20 信扬科技(佛山)有限公司 车辆示警***、方法及汽车
US11392118B1 (en) * 2021-07-23 2022-07-19 Beta Air, Llc System for monitoring the landing zone of an electric vertical takeoff and landing aircraft
US11760348B2 (en) 2021-09-27 2023-09-19 Ford Global Technologies, Llc Vehicle boundary control

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2835314B1 (fr) 2002-01-25 2004-04-30 Airbus France Procede de guidage d'un aeronef en phase finale d'atterrissage et dispositif correspondant
US7908078B2 (en) 2005-10-13 2011-03-15 Honeywell International Inc. Perspective-view visual runway awareness and advisory display
US20090306840A1 (en) * 2008-04-08 2009-12-10 Blenkhorn Kevin P Vision-based automated landing system for unmanned aerial vehicles
US8914166B2 (en) 2010-08-03 2014-12-16 Honeywell International Inc. Enhanced flight vision system for enhancing approach runway signatures
US8868265B2 (en) * 2011-11-30 2014-10-21 Honeywell International Inc. System and method for aligning aircraft and runway headings during takeoff roll
FR2996671B1 (fr) 2012-10-05 2014-12-26 Dassault Aviat Systeme de visualisation pour un aeronef en approche d'une piste d'atterrissage et procede de visualisation associe
US8880328B2 (en) * 2012-11-02 2014-11-04 Ge Aviation Systems Llc Method of optically locating an aircraft relative to an airport
CN103424126B (zh) 2013-08-12 2016-02-24 西安电子科技大学 一种无人机视觉自主着陆仿真验证***及方法
MX2016008890A (es) * 2014-01-10 2017-01-16 Pictometry Int Corp Sistema y metodo de evaluacion de estructura de aeronave no tripulada.
US9772712B2 (en) 2014-03-11 2017-09-26 Textron Innovations, Inc. Touch screen instrument panel
WO2016210305A1 (fr) * 2015-06-26 2016-12-29 Mobile Video Corporation Caméra mobile et système doté de fonctions automatisées et de modes de fonctionnement
EP4001111A3 (fr) * 2015-11-10 2022-08-17 Matternet, Inc. Procédé et système de transport utilisant des véhicules aériens sans pilote
US20170146990A1 (en) 2015-11-19 2017-05-25 Caterpillar Inc. Augmented communication and positioning using unmanned aerial vehicles
WO2017090040A1 (fr) * 2015-11-23 2017-06-01 Almog Rescue Systems Ltd. Système et procédé de dispersion de charge utile en utilisant des uav
US10657827B2 (en) * 2015-12-09 2020-05-19 Dronesense Llc Drone flight operations
CN205594459U (zh) 2015-12-11 2016-09-21 国网四川省电力公司电力应急中心 基于机器视觉的无人机定位着降***
US10121383B2 (en) * 2016-01-26 2018-11-06 Northrop Grumman Systems Corporation Terrain profile system
US9936191B2 (en) 2016-01-27 2018-04-03 Honeywell International Inc. Cockpit display systems and methods for generating cockpit displays including enhanced flight visibility indicators
US9643736B1 (en) 2016-04-14 2017-05-09 Goodrich Corporation Systems and methods for landing lights
JP6654977B2 (ja) * 2016-07-04 2020-02-26 株式会社Soken 自車位置特定装置、及び自車位置特定方法
WO2018015959A1 (fr) * 2016-07-21 2018-01-25 Vision Cortex Ltd. Systèmes et procédés pour l'atterrissage automatique d'un drone
US10248124B2 (en) * 2016-07-21 2019-04-02 Mobileye Vision Technologies, Inc. Localizing vehicle navigation using lane measurements
JP2019008618A (ja) * 2017-06-26 2019-01-17 パナソニックIpマネジメント株式会社 情報処理装置、情報処理方法及びプログラム
US10739161B2 (en) * 2018-04-23 2020-08-11 Honeywell International Inc. Runway landing alert system and method

Also Published As

Publication number Publication date
FR3077393B1 (fr) 2022-06-24
US20190233101A1 (en) 2019-08-01
GB2570497B (en) 2020-07-29
GB201801416D0 (en) 2018-03-14
US11440657B2 (en) 2022-09-13
US20230002048A1 (en) 2023-01-05
GB2570497A (en) 2019-07-31

Similar Documents

Publication Publication Date Title
FR3077393A1 (fr) Véhicules aériens à vision artificielle
EP1870789B1 (fr) Système de détection d'obstacles au voisinage d'un point de poser
US7826666B2 (en) Methods and apparatus for runway segmentation using sensor analysis
KR102069666B1 (ko) 포인트 클라우드 맵 기반의 자율주행차량용 실시간 주행경로 설정 방법
US9892646B2 (en) Context-aware landing zone classification
JP2015006874A (ja) 3次元証拠グリッドを使用する自律着陸のためのシステムおよび方法
FR3062720A1 (fr) Systeme et procede d'aide a l'atterrissage d'un aeronef, et aeronef correspondant
US20240092485A1 (en) Method and algorithm for flight, movement, autonomy, in gps, communication, degraded, denied, obstructed non optimal environment
RU2708093C1 (ru) Измерение толщины слоя земляного покрытия
FR3054357A1 (fr) Procede et dispositif de determination de la position d'un aeronef lors d'une approche en vue d'un atterrissage
WO2019127023A1 (fr) Procédé et dispositif de protection d'atterrissage d'aéronef et aéronef
EP3657213A1 (fr) Procede d'apprentissage d'un reseau de neurones embarque dans un aeronef pour l'aide a l'atterrissage dudit aeronef et serveur pour la mise en oeuvre d'un tel procede
WO2000039775A2 (fr) Systeme d'aide a l'evitement de collisions d'aeronefs avec le terrain
US20220121836A1 (en) Automatic safe-landing-site selection for unmanned aerial systems
EP3656681A1 (fr) Dispositif et procede d'aide a l'atterrissage d'un aeronef par conditions de visibilite reduite
EP4055343A1 (fr) Procede et dispositif d'aide a l'atterrissage d'aeronef en conditions de visibilite degradee
WO2014146884A1 (fr) Procede d'observation d'une zone au moyen d'un drone
EP3866136B1 (fr) Procédé et système d'aide à la navigation pour un aeronèf par détection d'objets maritimes en vue d'un vol d'approche, d'une mise en vol stationnaire ou d'un atterrissage
CN115806053A (zh) 在稠密深度和着陆质量热图中定位安全区的***和方法
FR3061343A1 (fr) Systeme d'aide a l'atterrissage d'un aeronef a voilure tournante sur une plateforme offshore
FR3033903A1 (fr) Systeme d'aide a la navigation d'un aeronef avec ecran d'affichage tete haute et camera.
FR3020170A1 (fr) Procede de guidage d'un aeronef
CA3048013A1 (fr) Procede et drone muni d'un systeme d'aide a l'atterrissage/decollage
FR3110985A1 (fr) Interface homme-machine d’un aéronef en phase de décollage ou d’atterrissage
US20230023069A1 (en) Vision-based landing system

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLFP Fee payment

Year of fee payment: 3

PLSC Publication of the preliminary search report

Effective date: 20211001

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6