FR2973896A1 - METHOD FOR GUIDING AN AIRCRAFT TO A PREDEFINED TARGET OBJECT AND GUIDE SYSTEM - Google Patents

METHOD FOR GUIDING AN AIRCRAFT TO A PREDEFINED TARGET OBJECT AND GUIDE SYSTEM Download PDF

Info

Publication number
FR2973896A1
FR2973896A1 FR1253158A FR1253158A FR2973896A1 FR 2973896 A1 FR2973896 A1 FR 2973896A1 FR 1253158 A FR1253158 A FR 1253158A FR 1253158 A FR1253158 A FR 1253158A FR 2973896 A1 FR2973896 A1 FR 2973896A1
Authority
FR
France
Prior art keywords
image
module
flying machine
flying
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1253158A
Other languages
French (fr)
Other versions
FR2973896B1 (en
Inventor
Schottl Alfred Dr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
LFK Lenkflugkoerpersysteme GmbH
Original Assignee
LFK Lenkflugkoerpersysteme GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by LFK Lenkflugkoerpersysteme GmbH filed Critical LFK Lenkflugkoerpersysteme GmbH
Publication of FR2973896A1 publication Critical patent/FR2973896A1/en
Application granted granted Critical
Publication of FR2973896B1 publication Critical patent/FR2973896B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/34Direction control systems for self-propelled missiles based on predetermined target position data
    • F41G7/343Direction control systems for self-propelled missiles based on predetermined target position data comparing observed and stored data of target position or of distinctive marks along the path towards the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2226Homing guidance systems comparing the observed data with stored target data, e.g. target configuration data
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2273Homing guidance systems characterised by the type of waves
    • F41G7/2293Homing guidance systems characterised by the type of waves using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0008Transmission of traffic-related information to or from an aircraft with other aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Combustion & Propulsion (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Navigation (AREA)

Abstract

Procédé de guidage de vol d'un engin volant vers un objet-cible défini par des informations d'images. On projette un modèle (PM-B) de référence (RM) de l'objet-cible ou de son environnement suivant la direction de visée actuelle de l'engin volant. A partir des données d'images de l'image actuelle (B1) de l'objet-cible, on évalue la position relative de l'engin volant et de l'objet-cible. On fait une corrélation de texture (T3-TK2 ) avec les informations de l'image actuelle et celles d'une image antérieure (B2) pour évaluer la direction de mouvement et la vitesse de l'engin volant par rapport à l'objet-cible. A partir de ces valeurs obtenues, on évalue (F-Ges) l'information de la position relative actuelle engin volant-objet-cible et de la direction de mouvement et du vecteur de vitesse réelle. A partir de ces informations, le module de guidage (LM) génère des ordres pour les actionneurs commandant les moyens de guidage aérodynamiques de l'engin volant pour le guider vers l'objet-cible.A method of guiding flight from a flying machine to a target object defined by image information. A reference model (PM-B) of the target object or its environment is projected according to the current direction of aim of the flying machine. From the image data of the current image (B1) of the target object, the relative position of the flying machine and the target object is evaluated. A texture correlation (T3-TK2) is made with the information of the current image and that of a previous image (B2) to evaluate the direction of movement and the speed of the flying machine relative to the subject object. target. From these obtained values, it evaluates (F-Ges) the information of the current relative position flying craft-target object and the direction of movement and the actual velocity vector. From this information, the guidance module (LM) generates commands for the actuators controlling the aerodynamic guidance means of the flying machine to guide it towards the target object.

Description

i Domaine de l'invention La présente invention se rapporte à un procédé de guidage d'un avion vers un objet-cible prédéfini ainsi qu'un système de guidage mettant en oeuvre ce procédé. FIELD OF THE INVENTION The present invention relates to a method for guiding an airplane towards a predefined target object as well as a guidance system implementing this method.

Etat de la technique De façon générale selon l'état de la technique, les avions sont équipés de systèmes de guidage comportant des capteurs pour commander l'avion de façon que l'avion suive aussi fidèlement que possible une trajectoire ou une trajectoire vers une destination prédéfinie. io Par exemple, de tels systèmes de guidage connus peuvent être intégrés dans un engin volant téléguidé et être réalisés pour conduire l'engin volant vers une cible prédéfinie de façon que l'engin atteigne la cible pré-définie avec un écart aussi réduit que possible. On connaît également de manière générale selon l'état de 15 la technique, les fonctions de traitement d'image pour déterminer les positions en trois dimensions par rapport à l'environnement d'un point de référence à l'aide d'un capteur d'image. La détermination de la position se fait par comparaison de l'image de l'environnement prise par le capteur et d'un modèle de référence connu préalablement par l'appareil. 20 De tels procédés de détermination de position en trois dimensions (3D), n'ont toutefois pas été utilisés dans des dispositifs de guidage de vol ou des dispositifs de pilotage, car ces moyens ne permettent pas de ré-pondre aux exigences actuelles concernant de telles fonctions à cause des règles de guidage strictes. D'une part, un dispositif de guidage ou 25 de pilotage équipé d'un tel procédé tridimensionnel ne peut se réaliser que de manière limitée en temps réel à cause du temps nécessaire aux calculs. D'autre part, la sensibilité ou la fragilité de tels procédés tridimensionnels vis-à-vis des erreurs du modèle de référence, sont par principe nécessairement très élevées. La précision requise pour les fonc- 30 tions de guidage ou de pilotage pour l'identification de la structure de l'environnement d'un point de référence, ne peut s'obtenir de manière fiable qu'avec des modèles très précis qui sont rarement disponibles en pratique. 35 STATE OF THE ART In general, according to the state of the art, planes are equipped with guidance systems comprising sensors for controlling the aircraft so that the aircraft follows as accurately as possible a trajectory or a trajectory towards a destination. predefined. For example, such known guidance systems can be integrated into a remote control gyrocopter and be made to drive the flying machine towards a predefined target so that the craft reaches the pre-defined target with as small a deviation as possible. . The image processing functions are also generally known according to the state of the art to determine the three-dimensional positions with respect to the environment of a reference point by means of an image sensor. 'picture. The determination of the position is done by comparing the image of the environment taken by the sensor and a reference model known beforehand by the device. Such three-dimensional (3D) position determination methods, however, have not been used in flight guidance devices or steering devices, as these means do not make it possible to meet current requirements concerning such functions because of the strict guiding rules. On the one hand, a guiding or piloting device equipped with such a three-dimensional method can only be realized in a limited way in real time because of the time required for the calculations. On the other hand, the sensitivity or fragility of such three-dimensional methods vis-à-vis the errors of the reference model, are in principle necessarily very high. The accuracy required for guidance or steering functions for identifying the environmental structure of a reference point can only reliably be obtained with very accurate models that are rarely available in practice. 35

2 But de l'invention La présente invention a pour but de développer un pro-cédé de guidage ou de pilotage ainsi qu'un système de guidage ou de pilotage pour commander un engin volant vers un objet-cible prédéfini à partir d'informations d'images pour que l'avion puisse naviguer avec une précision et une fiabilité suffisantes vers l'objet-cible prédéfini. Exposé et avantages de l'invention A cet effet, l'invention a pour objet un procédé de guidage de vol d'un avion ou engin volant pour le guider vers un objet-cible pré-défini par des informations d'images et notamment un objet au sol et/ou l'environnement d'un point-cible prédéfini au sol, procédé comprenant les étapes suivantes consistant à : - effectuer une projection de modèle d'un modèle de référence prédéfini de l'objet-cible ou d'une partie de l'objet-cible ou de l'environne- 15 ment du point-cible prédéfini consistant à partir de la direction de visée actuelle de l'engin volant, de faire une projection du modèle de référence ou d'une partie de celui-ci sur un plan image qui correspond à l'écart autorisé près, au plan image sur lequel de fonde la saisie de l'objet-cible l'environnement par le capteur d'image de l'en- 20 gin volant, les informations relatives à la direction de visée actuelle de l'engin volant étant obtenues à partir d'un module de navigation ou d'un module d'interface du système de guidage de vol ou d'un module de filtre, notamment comme résultat d'un procédé d'évaluation provenant d'une itération antérieure du procédé de guidage de 25 vol, - effectuer une corrélation de texture et à partir de la position relative actuelle évaluée engin volant-objet-cible, à partir des informations d'images de l'image actuelle ou quasi-actuelle d'une suite d'images prises de l'objet-cible ou de son environnement et à partir des infor- 30 mations de projection résultant de la projection de modèle, - effectuer une corrélation de texture avec des informations d'images d'une image actuelle et des informations d'images d'une image antérieure à l'image actuelle respectivement, chaque fois à partir de la suite chronologique d'images prises et pour déterminer une direction OBJECT OF THE INVENTION The object of the present invention is to develop a guidance or steering method as well as a guidance or steering system for controlling a flying machine towards a predefined target object based on information from images so that the aircraft can navigate with sufficient accuracy and reliability to the predefined target object. DESCRIPTION AND ADVANTAGES OF THE INVENTION For this purpose, the subject of the invention is a method for guiding the flight of an aircraft or flying machine to guide it towards a target object pre-defined by image information and in particular a ground object and / or the environment of a predefined target point on the ground, the method comprising the following steps: - performing a model projection of a predefined reference model of the target object or a part of the target object or the environment of the predefined target point consisting of the current aiming direction of the flying machine, of projecting the reference model or part of that on an image plane which corresponds to the distance allowed near, to the image plane on which the entry of the target object the environment by the image sensor of the flying coil is based, the information relating to the current aiming direction of the flying machine being obtained from a module of n or an interface module of the flight guidance system or a filter module, particularly as a result of an evaluation method from an earlier iteration of the flight guidance method, texture correlation and from the current relative position evaluated flying-object-target craft, from the image information of the current or near-current image of a sequence of images taken from the target object or of its environment and from the projection information resulting from the model projection, - texture correlation with image information of a current image and image information of an image prior to the image projection. current image respectively, each time from the chronological sequence of images taken and to determine a direction

3 de mouvement réel, évaluée et/ou d'une vitesse réelle de l'engin volant, - à partir de la direction de mouvement réelle, évaluée et/ou de la vitesse réelle de l'engin volant et à partir des informations relative à la position actuelle de l'engin volant, effectuer un procédé d'évaluation pour évaluer une information de la position relative actuelle engin volant-objet-cible pour l'engin volant par rapport à la position de l'objet-cible et/ou une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant, et transmettre la position relative en-gin volant-objet-cible et/ou le vecteur de vitesse réelle à un module de guidage, - dans le module de guidage, à partir de la position relative déterminée engin volant-objet-cible et du vecteur de vitesse réelle, déterminé, générer des ordres pour les actionneurs commandant les moyens de 15 guidage aérodynamiques de l'engin volant pour guider l'engin volant vers l'objet-cible. Selon l'invention, on applique un système de poursuite de trajectoire ou de guidage de vol ou un procédé de poursuite de trajectoire ou de guidage de vol appelés en abrégé "système de poursuite" le 20 système commande l'avion ou l'engin volant en utilisant les données d'images prises par des capteurs correspondant à l'environnement effectif d'un point prédéfini de la trajectoire. A partir de la comparaison des informations d'images et de l'environnement effectif d'un point prédéfini de la trajectoire avec des informations d'images en mémoire que l'engin 25 volant a enregistrées comme informations prédéfinies du point de trajectoire concerné, le système de poursuite détermine l'écart de l'engin volant par rapport au point respectif de la trajectoire et en déduit des commandes pour actionner l'engin volant dans le sens du point de trajectoire. 30 Selon un développement de l'invention, on détermine les écarts en deux dimensions de l'engin volant par rapport à un point de la trajectoire. Son dispositif de traitement de données est conçu pour comparer ces images successives et déterminer à partir des différences d'image, des écarts en deux dimensions entre l'engin volant et la trajec- 35 toire souhaitée. Les résultats de cette comparaison peuvent s'énoncer 3 actual movement, evaluated and / or actual speed of the flying machine, - from the actual, assessed movement direction and / or actual speed of the flying machine and from the information relating to the current position of the flying machine, perform an evaluation process for evaluating information of the current relative position flying-target-object craft for the flying machine with respect to the position of the target object and / or a direction of movement and / or a real speed vector of the flying machine, and transmitting the relative position of flywheel-object-object and / or the actual speed vector to a guidance module, - in the guidance module from the determined relative position of the flying-object-object and the determined actual velocity vector, generating commands for the actuators controlling the aerodynamic guidance means of the flying machine to guide the flying machine towards the target object. According to the invention, a flight tracking or flight guidance system or a flight tracking or flight guidance method, abbreviated as a "tracking system", is applied to the aircraft or the flying machine. using the image data taken by sensors corresponding to the actual environment of a predefined point of the trajectory. From the comparison of the image information and the actual environment of a predefined point of the trajectory with information of images in memory that the flying vehicle has recorded as predefined information of the trajectory point concerned, the tracking system determines the deviation of the flying machine from the respective point of the trajectory and derives commands to operate the flying machine in the direction of the trajectory point. According to a development of the invention, the two-dimensional deviations of the flying machine from a point in the trajectory are determined. Its data processing device is designed to compare these successive images and to determine, from the image differences, two-dimensional differences between the flying machine and the desired trajectory. The results of this comparison can be stated

4 par exemple comme suit : "trop à gauche" ou "trop en dessous". Dans de tels dispositifs de recherche en deux dimensions, on ne détermine pas la distance par rapport à la cible. Selon un autre développement de l'invention, en variante ou en plus des fonctions prédéfinies, on applique un procédé de détermination de position 3D qui, à côté des problèmes de données de référence, traite également les problèmes d'une extraction fiable de caractéristiques pour éviter des images non nettes ou ayant un mauvais contraste et qui n'aboutiraient à aucune caractéristique ou à un io nombre trop élevé de caractéristiques. Dans les deux cas, il serait difficile ou impossible d'associer ces caractéristiques aux caractéristiques correspondantes de la structure de référence. Une défaillance trop longue d'images appropriées se traduirait par une perte de poursuite, c'est-à-dire à une impossibilité permanente de comparer les données 15 d'image. Selon l'invention, on utilise les fonctions de traitement d'image pour déterminer les écarts en trois dimensions d'un engin volant par rapport à un point de la trajectoire. Le dispositif de traitement d'image tourne et déforme les données d'images prises de l'environne- 20 ment du point de trajectoire ou les données d'image enregistrées dans un modèle de référence de l'environnement du point de trajectoire pour obtenir par comparaison d'images, c'est-à-dire comparaison des don-nées d'images saisies et des données d'images enregistrées, une information tridimensionnelle de la position actuelle de l'engin volant ou de 25 l'écart de l'engin volant par rapport au point de la trajectoire. Le dispositif de guidage de vol ou dispositif de pilotage peut avoir un mode de fonctionnement permettant de prédéfinir la manoeuvre de vol en trois dimensions par rapport au point de la trajectoire. Selon l'invention, les fonctions pour effectuer des corréla- 30 tions de texture par l'évaluation du mouvement de translation de l'engin volant sous l'effet des informations d'images pour une suite d'images prises ainsi que par l'évaluation de la position tridimensionnelle de l'en-gin volant fondée sur les informations d'images déduites du modèle de référence, permettent de faire les corrélations de texture en temps réel. 35 Avec les résultats de l'extraction de caractéristiques et de la comparai- son de caractéristiques (concordance) des informations d'images provenant de plusieurs images d'une suite d'images prises de l'environne-ment du point de trajectoire et d'un modèle de référence de l'environnement du point de trajectoire, on pourra définir des ordres 5 pour répondre aux règles de guidage ou de pilotage, strictes, qui nécessitent des informations d'éloignement. En outre, la solution selon l'invention avec la combinaison de l'exécution d'une extraction de caractéristiques et d'une comparaison de caractéristiques (concordance) d'informations d'images provenant de plusieurs images et de corréla- i0 tions de texture permettront de compenser une sensibilité, le cas échéant limitée, quant à la précision du modèle de référence de sorte que les fonctions de guidage de vol ou de pilotage pourront être exécutées avec la précision requise. Cette combinaison compense les problèmes liés à l'ex- 15 traction de caractéristiques, par exemple des images non nettes ou de mauvais contrastes qui n'aboutiraient à aucune caractéristique ou à un nombre trop élevé de caractéristiques si bien que toute association avec les caractéristiques correspondantes de la structure de référence ou du modèle de référence, serait difficile, voire impossible. On évite ainsi tout 20 risque de défaillance prolongée d'images appropriées et de perte de poursuite, c'est-à-dire qu'on évite l'impossibilité permanente de comparer les caractéristiques ou de faire des concordances et ainsi d'appliquer une poursuite sur une série de points de trajectoire vers lesquels il faut se guider. 25 L'invention a pour objet un procédé de guidage ou de pilotage d'un avion ou engin volant pour le conduire vers un objet-cible prédéfini par des informations d'images et notamment un objet au sol et/ou l'environnement d'un point-cible prédéfini au sol, ce procédé comprenant les étapes consistant à : 30 - effectuer une projection de modèle pour un modèle de référence pré-défini de l'objet-cible ou d'une partie de l'objet-cible ou de l'environnement du point-cible prédéfini en réalisant sur le fondement de la direction de visée actuelle de l'engin volant, une projection du modèle de référence ou d'une partie de celui-ci sur un plan image qui 35 correspond dans les limites d'écart autorisé au plan image et dans la 4 for example: "Too much left" or "Too much below". In such two-dimensional search devices, the distance from the target is not determined. According to another development of the invention, in a variant or in addition to the predefined functions, a 3D position determination method is applied which, besides the reference data problems, also deals with the problems of a reliable extraction of characteristics for avoid images that are not sharp or have poor contrast and that do not result in any feature or number of features. In both cases, it would be difficult or impossible to associate these characteristics with the corresponding characteristics of the reference structure. Too long a failure of appropriate images would result in loss of pursuit, i.e., permanent inability to compare image data. According to the invention, the image processing functions are used to determine the three-dimensional deviations of a flying machine from a point of the trajectory. The image processing device rotates and distorts the image data taken from the trajectory point environment or the recorded image data into a reference model of the trajectory point environment to obtain comparison of images, that is to say comparison of the captured image data and recorded image data, three-dimensional information of the current position of the flying machine or of the distance of the flying craft in relation to the point of the trajectory. The flight guidance device or control device may have an operating mode for predefining the flight maneuver in three dimensions with respect to the point of the trajectory. According to the invention, the functions for effecting texture correlations by evaluating the translational movement of the flying machine under the effect of the image information for a sequence of images taken as well as by the evaluation of the three-dimensional position of the flying en-gin based on the image information derived from the reference model, make it possible to make texture correlations in real time. With the results of feature extraction and feature comparison (matching) of image information from multiple images of a sequence of images taken from the environment of the trajectory point and a reference model of the environment of the trajectory point, it will be possible to define orders 5 to respond to the rules of guidance or steering, strict, which require distance information. In addition, the solution according to the invention with the combination of performing feature extraction and feature comparison (matching) image information from multiple images and texture correlations. will compensate for a sensitivity, if any, limited as to the accuracy of the reference model so that the flight guidance or flight guidance functions can be performed with the required accuracy. This combination compensates for the problems associated with the extraction of features, for example, non-sharp images or bad contrasts which would not result in any characteristics or in too many characteristics, so that any association with the corresponding characteristics reference structure or reference model would be difficult if not impossible. This avoids any risk of prolonged failure of appropriate images and loss of pursuit, that is to say that it is impossible to permanently compare the features or make concordances and thus to apply a continuation. on a series of trajectory points to guide. The subject of the invention is a method of guiding or piloting an aircraft or flying machine to drive it towards a target object predefined by image information and in particular an object on the ground and / or the environment of a predefined ground target point, said method comprising the steps of: - performing a model projection for a pre-defined reference model of the target object or part of the target object or the environment of the predefined target point by realizing on the basis of the current direction of aim of the flying machine, a projection of the reference model or part of it on an image plane which corresponds within the limits of allowed deviation in the image plane and in the

6 saisie de l'objet-cible ou de son environnement, et est fondée sur un capteur d'image de l'avion, les informations de direction actuelle de visée de l'avion provenant d'un module de navigation ou d'un module d'interface du système de guidage ou d'un module de filtre, notam- ment comme résultat d'un procédé d'évaluation à partir d'une itération antérieure appliquée par le procédé de guidage du vol, - à partir des informations d'images provenant d'une image actuelle ou quasi-actuelle pour une suite chronologique d'images prises de l'objet-cible ou de son environnement et à partir des informations de io projection déterminées dans la projection de modèle, on effectue une corrélation de texture et aussi à partir d'une détermination d'une position relative actuelle engin volant-objet-cible, position évaluée par rapport à la position de l'objet-cible, - effectuer une corrélation de texture avec des informations d'images 15 provenant d'une image actuelle et des informations d'images provenant d'une image (B2) considérée comme antérieure, comme image chaque fois actuelle (B3), respectivement à partir de la suite chrono-logique des images prises et de la détermination d'une direction de mouvement réel, évaluée et/ou d'un vitesse réelle de l'engin volant, 20 notamment par rapport à la position de l'objet-cible, - à partir de la direction de mouvement réel, évaluée et/ou de la vitesse réelle de l'engin volant ainsi qu'à partir des informations par rapport à la position actuelle de l'engin volant, notamment par rapport à l'objet-cible, on exécute un procédé d'évaluation pour évaluer 25 une information de la position relative actuelle engin volant-objetcible pour l'engin volant par rapport à la position de l'objet-cible et/ou une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant, notamment par rapport à l'objet-cible et on transmet la position relative de l'engin volant-objet-cible et/ou le vecteur 30 de vitesse réelle à un module de guidage, - dans le module de guidage, à partir de la position relative déterminée engin volant-objet-cible et du vecteur de vitesse réelle, déterminé, on génère des ordres pour les actionneurs pour actionner des moyens de guidage aérodynamiques de l'engin volant et le conduite vers rob- 35 jet-cible. 6 capture of the target object or its environment, and is based on an image sensor of the aircraft, the current direction of sighting information of the aircraft from a navigation module or a module interface of the guidance system or a filter module, in particular as a result of an evaluation method from an earlier iteration applied by the flight guidance method, - from the information of images from a current or near-current image for a chronological sequence of images taken from the target object or its environment and from the projection information determined in the model projection, a texture correlation is carried out and also from a determination of a current relative position flying gear-target object, position evaluated with respect to the position of the target object, - performing texture correlation with image information from a current image and info rmations of images from an image (B2) considered as anterior, as an image each time current (B3), respectively from the chrono-logical sequence of the images taken and the determination of a real direction of motion, evaluated and / or a real speed of the flying machine, in particular with respect to the position of the target object, - from the real movement direction, evaluated and / or the actual speed of the machine flying and from the information with respect to the current position of the flying machine, particularly with respect to the target object, an evaluation method is performed to evaluate information of the current relative position of the flying craft. target for the flying machine relative to the position of the target object and / or a direction of movement and / or a real speed vector of the flying machine, in particular with respect to the target object and transmitting the relative position of the flying-object-object and / or the vector 30 of actual speed to a guidance module, - in the guidance module, from the determined relative position flywheel-object-target and the actual velocity vector, determined, orders are generated for the actuators to actuate means of aerodynamic guidance of the flying machine and the driving towards robber-target.

7 Selon l'invention, on détermine les informations relatives à la position actuelle de l'engin volant, notamment par rapport à l'objet-cible et/ou la position relative actuelle engin volant-objet-cible et/ou la position de l'objet-cible par des données radiogoniométriques, notam- ment par le système de guidage de vol. Selon un mode de réalisation du procédé de guidage de vol selon l'invention, l'objet-cible est un objet au sol et/ou un environnement d'un point-cible prédéfini au sol. Selon un développement de l'invention du procédé de io guidage de cible, il est prévu que pour exécuter le procédé d'évaluation, on détermine l'information de la position actuelle de l'engin volant qui est de préférence une position absolue ou en variante également une position relative, notamment une position par rapport à la position de l'engin volant à partir d'une plate-forme de communication prévue en 15 option selon l'invention. Selon un mode de réalisation du procédé de guidage de vol selon l'invention, le procédé comporte en outre les opérations sui-vantes consistant à : - effectuer une projection de caractéristiques au moins d'une caracté- 20 ristique du modèle de référence prédéterminé pour laquelle la direction de visée actuelle de l'engin volant génère une projection de la caractéristique du modèle de référence sur un plan image qui correspond à l'écart fiable du plan image et sur laquelle est fondée la saisie de l'objet-cible par un capteur d'image de l'engin volant, les in- 25 formations concernant la direction actuelle de visée de l'engin volant étant celles fournies par un module de navigation ou un module d'interface du système de guidage de vol ou d'un module de filtre, notamment comme résultat d'un procédé d'évaluation à partir d'une itération antérieure faite par le procédé de guidage de vol, 30 - effectuer une extraction de caractéristiques pour extraire des informations d'images à partir d'images actuelles respectives, ces caractéristiques correspondant à celles de l'image respective et identifier les caractéristiques correspondantes de l'image actuelle respective et du modèle de référence dans la projection de caractéristiques ainsi que According to the invention, the information relating to the current position of the flying machine is determined, in particular with respect to the target object and / or the current relative position of the flying craft-object-object and / or the position of the target object by direction-finding data, in particular by the flight guidance system. According to one embodiment of the flight guidance method according to the invention, the target object is an object on the ground and / or an environment of a predefined target point on the ground. According to a development of the invention of the target guidance method, it is provided that to execute the evaluation method, the information of the current position of the flying machine is preferably determined which is preferably an absolute position or also variant a relative position, including a position relative to the position of the flying machine from an optional communication platform according to the invention. According to an embodiment of the flight guidance method according to the invention, the method further comprises the following operations consisting in: - performing a projection of characteristics at least one characteristic of the predetermined reference model for which the current direction of aim of the flying machine generates a projection of the reference model characteristic on an image plane which corresponds to the reliable deviation from the image plane and on which is based the capture of the target object by a image sensor of the flying machine, the information concerning the current direction of aim of the flying machine being those provided by a navigation module or an interface module of the flight guidance system or a filter module, especially as a result of a method of evaluation from an earlier iteration made by the flight guidance method, - extracting characteristics to extract image information from respective current images, these characteristics corresponding to those of the respective image and identifying the corresponding characteristics of the respective current image and the reference model in the projection of characteristics as well as

8 déterminer les différences entre les caractéristiques respectives comparées, - à partir des disparités entre les caractéristiques respectives comparées, déterminer une position et/ou une situation de l'engin volant dans l'espace, - à l'aide de la position et/ou de la situation déterminées de l'engin volant dans l'espace, effectuer un procédé d'évaluation pour évaluer une information de la position relative actuelle engin volant-objetcible pour l'engin volant par rapport à la position de l'objet-cible io et/ou une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant, notamment par rapport à l'objet-cible et transmettre la position relative engin volant-objet-cible et/ou le vecteur de vitesse réelle à un module de guidage. Selon une autre caractéristique, l'invention a pour objet 15 un procédé de guidage de vol d'un engin volant pour guider celui-ci vers un objet-cible prédéfini par des informations d'images et notamment un objet au sol et/ou l'environnement d'un point-cible prédéfini au sol, ce procédé comprenant les étapes suivantes consistant à : - effectuer une projection de caractéristiques pour au moins une ca- 20 ractéristique du modèle de référence prédéterminé et qui, à partir de la direction actuelle de visée de l'engin volant, génère une projection de la caractéristique du modèle de référence sur un plan image qui correspond à l'écart fiable du plan image sur lequel est fondée la saisie de l'objet-cible par le capteur d'image de l'engin volant, les infor- 25 mations relatives à la direction actuelle de visée de l'engin volant étant celles d'un module de navigation ou d'un module d'interface du système de guidage de vol ou d'un module de filtre, notamment résultant d'un procédé d'évaluation provenant d'une itération antérieure effectuée par le procédé de guidage de vol, 30 - effectuer une extraction de caractéristiques pour extraire des informations d'une image actuelle respective et qui correspondent aux caractéristiques de l'image et identifier les caractéristiques correspondantes de l'image actuelle respective et du modèle de référence dans la projection de caractéristiques et déterminer les diffé- 35 rences entre les caractéristiques respectives comparées, 8 determine the differences between the respective characteristics compared, - from the disparities between the respective characteristics compared, determine a position and / or a situation of the flying machine in space, - using the position and / or of the determined situation of the spacecraft in space, perform an evaluation procedure to evaluate information of the current relative position of the flying-object craft for the flying craft in relation to the position of the target object io and / or a direction of movement and / or a real speed vector of the flying machine, in particular with respect to the target object and transmitting the relative position flying craft-object-target and / or the actual speed vector to a guide module. According to another characteristic, the subject of the invention is a method for guiding the flight of a flying machine to guide it towards a target object predefined by image information and in particular an object on the ground and / or the environment of a predefined target point on the ground, this method comprising the following steps: - performing a feature projection for at least one feature of the predetermined reference model and which, from the current direction of aim of the flying machine, generates a projection of the reference model characteristic on an image plane which corresponds to the reliable deviation of the image plane on which the capture of the target object by the image sensor is based. the flying machine, the information relating to the current direction of aim of the flying machine being that of a navigation module or an interface module of the flight guidance system or a flight module. filter, especially using an evaluation method from an earlier iteration carried out by the flight guidance method, performing a feature extraction to extract information from a respective actual image and corresponding to the characteristics of the image and identifying the corresponding characteristics of the respective actual image and the reference model in the feature projection and determining the differences between the respective characteristics compared,

9 - à partir des différences entre les caractéristiques respectives comparées, déterminer une position et/ou une situation de l'engin volant dans l'espace, - avec cette position et/ou situation déterminée de l'engin volant dans l'espace, effectuer un procédé d'évaluation pour évaluer une information de la position relative actuelle engin volant-objet-cible pour l'en-gin volant par rapport à la position de l'objet-cible et/ou une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant, notamment par rapport à l'objet-cible et transmettre la position relative engin volant-objet-cible et/ou le vecteur de vitesse réelle à un module de guidage, - dans le module de guidage, à partir de la position relative déterminée engin volant-objet-cible et du vecteur de vitesse réelle, déterminé, générer des ordres pour commander les actionneurs et manoeuvrer 15 les moyens de guidage aérodynamiques de l'engin volant pour le conduire sur l'objet-cible. Selon une autre caractéristique, l'invention a pour objet un système de guidage de vol d'un engin volant ou avion pour le guider à partir d'informations d'images vers un objet-cible prédéfini et notam- 20 ment un objet au sol et/ou un environnement d'un point-cible prédéfini au sol, ce système de guidage de vol comprenant : - un module de capteur d'image pour générer une suite chronologique d'images de l'objet-cible ou des informations d'images correspondantes, 25 - un module de modèle de référence contenant l'enregistrement d'un modèle de référence tridimensionnel de l'objet-cible ou de l'environnement du point-cible, - un module de projection de modèle avec une fonction qui, à partir de la direction de visée actuelle respective de l'engin volant sur l'objet- 30 cible, génère des informations de projection pour la projection du modèle de référence ou d'une partie de celui-ci sur un plan image correspondant à un écart fiable du plan image sur lequel se fonde la saisie de l'objet-cible par le capteur d'image de l'engin volant, - un premier module de corrélation de texture et de localisation coopé- 35 rant fonctionnellement avec le module de projection de modèle (PM- 9 - from the differences between the respective characteristics compared, determine a position and / or a situation of the flying machine in space, - with this position and / or determined situation of the flying machine in space, perform an evaluation method for evaluating information of the current relative position flying-target-object for the flying en-gin with respect to the position of the target object and / or a direction of movement and / or a vector the actual speed of the flying machine, in particular with respect to the target object and transmitting the relative position flying-object-object and / or the actual speed vector to a guidance module, in the guidance module, from the determined relative position of the flying-target-object craft and the determined actual velocity vector, generating commands for controlling the actuators and maneuvering the aerodynamic guidance means of the flying machine to take it to the target object; target. According to another characteristic, the subject of the invention is a flight guidance system of a flying machine or airplane for guiding it from image information to a predefined target object and in particular an object on the ground. and / or an environment of a predefined target point on the ground, this flight guidance system comprising: an image sensor module for generating a chronological sequence of images of the target object or information of corresponding images, 25 - a reference model module containing the recording of a three-dimensional reference model of the target object or environment of the target point, - a model projection module with a function which, from the respective current sighting direction of the flying machine on the target object, generates projection information for projection of the reference model or part thereof on an image plane corresponding to a reliable distance from the image plane on which the image is based capture of the target object by the image sensor of the flying machine, - a first texture and location correlation module cooperating functionally with the model projection module (PM-

i0 B) pour recevoir les informations de projection et avec le module de capteur d'image pour recevoir des informations d'images actuelles du point actuel respectif de l'objet-cible et ayant une fonction pour dé-terminer la corrélation entre les informations de projection et les in- formations d'images actuelles d'une image actuelle respective de l'objet-cible et une fonction qui, se fondant sur cette information, dé-termine la position relative actuelle évaluée engin volant-objet-cible de l'engin volant par rapport à la position de l'objet-cible, - un second module de corrélation de texture et de localisation coopé- io rant fonctionnellement avec le module de capteur d'image pour recevoir de celui-ci les images saisies et qui a une fonction pour déterminer la corrélation de texture entre les informations d'images correspondant à l'image actuelle et les informations d'images correspondant à une image vue antérieurement à l'image actuelle et une 15 fonction pour déterminer une direction de mouvement réel, évaluée et/ou une vitesse réelle de l'engin volant, notamment par rapport à la position de l'objet-cible en se fondant sur la corrélation de texture déterminée respectivement, - un module de filtre en relation fonctionnelle avec le premier et le se- 20 cond module de corrélation de texture et de localisation pour recevoir la position relative actuelle évaluée avion-objet-cible et la direction de mouvement réelle évaluée et/ou la vitesse réelle de l'engin volant et d'un module de navigation pour recevoir des informations de position de l'engin volant, ce module de filtre ayant une fonction pour 25 évaluer une information de la position relative actuelle engin volantobjet-cible de l'engin volant par rapport à la position de l'objet-cible et/ou d'un vecteur de vitesse réelle de l'engin volant, notamment par rapport à l'objet-cible, en se fondant chaque fois sur les données reçues, 30 - un module de guidage ayant une fonction pour générer des ordres pour les actionneurs pour actionner les moyens de guidage aérodynamiques de l'engin volant en se fondant sur des règles de guidage spécifiques à l'engin volant et sur la position relative déterminée en-gin volant-objet-cible et/ou le vecteur de vitesse réelle, déterminé, 35 pour guider l'engin volant sur l'objet-cible. i0 B) for receiving the projection information and with the image sensor module for receiving current image information from the respective current point of the target object and having a function for determining the correlation between the information of the projection and current image information of a respective current image of the target object and a function which, based on this information, determines the current relative position evaluated flying-object-object of the target object. apparatus flying in relation to the position of the target object, - a second texture correlation and location module cooperating functionally with the image sensor module to receive from it the captured images and which has a function for determining the texture correlation between the image information corresponding to the current image and the image information corresponding to an image viewed prior to the current image and a function for determining a real movement direction, evaluated and / or a real speed of the flying machine, in particular with respect to the position of the target object on the basis of the determined texture correlation respectively, - a filter module in functional relation with the first and the second texture and location correlation module for receiving the current relative position of the target aircraft-object and the actual measured motion direction and / or the actual speed of the aircraft and of the a navigation module for receiving position information from the flying machine, said filter module having a function for evaluating information of the current relative position of the flying object of the flying machine with respect to the position of the target object and / or a real speed vector of the flying machine, in particular with respect to the target object, relying each time on the data received, a guide module having a function for gen issuing orders for the actuators for actuating the aerodynamic guidance means of the flying machine on the basis of specific guidance rules for the flying craft and on the relative position determined in flywheel-object-target and / or the real speed vector, determined, 35 to guide the flying machine on the target object.

Il Selon une autre caractéristique du procédé de guidage de vol, le système de guidage de vol comprend : une liaison fonctionnelle pour laquelle on utilise le module de navigation ou un module d'interface du système de guidage de vol ou un mo- t dule de filtre, notamment comme résultat d'un procédé d'évaluation provenant d'une itération antérieure du procédé de guidage de vol, et qui est reliée fonctionnellement au module de projection de modèle de façon que celui-ci, à partir des informations de la direction de visée actuelle de l'engin volant, génère une projection du modèle de référence ou io d'une partie de celui-ci sur un plan image. Selon une autre caractéristique, l'invention concerne un système de guidage de vol d'un engin volant pour guider celui-ci à partir d'informations d'images vers un objet-cible prédéfini et notamment un objet au sol et/ou un environnement d'un point-cible prédéfini au sol, 15 système de guidage de vol comprenant : - un module de capteur d'image pour générer une suite chronologique d'images de l'objet-cible ou d'informations d'images correspondantes, - un module de modèle de référence contenant l'enregistrement d'un modèle de référence tridimensionnel de l'objet-cible ou de l'environ- 20 nement du point-cible, - un module de projection de caractéristiques relié fonctionnement au module de modèle de référence et qui génère à partir de la direction de visée actuelle de l'engin volant, une projection de la caractéristique du modèle de référence sur un plan image et qui correspond au 25 plan image avec un écart autorisé, plan sur lequel se fonde la saisie de l'objet-cible par le capteur d'image de l'engin volant, les informations relatives à la direction de visée actuelle de l'engin volant étant fournies par le module de navigation ou un module d'interface du système de guidage de vol ou d'un module de filtre, notamment 30 comme résultat d'un procédé d'évaluation provenant d'une itération antérieure du procédé de guidage de vol, - au moins un module d'extraction de caractéristiques pour extraire des informations de l'image actuelle respective qui correspondent à l'image respective et pour identifier les caractéristiques correspon- 35 dantes de l'image actuelle respective et du modèle de référence dans 12 la projection des caractéristiques et déterminer les différences entre les caractéristiques respectives comparées, - un module pour déterminer la position et/ou la situation de l'engin volant dans l'espace à partir des différences entre les caractérisa tiques respectives comparées, - un module pour exécuter un procédé d'évaluation pour évaluer une information de la position relative actuelle engin volant-objet-cible de l'engin volant, notamment par rapport à la position de l'objet-cible et/ou une direction de mouvement et/ou un vecteur de vitesse réelle 10 de l'engin volant, notamment par rapport à l'objet-cible et pour transmettre la position relative engin volant-objet-cible et/ou le vecteur de vitesse réelle à un module de guidage et l'évaluation se fait en se fondant sur la position déterminée et/ou la position de l'engin volant dans l'espace, et 15 - un module de guidage ayant une fonction pour générer des ordres destinés aux actionneurs pour commander les moyens de guidage aérodynamiques de l'engin volant à partir des règles de guidage spécifiques aux engins volants et de la position relative déterminée en-gin volant-objet-cible et/ou du vecteur de vitesse réelle, déterminé, 20 pour guider l'engin volant vers l'objet-cible. Dessin La présente invention sera décrite ci-après de manière plus détaillée à l'aide d'un exemple de réalisation de l'invention représenté à l'unique figure qui est un schéma par blocs d'un mode de réali- 25 sation d'une partie du système de guidage de vol selon l'invention. Description du mode de réalisation La figure montre un mode de réalisation du système de guidage de vol selon l'invention pour une configuration de base et quelques fonctions complémentaires en option. 30 Le système de guidage de vol selon l'invention sert à gui-der un engin volant ou un avion vers un objet-cible ou un point de trajectoire par rapport à un environnement de celui-ci au sol de sorte que par définition l'expression "objet-cible" dans la présentation de l'invention désigne notamment l'environnement d'un point de trajectoire et se- 35 ra également appelé ci-après "environnement". According to another characteristic of the flight guidance method, the flight guidance system comprises: a functional link for which the navigation module or an interface module of the flight guidance system is used or a modulus of flight of filter, especially as a result of an evaluation method from an earlier iteration of the flight guidance method, and which is operably connected to the model projection module so that it, from the direction information. the current aim of the flying machine, generates a projection of the reference model or a portion of it on an image plane. According to another characteristic, the invention relates to a flight guidance system of a flying machine for guiding it from image information to a predefined target object and in particular a ground object and / or an environment. of a predefined ground target point, flight guidance system comprising: - an image sensor module for generating a chronological sequence of images of the target object or corresponding image information; a reference model module containing the recording of a three-dimensional reference model of the target object or environment of the target point, - a feature projection module connected to the operation of the reference model module. reference and which generates from the current direction of sight of the flying machine, a projection of the characteristic of the reference model on an image plane and which corresponds to the image plane with an authorized deviation, plane on which the seizure is based o target object by the image sensor of the flying machine, the information relating to the current direction of view of the flying machine being provided by the navigation module or an interface module of the flight guidance system or a filter module, especially as a result of an evaluation method from an earlier iteration of the flight guidance method, - at least one feature extraction module for extracting information from the respective current image corresponding to the respective image and to identify the corresponding characteristics of the respective actual image and the reference model in the projection of the characteristics and to determine the differences between the respective characteristics compared, - a module for determining the position and / or the situation of the flying machine in space from the differences between the respective characteristics compared, - a module to execute a pro evaluation method to evaluate information of the current relative position of the flying object-object of the flying machine, in particular with respect to the position of the target object and / or a direction of movement and / or a vector of the actual speed of the flying machine, in particular with respect to the target object and for transmitting the relative position of the flying-object-object and / or the actual speed vector to a guidance module and the evaluation is done in based on the determined position and / or the position of the flying machine in the space, and 15 - a guide module having a function for generating commands for the actuators for controlling the aerodynamic guidance means of the flying machine from the guidance rules specific to the flying machines and from the determined relative position in flywheel-object-target and / or the actual, determined velocity vector for guiding the flying machine towards the target object. The present invention will now be described in more detail with the aid of an exemplary embodiment of the invention shown in the single figure which is a block diagram of an embodiment of the invention. part of the flight guidance system according to the invention. DESCRIPTION OF THE EMBODIMENT The figure shows an embodiment of the flight guidance system according to the invention for a basic configuration and some optional additional functions. The flight guidance system according to the invention serves to guide a flying machine or an aircraft towards a target object or a trajectory point with respect to an environment of the latter on the ground so that by definition the The expression "target object" in the presentation of the invention refers in particular to the environment of a trajectory point and will also be referred to hereinafter as "environment".

13 La représentation de la figure ne signifie pas qu'il s'agit d'une réalisation sous la forme d'un programme et/ou d'un circuit. En particulier, les blocs fonctionnels présentés correspondent à des parties de fonction qui peuvent être réalisées sous la forme d'un produit pro- gramme d'ordinateur qui s'implémente globalement sur un ordinateur ou partiellement sur plusieurs ordinateurs. Le système de guidage de vol comporte un module de modèle de référence RM enregistré en mémoire dans un modèle de référence tridimensionnel de l'objet-cible ou de l'environnement du point- u) cible prédéfini. Comme module de modèle de référence RM, on a fonctionnellement un module de projection de modèle PM-B et en option, en plus, un module de projection de caractéristiques PF-B lié à celui-ci pour transmettre des informations d'images prédéfinies du modèle de référence de l'objet-cible du module de modèle de référence RM au mo- 15 dèle de projection de modèle PM-B et au module de projection de modèle PM-B. Le module de projection de modèle PM-B a une fonction pour effectuer une projection du modèle de référence de l'objet-cible sur un plan image. En particulier, de façon imagée, l'objet-cible en tant que 20 structure globale ou partie de cette structure, est mis dans une situation dans laquelle l'objet-cible correspond à un capteur d'image de l'en-gin volant pour laquelle à l'instant respectif, la structure ou une partie de celle-ci a été vue ou prise par le capteur d'image de l'engin volant. Le modèle de référence ou la partie de celui-ci, est ainsi projeté sur un 25 plan image ou encore on transpose les informations d'images de façon correspondante sur un plan image qui correspond si possible au plan image ou n'en diffère que d'un écart acceptable, plan image sur lequel les informations d'images sont fondées sur des images faites par le capteur d'image ou sont ces images. Ainsi, pour le procédé selon l'inven- 30 tion, les images ou les informations d'images déduites du modèle de référence par la projection de modèle PM-B pour l'ensemble de l'objet-cible ou une partie de celui-ci, et qui sont générées par et avec le capteur d'image, peuvent être comparées avec des informations d'images ou une représentation de l'ensemble de l'objet-cible ou une partie de celui- 35 ci et être mis en corrélation pour en déduire une position actuelle de The representation of the figure does not mean that it is an embodiment in the form of a program and / or a circuit. In particular, the functional blocks presented correspond to functional parts which can be embodied as a computer program product which is implemented globally on a computer or partially on several computers. The flight guidance system includes a reference model module RM stored in memory in a three-dimensional reference model of the target object or environment of the predefined target point. As a reference model module RM, there is functionally a PM-B model projection module and optionally, in addition, a PF-B feature projection module linked thereto for transmitting predefined image information of the reference object model of the RM reference model module to the PM-B model projection model and the PM-B model projection module. The PM-B model projection module has a function for projecting the reference model of the target object on an image plane. In particular, pictorially, the target object as a whole structure or part of this structure, is put in a situation in which the target object corresponds to an image sensor of the flying en-gin for which at the respective moment, the structure or a part thereof has been seen or taken by the image sensor of the flying machine. The reference model or the part thereof is thus projected onto an image plane or the image information is transposed correspondingly onto an image plane which, if possible, corresponds to the image plane or differs only from the image plane. an acceptable deviation, image plane on which the image information is based on images made by the image sensor or are these images. Thus, for the method according to the invention, the images or image information derived from the reference model by the PM-B model projection for the entire target object or part of it. ci, and which are generated by and with the image sensor, can be compared with image information or a representation of the entire target object or a part thereof and be correlated to infer a current position of

14 l'engin volant ou une position relative actuelle engin volant-objet-cible par rapport à la position et/ou la situation de l'objet-cible et/ou des déductions correspondantes, c'est-à-dire notamment en filtrant ou en évaluant. 14 the flying vehicle or a current relative position of the flying-object-object with respect to the position and / or the situation of the target object and / or the corresponding deductions, that is to say in particular by filtering or by evaluating.

Pour effectuer la projection de modèle PM-B, le modèle de projection de modèle PM-B reçoit une information ou des données décrivant la direction actuelle de visée de l'engin volant selon le modèle de référence, notamment comme structure tridimensionnelle. Cette information permet à la fonction d'effectuer la projection de modèle pour le modèle de référence de façon que les informations d'images du modèle de référence de l'objet-cible soient projetées ou transformées pour être comparables aux informations d'images résultant du modèle de référence transformé pour être comparées aux informations d'images prises dans l'image de l'objet-cible fournie par le capteur d'image de l'engin volant ou déduite de ces informations pour notamment ensuite appliquer un procédé d'évaluation ou effectuer une corrélation pour déterminer une position, une direction de mouvement ou une vitesse de l'engin volant par rapport à l'objet-cible. Ainsi, en mettant en oeuvre la projection du modèle de référence en utilisant la direction de visée actuelle de l'engin volant, on projette le modèle de référence ou une partie de celui-ci sur un plan image qui correspond, avec un écart acceptable, au plan image sur lequel se fonde la saisie de l'objet-cible par le capteur d'image de l'engin volant, les informations relatives à la direction de visée actuelle de l'engin volant étant fournies par un module de navigation ou un module d'interface du système de guidage de vol ou d'un module de filtre, notamment comme résultat d'un procédé d'évaluation provenant d'une itération antérieure du procédé de guidage de vol. Le fait de fournir fonctionnellement les informations des données de projection de modèle pour le module de projection de mo- dèle PM-B à une autre fonction technique du procédé, est représenté schématiquement sous la forme d'une ligne fonctionnelle portant la référence 28 à la figure. Le module de projection de caractéristiques PF-B relié fonctionnellement en option au module de modèle de référence RM a une fonction pour appliquer une projection de caractéristiques du mo- To carry out the PM-B model projection, the model projection model PM-B receives information or data describing the current direction of aim of the flying machine according to the reference model, in particular as a three-dimensional structure. This information enables the function to perform model projection for the reference model so that the target object's reference model image information is projected or transformed to be comparable to the image information resulting from the reference model. reference model transformed to be compared with the image information taken in the image of the target object provided by the image sensor of the flying machine or deduced from this information, in particular to then apply a method of evaluation or perform a correlation to determine a position, direction of movement or speed of the flying machine relative to the target object. Thus, by implementing the projection of the reference model using the current direction of sight of the flying machine, the reference model or part of it is projected onto an image plane which corresponds, with an acceptable difference, in the image plane on which the target object is being captured by the image sensor of the flying machine, the information relating to the current direction of aim of the flying machine being provided by a navigation module or a an interface module of the flight guidance system or a filter module, particularly as a result of an evaluation method from an earlier iteration of the flight guidance method. Functionally providing the information of the model projection data for the PM-B model projection module to another technical function of the method is schematically represented in the form of a functional line with reference numeral 28 to FIG. Fig. The feature mapping module PF-B operatively connected optionally to the reference model module RM has a function for applying a projection of characteristics of the model.

15 dèle de référence de l'objet-cible sur un plan image de référence respectif. Cette fonction permet de mettre en situation une caractéristique de l'objet-cible qui est disponible du fait du modèle de référence ou peut être déduite de celui-ci ; cette situation correspond à celle de l'objet- cible par rapport à un capteur d'image de l'engin volant et pour laquelle à l'instant respectif, la caractéristique correspondante de la structure ou du modèle de référence a été vue et saisie par le capteur d'image de l'engin volant. Au moins cette caractéristique respective du modèle de référence est ainsi projetée sur un plan image ou encore les informa- tions d'images de ce modèle sont transposées de façon correspondante sur un plan image qui correspond si possible au plan image ou n'en diffère que par des écarts acceptables, plan image sur lequel se fondent les informations des images faites par le capteur d'image ou ces images mêmes ou leurs caractéristiques. Ainsi, pour le procédé selon l'inven- tion, à partir des informations d'images déduites du modèle de référence par la projection de caractéristiques PF-B pour au moins une caractéristique, extraire les informations d'images de cette caractéristique et des images générées par le capteur d'image ou déduites de celles-ci, pour les comparer aux informations d'images ou à une représentation de l'ensemble de l'objet-cible ou d'une partie de celui-ci et mettre en corrélation pour en déduire notamment en filtrant ou en évaluant, la position actuelle de l'engin volant ou une position relative actuelle engin volant-objet-cible par rapport à la position et/ou à la situation de l'objet-cible par rapport à la situation du capteur d'image ou de l'engin vo- Tant et/ou des déductions de ces informations. Pour exécuter la projection de caractéristiques, le module de projection de caractéristiques PF-B reçoit une information correspondant à la direction de visée actuelle de l'engin volant ou des données décrivant cette direction pour le modèle de référence, notamment comme structure tridimensionnelle. Cette information permet à la fonction de mise en oeuvre de la projection de caractéristiques, de projeter au moins une caractéristique du modèle de référence pour que les in-formations d'images d'au moins une caractéristique de l'objet-cible soient projetées ou transformées pour qu'à partir de la caractéristique ainsi transformée du modèle de référence, les informations d'images qui 15 reference reference of the target object on a respective reference image plane. This function makes it possible to situate a characteristic of the target object that is available because of the reference model or can be deduced from it; this situation corresponds to that of the target object with respect to an image sensor of the flying machine and for which at the respective instant, the corresponding characteristic of the reference structure or model has been viewed and entered by the image sensor of the flying machine. At least this respective characteristic of the reference model is thus projected on an image plane or the image information of this model is transposed correspondingly to an image plane which corresponds if possible to the image plane or differs from it only acceptable deviations, the image plane on which the information of the images made by the image sensor or these images or their characteristics are based. Thus, for the method according to the invention, from the image information deduced from the reference model by the projection of PF-B characteristics for at least one characteristic, extracting the image information of this characteristic and the images generated by the image sensor or derived therefrom, to compare them to the image information or to a representation of the entire target object or part thereof and to correlate for each to deduce, in particular by filtering or evaluating, the current position of the flying machine or a current relative position flying-object-object with respect to the position and / or situation of the target object in relation to the situation of the image sensor or the spacecraft and / or inferences from this information. To execute the feature projection, the feature projection module PF-B receives information corresponding to the current direction of aim of the flying machine or data describing this direction for the reference model, especially as a three-dimensional structure. This information enables the function of implementing the feature projection to project at least one characteristic of the reference model so that the image formations of at least one feature of the target object are projected or transformed so that from the thus transformed characteristic of the reference model, the image information which

16 en résultent puissent être comparées aux informations d'images de l'image de l'objet-cible générée par le capteur d'image de l'engin volant, pour la comparaison des caractéristiques respectives ou déduire notamment selon un procédé d'évaluation effectué ensuite ou faire une corrélation pour déterminer une position, une direction de mouvement ou une vitesse de l'engin volant par rapport à l'objet-cible. Ainsi, dans la mise en oeuvre de la projection de caractéristiques PF-B, en s'appuyant sur la direction de visée actuelle de l'engin volant, on réalise une projection de la caractéristique respective du modèle de référence sur un plan image qui correspond avec un écart acceptable, au plan image sur le-quel se fonde la saisie de l'objet-cible par le capteur d'image de l'engin volant, et on utilise des informations relatives à la direction de visée actuelle de l'engin volant provenant du module de navigation ou d'un module d'interface du système de guidage de vol ou d'un module de filtre, notamment comme résultat d'un procédé d'évaluation provenant d'une itération antérieure du procédé de guidage de vol. Le fait de fournir fonctionnellement des informations des données de projection de caractéristiques du module de projection de caractéristiques PF-B à une autre fonction du procédé est représenté schématiquement sous la forme d'une ligne fonctionnelle portant la référence 27 à la figure. Comme capteur d'image selon l'invention, on a notamment une caméra infrarouge, une caméra du domaine spectral visible ou un capteur radar générant des images ou une combinaison de plu- sieurs types de caméras séparées et/ou une combinaison de différents types de caméras. Avec au moins un capteur d'image, on prend une suite chronologique de plusieurs images de l'objet-cible. Les images de la suite chronologique sont générées dans un espace de temps dans lequel le procédé de guidage de vol selon l'invention est actif et pour servir dans le module de guidage LM à générer des ordres de commande de trajectoire de l'engin volant en se fondant sur le procédé de guidage de vol selon l'invention. Le module de guidage est un module qui, par exemple à partir de la position et de la situation, notamment par rap- port à la cible, calcule les ordres d'accélération actuels de l'engin volant 16 can be compared with the image information of the target object image generated by the image sensor of the flying machine, for the comparison of the respective characteristics or deduce in particular according to an evaluation method performed. then correlate to determine a position, direction of movement or speed of the flying machine relative to the target object. Thus, in the implementation of the projection of PF-B characteristics, based on the current direction of sight of the flying machine, a projection of the respective characteristic of the reference model is carried out on a corresponding image plane. with an acceptable deviation, in the image plane on which the capture of the target object by the image sensor of the flying machine is based, and information is used relating to the current direction of aim of the machine steering wheel from the navigation module or a flight guidance system interface module or a filter module, particularly as a result of an evaluation method from an earlier iteration of the flight guidance method . Functionally providing information of the feature projection data of the feature projection module PF-B to another function of the method is schematically shown in the form of a functional line with the reference 27 in the figure. As an image sensor according to the invention, there is especially an infrared camera, a camera of the visible spectral range or a radar sensor generating images or a combination of several types of separate cameras and / or a combination of different types of cameras. cameras. With at least one image sensor, we take a chronological sequence of several images of the target object. The images of the chronological sequence are generated in a space of time in which the flight guidance method according to the invention is active and for use in the LM guidance module to generate flight path control commands of the flying machine. based on the flight guidance method according to the invention. The guidance module is a module which, for example from the position and the situation, in particular with respect to the target, calculates the current acceleration commands of the flying machine

17 et détermine ou définit notamment par l'intermédiaire d'un régulateur d'état de vol, la position des ailerons ou gouvernes de l'engin volant. La figure montre une telle suite chronologique d'images d'une façon schématique et à titre d'exemple : - l'image B1 qui a été prise à un instant actuel ou quasi-actuel porte la référence "T(n)" à la figure, c'est-à-dire la référence correspondant à l'instant d'indice "n", - l'image B2 qui correspond à un instant qui précède relativement brièvement l'instant actuel ou quasi-actuel et qui a été prise notamment dans le temps avant l'image actuelle, porte la référence "T(n-1)" à la figure, c'est-à-dire la référence d'un instant d'indice "n-1", - l'image B3 qui a été prise à un instant qui est bien avant l'instant actuel ou quasi-actuel ou encore antérieur à l'instant T(n-1) et qui se situe notamment à quelques images correspondant à l'instant T(n-1), 15 porte la référence "T(n-k)" à la figure, c'est-à-dire qu'elle correspond à la référence de l'instant d'indice "n-k". Fournir fonctionnellement les informations des images représentées B1, B2, B3 à une autre fonction du procédé, est représenté schématiquement chaque fois par une ligne fonctionnelle portant les 20 références 11, 12, 13 à la figure. Un instant "quasi-actuel" désigne un instant qui n'est pas réellement l'instant actuel mais peut être considéré ou exploité comme instant actuel dans le cadre des autres instants utilisés dans le présent procédé. 25 Chacune des images prises B1, B2, B3 de l'objet-cible peut être notamment une information d'image associé respectivement à l'image prise à un instant donné. Selon l'invention, il est prévu notamment un module de capteur d'image avec un tel capteur d'image et un tel dispositif de trai- 30 terrent de signal de capteur qui convertit les signaux fournis par le capteur d'image en des informations d'images associées à un instant respectif d'une image sous la forme de signaux formatés. Un mode de réalisation du système de guidage de vol selon l'invention comporte un premier module de corrélation de texture 35 T3-TK 1, T3-S1 relié fonctionnellement par une ligne de signal, au mo- 17 and determines or defines in particular via a flight status controller, the position of the fins or control surfaces of the flying machine. The figure shows such a chronological sequence of images in a schematic way and by way of example: the image B1 which has been taken at a present or near-current instant carries the reference "T (n)" to the figure, that is to say the reference corresponding to the moment of index "n", - the image B2 which corresponds to a moment which precedes relatively briefly the current or near-current moment and which has been taken especially in the time before the current image, carries the reference "T (n-1)" in the figure, that is to say the reference of a moment of index "n-1", - the B3 image that was taken at a time that is well before the current or near-current time or even before the instant T (n-1) and which is in particular a few images corresponding to the instant T (n -1), 15 bears the reference "T (nk)" in the figure, that is to say that it corresponds to the reference of the instant of index "nk". Functionally providing the information of the images represented B1, B2, B3 to another function of the method is schematically represented each time by a functional line with the references 11, 12, 13 in the figure. A "near-real" instant refers to a moment that is not really the current moment but can be considered or exploited as a current moment in the context of the other moments used in the present process. Each of the images taken B1, B2, B3 of the target object may notably be image information associated with the image taken at a given moment, respectively. According to the invention, there is provided in particular an image sensor module with such an image sensor and such a sensor signal processing device which converts the signals supplied by the image sensor into information. images associated with a respective instant of an image in the form of formatted signals. One embodiment of the flight guidance system according to the invention comprises a first texture correlation module T3-TK 1, T3-S1 operably connected by a signal line, at the same time as

18 dule de projection de modèle PM-B pour recevoir les informations de projection qui sont celles que l'on obtient par la projection du modèle de référence ou d'une partie de celui-ci sur un plan image en tenant compte de la direction de visée actuelle respective de l'engin volant sur l'objet-cible et avec le module de capteur pour recevoir les informations d'images actuelles de l'image actuelle respective de l'objet-cible et ayant une fonction de détermination d'une corrélation T3-TK1 et notamment une corrélation de texture entre les informations de projection respectivement tenues et les informations d'images "actuelles" de l'image actuelle respectives de l'objet-cible et une fonction T3-S 1 qui, en se fondant sur ces informations, détermine une position relative actuelle évaluée engin volant-objet-cible pour l'engin volant par rapport à la position de l'objet-cible. La liaison fonctionnelle entre les fonctions pour fournir 15 les résultats intermédiaires respectifs d'une fonction à la fonction sui-vante, est une relation représentée symboliquement par une ligne fonctionnelle portant la référence 56 à la figure. La "position relative actuelle engin volant-objet-cible" peut être en particulier la distance actuelle entre l'engin volant et l'ob- 20 jet-cible ; en option il peut également s'agir de la combinaison avec la direction de visée actuelle de l'engin volant ou de son module de capteur d'image dirigé vers l'objet-cible. L'expression "corrélation de texture" désigne selon l'invention plus généralement une relation fonctionnelle et notamment un 25 écart entre les informations de deux images. Dans le cas cité ci-dessus et dans le mode de réalisation cité ci-dessus, une relation fonctionnelle et notamment un écart entre les informations de projection générées respectivement par le module de projection de modèle PM-B et qui correspondent à une projection de modèle sur le plan image et les informa- 30 tions d'images actuelles de l'image actuelle respective de l'objet-cible, et qui correspondent également une projection sur un plan image et notamment suivant le procédé de l'invention, les informations d'images sont transformées de façon que les plans images associés respective-ment pour la comparaison, soient orientés de façon identique à un écart 35 acceptable près, dans un espace en trois dimensions ou encore que le 18 PM-B model projection dule to receive the projection information that is that which is obtained by projecting the reference model or part of it on an image plane taking into account the direction of the projection. respective current target of the flying machine on the target object and with the sensor module for receiving the current image information of the respective current image of the target object and having a function of determining a correlation T3-TK1 and in particular a texture correlation between the respectively held projection information and the "current" image information of the respective current image of the target object and a T3-S 1 function which, based on this information, determines a current relative position evaluated flying-target-object craft for the flying craft in relation to the position of the target object. The functional link between the functions to provide the respective intermediate results of a function to the next function is a relation symbolically represented by a functional line with the reference 56 in the figure. The "current relative position of flying craft-target object" may be in particular the current distance between the flying machine and the target object; optionally it can also be the combination with the current direction of sight of the flying machine or its image sensor module directed to the target object. The expression "texture correlation" designates according to the invention more generally a functional relation and in particular a difference between the information of two images. In the case cited above and in the embodiment cited above, a functional relationship and in particular a difference between the projection information generated respectively by the PM-B model projection module and which correspond to a model projection. on the image plane and the current image information of the respective current image of the target object, and which also correspond to a projection on an image plane and in particular according to the method of the invention, the information of The images are transformed so that the respective image planes for comparison are oriented identically to a near acceptable deviation in a three-dimensional space or the

19 plan image de la projection de modèle soit mis en accord avec un écart acceptable selon l'orientation de l'image générée par le capteur d'image. Les informations d'images sont notamment des associations bidimensionnelles de contenu d'image à une région d'image. En particulier selon l'invention l'expression "procédé de corrélation de texture T" désigne un procédé de traitement des informations d'images saisies d'au moins deux images d'une suite d'images et pour lesquelles, les informations d'images d'au moins deux images sont mises directement en relation pour les différences ou les modifications de la texture ou de la structure reproduite sur les images respectives. Ainsi, par la comparaison directe, on identifie les différences directement perceptibles des textures d'images comparées entre elles. Les informations d'images d'une texture prise dans une image respective, peuvent notamment être données par les valeurs de pixel de l'image associée à chaque pixel de l'image et la prise de l'image par un capteur, par exemple de luminosité et/ou de teinte associée à chaque pixel. Selon le mode de réalisation de l'invention, le système de guidage de vol comporte un second module de corrélation de texture et de localisation T3-TK2, T3-S1 relié fonctionnellement au module de cap- teur d'image pour recevoir de celui-ci les images prises B1, B2, B3 : - une fonction pour effectuer une corrélation de texture T3-TK2 avec les informations d'une image actuelle et des informations d'images pour une image B2 antérieure pour être mise en relation avec l'image B3 actuelle et déduire la relation entre les informations d'images chaque fois mises en corrélation ou comparées, et - une fonction T3-S2 pour déterminer une direction de mouvement réelle évaluée et/ou une vitesse réelle de l'engin volant par rapport à la position de l'objet-cible en se fondant sur la corrélation de texture T3-TK2 respectivement obtenue. The image plane of the model projection is matched with an acceptable deviation depending on the orientation of the image generated by the image sensor. The image information includes two-dimensional associations of image content to an image region. In particular according to the invention, the expression "texture correlation method T" designates a process for processing image information captured from at least two images of a sequence of images and for which, the image information at least two images are directly related for differences or changes in the texture or structure reproduced on the respective images. Thus, by the direct comparison, we identify the directly perceptible differences in image textures compared with each other. The image information of a texture taken in a respective image may in particular be given by the pixel values of the image associated with each pixel of the image and the taking of the image by a sensor, for example of brightness and / or hue associated with each pixel. According to the embodiment of the invention, the flight guidance system comprises a second texture and location correlation module T3-TK2, T3-S1 operably connected to the image sensor module to receive it. ci the images taken B1, B2, B3: - a function to perform a texture correlation T3-TK2 with the information of a current image and image information for an earlier image B2 to be related to the image B3 current and deduce the relationship between image information each time correlated or compared, and - a function T3-S2 to determine an actual direction of motion evaluated and / or a real speed of the flying machine relative to the position of the target object based on the texture correlation T3-TK2 respectively obtained.

La relation fonctionnelle entre ces fonctions pour fournir le résultat intermédiaire respectif d'une fonction à la fonction suivante, est schématisée par une ligne fonctionnelle portant la référence 55 à la figure. Selon l'invention, le système de guidage de vol comporte un module de filtre F-Ges qui coopère avec : The functional relationship between these functions to provide the respective intermediate result of a function to the following function is shown schematically by a functional line bearing the reference 55 in the figure. According to the invention, the flight guidance system comprises an F-Ges filter module which cooperates with:

20 - le premier module de corrélation de texture et de localisation T3-RK1, T3-S1 pour recevoir la position relative actuelle évaluée engin volant-objet-cible, - le second module de corrélation de texture et de localisation T3-TK2, T2-S2 pour recevoir la direction de mouvement réelle évaluée et/ou la vitesse réelle de l'engin volant, et - un module de navigation N (ligne fonctionnelle symbolique 73) pour recevoir les informations de position de l'engin volant, c'est-à-dire la position de l'engin volant en deux dimensions dans un plan horizon- io tal ou en trois dimensions dans l'espace et en option une ou plu- sieurs valeurs déduites. Le module de filtre F-Ges a une fonction qu'il effectue notamment sur la base des grandeurs d'entrée citées ci-dessus en particulier sur la base d'un filtrage, une évaluation d'une information de la 15 position relative actuelle engin volant-objet-cible de l'engin volant par rapport à la position de l'objet-cible et/ou une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant par rapport à l'objet-cible en se fondant chaque fois sur les données reçues. Selon un mode de réalisation de l'invention, la position 20 relative actuelle respective engin volant-objet-cible et la direction de mouvement réelle, évaluée respective et/ou un vecteur de vitesse réelle en deux dimensions (dans le plan horizontal) ou en trois dimensions de l'engin volant à partir des fonctions T3-S2 ou T3-S1 sont appliqués à un module de filtre T3-F avec une fonction de filtrage local (lignes fonction- 25 nelle 55, 56) de façon que les grandeurs de sortie générées par les modules respectifs (lignes de fonction 55, 56) soient réunies ; à partir des grandeurs de sortie (lignes fonctionnelles 55, 56) de chacun des modules pour l'instant actuel ou un taux d'itération actuel, on détermine les valeurs uniformes respectives du signal pour la transmission (ligne 30 fonctionnelle 66) au module de filtre F-Ges. La formation de valeurs de signal uniforme, c'est-à-dire si possible non contradictoires pour un taux d'itération ou qui ne sont pas trop dispersées, se fait notamment en formant la moyenne et/ou en lissant des valeurs, en option à l'aide des données de navigation. The first texture and location correlation module T3-RK1, T3-S1 to receive the current relative position evaluated flying-object-object craft, the second texture-localization correlation module T3-TK2, T2- S2 to receive the actual movement direction evaluated and / or the actual speed of the flying machine, and - a navigation module N (symbolic functional line 73) for receiving the position information of the flying machine, that is, that is to say the position of the flying machine in two dimensions in a horizontal or three-dimensional plane in space and optionally one or more values deduced. The filter module F-Ges has a function which it performs in particular on the basis of the input quantities mentioned above, in particular on the basis of a filtering, an evaluation of an information of the current relative position of the machine. flying-object-target of the flying machine with respect to the position of the target object and / or a direction of movement and / or a real speed vector of the flying machine relative to the target object in relying each time on the data received. According to an embodiment of the invention, the respective current relative position of the flying-target-object craft and the respective actual measured motion direction and / or a two-dimensional (in the horizontal plane) real velocity vector or three dimensions of the flying machine from the functions T3-S2 or T3-S1 are applied to a filter module T3-F with a local filter function (function lines 55, 56) so that the magnitudes of output generated by the respective modules (function lines 55, 56) are combined; from the output quantities (functional lines 55, 56) of each of the modules for the current time or a current iteration rate, the respective uniform values of the signal for the transmission (functional line 66) are determined at the module of the module. F-Ges filter. The formation of uniform signal values, that is to say if possible non-contradictory for an iteration rate or which are not too dispersed, is done in particular by averaging and / or smoothing values, optional using navigation data.

21 Selon un mode de réalisation de l'invention, dans le module de projection de modèle PM-B en option dans le module de projection de caractéristiques PF-B, on introduit des informations concernant la direction de visée actuelle de l'engin volant par rapport au modèle de référence et/ou la position de l'engin volant qui ont été déterminées respectivement dans un module selon l'invention ou dans une plate-forme de communication externe. Selon un mode de réalisation de l'invention, l'information fournie au module de projection de modèle PM-B ou en option au mo- to dule de projection de caractéristiques PF-B concernant la direction de visée actuelle de l'engin volant sur le modèle de référence et/ou la position de l'engin volant, peut être prise en variante ou en plus à partir des modules ou fonctions suivantes : - un module de filtre spécifique du système de guidage de vol, ou 15 - le système de navigation N qui fait fonctionnellement partie du système de guidage de vol selon l'invention ou est associé fonctionnellement à celui-ci, ou - de préférence comme dans l'exemple de réalisation représenté à la figure, le module de filtre F-Ges (ligne fonctionnelle symbolique 84). 20 En variante de cette information relative à la direction de visée actuelle et/ou à la position de l'engin volant sur le modèle de référence, on peut également transmettre à partir d'une plate-forme de communication au sol ou sur l'eau ou en vol, à un module de réception correspondant, c'est-à-dire de façon générale un module d'interface du 25 système de guidage de vol. Dans ce cas, l'information de la direction de visée actuelle de l'engin volant sur le modèle de référence et/ou la position de l'engin volant, sont transmises par une ligne de signal du module de réception au module de projection de modèle TM-B et/ou au module de projection de caractéristiques PF-B. au cas où l'information 30 relative à la direction de visée actuelle de l'engin volant sur le modèle de référence est prise dans un module de filtre, il est notamment prévu que cette information est prélevée d'un procédé d'évaluation antérieure et notamment d'une itération antérieure ou encore par filtrage, c'est-à-dire d'une boucle d'itération antérieure ou précédente du procédé de l'inven- 35 tion. Pour la première itération ou aussi pour appuyer cette boucle de According to one embodiment of the invention, in the optional PM-B model projection module in the PF-B feature projection module, information about the current aiming direction of the flying machine is introduced by reference to the reference model and / or the position of the flying machine which have been determined respectively in a module according to the invention or in an external communication platform. According to one embodiment of the invention, the information provided to the PM-B model projection module or optionally to the PF-B feature projection mode relating to the current aiming direction of the flying craft on the reference model and / or the position of the flying machine, can be taken alternatively or additionally from the following modules or functions: a specific filter module of the flight guidance system, or the system of N navigation which is functionally part of the flight guidance system according to the invention or is functionally associated therewith, or - preferably as in the embodiment shown in the figure, the F-Ges filter module (line symbolic functional 84). As a variant of this information relating to the current direction of aim and / or the position of the flying machine on the reference model, it is also possible to transmit from a communication platform on the ground or on the or in flight, to a corresponding receiving module, i.e. generally speaking an interface module of the flight guidance system. In this case, the information of the current direction of sight of the flying machine on the reference model and / or the position of the flying machine, are transmitted by a signal line of the receiving module to the projection module of TM-B model and / or PF-B feature projection module. in the case where the information relating to the current direction of sight of the flying machine on the reference model is taken in a filter module, it is in particular provided that this information is taken from an earlier evaluation method and in particular an earlier iteration or filtering, that is to say an earlier or previous iteration loop of the method of the invention. For the first iteration or also to support this loop of

22 réaction, on peut notamment prévoir une valeur prédéfinie que l'on introduit avant le début du procédé de guidage de vol pour chaque projection de modèle PM-B à effectuer. Selon un mode de réalisation du procédé de guidage de vol de l'invention, c'est-à-dire après avoir exécuté la projection de modèle PM-B du modèle de référence prédéfini RM de l'objet-cible, et selon les caractéristiques projetées du modèle de référence suivant la direction de visée actuelle de l'engin volant, on procède notamment comme suit io - à partir des informations d'images provenant d'une image actuelle d'une suite chronologique d'images prises B1, B2, B3, et à partir des informations obtenues par la projection de modèle PM-B, on effectue une corrélation de texture T3-TK2 en déterminant une position réelle évaluée de l'engin volant par rapport à la position de l'objet-cible, 15 - pour effectuer une corrélation de texture T3-TK 1 avec des informations d'images d'une image actuelle et des informations d'images d'une image B2 qui a été considérée antérieurement à l'image actuelle B1 à partir de la suite chronologique d'images prises B1, B2, B3, et on détermine une direction de mouvement réelle évaluée et/ ou 20 une vitesse réelle de l'engin volant par rapport à la position de l'ob- jet-cible, - à partir de la direction de mouvement réelle évaluée et/ou de la vitesse réelle de l'engin volant ainsi qu'à partir des informations de position (à partir du système de navigation ; au moins une partie de la 25 position et/ou de la première et/ou de la seconde dérivée de celle-ci), on effectue un procédé d'évaluation (filtrage) F-Ges pour évaluer une information de la position relative actuelle engin volant-objet-cible de l'engin volant par rapport à la position de l'objet-cible et un vecteur de vitesse réelle de l'engin volant par rapport à l'objet-cible et on 30 transmet la position relative engin volant-objet-cible et le vecteur de vitesse réelle au module de guidage LM, - dans le module de guidage LM et à partir de la position relative dé-terminée engin volant-objet-cible et du vecteur de vitesse réelle, dé-terminé ainsi qu'à partir des règles de guidage spécifiques de l'engin 35 volant, on génère des ordres pour commander les actionneurs qui In particular, a predefined value can be provided which is introduced before the start of the flight guidance method for each PM-B model projection to be carried out. According to one embodiment of the flight guidance method of the invention, that is to say after having executed the PM-B model projection of the predefined reference model RM of the target object, and according to the characteristics projected from the reference model according to the current direction of view of the flying machine, the following is in particular carried out io - from the image information from a current image of a chronological sequence of images taken B1, B2, B3, and from the information obtained by the PM-B model projection, a texture correlation T3-TK2 is performed by determining a real evaluated position of the flying machine with respect to the position of the target object, to perform a texture correlation T3-TK 1 with image information of a current image and image information of a picture B2 which has been considered previously to the current image B1 from the chronological sequence pictures taken B1, B2, B3, and determining an actual measured motion direction and / or a real speed of the flying machine relative to the position of the target object, - from the actual measured motion direction and / or the actual speed of the flying machine as well as from the position information (from the navigation system; at least a part of the position and / or the first and / or second derivative thereof), an evaluation process (filtering) F-Ges is carried out to evaluate an information of the current relative position of the apparatus steering-object-target of the flying machine with respect to the position of the target object and a real speed vector of the flying machine relative to the target object and the relative position of the flying vehicle is transmitted; target object and the actual velocity vector at the LM guide module, in the LM guidance module and from the relative position of the target-object-flywheel and the actual velocity vector, de-terminated as well as 'from the specific guiding rules of the flying machine, orders are generated to control the actuators which

23 actionnent les moyens de guidage aérodynamiques de l'engin volant pour le guider vers l'objet-cible. Selon un mode de réalisation de l'invention, à partir de l'image actuelle respective B1 (ligne fonctionnelle symbolique 65) et en fonction des données générées par le module de filtre F-Ges (ligne fonctionnelle symbolique 85) dans un module de détermination d'image de référence RB on déduit une image de référence spéciale et notamment améliorée par rapport au modèle de référence RM. Le modèle de référence spécial ou amélioré peut être envoyé au module de modèle de ré- io férence RM pour remplacer le modèle de référence actuel par le modèle de référence amélioré (les lignes fonctionnelles ne sont pas représentées). Le module de détermination de l'image de référence RB peut avoir une fonction pour corriger l'image actuelle respective B1 en se fondant sur l'information déterminée dans le module de filtre F-Ges de la posi- 15 tion relative actuelle engin volant-objet-cible de l'engin volant par rapport à la position de l'objet-cible et/ou d'un vecteur de vitesse réelle de l'engin volant par rapport à l'objet-cible. Cette image corrigée et l'image actuelle respective B1 (ou les informations d'images associées à chaque image) sont fournies à corrélateur de texture TK (lignes fonctionnelles 20 symboliques 86 ou 65) déterminant la relation fonctionnelle et notamment les écarts entre les informations d'images pour ces images. Cette relation fonctionnelle et notamment les écarts sont fournis au module de guidage LM (ligne fonctionnelle symbolique 95). Le module de guidage LM de ce mode de réalisation est tel qu'à l'aide de cette fonction, il 25 détermine la relation de la différence entre les grandeurs d'état de l'en-gin volant et les grandeurs d'état de l'objet-cible ou il détermine plus précisément l'environnement d'un point de la trajectoire et utilise ces valeurs plus précises pour améliorer le guidage de l'engin volant. On peut notamment prévoir que les valeurs respectives plus précises sont 30 utilisées notamment pour amplifier les ordres associés à chaque valeur d'écart. Pour cela, on peut fournir des données de navigation supplémentaires provenant du module de navigation N au module de guidage LM (ligne fonctionnelle symbolique 93). Selon un autre développement du procédé de l'invention 35 ou du dispositif de l'invention, on a une combinaison entre : 23 actuate the aerodynamic guidance means of the flying machine to guide it to the target object. According to an embodiment of the invention, from the respective current image B1 (symbolic functional line 65) and according to the data generated by the filter module F-Ges (symbolic functional line 85) in a determination module reference image RB is deduced a special reference image and in particular improved compared to the reference model RM. The special or enhanced reference model can be sent to the RM reference model module to replace the current reference model with the enhanced reference model (the functional lines are not represented). The reference image determination module RB may have a function for correcting the respective current image B1 on the basis of the information determined in the filter module F-Ges of the current relative position of the flying vehicle. target object of the flying machine with respect to the position of the target object and / or a real speed vector of the flying machine relative to the target object. This corrected image and the respective actual image B1 (or the image information associated with each image) are provided to texture correlator TK (symbolic functional lines 86 or 65) determining the functional relationship and in particular the gaps between the information of the image. 'images for these images. This functional relationship and in particular the differences are provided to the LM guidance module (symbolic functional line 95). The LM guide module of this embodiment is such that, using this function, it determines the relationship of the difference between the state variables of the flywheel and the state variables of the target object or it determines more precisely the environment of a point of the trajectory and uses these values more precise to improve the guidance of the flying machine. In particular, it is possible to provide that the more precise respective values are used in particular to amplify the orders associated with each deviation value. For this purpose, additional navigation data can be provided from the navigation module N to the guidance module LM (symbolic functional line 93). According to another development of the process of the invention or the device of the invention, there is a combination of:

24 - une chaîne fonctionnelle d'extraction de caractéristiques et de filtrage fondée sur une détermination des données rapportées à l'engin volant à partir des caractéristiques en effectuant un procédé d'ex-traction de caractéristiques et une comparaison de caractéristiques encore appelé "procédé de concordance" à partir des informations d'images provenant de plusieurs images de la suite des images prises de l'objet-cible ou de l'environnement du point-cible prédéfini et d'un modèle de référence RM de l'objet-cible ou de l'environnement avec un procédé d'évaluation, notamment pour former des données d'état io de vol de l'engin volant, et - un mode de réalisation décrit précédemment d'un procédé de corrélation de texture T qui à partir des informations d'images d'une suite d'images prises et des informations d'images déduites du modèle de référence par les données d'état actuelles de l'engin volant, avec des 15 corrélations de texture T 1 pour déterminer les variations des textures et à partir de là appliquer un procédé d'évaluation T2 pour évaluer les données de translation rapportées à l'engin volant y compris le mouvement de l'engin volant par rapport au point de trajectoire et à la position en trois dimensions de l'engin volant. 20 On combine ainsi les avantages du procédé d'extraction de caractéristiques M1 et du procédé de corrélation de texture T d'une manière particulière. Le procédé d'extraction de caractéristiques M1 permet de détecter et de poursuivre un point de trajectoire pour des caractéristiques connues et qui se détectent clairement sur ce point et le 25 procédé de corrélation de texture T permet de détecter et de poursuivre en cas d'arête non nette qui pourrait résulter des informations d'images provenant des images B1, B2, B3. Pour les différentes images ou pour chaque image B1, B2, B3, on extrait les caractéristiques à l'aide d'un module d'extraction 30 de caractéristiques T2-ME 1, T2-ME2, TE-ME3. L'expression "procédé d'extraction de caractéristiques M 1" désigne notamment un procédé selon lequel à partir des images prises, on déduit les caractéristiques telles que par exemple les coins, les arêtes ou les points marquants des images respectives B1, B2, B3 (encore appelées poursuite de caractéris- 35 tiques). A functional feature extraction and filtering chain based on a determination of the data reported to the flying machine from the characteristics by carrying out a method of extracting characteristics and a comparison of characteristics, also called "method of concordance "from the image information from several images of the sequence of images taken from the target object or the environment of the predefined target point and a reference model RM of the target object or of the environment with an evaluation method, in particular for forming the flight equipment status data io, and - a previously described embodiment of a texture correlation method T which from the information of images of a sequence of images taken and image information derived from the reference model by the current status data of the flying machine, with texture correlations T 1 for determine the variations of the textures and from there apply a method of evaluation T2 to evaluate the data of translation related to the flying machine including the movement of the flying machine with respect to the trajectory point and the position in three dimensions of the flying machine. The advantages of the feature extraction method M1 and the texture correlation method T are thus combined in a particular manner. The feature extraction method M1 makes it possible to detect and track a trajectory point for known characteristics and which are clearly detected on this point and the texture correlation method T makes it possible to detect and to continue in case of a ridge. not clear that could result from image information from images B1, B2, B3. For the different images or for each image B1, B2, B3, the characteristics are extracted using an extraction module 30 of characteristics T2-ME1, T2-ME2, TE-ME3. The expression "method for extracting characteristics M 1" designates, in particular, a method according to which from the images taken, the characteristics such as, for example, the corners, the edges or the salient points of the respective images B1, B2, B3 are deduced. (still called continuation of characteristics).

25 Dans l'étape de concordance (Matching) T2-M 1, T2-M2, T2-M3, à partir des images respectives B1, B2, B3 (lignes fonctionnelles 21, 22, 23) on compare les caractéristiques selon les informations d'images correspondant aux images B1, B2, B3 fournies par le capteur et des caractéristiques du modèle de référence précédent RM à partir de la projection de caractéristiques PF-B (ligne fonctionnelle symbolique 27). L'association entre au moins un ensemble de caractéristiques de données de référence et du modèle de référence RM en mémoire à partir de la projection de caractéristiques PF-B, permet une association avec io chaque fois une caractéristique d'image de chaque image saisie B1, B2, B3. Selon un mode de réalisation de l'invention, pour chaque image actuelle B1, on effectue une étape de concordance T2-Ml et on compare les caractéristiques selon les informations d'images pour 15 l'image B1 fournie par le capteur respectif en comparant aux caractéristiques du modèle de référence précédent RM de la projection de caractéristiques PF-B (ligne fonctionnelle symbolique 27). L'association entre au moins un ensemble de caractéristiques de données de référence et du modèle de référence enregistré en mémoire RM par la projection de 20 caractéristiques PF-B est associée à une caractéristique d'image de l'image actuelle saisie B1. En appliquant ensuite un procédé d'évaluation T2-S3, on détermine la variation des caractéristiques extraites des images saisies. Le résultat du procédé de concordance T2-M 1 peut être 25 appliqué directement au module de localisation/de différence T2-S3 (ligne fonctionnelle symbolique 34). La fonction de localisation contenue dans ce module est évaluée à partir des caractéristiques mises en relation, directement à la position et éventuellement la situation de la caméra ou de l'engin volant dans l'espace. Suivant le cas d'application, on 30 peut faciliter la localisation à l'aide de la fonction de localisation en utilisant des données filtrées déjà déterminées ou encore des données de navigation. En variante ou en plus, le module de localisation/différence T2-S3 peut avoir une fonction pour déterminer des différences qui peu-vent être notamment des mesures des différences des caractéristiques 35 mises en relation. In the matching step T2-M 1, T2-M2, T2-M3, from the respective images B1, B2, B3 (functional lines 21, 22, 23), the characteristics are compared according to the information of FIG. images corresponding to the images B1, B2, B3 provided by the sensor and characteristics of the previous reference model RM from the projection of characteristics PF-B (symbolic functional line 27). The association between at least one set of reference data characteristics and the reference model RM in memory from the projection of PF-B characteristics allows an association with each time an image characteristic of each captured image B1. , B2, B3. According to one embodiment of the invention, for each current image B1, a matching step T2-M1 is performed and the characteristics are compared according to the image information for the image B1 provided by the respective sensor by comparing to characteristics of the previous reference model RM of the PF-B feature projection (symbolic functional line 27). The association between at least one set of reference data characteristics and the reference model recorded in RM memory by the projection of PF-B characteristics is associated with an image characteristic of the current captured image B1. By then applying a T2-S3 evaluation method, the variation in characteristics extracted from the captured images is determined. The result of the T2-M1 match procedure can be applied directly to the location / difference module T2-S3 (symbolic functional line 34). The location function contained in this module is evaluated from the characteristics related directly to the position and possibly the situation of the camera or the flying machine in the space. Depending on the application case, location can be facilitated by means of the location function using already determined filtered data or navigation data. Alternatively or additionally, the location / difference module T2-S3 may have a function for determining differences which may be, in particular, measurements of the differences in the characteristics relating to each other.

26 Les résultats peuvent être transmis à un filtre local T2-F1 (ligne fonctionnelle symbolique 44) ; cette transmission est une étape obligatoire si l'on utilise des différences ; dans ce filtre, on applique une fonction pour améliorer l'évaluation de la position et le cas échéant de la situation de la caméra ou de l'engin volant, notamment par rapport à l'objet-cible ou à l'environnement du point de trajectoire de consigne. Ces résultats sont transmis au module de filtre F-Ges pour appliquer le procédé d'évaluation décrit (ligne fonctionnelle symbolique 54). En va-riante ou en plus, pour former en même temps une trace (c'est-à-dire la io poursuite de la position à partir des caractéristiques dans l'image pour au moins deux ou plusieurs images et pour déterminer l'évolution de la position) le cas échéant pour l'étape de concordance T2-Ml, on pourra fournir des informations relatives à la qualité et à la probabilité de l'occurrence des caractéristiques. 15 Selon un exemple de réalisation de l'invention, dans un module de concordance/formation de trace T2-M2, on applique un pro-cédé de concordance et notamment la comparaison entre les caractéristiques selon les informations d'images provenant de l'image actuelle B1 du capteur (fourniture selon la ligne fonctionnelle symbolique 21) en 20 comparant avec les caractéristiques de l'image antérieure B2 (cette fourniture est représentée schématiquement par la ligne fonctionnelle 22). On associe ainsi au moins un ensemble de caractéristiques de l'image actuelle B1 respectivement saisie aux caractéristiques de l'image B2. On détermine notamment la variation des caractéristiques extraites 25 respectivement des images saisies B1, B2 et on les fournit à un module d'évaluation T2-S2. Le module d'évaluation T2-S2 applique notamment un procédé d'évaluation T2-S2 pour évaluer le mouvement de translation de l'engin volant dans le module d'évaluation T2-S2 (la fourniture est représentée par la ligne fonctionnelle symbolique 52). Le mouvement 30 de translation peut être fourni au module de filtre F-Ges. Le module de filtre F-Ges peut notamment avoir une fonction qui compense le mouvement de translation du module T3-S2 avec le mouvement de translation de l'engin volant évalué par le module d'évaluation T2-S2, par exemple en formant une valeur moyenne. Cela permet d'améliorer le 35 procédé d'évaluation dans le module de filtre F-Ges. The results can be transmitted to a local filter T2-F1 (symbolic functional line 44); this transmission is a compulsory step if differences are used; in this filter, a function is applied to improve the evaluation of the position and, if appropriate, the situation of the camera or the flying machine, in particular with respect to the target object or the environment of the setpoint path. These results are transmitted to the filter module F-Ges to apply the described evaluation method (symbolic functional line 54). In a variant or in addition, to form at the same time a trace (that is to say the continuation of the position from the characteristics in the image for at least two or more images and to determine the evolution where appropriate for the T2-M1 match step, information on the quality and likelihood of occurrence of the characteristics can be provided. According to an exemplary embodiment of the invention, in a T2-M2 match / trace formation module, a concordance procedure is applied and in particular the comparison between the characteristics according to the image information from the image present B1 sensor (supply according to the symbolic functional line 21) by comparing with the characteristics of the prior image B2 (this supply is shown schematically by the functional line 22). At least one set of characteristics of the current image B1 respectively entered is thus associated with the characteristics of the image B2. In particular, the variation of the characteristics extracted respectively from the captured images B1, B2 is determined and supplied to an evaluation module T2-S2. The evaluation module T2-S2 applies in particular an evaluation method T2-S2 for evaluating the translational movement of the flying machine in the evaluation module T2-S2 (the supply is represented by the symbolic functional line 52). . The translation movement 30 can be provided to the filter module F-Ges. The filter module F-Ges can notably have a function that compensates for the translational movement of the module T3-S2 with the translational movement of the flying machine evaluated by the evaluation module T2-S2, for example by forming a value average. This improves the evaluation method in the F-Ges filter module.

27 A partir d'un module de concordance T2-M3 prévu en option, qui a une fonction pour effectuer la comparaison entre les caractéristiques selon les informations d'images de l'image B1 considérée comme actuelle par le capteur (fourniture selon la ligne fonctionnelle symbolique 21) avec les caractéristiques de l'image B3 antérieure dans le temps et notamment antérieure de plusieurs (n-k) images ou boucles d'itération, (fourniture représentée symboliquement par les lignes fonctionnelles 21 et 23), on pourra améliorer le procédé d'évaluation dans le module de filtre F-Ges. Dans le module de concordance T2-M3, on com- io pare ainsi des images séparées d'un plus grand intervalle de temps. Le nombre "k" peut ainsi être défini en fonction de la qualité requise. A partir de cette comparaison faite par le module de concordance T2-M3, comparaison selon laquelle on détermine notamment les différences de position d'au moins une caractéristique et notamment 15 de plusieurs caractéristiques, on fournit ces différences à un module d'évaluation de la matrice fondamentale T2-S3 (ligne fonctionnelle symbolique 43). Le module d'évaluation à matrice fondamentale T2-S3 a une fonction qui, fondée sur l'écart de caractéristiques indiqué, donne une évaluation numérique significative de la matrice fondamentale ou 20 de la matrice essentielle pour la caméra ou l'engin volant, c'est-à-dire la matrice qui décrit le mouvement de translation et de rotation de la caméra et notamment la géométrie épipolaire entre plusieurs images de la caméra ou de l'engin volant. Selon un développement de l'invention, le module de filtre 25 F-Ges reçoit l'évaluation du mouvement de translation à partir du module d'évaluation T2-S2 et la matrice fondamentale évaluée à partir du module d'évaluation de la matrice fondamentale T2-S3 par un module de filtre T2-S23 (lignes fonctionnelles symboliques 52, 53, 62). Dans le module de filtre T2-S23, on peut notamment prévoir d'améliorer par 30 une comparaison réciproque, le mouvement de translation évalué pro-venant du module d'évaluation T2-S2 et la matrice fondamentale évaluée. En particulier, on fournit une matrice fondamentale améliorée au module de filtre F-Ges. Selon des modes de réalisation de l'invention, on fusionne 35 dans un dispositif de filtre global F-Ges les données de navigation d'une 27 From an optional T2-M3 concordance module, which has a function to perform the comparison between the characteristics according to the image information of the image B1 considered as current by the sensor (supply according to the functional line symbolic 21) with the characteristics of the image B3 prior to time and in particular earlier than several (nk) images or iteration loops, (supply represented symbolically by the functional lines 21 and 23), the method of evaluation in the F-Ges filter module. In the matching module T2-M3, separate images of a larger time interval are thus compa- red. The number "k" can thus be defined according to the required quality. From this comparison made by the matching module T2-M3, a comparison in which the positional differences of at least one characteristic and in particular of several characteristics are determined in particular, these differences are provided to an evaluation module of the fundamental matrix T2-S3 (symbolic functional line 43). The T2-S3 fundamental matrix evaluation module has a function which, based on the indicated characteristic difference, gives a significant numerical evaluation of the fundamental matrix or matrix essential for the camera or the flying machine. that is to say, the matrix which describes the translation and rotation movement of the camera and in particular the epipolar geometry between several images of the camera or the flying machine. According to a development of the invention, the filter module 25 F-Ges receives the evaluation of the translation movement from the evaluation module T2-S2 and the fundamental matrix evaluated from the evaluation module of the fundamental matrix T2-S3 by a filter module T2-S23 (symbolic functional lines 52, 53, 62). In the filter module T2-S23, it is especially possible to improve by reciprocal comparison the evaluated translation movement pro-from the evaluation module T2-S2 and the evaluated fundamental matrix. In particular, an improved fundamental matrix is provided to the F-Ges filter module. According to embodiments of the invention, the navigation data of a computer is merged into a global filter device F-Ges.

28 chaîne fonctionnelle de branche de corrélation de texture et/ou d'une chaîne fonctionnelle de filtrage d'extraction de caractéristiques. Le dis-positif de filtre global F-Ges peut être conçu pour évaluer la position de l'engin volant par rapport à la cible avec d'autres états en option pour la situation de l'engin volant et les erreurs géographiques du modèle de référence. L'évaluation de la position de l'engin volant ou de la situation de l'engin volant, est synonyme d'évaluation du défaut de navigation associé. Dans le cas de points de trajectoire ou de destinations qui se déplacent, les fonctions selon l'invention et le dispositif de filtre global io F, permettent d'évaluer également le mouvement de la cible. Si l'on dis-pose de suffisamment d'informations, le dispositif de filtre global F-Ges fournira des résultats fiables qui peuvent servir directement pour le dé-collage ou l'arrivée aux points de trajectoire respectifs. Si à cause d'un modèle de référence imprécis ou de mau- 15 vais contraste, après une indication réussie par un pilote à bord de l'en-gin volant ou qui le télécommande, cela devait se traduire par des concordances insuffisantes avec le modèle de référence, l'algorithme du vol d'approche sera alimenté avec les résultats d'une chaîne de fonctions de filtrage de corrélation de texture à deux dimensions qui certes 20 seules ne peuvent fournir une mesure en général complète de la position de l'engin volant par rapport à la cible, car il manque l'information de distance ou celle-ci est trop imprécise, mais au moins les vitesses de rotation-ligne de visée de l'engin volant, seront transmises à l'algorithme du vol d'approche. Ces informations suffisent pour des règles de gui- 25 dage simples, comme par exemple le guidage PN qui garantit un vol d'approche ou un survol précis ou encore l'arrivée précise à un point de trajectoire. Le cas échéant, le dispositif selon l'invention avec la chaîne de fonction de filtrage de corrélation de texture et la chaîne de 30 fonction de filtrage d'extraction de caractéristiques permet d'obtenir d'autres informations de navigation à partir des données d'image traitées : à la fois à partir du déplacement des caractéristiques dans l'image et aussi de la variation de l'image, on pourra recueillir en option des in-formations de navigation qui vont à l'encontre d'une détérioration de la 35 navigation au cours du vol vers la cible. 28 texture correlation branch functional chain and / or feature extraction filter functional chain. The F-Ges global filter dis-positive can be designed to evaluate the position of the flying machine relative to the target with other optional states for the flying gear situation and the geographical errors of the reference model. . The evaluation of the position of the flying machine or the situation of the flying machine, is synonymous with evaluation of the associated navigation defect. In the case of trajectory points or destinations that move, the functions according to the invention and the global filter device F can also evaluate the movement of the target. If enough information is available, the F-Ges global filter device will provide reliable results that can be used directly for decoupling or arrival at the respective path points. If because of an inaccurate reference model or poor contrast, after a successful indication by a pilot aboard the steering wheel or the remote control, this would result in insufficient matches with the model. reference, the approach flight algorithm will be fed with the results of a chain of two-dimensional texture correlation filtering functions which, of course, alone can not provide a generally complete measurement of the position of the craft. flying relative to the target, because it misses the distance information or it is too imprecise, but at least the rotation speeds-line of sight of the flying machine, will be transmitted to the flight algorithm. approach. This information is sufficient for simple guidance rules, such as PN guidance, which guarantees accurate approach flight or overflight, or precise arrival at a path point. If desired, the device according to the invention with the texture correlation filtering function string and the feature extraction filtering function string makes it possible to obtain other navigation information from the data of processed image: both from the displacement of the characteristics in the image and also from the variation of the image, it will be possible to collect navigation information in-formation which goes against a deterioration of the image. navigation during the flight to the target.

29 Le module de guidage LM ou l'unité de commande, peu-vent selon un mode de réalisation de l'invention, se trouver à l'extérieur de l'engin volant ou avion dans un cockpit externe si les données four-nies au module de guidage LM sont transmises par radio au module de guidage. Le module de guidage pourra être implémenté par une plate-forme de communication externe à l'engin volant. La plate-forme de communication peut être un autre engin volant ou avion ou une station au sol ou une station satellite ou un composant fonctionnel de tels moyens dans lesquels est implémenté un tel module de guidage et qui io est en communication avec le système de guidage de vol selon l'invention ou avec un module de commande d'actionneur intégré fonctionnellement dans celui-ci par une liaison de communication. Le module de guidage est de façon générale un module qui, à partir de la position et de la situation, notamment par rapport à la cible, calcule les ordres ac- es tuels pour les actionneurs tels que des ordres de réglage des ailerons et/ou les ordres d'accélération de l'engin volant pour commander les accélérations de consigne et/ou les vitesses de rotation de consigne de l'engin volant sur le fondement du procédé selon l'invention pour guider l'engin volant vers la cible. Les ordres d'actionnement des ailerons peu- 20 vent se déterminer notamment par un régulateur d'état de vol, par exemple par le débattement de consigne des ailerons de l'engin volant. La plate-forme de communication respective transmet les accélérations de consigne et/ou les vitesses de rotation de consigne déterminées par le module de guidage respectif et/ou les débattements de consigne des 25 ailerons de l'engin volant déduites en particulier de ces informations par un régulateur d'état de vol pour être transmises au système de guidage de vol selon l'invention ou à un module de commande d'actionneur intégré fonctionnellement dans l'engin volant pour guider l'engin volant vers la cible respective. Ce mode de réalisation de l'invention est parti- 30 culièrement avantageux car il permet de préciser la cible à posteriori. La plate-forme de communication s'appuyant sur les informations qu'elle détermine d'elle-même telles que les images du capteur grâce au capteur propre et/ou à la transmission d'informations de cible correspondantes provenant d'autres plates-formes de communication telles que 35 des images de capteur transmises telles que les images de la cible res- The LM guidance module or the control unit, may wind according to one embodiment of the invention, be located outside the flying machine or aircraft in an external cockpit if the data provided to the LM guidance module are transmitted by radio to the guidance module. The guidance module may be implemented by a communication platform external to the flying machine. The communication platform may be another flying machine or airplane or a ground station or a satellite station or a functional component of such means in which such a guidance module is implemented and which is in communication with the guidance system. of flight according to the invention or with an actuator control module integrated functionally therein by a communication link. The guidance module is generally a module which, from the position and the situation, in particular with respect to the target, calculates the actual commands for the actuators such as ailerons and / or the acceleration orders of the flying machine for controlling the setpoint accelerations and / or the target rotation speeds of the flying machine on the basis of the method according to the invention for guiding the flying machine towards the target. The actuation commands of the ailerons can be determined in particular by a flight status controller, for example by the setpoint deflection of the fins of the flying machine. The respective communication platform transmits the setpoint accelerations and / or the setpoint speeds determined by the respective guidance module and / or the setpoint deflections of the fins of the flying machine deduced in particular from this information by a flight status controller to be transmitted to the flight guidance system according to the invention or to an actuator control module functionally integrated in the flying machine to guide the flying machine to the respective target. This embodiment of the invention is particularly advantageous because it makes it possible to specify the target a posteriori. The communication platform relies on the information it determines of itself such as the images of the sensor through the own sensor and / or the transmission of corresponding target information from other platforms such as transmitted sensor images such as the images of the target

30 pective et notamment d'une cible mobile, spécifier la cible qui initiale-ment n'est connue que de manière grossière. En variante ou en plus, on peut également commander un capteur, notamment un capteur optique pour déterminer des images de capteur d'une telle plate-forme de communication. La plate-forme de communication peut transmettre une ou plusieurs informations ci-dessus et à partir de ces données, déterminer des positions de consigne et notamment des situations de consigne du capteur respectif par rapport à l'axe longitudinal de l'engin volant et d'envoyer cet ordre ou/et io ces ordres au capteur respectif pour le déplacer et/ou le régler par le système de guidage de l'engin volant. En outre, on peut prévoir que les ordres soient transmis au capteur respectif en fonction de la situation de vol et/ou de la position de l'engin volant par rapport à la cible. Le capteur peut être mis dans une position et/ou dans un réglage pour 15 lequel l'engin volant ou son système de guidage de vol reçoit des informations meilleures que les informations dont il disposait jusqu'alors ou qu'il complète pour les images de capteur nécessaires au procédé de l'invention concernant la cible pour appliquer le procédé de l'invention. 30 pective and including a moving target, specify the target which initially-ment is known only in a rough way. Alternatively or in addition, it is also possible to control a sensor, in particular an optical sensor for determining sensor images of such a communication platform. The communication platform can transmit one or more information above and from these data, determine setpoint positions and in particular the setpoint conditions of the respective sensor with respect to the longitudinal axis of the flying machine and send this order or / and these orders to the respective sensor to move and / or adjust it by the steering system of the flying machine. In addition, it can be provided that the orders are transmitted to the respective sensor according to the flight situation and / or the position of the flying machine relative to the target. The sensor can be placed in a position and / or in an adjustment for which the flying machine or its flight guidance system receives information better than the information which it had until then or which it completes for the images of sensor necessary for the method of the invention concerning the target for applying the method of the invention.

20 25 20 25

Claims (1)

REVENDICATIONS1°) Procédé de guidage de vol d'un avion ou engin volant pour le guider vers un objet-cible prédéfini par des informations d'images et notam- ment un objet au sol et/ou l'environnement d'un point-cible prédéfini au sol, procédé comprenant les étapes suivantes consistant à : - effectuer une projection de modèle (PM-B) d'un modèle de référence prédéfini de l'objet-cible ou d'une partie de l'objet-cible ou de l'environnement du point-cible prédéfini consistant à partir de la direction de visée actuelle de l'engin volant, de faire une projection du modèle de référence ou d'une partie de celui-ci sur un plan image qui correspond à l'écart autorisé près, au plan image sur lequel de fonde la saisie de l'objet-cible l'environnement par le capteur d'image de l'en-gin volant, les informations relatives à la direction de visée actuelle de l'engin volant étant obtenues à partir d'un module de navigation ou d'un module d'interface du système de guidage de vol ou d'un module de filtre, notamment comme résultat d'un procédé d'évaluation provenant d'une itération antérieure du procédé de guidage de vol, - effectuer une corrélation de texture (T3-TK1) et à partir de la position relative actuelle évaluée engin volant-objet-cible, à partir des informations d'images de l'image actuelle ou quasi-actuelle (B1) d'une suite d'images prises (B1, B2, B3) de l'objet-cible ou de son environnement et à partir des informations de projection résultant de la projection de modèle (PM-B), - effectuer une corrélation de texture (T3-TK2) avec des informations d'images d'une image actuelle et des informations d'images d'une image (B2) antérieure à l'image actuelle respectivement(B3), chaque fois à partir de la suite chronologique d'images prises (B1, B2, B3) et pour déterminer une direction de mouvement réel, évaluée et/ou d'une vitesse réelle de l'engin volant, - à partir de la direction de mouvement réelle, évaluée et/ou de la vitesse réelle de l'engin volant et à partir des informations relative à la position actuelle de l'engin volant, effectuer un procédé d'évaluation (F-Ges) pour évaluer une information de la position relative actuelle engin volant-objet-cible pour l'engin volant par rapport à la position 32 de l'objet-cible et/ou une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant, et transmettre la position relative engin volant-objet-cible et/ou le vecteur de vitesse réelle à un module de guidage (LM), - dans le module de guidage (LM), à partir de la position relative dé-terminée engin volant-objet-cible et du vecteur de vitesse réelle, dé-terminé, générer des ordres pour les actionneurs commandant les moyens de guidage aérodynamiques de l'engin volant pour guider l'engin volant vers l'objet-cible. 2°) Procédé de guidage de vol selon la revendication 1, caractérisé en ce que l'objet-cible est un objet au sol et/ou un environnement d'un point-cible prédéfini au sol. 3°) Procédé de guidage de vol selon la revendication 1, caractérisé en ce que pour exécuter le procédé d'évaluation (F-Ges), on transmet l'information de la position actuelle de l'engin volant par rapport à la position de rob- jet-cible par une plate-forme de communication. 4°) Procédé de guidage de vol selon la revendication 1, caractérisé en ce que le procédé comporte en plus les étapes consistant à : - exécuter une projection de caractéristiques (PF-B) d'au moins d'une caractéristique du modèle de référence prédéfini (RM) tenant compte de la direction de visée actuelle de l'engin volant en effectuant une projection de la caractéristique du modèle de référence sur un plan image qui correspond à un écart autorisé près au plan image sur le- quel est fondée la saisie de l'objet-cible par un capteur d'image de l'engin volant, les informations relatives à la direction de visée actuelle de l'engin volant provenant d'un module de navigation ou d'un module d'interface du système de guidage de vol ou d'un module de filtre, notamment comme résultat d'un procédé d'évaluation prove- nant d'une itération antérieure du procédé de guidage de vol, 33 - effectuer une extraction de caractéristiques (T2-ME1) pour extraire des informations d'images de l'image actuelle respective (B1), qui correspondent aux caractéristiques de l'image respective et identifier les caractéristiques correspondantes de l'image actuelle respective (B1) et du modèle de référence dans la projection de caractéristiques (PF-B) et déterminer les différences (T2-S3) entre les caractéristiques comparées, - à partir des différences (T2-S3) entre les caractéristiques respectives comparées, déterminer (T2-S1) une position et/ou une situation de io l'engin volant dans l'espace, - avec la position et/ou de la situation déterminées de l'engin volant dans l'espace, effectuer un procédé d'évaluation (F-Ges) pour évaluer une information de la position relative actuelle engin volant-objetcible de l'engin volant par rapport à la position de l'objet-cible et/ou 15 une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant, et transmettre la position relative engin volant-objetcible et/ou le vecteur de vitesse réelle au module de guidage (LM). 5°) Procédé de guidage de vol d'un engin volant pour le guider vers un 20 objet-cible prédéfini par des informations d'images et notamment vers un objet au sol et/ou un environnement d'un point-cible prédéfini au sol, procédé comprenant les étapes suivantes consistant à : - exécuter une projection de caractéristiques (PF-B) d'au moins d'une caractéristique du modèle de référence prédéfini (RM) consistant à 25 générer une projection de la caractéristique du modèle de référence sur un plan image à partir de la direction de visée actuelle de l'engin volant et qui correspond à un écart acceptable près, au plan image sur lequel est fondée la saisie de l'objet-cible par un capteur d'image de l'engin volant, les informations de la direction de visée actuelle de 30 l'engin volant étant fournies par un module de navigation ou un module d'interface du système de guidage de vol ou d'un module de filtre, notamment comme résultat d'un procédé d'évaluation à partir d'une itération antérieure exécutée par le procédé de guidage de vol, - effectuer une extraction de caractéristiques (T2-ME1) pour extraire 35 des informations d'images d'une image actuelle respective (B1), qui 34 correspondent aux caractéristiques de l'image respective et identifier des caractéristiques correspondantes de l'image actuelle respective (B 1) et du modèle de référence dans la projection de caractéristiques (PF-B) et déterminer les différences (T2-S3) entre les caractéristiques respectives comparées, - à partir des différences (T2-S3) entre les caractéristiques comparées respectives, déterminer (T2-S1) une position et/ou une situation de l'engin volant dans l'espace, - avec la position et/ou de la situation déterminées de l'engin volant io dans l'espace, effectuer un procédé d'évaluation (F-Ges) pour évaluer une information de la position relative actuelle engin volant-objetcible de l'engin volant par rapport à la position de l'objet-cible et/ou une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant, et transmettre la position relative engin volant-objet- 15 cible et/ou le vecteur de vitesse réelle à un module de guidage (LM), - dans le module de guidage (LM), à partir de la position relative dé-terminée engin volant-objet-cible et du vecteur de vitesse réelle, dé-terminé, générer des ordres pour les actionneurs commandant les moyens de guidage aérodynamiques de l'engin volant pour guider 20 l'engin volant vers l'objet-cible. 6°) Système de guidage de vol d'un engin volant pour guider celui-ci vers un objet-cible prédéfini par des informations d'images et notamment vers un objet au sol et/ou un environnement d'un point-cible pré- 25 défini au sol, comprenant : - un module de capteur d'image pour générer une suite chronologique d'images (T2-B1, T2-B2, T2-B3) de l'objet-cible ou des informations d'images correspondantes, - un module de modèle de référence (RM) dans lequel est enregistré un 30 modèle de référence tridimensionnel de l'objet-cible ou de l'environnement du point-cible, - un module de projection de modèle (PM-B) avec une fonction qui avec la direction de visée actuelle de l'engin volant sur l'objet-cible, génère des informations de projection pour la projection du modèle 35 de référence ou des parties de celui-ci sur un plan image qui corres- 35 pond à un écart acceptable près, au plan image sur lequel se fonde la saisie de l'objet-cible par le capteur d'image de l'engin volant, - un premier module de corrélation de texture et de localisation (T3-TK1, T3-TS1) qui est en relation fonctionnelle avec le module de pro- jection de modèle (PM-B) pour recevoir les informations de projection et avec le module de capteur d'image pour recevoir les informations d'images actuelles d'une image actuelle respective de l'objet-cible et qui a une fonction pour déterminer une corrélation (T3-TK1) entre les informations de projection et les informations d'images actuelles io d'une image actuelle respective de l'objet-cible et une fonction (T3-S1) qui en fonction de ces informations, détermine une position relative actuelle évaluée engin volant-objet-cible de l'engin volant par rapport à la position de l'objet-cible, - un second module de corrélation de texture et de localisation (T3- 15 TK2, T3-S2) qui est en relation fonctionnelle avec le module de capteur d'image pour recevoir de celui-ci les images saisies (B1, B2, B3) et qui a une fonction pour déterminer une corrélation de texture (T3-TK2) entre les informations d'images d'une image actuelle (B 1) et des informations d'images d'une image (B2) antérieure à l'image actuelle 20 respective (B3) et une fonction (T3-S2) pour déterminer une direction de mouvement réelle, évaluée et/ou la vitesse réelle de l'engin volant, à partir de la corrélation de texture (T3-TK2) déterminée, - un module de filtre (F-Ges) relié fonctionnellement avec le premier et le second module de corrélation de texture et de localisation (T3-TK1, 25 T3-S1, T3-TK2, T3-S2) pour recevoir la position relative actuelle évaluée engin volant-objet-cible et la direction de mouvement réelle évaluée et/ou la vitesse réelle de l'engin volant et un module de navigation (N) pour recevoir des informations de position de l'engin volant, ce module de filtre ayant une fonction pour évaluer une in- 30 formation de la position relative actuelle de l'engin volant-objet-cible de l'engin volant par rapport à la position de l'objet-cible et/ou un vecteur de vitesse réelle de l'engin volant chaque fois en se fondant sur les données reçues, - un module de guidage (LM) ayant une fonction pour générer des 35 ordres destinés aux actionneurs commandant les moyens de guidage 36 aérodynamiques de l'engin volant à partir d'une loi de guidage spécifique à l'engin volant et de la position relative déterminée engin volant-objet-cible et/ou du vecteur de vitesse réelle, déterminé, pour guider l'engin volant vers l'objet-cible. 7°) Système de guidage de vol selon la revendication 6, caractérisé en ce qu'il comporte : une liaison fonctionnelle du module de navigation ou d'un module d'interface du système de guidage de vol ou d'un module de filtre, notam- io ment comme résultat de l'évaluation à partir d'une itération antérieure du procédé de guidage de vol, relié fonctionnellement au module de projection de modèle (PM-B) de façon que celui-ci à partir des informations relatives à la direction de visée actuelle de l'engin volant, puisse générer une projection du modèle de référence ou d'une partie de celui-ci sur un 15 plan image. 8°) Système de guidage de vol d'un engin volant pour le guider vers un objet-cible prédéfini par des informations d'images et notamment un objet au sol et/ou un environnement d'un point-cible prédéfini au sol, 20 comprenant : - un module de capteur d'image pour générer une suite chronologique d'images (T2-B1, T2-B2, T2-B3) de l'objet-cible ou des informations d'images correspondantes, - un module de modèle de référence (RM) dans lequel est enregistré un 25 modèle de référence tridimensionnel de l'objet-cible ou de l'environnement du point-cible, - un module de projection de caractéristiques (PM-B) relié fonctionnellement au module de modèle de référence (RM) et dans lequel à par-tir de la direction de visée actuelle de l'engin volant, on génère une 30 projection de la caractéristique du modèle de référence sur un plan image qui correspond à un écart acceptable près au plan image sur lequel est fondée la saisie de l'objet-cible par un capteur d'image de l'engin volant, les informations de la direction de visée actuelle de l'engin volant provenant d'un module de navigation ou d'un module 35 d'interface du système de guidage de vol ou d'un module de filtre, 37 notamment comme résultat d'un procédé d'évaluation à partir d'une itération antérieure appliquée par le procédé de guidage de vol, - au moins un module d'extraction de caractéristiques (T2-ME1) pour extraire des informations d'image d'une image actuelle respective (B1), qui correspondent aux caractéristiques de l'image respective et pour identifier des caractéristiques correspondantes de l'image actuelle respective (B1) et du modèle de référence dans la projection des caractéristiques (PF-B) ainsi que déterminer les différences (T2-S3) entre les caractéristiques respectives comparées, io - un module pour déterminer (T2-F1) une position et/ou une situation de l'engin volant dans l'espace à partir des différences (T2-S2) entre les caractéristiques respectives comparées, - un module pour effectuer un procédé d'évaluation (F-Ges) pour évaluer une information de la position relative actuelle engin volant- 15 objet-cible de l'engin volant, par rapport à la position de l'objet-cible et/ou une direction de mouvement et/ou un vecteur de vitesse réelle de l'engin volant et pour transmettre la position relative engin volantobjet-cible et/ou le vecteur de vitesse réelle au module de guidage (LM), l'évaluation se faisant à partir de la position déterminée et/ou 20 la situation de l'engin volant dans l'espace, - un module de guidage (LM) ayant une fonction pour générer des ordres destinés aux actionneurs commandant les moyens de guidage aérodynamiques de l'engin volant selon les règles de guidage spécifiques à l'engin volant et de la position relative déterminée engin vo- 25 Tant-objet-cible et/ou du vecteur de vitesse réelle, déterminé, pour guider l'engin volant vers l'objet-cible. 30 CLAIMS 1 °) Method for guiding the flight of an aircraft or flying machine to guide it towards a target object predefined by image information and in particular a ground object and / or the environment of a target point predefined method, the method comprising the following steps: - performing a model projection (PM-B) of a predefined reference model of the target object or part of the target object or environment of the predefined target point consisting of the current aiming direction of the flying machine, projecting the reference model or part of it on an image plane corresponding to the authorized deviation near, on the image plane on which the capture of the target object the environment by the image sensor of the flying en-gin, the information relating to the current direction of aim of the flying machine being obtained from a navigation module or an interface module of the guidance system of a flight or a filter module, especially as a result of an evaluation method from an earlier iteration of the flight guidance method, - performing a texture correlation (T3-TK1) and from the position relative current evaluated flying-object-target craft, from the image information of the current or near-current image (B1) of a sequence of images taken (B1, B2, B3) of the target object or from its environment and from the projection information resulting from the model projection (PM-B), - performing a texture correlation (T3-TK2) with image information of a current image and information of images of an image (B2) prior to the current image respectively (B3), each time from the chronological sequence of images taken (B1, B2, B3) and to determine a real motion direction, evaluated and / or actual speed of the flying machine, - from the actual, assessed movement direction and / or the at real speed of the flying machine and from the information relating to the current position of the flying machine, perform an evaluation process (F-Ges) to evaluate information of the current relative position flying craft-object-target for the flying machine with respect to the position 32 of the target object and / or a direction of movement and / or a real speed vector of the flying machine, and transmitting the relative position flying craft-object-target and / or the actual velocity vector to a guidance module (LM), - in the guidance module (LM), from the relative position de-terminated flying-object-object and the actual velocity vector, de- Once completed, generate orders for the actuators controlling the aerodynamic guidance means of the flying machine to guide the flying machine towards the target object. Flight guidance method according to claim 1, characterized in that the target object is an object on the ground and / or an environment of a predefined target point on the ground. Flight guidance method according to claim 1, characterized in that for executing the evaluation method (F-Ges), the information of the current position of the flying machine relative to the position of the aircraft is transmitted. robotic target by a communication platform. 4) A flight guidance method according to claim 1, characterized in that the method further comprises the steps of: - performing a feature projection (PF-B) of at least one characteristic of the reference model (RM) taking into account the current aiming direction of the flying machine by projecting the reference model feature onto an image plane that corresponds to an allowed deviation near the image plane on which the capture is based of the target object by an image sensor of the flying machine, the information relating to the current direction of aim of the flying machine from a navigation module or an interface module of the navigation system. flight guidance or filter module, especially as a result of an evaluation process from an earlier iteration of the flight guidance method, 33 - performing a feature extraction (T2-ME1) to extract informa images of the respective actual image (B1), which correspond to the characteristics of the respective image and identify the corresponding characteristics of the respective actual image (B1) and the reference model in the feature projection (PF-1). B) and determine the differences (T2-S3) between the compared characteristics, - from the differences (T2-S3) between the respective characteristics compared, determine (T2-S1) a position and / or a situation of the machine flying in space, - with the determined position and / or situation of the spacecraft in space, perform an evaluation procedure (F-Ges) to evaluate information of the current relative position of the flying craft target object of the flying machine with respect to the position of the target object and / or a direction of movement and / or a real speed vector of the flying machine, and transmit the relative position flying-object-craft and / or the speed vector re it to the guidance module (LM). 5) Method for guiding the flight of a flying machine to guide it towards a target object predefined by image information and in particular towards an object on the ground and / or an environment of a predefined target point on the ground method, comprising the steps of: - performing a feature projection (PF-B) of at least one of the predefined reference model (RM) characteristics of generating a projection of the reference model characteristic on an image plane from the current direction of sight of the flying machine and which corresponds to an acceptable deviation, at the image plane on which the capture of the target object by an image sensor of the machine is based steering, the information of the current direction of sight of the flying machine being provided by a navigation module or an interface module of the flight guidance system or a filter module, particularly as a result of a method evaluation at p from a previous iteration performed by the flight guidance method, - performing feature extraction (T2-ME1) to extract image information from a respective actual image (B1), which corresponds to the characteristics of the the respective image and identifying corresponding characteristics of the respective actual image (B 1) and the reference model in the feature projection (PF-B) and determining the differences (T2-S3) between the respective characteristics compared, - from the differences (T2-S3) between the respective compared characteristics, determine (T2-S1) a position and / or a situation of the flying machine in space, - with the determined position and / or situation of the flying vehicle in space, perform an evaluation process (F-Ges) to evaluate an information of the current relative position of the flying-object craft of the flying machine relative to the position of the target-object e and / or a direction of movement and / or a real speed vector of the flying machine, and transmitting the relative position flying-object-object and / or the actual speed vector to a guide module (LM) in the guidance module (LM), from the relative position of the flywheel-object-target and the actual speed vector, de-terminated, generate commands for the actuators controlling the aerodynamic guidance means of the flying machine to guide the flying machine towards the target object. 6 °) flight guidance system of a flying machine to guide it to a target object predefined by image information and in particular to an object on the ground and / or an environment of a target point pre- Defined on the ground, comprising: - an image sensor module for generating a chronological sequence of images (T2-B1, T2-B2, T2-B3) of the target object or corresponding image information, a reference model module (RM) in which a three-dimensional reference model of the target object or environment of the target point is recorded; a model projection module (PM-B) with a a function which, with the current aiming direction of the flying machine on the target object, generates projection information for projection of the reference model or parts thereof onto an image plane which corresponds to an acceptable deviation, at the image plane on which is based the capture of the target object by the image sensor of the machine v olant, - a first texture and location correlation module (T3-TK1, T3-TS1) which is in operative relation with the model projection module (PM-B) for receiving the projection information and with the image sensor module for receiving the current image information of a respective current image of the target object and having a function for determining a correlation (T3-TK1) between the projection information and the information of current images io of a respective current image of the target object and a function (T3-S1) which according to this information determines a current relative position evaluated flying-object-target craft of the flying machine with respect to the position of the target object, - a second texture and location correlation module (T3-TK2, T3-S2) which is in operative relation with the image sensor module for receiving therefrom captured images (B1, B2, B3) and which has a function to determine a e texture correlation (T3-TK2) between the image information of a current image (B 1) and image information of an image (B2) prior to the respective actual image (B3) and a function (T3-S2) for determining a real movement direction, evaluated and / or the actual speed of the flying machine, from the determined texture correlation (T3-TK2), - a filter module (F-Ges ) operably connected to the first and second texture correlation and locating module (T3-TK1, T3-S1, T3-TK2, T3-S2) to receive the current relative position evaluated flying-object-target craft and the actual motion direction evaluated and / or the actual speed of the flying machine and a navigation module (N) for receiving position information of the flying machine, which filter module has a function for evaluating an information of the current relative position of the flying-object-target craft of the aircraft in relation to the position of the target object and / or a real speed vector of the flying machine each time on the basis of the received data; - a guidance module (LM) having a function for generating commands for the actuators controlling the aerodynamic guidance means 36 of the flying machine from a guide law specific to the flying machine and the relative position determined flying-object-object and / or the actual speed vector, determined, to guide the 'machine flying towards the target object. Flight guidance system according to claim 6, characterized in that it comprises: a functional link of the navigation module or of an interface module of the flight guidance system or of a filter module, in particular as a result of the evaluation from an earlier iteration of the flight guidance method, operatively connected to the model projection module (PM-B) so that it is based on information relating to the current direction of view of the flying machine, can generate a projection of the reference model or part of it on an image plane. 8 °) Flight guidance system of a flying machine for guiding it towards a target object predefined by image information and in particular an object on the ground and / or an environment of a predefined target point on the ground, 20 comprising: - an image sensor module for generating a chronological sequence of images (T2-B1, T2-B2, T2-B3) of the target object or corresponding image information, - a model module reference system (RM) in which a three-dimensional reference model of the target object or the environment of the target point is recorded; - a feature projection module (PM-B) operatively connected to the model module of reference (RM) and in which, based on the current direction of aim of the flying machine, a projection of the characteristic of the reference model is generated on an image plane which corresponds to an acceptable deviation near to the image plane. which is based the capture of the target object by an image sensor of the , the information of the current aiming direction of the flying machine from a navigation module or an interface module of the flight guidance system or a filter module, 37 particularly as result of an evaluation method from an earlier iteration applied by the flight guidance method, - at least one feature extraction module (T2-ME1) for extracting image information from an image respective actualities (B1), which correspond to the characteristics of the respective image and to identify corresponding characteristics of the respective actual image (B1) and of the reference model in the projection of the characteristics (PF-B) as well as to determine the differences (T2-S3) between the respective characteristics compared, io - a module for determining (T2-F1) a position and / or a situation of the flying machine in space from the differences (T2-S2) between the characteristics respectiv Compared, a module for carrying out an evaluation process (F-Ges) for evaluating an information of the current relative position of the flying object-object of the flying machine, with respect to the position of the object- target and / or a direction of movement and / or a real speed vector of the flying machine and to transmit the relative position flying craft target object and / or the actual speed vector to the guidance module (LM), the evaluation from a determined position and / or the situation of the spacecraft in space, - a guidance module (LM) having a function for generating commands for the actuators controlling the aerodynamic guidance means of the aircraft. Flying machine according to the steering rules specific to the flying machine and the relative position determined, the target vehicle and / or the actual determined speed vector for guiding the flying machine towards the object -target. 30
FR1253158A 2011-04-08 2012-04-05 METHOD FOR GUIDING AN AIRCRAFT TO A PREDEFINED TARGET OBJECT AND GUIDE SYSTEM Active FR2973896B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102011016521.5A DE102011016521B4 (en) 2011-04-08 2011-04-08 Method for flight guidance of an aircraft to a specified target object and flight guidance system
DE102011016521.5 2011-04-08

Publications (2)

Publication Number Publication Date
FR2973896A1 true FR2973896A1 (en) 2012-10-12
FR2973896B1 FR2973896B1 (en) 2018-05-25

Family

ID=46177109

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1253158A Active FR2973896B1 (en) 2011-04-08 2012-04-05 METHOD FOR GUIDING AN AIRCRAFT TO A PREDEFINED TARGET OBJECT AND GUIDE SYSTEM

Country Status (3)

Country Link
DE (1) DE102011016521B4 (en)
FR (1) FR2973896B1 (en)
GB (1) GB2489829B (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3159651A1 (en) * 2015-10-20 2017-04-26 MBDA UK Limited Improvements in and relating to missile targeting
WO2017068331A1 (en) * 2015-10-20 2017-04-27 Mbda Uk Limited Improvements in and relating to missile targeting

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2509787B (en) * 2013-01-15 2017-09-13 Mbda Uk Ltd A missile seeker and guidance method
DE102015004939A1 (en) * 2015-04-17 2016-10-20 Diehl Bgt Defence Gmbh & Co. Kg Method for steering a missile
GB2543524A (en) * 2015-10-20 2017-04-26 Mbda Uk Ltd Improvements in and relating to missile targeting
CN106297422B (en) * 2016-10-09 2019-01-08 中国人民解放军国防科学技术大学 A kind of non-linear relevant path forecasting procedure based on least square
DE102020001234B3 (en) 2020-02-25 2021-08-12 Mbda Deutschland Gmbh Improvement in hit performance while approaching the target
CN112083728B (en) * 2020-09-09 2024-04-30 上海擎朗智能科技有限公司 Parking method, device, equipment and storage medium of running equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7397970B2 (en) * 2004-12-07 2008-07-08 Lockheed Martin Corporation Automatic scene correlation and identification
DE102007054950B4 (en) * 2007-11-17 2013-05-02 Mbda Deutschland Gmbh Method for supporting the automatic navigation of a low-flying missile
GB2466039B (en) * 2008-12-09 2013-06-12 Roke Manor Research Imaging system and method
IL201336A (en) * 2009-10-01 2014-03-31 Rafael Advanced Defense Sys System and method for assisting navigation of a vehicle in circumstances where there is a possibility of the view being obscured

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3159651A1 (en) * 2015-10-20 2017-04-26 MBDA UK Limited Improvements in and relating to missile targeting
WO2017068331A1 (en) * 2015-10-20 2017-04-27 Mbda Uk Limited Improvements in and relating to missile targeting
US10753708B2 (en) 2015-10-20 2020-08-25 Mbda Uk Limited Missile targeting

Also Published As

Publication number Publication date
FR2973896B1 (en) 2018-05-25
GB2489829B (en) 2015-04-01
GB2489829A (en) 2012-10-10
DE102011016521B4 (en) 2020-10-15
DE102011016521A1 (en) 2012-10-11
GB201206333D0 (en) 2012-05-23

Similar Documents

Publication Publication Date Title
FR2973896A1 (en) METHOD FOR GUIDING AN AIRCRAFT TO A PREDEFINED TARGET OBJECT AND GUIDE SYSTEM
US11466988B2 (en) Method and device for extracting key frames in simultaneous localization and mapping and smart device
EP2400460B1 (en) Method for assessing the horizontal speed of a drone, particularly of a drone capable of hovering on automatic pilot
EP3388914A1 (en) Target tracking method performed by a drone, related computer program, electronic system and drone
CN109766757B (en) Parking space high-precision positioning method and system integrating vehicle and visual information
EP2766872B1 (en) Method of calibrating a computer-based vision system onboard a craft
WO2018090250A1 (en) Three-dimensional point cloud generation method, device, computer system, and mobile apparatus
CA2893734C (en) Process for predicting the short-term trajectory of an aircraft, associated computer software, prediction device, guidance process, guidance system and aircraft
FR3000813A1 (en) Rotary wing drone i.e. quadricopter, has image analysis unit implementing Kalman filter estimator having representation of dynamic model of drone, with input of horizontal speed, position, linear acceleration, rotation and altitude signals
EP2984625B1 (en) Method for estimating the angular deviation of a mobile element relative to a reference direction
WO2016045764A1 (en) Extrinsic calibration method for cameras of an on-board system for formation of stereo images
US20220398825A1 (en) Method for generating 3d reference points in a map of a scene
EP3114423B1 (en) Method for controlling a system for detecting and tracking a target
Ferrera et al. The aqualoc dataset: Towards real-time underwater localization from a visual-inertial-pressure acquisition system
EP3227860B1 (en) Method of estimating the motion of a carrier with respect to an environment and calculation device for navigation system
EP2476094B1 (en) Method for installing a vehicle-monitoring apparatus
FR3060178A1 (en) ELECTRONIC DEVICE FOR DRIVING A DRONE, DRONE, STEERING METHOD AND COMPUTER PROGRAM
EP3620852B1 (en) Method of capturing aerial images of a geographical area, method for three-dimensional mapping of a geographical area and aircraft for implementing such methods
EP0604252B1 (en) Method for aiding piloting of a low flying aircraft
WO2017216473A1 (en) Method for producing a depth map from a sequence of images from a single (mono-) camera installed in a motor vehicle
FR3071624B1 (en) DISPLAY SYSTEM, DISPLAY METHOD, AND COMPUTER PROGRAM
FR2648904A1 (en) Device for determining the position of an aircraft with respect to the terrain over which it is flying
FR3067841B1 (en) SYSTEM AND METHOD FOR LOCATING IMAGE PROCESSING
WO2015086923A1 (en) Suppression of a propeller footprint captured by an aircraft lens
FR2871426A1 (en) METHOD FOR ESTIMATING THE DIFFERENCE EVALUATED BETWEEN THE POSITION OF A VEHICLE AND A THEORETICAL TRACK

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6

PLSC Publication of the preliminary search report

Effective date: 20171201

PLFP Fee payment

Year of fee payment: 7

PLFP Fee payment

Year of fee payment: 8

PLFP Fee payment

Year of fee payment: 9

PLFP Fee payment

Year of fee payment: 10

PLFP Fee payment

Year of fee payment: 11

PLFP Fee payment

Year of fee payment: 12

PLFP Fee payment

Year of fee payment: 13