FR3135535A1 - Echo filtering method, echo filtering device and associated computer program - Google Patents
Echo filtering method, echo filtering device and associated computer program Download PDFInfo
- Publication number
- FR3135535A1 FR3135535A1 FR2204498A FR2204498A FR3135535A1 FR 3135535 A1 FR3135535 A1 FR 3135535A1 FR 2204498 A FR2204498 A FR 2204498A FR 2204498 A FR2204498 A FR 2204498A FR 3135535 A1 FR3135535 A1 FR 3135535A1
- Authority
- FR
- France
- Prior art keywords
- echo
- image
- attributes
- pair
- considered
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000004590 computer program Methods 0.000 title claims description 5
- 238000002592 echocardiography Methods 0.000 claims abstract description 42
- 238000013528 artificial neural network Methods 0.000 claims abstract description 37
- 238000010276 construction Methods 0.000 claims abstract description 10
- 238000001514 detection method Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 12
- 230000003595 spectral effect Effects 0.000 claims description 8
- 230000015654 memory Effects 0.000 claims description 7
- 230000010287 polarization Effects 0.000 claims description 7
- 210000002569 neuron Anatomy 0.000 claims description 5
- 230000007480 spreading Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 description 21
- 101150071716 PCSK1 gene Proteins 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 239000004570 mortar (masonry) Substances 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 235000015842 Hesperis Nutrition 0.000 description 1
- 235000012633 Iberis amara Nutrition 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000021183 entrée Nutrition 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001617 migratory effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/28—Details of pulse systems
- G01S7/285—Receivers
- G01S7/292—Extracting wanted echo-signals
- G01S7/2923—Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/411—Identification of targets based on measurements of radar reflectivity
- G01S7/412—Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/58—Velocity or trajectory determination systems; Sense-of-movement determination systems
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
Abstract
L’invention concerne un procédé de filtrage d’échos associé à des valeurs d’attributs, comprenant : détermination des échos situés dans une fenêtre spatio-temporelle comprenant un écho snconsidéré ;construction d’un ensemble d’image(s), chaque position dans une image correspondant à un couple respectif de valeurs desdits attributs, et un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans la fenêtre spatio-temporelle ;estimation, en fonction dudit ensemble d’image(s) construit (EnsIMn) pour l’écho snconsidéré par un réseau de neurones (11), de la correspondance dudit écho sn considéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles. Figure pour l’abrégé : Fig. 1The invention relates to a method for filtering echoes associated with attribute values, comprising: determination of echoes located in a spatio-temporal window comprising an echo considered; construction of a set of image(s), each position in an image corresponding to a respective pair of values of said attributes, and a determined pattern is inserted in the image at a determined position, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the determined echoes in the space-time window; estimation, based on said set of image(s) constructed (EnsIMn) for the echo sn considered by a neural network (11), of the correspondence of said echo sn considered to at least one type d target objects from a predefined set of target object types. Figure for abstract: Fig. 1
Description
L’invention se situe dans le domaine du traitement des échos reçus par un système récepteur d’échos, par exemple de type radar.The invention lies in the field of processing echoes received by an echo receiver system, for example of the radar type.
A divers endroits de la chaîne de traitement des échos reçus, par exemple dans un système récepteur radar, des filtres sont appliqués à différents stades du traitement (filtre de formation de faisceaux, filtre doppler, filtre de compression d’impulsions, classification et filtrage extracteur, filtre de Kalman, classification et filtrage du pistage etc.), afin de favoriser la détection et la préservation des signaux réfléchis par des cibles d’intérêt et d’éliminer les échos indésirables : par exemple bruit, interférences, brouillage, fouillis intentionnel et non intentionnel.At various points in the received echo processing chain, for example in a radar receiver system, filters are applied at different stages of processing (beam forming filter, Doppler filter, pulse compression filter, classification and extractor filtering). , Kalman filter, classification and tracking filtering etc.), in order to promote the detection and preservation of signals reflected by targets of interest and to eliminate unwanted echoes: for example noise, interference, jamming, intentional clutter and unintentional.
Ce filtrage est essentiel à chacun de ces stades pour éviter la saturation (calculatoire et algorithmique) entraînant le dysfonctionnement des différents blocs de traitement et pour aboutir au final à un taux de fausses alarmes inférieur au taux maximum prescrit.This filtering is essential at each of these stages to avoid saturation (computational and algorithmic) leading to the malfunction of the different processing blocks and to ultimately result in a false alarm rate lower than the prescribed maximum rate.
A chaque fois, une décision quant à l’utilité de la présence de l’écho (signal vs bruit ou fouillis, cible d’intérêt ou pas etc...) pour la poursuite du traitement est réalisée, au mieux en se basant sur une information instantanée (ex. les mesures d’attributs du plot courant), le spectre instantané, le niveau du signal par rapport à une ambiance locale ou lissée dans le temps, la position d’un plot par rapport à une prédiction d’un filtre de Kalman d’une piste, etc ...).Each time, a decision as to the usefulness of the presence of the echo (signal vs. noise or clutter, target of interest or not, etc.) for the continuation of the treatment is made, at best based on instantaneous information (e.g. measurements of attributes of the current plot), the instantaneous spectrum, the level of the signal in relation to a local environment or smoothed over time, the position of a plot in relation to a prediction of a Kalman filter of a track, etc...).
Cette vision étriquée rend la décision très compliquée. Décider instantanément s’il convient de garder ou pas un plot radar en mode clair (i.e. sans calcul Doppler) avec une estimation de la position et de la SER n’est pas possible, pour distinguer un hélicoptère d’une éolienne par exemple ou bien un drone d’un oiseau.This narrow vision makes the decision very complicated. Deciding instantly whether or not to keep a radar plot in clear mode (i.e. without Doppler calculation) with an estimate of the position and the SER is not possible, to distinguish a helicopter from a wind turbine for example or a drone of a bird.
Plusieurs stratégies sont utilisées dans les radars, majoritairement basées sur la classification de détections uniques et le filtrage par pistage. Une cible qui semble avoir un déplacement temporel cohérent avec un objet humain est une cible d’intérêt donc ses détections sont d’intérêt.Several strategies are used in radars, mainly based on the classification of single detections and filtering by tracking. A target that appears to have a temporal displacement consistent with a human object is a target of interest so its detections are of interest.
Le filtrage des détections unitaires est basé sur la classification des attributs des détections unitaires. L’enjeu est généralement de trouver la distribution de chaque attribut pour le phénomène à filtrer comparé aux détections d’intérêt. Cette discrimination peut se faire manuellement (par seuillage par exemple) ou par apprentissage automatique (réseaux de neurones). Une limitation forte de cette approche est lorsque les attributs des détections ne permettent pas de discriminer les cibles d’intérêt d’un phénomène à filtrer.Filtering unit detections is based on the classification of unit detection attributes. The challenge is generally to find the distribution of each attribute for the phenomenon to be filtered compared to the detections of interest. This discrimination can be done manually (by thresholding for example) or by automatic learning (neural networks). A strong limitation of this approach is when the attributes of the detections do not make it possible to discriminate the targets of interest of a phenomenon to be filtered.
Le filtrage par pistage utilise des modèles cinématiques (qui imposent donc leurs limitations) pour estimer si une détection fait partie d’une cible mouvante. Si les caractéristiques de mouvement peuvent correspondre à une cible d’origine humaine, la détection est considérée comme d’intérêt. Ce type de filtrage montre des performances limitées face à des cibles fortement manoeuvrantes ou lorsqu’il devient nécessaire de définir un grand nombre de modèles cinématiques. Pour chaque piste existante, chaque nouvelle détection dont la position correspond à un modèle cinématique est évaluée. Cela crée un grand nombre d’hypothèses à maintenir en mémoire pour chaque piste. Le calculateur responsable du pistage doit donc avoir beaucoup d’espace mémoire dédiée.Tracking filtering uses kinematic models (which therefore impose their limitations) to estimate whether a detection is part of a moving target. If the motion characteristics can match a human-made target, the detection is considered of interest. This type of filtering shows limited performance when faced with highly maneuverable targets or when it becomes necessary to define a large number of kinematic models. For each existing track, each new detection whose position corresponds to a kinematic model is evaluated. This creates a large number of assumptions to be kept in memory for each track. The computer responsible for tracking must therefore have a lot of dedicated memory space.
Il existe donc un besoin de disposer d’une solution de filtrage qui permette d’améliorer la pertinence du filtrage.There is therefore a need to have a filtering solution that makes it possible to improve the relevance of the filtering.
A cet effet, suivant un premier aspect, la présente invention décrit un procédé de filtrage d’échos reçus par un dispositif récepteur d’échos, chaque écho étant associé à des valeurs d’attributs dudit écho, ledit procédé étant caractérisé en ce qu’il comprend les étapes suivantes mises en œuvre par un dispositif électronique de filtrage, pour un écho considéré sn:
i/ application d’une fenêtre spatio-temporelle de taille prédéterminée comprenant ledit écho snconsidéré et détermination des échos situés dans ladite fenêtre spatio-temporelle y compris ledit écho snconsidéré ;
ii/ construction d’un ensemble d’image(s) comprenant au moins une image, chaque image de l’ensemble d’image(s) étant associée à un couple prédéfini respectif d’attributs, chaque position dans ladite image correspondant à un couple respectif de valeurs desdits attributs, des positions distinctes correspondant à des couples de valeurs distinctes desdits attributs, selon laquelle, lors de la construction de ladite image, un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans la fenêtre spatio-temporelle ;
iii/ fourniture dudit ensemble d’image(s) en entrée d’un réseau de neurones issu d’un apprentissage et adapté pour estimer, en fonction dudit ensemble d’image(s) construit pour l’écho snconsidéré, la correspondance dudit écho considéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles ; et
iv/ estimation par ledit réseau de neurones de la correspondance dudit écho snconsidéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles.To this end, according to a first aspect, the present invention describes a method of filtering echoes received by an echo receiver device, each echo being associated with attribute values of said echo, said method being characterized in that it includes the following steps implemented by an electronic filtering device, for an echo considered s n :
i/ application of a space-time window of predetermined size including said echo s n considered and determination of the echoes located in said space-time window including said echo s n considered;
ii/ construction of a set of image(s) comprising at least one image, each image of the set of image(s) being associated with a respective predefined pair of attributes, each position in said image corresponding to a respective pair of values of said attributes, distinct positions corresponding to pairs of distinct values of said attributes, according to which, during the construction of said image, a determined pattern is inserted into the image at a determined position, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the echoes determined in the space-time window;
iii/ supply of said set of image(s) as input to a neural network resulting from learning and adapted to estimate, based on said set of image(s) constructed for the echo s n considered, the correspondence said echo considered to at least one type of target objects from a predefined set of types of target objects; And
iv/ estimation by said neural network of the correspondence of said echo s n considered to at least one type of target objects among a predefined set of types of target objects.
L’invention permet, avant chaque décision de présence d’écho, de replacer cette présence dans son contexte historique spatio-temporelle ce qui enrichit énormément les champs des informations disponibles pour la décision.The invention makes it possible, before each decision on the presence of an echo, to place this presence in its spatio-temporal historical context, which enormously enriches the fields of information available for the decision.
Le plot de l’hélicoptère pourrait ainsi apparaître dans une continuité de trajectoire de plots ce qui permettrait immédiatement de l’identifier au-dessus d’un champ d’éolienne.The helicopter stud could thus appear in a continuity of trajectory of studs which would immediately allow it to be identified above a wind turbine field.
De plus, les algorithmes d’intelligence artificielle sont très adaptés à la reconnaissance des patterns : l’invention permet de ramener la problématique du filtrage à une problématique de traitement d’images ; elle permet de tirer parti de l’élargissement du champ des informations et de profiter de la notion contextuelle de la décision.In addition, artificial intelligence algorithms are very suitable for pattern recognition: the invention makes it possible to reduce the problem of filtering to an image processing problem; it makes it possible to take advantage of the broadening of the field of information and to benefit from the contextual notion of the decision.
Dans des modes de réalisation, un tel procédé comprendra en outre l’une au moins des caractéristiques suivantes :
- les attributs comprennent un ou plusieurs des éléments suivants ou en sont fonction :
distance de l’objet à l’origine de l’écho,
azimut et/ou élévation de l’écho reçu,
vitesse de l’objet,
rapport entre les retours captés selon des plans de polarization orthogonaux ou leurs corrélations,
rapport signal sur bruit de l’écho,
Surface Equivalent Radar de l’objet
extension spatiale de l’écho de l’objet,
étalement spectral ou présence de flash de pale ;
- l’ensemble d’image(s) construit pour chaque écho sn comprend au moins deux images, le couple d’attributs associé à l’une desdites images étant distinct du couple d’attributs associé à une autre image de l’ensemble d’image(s) ;
- l’ensemble d’image(s) construit pour l’écho sncomprend une ou plusieurs images parmi une image associée au couple d’attributs azimut-distance, une image associée au couple d’attributs temps-distance et une image associé au couple d’attributs temps-SER ;
- le réseau de neurones est issu d’une phase d’apprentissage au cours de laquelle une base d’apprentissage comprenant des échos associés à leurs attributs et préalablement associés chacun à un type de l’ensemble prédéfini de types d’objets cibles est utilisée, un ensemble d’image(s) étant construit pour chaque écho de la base d’apprentissage conformément aux étapes i et ii et selon lequel l’ensemble d’images construit pour chaque écho est fourni en entrée du réseau en cours d’apprentissage et les poids des neurones du réseau sont modifiés en fonction de l’erreur entre le type préalablement associé à l’écho et l’estimation fournie par le réseau de neurones, dans son état d’apprentissage courant, en fonction dudit ensemble d’image(s).
- attributes include or depend on one or more of the following:
distance from the object causing the echo,
azimuth and/or elevation of the received echo,
speed of the object,
relationship between the returns captured according to orthogonal polarization planes or their correlations,
signal-to-noise ratio of the echo,
Surface Radar Equivalent of the object
spatial extension of the object's echo,
spectral spreading or presence of blade flash;
- the set of image(s) constructed for each echo sn comprises at least two images, the pair of attributes associated with one of said images being distinct from the pair of attributes associated with another image of the set of image(s);
- the set of image(s) constructed for the echo s n comprises one or more images among an image associated with the pair of azimuth-distance attributes, an image associated with the pair of time-distance attributes and an image associated with the pair of time-SER attributes;
- the neural network comes from a learning phase during which a learning base comprising echoes associated with their attributes and each previously associated with a type of the predefined set of target object types is used, a set of image(s) being constructed for each echo of the learning base in accordance with steps i and ii and according to which the set of images constructed for each echo is provided as input to the network being trained and the weights of the neurons in the network are modified as a function of the error between the type previously associated with the echo and the estimate provided by the neural network, in its current learning state, as a function of said set of images ( s).
Suivant un autre aspect, l’invention décrit un programme d’ordinateur destiné à être stocké dans la mémoire d’un dispositif électronique de filtrage d’échos et comprenant en outre un calculateur, ledit programme d’ordinateur comprenant des instructions qui, lorsqu’elles sont exécutées sur le microcalculateur, mettent en œuvre les étapes d’un procédé selon l’invention.According to another aspect, the invention describes a computer program intended to be stored in the memory of an electronic echo filtering device and further comprising a calculator, said computer program comprising instructions which, when they are executed on the microcomputer, implement the steps of a method according to the invention.
Suivant un autre aspect, l’invention décrit un dispositif de filtrage d’échos reçus par un dispositif récepteur d’échos, chaque écho étant associé à des valeurs d’attributs dudit écho, ledit dispositif étant caractérisé en ce qu’il est adapté, pour un écho considéré sn, pour appliquer une fenêtre spatio-temporelle de taille prédéterminée comprenant ledit écho snconsidéré et pour déterminer des échos situés dans ladite fenêtre spatio-temporelle y compris ledit écho snconsidéré ;
According to another aspect, the invention describes a device for filtering echoes received by an echo receiver device, each echo being associated with attribute values of said echo, said device being characterized in that it is adapted, for a considered echo s n , to apply a space-time window of predetermined size including said echo s n considered and to determine echoes located in said space-time window including said echo s n considered;
ledit dispositif étant adapté pour ensuite construire un ensemble d’image(s) comprenant au moins une image, chaque image de l’ensemble d’image(s) étant associée à un couple prédéfini respectif d’attributs, chaque position dans ladite image correspondant à un couple respectif de valeurs desdits attributs, des positions distinctes correspondant à des couples de valeurs distinctes desdits attributs, de sorte que, lors de la construction de ladite image, un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans ladite fenêtre spatio-temporelle ; et
said device being adapted to then construct a set of image(s) comprising at least one image, each image of the set of image(s) being associated with a respective predefined pair of attributes, each position in said image corresponding to a respective pair of values of said attributes, distinct positions corresponding to pairs of distinct values of said attributes, so that, during the construction of said image, a determined pattern is inserted into the image at a determined position, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the echoes determined in said space-time window; And
ledit dispositif est adapté pour ensuite fournir ledit ensemble d’image(s) en entrée d’un réseau de neurones issu d’un apprentissage et adapté pour estimer, en fonction dudit ensemble d’image(s) construit pour l’écho snconsidéré, la correspondance dudit écho considéré snà au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles.said device is adapted to then provide said set of image(s) as input to a neural network resulting from learning and adapted to estimate, based on said set of image(s) constructed for the echo s n considered, the correspondence of said considered echo s n to at least one type of target objects among a predefined set of types of target objects.
Dans des modes de réalisation, un tel dispositif comprendra en outre l’une au moins des caractéristiques suivantes :
- les attributs comprennent un ou plusieurs des éléments suivants ou en sont fonction :
distance de l’objet à l’origine de l’écho,
azimut et/ou élévation de l’écho reçu,
vitesse de l’objet,
rapport entre les retours captés selon des plans de polarisation orthogonaux ou leurs corrélations,
rapport signal sur bruit de l’écho,
Surface Equivalent Radar de l’objet
extension spatiale de l’écho de l’objet,
étalement spectral ou présence de flash de pale ;
- l’ensemble d’image(s) construit pour chaque écho sncomprend au moins deux images, le couple d’attributs associé à l’une desdites images étant distinct du couple d’attributs associé à une autre image de l’ensemble d’image(s) ;
- l’ensemble d’image(s) construit pour l’écho sncomprend une ou plusieurs images parmi une image associée au couple d’attributs azimut-distance, une image associée au couple d’attributs temps-distance et une image associé au couple d’attributs temps-SER.
- attributes include or depend on one or more of the following:
distance from the object causing the echo,
azimuth and/or elevation of the received echo,
speed of the object,
relationship between the returns captured according to orthogonal polarization planes or their correlations,
signal-to-noise ratio of the echo,
Surface Radar Equivalent of the object
spatial extension of the object's echo,
spectral spreading or presence of blade flash;
- the set of image(s) constructed for each echo s n comprises at least two images, the pair of attributes associated with one of said images being distinct from the pair of attributes associated with another image of the set d 'image(s);
- the set of image(s) constructed for the echo s n comprises one or more images among an image associated with the pair of azimuth-distance attributes, an image associated with the pair of time-distance attributes and an image associated with the pair of time-SER attributes.
L’invention sera mieux comprise et d’autres caractéristiques, détails et avantages apparaîtront mieux à la lecture de la description qui suit, donnée à titre non limitatif, et grâce aux figures annexées, données à titre d’exemple.The invention will be better understood and other characteristics, details and advantages will appear better on reading the description which follows, given on a non-limiting basis, and thanks to the appended figures, given by way of example.
Des références identiques peuvent être utilisées dans des figures différentes lorsqu’elles désignent des éléments identiques ou comparables.Identical references may be used in different figures when they designate identical or comparable elements.
L’invention est décrite ci-après, dans un mode de réalisation, dans un système de traitement d’échos radar.The invention is described below, in one embodiment, in a radar echo processing system.
Comme il est connu, le radar (acronyme issu de l'anglais radio detection and ranging) est un système qui utilise les ondes électromagnétiques pour détecter la présence ou la position, ainsi que optionnellement la vitesse, d'objets cibles tels que, suivant les applications, des objets volants (avion, hélicoptères, drones etc.) pour le contrôle du traffic aérien, tels que les bateaux pour la surveillance de trafic maritime, ou les véhicules pour la surveillance du trafic routier ou la pluie, les nuages, orages et autres événements météorologiques pour la surveillance météorologique. Les ondes envoyées par un émetteur radar sont réfléchies par les objets rencontrés par l’onde incidente, et les signaux de retour (appelés écho radar ou écho-radar) sont captés et analysés par le récepteur radar, situé par exemple au même endroit que l'émetteur.As is known, radar (acronym from the English radio detection and ranging) is a system which uses electromagnetic waves to detect the presence or position, as well as optionally the speed, of target objects such as, depending on the applications, flying objects (airplane, helicopters, drones etc.) for air traffic control, such as boats for maritime traffic surveillance, or vehicles for road traffic surveillance or rain, clouds, thunderstorms and other weather events for weather monitoring. The waves sent by a radar transmitter are reflected by the objects encountered by the incident wave, and the return signals (called radar echo or radar echo) are captured and analyzed by the radar receiver, located for example in the same place as the 'issuer.
Un ensemble des valeurs {att1_n, att2_n, … attp_n} prises par un nombre p d’attributs, att1, att2, … attp, p ≥ 2 est associé à chaque écho snet le définit. La valeur de chaque attribut att1_n, att2_n, … attp_n est déterminée par le récepteur en fonction d’au moins l’écho snauquel l’attribut se rapporte et qui caractérise l’objet à l’origine de l’écho. Par exemple, les attributs figurent parmi les éléments suivants, ou encore sont fonction d’au moins un des éléments suivants ou d’une combinaison d’entre eux :
- temps (horodatage) de détection de l’écho,
- distance (notamment la case distance) à laquelle se situe l’objet, obtenue grâce au temps aller/retour du signal,
- azimut et/ou élévation de l’écho reçu, indiquant la direction de l’objet, déterminé grâce à la position angulaire de l'antenne ayant capté le signal de retour,
- vitesse de l’objet, fonction du décalage de fréquence du signal de retour généré selon l’effet Doppler,
- rapport entre les retours captés selon des plans de polarization orthogonaux ou leurs corrélations,
- rapport signal sur bruit de l’écho,
- extension spatiale de l’écho de l’objet,
- étalement spectral ou présence de flash de pale,
- etc.
- time (timestamp) of echo detection,
- distance (in particular the distance box) at which the object is located, obtained thanks to the round trip time of the signal,
- azimuth and/or elevation of the received echo, indicating the direction of the object, determined using the angular position of the antenna having captured the return signal,
- speed of the object, function of the frequency shift of the return signal generated according to the Doppler effect,
- relationship between the returns captured according to orthogonal polarization planes or their correlations,
- signal-to-noise ratio of the echo,
- spatial extension of the object's echo,
- spectral spreading or presence of blade flash,
- etc.
Comme vu précédemment, il importe, dans la chaîne de traitement des radars, de pouvoir discriminer les échos renvoyés depuis des objets cibles, i.e. qui présentent un intérêt dans le cadre de l’application considérée, de ceux renvoyés depuis les autres objets, ceci d’une part afin de ne pas traiter les échos inutiles et de permettre de diminuer les ressources calculatoires nécessaires et d’autre part de filtrer seulement les échos correspondant aux cibles recherchées et supprimer les autres échos, pour en déduire des informations justes.As seen previously, it is important, in the radar processing chain, to be able to discriminate the echoes returned from target objects, i.e. which are of interest in the context of the application considered, from those returned from other objects, this on the one hand in order not to process unnecessary echoes and to reduce the necessary computational resources and on the other hand to filter only the echoes corresponding to the desired targets and delete the other echoes, to deduce accurate information.
Pour ce faire, dans un mode de réalisation de l’invention, un dispositif de filtrage d’échos radar 1 est disposé dans la chaîne de traitement des échos reçus par le récepteur radar.To do this, in one embodiment of the invention, a radar echo filtering device 1 is placed in the chain for processing the echoes received by the radar receiver.
Suivant les modes de réalisation, le dispositif de filtrage 1 est disposé à l’une ou plusieurs des étapes de filtrage des échos qui surviennent le long de la chaîne de traitement des échos, parmi les suivantes : filtrage de formation de faisceaux, filtrage doppler, filtrage de compression d’impulsions, classification et filtrage extracteur, filtrage de Kalman, classification et filtrage du pistage etc.Depending on the embodiments, the filtering device 1 is arranged at one or more of the stages of filtering the echoes which occur along the echo processing chain, among the following: beamforming filtering, Doppler filtering, pulse compression filtering, extractor classification and filtering, Kalman filtering, tracking classification and filtering etc.
Un écho sntel que considéré dans la suite de la description peut ainsi alternativement être un hit (dans l’exemple considéré, environ 10 000 hits/s), un plot, qui est un agrégat de hits (dans l’exemple considéré, environ 1000 plots/seconde) ou une piste, qui est une enchainement de plots (dans l’exemple considéré, environ 100 pistes/s) etc.An echo s n as considered in the remainder of the description can thus alternatively be a hit (in the example considered, approximately 10,000 hits/s), a plot, which is an aggregate of hits (in the example considered, approximately 1000 plots/second) or a track, which is a sequence of plots (in the example considered, approximately 100 tracks/s) etc.
Les échos considérés sont issus par exemple des réflexions ayant eu lieu suite à un tour d’antenne mis en œuvre par l’émetteur radar (temps nécessaire à un tour d’antenne, par exemple dans la plage [1-10 secondes], comportant des rafales d’impulsions, chaque rafale ayant une durée Trafdans la plage [1 – 10 ms].The echoes considered come for example from reflections having taken place following an antenna turn implemented by the radar transmitter (time required for an antenna turn, for example in the range [1-10 seconds], comprising bursts of pulses, each burst having a duration T raf in the range [1 – 10 ms].
Dans le cas considéré, l’ensemble des types de cibles recherchés, Enstyp_cibles, comporte N types distincts de cibles parmi lesquels les différents types suivants : hélicoptères, hydrométéores, cibles biologiques, roquette, artillerie, mortier, missile, avion, drone, …, éoliennes, trafic routier, etc. avec N ≥2. Un des types de cibles de Enstyp_ciblesest par exemple « autres » et regroupe tout ce qui ne fait pas partie des autres types de cibles de l’ensemble Enstyp_cibles.In the case considered, the set of target types sought, Ens typ_cibles , includes N distinct types of targets among which the following different types: helicopters, hydrometeors, biological targets, rocket, artillery, mortar, missile, plane, drone, etc. , wind turbines, road traffic, etc. with N ≥2. One of the target types of Ens typ_cibles is for example “other” and includes everything that is not part of the other types of targets in the Ens typ_cibles set.
Le dispositif de filtrage 1 reçoit les échos successifs sn(n = 1, 2, …) détectés au fil du temps et leur ensemble d’attributs respectifs. Le dispositif de filtrage 1 est adapté pour estimer la correspondance de l’écho snavec au moins une cible de l’ensemble de cibles Enstyp_cibleset pour délivrer, pour chaque écho détecté snreçu en entrée, une information de sortie Outndéterminée en fonction de cette estimation.The filtering device 1 receives the successive echoes s n (n = 1, 2, …) detected over time and their respective set of attributes. The filtering device 1 is adapted to estimate the correspondence of the echo s n with at least one target from the set of targets Ens typ_targets and to deliver, for each detected echo s n received as input, output information Out n determined based on this estimate.
Le dispositif de filtrage 1 comporte un bloc électronique de construction d’images 10 et un réseau de neurones 11. Dans un mode de réalisation, le bloc de construction d’images 10 comprend un processeur et une mémoire (non représentés).The filtering device 1 comprises an electronic image construction block 10 and a neural network 11. In one embodiment, the image construction block 10 comprises a processor and a memory (not shown).
Le bloc de construction d’images 10 est adapté pour construire, à partir d’un écho snet de ses attributs, un ensemble d’image(s), EnsIMn, qui est ensuite fourni en entrée du réseau de neurones 11. La construction de l’ensemble d’image(s) est décrite plus loin, en référence au procédé de la
Le réseau de neurones 11 est un réseau de neurones issu d’un apprentissage préalable.The neural network 11 is a neural network resulting from prior learning.
Le réseau de neurones 11 est adapté pour recevoir, en phase d’inférence, l’ensemble d’images EnsIMnconstruit pour un écho snet pour en fonction de cet ensemble d’images, estimer si (ou, dans un mode de réalisation, dans quelle mesure) l’écho sncorrespond à un écho renvoyé par un type d’objet cible faisant partie de l’ensemble Enstyp_cibles.The neural network 11 is adapted to receive, in the inference phase, the set of images Ens IMn constructed for an echo s n and to, based on this set of images, estimate whether (or, in a mode of realization, to what extent) the echo s n corresponds to an echo returned by a type of target object forming part of the set Ens typ_cibles .
Dans des modes de réalisation, le réseau de neurones 11 est par exemple adapté pour délivrer, pour l’écho sn, le pourcentage de correspondance entre l’écho et chacun des types de l’ensemble Enstyp_cibles.In embodiments, the neural network 11 is for example adapted to deliver, for the echo s n , the percentage of correspondence between the echo and each of the types of the set Ens typ_targets .
Dans un autre mode de réalisation, le réseau de neurones 11 est adapté pour comparer entre eux des pourcentages obtenus pour l’écho snpour chaque type de l’ensemble Enstyp_cibleset ne délivre en sortie, pour l’écho sn, que le type de cible ayant obtenu le pourcentage maximal.In another embodiment, the neural network 11 is adapted to compare with each other the percentages obtained for the echo s n for each type of the set Ens typ_targets and only delivers as output, for the echo s n , the type of target that obtained the maximum percentage.
Un procédé 100 de filtrage d’échos dans un mode de réalisation de l’invention est représenté à la
Ce procédé comprend une phase préalable comportant l’étape 101 d’apprentissage du réseau de neurones 11 et l’étape 102, qui seront décrites plus loin.This method comprises a preliminary phase comprising step 101 of learning the neural network 11 and step 102, which will be described later.
En phase opérationnelle de traitement des échos, dans une étape 201, en considérant un écho sndéfini par ses attributs qui sont fournis en entrée du bloc de construction d’images 10, le bloc de construction d’images 10 construit, à partir de ces données d’entrée, un ensemble d’image(s), EnsIMn. La mémoire du bloc de construction d’images 10 comporte par exemple des instructions logicielles, qui lorsqu’elles sont mises en œuvre sur le processeur du bloc de construction 10, mettent en œuvre l’étape 201, détaillée ci-après.In the operational phase of processing echoes, in a step 201, considering an echo s n defined by its attributes which are provided as input to the image building block 10, the image building block 10 constructs, from this input data, a set of image(s), Ens IMn . The memory of the image building block 10 includes, for example, software instructions, which when implemented on the processor of the building block 10, implement step 201, detailed below.
L’ensemble d’image(s) comprend K images, avec K fixé ≥ 1. Par exemple K est supérieur ou égal à 2. La valeur de K dépend de l’application, du nombre d’attributs disponibles, de la précision souhaitée, du nombre de types de cibles.The set of image(s) includes K images, with K fixed ≥ 1. For example K is greater than or equal to 2. The value of K depends on the application, the number of attributes available, the desired precision , the number of target types.
Chaque image de l’ensemble d’images EnsIMnest associée à un couple d’attributs prédéfini parmi les p attributs att1, att2, … attp. Par exemple, une image est associée au couple (att1 = azimut, att2 = distance), une deuxième image est associée au couple (att3 = temps, att2 = distance) et une troisième image est associée au couple (att3 = temps, att4 = SER). Les attributs d’un couple sont distincts entre eux. Le couple d’attributs associé à une image de EnsIMnest distinct du couple d’attributs associé à toute autre image de EnsIMn.Each image of the set of images Ens IMn is associated with a pair of predefined attributes among the p attributes att1, att2, … attp. For example, an image is associated with the couple (att1 = azimuth, att2 = distance), a second image is associated with the couple (att3 = time, att2 = distance) and a third image is associated with the couple (att3 = time, att4 = SER). The attributes of a couple are distinct from each other. The pair of attributes associated with an image of Ens IMn is distinct from the pair of attributes associated with any other image of Ens IMn .
Chaque position dans l’image associée à (atti, attj) est ainsi définie par un couple de valeurs du couple d’attributs (atti, attj) (dans des plages prédéfinies) et inversement. Deux positions distinctes sont définies par deux couples de valeurs distincts de (atti, attj).Each position in the image associated with (atti, attj) is thus defined by a pair of values of the pair of attributes (atti, attj) (in predefined ranges) and vice versa. Two distinct positions are defined by two distinct pairs of values of (atti, attj).
Dans le cas considéré, un repère orthonormé est associé à chaque image avec l’axe des abscisses représentant des valeurs du premier attribut du couple associé et l’axe des ordonnées représentant des valeurs du deuxième attribut du couple associé. Dans un mode de réalisation les attributs sont reportés après centrage et normalisation pour homogénéiser les images y compris en phase d’apprentissage (notamment l’échelle temporelle est normalisée entre la date de la détection à classifier (la plus récente) et cette même date soustraite de la fenêtre de sélection temporelle).In the case considered, an orthonormal reference frame is associated with each image with the abscissa axis representing values of the first attribute of the associated pair and the ordinate axis representing values of the second attribute of the associated pair. In one embodiment the attributes are reported after centering and normalization to homogenize the images including in the learning phase (in particular the time scale is normalized between the date of the detection to be classified (the most recent) and this same date subtracted of the time selection window).
Recevant l’écho snet ses valeurs d’attributs {att1_n, att2_n, … attp_n}, le bloc de construction d’images 10 sélectionne, parmi l’ensemble des échos reçus par le dispositif 1 (et précédemment mémorisés dans une mémoire), les échos détectés dans une fenêtre spatio-temporelle prédéterminée comprenant le temps de détection de snet la position spatiale de sn. Receiving the echo s n and its attribute values {att1_n, att2_n, … attp_n}, the image building block 10 selects, from all the echoes received by the device 1 (and previously stored in a memory) , the echoes detected in a predetermined spatio-temporal window including the detection time of s n and the spatial position of s n.
Puis le bloc de construction d’images 10 construit l’image associée au couple (att1, att2), en plaçant un motif donné (par exemple un point, une croix, un pixel d’une couleur prédéterminée …) à la position dans l’image définie par le couple de valeurs d’attributs (att1, att2) associé à chacun desdits échos sélectionnés dans la fenêtre spatio-temporelle.Then the image building block 10 constructs the image associated with the pair (att1, att2), by placing a given pattern (for example a point, a cross, a pixel of a predetermined color, etc.) at the position in the 'image defined by the pair of attribute values (att1, att2) associated with each of said echoes selected in the space-time window.
Selon les modes de réalisation, la fenêtre spatio-temporelle de profondeur temporelle L est calée sur le temps de détection de l’écho sn et permet de remonter le temps avec la profondeur temporelle L depuis ce temps.According to the embodiments, the spatio-temporal window of temporal depth L is aligned with the echo detection time snot and allows you to go back in time with the temporal depth L from this time.
Dans un mode de réalisation, la profondeur temporelle L de la fenêtre spatio-temporelle est située dans la plage de plusieurs secondes à plusieurs minutes.In one embodiment, the temporal depth L of the space-time window is located in the range of several seconds to several minutes.
Dans un mode de réalisation, la fenêtre spatio-temporelle entoure (par exemple est centrée sur) la position spatiale de l’écho sn(i.e. la position spatiale de l’objet à l’origine de cet écho).In one embodiment, the space-time window surrounds (for example is centered on) the spatial position of the echo s n (ie the spatial position of the object at the origin of this echo).
Par exemple, la profondeur spatiale S de la fenêtre spatio-temporelle est située dans la plage de 0 à k kilomètres en distance (avec k inférieur à 10 km, ou encore avec inférieur à 5 km) et de quelques 3dBen azimut (par exemple un nombre de 3dBinférieur à 10, ou encore inférieur à 5), 3dBétant l’ouverture à -3dB du diagramme antenne émission-réception du radar.For example, the spatial depth S of the space-time window is located in the range from 0 to k kilometers in distance (with k less than 10 km, or even with less than 5 km) and a few 3dB in azimuth (for example a number of 3dB less than 10, or even less than 5), 3dB being the opening at -3dB of the radar transmit-receive antenna diagram.
Le traitement est itéré pour chacune des K images à construire. L’ensemble d’images EnsIMndéterminé par le bloc de construction 10 pour l’écho snest ensuite délivré sous forme de vecteur d’images d’entrée par le bloc 10 au réseau de neurones 11.The processing is iterated for each of the K images to be constructed. The set of images Ens IMn determined by the building block 10 for the echo s n is then delivered in the form of a vector of input images by the block 10 to the neural network 11.
Le réseau de neurones 11 recevant l’ensemble d’images EnsIMneffectue, dans une étape 202, les traitements de convolution et classification en fonction de l’ensemble d’image(s) et des poids déterminés au cours de l’apprentissage. Il estime si (ou, dans un mode de réalisation, dans quelle mesure) l’écho sncorrespond à un écho renvoyé par un objet cible faisant partie de l’ensemble Enstyp_cibles. Par exemple, le réseau de neurones 11 détermine ainsi, pour l’écho sn, le pourcentage de correspondance entre l’écho et chacun des types de l’ensemble Enstyp_ciblesen fonction de l’ensemble d’images EnsIMn: x1% hélicoptères, x2% hydrométéores, x3% cibles biologiques, x4% roquette, x5% artillerie, x6% mortier, x7% missile, x8% avion, x9% drone, …, xN% éoliennes : ainsi (100 – x1– x2- …- xN) % correspondant au type « autres ».The neural network 11 receiving the set of images Ens IMn carries out, in a step 202, the convolution and classification processing as a function of the set of image(s) and the weights determined during learning. It estimates whether (or, in one embodiment, to what extent) the echo s n corresponds to an echo returned by a target object forming part of the set Typ_targets . For example, the neural network 11 thus determines, for the echo s n , the percentage of correspondence between the echo and each of the types of the set Ens typ_targets as a function of the set of images Ens IMn : x 1 % helicopters, x 2 % hydrometeors, x 3 % biological targets, x 4 % rocket, x 5 % artillery, x 6 % mortar, x 7 % missile, x 8 % aircraft, x 9 % drone, …, x N % wind turbines : thus (100 – x 1 – x 2 - …- x N ) % corresponding to the “other” type.
Dans une étape 203, le dispositif de filtrage 1 détermine, pour chaque écho détecté sn, une information de sortie Outnen fonction de l’estimation fournie par le réseau de neurones 11 sur la base de l’ensemble d’images EnsIMnet la délivre.In a step 203, the filtering device 1 determines, for each echo detected s n , output information Out n as a function of the estimate provided by the neural network 11 on the basis of the set of images Ens IMn and delivers her.
Dans un mode de réalisation, le dispositif de filtrage 1 délivre comme information de sortie Outnun vecteur comportant comme coordonnées les pourcentages délivrés par le réseau de neurones 11 relativement à l’écho sn. Dans un autre mode de réalisation, le dispositif de filtrage 1, indique comme information de sortie Outnle type de cible ayant obtenu le pourcentage maximal dans les données de sortie calculées par le réseau de neurones 11.In one embodiment, the filtering device 1 delivers as output information Out n a vector comprising as coordinates the percentages delivered by the neural network 11 relative to the echo s n . In another embodiment, the filtering device 1 indicates as output information Out n the type of target having obtained the maximum percentage in the output data calculated by the neural network 11.
Dans un mode de réalisation, le dispositif 1 fournit l’écho snet ses attributs en tant qu’information de sortie Outnsi et seulement si le type de cible déterminé comme celui correspondant (avec le plus grand pourcentage le cas échéant) à l’écho snfait partie d’un sous-ensemble prédéterminé des types de cibles de Enstyp_cibles, seul ce sous-ensemble étant considéré comme pertinent pour la suite du traitement (sous-ensemble strict, comportant un nombre strictement inférieur de types à celui de l’ensemble de types de cibles) et si non, le dispositif 1 ne fournit rien en sortie (ou alors fournit une indication de non pertinence) relativement à l’écho sn: par exemple, ainsi pour la suite du traitement dans la chaîne de traitement, seuls sont gardés les échos assimilés à des avions, hélicoptères, roquettes, artilleries, mortiers, drones et sont supprimés les échos correspondant à des éoliennes, du trafic routier, des fouillis, des interférences, « autres ».In one embodiment, the device 1 provides the echo s n and its attributes as output information Out n if and only if the target type determined as that corresponding (with the greatest percentage if applicable) to the echo s n is part of a predetermined subset of the target types of Ens typ_cibles , only this subset being considered relevant for the rest of the processing (strict subset, comprising a strictly lower number of types than that of the set of target types) and if not, the device 1 provides nothing as output (or provides an indication of irrelevance) relative to the echo s n : for example, thus for the rest of the processing in the processing chain, only echoes assimilated to planes, helicopters, rockets, artillery, mortars, drones are kept and echoes corresponding to wind turbines, road traffic, clutter, interference, “others” are removed.
Sur la
Dans un mode de réalisation, les images pour des attributs fixés ont une taille constante.In one embodiment, images for fixed attributes have a constant size.
La
La solution proposée permet d’effectuer la reconnaissance visuelle des cibles à travers une ou des vues (exemple : temps-distance, temps-azimut, distance-azimut) sur une profondeur temporelle. Le problème de classification à travers le contexte est rapporté ainsi à une classification d’images.The proposed solution makes it possible to perform visual recognition of targets through one or more views (example: time-distance, time-azimuth, distance-azimuth) over a temporal depth. The problem of classification through context is thus related to image classification.
La phase d’apprentissage 101 du réseau de neurones est maintenant décrite.The learning phase 101 of the neural network is now described.
Pendant la phase d’apprentissage, une base de données d’apprentissage est constituée, comprenant une multitude d’échos (par exemple dans le cas considéré 1 million) associés chacun à des attributs et associés chacun au type auquel il correspond parmi les types d’objets cibles de de l’ensemble Enstyp_cibles(des milliers d’échos par type). Pour chacun de ces échos, un ensemble de K images (K est prédéfini, de même que le couple d’attributs associé à chaque image) est construit et les poids du réseau de neurones sont définis au fur et à mesure de l’apprentissage de manière à ce que l’erreur de classification diminue entre la classification attribuée pendant l’apprentissage par le réseau de neurones et le type connu et préalablement associé à l’écho. Dans le cas considéré, une phase de validation est ensuite effectuée sur un millier d’exemples (relatifs à une zone géographique autre que celle(s) de l’apprentissage), avec divers modes de fonctionnement radar.During the learning phase, a learning database is constituted, comprising a multitude of echoes (for example in the case considered 1 million) each associated with attributes and each associated with the type to which it corresponds among the types of 'target objects from the Ens typ_cibles set (thousands of echoes per type). For each of these echoes, a set of K images (K is predefined, as is the pair of attributes associated with each image) is constructed and the weights of the neural network are defined as the learning progresses. so that the classification error decreases between the classification assigned during learning by the neural network and the type known and previously associated with the echo. In the case considered, a validation phase is then carried out on a thousand examples (relating to a geographical area other than that(s) of training), with various radar operating modes.
Dans l’exemple considéré, le réseau de neurones est un réseau de neurones de type Deep Learning, par exemple de type convolutionnel (CNN, en anglais Convolutional Neural Network), tel que représenté en
Chaque image constitue une photographie du contexte de la détection de l’écho.Each image constitutes a photograph of the context of echo detection.
D’autres types de réseaux de neurones sont utilisables dans d’autres modes de réalisation de l’invention, par exemple les réseaux de neurones récurrents ou les réseaux de neurones récurrents à mémoire court-terme et long terme, les transformers etc.Other types of neural networks can be used in other embodiments of the invention, for example recurrent neural networks or recurrent neural networks with short-term and long-term memory, transformers, etc.
Les calculs mis en œuvre par le réseau de neurones sont par exemple implémentés par des accélérateurs de CNN, comportant des grilles de PE (processing elements) mettant en œuvre des fonctions MAC de multiplication- accumulation en fonction des poids et des images d’entrée.The calculations implemented by the neural network are for example implemented by CNN accelerators, comprising PE (processing elements) grids implementing multiplication-accumulation MAC functions as a function of the weights and the input images.
Dans l’étape 102 de la phase préalable, le réseau de neurones 11 issu de la phase d’apprentissage 101 est intégré dans le (ou chaque) dispositif de filtrage 1.In step 102 of the preliminary phase, the neural network 11 from the learning phase 101 is integrated into the (or each) filtering device 1.
Un filtrage selon l’invention permet ainsi de distinguer entre eux les différents types de cibles et de traiter chacun des échos en fonction de son type de cible tel que déterminé par le dispositif de filtrage. Par exemple, les échos de type hélicoptère, avion, drone subiront un traitement ultérieure, dans la chaîne de traitement du récepteur radar, destiné à préciser de quel type d’hélicoptère, d’avion, de drone il s’agit ; des échos correspondant à des types de cibles considérés comme indésirables (ou ne correspondant pas à des types de cibles jugés utiles) dans la suite du traitement seront éliminés (bruit, interférences, brouillage, fouillis intentionnel et non intentionnel (sol/mer, météo, oiseaux migrateurs, éoliennes, trafic routier…) de la suite des traitements ou seront soumis à des traitements spécifiques : par exemple, croiser un écho de type éolienne avec le relevé topographique théorique des éoliennes, le trafic routier avec les cartes routières etc.Filtering according to the invention thus makes it possible to distinguish between the different types of targets and to process each of the echoes according to its type of target as determined by the filtering device. For example, echoes of the helicopter, plane or drone type will undergo subsequent processing, in the processing chain of the radar receiver, intended to specify what type of helicopter, plane or drone it is; echoes corresponding to types of targets considered undesirable (or not corresponding to types of targets considered useful) in the continuation of the processing will be eliminated (noise, interference, jamming, intentional and unintentional clutter (ground/sea, weather, migratory birds, wind turbines, road traffic, etc.) following the processing or will be subject to specific processing: for example, crossing a wind turbine type echo with the theoretical topographic survey of wind turbines, road traffic with road maps, etc.
Pour un filtrage des plots en sortie extracteur, dans un mode de réalisation, le dispositif 1 remplace le rôle du pistage qui fait le tri entre les plots utiles appartenant à une trajectoire ayant une cohérence cinématique des plots erratiques ou indésirables.For filtering of the plots at the extractor output, in one embodiment, the device 1 replaces the role of tracking which sorts between the useful plots belonging to a trajectory having kinematic coherence from the erratic or undesirable plots.
L’invention propose ainsi une solution de filtrage d’écho, qui :
- se base sur une vision spatio-temporelle élargie,
- replace la détection dans son contexte en extrayant et analysant son historique,
- élargit le champ des informations disponibles à la décision,
- convient parfaitement aux capacités des solutions IA à déceler les motifs et leurs contextes,
- offre un cadre général et unificateur pour les techniques de pistage ou de track before detect,
- améliore nettement les performances du radar/lidar/sonar (compromis détection/ fausse alarme).
- is based on a broader spatio-temporal vision,
- places the detection in context by extracting and analyzing its history,
- broadens the scope of information available for decision-making,
- perfectly suits the capabilities of AI solutions to detect patterns and their contexts,
- offers a general and unifying framework for tracking or track before detect techniques,
- significantly improves radar/lidar/sonar performance (detection/false alarm compromise).
L’invention a été décrite ci-dessus par rapport à une application Radar. Bien sûr, elle est applicable aux différents systèmes d’analyse d’échos, telles que, outre les systèmes RADAR, les systèmes de type SONAR ou LIDAR.The invention has been described above in relation to a Radar application. Of course, it is applicable to different echo analysis systems, such as, in addition to RADAR systems, SONAR or LIDAR type systems.
L’invention a été décrite ci-dessus par rapport à une application de surveillance de trafic aérien. Bien sûr, elle est applicable aux différentes applications : surveillance maritime, routière, météo etc.The invention has been described above in relation to an air traffic monitoring application. Of course, it is applicable to different applications: maritime, road, weather monitoring, etc.
Claims (10)
- i/ application d’une fenêtre spatio-temporelle de taille prédéterminée comprenant ledit écho snconsidéré et détermination des échos situés dans ladite fenêtre spatio-temporelle y compris ledit écho snconsidéré ;
- ii/ construction d’un ensemble d’image(s) (EnsIMn) comprenant au moins une image, chaque image de l’ensemble d’image(s) étant associée à un couple prédéfini respectif d’attributs, chaque position dans ladite image correspondant à un couple respectif de valeurs desdits attributs, des positions distinctes correspondant à des couples de valeurs distinctes desdits attributs, selon laquelle, lors de la construction de ladite image, un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans la fenêtre spatio-temporelle ;
- iii/ fourniture dudit ensemble d’image(s) en entrée d’un réseau de neurones (11) issu d’un apprentissage et adapté pour estimer, en fonction dudit ensemble d’image(s) construit (EnsIMn) pour l’écho snconsidéré, la correspondance dudit écho considéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles ; et
- iv/ estimation par ledit réseau de neurones (11) de la correspondance dudit écho snconsidéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles.
- i/ application of a space-time window of predetermined size including said echo s n considered and determination of the echoes located in said space-time window including said echo s n considered;
- ii/ construction of a set of image(s) (Ens IMn ) comprising at least one image, each image of the set of image(s) being associated with a respective predefined pair of attributes, each position in said image corresponding to a respective pair of values of said attributes, distinct positions corresponding to pairs of distinct values of said attributes, according to which, during the construction of said image, a determined pattern is inserted into the image at a determined position, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the echoes determined in the space-time window;
- iii/ supply of said set of image(s) as input to a neural network (11) resulting from learning and adapted to estimate, based on said set of image(s) constructed (Ens IMn ) for the echo s n considered, the correspondence of said echo considered to at least one type of target objects among a predefined set of types of target objects; And
- iv/ estimation by said neural network (11) of the correspondence of said echo s n considered to at least one type of target objects among a predefined set of types of target objects.
temps de détection de l’écho,
distance de l’objet à l’origine de l’écho,
azimut et/ou élévation de l’écho reçu,
vitesse de l’objet,
rapport entre les retours captés selon des plans de polarisation orthogonaux ou leurs corrélations,
rapport signal sur bruit de l’écho,
Surface Equivalent Radar de l’objet
extension spatiale de l’écho de l’objet,
étalement spectral ou présence de flash de pale.Echo filtering method according to claim 1, according to which the attributes comprise one or more of the following elements, or are a function thereof:
echo detection time,
distance from the object causing the echo,
azimuth and/or elevation of the received echo,
speed of the object,
relationship between the returns captured according to orthogonal polarization planes or their correlations,
signal-to-noise ratio of the echo,
Surface Radar Equivalent of the object
spatial extension of the object's echo,
spectral spreading or presence of blade flash.
ledit dispositif étant adapté pour ensuite construire un ensemble d’image(s) (EnsIMn) comprenant au moins une image, chaque image de l’ensemble d’image(s) étant associée à un couple prédéfini respectif d’attributs, chaque position dans ladite image correspondant à un couple respectif de valeurs desdits attributs, des positions distinctes correspondant à des couples de valeurs distinctes desdits attributs, de sorte que, lors de la construction de ladite image, un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans ladite fenêtre spatio-temporelle ; et
ledit dispositif est adapté pour ensuite fournir ledit ensemble d’image(s) en entrée d’un réseau de neurones (11) issu d’un apprentissage et adapté pour estimer, en fonction dudit ensemble d’image(s) construit (EnsIMn) pour l’écho snconsidéré, la correspondance dudit écho considéré snà au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles.Device for filtering echoes (1) received by an echo receiver device, each echo being associated with attribute values of said echo, said device being characterized in that it is adapted, for an echo considered s n , to apply a space-time window of predetermined size including said echo s n considered and to determine echoes located in said space-time window including said echo s n considered;
said device being adapted to then construct a set of image(s) (Ens IMn ) comprising at least one image, each image of the set of image(s) being associated with a respective predefined pair of attributes, each position in said image corresponding to a respective pair of values of said attributes, distinct positions corresponding to pairs of distinct values of said attributes, so that, during the construction of said image, a determined pattern is inserted into the image at a position determined, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the echoes determined in said space-time window; And
said device is adapted to then provide said set of image(s) as input to a neural network (11) resulting from learning and adapted to estimate, based on said set of image(s) constructed (Ens IMn ) for the echo s n considered, the correspondence of said echo considered s n to at least one type of target objects among a predefined set of types of target objects.
temps de détection de l’écho,
distance de l’objet à l’origine de l’écho,
azimut et/ou élévation de l’écho reçu,
vitesse de l’objet,
rapport entre les retours captés selon des plans de polarisation orthogonaux ou leurs corrélations,
rapport signal sur bruit de l’écho,
Surface Equivalent Radar de l’objet
extension spatiale de l’écho de l’objet,
étalement spectral ou présence de flash de pale.
Filtering device (1) according to claim 7, wherein the attributes comprise one or more of the following elements or are a function thereof:
echo detection time,
distance from the object causing the echo,
azimuth and/or elevation of the received echo,
speed of the object,
relationship between the returns captured according to orthogonal polarization planes or their correlations,
signal-to-noise ratio of the echo,
Surface Radar Equivalent of the object
spatial extension of the object's echo,
spectral spreading or presence of blade flash.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2204498A FR3135535A1 (en) | 2022-05-12 | 2022-05-12 | Echo filtering method, echo filtering device and associated computer program |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR2204498 | 2022-05-12 | ||
FR2204498A FR3135535A1 (en) | 2022-05-12 | 2022-05-12 | Echo filtering method, echo filtering device and associated computer program |
Publications (1)
Publication Number | Publication Date |
---|---|
FR3135535A1 true FR3135535A1 (en) | 2023-11-17 |
Family
ID=82850261
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR2204498A Pending FR3135535A1 (en) | 2022-05-12 | 2022-05-12 | Echo filtering method, echo filtering device and associated computer program |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3135535A1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3715901A1 (en) * | 2019-03-29 | 2020-09-30 | Robin Radar Facilities BV | Detection and classification of unmanned aerial vehicles |
US20210156963A1 (en) * | 2019-11-21 | 2021-05-27 | Nvidia Corporation | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications |
US20220036741A1 (en) * | 2020-07-31 | 2022-02-03 | North Carolina State University | Drone detection, classification, tracking, and threat evaluation system employing field and remote identification (id) information |
-
2022
- 2022-05-12 FR FR2204498A patent/FR3135535A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3715901A1 (en) * | 2019-03-29 | 2020-09-30 | Robin Radar Facilities BV | Detection and classification of unmanned aerial vehicles |
US20210156963A1 (en) * | 2019-11-21 | 2021-05-27 | Nvidia Corporation | Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications |
US20220036741A1 (en) * | 2020-07-31 | 2022-02-03 | North Carolina State University | Drone detection, classification, tracking, and threat evaluation system employing field and remote identification (id) information |
Non-Patent Citations (1)
Title |
---|
DALE HOLLY ET AL: "A Comparison of Convolutional Neural Networks for Low SNR Radar Classification of Drones", 2021 IEEE RADAR CONFERENCE (RADARCONF21), IEEE, 7 May 2021 (2021-05-07), pages 1 - 5, XP033925934, DOI: 10.1109/RADARCONF2147009.2021.9455181 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guerci et al. | Knowledge-aided adaptive radar at DARPA: An overview | |
Tao et al. | A segmentation-based CFAR detection algorithm using truncated statistics | |
US7990311B2 (en) | Adaptive clutter filter for maritime surface search radar | |
EP3903123A1 (en) | Device for generating a simulated sea-clutter data set, and associated method and computer program | |
US10275707B2 (en) | Systems and methods for training multipath filtering systems | |
Shi et al. | Low-velocity small target detection with Doppler-guided retrospective filter in high-resolution radar at fast scan mode | |
WO2016091407A1 (en) | Radar detection system distinguishing rain echoes and radar implementing such a method | |
CN113933790A (en) | Inversion identification method, device and medium for working mode of phased array radar | |
Cao et al. | DNN-based peak sequence classification CFAR detection algorithm for high-resolution FMCW radar | |
Coraluppi et al. | An MHT approach to multi-sensor passive sonar tracking | |
FR3071066B1 (en) | METHOD FOR FILTERING GROUND AND / OR SEWAGE GROUND ECHOS INTERCEPTED BY AIRBORNE RADAR, AND RADAR IMPLEMENTING SUCH A METHOD | |
CN116520256B (en) | Airborne early warning radar interference recognition method and device based on deep learning | |
EP1812807B1 (en) | Waveform management method using a doppler mapping by statistical segmentation | |
FR3135535A1 (en) | Echo filtering method, echo filtering device and associated computer program | |
FR3070768A1 (en) | METHOD FOR AUTOMATIC CLASSIFICATION OF A TARGET VESSEL AND RADAR SYSTEM THEREOF | |
Goriachkin et al. | SAR system for searching and detecting objects in the forest area, based on UAVs | |
Yang et al. | A detection and information extraction approach for uav swarm | |
Jordanov et al. | Intelligent radar signal recognition and classification | |
EP3657200B1 (en) | Detection method by long integration and corresponding radar system | |
Cristallini et al. | Complementary direct data domain STAP for multichannel airborne passive radar | |
Boukaba et al. | Bootstrap based sequential detection in non-Gaussian correlated clutter | |
De Maio et al. | Design and experimental validation of knowledge-based CFAR detectors | |
Venkataraman et al. | Optimised scan-to-scan integration techniques for low observable target detection in sea clutter | |
Cong et al. | A jamming identification method based on deep learning for networking radars | |
EP0514252B1 (en) | Method to detect moving sources and to estimate their path |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20231117 |
|
PLFP | Fee payment |
Year of fee payment: 3 |