FR3135535A1 - Echo filtering method, echo filtering device and associated computer program - Google Patents

Echo filtering method, echo filtering device and associated computer program Download PDF

Info

Publication number
FR3135535A1
FR3135535A1 FR2204498A FR2204498A FR3135535A1 FR 3135535 A1 FR3135535 A1 FR 3135535A1 FR 2204498 A FR2204498 A FR 2204498A FR 2204498 A FR2204498 A FR 2204498A FR 3135535 A1 FR3135535 A1 FR 3135535A1
Authority
FR
France
Prior art keywords
echo
image
attributes
pair
considered
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR2204498A
Other languages
French (fr)
Inventor
Rami KASSAB
Loïc DALLOZ
Grégoire GAUTIER DE CHARNACE
Daniel Brooks
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR2204498A priority Critical patent/FR3135535A1/en
Publication of FR3135535A1 publication Critical patent/FR3135535A1/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/28Details of pulse systems
    • G01S7/285Receivers
    • G01S7/292Extracting wanted echo-signals
    • G01S7/2923Extracting wanted echo-signals based on data belonging to a number of consecutive radar periods
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • G01S13/723Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • G01S7/412Identification of targets based on measurements of radar reflectivity based on a comparison between measured values and known or stored values
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/415Identification of targets based on measurements of movement associated with the target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

L’invention concerne un procédé de filtrage d’échos associé à des valeurs d’attributs, comprenant : détermination des échos situés dans une fenêtre spatio-temporelle comprenant un écho snconsidéré ;construction d’un ensemble d’image(s), chaque position dans une image correspondant à un couple respectif de valeurs desdits attributs, et un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans la fenêtre spatio-temporelle ;estimation, en fonction dudit ensemble d’image(s) construit (EnsIMn) pour l’écho snconsidéré par un réseau de neurones (11), de la correspondance dudit écho sn considéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles. Figure pour l’abrégé : Fig. 1The invention relates to a method for filtering echoes associated with attribute values, comprising: determination of echoes located in a spatio-temporal window comprising an echo considered; construction of a set of image(s), each position in an image corresponding to a respective pair of values of said attributes, and a determined pattern is inserted in the image at a determined position, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the determined echoes in the space-time window; estimation, based on said set of image(s) constructed (EnsIMn) for the echo sn considered by a neural network (11), of the correspondence of said echo sn considered to at least one type d target objects from a predefined set of target object types. Figure for abstract: Fig. 1

Description

Procédé de filtrage d’échos, dispositif de filtrage d’échos et programme d’ordinateur associéEcho filtering method, echo filtering device and associated computer program

L’invention se situe dans le domaine du traitement des échos reçus par un système récepteur d’échos, par exemple de type radar.The invention lies in the field of processing echoes received by an echo receiver system, for example of the radar type.

A divers endroits de la chaîne de traitement des échos reçus, par exemple dans un système récepteur radar, des filtres sont appliqués à différents stades du traitement (filtre de formation de faisceaux, filtre doppler, filtre de compression d’impulsions, classification et filtrage extracteur, filtre de Kalman, classification et filtrage du pistage etc.), afin de favoriser la détection et la préservation des signaux réfléchis par des cibles d’intérêt et d’éliminer les échos indésirables : par exemple bruit, interférences, brouillage, fouillis intentionnel et non intentionnel.At various points in the received echo processing chain, for example in a radar receiver system, filters are applied at different stages of processing (beam forming filter, Doppler filter, pulse compression filter, classification and extractor filtering). , Kalman filter, classification and tracking filtering etc.), in order to promote the detection and preservation of signals reflected by targets of interest and to eliminate unwanted echoes: for example noise, interference, jamming, intentional clutter and unintentional.

Ce filtrage est essentiel à chacun de ces stades pour éviter la saturation (calculatoire et algorithmique) entraînant le dysfonctionnement des différents blocs de traitement et pour aboutir au final à un taux de fausses alarmes inférieur au taux maximum prescrit.This filtering is essential at each of these stages to avoid saturation (computational and algorithmic) leading to the malfunction of the different processing blocks and to ultimately result in a false alarm rate lower than the prescribed maximum rate.

A chaque fois, une décision quant à l’utilité de la présence de l’écho (signal vs bruit ou fouillis, cible d’intérêt ou pas etc...) pour la poursuite du traitement est réalisée, au mieux en se basant sur une information instantanée (ex. les mesures d’attributs du plot courant), le spectre instantané, le niveau du signal par rapport à une ambiance locale ou lissée dans le temps, la position d’un plot par rapport à une prédiction d’un filtre de Kalman d’une piste, etc ...).Each time, a decision as to the usefulness of the presence of the echo (signal vs. noise or clutter, target of interest or not, etc.) for the continuation of the treatment is made, at best based on instantaneous information (e.g. measurements of attributes of the current plot), the instantaneous spectrum, the level of the signal in relation to a local environment or smoothed over time, the position of a plot in relation to a prediction of a Kalman filter of a track, etc...).

Cette vision étriquée rend la décision très compliquée. Décider instantanément s’il convient de garder ou pas un plot radar en mode clair (i.e. sans calcul Doppler) avec une estimation de la position et de la SER n’est pas possible, pour distinguer un hélicoptère d’une éolienne par exemple ou bien un drone d’un oiseau.This narrow vision makes the decision very complicated. Deciding instantly whether or not to keep a radar plot in clear mode (i.e. without Doppler calculation) with an estimate of the position and the SER is not possible, to distinguish a helicopter from a wind turbine for example or a drone of a bird.

Plusieurs stratégies sont utilisées dans les radars, majoritairement basées sur la classification de détections uniques et le filtrage par pistage. Une cible qui semble avoir un déplacement temporel cohérent avec un objet humain est une cible d’intérêt donc ses détections sont d’intérêt.Several strategies are used in radars, mainly based on the classification of single detections and filtering by tracking. A target that appears to have a temporal displacement consistent with a human object is a target of interest so its detections are of interest.

Le filtrage des détections unitaires est basé sur la classification des attributs des détections unitaires. L’enjeu est généralement de trouver la distribution de chaque attribut pour le phénomène à filtrer comparé aux détections d’intérêt. Cette discrimination peut se faire manuellement (par seuillage par exemple) ou par apprentissage automatique (réseaux de neurones). Une limitation forte de cette approche est lorsque les attributs des détections ne permettent pas de discriminer les cibles d’intérêt d’un phénomène à filtrer.Filtering unit detections is based on the classification of unit detection attributes. The challenge is generally to find the distribution of each attribute for the phenomenon to be filtered compared to the detections of interest. This discrimination can be done manually (by thresholding for example) or by automatic learning (neural networks). A strong limitation of this approach is when the attributes of the detections do not make it possible to discriminate the targets of interest of a phenomenon to be filtered.

Le filtrage par pistage utilise des modèles cinématiques (qui imposent donc leurs limitations) pour estimer si une détection fait partie d’une cible mouvante. Si les caractéristiques de mouvement peuvent correspondre à une cible d’origine humaine, la détection est considérée comme d’intérêt. Ce type de filtrage montre des performances limitées face à des cibles fortement manoeuvrantes ou lorsqu’il devient nécessaire de définir un grand nombre de modèles cinématiques. Pour chaque piste existante, chaque nouvelle détection dont la position correspond à un modèle cinématique est évaluée. Cela crée un grand nombre d’hypothèses à maintenir en mémoire pour chaque piste. Le calculateur responsable du pistage doit donc avoir beaucoup d’espace mémoire dédiée.Tracking filtering uses kinematic models (which therefore impose their limitations) to estimate whether a detection is part of a moving target. If the motion characteristics can match a human-made target, the detection is considered of interest. This type of filtering shows limited performance when faced with highly maneuverable targets or when it becomes necessary to define a large number of kinematic models. For each existing track, each new detection whose position corresponds to a kinematic model is evaluated. This creates a large number of assumptions to be kept in memory for each track. The computer responsible for tracking must therefore have a lot of dedicated memory space.

Il existe donc un besoin de disposer d’une solution de filtrage qui permette d’améliorer la pertinence du filtrage.There is therefore a need to have a filtering solution that makes it possible to improve the relevance of the filtering.

A cet effet, suivant un premier aspect, la présente invention décrit un procédé de filtrage d’échos reçus par un dispositif récepteur d’échos, chaque écho étant associé à des valeurs d’attributs dudit écho, ledit procédé étant caractérisé en ce qu’il comprend les étapes suivantes mises en œuvre par un dispositif électronique de filtrage, pour un écho considéré sn:
i/ application d’une fenêtre spatio-temporelle de taille prédéterminée comprenant ledit écho snconsidéré et détermination des échos situés dans ladite fenêtre spatio-temporelle y compris ledit écho snconsidéré ;
ii/ construction d’un ensemble d’image(s) comprenant au moins une image, chaque image de l’ensemble d’image(s) étant associée à un couple prédéfini respectif d’attributs, chaque position dans ladite image correspondant à un couple respectif de valeurs desdits attributs, des positions distinctes correspondant à des couples de valeurs distinctes desdits attributs, selon laquelle, lors de la construction de ladite image, un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans la fenêtre spatio-temporelle ;
iii/ fourniture dudit ensemble d’image(s) en entrée d’un réseau de neurones issu d’un apprentissage et adapté pour estimer, en fonction dudit ensemble d’image(s) construit pour l’écho snconsidéré, la correspondance dudit écho considéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles ; et
iv/ estimation par ledit réseau de neurones de la correspondance dudit écho snconsidéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles.
To this end, according to a first aspect, the present invention describes a method of filtering echoes received by an echo receiver device, each echo being associated with attribute values of said echo, said method being characterized in that it includes the following steps implemented by an electronic filtering device, for an echo considered s n :
i/ application of a space-time window of predetermined size including said echo s n considered and determination of the echoes located in said space-time window including said echo s n considered;
ii/ construction of a set of image(s) comprising at least one image, each image of the set of image(s) being associated with a respective predefined pair of attributes, each position in said image corresponding to a respective pair of values of said attributes, distinct positions corresponding to pairs of distinct values of said attributes, according to which, during the construction of said image, a determined pattern is inserted into the image at a determined position, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the echoes determined in the space-time window;
iii/ supply of said set of image(s) as input to a neural network resulting from learning and adapted to estimate, based on said set of image(s) constructed for the echo s n considered, the correspondence said echo considered to at least one type of target objects from a predefined set of types of target objects; And
iv/ estimation by said neural network of the correspondence of said echo s n considered to at least one type of target objects among a predefined set of types of target objects.

L’invention permet, avant chaque décision de présence d’écho, de replacer cette présence dans son contexte historique spatio-temporelle ce qui enrichit énormément les champs des informations disponibles pour la décision.The invention makes it possible, before each decision on the presence of an echo, to place this presence in its spatio-temporal historical context, which enormously enriches the fields of information available for the decision.

Le plot de l’hélicoptère pourrait ainsi apparaître dans une continuité de trajectoire de plots ce qui permettrait immédiatement de l’identifier au-dessus d’un champ d’éolienne.The helicopter stud could thus appear in a continuity of trajectory of studs which would immediately allow it to be identified above a wind turbine field.

De plus, les algorithmes d’intelligence artificielle sont très adaptés à la reconnaissance des patterns : l’invention permet de ramener la problématique du filtrage à une problématique de traitement d’images ; elle permet de tirer parti de l’élargissement du champ des informations et de profiter de la notion contextuelle de la décision.In addition, artificial intelligence algorithms are very suitable for pattern recognition: the invention makes it possible to reduce the problem of filtering to an image processing problem; it makes it possible to take advantage of the broadening of the field of information and to benefit from the contextual notion of the decision.

Dans des modes de réalisation, un tel procédé comprendra en outre l’une au moins des caractéristiques suivantes :

  • les attributs comprennent un ou plusieurs des éléments suivants ou en sont fonction :
temps de détection de l’écho,
distance de l’objet à l’origine de l’écho,
azimut et/ou élévation de l’écho reçu,
vitesse de l’objet,
rapport entre les retours captés selon des plans de polarization orthogonaux ou leurs corrélations,
rapport signal sur bruit de l’écho,
Surface Equivalent Radar de l’objet
extension spatiale de l’écho de l’objet,
étalement spectral ou présence de flash de pale ;
  • l’ensemble d’image(s) construit pour chaque écho sn comprend au moins deux images, le couple d’attributs associé à l’une desdites images étant distinct du couple d’attributs associé à une autre image de l’ensemble d’image(s) ;
  • l’ensemble d’image(s) construit pour l’écho sncomprend une ou plusieurs images parmi une image associée au couple d’attributs azimut-distance, une image associée au couple d’attributs temps-distance et une image associé au couple d’attributs temps-SER ;
  • le réseau de neurones est issu d’une phase d’apprentissage au cours de laquelle une base d’apprentissage comprenant des échos associés à leurs attributs et préalablement associés chacun à un type de l’ensemble prédéfini de types d’objets cibles est utilisée, un ensemble d’image(s) étant construit pour chaque écho de la base d’apprentissage conformément aux étapes i et ii et selon lequel l’ensemble d’images construit pour chaque écho est fourni en entrée du réseau en cours d’apprentissage et les poids des neurones du réseau sont modifiés en fonction de l’erreur entre le type préalablement associé à l’écho et l’estimation fournie par le réseau de neurones, dans son état d’apprentissage courant, en fonction dudit ensemble d’image(s).
In embodiments, such a method will also include at least one of the following characteristics:
  • attributes include or depend on one or more of the following:
echo detection time,
distance from the object causing the echo,
azimuth and/or elevation of the received echo,
speed of the object,
relationship between the returns captured according to orthogonal polarization planes or their correlations,
signal-to-noise ratio of the echo,
Surface Radar Equivalent of the object
spatial extension of the object's echo,
spectral spreading or presence of blade flash;
  • the set of image(s) constructed for each echo sn comprises at least two images, the pair of attributes associated with one of said images being distinct from the pair of attributes associated with another image of the set of image(s);
  • the set of image(s) constructed for the echo s n comprises one or more images among an image associated with the pair of azimuth-distance attributes, an image associated with the pair of time-distance attributes and an image associated with the pair of time-SER attributes;
  • the neural network comes from a learning phase during which a learning base comprising echoes associated with their attributes and each previously associated with a type of the predefined set of target object types is used, a set of image(s) being constructed for each echo of the learning base in accordance with steps i and ii and according to which the set of images constructed for each echo is provided as input to the network being trained and the weights of the neurons in the network are modified as a function of the error between the type previously associated with the echo and the estimate provided by the neural network, in its current learning state, as a function of said set of images ( s).

Suivant un autre aspect, l’invention décrit un programme d’ordinateur destiné à être stocké dans la mémoire d’un dispositif électronique de filtrage d’échos et comprenant en outre un calculateur, ledit programme d’ordinateur comprenant des instructions qui, lorsqu’elles sont exécutées sur le microcalculateur, mettent en œuvre les étapes d’un procédé selon l’invention.According to another aspect, the invention describes a computer program intended to be stored in the memory of an electronic echo filtering device and further comprising a calculator, said computer program comprising instructions which, when they are executed on the microcomputer, implement the steps of a method according to the invention.

Suivant un autre aspect, l’invention décrit un dispositif de filtrage d’échos reçus par un dispositif récepteur d’échos, chaque écho étant associé à des valeurs d’attributs dudit écho, ledit dispositif étant caractérisé en ce qu’il est adapté, pour un écho considéré sn, pour appliquer une fenêtre spatio-temporelle de taille prédéterminée comprenant ledit écho snconsidéré et pour déterminer des échos situés dans ladite fenêtre spatio-temporelle y compris ledit écho snconsidéré ;
According to another aspect, the invention describes a device for filtering echoes received by an echo receiver device, each echo being associated with attribute values of said echo, said device being characterized in that it is adapted, for a considered echo s n , to apply a space-time window of predetermined size including said echo s n considered and to determine echoes located in said space-time window including said echo s n considered;

ledit dispositif étant adapté pour ensuite construire un ensemble d’image(s) comprenant au moins une image, chaque image de l’ensemble d’image(s) étant associée à un couple prédéfini respectif d’attributs, chaque position dans ladite image correspondant à un couple respectif de valeurs desdits attributs, des positions distinctes correspondant à des couples de valeurs distinctes desdits attributs, de sorte que, lors de la construction de ladite image, un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans ladite fenêtre spatio-temporelle ; et
said device being adapted to then construct a set of image(s) comprising at least one image, each image of the set of image(s) being associated with a respective predefined pair of attributes, each position in said image corresponding to a respective pair of values of said attributes, distinct positions corresponding to pairs of distinct values of said attributes, so that, during the construction of said image, a determined pattern is inserted into the image at a determined position, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the echoes determined in said space-time window; And

ledit dispositif est adapté pour ensuite fournir ledit ensemble d’image(s) en entrée d’un réseau de neurones issu d’un apprentissage et adapté pour estimer, en fonction dudit ensemble d’image(s) construit pour l’écho snconsidéré, la correspondance dudit écho considéré snà au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles.said device is adapted to then provide said set of image(s) as input to a neural network resulting from learning and adapted to estimate, based on said set of image(s) constructed for the echo s n considered, the correspondence of said considered echo s n to at least one type of target objects among a predefined set of types of target objects.

Dans des modes de réalisation, un tel dispositif comprendra en outre l’une au moins des caractéristiques suivantes :

  • les attributs comprennent un ou plusieurs des éléments suivants ou en sont fonction :
temps de détection de l’écho,
distance de l’objet à l’origine de l’écho,
azimut et/ou élévation de l’écho reçu,
vitesse de l’objet,
rapport entre les retours captés selon des plans de polarisation orthogonaux ou leurs corrélations,
rapport signal sur bruit de l’écho,
Surface Equivalent Radar de l’objet
extension spatiale de l’écho de l’objet,
étalement spectral ou présence de flash de pale ;
  • l’ensemble d’image(s) construit pour chaque écho sncomprend au moins deux images, le couple d’attributs associé à l’une desdites images étant distinct du couple d’attributs associé à une autre image de l’ensemble d’image(s) ;
  • l’ensemble d’image(s) construit pour l’écho sncomprend une ou plusieurs images parmi une image associée au couple d’attributs azimut-distance, une image associée au couple d’attributs temps-distance et une image associé au couple d’attributs temps-SER.
In embodiments, such a device will also include at least one of the following characteristics:
  • attributes include or depend on one or more of the following:
echo detection time,
distance from the object causing the echo,
azimuth and/or elevation of the received echo,
speed of the object,
relationship between the returns captured according to orthogonal polarization planes or their correlations,
signal-to-noise ratio of the echo,
Surface Radar Equivalent of the object
spatial extension of the object's echo,
spectral spreading or presence of blade flash;
  • the set of image(s) constructed for each echo s n comprises at least two images, the pair of attributes associated with one of said images being distinct from the pair of attributes associated with another image of the set d 'image(s);
  • the set of image(s) constructed for the echo s n comprises one or more images among an image associated with the pair of azimuth-distance attributes, an image associated with the pair of time-distance attributes and an image associated with the pair of time-SER attributes.

L’invention sera mieux comprise et d’autres caractéristiques, détails et avantages apparaîtront mieux à la lecture de la description qui suit, donnée à titre non limitatif, et grâce aux figures annexées, données à titre d’exemple.The invention will be better understood and other characteristics, details and advantages will appear better on reading the description which follows, given on a non-limiting basis, and thanks to the appended figures, given by way of example.

] La est une représentation d’un dispositif de filtrage dans un mode de réalisation de l’invention ; ] There is a representation of a filtering device in one embodiment of the invention;

La est une représentation d’un procédé de filtrage dans un mode de réalisation de l’invention ; There is a representation of a filtering method in one embodiment of the invention;

La représente deux ensembles d’images obtenus dans un mode de réalisation de l’invention ; There represents two sets of images obtained in one embodiment of the invention;

La illustre l’application d’une fenêtre temporelle autour d’un écho à traiter dans un mode de réalisation de l’invention ; There illustrates the application of a time window around an echo to be processed in one embodiment of the invention;

La est un exemple d’architecture d’un réseau de neurones d’un dispositif de filtrage dans un mode de réalisation de l’invention. There is an example of architecture of a neural network of a filtering device in one embodiment of the invention.

Des références identiques peuvent être utilisées dans des figures différentes lorsqu’elles désignent des éléments identiques ou comparables.Identical references may be used in different figures when they designate identical or comparable elements.

L’invention est décrite ci-après, dans un mode de réalisation, dans un système de traitement d’échos radar.The invention is described below, in one embodiment, in a radar echo processing system.

Comme il est connu, le radar (acronyme issu de l'anglais radio detection and ranging) est un système qui utilise les ondes électromagnétiques pour détecter la présence ou la position, ainsi que optionnellement la vitesse, d'objets cibles tels que, suivant les applications, des objets volants (avion, hélicoptères, drones etc.) pour le contrôle du traffic aérien, tels que les bateaux pour la surveillance de trafic maritime, ou les véhicules pour la surveillance du trafic routier ou la pluie, les nuages, orages et autres événements météorologiques pour la surveillance météorologique. Les ondes envoyées par un émetteur radar sont réfléchies par les objets rencontrés par l’onde incidente, et les signaux de retour (appelés écho radar ou écho-radar) sont captés et analysés par le récepteur radar, situé par exemple au même endroit que l'émetteur.As is known, radar (acronym from the English radio detection and ranging) is a system which uses electromagnetic waves to detect the presence or position, as well as optionally the speed, of target objects such as, depending on the applications, flying objects (airplane, helicopters, drones etc.) for air traffic control, such as boats for maritime traffic surveillance, or vehicles for road traffic surveillance or rain, clouds, thunderstorms and other weather events for weather monitoring. The waves sent by a radar transmitter are reflected by the objects encountered by the incident wave, and the return signals (called radar echo or radar echo) are captured and analyzed by the radar receiver, located for example in the same place as the 'issuer.

Un ensemble des valeurs {att1_n, att2_n, … attp_n} prises par un nombre p d’attributs, att1, att2, … attp, p ≥ 2 est associé à chaque écho snet le définit. La valeur de chaque attribut att1_n, att2_n, … attp_n est déterminée par le récepteur en fonction d’au moins l’écho snauquel l’attribut se rapporte et qui caractérise l’objet à l’origine de l’écho. Par exemple, les attributs figurent parmi les éléments suivants, ou encore sont fonction d’au moins un des éléments suivants ou d’une combinaison d’entre eux :

  • temps (horodatage) de détection de l’écho,
  • distance (notamment la case distance) à laquelle se situe l’objet, obtenue grâce au temps aller/retour du signal,
  • azimut et/ou élévation de l’écho reçu, indiquant la direction de l’objet, déterminé grâce à la position angulaire de l'antenne ayant capté le signal de retour,
  • vitesse de l’objet, fonction du décalage de fréquence du signal de retour généré selon l’effet Doppler,
  • rapport entre les retours captés selon des plans de polarization orthogonaux ou leurs corrélations,
  • rapport signal sur bruit de l’écho,
SER (Surface Equivalent Radar), σ, de l’objet, qui s’exprime de la manière suivante, avec Pila densité de puissance par unité de surface, au niveau de la cible illuminée par le radar et Psla puissance diffusée par l’objet par unite d’angle solide :
  • extension spatiale de l’écho de l’objet,
  • étalement spectral ou présence de flash de pale,
  • etc.
A set of values {att1_n, att2_n, … attp_n} taken by a number p of attributes, att1, att2, … attp, p ≥ 2 is associated with each echo s n and defines it. The value of each attribute att1_n, att2_n, ... attp_n is determined by the receiver as a function of at least the echo s n to which the attribute relates and which characterizes the object causing the echo. For example, attributes are among the following, or are based on at least one of the following or a combination of them:
  • time (timestamp) of echo detection,
  • distance (in particular the distance box) at which the object is located, obtained thanks to the round trip time of the signal,
  • azimuth and/or elevation of the received echo, indicating the direction of the object, determined using the angular position of the antenna having captured the return signal,
  • speed of the object, function of the frequency shift of the return signal generated according to the Doppler effect,
  • relationship between the returns captured according to orthogonal polarization planes or their correlations,
  • signal-to-noise ratio of the echo,
SER (Radar Equivalent Surface), σ, of the object, which is expressed as follows, with P i the power density per unit surface, at the level of the target illuminated by the radar and P s the scattered power by the object per unit of solid angle:
  • spatial extension of the object's echo,
  • spectral spreading or presence of blade flash,
  • etc.

Comme vu précédemment, il importe, dans la chaîne de traitement des radars, de pouvoir discriminer les échos renvoyés depuis des objets cibles, i.e. qui présentent un intérêt dans le cadre de l’application considérée, de ceux renvoyés depuis les autres objets, ceci d’une part afin de ne pas traiter les échos inutiles et de permettre de diminuer les ressources calculatoires nécessaires et d’autre part de filtrer seulement les échos correspondant aux cibles recherchées et supprimer les autres échos, pour en déduire des informations justes.As seen previously, it is important, in the radar processing chain, to be able to discriminate the echoes returned from target objects, i.e. which are of interest in the context of the application considered, from those returned from other objects, this on the one hand in order not to process unnecessary echoes and to reduce the necessary computational resources and on the other hand to filter only the echoes corresponding to the desired targets and delete the other echoes, to deduce accurate information.

Pour ce faire, dans un mode de réalisation de l’invention, un dispositif de filtrage d’échos radar 1 est disposé dans la chaîne de traitement des échos reçus par le récepteur radar.To do this, in one embodiment of the invention, a radar echo filtering device 1 is placed in the chain for processing the echoes received by the radar receiver.

Suivant les modes de réalisation, le dispositif de filtrage 1 est disposé à l’une ou plusieurs des étapes de filtrage des échos qui surviennent le long de la chaîne de traitement des échos, parmi les suivantes : filtrage de formation de faisceaux, filtrage doppler, filtrage de compression d’impulsions, classification et filtrage extracteur, filtrage de Kalman, classification et filtrage du pistage etc.Depending on the embodiments, the filtering device 1 is arranged at one or more of the stages of filtering the echoes which occur along the echo processing chain, among the following: beamforming filtering, Doppler filtering, pulse compression filtering, extractor classification and filtering, Kalman filtering, tracking classification and filtering etc.

Un écho sntel que considéré dans la suite de la description peut ainsi alternativement être un hit (dans l’exemple considéré, environ 10 000 hits/s), un plot, qui est un agrégat de hits (dans l’exemple considéré, environ 1000 plots/seconde) ou une piste, qui est une enchainement de plots (dans l’exemple considéré, environ 100 pistes/s) etc.An echo s n as considered in the remainder of the description can thus alternatively be a hit (in the example considered, approximately 10,000 hits/s), a plot, which is an aggregate of hits (in the example considered, approximately 1000 plots/second) or a track, which is a sequence of plots (in the example considered, approximately 100 tracks/s) etc.

Les échos considérés sont issus par exemple des réflexions ayant eu lieu suite à un tour d’antenne mis en œuvre par l’émetteur radar (temps nécessaire à un tour d’antenne, par exemple dans la plage [1-10 secondes], comportant des rafales d’impulsions, chaque rafale ayant une durée Trafdans la plage [1 – 10 ms].The echoes considered come for example from reflections having taken place following an antenna turn implemented by the radar transmitter (time required for an antenna turn, for example in the range [1-10 seconds], comprising bursts of pulses, each burst having a duration T raf in the range [1 – 10 ms].

Dans le cas considéré, l’ensemble des types de cibles recherchés, Enstyp_cibles, comporte N types distincts de cibles parmi lesquels les différents types suivants : hélicoptères, hydrométéores, cibles biologiques, roquette, artillerie, mortier, missile, avion, drone, …, éoliennes, trafic routier, etc. avec N ≥2. Un des types de cibles de Enstyp_ciblesest par exemple « autres » et regroupe tout ce qui ne fait pas partie des autres types de cibles de l’ensemble Enstyp_cibles.In the case considered, the set of target types sought, Ens typ_cibles , includes N distinct types of targets among which the following different types: helicopters, hydrometeors, biological targets, rocket, artillery, mortar, missile, plane, drone, etc. , wind turbines, road traffic, etc. with N ≥2. One of the target types of Ens typ_cibles is for example “other” and includes everything that is not part of the other types of targets in the Ens typ_cibles set.

Le dispositif de filtrage 1 reçoit les échos successifs sn(n = 1, 2, …) détectés au fil du temps et leur ensemble d’attributs respectifs. Le dispositif de filtrage 1 est adapté pour estimer la correspondance de l’écho snavec au moins une cible de l’ensemble de cibles Enstyp_cibleset pour délivrer, pour chaque écho détecté snreçu en entrée, une information de sortie Outndéterminée en fonction de cette estimation.The filtering device 1 receives the successive echoes s n (n = 1, 2, …) detected over time and their respective set of attributes. The filtering device 1 is adapted to estimate the correspondence of the echo s n with at least one target from the set of targets Ens typ_targets and to deliver, for each detected echo s n received as input, output information Out n determined based on this estimate.

Le dispositif de filtrage 1 comporte un bloc électronique de construction d’images 10 et un réseau de neurones 11. Dans un mode de réalisation, le bloc de construction d’images 10 comprend un processeur et une mémoire (non représentés).The filtering device 1 comprises an electronic image construction block 10 and a neural network 11. In one embodiment, the image construction block 10 comprises a processor and a memory (not shown).

Le bloc de construction d’images 10 est adapté pour construire, à partir d’un écho snet de ses attributs, un ensemble d’image(s), EnsIMn, qui est ensuite fourni en entrée du réseau de neurones 11. La construction de l’ensemble d’image(s) est décrite plus loin, en référence au procédé de la .The image building block 10 is adapted to construct, from an echo s n and its attributes, a set of image(s), Ens IMn , which is then provided as input to the neural network 11. The construction of the set of image(s) is described below, with reference to the method of .

Le réseau de neurones 11 est un réseau de neurones issu d’un apprentissage préalable.The neural network 11 is a neural network resulting from prior learning.

Le réseau de neurones 11 est adapté pour recevoir, en phase d’inférence, l’ensemble d’images EnsIMnconstruit pour un écho snet pour en fonction de cet ensemble d’images, estimer si (ou, dans un mode de réalisation, dans quelle mesure) l’écho sncorrespond à un écho renvoyé par un type d’objet cible faisant partie de l’ensemble Enstyp_cibles.The neural network 11 is adapted to receive, in the inference phase, the set of images Ens IMn constructed for an echo s n and to, based on this set of images, estimate whether (or, in a mode of realization, to what extent) the echo s n corresponds to an echo returned by a type of target object forming part of the set Ens typ_cibles .

Dans des modes de réalisation, le réseau de neurones 11 est par exemple adapté pour délivrer, pour l’écho sn, le pourcentage de correspondance entre l’écho et chacun des types de l’ensemble Enstyp_cibles.In embodiments, the neural network 11 is for example adapted to deliver, for the echo s n , the percentage of correspondence between the echo and each of the types of the set Ens typ_targets .

Dans un autre mode de réalisation, le réseau de neurones 11 est adapté pour comparer entre eux des pourcentages obtenus pour l’écho snpour chaque type de l’ensemble Enstyp_cibleset ne délivre en sortie, pour l’écho sn, que le type de cible ayant obtenu le pourcentage maximal.In another embodiment, the neural network 11 is adapted to compare with each other the percentages obtained for the echo s n for each type of the set Ens typ_targets and only delivers as output, for the echo s n , the type of target that obtained the maximum percentage.

Un procédé 100 de filtrage d’échos dans un mode de réalisation de l’invention est représenté à la .A method 100 of filtering echoes in one embodiment of the invention is shown in .

Ce procédé comprend une phase préalable comportant l’étape 101 d’apprentissage du réseau de neurones 11 et l’étape 102, qui seront décrites plus loin.This method comprises a preliminary phase comprising step 101 of learning the neural network 11 and step 102, which will be described later.

En phase opérationnelle de traitement des échos, dans une étape 201, en considérant un écho sndéfini par ses attributs qui sont fournis en entrée du bloc de construction d’images 10, le bloc de construction d’images 10 construit, à partir de ces données d’entrée, un ensemble d’image(s), EnsIMn. La mémoire du bloc de construction d’images 10 comporte par exemple des instructions logicielles, qui lorsqu’elles sont mises en œuvre sur le processeur du bloc de construction 10, mettent en œuvre l’étape 201, détaillée ci-après.In the operational phase of processing echoes, in a step 201, considering an echo s n defined by its attributes which are provided as input to the image building block 10, the image building block 10 constructs, from this input data, a set of image(s), Ens IMn . The memory of the image building block 10 includes, for example, software instructions, which when implemented on the processor of the building block 10, implement step 201, detailed below.

L’ensemble d’image(s) comprend K images, avec K fixé ≥ 1. Par exemple K est supérieur ou égal à 2. La valeur de K dépend de l’application, du nombre d’attributs disponibles, de la précision souhaitée, du nombre de types de cibles.The set of image(s) includes K images, with K fixed ≥ 1. For example K is greater than or equal to 2. The value of K depends on the application, the number of attributes available, the desired precision , the number of target types.

Chaque image de l’ensemble d’images EnsIMnest associée à un couple d’attributs prédéfini parmi les p attributs att1, att2, … attp. Par exemple, une image est associée au couple (att1 = azimut, att2 = distance), une deuxième image est associée au couple (att3 = temps, att2 = distance) et une troisième image est associée au couple (att3 = temps, att4 = SER). Les attributs d’un couple sont distincts entre eux. Le couple d’attributs associé à une image de EnsIMnest distinct du couple d’attributs associé à toute autre image de EnsIMn.Each image of the set of images Ens IMn is associated with a pair of predefined attributes among the p attributes att1, att2, … attp. For example, an image is associated with the couple (att1 = azimuth, att2 = distance), a second image is associated with the couple (att3 = time, att2 = distance) and a third image is associated with the couple (att3 = time, att4 = SER). The attributes of a couple are distinct from each other. The pair of attributes associated with an image of Ens IMn is distinct from the pair of attributes associated with any other image of Ens IMn .

Chaque position dans l’image associée à (atti, attj) est ainsi définie par un couple de valeurs du couple d’attributs (atti, attj) (dans des plages prédéfinies) et inversement. Deux positions distinctes sont définies par deux couples de valeurs distincts de (atti, attj).Each position in the image associated with (atti, attj) is thus defined by a pair of values of the pair of attributes (atti, attj) (in predefined ranges) and vice versa. Two distinct positions are defined by two distinct pairs of values of (atti, attj).

Dans le cas considéré, un repère orthonormé est associé à chaque image avec l’axe des abscisses représentant des valeurs du premier attribut du couple associé et l’axe des ordonnées représentant des valeurs du deuxième attribut du couple associé. Dans un mode de réalisation les attributs sont reportés après centrage et normalisation pour homogénéiser les images y compris en phase d’apprentissage (notamment l’échelle temporelle est normalisée entre la date de la détection à classifier (la plus récente) et cette même date soustraite de la fenêtre de sélection temporelle).In the case considered, an orthonormal reference frame is associated with each image with the abscissa axis representing values of the first attribute of the associated pair and the ordinate axis representing values of the second attribute of the associated pair. In one embodiment the attributes are reported after centering and normalization to homogenize the images including in the learning phase (in particular the time scale is normalized between the date of the detection to be classified (the most recent) and this same date subtracted of the time selection window).

Recevant l’écho snet ses valeurs d’attributs {att1_n, att2_n, … attp_n}, le bloc de construction d’images 10 sélectionne, parmi l’ensemble des échos reçus par le dispositif 1 (et précédemment mémorisés dans une mémoire), les échos détectés dans une fenêtre spatio-temporelle prédéterminée comprenant le temps de détection de snet la position spatiale de sn. Receiving the echo s n and its attribute values {att1_n, att2_n, … attp_n}, the image building block 10 selects, from all the echoes received by the device 1 (and previously stored in a memory) , the echoes detected in a predetermined spatio-temporal window including the detection time of s n and the spatial position of s n.

Puis le bloc de construction d’images 10 construit l’image associée au couple (att1, att2), en plaçant un motif donné (par exemple un point, une croix, un pixel d’une couleur prédéterminée …) à la position dans l’image définie par le couple de valeurs d’attributs (att1, att2) associé à chacun desdits échos sélectionnés dans la fenêtre spatio-temporelle.Then the image building block 10 constructs the image associated with the pair (att1, att2), by placing a given pattern (for example a point, a cross, a pixel of a predetermined color, etc.) at the position in the 'image defined by the pair of attribute values (att1, att2) associated with each of said echoes selected in the space-time window.

Selon les modes de réalisation, la fenêtre spatio-temporelle de profondeur temporelle L est calée sur le temps de détection de l’écho sn et permet de remonter le temps avec la profondeur temporelle L depuis ce temps.According to the embodiments, the spatio-temporal window of temporal depth L is aligned with the echo detection time snot and allows you to go back in time with the temporal depth L from this time.

Dans un mode de réalisation, la profondeur temporelle L de la fenêtre spatio-temporelle est située dans la plage de plusieurs secondes à plusieurs minutes.In one embodiment, the temporal depth L of the space-time window is located in the range of several seconds to several minutes.

Dans un mode de réalisation, la fenêtre spatio-temporelle entoure (par exemple est centrée sur) la position spatiale de l’écho sn(i.e. la position spatiale de l’objet à l’origine de cet écho).In one embodiment, the space-time window surrounds (for example is centered on) the spatial position of the echo s n (ie the spatial position of the object at the origin of this echo).

Par exemple, la profondeur spatiale S de la fenêtre spatio-temporelle est située dans la plage de 0 à k kilomètres en distance (avec k inférieur à 10 km, ou encore avec inférieur à 5 km) et de quelques 3dBen azimut (par exemple un nombre de 3dBinférieur à 10, ou encore inférieur à 5), 3dBétant l’ouverture à -3dB du diagramme antenne émission-réception du radar.For example, the spatial depth S of the space-time window is located in the range from 0 to k kilometers in distance (with k less than 10 km, or even with less than 5 km) and a few 3dB in azimuth (for example a number of 3dB less than 10, or even less than 5), 3dB being the opening at -3dB of the radar transmit-receive antenna diagram.

Le traitement est itéré pour chacune des K images à construire. L’ensemble d’images EnsIMndéterminé par le bloc de construction 10 pour l’écho snest ensuite délivré sous forme de vecteur d’images d’entrée par le bloc 10 au réseau de neurones 11.The processing is iterated for each of the K images to be constructed. The set of images Ens IMn determined by the building block 10 for the echo s n is then delivered in the form of a vector of input images by the block 10 to the neural network 11.

Le réseau de neurones 11 recevant l’ensemble d’images EnsIMneffectue, dans une étape 202, les traitements de convolution et classification en fonction de l’ensemble d’image(s) et des poids déterminés au cours de l’apprentissage. Il estime si (ou, dans un mode de réalisation, dans quelle mesure) l’écho sncorrespond à un écho renvoyé par un objet cible faisant partie de l’ensemble Enstyp_cibles. Par exemple, le réseau de neurones 11 détermine ainsi, pour l’écho sn, le pourcentage de correspondance entre l’écho et chacun des types de l’ensemble Enstyp_ciblesen fonction de l’ensemble d’images EnsIMn: x1% hélicoptères, x2% hydrométéores, x3% cibles biologiques, x4% roquette, x5% artillerie, x6% mortier, x7% missile, x8% avion, x9% drone, …, xN% éoliennes : ainsi (100 – x1– x2- …- xN) % correspondant au type « autres ».The neural network 11 receiving the set of images Ens IMn carries out, in a step 202, the convolution and classification processing as a function of the set of image(s) and the weights determined during learning. It estimates whether (or, in one embodiment, to what extent) the echo s n corresponds to an echo returned by a target object forming part of the set Typ_targets . For example, the neural network 11 thus determines, for the echo s n , the percentage of correspondence between the echo and each of the types of the set Ens typ_targets as a function of the set of images Ens IMn : x 1 % helicopters, x 2 % hydrometeors, x 3 % biological targets, x 4 % rocket, x 5 % artillery, x 6 % mortar, x 7 % missile, x 8 % aircraft, x 9 % drone, …, x N % wind turbines : thus (100 – x 1 – x 2 - …- x N ) % corresponding to the “other” type.

Dans une étape 203, le dispositif de filtrage 1 détermine, pour chaque écho détecté sn, une information de sortie Outnen fonction de l’estimation fournie par le réseau de neurones 11 sur la base de l’ensemble d’images EnsIMnet la délivre.In a step 203, the filtering device 1 determines, for each echo detected s n , output information Out n as a function of the estimate provided by the neural network 11 on the basis of the set of images Ens IMn and delivers her.

Dans un mode de réalisation, le dispositif de filtrage 1 délivre comme information de sortie Outnun vecteur comportant comme coordonnées les pourcentages délivrés par le réseau de neurones 11 relativement à l’écho sn. Dans un autre mode de réalisation, le dispositif de filtrage 1, indique comme information de sortie Outnle type de cible ayant obtenu le pourcentage maximal dans les données de sortie calculées par le réseau de neurones 11.In one embodiment, the filtering device 1 delivers as output information Out n a vector comprising as coordinates the percentages delivered by the neural network 11 relative to the echo s n . In another embodiment, the filtering device 1 indicates as output information Out n the type of target having obtained the maximum percentage in the output data calculated by the neural network 11.

Dans un mode de réalisation, le dispositif 1 fournit l’écho snet ses attributs en tant qu’information de sortie Outnsi et seulement si le type de cible déterminé comme celui correspondant (avec le plus grand pourcentage le cas échéant) à l’écho snfait partie d’un sous-ensemble prédéterminé des types de cibles de Enstyp_cibles, seul ce sous-ensemble étant considéré comme pertinent pour la suite du traitement (sous-ensemble strict, comportant un nombre strictement inférieur de types à celui de l’ensemble de types de cibles) et si non, le dispositif 1 ne fournit rien en sortie (ou alors fournit une indication de non pertinence) relativement à l’écho sn: par exemple, ainsi pour la suite du traitement dans la chaîne de traitement, seuls sont gardés les échos assimilés à des avions, hélicoptères, roquettes, artilleries, mortiers, drones et sont supprimés les échos correspondant à des éoliennes, du trafic routier, des fouillis, des interférences, « autres ».In one embodiment, the device 1 provides the echo s n and its attributes as output information Out n if and only if the target type determined as that corresponding (with the greatest percentage if applicable) to the echo s n is part of a predetermined subset of the target types of Ens typ_cibles , only this subset being considered relevant for the rest of the processing (strict subset, comprising a strictly lower number of types than that of the set of target types) and if not, the device 1 provides nothing as output (or provides an indication of irrelevance) relative to the echo s n : for example, thus for the rest of the processing in the processing chain, only echoes assimilated to planes, helicopters, rockets, artillery, mortars, drones are kept and echoes corresponding to wind turbines, road traffic, clutter, interference, “others” are removed.

Sur la sont représentés deux ensembles d’images EnsIMn1et EnsIMn2comportant chacun 3 images (azimut, distance), (temps, distance) et (temps, SER). Ces ensembles d’images sont délivrées par le bloc de construction 10 pour deux échos sn1et sn2dans un mode de réalisation de l’invention, dans lequel l’ensemble EnsIMn1a été construit pour un écho sn1généré par un objet de type éolienne tandis que l’ensemble EnsIMn2a été construit pour un écho sn2généré par un objet de type avion.On the two sets of images Ens IMn1 and Ens IMn2 are represented, each comprising 3 images (azimuth, distance), (time, distance) and (time, SER). These sets of images are delivered by the building block 10 for two echoes s n1 and s n2 in one embodiment of the invention, in which the set Ens IMn1 was constructed for an echo s n1 generated by an object wind turbine type while the Ens IMn2 assembly was built for an s n2 echo generated by an airplane type object.

Dans un mode de réalisation, les images pour des attributs fixés ont une taille constante.In one embodiment, images for fixed attributes have a constant size.

La représente l’écho sn(croix en caractère gras) en cours de traitement par le bloc de construction 10 sur une grille polaire (cases distance, azimut) des détections repérées par des croix lors d’un tour d’antenne radar. Les échos sélectionnés par le bloc 10 lors de l’étape 201 sont ceux situés dans les cellules grisées de la grille polaire dans un mode de réalisation.There represents the echo s n (bold crosses) being processed by the building block 10 on a polar grid (distance boxes, azimuth) of the detections marked by crosses during a radar antenna tour. The echoes selected by block 10 during step 201 are those located in the gray cells of the polar grid in one embodiment.

La solution proposée permet d’effectuer la reconnaissance visuelle des cibles à travers une ou des vues (exemple : temps-distance, temps-azimut, distance-azimut) sur une profondeur temporelle. Le problème de classification à travers le contexte est rapporté ainsi à une classification d’images.The proposed solution makes it possible to perform visual recognition of targets through one or more views (example: time-distance, time-azimuth, distance-azimuth) over a temporal depth. The problem of classification through context is thus related to image classification.

La phase d’apprentissage 101 du réseau de neurones est maintenant décrite.The learning phase 101 of the neural network is now described.

Pendant la phase d’apprentissage, une base de données d’apprentissage est constituée, comprenant une multitude d’échos (par exemple dans le cas considéré 1 million) associés chacun à des attributs et associés chacun au type auquel il correspond parmi les types d’objets cibles de de l’ensemble Enstyp_cibles(des milliers d’échos par type). Pour chacun de ces échos, un ensemble de K images (K est prédéfini, de même que le couple d’attributs associé à chaque image) est construit et les poids du réseau de neurones sont définis au fur et à mesure de l’apprentissage de manière à ce que l’erreur de classification diminue entre la classification attribuée pendant l’apprentissage par le réseau de neurones et le type connu et préalablement associé à l’écho. Dans le cas considéré, une phase de validation est ensuite effectuée sur un millier d’exemples (relatifs à une zone géographique autre que celle(s) de l’apprentissage), avec divers modes de fonctionnement radar.During the learning phase, a learning database is constituted, comprising a multitude of echoes (for example in the case considered 1 million) each associated with attributes and each associated with the type to which it corresponds among the types of 'target objects from the Ens typ_cibles set (thousands of echoes per type). For each of these echoes, a set of K images (K is predefined, as is the pair of attributes associated with each image) is constructed and the weights of the neural network are defined as the learning progresses. so that the classification error decreases between the classification assigned during learning by the neural network and the type known and previously associated with the echo. In the case considered, a validation phase is then carried out on a thousand examples (relating to a geographical area other than that(s) of training), with various radar operating modes.

Dans l’exemple considéré, le réseau de neurones est un réseau de neurones de type Deep Learning, par exemple de type convolutionnel (CNN, en anglais Convolutional Neural Network), tel que représenté en . Il comporte des couches de convolution (conv1 à conv6) permettant la détection de caractéristiques sur l’image et des couches de classification entièrement connectés (fully connected : fc). Chaque image constitue une photographie du contexte de la détection de l’écho. Les indices « 1 » qui apparaissent indiquent le passage en vecteurs unidimensionnels.In the example considered, the neural network is a Deep Learning type neural network, for example of the convolutional type (CNN), as represented in . It includes convolution layers (conv1 to conv6) allowing the detection of features on the image and fully connected classification layers (fully connected: fc). Each image constitutes a photograph of the context of echo detection. The “1” indices that appear indicate the transition to one-dimensional vectors.

Chaque image constitue une photographie du contexte de la détection de l’écho.Each image constitutes a photograph of the context of echo detection.

D’autres types de réseaux de neurones sont utilisables dans d’autres modes de réalisation de l’invention, par exemple les réseaux de neurones récurrents ou les réseaux de neurones récurrents à mémoire court-terme et long terme, les transformers etc.Other types of neural networks can be used in other embodiments of the invention, for example recurrent neural networks or recurrent neural networks with short-term and long-term memory, transformers, etc.

Les calculs mis en œuvre par le réseau de neurones sont par exemple implémentés par des accélérateurs de CNN, comportant des grilles de PE (processing elements) mettant en œuvre des fonctions MAC de multiplication- accumulation en fonction des poids et des images d’entrée.The calculations implemented by the neural network are for example implemented by CNN accelerators, comprising PE (processing elements) grids implementing multiplication-accumulation MAC functions as a function of the weights and the input images.

Dans l’étape 102 de la phase préalable, le réseau de neurones 11 issu de la phase d’apprentissage 101 est intégré dans le (ou chaque) dispositif de filtrage 1.In step 102 of the preliminary phase, the neural network 11 from the learning phase 101 is integrated into the (or each) filtering device 1.

Un filtrage selon l’invention permet ainsi de distinguer entre eux les différents types de cibles et de traiter chacun des échos en fonction de son type de cible tel que déterminé par le dispositif de filtrage. Par exemple, les échos de type hélicoptère, avion, drone subiront un traitement ultérieure, dans la chaîne de traitement du récepteur radar, destiné à préciser de quel type d’hélicoptère, d’avion, de drone il s’agit ; des échos correspondant à des types de cibles considérés comme indésirables (ou ne correspondant pas à des types de cibles jugés utiles) dans la suite du traitement seront éliminés (bruit, interférences, brouillage, fouillis intentionnel et non intentionnel (sol/mer, météo, oiseaux migrateurs, éoliennes, trafic routier…) de la suite des traitements ou seront soumis à des traitements spécifiques : par exemple, croiser un écho de type éolienne avec le relevé topographique théorique des éoliennes, le trafic routier avec les cartes routières etc.Filtering according to the invention thus makes it possible to distinguish between the different types of targets and to process each of the echoes according to its type of target as determined by the filtering device. For example, echoes of the helicopter, plane or drone type will undergo subsequent processing, in the processing chain of the radar receiver, intended to specify what type of helicopter, plane or drone it is; echoes corresponding to types of targets considered undesirable (or not corresponding to types of targets considered useful) in the continuation of the processing will be eliminated (noise, interference, jamming, intentional and unintentional clutter (ground/sea, weather, migratory birds, wind turbines, road traffic, etc.) following the processing or will be subject to specific processing: for example, crossing a wind turbine type echo with the theoretical topographic survey of wind turbines, road traffic with road maps, etc.

Pour un filtrage des plots en sortie extracteur, dans un mode de réalisation, le dispositif 1 remplace le rôle du pistage qui fait le tri entre les plots utiles appartenant à une trajectoire ayant une cohérence cinématique des plots erratiques ou indésirables.For filtering of the plots at the extractor output, in one embodiment, the device 1 replaces the role of tracking which sorts between the useful plots belonging to a trajectory having kinematic coherence from the erratic or undesirable plots.

L’invention propose ainsi une solution de filtrage d’écho, qui :

  • se base sur une vision spatio-temporelle élargie,
  • replace la détection dans son contexte en extrayant et analysant son historique,
  • élargit le champ des informations disponibles à la décision,
  • convient parfaitement aux capacités des solutions IA à déceler les motifs et leurs contextes,
  • offre un cadre général et unificateur pour les techniques de pistage ou de track before detect,
  • améliore nettement les performances du radar/lidar/sonar (compromis détection/ fausse alarme).
The invention thus proposes an echo filtering solution, which:
  • is based on a broader spatio-temporal vision,
  • places the detection in context by extracting and analyzing its history,
  • broadens the scope of information available for decision-making,
  • perfectly suits the capabilities of AI solutions to detect patterns and their contexts,
  • offers a general and unifying framework for tracking or track before detect techniques,
  • significantly improves radar/lidar/sonar performance (detection/false alarm compromise).

L’invention a été décrite ci-dessus par rapport à une application Radar. Bien sûr, elle est applicable aux différents systèmes d’analyse d’échos, telles que, outre les systèmes RADAR, les systèmes de type SONAR ou LIDAR.The invention has been described above in relation to a Radar application. Of course, it is applicable to different echo analysis systems, such as, in addition to RADAR systems, SONAR or LIDAR type systems.

L’invention a été décrite ci-dessus par rapport à une application de surveillance de trafic aérien. Bien sûr, elle est applicable aux différentes applications : surveillance maritime, routière, météo etc.The invention has been described above in relation to an air traffic monitoring application. Of course, it is applicable to different applications: maritime, road, weather monitoring, etc.

Claims (10)

Procédé de filtrage d’échos reçus par un dispositif récepteur d’échos, chaque écho étant associé à des valeurs d’attributs dudit écho, ledit procédé étant caractérisé en ce qu’il comprend les étapes suivantes mises en œuvre par un dispositif électronique de filtrage (1), pour un écho considéré sn:
  • i/ application d’une fenêtre spatio-temporelle de taille prédéterminée comprenant ledit écho snconsidéré et détermination des échos situés dans ladite fenêtre spatio-temporelle y compris ledit écho snconsidéré ;
  • ii/ construction d’un ensemble d’image(s) (EnsIMn) comprenant au moins une image, chaque image de l’ensemble d’image(s) étant associée à un couple prédéfini respectif d’attributs, chaque position dans ladite image correspondant à un couple respectif de valeurs desdits attributs, des positions distinctes correspondant à des couples de valeurs distinctes desdits attributs, selon laquelle, lors de la construction de ladite image, un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans la fenêtre spatio-temporelle ;
  • iii/ fourniture dudit ensemble d’image(s) en entrée d’un réseau de neurones (11) issu d’un apprentissage et adapté pour estimer, en fonction dudit ensemble d’image(s) construit (EnsIMn) pour l’écho snconsidéré, la correspondance dudit écho considéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles ; et
  • iv/ estimation par ledit réseau de neurones (11) de la correspondance dudit écho snconsidéré à au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles.
Method for filtering echoes received by an echo receiver device, each echo being associated with attribute values of said echo, said method being characterized in that it comprises the following steps implemented by an electronic filtering device (1), for an echo considered snot:
  • i/ application of a space-time window of predetermined size including said echo s n considered and determination of the echoes located in said space-time window including said echo s n considered;
  • ii/ construction of a set of image(s) (Ens IMn ) comprising at least one image, each image of the set of image(s) being associated with a respective predefined pair of attributes, each position in said image corresponding to a respective pair of values of said attributes, distinct positions corresponding to pairs of distinct values of said attributes, according to which, during the construction of said image, a determined pattern is inserted into the image at a determined position, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the echoes determined in the space-time window;
  • iii/ supply of said set of image(s) as input to a neural network (11) resulting from learning and adapted to estimate, based on said set of image(s) constructed (Ens IMn ) for the echo s n considered, the correspondence of said echo considered to at least one type of target objects among a predefined set of types of target objects; And
  • iv/ estimation by said neural network (11) of the correspondence of said echo s n considered to at least one type of target objects among a predefined set of types of target objects.
Procédé de filtrage d’échos selon la revendication 1, selon lequel les attributs comprennent un ou plusieurs des éléments suivants, ou en sont fonction :
temps de détection de l’écho,
distance de l’objet à l’origine de l’écho,
azimut et/ou élévation de l’écho reçu,
vitesse de l’objet,
rapport entre les retours captés selon des plans de polarisation orthogonaux ou leurs corrélations,
rapport signal sur bruit de l’écho,
Surface Equivalent Radar de l’objet
extension spatiale de l’écho de l’objet,
étalement spectral ou présence de flash de pale.
Echo filtering method according to claim 1, according to which the attributes comprise one or more of the following elements, or are a function thereof:
echo detection time,
distance from the object causing the echo,
azimuth and/or elevation of the received echo,
speed of the object,
relationship between the returns captured according to orthogonal polarization planes or their correlations,
signal-to-noise ratio of the echo,
Surface Radar Equivalent of the object
spatial extension of the object's echo,
spectral spreading or presence of blade flash.
Procédé de filtrage d’échos selon la revendication 1 ou 2, selon lequel l’ensemble d’image(s) (EnsIMn) construit pour chaque écho sncomprend au moins deux images, le couple d’attributs associé à l’une desdites images étant distinct du couple d’attributs associé à une autre image de l’ensemble d’image(s).Echo filtering method according to claim 1 or 2, according to which the set of image(s) (Ens IMn ) constructed for each echo s n comprises at least two images, the pair of attributes associated with one said images being distinct from the pair of attributes associated with another image of the set of image(s). Procédé de filtrage d’échos selon l’une quelconque des revendications précédentes, selon lequel l’ensemble d’image(s) (EnsIMn) construit pour l’écho sncomprend une ou plusieurs images parmi une image associée au couple d’attributs azimut-distance, une image associée au couple d’attributs temps-distance et une image associé au couple d’attributs temps-SER.Echo filtering method according to any one of the preceding claims, according to which the set of image(s) (Ens IMn ) constructed for the echo s n comprises one or more images among an image associated with the pair of azimuth-distance attributes, an image associated with the pair of time-distance attributes and an image associated with the pair of time-SER attributes. Procédé de filtrage d’échos selon l’une quelconque des revendications précédentes, selon lequel le réseau de neurones (11) est issu d’une phase d’apprentissage au cours de laquelle une base d’apprentissage comprenant des échos associés à leurs attributs et préalablement associés chacun à un type de l’ensemble prédéfini de types d’objets cibles est utilisée, un ensemble d’image(s) étant construit pour chaque écho de la base d’apprentissage conformément aux étapes i et ii et selon lequel l’ensemble d’images construit pour chaque écho est fourni en entrée du réseau en cours d’apprentissage et les poids des neurones du réseau sont modifiés en fonction de l’erreur entre le type préalablement associé à l’écho et l’estimation fournie par le réseau de neurones, dans son état d’apprentissage courant, en fonction dudit ensemble d’image(s).Echo filtering method according to any one of the preceding claims, according to which the neural network (11) comes from a learning phase during which a learning base comprising echoes associated with their attributes and each previously associated with a type of the predefined set of target object types is used, a set of image(s) being constructed for each echo of the learning base in accordance with steps i and ii and according to which the set of images constructed for each echo is provided as input to the network being trained and the weights of the neurons in the network are modified according to the error between the type previously associated with the echo and the estimate provided by the neural network, in its current learning state, as a function of said set of image(s). Programme d’ordinateur, destiné à être stocké dans la mémoire d’un dispositif électronique de filtrage d’échos (1) et comprenant en outre un calculateur, ledit programme d’ordinateur comprenant des instructions qui, lorsqu’elles sont exécutées sur le microcalculateur, mettent en œuvre les étapes d’un procédé selon l’une des revendications précédentes.Computer program, intended to be stored in the memory of an electronic echo filtering device (1) and further comprising a calculator, said computer program comprising instructions which, when executed on the microcomputer , implement the steps of a method according to one of the preceding claims. Dispositif de filtrage d’échos (1) reçus par un dispositif récepteur d’échos, chaque écho étant associé à des valeurs d’attributs dudit écho, ledit dispositif étant caractérisé en ce qu’il est adapté, pour un écho considéré sn, pour appliquer une fenêtre spatio-temporelle de taille prédéterminée comprenant ledit écho snconsidéré et pour déterminer des échos situés dans ladite fenêtre spatio-temporelle y compris ledit écho snconsidéré ;
ledit dispositif étant adapté pour ensuite construire un ensemble d’image(s) (EnsIMn) comprenant au moins une image, chaque image de l’ensemble d’image(s) étant associée à un couple prédéfini respectif d’attributs, chaque position dans ladite image correspondant à un couple respectif de valeurs desdits attributs, des positions distinctes correspondant à des couples de valeurs distinctes desdits attributs, de sorte que, lors de la construction de ladite image, un motif déterminé est inséré dans l’image à une position déterminée, si et seulement si les valeurs des attributs correspondant à ladite position sont les valeurs desdits attributs pour un des échos déterminés dans ladite fenêtre spatio-temporelle ; et
ledit dispositif est adapté pour ensuite fournir ledit ensemble d’image(s) en entrée d’un réseau de neurones (11) issu d’un apprentissage et adapté pour estimer, en fonction dudit ensemble d’image(s) construit (EnsIMn) pour l’écho snconsidéré, la correspondance dudit écho considéré snà au moins un type d’objets cibles parmi un ensemble prédéfini de types d’objets cibles.
Device for filtering echoes (1) received by an echo receiver device, each echo being associated with attribute values of said echo, said device being characterized in that it is adapted, for an echo considered s n , to apply a space-time window of predetermined size including said echo s n considered and to determine echoes located in said space-time window including said echo s n considered;
said device being adapted to then construct a set of image(s) (Ens IMn ) comprising at least one image, each image of the set of image(s) being associated with a respective predefined pair of attributes, each position in said image corresponding to a respective pair of values of said attributes, distinct positions corresponding to pairs of distinct values of said attributes, so that, during the construction of said image, a determined pattern is inserted into the image at a position determined, if and only if the values of the attributes corresponding to said position are the values of said attributes for one of the echoes determined in said space-time window; And
said device is adapted to then provide said set of image(s) as input to a neural network (11) resulting from learning and adapted to estimate, based on said set of image(s) constructed (Ens IMn ) for the echo s n considered, the correspondence of said echo considered s n to at least one type of target objects among a predefined set of types of target objects.
Dispositif de filtrage (1) selon la revendication 7, dans lequel les attributs comprennent un ou plusieurs des éléments suivants ou en sont fonction :
temps de détection de l’écho,
distance de l’objet à l’origine de l’écho,
azimut et/ou élévation de l’écho reçu,
vitesse de l’objet,
rapport entre les retours captés selon des plans de polarisation orthogonaux ou leurs corrélations,
rapport signal sur bruit de l’écho,
Surface Equivalent Radar de l’objet
extension spatiale de l’écho de l’objet,
étalement spectral ou présence de flash de pale.
Filtering device (1) according to claim 7, wherein the attributes comprise one or more of the following elements or are a function thereof:
echo detection time,
distance from the object causing the echo,
azimuth and/or elevation of the received echo,
speed of the object,
relationship between the returns captured according to orthogonal polarization planes or their correlations,
signal-to-noise ratio of the echo,
Surface Radar Equivalent of the object
spatial extension of the object's echo,
spectral spreading or presence of blade flash.
Dispositif de filtrage (1) selon la revendication 7 ou 8, dans lequel l’ensemble d’image(s) (EnsIMn) construit pour chaque écho sncomprend au moins deux images, le couple d’attributs associé à l’une desdites images étant distinct du couple d’attributs associé à une autre image de l’ensemble d’image(s).Filtering device (1) according to claim 7 or 8, in which the set of image(s) (Ens IMn ) constructed for each echo s n comprises at least two images, the pair of attributes associated with one said images being distinct from the pair of attributes associated with another image of the set of image(s). Dispositif de filtrage (1) selon l’une des revendications 7 à 9, dans lequel l’ensemble d’image(s) (EnsIMn) construit pour l’écho sncomprend une ou plusieurs images parmi une image associée au couple d’attributs azimut-distance, une image associée au couple d’attributs temps-distance et une image associé au couple d’attributs temps-SER.Filtering device (1) according to one of claims 7 to 9, in which the set of image(s) (Ens IMn ) constructed for the echo s n comprises one or more images among an image associated with the pair d azimuth-distance attributes, an image associated with the pair of time-distance attributes and an image associated with the pair of time-SER attributes.
FR2204498A 2022-05-12 2022-05-12 Echo filtering method, echo filtering device and associated computer program Pending FR3135535A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR2204498A FR3135535A1 (en) 2022-05-12 2022-05-12 Echo filtering method, echo filtering device and associated computer program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2204498 2022-05-12
FR2204498A FR3135535A1 (en) 2022-05-12 2022-05-12 Echo filtering method, echo filtering device and associated computer program

Publications (1)

Publication Number Publication Date
FR3135535A1 true FR3135535A1 (en) 2023-11-17

Family

ID=82850261

Family Applications (1)

Application Number Title Priority Date Filing Date
FR2204498A Pending FR3135535A1 (en) 2022-05-12 2022-05-12 Echo filtering method, echo filtering device and associated computer program

Country Status (1)

Country Link
FR (1) FR3135535A1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3715901A1 (en) * 2019-03-29 2020-09-30 Robin Radar Facilities BV Detection and classification of unmanned aerial vehicles
US20210156963A1 (en) * 2019-11-21 2021-05-27 Nvidia Corporation Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
US20220036741A1 (en) * 2020-07-31 2022-02-03 North Carolina State University Drone detection, classification, tracking, and threat evaluation system employing field and remote identification (id) information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3715901A1 (en) * 2019-03-29 2020-09-30 Robin Radar Facilities BV Detection and classification of unmanned aerial vehicles
US20210156963A1 (en) * 2019-11-21 2021-05-27 Nvidia Corporation Deep neural network for detecting obstacle instances using radar sensors in autonomous machine applications
US20220036741A1 (en) * 2020-07-31 2022-02-03 North Carolina State University Drone detection, classification, tracking, and threat evaluation system employing field and remote identification (id) information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DALE HOLLY ET AL: "A Comparison of Convolutional Neural Networks for Low SNR Radar Classification of Drones", 2021 IEEE RADAR CONFERENCE (RADARCONF21), IEEE, 7 May 2021 (2021-05-07), pages 1 - 5, XP033925934, DOI: 10.1109/RADARCONF2147009.2021.9455181 *

Similar Documents

Publication Publication Date Title
Guerci et al. Knowledge-aided adaptive radar at DARPA: An overview
Tao et al. A segmentation-based CFAR detection algorithm using truncated statistics
US7990311B2 (en) Adaptive clutter filter for maritime surface search radar
EP3903123A1 (en) Device for generating a simulated sea-clutter data set, and associated method and computer program
US10275707B2 (en) Systems and methods for training multipath filtering systems
Shi et al. Low-velocity small target detection with Doppler-guided retrospective filter in high-resolution radar at fast scan mode
WO2016091407A1 (en) Radar detection system distinguishing rain echoes and radar implementing such a method
CN113933790A (en) Inversion identification method, device and medium for working mode of phased array radar
Cao et al. DNN-based peak sequence classification CFAR detection algorithm for high-resolution FMCW radar
Coraluppi et al. An MHT approach to multi-sensor passive sonar tracking
FR3071066B1 (en) METHOD FOR FILTERING GROUND AND / OR SEWAGE GROUND ECHOS INTERCEPTED BY AIRBORNE RADAR, AND RADAR IMPLEMENTING SUCH A METHOD
CN116520256B (en) Airborne early warning radar interference recognition method and device based on deep learning
EP1812807B1 (en) Waveform management method using a doppler mapping by statistical segmentation
FR3135535A1 (en) Echo filtering method, echo filtering device and associated computer program
FR3070768A1 (en) METHOD FOR AUTOMATIC CLASSIFICATION OF A TARGET VESSEL AND RADAR SYSTEM THEREOF
Goriachkin et al. SAR system for searching and detecting objects in the forest area, based on UAVs
Yang et al. A detection and information extraction approach for uav swarm
Jordanov et al. Intelligent radar signal recognition and classification
EP3657200B1 (en) Detection method by long integration and corresponding radar system
Cristallini et al. Complementary direct data domain STAP for multichannel airborne passive radar
Boukaba et al. Bootstrap based sequential detection in non-Gaussian correlated clutter
De Maio et al. Design and experimental validation of knowledge-based CFAR detectors
Venkataraman et al. Optimised scan-to-scan integration techniques for low observable target detection in sea clutter
Cong et al. A jamming identification method based on deep learning for networking radars
EP0514252B1 (en) Method to detect moving sources and to estimate their path

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20231117

PLFP Fee payment

Year of fee payment: 3