FR2674339A1 - Procede et appareil pour detecter des cibles dans des images sonar. - Google Patents

Procede et appareil pour detecter des cibles dans des images sonar. Download PDF

Info

Publication number
FR2674339A1
FR2674339A1 FR9115544A FR9115544A FR2674339A1 FR 2674339 A1 FR2674339 A1 FR 2674339A1 FR 9115544 A FR9115544 A FR 9115544A FR 9115544 A FR9115544 A FR 9115544A FR 2674339 A1 FR2674339 A1 FR 2674339A1
Authority
FR
France
Prior art keywords
image
sonar
dark
neural network
windows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR9115544A
Other languages
English (en)
Other versions
FR2674339B1 (fr
Inventor
Schweizer Philipp Frederick
Petlevich Walter John Jr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CBS Corp
Original Assignee
Westinghouse Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Westinghouse Electric Corp filed Critical Westinghouse Electric Corp
Publication of FR2674339A1 publication Critical patent/FR2674339A1/fr
Application granted granted Critical
Publication of FR2674339B1 publication Critical patent/FR2674339B1/fr
Granted legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52004Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

L'invention concerne un procédé et un appareil pour identifier automatiquement des cibles dans des images sonar 30. Il est prévu trois systèmes de traitement 31 qui opèrent de préférence simultanément; après que l'image a été filtrée et a subi une transformation de Fourier, un détecteur de zones claires- zones sombres 29 classifie des parties de l'image comme une zone claire, une zone sombre ou une zone de fond en correspondance aux niveaux de gris de pixels dans lesdites parties; un dispositif de repérage statistique 28 sélectionne les parties qui ont été classifiées comme une zone claire ou une zone sombre. Un réseau neuronal 27 classifie ensuite les ensembles de parties claires et de parties sombres comme des cibles ou un fond.

Description

La présente invention concerne un système pour détecter des objets
fabriqués par l'homme et des
particularités naturelles dans des images sonar.
Le principe sonar a été utilisé depuis longtemps pour détecter des objets au fond de l'océan Une image sonar est typiquement composée d'une matrice de points ou d'éléments d'image ( pixels) représentés sur un écran de tube cathodique ou sur du papier Les points ou pixels ont un niveau de gris compris entre 0 et 255 sur une échelle de gris Des objets apparaissent normalement sur des images sonar sous la forme d'une combinaison de points clairs et de points sombres, en particulier lorsque les images sonar sont produites par un véhicule mobile Une analyse sonar pour de courtes distances comprend typiquement une grande quantité de données qui doivent être réexaminées dans de courtes périodes de temps Antérieurement à la présente invention, ce réexamen était effectué par des analystes humains observant les images sonar Lorsque l'analyste réobserve les images, il repère des zones o il a défini que des objets ou particularités spécifiques pouvaient se trouver sur le fond de l'océan A cause des grandes quantités de données devant être réanalysées dans de courtes périodes de temps, des analystes humains sont sujets à des erreurs ou omissions fréquentes à la fois
lors d'une détection et d'une classification.
Des systèmes automatiques de détection et de classification pour images sonar n'existent pas à l'heure actuelle Des systèmes automatiques de détection
conçus pour des images optiques n'opèrent pas correcte-
ment pour des images sonar affectées par du bruit.
Des techniques utilisées pour des images optiques,
notamment une conversion binaire de l'image et l'utilisa-
tion d'un codage concernant la longueur de déroulement, une analyse des possibilités de liaison de segments d'image,une détection de lignes et de bords ainsi que des classificateurs de configurations tels que Bayes, carrés minimaux et probabilité maximum ne semblent pas opérer
correctement sur des images sonar La nature parasi-
tée des images sonar empêche également l'utilisation
de systèmes opérant par détection de lignes et de bords.
Un filtrage intense de l'image pour réduire le bruit ou les parasites diminue le contraste à un niveau o les systèmes automatiques de détection -qui ont été essayés ont produit un pourcentage de fausses alarmes excessivement élevé En conséquence, il est nécessaire de disposer d'un système automatique de repérage de cible pour images sonar Le système doit avoir des vitesses de traitement extrêmement élevées, de nombreuses centaines de milliers d'éléments d'image sonar (pixels)
par seconde De telles vitesses élevées empêchent l'uti-
lisation d'algorithmes compliqués dans des unités centra-
les de traitement (CPU) d'architectures simples.
Nous avons conçu un système automatique de repérage de cible pour images sonar utilisable avec une source génératrice d'images sonar, qui produit des images sonar se composant d'une matrice de pixels, chaque pixel ayant un niveau de gris connu, et une
source de commande qui détermine et fournit des informa-
tions concernant l'image sonar et qui indique comment l'image est engendrée, ce système comprenant trois ensembles de traitement qui sont reliés au générateur d'images sonar et à la source de commande et qui reçoivent chacun les signaux d'entrée provenant du générateur
d'images sonar, les trois ensembles de traitement compre-
nant un détecteur de points clairs et de points sombres, un élément de repérage statistique et un détecteur à réseau neuronal opérant indépendamment pour augmenter la probabilité de détection de cible et réduire le
pourcentage de fausses alarmes.
Un procédé conforme à notre invention comprend les étapes consistant à effectuer une transformation de Fourier sur chaque image, à classifier au moyen d'un détecteur de points clairs-points sombres des parties de chaque image comme une partie claire, ou une partie sombre, ou une partie d'arrière-plan en correspondance aux niveaux de gris des pixels contenus dans celle-ci, à sélectionner au moyen d'un élément de repérage statistique les parties qui ont été classi-10 fiées en mettant une partie claire ou une partie sombre,
à enregistrer une position pour chaque partie sélection-
née et à classifier par l'intermédiaire d'un réseau neuronal au moins un ensemble de parties sélectionnées
comme une cible.
D'autres caractéristiques et avantages de l'invention seront mis en évidence dans la suite de
la description, donnée à titre d'exemple non limitatif,
en référence aux dessins annexés dans lesquels: la Figure 1 est un schéma à blocs montrant un système préféré, conforme à l'invention, pour une détection
automatique de cible sur une image sonar.
La Figure 2 est un schéma à blocs montrant la partie matérielle utilisée pour mettre en oeuvre le
processus de repérage automatique de cible de la Fig 1.
La Figure 3 représente une autre conception, pour traitement rapide, des algorithmes de repérage
automatique de cible.
La Figure 4 est un schéma à blocs fonctionnels
montrant les interconnexions fonctionnelles de sous-systè-
mes intervenant dans le processus de repérage automatique
de cible.
La Figure 5 représente un organigramme fonc-
tionnel concernant l'algorithme de filtrage adapté de points clairspoints sombres, qui correspond à un des trois processus utilisés dans le procédé de détection
de cible.
Les Figures 6 et 7 montrent les fonctions mises en oeuvre par l'algorithme statistique qui est
un autre des trois processus utilisés.
La Figure 8 montre les fonctions intervenant dans le processus de détection de cible par un réseau
neuronal à deux étages.
La Figure 9 montre les fonctions effectuées dans le processus de repérage combiné lors de l'arrivée
à une détection finale de cible.
La Figure 10 est une image sonar montrant des points clairs et des points sombres produits dans l'image par des objets analogues à des mines au fond de l'océan; cette image a été produite par l'appareil Sonar AN/AQ 514 de -Westinghouse et a été affichée en utilisant l'Equipement de Repérage Automatique de Cible représenté sur la Figure 2; cinq objets analogues
à des mines sont représentés dans cette image.
La Figure 11 est une image sonar de cibles avec superposition d'un graphique montrant les résultats d'un traitement avec le détecteur de points clairs-points sombres. La Figure 12 est une image sonar de cibles avec superposition d'un graphique montrant les résultats
d'un traitement avec le détecteur à réseau neuronal.
La Figure 13 est une image sonar de cibles avec superposition d'un graphique montrant les résultats
d'un traitement avec le détecteur statistique.
La Figure 14 est une image sonar de cibles avec superposition d'un graphique montrant les résultats
d'un traitement au moyen du processus de repérage com-
biné. Des images sonar sont produites lorsqu'un signal sonar est émis, arrive sur un objet et revient à un transducteur de détection de son Typiquement, plusieurs centaines de transducteurs de détection sont utilisés pour former un réseau linéaire Des réseaux sont typiquement positionnés sur le côté bâbord et tribord du véhicule mais ils peuvent aussi être placés dans d'autres positions sur le corps du véhicule porteur. Lorsqu'une image sonar est produite, il est important de connaître la configuration du réseau du sonar à partir duquel elle a été produite Il existe différents dispositifs pour recevoir le signal provenant des réseaux de détection et pour transformer ce signal en une image sonar -qui peut être affichée sur un écran ou sur un papier Généralement, des dispositifs de ce genre comprennent un pupitre central et un générateur d'images composites Une image sonar est composée d'une-matrice de pixels ayant un niveau de gris rentrant
typiquement dans une -échelle comprise entre O et 255.
Des combinaisons de pixels foncés appelés des points sombres et de pixels clairs appelés des points clairs correspondent typiquement à un objet situé au fond de l'océan Des objets peuvent aussi être représentés dans l'image seulement par des points clairs ou des
points sombres.
En référence à la Figure 1, il est proposé un système de détection automatique de cible qui comprend un générateur 1 d'images sonar et un pupitre de commande
2 Ces unités sont des dispositifs standard utilisés dans la plupart des systèmes sonar conventionnels.
Par exemple, un générateur d'images sonar est fabriqué par Westinghouse et est vendu sous la désignation "AN/AQ 514 Navy Mine Countermeasure Sonar " (Sonar de détection de mines navales AN/AQ 514) Un pupitre de commande approprié est fabriqué par Sun Microsystems et est vendu sous la désignation "Sun 3/260 C Workstation" (poste de commande Sun 3/260 C) Le pupitre de commande permet à l'utilisateur d'activer le système sonar, les transducteurs de détection et le générateur d'images sonar Le pupitre de commande transmet également au système 3 de repérage automatique des informations concernant le signal sonar, la configuration des réseaux de détection, si le signal sonar a été produit -sur le côté bâbord ou sur le côté tribord et si les réseaux de détection en train d'être utilisés sont situés sur le côté bâbord ou sur le côté tribord Notre système 3 de repérage automatique de cible reçoit des images sonar provenant du générateur d'images 1 Les images sont traitées et -des cibles sont identifiées d'une manière qui sera décrite dans la suite Ensuite, l'image traitée ainsi qu'une information déterminée dans notre système 3 de repérage automatique de cible en ce qui concerne la position présente de cibles sont transmises à un dispositif indicateur 4 qui peut être un tube cathodique ou du papier Comme illustré sur le schéma à blocs de la Figure 2, notre système 3 de repérage automatique de cible contient des algorithmes établis avec une unité centrale de traitement CPU et des mémoires 5 et 6 L'information d'image sonar est transmise par et traitée dans une série de modules de traitement 7 Nous préférons utiliser des modules de traitement d'images Matrox MVP-VME Les modules de traitement d'images Matrox-VME reçoivent et mémorisent les trames d'images sonar en pixels d'entrée Les quatre processus de détection ( points clairs-points sombres, statistiques, réseau neuronal et dispositif de repérage combiné) opèrent sur ces trames d'images mémorisées et affichent des résultats intermédiaires par modification de pixels
dans la trame mémorisée et/ou par affichage de superposi-
tions graphiques comme indiqué sur les Figures 11 à 14 Les quatre processus de détection sont mis en oeuvre avec le Langage C bien connu, et ils sont compilés
et exécutés dans le modèle "Sun 68020 CPU" Huit mega-
octets de mémoire 8 sont utilisés par le module Sun
pour mémoriser des programmes et des résultats intermé-
diaires Cette mise en oeuvre fait dérouler tous les algorithmes à une vitesse bien plus lente que la vitesse de collecte en temps réel ( par exemple 1000 pixels/
seconde).
Lorsqu'un traitement d'images à grande vitesse est nécessaire ( par exemple 600 000 pixels par seconde), on doit utiliser le principe de mise en oeuvre représenté sur la Figure 3 Ce principe de mise en oeuvre utilise des modules individuels VM Ebus provenant de fournisseurs bien connus comme Data Cube, Force Computers, FDS,
ERIM, Mercury/Numerix, Intel, Inmos et Paracom L'algo-
rithme "points clairs-points sombres" est utilisé dans
le cyclo-ordinateur 15 de ERIM, les algorithmes statisti-
ques sont utilisés dans le module 12 "Data Cube Feature MAX ", les réseaux neuronaux opèrent soit sur le module
"Mercury/Numerix MC 860 ( 14)", soit sur les autres varian-
tes 13, 18 et 19 indiquées sur la Figure 3 Des données d'images sont saisies dans le générateur sonar par l'intermédiaire du module 10 "MAX SCAN" et elles sont mémorisées dans le module 11 "ROI-STORE" Le contrôleur principal 17 fournit des algorithmes et des paramètres de commande à chaque module Le module 16 "MAX GRAPH"
est utilisé pour afficher des images sur un tube catho-
dique ( par exemple Sony Trinitron ou Mitsubishi), ces images pouvant apparaître comme indiqué sur les
Figures 10 à 14.
Le fonctionnement de notre système de repérage automatique de cible est illustré par le schéma à blocs fonctionnels de la Figure 4 o les flèches en traits
pleins indiquent des entrées et des sorties fonction-
nelles tandis que les flèches en traits interrompus indiquent des signaux de commande En référence au bloc 20 entouré par une ligne en trait mixte, certaines actions doivent être effectuées pour activer notre système Comme indiqué par les petits blocs à l'intérieur du bloc 20, le courant est enclenché et ensuite le
système principal, qui comporte le pupitre et le généra-
teur d'images, est soumis à un test automatique de contrôle d'alimentation en courant Le système principal
est initialisé et le système d'exploitation est démarré.
Maintenant le pupitre, le générateur d'images et le système de repérage automatique sont prêts à recevoir
et traiter des images sonar.
Comme indiqué par le bloc 21 et les flèches associées, nous préférons contrôler le bon agencement
et l'état du système de repérage automatique de cible.
Certaines activités, comme une initialisation d'opéra-
tions 21 a, une réception de données d'images sonar 22 ainsi qu'une réception et une transmission de messages
de pupitre 23 font l'objet d'un contrôle de routine.
Nous préférons également permettre des interrogations 24 concernant le bon agencement et l'état Notre système reçoit des données d'images sonar comme indiqué par la flèche 25, ainsi que des messages provenant du pupitre comme indiqué par la flèche 26 Cette information est simultanément traitée par l'intermédiaire d'un dispositif de repérage 27 à réseaux neuronaux, d'un dispositif de repérage statistique 28 et d'un dispositif de repérage de points clairs-points sombres 29, par des opérations qui seront décrites dans la suite en relation avec les Figures 5 à 9 Ces opérations produisent des données qui sont combinées comme indiqué par le bloc 34 et la Figure 9 en vue d'une détection et d'une classification
de scènes à l'intérieur de l'image sonar d'entrée.
Les données combinées sont transmises à la sortie par l'intermédiaire du pupitre de commande à un dispositif de représentation avec papier ou tube cathodique ( cf Figure 1 et Figures 10 à 14) Le pupitre peut également transmettre les informations à une mémoire
( non représentée) en vue d'une mémorisation.
Des signaux continus d'entrée 25 de données sonar peuvent être traités sous la forme d'une série de trames d'images sonar se recouvrant, avec prévision d'une mémorisation en mémoire-tampon Notre système traite toutes ces trames de la même manière Les Figures à 14 représentent une seule trame d'image sonar de 480 rangées par 512 colonnes On divise chaque trame d'image sonar en un ensemble de fenêtres (Figures 5 à 14) de telle sorte que chaque pixel de la trame soit inclus dans au moins une fenêtre Les fenêtres peuvent avoir toutes dimensions désirées Cependant, il est préféré que les fenêtres comportent 10 rangées
par 20 colonnes Il est en outre préféré que des fenê-
tres adjacentes se chevauchent sur au moins 5 rangées ou 10 colonnes de pixels Chaque fenêtre peut être représentée sous la forme d'une matrice de pixels, chacune identifiée par le niveau de gris associé à des pixels dans cette image Par exemple, une fenêtre comportant 5 rangées par 10 colonnes de pixels peut avoir la représentation suivante
60 75 45 26 31 23 O O 6
48 86 137 124 50 O O 16 35 44
105 205 255 208 90 O O o 9 o
235 255 255 147 87 82 61 23 O 5
23 37 87 152 193 140 44 O O 6
La grande différence entre les entrées des cinq premières colonnes et des cinq dernières colonnes des rangées 2 à 5 est indicatrice d'un point clair et d'un
point sombre dans l'image.
Chacun des trois processus de détection ainsi que le processus de combinaison de ces repères sont décrits dans la suite. FILTRE ADAPTE POUR POINTS SOMBRES-POINTS CLAIRS (Figure 5) Dans un processus, on détermine des points clairs et des points sombres en utilisant au moins un filtre Plusieurs particularités 39 de ce genre
sont indiquées dans l'image 30 Il est préféré de norma-
liser l'image 30 par une transformation logarithmique et ensuite de traiter la trame d'image sonar avec de multiples filtres adaptés pour détecter et localiser
des zones de cibles.
La Figure 5 est un schéma à blocs mettant en évidence le procédé préféré conforme à l'invention, pour identifier des combinaisons qu'on appelle des détections de cibles On effectue une transformation logarithmique du niveau de gris de chaque pixel, comme indiqué dans le bloc 43, en utilisant l'algorithme: Inouveau = C + K Ln Iancien
Ensuite, dans le bloc 44, on traite par convolu-
tion au moyen d'une série de deux filtres dimensionnels
une image ayant subi, une transformation logarithmique.
Comme indiqué par le bloc 42, des filtres séparés peuvent être utilisés pour des zones de fond, des zones claires et des zones sombres dans l'image Pour traiter l'image
par convolution, il faut un maximum de 21 filtres.
Ces filtres sont dynamiquement dérivés Il est préférable d'utiliser des filtres comportant un maximum -de 15 rangées et 45 colonnes et un minimum de 9 rangées et 7 colonnes Un filtre typique comporte 13 rangées et
35 colonnes.
il Ces filtres sont séparables et chacun peut être utilisé pour une convolution dans la direction des rangées et pour une convolution dans la direction
des colonnes.
Ensuite, dans le bloc 45, il est établi un histogramme pour chaque image ayant subi la convolution, avec un décalage moyen et une mise à l'échelle Cela peut être réalisé dans des sections, de préférence des sections de 100 rangées et 128 colonnes ou bien dans l'image
complète.
Ensuite on calcule dans le bloc 46 une valeur de seuil sur la base de l'écart moyen et de l'écart standard de chaque section histogrammée On crée une image binaire en utilisant une valeur de seuil pour chaque section qui peut encore faire l'objet d'une convolution en 47 Une image binaire sera créée pour chaque filtre utilisé Chaque image binaire met en
évidence les détections pour un filtre particulier.
Finalement, on combine, dans le bloc 48, toutes les images binaires des opérations logiques
OU de façon à produire une image binaire finale corres-
pondant à toutes les détections.
PROCESSUS DE REPERAGE STATISTIQUE DE CIBLE ( Figures 6 et 7) Le processus de repérage statistique de cible est mis en évidence sur les Figures 6 et 7 Cet algorithme établit d'abord une référence de fond en utilisant le processus indiqué sur la Figure 6 Comme le montre la Figure 6, un générateur de nombres aléatoires est utilisé pour localiser plusieurs fenêtres de fond 61
de 10 rangées par 20 colonnes dans l'image 60 L'histo-
gramme de niveaux de gris 62 et les longueurs maximales d'apparition de points clairs et de points sombres 63, respectivement représentées sous la forme de carrés
blancs et carrés noirs dans la fenêtre 61 a, sont calcu-
lés pour chacune de ces fenêtres comme indiqué par
le bloc 65 Notre conception courante utilise 10 fenê-
tres 61; cependant, cela constitue un paramètre qui peut être établi pour obtenir des performances optimales avec chaque conception spécifique Ensuite, dans le bloc 66, l'histogramme de niveauxde gris moyen et la
moyenne des longueurs maximales d'apparition sont calcu-
lés pour l'ensemble de fenêtres de fond Ensuite, dans le bloc 67, les variances sont calculées pour chaque niveau de gris de l'échelle et pour chaque longueur d'apparition pour l'ensemble de fond Ces deux valeurs sont utilisées pour caractériser le fond et pour établir une fenêtre de référence de fond 68 Une fois qu'une référence de fond a été établie, une fenêtre de 10 rangées par 20 colonnes est analysée sur l'image et elle est comparée à cette référence, comme indiqué
sur la Figure 7.
En considérant la Figure 7, celle-ci représente une fenêtre d'analyse typique 70 comportant une zone claire 71, une zone sombre 72 et une zone de fond 73.20 La zone claire 71 et la zone sombre 72 ont une longueur d'apparition indiquée par les flèches Cette longueur
peut être exprimée par un nombre de pixels Il est préféré d'utiliser des fenêtres d'analyse contenant un bloc de 10 x 20 pixels Pour chaque fenêtre d'analyse25 70, on établit un histogramme 74 de niveaux de gris.
On considère alors les longueurs d'apparition et l'histo-
gramme et on les compare à la fenêtre de référence 68 A partir de cette comparaison, on détermine si une zone sombre existe en correspondance aux normes dans le bloc 64 ou bien si une zone claire existe en correspondance aux normes dans le bloc 76 On combine ces réponses dans le bloc 77 et on conclut qu'une cible est présente si une zone sombre ou bien une zone claire
a été détectée Une description plus spécifique de
notre algorithme préféré est donnée ci-après: a) Définir K positions aléatoires pour des fenêtres de fond de m rangées par N colonnes dans l'image en cours d'examen Choisir K = 10, m = 10 et N = 20
comme les meilleures valeurs présentes.
b) Former un histogramme en répartissant les K fenêtres de fond dans 10 cases Définir les cases pour des niveaux de gris de 8 bits sous la forme de gammes de niveaux 0-20, 25-50, 50-75, 75-100, 100-125,
-150, 150-175, 175-200, 200-225, 225-255.
c) Calculer les valeurs de niveaux de gris moyennes pour chaque case et pour toutes les K fenêtres
de fond.
d) Calculer les longueurs maximales d'appari-
tion de chacune des K fenêtres de fond dans l'analyse
pour-les gammes de niveaux de gris 0-10, 10-30, 150-255.
e) Calculer les longueurs moyennes d'apparition de chaque gamme de niveaux de gris dans l'analyse pour
l'ensemble des K fenêtres de fond.
f) Calculer les variations des cases de l'histo-
gramme et des gammes de longueurs d'apparition pour chacune des K fenêtres Calculer la variance pour chaque case d'histogramme et chaque longueur d'apparition
pour l'ensemble de fenêtres de fond.
g) Pour chaque fenêtre d'analyse intervenant dans l'image en cours d'examen, calculer l'histogramme
de 10 cases ainsi que les longueurs maximales d'appari-
tion de zones sombres et de zones claires pour chaque gamme. h) Pour chaque fenêtre d'analyse, calculer les variations des valeurs de cases de l'histogramme et les valeurs de longueurs d'apparition Utiliser les valeurs moyennes de fenêtre de fond qui ont été calculées dans les étapes c et e pour calculer cette
variance de fenêtre d'analyse.
i) Calculer les critères de détection Détection de zone sombre Pour détecter des zones sombres, comparer
les valeurs correspondant aux cases 1 et 2 de l'histo-
gramme et les niveaux d'apparition de zones sombres dans les gammes de niveaux de gris 0-10 et 10-30 avec celles obtenues dans la fenêtre de fond moyen Si la variation dans la fenêtre d'analyse dépasse la variation dans la fenêtre de fond moyen d'un facteur de sécurité, alors enregistrer une détection pour cette case ou cette gamme Choisir un facteur de sécurité égal à Une détection de zone sombre est confirmée pour détection dans la case 1 et la gamme 1 ou bien la case
2 et la gamme 2.
j) Définir qu'une fenêtre d'analyse est une fenêtre de cible si une détection de zone sombre ou
de zone claire est confirmée.
PROCESSUS DE REPERAGE PAR RESEAUX NEURONAUX (Figure 8) Le système de repérage par réseaux neuronaux (NNC)-est composé de deux réseaux: 1) le réseau neuronal de détection de zones sombres et zones claires et 2) le réseau neuronal du corrélateur spatial La Figure 8 montre une transmission fonctionnelle d'informations dans le système NNC Une fenêtre 31 de 8 rangées par 16 colonnes est analysée dans l'image 30 et les valeurs de pixels dans la fenêtre sont transformées dans le domaine de fréquences en utilisant un algorithme de Transformation Rapide de Fourier (TRF) On ne prend
pas la fenêtre de 10 rangées par 20 colonnes précédem-
ment utilisée afin d'accélérer le processus de transforma-
tion TRF Les valeurs de grand axe et de petit axe pour ce spectre de fréquences sont ensuite utilisées comme entrée dans le premier étage du réseau neuronal 33 Les valeurs spectrales sont normalisées en divisant chaque valeur par la valeur F(O,O) du spectre, ce qui rend le spectre invariant pour un niveau de gris de fond Le spectre de fréquences est également invariant pour la position de la cible à l'intérieur de la fenêtre du fait de la nature de sa définition Cet étage de traitement TRF et de normalisation réduit la variation des fenêtres d'entrée sur lesquelles le réseau doit
passer Il réduit également le dimensionnement nécessai-
re du réseau à 25 neurones pour la couche d'entrée, à 50 pour la couche masquée et à 3 pour la couche de sortie. Les entrées dans le second réseau neuronal 36 sont des valeurs analogiques qui sont comprises entre zéro et un Les valeurs de rangées sont définies de telle sorte que la rangée 480 corresponde à la valeur analogique un et que la rangée O corresponde à la valeur analogique zéro Les valeurs de colonnes sont définies de façon analogue, la valeur un correspondant à la
colonne 512 et la valeur zéro à la colonne 0.
Le second réseau neuronal 36 est déplacé de façon à effectuer des corrélations spatiales Des
séries de particularités claires et sombres sont classi-
fiées dans l'une des six classes suivantes grappe claire, grappe sombre, nervure claire, creux sombre, anomalie ou arrière-plan Nos expériences préliminaires de conception ont montré que des pixels associés à toutes les classes de cible sont inférieurs à 10 -à % du nombre total de pixels Ce temps de traitement
par le second réseau neuronal devrait être approximative-
ment de 10 à 20 % de celui nécessité par le premier réseau neuronal Ces temps de traitement pour le réseau neuronal spatial doivent être compris dans le temps
total de traitement spécifié dans le paragraphe précédent.
TRAITEMENT PAR REPERAGE COMBINE ( Figure 9) L'algorithme de repérage combiné réduit le pourcentage de fausses alarmes pour notre système en
exploitant avantageusement les avantages et les déficien-
ces de chacun des trois processus de détection La Figure 9 montre comment des repères obtenus dans chaque processus de détection sont combinés sous la forme d'une détection composite appelée une fenêtre en grappe. 5 Comme indiqué par le bloc 90 entouré par une ligne en trait mixte, des ensembles de fenêtres de détection 91, 92 et 93 obtenus dans chaque processus de repérage sont combinés pour produire des fenêtres en grappe 94 Les fenêtres en grappes provenant du système de repérage par réseau neuronal 95, du système de repérage statistique 96 et du filtre adapté zonesclaires zones sombres 97 sont réunies mutuellement pour former une fenêtre de détection finale 98 Ces fenêtres en grappes provenant de chacun des trois systèmes de repérage sont combinées sous la forme d'une fenêtre de détection finale 98 en utilisant un mode de vote à la majorité ou un mode logique ET Dans l'algorithme, une distance minimale de séparation est spécifiée pour une combinaison de fenêtres sous la forme d'une fenêtre les délimitant chacune Présentement, cette distance est choisie à zéro, ce qui nécessite que des fenêtres soient adjacentes ou se coupent pour être combinées L'algorithme fait intervenir des listes mutuellement liées pour représenter toutes les fenêtres détectées et il est présentement établi en logiciel dans notre laboratoire Une réalisation matérielle peut être produite en utilisant l'équipement représenté sur la Figure 3 Le système de repérage combiné est réalisé en utilisant une logique de décision binaire Par exemple, chaque détection (fenêtre) est présente ou non Une information est disponible à partir
de chacun des processus de détection indiquant la fiabili-
té de chaque processus par déclaration d'une détection de cible Cette information pourrait être utilisée par le système de repérage combiné pour pondérer chacun
des détecteurs dans le processus de combinaison Essen-
tiellement, le processus logique binaire actuellement
utilisé affecte des pondérations égales aux trois détec-
teurs pour chaque détection Des opérations effectuées avec des données de test ont été jugées acceptables et n'ont pas nécessité ce détail additionnel.
EXEMPLE
L'exemple non limitatif suivant est donné
pour mettre en évidence les performances du système.
Sur la Figure 10, une trame d'image sonar comportant 480 rangées par 512 colonnes de pixels est affichée en utilisant un tirage Polaroid de l'image apparaissant sur l'écran d'un tube cathodique L'image a été produite en utilisant les signaux de sortie de l'appareil sonar de détection de mine par analyse latérale AN/AQ 514 de Westinghouse L'appareil sonar à été activé et a reçu des échos provenant d'un fond sableux de l'océan, comportant 5 objets analogues à des mines
qui ont produit des zones claires et sombres significa-
tives dans l'image Sur la Figure 11, les fenêtres d'analyse en recouvrement ( 10 rangées par 20 colonnes) qui ont été définies comme des "fenêtres de cibles" par le détecteur zones claires-zones sombres, sont représentées avec la superposition graphique Sur les
Figures 12 et 13, des résultats semblables sont représen-
tés pour le détecteur à réseaux neuronaux et le détecteur statistique La Figure 14 montre les résultats obtenus avec le système de repérage combiné et qui seraient
représentés à titre d'assistance pour l'analyste Norma-
lement, seule l'image sonar de la Figure 14 est affichée pour l'analyste Les résultats de chaque système de repérage représentés sur les Figures 11, 12 et 13 sont indiqués ici pour faciliter la compréhension de notre
invention mais ils ne seraient pas affichés pour l'ana-
lyste Par comparaison des Figures 11 et 12 avec la Figure 14, on peut voir que de fausses alarmes, comme celle apparaissant dans le coin supérieur gauche, ont été éliminées par le système de repérage combiné utilisant
le mode logique ET.

Claims (6)

REVENDICATIONS
1 Système de repérage automatique de cible pour images sonar ( 30), utilisable avec une source ( 1) génératrice d'images sonar qui produit des images sonar ( 30) se composant d'une matrice de pixels, chaque pixel ayant un niveau de gris connu, et une source de commande ( 2) qui détermine et fournit une information concernant l'image sonar ( 30) et précisant comment l'image ( 30) est engendrée, système caractérisé en ce qu'il comprend trois ensembles de traitement ( 3) reliés au générateur d'images sonar ( 1) et à la source de commande ( 2) et recevant chacun les signaux d'entrée provenant du générateur d'images sonar ( 1), les trois ensembles de traitement ( 3) comprenant un détecteur de zones claires-zones sombres ( 29), un dispositif de repérage statistique ( 28) et un détecteur à réseaux neuronaux ( 27) opérant indépendamment pour augmenter la probabilité de détection de cible et réduire le
pourcentage de fausses alarmes.
2 Système de repérage automatique de cible selon la revendication 1, caractérisé en ce qu'un des trois ensembles de traitement en parallèle ( 3) comprend un réseau neuronal à deux étages comportant: a) un réseau neuronal ( 33) de premier étage, relié au générateur d'images sonar ( 1) et à la source de commande ( 2), le réseau neuronal ( 33) de premier étage recevant une image sonar ( 30) provenant du générateur d'images sonar ( 1), définissant des fenêtres ( 31) à l'intérieur de l'image sonar ( 30), classifiant ces fenêtres ( 31) comme étant une fenêtre claire, une fenêtre sombre et une fenêtre de fond et sélectionnant des
fenêtres claires et des fenêtres sombres pour une -trans-
mission à un second réseau neuronal ( 36); et b) un réseau neuronal ( 36) de second étage, relié au premier réseau neuronal ( 33) pour recevoir les fenêtres claires provenant du premier réseau neuronal et pour identifier, à l'intérieur desdites fenêtres, des grappes claires, des grappes sombres, des nervures claires,
des creux sombres, des anomalies et un fond.
3 Système de repérage automatique de cible selon la revendication 2, caractérisé en ce que le réseau neuronal de premier étage comprend
a) une mémoire ( 8) pour mémoriser une information concer-
nant l'image sonar, cette mémoire étant reliée à l'analy-
seur; et b) une unité ( 5) de traitement de signaux qui est reliée
à l'analyseur, au dispositif de repérage et à la mémoire.
4 Système de repérage automatique de cible selon la revendication 1, caractérisé en ce qu'il comprend également un moyen - ( 4) d'affichage d'images sonar qui
est relié à au moins un des trois ensembles de traitement.
Système de repérage automatique de cible selon la revendication 4, caractérisé en ce que le
moyen-M 4) d'affichage d'images sonar est un tube cathodi-
que. 6 Procédé de détection de cibles dans des images sonar ( 30), se composant d'une matrice de pixels, chaque pixel ayant un niveau de gris connu, procédé caractérisé en ce qu'il comprend les étapes consistant à a) filtrer chaque image ( 32); b) effectuer une transformation de Fourier ( 32) pour chaque image ( 30 Y;
c) classifier au moyen d'un détecteur de zones claires-
zones sombres ( 29) des parties de chaque image sous la forme d'une partie claire, d'une partie sombre et d'une partie de fond en correspondance aux niveaux de gris des pixels contenus; d) sélectionner au moyen d'un dispositif de repérage statistique ( 28) les parties qui ont été classifiées comme constituant une zone claire ou une zone sombre;
e) enregistrer une position pour chaque partie sélection-
née; et f) classifier, par l'intermédiaire d'un réseau neuronal ( 27), au moins un ensemble de parties sélectionnées comme une cible. 7 Procédé selon la revendication 6, caractérisé en ce que les cibles sont classifiées comme une grappe claire, une grappe sombre, une nervure claire, un creux
sombre, une anomalie et un fond.
8 Procédé selon la revendication 6, caractérisé
en ce qu'au moins deux des étapes sont effectuées simul-
tanément sur des parties d'une seule image ( 30).
9 Procédé selon la revendication 6, caractérisé en ce qu'il comprend également l'étape consistant à marquer sur chaque image ( 30) les parties ( 39) des
images qui ont été classifiées comme des cibles.
Procédé selon la revendication 9, caractérisé en ce que le marquage consiste à tracer au moins une
case autour de chaque cible.
FR9115544A 1990-12-14 1991-12-13 Procede et appareil pour detecter des cibles dans des images sonar. Granted FR2674339A1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US07/628,115 US5214744A (en) 1990-12-14 1990-12-14 Method and apparatus for automatically identifying targets in sonar images

Publications (2)

Publication Number Publication Date
FR2674339A1 true FR2674339A1 (fr) 1992-09-25
FR2674339B1 FR2674339B1 (fr) 1994-04-22

Family

ID=24517542

Family Applications (1)

Application Number Title Priority Date Filing Date
FR9115544A Granted FR2674339A1 (fr) 1990-12-14 1991-12-13 Procede et appareil pour detecter des cibles dans des images sonar.

Country Status (4)

Country Link
US (1) US5214744A (fr)
FR (1) FR2674339A1 (fr)
GB (1) GB2251309A (fr)
IT (1) IT1252411B (fr)

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6324453B1 (en) 1998-12-31 2001-11-27 Automotive Technologies International, Inc. Methods for determining the identification and position of and monitoring objects in a vehicle
US6507779B2 (en) 1995-06-07 2003-01-14 Automotive Technologies International, Inc. Vehicle rear seat monitor
US6553296B2 (en) 1995-06-07 2003-04-22 Automotive Technologies International, Inc. Vehicular occupant detection arrangements
US6772057B2 (en) 1995-06-07 2004-08-03 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US6856873B2 (en) 1995-06-07 2005-02-15 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US6442465B2 (en) 1992-05-05 2002-08-27 Automotive Technologies International, Inc. Vehicular component control systems and methods
US5845000A (en) * 1992-05-05 1998-12-01 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US8948442B2 (en) * 1982-06-18 2015-02-03 Intelligent Technologies International, Inc. Optical monitoring of vehicle interiors
US6393133B1 (en) 1992-05-05 2002-05-21 Automotive Technologies International, Inc. Method and system for controlling a vehicular system based on occupancy of the vehicle
US5598508A (en) * 1991-10-18 1997-01-28 Goldman; Julian M. Real-time waveform analysis using artificial neural networks
US5355313A (en) * 1991-10-25 1994-10-11 Texaco Inc. Neural network interpretation of aeromagnetic data
US6397136B1 (en) 1997-02-06 2002-05-28 Automotive Technologies International Inc. System for determining the occupancy state of a seat in a vehicle
US7788008B2 (en) * 1995-06-07 2010-08-31 Automotive Technologies International, Inc. Eye monitoring system and method for vehicular occupants
US6279946B1 (en) 1998-06-09 2001-08-28 Automotive Technologies International Inc. Methods for controlling a system in a vehicle using a transmitting/receiving transducer and/or while compensating for thermal gradients
US5835613A (en) * 1992-05-05 1998-11-10 Automotive Technologies International, Inc. Optical identification and monitoring system using pattern recognition for use with vehicles
US6445988B1 (en) 1997-02-06 2002-09-03 Automotive Technologies International Inc. System for determining the occupancy state of a seat in a vehicle and controlling a component based thereon
US6856876B2 (en) 1998-06-09 2005-02-15 Automotive Technologies International, Inc. Methods for controlling a system in a vehicle using a transmitting/receiving transducer and/or while compensating for thermal gradients
US5943295A (en) 1997-02-06 1999-08-24 Automotive Technologies International Inc. Method for identifying the presence and orientation of an object in a vehicle
US6517107B2 (en) 1998-06-09 2003-02-11 Automotive Technologies International, Inc. Methods for controlling a system in a vehicle using a transmitting/receiving transducer and/or while compensating for thermal gradients
US7596242B2 (en) * 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
US7655895B2 (en) * 1992-05-05 2010-02-02 Automotive Technologies International, Inc. Vehicle-mounted monitoring arrangement and method using light-regulation
US7887089B2 (en) * 1992-05-05 2011-02-15 Automotive Technologies International, Inc. Vehicular occupant protection system control arrangement and method using multiple sensor systems
US5612928A (en) * 1992-05-28 1997-03-18 Northrop Grumman Corporation Method and apparatus for classifying objects in sonar images
US5438629A (en) * 1992-06-19 1995-08-01 United Parcel Service Of America, Inc. Method and apparatus for input classification using non-spherical neurons
EP0574937B1 (fr) * 1992-06-19 2000-08-16 United Parcel Service Of America, Inc. Méthode et dispositif pour classification d'entrée utilisant un réseau neuronal
JPH0785280B2 (ja) * 1992-08-04 1995-09-13 タカタ株式会社 神経回路網による衝突予測判定システム
US5448484A (en) * 1992-11-03 1995-09-05 Bullock; Darcy M. Neural network-based vehicle detection system and method
US5841651A (en) * 1992-11-09 1998-11-24 The United States Of America As Represented By The United States Department Of Energy Closed loop adaptive control of spectrum-producing step using neural networks
EP0602932B1 (fr) * 1992-12-18 2001-03-14 Raytheon Company Système de reconnaissance de formes pour sonar et autres applications améliorées
US6118886A (en) * 1993-03-30 2000-09-12 The United States Of America As Represented By The United States Department Of Energy Automatic target recognition apparatus and method
US5365472A (en) * 1993-11-26 1994-11-15 The United States Of America As Represented By The Secretary Of The Navy Non-linear resistive grid kernel estimator useful in single feature, two-class pattern classification
US5493539A (en) * 1994-03-11 1996-02-20 Westinghouse Electric Corporation Two-stage detection and discrimination system for side scan sonar equipment
US5493619A (en) * 1994-03-11 1996-02-20 Haley; Paul H. Normalization method for eliminating false detections in side scan sonar images
US7768380B2 (en) * 1994-05-09 2010-08-03 Automotive Technologies International, Inc. Security system control for monitoring vehicular compartments
US5537511A (en) * 1994-10-18 1996-07-16 The United States Of America As Represented By The Secretary Of The Navy Neural network based data fusion system for source localization
US5502688A (en) * 1994-11-23 1996-03-26 At&T Corp. Feedforward neural network system for the detection and characterization of sonar signals with characteristic spectrogram textures
US5884296A (en) * 1995-03-13 1999-03-16 Minolta Co., Ltd. Network and image area attribute discriminating device and method for use with said neural network
USRE37260E1 (en) * 1996-02-08 2001-07-03 Automotive Technologies International Inc. Method for identifying the presence and orientation of an object in a vehicle
US6452870B1 (en) 1996-02-08 2002-09-17 Automotive Technologies International, Inc. Methods for controlling deployment of an occupant restraint in a vehicle and determining whether the occupant is a child seat
JP3469389B2 (ja) * 1996-03-29 2003-11-25 株式会社トキメック Bスコープ画像の連結領域抽出方法及び装置
US6052485A (en) * 1997-02-03 2000-04-18 The United States Of America As Represented By The Secretary Of The Navy Fractal features used with nearest neighbor clustering for identifying clutter in sonar images
US6343821B2 (en) 1997-11-24 2002-02-05 Automotive Technologies International, Inc. Damped crash attenuator
US6523872B2 (en) 1997-11-24 2003-02-25 Automotive Technologies International, Inc. Damped crash attenuator
US6203079B1 (en) 1997-11-24 2001-03-20 Automotive Technologies International, Inc. Damped crash attenuator
US6236942B1 (en) 1998-09-15 2001-05-22 Scientific Prediction Incorporated System and method for delineating spatially dependent objects, such as hydrocarbon accumulations from seismic data
US6574565B1 (en) 1998-09-15 2003-06-03 Ronald R. Bush System and method for enhanced hydrocarbon recovery
US6088295A (en) * 1998-12-29 2000-07-11 The United States Of America As Represented By The Secretary Of The Navy Feature imaging and adaptive focusing for synthetic aperture processor
JP4101392B2 (ja) * 1999-04-08 2008-06-18 富士フイルム株式会社 画像定量方法および装置
US7991717B1 (en) 2001-09-10 2011-08-02 Bush Ronald R Optimal cessation of training and assessment of accuracy in a given class of neural networks
US7428318B1 (en) * 2003-12-11 2008-09-23 Motion Reality, Inc. Method for capturing, measuring and analyzing motion
US20050197981A1 (en) * 2004-01-20 2005-09-08 Bingham Clifton W. Method for identifying unanticipated changes in multi-dimensional data sets
US7221621B2 (en) * 2004-04-06 2007-05-22 College Of William & Mary System and method for identification and quantification of sonar targets in a liquid medium
US8594370B2 (en) * 2004-07-26 2013-11-26 Automotive Systems Laboratory, Inc. Vulnerable road user protection system
WO2006017511A2 (fr) * 2004-08-02 2006-02-16 Johnson Outdoors Inc. Systeme d'imagerie sonar a monter sur un bateau
US7315485B1 (en) * 2005-12-20 2008-01-01 United States Of America As Represented By The Secretary Of The Navy System and method for target classification and clutter rejection in low-resolution imagery
US7266042B1 (en) 2006-03-31 2007-09-04 The United States Of America As Represented By The Secretary Of The Navy Multi-stage maximum likelihood target estimator
US7639874B2 (en) * 2006-08-03 2009-12-29 Tandent Vision Science, Inc. Methods for discriminating moving objects in motion image sequences
US7747079B2 (en) * 2006-09-27 2010-06-29 Tandent Vision Science, Inc. Method and system for learning spatio-spectral features in an image
US8280106B2 (en) * 2007-09-29 2012-10-02 Samsung Electronics Co., Ltd. Shadow and highlight detection system and method of the same in surveillance camera and recording medium thereof
US8300499B2 (en) 2009-07-14 2012-10-30 Navico, Inc. Linear and circular downscan imaging sonar
US8305840B2 (en) 2009-07-14 2012-11-06 Navico, Inc. Downscan imaging sonar
US8527445B2 (en) * 2010-12-02 2013-09-03 Pukoa Scientific, Llc Apparatus, system, and method for object detection and identification
US9142206B2 (en) 2011-07-14 2015-09-22 Navico Holding As System for interchangeable mounting options for a sonar transducer
US9182486B2 (en) 2011-12-07 2015-11-10 Navico Holding As Sonar rendering systems and associated methods
US9268020B2 (en) 2012-02-10 2016-02-23 Navico Holding As Sonar assembly for reduced interference
US9354312B2 (en) 2012-07-06 2016-05-31 Navico Holding As Sonar system using frequency bursts
GB2505966A (en) * 2012-09-18 2014-03-19 Seebyte Ltd Target recognition in sonar imaging using test objects
US9405959B2 (en) * 2013-03-11 2016-08-02 The United States Of America, As Represented By The Secretary Of The Navy System and method for classification of objects from 3D reconstruction
US10151829B2 (en) 2016-02-23 2018-12-11 Navico Holding As Systems and associated methods for producing sonar image overlay
US9965703B2 (en) * 2016-06-08 2018-05-08 Gopro, Inc. Combining independent solutions to an image or video processing task
WO2018197019A1 (fr) 2017-04-28 2018-11-01 Toyota Motor Europe Système et procédé de détection d'objets dans une image numérique, et système et procédé de recarottage de détections d'objets
US11367425B2 (en) 2017-09-21 2022-06-21 Navico Holding As Sonar transducer with multiple mounting options
US10460214B2 (en) * 2017-10-31 2019-10-29 Adobe Inc. Deep salient content neural networks for efficient digital object segmentation
US11353566B2 (en) * 2018-04-26 2022-06-07 Navico Holding As Sonar transducer having a gyroscope
US11221403B2 (en) 2018-05-21 2022-01-11 Navico Holding As Impact detection devices and methods
US10948578B2 (en) * 2018-10-10 2021-03-16 International Business Machines Corporation Distinguishing holographic objects from physical objects
US11634127B2 (en) * 2020-09-15 2023-04-25 Aptiv Technologies Limited Near-object detection using ultrasonic sensors
US12020400B2 (en) 2021-10-23 2024-06-25 Adobe Inc. Upsampling and refining segmentation masks

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4115761A (en) * 1976-02-13 1978-09-19 Hitachi, Ltd. Method and device for recognizing a specific pattern
US4803736A (en) * 1985-11-27 1989-02-07 The Trustees Of Boston University Neural networks for machine vision
JPS62214481A (ja) * 1986-03-17 1987-09-21 Nec Corp 画質判定装置
US4907156A (en) * 1987-06-30 1990-03-06 University Of Chicago Method and system for enhancement and detection of abnormal anatomic regions in a digital image
US4958375A (en) * 1988-02-17 1990-09-18 Nestor, Inc. Parallel, multi-unit, adaptive pattern classification system using inter-unit correlations and an intra-unit class separator methodology
US4965725B1 (en) * 1988-04-08 1996-05-07 Neuromedical Systems Inc Neural network based automated cytological specimen classification system and method
US5018215A (en) * 1990-03-23 1991-05-21 Honeywell Inc. Knowledge and model based adaptive signal processor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
IEEE PROCEEDINGS OF THE 6TH INTERNATIONAL SYMPOSIUM ON UNMANNED UNTETHERED SUBMERSIBLE TECHNOLOGY , 1989 , UNIVERSITY OF NEW HAMPSHIRE , 12 Juin 1989, DURHAM , NH , USA pages 359 - 371 P. F. SCHWEIZER AND W. J. PETLEVICH 'Automatic target detection and cueing system for an autonomous underwater vehicle ( AUV )' *

Also Published As

Publication number Publication date
GB2251309A (en) 1992-07-01
FR2674339B1 (fr) 1994-04-22
ITMI913268A1 (it) 1993-06-05
ITMI913268A0 (it) 1991-12-05
US5214744A (en) 1993-05-25
GB9126541D0 (en) 1992-02-12
IT1252411B (it) 1995-06-12

Similar Documents

Publication Publication Date Title
FR2674339A1 (fr) Procede et appareil pour detecter des cibles dans des images sonar.
FR2674340A1 (fr) Procede pour detecter et classifier des particularites dans des images sonar.
EP3707676B1 (fr) Procédé d'estimation de pose d'une caméra dans le référentiel d'une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d'ordinateur associé
Rahmon et al. Motion U-Net: Multi-cue encoder-decoder network for motion segmentation
CH637231A5 (en) Image processing device
EP0054596A1 (fr) Procédé d'inspection et de tri automatique d'objets présentant des configurations avec des tolérances dimensionnelles et des critères de rejet variables selon l'emplacement, équipement et circuits de mise en oeuvre
FR2751772A1 (fr) Procede et dispositif fonctionnant en temps reel, pour le reperage et la localisation d'une zone en mouvement relatif dans une scene, ainsi que pour la determination de la vitesse et la direction du deplacement
FR2665597A1 (fr) Procede et dispositif de localisation en temps reel de contours rectilignes dans une image numerisee, notamment pour la reconnaissance de formes dans un traitement d'analyse de scene.
WO2011048219A2 (fr) Methode et systeme pour evaluer la ressemblance d'un objet requete a des objets de reference
EP3200153B1 (fr) Procédé de détection de cibles au sol et en mouvement dans un flux vidéo acquis par une caméra aéroportée
Grosgeorge et al. Concurrent segmentation and object detection CNNs for aircraft detection and identification in satellite images
FR2584513A1 (fr) Reconnaissance de forme dans des signaux bidimensionnels
FR2741956A1 (fr) Systeme et procede de regulation du nombre de plots a traiter dans un radar
FR2790571A1 (fr) Procede de reconnaissance de formes
WO2021191148A1 (fr) Procédé de génération d'un flux de fouillis de mer, dispositif programmable et programme d'ordinateur associés
Chen et al. Deep domain adversarial adaptation for photon-efficient imaging
EP3722830B1 (fr) Dispositif d'identification d'un type d'aéronef, procédé d'identification et programme d'ordinateur associés
EP3959648B1 (fr) Procede de detection de cibles
CN112989932A (zh) 基于改进原型网络的少样本森林火灾烟雾识别方法及装置
EP0447306B1 (fr) Dispositif de reconnaissance de séquences dans un signal multidimensionnel
Karypidou et al. Computer vision for astronomical image analysis
Yang et al. Immature Yuzu citrus detection based on DSSD network with image tiling approach
Cowan et al. Towards asteroid detection in microlensing surveys with deep learning
CN112861608A (zh) 一种分心驾驶行为的检测方法及***
FR3101988A1 (fr) Procede de reconnaissance d'objets a representativite augmentee

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20081020