FR3086434A1 - Procede et systeme de controle non destructif d'une piece aeronautique par recalage de contour - Google Patents

Procede et systeme de controle non destructif d'une piece aeronautique par recalage de contour Download PDF

Info

Publication number
FR3086434A1
FR3086434A1 FR1858818A FR1858818A FR3086434A1 FR 3086434 A1 FR3086434 A1 FR 3086434A1 FR 1858818 A FR1858818 A FR 1858818A FR 1858818 A FR1858818 A FR 1858818A FR 3086434 A1 FR3086434 A1 FR 3086434A1
Authority
FR
France
Prior art keywords
contour
source image
img1
pixel
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1858818A
Other languages
English (en)
Other versions
FR3086434B1 (fr
Inventor
Haithem Boussaid
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Safran SA
Original Assignee
Safran SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran SA filed Critical Safran SA
Priority to FR1858818A priority Critical patent/FR3086434B1/fr
Priority to PCT/EP2019/074087 priority patent/WO2020064323A1/fr
Publication of FR3086434A1 publication Critical patent/FR3086434A1/fr
Application granted granted Critical
Publication of FR3086434B1 publication Critical patent/FR3086434B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

Un procédé de contrôle d'une pièce aéronautique, comprenant les étapes suivantes : - une étape d'acquisition par imagerie en 2D d'une image source (IMG1) - une étape de calcul, pour chaque pixel de l'image source (IMG1), d'au moins une caractéristique de contour, - une étape de détermination d'une probabilité de contour par une fonction de régression logistique - une étape de détermination d'un contour (CONT) - une étape de recalage d'une modélisation informatique (MI) de ladite pièce aéronautique par rapport au contour détecté (CONT) de l'image source afin d'obtenir une modélisation informatique recalée (MIc), - une étape de génération d'une image simulée (IMG2) à partir de la modélisation informatique recalée (MIc), et - une étape de comparaison des pixels de l'image simulée (IMG2) à l'image source (IMG1) de manière à déterminer des défauts de la pièce aéronautique.

Description

PROCEDE ET SYSTEME DE CONTROLE NON DESTRUCTIF D'UNE PIECE AERONAUTIQUE PAR RECALAGE DE CONTOUR
DOMAINE TECHNIQUE GENERAL ET ART ANTERIEUR
L'invention concerne le domaine du contrôle non destructif (CND) sur des pièces industrielles, notamment dans le domaine de l'aéronautique, à l'aide d'images 2D obtenues par acquisition par imagerie, notamment, par radiographie.
Plus précisément, l'invention concerne le recalage («registration» en anglais) à l'aide de transformations de ces images sur des modèles informatiques réalisés sur ordinateur. Le contrôle non destructif est primordial pour contrôler la santé matière des matériaux.
D'autres technologies d'imagerie sont possibles pour obtenir de telles images. On parlera par la suite de modélisation par imagerie. Les modèles réalisés sur ordinateur sont obtenus par Conception Assistée par Ordinateur (CAO, ou CAD pour « Computer Aided Design » en anglais) de surfaces ou courbes paramétrées permettant de décrire d'une façon théorique une pièce. On parlera par la suite de modèle CAO. Les bureaux d'études en charge des pièces citées précédemment définissent des zones de criticité et/ou des zones d'analyse qui sont définies dans le référentiel CAO.
Or, comme la représentation par imagerie et le modèle CAO possèdent chacune leur propre référentiel, il est nécessaire de connaître la transformation permettant de passer d'un référentiel à l'autre, notamment pour pouvoir connaître la position exacte dans le référentiel CAO d'une information repérée dans l’imagerie. Ces méthodes sont appelées « recalage » (registration en anglais).
Le recalage cherche donc à faire coïncider au mieux le modèle CAO avec la représentation par imagerie pour trouver la transformation optimale. La transformation inverse (du repère d'imagerie vers le repère CAO) peut ensuite être déduite. Lors du recalage, on utilise un critère de similitude que l'on cherche à maximiser (ou bien, de manière équivalente, minimiser un critère de dissimilarité).
Parmi les différentes méthodes de recalage, on connaît des méthodes de recalage par contour, également appelée « approche silhouette », par le document « Y. Iwashita, R. Kurazume, K. Hara, and T. Hasegawa, Fast Alignment of 3D Geometrical Models and 2D Color Images using 2D Distance Maps, in Proc. The 5th International Conference on 3-D Digital Imaging and Modeling (3DIM), pp.164-171, 2005 », le document “Q. Delamarre and O. Faugeras. 3d articulated models and multi-view tracking with silhouettes. In Proc, of the International Conference on Computer Vision, Vol. 2, pp. 716-721, 1999 » et le document « K. Matsushita and T. Kaneko. Efficient and handy texture mapping on 3d surfaces. In Comput. Graphics Forum 18, pp. 349-358, 1999 ».
Selon cette méthode de recalage, une projection de la silhouette du modèle CAO dans un plan de projection est recalée avec un contour de la pièce mécanique obtenue par imagerie 2D. Pour obtenir des résultats pertinents, il est primordial que l’algorithme de détection de contour sur l’image 2D soit précis et robuste.
Dans l’art antérieur, plusieurs algorithmes de détection de contour conventionnels et génériques sont connus, par exemple des algorithmes de Sobel, Prewitt et Canny, mais leurs performances ne sont pas suffisantes étant donné qu’ils produisent des contours fuyants et parasites, ce qui affecte la qualité du recalage par approche silhouette.
L’invention a donc pour but de remédier à ces inconvénients en proposant un nouveau procédé de détection de contour qui soit adapté pour détecter des contours dans des images radiographiques de pièces aéronautiques afin de permettre un recalage optimal par approche silhouette et, par voie de conséquence, un contrôle optimal des pièces aéronautiques afin d’en détecter des défauts éventuels.
PRESENTATION GENERALE DE L’INVENTION
A cet effet, l’invention concerne un procédé de contrôle non destructif d'une pièce aéronautique, comprenant les étapes suivantes :
une étape d’acquisition par imagerie en 2D d’une image source d’une pièce aéronautique, l’image source comportant une pluralité de pixels, une étape de calcul, pour chaque pixel de l’image source, d’au moins une caractéristique de contour, une étape de détermination d’une probabilité de contour, pour chaque pixel de l’image source, par une fonction de régression logistique à partir de l'ensemble des caractéristiques de contour mesurées localement au niveau de ce pixel, une étape de détermination d’un contour dans l’image source à partir des probabilités de contour déterminées, une étape de recalage d’une modélisation informatique de ladite pièce aéronautique par rapport au contour détecté de l’image source afin d’obtenir une modélisation informatique recalée, le contour détecté remplissant une fonction de critère de similitude lors du recalage, une étape de génération d’une image simulée à partir de la modélisation informatique recalée, et une étape de comparaison des pixels de l’image simulée à l’image source de manière à déterminer des défauts de la pièce aéronautique.
Grâce à l’invention, le contour d’une pièce aéronautique dans une image source est détecté de manière très précise, ce qui permet de réaliser une étape de recalage performante par approche silhouette. Les défauts d’une pièce aéronautique peuvent être détectés de manière fiable, ce qui est avantageux. La détection de contour par régression logistique permet de définir de manière rapide, pour chaque pixel, une probabilité de contour fiable.
De préférence, l’étape de calcul de la caractéristique de contour met en œuvre au moins un opérateur d’histogramme appliqué sur un paramètre des pixels appartenant à une portion de l’image source, ladite portion étant centrée sur ledit pixel à caractériser, ayant une échelle o et une orientation Θ. Un opérateur d’histogramme permet de déterminer une caractéristique de contour très pertinente par analyse d’une portion d’image centrée sur un pixel. Ainsi, toute discontinuité dans la portion d’image est détectée rapidement et précisément. Le contour détecté est très précis par comparaison à un opérateur dérivé selon l’art antérieur.
De manière préférée, l’étape de calcul de la caractéristique de contour met en œuvre au moins un opérateur d’histogramme appliqué sur aux moins deux paramètres des pixels appartenant à une portion de l’image source, en particulier, un paramètre de luminance et un paramètre de texture. De tels opérateurs d’histogramme permettent de détecter une discontinuité selon deux critères différents, ce qui améliore la robustesse de la détection, en particulier, pour une image orientée.
De préférence, la fonction de régression logistique est obtenue à partir d’une base d’apprentissage comportant une pluralité d’images d’apprentissage comportant chacune un contour vérifié.
Selon un aspect préféré, la base d’apprentissage comporte une pluralité d’images d’apprentissage formées par simulation d’acquisition par imagerie à partir d’une modélisation informatique de la pièce aéronautique (CAO). De manière avantageuse, les images d’apprentissage ne sont pas déterminées manuellement mais à partir d’une modélisation informatique dont la pertinence est reconnue. Une simulation d’acquisition par imagerie à partir d’une modélisation informatique CAO permet de former des images analogues à des images sources obtenues sur une pièce physique mais dont tous les paramètres sont connus et maîtrisés. De préférence, les images d’apprentissage sont obtenues en variant les angles de projection dans un plan 2D et en variant les paramètres d’acquisition par imagerie. Ainsi, on obtient un grand nombre d’images correspondants à différents types d’acquisition de manière à former une base de comparaison pertinente lors de l’apprentissage du fait de sa richesse.
De manière préférée, le contour vérifié d’une image d’apprentissage est obtenu par projection d’une silhouette de la modélisation informatique de la pièce aéronautique sur l’image d’apprentissage. Le contour de l’image d’apprentissage est vérifié et forme une vérité terrain étant donné qu’il est obtenu directement à partir d’une modélisation informatique dont la pertinence est reconnue.
Selon un aspect préféré de l’invention, chaque caractéristique de contour d'un pixel dépendant d’un paramètre d’orientation Θ, l’étape de détermination d’une probabilité de contour pour chaque pixel de l’image source met en œuvre une étape d’apprentissage faiblement supervisé du type « Multiple Instance Learning » afin de permettre un apprentissage sans connaissance dudit paramètre d’orientation Θ. Un tel apprentissage permet une classification globale, par sacs, afin de prendre en compte le paramètre d’orientation latent Θ.
L’invention concerne également un produit programme d'ordinateur comprenant des instructions de code pour l'exécution des étapes du procédé tel que présenté précédemment, lorsque ledit programme est exécuté sur une unité électronique.
L’invention concerne en outre une mémoire informatique comprenant des instructions d’un programme d’ordinateur tel que présenté précédemment.
L’invention concerne en outre un système de contrôle non destructif d’une pièce aéronautique comprenant :
au moins un dispositif d’acquisition configuré pour acquérir par imagerie en 2D une image source d’une pièce aéronautique, l’image source comportant une pluralité de pixels, au moins un dispositif de calcul configuré pour
i. calculer, pour chaque pixel de l’image source, au moins une caractéristique de contour, ii. déterminer une probabilité de contour, pour chaque pixel de l’image source, par une fonction de régression logistique à partir de l'ensemble des caractéristiques de contour mesurées localement au niveau de ce pixel, iii. déterminer un contour dans l’image source à partir des probabilités de contour déterminées, iv. recaler une modélisation informatique de ladite pièce aéronautique par rapport au contour détecté de l’image source afin d’obtenir une modélisation informatique recalée, le contour détecté remplissant une fonction de critère de similitude lors du recalage,
v. générer une image simulée à partir de la modélisation informatique recalée, et vi. comparer des pixels de l’image simulée à l’image source de manière à déterminer des défauts de la pièce aéronautique.
PRESENTATION DES FIGURES
L’invention sera mieux comprise à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple, et se référant aux dessins annexés sur lesquels :
La figure 1 est une représentation schématique d’un exemple de mise en œuvre d’un procédé de contrôle non destructif d’une pièce aéronautique selon l’invention, et
La figure 2 est une représentation schématique d’un exemple de construction d’une base d’apprentissage.
Il faut noter que les figures exposent l’invention de manière détaillée pour mettre en œuvre l’invention, lesdites figures pouvant bien entendu servir à mieux définir l’invention le cas échéant.
DESCRIPTION D’UN OU PLUSIEURS MODES DE REALISATION ET DE MISE EN OEUVRE
Il va être présenté un procédé de contrôle non destructif d'une pièce aéronautique par comparaison d’une image acquise par imagerie (image source) et d’une image obtenue par modélisation informatique d’une même pièce aéronautique (image simulée). Avant de permettre une comparaison effective, l’image simulée doit être recalée par rapport à l’image source à l'aide d'un critère de similitude afin de permettre une comparaison pertinente susceptible de mettre en exergue des défauts dans l’image acquise par imagerie.
Selon l’invention, en référence à la figure 1, le procédé de contrôle non destructif d'une pièce aéronautique comprend une étape d’acquisition en 2D d’une image source IMG1 d’une pièce aéronautique, l’image source IMG1 comportant une pluralité de pixels (x, y). Dans cet exemple, l’image source IMG1 est obtenue par un dispositif d’acquisition de la pièce aéronautique, en particulier, un dispositif de radiographie à rayons X. Une telle étape d’acquisition est connue de l’homme du métier. De manière préférée, une pluralité d’images source sont obtenues par tomographie à rayons X et sont successivement contrôlées par le procédé selon l’invention afin de détecter d’éventuels défauts dans différents plans successifs d’une pièce aéronautique.
Par la suite, il va être présenté plusieurs étapes de calcul qui sont mises en œuvre par un dispositif de calcul, en particulier, un ordinateur.
Toujours en référence à la figure 1, le procédé comporte une étape de calcul E1, pour chaque pixel de l’image source IMG1, d’au moins une caractéristique de contours .
De manière connue, chaque pixel est associé à un ou plusieurs canaux permettant de donner sa valeur colorimétrique au pixel, en particulier, la luminance, la texture, la valeur radiométrique (intensité du pixel).
En pratique, un contour peut être considéré comme une discontinuité entre les pixels adjacents d’une image, en particulier, une discontinuité de luminance entre les pixels adjacents d’une image. Dans l’art antérieur, pour détecter des discontinuités dans une image, il est connu d’utiliser des filtres dérivés (algorithmes de Sobel, Prewitt et Canny) mais leurs précisions ne sont pas suffisantes.
Selon l’invention, une caractéristique de contour x est calculée pour chaque pixel de l’image source IMG1 à partir d’opérateurs basés sur l’histogramme d’une portion de l’image source IMG1. Selon l’invention, des histogrammes de luminance sont utilisés. De manière préférée, des opérateurs d’histogrammes de texture sont également utilisés. L’application d’opérateurs d’histogrammes de texture est particulièrement avantageuse pour détecter une discontinuité liée à une orientation de l’image. Comme cela va être présenté par la suite, l’utilisation synergique d’histogrammes de luminance et d’histogrammes de texture permet de calculer une caractéristique de contours pertinente pour chaque pixel de l’image source IMG1.
A titre d’exemple, il va etre présente le calcul d’une caractéristique de contour x sur une portion d’image source IMG1, appelée également « patch », d’échelle o et qui est centrée sur un pixel de l’image source IMG1 de coordonnées (x, y) et d’orientation Θ. Dans cet exemple, deux régions adjacentes du patch sont comparées. Les régions adjacentes sont déterminées en fonction des données de taille o et d’orientation Θ. Dans cet exemple, une portion d’image est déterminée par pixel et centrée sur ledit pixel en tenant compte des données de taille o et d’orientation Θ. Cette portion d’image est divisée en deux régions adjacentes définies en fonction de l’orientation Θ.
En pratique, un opérateur d'histogramme permet de comparer deux régions adjacentes en mesurant la distance les séparant. Par la suite, on détermine, pour chaque pixel, une caractéristique de contour x definie selon l’operateur d’histogramme suivant :
(.gi - hj)2 gi + hi formule dans laquelle g et h sont les histogramme à comparer des régions adjacentes, chaque histogramme g, h comportant une pluralité de barres (désignées « bin » en langue anglaise) i désigne le numéro d’une barre d’histogramme.
L’opérateur d’histogramme permet avantageusement de déterminer l’impact du canal de pixel C, de l'échelle o et de l'orientation Θ qui ne sont pas connus a priori. L’impact de chaque paramètre est calculé et les paramètres optimaux sont déterminés par l’apprentissage statistique supervisé comme cela sera présenté par la suite.
De tels operateurs d’histogramme permettent de determiner une caractéristique de contour x qui est pertinente pour chaque pixel. En effet, une valeur élevée de la caractéristique de contour x pour un pixel donne signifie que ledit pixel possédé une probabilité elevee de se situer a la limite entre deux regions distinctes. Dans cette formule, la caractéristique de contour x depend du canal de pixel C, de l'échelle o et de l'orientation Θ déterminés.
De manière avantageuse, chaque pixel de l’image source IMG1 est associé à un vecteur de caractéristiques déclinant la caractéristique de contour x selon plusieurs dimensions. En particulier, la caractéristique de contour x est calculée pour des orientations Θ différentes, des échelles différentes, par exemple, [σ-/2,σ·,2σ-] et des canaux différents, par exemple, luminosité et texture. Grâce à l’utilisation d’opérateurs à histogrammes, la caractéristique de contour x est avantageusement peu sensible au bruit. On obtient ainsi une image source enrichie IMG1e.
Le procédé comporte une étape de détermination d’au moins un contour dans l’image source enrichie IMG1 par une fonction de régression logistique déterminée à partir d’une base d’apprentissage de contours Ba.
Afin de permettre un apprentissage par ordinateur de la détection de contours, plus connu sous sa désignation anglaise « machine learning », il est proposé de former une base d’apprentissage
Ba comportant des images d’apprentissage IMGa comportant chacune une annotation indiquant les contours réels et vérifiés CONTa. De telles images d’apprentissage IMGa sont également désignées « images avec annotation vérité terrain ».
Selon un premier aspect de l’invention, les images d’apprentissage IMGa sont annotées manuellement par des opérateurs afin de préciser les pixels de l’image d’apprentissage IMGa appartenant au contour vérifié CONTa. Une telle annotation manuelle des images d’apprentissage IMGa de la base d’apprentissage Ba est une tâche fastidieuse, lente, coûteuse et dépend de la subjectivité des annotateurs.
De manière préférée, selon un deuxième aspect de l’invention, les images d’apprentissage IMGa de la base d’apprentissage Ba sont obtenues par un procédé de génération automatique. Un exemple de mise en œuvre d’un tel procédé est présenté à la figure 2.
Lors de la mise en œuvre de ce procédé de génération automatique, des images d’apprentissage IMGa sont obtenues à partir d’une modélisation informatique Ml de la pièce aéronautique, en particulier, une modélisation obtenue par conception assistée par ordinateur (CAO). A partir de la modélisation informatique Ml de la pièce aéronautique, on simule l’acquisition d’images 2D qui sont analogues à l’image source IMG1. En particulier, les images obtenues simulent une acquisition par imagerie par rayons X et sont désignées par la suite images sources simulées IMGss.
En référence à la figure 2, lors de la simulation d’acquisition par imagerie, plusieurs images sources simulées IMGss sont obtenues en variant les angles de projection dans un plan 2D et en variant les paramètres d’acquisition afin de bénéficier d’une base d’apprentissage Ba étoffée. Autrement dit, on obtient des images sources simulées IMGss non pas à partir d’une pièce aéronautique réelle mais à partir d’un modélisation informatique Ml imagée selon plusieurs angles et selon plusieurs paramètres d’acquisition. Suite à cette étape, les images sources simulées IMGss ne sont pas encore annotées.
Pour déterminer le contour vérifié CONTa sur chaque image source simulée IMGss obtenue, c’est-à-dire l’annotation, la silhouette de la modélisation informatique Ml, c’est-à-dire son contour, est extraite puis projetée sur chaque image source simulée IMGss selon l’angle de projection ayant permis l’acquisition de ladite image source simulée IMGss. Autrement dit, la silhouette informatique est projetée sur les images sources simulées IMGss afin de déterminer le contour vérifié CONTa. En référence à la figure 2, les images sources simulées IMGss sont annotées avec les contours vérifiés CONTa projetés et sont désignées « images d’apprentissage IMGa ».
Les images d’apprentissage IMGa sont stockées dans la base d’apprentissage Ba. Grâce à cette base d’apprentissage Ba, on peut déterminer une fonction de régression logistique qui permet, à partir des caractéristiques de contour x de l’image source enrichie IMG1e d’en déduire une probabilité de contour Pb pour chaque pixel de l’image source IMG1.
Par la suite, on désigne la probabilité de contour d'un pixel (x, y) d’être au niveau d’un contour de l’image source IMG1 sachant l'ensemble des caractéristiques de contour x mesurées localement au niveau de ce pixel (x, y). La probabilité de contour y, ff) dépend du ou des canaux des pixels G considérés, de la ou des échelles aJ considérées. La probabilité de contour Pb est directement fonction des coordonnées x, y des pixels dans l’image source IMG1 mais également de l’orientation considérée Θ qui n’est pas connu.
La comparaison avec la base d’apprentissage Ba est réalisée par un programme de classification appelé également classificateur qui va être dorénavant présenté.
De manière connue, pour réaliser une détection de contour par apprentissage, plus connu sous sa désignation anglaise « machine learning », il est nécessaire de mettre en relation un échantillon à tester avec des exemples connus d’une base de données. Dans un cas standard, un classificateur permet de trier les échantillons de manière à déterminer l’exemple connu le plus proche dudit échantillon.
De manière préférée, il est mis en œuvre un apprentissage faiblement supervisé connu de l’homme du métier sous la désignation anglaise “Multiple Instance Learning”, qui sera désigné par la suite apprentissage MIL. Un apprentissage MIL est une technique qui permet d’entrainer un classificateur en présence de paramètres inconnus. Dans le cas présent, le paramètre inconnu est l'orientation Θ des pixels. Dans cette mise en œuvre, l’apprentissage MIL est particulièrement adapté étant donné que l'orientation Θ est considérée comme une variable latente. Aussi, il n’est pas nécessaire de déterminer de manière préalable la bonne orientation Θ pour chaque pixel. Cela est particulièrement avantageux étant donné que la détermination de la bonne orientation Θ pour chaque pixel est complexe pour les coins et les jonctions dans une image.
Un exemple de mise en œuvre d’un apprentissage MIL va être dorénavant être présenté de manière détaillée.
De manière connue, dans un apprentissage supervisé, les données d’apprentissage sont fournies par paires associant un vecteur de caractéristiques à une étiquette, appelée « label » en langue anglaise. Selon l’invention, lors d’un apprentissage MIL, les données d’entrainement sont fournies par paires associant un sac de caractéristiques à une étiquette. Autrement dit, les caractéristiques ne sont pas associées individuellement à une étiquette mais regroupées en sac de caractéristiques et c’est le sac qui est associé à une étiquette.
Par la suite, un sac de caractéristiques X comporte une pluralité de vecteurs de caractéristiques x. Xi = {xi,X2-..Xm}
Lors de l’entrainement du classificateur, un sac est étiqueté positivement si au moins un des vecteurs x du sac X est positif. Par conséquent, un sac est étiqueté négativement uniquement si tous les vecteurs x sont négatifs. Le label de sac Y est défini selon la formule suivante
Yi = max {y dans laquelle V/ est l'étiquette du vecteur i du sac J.
De manière analogue à un apprentissage supervisé, une fonction de coût et une procédure d'optimisation peuvent être utilisés pour sélectionner le classificateur optimal. Le critère d'entraînement est exprimé en fonction des probabilités Λ attribuées aux sacs qui devraient acquérir l’étiquette L.
Le maximum de vraisemblance des données peut être écrit comme suit.
£ = Σ logCP/H 2 Wi - A)· ί|Υ;=ι ï|y,=o
Les probabilités de sac pi sont exprimées en fonction des probabilités d’instance PtJ. La probabilité a posteriori d'une instance i dans un sac j peut être estimée en combinant les caractéristiques d'instance a et en utilisant la fonction logistique suivante :
i Pij~ l+e^x
Yi = max{y;}
Par la suite, étant donne j , nous pouvons considérer que les probabilités de sac Λ sont
Pi = max{pz;} definis de maniéré suivante : j
Afin d’obtenir une fonction de coût différentiable, les probabilités de sac pi sont combinées avec un opérateur «noisy-or» qui est une approximation de l'opérateur « max» selon la formule suivante qui forme la fonction de coût suivante :
pi = 1 - Π(’ - PtjPi e Π-M, j e {l..m} j
La fonction de coût et ses arguments étant définis, une procédure d'optimisation va dorénavant être présentée. De manière avantageuse, étant donné que la fonction de coût est différentiable, le classifieur optimal peut être obtenu de manière pratique en réalisant une montée de gradient convergente. Grâce à la base d’apprentissage Ba et au classificateur préalablement présenté, on forme une fonction de régression logistique.
Ainsi, pour chaque image source enrichie IMG1e, la probabilité de contours Pb à chaque pixel et à chaque orientation peut être obtenu par la fonction de régression logistique.
De manière préférée, les probabilités de contour Pb sont combinées avec l’opérateur « noisy-or» pour obtenir une réponse agrégée de contours et déterminer le contour CONT dans l’image source IMG1. Une telle étape de post-traitement permet avantageusement la suppression des non-maximas et permet ainsi l'amincissement des contours détectés avant de réaliser une étape de seuillage. Le contour détecté CONT est précis et non diffus, ce qui est particulièrement avantageux pour le recalage. On obtient une image source avec contour IMG1c qui comporte le contour détecté CONT comme illustré à la figure 1.
En référence à la figure 1, le procédé comporte ensuite une étape de recalage de la silhouette de la modélisation informatique Ml par rapport l’image source avec contour IMG1c afin d’obtenir une modélisation informatique recalée MIc, le contour détecté CONT remplissant une fonction de critère de similitude lors du recalage. Un tel recalage silhouette est particulièrement performant étant donné que le contour détecté CONT est précis.
Le procédé comporte une étape de génération d’une image simulée IMG2 à partir de la modélisation informatique recalée MIc. De manière préférée, l’étape de génération est réalisée en prenant en compte les paramètres du système d’acquisition afin de permettre une comparaison pertinente avec l’image source IMG1.
Le procédé comporte en outre une étape de comparaison COMP des pixels de l’image simulée IMG2 aux pixels de l’image source IMG1 de manière à déterminer des défauts éventuels de la pièce aéronautique DEF qui sont mis en exergue lorsque la différence entre les pixels comparés est supérieure à un seuil prédéterminé.
Grâce au procédé selon l’invention, des tranches de la pièce aéronautique peuvent être contrôlés de manière fiable et précise pour détecter des défauts. Le procédé peut avantageusement être renouvelé pour contrôler de manière tridimensionnelle la pièce aéronautique.

Claims (10)

1. Procédé de contrôle non destructif d'une pièce aéronautique, comprenant les étapes suivantes :
une étape d’acquisition par imagerie en 2D d’une image source (IMG1) d’une pièce aéronautique, l’image source (IMG1) comportant une pluralité de pixels, une étape de calcul, pour chaque pixel de l’image source (IMG1), d’au moins une caractéristique de contour (x ), une étape de détermination d’une probabilité de contour (Pb), pour chaque pixel de l’image source (IMG1), par une fonction de régression logistique à partir de l'ensemble des caractéristiques de contour (x ) mesurées localement au niveau de ce pixel, une étape de détermination d’un contour (CONT) dans l’image source (IMG1) à partir des probabilités de contour déterminées (Pb) une étape de recalage d’une modélisation informatique (Ml) de ladite pièce aéronautique par rapport au contour détecté (CONT) de l’image source (IMG1) afin d’obtenir une modélisation informatique recalée (MIc), le contour détecté (CONT) remplissant une fonction de critère de similitude lors du recalage, une étape de génération d’une image simulée (IMG2) à partir de la modélisation informatique recalée (MIc), et une étape de comparaison des pixels de l’image simulée (IMG2) à l’image source (IMG1) de manière à déterminer des défauts de la pièce aéronautique.
2. Procédé selon la revendication 1, dans lequel l’étape de calcul de la caractéristique de contour (x ) met en œuvre au moins un operateur d’histogramme applique sur un paramétré des pixels appartenant à une portion de l’image source (IMG1), ladite portion étant centrée sur ledit pixel à caractériser, ayant une échelle o et une orientation Θ.
3. Procédé selon la revendication 2, dans lequel l’étape de calcul de la caractéristique de contour met en œuvre au moins un opérateur d’histogramme appliqué sur aux moins deux paramètres des pixels appartenant à une portion de l’image source (IMG1), en particulier, un paramètre de luminance et un paramètre de texture.
4. Procédé selon l’une des revendications 1 à 3, dans lequel la fonction de régression logistique étant obtenue à partir d’une base d’apprentissage (Ba) comportant une pluralité d’images d’apprentissage comportant chacune un contour vérifié.
5. Procédé selon la revendication 4, dans lequel la base d’apprentissage (Ba) comporte une pluralité d’images d’apprentissage (IMGa) formées par simulation d’acquisition par imagerie à partir d’une modélisation informatique (Ml) de la pièce aéronautique.
6. Procédé selon l’une des revendications 4 à 5, dans lequel les images d’apprentissage (IMGa) sont obtenues en variant les angles de projection dans un plan 2D et en variant les paramètres d’acquisition par imagerie.
7. Procédé selon l’une des revendications 4 à 6, dans lequel le contour vérifié (CONTa) d’une image d’apprentissage (IMGa) est obtenu par projection d’une silhouette de la modélisation informatique (Ml) sur l’image d’apprentissage.
8. Procédé selon l’une des revendications 1 à 7, dans lequel chaque caractéristique de contour (x ) d'un pixel dépendant d’un paramètre d’orientation Θ, l’étape de détermination d’une probabilité de contour (Pb) pour chaque pixel de l’image source (IMG1) met en œuvre une étape d’apprentissage faiblement supervisé du type « Multiple Instance Learning » afin de permettre un apprentissage sans connaissance dudit paramètre d’orientation Θ.
9. Produit programme d'ordinateur comprenant des instructions de code pour l'exécution des étapes du procédé selon l'une des revendications 1 à 8, lorsque ledit programme est exécuté sur une unité électronique.
10. Système de contrôle non destructif d’une pièce aéronautique comprenant :
au moins un dispositif d’acquisition configuré pour acquérir par imagerie en 2D une image source (IMG1) d’une pièce aéronautique, l’image source (IMG1) comportant une pluralité de pixels, au moins un dispositif de calcul configuré pour
i. calculer, pour chaque pixel de l’image source (IMG1), au moins une caractéristique de contour (x ), ii. déterminer une probabilité de contour (Pb), pour chaque pixel de l’image source (IMG1), par une fonction de régression logistique à partir de l'ensemble des caractéristiques de contour (x ) mesurées localement au niveau de ce pixel, iii. déterminer un contour (CONT) dans l’image source (IMG1) à partir des probabilités de contour déterminées (Pb), iv. recaler une modélisation informatique (Ml) de ladite pièce aéronautique par rapport au contour détecté (CONT) de l’image source (IMG) afin d’obtenir une modélisation informatique recalée (IMc), le contour détecté (CONT) remplissant une fonction de critère de similitude lors du recalage,
v. générer une image simulée (IMG2) à partir de la modélisation informatique recalée (MIc), et
5 vi. comparer des pixels de l’image simulée (IMG2) à l’image source (IMG1) de manière à déterminer des défauts de la pièce aéronautique.
FR1858818A 2018-09-26 2018-09-26 Procede et systeme de controle non destructif d'une piece aeronautique par recalage de contour Active FR3086434B1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR1858818A FR3086434B1 (fr) 2018-09-26 2018-09-26 Procede et systeme de controle non destructif d'une piece aeronautique par recalage de contour
PCT/EP2019/074087 WO2020064323A1 (fr) 2018-09-26 2019-09-10 Procédé et système de contrôle non destructif d'une pièce aéronautique par recalage de contour

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1858818A FR3086434B1 (fr) 2018-09-26 2018-09-26 Procede et systeme de controle non destructif d'une piece aeronautique par recalage de contour
FR1858818 2018-09-26

Publications (2)

Publication Number Publication Date
FR3086434A1 true FR3086434A1 (fr) 2020-03-27
FR3086434B1 FR3086434B1 (fr) 2020-09-04

Family

ID=65243899

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1858818A Active FR3086434B1 (fr) 2018-09-26 2018-09-26 Procede et systeme de controle non destructif d'une piece aeronautique par recalage de contour

Country Status (2)

Country Link
FR (1) FR3086434B1 (fr)
WO (1) WO2020064323A1 (fr)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114354608A (zh) * 2021-10-18 2022-04-15 中国民用航空飞行学院 一种航空发动机叶片孔探自动检测装置
FR3117652A1 (fr) * 2020-12-16 2022-06-17 Safran Procédé de recalage pour le contrôle non destructif d’une pièce aéronautique
CN115330802A (zh) * 2022-10-17 2022-11-11 山东大学 一种碳纤维复合材料气瓶x射线图像脱粘缺陷提取方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111986150B (zh) * 2020-07-17 2024-02-09 万达信息股份有限公司 一种数字病理图像的交互式标注精细化方法
CN114266797A (zh) * 2021-12-08 2022-04-01 集美大学 一种基于概率程序推断的锤具识别方法及装置
CN115526867B (zh) * 2022-09-30 2023-09-05 山东大学 碳纤维复合材料气瓶x射线图像裂纹缺陷提取方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070003118A1 (en) * 2005-06-30 2007-01-04 Wheeler Frederick W Method and system for projective comparative image analysis and diagnosis
US20100220910A1 (en) * 2009-03-02 2010-09-02 General Electric Company Method and system for automated x-ray inspection of objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070003118A1 (en) * 2005-06-30 2007-01-04 Wheeler Frederick W Method and system for projective comparative image analysis and diagnosis
US20100220910A1 (en) * 2009-03-02 2010-09-02 General Electric Company Method and system for automated x-ray inspection of objects

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
IWASHITA Y ET AL: "Fast Alignment of 3D Geometrical Models and 2D Color Images Using 2D Distance Maps", 3-D DIGITAL IMAGING AND MODELING, 2005. 3DIM 2005. FIFTH INTERNATIONAL CONFERENCE ON OTTAWA, ON, CANADA 13-16 JUNE 2005, PISCATAWAY, NJ, USA,IEEE, 13 June 2005 (2005-06-13), pages 164 - 171, XP010810993, ISBN: 978-0-7695-2327-9, DOI: 10.1109/3DIM.2005.39 *
K. MATSUSHITA; T. KANEKO: "Efficient and handy texture mapping on 3d surfaces", COMPUT. GRAPHICS FORUM, vol. 18, 1999, pages 349 - 358
Q. DELAMARRE; O. FAUGERAS: "3d articulated models and multi-view tracking with silhouettes", PROC. OF THE INTERNATIONAL CONFÉRENCE ON COMPUTER VISION, vol. 2, 1999, pages 716 - 721
Y. IWASHITA; R. KURAZUME; K. HARA; T. HASEGAWA: "Fast Alignment of 3D Geometrical Models and 2D Color Images using 2D Distance Maps", PROC. THE 5TH INTERNATIONAL CONFÉRENCE ON 3-D DIGITAL IMAGING AND MODELING (3DIM, 2005, pages 164 - 171, XP010810993, DOI: doi:10.1109/3DIM.2005.39

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3117652A1 (fr) * 2020-12-16 2022-06-17 Safran Procédé de recalage pour le contrôle non destructif d’une pièce aéronautique
CN114354608A (zh) * 2021-10-18 2022-04-15 中国民用航空飞行学院 一种航空发动机叶片孔探自动检测装置
CN115330802A (zh) * 2022-10-17 2022-11-11 山东大学 一种碳纤维复合材料气瓶x射线图像脱粘缺陷提取方法

Also Published As

Publication number Publication date
FR3086434B1 (fr) 2020-09-04
WO2020064323A1 (fr) 2020-04-02

Similar Documents

Publication Publication Date Title
FR3086434A1 (fr) Procede et systeme de controle non destructif d'une piece aeronautique par recalage de contour
US11580640B2 (en) Identifying the quality of the cell images acquired with digital holographic microscopy using convolutional neural networks
US20190138786A1 (en) System and method for identification and classification of objects
TWI737659B (zh) 半導體試樣的基於深度學習之檢查的方法及其系統
US8331650B2 (en) Methods, systems and apparatus for defect detection
WO2019091787A1 (fr) Procédé d'estimation de pose d'une caméra dans le référentiel d'une scène tridimensionnelle, dispositif, système de réalite augmentée et programme d'ordinateur associé
TW201928541A (zh) 用於大型偏移晶粒對晶粒檢測之多步驟影像對準方法
JP2022027473A (ja) 半導体試料の検査に使用可能な訓練データの生成
WO2018185104A1 (fr) Procede d'estimation de pose, dispositif, systeme et programme d'ordinateur associes
US20220222822A1 (en) Microscopy System and Method for Evaluating Image Processing Results
CA3136674C (fr) Procedes et systemes de detection de fissures a l'aide d'un reseau a convolution complete
EP3614306B1 (fr) Procédé de localisation et d'identification de visage et de détermination de pose, à partir d'une vue tridimensionnelle
CN111126393A (zh) 车辆外观改装判断方法、装置、计算机设备及存储介质
CN114078127B (zh) 物件的缺陷检测及计数方法、装置、设备和存储介质
FR3070084B1 (fr) Procede de controle automatique non destructif de pieces mecaniques
CN117671299A (zh) 一种回环检测方法、装置、设备及存储介质
US20230194847A1 (en) Microscopy System and Method for Modifying Microscope Images in the Feature Space of a Generative Network
Altingövde et al. 3D reconstruction of curvilinear structures with stereo matching deep convolutional neural networks
TW202319735A (zh) 半導體取樣的缺陷檢查
Agrafiotis et al. Seafloor-Invariant Caustics Removal From Underwater Imagery
WO2021123671A1 (fr) Procede de selection de points de surface a partir d'un modele cao pour la localisation d'objets 3d industriels, application de ce procede a la localisation d'objets 3d industriels, et systeme de realite augmentee exploitant des objets 3d ainsi localises
CN117593454B (zh) 三维重建与目标表面平面点云生成方法
Heckler et al. Feature Selection for Unsupervised Anomaly Detection and Localization Using Synthetic Defects
Febriana et al. Pseudo-LiDAR Meets Agriculture: Leveraging 3D Monocular Point Cloud Processing for Coffee Beans
US20210004635A1 (en) Method and system for identifying a pedestrian

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20200327

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5

PLFP Fee payment

Year of fee payment: 6