WO2020064323A1 - Method and system for the non-destructive testing of an aerospace part by contour readjustment - Google Patents

Method and system for the non-destructive testing of an aerospace part by contour readjustment Download PDF

Info

Publication number
WO2020064323A1
WO2020064323A1 PCT/EP2019/074087 EP2019074087W WO2020064323A1 WO 2020064323 A1 WO2020064323 A1 WO 2020064323A1 EP 2019074087 W EP2019074087 W EP 2019074087W WO 2020064323 A1 WO2020064323 A1 WO 2020064323A1
Authority
WO
WIPO (PCT)
Prior art keywords
contour
source image
img1
pixel
learning
Prior art date
Application number
PCT/EP2019/074087
Other languages
French (fr)
Inventor
Haithem BOUSSAID
Original Assignee
Safran
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Safran filed Critical Safran
Publication of WO2020064323A1 publication Critical patent/WO2020064323A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Definitions

  • the invention relates to the field of non-destructive testing (NDT) on industrial parts, in particular in the field of aeronautics, using 2D images obtained by acquisition by imaging, in particular by radiography.
  • NDT non-destructive testing
  • the invention relates to registration (“registration” in English) using transformations of these images on computer models produced on a computer.
  • Non-destructive testing is essential to check the material health of materials.
  • imagery representation and the CAD model each have their own repository, it is necessary to know the transformation making it possible to pass from one repository to another, in particular to be able to know the exact position in the CAD repository of a information identified in imagery. These methods are called “registration”.
  • the registration therefore seeks to make the CAD model best coincide with the imaging representation to find the optimal transformation.
  • the reverse transformation (from the imaging benchmark to the CAD benchmark) can then be deduced.
  • a similarity criterion is used which one seeks to maximize (or, equivalently, minimize a dissimilarity criterion).
  • contour registration methods are also known, also called “silhouette approach”, from the document “Y. Iwashita, R. Kurazume, K. Hara, and T. Hasegawa, Fast Alignment of 3D Geometrical Models and 2D Color Images using 2D Distance Maps, in Proc. The 5th International ConfInteron 3-D Digital Imaging and Modeling
  • a projection of the silhouette of the CAD model in a projection plane is readjusted with an outline of the mechanical part obtained by 2D imagery.
  • it is essential that the contour detection algorithm on the 2D image is precise and robust.
  • the object of the invention is therefore to remedy these drawbacks by proposing a new contour detection method which is suitable for detecting contours in radiographic images of aeronautical parts in order to allow optimal registration by silhouette approach and, consequently. , optimal control of aeronautical parts in order to detect possible faults.
  • the invention relates to a non-destructive testing process for an aeronautical part, comprising the following steps:
  • the outline of an aeronautical part in a source image is detected very precisely, which makes it possible to perform an efficient registration step by silhouette approach. Aeronautical part faults can be detected reliably, which is advantageous.
  • the contour detection by logistic regression makes it possible to quickly define, for each pixel, a reliable contour probability.
  • the step of calculating the contour characteristic uses at least one histogram operator applied to a parameter of the pixels belonging to a portion of the source image, said portion being centered on said pixel to be characterized, having a scale o and an orientation Q.
  • a histogram operator makes it possible to determine a very relevant contour characteristic by analysis of a portion of image centered on a pixel. Thus, any discontinuity in the image portion is detected quickly and precisely. The detected contour is very precise compared to a derivative operator according to the prior art.
  • the step of calculating the contour characteristic uses at least one histogram operator applied to at least two parameters of the pixels belonging to a portion of the source image, in particular, a luminance parameter and a texture parameter.
  • histogram operators make it possible to detect a discontinuity according to two different criteria, which improves the robustness of the detection, in particular, for an oriented image.
  • the logistic regression function is obtained from a learning base comprising a plurality of learning images each comprising a verified contour.
  • the learning base comprises a plurality of learning images formed by simulation of acquisition by imagery from a computer modeling of the aeronautical part (CAD).
  • the learning images are not determined manually but from a computer modeling whose relevance is recognized. Imaging acquisition simulation from CAD computer modeling makes it possible to form images analogous to source images obtained on a physical part but all the parameters of which are known and controlled.
  • the training images are obtained by varying the projection angles in a 2D plane and by varying the acquisition parameters by imagery.
  • the training images are obtained by varying the projection angles in a 2D plane and by varying the acquisition parameters by imagery.
  • we obtain a large number of images corresponding to different types of acquisition so as to form a relevant basis of comparison when learning because of its richness.
  • the verified contour of a learning image is obtained by projection of a silhouette of the computer modeling of the aeronautical part on the learning image.
  • the outline of the learning image is verified and forms a ground truth since it is obtained directly from a computer modeling whose relevance is recognized.
  • each contour characteristic of a pixel depending on an orientation parameter Q implements a Weakly supervised learning step of the “Multiple Instance Learning” type in order to allow learning without knowledge of said orientation parameter Q.
  • Such learning allows a global classification, by bags, in order to take into account the latent orientation parameter Q .
  • the invention also relates to a computer program product comprising code instructions for executing the steps of the method as presented above, when said program is executed on an electronic unit.
  • the invention further relates to a computer memory comprising instructions of a computer program as presented above.
  • the invention further relates to a non-destructive control system for an aeronautical part comprising:
  • At least one acquisition device configured to acquire, by 2D imaging, a source image of an aeronautical part, the source image comprising a plurality of pixels
  • At least one computing device configured for
  • v. generate a simulated image from the failed computer modeling, and vi. compare pixels of the simulated image to the source image to determine defects in the aeronautical part.
  • Figure 1 is a schematic representation of an example of implementation of a non-destructive testing method of an aeronautical part according to the invention
  • Figure 2 is a schematic representation of an example of construction of a learning basis.
  • a method of non-destructive testing of an aeronautical part will be presented by comparison of an image acquired by imaging (source image) and an image obtained by computer modeling of the same aeronautical part (simulated image). Before allowing an effective comparison, the simulated image must be readjusted with respect to the source image using a similarity criterion in order to allow a relevant comparison likely to highlight defects in the image acquired by imagery.
  • the non-destructive testing method of an aeronautical part comprises a step of 2D acquisition of a source image IMG1 of an aeronautical part, the source image IMG1 comprising a plurality of pixels (x, y).
  • the source image IMG1 is obtained by a device for acquiring the aeronautical part, in particular, an X-ray radiography device.
  • a device for acquiring the aeronautical part in particular, an X-ray radiography device.
  • a plurality of source images are obtained by X-ray tomography and are successively checked by the method according to the invention in order to detect possible faults in different successive planes of an aeronautical part.
  • the method includes a calculation step E1, for each
  • each pixel is associated with one or more channels making it possible to give its color value to the pixel, in particular, the luminance, the texture, the radiometric value (intensity of the pixel).
  • an outline can be considered as a discontinuity between the adjacent pixels of an image, in particular, a luminance discontinuity between the adjacent pixels of an image.
  • derived filters algorithms of Sobel, Prewitt and Canny
  • a contour characteristic * is calculated for each pixel of the IMG1 source image from operators based on the histogram of a portion of the IMG1 source image.
  • luminance histograms are used.
  • texture histogram operators are also used. The application of texture histogram operators is particularly advantageous for detecting a discontinuity linked to an orientation of the image. As will be presented below, the synergistic use of luminance histograms and texture histograms makes it possible to calculate a
  • a contour characteristic * will be presented on a portion of the source image IMG1, also called a “patch”, of scale o and which is centered on a pixel of the source image.
  • IMG1 with coordinates (x, y) and Q orientation.
  • two adjacent regions of the patch are compared.
  • the adjacent regions are determined based on the size o and Q orientation data.
  • an image portion is determined by pixel and centered on said pixel taking into account the size o and Q orientation data. This image portion is divided into two adjacent regions defined according to the Q orientation.
  • a histogram operator makes it possible to compare two adjacent regions by measuring the distance between them. Subsequently, a contour characteristic x is defined for each pixel defined according to the following histogram operator:
  • each histogram g, h is the histograms to be compared of adjacent regions, each histogram g, h comprising a plurality of bars (designated “bin” in English)
  • i denotes the number of a histogram bar.
  • the histogram operator advantageously makes it possible to determine the impact of the pixel channel C, of the scale o and of the orientation Q which are not known a priori.
  • the impact of each parameter is calculated and the optimal parameters are determined by supervised statistical learning as will be presented later.
  • x for a given pixel means that said pixel has a high probability of being at the
  • the contour characteristic x depends on the pixel channel C, the scale o and the orientation Q determined.
  • each pixel of the source image IMG1 is associated with a vector of
  • contour feature x is calculated for Q different orientations, different scales, for example, [s- / 2, s-, 2s ⁇ ] e T different channels, for example, brightness and
  • the method comprises a step of determining at least one contour in the enriched source image IMG1 by a logistic regression function determined from a learning base of contours Ba.
  • a learning base Ba comprising IMGa training images each comprising an annotation indicating the actual and verified CONTa contours.
  • IMGa training images are also designated “images with ground truth annotation”.
  • the IMGa training images are manually annotated by operators in order to specify the pixels of the IMGa training image belonging to the verified contour CONTa.
  • Such manual annotation of the IMGa learning images of the Ba learning base is a tedious, slow, costly task and depends on the subjectivity of the annotators.
  • the IMGa learning images of the learning base Ba are obtained by an automatic generation method.
  • An example of implementation of such a method is presented in FIG. 2.
  • IMGa learning images are obtained from a computer modeling Ml of the aeronautical part, in particular, a modeling obtained by computer aided design (CAD).
  • CAD computer aided design
  • the acquisition of 2D images which are analogous to the source image IMG1 is simulated.
  • the images obtained simulate an acquisition by X-ray imaging and are hereinafter referred to as simulated source images IMGss.
  • simulated source images IMGss are obtained by varying the projection angles in a 2D plane and by varying the acquisition parameters in order to benefit from a base of expanded learning.
  • simulated source images IMGss not from a real aeronautical part but from a computer modeling Ml imaged from several angles and according to several acquisition parameters.
  • the simulated IMGss source images are not yet annotated.
  • the silhouette of the computer modeling Ml that is to say its contour
  • the computer silhouette is projected onto the simulated source images IMGss in order to determine the verified CONTa contour.
  • the simulated source images IMGss are annotated with the verified contours CONTa projected and are designated “IMGa training images”.
  • the IMGa training images are stored in the training base Ba. Thanks to this learning base Ba, we can determine a logistic regression function which allows, at
  • contour Pb c h o- (x, y, 0) depends on the channel (s) of the pixels considered, on the scale ( s) s ⁇ considered.
  • the probability of contour Pb is a direct function of the coordinates x, y of the pixels in the source image IMG1 but also of the orientation considered Q which is not known.
  • MIL learning is a technique that trains a classifier in the presence of unknown parameters.
  • the unknown parameter is the Q orientation of the pixels.
  • MIL learning is particularly suitable since the orientation Q is considered as a latent variable. Also, there is no need to pre-determine the correct Q orientation for each pixel. This is particularly advantageous since determining the correct orientation Q for each pixel is complex for the corners and junctions in an image.
  • the training data are supplied in pairs associating a vector of characteristics with a label, called “label” in English.
  • the training data are provided in pairs associating a bag of characteristics with a label.
  • the characteristics are not individually associated with a label but grouped together in a bag of characteristics and it is the bag which is associated with a label.
  • a bag of characteristics X comprises a plurality of vectors of characteristics x.
  • Xi ⁇ xi, x 2 . . . x m ⁇
  • a bag is positively labeled if at least one of the vectors x of the bag X is positive. Therefore, a bag is labeled negatively only if all of the x vectors are negative.
  • the bag label Y is defined according to the following formula
  • the training criterion is expressed as a function of the probabilities p i assigned to the bags which should acquire the label g ⁇ .
  • the maximum likelihood of the data can be written as follows.
  • the probabilities of bag p i are expressed as a function of the probabilities of instance PU.
  • the posterior probability of an instance i in a bag i can be estimated by combining the characteristics of instance -3 ⁇ 4 and using the following logistic function:
  • the bag probabilities L are combined with a "noisy-or" operator which is an approximation of the "max” operator according to the following formula which forms the following cost function:
  • the cost function and its arguments being defined, an optimization procedure will now be presented.
  • the optimal classifier can be obtained in a practical way by performing a converging gradient rise. Thanks to the learning base Ba and the classifier previously presented, a logistic regression function is formed.
  • the probability of contours Pb at each pixel and at each orientation can be obtained by the logistic regression function.
  • the contour probabilities Pb are combined with the operator "noisy-or" to obtain an aggregate response of contours and determine the CONT contours in the source image IMG1.
  • Such a post-processing step advantageously allows the elimination of the non-maxima and thus allows the thinning of the detected contours before carrying out a thresholding step.
  • the detected contour CONT is precise and not diffuse, which is particularly advantageous for registration.
  • a source image is obtained with an IMGI c contour which includes the detected CONT contour as illustrated in FIG. 1.
  • the method then comprises a step of resetting the silhouette of the computer modeling Ml with respect to the source image with contour IMG1 c in order to obtain a computer modeling resetting MIc, the detected contour CONT fulfilling a function similarity criteria during registration.
  • silhouette registration is particularly effective given that the detected CONT contour is precise.
  • the method includes a step of generating a simulated IMG2 image from the computerized MIc modeling.
  • the generation step is carried out by taking into account the parameters of the acquisition system in order to allow a relevant comparison with the source image IMG1.
  • the method further comprises a step COMP of the pixels of the simulated image IMG2 for comparison with the pixels of the source image IMG1 so as to determine any defects in the aeronautical part DEF which are highlighted when the difference between the pixels compared is greater than a predetermined threshold.
  • sections of the aeronautical part can be checked reliably and precisely to detect faults.
  • the process can advantageously be repeated to control the aeronautical part in three dimensions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

A method for testing an aerospace part, comprising the following steps: - a step of acquiring a source image (IMG1) by means of 2D imaging; - a step of calculating, for each pixel of the source image (IMG1), at least one contour characteristic; - a step of determining a contour probability by means of a logistic regression function; - a step of determining a contour (CONT); - a step of readjusting a computer model (MI) of said aerospace part with respect to the contour (CONT) detected in the source image in order to obtain a readjusted computer model (MIc); - a step of generating a simulated image (IMG2) on the basis of the readjusted computer model (MIc); and - a step of comparing the pixels of the simulated image (IMG2) with the source image (IMG1) so as to determine defects in the aerospace part.

Description

PROCÉDÉ ET SYSTÈME DE CONTRÔLE NON DESTRUCTIF D'UNE PIÈCE  METHOD AND SYSTEM FOR NON-DESTRUCTIVE CHECKING OF A WORKPIECE
AÉRONAUTIQUE PAR RECALAGE DE CONTOUR  AERONAUTICS BY CONTOUR ADJUSTMENT
DOMAINE TECHNIQUE GENERAL ET ART ANTERIEUR GENERAL TECHNICAL AREA AND PRIOR ART
L'invention concerne le domaine du contrôle non destructif (CND) sur des pièces industrielles, notamment dans le domaine de l'aéronautique, à l'aide d'images 2D obtenues par acquisition par imagerie, notamment, par radiographie. The invention relates to the field of non-destructive testing (NDT) on industrial parts, in particular in the field of aeronautics, using 2D images obtained by acquisition by imaging, in particular by radiography.
Plus précisément, l'invention concerne le recalage («registration» en anglais) à l'aide de transformations de ces images sur des modèles informatiques réalisés sur ordinateur. Le contrôle non destructif est primordial pour contrôler la santé matière des matériaux. More specifically, the invention relates to registration (“registration” in English) using transformations of these images on computer models produced on a computer. Non-destructive testing is essential to check the material health of materials.
D'autres technologies d'imagerie sont possibles pour obtenir de telles images. On parlera par la suite de modélisation par imagerie. Les modèles réalisés sur ordinateur sont obtenus par Conception Assistée par Ordinateur (CAO, ou CAD pour « Computer Aided Design » en anglais) de surfaces ou courbes paramétrées permettant de décrire d'une façon théorique une pièce. On parlera par la suite de modèle CAO. Les bureaux d'études en charge des pièces citées précédemment définissent des zones de criticité et/ou des zones d'analyse qui sont définies dans le référentiel CAO. Other imaging technologies are possible to obtain such images. We will speak later of imaging modeling. The models produced on a computer are obtained by Computer Aided Design (CAD, or CAD for "Computer Aided Design" in English) of parametric surfaces or curves allowing the theoretical description of a part. We will talk later about CAD model. The design offices in charge of the parts mentioned above define criticality zones and / or analysis zones which are defined in the CAD reference system.
Or, comme la représentation par imagerie et le modèle CAO possèdent chacune leur propre référentiel, il est nécessaire de connaître la transformation permettant de passer d'un référentiel à l'autre, notamment pour pouvoir connaître la position exacte dans le référentiel CAO d'une information repérée dans l’imagerie. Ces méthodes sont appelées « recalage » (registration en anglais). However, as the imagery representation and the CAD model each have their own repository, it is necessary to know the transformation making it possible to pass from one repository to another, in particular to be able to know the exact position in the CAD repository of a information identified in imagery. These methods are called “registration”.
Le recalage cherche donc à faire coïncider au mieux le modèle CAO avec la représentation par imagerie pour trouver la transformation optimale. La transformation inverse (du repère d'imagerie vers le repère CAO) peut ensuite être déduite. Lors du recalage, on utilise un critère de similitude que l'on cherche à maximiser (ou bien, de manière équivalente, minimiser un critère de dissimilarité). The registration therefore seeks to make the CAD model best coincide with the imaging representation to find the optimal transformation. The reverse transformation (from the imaging benchmark to the CAD benchmark) can then be deduced. During the registration, a similarity criterion is used which one seeks to maximize (or, equivalently, minimize a dissimilarity criterion).
Parmi les différentes méthodes de recalage, on connaît des méthodes de recalage par contour, également appelée « approche silhouette », par le document « Y. Iwashita, R. Kurazume, K. Hara, and T. Hasegawa, Fast Alignment of 3D Geometrical Models and 2D Color Images using 2D Distance Maps, in Proc. The 5th International Conférence on 3-D Digital Imaging and Modeling Among the various registration methods, contour registration methods are also known, also called “silhouette approach”, from the document “Y. Iwashita, R. Kurazume, K. Hara, and T. Hasegawa, Fast Alignment of 3D Geometrical Models and 2D Color Images using 2D Distance Maps, in Proc. The 5th International Conférence on 3-D Digital Imaging and Modeling
FEUILLE DE REMPLACEMENT (RÈGLE 26) (3DIM), pp.164-171 , 2005 », le document“Q. Delamarre and O. Faugeras. 3d articulated models and multi-view tracking with silhouettes. In Proc of the International Conférence on Computer Vision, Vol. 2, pp. 716-721 , 1999 » et le document « K. Matsushita and T. Kaneko. Efficient and handy texture mapping on 3d surfaces. In Comput. Graphics Forum 18, pp. 349-358, 1999 ». SUBSTITUTE SHEET (RULE 26) (3DIM), pp.164-171, 2005 ”, the document“ Q. Delamarre and O. Faugeras. 3d articulated models and multi-view tracking with silhouettes. In Proc of the International Conference on Computer Vision, Vol. 2, pp. 716-721, 1999 "and the document" K. Matsushita and T. Kaneko. Efficient and handy texture mapping on 3d surfaces. In Comput. Graphics Forum 18, pp. 349-358, 1999 ”.
Selon cette méthode de recalage, une projection de la silhouette du modèle CAO dans un plan de projection est recalée avec un contour de la pièce mécanique obtenue par imagerie 2D. Pour obtenir des résultats pertinents, il est primordial que l’algorithme de détection de contour sur l’image 2D soit précis et robuste. According to this registration method, a projection of the silhouette of the CAD model in a projection plane is readjusted with an outline of the mechanical part obtained by 2D imagery. To obtain relevant results, it is essential that the contour detection algorithm on the 2D image is precise and robust.
Dans l’art antérieur, plusieurs algorithmes de détection de contour conventionnels et génériques sont connus, par exemple des algorithmes de Sobel, Prewitt et Canny, mais leurs performances ne sont pas suffisantes étant donné qu’ils produisent des contours fuyants et parasites, ce qui affecte la qualité du recalage par approche silhouette. In the prior art, several conventional and generic contour detection algorithms are known, for example algorithms from Sobel, Prewitt and Canny, but their performance is not sufficient since they produce fleeting and parasitic contours, which affects the quality of registration by silhouette approach.
L’invention a donc pour but de remédier à ces inconvénients en proposant un nouveau procédé de détection de contour qui soit adapté pour détecter des contours dans des images radiographiques de pièces aéronautiques afin de permettre un recalage optimal par approche silhouette et, par voie de conséquence, un contrôle optimal des pièces aéronautiques afin d’en détecter des défauts éventuels. The object of the invention is therefore to remedy these drawbacks by proposing a new contour detection method which is suitable for detecting contours in radiographic images of aeronautical parts in order to allow optimal registration by silhouette approach and, consequently. , optimal control of aeronautical parts in order to detect possible faults.
PRESENTATION GENERALE DE L’INVENTION GENERAL PRESENTATION OF THE INVENTION
A cet effet, l’invention concerne un procédé de contrôle non destructif d'une pièce aéronautique, comprenant les étapes suivantes : To this end, the invention relates to a non-destructive testing process for an aeronautical part, comprising the following steps:
une étape d’acquisition par imagerie en 2D d’une image source d’une pièce aéronautique, l’image source comportant une pluralité de pixels,  a step of acquisition by 2D imaging of a source image of an aeronautical part, the source image comprising a plurality of pixels,
une étape de calcul, pour chaque pixel de l’image source, d’au moins une caractéristique de contour,  a step of calculating, for each pixel of the source image, at least one contour characteristic,
une étape de détermination d’une probabilité de contour, pour chaque pixel de l’image source, par une fonction de régression logistique à partir de l'ensemble des caractéristiques de contour mesurées localement au niveau de ce pixel, une étape de détermination d’un contour dans l’image source à partir des probabilités de contour déterminées,  a step of determining a probability of contour, for each pixel of the source image, by a logistic regression function from the set of contour characteristics measured locally at this pixel, a step of determining a contour in the source image from the determined contour probabilities,
une étape de recalage d’une modélisation informatique de ladite pièce aéronautique par rapport au contour détecté de l’image source afin d’obtenir une modélisation informatique recalée, le contour détecté remplissant une fonction de critère de similitude lors du recalage, a step of registration of a computer modeling of said aeronautical part with respect to the detected contour of the source image in order to obtain a modeling recalibrated computer, the detected contour fulfilling a similarity criterion function during the registration,
une étape de génération d’une image simulée à partir de la modélisation informatique recalée, et  a step of generating a simulated image from the failed computer modeling, and
une étape de comparaison des pixels de l’image simulée à l’image source de manière à déterminer des défauts de la pièce aéronautique.  a step of comparing the pixels of the simulated image with the source image so as to determine defects in the aeronautical part.
Grâce à l’invention, le contour d’une pièce aéronautique dans une image source est détecté de manière très précise, ce qui permet de réaliser une étape de recalage performante par approche silhouette. Les défauts d’une pièce aéronautique peuvent être détectés de manière fiable, ce qui est avantageux. La détection de contour par régression logistique permet de définir de manière rapide, pour chaque pixel, une probabilité de contour fiable. Thanks to the invention, the outline of an aeronautical part in a source image is detected very precisely, which makes it possible to perform an efficient registration step by silhouette approach. Aeronautical part faults can be detected reliably, which is advantageous. The contour detection by logistic regression makes it possible to quickly define, for each pixel, a reliable contour probability.
De préférence, l’étape de calcul de la caractéristique de contour met en oeuvre au moins un opérateur d’histogramme appliqué sur un paramètre des pixels appartenant à une portion de l’image source, ladite portion étant centrée sur ledit pixel à caractériser, ayant une échelle o et une orientation Q. Un opérateur d’histogramme permet de déterminer une caractéristique de contour très pertinente par analyse d’une portion d’image centrée sur un pixel. Ainsi, toute discontinuité dans la portion d’image est détectée rapidement et précisément. Le contour détecté est très précis par comparaison à un opérateur dérivé selon l’art antérieur. Preferably, the step of calculating the contour characteristic uses at least one histogram operator applied to a parameter of the pixels belonging to a portion of the source image, said portion being centered on said pixel to be characterized, having a scale o and an orientation Q. A histogram operator makes it possible to determine a very relevant contour characteristic by analysis of a portion of image centered on a pixel. Thus, any discontinuity in the image portion is detected quickly and precisely. The detected contour is very precise compared to a derivative operator according to the prior art.
De manière préférée, l’étape de calcul de la caractéristique de contour met en oeuvre au moins un opérateur d’histogramme appliqué sur aux moins deux paramètres des pixels appartenant à une portion de l’image source, en particulier, un paramètre de luminance et un paramètre de texture. De tels opérateurs d’histogramme permettent de détecter une discontinuité selon deux critères différents, ce qui améliore la robustesse de la détection, en particulier, pour une image orientée. Preferably, the step of calculating the contour characteristic uses at least one histogram operator applied to at least two parameters of the pixels belonging to a portion of the source image, in particular, a luminance parameter and a texture parameter. Such histogram operators make it possible to detect a discontinuity according to two different criteria, which improves the robustness of the detection, in particular, for an oriented image.
De préférence, la fonction de régression logistique est obtenue à partir d’une base d’apprentissage comportant une pluralité d’images d’apprentissage comportant chacune un contour vérifié. Preferably, the logistic regression function is obtained from a learning base comprising a plurality of learning images each comprising a verified contour.
Selon un aspect préféré, la base d’apprentissage comporte une pluralité d’images d’apprentissage formées par simulation d’acquisition par imagerie à partir d’une modélisation informatique de la pièce aéronautique (CAO). De manière avantageuse, les images d’apprentissage ne sont pas déterminées manuellement mais à partir d’une modélisation informatique dont la pertinence est reconnue. Une simulation d’acquisition par imagerie à partir d’une modélisation informatique CAO permet de former des images analogues à des images sources obtenues sur une pièce physique mais dont tous les paramètres sont connus et maîtrisés. According to a preferred aspect, the learning base comprises a plurality of learning images formed by simulation of acquisition by imagery from a computer modeling of the aeronautical part (CAD). Advantageously, the learning images are not determined manually but from a computer modeling whose relevance is recognized. Imaging acquisition simulation from CAD computer modeling makes it possible to form images analogous to source images obtained on a physical part but all the parameters of which are known and controlled.
De préférence, les images d’apprentissage sont obtenues en variant les angles de projection dans un plan 2D et en variant les paramètres d’acquisition par imagerie. Ainsi, on obtient un grand nombre d’images correspondants à différents types d’acquisition de manière à former une base de comparaison pertinente lors de l’apprentissage du fait de sa richesse. Preferably, the training images are obtained by varying the projection angles in a 2D plane and by varying the acquisition parameters by imagery. Thus, we obtain a large number of images corresponding to different types of acquisition so as to form a relevant basis of comparison when learning because of its richness.
De manière préférée, le contour vérifié d’une image d’apprentissage est obtenu par projection d’une silhouette de la modélisation informatique de la pièce aéronautique sur l’image d’apprentissage. Le contour de l’image d’apprentissage est vérifié et forme une vérité terrain étant donné qu’il est obtenu directement à partir d’une modélisation informatique dont la pertinence est reconnue. Preferably, the verified contour of a learning image is obtained by projection of a silhouette of the computer modeling of the aeronautical part on the learning image. The outline of the learning image is verified and forms a ground truth since it is obtained directly from a computer modeling whose relevance is recognized.
Selon un aspect préféré de l’invention, chaque caractéristique de contour d'un pixel dépendant d’un paramètre d’orientation Q, l’étape de détermination d’une probabilité de contour pour chaque pixel de l’image source met en oeuvre une étape d’apprentissage faiblement supervisé du type « Multiple Instance Learning » afin de permettre un apprentissage sans connaissance dudit paramètre d’orientation Q. Un tel apprentissage permet une classification globale, par sacs, afin de prendre en compte le paramètre d’orientation latent Q. According to a preferred aspect of the invention, each contour characteristic of a pixel depending on an orientation parameter Q, the step of determining a probability of contour for each pixel of the source image implements a Weakly supervised learning step of the “Multiple Instance Learning” type in order to allow learning without knowledge of said orientation parameter Q. Such learning allows a global classification, by bags, in order to take into account the latent orientation parameter Q .
L’invention concerne également un produit programme d'ordinateur comprenant des instructions de code pour l'exécution des étapes du procédé tel que présenté précédemment, lorsque ledit programme est exécuté sur une unité électronique. The invention also relates to a computer program product comprising code instructions for executing the steps of the method as presented above, when said program is executed on an electronic unit.
L’invention concerne en outre une mémoire informatique comprenant des instructions d’un programme d’ordinateur tel que présenté précédemment. The invention further relates to a computer memory comprising instructions of a computer program as presented above.
L’invention concerne en outre un système de contrôle non destructif d’une pièce aéronautique comprenant : The invention further relates to a non-destructive control system for an aeronautical part comprising:
au moins un dispositif d’acquisition configuré pour acquérir par imagerie en 2D une image source d’une pièce aéronautique, l’image source comportant une pluralité de pixels,  at least one acquisition device configured to acquire, by 2D imaging, a source image of an aeronautical part, the source image comprising a plurality of pixels,
au moins un dispositif de calcul configuré pour  at least one computing device configured for
i. calculer, pour chaque pixel de l’image source, au moins une caractéristique de contour, ii. déterminer une probabilité de contour, pour chaque pixel de l’image source, par une fonction de régression logistique à partir de l'ensemble des caractéristiques de contour mesurées localement au niveau de ce pixel, iii. déterminer un contour dans l’image source à partir des probabilités de contour déterminées, i. calculate, for each pixel of the source image, at least one contour characteristic, ii. determining a contour probability, for each pixel of the source image, by a logistic regression function from the set of contour characteristics measured locally at the level of this pixel, iii. determine a contour in the source image from the determined contour probabilities,
iv. recaler une modélisation informatique de ladite pièce aéronautique par rapport au contour détecté de l’image source afin d’obtenir une modélisation informatique recalée, le contour détecté remplissant une fonction de critère de similitude lors du recalage,  iv. reset a computer modeling of said aeronautical part with respect to the detected contour of the source image in order to obtain a registration computer modeling, the detected contour fulfilling a function of criterion of similarity during registration,
v. générer une image simulée à partir de la modélisation informatique recalée, et vi. comparer des pixels de l’image simulée à l’image source de manière à déterminer des défauts de la pièce aéronautique.  v. generate a simulated image from the failed computer modeling, and vi. compare pixels of the simulated image to the source image to determine defects in the aeronautical part.
PRESENTATION DES FIGURES PRESENTATION OF THE FIGURES
L’invention sera mieux comprise à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple, et se référant aux dessins annexés sur lesquels : The invention will be better understood on reading the description which follows, given solely by way of example, and referring to the appended drawings in which:
La figure 1 est une représentation schématique d’un exemple de mise en oeuvre d’un procédé de contrôle non destructif d’une pièce aéronautique selon l’invention, et La figure 2 est une représentation schématique d’un exemple de construction d’une base d’apprentissage.  Figure 1 is a schematic representation of an example of implementation of a non-destructive testing method of an aeronautical part according to the invention, and Figure 2 is a schematic representation of an example of construction of a learning basis.
Il faut noter que les figures exposent l’invention de manière détaillée pour mettre en oeuvre l’invention, lesdites figures pouvant bien entendu servir à mieux définir l’invention le cas échéant. It should be noted that the figures show the invention in detail to implement the invention, said figures can of course be used to better define the invention if necessary.
DESCRIPTION D’UN OU PLUSIEURS MODES DE REALISATION ET DE MISE EN OEUVRE DESCRIPTION OF ONE OR MORE MODES OF IMPLEMENTATION AND IMPLEMENTATION
Il va être présenté un procédé de contrôle non destructif d'une pièce aéronautique par comparaison d’une image acquise par imagerie (image source) et d’une image obtenue par modélisation informatique d’une même pièce aéronautique (image simulée). Avant de permettre une comparaison effective, l’image simulée doit être recalée par rapport à l’image source à l'aide d'un critère de similitude afin de permettre une comparaison pertinente susceptible de mettre en exergue des défauts dans l’image acquise par imagerie. A method of non-destructive testing of an aeronautical part will be presented by comparison of an image acquired by imaging (source image) and an image obtained by computer modeling of the same aeronautical part (simulated image). Before allowing an effective comparison, the simulated image must be readjusted with respect to the source image using a similarity criterion in order to allow a relevant comparison likely to highlight defects in the image acquired by imagery.
Selon l’invention, en référence à la figure 1 , le procédé de contrôle non destructif d'une pièce aéronautique comprend une étape d’acquisition en 2D d’une image source IMG1 d’une pièce aéronautique, l’image source IMG1 comportant une pluralité de pixels (x, y). Dans cet exemple, l’image source IMG1 est obtenue par un dispositif d’acquisition de la pièce aéronautique, en particulier, un dispositif de radiographie à rayons X. Une telle étape d’acquisition est connue de l’homme du métier. De manière préférée, une pluralité d’images source sont obtenues par tomographie à rayons X et sont successivement contrôlées par le procédé selon l’invention afin de détecter d’éventuels défauts dans différents plans successifs d’une pièce aéronautique. According to the invention, with reference to FIG. 1, the non-destructive testing method of an aeronautical part comprises a step of 2D acquisition of a source image IMG1 of an aeronautical part, the source image IMG1 comprising a plurality of pixels (x, y). In this example, the source image IMG1 is obtained by a device for acquiring the aeronautical part, in particular, an X-ray radiography device. Such an acquisition step is known to those skilled in the art. Preferably, a plurality of source images are obtained by X-ray tomography and are successively checked by the method according to the invention in order to detect possible faults in different successive planes of an aeronautical part.
Par la suite, il va être présenté plusieurs étapes de calcul qui sont mises en oeuvre par un dispositif de calcul, en particulier, un ordinateur. Subsequently, several calculation steps will be presented which are implemented by a calculation device, in particular, a computer.
Toujours en référence à la figure 1 , le procédé comporte une étape de calcul E1 , pour chaque Still with reference to FIG. 1, the method includes a calculation step E1, for each
2  2
pixel de l’image source IMG1 , d’au moins une caractéristique de contour . pixel of the IMG1 source image, of at least one contour characteristic.
De manière connue, chaque pixel est associé à un ou plusieurs canaux permettant de donner sa valeur colorimétrique au pixel, en particulier, la luminance, la texture, la valeur radiométrique (intensité du pixel). In known manner, each pixel is associated with one or more channels making it possible to give its color value to the pixel, in particular, the luminance, the texture, the radiometric value (intensity of the pixel).
En pratique, un contour peut être considéré comme une discontinuité entre les pixels adjacents d’une image, en particulier, une discontinuité de luminance entre les pixels adjacents d’une image. Dans l’art antérieur, pour détecter des discontinuités dans une image, il est connu d’utiliser des filtres dérivés (algorithmes de Sobel, Prewitt et Canny) mais leurs précisions ne sont pas suffisantes. In practice, an outline can be considered as a discontinuity between the adjacent pixels of an image, in particular, a luminance discontinuity between the adjacent pixels of an image. In the prior art, to detect discontinuities in an image, it is known to use derived filters (algorithms of Sobel, Prewitt and Canny) but their precisions are not sufficient.
2 2
Selon l’invention, une caractéristique de contour * est calculée pour chaque pixel de l’image source IMG1 à partir d’opérateurs basés sur l’histogramme d’une portion de l’image source IMG1. Selon l’invention, des histogrammes de luminance sont utilisés. De manière préférée, des opérateurs d’histogrammes de texture sont également utilisés. L’application d’opérateurs d’histogrammes de texture est particulièrement avantageuse pour détecter une discontinuité liée à une orientation de l’image. Comme cela va être présenté par la suite, l’utilisation synergique d’histogrammes de luminance et d’histogrammes de texture permet de calculer une  According to the invention, a contour characteristic * is calculated for each pixel of the IMG1 source image from operators based on the histogram of a portion of the IMG1 source image. According to the invention, luminance histograms are used. Preferably, texture histogram operators are also used. The application of texture histogram operators is particularly advantageous for detecting a discontinuity linked to an orientation of the image. As will be presented below, the synergistic use of luminance histograms and texture histograms makes it possible to calculate a
2  2
caractéristique de contour * pertinente pour chaque pixel de l’image source IMG1 . relevant edge characteristic * for each pixel of the IMG1 source image.
2 2
A titre d’exemple, il va être présenté le calcul d’une caractéristique de contour * sur une portion d’image source IMG1 , appelée également « patch », d’échelle o et qui est centrée sur un pixel de l’image source IMG1 de coordonnées (x, y) et d’orientation Q. Dans cet exemple, deux régions adjacentes du patch sont comparées. Les régions adjacentes sont déterminées en fonction des données de taille o et d’orientation Q. Dans cet exemple, une portion d’image est déterminée par pixel et centrée sur ledit pixel en tenant compte des données de taille o et d’orientation Q. Cette portion d’image est divisée en deux régions adjacentes définies en fonction de l’orientation Q. By way of example, the calculation of a contour characteristic * will be presented on a portion of the source image IMG1, also called a “patch”, of scale o and which is centered on a pixel of the source image. IMG1 with coordinates (x, y) and Q orientation. In this example, two adjacent regions of the patch are compared. The adjacent regions are determined based on the size o and Q orientation data. In this example, an image portion is determined by pixel and centered on said pixel taking into account the size o and Q orientation data. This image portion is divided into two adjacent regions defined according to the Q orientation.
En pratique, un opérateur d'histogramme permet de comparer deux régions adjacentes en mesurant la distance les séparant. Par la suite, on détermine, pour chaque pixel, une caractéristique de contour x définie selon l’opérateur d’histogramme suivant :
Figure imgf000008_0001
In practice, a histogram operator makes it possible to compare two adjacent regions by measuring the distance between them. Subsequently, a contour characteristic x is defined for each pixel defined according to the following histogram operator:
Figure imgf000008_0001
formule dans laquelle formula in which
g et h sont les histogramme à comparer des régions adjacentes, chaque histogramme g, h comportant une pluralité de barres (désignées « bin » en langue anglaise)  g and h are the histograms to be compared of adjacent regions, each histogram g, h comprising a plurality of bars (designated “bin” in English)
i désigne le numéro d’une barre d’histogramme.  i denotes the number of a histogram bar.
L’opérateur d’histogramme permet avantageusement de déterminer l’impact du canal de pixel C, de l'échelle o et de l'orientation Q qui ne sont pas connus a priori. L’impact de chaque paramètre est calculé et les paramètres optimaux sont déterminés par l’apprentissage statistique supervisé comme cela sera présenté par la suite. The histogram operator advantageously makes it possible to determine the impact of the pixel channel C, of the scale o and of the orientation Q which are not known a priori. The impact of each parameter is calculated and the optimal parameters are determined by supervised statistical learning as will be presented later.
22
De tels opérateurs d’histogramme permettent de déterminer une caractéristique de contour x qui est pertinente pour chaque pixel. En effet, une valeur élevée de la caractéristique de contourSuch histogram operators make it possible to determine an outline characteristic x which is relevant for each pixel. Indeed, a high value of the contour characteristic
2 2
x pour un pixel donné signifie que ledit pixel possède une probabilité élevée de se situer à la x for a given pixel means that said pixel has a high probability of being at the
2 limite entre deux régions distinctes. Dans cette formule, la caractéristique de contour x dépend du canal de pixel C, de l'échelle o et de l'orientation Q déterminés.  2 boundary between two distinct regions. In this formula, the contour characteristic x depends on the pixel channel C, the scale o and the orientation Q determined.
De manière avantageuse, chaque pixel de l’image source IMG1 est associé à un vecteur de Advantageously, each pixel of the source image IMG1 is associated with a vector of
2  2
caractéristiques déclinant la caractéristique de contour x selon plusieurs dimensions. En particulier, la caractéristique de contour x est calculée pour des orientations Q différentes, des échelles différentes, par exemple, [s-/2, s-, 2s·] et des canaux différents, par exemple, luminosité et characteristics declining the characteristic of contour x according to several dimensions. In particular, the contour feature x is calculated for Q different orientations, different scales, for example, [s- / 2, s-, 2s ·] e T different channels, for example, brightness and
2 texture. Grâce à l’utilisation d’opérateurs à histogrammes, la caractéristique de contour x est avantageusement peu sensible au bruit. On obtient ainsi une image source enrichie IMG1 e.  2 texture. Thanks to the use of histogram operators, the contour characteristic x is advantageously not very sensitive to noise. An enriched source image IMG1 e is thus obtained.
Le procédé comporte une étape de détermination d’au moins un contour dans l’image source enrichie IMG1 par une fonction de régression logistique déterminée à partir d’une base d’apprentissage de contours Ba. The method comprises a step of determining at least one contour in the enriched source image IMG1 by a logistic regression function determined from a learning base of contours Ba.
Afin de permettre un apprentissage par ordinateur de la détection de contours, plus connu sous sa désignation anglaise « machine learning », il est proposé de former une base d’apprentissage Ba comportant des images d’apprentissage IMGa comportant chacune une annotation indiquant les contours réels et vérifiés CONTa. De telles images d’apprentissage IMGa sont également désignées « images avec annotation vérité terrain ». In order to allow computerized learning of contour detection, better known by its English designation "machine learning", it is proposed to form a learning base Ba comprising IMGa training images each comprising an annotation indicating the actual and verified CONTa contours. Such IMGa training images are also designated “images with ground truth annotation”.
Selon un premier aspect de l’invention, les images d’apprentissage IMGa sont annotées manuellement par des opérateurs afin de préciser les pixels de l’image d’apprentissage IMGa appartenant au contour vérifié CONTa. Une telle annotation manuelle des images d’apprentissage IMGa de la base d’apprentissage Ba est une tâche fastidieuse, lente, coûteuse et dépend de la subjectivité des annotateurs. According to a first aspect of the invention, the IMGa training images are manually annotated by operators in order to specify the pixels of the IMGa training image belonging to the verified contour CONTa. Such manual annotation of the IMGa learning images of the Ba learning base is a tedious, slow, costly task and depends on the subjectivity of the annotators.
De manière préférée, selon un deuxième aspect de l’invention, les images d’apprentissage IMGa de la base d’apprentissage Ba sont obtenues par un procédé de génération automatique. Un exemple de mise en oeuvre d’un tel procédé est présenté à la figure 2. Preferably, according to a second aspect of the invention, the IMGa learning images of the learning base Ba are obtained by an automatic generation method. An example of implementation of such a method is presented in FIG. 2.
Lors de la mise en oeuvre de ce procédé de génération automatique, des images d’apprentissage IMGa sont obtenues à partir d’une modélisation informatique Ml de la pièce aéronautique, en particulier, une modélisation obtenue par conception assistée par ordinateur (CAO). A partir de la modélisation informatique Ml de la pièce aéronautique, on simule l’acquisition d’images 2D qui sont analogues à l’image source IMG1. En particulier, les images obtenues simulent une acquisition par imagerie par rayons X et sont désignées par la suite images sources simulées IMGss. During the implementation of this automatic generation process, IMGa learning images are obtained from a computer modeling Ml of the aeronautical part, in particular, a modeling obtained by computer aided design (CAD). From the computer modeling Ml of the aeronautical part, the acquisition of 2D images which are analogous to the source image IMG1 is simulated. In particular, the images obtained simulate an acquisition by X-ray imaging and are hereinafter referred to as simulated source images IMGss.
En référence à la figure 2, lors de la simulation d’acquisition par imagerie, plusieurs images sources simulées IMGss sont obtenues en variant les angles de projection dans un plan 2D et en variant les paramètres d’acquisition afin de bénéficier d’une base d’apprentissage Ba étoffée. Autrement dit, on obtient des images sources simulées IMGss non pas à partir d’une pièce aéronautique réelle mais à partir d’un modélisation informatique Ml imagée selon plusieurs angles et selon plusieurs paramètres d’acquisition. Suite à cette étape, les images sources simulées IMGss ne sont pas encore annotées. With reference to FIG. 2, during the imaging acquisition simulation, several simulated source images IMGss are obtained by varying the projection angles in a 2D plane and by varying the acquisition parameters in order to benefit from a base of expanded learning. In other words, we obtain simulated source images IMGss not from a real aeronautical part but from a computer modeling Ml imaged from several angles and according to several acquisition parameters. Following this step, the simulated IMGss source images are not yet annotated.
Pour déterminer le contour vérifié CONTa sur chaque image source simulée IMGss obtenue, c’est-à-dire l’annotation, la silhouette de la modélisation informatique Ml, c’est-à-dire son contour, est extraite puis projetée sur chaque image source simulée IMGss selon l’angle de projection ayant permis l’acquisition de ladite image source simulée IMGss. Autrement dit, la silhouette informatique est projetée sur les images sources simulées IMGss afin de déterminer le contour vérifié CONTa. En référence à la figure 2, les images sources simulées IMGss sont annotées avec les contours vérifiés CONTa projetés et sont désignées « images d’apprentissage IMGa ». Les images d’apprentissage IMGa sont stockées dans la base d’apprentissage Ba. Grâce à cette base d’apprentissage Ba, on peut déterminer une fonction de régression logistique qui permet, à To determine the verified contour CONTa on each simulated source image IMGss obtained, that is to say the annotation, the silhouette of the computer modeling Ml, that is to say its contour, is extracted and then projected onto each image IMGss simulated source according to the projection angle which allowed the acquisition of said IMGss simulated source image. In other words, the computer silhouette is projected onto the simulated source images IMGss in order to determine the verified CONTa contour. With reference to FIG. 2, the simulated source images IMGss are annotated with the verified contours CONTa projected and are designated “IMGa training images”. The IMGa training images are stored in the training base Ba. Thanks to this learning base Ba, we can determine a logistic regression function which allows, at
2  2
partir des caractéristiques de contour x de l’image source enrichie IMG1 e d’en déduire une probabilité de contour Pb pour chaque pixel de l’image source IMG1. from the contour characteristics x of the enriched source image IMG1 e to deduce therefrom a probability of contour Pb for each pixel of the source image IMG1.
Par la suite, on désigne PbC ,(T (x,y,e) \a probabilité de contour d'un pixel (x, y) d’être au niveau Subsequently, we designate Pb C, ( T (x, y, e) \ a probability of contour of a pixel (x, y) to be at the level
2 d’un contour de l’image source IMG1 sachant l'ensemble des caractéristiques de contour x mesurées localement au niveau de ce pixel (x, y). La probabilité de contour Pbcho- (x, y, 0) dépend du ou des canaux des pixels considérés, de la ou des échelles sί considérées. La probabilité de contour Pb est directement fonction des coordonnées x, y des pixels dans l’image source IMG1 mais également de l’orientation considérée Q qui n’est pas connu. 2 of a contour of the source image IMG1 knowing all the contour characteristics x measured locally at the level of this pixel (x, y). The probability of contour Pb c h o- (x, y, 0) depends on the channel (s) of the pixels considered, on the scale ( s) s ί considered. The probability of contour Pb is a direct function of the coordinates x, y of the pixels in the source image IMG1 but also of the orientation considered Q which is not known.
La comparaison avec la base d’apprentissage Ba est réalisée par un programme de classification appelé également classificateur qui va être dorénavant présenté. The comparison with the learning base Ba is carried out by a classification program also called classifier which will now be presented.
De manière connue, pour réaliser une détection de contour par apprentissage, plus connu sous sa désignation anglaise « machine learning », il est nécessaire de mettre en relation un échantillon à tester avec des exemples connus d’une base de données. Dans un cas standard, un classificateur permet de trier les échantillons de manière à déterminer l’exemple connu le plus proche dudit échantillon. In a known manner, to carry out a contour detection by learning, better known by its English designation "machine learning", it is necessary to relate a sample to be tested with known examples of a database. In a standard case, a classifier makes it possible to sort the samples so as to determine the closest known example to said sample.
De manière préférée, il est mis en oeuvre un apprentissage faiblement supervisé connu de l’homme du métier sous la désignation anglaise“Multiple Instance Learning”, qui sera désigné par la suite apprentissage MIL. Un apprentissage MIL est une technique qui permet d’entrainer un classificateur en présence de paramètres inconnus. Dans le cas présent, le paramètre inconnu est l'orientation Q des pixels. Dans cette mise en oeuvre, l’apprentissage MIL est particulièrement adapté étant donné que l'orientation Q est considérée comme une variable latente. Aussi, il n’est pas nécessaire de déterminer de manière préalable la bonne orientation Q pour chaque pixel. Cela est particulièrement avantageux étant donné que la détermination de la bonne orientation Q pour chaque pixel est complexe pour les coins et les jonctions dans une image. Preferably, weakly supervised learning is known, known to those skilled in the art, under the English designation "Multiple Instance Learning", which will hereinafter be referred to as MIL learning. MIL learning is a technique that trains a classifier in the presence of unknown parameters. In this case, the unknown parameter is the Q orientation of the pixels. In this implementation, MIL learning is particularly suitable since the orientation Q is considered as a latent variable. Also, there is no need to pre-determine the correct Q orientation for each pixel. This is particularly advantageous since determining the correct orientation Q for each pixel is complex for the corners and junctions in an image.
Un exemple de mise en oeuvre d’un apprentissage MIL va être dorénavant être présenté de manière détaillée. An example of implementing MIL learning will now be presented in detail.
De manière connue, dans un apprentissage supervisé, les données d’apprentissage sont fournies par paires associant un vecteur de caractéristiques à une étiquette, appelée « label » en langue anglaise. Selon l’invention, lors d’un apprentissage MIL, les données d’entrainement sont fournies par paires associant un sac de caractéristiques à une étiquette. Autrement dit, les caractéristiques ne sont pas associées individuellement à une étiquette mais regroupées en sac de caractéristiques et c’est le sac qui est associé à une étiquette. In known manner, in supervised learning, the training data are supplied in pairs associating a vector of characteristics with a label, called “label” in English. According to the invention, during a MIL learning, the training data are provided in pairs associating a bag of characteristics with a label. In other words, the characteristics are not individually associated with a label but grouped together in a bag of characteristics and it is the bag which is associated with a label.
Par la suite, un sac de caractéristiques X comporte une pluralité de vecteurs de caractéristiques x. Xi = {xi , x2 . . . xm} Subsequently, a bag of characteristics X comprises a plurality of vectors of characteristics x. Xi = {xi, x 2 . . . x m }
Lors de l’entrainement du classificateur, un sac est étiqueté positivement si au moins un des vecteurs x du sac X est positif. Par conséquent, un sac est étiqueté négativement uniquement si tous les vecteurs x sont négatifs. Le label de sac Y est défini selon la formule suivante When training the classifier, a bag is positively labeled if at least one of the vectors x of the bag X is positive. Therefore, a bag is labeled negatively only if all of the x vectors are negative. The bag label Y is defined according to the following formula
Yi = ma x{yij}  Yi = ma x {yij}
dans laquelle YU est l'étiquette du vecteur i du sac J. in which YU is the label of vector i of bag J.
De manière analogue à un apprentissage supervisé, une fonction de coût et une procédure d'optimisation peuvent être utilisés pour sélectionner le classificateur optimal. Le critère d'entraînement est exprimé en fonction des probabilités pi attribuées aux sacs qui devraient acquérir l’étiquette gί. Similar to supervised learning, a cost function and an optimization procedure can be used to select the optimal classifier. The training criterion is expressed as a function of the probabilities p i assigned to the bags which should acquire the label g ί.
Le maximum de vraisemblance des données peut être écrit comme suit. The maximum likelihood of the data can be written as follows.
log (Pi) + 2 log(l - Pi). log (Pi) + 2 log (l - Pi).
Figure imgf000011_0001
i\Yi=Q
Figure imgf000011_0001
i \ Yi = Q
Les probabilités de sac pi sont exprimées en fonction des probabilités d’instance PU. La probabilité a posteriori d'une instance i dans un sac i peut être estimée en combinant les caractéristiques d'instance -¾ et en utilisant la fonction logistique suivante :
Figure imgf000011_0002
The probabilities of bag p i are expressed as a function of the probabilities of instance PU. The posterior probability of an instance i in a bag i can be estimated by combining the characteristics of instance -¾ and using the following logistic function:
Figure imgf000011_0002
Figure imgf000011_0003
= ma x{yij}
Figure imgf000011_0003
= my x {yij}
Par la suite, étant donné j nous pouvons considérer que les probabilités de sac pt sont Subsequently, given j we can consider that the probabilities of sack p t are
Pi = ma x{pn}  Pi = ma x {pn}
définis de manière suivante : j defined as follows: j
Afin d’obtenir une fonction de coût différentiable, les probabilités de sac L sont combinées avec un opérateur « noisy-or » qui est une approximation de l'opérateur « max » selon la formule suivante qui forme la fonction de coût suivante :
Figure imgf000011_0004
In order to obtain a differentiable cost function, the bag probabilities L are combined with a "noisy-or" operator which is an approximation of the "max" operator according to the following formula which forms the following cost function:
Figure imgf000011_0004
La fonction de coût et ses arguments étant définis, une procédure d'optimisation va dorénavant être présentée. De manière avantageuse, étant donné que la fonction de coût est différentiable, le classifieur optimal peut être obtenu de manière pratique en réalisant une montée de gradient convergente. Grâce à la base d’apprentissage Ba et au classificateur préalablement présenté, on forme une fonction de régression logistique. The cost function and its arguments being defined, an optimization procedure will now be presented. Advantageously, since the cost function is differentiable, the optimal classifier can be obtained in a practical way by performing a converging gradient rise. Thanks to the learning base Ba and the classifier previously presented, a logistic regression function is formed.
Ainsi, pour chaque image source enrichie IMG1 e, la probabilité de contours Pb à chaque pixel et à chaque orientation peut être obtenu par la fonction de régression logistique. Thus, for each enriched source image IMG1 e, the probability of contours Pb at each pixel and at each orientation can be obtained by the logistic regression function.
De manière préférée, les probabilités de contour Pb sont combinées avec l’opérateur « noisy-or » pour obtenir une réponse agrégée de contours et déterminer le contour CONT dans l’image source IMG1 . Une telle étape de post-traitement permet avantageusement la suppression des non-maximas et permet ainsi l'amincissement des contours détectés avant de réaliser une étape de seuillage. Le contour détecté CONT est précis et non diffus, ce qui est particulièrement avantageux pour le recalage. On obtient une image source avec contour IMGI c qui comporte le contour détecté CONT comme illustré à la figure 1. Preferably, the contour probabilities Pb are combined with the operator "noisy-or" to obtain an aggregate response of contours and determine the CONT contours in the source image IMG1. Such a post-processing step advantageously allows the elimination of the non-maxima and thus allows the thinning of the detected contours before carrying out a thresholding step. The detected contour CONT is precise and not diffuse, which is particularly advantageous for registration. A source image is obtained with an IMGI c contour which includes the detected CONT contour as illustrated in FIG. 1.
En référence à la figure 1 , le procédé comporte ensuite une étape de recalage de la silhouette de la modélisation informatique Ml par rapport l’image source avec contour IMG1 c afin d’obtenir une modélisation informatique recalée MIc, le contour détecté CONT remplissant une fonction de critère de similitude lors du recalage. Un tel recalage silhouette est particulièrement performant étant donné que le contour détecté CONT est précis. With reference to FIG. 1, the method then comprises a step of resetting the silhouette of the computer modeling Ml with respect to the source image with contour IMG1 c in order to obtain a computer modeling resetting MIc, the detected contour CONT fulfilling a function similarity criteria during registration. Such silhouette registration is particularly effective given that the detected CONT contour is precise.
Le procédé comporte une étape de génération d’une image simulée IMG2 à partir de la modélisation informatique recalée MIc. De manière préférée, l’étape de génération est réalisée en prenant en compte les paramètres du système d’acquisition afin de permettre une comparaison pertinente avec l’image source IMG1. The method includes a step of generating a simulated IMG2 image from the computerized MIc modeling. Preferably, the generation step is carried out by taking into account the parameters of the acquisition system in order to allow a relevant comparison with the source image IMG1.
Le procédé comporte en outre une étape de comparaison COMP des pixels de l’image simulée IMG2 aux pixels de l’image source IMG1 de manière à déterminer des défauts éventuels de la pièce aéronautique DEF qui sont mis en exergue lorsque la différence entre les pixels comparés est supérieure à un seuil prédéterminé. The method further comprises a step COMP of the pixels of the simulated image IMG2 for comparison with the pixels of the source image IMG1 so as to determine any defects in the aeronautical part DEF which are highlighted when the difference between the pixels compared is greater than a predetermined threshold.
Grâce au procédé selon l’invention, des tranches de la pièce aéronautique peuvent être contrôlés de manière fiable et précise pour détecter des défauts. Le procédé peut avantageusement être renouvelé pour contrôler de manière tridimensionnelle la pièce aéronautique. Thanks to the method according to the invention, sections of the aeronautical part can be checked reliably and precisely to detect faults. The process can advantageously be repeated to control the aeronautical part in three dimensions.

Claims

REVENDICATIONS
1. Procédé de contrôle non destructif d'une pièce aéronautique, comprenant les étapes suivantes : 1. Method for non-destructive testing of an aeronautical part, comprising the following steps:
une étape d’acquisition par imagerie en 2D d’une image source (IMG1 ) d’une pièce aéronautique, l’image source (IMG1 ) comportant une pluralité de pixels, une étape de calcul, pour chaque pixel de l’image source (IMG1 ), d’au moins une  a step of acquisition by 2D imaging of a source image (IMG1) of an aeronautical part, the source image (IMG1) comprising a plurality of pixels, a step of calculation, for each pixel of the source image ( IMG1), at least one
2  2
caractéristique de contour (x ),  contour characteristic (x),
une étape de détermination d’une probabilité de contour (Pb), pour chaque pixel de l’image source (IMG1 ), par une fonction de régression logistique à partir de l'ensemble  a step of determining a probability of contour (Pb), for each pixel of the source image (IMG1), by a logistic regression function from the set
2  2
des caractéristiques de contour (x ) mesurées localement au niveau de ce pixel, une étape de détermination d’un contour (CONT) dans l’image source (IMG1 ) à partir des probabilités de contour déterminées (Pb)  contour characteristics (x) measured locally at this pixel, a step of determining a contour (CONT) in the source image (IMG1) from the determined contour probabilities (Pb)
une étape de recalage d’une modélisation informatique (Ml) de ladite pièce aéronautique par rapport au contour détecté (CONT) de l’image source (IMG1 ) afin d’obtenir une modélisation informatique recalée (MIc), le contour détecté (CONT) remplissant une fonction de critère de similitude lors du recalage,  a step of registration of a computer modeling (MI) of said aeronautical part with respect to the detected contour (CONT) of the source image (IMG1) in order to obtain a registration computer modeling (MIc), the detected contour (CONT) fulfilling a similarity criterion function during registration,
une étape de génération d’une image simulée (IMG2) à partir de la modélisation informatique recalée (MIc), et  a step of generating a simulated image (IMG2) from the failed computer modeling (MIc), and
une étape de comparaison des pixels de l’image simulée (IMG2) à l’image source (IMG1 ) de manière à déterminer des défauts de la pièce aéronautique.  a step of comparing the pixels of the simulated image (IMG2) with the source image (IMG1) so as to determine defects in the aeronautical part.
2. Procédé selon la revendication 1 , dans lequel l’étape de calcul de la caractéristique de 2. Method according to claim 1, in which the step of calculating the characteristic of
2  2
contour (x ) met en oeuvre au moins un opérateur d’histogramme appliqué sur un paramètre des pixels appartenant à une portion de l’image source (IMG1 ), ladite portion étant centrée sur ledit pixel à caractériser, ayant une échelle o et une orientation Q.  contour (x) implements at least one histogram operator applied to a parameter of the pixels belonging to a portion of the source image (IMG1), said portion being centered on said pixel to be characterized, having a scale o and an orientation Q.
3. Procédé selon la revendication 2, dans lequel l’étape de calcul de la caractéristique de contour met en oeuvre au moins un opérateur d’histogramme appliqué sur aux moins deux paramètres des pixels appartenant à une portion de l’image source (IMG1 ), en particulier, un paramètre de luminance et un paramètre de texture. 3. Method according to claim 2, in which the step of calculating the contour characteristic uses at least one histogram operator applied to at least two parameters of the pixels belonging to a portion of the source image (IMG1). , in particular, a luminance parameter and a texture parameter.
4. Procédé selon l’une des revendications 1 à 3, dans lequel la fonction de régression logistique étant obtenue à partir d’une base d’apprentissage (Ba) comportant une pluralité d’images d’apprentissage comportant chacune un contour vérifié. 4. Method according to one of claims 1 to 3, wherein the logistic regression function being obtained from a learning base (Ba) comprising a plurality of learning images each comprising a verified contour.
5. Procédé selon la revendication 4, dans lequel la base d’apprentissage (Ba) comporte une pluralité d’images d’apprentissage (IMGa) formées par simulation d’acquisition par imagerie à partir d’une modélisation informatique (Ml) de la pièce aéronautique. 5. Method according to claim 4, in which the learning base (Ba) comprises a plurality of learning images (IMGa) formed by simulation of acquisition by imagery from a computer modeling (Ml) of the aeronautical part.
6. Procédé selon l’une des revendications 4 à 5, dans lequel les images d’apprentissage (IMGa) sont obtenues en variant les angles de projection dans un plan 2D et en variant les paramètres d’acquisition par imagerie. 6. Method according to one of claims 4 to 5, wherein the learning images (IMGa) are obtained by varying the projection angles in a 2D plane and by varying the acquisition parameters by imagery.
7. Procédé selon l’une des revendications 4 à 6, dans lequel le contour vérifié (CONTa) d’une image d’apprentissage (IMGa) est obtenu par projection d’une silhouette de la modélisation informatique (Ml) sur l’image d’apprentissage. 7. Method according to one of claims 4 to 6, in which the verified contour (CONTa) of a learning image (IMGa) is obtained by projection of a silhouette of the computer modeling (Ml) on the image learning.
8. Procédé selon l’une des revendications 1 à 7, dans lequel chaque caractéristique de contour (x ) d'un pixel dépendant d’un paramètre d’orientation Q, l’étape de détermination d’une probabilité de contour (Pb) pour chaque pixel de l’image source (IMG1 ) met en oeuvre une étape d’apprentissage faiblement supervisé du type « Multiple Instance Learning » afin de permettre un apprentissage sans connaissance dudit paramètre d’orientation Q. 8. Method according to one of claims 1 to 7, wherein each contour characteristic (x) of a pixel depending on an orientation parameter Q, the step of determining a probability of contour (Pb) for each pixel of the source image (IMG1) implements a weakly supervised learning step of the “Multiple Instance Learning” type in order to allow learning without knowledge of said orientation parameter Q.
9. Produit programme d'ordinateur comprenant des instructions de code pour l'exécution des étapes du procédé selon l'une des revendications 1 à 8, lorsque ledit programme est exécuté sur une unité électronique. 9. A computer program product comprising code instructions for executing the steps of the method according to one of claims 1 to 8, when said program is executed on an electronic unit.
10. Système de contrôle non destructif d’une pièce aéronautique comprenant : 10. Non-destructive testing system for an aeronautical part, comprising:
au moins un dispositif d’acquisition configuré pour acquérir par imagerie en 2D une image source (IMG1 ) d’une pièce aéronautique, l’image source (IMG1 ) comportant une pluralité de pixels,  at least one acquisition device configured to acquire by 2D imaging a source image (IMG1) of an aeronautical part, the source image (IMG1) comprising a plurality of pixels,
au moins un dispositif de calcul configuré pour  at least one computing device configured for
i. calculer, pour chaque pixel de l’image source (IMG1 ), au moins une  i. calculate, for each pixel of the source image (IMG1), at least one
2  2
caractéristique de contour {x ),  contour characteristic {x),
ii. déterminer une probabilité de contour (Pb), pour chaque pixel de l’image source (IMG1 ), par une fonction de régression logistique à partir de l'ensemble  ii. determine a probability of contour (Pb), for each pixel of the source image (IMG1), by a logistic regression function from the set
2  2
des caractéristiques de contour {x ) mesurées localement au niveau de ce pixel,  contour characteristics {x) measured locally at the level of this pixel,
iii. déterminer un contour (CONT) dans l’image source (IMG1 ) à partir des probabilités de contour déterminées (Pb),  iii. determine a contour (CONT) in the source image (IMG1) from the determined contour probabilities (Pb),
iv. recaler une modélisation informatique (Ml) de ladite pièce aéronautique par rapport au contour détecté (CONT) de l’image source (IMG) afin d’obtenir une modélisation informatique recalée (IMc), le contour détecté (CONT) remplissant une fonction de critère de similitude lors du recalage, iv. reset a computer modeling (Ml) of said aeronautical part with respect to the detected contour (CONT) of the source image (IMG) in order to obtain a recalibrated computer modeling (IMc), the detected contour (CONT) fulfilling a similarity criterion function during registration,
v. générer une image simulée (IMG2) à partir de la modélisation informatique recalée (MIc), et v. generate a simulated image (IMG2) from the failed computer modeling (MIc), and
vi. comparer des pixels de l’image simulée (IMG2) à l’image source (IMG1 ) de manière à déterminer des défauts de la pièce aéronautique. vi. compare pixels of the simulated image (IMG2) to the source image (IMG1) so as to determine defects in the aeronautical part.
PCT/EP2019/074087 2018-09-26 2019-09-10 Method and system for the non-destructive testing of an aerospace part by contour readjustment WO2020064323A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1858818A FR3086434B1 (en) 2018-09-26 2018-09-26 METHOD AND SYSTEM FOR NON-DESTRUCTIVE INSPECTION OF AN AERONAUTICAL PART BY CONTOUR REPLACEMENT
FR1858818 2018-09-26

Publications (1)

Publication Number Publication Date
WO2020064323A1 true WO2020064323A1 (en) 2020-04-02

Family

ID=65243899

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2019/074087 WO2020064323A1 (en) 2018-09-26 2019-09-10 Method and system for the non-destructive testing of an aerospace part by contour readjustment

Country Status (2)

Country Link
FR (1) FR3086434B1 (en)
WO (1) WO2020064323A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111986150A (en) * 2020-07-17 2020-11-24 万达信息股份有限公司 Interactive marking refinement method for digital pathological image
CN115526867A (en) * 2022-09-30 2022-12-27 山东大学 Method and device for extracting crack defects of X-ray image of carbon fiber composite gas cylinder

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3117652B1 (en) * 2020-12-16 2023-03-17 Safran Registration process for the non-destructive testing of an aeronautical part
CN114354608B (en) * 2021-10-18 2023-04-14 中国民用航空飞行学院 Automatic detection device is visited in aeroengine blade hole
CN115330802B (en) * 2022-10-17 2024-01-19 山东大学 Method for extracting debonding defect of X-ray image of carbon fiber composite gas cylinder

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070003118A1 (en) * 2005-06-30 2007-01-04 Wheeler Frederick W Method and system for projective comparative image analysis and diagnosis
US20100220910A1 (en) * 2009-03-02 2010-09-02 General Electric Company Method and system for automated x-ray inspection of objects

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070003118A1 (en) * 2005-06-30 2007-01-04 Wheeler Frederick W Method and system for projective comparative image analysis and diagnosis
US20100220910A1 (en) * 2009-03-02 2010-09-02 General Electric Company Method and system for automated x-ray inspection of objects

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
IWASHITA Y ET AL: "Fast Alignment of 3D Geometrical Models and 2D Color Images Using 2D Distance Maps", 3-D DIGITAL IMAGING AND MODELING, 2005. 3DIM 2005. FIFTH INTERNATIONAL CONFERENCE ON OTTAWA, ON, CANADA 13-16 JUNE 2005, PISCATAWAY, NJ, USA,IEEE, 13 June 2005 (2005-06-13), pages 164 - 171, XP010810993, ISBN: 978-0-7695-2327-9, DOI: 10.1109/3DIM.2005.39 *
K. MATSUSHITAT. KANEKO: "Efficient and handy texture mapping on 3d surfaces", COMPUT. GRAPHICS FORUM, vol. 18, 1999, pages 349 - 358
Q. DELAMARREO. FAUGERAS: "3d articulated models and multi-view tracking with silhouettes", PROC. OF THE INTERNATIONAL CONFÉRENCE ON COMPUTER VISION, vol. 2, 1999, pages 716 - 721
Y. IWASHITAR. KURAZUMEK. HARAT. HASEGAWA: "Fast Alignment of 3D Geometrical Models and 2D Color Images using 2D Distance Maps", PROC. THE 5TH INTERNATIONAL CONFÉRENCE ON 3-D DIGITAL IMAGING AND MODELING (3DIM, 2005, pages 164 - 171, XP010810993, doi:10.1109/3DIM.2005.39

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111986150A (en) * 2020-07-17 2020-11-24 万达信息股份有限公司 Interactive marking refinement method for digital pathological image
CN111986150B (en) * 2020-07-17 2024-02-09 万达信息股份有限公司 The method comprises the following steps of: digital number pathological image Interactive annotation refining method
CN115526867A (en) * 2022-09-30 2022-12-27 山东大学 Method and device for extracting crack defects of X-ray image of carbon fiber composite gas cylinder
CN115526867B (en) * 2022-09-30 2023-09-05 山东大学 Method and device for extracting crack defects of X-ray image of carbon fiber composite gas cylinder

Also Published As

Publication number Publication date
FR3086434B1 (en) 2020-09-04
FR3086434A1 (en) 2020-03-27

Similar Documents

Publication Publication Date Title
WO2020064323A1 (en) Method and system for the non-destructive testing of an aerospace part by contour readjustment
US20220092773A1 (en) Identifying the quality of the cell images acquired with digital holographic microscopy using convolutional neural networks
US20190138786A1 (en) System and method for identification and classification of objects
TWI737659B (en) Method of deep learning - based examination of a semiconductor specimen and system thereof
US20180322623A1 (en) Systems and methods for inspection and defect detection using 3-d scanning
US8331650B2 (en) Methods, systems and apparatus for defect detection
TW201928541A (en) Multi-step image alignment method for large offset die-die inspection
WO2019091787A1 (en) Method for estimating the installation of a camera in the reference frame of a three-dimensional scene, device, augmented reality system and associated computer program
FR3039684A1 (en) OPTIMIZED METHOD OF ANALYSIS OF THE CONFORMITY OF THE SURFACE OF A TIRE
WO2018185104A1 (en) Method for estimating pose, associated device, system and computer program
EP3614306B1 (en) Method for facial localisation and identification and pose determination, from a three-dimensional view
CN113838005B (en) Intelligent identification and three-dimensional reconstruction method and system for rock mass fracture based on dimension conversion
US20220222822A1 (en) Microscopy System and Method for Evaluating Image Processing Results
CN111126393A (en) Vehicle appearance refitting judgment method and device, computer equipment and storage medium
CN114078127B (en) Object defect detection and counting method, device, equipment and storage medium
FR3070084B1 (en) NON-DESTRUCTIVE AUTOMATIC CONTROL METHOD FOR MECHANICAL PARTS
Chen et al. Improved fast r-cnn with fusion of optical and 3d data for robust palm tree detection in high resolution uav images
Altingövde et al. 3D reconstruction of curvilinear structures with stereo matching deep convolutional neural networks
CN115880507A (en) Method, device, equipment and storage medium for de-duplication of defect detection of power transmission image
Yang et al. Immature Yuzu citrus detection based on DSSD network with image tiling approach
FR3083352A1 (en) METHOD AND DEVICE FOR FAST DETECTION OF REPETITIVE STRUCTURES IN THE IMAGE OF A ROAD SCENE
TW202319735A (en) Defect examination on a semiconductor specimen
Panteleris et al. Toward augmented reality in museums: evaluation of design choices for 3D object pose estimation
JP2023529644A (en) Method and system for training neural networks to classify objects in bulk flow
WO2021123671A1 (en) Method for selecting surface points from a cad model for locating industrial 3d objects, application of this method to the location of industrial 3d objects, and augmented reality system using 3d objects thus located

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19763011

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19763011

Country of ref document: EP

Kind code of ref document: A1