FR2550037A1 - Correction de defauts de cadrage automatique - Google Patents
Correction de defauts de cadrage automatique Download PDFInfo
- Publication number
- FR2550037A1 FR2550037A1 FR8411456A FR8411456A FR2550037A1 FR 2550037 A1 FR2550037 A1 FR 2550037A1 FR 8411456 A FR8411456 A FR 8411456A FR 8411456 A FR8411456 A FR 8411456A FR 2550037 A1 FR2550037 A1 FR 2550037A1
- Authority
- FR
- France
- Prior art keywords
- images
- vector value
- image
- normally
- displacement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000009432 framing Methods 0.000 title claims abstract description 18
- 238000012937 correction Methods 0.000 title description 3
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000006073 displacement reaction Methods 0.000 claims abstract description 25
- 230000005484 gravity Effects 0.000 claims description 18
- 230000007547 defect Effects 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 8
- 230000009467 reduction Effects 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 5
- 210000000988 bone and bone Anatomy 0.000 claims description 4
- 239000002872 contrast media Substances 0.000 claims description 3
- 230000004927 fusion Effects 0.000 claims description 2
- 230000001131 transforming effect Effects 0.000 claims 6
- 230000002792 vascular Effects 0.000 claims 2
- 239000000463 material Substances 0.000 claims 1
- 238000005259 measurement Methods 0.000 claims 1
- 230000035943 smell Effects 0.000 claims 1
- 239000011159 matrix material Substances 0.000 description 9
- 230000002123 temporal effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000003623 enhancer Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 101100489581 Caenorhabditis elegans par-5 gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Processing (AREA)
- Analysing Materials By The Use Of Radiation (AREA)
Abstract
PROCEDE ET SYSTEME POUR DETERMINER LE DEPLACEMENT D'UN OBJET ENTRE DIFFERENTES IMAGES DU MEME OBJET. ON DEFINIT LE DEPLACEMENT PAR UNE VALEUR VECTORIELLE ET L'ON UTILISE LA VALEUR VECTORIELLE POUR CORRIGER DES DEFAUTS DE CADRAGE ENTRE DIFFERENTES IMAGES.
Description
255 OO(É/<"
La présente invention concerne un rehaussement d'image par comparaison et/ou des techniques et du matériel de cadrage automatique d'image destinés à assurer un cadrage valable des images à comparer et/ou à permettre l'obtention d'un rehaussement de l'image avec un minimum d'artefacts. De nombreux procédés de rehaussement d'image ont recours à des comparaisons d'images lors desquelles on compare deux ou plusieurs images du même objet Des exemples de techniques de comparaison sous la soustraction, la fusion et l'addition. 10 La technique de soustraction d'image est notamment utilisée quand des caractéristiques en cours de modifications ou modifiées présentent de l'intérêt, comme dans certains modes de diagnostic médical par l'image, par exemple fluorographie numérique Il existe deux grands modes de soustraction en vogue: 15 temporel et énergétique Des deux, c'est la soustraction temporelle qui est de loin la plus populaire dans les applications médicales tandis qu'on utilise davantage la comparaison énergétique à la surveillance des terres et des récoltes Les deux modes de soustraction obligent à centrer les images comparées. 20 La soustraction temporelle est généralement opérée par méthodes dites "au masque" ou "TID" Dans la méthode "de masque", une image antérieure sélectée est soustraite d'images ultérieures Dans la méthode "TID", des images sélectées d'une série d'images antérieures sont soustraites d'images sélectées 25 d'une série d'images ultérieures Dans les deux cas, il est clair que les images soumises à la soustraction doivent être
cadrées pour qu'on obtienne des résultats exempts d'artefacts.
En fluorographie numérique par exemple, le problème du défaut de cadrage est notamment aggravé par les mouvements du 30 sujet entre la formation d'image "de masque" et les images suivantes par exemple La séquence de formation d'image en
fluorographie numérique prend approximativement 15 secondes.
Bien qu'on ait donné consigne aux sujets de retenir leur souffle et de ne pas avaler pendant ce laps de temps, ils violent 35 souvent la consigne, ce dont découlent des déplacements et un
mauvais cadrage.
Les méthodes dont on dispose actuellement pour le recadrage, c'est-à-dire pour la correction des défauts de cadrage, procèdent le plus souvent soit par reconnaissance et com-
paraison des bords, soit par reconnaissance et comparaison de points Les bords sont relativement faciles à reconnaître au moyen de différences ou de dérivées de quelque sorte Toutefois, les déplacements parallèles aux bords sont difficiles à discerner.
Les points sont relativement difficiles à reconnaître.
Les points maximaux ou minimaux sont situés dans des régions à gradients moyens faibles Le "bruit" local tend aussi à nuire gravement à la linéarité du système et déplace donc le
point mesuré de son emplacement réel à un emplacement apparent.
On peut avoir recours à des filtres passe-bas pour réduire le niveau de bruit mais ces filtres réduisent aussi les dérivées et ajoutent ainsi une incertitude quant à l'emplacement réel
du point.
Les points "globaux", par exemple centre de gravité des données présentes dans quelque région intéressante, dépendent
de la définition de la région intéressante et ne définissent donc pas assez nettement les points à utiliser au re-cadrage.
Par exemple, si la donnée est une fonction de gradin, le gra20 din étant situé en un point X O dans le "masque" et en un point X 1 dans l'image, une région intéressante qui comporte les deux points donne un décalage du centre de gravité de (XlX 0)/2 quand le décalage du point est réellement (Xl-X 0) La définition correcte du décalage exige une zone intéressante 25 plus grande qui comporte le gradin opposé Une telle grande zone intéressante englobera des organes entiers et donc des données qui se seront réellement modifiées, par exemple par arrivée de matière à contraste La correction du défaut de
cadrage sera par conséquent incorrecte.
On ne connaît donc pas actuellement, d'après la technique antérieure, de procédé ou dispositif précis et pratique pour reconnaître la grandeur du décalage d'image et par conséquent pas de mode protocolaire fiable de correction du défaut de
cadrage provoqué par les décalages de l'image.
Par conséquent, la présente invention a pour but de proposer des moyens et procédés pour la détermination vectorielle du décalage d'image entre des images à comparer l'une
à l'autre et/ou à soustraire l'une de l'autre.
Suivant un aspect large de l'invention,-il est prévu un procédé pour déterminer le déplacement de l'objet apparu entre une première et seconde imagesde cet objet, ce procédé comprenant les opérations de: a) localisation d'un point sur un élément d'information normalement non changeant, dans chacune desdites images, b) détermination de différences sur l'emplacement du point dans chacune desdites images pour l'obtention d'une valeur vectorielle du déplacement; et
c) utilisation de la valeur vectorielle.
Plus particulièrement, le procédé de détermination de déplacement indésirable apparaissant entre de susdites première et seconde images séparées temporellement comporte les opérations consistant à: a) soustraire une première desdites images séparées tem15 porellement d'une seconde desdites images séparées temporellement pour obtenir une image de soustraction; b) choisir sur l'image de soustraction une région intéressante qui comporte un artefact de déplacement, mais non un changement réel; c) utiliser ladite région intéressante sur lesdites première et seconde images; d) obtenir les amplitudes des gradients de ladite région intéressante des première et seconde images; e) porter au carré lesdites amplitudes; f) déterminer les centres de gravité desdites amplitudes portées au carré; et g) déterminer la valeur du vecteur s'étendant entre les centres de gravité desdites première et seconde images, cette
valeur vectoreille définissant la grandeur et le sens du dé30 placement apparu entre les images séparées temporellement.
Une caractéristique de l'invention réside dans la combinaison de plus d'une image pour l'obtention de l'une ou de
chacune desdites première et seconde images.
Une autre caractéristique de l'invention réside dans la 35 réduction de l'effet du bruit d'image opérée de préférence entre la mise au carré de gradients et la détermination des centres de gravité Ceci est de préférence effectué au moyen
de techniques de coupure de données.
Une autre caractéristique importante de l'invention réside dans le recadrage desdites première et seconde images opéré
à l'aide de l'information de valeur vectorielle.
Un autre aspect encore de l'invention réside dans un système original de mise en oeuvre du procédé inventif sus-exposé.
On comprendra mieux les buts et caractéristiques susindiqués de l'invention, ainsi que d'autres, d'après la description donnée ci-dessous d'un mode de mise en oeuvre de 1 '
invention en se référant au dessin annexé, dont la figure unique est un schéma symbolique d'un système pour la mise en 10 oeuvre du principe de l'invention.
Le système 11 représenté comporte, indiquée sous forme de rectangle 12, la section de collecte d'images bien connues
du système.
Cette section fournit les données de la série d'images 15 réduites en éléments indiquées en 13 sous forme de matrices, telles que la matrice 14, formées de rangées et de colonnes de données de densité Les rangées et colonnes des matrices correspondent aux coordonnées orthogonales imaginaires x et y
du renforçateur d'image (non représenté) qui fait partie de 20 la section de collecte 12 du système 11.
Il est prévu des moyens de soustraction d'images au fin de rehaussement; plus particulièrement, on a représenté des unités de lecture 16 et 17 destinées à lire les données d'image des matrices pour permettre l'exécution d'opérations sur 25 ces données L'unité de lecture 16 est représentée couplée à l'unité de soustraction 18 par l'intermédiaire d'un moyen commutateur 19 Pareillement, l'unité de lecture 17 fournit les données de densité d'une ou de plusieurs matrices à un opérateur 21 L'opérateur 21 combine certaines matrices, selon un 30 mode de mise en oeuvre, pour former des données d'image "de
masque" dans la matrice 22.
On notera que la présente invention n'est pas limitée à la soustraction d'images "de masque" mais comporte aussi les systèmes de soustraction"TID" dans lesquels la quantité à soustraire ou soustracteur est composée d'une multiplicité d' images En fait, le cadre de l'invention est assez large pour englober des quantités à soustraire et/ou soustracteurs composés même d'images uniques Le cadre de l'invention englobe aussi la comparaison d'image en général, dont la soustraction
est un exemple particulier.
Le signal de sortie de l'unité de soustraction 18 est constitué par les données d'images présentes dans les matrices 23, qui découlent de la soustraction Les données de densité numériques des matrices 23 sont converties en signal vidéo dans un convertisseur numérique/analogique 24 pour affichage sur l'unité à tube cathodique 26 d'une manière bien connue du technicien. L'image présentée sur l'unité 26 est normalement la dif10 férence des images des matrices 23 L'image affichée peut bien entendu être l'une quelconque des images 14 si le masque 22
n'est pas transféré à l'entrée de l'unité de soustraction 18.
Quoi qu'il en soit, l'image affichée selon l'invention sert à déterminer une région intéressante comportant une partie du 15 corps qui ne se modifie pas dans le temps Par exemple, tel est le cas pour un os, alors qu'un vaisseau sanguin se modifie à mesure que la matière à contraste injectée arrive dans la région intéressante Si l'affichage découle d'une soustraction d'image, on peut choisir de centrer la région intéressante sur 20 un artefact de déplacement La région intéressante choisie est
notée dans l'unité de commande 27.
La même région intéressante sert à déterminer la grandeur
du défaut de cadrage des images séparées temporellement dû au déplacement du sujet, tel qu'indiqué par les unités de sélec25 tion de région intéressante 28 et 29.
Des moyens sont prévus pour agir sur les images servant au processus de soustraction afin de déterminer la grandeur du défaut de cadrage dû au déplacement Plus particulièrement, le moyen commutateur 19 peut agir pour envoyer l'image, par exemple matrice 14 du groupe de matrices 13, à travers le sélecteur de région intéressante 29, à l'unité de détermination d'amplitude de gradient de densité 31, qui fournit des données pour mise en mémoire dans une matrice d'amplitude de gradient de densité 14 a Le vecteur de gradient de densité est la déri35 vée de la densité de la région intéressante en fonction des coordonnées orthogonales, c'est-à-dire: V 7 ( / X; / y) o D est la densité des parties du corps telle que déterminée par l'intensité des rayons X traversant le corps; et x et y sont les coordonnées à la fois du renforçateur d'image et des emplacements des données de densité dans les matrices L'am5 plitude de gradient portée au carré est donc: Dû = ( /%X) + ( /y)D Pareillement, un commutateur 22 agit aussi, sous la commande de l'unité 27, pour transférer les données "de masque" à travers le sélecteur de région intéressante 28 à l'unité de 10 détermination d'amplitude de gradient de densité 33, laquelle fournit des données qui sont emmagasinées dans une matrice
d'amplitude de gradient de densité "de masque" 22 a.
Il est possible, mais non nécessaire, de prévoir selon le mode de mise en oeuvre décrit des moyens pour filtrer les 15 images avant détermination des gradients Plus particulièrement, comme représenté sur la figure, on utilise des filtres 34 et 36 pour filtrer respectivement l'image de masque et l'image 14 Les filtres assurent essentiellement une réduction
de la teneur en bruit de l'image.
Des moyens sont prévus pour traiter la partie de l'image servant à déterminer la grandeur et la direction de déplacement indésirable du sujet Plus particulièrement, les gradients d'amplitude de densité des matrices 14 a et 22 a sont portés au carré par des unités de mise au carré 37 et 38 res25 pectivement Les gradients d'amplitude de densité mis au carré sont mis en mémoire dans des matrices 14 b et 22 b respectivement affectées aux données d'image et de masque On notera que bien qu'on ait décrit et représenté des matrices individuelles pour les gradients d'amplitude de densité et pour ces mêmes 30 gradients portés au carré, la même matrice peut servir pour
les deux types de données.
Si l'on porte les fonctions de gradient au carré, c'est pour faire en sorte que les valeurs de gradient servant à déterminer les centres de gravité aient le même signe dans 35 toute la région intéressante On pourrait, sans sortir du cadre de l'invention,assurer ce résultat par d'autres méthodes, par exemple détermination de la valeur absolue du gradient, et
2550037.
l'expression "mise au carré des valeurs de gradient" telle qu'utilisée ici englobe par définition ces autres méthodes.
Des moyens sont prévus pour localiser un point représentatif déterminé par les gradients portés au carré Plus par5 ticulièrement, des unités de détermination de centre de gravité 39 et 41 sont prévues pour agir sur les données "de masque" présentes dans la matrice 22 b et sur les données d' image présentes dans la matrice 14 b Les centres de gravité sont bien entendu des points et une "droite" allant de l'un 10 des centres de gravité à l'autre est une valeur vectorielle parce que les centres de gravité sont des points définis liés
à des valeurs de coordonnées.
On utilise de préférence d'autres moyens de réduction de bruit tels que filtres de coupure (d'établissement de niveau 15 de seuil faible) des données Dans une réalisation préférée, toutes les valeurs de gradient inférieures à une certaine valeur fixe sont ramenées à zéro avant calcul des centres de gravité Cette méthode a un certain nombre d'effets En premier lieu, elle réduit l'effet sur le résultat du bruit pré20 sent dans les images, puisque les valeurs des gradients de bruit sont faibles par rapport à celles des artefacts (généralement os) En second lieu, on peut choisir une valeur de seuil telle que l'effet des gradients artériels soit aussi
éliminé, ce qui facilite la localisation de la région intéres25 sante.
Une dimension de région intéressante d'environ 30 x 30 éléments d'image pour 512 x 512 images semble donner de bons résultats bien que des valeurs dimensionnelles allant de 20 à
64 aient aussi donné de bons résultats.
Des moyens sont prévus pour déterminer la valeur vectorielle reliant les deux centres de gravité intéressants Plus particulièrement, une unité de soustraction 42 détermine la relation de valeurs vectorielles x, y entre les centres de
gravité déterminés par les unités 39 et 41.
Des moyens sont prévus pour décaler soit l'image originale soit le masque original d'une quantité vectorielle déterminée par la valeur vectorielle du signal de sortie de l'unité 42 Plus particulièrement, le signal de sortie de l'unité 42 décale soit l'image originale, soit le masque original présent sur l'entrée 44 ou 46 de l'unité de soustraction 18 en réponse
à l'action du commutateur 43, commandé par l'unité 27.
La donnée d'image résultante est présente dans une matrice corrigée de la série de matrices 23 Lors de l'affichage sur l'unité 26 elle est sensiblement exempte d'artefact de déplacement, au moins dans la région intéressante. Ainsi, l'invention fournit un système et un procédé pour la quasi-suppression des difficultés jusqu'ici omniprésentes soulevées par les défauts de cadrage La solution proposée
est relativement peu coûteuse, facile à appliquer et efficace.
Bien que la description ci-dessus concerne des réalisations particulières, on conçoit que celles-ci sont choisies
à titre explicatif et dépourvues de tout caractère limitatif.
2550037.
Claims (28)
1 Procédé de correction d'artefacts engendrés par des défauts de cadrage dus à des emplacements de l'objet entre différentes images du même objet, caractérisé en ce qu'il comprend les opérations de: a) obtention de données pour une première et une seconde images du même objet, qui peuvent comporter des parties normalement changeantes et des parties normalement non changeantes; b) sélection d'un point sur un élément d'information nor10 malement non changeant et localisation de ce point dans chacune desdites images; c) détermination des différences entre les emplacements du point dans chacune desdites images pour l'obtention d'une valeur vectorielle du déplacement provoquant le défaut de 15 cadrage; et
d) utilisation de ladite valeur vectorielle.
2 Procédé selon la revendication 1, caractérisé en ce
que lesdites première et seconde imagessont distinguées temporellement.
3 Procédé selon la revendication 1, caractérisé en ce que lesdites première et seconde images sont distinguées par
voie énergétique.
4 Procédé selon la revendication 1, caractérisé en ce qu'on utilise la valeur vectorielle déterminée pour minimiser 25 les artefacts engendrés par le déplacement de l'objet lors de
la comparaison desdites première et seconde images.
Procédé selon la revendication 1, caractérisé en ce qu'il comporte l'opération de déplacement de l'une desdites
première et seconde images dans une mesure et dans une direc30 tion déterminées par ladite valeur vectorielle, en vue de minimiser le défaut de cadrage des images.
6 Procédé selon la revendication 5, caractérisé en ce que l'opération de localisation des points comporte les opérations de: a) sélection d'une région intéressante de façon qu'elle englobe un élément d'information normalement non changeant de chacune desdites images, et b) détermination de l'emplacement du point dans la région
intéressante de chacune desdites images.
2550037.
7 Procédé selon la revendication 6, caractérisé en ce que l'opération de localisation de point comporte les opérations de: a) détermination des amplitudes du gradient de densité de la région intéressante desdites première et seconde images, b) transformation desdites amplitudes des gradients de densité de la région intéressante desdites première et seconde images en des quantités qui sont toutes positives, c) détermination des centres de gravités desdites quanti10 tés, ce qui fournit des emplacements de point de coordonnées au sein de la région intéressante, et d) soustraction des coordonnées des centres de gravités pour l'obtention de la valeur du vecteur s'étendant entre les points. 8 Procédé selon la revendication 7, caractérisé en ce
que l'opération de transformation desdites amplitudes en quantités positives comporte l'opération de mise au carré des amplitudes.
9 Procédé selon la revendication 7, caractérisé en ce 20 qu'il comporte l'opération de déplacement des images l'une
par rapport à l'autre au moyen de la valeur vectorielle déterminée.
Procédé selon la revendication 6, caractérisé en ce que l'opération de sélection d'une région intéressante comporte 25 les opérations de: a) comparaison de ladite première image à ladite seconde image pour l'obtention d'une troisième image comprenant des parties normalement changeante de l'objet et des artefacts de déplacement, b) localisation d'une région intéressante des artefacts de déplacement au voisinage de l'une des parties normalement changeantes, et
c) utilisation de la même région intéressante sur lesdites première et seconde images.
11 Procédé selon la revendication 1, caractérisé en ce
qu'il comporte l'opération de filtrage desdites images.
12 Procédé selon la revendication 11, caractérisé en ce qu'on opère le filtrage en filtrant les images pour réduire le bruit.
2550037.
13 Procédé selon la revendication 1, caractérisé en ce que lesdites parties normalement changeantes de l'objet comportent des sections vasculaires dans lesquelles de la matière
à contraste est en cours de pénétration.
14 Procédé selon la revendication 1, caractérisé en ce
que lesdites parties normalement non changeantes sont des os.
Procédé selon la revendication 1, caractérisé en ce
que ladite première image ou ladite seconde image est constituée par une combinaison d'images.
16 Procédé selon la revendication 1, caractérisé en ce que l'opération d'utilisation de la valeur vectorielle comporte l'utilisation de la valeur vectorielle pour re-cadrer lesdites première et seconde images afin de minimiser les artefacts engendrés par le déplacement de l'objet dans des images 15 obtenues par addition desdites première et seconde images du
même objet.
17 Procédé selon la revendication 1, caractérisé en ce que l'opération d'utilisation de la valeur vectorielle comporte l'utilisation de la valeur vectorielle pour minimiser les artefacts engendrés par déplacement de l'objet dans des images obtenues par fusion desdites première et seconde images du
même objet.
18 Procédé selon la revendication 1, caractérisé en ce que l'opération d'utilisation de la valeur vectorielle compor25 te l'utilisation de la valeur vectorielle pour minimiser les artefacts engendrés par le déplacement de l'objet dans des images obtenues par soustraction desdites première et seconde images. 19 Système de correction des artefacts engendrés par des 30 déplacements de l'objet dus à des défauts de cadrage entre images différentes du même objet, caractérisé en ce qu'il comprend: des moyens ( 12, 14) pour l'obtention de données pour une première et une seconde images du même objet, qui peuvent 35 comporter des éléments d'information normalement changeants et normalement non changeants; des moyens pour la sélection d'un point sur un élément d'information normalement non changeant et des moyens ( 39,41) pour la localisation de ce point dans chacune desdites images,
2550037.
des moyens ( 42) pour déterminer des différences entre les emplacements du point dans chacune desdites images afin d'obtenir une valeur vectorielle du déplacement provoquant le défaut de cadrage, et des moyens pour utiliser la valeur vectorielle. Système selon la revendication 19, caractérisé en ce
que lesdites première et seconde images sont distinguées temporellement.
21 Système selon la revendication 19, caractérisé en ce 10 que lesdites première et seconde images sont distinguées par
voie énergétique.
22 Système selon la revendication 19, caractérisé en ce que lesdits moyens d'utilisation de la valeur vectorielle comprennent des moyens pour minimiser les artefacts engendrés par le déplacement de l'objet lors de la comparaison desdites
première et seconde images.
23 Système selon la revendication 19, caractérisé en ce qu'il comporte: des moyens pour déplacer l'une desdites images dans une mesure et dans une direction déterminées par ladite valeur vectorielle pour minimiser le défaut de cadrage entre lesdites images. 24 Système selon la revendication 19, caractérisé en ce que les moyens de localisation des points comprennent: des moyens ( 28, 29) pour sélecter une région intéressante de façon qu'elle englobe un élément d'information normalement non changeant de chacune desdites images, et des moyens pour déterminer l'emplacement d'un point
dans la région intéressante de chaque susdite image.
25 Système selon la revendication 19, caractérisé en ce qu'il comporte: des moyens ( 31, 33) pour déterminer les amplitudes des gradients de densité de la région intéressante desdites première et seconde images, des moyens ( 37, 38) pour transformer lesdites amplitudes des gradients de densité en des quantités qui soient positives, des moyens ( 39, 41) pour déterminer les emplacements de
coordonnées des centres de gravité desdites quantités positi-
2550037.
ves au sein des régions intéressantes, et des moyens ( 42) pour soustraire lesdites coordonnées afin de fournir les valeurs de vecteur s'étendant entre les
points de centre de gravité.
26 Système selon la revendication 25, caractérisé en ce que lesdits moyens de transformation desdites amplitudes en quantités positives comportent des moyens de mise au carré des
amplitudes ( 37, 38).
27 Système selon la revendication 25, caractérisé en ce 10 qu'il comporte des moyens ( 42, 43) pour déplacer les images l'une par rapport à l'autre à l'aide de la valeur vectorielle déterminée. 28 Système selon la revendication 24, caractérisé en ce que les moyens de sélection d'une zone intéressante comportent: 15 des moyens ( 18) pour soustraire ladite première image de ladite seconde image pour l'obtention d'une image de soustraction, ladite image de soustraction comprenant des éléments d'information normalement changeants, des éléments d'information normalement non changeants et des artefacts de déplace20 nment, des moyens pour localiser une zone intéressante sur l'un desdits artefacts de mouvement au voisinage de l'un desdits éléments d'information normalement changeants, et
des moyens pour utiliser la même région intéressante 25 sur lesdites première et seconde images.
29 Système selon la revendication 19, caractérisé en ce
qu'il comporte des moyens de filtrage ( 34, 35) des dites images.
Système selon la revendication 29, caractérisé en ce 30 que lesdits moyens de filtrage comprennent des moyens de filtrage ( 34, 35) pour l'élimination par filtrage du bruit.
31 Système selon la revendication 19, caractérisé en ce
que lesdits éléments d'information normalement changeants comportent des sections vasculaires dans lesquelles de la matière 35 à contraste est en cours de pénétration.
32 Système selon la revendication 19, caractérisé en ce que lesdits éléments d'information normalement non changeants
sont des os.
33 Système selon la revendication 19, caractérisé en ce
que ladite première image ou ladite seconde image est constituée par une combinaison d'images.
34 Système selon la revendication 19, caractérisé en ce que lesdits moyens d'utilisation de ladite valeur vectorielle comportent: des moyens pour minimiser les artefacts engendrés par déplacement dudit objet dans des images obtenues par addition
desdites première et seconde images.
Système selon la revendication 33, caractérisé en ce 10 que lesdits moyens d'utilisation de ladite valeur vectorielle comportent: des moyens pour utiliser ladite valeur vectorielle afin de minimiser lesdits artefacts engendrés par déplacement
de l'objet lors de la fusion desdites première et seconde 15 images.
36 Système selon la revendication 33, caractérisé en ce que lesdits moyens d'utilisation desdites valeurs vectorielles comportent: des moyens pour utiliser ladite valeur vectorielle afin 20 de minimiser lesdits artefacts engendrés par déplacement de 1 ' objet lors de la soustraction desdites première et seconde images. 37 Procédé selon la revendication 1, caractérisé en ce que l'opération de localisation des points comporte les opéra25 tions de: a) obtention de l'amplitude des gradients sur des parties des images qui comportent des artefacts, b) transformation desdites amplitudes des gradients de densités en des quantités qui sont toutes positives, c) détermination des centres de gravité des amplitudes positives. 38 Procédé selon la revendication 37, caractérisé en ce
qu'il comporte encore une opération de réduction de bruit.
39 Procédé selon la revendication 38, caractérisé en ce 35 que ladite opération de réduction de bruit comporte la mise à
zéro des valeurs relativement faibles du gradient.
Système selon la revendication 19, caractérisé en ce qu'il comporte:
a) des moyens pour obtenir l'amplitude des gradients pré-
sents dans les parties des images qui comportent des artefatcs, b) des moyens pour transformer lesdites amplitudes des gradients de densité en des quantités qui sont toutes positives, c) des moyens pour réduire l'effet du bruit d'image, d) des moyens pour déterminer les centres de gravité des
amplitudes positives.
41 Système selon la revendication 40, caractérisé en ce
que lesdits moyens de réduction de bruit comportent un moyen 10 d'établissement de seuil bas.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IL69327A IL69327A (en) | 1983-07-26 | 1983-07-26 | Automatic misregistration correction |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2550037A1 true FR2550037A1 (fr) | 1985-02-01 |
FR2550037B1 FR2550037B1 (fr) | 1994-07-08 |
Family
ID=11054429
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR8411456A Expired - Lifetime FR2550037B1 (fr) | 1983-07-26 | 1984-07-19 | Correction de defauts de cadrage automatique |
Country Status (6)
Country | Link |
---|---|
US (1) | US4685146A (fr) |
JP (1) | JPS60137349A (fr) |
DE (1) | DE3426933C2 (fr) |
FR (1) | FR2550037B1 (fr) |
IL (1) | IL69327A (fr) |
NL (1) | NL193506C (fr) |
Families Citing this family (40)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0433841Y2 (fr) * | 1985-09-04 | 1992-08-13 | ||
US4858128A (en) * | 1986-08-11 | 1989-08-15 | General Electric Company | View-to-view image correction for object motion |
JP2529949B2 (ja) * | 1986-08-12 | 1996-09-04 | 株式会社東芝 | 同期画像再構成装置 |
US4896966A (en) * | 1986-08-15 | 1990-01-30 | Hamilton-Thorn Research | Motility scanner and method |
US4937878A (en) * | 1988-08-08 | 1990-06-26 | Hughes Aircraft Company | Signal processing for autonomous acquisition of objects in cluttered background |
JPH02100583A (ja) * | 1988-10-07 | 1990-04-12 | Toshiba Corp | 画像処理方法およびその装置 |
US5034986A (en) * | 1989-03-01 | 1991-07-23 | Siemens Aktiengesellschaft | Method for detecting and tracking moving objects in a digital image sequence having a stationary background |
FR2645300B1 (fr) * | 1989-03-29 | 1994-09-09 | Gen Electric Cgr | Procede de recalage automatique d'images |
DE69032837T2 (de) * | 1989-09-22 | 1999-05-12 | Fuji Photo Film Co., Ltd., Minami-Ashigara, Kanagawa | Verfahren und Gerät zur Energiesubtraktionsverarbeitung, Verfahren und Gerät zur Superpositionsverarbeitung, und Gerät zur Strahlungsbildauslesung |
GB9001468D0 (en) * | 1990-01-23 | 1990-03-21 | Sarnoff David Res Center | Computing multiple motions within an image region |
JPH03263993A (ja) * | 1990-03-14 | 1991-11-25 | Hitachi Denshi Ltd | レジストレーション検出装置 |
US5214711A (en) * | 1990-08-24 | 1993-05-25 | Board Of Regents Of The University Of Oklahoma | Method and apparatus for detecting and quantifying motion of a body part |
CA2051939A1 (fr) * | 1990-10-02 | 1992-04-03 | Gary A. Ransford | Systeme de compression de donnees numeriques a calage et a differenciation |
US5150426A (en) * | 1990-11-20 | 1992-09-22 | Hughes Aircraft Company | Moving target detection method using two-frame subtraction and a two quadrant multiplier |
US5337231A (en) * | 1992-03-31 | 1994-08-09 | General Electric Company | View to view image correction for object motion with truncated data |
DE69331982T2 (de) * | 1992-11-27 | 2003-01-23 | Fuji Photo Film Co., Ltd. | Verfahren zur Lageanpassung von Röntgenbildern |
US5581638A (en) * | 1993-07-26 | 1996-12-03 | E-Systems, Inc. | Method for autonomous image registration |
US6084590A (en) * | 1997-04-07 | 2000-07-04 | Synapix, Inc. | Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage |
US6124864A (en) * | 1997-04-07 | 2000-09-26 | Synapix, Inc. | Adaptive modeling and segmentation of visual image streams |
US6160907A (en) * | 1997-04-07 | 2000-12-12 | Synapix, Inc. | Iterative three-dimensional process for creating finished media content |
DE19723369A1 (de) * | 1997-06-04 | 1998-12-10 | Bitex Gmbh | Verfahren zur visuellen Erkennung der Unterschiede zwischen zwei Bildinhalten |
US6266053B1 (en) | 1998-04-03 | 2001-07-24 | Synapix, Inc. | Time inheritance scene graph for representation of media content |
US6249285B1 (en) | 1998-04-06 | 2001-06-19 | Synapix, Inc. | Computer assisted mark-up and parameterization for scene analysis |
US6297825B1 (en) | 1998-04-06 | 2001-10-02 | Synapix, Inc. | Temporal smoothing of scene analysis data for image sequence generation |
US6795068B1 (en) * | 2000-07-21 | 2004-09-21 | Sony Computer Entertainment Inc. | Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program |
AU2001290608A1 (en) * | 2000-08-31 | 2002-03-13 | Rytec Corporation | Sensor and imaging system |
US7071914B1 (en) | 2000-09-01 | 2006-07-04 | Sony Computer Entertainment Inc. | User input device and method for interaction with graphic images |
JP4234311B2 (ja) * | 2000-09-19 | 2009-03-04 | 富士フイルム株式会社 | 画像の位置合わせ方法 |
US7262799B2 (en) * | 2000-10-25 | 2007-08-28 | Canon Kabushiki Kaisha | Image sensing apparatus and its control method, control program, and storage medium |
AU2003270386A1 (en) | 2002-09-06 | 2004-03-29 | Rytec Corporation | Signal intensity range transformation apparatus and method |
US8133115B2 (en) | 2003-10-22 | 2012-03-13 | Sony Computer Entertainment America Llc | System and method for recording and displaying a graphical path in a video game |
US20060071933A1 (en) | 2004-10-06 | 2006-04-06 | Sony Computer Entertainment Inc. | Application binary interface for multi-pass shaders |
US7653264B2 (en) | 2005-03-04 | 2010-01-26 | The Regents Of The University Of Michigan | Method of determining alignment of images in high dimensional feature space |
US7636126B2 (en) | 2005-06-22 | 2009-12-22 | Sony Computer Entertainment Inc. | Delay matching in audio/video systems |
US7880746B2 (en) | 2006-05-04 | 2011-02-01 | Sony Computer Entertainment Inc. | Bandwidth management through lighting control of a user environment via a display device |
US7965859B2 (en) | 2006-05-04 | 2011-06-21 | Sony Computer Entertainment Inc. | Lighting control of a user environment via a display device |
US10786736B2 (en) | 2010-05-11 | 2020-09-29 | Sony Interactive Entertainment LLC | Placement of user information in a game space |
US9342817B2 (en) | 2011-07-07 | 2016-05-17 | Sony Interactive Entertainment LLC | Auto-creating groups for sharing photos |
JP5852415B2 (ja) * | 2011-11-08 | 2016-02-03 | 浜松ホトニクス株式会社 | 非破壊検査装置及び当該装置での輝度データの補正方法 |
US11188733B2 (en) | 2016-10-21 | 2021-11-30 | Nec Corporation | Synthesizing apparatus, synthesizing method and program |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3905045A (en) * | 1973-06-29 | 1975-09-09 | Control Data Corp | Apparatus for image processing |
US4217641A (en) * | 1978-04-28 | 1980-08-12 | U.S. Philips Corporation | Correction for polychromatic X-ray distortion in CT images |
JPS5942836B2 (ja) * | 1978-07-24 | 1984-10-17 | シチズン時計株式会社 | アラ−ム時計の構造 |
US4395699A (en) * | 1979-09-10 | 1983-07-26 | Environmental Research Institute Of Michigan | Method and apparatus for pattern recognition and detection |
US4333145A (en) * | 1979-11-29 | 1982-06-01 | Technicare Corporation | Method of high resolution partial area scan involving concentrated high density material outside the partial area |
US4335427A (en) * | 1980-04-21 | 1982-06-15 | Technicare Corporation | Method of selecting a preferred difference image |
DE3043703C2 (de) * | 1980-11-19 | 1983-01-20 | Siemens AG, 1000 Berlin und 8000 München | Röntgendiagnostikeinrichtung zur Erstellung von Subtraktionsbildern |
US4437161A (en) * | 1981-06-29 | 1984-03-13 | Siemens Gammasonics Inc. | Medical imaging apparatus |
US4430749A (en) * | 1981-06-30 | 1984-02-07 | Siemens Gammasonics, Inc. | Medical imaging apparatus and method for furnishing difference images |
JPS58130030A (ja) * | 1981-10-05 | 1983-08-03 | 工業技術院長 | X線ディジタル画像処理装置 |
JPS58216038A (ja) * | 1982-06-08 | 1983-12-15 | 日本電気株式会社 | デジタルサブトラクシヨンアンギオグラフ装置 |
US4463375A (en) * | 1982-09-07 | 1984-07-31 | The Board Of Trustees Of The Leland Standford Junior University | Multiple-measurement noise-reducing system |
US4590607A (en) * | 1982-09-17 | 1986-05-20 | Environmental Research Institute Of Michigan | Image correspondence techniques using serial neighborhood processing |
US4550371A (en) * | 1982-09-27 | 1985-10-29 | General Electric Company | Method and apparatus for compensating CT images for truncated projections |
JPS5961386A (ja) * | 1982-09-30 | 1984-04-07 | Toshiba Corp | 画像修正装置 |
US4551800A (en) * | 1982-11-26 | 1985-11-05 | General Electric Company | Integrated hybrid image remasking in a subtraction angiography method |
JPS59137942A (ja) * | 1983-01-28 | 1984-08-08 | Hitachi Ltd | 画像位置合わせ方式 |
-
1983
- 1983-07-26 IL IL69327A patent/IL69327A/xx unknown
-
1984
- 1984-05-29 US US06/614,840 patent/US4685146A/en not_active Expired - Lifetime
- 1984-07-19 FR FR8411456A patent/FR2550037B1/fr not_active Expired - Lifetime
- 1984-07-21 DE DE3426933A patent/DE3426933C2/de not_active Expired - Lifetime
- 1984-07-23 NL NL8402330A patent/NL193506C/nl not_active IP Right Cessation
- 1984-07-26 JP JP59157109A patent/JPS60137349A/ja active Granted
Non-Patent Citations (2)
Title |
---|
IEEE SPECTRUM, vol. 16, no. 4, avril 1979, pages 38-49, IEEE, New York, US; H.C. ANDREWS: "Digital image processing" * |
PROCEEDINGS OF THE IMACS (AICA)-GI SYMPOSIUM, Munich, 14-16 mars 1977, pages 247-256, North-Holland Publishing Co., Amsterdam, NL; A.K. SINGHANIA et al.: "Associative processor application to change detection" * |
Also Published As
Publication number | Publication date |
---|---|
DE3426933C2 (de) | 1995-03-16 |
JPS60137349A (ja) | 1985-07-20 |
NL193506C (nl) | 1999-12-03 |
IL69327A (en) | 1986-11-30 |
DE3426933A1 (de) | 1985-05-09 |
FR2550037B1 (fr) | 1994-07-08 |
IL69327A0 (en) | 1983-11-30 |
JPH0466148B2 (fr) | 1992-10-22 |
US4685146A (en) | 1987-08-04 |
NL8402330A (nl) | 1985-02-18 |
NL193506B (nl) | 1999-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2550037A1 (fr) | Correction de defauts de cadrage automatique | |
EP1583356B1 (fr) | Dispositif de traitement d'images et programme de traitement d'images | |
EP0113605B1 (fr) | Procédé et appareil pour former une image radiologique d'un corps | |
JP2003078812A (ja) | デジタル画像における動きによるぼけを低減する方法 | |
US20100194870A1 (en) | Ultra-compact aperture controlled depth from defocus range sensor | |
FR2505168A1 (fr) | Appareil et procede pour produire une image projetee d'une matiere de contraste administree dans une region du corps | |
EP3114831B1 (fr) | Débruitage vidéo optimisé pour système multicapteur hétérogène | |
US10298949B2 (en) | Method and apparatus for producing a video stream | |
EP0114559B1 (fr) | Procédé de correction permanente de couleur applicable à la prise de vues vidéo et système mettant en oeuvre ce procédé | |
FR2796740A1 (fr) | Procede et systeme de gestion de la saturation sur une image radiographique numerisee | |
FR2884340A1 (fr) | Procede et dispositif de traitement d'images en angiographie soustraite | |
EP0055655B1 (fr) | Dispositif et procédé pour visualiser un corps éclairé par une source de radiations réglable | |
EP0101336B1 (fr) | Appareil de génération d'un signal vidéo traité, à contraste amélioré pour radiologie, et procédé pour traiter un tel signal | |
JP2007524943A (ja) | 照明アーチファクトの画像減算 | |
JP2016076851A (ja) | 撮像装置、画像処理方法、及びプログラム | |
JPH1071138A (ja) | 放射線画像処理方法および装置 | |
EP0542623B1 (fr) | Procédé et dispositif d'acquisition et de traitement d'images radioscopiques | |
EP0092276B1 (fr) | Dispositif d'affichage à balayage récurrent entrelacé de type télévision et oscilloscope numérique comprenant un tel dispositif | |
EP0415494B1 (fr) | Procédé et dispositif de traitement d'images à estimation de mouvement améliorée | |
KR20180071532A (ko) | 지능형 고해상도 내시경 영상을 획득하여 저장하는 영상 제공 방법 및 장치 | |
JP2009088933A (ja) | 画像記録装置、画像補正装置及び撮像装置 | |
JP2013127804A (ja) | 画像処理プログラム、画像処理装置、および画像処理方法 | |
US20230269472A1 (en) | Image processing apparatus, image capturing apparatus, control method for controlling image processing apparatus, and storage medium | |
Juillard et al. | Astronomical high-contrast imaging of circumstellar disks: MUSTARD inverse-problem versus PCA-based methods | |
Florea et al. | Dynamic range enhancement in digital camera acquisition of prostheses hip Xrays |