FR2550037A1 - Correction de defauts de cadrage automatique - Google Patents

Correction de defauts de cadrage automatique Download PDF

Info

Publication number
FR2550037A1
FR2550037A1 FR8411456A FR8411456A FR2550037A1 FR 2550037 A1 FR2550037 A1 FR 2550037A1 FR 8411456 A FR8411456 A FR 8411456A FR 8411456 A FR8411456 A FR 8411456A FR 2550037 A1 FR2550037 A1 FR 2550037A1
Authority
FR
France
Prior art keywords
images
vector value
image
normally
displacement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR8411456A
Other languages
English (en)
Other versions
FR2550037B1 (fr
Inventor
Yair Shimoni
Paul Fenster
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elscint Ltd
Original Assignee
Elscint Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=11054429&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=FR2550037(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Elscint Ltd filed Critical Elscint Ltd
Publication of FR2550037A1 publication Critical patent/FR2550037A1/fr
Application granted granted Critical
Publication of FR2550037B1 publication Critical patent/FR2550037B1/fr
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

PROCEDE ET SYSTEME POUR DETERMINER LE DEPLACEMENT D'UN OBJET ENTRE DIFFERENTES IMAGES DU MEME OBJET. ON DEFINIT LE DEPLACEMENT PAR UNE VALEUR VECTORIELLE ET L'ON UTILISE LA VALEUR VECTORIELLE POUR CORRIGER DES DEFAUTS DE CADRAGE ENTRE DIFFERENTES IMAGES.

Description

255 OO(É/<"
La présente invention concerne un rehaussement d'image par comparaison et/ou des techniques et du matériel de cadrage automatique d'image destinés à assurer un cadrage valable des images à comparer et/ou à permettre l'obtention d'un rehaussement de l'image avec un minimum d'artefacts. De nombreux procédés de rehaussement d'image ont recours à des comparaisons d'images lors desquelles on compare deux ou plusieurs images du même objet Des exemples de techniques de comparaison sous la soustraction, la fusion et l'addition. 10 La technique de soustraction d'image est notamment utilisée quand des caractéristiques en cours de modifications ou modifiées présentent de l'intérêt, comme dans certains modes de diagnostic médical par l'image, par exemple fluorographie numérique Il existe deux grands modes de soustraction en vogue: 15 temporel et énergétique Des deux, c'est la soustraction temporelle qui est de loin la plus populaire dans les applications médicales tandis qu'on utilise davantage la comparaison énergétique à la surveillance des terres et des récoltes Les deux modes de soustraction obligent à centrer les images comparées. 20 La soustraction temporelle est généralement opérée par méthodes dites "au masque" ou "TID" Dans la méthode "de masque", une image antérieure sélectée est soustraite d'images ultérieures Dans la méthode "TID", des images sélectées d'une série d'images antérieures sont soustraites d'images sélectées 25 d'une série d'images ultérieures Dans les deux cas, il est clair que les images soumises à la soustraction doivent être
cadrées pour qu'on obtienne des résultats exempts d'artefacts.
En fluorographie numérique par exemple, le problème du défaut de cadrage est notamment aggravé par les mouvements du 30 sujet entre la formation d'image "de masque" et les images suivantes par exemple La séquence de formation d'image en
fluorographie numérique prend approximativement 15 secondes.
Bien qu'on ait donné consigne aux sujets de retenir leur souffle et de ne pas avaler pendant ce laps de temps, ils violent 35 souvent la consigne, ce dont découlent des déplacements et un
mauvais cadrage.
Les méthodes dont on dispose actuellement pour le recadrage, c'est-à-dire pour la correction des défauts de cadrage, procèdent le plus souvent soit par reconnaissance et com-
paraison des bords, soit par reconnaissance et comparaison de points Les bords sont relativement faciles à reconnaître au moyen de différences ou de dérivées de quelque sorte Toutefois, les déplacements parallèles aux bords sont difficiles à discerner.
Les points sont relativement difficiles à reconnaître.
Les points maximaux ou minimaux sont situés dans des régions à gradients moyens faibles Le "bruit" local tend aussi à nuire gravement à la linéarité du système et déplace donc le
point mesuré de son emplacement réel à un emplacement apparent.
On peut avoir recours à des filtres passe-bas pour réduire le niveau de bruit mais ces filtres réduisent aussi les dérivées et ajoutent ainsi une incertitude quant à l'emplacement réel
du point.
Les points "globaux", par exemple centre de gravité des données présentes dans quelque région intéressante, dépendent
de la définition de la région intéressante et ne définissent donc pas assez nettement les points à utiliser au re-cadrage.
Par exemple, si la donnée est une fonction de gradin, le gra20 din étant situé en un point X O dans le "masque" et en un point X 1 dans l'image, une région intéressante qui comporte les deux points donne un décalage du centre de gravité de (XlX 0)/2 quand le décalage du point est réellement (Xl-X 0) La définition correcte du décalage exige une zone intéressante 25 plus grande qui comporte le gradin opposé Une telle grande zone intéressante englobera des organes entiers et donc des données qui se seront réellement modifiées, par exemple par arrivée de matière à contraste La correction du défaut de
cadrage sera par conséquent incorrecte.
On ne connaît donc pas actuellement, d'après la technique antérieure, de procédé ou dispositif précis et pratique pour reconnaître la grandeur du décalage d'image et par conséquent pas de mode protocolaire fiable de correction du défaut de
cadrage provoqué par les décalages de l'image.
Par conséquent, la présente invention a pour but de proposer des moyens et procédés pour la détermination vectorielle du décalage d'image entre des images à comparer l'une
à l'autre et/ou à soustraire l'une de l'autre.
Suivant un aspect large de l'invention,-il est prévu un procédé pour déterminer le déplacement de l'objet apparu entre une première et seconde imagesde cet objet, ce procédé comprenant les opérations de: a) localisation d'un point sur un élément d'information normalement non changeant, dans chacune desdites images, b) détermination de différences sur l'emplacement du point dans chacune desdites images pour l'obtention d'une valeur vectorielle du déplacement; et
c) utilisation de la valeur vectorielle.
Plus particulièrement, le procédé de détermination de déplacement indésirable apparaissant entre de susdites première et seconde images séparées temporellement comporte les opérations consistant à: a) soustraire une première desdites images séparées tem15 porellement d'une seconde desdites images séparées temporellement pour obtenir une image de soustraction; b) choisir sur l'image de soustraction une région intéressante qui comporte un artefact de déplacement, mais non un changement réel; c) utiliser ladite région intéressante sur lesdites première et seconde images; d) obtenir les amplitudes des gradients de ladite région intéressante des première et seconde images; e) porter au carré lesdites amplitudes; f) déterminer les centres de gravité desdites amplitudes portées au carré; et g) déterminer la valeur du vecteur s'étendant entre les centres de gravité desdites première et seconde images, cette
valeur vectoreille définissant la grandeur et le sens du dé30 placement apparu entre les images séparées temporellement.
Une caractéristique de l'invention réside dans la combinaison de plus d'une image pour l'obtention de l'une ou de
chacune desdites première et seconde images.
Une autre caractéristique de l'invention réside dans la 35 réduction de l'effet du bruit d'image opérée de préférence entre la mise au carré de gradients et la détermination des centres de gravité Ceci est de préférence effectué au moyen
de techniques de coupure de données.
Une autre caractéristique importante de l'invention réside dans le recadrage desdites première et seconde images opéré
à l'aide de l'information de valeur vectorielle.
Un autre aspect encore de l'invention réside dans un système original de mise en oeuvre du procédé inventif sus-exposé.
On comprendra mieux les buts et caractéristiques susindiqués de l'invention, ainsi que d'autres, d'après la description donnée ci-dessous d'un mode de mise en oeuvre de 1 '
invention en se référant au dessin annexé, dont la figure unique est un schéma symbolique d'un système pour la mise en 10 oeuvre du principe de l'invention.
Le système 11 représenté comporte, indiquée sous forme de rectangle 12, la section de collecte d'images bien connues
du système.
Cette section fournit les données de la série d'images 15 réduites en éléments indiquées en 13 sous forme de matrices, telles que la matrice 14, formées de rangées et de colonnes de données de densité Les rangées et colonnes des matrices correspondent aux coordonnées orthogonales imaginaires x et y
du renforçateur d'image (non représenté) qui fait partie de 20 la section de collecte 12 du système 11.
Il est prévu des moyens de soustraction d'images au fin de rehaussement; plus particulièrement, on a représenté des unités de lecture 16 et 17 destinées à lire les données d'image des matrices pour permettre l'exécution d'opérations sur 25 ces données L'unité de lecture 16 est représentée couplée à l'unité de soustraction 18 par l'intermédiaire d'un moyen commutateur 19 Pareillement, l'unité de lecture 17 fournit les données de densité d'une ou de plusieurs matrices à un opérateur 21 L'opérateur 21 combine certaines matrices, selon un 30 mode de mise en oeuvre, pour former des données d'image "de
masque" dans la matrice 22.
On notera que la présente invention n'est pas limitée à la soustraction d'images "de masque" mais comporte aussi les systèmes de soustraction"TID" dans lesquels la quantité à soustraire ou soustracteur est composée d'une multiplicité d' images En fait, le cadre de l'invention est assez large pour englober des quantités à soustraire et/ou soustracteurs composés même d'images uniques Le cadre de l'invention englobe aussi la comparaison d'image en général, dont la soustraction
est un exemple particulier.
Le signal de sortie de l'unité de soustraction 18 est constitué par les données d'images présentes dans les matrices 23, qui découlent de la soustraction Les données de densité numériques des matrices 23 sont converties en signal vidéo dans un convertisseur numérique/analogique 24 pour affichage sur l'unité à tube cathodique 26 d'une manière bien connue du technicien. L'image présentée sur l'unité 26 est normalement la dif10 férence des images des matrices 23 L'image affichée peut bien entendu être l'une quelconque des images 14 si le masque 22
n'est pas transféré à l'entrée de l'unité de soustraction 18.
Quoi qu'il en soit, l'image affichée selon l'invention sert à déterminer une région intéressante comportant une partie du 15 corps qui ne se modifie pas dans le temps Par exemple, tel est le cas pour un os, alors qu'un vaisseau sanguin se modifie à mesure que la matière à contraste injectée arrive dans la région intéressante Si l'affichage découle d'une soustraction d'image, on peut choisir de centrer la région intéressante sur 20 un artefact de déplacement La région intéressante choisie est
notée dans l'unité de commande 27.
La même région intéressante sert à déterminer la grandeur
du défaut de cadrage des images séparées temporellement dû au déplacement du sujet, tel qu'indiqué par les unités de sélec25 tion de région intéressante 28 et 29.
Des moyens sont prévus pour agir sur les images servant au processus de soustraction afin de déterminer la grandeur du défaut de cadrage dû au déplacement Plus particulièrement, le moyen commutateur 19 peut agir pour envoyer l'image, par exemple matrice 14 du groupe de matrices 13, à travers le sélecteur de région intéressante 29, à l'unité de détermination d'amplitude de gradient de densité 31, qui fournit des données pour mise en mémoire dans une matrice d'amplitude de gradient de densité 14 a Le vecteur de gradient de densité est la déri35 vée de la densité de la région intéressante en fonction des coordonnées orthogonales, c'est-à-dire: V 7 ( / X; / y) o D est la densité des parties du corps telle que déterminée par l'intensité des rayons X traversant le corps; et x et y sont les coordonnées à la fois du renforçateur d'image et des emplacements des données de densité dans les matrices L'am5 plitude de gradient portée au carré est donc: Dû = ( /%X) + ( /y)D Pareillement, un commutateur 22 agit aussi, sous la commande de l'unité 27, pour transférer les données "de masque" à travers le sélecteur de région intéressante 28 à l'unité de 10 détermination d'amplitude de gradient de densité 33, laquelle fournit des données qui sont emmagasinées dans une matrice
d'amplitude de gradient de densité "de masque" 22 a.
Il est possible, mais non nécessaire, de prévoir selon le mode de mise en oeuvre décrit des moyens pour filtrer les 15 images avant détermination des gradients Plus particulièrement, comme représenté sur la figure, on utilise des filtres 34 et 36 pour filtrer respectivement l'image de masque et l'image 14 Les filtres assurent essentiellement une réduction
de la teneur en bruit de l'image.
Des moyens sont prévus pour traiter la partie de l'image servant à déterminer la grandeur et la direction de déplacement indésirable du sujet Plus particulièrement, les gradients d'amplitude de densité des matrices 14 a et 22 a sont portés au carré par des unités de mise au carré 37 et 38 res25 pectivement Les gradients d'amplitude de densité mis au carré sont mis en mémoire dans des matrices 14 b et 22 b respectivement affectées aux données d'image et de masque On notera que bien qu'on ait décrit et représenté des matrices individuelles pour les gradients d'amplitude de densité et pour ces mêmes 30 gradients portés au carré, la même matrice peut servir pour
les deux types de données.
Si l'on porte les fonctions de gradient au carré, c'est pour faire en sorte que les valeurs de gradient servant à déterminer les centres de gravité aient le même signe dans 35 toute la région intéressante On pourrait, sans sortir du cadre de l'invention,assurer ce résultat par d'autres méthodes, par exemple détermination de la valeur absolue du gradient, et
2550037.
l'expression "mise au carré des valeurs de gradient" telle qu'utilisée ici englobe par définition ces autres méthodes.
Des moyens sont prévus pour localiser un point représentatif déterminé par les gradients portés au carré Plus par5 ticulièrement, des unités de détermination de centre de gravité 39 et 41 sont prévues pour agir sur les données "de masque" présentes dans la matrice 22 b et sur les données d' image présentes dans la matrice 14 b Les centres de gravité sont bien entendu des points et une "droite" allant de l'un 10 des centres de gravité à l'autre est une valeur vectorielle parce que les centres de gravité sont des points définis liés
à des valeurs de coordonnées.
On utilise de préférence d'autres moyens de réduction de bruit tels que filtres de coupure (d'établissement de niveau 15 de seuil faible) des données Dans une réalisation préférée, toutes les valeurs de gradient inférieures à une certaine valeur fixe sont ramenées à zéro avant calcul des centres de gravité Cette méthode a un certain nombre d'effets En premier lieu, elle réduit l'effet sur le résultat du bruit pré20 sent dans les images, puisque les valeurs des gradients de bruit sont faibles par rapport à celles des artefacts (généralement os) En second lieu, on peut choisir une valeur de seuil telle que l'effet des gradients artériels soit aussi
éliminé, ce qui facilite la localisation de la région intéres25 sante.
Une dimension de région intéressante d'environ 30 x 30 éléments d'image pour 512 x 512 images semble donner de bons résultats bien que des valeurs dimensionnelles allant de 20 à
64 aient aussi donné de bons résultats.
Des moyens sont prévus pour déterminer la valeur vectorielle reliant les deux centres de gravité intéressants Plus particulièrement, une unité de soustraction 42 détermine la relation de valeurs vectorielles x, y entre les centres de
gravité déterminés par les unités 39 et 41.
Des moyens sont prévus pour décaler soit l'image originale soit le masque original d'une quantité vectorielle déterminée par la valeur vectorielle du signal de sortie de l'unité 42 Plus particulièrement, le signal de sortie de l'unité 42 décale soit l'image originale, soit le masque original présent sur l'entrée 44 ou 46 de l'unité de soustraction 18 en réponse
à l'action du commutateur 43, commandé par l'unité 27.
La donnée d'image résultante est présente dans une matrice corrigée de la série de matrices 23 Lors de l'affichage sur l'unité 26 elle est sensiblement exempte d'artefact de déplacement, au moins dans la région intéressante. Ainsi, l'invention fournit un système et un procédé pour la quasi-suppression des difficultés jusqu'ici omniprésentes soulevées par les défauts de cadrage La solution proposée
est relativement peu coûteuse, facile à appliquer et efficace.
Bien que la description ci-dessus concerne des réalisations particulières, on conçoit que celles-ci sont choisies
à titre explicatif et dépourvues de tout caractère limitatif.
2550037.

Claims (28)

REVENDICATIONS
1 Procédé de correction d'artefacts engendrés par des défauts de cadrage dus à des emplacements de l'objet entre différentes images du même objet, caractérisé en ce qu'il comprend les opérations de: a) obtention de données pour une première et une seconde images du même objet, qui peuvent comporter des parties normalement changeantes et des parties normalement non changeantes; b) sélection d'un point sur un élément d'information nor10 malement non changeant et localisation de ce point dans chacune desdites images; c) détermination des différences entre les emplacements du point dans chacune desdites images pour l'obtention d'une valeur vectorielle du déplacement provoquant le défaut de 15 cadrage; et
d) utilisation de ladite valeur vectorielle.
2 Procédé selon la revendication 1, caractérisé en ce
que lesdites première et seconde imagessont distinguées temporellement.
3 Procédé selon la revendication 1, caractérisé en ce que lesdites première et seconde images sont distinguées par
voie énergétique.
4 Procédé selon la revendication 1, caractérisé en ce qu'on utilise la valeur vectorielle déterminée pour minimiser 25 les artefacts engendrés par le déplacement de l'objet lors de
la comparaison desdites première et seconde images.
Procédé selon la revendication 1, caractérisé en ce qu'il comporte l'opération de déplacement de l'une desdites
première et seconde images dans une mesure et dans une direc30 tion déterminées par ladite valeur vectorielle, en vue de minimiser le défaut de cadrage des images.
6 Procédé selon la revendication 5, caractérisé en ce que l'opération de localisation des points comporte les opérations de: a) sélection d'une région intéressante de façon qu'elle englobe un élément d'information normalement non changeant de chacune desdites images, et b) détermination de l'emplacement du point dans la région
intéressante de chacune desdites images.
2550037.
7 Procédé selon la revendication 6, caractérisé en ce que l'opération de localisation de point comporte les opérations de: a) détermination des amplitudes du gradient de densité de la région intéressante desdites première et seconde images, b) transformation desdites amplitudes des gradients de densité de la région intéressante desdites première et seconde images en des quantités qui sont toutes positives, c) détermination des centres de gravités desdites quanti10 tés, ce qui fournit des emplacements de point de coordonnées au sein de la région intéressante, et d) soustraction des coordonnées des centres de gravités pour l'obtention de la valeur du vecteur s'étendant entre les points. 8 Procédé selon la revendication 7, caractérisé en ce
que l'opération de transformation desdites amplitudes en quantités positives comporte l'opération de mise au carré des amplitudes.
9 Procédé selon la revendication 7, caractérisé en ce 20 qu'il comporte l'opération de déplacement des images l'une
par rapport à l'autre au moyen de la valeur vectorielle déterminée.
Procédé selon la revendication 6, caractérisé en ce que l'opération de sélection d'une région intéressante comporte 25 les opérations de: a) comparaison de ladite première image à ladite seconde image pour l'obtention d'une troisième image comprenant des parties normalement changeante de l'objet et des artefacts de déplacement, b) localisation d'une région intéressante des artefacts de déplacement au voisinage de l'une des parties normalement changeantes, et
c) utilisation de la même région intéressante sur lesdites première et seconde images.
11 Procédé selon la revendication 1, caractérisé en ce
qu'il comporte l'opération de filtrage desdites images.
12 Procédé selon la revendication 11, caractérisé en ce qu'on opère le filtrage en filtrant les images pour réduire le bruit.
2550037.
13 Procédé selon la revendication 1, caractérisé en ce que lesdites parties normalement changeantes de l'objet comportent des sections vasculaires dans lesquelles de la matière
à contraste est en cours de pénétration.
14 Procédé selon la revendication 1, caractérisé en ce
que lesdites parties normalement non changeantes sont des os.
Procédé selon la revendication 1, caractérisé en ce
que ladite première image ou ladite seconde image est constituée par une combinaison d'images.
16 Procédé selon la revendication 1, caractérisé en ce que l'opération d'utilisation de la valeur vectorielle comporte l'utilisation de la valeur vectorielle pour re-cadrer lesdites première et seconde images afin de minimiser les artefacts engendrés par le déplacement de l'objet dans des images 15 obtenues par addition desdites première et seconde images du
même objet.
17 Procédé selon la revendication 1, caractérisé en ce que l'opération d'utilisation de la valeur vectorielle comporte l'utilisation de la valeur vectorielle pour minimiser les artefacts engendrés par déplacement de l'objet dans des images obtenues par fusion desdites première et seconde images du
même objet.
18 Procédé selon la revendication 1, caractérisé en ce que l'opération d'utilisation de la valeur vectorielle compor25 te l'utilisation de la valeur vectorielle pour minimiser les artefacts engendrés par le déplacement de l'objet dans des images obtenues par soustraction desdites première et seconde images. 19 Système de correction des artefacts engendrés par des 30 déplacements de l'objet dus à des défauts de cadrage entre images différentes du même objet, caractérisé en ce qu'il comprend: des moyens ( 12, 14) pour l'obtention de données pour une première et une seconde images du même objet, qui peuvent 35 comporter des éléments d'information normalement changeants et normalement non changeants; des moyens pour la sélection d'un point sur un élément d'information normalement non changeant et des moyens ( 39,41) pour la localisation de ce point dans chacune desdites images,
2550037.
des moyens ( 42) pour déterminer des différences entre les emplacements du point dans chacune desdites images afin d'obtenir une valeur vectorielle du déplacement provoquant le défaut de cadrage, et des moyens pour utiliser la valeur vectorielle. Système selon la revendication 19, caractérisé en ce
que lesdites première et seconde images sont distinguées temporellement.
21 Système selon la revendication 19, caractérisé en ce 10 que lesdites première et seconde images sont distinguées par
voie énergétique.
22 Système selon la revendication 19, caractérisé en ce que lesdits moyens d'utilisation de la valeur vectorielle comprennent des moyens pour minimiser les artefacts engendrés par le déplacement de l'objet lors de la comparaison desdites
première et seconde images.
23 Système selon la revendication 19, caractérisé en ce qu'il comporte: des moyens pour déplacer l'une desdites images dans une mesure et dans une direction déterminées par ladite valeur vectorielle pour minimiser le défaut de cadrage entre lesdites images. 24 Système selon la revendication 19, caractérisé en ce que les moyens de localisation des points comprennent: des moyens ( 28, 29) pour sélecter une région intéressante de façon qu'elle englobe un élément d'information normalement non changeant de chacune desdites images, et des moyens pour déterminer l'emplacement d'un point
dans la région intéressante de chaque susdite image.
25 Système selon la revendication 19, caractérisé en ce qu'il comporte: des moyens ( 31, 33) pour déterminer les amplitudes des gradients de densité de la région intéressante desdites première et seconde images, des moyens ( 37, 38) pour transformer lesdites amplitudes des gradients de densité en des quantités qui soient positives, des moyens ( 39, 41) pour déterminer les emplacements de
coordonnées des centres de gravité desdites quantités positi-
2550037.
ves au sein des régions intéressantes, et des moyens ( 42) pour soustraire lesdites coordonnées afin de fournir les valeurs de vecteur s'étendant entre les
points de centre de gravité.
26 Système selon la revendication 25, caractérisé en ce que lesdits moyens de transformation desdites amplitudes en quantités positives comportent des moyens de mise au carré des
amplitudes ( 37, 38).
27 Système selon la revendication 25, caractérisé en ce 10 qu'il comporte des moyens ( 42, 43) pour déplacer les images l'une par rapport à l'autre à l'aide de la valeur vectorielle déterminée. 28 Système selon la revendication 24, caractérisé en ce que les moyens de sélection d'une zone intéressante comportent: 15 des moyens ( 18) pour soustraire ladite première image de ladite seconde image pour l'obtention d'une image de soustraction, ladite image de soustraction comprenant des éléments d'information normalement changeants, des éléments d'information normalement non changeants et des artefacts de déplace20 nment, des moyens pour localiser une zone intéressante sur l'un desdits artefacts de mouvement au voisinage de l'un desdits éléments d'information normalement changeants, et
des moyens pour utiliser la même région intéressante 25 sur lesdites première et seconde images.
29 Système selon la revendication 19, caractérisé en ce
qu'il comporte des moyens de filtrage ( 34, 35) des dites images.
Système selon la revendication 29, caractérisé en ce 30 que lesdits moyens de filtrage comprennent des moyens de filtrage ( 34, 35) pour l'élimination par filtrage du bruit.
31 Système selon la revendication 19, caractérisé en ce
que lesdits éléments d'information normalement changeants comportent des sections vasculaires dans lesquelles de la matière 35 à contraste est en cours de pénétration.
32 Système selon la revendication 19, caractérisé en ce que lesdits éléments d'information normalement non changeants
sont des os.
33 Système selon la revendication 19, caractérisé en ce
que ladite première image ou ladite seconde image est constituée par une combinaison d'images.
34 Système selon la revendication 19, caractérisé en ce que lesdits moyens d'utilisation de ladite valeur vectorielle comportent: des moyens pour minimiser les artefacts engendrés par déplacement dudit objet dans des images obtenues par addition
desdites première et seconde images.
Système selon la revendication 33, caractérisé en ce 10 que lesdits moyens d'utilisation de ladite valeur vectorielle comportent: des moyens pour utiliser ladite valeur vectorielle afin de minimiser lesdits artefacts engendrés par déplacement
de l'objet lors de la fusion desdites première et seconde 15 images.
36 Système selon la revendication 33, caractérisé en ce que lesdits moyens d'utilisation desdites valeurs vectorielles comportent: des moyens pour utiliser ladite valeur vectorielle afin 20 de minimiser lesdits artefacts engendrés par déplacement de 1 ' objet lors de la soustraction desdites première et seconde images. 37 Procédé selon la revendication 1, caractérisé en ce que l'opération de localisation des points comporte les opéra25 tions de: a) obtention de l'amplitude des gradients sur des parties des images qui comportent des artefacts, b) transformation desdites amplitudes des gradients de densités en des quantités qui sont toutes positives, c) détermination des centres de gravité des amplitudes positives. 38 Procédé selon la revendication 37, caractérisé en ce
qu'il comporte encore une opération de réduction de bruit.
39 Procédé selon la revendication 38, caractérisé en ce 35 que ladite opération de réduction de bruit comporte la mise à
zéro des valeurs relativement faibles du gradient.
Système selon la revendication 19, caractérisé en ce qu'il comporte:
a) des moyens pour obtenir l'amplitude des gradients pré-
sents dans les parties des images qui comportent des artefatcs, b) des moyens pour transformer lesdites amplitudes des gradients de densité en des quantités qui sont toutes positives, c) des moyens pour réduire l'effet du bruit d'image, d) des moyens pour déterminer les centres de gravité des
amplitudes positives.
41 Système selon la revendication 40, caractérisé en ce
que lesdits moyens de réduction de bruit comportent un moyen 10 d'établissement de seuil bas.
FR8411456A 1983-07-26 1984-07-19 Correction de defauts de cadrage automatique Expired - Lifetime FR2550037B1 (fr)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IL69327A IL69327A (en) 1983-07-26 1983-07-26 Automatic misregistration correction

Publications (2)

Publication Number Publication Date
FR2550037A1 true FR2550037A1 (fr) 1985-02-01
FR2550037B1 FR2550037B1 (fr) 1994-07-08

Family

ID=11054429

Family Applications (1)

Application Number Title Priority Date Filing Date
FR8411456A Expired - Lifetime FR2550037B1 (fr) 1983-07-26 1984-07-19 Correction de defauts de cadrage automatique

Country Status (6)

Country Link
US (1) US4685146A (fr)
JP (1) JPS60137349A (fr)
DE (1) DE3426933C2 (fr)
FR (1) FR2550037B1 (fr)
IL (1) IL69327A (fr)
NL (1) NL193506C (fr)

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0433841Y2 (fr) * 1985-09-04 1992-08-13
US4858128A (en) * 1986-08-11 1989-08-15 General Electric Company View-to-view image correction for object motion
JP2529949B2 (ja) * 1986-08-12 1996-09-04 株式会社東芝 同期画像再構成装置
US4896966A (en) * 1986-08-15 1990-01-30 Hamilton-Thorn Research Motility scanner and method
US4937878A (en) * 1988-08-08 1990-06-26 Hughes Aircraft Company Signal processing for autonomous acquisition of objects in cluttered background
JPH02100583A (ja) * 1988-10-07 1990-04-12 Toshiba Corp 画像処理方法およびその装置
US5034986A (en) * 1989-03-01 1991-07-23 Siemens Aktiengesellschaft Method for detecting and tracking moving objects in a digital image sequence having a stationary background
FR2645300B1 (fr) * 1989-03-29 1994-09-09 Gen Electric Cgr Procede de recalage automatique d'images
DE69032837T2 (de) * 1989-09-22 1999-05-12 Fuji Photo Film Co., Ltd., Minami-Ashigara, Kanagawa Verfahren und Gerät zur Energiesubtraktionsverarbeitung, Verfahren und Gerät zur Superpositionsverarbeitung, und Gerät zur Strahlungsbildauslesung
GB9001468D0 (en) * 1990-01-23 1990-03-21 Sarnoff David Res Center Computing multiple motions within an image region
JPH03263993A (ja) * 1990-03-14 1991-11-25 Hitachi Denshi Ltd レジストレーション検出装置
US5214711A (en) * 1990-08-24 1993-05-25 Board Of Regents Of The University Of Oklahoma Method and apparatus for detecting and quantifying motion of a body part
CA2051939A1 (fr) * 1990-10-02 1992-04-03 Gary A. Ransford Systeme de compression de donnees numeriques a calage et a differenciation
US5150426A (en) * 1990-11-20 1992-09-22 Hughes Aircraft Company Moving target detection method using two-frame subtraction and a two quadrant multiplier
US5337231A (en) * 1992-03-31 1994-08-09 General Electric Company View to view image correction for object motion with truncated data
DE69331982T2 (de) * 1992-11-27 2003-01-23 Fuji Photo Film Co., Ltd. Verfahren zur Lageanpassung von Röntgenbildern
US5581638A (en) * 1993-07-26 1996-12-03 E-Systems, Inc. Method for autonomous image registration
US6084590A (en) * 1997-04-07 2000-07-04 Synapix, Inc. Media production with correlation of image stream and abstract objects in a three-dimensional virtual stage
US6124864A (en) * 1997-04-07 2000-09-26 Synapix, Inc. Adaptive modeling and segmentation of visual image streams
US6160907A (en) * 1997-04-07 2000-12-12 Synapix, Inc. Iterative three-dimensional process for creating finished media content
DE19723369A1 (de) * 1997-06-04 1998-12-10 Bitex Gmbh Verfahren zur visuellen Erkennung der Unterschiede zwischen zwei Bildinhalten
US6266053B1 (en) 1998-04-03 2001-07-24 Synapix, Inc. Time inheritance scene graph for representation of media content
US6249285B1 (en) 1998-04-06 2001-06-19 Synapix, Inc. Computer assisted mark-up and parameterization for scene analysis
US6297825B1 (en) 1998-04-06 2001-10-02 Synapix, Inc. Temporal smoothing of scene analysis data for image sequence generation
US6795068B1 (en) * 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
AU2001290608A1 (en) * 2000-08-31 2002-03-13 Rytec Corporation Sensor and imaging system
US7071914B1 (en) 2000-09-01 2006-07-04 Sony Computer Entertainment Inc. User input device and method for interaction with graphic images
JP4234311B2 (ja) * 2000-09-19 2009-03-04 富士フイルム株式会社 画像の位置合わせ方法
US7262799B2 (en) * 2000-10-25 2007-08-28 Canon Kabushiki Kaisha Image sensing apparatus and its control method, control program, and storage medium
AU2003270386A1 (en) 2002-09-06 2004-03-29 Rytec Corporation Signal intensity range transformation apparatus and method
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7653264B2 (en) 2005-03-04 2010-01-26 The Regents Of The University Of Michigan Method of determining alignment of images in high dimensional feature space
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
JP5852415B2 (ja) * 2011-11-08 2016-02-03 浜松ホトニクス株式会社 非破壊検査装置及び当該装置での輝度データの補正方法
US11188733B2 (en) 2016-10-21 2021-11-30 Nec Corporation Synthesizing apparatus, synthesizing method and program

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3905045A (en) * 1973-06-29 1975-09-09 Control Data Corp Apparatus for image processing
US4217641A (en) * 1978-04-28 1980-08-12 U.S. Philips Corporation Correction for polychromatic X-ray distortion in CT images
JPS5942836B2 (ja) * 1978-07-24 1984-10-17 シチズン時計株式会社 アラ−ム時計の構造
US4395699A (en) * 1979-09-10 1983-07-26 Environmental Research Institute Of Michigan Method and apparatus for pattern recognition and detection
US4333145A (en) * 1979-11-29 1982-06-01 Technicare Corporation Method of high resolution partial area scan involving concentrated high density material outside the partial area
US4335427A (en) * 1980-04-21 1982-06-15 Technicare Corporation Method of selecting a preferred difference image
DE3043703C2 (de) * 1980-11-19 1983-01-20 Siemens AG, 1000 Berlin und 8000 München Röntgendiagnostikeinrichtung zur Erstellung von Subtraktionsbildern
US4437161A (en) * 1981-06-29 1984-03-13 Siemens Gammasonics Inc. Medical imaging apparatus
US4430749A (en) * 1981-06-30 1984-02-07 Siemens Gammasonics, Inc. Medical imaging apparatus and method for furnishing difference images
JPS58130030A (ja) * 1981-10-05 1983-08-03 工業技術院長 X線ディジタル画像処理装置
JPS58216038A (ja) * 1982-06-08 1983-12-15 日本電気株式会社 デジタルサブトラクシヨンアンギオグラフ装置
US4463375A (en) * 1982-09-07 1984-07-31 The Board Of Trustees Of The Leland Standford Junior University Multiple-measurement noise-reducing system
US4590607A (en) * 1982-09-17 1986-05-20 Environmental Research Institute Of Michigan Image correspondence techniques using serial neighborhood processing
US4550371A (en) * 1982-09-27 1985-10-29 General Electric Company Method and apparatus for compensating CT images for truncated projections
JPS5961386A (ja) * 1982-09-30 1984-04-07 Toshiba Corp 画像修正装置
US4551800A (en) * 1982-11-26 1985-11-05 General Electric Company Integrated hybrid image remasking in a subtraction angiography method
JPS59137942A (ja) * 1983-01-28 1984-08-08 Hitachi Ltd 画像位置合わせ方式

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
IEEE SPECTRUM, vol. 16, no. 4, avril 1979, pages 38-49, IEEE, New York, US; H.C. ANDREWS: "Digital image processing" *
PROCEEDINGS OF THE IMACS (AICA)-GI SYMPOSIUM, Munich, 14-16 mars 1977, pages 247-256, North-Holland Publishing Co., Amsterdam, NL; A.K. SINGHANIA et al.: "Associative processor application to change detection" *

Also Published As

Publication number Publication date
DE3426933C2 (de) 1995-03-16
JPS60137349A (ja) 1985-07-20
NL193506C (nl) 1999-12-03
IL69327A (en) 1986-11-30
DE3426933A1 (de) 1985-05-09
FR2550037B1 (fr) 1994-07-08
IL69327A0 (en) 1983-11-30
JPH0466148B2 (fr) 1992-10-22
US4685146A (en) 1987-08-04
NL8402330A (nl) 1985-02-18
NL193506B (nl) 1999-08-02

Similar Documents

Publication Publication Date Title
FR2550037A1 (fr) Correction de defauts de cadrage automatique
EP1583356B1 (fr) Dispositif de traitement d&#39;images et programme de traitement d&#39;images
EP0113605B1 (fr) Procédé et appareil pour former une image radiologique d&#39;un corps
JP2003078812A (ja) デジタル画像における動きによるぼけを低減する方法
US20100194870A1 (en) Ultra-compact aperture controlled depth from defocus range sensor
FR2505168A1 (fr) Appareil et procede pour produire une image projetee d&#39;une matiere de contraste administree dans une region du corps
EP3114831B1 (fr) Débruitage vidéo optimisé pour système multicapteur hétérogène
US10298949B2 (en) Method and apparatus for producing a video stream
EP0114559B1 (fr) Procédé de correction permanente de couleur applicable à la prise de vues vidéo et système mettant en oeuvre ce procédé
FR2796740A1 (fr) Procede et systeme de gestion de la saturation sur une image radiographique numerisee
FR2884340A1 (fr) Procede et dispositif de traitement d&#39;images en angiographie soustraite
EP0055655B1 (fr) Dispositif et procédé pour visualiser un corps éclairé par une source de radiations réglable
EP0101336B1 (fr) Appareil de génération d&#39;un signal vidéo traité, à contraste amélioré pour radiologie, et procédé pour traiter un tel signal
JP2007524943A (ja) 照明アーチファクトの画像減算
JP2016076851A (ja) 撮像装置、画像処理方法、及びプログラム
JPH1071138A (ja) 放射線画像処理方法および装置
EP0542623B1 (fr) Procédé et dispositif d&#39;acquisition et de traitement d&#39;images radioscopiques
EP0092276B1 (fr) Dispositif d&#39;affichage à balayage récurrent entrelacé de type télévision et oscilloscope numérique comprenant un tel dispositif
EP0415494B1 (fr) Procédé et dispositif de traitement d&#39;images à estimation de mouvement améliorée
KR20180071532A (ko) 지능형 고해상도 내시경 영상을 획득하여 저장하는 영상 제공 방법 및 장치
JP2009088933A (ja) 画像記録装置、画像補正装置及び撮像装置
JP2013127804A (ja) 画像処理プログラム、画像処理装置、および画像処理方法
US20230269472A1 (en) Image processing apparatus, image capturing apparatus, control method for controlling image processing apparatus, and storage medium
Juillard et al. Astronomical high-contrast imaging of circumstellar disks: MUSTARD inverse-problem versus PCA-based methods
Florea et al. Dynamic range enhancement in digital camera acquisition of prostheses hip Xrays