DE10392259T5 - Objektkorrespondenzidentifikation ohne volle Volumenregistration - Google Patents

Objektkorrespondenzidentifikation ohne volle Volumenregistration Download PDF

Info

Publication number
DE10392259T5
DE10392259T5 DE10392259T DE10392259T DE10392259T5 DE 10392259 T5 DE10392259 T5 DE 10392259T5 DE 10392259 T DE10392259 T DE 10392259T DE 10392259 T DE10392259 T DE 10392259T DE 10392259 T5 DE10392259 T5 DE 10392259T5
Authority
DE
Germany
Prior art keywords
interest
volume
point
defining
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE10392259T
Other languages
English (en)
Inventor
Hong Shen
Jianzhong Qian
Li Fan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corporate Research Inc
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of DE10392259T5 publication Critical patent/DE10392259T5/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Abstract

Verfahren zur Objektkorrespondenzidentifikation zwischen zwei Bildsätzen mit den folgenden Schritten:
Empfangen eines gewählten Punkts in dem einen Bildsatz;
Finden eines grob übereinstimmenden Punkts in dem anderen Bild;
Definieren eines ersten interessierenden Volumens um den gewählten Punkt;
Definieren eines Suchfensters um den übereinstimmenden Punkt, das mehrere benachbarte Punkte umfaßt;
für jeden Punkt in dem Suchfenster, Definieren eines zweiten interessierenden Volumens;
Berechnen der Ähnlichkeit/Unähnlichkeit zwischen jedem zweiten interessierenden Volumen mit dem ersten interessierenden Volumen durch Anwenden einer Graustufen-Korrelationsberechnung gemäß der Gleichung
Figure 00000002
wobei VA und VB der Mittelwert von Graustufenwerten aller Pixel in den beiden interessierenden Volumen sind und die Summierungen über alle Voxel in beiden interessierenden Volumen erfolgt, und
Wählen des zweiten interessierenden Volumens, das dem ersten interessierenden Volumen am ähnlichsten ist.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft die Identifikation von Objektkorrespondenz zwischen zwei Bildsätzen allgemein und die Lungenknotenkorrespondenzidentifikation zwischen medizinischen Bildsätzen insbesondere.
  • Die Lungen-CT-Technologie wurde von Ärzten beim Screening und bei der Diagnose von Lungenkrebs weithin verwendet. Aus Lungen-CT-Bildern kann der Arzt nach Knoten suchen und auf der Basis der Statistik der Knoten, einschließlich Form, Größe usw., ihre Bösartigkeit beurteilen. Ein wichtiges Informationselement ist die Statusänderung der Knoten, wie zum Beispiel Änderungen der Form, Größe und Dichte. Eine der signifikantesten quantitativen Messungen ist die Wachstumsgeschwindigkeit von Lungenknoten während eines Zeitraums. Es ist deshalb entscheidend, die Korrespondenz desselben Knotens in zwei oder mehr in verschiedenen Zeiträumen erfaßten Lungen-CT-Bildsätzen zu identifizieren.
  • Bisher wurde diese Aufgabe manuell durchgeführt und war deshalb umständlich, langsam und fehleranfällig aufgrund der enormen Menge an Daten. Da die CT-Daten 3D-Bilder sind, kann die Aufgabe für den Arzt, wenn überhaupt erreichbar, sehr schwierig werden. Bei der derzeitigen klinischen Praxis muß der Arzt einzeln 2D-Slices der 3D-Bilddaten durchgehen und versuchen, die Korrespondenz eines Knotens in zwei Bildsätzen zu finden. Die Anzahl von Slices für einen einzigen Datensatz kann sogar mehrere hundert betragen, und ein einzelnes Slice enthält 250000 Pixel. Darüber hinaus können die Abbildungsbedingungen für den Patienten bei den CT-Studien veränderlich sein und das Organ und der Körper können zwischen zwei solchen Studien deformiert werden. In vielen Fällen ist es schwierig, zu bestimmen, ob ein Knoten nach einem Zeitraum verschwindet oder noch existiert, weil der Arzt nicht in der Lage ist, die Korrespondenz zu identifizieren.
  • Eine schnelle Registration der lokalen interessierenden Volumen (VOI) aus großen 3D-Bilddaten ist häufig in medizinischen Bildanalysesystemen notwendig, wie z.B. bei den Systemen zur Analyse von Lungen-CT-Bildern. Beim Screening und bei der Diagnose von Lungenkrebs ist zum Beispiel ein sehr wichtiges Informationselement das Vorhandensein eines neuen Knotens oder das Fehlen eines zuvor präsentierten Knotens und die Wachstumsgeschwindigkeit eines Lungenknotens. Es ist deshalb entscheidend, die Korrespondenz desselben Knotens in zwei oder mehr Lungen-CT-Bildsätzen, die in verschiedenen Zeiträumen erfaßt wurden, zu identifizieren. In dem meisten Fällen sind die Eigenschaften des Knotens und seiner umgebenden Strukturen lokal distinkt und die Registration lokaler VOIs reicht deshalb zum Identifizieren der Korrespondenz von Knoten aus.
  • Die herkömmlichen Algorithmen für die Korrespondenzidentifikation verwenden häufig Vollvolumenregistration/-Verzerrung, die große Unzulänglichkeiten aufweist. Erstens ist die Größe des Datensatzes sehr groß. Ein typischer Datensatz beträgt 512×512×280, so daß eine Vollvolumenregistration/-Verzerrung nicht in Frage kommt, wenn es mit einer vernünftigen Geschwindigkeit gehen soll. Zweitens sind die Lagen des Patienten und die Lungenvolumensteuerungen während zwei Bild-Scans immer etwas unterschiedlich, wodurch nichtlineare Verzerrungen zwischen den beiden Ergebnis datensätzen verursacht werden. Um eine präzise Vollvolumenverzerrung durchzuführen, sind deshalb nichtlineare Techniken notwendig, die kompliziert, schwierig, langsam und unzuverlässig sind.
  • Es wird ein System benötigt, das Vollvolumenregistration vermeidet, aber eine schnelle und genaue Registration zweier lokaler VOIs durchführt.
  • KURZE DARSTELLUNG DER ERFINDUNG
  • Es wird ein Verfahren zur Objektkorrespondenzidentifikation zwischen zwei Bildsätzen offengelegt, mit den folgenden Schritten: Empfangen eines gewählten Punkts in dem einen Bildsatz, Finden eines groben Übereinstimmungspunkts in dem anderen Bildsatz, Definieren eines ersten interessierenden Volumens um den gewählten Punkt, Definieren eines Suchfensters um den Übereinstimmungspunkt, einschließlich mehrerer benachbarter Punkte, für jeden Punkt in dem Suchfenster, Definieren eines zweiten interessierenden Volumens, Berechnen der Ähnlichkeit zwischen dem zweiten interessierenden Volumen mit dem ersten interessierenden Volumen und Wählen des interessierenden Volumens, das dem ersten interessierenden Volumen am ähnlichsten ist.
  • In einem anderen Aspekt der Erfindung wird das Empfangen eines gewählten Punkts durch eine grafische Benutzeroberfläche bewirkt.
  • Ein weiterer Aspekt der Erfindung umfaßt weiterhin den Schritt des groben Ausrichtens der beiden Bildsätze.
  • In einem anderen Aspekt der Erfindung wird die grobe Ausrichtung durch Bereichs- und Randvergleich bewirkt.
  • In einem weiteren Aspekt der Erfindung umfaßt der Schritt des Berechnens der Ähnlichkeit zwischen dem ersten und dem zweiten interessierenden Volumen eine Grauskala-Kreuzkorrelationsberechnung gemäß der Gleichung
    Figure 00040001
    wobei V A und V B der Mittelwert der Graustufenwerte aller Pixel in den beiden interessierenden Volumen sind und die Summierungen über alle Voxel in beiden interessierenden Volumen erfolgen.
  • In einem weiteren Aspekt der Erfindung umfaßt der Schritt des Berechnens der Ähnlichkeit zwischen dem ersten und dem zweiten interessierenden Volumen das Berechnen der Summe absoluter Differenzen über alle Voxel in den interessierenden Volumen gemäß der Gleichung
    Figure 00040002
  • In einem weiteren Aspekt der Erfindung umfaßt der Schritt des Berechnens der Ähnlichkeit zwischen dem ersten und dem zweiten interessierenden Volumen eine Schwellenwertanalyse, gefolgt durch Summierung mit Inklusiv-OR:
    Figure 00050001
    wobei T die Schwelle ist und die Summierung über alle Voxel in den beiden interessierenden Volumen erfolgt.
  • In einem weiteren Aspekt der Erfindung umfaßt der Schritt des Berechnens der Ähnlichkeit zwischen dem ersten und dem zweiten interessierenden Volumen einen Oberflächenvergleich, wobei die Oberflächenpunkter aller Objekte in jedem interessierenden Volumen als die Punkte im Innern des interessierenden Volumens definiert sind, die mindestens einen unmittelbaren Nachbarn aufweisen, dessen Intensität über einer gegebenen Schwelle T liegt, und mindestens einen unmittelbaren Nachbarn, dessen Intensität unter T liegt, und das Durchführen der Schritte des Konstruierens einer dreidimensionalen Distanzliste für das erste interessierende Volumen VA, DA(x,y,z), dergestalt, daß ihr Wert die Distanz des gegeben Punkts (x, y, z) zu dem nächsten Oberflächenpunkt innerhalb von VA ist, und das Berechnen der Unähnlichkeit zwischen den interessierenden Volumen gemäß der Gleichung
    Figure 00050002
    wobei sB den vollständigen Satz Oberflächenpunkte in dem zweiten interessierenden Volumen VB repräsentiert. Falls die beiden Datensätze verschiedene Auflösungen aufweisen, müssen die Koordinaten von VA und VB normiert werden, bevor die obige Gleichung angewandt werden kann.
  • Außerdem wird eine maschinenlesbare Programmspeichereinrichtung offengelegt, die greifbar ein Programm von Anweisungen realisiert, die von der Maschine ausführbar sind, um die oben dargelegten Verfahrensschritte durchzuführen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 zeigt eine schematische Darstellung der Erfindung.
  • 2 ist ein Flußdiagramm eines Kalibrationsverfahrens der Erfindung.
  • 3 ist ein Flußdiagramm einer Ausführungsform des Verfahrens der Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORMEN
  • Mit Bezug auf 1 ist ein erster Datensatz 10a und ein zweiter Datensatz 10b derselben Lungen, zu verschiedenen Zeitpunkten genommen, gezeigt. Diese Bilddaten sind dreidimensional und umfassen jeweils eine Vielzahl von Voxeln, wobei sich jedes Voxel an einer Koordinate (x, y, z) befindet. Nach einer anfänglichen Kalibrationsprozedur 20 zum groben Schätzen der Transformation zwischen den Koordinaten der Voxel in den beiden Datensätzen (d.h. effektiv einer mathematischen "Ausrichtung" der Bilder), stellt das System der Erfindung eine grafische Benutzeroberfläche (GUI) 30 bereit, durch die der Benutzer schnell die Volumendaten durchsuchen und aus einem Datensatz, der ein interessierendes Objekt, wie z.B. einen Knoten 60, enthält, ein interessierendes Volumen auswählen kann. Die Informationen bezüglich der Knoten 60 werden dem Benutzer entweder durch ein Modul für Online-ICRD (interaktive computerunterstützte Diagnose und Detektion) bereitgestellt, das in "Interactive Computer-Aided Diagnosis Method and System for Assisting Diagnosis of Lung Nodules in Digital Volumetric Medical Images" von Carol Novak, Li Fan und JianZhong Qian, dem Gegenstand der US-Patentanmeldung laufende Nummer 09/840,267 , registriert am 23.04.2001, worauf hiermit vollständig ausdrücklich Bezug genommen wird, beschrieben wird, oder aus zuvor konstruierten Datenbanken von Objekten, wie in der Tabelle 70a aufgelistet. Eine Echtzeit-Vergleichsprozedur 30 ist mit der GUI integriert und identifiziert die entsprechenden interessierenden Volumen (VOI) in dem anderen Datensatz. Wenn ein Knotenobjekt in dem entsprechenden VOI gefunden wird, hat das System die Objektkorrespondenz erkannt. Die Informationen über den entsprechenden Knoten können dann entweder durch das Online-ICAD-Modul erhalten oder, wie in 70b aufgelistet, aus der Datenbank gelesen werden. Die Informationen der verglichenen Knoten werden dann analysiert 40, um das Wachstum und die Änderung der Knoten abzuleiten. Der Objektkorrespondenzvergleich kann in beiden Richtungen zwischen den beiden Datensätzen geschehen, nämlich von einem zuvor gescannten Datensatz zu einem aktuellen Datensatz oder umgekehrt.
  • Mit Bezug auf 2 ist ein Flußdiagramm zum Ausrichten der beiden Datensätze während der Kalibrationsprozedur 20 gezeigt. Es wird angenommen, daß die lokalen VOIs wesentlich kleiner als das gesamte Volumen des Bilddatensatzes sind und daß die Transformation zwischen zwei Datensätzen stückweise linear ist. Deshalb reichen bei den lokalen VOIs lineare Transformationsmodelle für eine genaue Registration aus.
  • Wenn die Datensätze geladen werden 100, wird eine grobe Ausrichtung durchgeführt. Sie kann auch solche Fälle behandeln, bei denen die beiden Datensätze verschiedene Auflösungen aufweisen. Eine mögliche Methode hierfür könnte, ohne Einschränkung, eine Gewichtung der Koordinaten durch die Auflösungen sein. Die Ausrichtungsparameter repräsentieren die linearen Transformationen in drei Richtungen. Diese Parameter könnten für verschiedene Slices von Bildern und verschiedene Bereiche der Bilder variieren.
  • Die Ausrichtungen basieren auf den Bereichen und Rändern der beiden Lungen. Es wird angenommen, daß Aussrichtungsparameter für die beiden Lungenbereiche, nämlich die linke und die rechte Lunge, verschieden sein können. Um die Bereichs- und Randinformationen zu erhalten, werden die beiden Lungen für jedes Slice hauptsächlich durch mit Schwellenwerten zusammenhängenden Techniken aus den Bildsätzen segmentiert 110. Danach erhält man die Ränder durch Rand-Tracing 120.
  • Die Ausrichtung 130 in z-Richtung wird folgendermaßen durchgeführt. Es werden die Bereiche der beiden Lungen in jedem Slice berechnet und zur Bildung von Arrays von Bereichswerten verwendet, wobei Indizes die durch die Auflösung in der z-Richtung gerichteten z-Koordinatenwerte sind. An den beiden Arrays aus den beiden Datensätzen wird eine Kreuzkorrelation durchgeführt. Der Spitzenkorrelationspunkt ergibt die Verschiebung und die Skalierung in der z-Richtung. Die Ausrichtung ist aufgrund der Stabilität der Lungenbereiche robust. Durch Berechnen der Verschiebungs- und Skalierungsparameter in der z-Richtung werden die Korrespondenzen zwischen Slices (2D-Bildern) bestimmt.
  • Wenn zwei entsprechende Slices gegeben sind, erreicht man die Ausrichtung in der x- und der y-Richtung 140 durch Vergleichen der Ränder der Lungen. Das Vergleichen verwendet entweder binäre Korrelation oder Techniken Euclidischer Distanzlisten. Die Ausrichtungsparameter können dann zur Verwendung durch die GUI und die Echtzeit-Vergleichsprozedur 30 gespeichert werden 150.
  • Die Ausrichtungsparameter sind grobe Schätzungen der Transformationen zwischen den beiden Bildsätzen 10a, 10b und können für die beiden Lungenbereiche und für verschiedene Slices verschieden sein.
  • Mit Bezug auf 1 und 3 ist ein Flußdiagramm der Echtzeit-Vergleichsprozedur der Erfindung gezeigt. Die Verarbeitung beginnt damit, daß der Benutzer durch die GUI 30 einen Knoten 60 "anclickt" 200, den er in dem ersten Bildsatz 10a sieht, wobei andere GUI-Verfahren zum Identifizieren eines Knotens als Mausclicke verwendet werden können, wie z.B. eine Stift- oder berühungsempfindliche Anzeige. Dann wird um den Clickpunkt herum ein VOI definiert 210. Für ein System mit Koordinaten x, y, z ist dies im allgemeinen ein kubisches Volumen VA(x,y,z), das um den Clickpunkt (x, y, z) zentriert ist. Es können auch andere Formen von VOI verwendet werden. Wenn ein VOI in einem Bildsatz durch Bildung eines Subvolumens um den Clickpunkt, das in einem interessierenden Objekt liegt, definiert wird, wird der Clickpunkt durch Verwendung der bei der Vorverarbeitungsprozedur erhaltenen groben Ausrichtungsparameter in den anderen Bildsatz 220 transformiert. Danach bildet man einen Satz VOIs (VB) mit Mittelpunkten, die in einem 3D-Suchfenster liegen, das an dem transformierten Clickpunkt zentriert ist. Man durchsucht 230 diese VOIs, um das VA am ähnlichsten 260 zu finden, und es wird als das überarbeitete entsprechende VOI VB genommen 280, und das in der Mitte dieses VOI (xB, yB, zB) liegende Objekt wird als das interessierende entsprechende Objekt genommen 260.
  • Die Durchführung des Korrespondenzvergleichs hängt zum großen Teil von dem Suchumfang ab, der durch die Genauigkeit der Grobausrichtung bestimmt wird. Mit einer guten Grobausrichtung erzielt der Online-Korrespondenzvergleich Echtzeit-Performance.
  • Es gibt verschiedene Möglichkeiten zur Berechnung 250 der Ähnlichkeit zweier VOIs, von denen vier wie folgt lauten: 1. Graustufen-Kreuzkorrrelation:
    Figure 00110001
    dabei sind V A bzw. V B der Mittelwert der Graustufenwerte aller Pixel in den beiden VOIs und die Summierungen erfolgen über alle Voxel in den beiden VOIs. 2. Absolutdifferenzsumme:
    Figure 00110002
    wobei die Summierung über alle Voxel in den beiden VOIs erfolgt. 3. Schwellenwertanalyse gefolgt durch Summierung mit Inklusiv-OR:
    Figure 00110003
    wobei T die Schwelle ist und die Summierung über alle Voxel in den beiden VOIs erfolgt.
  • 4. Oberflächenvergleich:
  • Dieses Verfahren sucht nach dem VOI mit der kleinsten Unähnlichkeit. Die Oberflächenpunkte aller Objekte in einem VOI sind als die Punkte in dem VOI definiert, die mindestens einen unmittelbaren Nachbarn aufweisen, dessen Identität über einer gegebenen Schwelle T liegt, und mindestens einen unmittelbaren Nachbarn, dessen Intensität unter T liegt.
  • Man konstruiert eine 3D-Distanzliste für VA, DA(x,y,z), dergestalt, daß ihr Wert die Distanz des gegebenen Punkts (x, y, z) zu dem nächsten Oberflächenpunkt in VA ist. sB repräsentiert den vollständigen Satz Oberflächenpunkte in VB, und die Unähnlichkeit zwischen VA und VB ist dann definiert als
    Figure 00120001
  • Nachdem die VOIs für die Knoten verglichen wurden, können die Änderungen in den Knoten analysiert 40 werden. Es ist ersichtlich, daß durch Echtzeit-Extraktion entsprechender interessierender Volumen (VOIs) zwischen den Bildern, während der Benutzer einen interessierenden Punkt in einem Bild anclickt, man sich auf jedes dieser Volumen lokal konzentrieren kann, ohne daß die vollen Volumen beider Bilder berechnet und registriert werden müssen. Wie bereits erwähnt, würde die Vollvolumenregistration nichtlineare Vergleichstechniken erfordern, während die Erfindung lineare Vergleichstechniken verwenden kann, weil sie ihre Vergleiche auf einem kleineren lokalen Niveau, einen Benutzerclick auf einmal durchführt.
  • Außerdem sollte beachtet werden, daß die Lehren der Erfindung nicht nur auf Knoten oder Lungen, oder auf dreidimensionale Bilder beschränkt sind, sondern statt dessen auf jede beliebige Bildverarbeitunssituation verwendet und verallgemeinert werden können, bei der eine Objektkorrespondenzidentifikation zwischen zwei Bildsätzen gewünscht ist.
  • Die erfindungsgemäßen Verfahren können als ein Programm von Anweisungen implementiert werden, die von einer Maschine, wie z.B. einem Computer, lesbar und ausführbar sind, und die greifbar auf einem maschinenlesbaren Medium, wie z.B. einer Computerspeichereinrichtung, realisiert und gespeichert werden.
  • Es versteht sich, daß alle hier offengelegten physikalischen Größen, sofern sie nicht explizit anders angegeben werden, nicht als genau gleich der offengelegten Größe aufgefaßt werden sollen, sondern nur als ungefähr gleich der offengelegten Größe. Außerdem soll das schlichte Fehlen einer Bemerkung wie z.B. "etwa" oder dergleichen nicht als explizite Angabe aufgefaßt werden, daß eine solche offengelegte physikalische Größe eine exakte Größe ist, gleichgültig, ob solche Bemerkungen in bezug auf jede andere hier offengelegte physikalische Größe verwendet werden.
  • Obwohl bevorzugte Ausführungsformen gezeigt und beschrieben wurden, können verschiedene Modifikationen und Substitutionen daran vorgenommen werden, ohne von dem Gedanken und Schutzumfang der Erfindung abzuweichen. Folglich versteht sich, daß die vorliegende Erfindung lediglich zur Veranschaulichung geschrieben wurde, und daß die hier offengelegten Veranschaulichungen und Ausführungsformen nicht als die Ansprüche einschränkend aufgefaßt werden sollen.
  • ZUSAMMENFASSUNG
  • Es wird ein Verfahren zur Objektkorrespondenzidentifikation zwischen zwei Bildsätzen offengelegt, mit den folgenden Schritten: grobes Ausrichten der beiden Bildsätze, Empfangen (200) eines gewählten Punkts in dem einem Bildsatz, Finden (210) eines groben Übereinstimmungspunkts in dem anderen Bild, Definieren (210) eines ersten interessierenden Volumens um den gewählten Punkt, Definieren (230) eines Suchfensters um den Vergleichspunkt, das mehrere benachbarte Punkte umfaßt, für jeden Punkt in dem Suchfenster, Definieren (240) eines zweiten interessierenden Volumens, Berechnen (250) der Ähnlichkeit zwischen dem zweiten interessierenden Volumen und dem ersten interessierenden Volumen und Wählen (280) des zweiten interessierenden Volumens, das dem ersten interessierenden Volumen am ähnlichsten ist.

Claims (8)

  1. Verfahren zur Objektkorrespondenzidentifikation zwischen zwei Bildsätzen mit den folgenden Schritten: Empfangen eines gewählten Punkts in dem einen Bildsatz; Finden eines grob übereinstimmenden Punkts in dem anderen Bild; Definieren eines ersten interessierenden Volumens um den gewählten Punkt; Definieren eines Suchfensters um den übereinstimmenden Punkt, das mehrere benachbarte Punkte umfaßt; für jeden Punkt in dem Suchfenster, Definieren eines zweiten interessierenden Volumens; Berechnen der Ähnlichkeit/Unähnlichkeit zwischen jedem zweiten interessierenden Volumen mit dem ersten interessierenden Volumen durch Anwenden einer Graustufen-Korrelationsberechnung gemäß der Gleichung
    Figure 00160001
    wobei VA und VB der Mittelwert von Graustufenwerten aller Pixel in den beiden interessierenden Volumen sind und die Summierungen über alle Voxel in beiden interessierenden Volumen erfolgt, und Wählen des zweiten interessierenden Volumens, das dem ersten interessierenden Volumen am ähnlichsten ist.
  2. Verfahren nach Anspruch 1, wobei das Empfangen eines gewählten Punkts durch eine grafische Benutzeroberfläche bewirkt wird.
  3. Verfahren nach Anspruch 1, weiterhin mit dem Schritt des groben Ausrichtens der beiden Bildsätze.
  4. Verfahren nach Anspruch 3, wobei die grobe Ausrichtung durch Bereichs- und Randvergleich bewirkt wird.
  5. Maschinenlesbare Programmspeichereinrichtung, die greifbar ein Programm von Anweisungen realisiert, die durch die Maschine ausführbar sind, um die Verfahrensschritte zur Objektkorrespondenzidentifikation zwischen zwei Bildsätzen durchzuführen, wobei die Verfahrensschritte folgendes umfassen: Empfangen eines gewählten Punkts in dem einen Bildsatz; Finden eines grob übereinstimmenden Punkts in dem anderen Bild; Definieren eines ersten interessierenden Volumens um den gewählten Punkt; Definieren eines Suchfensters um den übereinstimmenden Punkt, das mehrere benachbarte Punkte umfaßt; für jeden Punkt in dem Suchfenster, Definieren eines zweiten interessierenden Volumens; Berechnen der Ähnlichkeit/Unähnlichkeit zwischen jedem zweiten interessierenden Volumen mit dem ersten interessierenden Volumen durch Anwenden einer Graustufen-Korrelationsberechnung gemäß der Gleichung
    Figure 00180001
    wobei VA und VB der Mittelwert von Graustufenwerten aller Pixel in den beiden interessierenden Volumen sind und die Summierungen über alle Voxel in beiden interessierenden Volumen erfolgt, und Wählen des zweiten interessierenden Volumens, das dem ersten interessierenden Volumen am ähnlichsten ist.
  6. Erfindung nach Anspruch 5, wobei das Empfangen eines gewählten Punkts durch eine grafische Benutzeroberfläche bewirkt wird.
  7. Erfindung nach Anspruch 5, weiterhin mit dem Schritt des groben Ausrichtens der beiden Bildsätze.
  8. Erfindung nach Anspruch 7, wobei die grobe Ausrichtung durch Bereichs- und Randvergleich bewirkt wird.
DE10392259T 2002-02-07 2003-01-09 Objektkorrespondenzidentifikation ohne volle Volumenregistration Withdrawn DE10392259T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/071,003 US6738063B2 (en) 2002-02-07 2002-02-07 Object-correspondence identification without full volume registration
US10/071,003 2002-02-07
PCT/US2003/000637 WO2003067521A2 (en) 2002-02-07 2003-01-09 Object-correspondence identification without full volume registration

Publications (1)

Publication Number Publication Date
DE10392259T5 true DE10392259T5 (de) 2005-03-10

Family

ID=27659146

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10392259T Withdrawn DE10392259T5 (de) 2002-02-07 2003-01-09 Objektkorrespondenzidentifikation ohne volle Volumenregistration

Country Status (5)

Country Link
US (1) US6738063B2 (de)
JP (1) JP2005517249A (de)
CN (1) CN1295650C (de)
DE (1) DE10392259T5 (de)
WO (1) WO2003067521A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008006362A1 (de) * 2008-01-28 2009-07-30 Siemens Aktiengesellschaft Verfahren zur Reduktion von Bewegungsartefakten

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050084178A1 (en) * 2002-12-30 2005-04-21 Lure Fleming Y. Radiological image processing based on different views of temporal images
US20050002548A1 (en) * 2003-06-20 2005-01-06 Novak Carol L. Automatic detection of growing nodules
US20070160312A1 (en) * 2004-02-13 2007-07-12 Koninklijke Philips Electronics N.V. Apparatus and method for registering images of a structured object
JP5244319B2 (ja) * 2004-02-20 2013-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像のマルチモーダルレジストレーションのための装置及び方法
JP2005334298A (ja) * 2004-05-27 2005-12-08 Fuji Photo Film Co Ltd 異常陰影検出方法および装置並びにプログラム
US8090429B2 (en) * 2004-06-30 2012-01-03 Siemens Medical Solutions Usa, Inc. Systems and methods for localized image registration and fusion
DE102004032914A1 (de) * 2004-07-07 2006-02-02 Siemens Ag Verfahren zur Bestimmung einer Koordinatentransformation von Bildkoordinaten verschiedener Bilder eines Objekts
US8265354B2 (en) * 2004-08-24 2012-09-11 Siemens Medical Solutions Usa, Inc. Feature-based composing for 3D MR angiography images
US7471815B2 (en) * 2004-08-31 2008-12-30 Siemens Medical Solutions Usa, Inc. Candidate generation for lung nodule detection
CN100592336C (zh) * 2004-11-10 2010-02-24 皇家飞利浦电子股份有限公司 医学图像配准的***和方法
US7912257B2 (en) * 2006-01-20 2011-03-22 3M Innovative Properties Company Real time display of acquired 3D dental data
US7698014B2 (en) * 2006-01-20 2010-04-13 3M Innovative Properties Company Local enforcement of accuracy in fabricated models
RU2451335C2 (ru) * 2006-08-11 2012-05-20 Конинклейке Филипс Электроникс Н.В. Приложения для эффективной диагностики, зависимые от изображения и контекста, относящиеся к анатомии
JP4640845B2 (ja) * 2007-03-05 2011-03-02 富士フイルム株式会社 画像処理装置およびそのプログラム
US8290303B2 (en) * 2007-10-11 2012-10-16 General Electric Company Enhanced system and method for volume based registration
WO2009090894A1 (ja) * 2008-01-15 2009-07-23 Konica Minolta Medical & Graphic, Inc. 動態画像診断支援システム
US20090220135A1 (en) * 2008-02-28 2009-09-03 Keigo Nakamura System, server, method and program for image transfer
JP5283411B2 (ja) * 2008-03-26 2013-09-04 富士フイルム株式会社 画像表示装置および画像表示装置の作動方法並びに画像表示プログラム
US8559758B2 (en) * 2008-08-28 2013-10-15 Koninklijke Philips N.V. Apparatus for determining a modification of a size of an object
DE102008049467B4 (de) * 2008-09-29 2016-12-29 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Registrierung von tomographischen Volumendatensätzen des Darms
CN102081697B (zh) * 2009-11-27 2013-12-11 深圳迈瑞生物医疗电子股份有限公司 一种在超声成像空间中定义感兴趣容积的方法及其装置
US8965082B2 (en) * 2009-12-18 2015-02-24 Koninklijke Philips N.V. Systems and methods for aligning multiple sections of imaging data
JP2012203458A (ja) * 2011-03-23 2012-10-22 Fuji Xerox Co Ltd 画像処理装置及びプログラム
EP2939217B1 (de) * 2012-12-27 2022-06-22 Koninklijke Philips N.V. Computergestützte identifizierung eines bestimmten gewebes
WO2014198055A1 (en) * 2013-06-14 2014-12-18 Intel Corporation Image processing including adjoin feature based object detection, and/or bilateral symmetric object segmentation
CN106203242B (zh) * 2015-05-07 2019-12-24 阿里巴巴集团控股有限公司 一种相似图像识别方法及设备
AU2016315938B2 (en) * 2015-08-31 2022-02-24 Cape Analytics, Inc. Systems and methods for analyzing remote sensing imagery
EP3508127A4 (de) * 2016-08-31 2020-04-08 C/o Canon Kabushiki Kaisha Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren und programm
JP6845480B2 (ja) * 2018-01-18 2021-03-17 国立大学法人東海国立大学機構 診断支援装置、方法およびプログラム
JP7389234B2 (ja) * 2020-04-09 2023-11-29 富士フイルム株式会社 画像位置合わせ装置、方法およびプログラム
US11367265B2 (en) 2020-10-15 2022-06-21 Cape Analytics, Inc. Method and system for automated debris detection
US11875413B2 (en) 2021-07-06 2024-01-16 Cape Analytics, Inc. System and method for property condition analysis
WO2023114027A1 (en) 2021-12-16 2023-06-22 Cape Analytics, Inc. System and method for change analysis
US11861843B2 (en) 2022-01-19 2024-01-02 Cape Analytics, Inc. System and method for object analysis

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5647360A (en) * 1995-06-30 1997-07-15 Siemens Corporate Research, Inc. Digital subtraction angiography for 3D diagnostic imaging
US6175655B1 (en) * 1996-09-19 2001-01-16 Integrated Medical Systems, Inc. Medical imaging system for displaying, manipulating and analyzing three-dimensional images
US5848121A (en) 1996-10-28 1998-12-08 General Electric Company Method and apparatus for digital subtraction angiography

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008006362A1 (de) * 2008-01-28 2009-07-30 Siemens Aktiengesellschaft Verfahren zur Reduktion von Bewegungsartefakten

Also Published As

Publication number Publication date
US6738063B2 (en) 2004-05-18
CN1628325A (zh) 2005-06-15
WO2003067521A2 (en) 2003-08-14
US20030146913A1 (en) 2003-08-07
WO2003067521A3 (en) 2004-02-12
JP2005517249A (ja) 2005-06-09
CN1295650C (zh) 2007-01-17

Similar Documents

Publication Publication Date Title
DE10392259T5 (de) Objektkorrespondenzidentifikation ohne volle Volumenregistration
DE69811049T2 (de) Elektronisches bildverarbeitungsgerät zur detektion von dimensionnellen änderungen
DE112004000381B4 (de) Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen
EP1444654A2 (de) Quantitative analyse, visualisierung und bewegungskorrektur in dynamischen prozessen
DE60123378T2 (de) Digitales Bildverarbeitungsverfahren mit verschiedenen Arbeitsweisen zum Erkennen von Augen
DE69801562T2 (de) Selbst segmentierung/konturgewinnungsverfahren zur verwendung bei planung einer bestrahlungstherapiebehandlung
DE102008046859B4 (de) 3D Segmentierung von allgemeiner Läsion in CT
EP1191476B1 (de) Vorrichtung und Verfahren zur Berechnung einer zwei Abbildungen verbindenden Transformation
DE69432995T2 (de) Automatisches Verfahren und System zur Segmentierung medizinischer Bilder
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE102005051746B4 (de) Verfahren zum Erfassen einer Struktur in einem dreidimensionalen Computertomographie-Bild eines Knies sowie maschinenlesbares Medium
DE112005002190T5 (de) Volumetrische Tumorsegmentierung mithilfe eines gemeinsamen Raum-Intensitäts-Likelihood-Verhältnistest
DE102004009143A1 (de) Randdetektion für eine medizinische Bildgebung
DE102006002914A1 (de) Mehrdimensionale Segmentierung basierend auf adaptiven begrenzenden Kasten- und Ellipsoid-Modellen
DE102005051638A1 (de) Objekterkennung mittels Querschnittanalyse
EP3287914A1 (de) Ermittlung von ergebnisdaten auf basis von medizinischen messdaten aus verschiedenen messungen
DE102004030084B4 (de) Computerimplementiertes Verfahren zur Segmentation von Lungenknoten
DE10054814A1 (de) Verfahren und Vorrichtung zur Registrierung von Bildern
DE112004001691T5 (de) Verfahren und System zur automatischen Ausrichtung von lokalen Visualisierungstechniken für vaskuläre Strukturen
EP1869620B1 (de) Verfahren zur verarbeitung von bild- und volumendaten auf basis statistischer modelle
DE112019004112T5 (de) System und verfahren zur analyse mikroskopischer bilddaten und zur erzeugung eines annotierten datensatzes zum training der klassifikatoren
DE102005051535A1 (de) System und Verfahren zum Erfassen von Milchglasobjekten und -knötchen
DE112004001486B4 (de) System und Verfahren zur Ortung von kompakten Objekten in Bildern
EP2096578A2 (de) Verfahren und Vorrichtung zur Charakterisierung der Formation von Papier
DE69911958T2 (de) Selbst segmentierung/konturgewinnungsverfahren

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law

Ref document number: 10392259

Country of ref document: DE

Date of ref document: 20050310

Kind code of ref document: P

8120 Willingness to grant licences paragraph 23
8139 Disposal/non-payment of the annual fee