DE102010000274A1 - Verfahren und Vorrichtung zur automatischen Identifizierung von Bildansichten in einem 3D-Datensatz - Google Patents

Verfahren und Vorrichtung zur automatischen Identifizierung von Bildansichten in einem 3D-Datensatz Download PDF

Info

Publication number
DE102010000274A1
DE102010000274A1 DE102010000274A DE102010000274A DE102010000274A1 DE 102010000274 A1 DE102010000274 A1 DE 102010000274A1 DE 102010000274 A DE102010000274 A DE 102010000274A DE 102010000274 A DE102010000274 A DE 102010000274A DE 102010000274 A1 DE102010000274 A1 DE 102010000274A1
Authority
DE
Germany
Prior art keywords
image
model
image frames
processor
deformable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102010000274A
Other languages
English (en)
Inventor
Fredrik Orderud
Stein Inge Rabben
Hans Torp
Vidar Lundberg
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102010000274A1 publication Critical patent/DE102010000274A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Abstract

Es ist ein Verfahren zur automatischen Identifizierung von Bildansichten in einem dreidimensionalen Datensatz geschaffen, das aufweist: Zugreifen auf einen dreidimensionalen Datensatz, der mehrere Bildframes aufweist, mit einem Prozessor (110) und Anpassen (152) wenigstens eines verformbaren Modells (370, 372, 374) auf wenigstens eine Struktur innerhalb jedes der Bildframes mit dem Prozessor (110). Das Verfahren weist ferner ein Identifizieren (154) wenigstens eines Merkmalspunktes innerhalb jedes der Bildframes auf der Basis des wenigstens einen verformbaren Modells (370, 372, 374) mit dem Prozessor (110) und ein Anzeigen wenigstens einer Bildansicht (230-246) auf der Basis des wenigstens einen Merkmalspunktes auf einer Anzeige (112) auf.

Description

  • HINTERGRUND ZU DER ERFINDUNG
  • Diese Erfindung betrifft allgemein Ultraschall und insbesondere eine automatische Identifizierung von Bildansichten in einem dreidimensionalen Datensatz (3D-Datensatz).
  • Es stehen zahlreiche Werkzeuge zur quantitativen Analyse von 3D-Echokardiogrammen zur Verfügung. Von Interesse ist insbesondere die Beurteilung des linken Ventrikels. Mit der 3D-Echokardiografie können willkürliche Bildschichten aus akquirierten Volumina extrahiert werden, die als eine Folge von Bildframes (Bildrahmen) akquiriert werden können, die den Herzzyklus umfassen. Es wird jedoch ein Maß an Eingabe von dem Benutzer benötigt. Beispielsweise erfordern existierende Werkzeuge eine manuelle Ausrichtung der Längsachse des linken Ventrikels, was die Untersuchungszeitdauer steigert. Infolge der benötigten Zeit kann der Benutzer die Spitze und die Basis, d. h. die Oberseite und die Unterseite, des Herzens auf einem Bildrahmen identifizieren. Diese Orientierungsstellen werden anschließend auf die restlichen Bildrahmen angewandt. Folglich bleiben die restlichen Bildrahmen oder -schichten an festen räumlichen Positionen innerhalb des Bildvolumens über den gesamten Herzzyklus hinweg.
  • Das Herz bewegt sich jedoch während der Kontraktion, so dass sich folglich die Position des Herzens innerhalb der Bildrahmen bewegt. Deshalb differiert das Myokardgewebe, das angezeigt wird, während des Herzzyklus. Dies stellt insbesondere für basale Kurzachsenschnitte, bei denen die Verkürzung in Längsrichtung während des Herzzyklus bis zu 1,2 cm betragen kann, ein Problem dar. Die resultierende Bewegung außerhalb der Ebene kann eine künstliche, unechte Wandverdickung zur Folge haben, die nicht mit der Herzkontraktion im Zusammenhang steht, und basale Schnitte können an der Endsystole in der Arterie landen.
  • KURZE BESCHREIBUNG DER ERFINDUNG
  • In einer Ausführungsform weist ein Verfahren zur automatischen Identifizierung von Bildansichten in einem dreidimensionalen Datensatz einen Zugriff auf einen dreidimensionalen Datensatz, der mehrere Bildrahmen (Bildframes) aufweist, mit einem Prozessor und ein Anpassen wenigstens eines verformbaren Modells auf wenigstens eine Struktur innerhalb jedes der Bildrahmen mit dem Prozessor. Das Verfahren weist ferner ein Identifizieren wenigstens einer Merkmalsstelle innerhalb jedes der Bildrahmen auf der Basis des wenigstens einen verformbaren Modells mit dem Prozessor und ein Anzeigen wenigstens einer Bildansicht auf der Basis der wenigstens einen Merkmalsstelle auf einer Anzeige.
  • In einer anderen Ausführungsform weist ein System zur automatischen Identifizierung von Bildansichten in einem dreidimensionalen Datensatz einen Prozessor und eine Anzeige auf. Der Prozessor ist konfiguriert, um auf einen dreidimensionalen Datensatz, der mehrere Bildrahmen aufweist, zuzugreifen, wenigstens zwei gekoppelte verformbare Modelle auf Strukturen innerhalb jedes der Bildrahmen anzupassen und wenigstens eine Merkmalsstelle innerhalb eines jeden der Bildrahmen basierend auf wenigstens einem der verformbaren Modelle zu identifizieren. Die Anzeige ist konfiguriert, um wenigstens eine Bildansicht basierend auf der wenigstens einen Merkmalsstelle anzuzeigen.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 veranschaulicht ein Blockschaltbild eines Ultraschallbildgebungssystems, das gemäß einer Ausführungsform der vorliegenden Erfindung ausgebildet ist.
  • 2 veranschaulicht ein Verfahren zur Verwendung eines auf einem verformbaren Modell basierenden Ausrichtungsalgorithmus, um automatisch gewünschte Bildansichten zu erzeugen, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 3 veranschaulicht ein Doo-Sabin-Unterteilungsmodell, das in einem Drahtrahmennetz eingeschlossen ist, das mehrere Steuerknoten zeigt, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 4 veranschaulicht beispielhafte segmentierte Schnittschichten an der Enddiastole und der Endsystole, die daran identifizierte Merkmalspunkte aufweisen, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 5 veranschaulicht ein Beispiel einer Identifizierung von Kurzachsenschnitten auf der Basis von Merkmalspunkten gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 6 veranschaulicht eine Reihe von Mittelwand-Bildansichten, die auf den Kurzachsenschnitten basieren, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 7 veranschaulicht eine Reihe von basalen Bildansichten, die auf den Kurzachsenschnitten basieren, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 8 veranschaulicht, wie mehrere Modelle in einer Verfolgungshierarchie in Beziehung zueinander gesetzt werden können, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 9 veranschaulicht eine beispielhafte Grundstruktur der Kalman-Verfolgung einschließlich der Verfolgungshierarchie gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 10 veranschaulicht ein Beispiel für eine Extraktion standardgemäßer Apikalansichten auf der Basis von Merkmalspunkten aus gekoppelten Modellen gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 11 veranschaulicht drei standardgemäße Apikalansichten, die gemäß einer Ausführungsform der vorliegenden Erfindung erzeugt worden sind.
  • 12 veranschaulicht einen Vergleich von Herzbildern, die verwendet werden können, um einen Benutzer zu führen, um eine Sondenausrichtung während einer Akquisition einzustellen, gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 13 veranschaulicht eine Nachverarbeitung der apikalen Längsachsenbilder aus einer Belastungsechokardiographie-Untersuchung gemäß einer Ausführungsform der vorliegende Erfindung.
  • 14 veranschaulicht eine Nachverarbeitung von Kurzachsenbildern aus einer Belastungsecho-Untersuchung gemäß einer Ausführungsform der vorliegenden Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Die vorstehende Kurzbeschreibung sowie die folgende detaillierte Beschreibung bestimmter Ausführungsformen der vorliegenden Erfindung werden besser verstanden, wenn sie in Verbindung mit den beigefügten Zeichnungen gelesen werden. In dem Maße, in dem die Figuren Diagramme der Funktionsblöcke verschiedener Ausführungsformen veranschaulichen, sind die Funktionsblöcke nicht notwendigerweise für die Aufteilung auf die Hardwareschaltungen kennzeichnend. Folglich kann einer oder können mehrere der Funktionsblöcke (z. B. Prozessoren oder Speicher) beispielsweise in einem einzelnen Hardwareteil (z. B. einem Universalzweck-Signalprozessor oder einem Direktzugriffsspeicher, einer Festplatte oder dergleichen) implementiert sein. In ähnlicher Weise können die Programme eigenständige Programme sein, können als Unterprogramme in einem Betriebssystem enthalten sein, können Funktionen in einem installierten Softwarepaket darstellen und dergleichen. Es sollte verständlich sein, dass die verschiedenen Ausführungsformen nicht auf die in den Zeichnungen veranschaulichten Anordnungen und Mittel beschränkt sind.
  • In dem hier verwendeten Sinne sollte ein Element oder Schritt, das bzw. der in der Einzahl angegeben und dem das Wort „ein” oder „eine” vorangestellt ist, nicht derart verstanden werden, als würde es bzw. er eine Mehrzahl der Elemente oder Schritte ausschließen, wenn ein derartiger Ausschluss nicht explizit angegeben ist. Außerdem sollen Bezugnahmen auf „eine Ausführungsform” gemäß der vorliegenden Erfindung nicht derart interpretiert werden, als würden sie die Existenz weiterer Ausführungsformen, die ebenfalls die angegebenen Merkmale enthalten, ausschließen. Darüber hinaus können, sofern nicht das Gegenteil ausdrücklich angegeben ist, Ausführungsformen, die ein Element oder mehrere Elemente mit einer be stimmten Eigenschaft „aufweisen” oder „haben”, weitere derartige Elemente enthalten, die diese Eigenschaft nicht haben.
  • Wenigstens eine hierin offenbarte Ausführungsform setzt Verfahren zur automatischen Anpassung eines verformbaren Modells auf Strukturen ein. In einigen Ausführungsformen können die Verfahren recheneffizient sein. Beispielsweise kann die Struktur ein linkes Ventrikel, ein rechtes Ventrikel, ein linksventrikulärer Ausflusstrakt und/oder eine andere Herzstruktur sein. In einem weiteren Beispiel kann die Struktur eine andere Struktur innerhalb des Körpers oder ein anderes Objekt sein, für die bzw. das ein Satz standardisierter Ansichten erzeugt werden soll.
  • Ein Verfahren ist in der US-Patentanmeldung mit dem Aktenzeichen 11/775,903 beschrieben, die am 11. Juli 2007 eingereicht worden ist, den Titel „Method for Real-Time Tracking of Cardiac Structures in 3D Echocardiography” („Verfahren zur Echtzeit-Verfolgung von Herzstrukturen in der 3D-Echokardiografie”) trägt, der gleichen Anmelderin gehört und hier durch Bezugnahme in ihrer Gesamtheit mit aufgenommen ist. Die Patentanmeldung mit dem US-Aktenzeichen 11/775,903 betrifft ein Verfahren zur Verfolgung der Bewegung und Formänderungen eines verformbaren Modells, das auf Kanten in volumetrischen Bildsequenzen angepasst ist. Das Verfahren verwendet ein erweitertes Kalman-Filter, um die Position, Orientierung und Verformungsparameter eines verformbaren Modells abzuschätzen. Die Gestalt und Position des verformbaren Modells werden zuerst unter Verwendung eines kinematischen Modells für jeden neuen Rahmen vorhergesagt. Anschließend wird in der Nähe dieses Modells eine Kantendetektion durchgeführt. Die Kantendetektion wird durchgeführt, indem nach Kanten senkrecht zu der Modelloberfläche an regelmäßig voneinander beabstandeten Stellen über dem Modell gesucht wird. Die ermittelten Abstände zwischen den vorhergesagten und den gemessenen Kanten für das verformbare Modell werden als Messwerte für einen Algorithmus der kleinsten Quadrate, beispielsweise ein Kalman-Filter, behandelt. Die Abstandsmesswerte werden mit zugehörigen Messrauschenwerten gekoppelt, die die räumliche Unsicherheit der lokalen Kantendetektion spezifizieren. Für jeden Kantendetektionspunkt werden Modellparameterempfindlichkeiten in Bezug auf die Kantenmesswerte berechnet. Die Empfindlichkeiten werden mit den Kantenmesswerten kombiniert. Die Messdaten werden anschließend in dem Informationsraum miteinander summiert und mit der Vorhersage in einem Kalman-Filter kombiniert, um die Positions- und Verformungsparameter für das verformbare Modell abzuschätzen.
  • Ein weiteres Verfahren ist in der US-Patentanmeldung mit dem Aktenzeichen 12/050,715 beschrieben, die am 18. März 2008 eingereicht worden ist, den Titel „Methods for Using Deformable Models for Tracking Structures in Volumetric Data” („Verfahren zur Verwendung deformierbarer Modelle zur Verfolgung von Strukturen in volumetrischen Daten”) trägt, der gleichen Anmelderin gehört und durch ausdrückliche Bezugnahme in ihrer Gesamtheit hierin aufgenommen ist. Die Patentanmeldung mit dem US-Aktenzeichen 12/050,715 betrifft ein computerisiertes Verfahren zur Verfolgung einer 3D-Struktur in einem 3D-Bild, das mehrere sequentielle Bildframes enthält, von denen einer der momentane Bildframe ist. Das Verfahren enthält ein Darstellen der 3D-Struktur, die verfolgt wird, mittels eines parametrischen Modells mit Parametern für lokale Formdeformationen. Für das parametrische Modell wird unter Verwendung eines kinematischen Modells ein vorhergesagter Zustandsvektor erzeugt. Das parametrische Modell wird unter Verwendung des vorhergesagten Zustandsvektors verformt, und es werden mehrere tatsächliche Punkte für die 3D-Struktur unter Verwendung eines momentanen Frames des 3D-Bildes bestimmt, und es werden Verschiebungswerte und Messvektoren unter Verwendung von Diffe renzen zwischen den mehreren tatsächlichen Punkten und den mehreren vorhergesagten Punkten bestimmt. Die Verschiebungswerte und die Messvektoren werden gefiltert, um einen aktualisierten Zustandsvektor und eine aktualisierte Kovarianzmatrix zu erzeugen, und es wird ein aktualisiertes parametrisches Modell für den momentanen Bildframe unter Verwendung des aktualisierten Zustandsvektors erzeugt.
  • Die vorstehend erwähnten, hier mit einbezogenen Patentanmeldungen können eine Verfolgungsgrundstruktur mit einem Kalman-Filter einsetzen, um die Anpassung eines Modells auf Bilddaten vorzunehmen. Die Kalman-Filter-Grundstruktur ist recheneffizient, d. h. die Modelle werden in einem einzelnen Iterationsschritt aktualisiert oder auf die Bilddaten angepasst. Folglich kann die Anpassung in Echtzeit oder nahezu in Echtzeit bewerkstelligt werden. Es sollte verstanden werden, dass andere Anpassungsverfahren verwendet werden können, um wenigstens eine Ausführungsform der vorliegenden Erfindung zu realisieren, wie beispielsweise, jedoch nicht ausschließlich, andere Verfahren, die die Methode der kleinsten Quadrate einsetzen. Es können andere Anpassungsverfahren verwendet werden, die zur Anpassung der Modelle an die Bilddaten in einem einzigen Iterationsschritt oder in mehreren Iterationsschritten in der Lage sind, wodurch sie es ermöglichen, dass die Anpassung in Echtzeit oder nahezu in Echtzeit stattfindet. In einer weiteren Ausführungsform können andere Anpassungsverfahren und -algorithmen, die nicht in Echtzeit oder nahezu in Echtzeit arbeiten, verwendet werden, um die Modelle auf Herzstrukturen oder sonstige Strukturen anzupassen.
  • 1 veranschaulicht ein Blockschaltbild eines Ultraschallbildgebungssystems 100, das gemäß einer Ausführungsform der vorliegenden Erfindung ausgebildet ist. Das Ultraschallbildgebungssystem 100 enthält einen Ultraschallsender 102 und einen Ultraschallempfänger 104, der konfiguriert ist, um reflektierte Ultraschallstrahlung, die von einem interessierenden Bereich eines Objektes 106 reflektiert wird, zu empfangen und die empfangene Ultraschallstrahlung in Bilddaten umzuwandeln. Das Objekt 106 kann beispielsweise ein medizinischer Patient sein, und der interessierende Bereich kann beispielsweise das Herz des Patienten enthalten. Um eine Ultraschallstrahlung in das Objekt 106 hinein zu senden und um von diesem reflektierte Ultraschallstrahlung zu empfangen, wird eine Ultraschallsonde 108 eingesetzt, um aufeinanderfolgende Rahmen (Frames) von Bilddaten zu erhalten. Das Ultraschallbildgebungssystem 100 enthält ferner einen Prozessor 110, der konfiguriert ist, um die Bilddaten zu analysieren, und eine Anzeige 112, die konfiguriert ist, um Ergebnisse aus der Analyse der Bilddaten zu zeigen. Der Prozessor 110 kann ein Modul sein, das eine Rechen-/Logikmaschine (z. B. einen Mikroprozessor oder eine CPU) gemeinsam mit einem Speicher aufweist, die in 1 nicht gesondert veranschaulicht sind. Es kann eine Benutzerschnittstelle 118 vorgesehen sein, um dem Benutzer zu ermöglichen, Daten einzugeben, Bilder auszuwählen, Bilddaten und Bildgebungsparameter einzustellen und zu verfeinern, und dergleichen. Die Benutzerschnittstelle 118 kann jede beliebige bekannte Eingabevorrichtung sein, zu denen einschließlich, jedoch nicht ausschließlich, eine Tastatur, ein Trackball, eine Maus, ein berührungsempfindlicher Bildschirm, Kipphebelschalter, Schieber und Druckknöpfe gehören.
  • In einigen Ausführungsformen der vorliegenden Erfindung ist eine Speichervorrichtung 116 konfiguriert, um Instruktionen aus einem externen Medium oder aus externen Medien 114, wie beispielsweise einer CD-ROM, DVD, Floppy Disks oder sonstigen Arten maschinenlesbarer Medien, wie sie in der Technik bekannt sind, zu lesen. Die Instruktionen auf dem Medium oder den Medien 114 sind konfiguriert, um das Ultraschallbildge bungssystem 100, z. B. über den Prozessor 110, anzuweisen, eine Ausführungsform des Verfahrens gemäß der vorliegenden Erfindung auszuführen.
  • Einige Ausführungsformen der vorliegenden Erfindung müssen nicht notwendigerweise mit einem Ultraschallbildgebungssystem realisiert sein. Für einige Ausführungsformen ist ein Teilsatz des in 1 veranschaulichten Systems genügend. Beispielsweise ist ein Computer, der einen Prozessor, einen Speicher und eine Anzeige aufweist, zur Realisierung vieler Ausführungsformen der vorliegenden Erfindung geeignet. In einigen Ausführungsformen kann der Computer ausreichen, wenn vorausgesetzt wird, dass ein geeignetes Verfahren zur Übertragung von Bilddaten von einem Bildgebungssystem, wie beispielsweise dem Ultraschallbildgebungssystem 100 nach 1, zur Verfügung steht. In anderen Ausführungsformen kann die Übertragung der Bilddaten in Echtzeit bewerkstelligt werden. Außerdem muss das Bildgebungssystem nicht ein Ultraschallbildgebungssystem oder ein medizinisches Bildgebungssystem sein, wenn vorausgesetzt ist, dass eine Folge von Bildframes bereitgestellt werden kann. In Fällen, in denen wenigstens eine Ausführungsform in einem Ultraschallbildgebungssystem 100 implementiert ist, ist die physikalische Größe des Bildgebungssystems nicht beschränkt. Beispielsweise kann das Ultraschallbildgebungssystem 100 in einem Konsolenformat, einem tragbaren Format oder einem von Hand haltbaren Format geschaffen sein.
  • 2 veranschaulicht ein Verfahren zur Verwendung eines auf einem verformbaren Modell basierenden Ausrichtungsalgorithmus, um automatisch gewünscht Bildansichten zu erzeugen. Der Ausdruck „Bildansicht” ist ein allgemeiner Ausdruck, der verwendet werden kann, um 2D-Schnitte bzw. -Schichten, wie beispielsweise 2D-Schichten von volumetrischen Bildern, volumetrische Schichten, Volumenrenderingbilder, wie beispielswei se ein Renderingbild einer Herzklappe oder einer anderen gewünschten Anatomie, anatomische M-Mode-Bilder, gekrümmte anatomische M-Mode-Bilder, Zeit-Bewegungs-Kurven (z. B. Verschiebung, Geschwindigkeit, Dehnungsgeschwindigkeit, Dehnung, Torsion und dergleichen), oder jede beliebige sonstige extrahierte Bildansicht oder Darstellung oder Visualisierungstechnik, die verwendet werden kann, wenn Bilddaten ausgewertet und/oder verglichen werden, zu bezeichnen. Bildansichten können ferner Bildansichten bezeichnen, die hinsichtlich der Verschiebung, Skalierung und/oder Verdrehung korrigiert sind, was ein Ergebnis der Ausrichtung sein kann, wie dies nachstehend erläutert ist. Beispielsweise können Kurzachsenschnitte, die bezüglich der Bewegung aus der Ebene heraus (z. B. einer Verschiebung während des Herzzyklus) korrigiert sind, erzeugt werden. Ein oder mehrere derartige korrigierte Schnitte können aus mehreren Bildern extrahiert werden.
  • Bei 150 kann das System 100 in einigen Ausführungsformen eine Sequenz von N Bildrahmen akquirieren. In einigen Ausführungsformen können die Bildrahmen volumetrische Bilddaten enthalten oder können als ein dreidimensionaler Datensatz (3D-Datensatz) bezeichnet werden. In einer Ausführungsform kann der 3D-Datensatz Graustufendaten, skalare Graustufendaten, Parameter oder Komponenten, wie beispielsweise Farbe, Verschiebung, Geschwindigkeit, Temperatur, Materialbelastung oder sonstige Informationen oder Informationsquellen enthalten, die in ein Bild einkodiert werden können. Die Bildrahmen (Bildframes) können beispielsweise über die Dauer des Herzzyklus hinweg akquiriert werden. Die Anzahl N der Bildrahmen kann von Patient zu Patient variieren und kann von der Länge des Herzzyklus des einzelnen Patienten sowie auch von der Framerate des Bildgebungssystems 100 abhängig sein.
  • In einer Ausführungsform können die zuvor akquirierten Bilder verwendet werden, um den Benutzer während der Akquisition zu führen, um Bildrahmen zu akquirieren, die ungefähr die gleiche Sondenorientierung aufweisen. Die Sondenorientierung ist die relative Orientierung der Sonde 108 in Bezug auf die interessierende Anatomie, wie beispielsweise das Herz. Die Sondenorientierung ist benutzerabhängig und kann auf der Basis des Wissens, der Erfahrung, der Technik eines Benutzers, der verfügbaren Ausrüstung sowie anderer Faktoren variieren. Außerdem können unterschiedliche Teile des Herzens (oder einer anderen Anatomie) abgebildet werden, und das Bildvolumen kann bedingt dadurch, dass die Sonde 108 gedreht wird, beispielsweise um 90 oder 180 Grad gedreht werden.
  • Die Sondenorientierung ist für Untersuchungen, wie beispielsweise Belastungs-Echokardiografie (Belastungs-Echo) relevant, bei der sowohl Ruhezustands- als auch Belastungsbilder ungefähr gleich orientiert sind, das heißt der gleiche Teil des Herzens ohne eine relative Verdrehung abgebildet wird. Um beispielsweise eine Vier-Kammer-Apikalansicht zu akquirieren, kann die Sonde 108 durch Abbildung zwischen Patientenrippen und Richten entlang der Richtung der Längsachse des linken Ventrikels, d. h. ungefähr durch die Spitze und durch die Mitte der Mitralklappe hindurch, orientiert und gedreht werden, so dass eine Schicht durch das rechte und das linke Ventrikel sowie den rechten und den linken Herzvorhof auf der Anzeige 112 angezeigt wird.
  • Ein Sichten der früher akquirierten Bilder auf der Anzeige 112 gleichzeitig mit den momentanen Bilddaten hilft dem Benutzer, Bilder während einer Akquisition auszurichten. 12 veranschaulicht einen Vergleich von Herzbildern, die verwendet werden können, um den Benutzer zu führen, um die Sondenorientierung während einer Akquisition einzustellen, so dass die neu akquirierten Bilder mit Referenzbildern ausgerichtet sind. Früher akquirierte Referenzbilder 400 sind Seite an Seite mit Live-Bildern veranschaulicht. Obwohl vier verschiedene Bilder sowohl in 400 als auch in 402 veranschaulicht sind, versteht es sich, dass eines oder mehrere als ein einzelnes Bild verwendet werden kann bzw. können. In einer Ausführungsform können die Referenzbilder 400 früher akquirierte Basisbilder bzw. Bezugsbilder sein, während die Live-Bilder 402 die Belastungsbilder sind. In einer anderen Ausführungsform können die Referenzbilder 400 Belastungsbilder sein, während die Live-Bilder 402 Bezugs- bzw. Basisbilder oder Bilder bei anderen Belastungsniveaus sind. Die Bilder können von derselben Untersuchung oder einer anderen Untersuchung stammen. In einer Ausführungsform können die Referenzbilder 400 Bilder von einem anderen Patienten sein, die ein allgemeines Bild liefern, um den Benutzer zu führen, um Bilder bei einer bestimmten Sondenorientierung zu akquirieren. Außerdem können die Bilder 400 und 402 Standbilder oder Filmschleifen oder ein sonstiger Filmclip mit einer Aufnahme der Bewegung eines sich bewegenden Objektes sein. Es können weitere Informationen, wie beispielsweise zugehörige EKG-Aufzeichnungen 404 und 406, auf der Anzeige 112 gezeigt sein, sowie auch Bilder 408 oder eine andere Anzeige, die die Lage innerhalb des Herzzyklus identifizieren können bzw. kann.
  • Die Sondenorientierung kann auf einem Protokoll basieren, das die Reihenfolge der Bilder und die Beziehung zwischen den Bildern definiert. Folglich kann der Benutzer angewiesen werden, um einen Satz von Bildrahmen bei einer ersten Sondenorientierung zu akquirieren, während anschließend ein oder mehrere zusätzliche Sätze von Bildrahmen mit anderen Sondenorientierungen akquiriert werden können. In einer anderen Ausführungsform können Bildgebungsparameter, wie beispielsweise Geometrie, Frequenz, Framerate, Verstärkung und dergleichen, au tomatisch derart festgelegt werden, dass Basis- und beliebige zugehörige Belastungsbilder unter Verwendung der gleichen Akquisitionsparameter akquiriert werden, so dass folglich der Benutzer geführt wird, um Bilder zu akquirieren, die ungefähr gleich ausgerichtet sind.
  • Bei 152 passt der Prozessor 110 ein oder mehrere verformbare Modelle auf Strukturen, wie beispielsweise ein linkes Ventrikel, ein rechtes Ventrikel und/oder einen linksventrikulären Ausflusstrakt, in dem ersten Bildrahmen an. In einer Ausführungsform kann, um die Anpassung des linken Ventrikels zu erzielen, ein Tracking bzw. eine Verfolgung unter Verwendung einer Kalman-Filter-Grundstruktur durchgeführt werden, um die endokardiale Wand zu segmentieren, indem ein verformbares Doo-Sabin-Unterteilungsmodell eingesetzt wird. Eine ähnliche Anpassung kann mit verformbaren Modellen für das rechte Ventrikel oder den linksventrikulären Ausflusstrakt bewerkstelligt werden. Das Tracking bzw. die Verfolgung der mehreren verformbaren Modelle in Bezug aufeinander ist nachstehend in den 8 und 9 weiter erläutert.
  • In einigen Ausführungsformen kann das Anpassen, weil die Verfolgungs-Grundstruktur recheneffizient ist, in Echtzeit bewerkstelligt werden, während die Bildrahmen akquiriert werden. In einer anderen Ausführungsform kann die Anpassung an Bilddaten vorgenommen werden, die im Vorfeld, früher akquiriert worden sind. Beispielsweise können die Bilddaten auf dem System 100 akquiriert, anschließend zu einem anderen System übermittelt und auf diesem verarbeitet werden, oder sie können zu einem beliebigen Zeitpunkt, nachdem die Akquisition beendet worden ist, auf dem System 100 verarbeitet werden.
  • In einigen Ausführungsformen können zusätzliche Informationen als eine Eingabe zur Initiierung der Anpassung genutzt werden, was die Robustheit der Anpassung auf diese Weise steigern kann. Obwohl in den meisten Fällen die Orientierung der Sonde 108 relativ zu dem Untersuchungsobjekt durch den Ausrichtungsalgorithmus bestimmt werden kann, können in einigen Untersuchungen Bilder bei einer bekannten Sondenorientierung akquiriert werden. Folglich kann die Kenntnis der Sondenorientierung als eine Eingabe in den Ausrichtungsalgorithmus genutzt werden, um beispielsweise das/die Modell(e) zur Ausrichtung des Bildes zu initialisieren.
  • In einer weiteren Ausführungsform können die zusätzlichen Informationen, die als eine Eingabe zur Initialisierung der Anpassung genutzt werden, auf früher akquirierten Bilddaten beruhen, die ungefähr die gleiche Sondenorientierung relativ zu dem Untersuchungsobjekt aufweisen. Beispielsweise kann die resultierende Ausrichtung eines Bildes genutzt werden, um das Modell zur Ausrichtung eines anderen Bildes zu initialisieren. Die Ausrichtung der Bilder ist in derartigen Untersuchungen, wie Belastungs-Echo, wichtig, so dass gleiche Schichten in den Belastungs- und den Ruhebildern angezeigt und miteinander verglichen werden können. Die Bilder können von der gleichen Untersuchung (z. B. nach einem Protokoll, das die Akquisition von Bildern im Ruhezustand und anschließend auf einem oder mehreren Belastungsniveaus spezifiziert) oder von unterschiedlichen Untersuchungen (z. B. zwei verschiedenen Protokollen, die beispielsweise in unterschiedlichen Terminen oder in unterschiedlichen Zeitpunkten akquiriert werden können) stammen.
  • Demzufolge ist die Anpassung für die unterschiedlichen Bilddatensätze annähernd die gleiche. Wenn beispielsweise die momentane Untersuchung, die verarbeitet wird, eine Herz-Belastungsuntersuchung ist, können Daten, die die verformbaren Modelle betreffen, die verwendet werden, wenn die Herz-Ruhezustandsuntersuchung desselben Patienten angepasst wird, genutzt werden, um die Robustheit der Anpassung zu erhöhen. Beispielsweise kann die Verwendung von Informationen aus einem angepassten Modell vom Ruhezustand, um eine Modellanpassung im Belastungszustand zu initialisieren (oder umgekehrt), eine bessere Initialisierung ergeben, als wenn mit einem mittleren Modell in dem Zentrum des Bildes begonnen würde. In verschiedenen Ausführungsformen können die früher akquirierten Bilder Bilder von demselben Patienten, die in einer früheren Untersuchung akquiriert worden sind, Bilder von demselben Patienten und derselben Untersuchung oder sogar Bilder von einem anderen Patienten sein.
  • In der Belastungs-Echokardiografie werden beispielsweise Basis- bzw. Bezugsbilder gewöhnlich bei einer niedrigen oder Ruhe-Herzfrequenz akquiriert. Folglich ist die zeitliche Bildauflösung relativ zu der Herzfrequenz besser als bei Bildern, die bei einer belastungsbedingten oder höheren Herzfrequenz akquiriert werden. Beispielsweise kann eine Akquisition von 20 Rahmen pro Sekunde bei 60 Herzschlägen pro Minute eine bessere zeitliche Bildauflösung im Vergleich zu einer Akquisition von 20 Rahmen pro Sekunde bei 180 Herzschlägen pro Minute ergeben, da die letztere eine viel größere Myokardbewegung zwischen Rahmen nach sich zieht. Deshalb kann es in einigen Ausführungsformen wünschenswert sein, Daten zu nutzen, die mit den Basis- bzw. Bezugsbildern im Zusammenhang stehen, wenn die Belastungsbilder verarbeitet werden.
  • Selbst wenn der Benutzer frühere Bilder nutzen kann, um die Ähnlichkeit zwischen den Sondenorientierungen in den Akquisitionen zu erhöhen, können einige Unterschiede vorhanden sein. Beispielsweise kann der Benutzer, wenn die Belastungsbilder akquiriert werden, weniger Zeit haben, um die Sonde 108 in die gewünschte Bildgebungslage einzustellen. Folglich kann der Algorithmus die angepassten Modelle nutzen, um die Bild ausrichtung zu verbessern, so dass die Bilder von unterschiedlichen Untersuchungen die gleichen anatomischen Strukturen anzeigen oder auf den gleichen anatomischen Strukturen beruhen.
  • In Bezug auf die Anpassung veranschaulicht 3 ein Doo-Sabin-Unterteilungsmodell 180, das in einem Drahtnetz 182 eingeschlossen ist, das mehrere Steuerknoten 184 aufweist. Beispielsweise können 34 Steuerknoten 184 in einer derartigen Weise modelliert werden, dass das Netz 182 auf die endokardiale Oberfläche genau angepasst werden kann. Die Verfolgung (das Tracking) erfolgt vollautomatisch und kann durch Platzieren eines Modells mit einer mittleren Gestalt in dem Zentrum des Bildsektors und/oder durch die oben erläuterten) Eingabe(n) initialisiert werden. In jedem Bildrahmen wird eine Kantendetektionsmessung durchgeführt, um die endokardiale Wand in über der Oberfläche gleichmäßig verteilten Suchnormalen zu detektieren. Parameter für die Gestalt des Modells werden mit Parametern für eine globale Translation, Rotation und Skalierung kombiniert, um eine Zustands-Raum-Darstellung zu erzeugen. Ein Kalman-Filter kann verwendet werden, um alle Kantendetektionsmessungen anzugleichen, und eine Bayes'sche Kleinstquadratschätzung des Modells kann auf der Basis sowohl der Kantenmesswerte als auch der Vorhersagen von einem kinematischen Modell berechnet werden.
  • Zurückkommend auf 2 identifiziert der Prozessor 110 bei 154 Merkmalspunkte oder Orientierungspunkte von dem segmentierten Modell. Die Merkmalspunkte können beispielsweise vordefinierte Punkte sein, die die Spitze bzw. Basis oder die Oberseite bzw. Unterseite an einem Modell des linken Ventrikels identifizieren. Beispielsweise kann die Spitze einem Punkt an einer Oberseite 186 des Modells 180 entsprechen, und die Basis kann einer Mitte oder ungefähr einer Mitte einer Unterseite 188 des Modells 180 entsprechen. Es sollte verstanden werden, dass beliebige sonstige vordefinierte Punkte verwendet werden können, wie beispielsweise Modellschwerpunkte, Momenten-/Zentralachse und dergleichen. Außerdem können vordefinierte Punkte aus anderen Modellen, wie beispielsweise eine Spitze, Basis oder irgendein anderer vordefinierter Punkt in einem Modell des rechten Ventrikels, vordefinierte(r) Punkt(e) in einem Modell des linken und/oder rechten Vorhofs, vordefinierte(r) Punkt(e) in dem Modell des Ausflusstraktes des linken Ventrikels oder andere Punkte in anderen Modellen anderer interessierender Strukturen, extrahiert werden.
  • 4 veranschaulicht beispielhafte segmentierte Schnittschichten bei der Enddiastole (ED) 190 und der Endsystole (ES) 192, die daran identifizierte Merkmalspunke aufweisen. In der ED-Schicht 190 sind eine Spitze 194 und eine Basis 196 identifiziert worden, von denen aus die Linie 202 der Spitze-Basis-Längsachse (LA) extrahiert werden kann. Die Spitze 198 und die Basis 200 sind auch in der ES-Schicht 192 identifiziert, und es kann die Spitze-Basis-LA-Linie 204 extrahiert werden. Die Spitze 194 und die Spitze 198 sind nicht an der gleichen Position angeordnet, und die Basis 196 und die Basis 200 sind nicht an der gleichen Position angeordnet. Die Spitze-Basis-LA-Linie 204 gibt einen kleineren Abstand zwischen der Spitze 198 und der Basis 200 im Vergleich zu der Spitze-Basis-LA-Linie 202 wieder. Diese Abstandsdifferenz repräsentiert die Bewegung aus der Ebene heraus, die in Kurzachsenschichten während des Herzzyklus erfahren werden kann.
  • Zurückkommend auf 2 kann der Prozessor 110 bei 156 automatisch Bildansichten identifizieren. In einigen Ausführungsformen kann eine Kenntnis oder ein Wissen über eine ähnliche Orientierung zwischen Bildansichten in einer früher akquirierten Untersuchung verwendet werden, um eine Bildansicht in einer anderen Untersuchung zu identifizieren. Beispielswei se können LV-Kurzachsenschichten, die bezüglich einer Bewegung aus der Ebene heraus korrigiert werden, identifiziert und auf der Anzeige 112 angezeigt werden. Die LV-Kurzachsenschichten sowie weitere andere Arten beispielhafter Bildansichten sind nachstehend in Einzelheiten beschrieben. In einigen Ausführungsformen können weitere Dimensionen, wie beispielsweise Temperatur, Verschiebung, Geschwindigkeit, Belastung und dergleichen, wie vorstehend erläutert, in den Bildansichten eingefügt sein, indem beispielsweise eine Farbkodierung oder andere Anzeigen verwendet werden.
  • Bei 158 bestimmt der Prozessor 110, ob irgendwelche weiteren Bildrahmen verarbeitet werden sollten. Falls dies nicht der Fall ist, ist das Verfahren beendet, und Bildansichten können auf der Anzeige 112 angezeigt, in der Speichervorrichtung 116 gespeichert werden und dergleichen. Falls mehrere Bildrahmen verarbeitet werden sollen, passt der Prozessor 110 bei 160 das/die verformbare(n) Modell(e) auf die Struktur(en) in dem nächsten Bildrahmen an, und das Verfahren kehrt zu 154 zurück, um den/die Merkmalspunkt(e) in dem/den Modell(en) auf der Basis des derzeitigen Bildrahmens zu identifizieren.
  • 5 veranschaulicht ein Beispiel für die Identifizierung von Kurzachsenschichten auf der Basis der Merkmalspunkte. Es ist ein angepasstes Modell 210 veranschaulicht, wobei durch den Prozessor 110 eine Spitze 212 und eine Basis 214 identifiziert worden sind. Es sind mehrere Kurzachsenschichten oder -schnitte 216 auf dem Modell 210 in Bezug auf die Merkmalspunkte, die Spitze 212 und die Basis 214, identifiziert. In einer Ausführungsform können die Kurzachsenschichten 216 zwischen der Spitze 212 und der Basis 214 im gleichmäßigen Abstand zueinander angeordnet sein. 5 veranschaulicht einen einzelnen Bilddatenrahmen. Auf jedem der N Bildrahmen werden die mehreren Kurzachsenschichten 216 auf der Basis der Spitze und der Basis definiert, die in dem bestimmten Bildrahmen identifiziert werden. Folglich verfolgen die Kurzachsenschichten 216 das Gewebe und/oder die anatomischen Strukturen des Herzens, so dass auf diese Weise die Anatomie vom Rahmen zum Rahmen übereinstimmt.
  • 6 veranschaulicht eine Reihe von Mittelwand-Bildansichten, die auf den Kurzachsenschichten basieren. Bildansichten 230 und 240 repräsentieren Bilddaten innerhalb der Bildschicht, die einem ersten Bildrahmen bei ED entspricht. Bildansichten 232 und 242 repräsentieren Bilddaten innerhalb eines vierten Bildrahmens, während Bildansichten 234 und 244 Bilddaten innerhalb eines siebten Bildrahmens repräsentieren und Bildansichten 236 und 246 Bilddaten in einem zehnten Bildrahmen repräsentieren, der ES entspricht. Die Bildansichten 230, 232, 234 und 236 sind unkorrigiert, d. h. die Bildansichten 230236 beruhen auf Bilddaten, die verarbeitet worden sind, indem Merkmalspunkte, wie beispielsweise eine Spitze und eine Basis, innerhalb eines einzigen Bildrahmens ausgewählt und die gleichen Merkmalspunkte auf die anderen N Bildrahmen angewandt worden sind. Die Bildansichten 240, 242, 244 und 246 sind in Bezug auf eine Bewegung aus der Ebene heraus korrigiert, die durch eine longitudinale Verkürzung des linken Ventrikels verursacht ist, d. h. der Prozessor 110 hat die Merkmalspunkte in jedem der Bildrahmen identifiziert und die Orte der Kurzachsenschichten vor der Erzeugung der Bildansichten 240246 automatisch angepasst. Die korrigierten Mittelwand-Bildansichten 240246 veranschaulichen, dass der gleiche Teil von Papillarmuskeln 250 verfolgt wird, während in den nicht korrigierten Mittelwand-Bildansichten 230236 sich die Papillarmuskeln 250 in den Bildansichten 230236 und aus diesen heraus bewegen.
  • 7 veranschaulicht eine Reihe von basalen Bildansichten, die auf den Kurzachsenschichten beruhen. Ähnlich wie bei 6 repräsentieren Bildansichten 260 und 270 Bilddaten in einem ersten Bildrahmen, der ED entspricht. Bildansichten 262 und 272 repräsentieren Bilddaten in einem vierten Bildrahmen, während Bildansichten 264 und 274 Bilddaten in einem siebten Bildrahmen repräsentieren und Bildansichten 266 und 276 Bilddaten in einem zehnten Bildrahmen repräsentieren, der ES entspricht. Erneut sind die Bildansichten 260, 262, 264 und 266 nicht korrigiert und beruhen auf Merkmalspunkten, die in nur einem einzigen Bildrahmen innerhalb einer Folge von N Bildrahmen identifiziert worden sind. Die Bildansichten 270, 272, 274 und 276 sind hinsichtlich einer Bewegung aus der Ebene heraus korrigiert, wobei die Merkmalspunkte auf jedem der N Bildrahmen identifiziert worden sind und die Kurzachsenschichten auf den entsprechenden Merkmalspunkten beruhen. Die korrigierten basalen Bildansichten 270276 zeigen, dass der Mitralklappe 280 über all die Bildansichten 270276 hinweg gefolgt wird, während die unkorrigierten basalen Bildansichten 260266 die Vorhöfe während der Systole anzeigen.
  • In einigen Ausführungsformen kann eine automatische Ausrichtung einiger Standardansichten durch Anpassen verschiedener gekoppelter verformbarer Modelle auf Herzstrukturen erzielt werden. Die gleiche recheneffiziente Verfolgungsgrundstruktur kann verwendet werden, wie sie vorstehend beschrieben ist. Die Verfolgungsgrundstruktur kann ein erweitertes Kalman-Filter nutzen, um zeitliche Vorhersagen zu treffen, und die Kantendetektionsmessungen von jedem Modell können angeglichen werden, um eine Bayes'sche Kleinstquadratanpassung der Modelle auf eine nicht iterative Weise zu berechnen. Anschließend können Merkmalspunkte aus den angepassten Modellen extrahiert und als eine Basis für die Gewinnung ausgerichteter Standardansichten verwendet werden.
  • Um einige Standardansichten mit automatischer Ausrichtung zu erzeugen, können Informationen über sowohl die ventrikuläre Längsachse als auch die umfangsseitige Orientierung des Herzens benötigt werden. In einigen Fällen kann die Umfangsinformation, die alleine aus dem LV-Modell extrahiert wird, nicht ausreichen, weil die Umfangsinformation lediglich auf den assymetrischen Eigenschaften der Gestalt basiert, die zwischen Objekten variieren und von der Partologie abhängen können. Daher kann die Kopplung von zwei oder mehreren verformbaren Modellen verwendet werden, um verschiedene Herzstrukturen gleichzeitig zu verfolgen. Durch Berechnen des Winkels zwischen den Modellen für die unterschiedlichen Strukturen kann eine verlässlichere Beurteilung der Orientierung erzielt werden.
  • In einer Ausführungsform kann, um eine Erfassung sowohl der Längsachsen- als auch der umfangsseitigen Orientierung zu ermöglichen, ein LV-Modell mit einer segelartigen Struktur für die Innenwand des rechten Ventrikels (RV) gekoppelt werden. In einer anderen Ausführungsform kann eine Rohr-Linien-Struktur für den linksventrikulären Ausflusstrakt (OT, Outflow Tract) gemeinsam mit dem LV-Modell und der segelartigen Struktur gekoppelt werden. Es kann eine verformbare Doo-Sabin-Unterteilungsfläche als das LV-Modell verwendet werden, wie dies vorstehend beschrieben ist. Für das RV kann die innere RV-Wand ausgewählt werden, da diese den Teil des RV bildet, der gewöhnlich am sichtbarsten ist, verglichen mit der vorderen Wand, die daran leiden kann, dass sie herausfällt. Alle Modelle können gemeinsam eine globale Transformation für die Translation, Rotation und Skalierung nutzen. Das Ausflusstraktmodell kann auch zusätzlich mit einer Drehtransformation (H, Hinge Transform) verbunden sein, die dem Modell ermöglicht sich zu drehen, um sich an Unterschiede in der Anatomie für den Ausflusstrakt zwischen Objekten anzupassen.
  • 8 veranschaulicht, wie die Modelle in einer Verfolgungshierarchie in Beziehung zueinander gesetzt werden können. Es sind eine globale Transformation Tg 300, ein RV-Segel Mrv 302, ein LV-Modell Mlv 304, ein LV-Ausflusstrakt Mot 306 und eine Drehtransformation Th 308 veranschaulicht. Es kann eine Zustandsraumdarstellung der Verfolgungshierarchie aufgestellt werden, indem die Parameter von allen Transformationen und Modellen in einen Zustandsvektor verknüpft werden. Der RV-Segel und der Ausflusstraktzylinder haben keine Gestaltsparameter und sind nur durch ihre zugehörigen Transformationen beeinflusst, so dass der verknüpfte Zustandsvektor wird zu: x = [xT gxT lvxT h]T.
  • Obwohl dies in 8 nicht veranschaulicht ist, kann Wissen, wie beispielsweise das Wissen, das auf einer früher akquirierten Folge von Bildern beruht, oder Wissen, das mit der Orientierung der Sonde 108 im Zusammenhang steht, wie vorstehend erläutert, der globalen Transformation 300 als Eingabe zugeführt werden. In einer Ausführungsform kann ein Benutzer mitttels der Benutzerschnittstelle 118 Parameter, wie beispielsweise die momentane Orientierung der Sonde 108, eingeben, die durch den Ausrichtungsalgorithmus verwendet werden können, um die Modelle besser auszurichten. In einer anderen Ausführungsform kann ein Wissen aus einer früher akquirierten Reihe von Bildern, wie beispielsweise den Ruhezustandsbildern, verwendet werden, um eine Eingabe zur Verarbeitung der Belastungsbilder bereitzustellen, und es kann auch verwendet werden, um globale Parameter, wie beispielsweise Rotation, zu aktualisieren.
  • 9 veranschaulicht eine beispielhafte Kalman-Verfolgungs-Grundstruktur, die eine Verfolgungshierarchie enthält. Wie in 9 veranschaulicht, werden der Zustandsvektor 320 und die Kovarianzmatrix 322 für frühere Bildrahmen in einem Vorhersageschritt 324 verwendet, um einen vorhergesagten Zustandsvektor 326 und eine vorhergesagte Kovarianzmatrix 328 zu erzeugen. Wie nachstehend beschrieben, werden der vorhergesagte Zustandsvektor 326 und die vorhergesagte Kovarianzmatrix 328 bei dem Messschritt 330 genutzt, um einen Informationsvektor 332 und eine Informationsmatrix 334 zu erzeugen. Der Informationsvektor 332 und die Informationsmatrix 334 werden in einem Aktualisierungsschritt 336 verwendet.
  • Es werden kinematische Modelle verwendet, um Konturzustände zwischen aufeinanderfolgenden Bildrahmen vorherzusagen. Derartige Modelle wirken durch die Nutzung von Vorwissen, wobei sie sowohl eine Vorhersage für den Zustandsvektor als auch eine für die Kovarianzmatrix ergeben und die Vorhersageunsicherheit angeben. Die Vorhersage kann anschließend als ein Startpunkt für genauere Verfeinerungen genutzt werden, die als Aktualisierungen bezeichnet werden, wobei die Vorhersage mit Messungen von dem momentanen Rahmen kombiniert wird, um genauere Schätzwerte zu bilden.
  • Folglich kann in dem Vorhersageschritt 324 die zeitliche Vorhersage des Verbundzustandsvektors x -k+1 = f(x ^k, x0),auf dem aktualisierten Zustand aus einem früheren Rahmen und einer Vorhersagefunktion f, mit einer damit verbundenen Vergrößerung der Kovarianzmatrix 322, beruhen, um einen vorhergesagten Zustandsvektor 326 und eine vorhergesagte Kovarianz matrix 328 zu erzeugen. In einer Ausführungsform kann die zeitliche Funktion ein lineares autoregressives Modell sein.
  • Wie in 9 veranschaulicht, sind drei übereinander angeordnete Boxen für den Modellschritt 338, den Messschritt 330 und den Angleichungsschritt 340 vorhanden. Jede der Boxen bezieht sich auf ein anderes verformbares Modell, so dass es folglich in einer Ausführungsform zwei Modelle geben kann, während es in einer anderen Ausführungsform mehr als drei Modelle geben kann. Die drei Modelle, die in dem Beispiel verwendet werden, sind in 8 veranschaulicht, d. h. der RV-Segel 302, das LV-Modell 304 und die Kombination aus dem LV-Ausflusstrakt 306 und der Drehtransformation 308. Folglich werden der Modellschritt 338, der Messschritt 330 und der Angleichungsschritt 340 in der Verfolgungshierarchie unabhängig voneinander für jedes Modell durchgeführt.
  • In dem Modellschritt kann der Prozessor 110 Oberflächenpunkte p 350, Normalvektoren n 342 und Jacobimatritzen J für alle Modelle in der Verfolgungshierarchie auf der Basis des vorhergesagten Zustandsvektors 326 auswerten. In dem Messschritt 330 kann der Prozessor 110 Normalverschiebungsmesswerte v 344, Messrauschen r 346 und Messvektoren h 348, wobei h = nTJ ist, auf der Basis einer Kantendetektion in dem Bildgebungsvolumen in Bezug auf die Oberflächenpunkte aus jedem der vorhergesagten Modelle erfassen. In dem Angleichungsschritt 340 gleicht der Prozessor 110 Messergebnisse von jedem Modell an, indem die Ergebnisse in dem Informationsraum summiert werden, beispielsweise durch: HTR–1ν = Σihiri –1νi, HTR–1H = Σihiri –1hT i.
  • In dem Aktualisierungsschritt 336 berechnet der Prozessor 110 eine aktualisierte Zustandsschätzung auf der Basis der Vorhersage und der Messinformation, beispielsweise durch:
    Figure 00260001
  • Eine Verfolgung (ein Tracking) kann vollautomatisch durchgeführt werden, und in einer Ausführungsform kann diese initialisiert werden, indem ein Modell mit einer mittleren Gestalt in dem Zentrum des Bildsektors positioniert wird. In anderen Ausführungsformen können andere Initialisierungsdaten auf der Basis einer Benutzereingabe, anderer Bilder, einer Eingabe von einem Protokoll und dergleichen benutzt werden. Es werden Kantendetektionsmessungen in jedem Rahmen durchgeführt, um die endokardiale Wand in Suchnormalen zu detektieren, die über der Oberfläche gleichmäßig verteilt sind. Parameter für die Gestalt des Modells werden mit Parametern für die globale Translation, Rotation und Skalierung kombiniert, um eine Zustandsraumdarstellung des Segmentierungsproblems zu erzeugen.
  • Der Prozessor 110 kann anschließend Merkmalspunkte aus den gekoppelten, angepassten Modellen identifizieren, die verwendet werden können, um standardgemäße Apikal- und Kurzachsenschichten zu erzeugen. Wie zuvor bei dem einzelnen Modell erläutert, werden die Kurzachsenschichten nach einer Verfolgung in jedem Rahmen automatisch aktualisiert, um eine Bewegung aus der Ebene heraus, die durch eine Verkürzung des LV in Längsrichtung verursacht ist, zu korrigieren.
  • Während der Verfolgung werden Merkmalspunkte von der Spitze und der Basis des LV-Modells aus dem segmentierten Modell nach der Anpassung in jedem Rahmen extrahiert. Dies ist ähnlich der Identifikation der Merkmalspunkte, wie sie im Zusam menhang mit Block 154 nach 2 erläutert ist. Folglich können gleichmäßig verteilte Kurzachsenschichten orthogonal zu der Spitzen-Basis-Längsachse erzeugt werden, wie dies zuvor erläutert und in 5 veranschaulicht ist.
  • Außerdem werden die Winkel und/oder die Orientierung zwischen Merkmalspunkten auf dem LV-Modell, dem RV-Segel und dem Ausflusstraktzylinder ebenfalls auf der Basis jedes der N Bildrahmen berechnet, um die umfangsseitige Orientierung des Herzens abzuleiten. Nur um ein Beispiel anzugeben, kann ein Vektor von der LA-Linie 202 (wie in 4 veranschaulicht) zu jeder der anderen Strukturen (z. B. dem RV-Segel und dem Ausflusstraktzylinder) erzeugt werden. Die Vektoren sind orientierungsabhängig. Die umfangsseitige Orientierung kann anschließend verwendet werden, um standardgemäße apikale Vier-Kammer-, Zwei-Kammer- und Längsachsen-Ansichten zu erzeugen, die durch den Spitzen-Basis-Längsachsenvektor zentriert sind.
  • 10 veranschaulicht ein Beispiel für die Extraktion standardgemäßer Apikalansichten auf der Basis von Merkmalspunkten aus den gekoppelten Modellen. In diesem Beispiel sind ein LV-Modell 370, ein RV-Segelmodell 372 und ein LV-Ausflusstraktmodell 374 miteinander gekoppelt.
  • Wie in 10 veranschaulicht, können drei Schichten bzw. Schnitte 376, 378 und 380, die gewünschten Standardansichten entsprechen, basierend auf den Winkeln und/oder Abständen zwischen den Modellen positioniert werden. Es wird kein fester Winkel zwischen den Schichten 376, 378 und 380 angenommen, so dass sich in einigen Ausführungsformen die Winkel 382, 384 und 386 voneinander unterscheiden können. Die Winkel 382, 384 und 386 können auch basierend auf den relativen Abständen oder Winkeln zwischen den Modellen, wie beispielsweise dem Abstand zwischen dem RV-Segel- und dem LV-Ausflusstrakt-Modell 372 und 374, anpassungsfähig sein. Folglich stehen die Winkel 382, 384 und 386 zwischen den Schichten 376, 378 und 380 wenigstens zum Teil in Beziehung mit den Winkeln zwischen den Modellen 370, 372 und 374. Außerdem kann eine andere Struktur verwendet werden, um die Schichten 376, 378 und 380 zu positionieren und anzupassen, wie beispielsweise die Papillarmuskeln, der linke und/oder rechte Herzvorhof, das rechte Ventrikel und/oder andere Strukturen, Merkmalspunkte und/oder Orientierungspunkte.
  • 11 veranschaulicht drei standardgemäße Apikalansichten, eine Vier-Kammer-Apikalansicht 282, eine Zwei-Kammer-Apikalansicht 284 und eine Längsachsen-Apikalansicht 286, die den drei Schichten 376, 378 und 380 entsprechen. Beispielsweise kann eine automatische Ausrichtung der N Bildansichten sicherstellen, dass die Mitralklappe 288 und die Trikuspidalklappe 290 beide in jedem der Bilder, die der Vier-Kammer-Ansicht 282 entsprechen, veranschaulicht sind. Ferner kann die automatische Ausrichtung der N Bildansichten sicherstellen, dass die Mitralklappe 288 und der Ausflusstrakt 292 beide in jedem der Bilder, die der Längsachsenansicht 286 entsprechen, veranschaulicht sind.
  • In einigen Ausführungsformen kann der Benutzer wünschen, die Ausrichtung manuell einzustellen. Beispielsweise kann die automatische Ausrichtung die Modelle nicht richtig zueinander ausrichten, so dass folglich die resultierenden Bilder gegebenenfalls nicht die gewünschten Bilddaten enthalten. Zum Beispiel kann der Benutzer die Vier-Kammer-Ansicht überprüfen und hinsichtlich der Gegenwart des linken und des rechten Ventrikels sowie des linken und des rechten Vorhofs sowie der Mitral- und der Trikuspidalklappe durchsuchen. Wenn die gewünschte Anatomie nicht in der Ansicht enthalten ist, kann der Benutzer die Ausrichtung manuell anpassen.
  • In einer Ausführungsform kann der Prozessor 110 zwei oder drei Längsachsenschichten auf der Anzeige 112 anzeigen. Beispielsweise können die drei Längsachsenschichten, die den Schichten 376, 378 und 380 entsprechen, auf der Anzeige 112 angezeigt werden. Eine oder mehrere Kurzachsenschichten, wie beispielsweise die Bilder, die den Kurzachsenschichten 216 nach 5 entsprechen, können ebenfalls angezeigt werden. Der Benutzer kann anschließend die Benutzerschnittstelle 118 verwenden, um das Bild zwischen den Ansichten zu verdrehen, zu ziehen, zu verschieben und/oder in sonstiger Weise anzupassen, um die Ausrichtung zu korrigieren. In anderen Worten kann der Benutzer die Ausrichtung durch Drehen und Verschieben des Modells relativ zu dem interessierenden Objekt anpassen oder korrigieren. In einer weiteren Ausführungsform kann die manuelle Korrektur eine Drehung, Translation und/oder Skalierung des Modells relativ zu dem interessierenden Objekt umfassen. In einer noch weiteren Ausführungsform kann die manuelle Korrektur eine Anpassung der Position der einzelnen Steuerknoten 184 (wie in 3 veranschaulicht) in Bezug auf das interessierende Objekt umfassen.
  • In einer noch weiteren Ausführungsform können Bilder, beispielsweise Belastungsbilder, auf der Basis von Ausrichtungsinformationen aus den Modellen erzeugt werden, die verwendet werden, um die Ruhezustandsbilder zu erzeugen. Folglich kann der Ausrichtungsalgorithmus gegebenenfalls nicht dazu benutzt werden, die Modelle auf die Belastungsdaten anzupassen. Zum Beispiel können Parameter, wie beispielsweise die Größe oder Länge des Herzens und die Koordinate oder eine sonstige Lageinformation für die Klappen oder eine andere Anatomie bekannt sein. Deshalb kann angenommen werden, dass die Geometrie, Größe, Position und Orientierung für den Ruhezustands- und den Belastungszustandsfall die gleichen sind, selbst wenn das Herz in dem letzteren Fall schneller schlägt. Demgemäß können be kannte Ausrichtungspositionen verwendet werden, um Ansichten, wie beispielsweise die Längsachsen-, die Vier-Kammer- und die Zwei-Kammer-Ansicht, zu erzeugen. Eine Modellanpassung kann auf diese Weise gegebenenfalls nur an einer Aufzeichnung oder einem einzelnen Satz von Bildrahmen vorgenommen werden, während anschließend die Parameter auf andere Sätze von Bildrahmen angewandt werden. In einigen Fällen kann es wünschenswert sein, dass die Sondenorientierung für jeden der Bildrahmen die gleiche oder annähernd die gleiche ist.
  • Ausgerichtete Schichten können während einer Nachverarbeitung gezeigt werden, um Bilder aus unterschiedlichen Untersuchungen, Sequenzen oder Videoclips zu vergleichen. Die Ausrichtung kann zum Beispiel erforderlich sein, wenn entweder die Sondenorientierung nicht in Bezug auf die Längsachse des linken Ventrikels korrekt ist (d. h. die Sondenhauptachse verläuft nicht entlang der LV-Hauptlängsachse), oder wenn die Sondenorientierung nicht in bei unterschiedlichen Belastungsniveaus akquirierten Untersuchungen gleich ist. Es sollte verstanden werden, dass viele unterschiedliche Arten von Bildern erzeugt, angezeigt und miteinander verglichen werden können und dass diese folglich nicht auf diejenigen speziellen Beispiele beschränkt sind, die hierin beschrieben sind.
  • 13 veranschaulicht eine Nachverarbeitung von Längsachsen-Apikalbildern aus einer Belastungs-Echo-Untersuchung. In diesem Beispiel enthielt die Belastungs-Echo-Untersuchung eine Akquisition von mehreren Sätzen von Bildrahmen bei unterschiedlichen Belastungsniveaus. Es sind ein Basis- bzw. Bezugsbild 420, ein Niederdosisbild 422, ein Höchstdosisbild 424 und ein Erholungsbild 426 gemeinsam auf der Anzeige veranschaulicht. Die Bilder 420426 sind aus vier unterschiedlichen Sequenzen von Bildframes automatisch extrahiert worden. Es sind ferner Wandbewegungs-Auswertungsdiagramme 428 veranschau licht, worin der Benutzer Ergebnisse der segmentalen Wandbewegungsanalyse eingeben kann. Deshalb kann der Benutzer in der Lage sein, Bilder miteinander zu vergleichen, die die gleichen anatomischen Daten enthalten, die jedoch bei unterschiedlichen Belastungsniveaus und/oder zu unterschiedlichen Zeiten akquiriert worden sind.
  • EKG-Aufzeichnungen 430, 432, 434 und 436 können ebenfalls angezeigt werden. Wenn beispielsweise das Untersuchungsobjekt (z. B. das Herz) ein zyklisches Bewegungsmuster aufweist, dann können Bildfilmschleifen oder Filme über eine Zeit hinweg synchronisiert werden. Wenn Bilder auf der Basis beispielsweise der Echokardiografie sowohl während einer Akquisition als auch während einer Nachverarbeitung betrachtet werden, sind die Bilder durch Verwendung des EKG-Signals oder anderer Detektionsmittel synchronisiert. Folglich werden die systolischen Teile all der Bildfilmschleifen auf der Anzeige 112 gleichzeitig angezeigt, und die diastolischen Teile werden gleichzeitig angezeigt.
  • In einer weiteren Ausführungsform können ein oder mehrere der Bilder 420426 beispielsweise mit gleichen Bildern von demselben Patienten, die zu einem anderen Zeitpunkt, wie beispielsweise um Monate auseinander, aufgenommen worden sind, mit einem anderen Patienten oder mit beispielhaften normalen Bildern angezeigt und somit verglichen werden.
  • 14 veranschaulicht eine Nachverarbeitung von Kurzachsenbildern aus einer Belastungs-Echo-Untersuchung. In diesem Beispiel stammen die Kurzachsenbilder von einer mittleren Höhe des LV, obwohl andere Positionen ähnlich angezeigt werden können. Es sind ein Basis- bzw. Bezugsbild 440, ein Niederdosisbild 442, ein Höchstdosisbild 444 und ein Erholungsbild 446 gemeinsam auf der Anzeige 112 veranschaulicht. Die Bilder 440444 sind aus vier unterschiedlichen Sequenzen von Bildrahmen automatisch extrahiert worden. Bewegungswand-Auswertediagramme 448 (d. h., z. B. Bullaugendiagramme, obwohl andere verwendet werden können) können ebenfalls angezeigt werden und ermöglichen dem Benutzer, die Ergebnisse einer Bewegungsanalyse der segmentalen Wand über die Benutzerschnittstelle 118 einzugeben.
  • Ein technischer Effekt wenigstens einer Ausführungsform besteht in der Verwendung einer Ausrichtung auf der Basis eines verformbaren Modells, um gewünschte Bildansichten automatisch zu erzeugen. In einigen Ausführungsformen kann die auf einem verformbaren Modell basierende Ausrichtung recheneffizient sein. Es kann ein einziges Modell verwendet werden, um die Bildansichten zu erzeugen, oder es können mehrere als ein einzelnes Modell miteinander gekoppelt werden. In einigen Ausführungsformen können Bildansichten auf diese Weise erzeugt werden, die die gleiche Anatomie im Verlauf der Zeit, beispielsweise über einen Herzzyklus hinweg, anzeigen. In einer anderen Ausführungsform können Bildansichten der gleichen Anatomie von unterschiedlichen Sätzen oder Sequenzen von Bildrahmen erzeugt und miteinander verglichen werden.
  • Es ist zu verstehen, dass die obige Beschreibung veranschaulichend und nicht beschränkend sein soll. Beispielsweise können die vorstehend beschriebenen Ausführungsformen (und/oder deren Aspekte) in Kombination miteinander eingesetzt werden. Außerdem können viele Modifikationen vorgenommen werden, um eine bestimmte Situation oder ein bestimmtes Material an die Lehren der Erfindung anzupassen, ohne von deren Rahmen abzuweichen. Während die Abmessungen und Materialarten, wie sie hierin beschrieben sind, dazu vorgesehen sind, die Parameter der Erfindung zu definieren, sind sie keineswegs beschränkend, so dass sie lediglich beispielhafte Ausführungsformen darstellen. Es werden sich viele weitere Ausführungsformen Fachleuten auf dem Fachgebiet beim Durchlesen der obigen Beschreibung erschließen. Der Schutzumfang der Erfindung sollte folglich unter Bezugnahme auf die beigefügten Ansprüche, gemeinsam mit dem vollen Umfang von Äquivalenten, die derartige Ansprüche umfassen, bestimmt werden. In den beigefügten Ansprüchen werden die Ausdrücke „enthalten” und „in dem” als die Äquivalente der jeweiligen Ausdrücke „aufweisen” und „worin” verwendet. Außerdem werden in den folgenden Ansprüchen die Ausdrücke „erste (r, s)”, „zweite (r, s)” und „dritte (r, s)”, etc. lediglich als Bezeichnungen verwendet, und sie sind nicht dazu gedacht, ihren Objekten irgendeine zahlenmäßige Anforderung aufzuerlegen.
  • Diese Beschreibung verwendet Beispiele, um die Erfindung, einschließlich der besten Form, zu offenbaren, und auch um jeden Fachmann in die Lage zu versetzen, die Erfindung umzusetzen, wozu eine Herstellung und Verwendung jeglicher Vorrichtungen oder Systeme und eine Durchführung jeglicher enthaltener Verfahren gehören. Der patentierbare Rahmen der Erfindung ist durch die Ansprüche definiert und kann weitere Beispiele enthalten, die Fachleuten einfallen. Derartige Beispiele sollen in dem Schutzumfang der Ansprüche enthalten sein, wenn sie strukturelle Elemente aufweisen, die sich von dem Wortsinn der Ansprüche nicht unterscheiden, oder wenn sie äquivalente strukturelle Elemente mit gegenüber dem Wortsinn der Ansprüche unwesentlichen Unterschieden enthalten.
  • Es ist ein Verfahren zur automatischen Identifizierung von Bildansichten in einem dreidimensionalen Datensatz geschaffen, das aufweist: Zugreifen auf einen dreidimensionalen Datensatz, der mehrere Bildframes aufweist, mit einem Prozessor 110 und Anpassen 152 wenigstens eines verformbaren Modells 370, 372, 374 auf wenigstens eine Struktur innerhalb jedes der Bildfra mes mit dem Prozessor 110. Das Verfahren weist ferner ein Identifizieren 154 wenigstens eines Merkmalspunktes innerhalb jedes der Bildframes auf der Basis des wenigstens einen verformbaren Modells 370, 372, 374 mit dem Prozessor 110 und ein Anzeigen wenigstens einer Bildansicht 230246 auf der Basis des wenigstens einen Merkmalspunktes auf einer Anzeige 112 auf.
  • 100
    Ultraschallbildgebungssystem
    102
    Sender
    104
    Empfänger
    106
    Objekt
    108
    Sonde
    110
    Prozessor
    112
    Anzeige
    114
    Medium oder Medien
    116
    Speichervorrichtung
    118
    Benutzerschnittstelle
    150
    Bildrahmen akquirieren
    152
    Verformbare(s) Modell(e) auf Struktur(en) im ersten Bildrahmen anpassen
    154
    Merkmalspunkte identifizieren
    156
    Bildansicht automatisch identifizieren
    158
    Mehr Bildrahmen verarbeiten?
    160
    Verformbares Modell auf Struktur im nächsten Bildrahmen anpassen
    180
    Doo-Sabin-Unterteilungsmodell
    182
    Rahmennetz
    184
    Steuerknoten
    186
    Oberseite
    188
    Unterseite
    190
    Enddiastolen-Schicht (ED-Schicht)
    192
    Endsystolen-Schicht (ES-Schicht)
    194
    Spitze
    196
    Basis
    198
    Spitze
    200
    Basis
    202
    Längsachsen-Linie (LA-Linie)
    204
    LA-Linie
    210
    Angepasstes Modell
    212
    Spitze
    214
    Basis
    216
    Kurzachsenschicht bzw. -schnitt
    230
    Unkorrigierte Mittelwand-Bildansicht
    232–236
    Bildansichten
    240
    Korrigierte Mittelwand-Bildansicht
    242–246
    Bildansichten
    250
    Papillarmuskeln
    260
    Unkorrigierte basale Bildansicht
    262–266
    Bildansichten
    270
    Korrigierte basale Bildansicht
    272–276
    Bildansichten
    280
    Mitralklappe
    282
    Vier-Kammer-Ansicht
    284
    Zwei-Kammer-Ansicht
    286
    Längsachsenansicht
    286
    Längsachsen-Apikalansicht
    288
    Mitralklappe
    290
    Trikuspidalklappe
    292
    Ausflusstrakt
    300
    Globale Transformation Tg
    302
    Rechtsventrikuläres (RV) Segel Mrv
    304
    Modell des linken Ventrikels (LV) Mlv
    306
    Linksventrikulärer (LV) Ausflusstrakt Mot
    308
    Drehtransformation Th
    320
    Zustandsvektor
    322
    Kovarianzmatrix
    324
    Vorhersageschritt
    326
    Vorhergesagter Zustandsvektor
    328
    Vorhergesagte Kovarianzmatrix
    330
    Messschritt
    332
    Informationsvektor
    334
    Informationsmatrix
    336
    Aktualisierungsschritt
    338
    Modellierungsschritt
    340
    Angleichungsschritt
    342
    Normalvektoren n
    344
    Normalverschiebungsmessungen v
    346
    Messrauschen r
    348
    Messvektoren h
    350
    Oberflächenpunkte p
    370
    Modell des linken Ventrikels (LV)
    372
    Modell des rechtsventrikulären (RV) Segels
    374
    Modell des Ausflusstraktes des linken Ventrikels (LV)
    376–380
    Schichten, Schnitte
    382–386
    Winkel
    400
    Referenzbild
    402
    Live-Bild
    404, 406
    EKG-Aufzeichnungen
    408
    Bild
    420
    Basisbild, Bezugsbild
    422
    Niederdosisbild
    424
    Höchstdosisbild
    426
    Erholungsbild
    428
    Wandbewegungs-Auswertediagramme
    430–436
    EKG-Aufzeichnungen
    440
    Basisbild, Bezugsbild
    442
    Niederdosisbild
    444
    Höchstdosisbild
    446
    Erholungsbild
    448
    Wandbewegungs-Auswertediagramme

Claims (10)

  1. Verfahren zur automatischen Identifizierung von Bildansichten in einem dreidimensionalen Datensatz, das aufweist: Zugriff auf einen dreidimensionalen (3D) Datensatz, der mehrere Bildrahmen aufweist, mit einem Prozessor (110); Anpassen (152) wenigstens eines verformbaren Modells (370, 372, 374) auf wenigstens eine Struktur in jedem der Bildrahmen mit dem Prozessor (110); Identifizieren (154) wenigstens eines Merkmalspunktes in jedem der Bildrahmen auf der Basis des wenigstens einen verformbaren Modells (370, 372, 374) mit dem Prozessor (110); und Anzeigen wenigstens einer Bildansicht (230246) auf der Basis des wenigstens einen Merkmalspunktes auf einer Anzeige (112).
  2. Verfahren nach Anspruch 1, wobei das Anpassen (152) ein Anpassen des wenigstens einen verformbaren Modells auf der Basis eines Kalman-Filters aufweist.
  3. Verfahren nach Anspruch 1, wobei das wenigstens eine der verformbaren Modelle (320, 372, 374) wenigstens eines aus einem Segelmodell (302), einem Zylindermodell, einem Modell des linken Ventrikels (304) und einem Modell des rechten Ventrikels aufweist.
  4. Verfahren nach Anspruch 1, wobei das Anpassen (152) unter Verwendung einer Methode der kleinsten Quadrate in einem einzigen Iterationsschritt bewerkstelligt wird.
  5. Verfahren nach Anspruch 1, wobei das Verfahren in Echtzeit während der Akquisition von Bildrahmen durchgeführt wird.
  6. Verfahren nach Anspruch 1, wobei das Anpassen (152) auf der Basis eines angepassten Modells aus mehreren zweiten Bildrahmen initialisiert wird, und wobei die mehreren Bildrahmen und die mehreren zweiten Bildrahmen mit ähnlicher Orientierung akquiriert worden sind.
  7. Verfahren nach Anspruch 1, das ferner ein Anzeigen wenigstens einer zugehörigen Bildansicht gleichzeitig mit der wenigstens einen Bildansicht (230246) aufweist, wobei die wenigstens eine zugehörige Bildansicht auf mehreren zweiten Bildrahmen basiert.
  8. System (100) zur automatischen Identifizierung von Bildansichten in einem dreidimensionalen Datensatz, das aufweist: einen Prozessor (110), der konfiguriert ist, um: auf einen dreidimensionalen Datensatz zuzugreifen, der mehrere Bildrahmen aufweist; wenigstens zwei gekoppelte verformbare Modelle (370, 372, 374) auf Strukturen in jedem der Bildrahmen anzupassen (152); wenigstens einen Merkmalspunkt in jedem der Bildrahmen auf der Basis wenigstens eines der verformbaren Modelle (370, 372, 374) zu identifizieren (154); und eine Anzeige (112), die konfiguriert ist, um wenigstens eine Bildansicht (230246) auf der Basis des wenigstens einen Merkmalspunktes anzuzeigen.
  9. System (100) nach Anspruch 8, das ferner eine Ultraschallsonde (108) aufweist, die konfiguriert ist, um die mehreren Bildrahmen zu akquirieren, wobei die Sonde (108) eine Sondenorientierung in Bezug auf wenigstens eine der Strukturen aufweist, wobei der Prozessor ferner konfiguriert ist, um die Anpassung (152) wenigstens eines der Modelle (370, 372, 374) auf der Basis der Sondenorientierung zu initialisieren.
  10. System (100) nach Anspruch 8, das ferner eine Benutzerschnittstelle (118) aufweist, die konfiguriert ist, um eine Eingabe entgegenzunehmen, wobei der Prozessor (110) ferner konfiguriert ist, um die Anpassung (152) wenigstens eines der verformbaren Modelle (370, 372, 374) auf der Basis der Eingabe einzustellen.
DE102010000274A 2009-02-04 2010-02-01 Verfahren und Vorrichtung zur automatischen Identifizierung von Bildansichten in einem 3D-Datensatz Withdrawn DE102010000274A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US12/365,738 US8265363B2 (en) 2009-02-04 2009-02-04 Method and apparatus for automatically identifying image views in a 3D dataset
US12/365,738 2009-02-04

Publications (1)

Publication Number Publication Date
DE102010000274A1 true DE102010000274A1 (de) 2010-08-05

Family

ID=42309093

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010000274A Withdrawn DE102010000274A1 (de) 2009-02-04 2010-02-01 Verfahren und Vorrichtung zur automatischen Identifizierung von Bildansichten in einem 3D-Datensatz

Country Status (4)

Country Link
US (1) US8265363B2 (de)
JP (1) JP5108905B2 (de)
CN (1) CN101901335B (de)
DE (1) DE102010000274A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015068099A1 (en) * 2013-11-05 2015-05-14 Koninklijke Philips N.V. Automated segmentation of tri-plane images for real time ultrasonic imaging

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6438638B1 (en) 2000-07-06 2002-08-20 Onspec Electronic, Inc. Flashtoaster for reading several types of flash-memory cards with or without a PC
JP5438936B2 (ja) * 2008-08-29 2014-03-12 株式会社東芝 超音波診断装置、画像処理装置及び画像処理プログラム
US8265363B2 (en) * 2009-02-04 2012-09-11 General Electric Company Method and apparatus for automatically identifying image views in a 3D dataset
ES2669058T3 (es) * 2009-07-16 2018-05-23 Tobii Ab Sistema y método de detección ocular que usa flujo de datos secuencial
US8750375B2 (en) * 2010-06-19 2014-06-10 International Business Machines Corporation Echocardiogram view classification using edge filtered scale-invariant motion features
WO2012008500A1 (ja) * 2010-07-14 2012-01-19 国立大学法人東北大学 信号処理装置、信号処理プログラム及び信号処理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP5944916B2 (ja) * 2010-11-11 2016-07-05 ゾール メディカル コーポレイションZOLL Medical Corporation 急性期介護処置システムの計器盤
US20120155727A1 (en) * 2010-12-15 2012-06-21 General Electric Company Method and apparatus for providing motion-compensated images
US8657750B2 (en) 2010-12-20 2014-02-25 General Electric Company Method and apparatus for motion-compensated ultrasound imaging
JP5087694B2 (ja) * 2011-04-14 2012-12-05 日立アロカメディカル株式会社 超音波診断装置
CN102883662B (zh) 2011-05-11 2015-04-08 株式会社东芝 医疗图像处理设备以及其方法
JP5788230B2 (ja) * 2011-06-09 2015-09-30 株式会社東芝 超音波診断装置、超音波画像処理装置、超音波画像処理プログラム
US8777856B2 (en) * 2012-06-26 2014-07-15 General Electric Company Diagnostic system and method for obtaining an ultrasound image frame
KR101517752B1 (ko) * 2012-06-28 2015-05-06 삼성메디슨 주식회사 진단 영상 장치 및 그 동작 방법
US9612656B2 (en) 2012-11-27 2017-04-04 Facebook, Inc. Systems and methods of eye tracking control on mobile device
JP2014144156A (ja) * 2013-01-30 2014-08-14 Fujifilm Corp 医用画像表示制御装置および方法並びにプログラム
US8989472B2 (en) * 2013-02-13 2015-03-24 Mitsubishi Electric Research Laboratories, Inc. Method for simulating thoracic 4DCT
WO2014139032A1 (en) * 2013-03-15 2014-09-18 Colibri Technologies Inc. Data display and processing algorithms for 3d imaging systems
US10709425B2 (en) 2013-04-03 2020-07-14 Koninklijke Philips N.V. 3D ultrasound imaging system
CN106030657B (zh) * 2014-02-19 2019-06-28 皇家飞利浦有限公司 医学4d成像中的运动自适应可视化
US9436995B2 (en) 2014-04-27 2016-09-06 International Business Machines Corporation Discriminating between normal and abnormal left ventricles in echocardiography
CN106456128B (zh) 2014-06-12 2020-10-23 皇家飞利浦有限公司 医学图像处理设备和方法
US11191519B2 (en) 2014-08-05 2021-12-07 HABICO, Inc. Device, system, and method for hemispheric breast imaging
JP6382050B2 (ja) * 2014-09-29 2018-08-29 キヤノンメディカルシステムズ株式会社 医用画像診断装置、画像処理装置、画像処理方法及び画像処理プログラム
US9345454B2 (en) * 2014-10-08 2016-05-24 General Electric Company Cine-loop adjustment
JP6372696B2 (ja) 2014-10-14 2018-08-15 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP6882977B2 (ja) * 2014-10-27 2021-06-02 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波画像のシーケンスを視覚化する方法、コンピュータプログラム製品及び超音波システム
US11109842B2 (en) * 2014-12-10 2021-09-07 General Electric Company Method and system for enhanced visualization of individual images in a real-time scan
EP3393366A1 (de) * 2015-12-21 2018-10-31 Koninklijke Philips N.V. Ultraschallbildgebungsvorrichtung und ultraschallbildgebungsverfahren zur inspektion eines volumens einer person
EP3554384B1 (de) * 2016-12-19 2022-09-14 Koninklijke Philips N.V. Fötale ultraschallbildgebung
US10402969B2 (en) 2017-03-10 2019-09-03 General Electric Company Methods and systems for model driven multi-modal medical imaging
WO2018201437A1 (zh) * 2017-05-05 2018-11-08 上海联影医疗科技有限公司 一种图像分割方法及***
CN108898654B (zh) * 2018-06-28 2022-07-26 苏州乐米信息科技股份有限公司 一种三维物体的移动方法和***
JP7165541B2 (ja) * 2018-09-14 2022-11-04 富士フイルムヘルスケア株式会社 ボリュームデータ処理装置、方法及びプログラム
JP6727363B2 (ja) * 2019-02-28 2020-07-22 キヤノンメディカルシステムズ株式会社 医用診断装置、医用画像処理装置及び医用画像処理方法
JP2023547525A (ja) * 2020-11-05 2023-11-10 コーニンクレッカ フィリップス エヌ ヴェ 解剖学的構造の3d表現のレンダリング及び表示
US20220367048A1 (en) * 2020-12-24 2022-11-17 Purdue Research Foundation System and methods for machine learning driven contouring cardiac ultrasound data
US20220301240A1 (en) * 2021-03-22 2022-09-22 GE Precision Healthcare LLC Automatic Model-Based Navigation System And Method For Ultrasound Images

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5768413A (en) * 1995-10-04 1998-06-16 Arch Development Corp. Method and apparatus for segmenting images using stochastically deformable contours
US7486811B2 (en) * 1996-09-16 2009-02-03 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6500123B1 (en) 1999-11-05 2002-12-31 Volumetrics Medical Imaging Methods and systems for aligning views of image data
FR2808326B1 (fr) * 2000-04-27 2002-07-12 Commissariat Energie Atomique Procede de mesurage d'un objet tridimentionnel, ou d'un ensemble d'objets
WO2002061689A1 (en) * 2001-01-30 2002-08-08 Koninklijke Philips Electronics N.V. Image processing method for displaying an image sequence of a deformable 3-d object with indications of the object wall motion
US6488629B1 (en) 2001-07-31 2002-12-03 Ge Medical Systems Global Technology Company, Llc Ultrasound image acquisition with synchronized reference image
DE10144004A1 (de) * 2001-09-07 2003-03-27 Philips Corp Intellectual Pty Verfahren zur Messung geometrischer Größen einer in einem Bild enthaltenen Struktur
AU2003246989A1 (en) * 2002-07-19 2004-02-09 Koninklijke Philips Electronics N.V. Simultaneous segmentation of multiple or composed objects by mesh adaptation
DE60311865T2 (de) * 2002-11-20 2007-10-31 Koninklijke Philips Electronics N.V. Bildverarbeitungssystem zur automatischen anpassung eines 3d-maschenmodels auf eine 3d-objektfläche
JP4373682B2 (ja) * 2003-01-31 2009-11-25 独立行政法人理化学研究所 関心組織領域抽出方法、関心組織領域抽出プログラム及び画像処理装置
US7558402B2 (en) * 2003-03-07 2009-07-07 Siemens Medical Solutions Usa, Inc. System and method for tracking a global shape of an object in motion
US7391893B2 (en) * 2003-06-27 2008-06-24 Siemens Medical Solutions Usa, Inc. System and method for the detection of shapes in images
US7536044B2 (en) * 2003-11-19 2009-05-19 Siemens Medical Solutions Usa, Inc. System and method for detecting and matching anatomical structures using appearance and shape
CN100507947C (zh) * 2003-11-19 2009-07-01 美国西门子医疗解决公司 利用外观和形状来检测和匹配解剖结构的***和方法
US7428334B2 (en) * 2004-08-27 2008-09-23 General Electric Company Methods and systems for 3D segmentation of ultrasound images
US7555151B2 (en) * 2004-09-02 2009-06-30 Siemens Medical Solutions Usa, Inc. System and method for tracking anatomical structures in three dimensional images
US7460733B2 (en) * 2004-09-02 2008-12-02 Siemens Medical Solutions Usa, Inc. System and method for registration and modeling of deformable shapes by direct factorization
US7764838B2 (en) * 2004-09-14 2010-07-27 Siemens Medical Solutions Usa, Inc. System and method for extracting an object of interest from an image using a robust active shape model
US7602970B2 (en) * 2005-03-21 2009-10-13 Siemens Medical Solutions Usa, Inc. System and method for Kalman filtering in vascular segmentation
US20060253024A1 (en) * 2005-04-26 2006-11-09 Altmann Andres C Software product for three-dimensional cardiac imaging using ultrasound contour reconstruction
ATE534098T1 (de) * 2005-09-23 2011-12-15 Koninkl Philips Electronics Nv Verfahren und system zur anpassung eines geometrischen modells mit mehreren teil- transformationen
US20070106147A1 (en) * 2005-11-01 2007-05-10 Altmann Andres C Controlling direction of ultrasound imaging catheter
US7889912B2 (en) * 2006-09-15 2011-02-15 The General Electric Company Method for real-time tracking of cardiac structures in 3D echocardiography
CA2670261A1 (en) * 2006-11-16 2008-05-29 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
US8574157B2 (en) * 2007-02-14 2013-11-05 General Electric Company Method and apparatus for generating an ultrasound image of moving objects using deformable models
US9275190B2 (en) * 2007-04-23 2016-03-01 Siemens Aktiengesellschaft Method and system for generating a four-chamber heart model
US20090171201A1 (en) * 2007-12-31 2009-07-02 Olson Eric S Method and apparatus for real-time hemodynamic monitoring
US20090226057A1 (en) * 2008-03-04 2009-09-10 Adi Mashiach Segmentation device and method
US20090238404A1 (en) * 2008-03-18 2009-09-24 Fredrik Orderud Methods for using deformable models for tracking structures in volumetric data
US8010381B2 (en) * 2008-05-20 2011-08-30 General Electric Company System and method for disease diagnosis from patient structural deviation data
US8180125B2 (en) * 2008-05-20 2012-05-15 General Electric Company Medical data processing and visualization technique
US20100123715A1 (en) * 2008-11-14 2010-05-20 General Electric Company Method and system for navigating volumetric images
US8265363B2 (en) * 2009-02-04 2012-09-11 General Electric Company Method and apparatus for automatically identifying image views in a 3D dataset

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015068099A1 (en) * 2013-11-05 2015-05-14 Koninklijke Philips N.V. Automated segmentation of tri-plane images for real time ultrasonic imaging

Also Published As

Publication number Publication date
US20100195881A1 (en) 2010-08-05
CN101901335B (zh) 2014-08-20
CN101901335A (zh) 2010-12-01
JP5108905B2 (ja) 2012-12-26
JP2010179098A (ja) 2010-08-19
US8265363B2 (en) 2012-09-11

Similar Documents

Publication Publication Date Title
DE102010000274A1 (de) Verfahren und Vorrichtung zur automatischen Identifizierung von Bildansichten in einem 3D-Datensatz
EP3185215B1 (de) Automatisierte ermittlung von konturen auf basis einer iterativen rekonstruktion
DE112004001861B4 (de) System und Verfahren zur Analyse örtlicher verformbarer Bewegungen einer Wand des linken Ventrikels eines Herzens
DE69937897T2 (de) System und verfahren zur 4d rekonstruktion und darstellung
DE102013021729B4 (de) Verbesserung der Nadelvisualisierung in der diagnostischen Ultraschallbildgebung
DE112004000393B4 (de) System und Verfahren zum Verfolgen einer globalen Form eines in Bewegung befindlichen Objekts
DE112004000381B4 (de) Verfahren zur Bereitstellung einer automatischen 3D-Läsionssegmentierung und von Läsionsmessungen
DE19746939B4 (de) Verfahren zur Messung des Herzmuskels in Herzbildern
DE102018218751A1 (de) Machinengestützter arbeitsablauf bei der ultraschallbildgebung
US11250601B2 (en) Learning-assisted multi-modality dielectric imaging
DE102005036412B4 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE102007046582A1 (de) System und Verfahren zum Segmentieren von Kammern eines Herzens in einem dreidimensionalen Bild
DE102005017492A1 (de) Verfahren zum rechnerischen Kompensieren einer periodischen Bewegung eines Organs
DE602004011933T2 (de) Automatische bestimmung der optimalen betrachtungsrichtung bei herzaufnahmen
DE102008046861A1 (de) Automatisierte Detektion von Ebenen aus echokardiographischen 3D Daten
DE10392310T5 (de) Ultraschall-Lokalisierung von anatomischen Bezugspunkten
DE19531419A1 (de) Verfahren zur Erzeugung anatomischer M-Modus-Anzeigebilder
DE102008014710A1 (de) Multimodalitätsmammographie - Rekonstrukionsverfahren und System
DE102010022307A1 (de) Verfahren zur Überprüfung der Segmentierung einer Struktur in Bilddaten
DE112014000611T5 (de) Verfahren und Vorrichtung zum Erzeugen eines abgeleiteten Bildes unter Verwendung von Bildern verschiedener Typen
DE112018004546T5 (de) Künstlich intelligente ejektionsfraktionsbestimmung
DE102006049193A1 (de) System und Verfahren zum Verfolgen von Rippenhinterteilen in Brust CT Volumina
DE102010015937A1 (de) System und Verfahren zur Anzeige von Ultraschallbewegungsverfolgungsinformationen
DE102006039919A1 (de) Wahrscheinlichtkeitstheoretischer minimaler Weg zur automatischen Speiseröhrensegmentierung
DE112015002791T5 (de) Intra-Rekonstruktions-Bewegungskorrektur

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee