DE102012213461A1 - Erzeugung modifizierter Bilddaten eines Zielobjekts - Google Patents

Erzeugung modifizierter Bilddaten eines Zielobjekts Download PDF

Info

Publication number
DE102012213461A1
DE102012213461A1 DE201210213461 DE102012213461A DE102012213461A1 DE 102012213461 A1 DE102012213461 A1 DE 102012213461A1 DE 201210213461 DE201210213461 DE 201210213461 DE 102012213461 A DE102012213461 A DE 102012213461A DE 102012213461 A1 DE102012213461 A1 DE 102012213461A1
Authority
DE
Germany
Prior art keywords
contour
input line
current
surface contour
contour input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201210213461
Other languages
English (en)
Other versions
DE102012213461B4 (de
Inventor
Jan KRETSCHMER
Grzegorz Soza
Christian Tietjen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102012213461.1A priority Critical patent/DE102012213461B4/de
Priority to CN201310323763.5A priority patent/CN103578076B/zh
Publication of DE102012213461A1 publication Critical patent/DE102012213461A1/de
Application granted granted Critical
Publication of DE102012213461B4 publication Critical patent/DE102012213461B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Robotics (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

Beschrieben wird ein Verfahren zur Erzeugung modifizierter dreidimensionaler Bilddaten eines Zielobjekts (O). Hierzu wird zunächst eine Voxelrepräsentation zumindest eines durch eine aktuelle, vorgegebene dreidimensionale Oberflächenkontur (S, RS) begrenzten Volumens (V) des Zielobjekts (O) bereitgestellt und eine aktuelle Kontur-Eingabelinie (IE) erfasst. Hierfür wird dann ein lokaler Deformierungsbereichs (D) zur Modifizierung der aktuellen Oberflächenkontur (S, RS) auf Basis von Schnittpunkten (i0, i1) der aktuellen Kontur-Eingabelinie (IE) mit der aktuellen Oberflächenkontur (S, RS) ermittelt. Es erfolgt dann eine Bestimmung einer modifizierten dreidimensionalen Oberflächenkontur (RS’) im Deformierungsbereich (D) auf Basis der Kontur-Eingabelinie (IE). Darüber hinaus wird eine Bildverarbeitungsvorrichtung (10) beschrieben, mit der dieses Verfahren durchführbar ist.

Description

  • Die Erfindung betrifft ein Verfahren zur Erzeugung modifizierter dreidimensionaler Bilddaten eines Zielobjekts vom Inneren eines Körpers, vorzugsweise eines Organs, basierend auf Messdaten eines bildgebenden Systems. Weiterhin betrifft die Erfindung eine Bildverarbeitungsvorrichtung zur Durchführung dieses Verfahrens.
  • Auf Basis von mit einem modernen bildgebenden medizintechnischen System, beispielsweise einem Magnetresonanztomographen, einem Computertomographen, einem Ultraschallgerät etc., gewonnenen Messdaten können nicht nur zweidimensionale Bilddaten von beliebigen Schichten durch das Innere eines Körpers, sondern auch dreidimensionale Bilddaten des gesamten Körpers oder separierter einzelner Organe erzeugt und diese in beliebigen Ansichten dargestellt werden. Ein typischer Anwendungsfall ist ein virtueller Flug durch ein Gefäß, die Speiseröhre, den Magen oder den Darm. Weiterhin können inzwischen auch bewegte dreidimensionale Bilder von Organen, z. B. des Herzens, erzeugt und in beliebiger Weise dargestellt werden. Die Erzeugung der Volumendaten erfolgt entweder durch Rekonstruktion aus zunächst rekonstruierten Schichtbilddaten (z.B. durch Interpolation oder dergleichen) oder direkt aus den Messdaten. Ist das untersuchte Zielobjekt eine bestimmte Struktur, z. B. ein bestimmtes Organ, ein bestimmter Knochen etc., so wird das betreffende Zielobjekt in den Volumendaten segmentiert.
  • Ein inzwischen immer wichtigerer Anwendungsfall, bei dem solche dreidimensionalen Bilddaten eines Zielobjekts unterstützend eingesetzt werden können, ist die Operationsplanung. Die gilt insbesondere bei einer Entfernung oder Teilentfernung eines Organs. Ein typisches Beispiel hierfür ist die Planung von Leberresektionen, welche zunächst virtuell mit Hilfe eines Rechners durchgeführt werden können, um dann die Erfolgschancen bzw. Risiken möglichst genau einschätzen zu können. Bei einer Leberresektion spielt die Größe des verbleibenden Lebervolumens, welches beim Spender oder Patienten verbleibt, eine wesentliche Rolle. In der Regel ist es erforderlich, dass zumindest 40 bis 60 Prozent des gesunden Lebervolumens verbleiben, so dass sich die Leber vollständig regenerieren kann. Ein Hauptproblem bei der Leberresektion sind die verschiedenen Gefäßstrukturen, die durch das Lebergewebe laufen. Muss beispielsweise ein Blutgefäß nahe eines Tumors mit entfernt werden, so muss das Lebergewebe, welches durch dieses Blutgefäß versorgt wird, ebenfalls entfernt werden. Dies führt zu sehr komplexen Szenarien. Eine virtuelle Prüfung verschiedener Resektionsszenarien vorab kann dabei helfen, einen Verbleib von ausreichendem Lebervolumen sicherzustellen. Hierfür wird ein möglichst exaktes und leicht zu verwendendes Werkzeug benötigt. Die bisherigen Methoden, mit denen ein Resektionsvolumen bestimmt werden kann, können grundsätzlich in drei verschiedene Kategorien eingeteilt werden. Bei der ersten Kategorie basiert die Strategie auf einer Modifikation der Konturen des Volumens mit einer Art Gittermodell. Die zweite Strategie beruht darauf, in verschiedenen Schichten durch das Organ jeweils das verbleibende Volumen einzuzeichnen und dann dreidimensionale Konturen zu interpolieren. Die dritte Methode verwendet eine Klassifizierung der Regionen auf Basis ihrer Versorgung durch Gefäße, um daraus dann das Resektionsvolumen zu bestimmen. All diese bisherigen Methoden sind jedoch entweder nicht besonders präzise oder zu kompliziert anzuwenden.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein besonders einfaches und sicheres Verfahren zur Erzeugung dreidimensionaler Bilddaten eines Zielobjekts sowie eine entsprechende Bildverarbeitungsvorrichtung anzugeben, bei der auf sehr einfache Weise mit hoher Präzision die Oberflächenkontur des Volumens (und somit das Volumen) eines Zielobjekts modifizierbar ist.
  • Das erfindungsgemäße Verfahren zur Erzeugung von modifizierten dreidimensionalen Bilddaten eines Zielobjekts dient vorzugsweise zur Erzeugung von Planungsbilddaten für eine Organresektion. Dabei handelt es sich bei dem Zielobjekt bzw. Organ bevorzugt um eine Leber, so dass im Folgenden in der Regel von diesem Beispiel ausgegangen wird. Das Verfahren ist aber nicht auf eine Verwendung zur Planung einer Organresektion und insbesondere nicht auf die Planung von Leberresektionen beschränkt. Das Verfahren weist erfindungsgemäß folgende Verfahrensschritte auf:
    In einem ersten Schritt wird zunächst eine Voxelrepräsentation zumindest eines durch eine aktuelle, vorgegebene dreidimensionale Oberflächenkontur begrenzten Volumens des Zielobjekts bereitgestellt. Bei einer solchen Voxelrepräsentation kann es sich um einen sogenannten Voxel-Haufen handeln. Dabei reicht vorteilhafterweise für den vorliegenden Zweck eine binäre Voxel-Maske aus, d. h. es sind keinerlei bestimmte Intensitätswerte pro Voxel erforderlich, sondern es ist lediglich notwendig, dass klar ist, ob ein Voxel Teil des aktuellen Volumens des Zielobjekts ist oder nicht. Bei dem Volumen kann es sich um das komplette Volumen des Zielobjekts, aber auch um ein relevantes verbliebenes oder aber zu entfernenden Teilvolumen des Zielobjekts handeln. Beispielsweise kann es sich um das nach einer ersten (virtuellen oder in einem vorherigen Eingriff tatsächlich durchgeführten) Resektion verbleibende Teilvolumen oder umgekehrt das dabei entfernte Teilvolumen handeln.
  • Die Voxelrepräsentation und somit auch die erzeugten dreidimensionalen Bilddaten basieren wie oben erwähnt meist direkt oder indirekt auf Messdaten eines bildgebenden medizintechnischen Systems, d. h. die Bilddaten bzw. Voxel sind auf Basis der Messdaten rekonstruiert. Die Bereitstellung der Voxelrepräsentation kann dementsprechend beispielsweise durch Laden der rekonstruierten Volumendaten, Schnittbilddaten oder Messdaten direkt von einem medizintechnischen System oder auch aus einem Massenspeicher einer Datenbank oder dergleichen erfolgen, in dem die Daten zuvor hinterlegt wurden. Es kann dann auf Basis dieser Daten eine Voxelrepräsentation erzeugt werden. Alternativ kann auch eine bereits erzeugte Voxelrepräsentation des gewünschten Volumens aus einem Speicher oder von einer anderen Funktionseinheit übernommen werden.
  • In einem weiteren Schritt wird dann zumindest eine aktuelle Kontur-Eingabelinie erfasst. Die Bezeichnung „aktuell“ ist im Rahmen der Erfindung so zu verstehen, dass sie sich immer auf den jeweiligen Modifikationsschritt bezieht.
  • D. h. wenn von Beginn an beispielsweise in mehreren Schritten eine Resektion eines Organs virtuell durchgeführt wird, umfasst eine Art Start-Organmaske das komplette zu Beginn vorhandene Volumen des segmentierten Organs, wobei das Volumen eine durch die Außenabmessungen des betreffenden Organs gegebene dreidimensionale aktuelle Oberflächenkontur aufweist. Hierzu kann beispielsweise in einem Initialisierungsschritt zunächst ein durch eine Start-Oberflächenkontur begrenztes Start-Volumen des Zielobjekts bereitgestellt werden, welches unter Verwendung der Messdaten des medizintechnischen bildgebenden Systems bzw. der daraus konstruierten Bilddaten modellbasiert (d. h. durch eine modellbasierte Segmentierung) erstellt wurde. Alternative Segmentierungsmethoden sind aber ebenso möglich.
  • Die erste Kontur-Eingabelinie ist in diesem ersten Schritt die „aktuelle“ Kontur-Eingabelinie. Ist dann auf Basis dieses ersten Modifikationsschritts ein Teil des Volumens bereits virtuell entfernt worden (d. h. es hat bereits die erste Modifikation der Oberflächenkontur auf Basis der ersten Kontur-Eingabelinie stattgefunden), so ist im nächsten Schritt die modifizierte Oberflächenkontur bzw. das modifizierte Volumen die aktuelle Oberflächenkontur bzw. das aktuelle Volumen und die in diesem nächsten Schritt eingegebene Kontur-Eingabelinie dann die neue „aktuelle“ Kontur-Eingabelinie.
  • Nach Eingabe einer Kontur-Eingabelinie erfolgt die Ermittlung eines lokalen Deformierungsbereichs zur Modifizierung der aktuellen Oberflächenkontur des Volumens auf Basis von Schnittpunkten der aktuellen Kontur-Eingabelinie mit der aktuellen Oberflächenkontur des Volumens. Dies ist ein wesentlicher Unterschied zu den bisherigen Verfahren, da hier die Deformierung bzw. Modifizierung der aktuellen Oberflächenkontur und somit des aktuellen Volumens nur lokal, d. h. im Bereich einer bestimmten vorgegebenen, im Wesentlichen lokal begrenzten Umgebung der aktuellen Kontur-Eingabelinie, soweit sie durch das aktuelle Volumen verläuft, erfolgt.
  • Schließlich erfolgt eine Bestimmung einer modifizierten dreidimensionalen Oberflächenkontur im Deformierungsbereich auf Basis der Kontur-Eingabelinie. Die modifizierte dreidimensionale Oberflächenkontur gibt dann beispielsweise je nach Betrachtungsweise bei einer Organresektion entweder den verbleibenden Teil wieder oder auch den zu entfernenden Teil. Mit der Oberflächenkontur wird entsprechend auch das aktuelle Volumen modifiziert, welches ja durch die aktuelle Oberflächenkontur begrenzt ist.
  • Die modifizierten dreidimensionalen Bilddaten können dann in beliebiger Weise ausgegeben werden, beispielsweise zunächst in einem Speicher hinterlegt werden und/oder an einer Bildausgabeeinrichtung, wie z. B. einem Bildschirm, einem Drucker etc. ausgegeben werden. Insofern dient das Verfahren auch zur Ansteuerung einer Bildausgabeeinrichtung, indem nämlich die Bilddaten des modifizierten Volumens mit der modifizierten dreidimensionalen Oberflächenkontur im Deformierungsbereich an einen entsprechenden Treiber für eine Bildausgabeeinrichtung weitergegeben werden und diese somit angesteuert wird.
  • Ein besonderer Vorteil einer lokal begrenzten Deformierung besteht darin, dass Modifikationen nur begrenzte Auswirkungen haben. Das bedeutet im speziellen, dass eine Modifikation der Oberfläche in einem gewissen Bereich nie die Oberfläche an einer entfernten Stelle „versehentlich“ ändert. Insbesondere bei der schrittweisen Bearbeitung eines Resektionsvorschlages ist diese Eigenschaft wichtig, da sonst bereits inspizierte und für gut befundene Bereiche unwissentlich verändert werden könnten.
  • Ein weiterer Vorteil besteht darin, dass es im Rahmen der Erfindung für den Bediener mit intuitiven Verfahren möglich ist, eine existierende (vorzugsweise einfache, binäre) Voxel-Maske zu modifizieren. Es ist insbesondere nicht erforderlich, dass der Bediener in mehreren parallelen Schnittebenen durch das Volumen Schnittlinien eingibt, was mit zunehmender Komplexität der Geometrie des Volumens kaum noch überschaubar ist.
  • Eine erfindungsgemäße Bildverarbeitungseinrichtung zur Erzeugung solcher modifizierten dreidimensionalen Bilddaten eines Zielobjekts weist folgende Komponenten auf:
    • – Eine Bilddatenschnittstelle zur Übernahme einer Voxelrepräsentation eines durch eine aktuelle, vorgegebene dreidimensionale Oberflächenkontur begrenzten Volumens des Zielobjekts,
    • – eine Konturlinienerfassungsschnittstelle zur Erfassung zumindest einer aktuellen Kontur-Eingabelinie,
    • – eine Deformierungsbereichsermittlungseinheit zur Ermittlung eines lokalen Deformierungsbereichs zur Modifizierung der aktuellen Oberflächenkontur auf Basis von Schnittpunkten der aktuellen Kontur-Eingabelinie mit der aktuellen Oberflächenkontur des Volumens, und
    • – eine Oberflächenkonturbestimmungseinheit zur Bestimmung einer modifizierten dreidimensionalen Oberflächenkontur des Volumens im Deformierungsbereich auf Basis der Kontur-Eingabelinie.
  • Außerdem weist die Bildverarbeitungsvorrichtung vorzugsweise eine Ausgabeschnittstelle auf zur Ausgabe des Bildes z. B. an einen Speicher oder an eine Bildausgabeeinrichtung, die in dieser Weise durch die Bildverarbeitungsvorrichtung gesteuert werden kann, um die erzeugten dreidimensionalen Bilddaten auszugeben. In der Bildausgabeeinrichtung handelt es sich vorzugsweise um ein oder mehrere Displays, um Drucker etc.
  • Eine erfindungsgemäße Bildverarbeitungsvorrichtung kann als eigenständige Vorrichtung existieren und beispielsweise über ein Netzwerk oder Ähnliches mit geeigneten Speichern, in denen die Bilddaten bzw. Voxel-Masken hinterlegt sind, oder auch direkt mit einem bildgebenden System verbunden sein, auf dem die Messdaten für die Bilddaten erzeugt wurden. Ebenso kann die Bildverarbeitungsvorrichtung aber auch beispielsweise in eine Bildrekonstruktionseinrichtung oder sogar eine Steuereinrichtung eines bildgebenden Systems integriert sein.
  • Die erfindungsgemäße Bildverarbeitungsvorrichtung kann insbesondere auch in Form von Software auf einem geeigneten Bildverarbeitungs-Rechner mit entsprechenden Speichermöglichkeiten realisiert sein. Dies gilt insbesondere für die Deformierungsbereichsermittlungseinheit und die Oberflächenkonturbestimmungseinheit, die beispielsweise in Form von Softwaremodulen realisiert sein können. Ebenso können diese Einheiten aber auch als Hardwarekomponenten ausgebildet sein, beispielsweise in Form von geeignet aufgebauten ASICs. Die Schnittstellen können ebenfalls als reine Hardware, Software oder durch Software unterstützte Hardware-Schnittstellen aufgebaut sein. Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher verwendete Bildverarbeitungsvorrichtungen, beispielsweise herkömmliche Viewer (Betrachtungsstationen), auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Die Erfindung erfasst somit auch ein Computerprogrammprodukt, welches direkt in einen Speicher einer Bildverarbeitungsrechners ladbar ist, mit Programmcodeabschnitten, um alle Schritte eines der erfindungsgemäßen Verfahren auszuführen, wenn das Programm in dem Bildverarbeitungsrechner ausgeführt wird.
  • Die abhängigen Ansprüche sowie die nachfolgende Beschreibung enthalten besonders vorteilhafte Weiterbildungen und Ausgestaltungen der Erfindung, wobei insbesondere auch die Ansprüche einer Kategorie analog zu den abhängigen Ansprüchen einer anderen Anspruchskategorie weitergebildet sein können. Ebenso können einzelne Merkmale oder Merkmalsgruppen der Ansprüche zu neuen Ausführungsbeispielen kombiniert werden.
  • Das Erfassen der aktuellen Kontur-Eingabelinie kann prinzipiell auf beliebige Weise erfolgen. Beispielsweise kann eine aktuelle Kontur-Eingabelinie automatisch durch eine andere Einrichtung, beispielsweise ein übergeordnetes Unterstützungsprogramm zur Operationsplanung oder dergleichen, vorgegeben werden. Vorzugsweise kann aber eine aktuelle Kontur-Eingabelinie aufgrund von Bedienerbefehlen erfasst werden. Hierzu wird besonders bevorzugt auf einer graphischen Benutzeroberfläche ein in einer vorzugsweise frei wählbaren Eingabeschnittebene liegendes Schnittbild der Voxelrepräsentation dargestellt. Die Eingabeschnittebene ist dabei die aktuell auf dem Monitor dargestellte Oberfläche, in der dann eine neue Eingabekonturlinie eingezeichnet werden kann. Bei dem Schnittbild kann es sich nur um einen Teilschnitt des interessierenden Bereichs, in dem die Kontur geändert bzw. ein Schnitt durch das Zielobjekt durchgeführt werden soll, oder um ein komplettes Schnittbild der Voxelrepräsentation in der betreffenden Eingabeschnittebene handeln. Es wird dann die aktuelle Kontur-Eingabelinie mit Hilfe der graphischen Benutzeroberfläche erfasst, indem beispielsweise mitprotokolliert wird, entlang welcher Linie ein Bediener im Schnittbild z. B. mittels eines Zeigegeräts der graphischen Benutzeroberfläche eine Linie einzeichnet. Dementsprechend weist die Konturlinienerfassungsschnittstelle der Bildverarbeitungseinrichtung bevorzugt eine graphische Benutzerschnittstelle auf.
  • Die aktuelle Kontur-Eingabelinie wird dann bevorzugt einer Vorprüfung bzw. Plausibilitätsprüfung unterzogen, z. B. ob die Linie sich selbst schneidet oder ob sie sich überhaupt im Volumen des Zielobjekts befindet. Da die aktuelle Kontur-Eingabelinie ja auch dazu dienen kann, um beispielsweise zuvor durchgeführte virtuelle Resektionsschnitte zu korrigieren und z. B. wieder Volumen hinzuzufügen, ist es dabei durchaus möglich, dass die aktuelle Kontur-Eingabelinie außerhalb des aktuellen verbleibenden Volumens des Zielobjekts liegt. Jedoch sollte sie sich in diesem Fall sinnvollerweise im ursprünglichen Gesamtvolumen des Zielobjekts befinden. Prinzipiell kann in jedem Schritt mehr als eine aktuelle Kontur-Eingabelinie erfasst werden, die dann im Folgenden parallel nacheinander bei der Modifikation der Oberflächenkontur berücksichtigt werden können. Im Weiteren wird aber der Einfachheit halber davon ausgegangen, dass nur eine Kontur-Eingabelinie pro Schritt erfasst wird, ohne die Erfindung hierauf zu beschränken.
  • Es werden dann die Schnittpunkte der aktuellen Kontur-Eingabelinie mit der aktuellen Oberflächenkontur des aktuellen Volumens ermittelt. Sofern mehr als zwei solcher Schnittpunkte vorhanden sind, wird vorzugsweise die aktuelle Kontur-Eingabelinie in Kontur-Eingabeliniensegmente aufgeteilt. Die Schnittpunkte der aktuellen Kontur-Eingabelinie mit der aktuellen Oberflächenkontur des Volumens bilden also jeweils die Endpunkte der bei der folgenden Modifikation zu betrachtenden Kontur-Eingabelinie bzw. bei Unterteilung dieser Kontur-Eingabelinie der jeweiligen Kontur-Eingabeliniensegmente. In diesem Fall wird dann vorzugsweise für jedes der Kontur-Eingabeliniensegmente ein lokaler Deformierungsbereich in Abhängigkeit von den Schnittpunkten der aktuellen Kontur-Eingabelinie mit der aktuellen Oberflächenkontur des Volumens ermittelt. Gibt es nur zwei solcher Schnittpunkte, ist klar, dass nur ein lokaler Deformierungsbereich um die entsprechende Kontur-Eingabelinie ermittelt wird.
  • Vorzugsweise wird außerdem in jedem Fall für die aktuelle Kontur-Eingabelinie (bzw. bei Vorhandensein mehrerer Kontur-Eingabeliniensegmente jeweils für die einzelnen Kontur-Eingabeliniensegmente) ein aktueller Deformierungs-Zentralpunkt ermittelt, welcher zumindest in etwa in der Mitte des Deformierungsbereichs liegt. Besonders bevorzugt wird für einen Deformierungsbereich als aktueller Deformierungs-Zentralpunkt ein Mittelpunkt zwischen zwei Schnittpunkten der aktuellen Kontur-Eingabelinie oder dem aktuellen Kontur-Eingabeliniensegment mit der aktuellen Oberflächenkontur des Volumens ermittelt. Für jede Kontur-Eingabelinie, bzw. bei einer Unterteilung der Kontur-Eingabelinie für jedes Kontur-Eingabeliniensegment, liegt also der zugehörige Deformierungs-Zentralpunkt zwangsweise immer in der aktuellen Eingabeschnittebene.
  • Dabei kann einfach der Mittelpunkt entlang der kürzesten Distanz zwischen den beiden zur Kontur-Eingabelinie bzw. dem Kontur-Eingabeliniensegment gehörigen Schnittpunkten als Deformierungs-Zentralpunkt verwendet werden. Alternativ kann der Deformierungs-Zentralpunkt auch so gewählt werden, dass er beispielsweise in der Mitte auf einem Pfad in der Eingabeschnittebene entlang der aktuellen Oberflächenkontur des Volumens zwischen den beiden Schnittpunkten liegt. In diesem Fall liegt also der aktuelle Deformierungs-Zentralpunkt einerseits in der Eingabeschnittebene und andererseits auch auf der aktuellen zu modifizierenden Oberflächenkontur.
  • Um den Deformierungsbereich genau zu bestimmen, wird bei einer besonders bevorzugten Verfahrensvariante zur Ermittlung eines Rands des Deformierungsbereichs für eine aktuelle Kontur-Eingabelinie (oder bei entsprechender Unterteilung jeweils für ein aktuelles Kontur-Eingabeliniensegment) ein Suchalgorithmus, vorzugsweise ein A*-Algorithmus, genutzt. Mit einem solchen geeigneten Suchalgorithmus kann unter Verwendung einer definierten Kostenfunktion ein Pfad ermittelt werden, der vorzugsweise näherungsweise entlang einer Kugeloberfläche von einem ersten Schnittpunkt der aktuellen Kontur-Eingabelinie oder des aktuellen Kontur-Eingabeliniensegments mit der aktuellen Oberflächenkontur zu dem zweiten Schnittpunkt der aktuellen Kontur-Eingabelinie oder des aktuellen Kontur-Eingabeliniensegments mit der aktuellen Oberflächenkontur und zurück verläuft. Der Mittelpunkt dieser angenäherten Kugeloberfläche oder letztlich auch des durch den Rand definierten Kreisbereichs ist dann bevorzugt der Deformierungs-Zentralpunkt. Der Pfad verläuft dabei auf der aktuellen, d. h. zu modifizierenden Oberflächenkontur des Volumens.
  • Durch eine derartige Vorgehensweise wird also mit dem Suchalgorithmus eine geschlossene Randkontur gefunden, welche auf der zu modifizierenden Oberflächenkontur des Volumens durch die beiden Schnittpunkte verläuft. Somit ist eine eindeutige Deformationsgrenze gegeben, die die durch die aktuelle Kontur-Eingabelinie verursachte Modifikation in Abhängigkeit von der Distanz der Schnittpunkte der Kontur-Eingabelinie mit der zu modifizierenden Oberflächenkontur – insbesondere auch in einer senkrecht zur aktuellen Eingabeschnittebene verlaufenden Richtung – lokal begrenzt.
  • Besonders bevorzugt werden zur Bestimmung einer modifizierten dreidimensionalen Oberflächenkontur des Volumens im Deformierungsbereich Oberflächenpunkte der Oberflächenkontur innerhalb dieses Deformierungsbereichs interpoliert, und zwar auf Basis der aktuellen Kontur-Eingabelinie oder des aktuellen Kontur-Eingabeliniensegments und vorzugsweise auch auf Basis von Oberflächenpunkten entlang des Rands des Deformierungsbereichs der Oberflächenkontur. Dabei kann es sich um die Punkte auf dem Rand, beispielsweise auf dem wie oben beschriebenen Pfad handeln, aber auch alternativ oder zusätzlich um Punkte, die zu diesem Pfad benachbart außerhalb oder innerhalb des Deformierungsbereichs liegen.
  • Dabei ist im Prinzip jedes beliebige Interpolationsverfahren einsetzbar, das geeignete Randbedingungen aufweist, wobei insbesondere die Punkte auf der aktuellen Kontur-Eingabelinie bzw. der Kontur-Eingabeliniensegmente sowie die genannten Punkte entlang des Rands als fixe Randbedingungen bzw. „Stützstellen“ vorgegeben werden. Dies gewährleistet eine neu interpolierte Oberfläche, die am Rand bzw. außerhalb des Randes glatt in die vorhandene Oberfläche übergeht. Beispielsweise kann die Interpolation so erfolgen, dass eine Oberflächenfunktion gesucht wird, die die Oberflächenkontur des modifizierten Volumens derart beschreibt, dass sie genau auf der Oberfläche Null ist und beispielsweise im Inneren des Volumens einen negativen Wert und außerhalb des Volumens einen positiven Wert einnimmt oder umgekehrt. Dabei können die bereits bekannten Stützstellen gleich Null gesetzt sein, d. h. an diesen Stellen weist die Oberflächenfunktion den festgelegten Wert Null auf.
  • Ein besonders bevorzugtes Interpolationsverfahren basiert auf an den gewünschten Stützstellen positionierten radialen Basisfunktionen. Mit solchen radialen Basisfunktionen lassen sich relativ schnell und einfach sehr gute Interpolationsergebnisse erreichen. Eine prinzipielle Methode einer Interpolation einer Oberfläche mit radialen Basisfunktionen wird beispielsweise in Greg Turk et al. „Modelling with implicit surfaces that interpolate", ACM Transactions on Graphics (TOG), 2002, S. 855 bis 873, sowie in Greg Turk et al. "Implicit surfaces that interpolate", SMI International Conference on Shape Modeling and Applications, 2002, S. 62 bis 71, beschrieben.
  • Besonders bevorzugt werden bei der Interpolation zusätzlich Punkte auf weiteren zuvor erfassten, älteren Kontur-Eingabelinien berücksichtigt, die auf der aktuellen Oberflächenkontur liegen. Hierbei handelt es sich in der Regel um Kontur-Eingabelinien, die in Eingabeschnittebenen liegen, die unter einem Winkel zur aktuellen Eingabeschnittebene (beispielsweise senkrecht hierzu) stehen und bei einem vorhergehenden Modifizierungsdurchgang eingegeben wurden, um Schnitte in diesen anderen Ebenen zu definieren. Um eine Berücksichtigung älterer Kontur-Eingabelinien vornehmen zu können, werden vorzugsweise in jedem Schritt die aktuellen Kontur-Eingabeliniendaten gespeichert, z. B. indem die einzelnen Voxel des Voxel-Volumens markiert werden, die zu einer solchen Kontur-Eingabelinie gehören. In einem späteren Verfahrensschritt bei einer Eingabe einer neuen aktuellen Kontur-Eingabelinie brauchen dann nur noch bestimmte Bereiche, nämlich alle Voxel im aktuellen Deformierungsbereich, auf der zu modifizierenden aktuellen Oberflächenkontur daraufhin durchsucht zu werden, ob sie als (frühere) Kontur-Eingabelinien markiert sind und somit nicht oder allenfalls nach expliziter Kollisionsprüfung verändert werden sollten.
  • Werden aber Kontur-Eingabelinien vom Bediener in verschiedenen Eingabeschnittebenen eingegeben, so ist in den seltensten Fällen damit zu rechnen, dass sich diese Kontur-Eingabelinien direkt kreuzen, d. h. einen gemeinsamen Schnittpunkt aufweisen. In den meisten Fällen wird es so sein, dass die Kontur-Eingabelinien mehr oder weniger knapp aneinander vorbeilaufen. Dies bedeutet, dass eine aktuelle Kontur-Eingabelinie in einem bestimmten Bereich einer auf Basis einer älteren Kontur-Eingabelinie durchgeführten Modifikation der Oberflächenkontur widerspricht. Dennoch sollten auch die älteren Kontur-Eingabelinien entsprechend berücksichtigt werden.
  • Um diesen Konflikt aufzulösen, wird besonders bevorzugt eine Distanz der aktuell erfassten Kontur-Eingabelinie (oder bei einer Aufteilung der Kontur-Eingabelinie entsprechend einem Kontur-Eingabeliniensegment) von der zuvor erfassten Eingabelinie ermittelt.
  • Ganz besonders bevorzugt kann hierzu der euklidische Abstand zwischen den beiden Kontur-Eingabelinien (bzw. Kontur-Eingabeliniensegmenten) im Schnittpunkt der jeweils zugehörigen Eingabeschnittebenen verwendet werden. Somit kann zunächst auf einfache Weise eine Abweichung, d. h. die Stärke der Kollision, erfasst werden.
  • Besonders bevorzugt kann dann in Abhängigkeit von der ermittelten Distanz zwischen der aktuellen Kontur-Eingabelinie (oder dem Kontur-Eingabeliniensegment) und der zuvor erfassten älteren Kontur-Eingabelinie ein definierter Abschnitt der älteren Kontur-Eingabelinie unberücksichtigt bleiben. Das heißt, es werden durchaus beim Interpolationsverfahren – wie oben erläutert beispielsweise als Stützstellen – auch Punkte auf der älteren Kontur-Eingabelinie berücksichtigt. Allerdings nicht die Punkte, die einen bestimmten Abstand zur neuen Kontur-Eingabelinie, bzw. vorzugsweise einen bestimmten Abstand zur neuen Eingabeschnittebene, in der die neue Kontur-Eingabelinie eingezeichnet wurde, unterschreiten, wobei dieser Abstand z.B. durch die Distanz zwischen aktueller Kontur-Eingabelinie (bzw. aktuellem Kontur-Eingabeliniensegment) und älterer Kontur-Eingabelinie vorgegeben wird.
  • Die Interpolation erfolgt im Übrigen vorzugsweise derart, dass die Übergangskanten zwischen Oberflächenpunkten der Oberflächenkontur innerhalb des Deformierungsbereichs und den Oberflächenpunkten der Oberflächenkontur außerhalb des Deformierungsbereichs geglättet sind. Dies ist beispielsweise möglich, indem die Steigung angepasst wird. Hierzu könnte auch eine geringfügige Anpassung in einem Übergangsbereich außerhalb des eigentlichen Deformierungsbereichs erfolgen. Beispielsweise können für das Interpolationsverfahren die Randbedingungen geeignet gewählt werden, wobei die Steigung entsprechend angepasst werden kann, indem auch Voxel in der Nachbarschaft des Randes, d. h. außerhalb des Randes, wie oben beschrieben, als Stützstellen berücksichtigt werden und ihre Werte bezüglich einer Oberflächenfunktion zur Beschreibung der modifizierten Oberflächenkontur so gewählt werden, dass die Steigung passt.
  • Nachdem die modifizierte dreidimensionale Oberflächenkontur des Volumens im Deformierungsbereich gefunden ist, wird unter Berücksichtigung dieser modifizierten Oberflächenkontur schließlich die Voxelrepräsentation des Volumens des Zielobjekts modifiziert. Die Bildverarbeitungsvorrichtung weist hierzu vorzugsweise eine Volumenmodifikationseinheit auf.
  • Um den Rechenaufwand möglichst gering zu halten, kann die Modifizierung der Voxelrepräsentation des Volumens dabei vorzugsweise mit einer Narrow-Band-Methode entlang der gefundenen interpolierten Oberflächenkontur erfolgen. Außerdem wird hierzu besonders bevorzugt zusätzlich eine Bounding-Box verwendet, welche den Deformierungsbereich einschließt, um auch so den Rechenaufwand zu begrenzen.
  • Die Erfindung wird im Folgenden anhand eines Ausführungsbeispiels unter Hinweis auf die beigefügten Zeichnungen näher erläutert. Es zeigen:
  • 1 eine schematische Darstellung einer virtuellen Leberresektion (links: zwei geplante Schnitte in einer Schnittebene durch die Leber; rechts: drei passende perspektivische 3-D-Darstellungen der Leber, oben zu Beginn, in der Mitte mit markiertem zu entfernenden ersten Teil und mit entferntem ersten Teil und markiertem zu entfernenden zweiten Teil),
  • 2 eine schematische Darstellung der geplanten Schnitte in der Schnittebene durch die Leber wie in 1 mit einer veränderten Schnittlinie am ersten zu entfernenden Teil,
  • 3 ein Flussdiagramm eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens,
  • 4 ein Beispiel für ein auf einer graphischen Benutzeroberfläche dargestelltes Schnittbild durch eine Leber mit eingezeichneter Kontur-Eingabelinie,
  • 5 eine perspektivische dreidimensionale Darstellung der Oberflächenkontur in einem Deformierungsbereich passend zu der Kontur-Eingabelinie nach 4,
  • 6 eine schematische Darstellung zur Erläuterung des Verfahrens zur Auffindung eines Deformierungsbereichs auf der aktuellen Oberflächenkontur zu einer Kontur-Eingabelinie,
  • 7 eine schematische Darstellung zur Erläuterung des Verfahrens zur Auffindung und Lösen von Konflikten einer neuen Kontur-Eingabelinie mit einer älteren Kontur-Eingabelinie auf der aktuellen Oberflächenkontur,
  • 8 eine perspektivische dreidimensionale Darstellung der modifizierten Oberflächenkontur in dem Deformierungsbereich nach 5 auf Basis der Kontur-Eingabelinie nach 4, und
  • 9 eine vereinfachte Blockdarstellung einer erfindungsgemäßen Bildverarbeitungsvorrichtung.
  • Im Gegensatz zu den meisten herkömmlichen Ansätzen wird bei dem erfindungsgemäßen Verfahren mit einer, besonders bevorzugt binären, Voxel-Maske gearbeitet, um die Resektion zu modellieren. In einer solchen binären Voxel-Maske bzw. Voxelrepräsentation ist eine Resektionsmaske bzw. ein Teilvolumen immer gleichbedeutend mit einer Resektionsoberfläche. Die Resektionsoberfläche ist implizit durch die Grenzen der Resektionsmaske definiert. Dies ist insbesondere am Beispiel von 1 gut zu erkennen. Hier sind im linken Bild schematisch die Umrisse einer Leber als Zielobjekt O in einer längs durch die Leber verlaufenden Schnittebene gezeigt. In dieser Schnittebene sind zwei Kontur-Eingabelinien IE eingezeichnet, die ein mittleres verbleibendes Volumen VV von zwei endseitig zu entfernenden Volumen VE der Leber trennen. Auf der rechten Seite ist hierzu passend das Volumen dreidimensional dargestellt, wobei oben das Gesamtvolumen V mit der kompletten Oberflächenkontur S der Leber dargestellt ist, darunter dann das gesamte Volumen V mit dem markierten Volumen VE des linken zu entfernenden Teils und darunter dann das neue verbleibende Volumen VV nach dem Entfernen des linken Teils und mit markiertem, zu entfernendem rechten Teil.
  • Auf der linken Seite dieses aktuellen Restvolumens VV ist hier dargestellt, wie sich zwangsläufig nach der Entfernung des linken zu entfernenden Teils eine geänderte, dann „aktuelle“, Oberflächenkontur RS des verbleibenden Volumens VV (Restvolumens) an der Resektionsfläche ergibt. Insofern ist es in dem erfindungsgemäßen Verfahren möglich, während des gesamten Prozesses den internen Resektionszustand jeweils einfach durch eine Maske zu repräsentieren, in der die Voxel entweder als entfernt oder als verbleibend markiert sind. Dies bedeutet gleichzeitig, dass das Planungssystem in der Lage ist, beliebige Resektionen von Beginn an durchzuführen, aber auch mitten in einer geplanten Resektion umzuplanen und ein bestehendes Volumen wieder zu verändern.
  • Dies ist beispielsweise anhand von 2 ersichtlich. Hier soll durch eine neue Eingabe-Konturlinie IE in der Schnittebene (wie auf der linken Seite gemäß 1) nun eine neue Oberflächenkontur RS’ festgelegt werden, so dass ein weiteres Teilvolumen VA zum verbleibenden Lebervolumen VV hinzugenommen wird, um das verbleibende Volumen VV zu vergrößern.
  • Da prinzipiell jede Volumenrepräsentation auch in Voxel aufgeteilt werden kann, können prinzipiell alle Resektionsplanungssysteme, die derzeit zur Verfügung stehen, auch als Startpunkt verwendet werden, um mit Hilfe des erfindungsgemäßen Verfahrens bzw. der erfindungsgemäßen Vorrichtung bei der Planung fortzufahren. Weiterhin hat die Vorgehensweise, in einer Voxeldarstellung zu arbeiten, den Vorteil, dass es nicht mehr nötig ist, explizit eine Resektionsoberfläche an das Organ anzupassen. Im Übrigen ist auch eine Definition von mehrfachen Resektionen, wie dies in den 1 und 2 dargestellt, ohne größeren zusätzlichen Aufwand möglich.
  • Im Folgenden wird eine bevorzugte Variante des Verfahrens anhand von 3 näher erläutert. Es wird an dieser Stelle explizit darauf hingewiesen, dass im Rahmen dieses Verfahrens durchgeführte einzelne Verfahrensschritte auch unabhängig von den konkret beschriebenen anderen Verfahrensschritten vorteilhaft sein können und daher auch im Rahmen anderer Verfahrensvarianten vorteilhaft genutzt werden können.
  • Das Verfahren beginnt zunächst damit, dass eine Voxelrepräsentation, vorzugsweise eine binäre Voxel-Maske, des zu bearbeitenden relevanten Volumens (also des kompletten Volumens des Organs oder eines noch relevanten Teilvolumens, welches beispielsweise einer weiteren Resektion unterzogen werden soll) bereitgestellt wird. In dem in 3 gezeigten Ablaufplan handelt es sich hierbei zu Beginn um das komplette Volumen einer Leber. Die Voxel, die zu dem Lebervolumen gehören, wurden mit einer üblichen Segmentierungsmethode aus mittels eines bildgebenden Systems generierten Bilddaten erzeugt.
  • Diese Voxelrepräsentation kann dann beispielsweise auf einer graphischen Benutzeroberfläche vom Bediener in beliebige Richtungen gedreht werden, um so eine bestimmte Eingabeschnittebene PI zu bestimmen. Dies erfolgt im Schritt I. Diese Eingabeschnittebene wird dann auf der graphischen Benutzeroberfläche dargestellt. Ein Beispiel für eine solche Darstellung findet sich in 4. Hier ist ein Schnittbild durch eine Leber gezeigt, welches genau in der ausgewählten Eingabeschnittebene liegt. Allerdings ist in diesem Schnittbild gemäß 4 bereits ein Teil des Lebervolumens virtuell resektiert worden. Im Rahmen des nächsten Schritts soll nun die Oberflächenkontur RS des verbliebenen Volumens und zwar genau an der Resektionsoberfläche zum entfernten Volumen modifiziert werden. Hierzu kann der Bediener eine neue Kontur-Eingabelinie IE, beispielsweise mit einer Maus des Bedienterminals oder auf ähnliche Weise, einzeichnen. Dies erfolgt im Schritt II.
  • Im Schritt III wird dann diese Kontur-Eingabelinie IE zunächst auf Plausibilität vorgeprüft, beispielsweise ob sich die Linie selber überschneidet oder ob sie überhaupt das Volumen der Leber betrifft. Ist diese Vorprüfung erfolgt, so werden im Schritt IV die Schnittpunkte i0 und i1 der Kontur-Eingabelinie IE mit der aktuellen Oberflächenkontur RS, also hier mit der Resektionsfläche RS, bestimmt. Diese Schnittpunkte sind auch in 5 noch einmal dargestellt, in der ein Blick auf die Oberflächenkontur RS der Resektionsfläche dargestellt ist. Eingezeichnet sind hier auch der Verlauf der ursprünglichen Konturlinie IK (d.h. der Pfad auf der Oberflächenkontur RS in der aktuellen Eingabeschnittebene PI) sowie der Verlauf der neuen Kontur-Eingabelinie IE.
  • Sofern die aktuelle Kontur-Eingabelinie IE die ursprüngliche Oberflächenkontur, welche nun zu modifizieren ist, mehrfach schneidet, existieren mehr als zwei Schnittpunkte. Es wird dann die Kontur-Eingabelinie IE in mehrere Kontur-Eingabeliniensegmente unterteilt. Dies kann optional im Schritt V erfolgen.
  • Die nachfolgenden Schritte VI bis XIII werden dann für alle einzelnen Segmente dieser Kontur-Eingabelinie IE durchgeführt, wobei in den weiteren Figuren dies nur für eine einzelne Kontur-Eingabelinie IE dargestellt ist. Prinzipiell ist aber klar, dass das Verfahren mit beliebig vielen Kontur-Eingabeliniensegmenten bzw. Kontur-Eingabelinien IE arbeiten kann. Hierzu wird im Schritt VI zunächst eines der Kontur-Eingabeliniensegmente ausgewählt. Ist nur eine einfache Kontur-Eingabelinie IE vorhanden, so entfällt dieser Schritt. Im Folgenden wird – soweit nicht anders erwähnt – der Einfachheit halber davon ausgegangen, dass nur eine einfach Kontur-Eingabelinie IE eingegeben wurde. Die Verfahrensschritte innerhalb der Schleife der Schritte VI bis XIII verlaufen aber für die einzelnen Eingabeliniensegment entsprechend wie für eine einfache Kontur-Eingabelinie IE.
  • Im Schritt VII werden dann alle Voxel der Voxel-Maske markiert, die auf der aktuell zu betrachtenden Kontur-Eingabelinie IE liegen. Hierbei ist zu berücksichtigen, dass jede Eingabe-Konturlinie bzw. jedes Eingabe-Konturliniensegment oder auch jede sonstige Linie sich innerhalb der Voxelrepräsentation einfach als eine Anzahl von aneinandergereihten Voxeln darstellen lässt und somit beispielsweise auch in Form einer Liste der einzelnen Voxel abspeichern lässt. Ebenso lassen sich die Voxel innerhalb des Volumens einfach in geeigneter Weise als zu einer bestimmten Linie zugehörig markieren.
  • Da die Modifikation im weiteren Verfahren auf jeden Fall so erfolgen soll, dass die modifizierte Oberflächenkontur durch die ausgewählte Eingabelinie IE verläuft, können zunächst diese Voxel auf dem aktuellen Kontur-Eingabelinie IE in einem Speicher als Stützstellen für eine spätere Interpolation der neuen Oberflächenkontur hinterlegt werden.
  • Die Menge aller Stützstellen wird im Folgenden mit der Bezugsziffer C bezeichnet, da es sich hierbei ja um Randbedingungen (Constraint) der Interpolation handelt.
  • Wie aus 5 ersichtlich ist, ist der aktuelle Deformierungsbereich D, in dem lokal für die aktuelle Kontur-Eingabelinie IE die aktuelle Oberflächenkontur RS modifiziert werden soll, an beiden Seiten durch die Schnittpunkte i0, i1 begrenzt. Der Deformierungsbereich D verläuft im Wesentlichen nahezu kreisförmig um einen Deformierungs-Zentralpunkt CS. Zur Bestimmung des Deformierungsbereichs D bzw. des Deformierungs-Zentralpunkts CS gibt es verschiedene Möglichkeiten.
  • Bei dem in 5 dargestellten Ausführungsbeispiel wird als Deformierungs-Zentralpunkt CS der mittlere Punkt auf der ursprünglichen Konturlinie IK in der aktuellen Eingabeschnittebene zwischen den beiden Schnittpunkten i0, i1 gewählt. Ausgehend von diesem Punkt werden dann konzentrisch nach außen immer mehr Voxel auf der Oberfläche hinzugenommen, die zum Deformierungsbereich gehören, solange bis die Schnittpunkte i0, i1 vom Deformierungsbereich D erreicht werden. Dies ist durch die radial nach außen verlaufenden Pfeile dargestellt.
  • Bei dem in 3 dargestellten Verfahrensablauf wird jedoch ein anderes Verfahren zur Ermittlung des Deformierungs-Zentralpunkts CS sowie des Deformierungsbereichs D verwendet. Dieses Verfahren wird im Folgenden unter Zuhilfenahme von 6 erläutert. Auch dieses Verfahren basiert zunächst auf der aktuellen Eingabeschnittebene PI, in der die aktuelle Kontur-Eingabelinie IE eingegeben wurde, sowie den zwei Schnittpunkten i0 und i1, in denen die Kontur-Eingabelinie IE die aktuelle Oberflächenkontur RS schneidet. Sowohl die aktuelle Eingabeschnittebene PI als auch die aktuelle Oberflächenkontur RS sind in 6 dargestellt. Ebenso ist in der Eingabeschnittebene PI die aktuelle Kontur-Eingabelinie IE sowie deren Schnittpunkte i0, i1 mit der aktuellen Oberflächenkontur RS dargestellt. Als aktueller Deformierungs-Zentralpunkt CS wird hierbei einfach der geometrische Mittelpunkt zwischen den beiden Schnittpunkten i0, i1 in der aktuellen Eingabeschnittebene PI definiert. Dies erfolgt im Schritt VIII (siehe 3).
  • Außerdem werden im Schritt IX zwei Punkte C0 , C0 + definiert. Die Vorgehensweise ist hierbei wie folgt: Es wird zunächst der mittlere Punkt auf der Eingabe-Konturlinie IE zwischen den beiden Schnittpunkten i0, i1 gewählt. Dies kann durch einfaches Abzählen der Voxel entlang der Kontur-Eingabelinie IE zwischen den Schnittpunkten i0, i1 erfolgen. Ausgehend von diesem Mittelpunkt werden dann jeweils senkrecht zur Kontur-Eingabelinie IE in der aktuellen Eingabeschnittebene PI in einem kurzen Abstand von dieser Kontur-Eingabelinie IE, beispielsweise von zwei oder drei Voxeln auf jeder Seite, die Punkt C0 +, C0 festgelegt. Diese Punkte werden lediglich benötigt, um später festzulegen, welcher Bereich innerhalb und welcher Bereich außerhalb der interpolierten Oberfläche liegt. Die Punkte C0 +, C0 können ebenfalls als Stützstellen bei einer späteren Interpolation der modifizierten Oberflächenkontur dienen, wobei allerdings gleichzeitig der Abstand zur aktuellen Kontur-Eingabelinie als Funktionswert dieser beiden Punkte festgelegt wird. Die Punkte C0 +, C0 werden daher mitsamt ihrem Abstandswert als weitere Stützstellen bzw. Constraints C hinterlegt.
  • In einem Schritt X wird dann ein Deformierungsbereich D ermittelt, indem eine geschlossene Kontur bzw. ein Rand M0, M1 um den Deformierungs-Zentralpunkt CS gefunden wird, welcher durch die Schnittpunkte i0, i1 verläuft. Dieser Rand bzw. die Punkte (Voxel) auf diesem Rand oder im Bereich des Randes M0, M1 werden später ebenfalls als Stützstellen bzw. Randbedingungen C für die Interpolation der modifizierten Oberflächenkontur genutzt.
  • Bei der Methode, wie sie anhand von 6 verdeutlicht wird, wird ein graphenbasierter A*-Suchalgorithmus verwendet, der auf die Oberfläche beschränkt ist, um den Rand des Deformierungsbereichs D zu bestimmen. Dabei werden genau zwei Halbkonturen M0 und M1 bestimmt, wobei die eine Halbkontur M0 vom Schnittpunkt i0 zum Schnittpunkt i1 verläuft und die andere Halbkontur M1 umgekehrt zurück vom Schnittpunkt i1 zum Schnittpunkt i0. Dabei wird jeweils Schritt für Schritt bzw. Voxel für Voxel, beginnend mit dem jeweiligen Startpunkt i0 bzw. i1 die vielversprechendste Richtung zum jeweiligen Zielpunkt i1 bzw. i0 auf der Oberfläche entlang einer sphärischen Kontur, d. h. entlang des dargestellten Kreisumfangs, gesucht. Während eines Suchdurchlaufs werden die Oberflächenvoxel (d.h. die Voxel, die die Oberfläche schneiden) als Knoten eines Graphen interpretiert und es wird jeweils eine 26-Nachbarschaft, beschränkt auf diese Knoten bzw. Voxel (d.h. alle unmittelbaren Nachbarvoxel des jeweils zu betrachtenden Voxels inklusive der diagonalen Nachbarvoxel), untersucht. Um die vielversprechendste Suchrichtung an jedem einzelnen Suchschritt von Voxel zu Voxel abzuschätzen, wird ein geschätztes Distanzmaß FH zum jeweiligen Zielpunkt verwendet.
  • Damit die gewünschte Bedingung einer geschlossenen Randkontur so schnell wie möglich erreicht wird, wird eine spezielle Kostenfunktion F(p0, p1) = α·FS(p0, p1) + β·Fd(p0, p1) (1)
  • Verwendet, um an jedem Ort p0 (als aktuellen Startpunkt bzw. Voxel der Suche) die Kosten auf dem Weg zum nächsten aktuellen Zielpunkt p1 (also dem am besten geeigneten Voxel auf dem Weg zum letztendlichen Zielpunkt i1) oder umgekehrt zu berechnen. Hierbei handelt es sich um eine gewichtete Kombination einer sphärischen Kostenfunktionskomponente (erster Funktionsterm FS) und einer distanzabhängigen Kostenkomponente (zweiter Funktionsterm Fd). Die Parameter α und β können prinzipiell beliebig gewählt werden, je nachdem, ob es mehr gewünscht ist, dass die Randkonturen M0, M1 auf einer Kugelform liegen oder ob möglichst kurze Wege gewünscht sind. Es sollten jedoch α und β größer als 0 sein. Bei ersten Tests wurden die besten Resultate mit α = 4,5 und β = 2 erreicht.
  • Der erste Summand FS führt dabei die Kontur in der gewünschten sphärischen Weise gemäß der Gleichung FS(p0, p1) = |(||p0 – Cs|| – rS) – (||p1 – Cs|| – rS)| = |(||p0 – Cs||) – (||p1 – Cs||)| (2) entlang einer Sphäre S, die ihr Zentrum am Punkt
    Figure DE102012213461A1_0002
    hat und einen Radius von
    Figure DE102012213461A1_0003
    aufweist.
  • Die Kosten sind dabei nicht direkt von der Distanz zum Kreiscenter CS abgeleitet, sondern von der relativen Distanz der sphärischen Distanzen von einander nachfolgenden Punkten auf den Randkonturen M0 bzw. M1. Dies führt dazu, dass bestimmte Abweichungen von der Kugelform sehr wohl erlaubt sind, allerdings sorgt der Funktionsteil FS dafür, dass die Randkontur des Deformierungsbereichs dennoch kreisförmig um den Punkt CS verläuft also eine bestimmte Distanz von diesem Punkt CS hat.
  • Der Summand FD in der Kostenfunktion gemäß Gleichung (1) sorgt dafür, dass der A*-Algorithmus der Form der aktuellen Oberflächenkontur folgt, indem Abkürzungen mit geringfügigen Abweichungen von der Kreisform zu einer geringeren Gesamtkostenfunktion führen. FD ist dabei wie folgt definiert: Fd(p0, p1) = ||p1 – p0|| (3)
  • Durch diesen Teil FD werden lange Randkonturen bestraft und Abweichungen der Kugelform attraktiver gemacht. Zusätzlich wird auf diese Weise dafür gesorgt, dass unerwünschte Oszillationen zusätzliche Kosten verursachen und daher vermieden werden, was dazu führt, dass die Randkonturen M0, M1 des Deformierungsbereichs D insgesamt glatter werden.
  • Da prinzipiell auf dem Hin- und Rückweg, d. h. bei der Suche der Randkontur M0 vom Schnittpunkt i0 zum Schnittpunkt i1 und umgekehrt bei der Suche nach der Randkontur MI vom Schnittpunkt i1 zum Schnittpunkt i0, die Kostenfunktion aufgrund der Symmetrie symmetrisch ist, würde dies dazu führen, dass in beide Richtungen der gleiche Pfad gefunden würde. Um dies zu vermeiden, wird jeweils eine zusätzliche Kostenfunktionskomponente FP zu der Kostenfunktion gemäß Gleichung (1) hinzugefügt, d.h. es wird folgende Gesamtkostenfunktion F’ bei der Pfadsuche mit dem A*-Algorithmus verwendet F’(p0, p1, σ)= F(p0, p1) + Fp(p1, σ) (4)
  • Die hinzugefügte Kostenfunktionskomponente FP nützt dabei die vorzeichenbehaftete Distanz zur aktuellen Eingabeschnittebene PI, um unüberwindbare Kosten hinzuzufügen, wenn der erste Zielpunkt p1 auf einer spezifischen Seite dieser Eingabeschnittebene PI liegt. FP kann hierzu wie folgt formuliert werden:
    Figure DE102012213461A1_0004
  • Dabei ist dI die Distanz und nI die Normale der dritten Normalform der Eingabeschnittebene PI. Auf diese Weise wird in Abhängigkeit vom Wert σ (wobei σ z.B. den Wert +1 oder –1 jeweils für die eine oder die andere Seite der Ebene annehmen kann) eine der beiden Seiten der Eingabeoberfläche PI für die Suche blockiert.
  • Bei der Suche wird als heuristische geschätzte Kostenfunktion FH für den A*-Algorithmus bis zum Erreichen des letztendlichen Zielknotens pz einfach die euklidische Distanz gemäß FH(p, pz) = ||p – pz|| (6) genutzt.
  • Der optimale nächste Punkt bzw. Voxel, der dann vom A*-Algorithmus gefunden wird, beruht auf der Kostenfunktion gemäß Gleichung (4), der bisherigen Kosten zur Erreichung des aktuellen Punktes bzw. Voxels vom ursprünglichen Startpunkt aus und den zusätzlichen abgeschätzten Kosten von dem jeweiligen angestrebten (aktuelle untersuchten, nächst möglichen Punkt) zum letztendlichen Zielpunkt. Bei der Suche auf dem Hinweg ist folglich der Schnittpunkt i0 der Startpunkt und der Schnittpunkt i1 der Zielpunkt pz und auf dem Rückweg umgekehrt.
  • Sobald die Randkonturen M1, M0 des Deformierungsbereichs D gefunden sind, werden die Voxel auf diesen Randkonturen M1, M0 ebenfalls als Stützstellen bzw. Constraint C hinzugefügt. Zusätzlich können als Stützstellen auch weitere Punkte entlang dieser Randkontur, z.B. in einer unmittelbaren Nachbarschaft der Randkontur, mit bestimmten Funktionswerten hinzugenommen werden, beispielsweise um eine glatte Anpassung des veränderten Bereichs an die ursprüngliche, vor der Modifikation bestehende Oberflächenkontur außerhalb des Deformierungsbereichs zu erreichen.
  • Im Schritt XI wird schließlich eine Überprüfung durchgeführt, inwieweit ein Konflikt mit zuvor eingegebenen Kontur-Eingabelinien auf der Oberfläche der aktuellen Oberflächenkontur des Volumens besteht. Hierzu müssen lediglich sämtliche Oberflächenvoxel innerhalb des zuvor bestimmten Deformierungsbereichs, d. h. innerhalb des durch die Randkonturen M0, M1 definierten Bereichs, dahingehend durchsucht werden, ob sie bereits als Voxel markiert sind, die zu einer vorhergehenden Kontur-Eingabelinie gehören. Hierbei kann die Oberfläche einfach in einer Art Region-Growing-Methode in einer 26-Nachbarschaft durchsucht werden. Alle Voxel, die mit einer entsprechenden Markierung als zu einer vorherigen Kontur-Eingabelinie gehörig gefunden werden, können dann in einer der jeweiligen Kontur-Eingabelinie zugeordneten Kandidatenliste eingetragen werden. Diese Punkte repräsentieren also die Eingaben, die zu dem zu deformierenden Bereich des Volumens gehören und sind folglich während der Interpolation der neuen Oberflächenkontur in geeigneter Weise zu berücksichtigen. Bevor sie allerdings zu den Stützstellen C hinzugenommen werden, werden sie zunächst auf Konflikte hinsichtlich der aktuellen Kontur-Eingabelinie IE geprüft.
  • Um solche Konflikte zu finden, werden zunächst alle Kandidatenpunkte einer Liste, d. h. einer vorherigen Kontur-Eingabelinie, auf ihre vorzeichenbehaftete Distanz zur aktuellen Eingabeschnittebene PI überprüft. Wenn die Punkte nicht die aktuelle Eingabeschnittebene PI kreuzen, so ist davon auszugehen, dass kein Konflikt aufgetreten ist. Wenn sie dagegen die aktuelle Eingabeschnittebene PI kreuzen, liegt ein Konflikt vor. In diesem Fall wird die Distanz d innerhalb der aktuellen Eingabeschnittebene PI der aktuellen Kontur-Eingabelinie IE vom Schnittpunkt der alten Kontur-Eingabelinie RI zur aktuellen Kontur-Eingabelinie IE ermittelt, wobei die Distanz d einfach in Anzahl von Voxeln angegeben werden kann. In Abhängigkeit von dieser Distanz d werden dann entsprechend Punkte auf der alten Kontur-Eingabelinie RI wieder als mögliche Stützstellen verworfen. Dabei werden vorzugsweise bei einer einfachen Methode so viele Voxel entlang der älteren Kontur-Eingabelinie RI, ausgehend vom Schnittpunkt mit der aktuellen Eingabeschnittebene PI, in beide Richtungen verworfen (also aus der Kandidatenliste entfernt), wie der Abstand d der früheren Kontur-Eingabelinie RI zur aktuellen Kontur-Eingabelinie IE in der aktuellen Eingabeschnittebene PI beträgt. Alternativ können auch andere Verhältnisse der verworfenen Anzahl an Voxeln zum Abstand gewählt werden. Eine solche von der Distanz d abhängige Verwerfung von Punkten auf der älteren Kontur-Eingabelinie führt jedoch zu einer angepassten Berücksichtigung der älteren Kontur-Eingabelinie in Abhängigkeit von der Stärke der Diskrepanz zwischen der älteren Kontur-Eingabelinie RI und der jüngeren Kontur-Eingabelinie IE. Dies ist in 7 schematisch dargestellt. In beiden Fällen ist die gleiche aktuelle Oberflächenkontur RS mit derselben darauf befindlichen älteren Kontur-Eingabelinie RI dargestellt. Ebenfalls sind hierbei die Eingabeschnittebenen PI’, auf der die ältere Kontur-Eingabelinie RI eingegeben wurde, und die aktuelle Eingabeschnittebene PI dargestellt. Wie hier gezeigt ist, ist das Distanzmaß d genau der Abstand zwischen der aktuellen Kontur-Eingabelinie IE und der älteren Kontur-Eingabelinie RI entlang der Schnittlinie der aktuellen Eingabeschnittebene PI und der früheren Eingabeschnittebene PI’. Der Unterschied zwischen der rechten und der linken Darstellung besteht darin, dass in der linken Darstellung die aktuelle Kontur-Eingabelinie IE näher an der alten Kontur-Eingabelinie RI liegt und daher die Distanz d kleiner ist. Dementsprechend werden weniger Punkte (der gestrichelt dargestellte Abschnitt) entlang der älteren Kontur-Eingabelinie IE für die Interpolation verworfen als auf der rechten Seite, wo die Distanz d zwischen der aktuellen Kontur-Eingabelinie IE und der älteren Kontur-Eingabelinie RI größer ist.
  • Nach dieser Überprüfung werden die in der Kandidatenliste verbleibenden Voxel RI,K (d.h. die „konfliktbereinigte“ frühere Kontur-Eingabelinie RI,K) auf der früheren Kontur-Eingabelinie RI ebenfalls als Stützstellen C bzw. Constraints hinzugefügt.
  • Im Schritt XII kann dann schließlich unter Berücksichtigung der gesamten Stützstellen C die Interpolation durchgeführt werden. Hierzu wird ein dreidimensionales Skalarfeld f berechnet, dessen Wert 0 (d. h. f(p) = f(x, y, z) = 0, wobei p = (x, y, z) die Raumkoordinaten eines Punkts bzw. Voxels p sind) genau der interpolierten Oberflächenkontur entspricht. Außerdem wird dafür gesorgt, dass die Funktion f auf einer Seite größer als 0 und auf der anderen Seite kleiner als 0 ist. Diese Eigenschaft wird später benötigt, um die Voxeldarstellung des Volumens zu aktualisieren.
  • Zur Interpolation kann die Funktion f als eine Linearkombination von radialen Basisfunktionen jeweils an den Stützstellen Ci (d.h. allen Elementen der „Stützstellenmenge“ C, umfassend sämtliche Punkte bzw. Voxel auf der aktuellen Kontur-Eingabelinie IE, die ausgewählten Punkte auf bzw. entlang der Randkonturen M0, M1 des Deformierungsbereichs D sowie die nicht verworfenen Voxel auf den früheren Kontur-Eingabelinien RI) beschrieben werden. Eine solche Linearkombination lässt sich wie folgt schreiben:
    Figure DE102012213461A1_0005
    mit z.B. den radialen Basisfunktionen: φ(x) = |x3| (8)
  • Alternativ können auch andere, insbesondere radiale, Basisfunktionen verwendet werden. Basisfunktionen gemäß Gleichung (8) sind aber eine besonders gute Wahl, um glatte 3D-Oberflächen zu erzeugen.
  • Dabei wird vi für alle Voxelelemente Ci mit Ausnahme der beiden Punkte C0 + und C0 , welche ja dazu benötigt werden, um den Innenraum bzw. Außenraum zu definieren, gleich 0 gesetzt. Für diese beiden Punkte entspricht vi jeweils der Anzahl der Voxel, um die die Punkte bzw. Voxel C0 + und C0 neben der aktuellen Kontur-Eingabelinie IE liegen, also dem Abstand zur gesuchten Oberfläche Im Rahmen der Interpolation müssen dann lediglich noch die Koeffizienten cj der Funktion f(Ci) bestimmt werden.
  • Sofern mehrere Eingabeliniensegmente zu bearbeiten sind, kann dann, nachdem die Funktion f für die Oberflächenkontur im Deformierungsbereich der jeweiligen aktuellen Kontur-Eingabeliniensegments gefunden wurde, im Schritt XIII geprüft werden, ob eine entsprechende Funktion f bereits für alle Kontur-Eingabeliniensegmente gefunden wurde, andernfalls (Abzweig „n“) beginnt die Schleife erneut im Schritt VI mit der Auswahl des nächsten Kontur-Eingabeliniensegments. Gibt es keine mehreren Kontur-Eingabeliniensegmente, wie in den hier dargestellten Figuren, oder ist bereits die Oberflächenfunktion für alle Kontur-Eingabeliniensegmente gefunden, so kann (Abzweig „y“) schließlich im Schritt XIV ein Update der Voxelrepräsentation des Volumens, d. h. der Voxel-Maske, erfolgen.
  • Es sei an dieser Stelle darauf hingewiesen, dass der Schritt XIII für die Abfrage der Betrachtung aller verschiedenen Kontur-Eingabeliniensegmente auch an anderer Stelle erfolgen kann, beispielsweise vor dem Interpolationsschritt XII. In diesem Fall erfolgt dann eine gemeinsame Interpolation, wenn alle Randbedingungen bzw. Stützstellen C für alle Kontur-Eingabeliniensegmente gefunden sind. Ebenso kann aber auch für jedes Kontur-Eingabeliniensegment zunächst ein Update der Voxel-Maske gemäß Schritt XIV durchgeführt werden und dann wird erst das nächste Kontur-Eingabeliniensegment bearbeitet.
  • Das Update der Voxel-Maske kann wie folgt durchgeführt werden: Nachdem die Koeffizienten cj nach Gleichung (7) und somit auch die Oberflächenfunktion f gefunden wurde, können entsprechend dieser Oberflächenfunktion f sämtliche Voxel der ursprünglichen Voxel-Maske klassifiziert werden, ob sie einen negativen oder einen positiven Wert bezüglich der Funktion f haben. Auf diese Weise kann die Voxel-Maske sehr einfach aktualisiert werden und beispielsweise bei dem in 2 dargestellten Fall das gesamte Volumen VA nun als innerhalb der neuen Oberflächenkontur zum verbleibenden Volumen VV hinzugezählt werden, wobei alle Punkte auf der linken Seite der Oberflächenkontur nach wie vor zum zu entfernenden Volumen VE hinzugezählt werden.
  • Eine exakte Berechnung des Funktionswerts f(p) für jeden einzelnen Voxel ist jedoch nach wie vor relativ rechenintensiv. Um das Verfahren zu beschleunigen, kann daher eine sog. Narrow-Band-Methode in einem engen Bereich um die Voxel mit den Funktionswerten f(p) = 0 durchgeführt werden. Hierzu werden beginnend mit einem Startwert, beispielsweise einer Stützstelle, einfach Nachbarvoxel geprüft, ob sie einen negativen oder einen positiven Wert aufweisen. Somit werden nur in einem sehr engen Bandbereich entlang der aktuellen neuen geänderten Oberflächenkontur, an der ja gilt, dass der Funktionswert f(p) = 0 ist, sämtliche Voxel überprüft. Da die durch die Funktion f(p) gegebene Oberfläche außerdem wasserdicht ist, kann für die Voxel der restlichen Bereiche der Voxel-Maske auch sehr schnell bestimmt werden, ob sie außerhalb oder innerhalb dieser Oberfläche liegen. Um weiterhin Rechenzeit zu sparen, reicht es aus, ein Untervolumen der gesamten Voxel-Maske zu betrachten, welches beispielsweise innerhalb einer Box B (siehe 2) liegt, die den modifizierten Bereich, d. h. die aktuelle Kontur-Eingabelinie IE einschließt. Um das Verfahren weiter zu beschleunigen, können bei dem Narrow-Band-Verfahren gleichzeitig mehrere Punkte, beispielsweise sämtliche Stützstellen, als Startpunkte verwendet werden, um die anderen Voxel entlang der Oberfläche f(p) = 0 zu überprüfen. Ein geeignetes Narrow-Band-Verfahren wird zum Beispiel in Jonathan C. Carr et al. „Reconstruction and representation of 3D objects with radial basis functions", ACM Proceedings of the 28th annual conference on Computer graphics and interactive techniques, 2001, Seiten 67 bis 76, näher beschrieben.
  • 8 zeigt als ein Beispiel die im Deformierungsbereich D neu modellierte bzw. modifizierte Oberflächenkontur, die sich letztlich aus der in 5 dargestellten aktuellen Kontur-Eingabelinie IE ergibt.
  • In 9 wird schließlich lediglich beispielhaft eine Bildverarbeitungsvorrichtung zur Durchführung des erfindungsgemäßen Verfahrens gezeigt. Diese Bildverarbeitungsvorrichtung 10 ist hier über einen Bus 7 mit einem bildgebenden System 1, beispielsweise einem Computertomographen oder einem Magnetresonanztomographen 1, verbunden, in dem sich ein Patient P befindet. Von diesem Patienten P bzw. einem Organ dieses Patienten P werden Messdaten mit Hilfe des bildgebenden Systems 1 akquiriert und daraus dann Bilddaten rekonstruiert. Diese Bilddaten MDB können beispielsweise in einem Speicher 2, welcher ebenfalls an dem Bus 7 angeschlossen ist, hinterlegt werden und/oder über eine Bilddatenschnittstelle 11 von der Bildverarbeitungsvorrichtung 10 übernommen werden. Dabei werden vorzugsweise die Bilddaten gleich in Form einer Voxelrepräsentation übernommen oder es werden Bilddaten in anderer Form übernommen und daraus dann eine Voxelrepräsentation, beispielsweise wie oben beschrieben eine einfache binäre Voxel-Maske erzeugt.
  • Die Bildverarbeitungsvorrichtung 10 weist hier eine Konturlinienerfassungsschnittstelle 13 auf. Diese sorgt dafür, dass über eine Terminalschnittstelle 12 ein Benutzerterminal 3 passend angesteuert wird, um auf einem Bildschirm 4 eine graphische Benutzerschnittstelle GOI in der Weise anzubieten, dass dort, wie oben beschrieben, ein in einer aktuellen Eingabeschnittebene PI liegendes aktuelles Schnittbild SB angezeigt wird. Es kann dann mit Hilfe einer Tastatur 5 und/oder einem Zeigegerät, beispielsweise einer Maus 6, eine aktuelle Kontur-Eingabelinie IE auf der graphischen Benutzeroberfläche GOI in der Eingabeschnittebene PI eingezeichnet werden, wie dies oben anhand von 4 erläutert wurde.
  • Weiterhin weist die Bildverarbeitungsvorrichtung 10 eine Deformierungsbereichsermittlungseinheit 14 auf, welche wie oben beschrieben einen Deformierungsbereich auf Basis der Schnittpunkte i0, i1 der aktuellen Kontur-Eingabelinie IE mit der aktuellen Oberflächenkontur des Volumens ermittelt. Eine Oberflächenkonturbestimmungseinheit 15 dient der Bildverarbeitungsvorrichtung 10 dann zur Bestimmung der modifizierten dreidimensionalen Oberflächenkontur des Volumens innerhalb des ermittelten Deformierungsbereichs auf Basis der Kontur-Eingabelinie IE.
  • Weiterhin weist die Bildverarbeitungsvorrichtung hier auch eine Volumenmodifikationseinheit 16 auf, die die Voxelrepräsentation des Volumens, also beispielsweise die binäre Voxel-Maske, entsprechend der neuen Oberflächenkontur im deformierten Bereich modifiziert, wie dies ebenfalls oben beschrieben wurde. Eine Ausgabeschnittstelle 17 kann dann dazu dienen, um die neue Voxel-Maske in geeigneter Weise, beispielsweise über die Terminalschnittstelle 12, an den Bildschirm 4 des Benutzerterminals 3 auszugeben, so dass der Benutzer dort das modifizierte Volumen betrachten kann und mit diesem auch weiter arbeiten kann. Ebenso kann die Ausgabeschnittstelle 17 dazu dienen, die Daten über die Schnittstelle 11 und den Bus 7 im Speicher 2 zu hinterlegen. Die verschiedenen Komponenten 13, 14, 15, 16, 17 sind vorzugsweise in Form von Software auf einem oder mehreren Prozessoren der Bildverarbeitungsvorrichtung 10 realisiert.
  • Wie die obigen Ausführungen zeigen, wird mit dem erfindungsgemäßen Verfahren eine hervorragende Möglichkeit zur Verfügung gestellt, um intuitiv eine virtuelle Organresektion durchzuführen und somit verschiedene Möglichkeiten einer Organresektion zu testen und Werte für eine eventuelle spätere tatsächliche Durchführung der Resektion zu sammeln. Auf diese Weise kann sehr einfach eine optimale Planung der Resektion erfolgen.
  • Es wird abschließend noch einmal darauf hingewiesen, dass es sich bei dem vorhergehend detailliert beschriebenen Verfahren und dem Bildverarbeitungssystem lediglich um bevorzugte Ausführungsbeispiele handelt, welche vom Fachmann in verschiedenster Weise modifiziert werden können, ohne den Bereich der Erfindung zu verlassen, soweit er durch die Ansprüche vorgegeben ist. Es wird der Vollständigkeit halber auch darauf hingewiesen, dass die Verwendung der unbestimmten Artikel „ein“ bzw. „eine“ nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. Ebenso schließen die Begriffe „Einheit“ oder „Modul“ usw. nicht aus, dass diese aus mehreren Komponenten bestehen, die gegebenenfalls auch räumlich verteilt sein können.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Greg Turk et al. „Modelling with implicit surfaces that interpolate“, ACM Transactions on Graphics (TOG), 2002, S. 855 bis 873 [0029]
    • Greg Turk et al. “Implicit surfaces that interpolate”, SMI International Conference on Shape Modeling and Applications, 2002, S. 62 bis 71 [0029]
    • Jonathan C. Carr et al. „Reconstruction and representation of 3D objects with radial basis functions”, ACM Proceedings of the 28th annual conference on Computer graphics and interactive techniques, 2001, Seiten 67 bis 76 [0089]

Claims (15)

  1. Verfahren zur Erzeugung modifizierter dreidimensionaler Bilddaten eines Zielobjekts (O), mit folgenden Verfahrensschritten: – Bereitstellung einer Voxelrepräsentation eines durch eine aktuelle dreidimensionale Oberflächenkontur (S, RS) begrenzten Volumens (V) des Zielobjekts (O), – Erfassen einer aktuellen Kontur-Eingabelinie (IE), – Ermittlung eines lokalen Deformierungsbereichs (D) zur Modifizierung der aktuellen Oberflächenkontur (S, RS) auf Basis von Schnittpunkten (i0, i1) der aktuellen Kontur-Eingabelinie (IE) mit der aktuellen Oberflächenkontur (S, RS), und – Bestimmung einer modifizierten dreidimensionalen Oberflächenkontur (RS’) im Deformierungsbereich (D) auf Basis der Kontur-Eingabelinie (IE).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass auf einer graphischen Benutzeroberfläche (GUI) ein in einer Eingabeschnittebene (PI) liegendes Schnittbild (SB) der Voxelrepräsentation (V) dargestellt wird und die aktuelle Kontur-Eingabelinie (IE) mit Hilfe der graphische Benutzeroberfläche (GUI) erfasst wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die aktuelle Kontur-Eingabelinie (IE) auf Basis von Schnittpunkten der aktuellen Kontur-Eingabelinie (IE) mit der aktuellen Oberflächenkontur (S, RS) in Kontur-Eingabeliniensegmente aufgeteilt wird.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass für ein Kontur-Eingabeliniensegment jeweils ein lokaler Deformierungsbereich (D) in Abhängigkeit von den Schnittpunkten der aktuellen Kontur-Eingabelinie mit der aktuellen Oberflächenkontur (S, RS) ermittelt wird.
  5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass für einen Deformierungsbereich (D) als aktueller Deformierungs-Zentralpunkt (Cs) ein Mittelpunkt zwischen zwei Schnittpunkten (i0, i1) der aktuellen Kontur-Eingabelinie (IE) oder dem aktuellen Kontur-Eingabeliniensegment mit der aktuellen Oberflächenkontur (S, RS) ermittelt wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zur Ermittlung eines Rands (M0, M1) des Deformierungsbereichs (D) für eine aktuelle Kontur-Eingabelinie (IE) oder ein aktuelles Kontur-Eingabeliniensegment jeweils mittels eines Suchalgorithmus unter Verwendung einer definierten Kostenfunktion ein Pfad ermittelt wird, welcher, vorzugsweise näherungsweise entlang einer Kugeloberfläche, von einem ersten Schnittpunkt (i0) der aktuellen Kontur-Eingabelinie (IE) oder des aktuellen Kontur-Eingabeliniensegments mit der aktuellen Oberflächenkontur (S, RS) zu einem zweiten Schnittpunkt (i1) der aktuellen Kontur-Eingabelinie (IE) oder des aktuellen Kontur-Eingabeliniensegments mit der aktuellen Oberflächenkontur (S, RS) verläuft.
  7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass zunächst eines durch eine Start-Oberflächenkontur (S) begrenztes Start-Volumen (V) des Zielobjekts (O) bereitgestellt wird, welches unter Verwendung von Messdaten (MBD) eines bildgebenden Systems (1) modellbasiert erstellt wurde.
  8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass zur Bestimmung einer modifizierten dreidimensionalen Oberflächenkontur (RS’) im Deformierungsbereich (D) Oberflächenpunkte der Oberflächenkontur (RS’) im Deformierungsbereich (D) auf Basis – der aktuellen Kontur-Eingabelinie (IE), – sowie von Oberflächenpunkten entlang eines Rands (M0, M1) des Deformierungsbereich (D) der Oberflächenkontur (S, RS) interpoliert werden.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass bei der Interpolation Punkte auf weiteren, zuvor erfassten Kontur-Eingabelinien (RI) berücksichtigt werden.
  10. Verfahren nach Anspruche 9, dadurch gekennzeichnet, dass eine Distanz (d) der aktuell erfassten Kontur-Eingabelinie (IE) oder einem Kontur-Eingabeliniensegment von der zuvor erfassten Kontur-Eingabelinie (RI) ermittelt wird.
  11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass in Abhängigkeit von der ermittelten Distanz (d) zwischen der aktuellen Kontur-Eingabelinie (IE) oder dem Kontur-Eingabeliniensegment und der zuvor erfassten Kontur-Eingabelinie (RI) ein definierter Abschnitt der zuvor erfassten Kontur-Eingabelinie (RI) unberücksichtigt bleibt.
  12. Verfahren nach einem der Ansprüche 8 bis 11, dadurch gekennzeichnet, dass die Interpolation derart erfolgt, das die Übergangskanten zwischen Oberflächenpunkten der Oberflächenkontur (RS’) innerhalb des Deformierungsbereichs (D) und den Oberflächenpunkten der Oberflächenkontur (S, RS) außerhalb des Deformierungsbereichs (D) geglättet sind.
  13. Verfahren nach einem der Ansprüche 1 bis 12, dadurch gekennzeichnet, dass unter Berücksichtigung der modifizierten dreidimensionalen Oberflächenkontur (RS’) im Deformierungsbereich (D) die Voxelrepräsentation des Volumens (V) des Zielobjekts modifiziert wird.
  14. Bildverarbeitungsvorrichtung (10) zur Erzeugung modifizierter dreidimensionaler Bilddaten eines Zielobjekts (O) mit folgenden Komponenten: – Eine Bilddatenschnittstelle (11) zur Übernahme einer Voxelrepräsentation eines durch eine aktuelle, vorgegebene dreidimensionale Oberflächenkontur (S, RS) begrenzten Volumens (V) des Zielobjekts (O), – eine Konturlinienerfassungsschnittstelle (13) zur Erfassung einer aktuellen Kontur-Eingabelinie (IE), – eine Deformierungsbereichsermittlungseinheit (14) zur Ermittlung eines lokalen Deformierungsbereichs (D) zur Modifizierung der aktuellen Oberflächenkontur (S, RS) auf Basis von Schnittpunkten (i0, i1) der aktuellen Kontur-Eingabelinie (IE) mit der aktuellen Oberflächenkontur (S, RS), und – einer Oberflächenkonturbestimmungseinheit (15) zur Bestimmung einer modifizierten dreidimensionalen Oberflächenkontur (RS’) im Deformierungsbereich (D) auf Basis der Kontur-Eingabelinie (IE).
  15. Computerprogrammprodukt, welches direkt in einen Speicher eines Bildverarbeitungsrechners (10) ladbar ist, mit Programmcode-Mitteln, um alle Schritte eines Verfahrens nach einem der Ansprüche 1 bis 13 auszuführen, wenn das Programmprodukt auf dem Bildverarbeitungsrechner (10) ausgeführt wird.
DE102012213461.1A 2012-07-31 2012-07-31 Erzeugung modifizierter Bilddaten eines Zielobjekts Active DE102012213461B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102012213461.1A DE102012213461B4 (de) 2012-07-31 2012-07-31 Erzeugung modifizierter Bilddaten eines Zielobjekts
CN201310323763.5A CN103578076B (zh) 2012-07-31 2013-07-30 目标对象的修改过的图像数据的产生

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012213461.1A DE102012213461B4 (de) 2012-07-31 2012-07-31 Erzeugung modifizierter Bilddaten eines Zielobjekts

Publications (2)

Publication Number Publication Date
DE102012213461A1 true DE102012213461A1 (de) 2014-02-06
DE102012213461B4 DE102012213461B4 (de) 2015-12-03

Family

ID=49943948

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012213461.1A Active DE102012213461B4 (de) 2012-07-31 2012-07-31 Erzeugung modifizierter Bilddaten eines Zielobjekts

Country Status (2)

Country Link
CN (1) CN103578076B (de)
DE (1) DE102012213461B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115131380A (zh) * 2022-03-03 2022-09-30 中国人民解放军总医院第四医学中心 骨骼组成部位的确定方法、装置、设备及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106999246B (zh) * 2014-10-17 2020-12-08 皇家飞利浦有限公司 介入治疗***和用于对叠加的图像进行绘制的方法
CN106843694B (zh) * 2017-02-13 2020-07-21 上海联影医疗科技有限公司 三维图像处理***
CN108765547B (zh) * 2018-04-23 2021-11-30 北京林业大学 一种叶片形态空间校正的方法及其应用
CN109754472B (zh) * 2018-12-29 2023-07-18 上海联影医疗科技股份有限公司 一种组织轮廓编辑方法、装置、计算机设备及存储介质
CN111429581B (zh) * 2020-03-12 2024-01-26 网易(杭州)网络有限公司 游戏模型外轮廓确定、游戏特效添加方法和装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007050890A1 (de) * 2007-10-24 2009-04-30 Siemens Ag Verfahren und System zur Nachbearbeitung von medizinischen Bilddaten

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1778353B1 (de) * 2004-08-13 2012-09-12 Koninklijke Philips Electronics N.V. Adaption von strahlentherapiebehandlungsplänen
JP4563326B2 (ja) * 2006-02-09 2010-10-13 ザイオソフト株式会社 画像処理方法および画像処理プログラム
BR112013015181A2 (pt) * 2010-12-15 2016-09-13 Koninkl Philips Electronics Nv método e sistema

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102007050890A1 (de) * 2007-10-24 2009-04-30 Siemens Ag Verfahren und System zur Nachbearbeitung von medizinischen Bilddaten

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Greg Turk et al. "Implicit surfaces that interpolate", SMI International Conference on Shape Modeling and Applications, 2002, S. 62 bis 71
Greg Turk et al. "Modelling with implicit surfaces that interpolate", ACM Transactions on Graphics (TOG), 2002, S. 855 bis 873
Jonathan C. Carr et al. "Reconstruction and representation of 3D objects with radial basis functions", ACM Proceedings of the 28th annual conference on Computer graphics and interactive techniques, 2001, Seiten 67 bis 76

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115131380A (zh) * 2022-03-03 2022-09-30 中国人民解放军总医院第四医学中心 骨骼组成部位的确定方法、装置、设备及存储介质
CN115131380B (zh) * 2022-03-03 2023-09-01 中国人民解放军总医院第四医学中心 骨骼组成部位的确定方法、装置、设备及存储介质

Also Published As

Publication number Publication date
DE102012213461B4 (de) 2015-12-03
CN103578076A (zh) 2014-02-12
CN103578076B (zh) 2016-09-07

Similar Documents

Publication Publication Date Title
EP3185215B1 (de) Automatisierte ermittlung von konturen auf basis einer iterativen rekonstruktion
DE102012213461B4 (de) Erzeugung modifizierter Bilddaten eines Zielobjekts
DE102006055173B4 (de) Verfahren, medizinisches diagnostisches bildgebendes System sowie computerlesbares Speichermedium für die halbautomatische Segmentierungstechnik für röhrenförmige Objekte mit niedrigem Kontrast
DE10357203B4 (de) Verfahren und Steuereinrichtung zum Betrieb eines Magnetresonanztomographie-Geräts sowie Magnetresonanztomographie-Gerät
DE10357206B4 (de) Verfahren und Bildbearbeitungssystem zur Segmentierung von Schnittbilddaten
DE102011076233B4 (de) Verfahren und Computersystem zur Erkennung einer statistisch relevanten Normvariante der Gefaßstruktur eines Patienten mit Hilfe tomographischer Bilddatensatze
DE102013214479B4 (de) Verfahren zur Nachführung einer 2D-3D-Registrierung bei Bewegung und Rechenvorrichtung
DE102009006416B3 (de) Verfahren und Verzweigungs-Ermittlungseinrichtung zur Ermittlung einer Verzweigungsstelle sowie einer Mittellinie innerhalb eines Hohlorgans nebst zugehörigem Computerprogramm
DE212011100130U1 (de) Auf gleicher Ebene und interaktiv stattfindende Oberflächennetz-Anpassung
DE112005001755T5 (de) System und Verfahren zur Baummodell-Visualisierung zur Erkennung von Lungenembolie
DE102006028812A1 (de) System und Verfahren zum pfad-basierten Tree-Matching
EP3220354A1 (de) Verfahren zur automatischen erkennung von anatomischen landmarken und vorrichtung
DE102017214447B4 (de) Planare Visualisierung von anatomischen Strukturen
DE102006039921A1 (de) System und Verfahren zum automatischen Atemwegevaluieren für Multi-Schnitt Computertomographie (MSCT) Bilddaten unter Verwendung eines Atemweglumendurchmessers, einer Atemwegwanddicke und eines Bronchien-Arterien-Verhältnisses
EP3220357A2 (de) Modellhaftes erzeugen und darstellen von dreidimensionalen objekten
DE102014213408A1 (de) Verfahren zur Ermittlung eines dreidimensionalen Modelldatensatzes eines wenigstens ein Gefäßsegment umfassenden Blutgefäßsystems
DE102017203313A1 (de) Verfahren zur Auswertung eines kontrastmittelverstärkten Magnetresonanzschichtbildes eines Herzens, Bildverarbeitungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102020216306A1 (de) Computerimplementiertes Verfahren zum Betrieb einer medizinischen Bildgebungseinrichtung, Bildgebungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102007028895B4 (de) Verfahren zur Segmentierung von Strukturen in 3D-Bilddatensätzen
EP3591611A1 (de) Bestimmen eines differenzbilddatensatzes eines untersuchungsvolumens
DE102006039923A1 (de) System und Verfahren zur Bestimmung einer Größe eines Atemweg-Lumens und einer Dicke einer Atemwegs-Wand
EP3323347A1 (de) Verfahren zur bildunterstützung einer einen minimalinvasiven eingriff mit einem instrument in einem eingriffsbereich eines patienten durchführenden person, röntgeneinrichtung, computerprogramm und elektronisch lesbarer datenträger
DE102009006414B3 (de) Verfahren und Mittellinien-Ermittlungseinrichtung sowie Bildbearbeitungseinrichtung und Computerprogramm zur Ermittlung einer Mittellinie eines Abschnitts eines Hohlorgans
DE69636578T2 (de) Anatomisches anzeigesystem
DE102009006765B4 (de) Verfahren zur Ansteuerung einer Bildausgabeeinrichtung, Verfahren zur Ermittlung von tangentialen Schnittebenen, Ansteuerungsmodul und Schnittebenenermittlungseinheit

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHCARE GMBH, DE

Free format text: FORMER OWNER: SIEMENS AKTIENGESELLSCHAFT, 80333 MUENCHEN, DE

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE