DE102019208496B4 - Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion - Google Patents

Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion Download PDF

Info

Publication number
DE102019208496B4
DE102019208496B4 DE102019208496.6A DE102019208496A DE102019208496B4 DE 102019208496 B4 DE102019208496 B4 DE 102019208496B4 DE 102019208496 A DE102019208496 A DE 102019208496A DE 102019208496 B4 DE102019208496 B4 DE 102019208496B4
Authority
DE
Germany
Prior art keywords
image data
data set
rds
function
trained
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019208496.6A
Other languages
English (en)
Other versions
DE102019208496A1 (de
Inventor
Sai Gokul Hariharan
Christian KAETHNER
Markus Kowarschik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102019208496.6A priority Critical patent/DE102019208496B4/de
Priority to US16/891,446 priority patent/US11423539B2/en
Priority to CN202010529347.0A priority patent/CN112085807B/zh
Publication of DE102019208496A1 publication Critical patent/DE102019208496A1/de
Application granted granted Critical
Publication of DE102019208496B4 publication Critical patent/DE102019208496B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/006Inverse problem, transformation from projection-space into object-space, e.g. transform methods, back-projection, algebraic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2211/00Image generation
    • G06T2211/40Computed tomography
    • G06T2211/404Angiography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Vascular Medicine (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)

Abstract

Computerimplementiertes Verfahren zum Bereitstellen eines Differenzbilddatensatzes (DDS) eines Untersuchungsvolumens (VOL), umfassend- Empfangen (REC-RDS-1) eines ersten Realbilddatensatzes (RDS-1) des Untersuchungsvolumens (VOL),wobei das Untersuchungsvolumen (VOL) ein Gefäß umfasst,wobei der erste Realbilddatensatz (RDS-1) das Untersuchungsvolumen (VOL) umfassend Kontrastmittel abbildet,- Bestimmen (DET-DDS) des Differenzbilddatensatzes (DDS) des Untersuchungsvolumens (VOL) durch Anwenden einer ersten trainierten Generatorfunktion (GF-1) auf Eingabedaten,wobei die Eingabedaten den ersten Realbilddatensatz (RDS-1) umfassen,wobei ein Parameter der ersten trainierten Generatorfunktion (GF-1) auf einem Generative-Adversarial-Algorithmus basiert,wobei das Training der ersten trainierten Generatorfunktion (GF-1) darauf basiert, die erste trainierte Generatorfunktion (GF-1) auf Realbilddatensätzen mit einem ersten Rauschpegel anzuwenden und das Ergebnis mit Differenzbilddatensätzen mit einem zweiten Rauschpegel zu vergleichen,wobei der erste Rauschpegel höher ist als der zweite Rauschpegel,- Bereitstellen (PRV-DDS) des Differenzbilddatensatzes (DDS).

Description

  • In der medizinischen Praxis werden Röntgenvorrichtungen oftmals zur Überwachung von (insbesondere minimalinvasiven) chirurgischen Eingriffen eingesetzt, teilweise werden bestimmte Eingriffe erst durch eine Röntgenüberwachung möglich, beispielsweise die Implantation einer Aortenklappe mittels eines Katheters.
  • Die Vorteile eines solchen röntgenüberwachten Eingriffs müssen hierbei gegen die Strahlenbelastung durch die absorbierte Röntgendosis abgewogen werden. Da typischerweise die Reduzierung der Röntgendosis auch mit einer Reduzierung der Bildqualität bzw. einer Erhöhung des Signal-Rausch-Verhältnisses einhergeht, muss häufig ein Kompromiss zwischen guter Bildqualität und niedriger Röntgendosis gefunden werden.
  • Ist das Signal-Rausch-Verhältnis zu hoch, kann das insbesondere auch zu einer niedrigen Bildqualität bei einer digitalen Subtraktionsangiographie (kurz DSA) führen. Insbesondere kann die notwendige Registrierung von Maskenbilddatensatz und Füllbilddatensatz nicht möglich sein, oder das Rauschen kann in der Registrierung zu Artefakten führen.
  • In der digitalen Subtraktionsangiographie (kurz DSA) werden ein oder mehrere Gefäße in einem Untersuchungsvolumen durch Röntgenaufnahmen dargestellt, wobei zur Unterdrückung von weiteren Strukturen im Untersuchungsvolumen Aufnahmen des Gefäßes ohne Kontrastmittel (sog. Maskenaufnahmen) mit Aufnahmen des Gefäßes einschließlich eines Kontrastmittels, welches sich im Gefäß befindet, kombiniert werden. Das Kontrastmittel wird hierbei während der Untersuchung in das Gefäß eingebracht, um Parameter, insbesondere hydrodynamische Parameter eines Fluids zu bestimmen, wobei das Fluid im Gefäß fließt.
  • Dadurch, dass für eine digitale Subtraktionsangiographie sowohl Aufnahmen des Gefäßes ohne Kontrastmittel als auch Aufnahmen des Gefäßes einschließlich eines Kontrastmittels aufgenommen werden, wird das Untersuchungsvolumen einer hohen Röntgenbelastung ausgesetzt. Die Aufnahmen des Gefäßes ohne Kontrastmittel werden auch als Maskenaufnahmen bezeichnet.
  • Es ist bekannt, die Bildqualität durch verschiedene Rauschunterdrückungsverfahren zu erhöhen. Diese Verfahren können aber den Bildeindruck verändern und/oder zu Artefakten führen. Wird die Rauschunterdrückung in einem zu hohen Maße angewendet, kann dies beispielsweise zu einem zeichentrickartigen Bildeindruck führen.
  • Weiterhin ist bekannt, durch optimierte Protokolle (d.h. durch eine optimierte Wahl der Parameter der Röntgenvorrichtung) das Signal-Rausch-Verhältnis zu optimieren. Auch diese Wahl der Protokolle kann aber den Bildeindruck verändern (beispielsweise können sich die Werte der Bildpixel für die selbe abgebildete Struktur bei unterschiedlichen Bildaufnahmewerten unterscheiden). Dies stellt insbesondere ein Problem dar, wenn die Bilddaten durch trainierte Algorithmen weiterverarbeitet werden sollen, insbesondere wenn die zum Training verwendeten Algorithmen nur mittels einer beschränkten Anzahl von Protokollen oder einer beschränkten Anzahl von Röntgenvorrichtungen aufgenommen wurden.
  • Aus der unveröffentlichten Patentanmeldung EP18182251 ist bekannt, durch Anwendung einer trainierten Funktion auf einen Realbilddatensatz einen Differenzbilddatensatz zu bestimmen, ohne eine zusätzliche Maskenaufnahme durchzuführen. Hierbei entspricht aber der Rauschpegel des Differenzbilddatensatzes dem Rauschpegel des Realbilddatensatzes. Daher kann zwar auf eine Maskenaufnahme verzichtet werden, für eine Verringerung des Rauschpegels im Differenzbilddatensatz muss aber ein Realbilddatensatz mit niedrigem Rauschpegel und damit hoher Röntgendosis verwendet werden.
  • Aus der Veröffentlichung D. Nie et al., „Medical Image Synthesis with Context-Aware Generative Adversarial Networks“, arXiv:1612.05362 (2016) ist die Bestimmung von synthetischen Computertomographiebilddatensätzen basierend auf Magnetresonanzbilddatensätzen mittels Generative Adversarial Netzwerken bekannt. Ebenso ist aus der Druckschrift US 2019/0090834 A1 die Bestimmung von zweidimensionalen aus dreidimensionalen Mammographiedatensätzen mittels Generative Adversarial Netzwerken bekannt. Weiterhin ist aus der Veröffentlichung K Armanious et al., „Unsupervised Medical Image Translation Using Cycle-MedGAN“, arXiv:1903.03374 (2019) bekannt, weitere Transformationen zwischen verschiedenartigen medizinischen Bilddatensätzen mittels spezifischer Generative Adversarial Netzwerke vorzunehmen. Die genannten Generative Adversarial Netzwerke wurden in der Veröffentlichung I. Goodfellow et al., „Generative Adversarial Networks“, arXiv:1406.2661 (2014) eingeführt.
  • Aus der Veröffentlichung J. Montoya et al., „3D Deep Learning Angiography (3D-DLA) from C-arm Conebeam CT", AJNR Am J Neuroradiol. (2018) 39(5):916-922 sind Deep Learning Angiographie-Methoden zur Erstellung von 3D Gehirnangiogrammen aus kontrastverstärkten Cone Beam-Computertomografie Aufnahmen bekannt, um Bildartefakte und Strahlendosis zu reduzieren.
  • Aus der Veröffentlichung J. Wolterink et al., „Generative Adversarial Networks for Noise Reduction in Low-Dose CT", IEEE Transactions on Medical Imaging (2017), 36(12):2536-2545 ist es bekannt, mittels Generative Adversarial Networks Computertomograhphiebilddatensätze, die mittels einer niedrigen Röntgendosis aufgenommen wurden, in synthetische Computertomograhpiebilddatensätze mit einer höheren Röntgendosis zu transformieren.
  • Aus der Veröffentlichung H. Hao, „Vessel Layer Separation of X-ray Angiographic Images using Deep Learning Methods“, Masterarbeit an der TU Delft (2018), online verfügbar unter https://repository.tudelft.nl/islandora/object/uuid%3Aae81907 7-c7cd-4737-ad6e-7289cb39e3bd, sind lernbasierte Methoden zur Separierung von Gefäßschichten bekannt, die auf gegenläufig arbeitenden („adversarial“) Kostenfunktionen basieren.
  • Aus der Veröffentlichung Mathias Unberath et al. „Deep Learning-based Inpainting for Virtual DSA“, IEEE Nuclear Sciences Symposium and Medical Imaging Conference Record (2017) ist es bekannt, U-Net Architekturen zur Bestimmung von virtuellen digitalen Subtraktionsangiographien (Akronym „vDSA“) zu verwenden.
  • Es ist daher die Aufgabe der Erfindung, basierend auf einem Realbilddatensatz einen Differenzbilddatensatz mit einem niedrigen Rauschpegel bereitzustellen.
  • Diese Aufgabe wird gelöst durch ein computerimplementiertes Verfahren zum Bereitstellen eines Differenzbilddatensatzes nach Anspruch 1, durch ein computerimplementiertes Verfahren zum Bereitstellen einer trainierten Generatorfunktion nach Anspruch 10, durch ein Bereitstellungssystem nach Anspruch 18, durch ein Computerprogrammprodukt nach Anspruch 19 und durch ein computerlesbares Speichermedium nach Anspruch 20. Vorteilhafte Weiterbildungen werden in den abhängigen Ansprüchen und in der folgenden Beschreibung beschrieben.
  • Nachstehend wird die Lösung der Aufgabe sowohl in Bezug auf die beanspruchten Vorrichtungen als auch in Bezug auf das beanspruchte Verfahren beschrieben. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen sind ebenso auch auf die anderen beanspruchten Gegenstände zu übertragen und umgekehrt. Mit anderen Worten können die gegenständlichen Ansprüche (die beispielsweise auf eine Vorrichtung gerichtet sind) auch mit den Merkmalen, die in Zusammenhang mit einem Verfahren beschrieben oder beansprucht sind, weitergebildet sein. Die entsprechenden funktionalen Merkmale des Verfahrens werden dabei durch entsprechende gegenständliche Module ausgebildet.
  • Weiterhin wird die Lösung der Aufgabe sowohl in Bezug auf Verfahren und Vorrichtungen zum Bereitstellen von Differenzbilddatensätzen als auch in Bezug auf Verfahren und Vorrichtungen zum Bereitstellen von trainierten Generatorfunktionen. Hierbei können Merkmale und alternative Ausführungsformen von Datenstrukturen und/oder Funktionen bei Verfahren und Vorrichtungen zum Bereitstellen von Differenzbilddatensätzen auf analoge Datenstrukturen und/oder Funktionen bei Verfahren und Vorrichtungen zum Bereitstellen von trainierten Generatorfunktionen übertragen werden. Analoge Datenstrukturen können hierbei insbesondere durch die Verwendung der Vorsilbe „Trainings“ gekennzeichnet sein. Weiterhin können die in Verfahren und Vorrichtungen zur Bereitstellung von Differenzbilddatensätzen verwendeten trainierten Generatorfunktionen durch Verfahren und Vorrichtungen zum Bereitstellen von trainierten Generatorfunktionen angepasst worden und/oder bereitgestellt worden sein.
  • Die Erfindung betrifft in einem ersten Aspekt ein computerimplementiertes Verfahren zum Bereitstellen eines Differenzbilddatensatzes. Das Verfahren basiert darauf, dass ein erster Realbilddatensatzes eines Untersuchungsvolumens empfangen wird, insbesondere mittels einer Schnittstelle. Hierbei umfasst das Untersuchungsvolumen ein Gefäß, und der erste Realbilddatensatz bildet das Untersuchungsvolumen umfassend Kontrastmittel ab. Weiterhin wird ein Differenzbilddatensatzes des Untersuchungsvolumens durch Anwenden einer ersten trainierten Generatorfunktion auf Eingabedaten bestimmt, insbesondere mittels einer Recheneinheit. Hierbei umfassen die Eingabedaten den ersten Realbilddatensatz, und ein Parameter der trainierten Generatorfunktion basiert auf einem GA-Algorithmus. Weiterhin wird der Differenzbilddatensatz bereitgestellt, insbesondere mittels der Schnittstelle.
  • Ein Bilddatensatz umfasst insbesondere eine Mehrzahl von Pixeln oder Voxeln. Dabei wird jedem Pixel oder Voxel ein Intensitätswert zugeordnet. Ein Bilddatensatz kann insbesondere ein Röntgenbilddatensatz sein. Bei einem Röntgenbilddatensatz wird insbesondere jedem Pixel oder Voxel ein Röntgenintensitätswert, der ein Maß für die in diesem Pixel oder Voxel aufgetroffene Röntgenintensität oder für einen Röntgenabsorptionskoeffizienten des Pixels oder des Voxels ist. Eine auftreffende Röntgenintensität hängt von der Zahl, der Größe, der Form und dem Material der sich im Untersuchungsvolumen befindlichen und von der Röntgenstrahlung durchdrungenen Objekten ab. Ein Bilddatensatz kann insbesondere weitere Daten umfassen, insbesondere Metadaten einer bildgebenden Untersuchung, insbesondere einer Röntgenuntersuchung.
  • Ein zweidimensionaler Bilddatensatz umfasst dabei mindestens eine zweidimensionale Darstellung eines Untersuchungsvolumens. Ein dreidimensionaler Bilddatensatz umfasst dabei mindestens eine dreidimensionale Darstellung eines Untersuchungsvolumens, insbesondere kann ein dreidimensionaler Bilddatensatz auch zusätzlich noch eine oder mehrere zweidimensionale Darstellungen des Untersuchungsvolumens umfassen. Eine dreidimensionale Darstellung kann insbesondere räumlich dreidimensional sein, eine dreidimensionale Darstellung kann aber auch räumlich zweidimensional und zeitlich eindimensional sein. Ein vierdimensionaler Bilddatensatz umfasst dabei mindestens eine vierdimensionale Darstellung eines Untersuchungsvolumens. Eine vierdimensionale Darstellung des Untersuchungsvolumens kann insbesondere räumlich dreidimensional und zeitlich eindimensional sein.
  • Ein Bilddatensatz kann insbesondere als Realbilddatensatz bezeichnet werden, wenn er die tatsächliche Verteilung von Werten und/oder Intensitäten (z.B. Hounsfield-Einheiten, Röntgenschwächungskoeffizienten) in einem Untersuchungsvolumen abbildet. Ein Bilddatensatz kann insbesondere als Differenzbilddatensatz bezeichnet werden, wenn er eine Differenz einer tatsächlichen Verteilung von Werten und/oder Intensitäten in einem Untersuchungsvolumen abbildet. Ein Differenzbilddatensatz wird aber nicht notwendigerweise durch Subtraktion zweier Realbilddatensätze bestimmt. Ein Bilddatensatz kann insbesondere als Subtraktionsbilddatensatz bezeichnet werden, wenn er durch Subtraktion zweier Bilddatensätze bestimmt wurde, insbesondere durch Subtraktion zweier Realbilddatensätze. Daher könnte insbesondere jeder Subtraktionsbilddatensatz als Differenzbilddatensatz aufgefasst werden, aber nicht jeder Differenzbilddatensatz kann als Subtraktionsbilddatensatz aufgefasst werden.
  • Eine trainierte Funktion ist insbesondere eine Funktion, die Eingabedaten auf Ausgabedaten abbildet, wobei die Ausgabedaten weiterhin von mindestens einem Funktionsparameter der Funktion abhängen, und wobei der Funktionsparameter durch überwachtes Lernen (ein englischer Fachbegriff ist „supervised learning“), durch halb-überwachtes Lernen (ein englischer Fachbegriff ist „semi-supervised learning“) und/oder durch unüberwachtes Lernen (ein englischer Fachbegriff ist „unsupervised learning“) anpassbar ist. Die Eingabedaten und/oder die Ausgabedaten können hierbei insbesondere jeweils mindestens einen Bilddatensatz umfassen.
  • Insbesondere ist eine trainierte Generatorfunktion eine trainierte Funktion, und eine trainierte Klassifikatorfunktion ist eine trainierte Funktion. Bei einer trainierten Funktion muss nicht notwendigerweise einer ihrer Parameter bereits angepasst worden sein, daher kann der Begriff „trainierte Funktion“ auch durch „trainierbare Funktion“ ersetzt werden, insbesondere kann der Begriff „trainierte Generatorfunktion“ durch „trainierbare Generatorfunktion“ und/oder der Begriff „trainierte Klassifikatorfunktion“ durch „trainierbare Klassifikatorfunktion“ ersetzt werden. Insbesondere können die Begriffe „trainierte Generatorfunktion“ und „Generatorfunktion“ als Synonyme verwendet werden, und/oder die Begriffe „trainierte Klassifikatorfunktion“ und „Klassifikatorfunktion“ können als Synonyme verwendet werden.
  • Bei einer trainierten Generatorfunktion umfassen insbesondere die Eingabedaten und die Ausgabedaten mindestens einen Bilddatensatz. Bei einer trainierten Klassifikatorfunktion umfassen insbesondere die Eingabedaten mindestens einen Bilddatensatz, und die Ausgaben umfassen einen oder mehrere Wahrscheinlichkeitswerte. Der Wahrscheinlichkeitswert entspricht insbesondere der Wahrscheinlichkeit, dass der Bilddatensatz der Eingabedaten ein realer Bilddatensatz oder ein synthetischer Bilddatensatz ist. Die Bezeichnung „Klassifikatorfunktion“ kann insbesondere durch die Bezeichnung „Diskriminatorfunktion“ und/oder durch die Bezeichnung „Diskriminator- und Klassifikatorfunktion“ bzw. durch die Bezeichnung „Klassifikator- und Diskriminatorfunktion“ ersetzt werden.
  • Ein GA-Algorithmus („GA“ ist ein Akronym für „generative adversarial“, eine deutsche Übersetzung ist „erzeugend und gegnerisch“) umfasst eine Generatorfunktion und eine Klassifikatorfunktion. Hierbei erzeugt die Generatorfunktion synthetische Daten (ein anderes Wort sind „virtuelle Daten“), und die Klassifikatorfunktion unterscheidet zwischen synthetischen und realen Daten. Insbesondere wird durch ein Training der Generatorfunktion und/oder der Klassifikatorfunktion erreicht, dass auf der einen Seite die Generatorfunktion derartige synthetische Daten erzeugt, die durch die Klassifikatorfunktion fälschlicherweise als real eingestuft werden, auf der anderen Seite die Klassifikatorfunktion möglichst gut zwischen realen Daten und synthetischen Daten unterscheiden kann. Spieltheoretisch kann ein GA-Algorithmus auch als Nullsummenspiel aufgefasst werden. Das Training der Generatorfunktion und/oder der Klassifikatorfunktion basiert insbesondere auf der Minimierung jeweils einer Kostenfunktion.
  • Falls die Generatorfunktion und die Klassifikatorfunktion durch ein Netzwerk gegeben sind, insbesondere durch ein künstliches neuronales Netzwerk, dann wird der GA-Algorithmus auch als GA-Netzwerk (auch „GAN“, englisches Akronym für „generative adversarial network“, eine deutsche Übersetzung ist „erzeugende gegnerische Netzwerke“) bezeichnet. Diese sind insbesondere aus der Druckschrift Ian J. Goodfellow, „Generative Adversarial Networks“, arxiv 1406.2661 (2014) bekannt. Die Minimierung der Kostenfunktion kann insbesondere mittels eines Gradientenabstiegs (ein englischer Fachbegriff ist „gradient descent“), und insbesondere mittels Rückpropagation (ein englischer Fachbegriff ist „backpropagation“) erfolgen.
  • Ein Parameter der trainierten Generatorfunktion basiert insbesondere derart auf einem GA-Algorithmus oder auf einem GA-Netzwerk, dass der Parameter der trainierten Generatorfunktion mit einem Parameter der Generatorfunktion des GA-Algorithmus oder des GA-Netzwerks identisch ist. Insbesondere basiert ein Parameter der trainierten Generatorfunktion derart auf einem GA-Algorithmus oder auf einem GA-Netzwerk, dass die trainierte Generatorfunktion mit der Generatorfunktion des GA-Algorithmus oder des GA-Netzwerks identisch ist.
  • Die Erfinder haben erkannt, dass durch das beschriebene Verfahren einen Differenzbilddatensatz eines Untersuchungsvolumens basierend auf einem Realbilddatensatz des Untersuchungsvolumens ermitteln kann, wobei durch die Verwendung einer trainierten Generatorfunktion der Differenzbilddatensatz andere Eigenschaften als der Realbilddatensatz aufweisen kann. Insbesondere kann das beschriebene Verfahren eingesetzt werden, um das Rauschen in den Bilddatensätzen zu verringern. Hierdurch kann beispielsweise bei einer Röntgenbildgebung die verwendete Röntgendosis oder die verwendete Menge von Kontrastmittel verringert werden, wobei gleichzeitig die Qualität des Differenzbilddatensatzes zumindest konstant gehalten werden kann.
  • Nach einem weiteren Aspekt der Erfindung weist der erste Realbilddatensatz einen ersten Rauschpegel auf, und der Differenzbilddatensatz weist einen zweiten Rauschpegel auf. Hierbei ist der erste Rauschpegel höher ist als der zweite Rauschpegel.
  • Der Rauschpegel eines Bilddatensatz betrifft insbesondere die Intensität des Rauschens im Bilddatensatz. Vorteilhaft kann der Rauschpegel durch das Signal-Rausch-Verhältnis beschrieben werden (wobei der Rauschpegel steigt, wenn das Signal-Rausch-Verhältnis sinkt, und wobei der Rauschpegel sinkt, wenn das Signal-Rausch-Verhältnis steigt). Üblicherweise steigt bei einer Röntgenbildgebung das Signal-Rausch-Verhältnis mit der verwendeten Röntgendosis.
  • Die Erfinder haben erkannt, dass durch diese Wahl der Rauschpegel Differenzbilddatensätze erzeugt werden können, die einen niedrigeren Rauschpegel aufweisen als die als Eingabedaten verwendeten ersten Realbilddatensätze. Dadurch kann bei der Aufnahme der Realbilddatensätze eine niedrigere Röntgendosis verwendet werden, als zur direkten Aufnahme eines Bilddatensatzes mit dem angestrebten zweiten Rauschpegel notwendig wäre.
  • Die trainierte Generatorfunktion kann diese Verringerung des Rauschpegels insbesondere leisten, wenn sie im GA-Training bzw. im GA-Algorithmus auf Realbilddatensätzen mit einem ersten Trainingsrauschpegel angewendet wird, und das Ergebnis des Trainings mit Differenzbilddatensätzen aufweisend einen zweiten Trainingsrauschpegel (insbesondere mittels einer trainierten Klassifikatorfunktion) verglichen wird, wobei der zweite Trainingsrauschpegel geringer ist als der erste Trainingsrauschpegel.
  • Nach einem weiteren Aspekt der Erfindung ist der erste Realbilddatensatz ein Röntgenbilddatensatz, insbesondere ein zweidimensionaler oder dreidimensionaler Röntgenbilddatensatz.
  • Die Erfinder haben erkannt, dass durch die Anwendung des Verfahrens auf Röntgenbilddatensätze der Rauschpegel des Differenzbilddatensatzes gesenkt werden kann, ohne gleichzeitig die Röntgendosis und damit die Strahlenbelastung des Untersuchungsvolumens zu erhöhen.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren zum Bereitstellen eines Differenzbilddatensatzes weiterhin ein Bestimmen eines Maskenbilddatensatzes des Untersuchungsvolumens durch Anwenden der ersten trainierten Generatorfunktion auf die Eingabedaten, wobei der Maskenbilddatensatz das Untersuchungsvolumen ohne Kontrastmittel abbildet. Das Bestimmen erfolgt insbesondere mittels der Recheneinheit. Insbesondere kann die erste trainierte Generatorfunktion nur einmal auf die Eingabedaten angewendet werden, und das Ergebnis der Anwendung der ersten trainierten Generatorfunktion umfasst den Maskenbilddatensatz und den Differenzbilddatensatz.
  • Die Erfinder haben erkannt, dass durch die zusätzliche Generierung eines Maskenbilddatensatzes des Untersuchungsvolumens neben dem Differenzbilddatensatz eine Plausibilitätsprüfung durchgeführt werden kann, indem der Differenzbilddatensatz mit der Differenz des ersten Realbilddatensatzes und des Maskenbilddatensatzes verglichen werden kann. Insbesondere kann bei einer starken Abweichung hierdurch festgestellt werden, dass der empfangene erste Realbilddatensatz zu stark von den im Training der ersten trainierten Generatorfunktion verwendeten Bilddatensätzen abweicht, und daher das Ergebnis der Anwendung der ersten trainierten Generatorfunktion bzw. der Differenzbilddatensatz nicht zuverlässig verwendet werden kann.
  • Nach einem weiteren möglichen Aspekt der Erfindung umfasst das Verfahren zum Bereitstellen eines Differenzbilddatensatzes weiterhin das Empfangen eines Maskenbilddatensatzes des Untersuchungsvolumens. Hierbei bildet der Maskenbilddatensatz das Untersuchungsvolumen ohne Kontrastmittel ab, und die Eingabedaten der trainierten Generatorfunktion umfassen den Maskenbilddatensatz.
  • Insbesondere kann der Maskenbilddatensatz einen dritten Rauschpegel aufweisen, der höher ist als der zweite Rauschpegel des Differenzbilddatensatzes. Insbesondere können der dritte Rauschpegel und der erste Rauschpegel des ersten Realbilddatensatzes ähnlich bzw. identisch sein.
  • Die Erfinder haben erkannt, dass durch die Verwendung eines Maskenbilddatensatzes in den Eingabedaten der ersten trainierten Generatorfunktion weitere Informationen über die Struktur des Untersuchungsvolumens zur Verfügung stehen, die bei der Bestimmung des Differenzbilddatensatzes verwendet werden können. Insbesondere muss durch die Verwendung eines Maskenbilddatensatzes nicht alleine basierend auf den Intensitätswerten des ersten Realbilddatensatzes entschieden werden, ob ein Pixel bzw. ein Voxel des ersten Realbilddatensatzes einem Gefäß oder dem Hintergrund zuzuordnen ist.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren zum Bereitstellen des Differenzbilddatensatzes weiterhin ein Empfangen eines zweiten Realbilddatensatzes des Untersuchungsvolumens. Hierbei bildet der erste Realbilddatensatz das Untersuchungsvolumen zu einem ersten Zeitpunkt ab, und der der zweite Realbilddatensatz bildet das Untersuchungsvolumen zu einem zweiten Zeitpunkt ab. Weiterhin umfassen hierbei die Eingabedaten der trainierten Generatorfunktion weiterhin den zweiten Realbilddatensatz.
  • Der erste und der zweite Realbilddatensatz können hierbei insbesondere zweidimensionale Bilddatensätze sein, die während einer Rotation einer C-Arm-Röntgenvorrichtung um das Untersuchungsvolumens aufgenommen wurden. Insbesondere können der erste und der zweite Realbilddatensatz aufgenommen worden sein, um eine dreidimensionale Rekonstruktion des Untersuchungsvolumens durchzuführen.
  • Die Erfinder haben erkannt, dass durch die Verwendung eines zweiten Realbilddatensatzes, der zu einem anderen Zeitpunkt als der erste Realbilddatensatz aufgenommen wurde, die Anwendung der trainierten Generatorfunktion auf mehr Informationen des Untersuchungsvolumens basieren kann. Insbesondere kann hierdurch das Rauschen besser berücksichtigt werden, unter der Annahme, dass das Rauschen im ersten Realbilddatensatz und im zweiten Realbilddatensatz statistisch unabhängig ist.
  • Nach einem weiteren Aspekt der Erfindung wird die erste trainierte Generatorfunktion abschnittsweise auf die in den Eingabedaten enthaltenen Bilddatensätze angewendet. Insbesondere werden die in den Eingabedaten enthaltenen Bilddatensätze hierbei in mehrere Teilbilddatensätze aufgeteilt, und die erste trainierte Generatorfunktion wird auf jeden der mehreren Teilbilddatensätze angewendet. Die einzelnen Teilergebnisse werden dann insbesondere wieder zu einem Ergebnis zusammengesetzt. Die einzelnen Teilbilddatensätze können vorteilhafterweise disjunkt sein, es ist aber auch möglich, dass sich die einzelnen Teilbilddatensätze überlappen.
  • Die Erfinder haben erkannt, dass durch die abschnittsweise Anwendung der ersten trainierten Generatorfunktion diese zwar mehrfach angewendet wird, sich jede der Anwendungen aber auf weniger Pixel bzw. Voxel bezieht. Da die Eigenschaften der einzelnen Abschnitte den Eigenschaften der gesamten Bilddatensätze entsprechen, wird ein Training der trainierten Generatorfunktion erleichtert, da einerseits die trainierte Generatorfunktion weniger Parameter umfassen kann, und andererseits mehr Trainingsdaten zur Verfügung (da auch die Trainingsdaten in mehrere Teiltrainingsdaten aufgeteilt werden können). Dadurch ist die Anwendung der trainierten Generatorfunktion genauer bzw. das Training der trainierten Generatorfunktion weniger aufwändig.
  • Nach einem weiteren Aspekt der Erfindung basiert der Parameter der ersten trainierten Generatorfunktion auf einer zyklischen Konsistenzkostenfunktion
  • Ein Parameter einer trainierten Funktion basiert insbesondere auf einer Kostenfunktion, wenn der Parameter zur Minimierung oder Maximierung dieser Kostenfunktion angepasst bzw. verändert wurde.
  • Eine zyklische Konsistenzkostenfunktion ist insbesondere eine Kostenfunktion basierend auf einem Vergleich einer zweimaligen Anwendung der trainierten Generatorfunktion mit den Eingabedaten. Insbesondere basiert die zyklische Konsistenzkostenfunktion auf einer Norm der Differenz des Eingabebilddatensatzes und der Anwendung der trainierten Generatorfunktion auf Eingabedaten umfassend den Ergebnisbilddatensatz und den Eingabebildparameter. Bei der Norm kann es sich insbesondere um eine 1-Norm oder um eine 2-Norm handeln, die Norm kann insbesondere pixelweise und/oder voxelweise ausgewertet werden.
  • Durch die Verwendung einer zyklischen Konsistenzkostenfunktion kann erreicht werden, dass eine mehrfache Anwendung von trainierten Generatorfunktionen (in diesem Fall eine Anwendung der ersten trainierten Generatorfunktion und eine Anwendung einer zweiten trainierten Generatorfunktion, die als inverse Funktion zur ersten trainierten Generatorfunktion wirkt) als Identitätsabbildung wirkt. Damit kann erreicht werden, dass die erste trainierte Generatorfunktion besonders realistische Differenzbilddatensätze erzeugen kann.
  • Nach einem weiteren Aspekt der Erfindung umfasst die erste trainierte Generatorfunktion ein künstliches neuronales Netzwerk.
  • Die Erfinder haben erkannt, dass durch neuronale Netzwerke effizient auch nicht-lineare Funktionen beschrieben werden können, insbesondere durch die Wahl bzw. das Anpassen von Kantengewichten als Parametern, und dass neuronale Netzwerke besonders geeignet zur Verarbeitung von Bilddaten sind.
  • Nach einem weiteren Aspekt der Erfindung umfasst die erste trainierte Generatorfunktion einen Restwertblock, eine Abkürzungsverbindung, eine Faltungsschicht, eine Entfaltungsschicht, eine Poolingschicht und/oder eine räumliche Transformationsschicht.
  • In einem Restwertblock (ein alternativer Name ist „Residualblock“, ein englischer Fachbegriff ist „residual block“) ist eine Knotenschicht des neuronalen Netzwerks nicht nur mit der direkt folgenden Schicht verbunden, sondern auch mit einer der weiteren nachfolgenden Schichten verbunden. Eine Verbindung mit einer solchen weiteren nachfolgenden Schicht wird auch als Abkürzungsverbindung bezeichnet.
  • Durch die Verwendung von Residualblöcken können Schichten nahe der Eingabeschicht des neuronalen Netzwerks besser trainiert werden, und Probleme mit verschwindenden Gradienten können vermieden werden.
  • Eine Faltungsschicht (ein englischer Fachbegriff ist „convolutional layer“) bildet hierbei insbesondere die mathematische Operation einer Faltung mit einem oder mehreren Faltungskernen nach, wobei die Elemente des Faltungskerns Gewichten des neuronalen Netzwerks entsprechen. Eine Entfaltungsschicht (ein englischer Fachbegriff ist „deconvolutional layer“) bildet hierbei insbesondere die mathematische Operation einer Entfaltung mit einem oder mehreren Faltungskernen nach.
  • Faltungsschichten sind besonders gut geeignet, um Merkmale von Bilddatensätzen zu erkennen und weiterzuverarbeiten. Insbesondere können durch verschiedene Faltungskerne unterschiedliche Merkmale der verarbeiteten Bilddatensätze analysiert werden (z.B. Kanten oder Gradienten). Durch Entfaltungsschichten können insbesondere vorgegebene Merkmale (z.B. Kanten oder Gradienten) wieder in zugehörige Bilddatensätze umgewandelt werden. Insbesondere kann eine geeignete Kombination von Faltungsschichten und Entfaltungsschichten als Autoencoder wirken.
  • Eine Poolingschicht kann insbesondere eine Abtasterhöhungsschicht (ein englischer Fachbegriff ist „upsampling layer“) oder eine Abtastsenkungsschicht (ein englischer Fachbegriff ist „downsampling layer“) sein. Bei Anwendung auf einen Bilddatensatz werden bei einer Abtasterhöhungsschicht ein Pixel bzw. ein Voxel in mehrere Pixel bzw. mehrere Voxel transformiert. Bei Anwendung auf einen Bilddatensatz werden bei einer Abtastsenkungsschicht mehrere Pixel bzw. mehrere Voxel in einen Pixel bzw. Voxel transformiert.
  • Durch die Verwendung von Abtastsenkungsschichten kann insbesondere die Anzahl der betrachteten relevanten Merkmale verringert werden, was insbesondere eine Überanpassung (ein englischer Fachbegriff ist „overfitting“) verhindern kann. Durch die Verwendung von Abtasterhöhungsschichten können wenige Merkmale insbesondere wieder zu einem zugehörigen Bilddatensatz umgewandelt werden. Insbesondere kann eine geeignete Kombination von Abtastsenkungsschichten und Abtasterhöhungsschichten als Autoencoder wirken.
  • Räumliche Transformationsschicht (ein englischer Fachbegriff ist „spatial transformer layer“) bilden geometrische Transformationen (z.B. Rotation, Translation, Streckung, Stauchung) von Bilddatensätzen nach. Räumliche Transformationsschichten sind beispielsweise aus Max Jaderberg et al., „Spatial Transformer Networks“, arXiv:1506.02025v3 (2016) bekannt.
  • Durch die Verwendung von einer oder mehreren räumlichen Transformationsschichten können insbesondere erste und zweite Realbilddatensätze bzw. erste Realbilddatensätze und Maskenbilddatensätze, die nicht räumlich registriert sind, im Netzwerk registriert werden, und dadurch die Genauigkeit bzw. die Robustheit von Netzwerken für derartige Bilddaten erhöht werden.
  • Die Erfindung betrifft ein einem zweiten Aspekt ein computerimplementiertes Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion. Das Verfahren basiert darauf, dass ein Realbilddatensatz und ein Vergleichsdifferenzbilddatensatzes des Untersuchungsvolumens empfangen wird, insbesondere mittels einer Trainingsschnittstelle. Weiterhin wird ein Differenzbilddatensatzes des Untersuchungsvolumens durch Anwenden einer ersten trainierten Generatorfunktion auf erste Eingabedaten bestimmt, hierbei umfassen die ersten Eingabedaten den Realbilddatensatz. Weiterhin wird ein erster Klassifikationswertes durch Anwenden einer ersten trainierten Klassifikatorfunktion auf den Differenzbilddatensatz bestimmt, und es wird ein zweiter Klassifikationswertes durch Anwenden der ersten trainierten Klassifikatorfunktion auf den Vergleichsdifferenzbilddatensatz bestimmt, insbesondere mittels einer Trainingsrecheneinheit. Weiterhin erfolgt ein Anpassen der ersten trainierten Generatorfunktion und/oder der ersten trainierten Klassifikatorfunktion basierend auf dem ersten Klassifikationswert und/oder dem zweiten Klassifikationswert, insbesondere ebenfalls mittels der Trainingsrecheneinheit. Weiterhin erfolgt ein Bereitstellen der trainierten Generatorfunktion, insbesondere mittels der Trainingsschnittstelle. Das Bereitstellen der trainierten Generatorfunktion kann insbesondere ein Speichern, ein Übermitteln und/oder ein Anzeigen der trainierten Generatorfunktion umfassen.
  • Durch die eine Klassifikatorfunktion kann insbesondere zwischen synthetischen Bilddatensätzen und realen Bilddatensätzen unterschieden werden. Ein Klassifikationswert kann dabei insbesondere einen Wahrscheinlichkeitswert umfassen, wobei der Wahrscheinlichkeitswert der Wahrscheinlichkeit entspricht, dass es sich bei dem Eingabewert einer Klassifikatorfunktion um einen realen Bilddatensatz handelt. Die Differenz zwischen 1 und dem Wahrscheinlichkeitswert entspricht dann der Wahrscheinlichkeit, dass es sich beim Eingabewert der Klassifikatorfunktion um einen synthetischen Bilddatensatz handelt.
  • Die Erfinder haben erkannt, dass durch das beschriebene Verfahren eine erste trainierte Generatorfunktion bereitgestellt werden kann, die einen Realbilddatensatz in einen Differenzbilddatensatz umwandeln kann, und die in einem Verfahren zum Bereitstellen eines Differenzbilddatensatzes eingesetzt werden kann.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion ein Bestimmen eines ersten Vergleichsrealbilddatensatzes des Untersuchungsvolumens durch Anwenden einer zweiten trainierten Generatorfunktion auf zweite Eingabedaten, insbesondere mittels der Trainingsrecheneinheit. Hierbei umfassen die zweiten Eingabedaten den Differenzbilddatensatz. Weiterhin umfasst das Verfahren ein Anpassen der zweiten trainierten Generatorfunktion basierend auf einer zyklischen Konsistenzkostenfunktion, insbesondere mittels der Trainingsrecheneinheit, wobei die zyklische Konsistenzkostenfunktion auf einem Vergleich des ersten Realbilddatensatzes und des ersten Vergleichsrealbilddatensatzes basiert.
  • Die Erfinder haben erkannt, dass durch die Verwendung einer zyklischen Konsistenzkostenfunktion die zweite trainierte Generatorfunktion so angepasst werden kann, dass die erste trainierte Generatorfunktion und die zweite trainierte Generatorfunktion als jeweils inverse Funktionen zusammenwirken, bzw. gemeinsam als Autoencoder wirken. Hierdurch kann eine besonders hohe Bildqualität der durch die erste trainierte Generatorfunktion erzeugten Bilddaten erreicht werden.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion ein Empfangen eines Vergleichsmaskenbilddatensatzes des Untersuchungsvolumens, insbesondere mittels der Trainingsschnittstelle. Weiterhin umfasst das Verfahren ein Bestimmen eines Maskenbilddatensatzes des Untersuchungsvolumens durch Anwenden der ersten trainierten Generatorfunktion auf die ersten Eingabedaten, insbesondere mittels der Trainingsrecheneinheit. Hierbei kann das Bestimmen des Maskenbilddatensatzes durch die gleiche Anwendung der ersten trainierten Generatorfunktion erfolgen, durch die auch der Differenzbilddatensatz bestimmt wird. Mit anderen Worten generiert die Anwendung der ersten trainierten Generatorfunktion Ausgabedaten, die den Differenzbilddatensatz und den Maskenbilddatensatz umfassen. Weiterhin umfasst das Verfahren das Bestimmen eines ersten Maskenklassifikationswertes durch Anwenden einer trainierten Maskenklassifikatorfunktion auf den Maskenbilddatensatz sowie das Bestimmen eines zweiten Maskenklassifikationswertes durch Anwenden einer trainierten Maskenklassifikatorfunktion auf den Vergleichsmaskenbilddatensatz, jeweils insbesondere mittels der Trainingsrecheneinheit. Weiterhin umfasst das Verfahren ein Anpassen der ersten trainierten Generatorfunktion und/oder der trainierten Maskenklassifikatorfunktion basierend auf dem ersten Maskenklassifikationswert und/oder dem zweiten Maskenklassifikationswert.
  • Die Erfinder haben erkannt, dass durch das beschriebene Verfahren auch Maskenbilddatensätze in das Training der ersten Generatorfunktion mit einbezogen werden können. Da hierdurch im Training mehr relevante Merkmale bzw. Informationen vorliegen, kann hierdurch das Training verbessert werden.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion ein Empfangen eines Trainingsdifferenzbilddatensatzes des Untersuchungsvolumens und ein Empfangen eines Trainingsrealbilddatensatzes des Untersuchungsvolumens, insbesondere mittels der Trainingsschnittstelle. Weiterhin umfasst das Verfahren ein Bestimmen eines ersten synthetischen Realbilddatensatzes durch Anwenden der zweiten trainierten Generatorfunktion auf zweite Trainingseingabedaten, wobei die zweiten Trainingseingabedaten den Trainingsdifferenzbilddatensatz umfassen. Weiterhin umfasst das Verfahren ein Bestimmen eines dritten Klassifikationswertes durch Anwenden einer zweiten trainierten Klassifikatorfunktion auf den ersten synthetischen Realbilddatensatzes, sowie ein Bestimmen eines vierten Klassifikationswertes durch Anwenden der zweiten trainierten Klassifikatorfunktion auf den Trainingsrealbilddatensatz, jeweils mittels der Trainingsrecheneinheit. Weiterhin umfasst das Verfahren ein Anpassen der zweiten trainierten Generatorfunktion und/oder der zweiten trainierten Klassifikatorfunktion basierend auf dem dritten Klassifikationswert und/oder dem vierten Klassifikationswert.
  • Die Erfinder haben erkannt, dass durch das Anpassen der zweiten trainierten Generatorfunktion und/oder der zweiten trainierten Klassifikatorfunktion basierend auf dem dritten Klassifikationswert und/oder dem vierten Klassifikationswert so angepasst werden können, dass die zweite trainierte Generatorfunktion synthetische Daten erzeugt, die möglichst von der zweiten trainierten Klassifikatorfunktion als reale Daten klassifiziert werden, und dass die zweite trainierte Klassifikatorfunktion möglichst gut zwischen realen und synthetischen Daten unterscheiden kann. Durch diese gegenläufigen Ziele können beide trainierten Funktionen gleichzeitig verbessert werden.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion ein Bestimmen eines synthetischen Differenzbilddatensatzes des Untersuchungsvolumens durch Anwenden der ersten trainierten Generatorfunktion auf erste Trainingseingabedaten, wobei die ersten Trainingseingabedaten den ersten synthetischen Realbilddatensatzes umfassen. Weiterhin umfasst das Verfahren ein Anpassen der ersten trainierten Generatorfunktion basierend auf einer zyklischen Konsistenzkostenfunktion, wobei die zyklische Konsistenzkostenfunktion auf einem Vergleich des Trainingsdifferenzbilddatensatzes und des synthetischen Differenzbilddatensatzes basiert.
  • Die Erfinder haben erkannt, dass durch die Verwendung einer zyklischen Konsistenzkostenfunktion die erste trainierte Generatorfunktion so angepasst werden kann, dass die erste trainierte Generatorfunktion und die zweite trainierte Generatorfunktion als jeweils inverse Funktionen zusammenwirken, bzw. gemeinsam als Autoencoder wirken. Hierdurch kann eine besonders hohe Bildqualität der durch die erste trainierte Generatorfunktion erzeugten Bilddaten erreicht werden.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion ein Empfangen eines Trainingsmaskenbilddatensatzes des Untersuchungsvolumens, wobei die zweiten Trainingseingabedaten weiterhin den Trainingsmaskenbilddatensatz umfassen.
  • Die Erfinder haben erkannt, dass durch das beschriebene Verfahren auch Maskenbilddatensätze in das Training der ersten Generatorfunktion mit einbezogen werden können. Da hierdurch im Training mehr relevante Merkmale bzw. Informationen vorliegen, kann hierdurch das Training verbessert werden.
  • Nach einem weiteren Aspekt der Erfindung wird beim Anwenden der ersten trainierten Generatorfunktion auf die ersten Trainingseingabedaten weiterhin ein synthetischer Maskenbilddatensatz bestimmt, wobei die zyklische Konsistenzkostenfunktion weiterhin auf einem Vergleich des Trainingsmaskenbilddatensatzes und des synthetischen Maskenbilddatensatzes basiert.
  • Die Erfinder haben erkannt, dass durch die Verwendung einer zyklischen Konsistenzkostenfunktion die erste trainierte Generatorfunktion so angepasst werden kann, dass die erste trainierte Generatorfunktion und die zweite trainierte Generatorfunktion als jeweils inverse Funktionen zusammenwirken, bzw. gemeinsam als Autoencoder wirken. Hierdurch kann eine besonders hohe Bildqualität der durch die erste trainierte Generatorfunktion erzeugten Bilddaten erreicht werden.
  • Nach einem weiteren Aspekt der Erfindung wurde die erste trainierte Generatorfunktion im Verfahren zum Bereitstellen eines Differenzbilddatensatzes durch ein Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion gemäß der Erfindung oder einer ihrer Aspekte bereitgestellt.
  • Die Erfindung betrifft in einem dritten Aspekt ein Bereitstellungssystem zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens, umfassend eine Schnittstelle und eine Recheneinheit,
    • - wobei die Schnittstelle ausgebildet ist zum Empfangen eines ersten Realbilddatensatzes des Untersuchungsvolumens, wobei das Untersuchungsvolumen ein Gefäß umfasst, wobei der erste Realbilddatensatz das Untersuchungsvolumen umfassend Kontrastmittel abbildet,
    • - wobei die Recheneinheit ausgebildet ist zum Bestimmen des Differenzbilddatensatzes des Untersuchungsvolumens durch Anwenden einer ersten trainierten Generatorfunktion auf Eingabedaten, wobei die Eingabedaten den ersten Realbilddatensatz umfassen, wobei ein Parameter der ersten trainierten Generatorfunktion auf einem GA-Algorithmus basiert,
    • - wobei die Schnittstelle weiterhin ausgebildet ist zum Bereitstellen des Differenzbilddatensatzes.
  • Ein solches Bereitstellungssystem kann insbesondere dazu ausgebildet sein, die zuvor beschriebenen Verfahren zum Bereitstellen eines Differenzbilddatensatzes und ihre Aspekte auszuführen. Das Bereitstellungssystem ist dazu ausgebildet, diese Verfahren und ihre Aspekte auszuführen, indem die Schnittstelle und die Recheneinheit ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen.
  • Die Erfindung betrifft in einem möglichen vierten Aspekt eine Röntgenvorrichtung, umfassend eine Röntgenquelle und einen Röntgendetektor, weiterhin umfassend ein Bereitstellungssystem nach dem dritten Aspekt der Erfindung. Bei einer Röntgenvorrichtung kann es sich insbesondere um eine C-Bogen-Röntgenvorrichtung oder um einen Computertomographen handeln.
  • Die Erfindung betrifft in einem möglichen fünften Aspekt ein Trainingssystem zum Bereitstellen einer ersten trainierten Generatorfunktion, umfassend eine Trainingsschnittstelle und eine Trainingsrecheneinheit,
    • - wobei die Trainingsschnittstelle ausgebildet ist zum Empfangen eines ersten Realbilddatensatzes eines Untersuchungsvolumens,
    • - wobei die Trainingsschnittstelle weiterhin ausgebildet ist zum Empfangen eines Vergleichsdifferenzbilddatensatzes des Untersuchungsvolumens,
    • - wobei die Recheneinheit ausgebildet ist zum Bestimmen eines Differenzbilddatensatzes des Untersuchungsvolumens durch Anwenden einer ersten trainierten Generatorfunktion auf erste Eingabedaten, wobei die ersten Eingabedaten den ersten Realbilddatensatz umfassen,
    • - wobei die Recheneinheit weiterhin ausgebildet ist zum Bestimmen eines ersten Klassifikationswertes durch Anwenden einer ersten trainierten Klassifikatorfunktion auf den Differenzbilddatensatz,
    • - wobei die Recheneinheit weiterhin ausgebildet ist zum Bestimmen eines zweiten Klassifikationswertes durch Anwenden der ersten trainierten Klassifikatorfunktion auf den Vergleichsdifferenzbilddatensatz,
    • - wobei die Recheneinheit weiterhin ausgebildet ist zum Anpassen der ersten trainierten Generatorfunktion und/oder der ersten trainierten Klassifikatorfunktion basierend auf dem ersten Klassifikationswert und/oder dem zweiten Klassifikationswert,
    • - wobei die Trainingsschnittstelle weiterhin ausgebildet ist zum Bereitstellen (PRV-GF-1) der ersten trainierten Generatorfunktion (GF-1).
  • Ein solches Trainingssystem kann insbesondere dazu ausgebildet sein, die zuvor beschriebenen Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion und ihre Aspekte auszuführen. Das Trainingssystem ist dazu ausgebildet, diese Verfahren und ihre Aspekte auszuführen, indem die Schnittstelle und die Recheneinheit ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen.
  • Die Erfindung betrifft in einem sechsten Aspekt ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher eines Bereitstellungssystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zum Bereitstellen eines Differenzbilddatensatzes und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem ausgeführt werden; und/oder welches direkt in einen Trainingsspeicher eines Trainingssystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Trainingssystem ausgeführt werden.
  • Insbesondere betrifft die Erfindung ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher eines Bereitstellungssystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zum Bereitstellen eines Differenzbilddatensatzes und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem ausgeführt werden.
  • Insbesondere betrifft die Erfindung ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Trainingsspeicher eines Trainingssystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Trainingssystem ausgeführt werden.
  • Die Erfindung betrifft in einem siebten Aspekt ein computerlesbares Speichermedium, auf welchem von einem Bereitstellungssystem lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen eines Differenzbilddatensatzes und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem ausgeführt werden; und/oder auf welchem von einem Trainingssystem lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Trainingssystem ausgeführt werden.
  • Insbesondere betrifft die Erfindung ein computerlesbares Speichermedium, auf welchem von einem Bereitstellungssystem lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen eines Differenzbilddatensatzes und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem ausgeführt werden.
  • Insbesondere betrifft die Erfindung ein computerlesbares Speichermedium, auf welchem von einem Trainingssystem lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Trainingssystem ausgeführt werden.
  • Die Erfindung betrifft in einem achten Aspekt ein Computerprogramm oder ein computerlesbares Speichermedium, umfassend eine erste trainierte Generatorfunktion, bereitgestellt durch ein Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion.
  • Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher verwendete Bereitstellungssysteme und Trainingssysteme auf einfache Weise durch ein Software-Update nachgerüstet werden können. Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile wie z. B. eine Dokumentation und/oder zusätzliche Komponenten, sowie Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Durch diese Beschreibung erfolgt keine Beschränkung der Erfindung auf diese Ausführungsbeispiele. In verschiedenen Figuren sind gleiche Komponenten mit identischen Bezugszeichen versehen. Die Figuren sind in der Regel nicht maßstäblich. Es zeigen:
    • 1 ein erstes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte,
    • 2 ein zweites Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte,
    • 3 ein drittes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte,
    • 4 ein viertes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte,
    • 5 ein erstes Ausführungsbeispiels eines Verfahrens zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens,
    • 6 ein zweites Ausführungsbeispiels eines Verfahrens zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens,
    • 7 ein erstes Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion,
    • 8 ein zweites Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion,
    • 9 ein drittes Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion,
    • 10 in viertes Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion,
    • 11 ein Bereitstellungssystem,
    • 12 ein Trainingssystem,
    • 13 eine Röntgenvorrichtung.
  • 1 zeigt ein erstes Datenflussdiagramm zur Verwendung in einem Verfahren zum Bereitstellen eines Differenzbilddatensatzes DDS und/oder in einem Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1.
  • Die erste trainierte Generatorfunktion GF-1 wird im ersten Datenflussdiagramm in einer ersten Variante auf einen ersten Realbilddatensatz RDS-1 angewendet, die erste trainierte Generatorfunktion GF-1 wird im ersten Datenflussdiagramm in einer zweiten Variante auf den ersten Realbilddatensatz RDS-1 und einen zweiten Realbilddatensatz RDS-2 angewendet. In beiden Varianten umfassen die Ausgabedaten der ersten trainierten Generatorfunktion GF-1 einen Differenzbilddatensatz DDS.
  • Bezeichnet Xfill,1 den ersten Realbilddatensatz RDS-1, Xfill,2 den zweiten Realbilddatensatz RDS-2, und YDSA den Differenzbilddatensatz DDS, so gilt also in der ersten Variante YDSA = GF-1(Xfill,1), und in der zweiten Variante gilt YDSA = GF-1 (Xfill,1, Xfill,2). Im Folgenden bezeichnet B den Raum der Bilddatensätze. Beispielsweise kann für zweidimensionale Bilddatensätze der Raum der Bilddatensätze B = Rm·n sein (wobei R die reellen Zahlen bezeichnet, und m bzw. n die Anzahl der Pixel bzw. Voxel für jede der Dimensionen), für dreidimensionale Bilddatensätze kann der Raum der Bilddatensätze B = Ri·j·k sein (wobei i, j und k die Anzahl der Pixel bzw. Voxel für jede der Dimensionen bezeichnet). In der ersten Variante ist erste trainierte Generatorfunktion GF-1 also eine Funktion GF-1: B → B, und in der zweiten Variante ist die erster trainierte Generatorfunktion GF-1 eine Funktion GF-1: B2 → B.
  • Alternativ ist es möglich, dass die Eingabedaten der ersten trainierten Generatorfunktion GF-1 weitere Realbilddatensätze des Untersuchungsvolumens umfasst. In dieser weiteren Variante ist die erste trainierte Generatorfunktion GF-1 also eine Funktion GF-1: Bn → B, wobei n die Anzahl der Realbilddatensätze der Eingabedaten der ersten trainierten Generatorfunktion GF-1 bezeichnet.
  • Der bisher beschriebene Datenfluss im ersten Datenflussdiagramm beschreibt insbesondere den Datenfluss im Verfahren zum Bereitstellen des Differenzbilddatensatzes DDS. Die weiteren Elemente des ersten Datenflussdiagramms beschreiben insbesondere den Datenfluss im Verfahren zum Bereitstellen der ersten trainierten Generatorfunktion GF-1.
  • Im ersten Datenflussdiagramm wird weiterhin eine erste trainierte Klassifikatorfunktion DF-1 auf den Differenzbilddatensatz DDS angewendet, das Ergebnis der Anwendung ist ein Wahrscheinlichkeitswert. Weiterhin wird die erste Klassifikatorfunktion DF-1 auf einen Vergleichsdifferenzbilddatensatz DDS-C des Untersuchungsvolumens angewendet, das Ergebnis der Anwendung ist ein Vergleichswahrscheinlichkeitswert.
  • Bezeichnet Y(C) DSA den Vergleichsdifferenzbilddatensatz DDS-C, so gilt für den Wahrscheinlichkeitswert p = DF-1(YDSA) = DF-1 (YDSA) = GF-1 (Xfill,1) bzw. p = DF-1 (YDSA) = DF-1 (YDSA) = GF-1 (Xfill,1, Xfill,2), und für den Vergleichswahrscheinlichkeitswert gilt p(C) = DF-1 (Y(C) DSA). Die erste Klassifikatorfunktion DF-1 ist also insbesondere eine Funktion DF-1: B → [0, 1].
  • Der Wahrscheinlichkeitswert und der Vergleichswahrscheinlichkeitswert können hierbei in einer Adversarialkostenfunktion AL (ein englischer Fachbegriff ist „adversarial loss“) verwendet werden, entweder gemeinsam oder separat. Basierend auf dieser Adversarialkostenfunktion AL kann die erste trainierte Generatorfunktion GF-1 und die erste trainierte Klassifikatorfunktion DF-1 angepasst werden, insbesondere kann diese Adversarialkostenfunktion AL durch Anpassung der jeweiligen Parameter optimiert werden.
  • Im ersten Datenflussdiagramm wird weiterhin eine zweite trainierte Generatorfunktion GF-2 auf den Differenzbilddatensatz DDS angewendet, das Ergebnis der Anwendung ist in der ersten Variante ein erster Vergleichsrealbilddatensatz RDS-1-C, das Ergebnis der Anwendung in der zweiten Variante ist der erste Vergleichsbilddatensatz RDS-1-C und ein zweiter Vergleichsrealbilddatensatz RDS-2-C.
  • Bezeichnet X(C) fill,1 den ersten Vergleichsrealbilddatensatz RDS-C-1, und bezeichnet X(C) fill,2 den zweiten Vergleichsrealbilddatensatz RDS-C-2, dann gilt in der ersten Variante X(C) fill,1 = GF-2 (YDSA), in der zweiten Variante gilt (X(C) fill,1, X(C) fill,2) = GF-2 (YDSA) . Die zweite trainierte Generatorfunktion GF-2 ist also in der ersten Variante eine Funktion GF-2: B → B, und in der zweiten Variante eine Funktion GF-2: B → B2. Werden noch weitere Realbilddatensätze verwendet, ist die zweite trainierte Generatorfunktion GF-2 eine Funktion GF-2: B → Bn. Insbesondere kann die zweite trainierte Generatorfunktion GF-2 als inverse Funktion der ersten trainierten Generatorfunktion GF-1 aufgefasst werden.
  • Der erste Vergleichsrealbilddatensatz RDS-1-C kann hierbei zusammen mit dem ersten Realbilddatensatz RDS-1 in der Berechnung einer zyklischen Konsistenzkostenfunktion CCL (ein englischer Fachbegriff ist „cyclic consitency loss“) verwendet werden. Basierend auf dieser zyklischen Konsistenzkostenfunktion CCL kann die zweite trainierte Generatorfunktion GF-2 angepasst werden, insbesondere kann diese zyklischen Konsistenzkostenfunktion CCL durch Anpassung der jeweiligen Parameter optimiert werden.
  • 2 zeigt ein zweites Datenflussdiagramm zur Verwendung in einem Verfahren zum Bereitstellen eines Differenzbilddatensatzes DDS und/oder in einem Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1. Das zweite Datenflussdiagramm weist Elemente auf, die bereits bezüglich der 1 bzw. bezüglich des ersten Datenflussdiagramms beschrieben wurden. Soweit nicht abweichend beschrieben, können die Elemente des zweiten Datenflussdiagramms alle Aus- und Weiterbildungen der entsprechenden Elemente des ersten Datenflussdiagramms aufweisen.
  • Im Unterschied zum ersten Datenflussdiagramm erzeugt die erste trainierte Generatorfunktion GF-1 im zweiten Datenflussdiagramm als Ausgabewert neben dem Differenzbilddatensatz DDS einen Maskenbilddatensatz MDS. Bezeichnet M den Maskenbilddatensatz, so gilt also (YDSA, M) = GF-1 (Xfill,1). Alternativ kann die erste trainierte Generatorfunktion GF-1 auch auf mehrere Realbilddatensätze RDS-1, RDS-2 angewendet werden. Die erste trainierte Generatorfunktion GF-1 ist also eine Funktion GF-1: B → B2.
  • Neben der ersten trainierten Klassifikatorfunktion DF-1 existiert im zweiten Datenflussdiagramm eine trainierte Maskenklassifikatorfunktion DF-M, die auf den Maskenbilddatensatz MDS bzw. einen Vergleichsmaskenbilddatensatz MDS-C angewendet werden kann. Bei der Anwendung auf den Maskenbilddatensatz MDS wird hierbei ein Wahrscheinlichkeitswert ermittelt, bei der Anwendung auf den Vergleichsmaskenbilddatensatz MDS-C wird hierbei ein Vergleichswahrscheinlichkeitswert ermittelt.
  • Bezeichnet M(C) den Vergleichsmaskenbilddatensatz MDS-C, so gilt für den Wahrscheinlichkeitswert r = DF-M(M), und für den Vergleichswahrscheinlichkeitswert gilt r(C) = DF-M (M(C). Die trainierte Maskenklassifikatorfunktion DF-M ist also insbesondere eine Funktion DF-1: B → [0, 1].
  • Der Wahrscheinlichkeitswert und der Vergleichswahrscheinlichkeitswert können hierbei in einer Adversarialkostenfunktion AL (ein englischer Fachbegriff ist „adversarial loss“) verwendet werden, entweder gemeinsam oder separat. Basierend auf dieser Adversarialkostenfunktion AL kann die erste trainierte Generatorfunktion GF-1 und die trainierte Maskenklassifikatorfunktion DF-M angepasst werden, insbesondere kann diese Adversarialkostenfunktion AL durch Anpassung der jeweiligen Parameter optimiert werden.
  • Im zweiten Datenflussdiagramm wird weiterhin die zweite trainierte Generatorfunktion GF-2 auf den Differenzbilddatensatz DDS und den Maskenbilddatensatz MDS angewendet, das Ergebnis der Anwendung ist ein erster Vergleichsrealbilddatensatz RDS-1-C. Es gilt also X(C) fill,1 = GF-2 (YDSA, M), und die zweite trainierte Generatorfunktion GF-2 ist eine Funktion GF-2: B → B2. Insbesondere kann die zweite trainierte Generatorfunktion GF-2 als inverse Funktion der ersten trainierten Generatorfunktion GF-1 aufgefasst werden.
  • Der erste Vergleichsrealbilddatensatz RDS-1-C kann hierbei zusammen mit dem ersten Realbilddatensatz RDS-1 zur Berechnung einer zyklischen Konsistenzkostenfunktion CCL (ein englischer Fachbegriff ist „cyclic consitency loss“) verwendet werden. Basierend auf dieser zyklischen Konsistenzkostenfunktion CCL kann die zweite trainierte Generatorfunktion GF-2 angepasst werden, insbesondere kann diese zyklischen Konsistenzkostenfunktion CCL durch Anpassung der jeweiligen Parameter optimiert werden.
  • 3 zeigt ein drittes Datenflussdiagramm zur Verwendung in einem Verfahren zum Bereitstellen eines Differenzbilddatensatzes DDS und/oder in einem Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1. Das erste Datenflussdiagramm und das dritte Datenflussdiagramm können insbesondere gemeinsam in einem Verfahren zum Bereitstellen eines Differenzbilddatensatzes DDS und/oder in einem Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1 verwendet werden.
  • Die zweite trainierte Generatorfunktion GF-2 wird im dritten Datenflussdiagramm auf einen Trainingsdifferenzbilddatensatz DDS-T angewendet, in einer ersten Variante umfassen die Ausgabedaten einen ersten synthetischen Realbilddatensatz RDS-1-S, in einer zweiten Variante umfassen die Ausgabedaten den ersten synthetischen Realbilddatensatz RDS-1-S und einen zweiten synthetischen Realbilddatensatz RDS-2-S. Hierbei kann der Trainingsdifferenzbilddatensatz DDS-T alle Aus- und Weiterbildungen eines Differenzbilddatensatzes DDS aufweisen, der erste bzw. der zweite synthetischen Realbilddatensatz RDS-1-S, RDS-2-S können alle Aus- und Weiterbildungen eines ersten bzw. eines zweiten Realbilddatensatzes RDS-1, RDS-2 aufweisen.
  • Bezeichnet Y(T) DSA den Trainingsdifferenzbilddatensatz DDS-T, bezeichnet X den ersten synthetischen Realbilddatensatz RDS-1-S, und bezeichnet X(S) fill,2 den zweiten synthetischen Realbilddatensatz RDS-2-S, dann gilt in der ersten Variante X(S) fill,1 = GF-2 (Y(T) DSA), in der zweiten Variante gilt (X(S) fill,1, X(S) fill,2) = GF-2 (Y(T) DSA). Die zweite trainierte Generatorfunktion GF-2 ist also in der ersten Variante eine Funktion GF-2: B → B, und in der zweiten Variante eine Funktion GF-2: B → B2. Werden noch weitere Realbilddatensätze verwendet, ist die zweite trainierte Generatorfunktion GF-2 eine Funktion GF-2: B → Bn.
  • Die erste trainierte Generatorfunktion GF-1 wird im dritten Datenflussdiagramm in einer ersten Variante auf den ersten synthetischen Realbilddatensatz RDS-1-S angewendet, die erste trainierte Generatorfunktion GF-1 wird im dritten Datenflussdiagramm in einer zweiten Variante auf den ersten synthetischen Realbilddatensatz RDS-1-S und den zweiten synthetischen Realbilddatensatz RDS-2-S angewendet. In beiden Varianten umfassen die Ausgabedaten der ersten trainierten Generatorfunktion GF-1 einen synthetischen Differenzbilddatensatz DDS-S.
  • Bezeichnet Y(S) DSA den synthetischen Differenzbilddatensatz DDS-S, so gilt also in der ersten VarianteY(S) DSA = GF-1 (X(S) fill,1), und in der zweiten Variante gilt Y(S) DSA = GF-1 (X(S) fill,1, X(S) fill,2). In der ersten Variante ist die erste trainierte Generatorfunktion GF-1 also eine Funktion GF-1: B → B, und in der zweiten Variante ist die erste trainierte Generatorfunktion GF-1 eine Funktion GF-1: B2 → B. Werden noch weitere Realbilddatensätze verwendet, ist die erste trainierte Generatorfunktion GF-1 eine Funktion GF-1: Bn → B.
  • Der synthetische Differenzbilddatensatz DDS-S kann hierbei zusammen mit dem Trainingsdifferenzbilddatensatz DDS-T in einer zyklischen Konsistenzkostenfunktion CCL (ein englischer Fachbegriff ist „cyclic consistency loss“) verwendet werden. Basierend auf dieser zyklischen Konsistenzkostenfunktion CCL kann die erste trainierte Generatorfunktion GF-1 angepasst werden, insbesondere kann diese zyklischen Konsistenzkostenfunktion CCL durch Anpassung der jeweiligen Parameter optimiert werden.
  • Im dritten Datenflussdiagramm wird weiterhin eine zweite trainierte Klassifikatorfunktion DF-2 auf den ersten synthetischen Realbilddatensatz RDS-1-S angewendet, das Ergebnis der Anwendung ist ein Wahrscheinlichkeitswert. Weiterhin wird die zweite trainierte Klassifikatorfunktion DF-2 auf einen Trainingsrealbilddatensatz RDS-T des Untersuchungsvolumens VOL angewendet, das Ergebnis der Anwendung ist ein Vergleichswahrscheinlichkeitswert.
  • Bezeichnet X(T) fill den ersten Trainingsrealbilddatensatz RDS-T, so gilt für den Wahrscheinlichkeitswert q = DF-2 (X(S)fill,1), und für den Vergleichswahrscheinlichkeitswert gilt q(C) = DF-2(X(T) fill). Die zweite trainierte Klassifikatorfunktion DF-2 ist also insbesondere eine Funktion DF-1: B → [0, 1].
  • Der Wahrscheinlichkeitswert und der Vergleichswahrscheinlichkeitswert können hierbei in einer Adversarialkostenfunktion AL (ein englischer Fachbegriff ist „adversarial loss“) verwendet werden, entweder gemeinsam oder separat. Basierend auf dieser Adversarialkostenfunktion AL kann die zweite trainierte Generatorfunktion GF-2 und die zweite trainierte Klassifikatorfunktion DF-2 angepasst werden, insbesondere kann diese Adversarialkostenfunktion AL durch Anpassung der jeweiligen Parameter optimiert werden.
  • 4 zeigt ein viertes Datenflussdiagramm zur Verwendung in einem Verfahren zum Bereitstellen eines Differenzbilddatensatzes DDS und/oder in einem Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1. Das vierte Datenflussdiagramm weist Elemente auf, die bereits bezüglich der 3 bzw. bezüglich des dritten Datenflussdiagramms beschrieben wurden. Soweit nicht abweichend beschrieben, können die Elemente des zweiten Datenflussdiagramms alle Aus- und Weiterbildungen der entsprechenden Elemente des ersten Datenflussdiagramms aufweisen. Das zweite Datenflussdiagramm und das vierte Datenflussdiagramm können insbesondere gemeinsam in einem Verfahren zum Bereitstellen eines Differenzbilddatensatzes DDS und/oder in einem Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1 verwendet werden.
  • Die zweite trainierte Generatorfunktion GF-2 wird im vierten Datenflussdiagramm auf einen Trainingsdifferenzbilddatensatz DDS-T und auf einen Trainingsmaskenbilddatensatz MDS-T angewendet, die Ausgabedaten umfassen einen ersten synthetischen Realbilddatensatz RDS-1-S. Es gilt also X(S) fill,1 = GF-2 (Y(T) IDSA, M(T). Die zweite trainierte Generatorfunktion GF-2 ist also eine Funktion GF-2: B2 → B.
  • Die erste trainierte Generatorfunktion GF-1 wird im vierten Datenflussdiagramm auf den ersten synthetischen Realbilddatensatz RDS-1-S angewendet. Die Ausgabedaten der ersten trainierten Generatorfunktion GF-1 umfassen einen synthetischen Differenzbilddatensatz DDS-S und einen synthetischen Maskenbilddatensatz MDS-S. Bezeichnet M(S) den synthetischen Maskenbilddatensatz MDS-S, so gilt also (Y(S) DSA, M(S) = GF-1 (X(S) fill,1). Die erste trainierte Generatorfunktion GF-1 ist also eine Funktion GF-1: B → B2.
  • Der synthetische Maskenbilddatensatz MDS-S kann hierbei zusammen mit dem Trainingsmaskenbilddatensatz MDS-T in einer zyklischen Konsistenzkostenfunktion CCL (ein englischer Fachbegriff ist „cyclic consistency loss“) verwendet werden, ebenfalls kann der Vergleichsdifferenzbilddatensatz DDS-C zusammen mit dem Trainingsdifferenzbilddatensatz DDS-T in der zyklischen Konsistenzkostenfunktion CCL verwendet werden. Basierend auf dieser zyklischen Konsistenzkostenfunktion CCL kann die erste trainierte Generatorfunktion GF-1 angepasst werden, insbesondere kann diese zyklischen Konsistenzkostenfunktion CCL durch Anpassung der jeweiligen Parameter optimiert werden.
  • 5 zeigt ein erstes Ausführungsbeispiels eines Verfahrens zum Bereitstellen eines Differenzbilddatensatzes DDS eines Untersuchungsvolumens VOL. Das dargestellte erste Ausführungsbeispiel kann das in 1 dargestellte erste Datenflussdiagramm implementieren.
  • Der erste Schritt des dargestellten ersten Ausführungsbeispiels ist das Empfangen REC-RDS-1 eines ersten Realbilddatensatzes RDS-1 des Untersuchungsvolumens VOL. Hierbei umfasst das Untersuchungsvolumen VOL ein Gefäß, und der erste Realbilddatensatz RDS-1 bildet das Kontrastmittel umfassende Untersuchungsvolumen VOL ab. Das Empfangen REC-RDS-1 des ersten Realbilddatensatzes RDS-1 erfolgt insbesondere mittels einer Schnittstelle IF eines Bereitstellungssystems PRVS.
  • In diesem Ausführungsbeispiel ist der erste Realbilddatensatz RDS-1 ein Bilddatensatz gemäß dem DICOM Standard (Akronym für „Digital Imaging and Communications in Medicine“, eine deutsche Übersetzung ist „Digitale Bildgebung und Kommunikation in der Medizin“). Insbesondere ist der erste Realbilddatensatz RDS-1 ein zweidimensionaler Bilddatensatz, und kann beispielsweise eine Ausdehnung von 512x512 Pixel aufweisen. Alternativ kann der erste Realbilddatensatz RDS-1 auch ein dreidimensionaler Bilddatensatz sein, und kann beispielsweise eine Ausdehnung von 512x512x512 Voxeln aufweisen. Insbesondere kann hierbei jedem Pixel und/oder jedem Voxel ein Intensitätswert, insbesondere ein Röntgenintensitätswert zugeordnet sein, die auf den Röntgenabsorptionskoeffizienten des Untersuchungsvolumens VOL basieren. Alternativ kann der erste Realbilddatensatz RDS-1 eine andere Dimensionalität, eine andere Ausdehnung und/oder ein anderes Format aufweisen.
  • Der zweite Schritt des dargestellten ersten Ausführungsbeispiels ist das Bestimmen DET-DDS des Differenzbilddatensatzes DDS des Untersuchungsvolumens VOL durch Anwenden einer ersten trainierten Generatorfunktion GF-1 auf Eingabedaten. Hierbei umfassen die Eingabedaten den ersten Realbilddatensatz RDS-1, und ein Parameter der ersten trainierten Generatorfunktion GF-1 basiert auf einem GA-Algorithmus. Das Bestimmen DET-DDS des Differenzbilddatensatzes DDS erfolgt insbesondere mittels einer Recheneinheit CU des Bereitstellungssystems PRVS.
  • In diesem ersten Ausführungsbeispiel weist der Differenzbilddatensatz DDS insbesondere die gleiche Dimensionalität und die gleiche Ausdehnung wie der erste Realbilddatensatz RDS-1 auf, kann also insbesondere ein zweidimensionaler Bilddatensatz mit einer Ausdehnung von 512x512 Pixeln sein, oder ein dreidimensionaler Bilddatensatz mit einer Ausdehnung von 512x512x512 Pixeln. Insbesondere entspricht der Differenzbilddatensatz DDS, zumindest näherungsweise, der Differenz aus dem ersten Realbilddatensatz RDS-1 und einem Bilddatensatz, der das Untersuchungsvolumen VOL bezüglich der gleichen Abbildungsgeometrie wie der erste Realbilddatensatz RDS-1 abbildet, wobei das Untersuchungsvolumen VOL aber kein Kontrastmittel umfasst. Insbesondere ist auch der Differenzbilddatensatz DDS ein Bilddatensatz gemäß dem DICOM-Standard.
  • In diesem Ausführungsbeispiel wurde die erste trainierte Generatorfunktion GF-1 insbesondere zusammen mit einer trainierten Klassifikatorfunktion DF-1, DF-2 in bzw. mittels eines GA-Algorithmus trainiert. Insbesondere wurde die erste trainierte Generatorfunktion GF-1 hierbei derart trainiert, dass die von ersten trainierten Generatorfunktion GF-1 erzeugten synthetischen Daten von der trainierten Klassifikatorfunktion DF-1, DF-2 möglichst nicht von realen Daten unterschieden werden können.
  • In diesem Ausführungsbeispiel weist der erste Realbilddatensatz RDS-1 einen ersten Rauschpegel aufweist, und der Differenzbilddatensatz DDS weist einen zweiten Rauschpegel auf. Der erste Rauschpegel ist hierbei höher als der zweite Rauschpegel. In diesem Ausführungsbeispiel ist der Rauschpegel der inverse Wert des Signal-Rausch-Verhältnisses (ein englischer Fachbegriff ist „signal-to-noise ratio“). Die Eigenschaft der ersten trainierten Generatorfunktion GF-1, Rauschen bzw. den Rauschpegel zu reduzieren, kann insbesondere dadurch erreicht werden, dass im Training der trainierten Generatorfunktion GF-1 diese auf Bilddatensätze mit hohen Rauschpegel angewendet wird, und das Ergebnis dieser Anwendung (mittels einer trainierten Klassifikatorfunktion DF-1, DF-2) mit Differenzbilddatensätzen mit einem niedrigen Rauschpegel verglichen wird.
  • In diesem Ausführungsbeispiel wird die erste trainierte Generatorfunktion GF-1 vorteilhafterweise abschnittsweise (ein englischer Fachbegriff ist „patch-wise“) auf den ersten Realbilddatensatz RDS-1 angewendet. Bezeichnen beispielsweise Xfill (1), ..., Xfill (K) Abschnitte (ein englischer Fachbegriff ist „patch“) des ersten Realbilddatensatzes RDS-1, so können Abschnitte des Differenzbilddatensatzes DDS berechnet werden als YDSA (k) = GF-1 (Xfill (k)), mit 1 ≤ k ≤ K. Der Differenzbilddatensatz DDS kann dann aus den Abschnitten YDSA (1), ..., YDSA (K) zusammengesetzt werden. Ist der erste Realbilddatensatz RDS-1 beispielsweise ein zweidimensionaler Bilddatensatz mit 512x512 Pixeln, kann dieser beispielsweise in vier disjunkte Abschnitte mit 256x256 Pixeln aufgeteilt werden.
  • In diesem Ausführungsbeispiel ist die erste trainierte Generatorfunktion GF-1 ein künstliches neuronales Netzwerk umfasst, bzw. umfasst die erste trainierte Generatorfunktion GF-1 ein künstliches neuronales Netzwerk. Vorteilhafterweise umfasst dieses künstliche neuronale Netzwerk einen Residualblock, eine Abkürzungsverbindung, eine Faltungsschicht, eine Entfaltungsschicht, eine Poolingschicht und/oder eine räumliche Transformationsschicht. Weiterhin wurde in diesem Ausführungsbeispiel zum Training der ersten trainierten Generatorfunktion GF-1 eine zyklische Konsistenzkostenfunktion minimiert, hierdurch basiert insbesondere ein Parameter der ersten trainierten Generatorfunktion GF-1 auf dieser zyklischen Konsistenzkostenfunktion. Weiterhin kann beim Training der ersten trainierten Generatorfunktion GF-1 weiterhin eine Adversialkostenfunktion AL minimiert worden sein.
  • Der dritte Schritt des dargestellten ersten Ausführungsbeispiels ist das Bereitstellen PRV-DDS des Differenzbilddatensatzes DDS, insbesondere mittels der Schnittstelle IF des Bereitstellungssystems PRVS. In diesem ersten Ausführungsbeispiel wird der Differenzbilddatensatz DDS angezeigt, insbesondere um eine Diagnose des Gefäßes zu ermöglichen. Alternativ kann der Differenzbilddatensatz DDS auch gespeichert werden, oder an ein anderes System übermittelt werden.
  • 6 zeigt ein zweites Ausführungsbeispiels eines Verfahrens zum Bereitstellen eines Differenzbilddatensatzes DDS eines Untersuchungsvolumens VOL. Das zweite Ausführungsbeispiel implementiert insbesondere das in 1 bzw. 2 dargestellte erste bzw. zweite Datenflussdiagramm. Das zweite Ausführungsbeispiel umfasst insbesondere alle Schritte des in 5 dargestellten ersten Ausführungsbeispiels des Verfahrens zum Bereitstellen eines Differenzbilddatensatzes DDS, und kann alle dort geschilderten Aus- und Weiterbildungen umfassen.
  • Das zweite Ausführungsbeispiel umfasst weiterhin ein Empfangen REC-RDS-2 eines zweiten Realbilddatensatzes RDS-2 des Untersuchungsvolumens VOL, insbesondere mittels der Schnittstelle IF des Bereitstellungssystems PRVS, und/oder das Bestimmen eines Maskenbilddatensatzes MDS des Untersuchungsvolumens VOL, insbesondere mittels der Recheneinheit CU des Bereitstellungssystems PRVS.
  • Umfasst das zweite Ausführungsbeispiel das Empfangen REC-RDS-2 eines zweiten Realbilddatensatzes RDS-2 des Untersuchungsvolumens, dann bildet der erste Realbilddatensatz RDS-1 das Untersuchungsvolumen VOL zu einem ersten Zeitpunkt ab, und der zweite Realbilddatensatz RDS-2 bildet das Untersuchungsvolumen VOL zu einem zweiten Zeitpunkt ab. Der erste Zeitpunkt und der zweite Zeitpunkt sind hierbei insbesondere verschieden. Weiterhin umfassen die Eingabedaten in diesem Fall den zweiten Realbilddatensatz RDS-2. Insbesondere umfasst das Untersuchungsvolumen VOL während des ersten Zeitpunkts und während des zweiten Zeitpunkts Kontrastmittel. Die räumliche Verteilung des Kontrastmittels im Untersuchungsvolumen VOL im ersten Zeitpunkt kann von der räumlichen Verteilung des Kontrastmittels im Untersuchungsvolumen VOL im zweiten Zeitpunkt abweichen, die räumlichen Verteilungen können aber alternativ auch identisch sein.
  • In diesem Ausführungsbeispiel weisen der erste Realbilddatensatz RDS-1 und der zweite Realbilddatensatz RDS-2 eine identische Dimensionalität und eine identische Ausdehnung auf. Weiterhin weisen in diesem Ausführungsbeispiel der erste Realbilddatensatz RDS-1 und der zweite Realbilddatensatz RDS-2 bezüglich des Untersuchungsvolumens VOL die gleiche Abbildungsgeometrie auf, insbesondere eine identische Projektionsrichtung bezüglich des Untersuchungsvolumens VOL. Beispielsweise können also der erste Realbilddatensatz RDS-1 und der zweite Realbilddatensatz RDS-2 mittels einer Röntgenquelle XSYS.SRC und einem Röntgendetektor XSYS.DTC aufgenommen worden sein, die bezüglich des Untersuchungsvolumens VOL ihre Positionen und Ausrichtungen nicht geändert haben. Alternativ können der erste Realbilddatensatz RDS-1 und der zweite Realbilddatensatz RDS-2 bezüglich des Untersuchungsvolumens VOL eine unterschiedliche Abbildungsgeometrie aufweisen. Beispielsweise können der erste Realbilddatensatz RDS-1 und der zweite Realbilddatensatz RDS-2 während einer Rotation der Röntgenquelle XSYS.SRC und/oder des Röntgendetektors XSYS.DTC um das Untersuchungsvolumen VOL aufgenommen werden, beispielsweise mittels einer C-Bogen Röntgenvorrichtung XSYS oder mittels eines Computertomographen.
  • Umfasst das zweite Ausführungsbeispiel ein Bestimmen DET-MDS eines Maskenbilddatensatzes MDS des Untersuchungsvolumens durch Anwenden der ersten trainierten Generatorfunktion GF-1 auf die Eingabedaten, dann bildet der Maskenbilddatensatz MDS das Untersuchungsvolumen VOL insbesondere ohne Kontrastmittel ab. Mit anderen Worten ist der Maskenbilddatensatz MDS ein Bilddatensatz des Untersuchungsvolumens VOL ohne Kontrastmittel. Der Maskenbilddatensatz MDS ist insbesondere ein synthetischer Bilddatensatz.
  • In diesem Ausführungsbeispiel weist der erste Realbilddatensatz RDS-1 und der Maskenbilddatensatz MDS eine identische Dimensionalität und eine identische Ausdehnung auf. Weiterhin weisen in diesem Ausführungsbeispiel der erste Realbilddatensatz RDS-1 und der Maskenbilddatensatz bezüglich des Untersuchungsvolumens VOL die gleiche Abbildungsgeometrie auf, insbesondere eine identische Projektionsrichtung bezüglich des Untersuchungsvolumens VOL.
  • 7 zeigt ein erstes Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1. Das erste Ausführungsbeispiel kann insbesondere eines oder mehrere der in 1 bis 4 dargestellten Datenflussdiagramme implementieren.
  • Die ersten Schritte des ersten Ausführungsbeispiels sind das Empfangen TREC-RDS-1 eines ersten Realbilddatensatzes RDS-1 eines Untersuchungsvolumens VOL, sowie das Empfangen TREC-DDS-C eines Vergleichsdifferenzbilddatensatzes DDS-C des Untersuchungsvolumens VOL, jeweils mittels einer Trainingsschnittstelle TIF des Trainingssystems TSYS. Optional kann das erste Ausführungsbeispiel ein Empfangen TREC-RDS-2 eines zweiten Realbilddatensatzes RDS-2 des Untersuchungsvolumens empfangen, insbesondere mittels der Trainingsschnittstelle TIF des Trainingssystems TSYS.
  • Insbesondere können also mittels der Trainingsschnittstelle TIF Paare von Trainingsdaten empfangen werden, umfassend den ersten Realbilddatensatz RDS-1 und den Vergleichsdifferenzbilddatensatz DDS-C. In diesem Ausführungsbeispiel wird jeweils ein Paar von Trainingsdaten empfangen, alternativ können auch mehrere Paare von Trainingsdaten empfangen werden. Wird ein zweiter Realbilddatensatz RDS-2 empfangen, so umfasst ein Paar von Trainingsdaten die Realbilddatensätze RDS-1, RDS-2 sowie einen Vergleichsdifferenzbilddatensatz DDS-C.
  • Der erste Realbilddatensatz RDS-1 und der Vergleichsdifferenzbilddatensatz DDS-C weisen die gleiche Dimensionalität auf. In diesem Ausführungsbeispiel sind der erste Realbilddatensatz RDS-1 und der Vergleichsdifferenzbilddatensatz DDS-C zweidimensionale Bilddatensätze. Alternativ kann es sich hierbei auch um dreidimensionale oder vierdimensionale Bilddatensätze handeln. Weiterhin weißen der Realbilddatensatz RDS-1 und der Vergleichsdifferenzbilddatensatz DDS-C insbesondere bezüglich jeder der Dimensionen eine identische in Pixeln oder Voxeln gemessene Ausdehnung auf. Beispielsweise kann in diesem Ausführungsbeispiel sowohl der erste Realbilddatensatz RDS-1 und der Vergleichsdifferenzbilddatensatz DDS-C eine Ausdehnung von 512x512 Pixeln aufweisen.
  • Der optionale zweite Realbilddatensatz RDS-2 weist insbesondere ebenfalls die gleiche Dimensionalität, und bezüglich jeder der Dimensionen die gleiche in Pixeln oder Voxeln gemessene Ausdehnung wie der erste Realbilddatensatz RDS-1 auf. Beispielsweise kann der zweite Realbilddatensatz RDS-2 eine Ausdehnung von 512x512 Pixeln aufweisen.
  • Insbesondere entspricht der Vergleichsdifferenzbilddatensatz DDS-C, zumindest näherungsweise, der Differenz aus dem ersten Realbilddatensatz RDS-1 und einem Bilddatensatz, der das Untersuchungsvolumen VOL bezüglich der gleichen Abbildungsgeometrie wie der erste Realbilddatensatz RDS-1 abbildet, wobei das Untersuchungsvolumen VOL aber kein Kontrastmittel umfasst. Weiterhin weist der Vergleichsdifferenzbilddatensatz DDS-C einen niedrigeren Rauschwert auf als der erste Realbilddatensatz RDS-1.
  • Insbesondere sind in diesem Ausführungsbeispiel der erste Realbilddatensatz RDS-1 und der Vergleichsdifferenzbilddatensatz DDS-C ein Bilddatensätze gemäß dem DICOM-Standard. Auch der optionale zweite Realbilddatensatz kann ein Bilddatensatz gemäß dem DICOM-Standard sein.
  • Ein weiterer Schritt des ersten Ausführungsbeispiels ist das Bestimmen TDET-DDS eines Differenzbilddatensatzes DDS des Untersuchungsvolumens VOL durch Anwenden einer ersten trainierten Generatorfunktion GF-1 auf erste Eingabedaten, wobei die ersten Eingabedaten den ersten Realbilddatensatz RDS-1 umfassen. Das Bestimmen TDET-DDS des Differenzbilddatensatz DDS erfolgt insbesondere mittels einer Trainingsrecheneinheit TCU des Trainingssystem TSYS. Bezeichnet Xfill,1 den ersten Realbilddatensatz RDS-1 und YDSA den Differenzbilddatensatz DDS, so gilt also gilt hier YDSA = GF-1 (Xfill,1).
  • In diesem ersten Ausführungsbeispiel weist der Differenzbilddatensatz DDS insbesondere die gleiche Dimensionalität und die gleiche Ausdehnung wie der erste Realbilddatensatz RDS-1 auf, kann also insbesondere ein zweidimensionaler Bilddatensatz mit einer Ausdehnung von 512x512 Pixeln sein.
  • In der Variante des Ausführungsbeispiels, in der ein zweiter Realbilddatensatz RDS-2 vorliegt, können die Eingabedaten insbesondere weiterhin den zweiten Realbilddatensatz RDS-2 umfassen. Bezeichnet Xfill,2 den zweite Realbilddatensatz RDS-2 und YDSA den Differenzbilddatensatz DDS, so gilt also gilt hier YDSA = GF-1 (Xfill,1 Xfill,2).
  • Weitere Schritte des ersten Ausführungsbeispiels sind das Bestimmen TDET-CV-1 eines ersten Klassifikationswertes durch Anwenden einer ersten trainierten Klassifikatorfunktion DF-1 auf den Differenzbilddatensatz DDS, sowie das Bestimmen TDET-CV-2 eines zweiten Klassifikationswertes durch Anwenden der ersten trainierten Klassifikatorfunktion DF-1 auf den Vergleichsdifferenzbilddatensatz DDS-C, jeweils mittels der Trainingsrecheneinheit TCU des Trainingssystems TSYS.
  • Der erste Klassifikationswert ist hierbei ein Wahrscheinlichkeitswert p, dieser entspricht der von der ersten Klassifikatorfunktion DF-1 geschätzten Wahrscheinlichkeit, dass der Differenzbilddatensatz DDS ein realer Bilddatensatz ist. Der zweite Klassifikationswert ist hierbei ein Wahrscheinlichkeitswert p(c), dieser entspricht der von der ersten Klassifikatorfunktion DF-1 geschätzten Wahrscheinlichkeit, dass der Vergleichsdifferenzbilddatensatz DDS-C ein realer Bilddatensatz ist. In diesem Ausführungsbeispiel gilt also p = DF-1 (YDSA) = DF-1 (GF-1 (Xfill,1, Xfill,2)) bzw. p = DF-1 (YDSA) = DF-1 (GF-1 (Xfill,1)) und p(c) = DF-1 (Y(c) DSA), wobei Y(c) DSA den Vergleichsdifferenzbilddatensatz DDS-C bezeichnet.
  • In diesem Ausführungsbeispiel ist die erste trainierte Klassifikatorfunktion DF-1 ein künstliches neuronales Netzwerk umfasst, bzw. umfasst die erste trainierte Klassifikatorfunktion DF-1 ein künstliches neuronales Netzwerk. Vorteilhafterweise umfasst dieses künstliche neuronale Netzwerk einen Residualblock, eine Abkürzungsverbindung, eine Faltungsschicht, eine Entfaltungsschicht, eine Poolingschicht und/oder eine räumliche Transformationsschicht. Weiterhin kann beim Training der ersten trainierten Klassifikatorfunktion DF-1 eine Adversialkostenfunktion AL minimiert worden sein.
  • Ein weiterer Schritt des dargestellten Ausführungsbeispiels ist das Anpassen TADJ-1 der ersten trainierten Generatorfunktion GF-1 und/oder der ersten trainierten Klassifikatorfunktion DF-1 basierend auf dem ersten Klassifikationswert und/oder dem zweiten Klassifikationswert, insbesondere mittels der Trainingsrecheneinheit TCU des Trainingssystems TSYS.
  • In diesem ersten Ausführungsbeispiel wird die erste trainierte Generatorfunktion GF-1 angepasst, in dem ein oder mehrere Parameter der ersten trainierten Generatorfunktion GF-1 zur Optimierung, insbesondere zur Minimierung einer Kostenfunktion K(GF-1) angepasst werden. Weiterhin wird die erste trainierte Klassifikatorfunktion DF-1 angepasst, in dem ein oder mehrere Parameter der ersten trainierten Klassifikatorfunktion DF-1 zur Optimierung, insbesondere zur Minimierung einer Kostenfunktion K(DF-1) angepasst werden. Für die Minimierung wird insbesondere ein Gradientenabstieg und eine Rückpropagation verwendet.
  • Die Kostenfunktion K(DF-1) ist hierbei identisch mit einer Adversialkostenfunktion K(DF-1) A = - BCE (DF-1 (Y(c)), 1) - BCE (DF-1 (Y), 0) = - BCE(p(c), 1) - BCE(p, 0), wobei BCE die binäre Kreuzentropie (ein englischer Fachbegriff ist „binary crossentropy“) bezeichnet mit BCE(z, z') = z'log(z) + (1-z`)log(1-z). Insbesondere ist also die Adversialkostenfunktion K(DF-1) A gegeben durch K(DF-1) A = - log (DF-1 (Y(c)) - log (1 - DF-1 (Y)) = - log(p(c)) - log(1 - p). Bei einer Minimierung dieser Kostenfunktion wird die erste trainierte Klassifikatorfunktion DF-1 dazu ausgebildet, möglichst gut zwischen realen Bilddaten (entsprechend den Vergleichsdifferenzbilddatensätze DDS-C) und von der ersten trainierten Generatorfunktion GF-1 erzeugten synthetischen Bilddaten (entsprechend den Differenzbilddatensätze DDS) zu unterscheiden.
  • Für die Kostenfunktion K(GF-1) der ersten trainierten Generatorfunktion GF-1 kann insbesondere ebenfalls eine Adversialkostenfunktion K(GF-1) A = - BCE (DF-1 (Y), 1) = - log (p) verwendet werden. Bei einer Minimierung dieser Kostenfunktion wird die erste trainierte Generatorfunktion GF-1 dazu ausgebildet, derartige Differenzbilddatensätze DDS zu erzeugen, die von der ersten trainierten Klassifikatorfunktion DF-1 fälschlicherweise als reale Bilddaten klassifiziert werden.
  • Der letzte Schritt des ersten Ausführungsbeispiels ist das Bereitstellen PRV-GF-1 der ersten trainierten Generatorfunktion GF-1 mittels der Trainingsschnittstelle TIF des Trainingssystems TSYS. Insbesondere kann hierbei die erste trainierte Generatorfunktion GF-1 an ein Bereitstellungssystem PRVS übermittelt werden.
  • 8 zeigt ein zweites Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1. Das zweite Ausführungsbeispiel umfasst alle Schritte des in 7 dargestellten ersten Ausführungsbeispiels, und kann alle bezüglich der ersten Ausführungsbeispiel beschriebenen Aus- und Weiterbildungen aufweisen. Das zweite Ausführungsbeispiel kann insbesondere eines oder mehrere der in 1 bis 4 dargestellten Datenflussdiagramme implementieren.
  • Das zweite Ausführungsbeispiel umfasst weiterhin ein Bestimmen TDET-RDS-1-C eines ersten Vergleichsrealbilddatensatzes RDS-1-C des Untersuchungsvolumens VOL durch Anwenden einer zweiten trainierten Generatorfunktion GF-2 auf zweite Eingabedaten mittels der Trainingsrecheneinheit TCU des Trainingssystems TSYS, wobei die zweiten Eingabedaten den Differenzbilddatensatz DDS umfassen. Insbesondere gilt also für den ersten Vergleichsrealbilddatensatz RDS-1-C der Zusammenhang X(c) fill,1 = GF-2 (YDSA).
  • Der erste Vergleichsrealbilddatensatz RDS-1-C und der Differenzbilddatensatz DDS weisen insbesondere eine identische Dimensionalität auf. Weiterhin ist bezüglich jeder Dimension die in Pixeln bzw. Voxeln gemessene Ausdehnung des ersten Vergleichsrealbilddatensatzes RDS-1-C mit der Ausdehnung des Differenzbilddatensatzes DDS identisch.
  • In diesem Ausführungsbeispiel ist die zweite trainierte Generatorfunktion GF-2 ein künstliches neuronales Netzwerk umfasst, bzw. umfasst die zweite trainierte Generatorfunktion GF-2 ein künstliches neuronales Netzwerk. Vorteilhafterweise umfasst dieses künstliche neuronale Netzwerk einen Residualblock, eine Abkürzungsverbindung, eine Faltungsschicht, eine Entfaltungsschicht, eine Poolingschicht und/oder eine räumliche Transformationsschicht. Weiterhin wurde in diesem Ausführungsbeispiel zum Training der zweiten trainierten Generatorfunktion GF-2 eine zyklische Konsistenzkostenfunktion CCL minimiert, hierdurch basiert insbesondere ein Parameter der ersten trainierten Generatorfunktion GF-2 auf dieser zyklischen Konsistenzkostenfunktion CCL. Weiterhin kann beim Training der zweiten trainierten Generatorfunktion GF-2 weiterhin eine Adversialkostenfunktion AL minimiert worden sein.
  • Ein weiterer Schritt des dargestellten Ausführungsbeispiels ist ein Anpassen TADJ-2 der zweiten trainierten Generatorfunktion GF-2 basierend auf einer zyklischen Konsistenzkostenfunktion CCL, wobei die zyklische Konsistenzkostenfunktion CCL auf einem Vergleich des ersten Realbilddatensatzes RDS-1 und des ersten Vergleichsrealbilddatensatzes RDS-1-C basiert.
  • In diesem ersten Ausführungsbeispiel wird die zweite trainierte Generatorfunktion GF-2 angepasst, indem ein oder mehrere Parameter der zweiten trainierten Generatorfunktion GF-2 zur Optimierung, insbesondere zur Minimierung einer Kostenfunktion K(GF-2) angepasst werden.
  • Die Kostenfunktion K(GF-2) der zweiten trainierten Generatorfunktion GF-2 umfasst hierbei eine zyklische Konsistenzkostenfunktion K(GF-2) CC. Der Beitrag K(GF-2) CC der zyklischen Konsistenzkostenfunktion ist gegeben durch K(GF-2) CC = |Xfill,1 - X(c) fill,1|m = |Xfill,1 - GF-2 (GF-1 (Xfill,1))|m, wobei |A|m die m-Norm von A bezeichnet. Insbesondere kann m = 1 und m = 2 gewählt werden. Da Xfill,1 und X(C) fill,1 Bilddatensätze insbesondere der gleichen Dimensionalität und der gleichen Ausdehnung sind, kann die Norm jeweils pixelweise bzw. voxelweise berechnet werden. Eine Minimierung der zyklischen Konsistenzkostenfunktion führt dazu, dass die zweite trainierte Generatorfunktion GF-2 ähnlich der Inversen zur ersten trainierten Generatorfunktion GF-1 wirkt, und damit eine Verkettung der ersten trainierten Generatorfunktion GF-1 und der zweiten trainierten Generatorfunktion GF-2 ähnlich einer Identitätsabbildung (und damit ähnlich wie ein Autoencoder) wirkt, und somit die Erzeugung von Bilddaten mit weniger Fehlern behaftet ist.
  • Alternativ oder zusätzlich zu den Schritten des Bestimmens TDET-RDS-1-C des ersten Vergleichsrealbilddatensatzes RDS-1-C und des Anpassens TADJ-2 der zweiten trainierten Generatorfunktion GF-2 kann das zweite Ausführungsbeispiel die im Folgenden beschriebenen Schritte aufweisen.
  • Ein weiterer Schritt des zweiten Ausführungsbeispiels ist das Empfangen TREC-MDS-C eines Vergleichsmaskenbilddatensatzes MDS-C des Untersuchungsvolumens mittels der Trainingsschnittstelle TIF des Trainingssystems TSYS.
  • Der Vergleichsmaskenbilddatensatz MDS-C weist in diesem Ausführungsbeispiel die gleiche Dimensionalität und bezüglich jeder Dimension die gleiche in Pixeln oder Voxeln gemessene Ausdehnung wie der erste Realbilddatensatz RDS-1 auf. Weiterhin entspricht die bei der Aufnahme des Vergleichsmaskenbilddatensatzes MDS-C verwendete Abbildungsgeometrie der bei der Aufnahme des ersten Realbilddatensatzes RDS-1 verwendeten Abbildungsgeometrie, insbesondere wurde das Untersuchungsvolumen bezüglich einer identischen Projektionsrichtung aufgenommen. Insbesondere kann der Vergleichsmaskenbilddatensatz MDS-C zum Vergleichsdifferenzbilddatensatz DDS-C korrespondieren, insbesondere indem der Vergleichsdifferenzbilddatensatz DDS-C als Differenz eines weiteren Bilddatensatzes und des Vergleichsmaskenbilddatensatzes MDS-C bestimmt wurde.
  • Ein weiterer Schritt des zweiten Ausführungsbeispiels ist ein Bestimmen TDET-MDS eines Maskenbilddatensatzes MDS des Untersuchungsvolumens VOL durch Anwenden der ersten trainierten Generatorfunktion GF-1 auf die ersten Eingabedaten mittels der Trainingsrecheneinheit TCU des Trainingssystems TSYS.
  • Der Maskenbilddatensatz MDS weist in diesem Ausführungsbeispiel die gleiche Dimensionalität und bezüglich jeder Dimension die gleiche in Pixeln oder Voxeln gemessene Ausdehnung wie der erste Realbilddatensatz RDS-1 auf.
  • In diesem Ausführungsbeispiel werden der Differenzbilddatensatz DDS und der Maskenbilddatensatz MDS durch die gleiche Anwendung der ersten trainierten Generatorfunktion GF-1 bestimmt. Bezeichnet M den Maskenbilddatensatz MDS, so gilt beispielsweise (YDSA, M) = GF-1 (Xfill,1). Alternativ kann der Maskenbilddatensatz MDS auch durch eine separate Anwendung der ersten trainierten Generatorfunktion GF-1 bestimmt werden.
  • Das zweite Ausführungsbeispiel umfasst weiterhin ein Bestimmen TDET-CV-M1 eines ersten Maskenklassifikationswertes durch Anwenden einer trainierten Maskenklassifikatorfunktion DF-M auf den Maskenbilddatensatz MDS, und ein Bestimmen TDET-CV-M2 eines zweiten Maskenklassifikationswertes durch Anwenden einer trainierten Maskenklassifikatorfunktion DF-M auf den Vergleichsmaskenbilddatensatz MDS-C, jeweils mittels der Trainingsrecheneinheit TCU des Trainingssystems TSYS.
  • Der erste Maskenklassifikationswert ist hierbei ein Wahrscheinlichkeitswert r, dieser entspricht der von der Maskenklassifikatorfunktion DF-M geschätzten Wahrscheinlichkeit, dass der Maskenbilddatensatz MDS ein realer Bilddatensatz ist. Der zweite Klassifikationswert ist hierbei ein Wahrscheinlichkeitswert r(c), dieser entspricht der von der Maskenklassifikatorfunktion DF-M geschätzten Wahrscheinlichkeit, dass der Vergleichsmaskenbilddatensatz MDS-C ein realer Bilddatensatz ist. In diesem Ausführungsbeispiel gilt also r = DF-M (M) = DF-M (GF-1 (Xfill,1)) und r(c) = DF-M (M(c), wobei M(c) den Vergleichsmaskenbilddatensatz MDS-C bezeichnet. Die Berechnung DF-M (GF-1 (...)) ist hierbei so zu verstehen, dass nur der relevante der Ausgabewerte der ersten trainierten Generatorfunktion GF-1 als Eingabewert für die trainierte Maskenklassifikatorfunktion DF-M verwendet wird.
  • Der letzte Schritt des dargestellten zweiten Ausführungsbeispiels ist das Anpassen TADJ-3 der ersten trainierten Generatorfunktion GF-1 und/oder der trainierten Maskenklassifikatorfunktion DF-M basierend auf dem ersten Maskenklassifikationswert und/oder dem zweiten Maskenklassifikationswert.
  • Hierzu ist in diesem dritten Ausführungsbeispiel die Kostenfunktion K(DF-M) der trainierten Maskenklassifikatorfunktion DF-M gegeben durch eine Adversialkostenfunktion K(DF-M) A = - BCE(DF-M(Y(c)), 1) - BCE(DF-M(Y), 0) = - BCE(r(c), 1) - BCE(r, 0) Insbesondere ist also die Adversialkostenfunktion K(DF-M) A gegeben durch K(DF-1) A = - log (DF-1 (Y(c)) - log (1 - DF-1 (Y)) = - log(r(c)) - log(1 - r). Bei einer Minimierung dieser Kostenfunktion wird die trainierte Maskenklassifikatorfunktion DF-M dazu ausgebildet, möglichst gut zwischen realen Bilddaten (entsprechend den Vergleichsmaskenbilddatensätzen MDS-C) und von der ersten trainierten Generatorfunktion GF-1 erzeugten synthetischen Bilddaten (entsprechend den Maskenbilddatensätzen MDS) zu unterscheiden.
  • Für die Kostenfunktion K(GF-1) der ersten trainierten Generatorfunktion GF-1 kann insbesondere ebenfalls eine zusätzliche Adversialkostenfunktion K(GF-1) MA = - BCE(DF-M(Y), 1) = - log(r) verwendet werden. Bei einer Minimierung dieser Kostenfunktion wird die erste trainierte Generatorfunktion GF-1 dazu ausgebildet, derartige Maskenbilddatensätze MDS zu erzeugen, die von der trainierten Maskenklassifikatorfunktion DF-M fälschlicherweise als reale Bilddaten klassifiziert werden.
  • 9 zeigt ein drittes Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1. Das dritte Ausführungsbeispiel umfasst alle Schritte des in 7 dargestellten ersten Ausführungsbeispiels, und kann alle bezüglich der ersten Ausführungsbeispiel beschriebenen Aus- und Weiterbildungen aufweisen. Das dritte Ausführungsbeispiel kann insbesondere eines oder mehrere der in 1 bis 4 dargestellten Datenflussdiagramme implementieren.
  • Ein weiterer Schritt des dritten Ausführungsbeispiels ist das Empfangen TREC-DDS-T eines Trainingsdifferenzbilddatensatzes DDS-T des Untersuchungsvolumens VOL, sowie das Empfangen TREC-RDS-T eines Trainingsrealbilddatensatzes RDS-T des Untersuchungsvolumens VOL, insbesondere mittels der Trainingsschnittstelle TIF des Trainingssystems TSYS. Der Trainingsdifferenzbilddatensatzes DDS-T und der Trainingsrealbilddatensatzes RDS-T können insbesondere die gleiche Dimensionalität und bezüglich jeder Dimension die gleich in Pixeln oder Voxeln gemessene Ausdehnung wie der erste Realbilddatensatz RDS-1 aufweisen.
  • Ein weiterer Schritt des dargestellten dritten Ausführungsbeispiels ist das Bestimmen TDET-RDS-1-S eines ersten synthetischen Realbilddatensatzes RDS-1-S durch Anwenden der zweiten trainierten Generatorfunktion GF-2 auf zweite Trainingseingabedaten, wobei die zweiten Trainingseingabedaten den Trainingsdifferenzbilddatensatz DDT-T umfassen. Das Bestimmen TDET-RDS-1-S des ersten synthetischen Realbilddatensatzes RDS-1-S erfolgt insbesondere mittels der Trainingsrecheneinheit TCU des Trainingssystem TSYS. Bezeichnet Y(T) DSA den Trainingsdifferenzbilddatensatz DDS-T und bezeichnet X(S) fill,1 den ersten synthetischen Realbilddatensatz RDS-1-S, dann gilt hier X(S) fill,1 = GF-2 (Y(T) DSA).
  • Optional kann in diesem dritten Ausführungsbeispiel ein Empfangen TREC-MDS-T eines Trainingsmaskenbilddatensatzes MDS-T des Untersuchungsvolumens VOL, insbesondere mittels der Trainingsschnittstelle TIF des Trainingssystems TSYS, wobei die zweiten Trainingseingabedaten dann weiterhin den Trainingsmaskenbilddatensatz MDS-T umfassen. Hier gilt dann insbesondere X(S) fill,1 = GF-2 (Y(T) DSA, M(T)).
  • Weitere Schritte des dritten Ausführungsbeispiels sind das Bestimmen TDET-CV-3 eines dritten Klassifikationswertes durch Anwenden einer zweiten trainierten Klassifikatorfunktion DF-2 auf den synthetischen Realbilddatensatzes RDS-1-S, sowie das Bestimmen TDET-CV-4 eines vierten Klassifikationswertes durch der zweiten trainierten Klassifikatorfunktion DF-2 auf den Trainingsrealbilddatensatz RDS-T, jeweils mittels der Trainingsrecheneinheit TCU des Trainingssystems TSYS.
  • Der dritte Klassifikationswert ist hierbei ein Wahrscheinlichkeitswert q, dieser entspricht der von der zweiten trainierten Klassifikatorfunktion DF-2 geschätzten Wahrscheinlichkeit, dass der erste synthetischen Realbilddatensatzes RDS-1-S ein realer Bilddatensatz ist. Der vierte Klassifikationswert ist hierbei ein Wahrscheinlichkeitswert q(c), dieser entspricht der von der zweiten trainierten Klassifikatorfunktion DF-2 geschätzten Wahrscheinlichkeit, dass der Trainingsrealbilddatensatz RDS-T ein realer Bilddatensatz ist. In diesem Ausführungsbeispiel gilt also q = DF-2(X(S) fill,1) = DF-2 (GF-2 (Y (T) DSA)) und p(c) = DF-2 (X(T) fill), wobei X(T) fill den Trainingsrealbilddatensatz RDS-T bezeichnet.
  • Ein weiterer Schritt des dargestellten Ausführungsbeispiels ist ein Anpassen TADJ-4 der zweiten trainierten Generatorfunktion GF-2 und/oder der zweiten trainierten Klassifikatorfunktion DF-2 basierend auf dem dritten Klassifikationswert und/oder dem vierten Klassifikationswert, insbesondere mittels der Trainingsrecheneinheit TCU des Trainingssystems TSYS.
  • In diesem ersten Ausführungsbeispiel wird die zweite trainierte Generatorfunktion GF-2 angepasst, in dem ein oder mehrere Parameter der zweiten trainierten Generatorfunktion GF-2 zur Optimierung, insbesondere zur Minimierung einer Kostenfunktion K(GF-2) angepasst werden. Weiterhin wird die zweite trainierte Klassifikatorfunktion DF-2 angepasst, in dem ein oder mehrere Parameter der zweiten trainierten Klassifikatorfunktion DF-2 zur Optimierung, insbesondere zur Minimierung einer Kostenfunktion K(DF-2) angepasst werden.
  • Die Kostenfunktion K(DF-2) umfasst hierbei eine Adversialkostenfunktion K(DF-2) A = - BCE (DF-2 (X(T) fill), 1) - BCE(DF-2(X(S) fill,1), 0) = - BCE(q(c), 1) - BCE(q, 0). Insbesondere ist also die Adversialkostenfunktion K(DF-2) A gegeben durch K(DF-2) A = - log (DF-1 (X(T) fill)) - log (1 - DF-1 (X(S) fill,1) = - log(q(c)) - log(1 - q). Bei einer Minimierung dieser Kostenfunktion wird die zweite trainierte Klassifikatorfunktion DF-2 dazu ausgebildet, möglichst gut zwischen realen Bilddaten (entsprechend den Trainingsrealbilddatensätze RDS-T) und von der zweiten trainierten Generatorfunktion GF-2 erzeugten synthetischen Bilddaten (entsprechend den ersten synthetischen Realbilddatensatzes RDS-1-S) zu unterscheiden.
  • In der Kostenfunktion K(GF-2) der zweiten trainierten Generatorfunktion GF-2 kann insbesondere ebenfalls eine Adversialkostenfunktion K(GF-2) A = - BCE (DF-2 (X(S) fill,1), 1) = - log (q) verwendet werden. Bei einer Minimierung dieser Kostenfunktion wird die zweite trainierte Generatorfunktion GF-2 dazu ausgebildet, derartige erste synthetische Realbilddatensatz RDS-1-S zu erzeugen, die von der zweiten trainierten Klassifikatorfunktion DF-2 fälschlicherweise als reale Bilddaten klassifiziert werden.
  • In diesem Ausführungsbeispiel ist die zweite trainierte Klassifikatorfunktion DF-2 ein künstliches neuronales Netzwerk umfasst, bzw. umfasst die zweite trainierte Klassifikatorfunktion DF-2 ein künstliches neuronales Netzwerk. Vorteilhafterweise umfasst dieses künstliche neuronale Netzwerk einen Residualblock, eine Abkürzungsverbindung, eine Faltungsschicht, eine Entfaltungsschicht, eine Poolingschicht und/oder eine räumliche Transformationsschicht. Weiterhin kann beim Training der zweiten trainierten Klassifikatorfunktion DF-2 eine Adversialkostenfunktion AL minimiert worden sein.
  • Ein weiterer optionaler Schritt des dritten Ausführungsbeispiels ist das Bestimmen TDET-DDS-S eines synthetischen Differenzbilddatensatzes DDS-S des Untersuchungsvolumens VOL durch Anwenden der ersten trainierten Generatorfunktion GF-1 auf erste Trainingseingabedaten, wobei die ersten Trainingseingabedaten den ersten synthetischen Realbilddatensatzes RDS-1-S umfassen, insbesondere mittels der Trainingsrecheneinheit TCU des Trainingssystems TSYS.
  • Der synthetische Differenzbilddatensatz DDS-S kann insbesondere die gleiche Dimensionalität und bezüglich jeder Dimension die gleiche in Pixeln oder Voxeln gemessene Ausdehnung des ersten Realbilddatensatzes RDS-1 aufweisen. Bezeichnet Y(S) DSA den synthetischen Differenzbilddatensatz DDS-S, so gilt also Y(S) DSA = GF-1 (X(S) fill,1).
  • Ein weiterer optionaler Schritt des dargestellten Ausführungsbeispiels ist das Anpassen TADJ-5 der ersten trainierten Generatorfunktion GF-1 basierend auf einer zyklischen Konsistenzkostenfunktion CCL, wobei die zyklische Konsistenzkostenfunktion CCL auf einem Vergleich des Trainingsdifferenzbilddatensatzes DDS-T und des synthetischen Differenzbilddatensatzes DDS-S basiert.
  • In diesem dritten Ausführungsbeispiel wird die erste trainierte Generatorfunktion GF-1 angepasst, indem ein oder mehrere Parameter der ersten trainierten Generatorfunktion GF-1 zur Optimierung, insbesondere zur Minimierung einer Kostenfunktion K(GF-1) angepasst werden.
  • Die Kostenfunktion K(GF-1) der ersten trainierten Generatorfunktion GF-1 umfasst hierbei eine zyklische Konsistenzkostenfunktion K(GF-1) CC. Der Beitrag K(GF-1) CC der zyklischen Konsistenzkostenfunktion ist gegeben durch K(GF-1) CC = |Y(T) DSA - Y(S) DSA|m = |Y(T) DSA - GF-1 (GF-2 (Y(T) DSA) ) | m, wobei |A|m die m-Norm von A bezeichnet. Insbesondere kann m = 1 und m = 2 gewählt werden. Da Y(T) DSA und Y(S) DSA Bilddatensätze insbesondere der gleichen Dimensionalität und der gleichen Ausdehnung sind, kann die Norm jeweils pixelweise bzw. voxelweise berechnet werden. Eine Minimierung der zyklischen Konsistenzkostenfunktion führt dazu, dass die erste trainierte Generatorfunktion GF-1 ähnlich der Inversen zur zweiten trainierten Generatorfunktion GF-2 wirkt, und damit eine Verkettung der zweiten trainierten Generatorfunktion GF-2 und der ersten trainierten Generatorfunktion GF-1 ähnlich einer Identitätsabbildung (und damit ähnlich wie ein Autoencoder) wirkt, und somit die Erzeugung von Bilddaten mit weniger Fehlern behaftet ist.
  • 10 zeigt ein viertes Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1. Das vierte Ausführungsbeispiel vereinigt die Elemente der in 7 bis 9 dargestellten ersten bis dritten Ausführungsbeispiele. Insbesondere können die Schritte in ein erstes Training TRN-1 und ein zweites Training TRN-2 aufgeteilt werden, wobei die Generatorfunktionen GF-1, GF-2 jeweils paarweise mit den Klassifikatorfunktionen DF-1, DF-2, DF-M trainiert werden. Das vierte Ausführungsbeispiel kann insbesondere eines oder mehrere der in 1 bis 4 dargestellten Datenflussdiagramme implementieren.
  • Die Kostenfunktionen der Generatorfunktionen GF-1, GF-2 und der Klassifikatorfunktion DF-1, DF-2, DF-M können hierbei eine Adversialkostenfunktion AL als Komponente umfassen. Weiterhin können die Kostenfunktionen der Generatorfunktionen GF-1, GF-2 eine zyklische Konsistenzkostenfunktion CCL umfassen. Beispielsweise können die jeweiligen Kostenfunktionen gegeben sein durch K ( GF 1 ) = K ( GF 1 ) A + K ( GF 1 ) MA + K ( GF 1 ) CC
    Figure DE102019208496B4_0001
    K ( GF 2 ) = K ( GF 2 ) A + K ( GF 2 ) CC
    Figure DE102019208496B4_0002
    K ( DF 1 ) = K ( DF 1 ) A
    Figure DE102019208496B4_0003
    K ( DF 2 ) = K ( DF 2 ) A
    Figure DE102019208496B4_0004
    K ( DF M ) = K ( DF M ) A
    Figure DE102019208496B4_0005
  • 11 zeigt ein Bereitstellungssystem PRVS, 12 zeigt ein Trainingssystem TSYS. Das dargestellte Bereitstellungssystem PRVS ist ausgebildet, ein Verfahren zum Bereitstellen eines Differenzbilddatensatzes DDS auszuführen. Das dargestellte Trainingssystem TSYS ist dazu ausgebildet, ein Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion GF-1 nach Anspruch 10 und/oder einer ersten trainierten Klassifikatorfunktion DF-1 auszuführen. Das Bereitstellungssystem PRVS umfasst eine Schnittstelle IF, eine Recheneinheit CU und eine Speichereinheit MU, das Trainingssystem TSYS umfasst eine Trainingsschnittstelle TIF, eine Trainingsrecheneinheit TCU und eine Trainingsspeichereinheit TMU.
  • Bei dem Bereitstellungssystem PRVS und/oder bei dem Trainingssystem TSYS kann es sich insbesondere um einen Computer, einen Mikrocontroller oder um einen integrierten Schaltkreis handeln. Alternativ kann es sich bei dem Bereitstellungssystem PRVS und/oder bei dem Trainingssystem TSYS um einen realen oder virtuellen Verbund von Computern handeln (ein englischer Fachbegriff für einen realen Verbund ist „Cluster“, ein englischer Fachbegriff für einen virtuellen Verbund ist „Cloud“). Das Bereitstellungssystem PRVS und/oder das Trainingssystem TSYS kann auch als virtuelles System ausgebildet sein, das auf einem realen Computer oder einem realen oder virtuellen Verbund von Computern ausgeführt wird (ein englischer Fachbegriff ist „Virtualization“).
  • Bei einer Schnittstelle IF und/oder einer Trainingsschnittstelle TIF kann es sich um eine Hardware- oder Softwareschnittstelle handeln (beispielsweise PCI-Bus, USB oder Firewire). Eine Recheneinheit CU und/oder eine Trainingsrecheneinheit TCU kann Hardware-Elemente oder Software-Elemente aufweisen, beispielsweise einen Mikroprozessor oder ein sogenanntes FPGA (englisches Akronym für „Field Programmable Gate Array“). Eine Speichereinheit MU und/oder eine Trainingsspeichereinheit TMU kann als nicht dauerhafte Arbeitsspeicher (Random Access Memory, kurz RAM) oder als dauerhafter Massenspeicher (Festplatte, USB-Stick, SD-Karte, Solid State Disk) realisiert sein.
  • Die Schnittstelle IF und/oder die Trainingsschnittstelle TIF können insbesondere mehrere Unterschnittstellen umfassen, die unterschiedliche Schritte der jeweiligen Verfahren ausführen. Mit anderen Worten kann die Schnittstelle IF und/oder die Trainingsschnittstelle TIF auch als Vielzahl von Schnittstelen IF bzw. Vielzahl von Trainingsschnittstellen TIF aufgefasst werden. Die Recheneinheit CU und/oder die Trainingsrecheneinheit TCU können insbesondere mehrere Unterrecheneinheiten umfassen, die unterschiedliche Schritte der jeweiligen Verfahren ausführen. Mit anderen Worten kann die Recheneinheit CU und/oder die Trainingsrecheneinheit TCU auch als Vielzahl von Recheneinheiten CU bzw. Vielzahl von Trainingsrecheneinheiten TCU aufgefasst werden.
  • 13 zeigt eine Röntgenvorrichtung XSYS verbunden mit einem Bereitstellungssystem PRVS. Im gezeigten Ausführungsbeispiel handelt es sich bei der Röntgenvorrichtung XSYS um ein C-Bogen-Röntgengerät XSYS. Das C-Bogen-Röntgengerät XSYS umfasst eine Röntgenquelle XSYS.SRC zum Aussenden von Röntgenstrahlen. Weiterhin umfasst das C-Bogen-Röntgengerät XSYS einen Röntgendetektor XSYS.DTC zum Empfangen von Röntgenstrahlen. Die Röntgenquelle XSYS.SRC sowie der Röntgendetektor XSYS.DTC sind an den zwei unterschiedlichen Enden des C-Bogens XSYS.ARM befestigt. Der C-Bogen XSYS.ARM des C-Bogen-Röntgengeräts XSYS ist an einem Stativ XSYS.STC befestigt. Das Stativ XSYS.STC umfasst Antriebselemente, die dazu ausgelegt sind, die Position des C-Bogens XSYS.ARM zu verändern. Insbesondere kann der C-Bogen XSYS.ARM um zwei verschiedene Achsen gedreht werden. Das C-Bogen-Röntgengerät umfasst weiterhin eine Steuer- und Auswerteeinheit XSYS.CTRL sowie eine Patientenlagerungsvorrichtung XSYS.PAT, auf der ein Patient PAT gelagert werden kann. Mittels der Steuer- und Auswerteeinheit XSYS.CTRL kann die Position des C-Bogens XSYS.ARM eingestellt werden, der C-Bogen XSYS.ARM um das Untersuchungsvolumen VOL rotiert werden und Röntgenbilddatensätze des Untersuchungsvolumens VOL aufgenommen werden. Es ist alternativ zum dargestellten Ausführungsbeispiel auch möglich, dass das Bereitstellungssystem PRVS als Teil der Steuer- und Auswerteeinheit XSYS.CTRL ausgeführt ist.

Claims (20)

  1. Computerimplementiertes Verfahren zum Bereitstellen eines Differenzbilddatensatzes (DDS) eines Untersuchungsvolumens (VOL), umfassend - Empfangen (REC-RDS-1) eines ersten Realbilddatensatzes (RDS-1) des Untersuchungsvolumens (VOL), wobei das Untersuchungsvolumen (VOL) ein Gefäß umfasst, wobei der erste Realbilddatensatz (RDS-1) das Untersuchungsvolumen (VOL) umfassend Kontrastmittel abbildet, - Bestimmen (DET-DDS) des Differenzbilddatensatzes (DDS) des Untersuchungsvolumens (VOL) durch Anwenden einer ersten trainierten Generatorfunktion (GF-1) auf Eingabedaten, wobei die Eingabedaten den ersten Realbilddatensatz (RDS-1) umfassen, wobei ein Parameter der ersten trainierten Generatorfunktion (GF-1) auf einem Generative-Adversarial-Algorithmus basiert, wobei das Training der ersten trainierten Generatorfunktion (GF-1) darauf basiert, die erste trainierte Generatorfunktion (GF-1) auf Realbilddatensätzen mit einem ersten Rauschpegel anzuwenden und das Ergebnis mit Differenzbilddatensätzen mit einem zweiten Rauschpegel zu vergleichen, wobei der erste Rauschpegel höher ist als der zweite Rauschpegel, - Bereitstellen (PRV-DDS) des Differenzbilddatensatzes (DDS).
  2. Verfahren nach dem Anspruch 1, wobei der erste Realbilddatensatz (RDS-1) den ersten Rauschpegel aufweist und wobei der Differenzbilddatensatz (DDS) den zweiten Rauschpegel aufweist.
  3. Verfahren nach dem Anspruch 1 oder 2, wobei der erste Realbilddatensatz (RDS-1) ein Röntgenbilddatensatz ist, insbesondere ein zweidimensionaler oder dreidimensionaler Röntgenbilddatensatz.
  4. Verfahren nach einem der vorstehenden Ansprüche, weiterhin umfassend: - Bestimmen (DET-MDS) eines Maskenbilddatensatzes (MDS) des Untersuchungsvolumens durch Anwenden der ersten trainierten Generatorfunktion (GF-1) auf die Eingabedaten, wobei der Maskenbilddatensatz (MDS) das Untersuchungsvolumen (VOL) ohne Kontrastmittel abbildet.
  5. Verfahren nach einem der vorstehenden Ansprüche, weiterhin umfassend - Empfangen (REC-RDS-2) eines zweiten Realbilddatensatzes (RDS-2) des Untersuchungsvolumens (VOL), wobei der erste Realbilddatensatz (RDS-1) das Untersuchungsvolumen (VOL) zu einem ersten Zeitpunkt abbildet, wobei der zweite Realbilddatensatz (RDS-2) das Untersuchungsvolumen (VOL) zu einem zweiten Zeitpunkt abbildet, wobei die Eingabedaten weiterhin den zweiten Realbilddatensatz (RDS-2) umfassen.
  6. Verfahren nach einem der vorstehenden Ansprüche, wobei die erste trainierte Generatorfunktion (GF-1) abschnittsweise auf die in den Eingabedaten enthaltenen Bilddatensätze angewendet wird.
  7. Verfahren nach einem der vorstehenden Ansprüche, wobei der Parameter der ersten trainierten Generatorfunktion (GF-1) auf einer zyklischen Konsistenzkostenfunktion basiert.
  8. Verfahren nach einem der vorstehenden Ansprüche, wobei die erste trainierte Generatorfunktion (GF-1) ein künstliches neuronales Netzwerk umfasst.
  9. Verfahren nach dem Anspruch 8, wobei die trainierte Generatorfunktion (GF-1) einen Residualblock, eine Abkürzungsverbindung, eine Faltungsschicht, eine Entfaltungsschicht, eine Poolingschicht und/oder eine räumliche Transformationsschicht umfasst.
  10. Computerimplementiertes Verfahren zum Bereitstellen einer ersten trainierten Generatorfunktion (GF-1), umfassend: - Empfangen (TREC-RDS-1) eines ersten Realbilddatensatzes (RDS-1) eines Untersuchungsvolumens (VOL), wobei der erste Realbilddatensatz (RDS-1) einen ersten Rauschpegel aufweist, wobei das Untersuchungsvolumen (VOL) ein Gefäß umfasst, wobei der erste Realbilddatensatz (RDS-1) das Untersuchungsvolumen (VOL) umfassend Kontrastmittel abbildet, - Empfangen (TREC-DDS-C) eines Vergleichsdifferenzbilddatensatzes (DDS-C) des Untersuchungsvolumens (VOL), wobei der Vergleichsdifferenzbilddatensatzes (DDS-C) einen zweiten Rauschpegel aufweist, wobei der erste Rauschpegel höher ist als der zweite Rauschpegel, - Bestimmen (TDET-DDS) eines Differenzbilddatensatzes (DDS) des Untersuchungsvolumens (VOL) durch Anwenden einer ersten trainierten Generatorfunktion (GF-1) auf erste Eingabedaten, wobei die ersten Eingabedaten den ersten Realbilddatensatz (RDS-1) umfassen, - Bestimmen (TDET-CV-1) eines ersten Klassifikationswertes durch Anwenden einer ersten trainierten Klassifikatorfunktion (DF-1) auf den Differenzbilddatensatz (DDS), - Bestimmen (TDET-CV-2) eines zweiten Klassifikationswertes durch Anwenden der ersten trainierten Klassifikatorfunktion (DF-1) auf den Vergleichsdifferenzbilddatensatz (DDS-C), - Anpassen (TADJ-1) der ersten trainierten Generatorfunktion (GF-1) und/oder der ersten trainierten Klassifikatorfunktion (DF-1) basierend auf dem ersten Klassifikationswert und/oder dem zweiten Klassifikationswert, - Bereitstellen (PRV-GF-1) der ersten trainierten Generatorfunktion (GF-1).
  11. Verfahren nach dem Anspruch 10, weiterhin umfassend: - Bestimmen (TDET-RDS-1-C) eines ersten Vergleichsrealbilddatensatzes (RDS-1-C) des Untersuchungsvolumens (VOL) durch Anwenden einer zweiten trainierten Generatorfunktion (GF-2) auf zweite Eingabedaten, wobei die zweiten Eingabedaten den Differenzbilddatensatz (DDS) umfassen, - Anpassen (TADJ-2) der zweiten trainierten Generatorfunktion (GF-2) basierend auf einer zyklischen Konsistenzkostenfunktion (CCL), wobei die zyklische Konsistenzkostenfunktion (CCL) auf einem Vergleich des ersten Realbilddatensatzes (RDS-1) und des ersten Vergleichsrealbilddatensatzes (RDS-1-C) basiert.
  12. Verfahren nach dem Anspruch 10 oder 11, weiterhin umfassend - Empfangen (TREC-MDS-C) eines Vergleichsmaskenbilddatensatzes (MDS-C) des Untersuchungsvolumens, - Bestimmen (TDET-MDS) eines Maskenbilddatensatzes (MDS) des Untersuchungsvolumens (VOL) durch Anwenden der ersten trainierten Generatorfunktion (GF-1) auf die ersten Eingabedaten, - Bestimmen (TDET-CV-M1) eines ersten Maskenklassifikationswertes durch Anwenden einer trainierten Maskenklassifikatorfunktion (DF-M) auf den Maskenbilddatensatz (MDS), - Bestimmen (TDET-CV-M2) eines zweiten Maskenklassifikationswertes durch Anwenden einer trainierten Maskenklassifikatorfunktion (DF-M) auf den Vergleichsmaskenbilddatensatz (MDS-C), - Anpassen (TADJ-3) der ersten trainierten Generatorfunktion (GF-1) und/oder der trainierten Maskenklassifikatorfunktion (DF-M) basierend auf dem ersten Maskenklassifikationswert und/oder dem zweiten Maskenklassifikationswert.
  13. Verfahren nach einem der Ansprüche 10 bis 12, weiterhin umfassend: - Empfangen (TREC-DDS-T) eines Trainingsdifferenzbilddatensatzes (DDS-T) des Untersuchungsvolumens (VOL), -Empfangen (TREC-RDS-T) eines Trainingsrealbilddatensatzes (RDS-T) des Untersuchungsvolumens (VOL), - Bestimmen (TDET-RDS-1-S) eines ersten synthetischen Realbilddatensatzes (RDS-1-S) durch Anwenden der zweiten trainierten Generatorfunktion (GF-2) auf zweite Trainingseingabedaten, wobei die zweiten Trainingseingabedaten den Trainingsdifferenzbilddatensatz (DDT-T) umfassen, - Bestimmen (TDET-CV-3) eines dritten Klassifikationswertes durch Anwenden einer zweiten trainierten Klassifikatorfunktion (DF-2) auf den ersten synthetischen Realbilddatensatzes (RDS-1-S), - Bestimmen (TDET-CV-4) eines vierten Klassifikationswertes durch Anwenden der zweiten trainierten Klassifikatorfunktion (DF-2) auf den Trainingsrealbilddatensatz (RDS-T), - Anpassen (TADJ-4) der zweiten trainierten Generatorfunktion (GF-2) und/oder der zweiten trainierten Klassifikatorfunktion (DF-2) basierend auf dem dritten Klassifikationswert und/oder dem vierten Klassifikationswert.
  14. Verfahren nach dem Anspruch 13, weiterhin umfassend: - Bestimmen (TDET-DDS-S) eines synthetischen Differenzbilddatensatzes (DDS-S) des Untersuchungsvolumens (VOL) durch Anwenden der ersten trainierten Generatorfunktion (GF-1) auf erste Trainingseingabedaten, wobei die ersten Trainingseingabedaten den ersten synthetischen Realbilddatensatzes (RDS-1-S) umfassen, - Anpassen (TADJ-5) der ersten trainierten Generatorfunktion (GF-1) basierend auf einer zyklischen Konsistenzkostenfunktion (CCL), wobei die zyklische Konsistenzkostenfunktion (CCL) auf einem Vergleich des Trainingsdifferenzbilddatensatzes (DDS-T) und des synthetischen Differenzbilddatensatzes (DDS-S) basiert.
  15. Verfahren nach dem Anspruch 13 oder 14, weiterhin umfassend: - Empfangen (TREC-MDS-T) eines Trainingsmaskenbilddatensatzes (MDS-T) des Untersuchungsvolumens (VOL), wobei die zweiten Trainingseingabedaten weiterhin den Trainingsmaskenbilddatensatz (MDS-T) umfassen.
  16. Verfahren nach einem der Ansprüche 15, wobei beim Anwenden der ersten trainierten Generatorfunktion (GF-1) auf die ersten Trainingseingabedaten weiterhin ein synthetischer Maskenbilddatensatz (MDS-S) bestimmt wird, wobei die zyklische Konsistenzkostenfunktion (CCL) weiterhin auf einem Vergleich des Trainingsmaskenbilddatensatzes (MDS-T) und des synthetischen Maskenbilddatensatzes (MDS-S) basiert.
  17. Verfahren nach einem der Ansprüche 1 bis 9, wobei die erste trainierte Generatorfunktion (GF-1) durch ein Verfahren nach einem der Ansprüche 10 bis 16 bereitgestellt wurde.
  18. Bereitstellungssystem (PRVS) zum Bereitstellen eines Differenzbilddatensatzes (DDS) eines Untersuchungsvolumens (VOL), umfassend eine Schnittstelle (IF) und eine Recheneinheit (CU), - wobei die Schnittstelle (IF) ausgebildet ist zum Empfangen (REC-RDS-1) eines ersten Realbilddatensatzes (RDS-1) des Untersuchungsvolumens (VOL), wobei das Untersuchungsvolumen (VOL) ein Gefäß umfasst, wobei der erste Realbilddatensatz (RDS-1) das Untersuchungsvolumen (VOL) umfassend Kontrastmittel abbildet, - wobei die Recheneinheit (CU) ausgebildet ist zum Bestimmen (DET-DDS) des Differenzbilddatensatzes (DDS) des Untersuchungsvolumens (VOL) durch Anwenden einer ersten trainierten Generatorfunktion (GF-1) auf Eingabedaten, wobei die Eingabedaten den ersten Realbilddatensatz (RDS-1) umfassen, wobei ein Parameter der ersten trainierten Generatorfunktion (RDS-1) auf einem GA-Algorithmus basiert, wobei das Training der ersten trainierten Generatorfunktion (GF-1) darauf basiert, die erste trainierte Generatorfunktion (GF-1) auf Realbilddatensätzen mit einem ersten Rauschpegel anzuwenden und das Ergebnis mit Differenzbilddatensätzen mit einem zweiten Rauschpegel zu vergleichen, wobei der erste Rauschpegel höher ist als der zweite Rauschpegel, - wobei die Schnittstelle (IF) weiterhin ausgebildet ist zum Bereitstellen (PRV-DDS) des Differenzbilddatensatzes (DDS).
  19. Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher (MU) eines Bereitstellungssystems (PRVS) ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 9 oder Anspruch 17 auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem (PRVS) ausgeführt werden; und/oder welches direkt in einen Trainingsspeicher (TMU) eines Trainingssystems (TSYS) ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens nach einem der Ansprüche 10 bis 16 auszuführen, wenn die Programmabschnitte von dem Trainingssystem (TSYS) ausgeführt werden.
  20. Computerlesbares Speichermedium, auf welchem von einem Bereitstellungssystem (PRVS) lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 9 oder Anspruch 17 auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem (PRVS) ausgeführt werden; und/oder auf welchem von einem Trainingssystem (TSYS) lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 10 bis 16 auszuführen, wenn die Programmabschnitte von dem Trainingssystem (TSYS) ausgeführt werden.
DE102019208496.6A 2019-06-12 2019-06-12 Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion Active DE102019208496B4 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102019208496.6A DE102019208496B4 (de) 2019-06-12 2019-06-12 Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion
US16/891,446 US11423539B2 (en) 2019-06-12 2020-06-03 Provision of a differential image dataset and a trained generator function
CN202010529347.0A CN112085807B (zh) 2019-06-12 2020-06-11 提供差分图像数据组和训练生成器函数的方法和提供***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019208496.6A DE102019208496B4 (de) 2019-06-12 2019-06-12 Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion

Publications (2)

Publication Number Publication Date
DE102019208496A1 DE102019208496A1 (de) 2020-12-17
DE102019208496B4 true DE102019208496B4 (de) 2024-01-25

Family

ID=73547170

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019208496.6A Active DE102019208496B4 (de) 2019-06-12 2019-06-12 Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion

Country Status (3)

Country Link
US (1) US11423539B2 (de)
CN (1) CN112085807B (de)
DE (1) DE102019208496B4 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6954719B2 (ja) 2018-07-06 2021-10-27 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 検査ボリュームの差分画像データセットの決定
WO2020024127A1 (zh) * 2018-08-01 2020-02-06 中国医药大学附设医院 骨龄评估与身高预测模型、其***及其预测方法
DE102019210545B4 (de) 2019-07-17 2024-02-01 Siemens Healthcare Gmbh Bereitstellen eines Ergebnisbilddatensatzes und einer trainierten Generatorfunktion
US11762951B2 (en) * 2020-11-18 2023-09-19 Adobe Inc. Generative image congealing
CN112967260B (zh) * 2021-03-17 2024-01-26 中国科学院苏州生物医学工程技术研究所 基于弱监督学习的眼底荧光造影图像渗漏点检测方法
CN112801282A (zh) * 2021-03-24 2021-05-14 东莞中国科学院云计算产业技术创新与育成中心 三维图像处理方法、装置、计算机设备和存储介质
CN114117333B (zh) * 2022-01-20 2022-05-17 南湖实验室 用于异常检测的对抗重构网络设计、训练方法及检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190090834A1 (en) 2017-09-28 2019-03-28 Siemens Healthcare Gmbh Determining a two-dimensional mammography dataset
DE102019207238A1 (de) 2019-05-17 2020-11-19 Siemens Healthcare Gmbh Bereitstellen eines Ergebnisbilddatensatzes

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11024009B2 (en) * 2016-09-15 2021-06-01 Twitter, Inc. Super resolution using a generative adversarial network
US10582907B2 (en) * 2016-10-31 2020-03-10 Siemens Healthcare Gmbh Deep learning based bone removal in computed tomography angiography
DE102017203248B3 (de) * 2017-02-28 2018-03-22 Siemens Healthcare Gmbh Verfahren zum Bestimmen einer Biopsieposition, Verfahren zum Optimieren eines Positionsbestimmungsalgorithmus, Positionsbestimmungseinheit, bildgebende medizinische Vorrichtung, Computerprogrammprodukte und computerlesbare Speichermedien
US10600511B2 (en) * 2018-02-20 2020-03-24 International Business Machine Corporation Accelerating human understanding of medical images by dynamic image alteration
CN109087306A (zh) * 2018-06-28 2018-12-25 众安信息技术服务有限公司 动脉血管图像模型训练方法、分割方法、装置及电子设备
CN108899075A (zh) * 2018-06-28 2018-11-27 众安信息技术服务有限公司 一种基于深度学习的dsa图像检测方法、装置及设备
JP6954719B2 (ja) 2018-07-06 2021-10-27 シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 検査ボリュームの差分画像データセットの決定
US11042778B2 (en) * 2018-11-29 2021-06-22 International Business Machines Corporation Generating realistic organ x-ray angiography (XA) images for deep learning consumption

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190090834A1 (en) 2017-09-28 2019-03-28 Siemens Healthcare Gmbh Determining a two-dimensional mammography dataset
DE102019207238A1 (de) 2019-05-17 2020-11-19 Siemens Healthcare Gmbh Bereitstellen eines Ergebnisbilddatensatzes

Non-Patent Citations (10)

* Cited by examiner, † Cited by third party
Title
ARMANIUOS, K. [ et al.]: Unsupervised Medical Image Translation Using Cycle- MedGAN. Preprint 1903.03374v1 auf arXiv.org, 8. März 2019.
Generative Adversarial Networks. In: Wikipedia. URL: https://de.wikipedia.org/w/index.php?title=Generative_Adversarial_Networks&oldid=186990065 , Stand 27.03.2019 [abgerufen am 06.04.2020].
GOODFELLOW, Ian J. [u.a.]: Generative adversarial nets. 10-06-2014. arXiv:1406.2661v1. S. 1-9. URL: https://arxiv.org/pdf/1406.2661 [abgerufen am 2018-09-27]
HAO, H.: Vessel Layer Separation of X-ray Angiographic Images using Deep Learning Methods. Master Thesis, TU Delft, 2018, online verfügbar unter https://repository.tudelft.pl/islandora/object/uuid°/03Aae819077-c7cd-4737-ad6e-7289cb39e3bd
J. Montoya et al., „3D Deep Learning Angiography (3D-DLA) from C-arm Conebeam CT", AJNR Am J Neuroradiol. (2018) 39(5):916-922
J. Wolterink et al., „Generative Adversarial Networks for Noise Reduction in Low-Dose CT", IEEE Transactions on Medical Imaging (2017), 36(12):2536-2545
MONTOYA, Juan C., et al.: 3D deep learning angiography (3D-DLA) from C-arm conebeam CT. American Journal of Neuroradiology, 2018, 39. Jg., Nr. 5, Seiten 916-922.
NIE, D. et al.: Medical Image Synthesis with Context-Aware Generative Adversarial Networks. arXiv, 2016, URL: https://arxiv.org/abs/1612.05362 [recherchiert am 09.04.2020].
UNBERATH, M. [et al.]: Deep Learning-based lnpainting for Virtual DSA. Konferenzbeitrag vom November 2017, online verfügbar unter https://www.researchgate.net/publication/321251358 Deep Learning-based Inpaintind for Virtual DSA
WOLTERINK, Jelmer M., et al.: Generative adversarial networks for noise reduction in low-dose CT. IEEE transactions on medical imaging, 2017, 36. Jg., Nr. 12, Seiten 2536-2545.

Also Published As

Publication number Publication date
US11423539B2 (en) 2022-08-23
CN112085807A (zh) 2020-12-15
DE102019208496A1 (de) 2020-12-17
US20200394790A1 (en) 2020-12-17
CN112085807B (zh) 2023-12-15

Similar Documents

Publication Publication Date Title
DE102019208496B4 (de) Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion
DE102019207238A1 (de) Bereitstellen eines Ergebnisbilddatensatzes
EP3219260B1 (de) Vorrichtung und verfahren zum abgrenzen eines metallobjekts für eine artefaktreduktion in tomographiebildern
EP3143592B1 (de) Verfahren und vorrichtung zur reduktion von artefakten in computertomographischen bildern
EP3340178B1 (de) Berechnen eines vierdimensionalen dsa-datensatzes mit variabler räumlicher auflösung
DE102016215109A1 (de) Verfahren und Datenverarbeitungseinheit zum Optimieren eines Bildrekonstruktionsalgorithmus
DE10393159T5 (de) Verfahren und Anordnung zum medizinischen Röntgen
DE102005051620A1 (de) Verfahren zur Rekonstruktion einer tomographischen Darstellung eines Objektes
EP3591611B1 (de) Bestimmen eines differenzbilddatensatzes eines untersuchungsvolumens
DE102017200282B3 (de) Verfahren zur Reduktion von Bildartefakten
DE102019215460A1 (de) Verfahren und Vorrichtung zur Rauschreduktion von Bildaufnahmen
DE102010029281A1 (de) Verfahren und Bildrekonstruktionseinrichtung zur Rekonstruktion von Bilddaten
DE102016202434A1 (de) Auswahlverfahren für einen Artefaktkorrekturalgorithmus, Datenverarbeitungseinrichtung zur Ausführung des Verfahrens und medizinische Bildgebungsanlage
DE102020131786A1 (de) Method for metal artifact avoidance in x-ray imaging
DE102012207629A1 (de) CT-Bildrekonstruktion im erweiterten Messfeld
DE102019200270A1 (de) Bereitstellen eines Differenzbilddatensatzes und Bereitstellen einer trainierten Funktion
EP3640893A1 (de) Verfahren zur rekonstruktion eines dreidimensionalen ergebnisbilddatensatzes
DE102010011911A1 (de) Tomosyntheseverfahren mit einer iterativen Maximum-A-Posteriori-Rekonstruktion
DE112017001477T5 (de) Verbesserte bildqualität durch zweistufige temporale rauschunterdrückung
DE102015210912A1 (de) Rekonstruktion eines Ergebnisbildes unter Berücksichtigung von Kontur-Signifikanz-Daten
DE102019210545B4 (de) Bereitstellen eines Ergebnisbilddatensatzes und einer trainierten Generatorfunktion
DE102019215242A1 (de) Computerimplementiertes Verfahren zum Betrieb einer Röntgenbildgebungseinrichtung, Röntgenbildgebungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102012217613A1 (de) Verfahren zur Reduzierung von Artefakten bei der Rekonstruktion von Bilddatensätzen aus Projektionsbildern
DE102019200269A1 (de) Bereitstellen eines Beschränkungsbilddatensatzes und/oder eines Differenzbilddatensatzes
EP3637365B1 (de) Verfahren zum bewerten einer verlässlichkeit eines ct-volumenbildes, computerprogramm und computerlesbares speichermedium

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R009 Remittal by federal patent court to dpma for new decision or registration
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE