DE102019207238A1 - Bereitstellen eines Ergebnisbilddatensatzes - Google Patents

Bereitstellen eines Ergebnisbilddatensatzes Download PDF

Info

Publication number
DE102019207238A1
DE102019207238A1 DE102019207238.0A DE102019207238A DE102019207238A1 DE 102019207238 A1 DE102019207238 A1 DE 102019207238A1 DE 102019207238 A DE102019207238 A DE 102019207238A DE 102019207238 A1 DE102019207238 A1 DE 102019207238A1
Authority
DE
Germany
Prior art keywords
image data
data set
parameter
input
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019207238.0A
Other languages
English (en)
Inventor
Sai Gokul Hariharan
Christian KAETHNER
Markus Kowarschik
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102019207238.0A priority Critical patent/DE102019207238A1/de
Priority to US16/871,231 priority patent/US11636590B2/en
Publication of DE102019207238A1 publication Critical patent/DE102019207238A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft Lösungen zum Bereitstellen eines Ergebnisbilddatensatzes. Die Erfindung basiert darauf, dass ein Eingabebilddatensatz eines ersten Untersuchungsvolumens empfangen wird. Weiterhin wird ein Ergebnisbildparameter empfangen oder bestimmt. Weiterhin wird ein Ergebnisbilddatensatzes des ersten Untersuchungsvolumens durch Anwendung einer trainierten Generatorfunktion auf Eingabedaten bestimmt. Hierbei basieren die Eingabedaten auf dem Eingabebilddatensatz und dem Ergebnisbildparameter, und der Ergebnisbildparameter betrifft eine Eigenschaft des Ergebnisbilddatensatzes. Weiterhin basiert ein Parameter der trainierten Generatorfunktion auf einem GA-Algorithmus (Akronym für den englischen Fachbegriff „generative adversarial“). Weiterhin wird der Ergebnisbilddatensatz bereitgestellt.Die Erfindung betrifft weiterhin Lösungen zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion, insbesondere zur Verwendung in den Lösungen zum Bereitstellen eines Ergebnisbilddatensatzes.

Description

  • In der medizinischen Praxis werden Röntgenvorrichtungen oftmals zur Überwachung von (insbesondere minimalinvasiven) chirurgischen Eingriffen eingesetzt, teilweise werden bestimmte Eingriffe erst durch eine Röntgenüberwachung möglich, beispielsweise die Implantation einer Aortenklappe mittels eines Katheters.
  • Die Vorteile eines solchen röntgenüberwachten Eingriffs müssen hierbei gegen die Strahlenbelastung durch die absorbierte Röntgendosis abgewogen werden. Da typischerweise die Reduzierung der Röntgendosis auch mit einer Reduzierung der Bildqualität bzw. einer Erhöhung des Signal-Rausch-Verhältnisses einhergeht, muss häufig ein Kompromiss zwischen guter Bildqualität und niedriger Röntgendosis gefunden werden.
  • Ist das Signal-Rausch-Verhältnis zu hoch, kann das insbesondere auch zu einer niedrigen Bildqualität bei einer digitalen Subtraktionsangiographie (kurz DSA) führen. Insbesondere kann die notwendige Registrierung von Maskenbilddatensatz und Füllbilddatensatz nicht möglich sein, oder das Rauschen kann in der Registrierung zu Artefakten führen.
  • Es ist bekannt, die Bildqualität durch verschiedene Rauschunterdrückungsverfahren zu erhöhen. Diese Verfahren können aber den Bildeindruck verändern und/oder zu Artefakten führen. Wird die Rauschunterdrückung in einem zu hohen Maße angewendet, kann dies beispielsweise zu einem zeichentrickartigen Bildeindruck führen.
  • Weiterhin ist bekannt, durch optimierte Protokolle (d.h. durch eine optimierte Wahl der Parameter der Röntgenvorrichtung) das Signal-Rausch-Verhältnis zu optimieren. Auch diese Wahl der Protokolle kann aber den Bildeindruck verändern (beispielsweise können sich die Werte der Bildpixel für die selbe abgebildete Struktur bei unterschiedlichen Bildaufnahmewerten unterscheiden). Dies stellt insbesondere ein Problem dar, wenn die Bilddaten durch trainierte Algorithmen weiterverarbeitet werden sollen, insbesondere wenn die zum Training verwendeten Algorithmen nur mittels einer beschränkten Anzahl von Protokollen oder einer beschränkten Anzahl von Röntgenvorrichtungen aufgenommen wurden.
  • Es ist daher die Aufgabe der Erfindung, eine Möglichkeit bereitzustellen, ohne Änderung des Bildeindrucks eine Erhöhung das Signal-Rausch-Verhältnis zu erhöhen.
  • Diese Aufgabe wird gelöst durch ein computerimplementiertes Verfahren zum Bereitstellen eines Ergebnisbilddatensatzes, durch ein computerimplementiertes Verfahren zum Bereitstellen einer trainierten Generatorfunktion, durch ein Bereitstellungssystem, durch eine Röntgenvorrichtung, durch ein Computerprogrammprodukt und durch ein computerlesbares Speichermedium gemäß den unabhängigen Ansprüche. Vorteilhafte Weiterbildungen werden in den abhängigen Ansprüchen und in der folgenden Beschreibung beschrieben.
  • Nachstehend wird die erfindungsgemäße Lösung der Aufgabe sowohl in Bezug auf die beanspruchten Vorrichtungen als auch in Bezug auf das beanspruchte Verfahren beschrieben. Hierbei erwähnte Merkmale, Vorteile oder alternative Ausführungsformen sind ebenso auch auf die anderen beanspruchten Gegenstände zu übertragen und umgekehrt. Mit anderen Worten können die gegenständlichen Ansprüche (die beispielsweise auf eine Vorrichtung gerichtet sind) auch mit den Merkmalen, die in Zusammenhang mit einem Verfahren beschrieben oder beansprucht sind, weitergebildet sein. Die entsprechenden funktionalen Merkmale des Verfahrens werden dabei durch entsprechende gegenständliche Module ausgebildet.
  • Weiterhin wird die erfindungsgemäße Lösung der Aufgabe sowohl in Bezug auf Verfahren und Vorrichtungen zum Bereitstellen von Ergebnisbilddatensätzen als auch in Bezug auf Verfahren und Vorrichtungen zum Bereitstellen von trainierten Generatorfunktionen und/oder trainierten Klassifikatorfunktionen beschrieben. Hierbei können Merkmale und alternative Ausführungsformen von Datenstrukturen und/oder Funktionen bei Verfahren und Vorrichtungen zum Bereitstellen von Ergebnisbilddatensätzen auf analoge Datenstrukturen und/oder Funktionen bei Verfahren und Vorrichtungen zum Bereitstellen von trainierten Generatorfunktionen und/oder trainierten Klassifikatorfunktionen übertragen werden. Analoge Datenstrukturen können hierbei insbesondere durch die Verwendung der Vorsilbe „Trainings“ gekennzeichnet sein. Weiterhin können die in Verfahren und Vorrichtungen zur Bereitstellung von Ergebnisbilddatensätzen verwendeten trainierten Generatorfunktionen und/oder trainierten Klassifikatorfunktionen insbesondere durch Verfahren und Vorrichtungen zum Bereitstellen von trainierten Generatorfunktionen und/oder trainierten Klassifikatorfunktionen angepasst worden und/oder bereitgestellt worden sein.
  • Die Erfindung betrifft in einem ersten Aspekt ein computerimplementiertes Verfahren zum Bereitstellen eines Ergebnisbilddatensatzes. Das Verfahren basiert darauf, dass ein Eingabebilddatensatz eines ersten Untersuchungsvolumens empfangen wird, insbesondere mittels einer Schnittstelle. Weiterhin wird ein Ergebnisbildparameter empfangen oder bestimmt, insbesondere mittels der Schnittstelle oder einer Recheneinheit. Weiterhin wird ein Ergebnisbilddatensatzes des ersten Untersuchungsvolumens durch Anwendung einer trainierten Generatorfunktion auf Eingabedaten bestimmt, insbesondere mittels der Recheneinheit. Hierbei basieren die Eingabedaten auf dem Eingabebilddatensatz und dem Ergebnisbildparameter basieren, und der Ergebnisbildparameter betrifft eine Eigenschaft des Ergebnisbilddatensatzes. Weiterhin basiert ein Parameter der trainierten Generatorfunktion auf einem GA-Algorithmus (Akronym für den englischen Fachbegriff „generative adversarial“, eine deutsche Übersetzung ist „erzeugend und gegnerisch“) basiert. Weiterhin wird der Ergebnisbilddatensatz bereitgestellt, insbesondere mittels der Schnittstelle. Das Bereitstellen des Ergebnisbilddatensatzes kann insbesondere ein Anzeigen, ein Übermitteln und/oder ein Speichern des Ergebnisbilddatensatzes umfassen.
  • Ein Bilddatensatz umfasst zumindest ein Bild, weiterhin kann ein Bilddatensatz noch weitere Daten, insbesondere Metadaten umfassen. Ein Bilddatensatz kann insbesondere mit dem Bild identisch sein. Ein Bilddatensatz kann insbesondere das Ergebnis einer bildgebenden medizinischen Untersuchung sein, insbesondere das Ergebnis einer bildgebenden medizinischen Röntgenuntersuchung. In diesem Fall kann der Bilddatensatz insbesondere auch als Röntgenbilddatensatz bezeichnet werden.
  • Ein zweidimensionaler Bilddatensatz umfasst zumindest ein zweidimensionales Bild, insbesondere umfasst ein zweidimensionaler Bilddatensatz kein weiteres Bild mit einer abweichenden Dimensionalität. Ein dreidimensionaler Bilddatensatz umfasst zumindest ein dreidimensionales Bild, insbesondere umfasst ein dreidimensionaler Bilddatensatz kein weiteres Bild mit einer abweichenden Dimensionalität. Ein vierdimensionaler Bilddatensatz umfasst zumindest ein vierdimensionales Bild, insbesondere umfasst ein vierdimensionaler Bilddatensatz kein weiteres Bild mit einer abweichenden Dimensionalität. Ein zweidimensionaler Bilddatensatz kann insbesondere mit einem zweidimensionalen Bild identisch sein. Ein dreidimensionaler Bilddatensatz kann insbesondere mit einem dreidimensionalen Bild identisch sein. Ein vierdimensionaler Bilddatensatz kann insbesondere mit einem vierdimensionalen Bild identisch sein.
  • Metadaten sind hierbei Informationen über die bildgebende Untersuchung, die Grundlage für den Bilddatensatz ist, die keine Bilder oder Bilddaten sind, beispielsweise Patientendaten oder Daten über das verwendete Protokoll.
  • Ein Bilddatensatz umfasst eine Mehrzahl von Pixeln oder Voxeln. Hierbei werden die Begriffe Pixel und Voxel synonym verwendet, lassen also insbesondere keinen Rückschluss auf eine Dimensionalität zu. Jedem der Pixel oder der Voxel ist ein Intensitätswert zugeordnet, der vorzugsweise einem Röntgenabsorptionswert entspricht.
  • Der Eingabebilddatensatz ist insbesondere ein Bilddatensatz. Der Ergebnisbilddatensatz ist insbesondere ein Bilddatensatz. Der Eingabebilddatensatz und der Ergebnisbilddatensatz weisen insbesondere die gleiche Dimensionalität auf.
  • Ein Bilddatensatz kann insbesondere als realer Bilddatensatz bezeichnet werden, wenn der Bilddatensatz das direkte Ergebnis einer bildgebenden Untersuchung ist, bzw. direkt aus den durch die bildgebende Untersuchung erzeugten Rohdaten erzeugt wurde. Ein Bilddatensatz kann insbesondere als synthetischer Bilddatensatz bzw. als virtueller Bilddatensatz bezeichnet werden, wenn er kein realer Bilddatensatz ist, insbesondere wenn er ein Ergebnis der Anwendung einer trainierten Generatorfunktion ist. Der Eingabebilddatensatz ist insbesondere ein realer Bilddatensatz, der Ergebnisbilddatensatz ist insbesondere ein virtueller Bilddatensatz.
  • Ein Bildparameter betrifft insbesondere einen Parameter eines Bilddatensatzes (beispielsweise Helligkeit, Kontrast, Schärfe, Signal-Rausch-Verhältnis) oder einen Parameter der Aufnahme eines Bilddatensatzes bzw. einen Parameter einer Bildaufnahmevorrichtung bei der Aufnahme des Bilddatensatzes (beispielsweise Belichtungszeit, Größe der Blendenöffnung, insbesondere bei Röntgenbilddatensätzen bzw. Röntgenvorrichtungen auch die Röntgenspannung, den Röntgenstrom, die Röntgendosis, eine Bezeichnung der Röntgenquelle und/oder eine Bezeichnung des Röntgendetektors. Der Ergebnisbildparameter ist insbesondere ein Bildparameter.
  • Ein realer Bildparameter betrifft insbesondere einen realen Bilddatensatz. Ein synthetischer Bildparameter betrifft insbesondere einen synthetischen Bilddatensatz. Auch ein synthetischer Bildparameter kann einen Parameter einer Bildaufnahmevorrichtung betreffen, in diesem Fall betrifft er einen Parameter der Bildaufnahmevorrichtung, der notwendig wäre bzw. verwendet werden müsste, um einen mit dem synthetischen Bilddatensatz vergleichbaren realen Bilddatensatz aufzunehmen, insbesondere um einen mit dem synthetischen Bilddatensatz identischen realen Bilddatensatz aufzunehmen.
  • Eine trainierte Funktion ist insbesondere eine Funktion, die Eingabedaten auf Ausgabedaten abbildet, wobei die Ausgabedaten weiterhin von mindestens einem Funktionsparameter der Funktion abhängen, und wobei der Funktionsparameter durch überwachtes Lernen (ein englischer Fachbegriff ist „supervised learning“), durch halb-überwachtes Lernen (ein englischer Fachbegriff ist „semi-supervised learning“) und/oder durch unüberwachtes Lernen (ein englischer Fachbegriff ist „unsupervised learning“) anpassbar ist. Die Eingabedaten und/oder die Ausgabedaten können hierbei insbesondere jeweils mindestens einen Bilddatensatz umfassen.
  • Insbesondere ist eine trainierte Generatorfunktion eine trainierte Funktion, und eine trainierte Klassifikatorfunktion ist eine trainierte Funktion. Bei einer trainierten Funktion muss nicht notwendigerweise einer ihrer Parameter bereits angepasst worden sein, daher kann der Begriff „trainierte Funktion“ auch durch „trainierbare Funktion“ ersetzt werden, insbesondere kann der Begriff „trainierte Generatorfunktion“ durch „trainierbare Generatorfunktion“ und/oder der Begriff „trainierte Klassifikatorfunktion“ durch „trainierbare Klassifikatorfunktion“ ersetzt werden. Insbesondere können die Begriffe „trainierte Generatorfunktion“ und „Generatorfunktion“ als Synonyme verwendet werden, und/oder die Begriffe „trainierte Klassifikatorfunktion“ und „Klassifikatorfunktion“ können als Synonyme verwendet werden.
  • Bei einer trainierten Generatorfunktion umfassen insbesondere die Ausgabedaten mindestens einen Bilddatensatz, die Eingabedaten können optional einen Bilddatensatz umfassen. Bei einer trainierten Klassifikatorfunktion umfassen insbesondere die Eingabedaten mindestens einen Bilddatensatz, die Ausgabedaten umfassen einen Klassifikator und/oder einen oder mehrere Wahrscheinlichkeitswerte. Der Klassifikator entspricht hier insbesondere einem Schätzwert für einen Bildparameter, und der Wahrscheinlichkeitswert entspricht insbesondere der Wahrscheinlichkeit, dass der Bilddatensatz der Eingabedaten ein realer Bilddatensatz oder ein synthetischer Bilddatensatz ist. Die Bezeichnung „Klassifikatorfunktion“ kann daher insbesondere durch die Bezeichnung „Diskriminatorfunktion“ und/oder durch die Bezeichnung „Diskriminator- und Klassifikatorfunktion“ bzw. durch die Bezeichnung „Klassifikator- und Diskriminatorfunktion“ ersetzt werden.
  • Ein GA-Algorithmus („GA“ ist ein Akronym für „generative adversarial“, eine deutsche Übersetzung ist „erzeugend und gegnerisch“) umfasst eine Generatorfunktion und eine Klassifikatorfunktion. Hierbei erzeugt die Generatorfunktion synthetische Daten (ein anderes Wort sind „virtuelle Daten“), und die Klassifikatorfunktion unterscheidet zwischen synthetischen und realen Daten. Insbesondere wird durch ein Training der Generatorfunktion und/oder der Klassifikatorfunktion erreicht, dass auf der einen Seite die Generatorfunktion derartige synthetische Daten erzeugt, die durch die Klassifikatorfunktion fälschlicherweise als real eingestuft werden, auf der anderen Seite die Klassifikatorfunktion möglichst gut zwischen realen Daten und synthetischen Daten unterscheiden kann. Spieltheoretisch kann ein GA-Algorithmus auch als Nullsummenspiel aufgefasst werden. Das Training der Generatorfunktion und/oder der Klassifikatorfunktion basiert insbesondere auf der Minimierung jeweils einer Kostenfunktion.
  • Falls die Generatorfunktion und die Klassifikatorfunktion durch ein Netzwerk gegeben sind, insbesondere durch ein künstliches neuronales Netzwerk, dann wird der GA-Algorithmus auch als GA-Netzwerk (auch „GAN“, englisches Akronym für „generative adversarial network“, eine deutsche Übersetzung ist „erzeugende gegnerische Netzwerke“) bezeichnet. Diese sind insbesondere aus der Druckschrift Ian J. Goodfellow, „Generative Adversarial Networks“, arxiv 1406.2661 (2014) bekannt.
  • Die Minimierung der Kostenfunktion kann insbesondere mittels Rückpropagation erfolgen.
  • Ein Parameter der trainierten Generatorfunktion basiert insbesondere derart auf einem GA-Algorithmus oder auf einem GA-Netzwerk, dass der Parameter der trainierten Generatorfunktion mit einem Parameter der Generatorfunktion des GA-Algorithmus oder des GA-Netzwerks identisch ist. Insbesondere basiert ein Parameter der trainierten Generatorfunktion derart auf einem GA-Algorithmus oder auf einem GA-Netzwerk, dass die trainierte Generatorfunktion mit der Generatorfunktion des GA-Algorithmus oder des GA-Netzwerks identisch ist.
  • Die Erfinder haben erkannt, dass durch die Verwendung einer trainierten Generatorfunktion, wobei ein Parameter der trainierten Generatorfunktion auf einem GA-Algorithmus basiert, Ergebnisbilddatensätze erzeugt werden können, die einen vorgegebenen Bildeindruck haben, da durch die Verwendung einer Klassifikatorfunktion im GA-Algorithmus die Generatorfunktion so trainiert wird, dass der vorgegebene Bildeindruck erreicht wird. Der Bildeindruck des Ergebnisbilddatensatzes kann hierbei insbesondere durch den Ergebnisbildparameter vorgegeben werden.
  • Nach einem weiteren Aspekt der Erfindung umfasst der Verfahren weiterhin ein Empfangen oder Bestimmen eines Eingabebildparameters, wobei der Eingabebildparameter eine Eigenschaft des Eingabebilddatensatzes betrifft, und wobei die Eingabedaten weiterhin auf dem Eingabebildparameter basieren. Das Empfangen oder Bestimmen des Eingabebildparameters wird insbesondere mittels der Schnittstelle oder der Recheneinheit ausgeführt. Ein Eingabebildparameter ist insbesondere ein Bildparameter.
  • Der Eingabebildparameter kann insbesondere im Eingabebilddatensatz enthalten sein, beispielsweise in den Metadaten des Eingabebilddatensatzes. Der Eingabebilddatensatz kann insbesondere auch rechnerisch aus dem Eingabebilddatensatz ermittelt bzw. bestimmt werden.
  • Die Erfinder haben erkannt, dass durch die Verwendung des Eingabebildparameters in den Eingabedaten der trainierten Generatorfunktion dieser nicht durch die trainierte Generatorfunktion aus dem Eingabebilddatensatz abgeleitet werden muss. Dadurch kann zum einen die trainierte Generatorfunktion effizienter trainiert werden (da bei vorgegebener Parameterzahl weniger Ausgabedaten berechnet werden müssen, und daher weniger Trainingsdaten verwendet werden müssen), zum anderen ist das Verfahren weniger fehleranfällig, da insbesondere ein exakter und nicht ein möglicherweise fehlerbehafteter Wert des Eingabebildparameters verwendet werden kann.
  • Nach einem weiteren Aspekt der Erfindung ist der Eingabebilddatensatz ein Röntgenbilddatensatz des ersten Untersuchungsvolumens, und der Ergebnisparameter betrifft eine oder mehrere der folgenden Eigenschaften des Ergebnisbilddatensatzes: Röntgendosis des Ergebnisbilddatensatzes, Rauschpegel des Ergebnisbilddatensatzes, dem Ergebnisbilddatensatzes entsprechende Röntgenquelle und/oder Röntgendetektor. Optional, insbesondere wenn ein Eingabebildparameter empfangen oder bestimmt wird, betrifft der Eingabebilddatensatz eine oder mehrere der folgenden Eigenschaften des Eingabebilddatensatzes: Röntgendosis des Eingabebilddatensatzes, Rauschpegel des Eingabebilddatensatzes, dem Eingabebilddatensatzes entsprechende Röntgenquelle und/oder Röntgendetektor.
  • Die Röntgendosis des Eingabebilddatensatzes entspricht insbesondere der bei der Aufnahme des Eingabebilddatensatzes verwendeten Röntgendosis bzw. die vom ersten Untersuchungsvolumen bei der Aufnahme des Eingabebilddatensatzes absorbierte Röntgendosis. Die Röntgendosis des Ergebnisbilddatensatzes entspricht insbesondere die bei einer hypothetischen Aufnahme des Ergebnisbilddatensatzes zu verwendende Röntgendosis bzw. die bei einer hypothetischen Aufnahme vom ersten Untersuchungsvolumen absorbierte hypothetische Röntgendosis. Hierbei ist zu beachten, dass der Ergebnisbilddatensatz nicht einer tatsächlichen Aufnahme des ersten Untersuchungsvolumens entstammt, sondern basierend auf dem Eingabebilddatensatz bestimmt wurde. Daher ist dem Ergebnisbilddatensatz keine reale Aufnahme zugeordnet. Die Röntgendosis ist daher die Röntgendosis, die notwendig wäre, um den entsprechenden Bildeindruck des Ergebnisbilddatensatzes zu erzeugen.
  • Der Rauschpegel eines Bilddatensatzes entspricht insbesondere dem Signal-Rausch-Verhältnis des Bilddatensatzes.
  • Die bzw. der dem Eingabebilddatensatz entsprechende Röntgenquelle und/oder Röntgendetektor ist insbesondere die bzw. der Röntgenquelle und/oder Röntgendetektor, die bzw. der bei der Aufnahme des Eingabebilddatensatzes verwendet wurde. Die bzw. der dem Ergebnisbilddatensatz entsprechende Röntgenquelle und/oder Röntgendetektor ist insbesondere die bzw. der Röntgenquelle und/oder Röntgendetektor, die bzw. der bei einer hypothetischen Aufnahme des Ergebnisbilddatensatzes verwendet werden würde. Hierbei ist zu beachten, dass der Ergebnisbilddatensatz nicht einer tatsächlichen Aufnahme des ersten Untersuchungsvolumens entstammt, sondern basierend auf dem Eingabebilddatensatz bestimmt wurde. Daher ist dem Ergebnisbilddatensatz keine reale Aufnahme zugeordnet. Die Die bzw. der dem Ergebnisbilddatensatz entsprechende Röntgenquelle und/oder Röntgendetektor ist daher die bzw. der Röntgenquelle und/oder Röntgendetektor, die notwendig wären, um den entsprechenden Bildeindruck des Ergebnisbilddatensatzes zu erzeugen.
  • Wenn der Ergebnisbildparameter die Röntgendosis des Ergebnisbilddatensatzes umfasst, dann umfasst insbesondere der optionale Eingabebildparameter ebenfalls die Röntgendosis des Eingabebilddatensatzes. Wenn der Ergebnisbildparameter den Rauschpegel des Ergebnisbilddatensatzes umfasst, dann umfasst insbesondere der optionale Eingabebildparameter ebenfalls den Rauschpegel des Eingabebilddatensatzes. Wenn der Ergebnisbildparameter die dem Ergebnisbilddatensatz entsprechende Röntgenquelle und/oder Röntgendetektor umfasst, dann umfasst insbesondere der optionale Eingabebildparameter ebenfalls die dem Eingabebilddatensatz entsprechende Röntgenquelle und/oder Röntgendetektor.
  • Die Erfinder haben erkannt, dass durch die Verwendung der Röntgendosis bzw. des Rauschpegels als Ergebnisbildparameter die tatsächliche verwendete Röntgendosis klein gehalten werden kann, gleichzeitig aber ein Röntgenbilddatensatz mit geringem Rauschpegel bereitgestellt werden kann. Durch die Verwendung der Röntgenquelle und/oder des Röntgendetektors als Ergebnisbildparameter können Bildeindrücke erzeugt werden, die einer Aufnahme durch eine von der Röntgenvorrichtung verschiedenen weiteren Röntgenvorrichtung entsprechen. Dadurch können insbesondere Bildverarbeitungsroutinen verwendet werden, die auf Aufnahmen der weiteren Röntgenvorrichtung abgestimmt sind.
  • Nach einem weiteren möglichen Aspekt basiert die Erfindung weiterhin darauf, dass eines Vergleichsbilddatensatzes eines zweiten Untersuchungsvolumens insbesondere mittels der Schnittstelle empfangen wird, wobei das erste Untersuchungsvolumen und das zweite Untersuchungsvolumen sich überlappen und/oder identisch sind. Weiterhin wird insbesondere mittels der Recheneinheit ein Vergleichsbildparameter bestimmt, wobei der Vergleichsbildparameter eine Eigenschaft des Vergleichsbilddatensatzes betrifft. Weiterhin werden der Eingabebildparameters und der Vergleichsbildparameters verglichen, und das Bestimmen des Ergebnisbilddatensatzes wird durchgeführt, wenn der Vergleichsbildparameter vom Eingabebildparameter abweicht. Hierbei entspricht der verwendete Ergebnisbildparameter dem Vergleichsbildparameter.
  • Der Vergleichsbilddatensatz ist insbesondere ein Bilddatensatz, der Vergleichsbildparameter ist insbesondere ein Bildparameter. Der Vergleichsbildparameter betrifft insbesondere eine oder mehrere der folgenden Eigenschaften des Vergleichsbildparameter: Röntgendosis des Vergleichsbildparameter, Rauschpegel des Vergleichsbildparameter, dem Vergleichsbildparameter entsprechende Röntgenquelle und/oder Röntgendetektor. Die Röntgendosis des Vergleichsbilddatensatzes entspricht insbesondere der bei der Aufnahme des Vergleichsbilddatensatzes verwendeten Röntgendosis bzw. die vom zweiten Untersuchungsvolumen bei der Aufnahme des Vergleichsbilddatensatzes absorbierte Röntgendosis. Die bzw. der dem Vergleichsbilddatensatz entsprechende Röntgenquelle und/oder Röntgendetektor ist insbesondere die bzw. der Röntgenquelle und/oder Röntgendetektor, die bzw. der bei der Aufnahme des Vergleichsbilddatensatzes verwendet wurde.
  • Die Erfinder haben erkannt, dass durch einen Vergleich mit einem gegebenen Vergleichsbilddatensatz eine Mehrzahl von Bilddaten mit einem identischen bzw. ähnlichen Bildeindruck erzeugt werden können, und gleichzeitig die Bestimmung eines Ergebnisbilddatensatzes nur durchgeführt werden muss, wenn diese Aufgrund einer Abweichung des Eingabebildparameters und des Vergleichsbildparameters notwendig ist. Damit können unnötige Rechenoperationen vermieden werden. Dies ist insbesondere vorteilhaft, wenn das beschriebene Verfahren auf Eingabebilddatensätze in einem Bildstrom durchgeführt werden soll (beispielsweise bei der Röntgenüberwachung eines chirurgischen Eingriffs).
  • Nach einem weiteren Aspekt basiert die Erfindung weiterhin darauf, dass eines Vergleichsbilddatensatzes eines zweiten Untersuchungsvolumens insbesondere mittels der Schnittstelle empfangen wird, wobei das erste Untersuchungsvolumen und das zweite Untersuchungsvolumen sich überlappen und/oder identisch sind. Weiterhin wird insbesondere mittels der Recheneinheit ein Vergleichsbildparameter durch Anwendung einer trainierten Klassifikatorfunktion auf den Vergleichsbilddatensatz bestimmt, wobei der Vergleichsbildparameter eine Eigenschaft des Vergleichsbilddatensatzes betrifft, und wobei ein Parameter der trainierten Klassifikatorfunktion auf dem GA-Algorithmus basiert. Weiterhin werden der Eingabebildparameters und der Vergleichsbildparameters verglichen, und das Bestimmen des Ergebnisbilddatensatzes wird durchgeführt, wenn der Vergleichsbildparameter vom Eingabebildparameter abweicht. Hierbei entspricht der verwendete Ergebnisbildparameter dem Vergleichsbildparameter. Insbesondere kann auch der Eingabebildparameter durch Anwendung der trainierten Klassifikatorfunktion auf den Eingabebilddatensatz bestimmt werden.
  • Dier Erfinder haben erkannt, dass durch die Verwendung der trainierten Klassifikatorfunktion insbesondere auch solche Vergleichsbildparameter bzw. Eingabebildparameter verwendet werden können, die nicht im Vergleichsbilddatensatz bzw. im Eingabebilddatensatz selbst enthalten sind, bzw. die nicht durch eine einfache Berechnung aus dem Vergleichsbilddatensatz bzw. dem Eingabebilddatensatz abgeleitet werden können.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren weiterhin das Anpassen eines Bildgebungsparameters einer Bildgebungseinheit basierend auf dem Vergleich des Eingabebildparameters und des Vergleichsbildparameters. Bei der Bildgebungseinheit kann es sich insbesondere um eine Röntgenvorrichtung handeln, bei dem Bildgebungsparameter kann es sich im Fall einer Röntgenvorrichtung insbesondere um die Röntgenspannung, den Röntgenstrom und/oder eine Belichtungszeit handeln.
  • Beim Anpassen des Bildgebungsparameters kann es sich insbesondere um eine Regelung des Bildgebungsparameters handeln, um die Differenz zwischen dem Eingabebildparameter und dem Vergleichsbildparameter zu reduzieren.
  • Die Erfinder haben erkannt, dass durch die Anpassung bzw. die Regelung des Bildgebungsparameters der Bildeindruck von aufeinanderfolgenden Bilddatensätzen angeglichen werden kann. Insbesondere kann hierdurch für nachfolgende Bilddatensätze der Bildgebungseinheit die Anwendung des beschriebenen Verfahrens verbessert werden, da Artefakte reduziert werden können, wenn der Eingabebildparameter und der Ergebnisbildparameter ähnlich sind.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren weiterhin ein Bestimmen eines Eingabefrequenzdatensatzes basierend auf dem Eingabebilddatensatz, wobei der Eingabefrequenzdatensatz eine Darstellung des Eingabebilddatensatzes im Frequenzraum ist, wobei die Eingabedaten auf dem Eingabefrequenzdatensatz basieren, wobei die Anwendung der trainierten Generatorfunktion auf die Eingabedaten einen Ergebnisfrequenzdatensatz erzeugt, wobei der Ergebnisfrequenzdatensatz eine Darstellung des Ergebnisbilddatensatzes im Frequenzraum ist. Das Bestimmen des Eingabefrequenzdatensatzes erfolgt hierbei insbesondere mittels der Recheneinheit.
  • Insbesondere ist der Eingabefrequenzdatensatz eine Fouriertransformation des Eingabebilddatensatzes und der Ergebnisfrequenzdatensatz ist eine Fouriertransformation des Ergebnisbilddatensatzes. Insbesondere kann der Eingabefrequenzdatensatz auch eine Waveletzerlegung (ein englischer Fachbegriff ist „wavelet decomposition“) des Eingabebilddatensatzes, und der Ergebnisfrequenzdatensatz kann eine Waveletzerlegung des Ergebnisbilddatensatzes sein.
  • Insbesondere können die Eingabedaten derart auf dem Eingabefrequenzdatensatz basieren, dass die Eingabedaten den Eingabefrequenzdatensatz unterhalb einer vorbestimmten Grenzfrequenz (niederfrequente Anteile) umfassen, und dass die Eingabedaten den Eingabefrequenzdatensatz oberhalb der vorbestimmten Grenzfrequenz (hochfrequenter Anteil) nicht umfassen.
  • Die Erfinder haben erkannt, dass durch die Anwendung des Verfahrens im Frequenzraum statt im Realraum die Kanten (die hochfrequenten Anteilen entsprechen) in den Bilddatensätzen besser erhalten werden können, und dadurch die strukturelle Information im Ergebnisbilddatensatz erhalten werden kann.
  • Nach einem weiteren Aspekt der Erfindung ist der Ergebnisbildparameter auf eine trainierte Bildverarbeitungsfunktion abgestimmt. Der Ergebnisbildparameter ist insbesondere auf die trainierte Bildverarbeitungsfunktion abgestimmt, wenn die trainierte Bildverarbeitungsfunktion dazu ausgebildet ist, Bilddatensätze mit durch den Ergebnisbildparameter beschriebenen Eigenschaften zu verarbeiten.
  • Die Bildverarbeitungsfunktion kann insbesondere eine trainierte Funktion sein, insbesondere ein künstliches neuronales Netzwerk. Die trainierte Bildverarbeitungsfunktion ist insbesondere dazu ausgebildet, Bilddatensätze mit durch den Ergebnisbildparameter beschriebenen Eigenschaften zu verarbeiten, wenn die zum Training der Bildverarbeitungsfunktion verwendeten Trainingsbilddatensätze bzw. eine Untermenge der Trainingsbilddatensätze die durch den Ergebnisbildparameter beschriebenen Eigenschaften aufweisen.
  • Die Erfinder haben erkannt, dass durch die Abstimmung des Ergebnisbildparameters auf die trainierte Bildverarbeitungsfunktion diese auch auf Bilddaten angewendet werden kann, die sich von den zum Training verwendeten Trainingsbilddatensätzen unterscheiden. Insbesondere kann daher die trainierte Bildverarbeitungsfunktion basierend auf einer geringeren Anzahl von Trainingsbilddatensätzen und damit effizienter trainiert werden, und die Anwendung der trainierten Bildverarbeitungsfunktion ist weniger fehleranfällig.
  • Nach einem weiteren Aspekt der Erfindung umfasst das Verfahren weiterhin ein Empfangen eines Maskenbilddatensatzes eines dritten Untersuchungsvolumens, wobei das erste Untersuchungsvolumen und das dritte Untersuchungsvolumen sich überlappen und/oder identisch sind, und wobei die Eingabedaten weiterhin auf dem Maskenbilddatensatz basieren. Das Empfangen erfolgt insbesondere mittels der Schnittstelle. Insbesondere ist in diesem Aspekt der Eingabebilddatensatz ein Füllbilddatensatz, und der Ergebnisbilddatensatz ist ein Differenzbilddatensatz.
  • Ein Maskenbilddatensatz ist insbesondere ein Bilddatensatz eines Untersuchungsvolumens, welches zum Zeitpunkt der Aufnahme des Maskenbilddatensatzes kein Kontrastmittel umfasst. Insbesondere ist ein Maskenbilddatensatz ein Röntgenbilddatensatz. Ein Füllbilddatensatz ist insbesondere ein Bilddatensatz eines Untersuchungsvolumens, welches zum Zeitpunkt der Aufnahme des Fülldatensatzes Kontrastmittel umfasst. Ein Differenzbilddatensatz ist insbesondere ein Bilddatensatz eines Untersuchungsvolumens, welches die Differenz eines Füllbilddatensatzes und eines Maskenbilddatensatzes darstellt.
  • Die Erfinder haben erkannt, dass durch die Verwendung der trainierten Generatorfunktion ein Ergebnisbilddatensatz bzw. ein Differenzbilddatensatz insbesondere mit einem niedrigeren Signal-Rausch-Verhältnis erzeugt werden kann. Weiterhin kann durch die Verwendung der trainierten Generatorfunktion auch Abweichungen der Abbildungsgeometrie zwischen Füllbilddatensatz und Maskenbilddatensatz kompensiert werden, ohne eine ressourcenintensive Registrierung zwischen den Bildern durchführen zu müssen.
  • Nach einem weiteren Aspekt der Erfindung basiert der Parameter der trainierten Generatorfunktion auf einer zyklischen Konsistenzkostenfunktion und/oder auf einer Informationsverlust-Kostenfunktion basiert. Ein alternativer Begriff für zyklische Konsistenzkostenfunktion ist Rekonstruktionskostenfunktion. Nach einem weiteren möglichen Aspekt der Erfindung basiert der Parameter der trainierten Generatorfunktion auf einer Adversarialkostenfunktion und/oder auf einer Klassifikationskostenfunktion. Nach einem weiteren möglichen Aspekt der Erfindung basiert ein Parameter der trainierten Klassifikatorfunktion auf einer Adversarialkostenfunktion und/oder auf einer Klassifikationskostenfunktion
  • Ein Parameter einer trainierten Funktion basiert insbesondere auf einer Kostenfunktion, wenn der Parameter zur Minimierung oder Maximierung dieser Kostenfunktion angepasst bzw. verändert wurde.
  • Eine zyklische Konsistenzkostenfunktion ist insbesondere eine Kostenfunktion basierend auf einem Vergleich einer zweimaligen Anwendung der trainierten Generatorfunktion mit den Eingabedaten. Insbesondere basiert die zyklische Konsistenzkostenfunktion auf einer Norm der Differenz des Eingabebilddatensatzes und der Anwendung der trainierten Generatorfunktion auf Eingabedaten umfassend den Ergebnisbilddatensatz und den Eingabebildparameter. Bei der Norm kann es sich insbesondere um eine 1-Norm oder um eine 2-Norm handeln, die Norm kann insbesondere pixelweise und/oder voxelweise ausgewertet werden.
  • Durch die Verwendung einer zyklischen Konsistenzkostenfunktion kann erreicht werden, dass die zweimalige Anwendung der trainierten Generatorfunktion (mit jeweils passenden Bildparametern) als Identitätsabbildung wirkt. Damit kann erreicht werden, dass die trainierte Generatorfunktion besonders gut synthetische Bilddatensätze zu gegebenen Bildparametern erzeugen kann.
  • Eine Informationsverlust-Kostenfunktion ist insbesondere eine Kostenfunktion basierend auf einer Rauschmittelung, insbesondere basiert die Informationsverlust-Kostenfunktion auf einer Mittelung von Rauschen in unterschiedlich großen Teilbereichen des Ergebnisbilddatensatzes OD und/oder des Eingabebilddatensatzes.
  • Durch die Verwendung einer Informationsverlust-Kostenfunktion kann ausgenutzt werden, dass reales Rauschen einen Mittelwert von null hat, bzw. dass der rauschgemittelte Intensitätswert von Pixel und/oder Voxeln in einem Bereich eines Bilddatensatzes dem mittleren Intensitätswert entspricht. Durch Verwendung dieser Kostenfunktion kann insbesondere erreicht werden, dass die niederfrequenten und die hochfrequenten Anteile des Eingabebilddatensatzes im Ergebnisbilddatensatz erhalten werden.
  • Eine Adversarialkostenfunktion ist insbesondere eine Kostenfunktion, welche die Güte der Unterscheidung der trainierten Klassifikatorfunktion zwischen realen und synthetischen Daten misst. Eine Adversialkostenfunktion für die trainierte Generatorfunktion kann insbesondere einen ersten Wert aufweisen, wenn der Ergebnisbilddatensatz durch die trainierte Klassifikatorfunktion als synthetischer Bilddatensatz erkannt wird, und einen zweiten Wert aufweisen, wenn der Ergebnisbilddatensatz durch die trainierte Klassifikatorfunktion als realer Bilddatensatz erkannt wird, wobei der erste Wert größer ist als der zweite Wert. Eine Adversialkostenfunktion für die trainierte Klassifikatorfunktion kann insbesondere einen dritten Wert aufweisen, wenn der Ergebnisbilddatensatz durch die trainierte Klassifikatorfunktion als synthetischer Bilddatensatz erkannt wird, und einen vierten Wert aufweisen, wenn der Ergebnisbilddatensatz durch die trainierte Klassifikatorfunktion als realer Bilddatensatz erkannt wird, wobei der vierte Wert größer ist als der dritte Wert. Eine Adversialkostenfunktion für die trainierte Klassifikatorfunktion kann insbesondere einen fünften Wert aufweisen, wenn ein realer Vergleichsbilddatensatz durch die trainierte Klassifikatorfunktion als synthetischer Bilddatensatz erkannt wird, und einen sechsten Wert aufweisen, wenn dein realer Vergleichsbilddatensatz durch die trainierte Klassifikatorfunktion als realer Bilddatensatz erkannt wird, wobei der fünfte Wert größer ist als der sechste Wert.
  • Durch die Verwendung einer Adversarialkostenfunktion können die trainierte Generatorfunktion und die trainierte Klassifikatorfunktion insbesondere so trainiert werden, dass die trainierte Generatorfunktion Ergebnisbilddatensätze erzeugt, die von der trainierten Klassifikatorfunktion kaum von realen Bilddatensätzen unterschieden werden können, und dass die trainierte Klassifikatorfunktion gleichzeitig möglichst genau zwischen realen und synthetischen Bilddatensätzen unterscheiden kann.
  • Eine Klassifikationskostenfunktion ist insbesondere eine Kostenfunktion, die auf einem Vergleich (insbesondere einer Differenz) des Ergebnisbildparameters und eines berechneten Bildparameters des Ergebnisbilddatensatzes basiert. Insbesondere nimmt die Klassifikationskostenfunktion ihr Optimum (insbesondere ihr Minimum) an, wenn der Ergebnisbildparameter und der berechnete Bildparameter des Ergebnisbilddatensatzes übereinstimmen.
  • Durch die Verwendung einer Klassifikationskostenfunktion kann für die trainierte Generatorfunktion erreicht werden, dass diese Ergebnisbilddatensätz erzeugt, die möglichst genau durch den Ergebnisbildparameter beschrieben werden. Für die trainierte Klassifikatorfunktion kann erreicht werden, dass der durch die trainierte Klassifikatorfunktion bestimmte Bildparameter möglichst gut mit dem tatsächlichen Bildparameter übereinstimmt.
  • Nach einem weiteren möglichen Aspekt der Erfindung umfassen die trainierte Generatorfunktion und/oder die trainierte Klassifikatorfunktion eine Faltungsschicht (ein englischer Fachbegriff ist „convolutional layer“). Nach einem weiteren möglichen Aspekt der Erfindung umfassen die trainierte Generatorfunktion und/oder die trainierte Klassifikatorfunktion eine Entfaltungsschicht (ein englischer Fachbegriff ist „deconvolutional layer“). Nach einem weiteren möglichen Aspekt der Erfindung umfassen die trainierte Generatorfunktion und/oder die trainierte Klassifikatorfunktion einen Restwertblock (ein englischer Fachbegriff ist „residual block“).
  • Eine Faltungsschicht bildet hierbei insbesondere die mathematische Operation einer Faltung mit einem oder mehreren Faltungskernen nach, wobei die Elemente des Faltungskerns Gewichten des neuronalen Netzwerks entsprechen. Eine Entfaltungsschicht bildet hierbei insbesondere die mathematische Operation einer Entfaltung mit einem oder mehreren Faltungskernen nach. In einem Restwertblock ist eine Knotenschicht des neuronalen Netzwerks nicht nur mit der direkt folgenden Schicht verbunden, sondern auch mit einer der weiteren nachfolgenden Schichten verbunden.
  • Die Erfinder haben erkannt, dass Faltungsschichten besonders gut geeignet sind, um Merkmale von Bilddatensätzen zu erkennen und weiterzuverarbeiten. Insbesondere können durch verschiedene Faltungskerne unterschiedliche Merkmale der verarbeiteten Bilddatensätze analysiert werden (z.B. Kanten oder Gradienten). Durch Entfaltungsschichten können insbesondere vorgegebene Merkmale (z.B. Kanten oder Gradienten) wieder in zugehörige Bilddatensätze umgewandelt werden. Insbesondere kann eine geeignete Kombination von Faltungsschichten und Entfaltungsschichten als Autoencoder wirken. Weiterhin haben die Erfinder erkannt, dass durch die Verwendung von Residualblöcken die Schichten nahe der Eingabeschichten des neuronalen Netzwerks besser trainiert werden können, und Probleme mit verschwindenden Gradienten gelöst werden können.
  • Nach einem weiteren Aspekt der Erfindung umfasst der Eingabebilddatensatz eine zeitliche Abfolge von Eingabebilddaten des ersten Untersuchungsvolumens, und wobei der Ergebnisbilddatensatz eine zeitliche Abfolge von Ergebnisbilddaten des ersten Untersuchungsvolumens umfasst.
  • Die Erfinder haben erkannt, dass das insbesondere das Bildrauschen in zeitlich unabhängigen Aufnahmen in guter Näherung auch statistisch unabhängig ist. Dadurch kann durch die Verwendung einer zeitlichen Abfolge von Eingabebilddaten als Eingabedaten der trainierten Generatorfunktion besonders gut ein Ergebnisbilddatensatz mit dem vorgegebenen Ergebnisbildparameter erzeugt werden. Dies gilt auch, wenn die mehreren Ergebnisbilddaten eine unterschiedliche Abbildungsgeometrie aufweisen (beispielsweise bezüglich unterschiedlicher Projektionsrichtungen aufgenommen wurden).
  • Nach einem weiteren Aspekt der Erfindung wurde die trainierte Generatorfunktion und/oder die trainierte Klassifikatorfunktion durch ein Verfahren zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion gemäß der Erfindung, insbesondere gemäß dem zweiten Aspekt der Erfindung bereitgestellt.
  • Die Erfindung betrifft in einem zweiten Aspekt ein Verfahren zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierte Klassifikatorfunktion. Hierbei wird ein Eingabebilddatensatzes und ein Vergleichsbilddatensatzes eines ersten Untersuchungsvolumens empfangen, insbesondere mittels einer Trainingsschnittstelle. Weiterhin wird, ebenfalls insbesondere mittels der Schnittstelle, ein Ergebnisbildparameters empfangen, wobei der Ergebnisbildparameter eine Eigenschaft des Vergleichsbilddatensatzes betrifft.
  • Das Verfahren umfasst weiterhin ein Bestimmen eines Ergebnisbilddatensatzes des ersten Untersuchungsvolumens durch Anwendung einer trainierten Generatorfunktion auf Eingabedaten, insbesondere mittels einer Recheneinheit, wobei die Eingabedaten auf dem Eingabebilddatensatz und dem Ergebnisbildparameter basieren. Weiterhin wird, insbesondere ebenfalls mittels der Recheneinheit, ein Ergebnisklassifikator und ein Vergleichsklassifikator durch Anwendung einer trainierten Klassifikatorfunktion auf den Ergebnisbilddatensatz und den Vergleichsbilddatensatz bestimmt. Insbesondere wird hierbei der Ergebnisklassifikator durch Anwendung der trainierten Klassifikatorfunktion auf den Ergebnisbilddatensatz bestimmt, und der Vergleichsklassifikator wird durch Anwendung der trainierten Klassifikatorfunktion auf den Vergleichsbilddatensatz bestimmt.
  • Das Verfahren umfasst weiterhin ein Anpassen eines Parameters der trainierten Generatorfunktion und/oder eines Parameters der trainierten Klassifikatorfunktion basierend auf dem Ergebnisklassifikator und dem Vergleichsklassifikator, insbesondere basierend auf einem Vergleich des Ergebnisklassifikators und des Vergleichsklassifikators. Weiterhin werden die trainierte Generatorfunktion und/oder die trainierte Klassifikatorfunktion bereitgestellt, wobei das Bereitstellen insbesondere ein Speichern, Übermitteln und/oder Anzeigen der trainierten Generatorfunktion und/oder der trainierten Klassifikatorfunktion umfassen kann.
  • Im Verfahren zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion kann der Eingabebilddatensatz auch als Trainingseingabebilddatensatz bezeichnet werden, der Ergebnisbilddatensatz kann auch als Trainingsergebnisbilddatensatz bezeichnet werden, und der Vergleichsbilddatensatz kann insbesondere auch als Trainingsvergleichsbilddatensatz bezeichnet werden. Weiterhin kann in diesem Verfahren der Ergebnisbildparameter auch als Trainingsergebnisbildparameter bezeichnet werden.
  • Ein Bildklassifikator eines Bilddatensatzes umfasst insbesondere einen Wahrscheinlichkeitswert und/oder einen Bildparameter des Bilddatensatzes. Der Wahrscheinlichkeitswert entspricht hierbei insbesondere der Wahrscheinlichkeit, dass der Bilddatensatz einem realen Bilddatensatz entspricht.
  • Der Ergebnisklassifikator ist insbesondere ein Bildklassifikator des Ergebnisbilddatensatzes. Der Vergleichsklassifikator ist insbesondere ein Bildklassifikator des Vergleichsbilddatensatzes.
  • Das Anpassen des Parameters erfolgt insbesondere durch einen GA-Algorithmus. Das Anpassen des Parameters kann insbesondere durch Optimierung einer Kostenfunktion erfolgen, beispielsweise mittels Rückpropagation. Die Kostenfunktion kann hierbei insbesondere auf dem Ergebnisklassifikator und dem Vergleichsklassifikator basieren. Insbesondere kann die Kostenfunktion hierbei auf dem Wahrscheinlichkeitswert des Ergebnisklassifikators und dem Wahrscheinlichkeitswert des Vergleichsklassifikators basieren, und/oder die Kostenfunktion kann auf einem Vergleich des Bildparameters des Ergebnisklassifikators und des Bildparameters des Vergleichsklassifikators basieren. Die Kostenfunktion kann insbesondere auf dem Wahrscheinlichkeitswert des Ergebnisklassifikators basieren, indem die Kostenfunktion auf einer Abweichung des Wahrscheinlichkeitswertes des Ergebnisklassifikators von 0 basiert, und die Kostenfnktion kann insbesondere auf dem Wahrscheinlichkeitswert des Vergleichsklassifikators basieren, indem die Kostenfunktion auf einer Abweichung des Wahrscheinlichkeitswertes des Vergleichsklassifikators von 1 basiert.
  • Die Erfinder haben erkannt, dass durch das beschriebene Verfahren eine trainierte Generatorfunktion bereitgestellt werden kann, die Ergebnisbilddatensätze erzeugt, deren Eigenschaften den jeweiligen Vergleichsbilddatensätzen entsprechen und einen ähnlichen Gesamteindruck aufweisen.
  • Durch die Tatsache, dass der Ergebnisbildparameter eine Eigenschaft des Vergleichsbilddatensatzes beschreibt, und das Training innerhalb eines GA-Algorithmus erfolgt, durch dessen Optimierung Ergebnisbilddatensätze mit ähnlichen oder gleichen Eigenschaften wie die Vergleichsbilddatensätze erzeugt werden können, werden auch die Eigenschaften des Ergebnisbilddatensatzes durch den Ergebnisbildparameter beschrieben. Dadurch ist es also möglich, mit dem beschriebenen Verfahren eine trainierte Generatorfunktion bereitzustellen, die artifizielle Ergebnisbilddatensätze mit vorgegebenen Parametern erzeugen kann.
  • Die Erfindung betrifft in einem dritten Aspekt ein Bereitstellungssystem zum Bereitstellen eines Ergebnisbilddatensatzes, umfassend eine Schnittstelle und eine Recheneinheit,
    • - wobei die Schnittstelle zum Empfangen eines Eingabebilddatensatzes eines ersten Untersuchungsvolumens ausgebildet ist,
    • - wobei die Schnittstelle und/oder die Recheneinheit zum Empfangen oder Bestimmen eines Ergebnisbildparameters ausgebildet sind,
    • - wobei die Recheneinheit weiterhin zum Bestimmen eines Ergebnisbilddatensatzes des ersten Untersuchungsvolumens durch Anwendung einer trainierten Generatorfunktion auf Eingabedaten ausgebildet ist, wobei die Eingabedaten auf dem Eingabebilddatensatz und dem Ergebnisbildparameter basieren, wobei der Ergebnisbildparameter eine Eigenschaft des Ergebnisbilddatensatzes betrifft, und wobei ein Parameter der trainierten Generatorfunktion auf einem GA-Algorithmus basiert,
    • - und wobei die Schnittstelle weiterhin zum Bereitstellen des Ergebnisbilddatensatzes ausgebildet ist.
  • Ein solches Bereitstellungssystem kann insbesondere dazu ausgebildet sein, die zuvor beschriebenen erfindungsgemäßen Verfahren zum Bereitstellen eines Ergebnisbilddatensatzes und ihre Aspekte auszuführen. Das Bereitstellungssystem ist dazu ausgebildet, diese Verfahren und ihre Aspekte auszuführen, indem die Schnittstelle und die Recheneinheit ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen.
  • Die Erfindung betrifft in einem vierten Aspekt eine Röntgenvorrichtung, umfassend eine Röntgenquelle und einen Röntgendetektor, weiterhin umfassend ein Bereitstellungssystem nach dem dritten Aspekt der Erfindung. Bei einer Röntgenvorrichtung kann es sich insbesondere um eine C-Bogen-Röntgenvorrichtung oder um einen Computertomographen handeln.
  • Die Erfindung betrifft in einem möglichen fünften Aspekt ein Trainingssystem zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierte Klassifikatorfunktion, umfassend eine Trainingsschnittstelle und eine Trainingsrecheneinheit,
    • - wobei die Trainingsschnittstelle zum Empfangen eines Eingabebilddatensatzes und eines Vergleichsbilddatensatzes eines ersten Untersuchungsvolumens ausgebildet ist,
    • - wobei die Trainingsschnittstelle weiterhin zum Empfangen eines Ergebnisbildparameters ausgebildet ist, wobei der Ergebnisbildparameter eine Eigenschaft des Vergleichsbilddatensatzes betrifft,
    • - wobei die Trainingsrecheneinheit zum Bestimmen eines Ergebnisbilddatensatzes des ersten Untersuchungsvolumens durch Anwendung einer trainierten Generatorfunktion auf Eingabedaten ausgebildet ist, wobei die Eingabedaten auf dem Eingabebilddatensatz und dem Ergebnisbildparameter basieren,
    • - wobei die Trainingsrecheneinheit weiterhin zum Bestimmen eines Ergebnisklassifikators und eines Vergleichsklassifikators durch Anwendung einer trainierten Klassifikatorfunktion auf den Ergebnisbilddatensatz und den Vergleichsbilddatensatz ausgebildet ist,
    • - wobei die Trainingsrecheneinheit weiterhin zum Anpassen eines Parameters der trainierten Generatorfunktion und/oder der trainierten Klassifikatorfunktion basierend auf dem Ergebnisklassifikator und dem Vergleichsklassifikator ausgebildet ist,
    • - wobei die Trainingsschnittstelle weiterhin zum Bereitstellen der trainierten Generatorfunktion und/oder der trainierten Klassifikatorfunktion ausgebildet ist.
  • Ein solches Trainingssystem kann insbesondere dazu ausgebildet sein, die zuvor beschriebenen erfindungsgemäßen Verfahren zum Bereitstellen eine trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion auszuführen. Das Trainingssystem ist dazu ausgebildet, diese Verfahren und ihre Aspekte auszuführen, indem die Trainingsschnittstelle und die Trainingsrecheneinheit ausgebildet sind, die entsprechenden Verfahrensschritte auszuführen.
  • Die Erfindung betrifft in einem sechsten Aspekt ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher eines Bereitstellungssystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem ausgeführt werden; und/oder welches direkt in einen Trainingsspeicher eines Trainingssystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Trainingssystem ausgeführt werden.
  • Insbesondere betrifft die Erfindung ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher eines Bereitstellungssystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem ausgeführt werden.
  • Insbesondere betrifft die Erfindung ein Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Trainingsspeicher eines Trainingssystems ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Trainingssystem ausgeführt werden.
  • Die Erfindung betrifft in einem siebten Aspekt ein computerlesbares Speichermedium, auf welchem von einem Bereitstellungssystem lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem ausgeführt werden; und/oder auf welchem von einem Trainingssystem lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Trainingssystem ausgeführt werden.
  • Insbesondere betrifft die Erfindung ein computerlesbares Speichermedium, auf welchem von einem Bereitstellungssystem lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem ausgeführt werden.
  • Insbesondere betrifft die Erfindung ein computerlesbares Speichermedium, auf welchem von einem Trainingssystem lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion und dessen Aspekte auszuführen, wenn die Programmabschnitte von dem Trainingssystem ausgeführt werden.
  • Die Erfindung betrifft in einem achten Aspekt ein Computerprogramm oder ein computerlesbares Speichermedium, umfassend eine trainierte Generatorfunktion und/oder eine trainierte Klassifikatorfunktion, bereitgestellt durch ein Verfahren zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierten Klassifikatorfunktion.
  • Eine weitgehend softwaremäßige Realisierung hat den Vorteil, dass auch schon bisher verwendete Bereitstellungssysteme und Trainingssysteme auf einfache Weise durch ein Software-Update nachgerüstet werden können, um auf die erfindungsgemäße Weise zu arbeiten. Ein solches Computerprogrammprodukt kann neben dem Computerprogramm gegebenenfalls zusätzliche Bestandteile wie z. B. eine Dokumentation und/oder zusätzliche Komponenten, sowie Hardware-Komponenten, wie z.B. Hardware-Schlüssel (Dongles etc.) zur Nutzung der Software, umfassen.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Durch diese Beschreibung erfolgt keine Beschränkung der Erfindung auf diese Ausführungsbeispiele. In verschiedenen Figuren sind gleiche Komponenten mit identischen Bezugszeichen versehen. Die Figuren sind in der Regel nicht maßstäblich. Es zeigen:
    • 1 ein Untersuchungsvolumen und verschiedene Bilddatensätze des Untersuchungsvolumens,
    • 2 ein erstes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte,
    • 3 ein zweites Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte,
    • 4 ein drittes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte,
    • 5 ein viertes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte,
    • 6 ein erstes Ausführungsbeispiel des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes,
    • 7 ein zweites Ausführungsbeispiel des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes,
    • 8 ein drittes Ausführungsbeispiel des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes,
    • 9 ein viertes Ausführungsbeispiel des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes,
    • 10 ein Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer trainierten Generatorfunktion und/oder einer trainierte Klassifikatorfunktion,
    • 11 ein Bereitstellungssystem,
    • 12 ein Trainingssystem,
    • 13 eine Röntgenvorrichtung.
  • 1 zeigt ein Untersuchungsvolumen VOL und verschiedene Bilddatensätze des Untersuchungsvolumens VOL. Im dargestellten Ausführungsbeispiel handelt es sich beim Untersuchungsvolumen VOL um ein künstliches Untersuchungsvolumen, und bei den Bilddatensätzen um Simulationen einer Bildgebung des künstlichen Untersuchungsvolumens.
  • Die dargestellten Bilddatensätze des Untersuchungsvolumens VOL sind durch zwei Bildparameter p1 , p2 charakterisiert. Hierbei betrifft der erste Bildparameter p1 die bei der Bildgebung verwendete Röntgendosis, und der zweite Bildparameter p2 beschreibt die bei der Bildgebung verwendete Röntgenvorrichtung (bzw. die bei der Bildgebung verwendete Röntgenquelle XSYS.SRC und den bei der Bildgebung verwendeten Röntgendetektor XSYS.DTC).
  • Hierbei für den ersten Bildparameter p1 drei verschiedene Werte dargestellt (p1,1 „ultra-low dose“ bzw. „sehr niedrige Dosis“, p1,2 „low dose“ bzw. „niedrige Dosis“ und p1,3 „medium dose“ bzw. „mittlere Dosis“), und für den zweiten Bildparameter p2 sind ebenfalls drei verschiedene Werte dargestellt (P2,1 „System A“, p2,2 „System B“ und p2,3 „System C“). Für jede der neun Kombinationen des ersten Bildparameters p1 und des zweiten Bildparameters p2 ist ein Bilddatensatz dargestellt, der durch diese Kombination des ersten Bildparameters p1 und des zweiten Bildparameters p2 beschrieben wird.
  • Beispielsweise wird ein Eingabebilddatensatz ID durch die Parameterkombination (p1,1 , p2,1) beschrieben. Ist eine trainierte Bildverarbeitungsfunktion oder ein Arzt aber auf eine abweichende Parameterkombination abgestimmt, beispielsweise die Parameterkombination (p1,3 , p2,2 ), so kann mittels der Erfindung ein Ergebnisbilddatensatz OD erzeugt werden, der durch diese Parameterkombination beschrieben wird.
  • 2 zeigt ein erstes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte. Die trainierte Generatorfunktion GF wird in diesem ersten Datenflussdiagramm auf zwei verschiedene Eingabedaten angewendet. Im ersten Fall umfassen die Eingabedaten den Eingabebilddatensatz ID (bezeichnet mit dem Formelbuchstaben X), den Ergebnisbildparameter OP (bezeichnet mit dem Formelbuchstaben pY ) und optional den Eingabebildparameter IP (bezeichnet mit dem Formelbuchstaben pX ). In diesem Fall wird der Ergebnisbilddatensatz OD (bezeichnet mit dem Formelbuchstaben Y) berechnet als Y = G(X, pY, pX) bzw. als Y = G(X, pY). Im zweiten Fall umfassen die Eingabedaten den Ergebnisbilddatensatz OD, den Eingabebildparameter IP und optional den Ergebnisbildparameter OP. In diesem Fall wird ein Vergleichseingabebilddatensatz ID-S (bezeichnet mit dem Formelbuchstaben Xs) berechnet als Xs = G(Y, pX, pY) bzw. als Xs = G(Y, px, pY). Insgesamt ergibt sich der Vergleichseingabebilddatensatz ID-S daher als Xs = G(G(X, pY, pX), pX, pY) bzw. als Xs = G(G(X, pY), pX). Sowohl der Ergebnisbilddatensatz OD als auch der Vergleichseingabebilddatensatz ID-S sind hierbei insbesondere synthetische Bilddatensätze.
  • Die trainierte Klassifikatorfunktion DF wird in diesem ersten Datenflussdiagramm ebenfalls auf zwei verschiedene Eingabedaten angewendet. Im ersten Fall wird die trainierte Klassifikatorfunktion DF auf einen Vergleichsbilddatensatz OD-C (bezeichnet mit dem Formelbuchstaben Yc) angewendet, und berechnet einen Wahrscheinlichkeitswert 0 ≤ q(Yc) ≤ 1 und optional einen Klassifikator c(Yc), der einem Schätzwert für den Bildparameter des Vergleichsbilddatensatzes OD-C entspricht. Der Wahrscheinlichkeitswert q(Yc) entspricht hierbei der durch die trainierte Klassifikatorfunktion DF geschätzte Wahrscheinlichkeit, dass es sich beim Eingabewert um einen realen Bilddatensatz handelt. Im zweiten Fall wird die trainierte Klassifikatorfunktion DF auf den Ergebnisbilddatensatz OD angewendet, und berechnet einen Wahrscheinlichkeitswert 0 ≤ q(Y) ≤ 1 und optional einen Klassifikator c(Y). Es gilt also DF(Y) = q(Y) bzw. DF(Y) = (q(Y), c(Y)). Der Vergleichsbilddatensatz OD-C ist hierbei insbesondere ein realer Bilddatensatz.
  • In diesem ersten Datenflussdiagramm ist zu beachten, dass beim Bereitstellen des Ergebnisbilddatensatz OD nur ein Teil des ersten Datenflussdiagramms verwendet wird, nämlich die Bestimmung des Ergebnisbilddatensatzes OD als Y = G(X, pY , pX ) bzw. als Y = G(X, pY ). Die anderen Teile des ersten Datenflussdiagramms werden insbesondere nur beim Training der Generatorfunktion GF bzw. beim Training der Klassifikatorfunktion DF verwendet.
  • Im Folgenden bezeichnet B den Raum der Bilddatensätze, und P bezeichnet den Raum der Parameter. Beispielsweise kann für zweidimensionale Bilddatensätze der Raum der Bilddatensätze B = Rm·n sein (wobei R die reellen Zahlen bezeichnet, und m bzw. n die Anzahl der Pixel bzw. Voxel für jede der Dimensionen), für dreidimensionale Bilddatensätze kann der Raum der Bilddatensätze B = Ri·i·k sein (wobei i, j und k die Anzahl der Pixel bzw. Voxel für jede der Dimensionen bezeichnet). Entsprechen die Bildparameter einem Signal-Rausch-Verhältnis oder eine Röntgendosis, kann der Raum der Bildparameter insbesondere P = R+ sein. Entsprechen die Bildparameter einem verwendeten Röntgendetektor XSYS.DTC, kann der Raum der Bildparameter die Menge MD aller Bezeichnungen von Röntgendetektoren sein. Umfassen die Bildparameter sowohl ein Signal-Rausch-Verhältnis und einen verwendeten Röntgendetektor XSYS.DTC, kann der Raum der Bildparameter insbesondere P = R+ × MD sein.
  • Es ist also die trainierte Generatorfunktion GF eine Funktion GF: B × P → B bzw. GF: B × P2 → B, und die trainierte Klassifikatorfunktion DF ist eine Funktion DF: B → [0, 1] bzw. DF: B → [0, 1] × P.
  • 3 zeigt ein zweites Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte. Das zweite Datenflussdiagramm umfasst Elemente des ersten Datenflussdiagramms für das Bestimmen des Ergebnisbilddatensatzes OD.
  • Im Unterschied zum ersten Datenflussdiagramm werden der Eingabebildparameter IP und der Ergebnisbildparameter OP rechnerisch bestimmt. Hierbei kann die trainierte Klassifikatorfunktion DF verwendet werden, alternativ können der Eingabebildparameter IP und der Ergebnisbildparameter OP auch rechnerisch bestimmt werden.
  • Der Eingabebildparameter IP wird hierbei basierend auf dem Eingabebilddatensatz ID bestimmt, beispielsweise durch px = c(X), mit (q(X), c(X)) = DF(X). Der Ergebnisbildparameter OP wird hierbei basierend auf einem Vergleichsbilddatensatz CD bestimmt (das durch den Formelbuchstaben Z beschrieben wird), beispielsweise durch pY = c(Z), mit (q(Z), c(Z)) = DF(Z). Insbesondere erfolgt in diesem Fall das Bestimmen und das Bereitstellen des Ergebnisbilddatensatzes (OD) nur, falls der Ergebnisbildparameter OP und der Eingabebildparameter IP voneinander abweichen, oder wenn die Abweichung einen gegebenen Schwellenwert überschreitet.
  • 4 zeigt ein drittes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte. Das dritte Datenflussdiagramm umfasst Elemente des ersten Datenflussdiagramms.
  • Im Unterschied zum ersten Datenflussdiagramm ist die trainierte Generatorfunktion GF hierbei eine Funktion GF: B2 × P → B2 bzw. GF: B2 × P2 → B2. Insbesondere bildet die trainierte Generatorfunktion GF einen Eingabebilddatensatz ID, einen Maskenbilddatensatz MD (beschrieben durch den Formelbuchstaben M), einen Ergebnisbildparameter OP und optional einen Eingabebildparameter IP ab. Hierbei ist der Eingabebilddatensatz ID insbesondere ein Füllbilddatensatz. Der Eingabebilddatensatz ID und der Maskenbilddatensatz weißen die gleiche Dimensionalität und die gleiche räumliche Ausdehnung auf. Die trainierte Generatorfunktion GF erzeugt hierbei einen modifizierten Maskenbilddatensatz (bezeichnet durch den Formelbuchstaben M') und einen modifizierten Füllbilddatensatz (bezeichnet durch den Formelbuchstaben X'), wobei zumindest der modifizierte Füllbilddatensatz durch den Ergebnisbildparameter OP beschrieben wird. Es gilt also (X', M') = GF(X, M, pY, pX) bzw. (X', M') = GF(X, M, pY, pX). Der Ergebnisbilddatensatz OD, der in diesem Fall ein Differenzbilddatensatz ist, kann dann beispielsweise durch Y = X' - M' berechnet werden.
  • Insbesondere kann hierbei der Maskenbilddatensatz MD und der Eingabebilddatensatz ID (entsprechend einem Füllbilddatensatz) nicht registriert sein, durch die Anwendung der trainierten Generatorfunktion GF können dann aber der modifizierte Maskenbilddatensatz und der modifizierte Füllbilddatensatz registriert sein.
  • In einer zweiten Anwendung erzeugt die Generatorfunktion GF im dritten Datendiagramm einen Vergleichsfüllbilddatensatz (bezeichnet durch den Formelbuchstaben Xs) und deinen Vergleichsmaskenbilddatensatz (bezeichnet durch den Formelbuch-Stäben Ms) als (Xs, Ms) = GF(X', M', pX, pY) = GF(GF(X, M, pY, pX), pX, pY) bzw. (Xs, Ms) = GF(X', M', pX) = GF(GF(X, M, pY), pX).
  • Das dritte Datenflussdiagramm kann auch die zusätzlichen Elemente des zweiten Datenflussdiagramms umfassen.
  • 5 zeigt ein viertes Datenflussdiagramm der Verfahren gemäß der Erfindung und ihrer Aspekte. Im Unterschied zu dem ersten, dem zweiten und dem dritten Datenflussdiagramm wird in diesem vierten Datenflussdiagramm die trainierte Generatorfunktion GF nicht direkt auf den Eingabebilddatensatz ID angewendet, sondern auf einen Eingabefrequenzdatensatz IFD. Hierbei wird durch eine Transformationsfunktion TF (beispielsweise durch eine Fouriertransformation oder durch eine Waveletzerlegung) der eine Frequenzdarstellung F(ID) des Eingabebilddatensatzes ID erzeugt. Die Frequenzdarstellung F(ID) des Ausgangsdatensatzes umfasst mehrere Frequenzkomponenten FX(1), ..., FX(n), wobei die mehreren Frequenzkomponenten gemäß dem hochgestellten Index nach einer Frequenz aufsteigend geordnet sind. In diesem Ausführungsbeispiel entspricht der Eingabefrequenzdatensatz IFD der ersten Frequenzkomponente FX(1) bezüglich der niedrigsten Frequenz. Der Ergebnisfrequenzdatensatz OFD wird dann durch Anwendung der trainierten Generatorfunktion GF auf den Eingabefrequenzdatensatz IFD ermittelt, hier durch FY (1) = GF(FX (1), pY, pX) bzw. FY (1) = GF(FX (1), pY). Die anderen Frequenzkomponenten der Frequenzdarstellung F(OD) des Ergebnisbilddatensatzes OD können dann hierbei durch eine andere Frequenzfunktion FF transformiert werden, beispielsweise als (FY (2), ..., FY (n)) = FF(FX(2), ..., FX(n)). Der eigentliche Ergebnisbilddatensatz OD wird dann durch Anwendung der inversen Transformationsfunktion TF-1 ermittelt. Insgesamt gilt also Y = TF-1(GF(FX (1) , pY, pX), FF(FX (2), ..., FX (n))) = TF-1(GF(TF(X)(1), pY, px) , FF(TF(X)(2), ..., TF(X)(n))) bzw. Y = TF-1 (GF(FX (1), pY), FF(FX (2), ..., FX (n))) = TF-1(GF(TF(X)(1), pY), FF(TF(X) (2), ..., TF(X) (n))).
  • 6 zeigt ein erstes Ausführungsbeispiel des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes OD. Das erste Ausführungsbeispiel implementiert hierbei insbesondere das in 2 dargestellte erste Datenflussdiagramm.
  • Der erste Schritt des dargestellten ersten Ausführungsbeispiels ist das Empfangen REC-ID eines Eingabebilddatensatzes ID eines ersten Untersuchungsvolumens VOL mittels einer Schnittstelle IF. Insbesondere kann der Eingabebilddatensatz ID vorher mittels einer Röntgenvorrichtung aufgenommen werden.
  • In diesem Ausführungsbeispiel ist der Eingabebilddatensatz ID ein zweidimensionaler Bilddatensatz mit der Ausdehnung 512x512 Pixel. Insbesondere ist der Eingabebilddatensatz ID im DICOM-Format (englischer Akronym für „Digital Imaging and Communications in Medicine“, eine deutsche Übersetzung ist „Digitale Bildgebung und Kommunikation in der Medizin“). Alternativ kann der Eingabebilddatensatz ID eine andere Dimensionalität (insbesondere dreidimensionale oder vierdimensional), eine andere Ausdehnung und/oder ein anderes Format aufweisen.
  • Der nächste Schritt des dargestellten ersten Ausführungsbeispiels ist das Empfangen oder Bestimmen REC-DET-OP eines Ergebnisbildparameters OP. In diesem Ausführungsbeispiel wird der Ergebnisbildparameter OP mittels der Schnittstelle IF empfangen.
  • In diesem Ausführungsbeispiel umfasst der Ergebnisbildparameter OP ein Signal-Rausch-Verhältnis sowie eine Typbezeichnung eines Röntgendetektors XSYS.DTC. Mittels des dargestellten Verfahrens soll also ein Ergebnisbilddatensatz OD bestimmt werden, der durch das Signal-Rausch-Verhältnis beschrieben wird und ähnlich einem Bild ist, das mittels des spezifizierten Röntgendetektors XSYS.DTC aufgenommen wurde. Mit anderen Worten betrifft also der Ergebnisbildparameter OP das Signal-Rausch-Verhältnis des Ergebnisbilddatensatzes OD und ein dem Ergebnisbilddatensatz OD zugeordneten Röntgendetektor XSYS.DTC, also Eigenschaften des Ergebnisbilddatensatzes OD.
  • Der Ergebnisbildparameter OP ist hierbei insbesondere ein Paar umfassend eine Zahl (entsprechend dem Signal-Rausch-Verhältnis) und eine Zeichenkette (entsprechend dem Typ des Röntgendetektors XSYS.DTC), ist also insbesondere ein 2-Tupel oder ein zweidimensionaler Vektor. Insbesondere kann ein Ergebnisbildparameter OP, gegeben durch (3.0, „RD 1“) das Signal-Rausch-Verhältnis 3.0 und die Typenbezeichnung „RD 1“ umfassen.
  • Alternativ kann der Ergebnisbildparameter OP auch nur ein Signal-Rausch-Verhältnis umfassen. Alternativ kann der Ergebnisbildparameter OP auch nur eine Typbezeichnung eines Röntgendetektors XSYS.DTC umfassen. Alternativ kann der Ergebnisbildparameter OP auch eine Röntgendosis des Ergebnisbilddatensatzes OD, einen Rauschpegel des Ergebnisbilddatensatzes OD, oder eine dem Ergebnisbilddatensatz OD entsprechende Röntgenquelle XSYS.SRC, oder eine Kombination dieser und/oder anderer Eigenschaften des Ergebnisbilddatensatzes OD umfassen. Im Allgemeinen kann der Ergebnisbildparameter OP also durch ein n-Tupel bzw. durch einen n-dimensionalen Vektor dargestellt werden, wobei insbesondere n = 1 oder n > 1 sein kann.
  • Der nächste Schritt des ersten Ausführungsbeispiels ist das Bestimmen DET-OD eines Ergebnisbilddatensatzes OD des ersten Untersuchungsvolumens VOL durch Anwendung einer trainierten Generatorfunktion GF auf Eingabedaten, wobei die Eingabedaten auf dem Eingabebilddatensatz ID und dem Ergebnisbildparameter OP basieren. Das Bestimmen DET-OD des Ergebnisbilddatensatzes OD erfolgt hierbei insbesondere mittels einer Recheneinheit CU. Hierbei basiert ein Parameter der trainierten Generatorfunktion GF auf einem GA-Algorithmus basiert.
  • In diesem ersten Ausführungsbeispiel umfassen die Eingabedaten den Eingabebilddatensatz ID und den Ergebnisbildparameter OP, insbesondere wird der Ergebnisbilddatensatz OD durch direkte Anwendung der trainierten Generatorfunktion GF auf den Eingabebilddatensatz ID und den Ergebnisbildparameter OP erzeugt. Insbesondere umfassen die Eingabedaten neben dem Eingabebilddatensatz ID und dem Ergebnisbildparameter OP keine weiteren Daten. Insbesondere kann der Ergebnisbilddatensatz OD bestimmt werden durch Y = GF(X, py), wobei die in 2 eingeführte Notation verwendet wird.
  • Alternativ kann der Eingabebilddatensatz ID auch abschnittsweise verarbeitet werden. In diesem Ausführungsbeispiel kann hierbei der Eingabebilddatensatz ID, der zweidimensional ist und eine Ausdehnung von 512x512 Pixeln aufweist, in 16 Abschnitte aufgeteilt werden, die jeweils zweidimensionale Bilddaten bzw. Bilddatensätze mit einer Ausdehnung von 128x128 Pixeln sind. Es sind natürlich auch andere Aufteilungen in Abschnitte möglich, beispielsweise in 64 Abschnitte der Ausdehnung 64x64 Pixeln. Es ist ebenfalls möglich, dass sich die verschiedenen Abschnitte an den Rändern überlappen. Eine Aufteilung in verschiedene Abschnitte ist natürlich auch bei einem dreidimensionalen Eingabebilddatensatz ID und einem vierdimensionalen Eingabebilddatensatz ID möglich.
  • Erfolgt die Verarbeitung abschnittsweise, kann insbesondere die trainierte Generatorfunktion GF mehrfach angewendet werden. Insbesondere kann die trainierte Generatorfunktion GF jeweils genau einmal auf jeden der Abschnitte angewendet werden. Durch die Anwendung der trainierten Generatorfunktion GF werden hierbei Abschnitte des Ergebnisbilddatensatzes OD erzeugt, beispielsweise als Yi = GF(Xi, py), wobei Xi einen der Abschnitte des Eingabebilddatensatzes ID beschreibt, und wobei Yi den korrespondierenden Abschnitt des Ergebnisbilddatensatzes OD beschreibt. Insbesondere kann das Verfahren in diesem Fall einen zusätzlichen Schritt umfassen, der das Kombinieren oder Zusammensetzen des Ergebnisbilddatensatzes OD basierend auf den Abschnitten des Ergebnisbilddatensatzes OD betrifft.
  • Weiterhin basiert in diesem ersten Ausführungsbeispiel ein Parameter der trainierten Generatorfunktion GF auf einem GA-Algorithmus, indem die trainierte Generatorfunktion GF zusammen mit einer trainierten Klassifikatorfunktion DF trainiert wurde. Insbesondere ist die trainierte Generatorfunktion GF das Ergebnis eines erfindungsgemäßen Verfahrens zum Bereitstellen einer trainierten Generatorfunktion GF und/oder eine trainierten Klassifikatorfunktion DF.
  • Die trainierte Generatorfunktion GF ist hierbei insbesondere ein neuronales Netzwerk, insbesondere ein faltendes neuronales Netzwerk (ein englischer Fachbegriff ist „convolutional neural network“) bzw. ein Netzwerk umfassend einen Faltungsschicht (ein englischer Fachbegriff ist „convolution layer“). Auch die trainierte Klassifikatorfunktion DF ist hierbei insbesondere ein neuronales Netzwerk, insbesondere ein faltendes neuronales Netzwerk bzw. ein Netzwerk umfassend einen Faltungsschicht.
  • Der letzte Schritt des dargestellten Ausführungsbeispiels ist das Bereitstellen PROV-OD des Ergebnisbilddatensatzes OD. In diesem ersten Ausführungsbeispiel wird der Ergebnisbilddatensatz OD mittels der Schnittstelle an eine anfordernde Einheit übermittelt. Alternativ kann der Ergebnisbilddatensatz OD auch dargestellt bzw. gespeichert werden.
  • 7 zeigt ein zweites Ausführungsbeispiel des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes OD. Auch das zweite Ausführungsbeispiel implementiert das in der 2 dargestellte erste Datenflussdiagramm.
  • Zusätzlich zu den bereits bezüglich der 6 und dem ersten Ausführungsbeispiel beschriebenen Schritten (die insbesondere alle dort beschriebenen vorteilhaften Aus- und Weiterbildungen umfassen können) umfasst das zweite Ausführungsbeispiel weiterhin das Bestimmen und/oder Empfangen eines Eingabebildparameters IP. Dieser zusätzliche Schritt kann insbesondere mittels der Recheneinheit CU und/oder der Schnittstelle IF durchgeführt werden.
  • Der Eingabebildparameter IP beschreibt hierbei eine Eigenschaft des Eingabebilddatensatzes ID. Insbesondere haben der Eingabebildparameter IP und der Ergebnisparameter OP die gleiche Struktur, d.h. der Eingabebildparameter IP beschreibt die gleichen Eigenschaften eines Bilddatensatzes (bezüglich des Eingabebilddatensatzes ID), wie der Ergebnisbildparameter OP (bezüglich des Ergebnisbilddatensatzes OD) beschreibt.
  • Insbesondere umfasst in diesem zweiten Ausführungsbeispiel der Eingabebildparameter IP ein Signal-Rausch-Verhältnis des Eingabebilddatensatzes ID sowie den Typ des Röntgendetektors XSYS.DTC, mittels dem der Eingabebilddatensatz ID aufgenommen wurde. Insbesondere weicht das Signal-Rausch-Verhältnis des Eingabebildparameters IP vom Signal-Rausch-Verhältnis des Ergebnisbildparameter OP ab, und/oder der Typ des Röntgendetektors XSYS.DTC des Eingabebildparameters IP weicht vom Typ des Röntgendetektors XSYS.DTC des Ergebnisbildparameters OP ab.
  • In diesem zweiten Ausführungsbeispiel wird der Eingabebildparameter IP mittels der Schnittstelle IF empfangen. Alternativ kann der Eingabebildparameter IP basierend auf dem Eingabebilddatensatz ID bestimmt werden. Dies kann insbesondere durch die Anwendung einer trainierten Klassifikatorfunktion DF auf den Eingabebilddatensatz ID erfolgen. Alternativ sind auch andere Arten der Bestimmung des Eingabebildparameters IP möglich, beispielsweise kann der Eingabebildparameter IP basierend auf den Metadaten des Eingabebilddatensatzes ID bestimmt werden.
  • Insbesondere basiert hierbei ein Parameter der trainierten Klassifikatorfunktion DF auf dem GA-Algorithmus, auf dem auch der Parameter der trainierten Generatorfunktion GF basiert. Insbesondere wurden die trainierte Klassifikatorfunktion DF und die trainierte Generatorfunktion GF gemeinsam trainiert. Insbesondere wurde die trainierte Klassifikatorfunktion DF mittels eines erfindungsgemäßen Verfahrens zum Bereitstellen einer trainierten Generatorfunktion GF und/oder einer trainierte Klassifikatorfunktion DF bereitgestellt.
  • Das zweite Ausführungsbeispiel umfasst als optionalen Schritt das Anpassen ADJ-PRM eines Bildgebungsparameters einer Bildgebungseinheit XSYS basierend auf dem Vergleich des Eingabebildparameters IP und des Vergleichsbildparameters CP. In diesem Beispiel wird die Röntgendosis der Röntgenvorrichtung erhöht bzw. verringert, wenn die Abweichung zwischen dem Signal-Rausch-Verhältnis des Eingabebildparameters IP und dem Signal-Rausch-Verhältnis des Vergleichsbildparameters CP einen vorgegebenen Wert überschreitet. Insbesondere kann die Röntgendosis der Röntgenvorrichtung XSYS erhöht werden, wenn das Signal-Rausch-Verhältnis des Eingabebildparameters IP kleiner ist als das Signal-Rausch-Verhältnis des Vergleichsbildparameters CP, und wenn die Abweichung bzw. der Betrag der Abweichung den vorgegebenen Wert überschreitet. Insbesondere kann die Röntgendosis der Röntgenvorrichtung XSYS verringert werden, wenn das Signal-Rausch-Verhältnis des Eingabebildparameters IP größer ist als das Signal-Rausch-Verhältnis des Vergleichsbildparameters CP, und wenn die Abweichung bzw. der Betrag der Abweichung den vorgegebenen Wert überschreitet.
  • 8 zeigt ein drittes Ausführungsbeispiel des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes OD. Das dritte Ausführungsbeispiel implementiert das in der 3 dargestellte zweite Datenflussdiagramm.
  • Das dritte Ausführungsbeispiel umfasst die bezüglich der 6 und der 7 bzw. der bezüglich des ersten und des zweiten Ausführungsbeispiels beschriebenen Schritte, die insbesondere alle dort beschriebenen vorteilhaften Aus- und Weiterbildungen umfassen können.
  • Das dritte Ausführungsbeispiel umfasst weiterhin das Empfangen REC-CD eines Vergleichsbilddatensatzes OD-C eines zweiten Untersuchungsvolumens, wobei das erste Untersuchungsvolumen VOL und das zweite Untersuchungsvolumen sich überlappen und/oder identisch sind. Das Empfangen REC-CD des Vergleichsbilddatensatzes OD-C erfolgt insbesondere mittels der Schnittstelle IF.
  • Der Vergleichsbilddatensatz OD-C kann insbesondere die gleiche Dimensionalität wie der Eingabebilddatensatz ID aufweisen. Weiterhin kann der Vergleichsbilddatensatz OD-C insbesondere bezüglich jeder der Dimensionen die gleiche in Voxeln bzw. Pixeln gemessene Ausdehnung wie der Eingabebilddatensatz ID aufweisen. Es ist aber auch möglich, dass der Eingabebilddatensatz ID und der Vergleichsbilddatensatz OD-C unterschiedliche Ausdehnungen aufweisen.
  • In diesem Ausführungsbeispiel ist der Vergleichsbilddatensatz OD-C ebenfalls ein zweidimensionaler Bilddatensatz mit der Ausdehnung 512x512 Pixeln. Weiterhin sind in diesem Ausführungsbeispiel das erste Untersuchungsvolumen VOL und das zweite Untersuchungsvolumen identisch.
  • Ein weiterer Schritt des dritten Ausführungsbeispiels ist das Bestimmen DET-CP eines Vergleichsbildparameters CP durch Anwendung der trainierten Klassifikatorfunktion DF auf den Vergleichsbilddatensatz OD-C, wobei der Vergleichsbildparameter CP eine Eigenschaft des Vergleichsbilddatensatzes OD-C betrifft, und wobei ein Parameter der trainierten Klassifikatorfunktion DF auf dem GA-Algorithmus basiert. Das Bestimmen DET-CP des Vergleichsbildparameters OD-C erfolgt hierbei insbesondere mittels der Recheneinheit CU
  • Ein weiterer Schritt des dritten Ausführungsbeispiels ist das Vergleichen CMP-IP-CP des Eingabebildparameters IP und des Vergleichsbildparameters CP, insbesondere mittels der Recheneinheit CU.
  • In diesem Ausführungsbeispiel wird das Bestimmen DET-OD des Ergebnisbilddatensatzes OD nur durchgeführt, wenn der Vergleichsbildparameter CP vom Eingabebildparameter IP abweicht. Insbesondere kann ein Abweichen dann vorliegen, wenn eine Differenz des Vergleichsbildparameters CP und des Eingabebildparameters IP über einem vorgegebenen Schwellenwert liegt. Weicht der Vergleichsbildparameter CP nicht vom Eingabebildparameter IP ab, endet END das Verfahren ohne Bestimmen DET-OD des Ergebnisbilddatensatzes OD. Beim Bestimmen DET-OD des Ergebnisbilddatensatzes OD wird der Ergebnisbildparameter OP so gewählt bzw. festgelegt, dass der Ergebnisbildparameter OP dem Vergleichsbildparameter CP entspricht.
  • 9 zeigt ein viertes Ausführungsbeispiel des Verfahrens zum Bereitstellen eines Ergebnisbilddatensatzes OD. Das dritte Ausführungsbeispiel implementiert das in der 5 dargestellte vierte Datenflussdiagramm.
  • Das dritte Ausführungsbeispiel umfasst die bezüglich der 6 und der 7 bzw. der bezüglich des ersten und des zweiten Ausführungsbeispiels beschriebenen Schritte, die insbesondere alle dort beschriebenen vorteilhaften Aus- und Weiterbildungen umfassen können.
  • Das vierte Ausführungsbeispiel umfasst weiterhin das Bestimmen DET-IFD eines Eingabefrequenzdatensatzes IFD basierend auf dem Eingabebilddatensatz ID. Hierbei ist der Eingabefrequenzdatensatz IFD eine Darstellung des Eingabebilddatensatzes ID im Frequenzraum ist (insbesondere eine Komponente der Darstellung des Eingabebilddatensatzes ID im Frequenzraum), in diesem Ausführungsbeispiel ist der Eingabefrequenzbilddatensatz IFD eine Komponente der Waveletzerlegung TF des Eingabebilddatensatzes ID, alternativ kann auch beispielsweise eine Fouriertransformation oder eine Laplacetransformation verwendet werden.
  • Durch Anwendung der Waveletzerlegung TF auf den Eingabebilddatensatz ID wird eine Frequenzdarstellung F(ID) des Eingabebilddatensatzes ID erzeugt. Die Frequenzdarstellung F(ID) des Eingabebilddatensatzes ID umfasst mehrere Frequenzkomponenten FX (1), ..., FX (n), wobei die mehreren Frequenzkomponenten gemäß dem hochgestellten Index nach einer Frequenz aufsteigend geordnet sind. In diesem Ausführungsbeispiel entspricht der Eingabefrequenzdatensatz IFD der ersten Frequenzkomponente Fx (1) bezüglich der niedrigsten Frequenz.
  • In diesem Ausführungsbeispiel basieren weiterhin die Eingabedaten auf dem Eingabefrequenzdatensatz IFD. Durch Anwendung der trainierten Generatorfunktion GF auf die Eingabedaten wird ein Ergebnisfrequenzdatensatz OFD erzeugt, wobei der Ergebnisfrequenzdatensatz OFD eine Darstellung des Ergebnisbilddatensatzes OD (insbesondere eine Komponente der Darstellung des Ergebnisbilddatensatzes OD im Frequenzraum) im Frequenzraum ist.
  • Die anderen Frequenzkomponenten der Frequenzdarstellung F(OD) des Ergebnisbilddatensatzes OD können dann hierbei durch eine andere Frequenzfunktion FF basierend auf den anderen Frequenzkomponenten der Frequenzdarstellung F(ID) des Eingabebilddatensatzes ID bestimmt werden. Der Ergebnisbilddatensatz ID kann dann durch eine inverse Waveletzerlegung TF-1 der Frequenzdarstellung F(OD) des Ergebnisbilddatensatzes bestimmt werden.
  • 10 zeigt ein Ausführungsbeispiel eines Verfahrens zum Bereitstellen einer trainierten Generatorfunktion GF und/oder einer trainierte Klassifikatorfunktion DF.
  • Der erste Schritt des dargestellten Ausführungsbeispiels ist das Empfangen TREC-ID-OD-C eines Eingabebilddatensatzes ID und eines Vergleichsbilddatensatzes OD-C eines ersten Untersuchungsvolumens VOL. Das Empfangen TREC-ID-OD-C wird insbesondere mittels einer Trainingsschnittstelle TIF ausgeführt. Im dargestellten Ausführungsbeispiel sind sowohl der Vergleichsbilddatensatz OD-C als auch der Eingabebilddatensatz ID zweidimensionale Bilddatensätze, wobei die in Pixeln gemessene Ausdehnung des Eingabebilddatensatzes ID bezüglich jeder Dimension mit der in Pixeln gemessenen Ausdehnung des Vergleichsbilddatensatzes OD-C übereinstimmt. Alternativ können der Vergleichsbilddatensatz OD-C als auch der Eingabebilddatensatz ID dreidimensionale oder vierdimensionale Bilddatensätze sein, weiterhin alternativ kann die Ausdehnung des Vergleichsbilddatensatzes OD-C und des Eingabebilddatensatz ID auch abweichen.
  • Der Vergleichsbilddatensatz OD-C wird im Weiteren auch mit dem Formelbuchstaben Yc bezeichnet, der Eingabebilddatensatz ID wird mit dem Formelbuchstaben X bezeichnet.
  • Ein weiterer Schritt des dargestellten Ausführungsbeispiels ist das Empfangen TREC-OP eines Ergebnisbildparameters OP, wobei der Ergebnisbildparameter OP eine Eigenschaft des Vergleichsbilddatensatzes OD-C betrifft. Das Empfangen TREC-OP des Ergebnisbildparameters OP wird insbesondere mittels der Trainingsschnittstelle TIF ausgeführt. In diesem Ausführungsbeispiel betrifft der Ergebnisbildparameter OP das Signal-Rausch-Verhältnis des Vergleichsbilddatensatzes OD-C sowie den bei der Aufnahme des Vergleichsbilddatensatzes OD-C verwendeten Röntgendetektor XSYS.DTC. Der Ergebnisbildparameter OP wird im Weiteren mit dem Formelbuchstaben pY bezeichnet.
  • Ein weiterer Schritt des dargestellten Ausführungsbeispiels ist das Bestimmen TDET-OD eines Ergebnisbilddatensatzes OD des ersten Untersuchungsvolumens VOL durch Anwendung einer trainierten Generatorfunktion GF auf Eingabedaten, wobei die Eingabedaten auf dem Eingabebilddatensatz ID und dem Ergebnisbildparameter OP basieren. Das Bestimmen TDET-OD des Ergebnisbilddatensatzes OD wird insbesondere mittels einer Trainingsrecheneinheit TCU ausgeführt.
  • Im dargestellten Ausführungsbeispiel ist der Ergebnisbilddatensatz OD ebenfalls ein zweidimensionaler Bilddatensatz. Die in Pixeln gemessene Ausdehnung des Ergebnisbilddatensatzes OD ist bezüglich jeder Dimension identisch mit der in Pixeln gemessenen Ausdehnung des Eingabebilddatensatzes ID. Wenn der Eingabebilddatensatz ID alternativ ein dreidimensionaler Bilddatensatz ist, ist der Ergebnisbilddatensatz OD insbesondere auch ein dreidimensionaler Bilddatensatz. Wenn der Eingabebilddatensatz ID alternativ ein vierdimensionaler Bilddatensatz ist, ist der Ergebnisbilddatensatz OD insbesondere auch ein vierdimensionaler Bilddatensatz.
  • Der Ergebnisbilddatensatz OD (im Weiteren auch durch den Formelbuchstaben Y beschrieben) wird in diesem Ausführungsbeispiel als Y = GF(X, pY ) berechnet. Alternativ kann im Verfahren weiterhin ein Eingabebildparameters IP (bezeichnet mit dem Formelbuchstaben px) empfangen oder bestimmt werden, wobei der Eingabebildparameter IP eine Eigenschaft des Eingabebilddatensatzes ID betrifft. In diesem Fall kann der Ergebnisbilddatensatz OD durch Y = GF(X, py, px) bestimmt werden.
  • Ein weiterer Schritt des dargestellten Ausführungsbeispiels ist das Bestimmen TDET-CL eines Ergebnisklassifikators und eines Vergleichsklassifikators durch Anwendung einer trainierten Klassifikatorfunktion DF auf den Ergebnisbilddatensatz OD und den Vergleichsbilddatensatz OD-C, insbesondere mittels der Trainingsrecheneinheit TCU. Im Weiteren werden der Ergebnisklassifikator durch den Formelbuchstaben c(Y) und der Vergleichsklassifikator durch den Formelbuchstaben c(Yc) beschrieben.
  • Im dargestellten Ausführungsbeispiel ist die trainierte Klassifikatorfunktion DF eine Funktion DF: B → [0, 1] × P. Der Ergebnisklassifikator ergibt sich insbesondere durch (q(Y), c(Y)) = DF(Y), wobei q(Y) die von der trainierten Klassifikatorfunktion DF ermittelte Wahrscheinlichkeit entspricht, dass der Ergebnisbilddatensatz OD ein realer Bilddatensatz ist. Der Vergleichsklassifikator ergibt sich insbesondere durch (q(Yc), c(Yc)) = DF(Yc), wobei q(Yc) die von der trainierten Klassifikatorfunktion DF ermittelte Wahrscheinlichkeit entspricht, dass der Vergleichsbilddatensatz OD-C ein realer Bilddatensatz ist.
  • Ein weiterer Schritt des dargestellten Ausführungsbeispiels ist das Anpassen TADJ eines Parameters der trainierten Generatorfunktion GF und/oder der trainierten Klassifikatorfunktion DF basierend auf einem Vergleich des Ergebnisklassifikators und des Vergleichsklassifikators, insbesondere mittels der Trainingsrecheneinheit TCU.
  • Im Folgenden werden jeweils mögliche Kostenfunktionen K(GF) der trainierten Generatorfunktion GF und mögliche Kostenfunktionen K(DF) der trainierten Klassifikatorfunktion DF beschrieben. Es ist aber natürlich jederzeit möglich, andere Kostenfunktionen zu verwenden. Hierbei werden die Kostenfunktionen im Kontext entweder der trainierten Generatorfunktion GF oder trainierten Klassifikatorfunktion DF beschrieben. Dies ist aber so zu verstehen, dass Elemente der Kostenfunktionen jeweils auch für die andere trainierte Funktion verwendet werden können. Die einzelnen Komponenten der Kostenfunktionen K(GF), K(DF) können insbesondere durch vorgegebene Gewichte unterschiedlich gewichtet werden.
  • Wenn die trainierte Klassifikatorfunktion DF eine Funktion DF: B → [0, 1] ist, kann die Kostenfunktion K(DF) der trainierten Klassifikatorfunktion DF beispielsweise eine Adversialkostenfunktion K(DF) A = - BCE(DF(Yc), 1) - BCE(DF(Y), 0) = - BCE(q(Yc), 1) - BCE(q(Y), 0) umfassen, wobei BCE die binäre Kreuzentropie (ein englischer Fachbegriff ist „binary crossentropy“) bezeichnet mit BCE(z, z') = z'log(z) + (1-z')log(1-z). Insbesondere ist also die Adversialkostenfunktion gegeben durch K (DF) A = - log(DF(Yc)) - log(1 - DF(Y)) = - log(q(Yc)) - log(1 - q(Y)) = - log(q(Yc)) - log(1 - q(GF(X, py))). Bei einer Minimierung dieser Kostenfunktion wird die trainierte Klassifikatorfunktion DF dazu ausgebildet, möglichst gut zwischen realen Bilddaten (entsprechend den Vergleichsbilddatensätzen OD-C) und von der trainierten Generatorfunktion GF erzeugten synthetischen Bilddaten (entsprechend den Ergebnisbilddatensätzen OD) zu unterscheiden.
  • Für die Kostenfunktion K(GF) der trainierten Generatorfunktion GF kann insbesondere ebenfalls eine Adversialkostenfunktion K(GF) A = - BCE(DF(Y), 1) = - log(q(Y)) = - log(q(GF(X, py))) verwendet werden. Bei einer Minimierung dieser Kostenfunktion wird die trainierte Generatorfunktion GF dazu ausgebildet, derartige Ergebnisbilddatensätze OD zu erzeugen, die von der trainierten Klassifikatorfunktion DF fälschlicherweise als reale Bilddaten klassifiziert werden.
  • Ist die trainierte Klassifikatorfunktion DF eine Funktion DF: B → [0, 1] × P, so kann die Kostenfunktion K(DF) neben dem bereits definierten Adversialkostenfunktion K (DF) A einen weiteren Anteil (Klassifikationskostenfunktion KP) aufweisen, der Abweichungen der Bildparameter quantifiziert. Beispielsweise ist es möglich, eine Klassifikationskostenfunktion KP zu verwenden, mit KP = |c(Y) - c(Yc) |n = |c(GF(X, py)) - c(Yc) |n oder KP = |c(Y) - py|n = |c(GF(X, py)) - py|n, wobei |A|n die n-Norm von A bezeichnet, insbesondere eine 1-Norm oder eine 2-Norm. Die Klassifikationskostenfunktion KP kann insbesondere auch in der Kostenfunktion K(GF) der trainierten Generatorfunktion GF verwendet werden. Hierbei kann insbesondere im Fall, in dem ein Bildparameter direkt basierend auf einem Bilddatensatz gemessen werden kann, der Klassifikator c(Y) entweder durch Anwendung der trainierten Klassifikatorfunktion DF oder durch direkte Berechnung bestimmt werden.
  • Ist der Ergebnisbildparameter OP ein Element aus einer Menge (z.B. der verwendete Röntgendetektor XSYS.DTC), dann kann pY definiert werden als Einheitsvektor, dessen Dimension der Mächtigkeit der Menge entspricht, und der nur Elemente 0 und 1 annehmen kann. In diesem Fall sind dann auch c(Y) und c(Yc) Vektoren der gleichen Dimension, entweder der gleichen Gestalt wie pY oder mit Einträgen zwischen 0 und 1, die jeweils einer Wahrscheinlichkeit entsprechen. Eine Norm |c(Y) - c(Yc) |n kann in diesem Fall als Summe der Normen der einzelnen Komponenten aufgefasst werden. Dies gilt auch, wenn der Ergebnisbildparameter OP ein Objekt mit einer höheren Dimension ist, auch in diesem Fall kann eine Norm |c(Y) - c(Yc) |n als Summe der Normen der einzelnen Dimensionen aufgefasst werden.
  • Die Kostenfunktion K(GF) der trainierten Generatorfunktion GF kann weiterhin eine zyklische Konsistenzkostenfunktion KCC und eine Informationsverlustkostenfunktion KIL umfassen. Der Beitrag KCC der zyklischen Konsistenzkostenfunktion ist gegeben durch KCC = |X - Xc|m = |X - GF(GF(X), py) px) |m, bzw. KCC = |X - GF(GF(X), py, px) px, py) |m, wobei |A|m die m-Norm von A bezeichnet. Insbesondere kann m = 1 und m = 2 gewählt werden. Da X und Xc Bilddatensätze sind, kann die Norm jeweils pixelweise bzw. voxelweise berechnet werden. Eine Minimierung der zyklischen Konsistenzkostenfunktion führt dazu, dass die zweifache Anwendung der trainierten Generatorfunktion GF mit vertauschten Bildparametern möglichst ähnlich einer Identitätsabbildung ist (und damit ähnlich wie ein Autoencoders wirkt), und somit die Erzeugung von Bilddaten bei anderen Parametern mit wenig Fehlern behaftet ist.
  • Der Beitrag KIL der Informationsverlustkostenfunktion berechnet sich als K IL = i n s ( i )   σ ( i ) | GF ( X , p y ) X s ( i ) | 1
    Figure DE102019207238A1_0001
    wobei π die Menge der Pixel bzw. Voxel von X bzw. GF(X, py) bezeichnet, wobei σ(i) eine Menge von Umgebungen des Pixels i bezeichnet (beispielsweise die 3x3 Umgebung, die 5x5 Umgebung und die 7x7 Umgebung im zweidimensionalen Fall, oder die 3x3x3 Umgebung, die 5x5x5 Umgebung und die 7x7x7 Umgebung im dreidimensionalen Fall), und <GF(X, py) - X>s(i) den Mittelwert der Differenz GF(X, py) - X in der Umgebung s(i) des Pixels i bezeichnet. Weiterhin bezeichnet |A|i die 1-Norm von A, wobei insbesondere m = 1 und m = 2 gewählt werden kann. Die Verwendung einer Informationsverlustkostenfunktion ist insbesondere vorteilhaft, wenn das Bildrauschen nicht unabhängig vom Bildsignal ist, und wenn gleichzeitig der Eingabebilddatensatz ID in mehrere Teilbereiche unterteilt wird, und die trainierte Generatorfunktion GF auf jede dieser Teilbereiche angewendet wird, und der Ergebnisbilddatensatz OD aus den Ergebnissen der Anwendung auf die Teilbereiche zusammengesetzt wird („patchweise Verarbeitung“). In diesem Fall erlaubt die Informationsverlustkostenfunktion der trainierten Generatorfunktion GF, den signalabhängigen Anteil des Bildrauschens besser zu verstehen und nachzuempfinden.
  • Die gesamte zu minimierende Kostenfunktion K(GF) der trainierten Generatorfunktion GF kann also gegeben sein durch K(GF) = µ(GF) A·K(GF) A + µ(GF) P·KP + µCC · KCC + µIL · KIL, wobei µ jeweils ein Gewichtungsfaktor ist (der jeweils auch 0 sein kann). Die gesamte zu minimierende Kostenfunktion K(DF) der trainierten Klassifikatorfunktion DF kann also gegeben sein durch K(DF) = µ(DF) A·K(DF) A + µ(DF) P·KP, wobei µ jeweils ein Gewichtungsfaktor ist (der jeweils auch 0 sein kann). Die Parameter der trainierten Generatorfunktion GF und der trainierten Klassifikatorfunktion DF können beispielsweise in dem Fachmann bekannter Weise durch Rückpropagation angepasst werden, es sind natürlich auch andere Methoden der Minimierung anwendbar. Wenn die trainierte Generatorfunktion GF und die trainierte Klassifikatorfunktion DF neuronale Netzwerke sind, kann die jeweilige Kostenfunktion insbesondere durch Anpassung von Parametern der trainierten Generatorfunktion GF und/oder der trainierten Klassifikatorfunktion DF erfolgt.
  • Der letzte Schritt des dargestellten Ausführungsbeispiels ist das Bereitstellen TPROV der trainierten Generatorfunktion GF und/oder der trainierten Klassifikatorfunktion DF. Hierbei werden in diesem Ausführungsbeispiel sowohl die trainierte Generatorfunktion GF und die trainierte Klassifikatorfunktion DF gespeichert. Alternativ oder zusätzlich können die trainierte Generatorfunktion GF und die trainierte Klassifikatorfunktion DF auch an einen Empfänger übermittelt werden.
  • 11 zeigt ein Bereitstellungssystem PRVS, 12 zeigt ein Trainingssystem TRS. Das dargestellte Bereitstellungssystem PRVS ist ausgebildet, ein erfindungsgemäßes Verfahren zum Bereitstellen eines Ergebnisbilddatensatzes OD auszuführen. Das dargestellte Trainingssystem TRS ist dazu ausgebildet, ein erfindungsgemäßes Verfahren zum Bereitstellen einer trainierten Generatorfunktion GF und/oder einer trainierten Klassifikatorfunktion DF auszuführen. Das Bereitstellungssystem PRVS umfasst eine Schnittstelle IF, eine Recheneinheit CU und eine Speichereinheit MU, das Trainingssystem TRS umfasst eine Trainingsschnittstelle TIF, eine Trainingsrecheneinheit TCU und eine Trainingsspeichereinheit TMU.
  • Bei dem Bereitstellungssystem PRVS und/oder bei dem Trainingssystem TRS kann es sich insbesondere um einen Computer, einen Mikrocontroller oder um einen integrierten Schaltkreis handeln. Alternativ kann es sich bei dem Bereitstellungssystem PRVS und/oder bei dem Trainingssystem TRS um einen realen oder virtuellen Verbund von Computern handeln (ein englischer Fachbegriff für einen realen Verbund ist „Cluster“, ein englischer Fachbegriff für einen virtuellen Verbund ist „Cloud“). Das Bereitstellungssystem PRVS und/oder das Trainingssystem TRS kann auch als virtuelles System ausgebildet sein, das auf einem realen Computer oder einem realen oder virtuellen Verbund von Computern ausgeführt wird (ein englischer Fachbegriff ist „Virtualization“).
  • Bei einer Schnittstelle IF und/oder einer Trainingsschnittstelle TIF kann es sich um eine Hardware- oder Softwareschnittstelle handeln (beispielsweise PCI-Bus, USB oder Firewire). Eine Recheneinheit CU und/oder eine Trainingsrecheneinheit TCU kann Hardware-Elemente oder Software-Elemente aufweisen, beispielsweise einen Mikroprozessor oder ein sogenanntes FPGA (englisches Akronym für „Field Programmable Gate Array“). Eine Speichereinheit MU und/oder eine Trainingsspeichereinheit TMU kann als nicht dauerhafte Arbeitsspeicher (Random Access Memory, kurz RAM) oder als dauerhafter Massenspeicher (Festplatte, USB-Stick, SD-Karte, Solid State Disk) realisiert sein.
  • Die Schnittstelle IF und/oder die Trainingsschnittstelle TIF können insbesondere mehrere Unterschnittstellen umfassen, die unterschiedliche Schritte der jeweiligen Verfahren ausführen.
  • Mit anderen Worten kann die Schnittstelle IF und/oder die Trainingsschnittstelle TIF auch als Vielzahl von Schnittstelen IF bzw. Vielzahl von Trainingsschnittstellen TIF aufgefasst werden. Die Recheneinheit CU und/oder die Trainingsrecheneinheit TCU können insbesondere mehrere Unterrecheneinheiten umfassen, die unterschiedliche Schritte der jeweiligen Verfahren ausführen. Mit anderen Worten kann die Recheneinheit CU und/oder die Trainingsrecheneinheit TCU auch als Vielzahl von Recheneinheiten CU bzw. Vielzahl von Trainingsrecheneinheiten TCU aufgefasst werden.
  • 13 zeigt eine Röntgenvorrichtung XSYS verbunden mit einem Bereitstellungssystem PRVS. Im gezeigten Ausführungsbeispiel handelt es sich bei der Röntgenvorrichtung XSYS um ein C-Bogen-Röntgengerät XSYS. Das C-Bogen-Röntgengerät XSYS umfasst eine Röntgenquelle XSYS.SRC zum Aussenden von Röntgenstrahlen. Weiterhin umfasst das C-Bogen-Röntgengerät XSYS einen Röntgendetektor XSYS.DTC zum Empfangen von Röntgenstrahlen. Die Röntgenquelle XSYS.SRC sowie der Röntgendetektor XSYS.DTC sind an den zwei unterschiedlichen Enden des C-Bogens XSYS.ARM befestigt. Der C-Bogen XSYS.ARM des C-Bogen-Röntgengeräts XSYS ist an einem Stativ XSYS.STC befestigt. Das Stativ XSYS.STC umfasst Antriebselemente, die dazu ausgelegt sind, die Position des C-Bogens XSYS.ARM zu verändern. Insbesondere kann der C-Bogen XSYS.ARM um zwei verschiedene Achsen gedreht werden. Das C-Bogen-Röntgengerät umfasst weiterhin eine Steuer- und Auswerteeinheit XSYS.CTRL sowie eine Patientenlagerungsvorrichtung XSYS.PAT, auf der ein Patient PAT gelagert werden kann. Mittels der Steuer- und Auswerteeinheit XSYS.CTRL kann die Position des C-Bogens XSYS.ARM eingestellt werden, der C-Bogen XSYS.ARM um das Untersuchungsvolumen VOL rotiert werden und Röntgenbilddatensätze des Untersuchungsvolumens VOL aufgenommen werden. Es ist alternativ zum dargestellten Ausführungsbeispiel auch möglich, dass das Bereitstellungssystem PRVS als Teil der Steuer- und Auswerteeinheit XSYS.CTRL ausgeführt ist.
  • Wo noch nicht explizit geschehen, jedoch sinnvoll und im Sinne der Erfindung, können einzelne Ausführungsbeispiele, einzelne ihrer Teilaspekte oder Merkmale mit einander kombiniert bzw. ausgetauscht werden, ohne den Rahmen der hiesigen Erfindung zu verlassen. Mit Bezug zu einem Ausführungsbeispiel beschriebene Vorteile der Erfindung treffen ohne explizite Nennung, wo übertragbar, auch auf andere Ausführungsbeispiele zu.

Claims (16)

  1. Computerimplementiertes Verfahren zum Bereitstellen eines Ergebnisbilddatensatzes (OD), umfassend - Empfangen (REC-ID) eines Eingabebilddatensatzes (ID) eines ersten Untersuchungsvolumens (VOL), - Empfangen oder Bestimmen (REC-DET-OP) eines Ergebnisbildparameters (OP), - Bestimmen (DET-OD) eines Ergebnisbilddatensatzes (OD) des ersten Untersuchungsvolumens (VOL) durch Anwendung einer trainierten Generatorfunktion (GF) auf Eingabedaten, wobei die Eingabedaten auf dem Eingabebilddatensatz (ID) und dem Ergebnisbildparameter (OP) basieren, wobei der Ergebnisbildparameter (OP) eine Eigenschaft des Ergebnisbilddatensatzes (OD) betrifft, und wobei ein Parameter der trainierten Generatorfunktion (GF) auf einem GA-Algorithmus basiert, - Bereitstellen (PROV-OD) des Ergebnisbilddatensatzes (OD).
  2. Verfahren nach dem Anspruch 1, weiterhin umfassend - Empfangen oder Bestimmen (REC-DET-IP) eines Eingabebildparameters (IP), wobei der Eingabebildparameter (IP) eine Eigenschaft des Eingabebilddatensatzes (ID) betrifft, wobei die Eingabedaten weiterhin auf dem Eingabebildparameter (IP) basieren.
  3. Verfahren nach dem Anspruch 1 oder 2, wobei der Eingabebilddatensatz (ID) ein Röntgenbilddatensatz des ersten Untersuchungsvolumens (VOL) ist, wobei der Ergebnisparameter eine oder mehrere der folgenden Eigenschaften des Ergebnisbilddatensatzes (OD) betrifft: - Röntgendosis des Ergebnisbilddatensatzes (OD), - Rauschpegel des Ergebnisbilddatensatzes (OD), - dem Ergebnisbilddatensatz (OD) entsprechende Röntgenquelle (XSYS.SRC) und/oder Röntgendetektor (XSYS.DTC), und wobei optional der Eingabebildparameter (IP) eine oder mehrere der folgenden Eigenschaften des Eingabebilddatensatzes (ID) betrifft: - Röntgendosis des Eingabebilddatensatzes (ID), - Rauschpegel des Eingabebilddatensatzes (ID), - dem Eingabebilddatensatzes (ID) entsprechende Röntgenquelle (XSYS.SRC) und/oder Röntgendetektor (XSYS.DTC).
  4. Verfahren nach einem der Ansprüche 2 oder 3, weiterhin umfassend - Empfangen (REC-CD) eines Vergleichsbilddatensatzes (OD-C) eines zweiten Untersuchungsvolumens, wobei das erste Untersuchungsvolumen (VOL) und das zweite Untersuchungsvolumen sich überlappen und/oder identisch sind, - Bestimmen (DET-CP) eines Vergleichsbildparameters (CP) durch Anwendung einer trainierten Klassifikatorfunktion (DF) auf den Vergleichsbilddatensatz (OD-C), wobei der Vergleichsbildparameter (CP) eine Eigenschaft des Vergleichsbilddatensatzes (OD-C) betrifft, und wobei ein Parameter der trainierten Klassifikatorfunktion (DF) auf dem GA-Algorithmus basiert, - Vergleichen (CMP-IP-CP) des Eingabebildparameters (IP) und des Vergleichsbildparameters (CP), wobei das Bestimmen des Ergebnisbilddatensatzes (OD) durchgeführt wird, wenn der Vergleichsbildparameter (CP) vom Eingabebildparameter (IP) abweicht, und wobei der Ergebnisbildparameter (OP) dem Vergleichsbildparameter (CP) entspricht.
  5. Verfahren nach dem Anspruch 4, weiterhin umfassend: - Anpassen (ADJ-PRM) eines Bildgebungsparameters einer Bildgebungseinheit basierend auf dem Vergleich des Eingabebildparameters (IP) und des Vergleichsbildparameters (CP).
  6. Verfahren nach einem der vorstehenden Ansprüche, weiterhin umfassend: - Bestimmen (DET-IFD) eines Eingabefrequenzdatensatzes basierend auf dem Eingabebilddatensatz (ID), wobei der Eingabefrequenzdatensatz eine Darstellung des Eingabebilddatensatzes (ID) im Frequenzraum ist, wobei die Eingabedaten auf dem Eingabefrequenzdatensatz basieren, wobei die Anwendung der trainierten Generatorfunktion (GF) auf die Eingabedaten einen Ergebnisfrequenzdatensatz erzeugt, wobei der Ergebnisfrequenzdatensatz eine Darstellung des Ergebnisbilddatensatzes (OD) im Frequenzraum ist.
  7. Verfahren nach einem der vorstehenden Ansprüche, wobei der Ergebnisbildparameter (OP) auf eine trainierte Bildverarbeitungsfunktion abgestimmt ist.
  8. Verfahren nach einem der vorstehenden Ansprüche, weiterhin umfassend: - Empfangen (REC-MD) eines Maskenbilddatensatzes eines dritten Untersuchungsvolumens, wobei das erste Untersuchungsvolumen (VOL) und das dritte Untersuchungsvolumen sich überlappen und/oder identisch sind, wobei die Eingabedaten weiterhin auf dem Maskenbilddatensatz basieren.
  9. Verfahren nach einem der vorstehenden Ansprüche, wobei der Parameter der trainierten Generatorfunktion (GF) auf einer zyklischen Konsistenzkostenfunktion und/oder auf einer Informationsverlust-Kostenfunktion basiert.
  10. Verfahren nach einem der vorstehenden Ansprüche, wobei der Eingabebilddatensatz (ID) eine zeitliche Abfolge von Eingabebilddaten des ersten Untersuchungsvolumens (VOL) umfasst, und wobei der Ergebnisbilddatensatz (OD) eine zeitliche Abfolge von Ergebnisbilddaten des ersten Untersuchungsvolumens (VOL) umfasst.
  11. Verfahren zum Bereitstellen einer trainierten Generatorfunktion (GF) und/oder einer trainierte Klassifikatorfunktion (DF), umfassend: - Empfangen (TREC-ID-OD-C) eines Eingabebilddatensatzes (ID) und eines Vergleichsbilddatensatzes (OD-C) eines ersten Untersuchungsvolumens (VOL), - Empfangen (TREC-OP) eines Ergebnisbildparameters (OP), wobei der Ergebnisbildparameter (OP) eine Eigenschaft des Vergleichsbilddatensatzes (OD-C) betrifft, - Bestimmen (TDET-OD) eines Ergebnisbilddatensatzes (OD) des ersten Untersuchungsvolumens (VOL) durch Anwendung der trainierten Generatorfunktion (GF) auf Eingabedaten, wobei die Eingabedaten auf dem Eingabebilddatensatz (ID) und dem Ergebnisbildparameter (OP) basieren, - Bestimmen (TDET-CL) eines Ergebnisklassifikators und eines Vergleichsklassifikators durch Anwendung der trainierten Klassifikatorfunktion (DF) auf den Ergebnisbilddatensatz (OD) und den Vergleichsbilddatensatz (OD-C), - Anpassen (TADJ) eines Parameters der trainierten Generatorfunktion (GF) und/oder der trainierten Klassifikatorfunktion (DF) basierend auf dem Ergebnisklassifikator und dem Vergleichsklassifikator, - Bereitstellen (TPROV) der trainierten Generatorfunktion (GF) und/oder der trainierten Klassifikatorfunktion (DF).
  12. Bereitstellungssystem (PRVS) zum Bereitstellen eines Ergebnisbilddatensatzes (OD), umfassend eine Schnittstelle (IF) und eine Recheneinheit (CU), - wobei die Schnittstelle (IF) zum Empfangen (REC-ID) eines Eingabebilddatensatzes (ID) eines ersten Untersuchungsvolumens (VOL) ausgebildet ist, - wobei die Schnittstelle (IF) und/oder die Recheneinheit (CU) zum Empfangen oder Bestimmen (REC-DET-OP) eines Ergebnisbildparameters (OP) ausgebildet sind, - wobei die Recheneinheit (RU) weiterhin zum Bestimmen (DET-OD) eines Ergebnisbilddatensatzes (OD) des ersten Untersuchungsvolumens (VOL) durch Anwendung einer trainierten Generatorfunktion (GF) auf Eingabedaten ausgebildet ist, wobei die Eingabedaten auf dem Eingabebilddatensatz (ID) und dem Ergebnisbildparameter (OP) basieren, wobei der Ergebnisbildparameter (OP) eine Eigenschaft des Ergebnisbilddatensatzes (OD) betrifft, und wobei ein Parameter der trainierten Generatorfunktion (GF) auf einem GA-Algorithmus basiert, - wobei die Schnittstelle weiterhin zum Bereitstellen (PROV-OD) des Ergebnisbilddatensatzes (OD) ausgebildet ist.
  13. Röntgenvorrichtung (XSYS), umfassend eine Röntgenquelle (XSYS.SRC) und einen Röntgendetektor (XSYS.DTC), weiterhin umfassend ein Bereitstellungssystem (PRVS) nach Anspruch 12.
  14. Computerprogrammprodukt mit einem Computerprogramm, welches direkt in einen Speicher (MU) eines Bereitstellungssystems (PRVS) ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 10 auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem (PRVS) ausgeführt werden; und/oder welches direkt in einen Trainingsspeicher (TMU) eines Trainingssystems (TRS) ladbar ist, mit Programmabschnitten, um alle Schritte des Verfahrens nach dem Anspruch 11 auszuführen, wenn die Programmabschnitte von dem Trainingssystem (TRS) ausgeführt werden.
  15. Computerlesbares Speichermedium, auf welchem von einem Bereitstellungssystem (PRVS) lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach einem der Ansprüche 1 bis 10 auszuführen, wenn die Programmabschnitte von dem Bereitstellungssystem (PRVS) ausgeführt werden; und/oder auf welchem von einem Trainingssystem (TRS) lesbare und ausführbare Programmabschnitte gespeichert sind, um alle Schritte des Verfahrens nach dem Anspruch 11 auszuführen, wenn die Programmabschnitte von dem Trainingssystem (TRS) ausgeführt werden.
  16. Computerprogramm oder computerlesbares Speichermedium, umfassend eine trainierte Generatorfunktion (GF) bereitgestellt durch ein Verfahren nach dem Anspruch 11.
DE102019207238.0A 2019-05-17 2019-05-17 Bereitstellen eines Ergebnisbilddatensatzes Pending DE102019207238A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102019207238.0A DE102019207238A1 (de) 2019-05-17 2019-05-17 Bereitstellen eines Ergebnisbilddatensatzes
US16/871,231 US11636590B2 (en) 2019-05-17 2020-05-11 Providing a result image data set

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019207238.0A DE102019207238A1 (de) 2019-05-17 2019-05-17 Bereitstellen eines Ergebnisbilddatensatzes

Publications (1)

Publication Number Publication Date
DE102019207238A1 true DE102019207238A1 (de) 2020-11-19

Family

ID=73019208

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019207238.0A Pending DE102019207238A1 (de) 2019-05-17 2019-05-17 Bereitstellen eines Ergebnisbilddatensatzes

Country Status (2)

Country Link
US (1) US11636590B2 (de)
DE (1) DE102019207238A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021201855A1 (de) 2021-02-26 2022-09-01 Siemens Healthcare Gmbh Verfahren zur Rauschreduzierung in einem Röntgenbild, Bildverarbeitungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
US11532074B2 (en) 2019-07-17 2022-12-20 Siemens Healthcare Gmbh Providing a resultant image dataset and providing a trained generator function
DE102019208496B4 (de) 2019-06-12 2024-01-25 Siemens Healthcare Gmbh Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
CN113744733B (zh) 2013-02-07 2022-10-25 苹果公司 数字助理的语音触发器
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10460227B2 (en) 2015-05-15 2019-10-29 Apple Inc. Virtual assistant in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
DK201770429A1 (en) 2017-05-12 2018-12-14 Apple Inc. LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT
DK179496B1 (en) 2017-05-12 2019-01-15 Apple Inc. USER-SPECIFIC Acoustic Models
US10303715B2 (en) 2017-05-16 2019-05-28 Apple Inc. Intelligent automated assistant for media exploration
US20200379640A1 (en) * 2019-05-29 2020-12-03 Apple Inc. User-realistic path synthesis via multi-task generative adversarial networks for continuous path keyboard input
US11468890B2 (en) 2019-06-01 2022-10-11 Apple Inc. Methods and user interfaces for voice-based control of electronic devices
US11061543B1 (en) 2020-05-11 2021-07-13 Apple Inc. Providing relevant data items based on context
US11490204B2 (en) 2020-07-20 2022-11-01 Apple Inc. Multi-device audio adjustment coordination

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10156215A1 (de) * 2001-11-15 2003-06-12 Siemens Ag Verfahren zur Verarbeitung medizinisch relevanter Daten
US20190090834A1 (en) * 2017-09-28 2019-03-28 Siemens Healthcare Gmbh Determining a two-dimensional mammography dataset

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9895119B2 (en) * 2014-07-31 2018-02-20 General Electric Company Generation of mask and contrast image data in a continuous acquisition
US9911208B2 (en) * 2016-04-11 2018-03-06 Toshiba Medical Systems Corporation Apparatus and method of iterative image reconstruction using regularization-parameter control
WO2017223560A1 (en) * 2016-06-24 2017-12-28 Rensselaer Polytechnic Institute Tomographic image reconstruction via machine learning
WO2019019199A1 (en) * 2017-07-28 2019-01-31 Shenzhen United Imaging Healthcare Co., Ltd. SYSTEM AND METHOD FOR IMAGE CONVERSION
US10803984B2 (en) 2017-10-06 2020-10-13 Canon Medical Systems Corporation Medical image processing apparatus and medical image processing system
WO2019090533A1 (en) * 2017-11-08 2019-05-16 Shenzhen United Imaging Healthcare Co., Ltd. System and method for diagnositic and treatment
US10937540B2 (en) * 2017-12-21 2021-03-02 International Business Machines Coporation Medical image classification based on a generative adversarial network trained discriminator
WO2019147767A1 (en) * 2018-01-24 2019-08-01 Rensselaer Polytechnic Institute 3-d convolutional autoencoder for low-dose ct via transfer learning from a 2-d trained network
US11062489B2 (en) * 2018-02-13 2021-07-13 Wisconsin Alumni Research Foundation System and method for multi-architecture computed tomography pipeline
KR102220029B1 (ko) * 2018-10-12 2021-02-25 한국과학기술원 뉴럴 네트워크를 이용한 비매칭 저 선량 엑스선 전산단층 촬영 영상 처리 방법 및 그 장치
US10925568B2 (en) * 2019-07-12 2021-02-23 Canon Medical Systems Corporation Apparatus and method using physical model based deep learning (DL) to improve image quality in images that are reconstructed using computed tomography (CT)

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10156215A1 (de) * 2001-11-15 2003-06-12 Siemens Ag Verfahren zur Verarbeitung medizinisch relevanter Daten
US20190090834A1 (en) * 2017-09-28 2019-03-28 Siemens Healthcare Gmbh Determining a two-dimensional mammography dataset

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Bedingte Anweisung und Verzweigung. In: Wikipedia. URL: https://de.wikipedia.org/w/index.php?title=Bedingte_Anweisung_und_Verzweigung&oldid=185434103 , Stand 06.02.2019 [abgerufen am 09.04.2020]. *
Generative Adversarial Networks. In: Wikipedia. URL: https://de.wikipedia.org/w/index.php?title=Generative_Adversarial_Networks&oldid=186990065 , Stand 27.03.2019 [abgerufen am 06.04.2020]. *
NIE, D. et al.: Medical Image Synthesis with Context-Aware Generative Adversarial Networks. arXiv, 2016, URL: https://arxiv.org/abs/1612.05362 [recherchiert am 09.04.2020]. *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019208496B4 (de) 2019-06-12 2024-01-25 Siemens Healthcare Gmbh Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion
US11532074B2 (en) 2019-07-17 2022-12-20 Siemens Healthcare Gmbh Providing a resultant image dataset and providing a trained generator function
DE102019210545B4 (de) 2019-07-17 2024-02-01 Siemens Healthcare Gmbh Bereitstellen eines Ergebnisbilddatensatzes und einer trainierten Generatorfunktion
DE102021201855A1 (de) 2021-02-26 2022-09-01 Siemens Healthcare Gmbh Verfahren zur Rauschreduzierung in einem Röntgenbild, Bildverarbeitungseinrichtung, Computerprogramm und elektronisch lesbarer Datenträger

Also Published As

Publication number Publication date
US11636590B2 (en) 2023-04-25
US20200364858A1 (en) 2020-11-19

Similar Documents

Publication Publication Date Title
DE102019207238A1 (de) Bereitstellen eines Ergebnisbilddatensatzes
DE102019208496B4 (de) Computerimplementierte Verfahren und Vorrichtungen zum Bereitstellen eines Differenzbilddatensatzes eines Untersuchungsvolumens und zum Bereitstellen einer trainierten Generatorfunktion
EP3336800B1 (de) Bestimmen einer trainingsfunktion zum generieren von annotierten trainingsbildern
DE102019215460A1 (de) Verfahren und Vorrichtung zur Rauschreduktion von Bildaufnahmen
EP3462412B1 (de) Bestimmen eines zweidimensionalen mammographiedatensatzes
EP3143592B1 (de) Verfahren und vorrichtung zur reduktion von artefakten in computertomographischen bildern
DE102017221720B3 (de) Bereitstellen eines Patientenmodells eines Patienten
DE102005051620A1 (de) Verfahren zur Rekonstruktion einer tomographischen Darstellung eines Objektes
EP3591611B1 (de) Bestimmen eines differenzbilddatensatzes eines untersuchungsvolumens
DE102020131786A1 (de) Method for metal artifact avoidance in x-ray imaging
EP3640893A1 (de) Verfahren zur rekonstruktion eines dreidimensionalen ergebnisbilddatensatzes
DE102019200270A1 (de) Bereitstellen eines Differenzbilddatensatzes und Bereitstellen einer trainierten Funktion
DE102020212113A1 (de) Generieren modifizierter medizinischer Bilder und Erkennen abnormaler Strukturen
DE102018221943A1 (de) Verfahren zur Artefaktkorrektur von dreidimensionalen Volumenbilddaten
DE102020206059A1 (de) Computerimplementiertes Verfahren und System zum Trainieren eines Auswertungsalgorithmus, Computerprogramm und elektronisch lesbarer Datenträger
DE112017001477T5 (de) Verbesserte bildqualität durch zweistufige temporale rauschunterdrückung
DE102019210545B4 (de) Bereitstellen eines Ergebnisbilddatensatzes und einer trainierten Generatorfunktion
DE102019212929A1 (de) Registrieren eines 2D Bildes mit einem 3D Bild
DE102020212089B3 (de) Verfahren und Vorrichtung zur Bildentrauschung sowie eine Steuereinrichtung, ein bildgebendes System, ein Computerprogrammprodukt und ein computerlesbares Medium dazu
DE102021206417B3 (de) Computerimplementierte Verfahren und Systeme zum Bereitstellen eines Korrekturalgorithmus für ein Röntgenbild und zum Korrigieren eines Röntgenbilds, Röntgeneinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
DE102019217576B4 (de) Identifizieren und Bereitstellen von Fehlausrichtungsbildmerkmalen
DE102020216017A1 (de) Bereitstellen von korrigierten medizinischen Bilddaten
DE102021202672A1 (de) Verfahren zum Bereitstellen einer trainierbaren Funktion zur Bestimmung von synthetischen Bilddaten
DE112021001373T5 (de) Erkennung und korrektur von verschattungen in hyperspektralen netzhautbildern in echtzeit
DE102019217220A1 (de) Computerimplementiertes Verfahren zur Bereitstellung eines Ausgangsdatensatzes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R006 Appeal filed
R008 Case pending at federal patent court
R009 Remittal by federal patent court to dpma for new decision or registration
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE