DE112021001190T5 - Informationsverarbeitungsvorrichtung, -verfahren und -programm - Google Patents

Informationsverarbeitungsvorrichtung, -verfahren und -programm Download PDF

Info

Publication number
DE112021001190T5
DE112021001190T5 DE112021001190.1T DE112021001190T DE112021001190T5 DE 112021001190 T5 DE112021001190 T5 DE 112021001190T5 DE 112021001190 T DE112021001190 T DE 112021001190T DE 112021001190 T5 DE112021001190 T5 DE 112021001190T5
Authority
DE
Germany
Prior art keywords
image
property
base
deriving
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021001190.1T
Other languages
English (en)
Inventor
Akimichi ICHINOSE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of DE112021001190T5 publication Critical patent/DE112021001190T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • G06T2207/30064Lung nodule

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

Eine Informationsverarbeitungsvorrichtung enthält mindestens einen Prozessor, und der Prozessor leitet eine Eigenschaft für mindestens ein vorbestimmtes Eigenschaftselement ab, das sich auf eine in einem Bild enthaltene Struktur von Interesse bezieht. Der Prozessor spezifiziert eine Basisregion, die als eine Basis zum Ableiten der Eigenschaft, die sich auf die Struktur von Interesse bezieht, dient, für jedes Eigenschaftselement und leitet ein Basisbild ab, das die Basisregion enthält.

Description

  • HINTERGRUND DER ERFINDUNG
  • 1. Gebiet der Erfindung
  • Die vorliegende Offenbarung betrifft eine Informationsverarbeitungsvorrichtung, ein Informationsverarbeitungsverfahren und ein Informationsverarbeitungsprogramm zum Unterstützen von Erstellung von Auswertungsberichten und dergleichen.
  • 2. Beschreibung des Standes der Technik
  • In den letzten Jahren haben Fortschritte bei Bildgebungsvorrichtungen wie Computertomographie-(CT)-vorrichtungen und Magnetresonanztomographie-(MRT)-vorrichtungen Bilddiagnose unter Verwendung von hochauflösenden medizinischen Bildern in höherer Qualität ermöglicht. Insbesondere wird, da eine Region einer Läsion durch Bilddiagnose unter Verwendung von CT-Bildern, MRT-Bildern und dergleichen genau spezifiziert werden kann, eine geeignete Behandlung auf der Grundlage des spezifizierten Ergebnisses durchgeführt.
  • Darüber hinaus wird Bilddiagnose auch durchgeführt, indem ein medizinisches Bild via computergestützte Diagnose (computer-aided diagnosis, CAD) unter Verwendung eines Lernmodells, bei dem maschinelles Lernen durch tiefes Lernen oder dergleichen durchgeführt wird, analysiert wird, Eigenschaften wie beispielsweise Form, Dichte, Position und Größe von Strukturen von Interesse wie abnormalen Verschattungskandidaten, die in den medizinischen Bildern enthalten sind, unterschieden werden und diese als ein Analyseergebnis erfasst werden. Das durch CAD erfasste Analyseergebnis wird mit Untersuchungsinformationen, wie beispielsweise einem Patientennamen, Geschlecht, Alter und einer Modalität, die das medizinische Bild erfasst hat, verknüpft und in einer Datenbank gespeichert. Das medizinische Bild und das Analyseergebnis werden an ein Terminal eines Radiologen übertragen, der die medizinischen Bilder auswertet. Der Radiologe wertet das medizinische Bild auf seinem eigenen Terminal aus, indem er sich auf das übertragene medizinische Bild und das übertragene Analyseergebnis bezieht, und erstellt einen Auswertungsbericht.
  • Darüber hinaus wurde ein Verfahren des Spezifizierens einer in einem Bild enthaltenen Struktur von Interesse unter Verwendung eines Lernmodells und des Ableitens einer Region, die als eine Basis zum Spezifizieren der Struktur in dem Bild dient, vorgeschlagen (siehe Selvaraju, Ramprasaath R., et al. „Grad-cam: Visual explanations from deep networks via gradient-based localization.“ Proceedings of the IEEE International Conference on Computer Vision. 2017", nachstehend als Nicht-Patentdokument 1 bezeichnet). Das in Nicht-Patentdokument 1 beschriebene Verfahren ist ein Verfahren, bei dem beispielsweise in einem Bild, das einen Hund und eine Katze enthält, ein Prozess des Spezifizierens jeweils des Hundes und der Katze unter Verwendung eines Lernmodells durchgeführt wird, eine Region, die als eine Basis zum Spezifizieren des Hundes und der Katze dient, spezifiziert wird und die spezifizierte Region beispielsweise durch eine Heatmap oder dergleichen hervorgehoben wird, um das Bild anzuzeigen. Dieses Verfahren wird Gradienten-gewichtetes Class Activation Mapping (Grad-CAM) genannt. Bei dem in Nicht-Patentdokument 1 beschriebenen Verfahren wurde ferner ein Verfahren des Spezifizierens und des Anzeigens einer Region, die Pixel mit einer hohen Vorhersagebewertung enthält und die als eine Basis zum Spezifizieren des Hundes und der Katze dient, durch Verwenden eines Error-Backpropagation-Verfahrens vorgeschlagen. Die Region, die als eine Basis zum Spezifizieren des Hundes dient, ist die Region wie die hängenden Ohren, Augen und Wangen, und die Region, die als eine Basis zum Spezifizieren der Katze dient, ist die Region wie das Streifenmuster des Körpers. Dieses Verfahren wird Guided-Backpropagation genannt. Mit dem in Nicht-Patentdokument 1 beschriebenen Verfahren ist es möglich, die Region zu erkennen, die als eine Basis zum Spezifizieren der Struktur in dem Bild dient. Bei dem in Nicht-Patentdokument 1 beschriebenen Verfahren wurde ferner auch ein Verfahren des Reduzierens des Einflusses von Rauschen, das in einem Bild enthalten ist, durch Hinzufügen von Gauss` schem Rauschen zu dem Bild, um Glätten durchzuführen, vorgeschlagen (siehe „Daniel Smilkov et al., SmoothGrad: removing noise by adding noise, arXiv: 1706.03825, 12. Juni 2017“).
  • Indessen nimmt mit der Verbesserung der Leistungsfähigkeit der Bildgebungsvorrichtung auch die Anzahl an auszuwertenden medizinischen Bildern zu. Da jedoch die Anzahl an Radiologen nicht mit der Anzahl an medizinischen Bildern Schritt gehalten hat, ist es wünschenswert, die Belastung der Bildauswertungsarbeit der Radiologen zu verringern. Daher wurden verschiedene Verfahren vorgeschlagen, um die Erstellung von medizinischen Dokumenten, wie beispielsweise Auswertungsberichten, zu unterstützen. Beispielsweise schlägt JP2019-153250A verschiedene Verfahren zum Erzeugen eines in einem Auswertungsbericht zu enthaltenden Satzes basierend auf von einem Radiologen eingegebenen Schlüsselwörtern und auf Informationen vor, die eine Eigenschaft einer Struktur von Interesse angeben (nachstehend als Eigenschaftsinformationen bezeichnet), die in einem Analyseergebnis eines medizinischen Bildes enthalten ist. Bei den in JP2019-153250A beschriebenen Verfahren wird ein Satz bezüglich medizinischer Versorgung (nachstehend als ein medizinischer Satz bezeichnet) durch Verwenden eines Lernmodells, bei dem maschinelles Lernen durchgeführt wird, um einen Satz zu erzeugen, der die eingegebenen Eigenschaftsinformationen darstellt, erzeugt. Durch automatisches Erzeugen des medizinischen Satzes wie bei dem in JP2019-153250A beschriebenen Verfahren ist es möglich, eine Belastung eines Radiologen zum Zeitpunkt des Erstellens eines medizinischen Dokuments, wie etwa eines Auswertungsberichts, zu reduzieren.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Ein Radiologe kann mehrere Tomographiebilder auswerten, die durch eine Bildgebung mit einer Bildgebungsvorrichtung, wie beispielsweise einer CT-Vorrichtung und einer MRT-Vorrichtung, erhalten wurden, und Kommentare zu Befunden für die Eigenschaft in Bezug auf die Struktur von Interesse, die aus den jeweiligen Tomographiebildern erhalten wurde, in einem Auswertungsbericht beschreiben. In diesem Fall wird der Auswertungsbericht so erstellt, dass ersichtlich ist, in welchem Tomographiebild die in dem Auswertungsbericht beschriebenen Befunde zu erkennen sind. Insbesondere wird ein Auswertungsbericht erstellt, indem ein Bild, das eine Struktur von Interesse mit Befunden enthält, in den Auswertungsbericht eingefügt wird oder indem ein Hyperlink zu einem Bild, das eine Struktur von Interesse mit Befunden enthält, hinzugefügt wird. Das Erstellen eines Auswertungsberichts durch manuelles Spezifizieren eines Bildes, das eine solche Struktur von Interesse enthält, durch einen Radiologen ist jedoch eine Belastung für die Auswertungsarbeit.
  • Die vorliegende Offenbarung wurde unter Berücksichtigung der obigen Umstände gemacht, und eine Aufgabe davon besteht darin, Erstellung von medizinischen Dokumenten wie Auswertungsberichten zu unterstützen.
  • Gemäß einem Aspekt der vorliegenden Offenbarung wird eine Informationsverarbeitungsvorrichtung bereitgestellt, die mindestens einen Prozessor umfasst, wobei der Prozessor so konfiguriert ist, dass er Eigenschaftsinformationen ableitet, die eine Eigenschaft für mindestens ein vorbestimmtes Eigenschaftselement angeben, das sich auf eine in einem Bild enthaltene Struktur von Interesse bezieht, und in dem Bild eine Basisregion, die als eine Basis zum Ableiten der Eigenschaft dient, die sich auf die Struktur von Interesse bezieht, für jedes Eigenschaftselement spezifiziert und ein Basisbild ableitet, in dem die Basisregion spezifiziert ist.
  • Bei der Informationsverarbeitungsvorrichtung gemäß dem Aspekt der vorliegenden Offenbarung kann der Prozessor so konfiguriert sein, dass er in einem Fall, in dem das Bild ein dreidimensionales Bild ist, das aus mehreren Tomographiebildern besteht, für jedes Eigenschaftselement ein Tomographiebild, das die Basisregion enthält, die die Eigenschaft des Eigenschaftselements am deutlichsten darstellt, aus den mehreren Tomographiebildern als das Basisbild auswählt, um das Basisbild abzuleiten.
  • Bei der Informationsverarbeitungsvorrichtung gemäß dem Aspekt der vorliegenden Offenbarung kann der Prozessor so konfiguriert sein, dass er in einem Fall, in dem das Bild ein dreidimensionales Bild ist, das aus mehreren Tomographiebildern besteht, für jedes Eigenschaftselement ein Basisbild, das die Basisregion enthält, die die Eigenschaft des Eigenschaftselements am deutlichsten darstellt, aus den mehreren Tomographiebildern erzeugt, um das Basisbild abzuleiten.
  • Bei der Informationsverarbeitungsvorrichtung gemäß dem Aspekt der vorliegenden Offenbarung kann der Prozessor so konfiguriert sein, dass er die Eigenschaft für das Eigenschaftselement ableitet, bei dem eine Änderung in Bezug auf die Struktur von Interesse zwischen einem ersten Bild, das zu einem ersten Punkt in der Zeit erfasst wurde, und einem zweiten Bild, das zu einem zweiten Punkt in der Zeit erfasst wurde, der sich von dem ersten Punkt in der Zeit unterscheidet, aufgetreten ist, und für das Eigenschaftselement, bei dem die Änderung der Eigenschaft zwischen dem ersten Bild und dem zweiten Bild aufgetreten ist, die Basisregion in mindestens einem von dem ersten Bild oder dem zweiten Bild spezifiziert und das Basisbild ableitet.
  • Bei der Informationsverarbeitungsvorrichtung gemäß dem Aspekt der vorliegenden Offenbarung kann der Prozessor so konfiguriert sein, dass er eine Designationstaste zum Designieren mindestens eines Eigenschaftselements auf einer Anzeige anzeigt und die Designationstaste auswählt, um ein Basisbild für ein der ausgewählten Designationstaste entsprechendes Eigenschaftselement auf der Anzeige anzuzeigen.
  • Bei der Informationsverarbeitungsvorrichtung gemäß dem Aspekt der vorliegenden Offenbarung kann der Prozessor so konfiguriert sein, dass er einen Satz, der Phrasen enthält, die sich auf das Eigenschaftselement beziehen, analysiert, um eine Phrase zu spezifizieren, die sich auf das in dem Satz enthaltene Eigenschaftselement bezieht, und der spezifizierten Phrase Informationen zum Zugreifen auf das Basisbild hinzuzufügen, das als eine Basis zum Ableiten der durch die spezifizierte Phrase dargestellten Eigenschaft dient, und den Satz auf einer Anzeige anzeigt und das Basisbild, das der in dem Satz ausgewählten Phrase entspricht, auf der Anzeige anzeigt.
  • Bei der Informationsverarbeitungsvorrichtung gemäß dem Aspekt der vorliegenden Offenbarung kann der Prozessor so konfiguriert sein, dass er den Satz durch Verwenden der Eigenschaft für das Eigenschaftselement erzeugt.
  • Bei der Informationsverarbeitungsvorrichtung gemäß dem Aspekt der vorliegenden Offenbarung kann der Prozessor so konfiguriert sein, dass er die Basisregion in dem angezeigten Basisbild hervorhebt.
  • Gemäß einem weiteren Aspekt der vorliegenden Offenbarung wird ein Informationsverarbeitungsverfahren bereitgestellt, das umfasst: Ableiten von Eigenschaftsinformationen, die eine Eigenschaft für mindestens ein vorbestimmtes Eigenschaftselement angeben, das sich auf eine in einem Bild enthaltene Struktur von Interesse bezieht; und Spezifizieren einer Basisregion in dem Bild, die als eine Basis zum Ableiten der Eigenschaft dient, die sich auf die Struktur von Interesse bezieht, für jedes Eigenschaftselement und Ableiten eines Basisbildes, bei dem die Basisregion spezifiziert ist.
  • Darüber hinaus kann ein Programm zum Veranlassen eines Computers, das Informationsverarbeitungsverfahren gemäß dem Aspekt der vorliegenden Offenbarung auszuführen, bereitgestellt werden.
  • Gemäß den Aspekten der vorliegenden Offenbarung ist es möglich, Erstellung eines Dokuments, wie zum Beispiel eines Auswertungsberichts, zu unterstützen.
  • Figurenliste
    • 1 ist ein Diagramm, das eine schematische Konfiguration eines medizinischen Informationssystems zeigt, auf das eine Informationsverarbeitungsvorrichtung gemäß einer ersten Ausführungsform der vorliegenden Offenbarung angewendet wird.
    • 2 ist ein Diagramm, das eine schematische Konfiguration der Informationsverarbeitungsvorrichtung gemäß der ersten Ausführungsform zeigt.
    • 3 ist ein funktionales Konfigurationsdiagramm der Informationsverarbeitungsvorrichtung gemäß der ersten Ausführungsform.
    • 4 ist ein Diagramm, das ein Beispiel von Eigenschaftsinformationen zeigt.
    • 5 ist ein konzeptionelles Diagramm des Ableitens von Eigenschaftsinformationen und des Ableitens eines Basisbildes, die durch ein Lernmodell bei der ersten Ausführungsform durchgeführt werden.
    • 6 ist ein Diagramm zum Beschreiben von Auswahl von Basisbildern.
    • 7 ist ein Diagramm, das hervorgehobene Basisbilder zeigt.
    • 8 ist ein Diagramm, das ein Basisbild zeigt.
    • 9 ist ein Diagramm, das hervorgehobene Basisbilder zeigt.
    • 10 ist ein Diagramm zum Beschreiben von Erzeugung eines Schrägbildes.
    • 11 ist ein Diagramm, das einen Berichtserstellbildschirm bei der ersten Ausführungsform zeigt.
    • 12 ist ein Diagramm, das den Berichtserstellbildschirm bei der ersten Ausführungsform zeigt.
    • 13 ist ein Flussdiagramm, das einen bei der ersten Ausführungsform durchgeführten Prozess zeigt.
    • 14 ist ein funktionales Konfigurationsdiagramm einer Informationsverarbeitungsvorrichtung gemäß der zweiten Ausführungsform.
    • 15 ist ein Diagramm, das einen Berichtserstellbildschirm bei der zweiten Ausführungsform zeigt.
    • 16 ist ein Diagramm, das den Berichtserstellbildschirm bei der zweiten Ausführungsform zeigt.
    • 17 ist ein Diagramm, das den Berichtserstellbildschirm bei der zweiten Ausführungsform zeigt.
    • 18 ist ein Flussdiagramm, das einen bei der zweiten Ausführungsform durchgeführten Prozess zeigt.
    • 19 ist ein funktionales Konfigurationsdiagramm einer Informationsverarbeitungsvorrichtung gemäß einer dritten Ausführungsform.
    • 20 ist ein konzeptionelles Diagramm des Ableitens von Eigenschaftsinformationen und des Ableitens eines Basisbildes, die durch ein Lernmodell bei der dritten Ausführungsform durchgeführt werden.
    • 21 ist ein Diagramm, das Basisbilder bei der dritten Ausführungsform zeigt.
    • 22 ist ein Diagramm, das hervorgehobene Basisbilder bei der dritten Ausführungsform zeigt.
    • 23 ist ein Diagramm, das einen Berichtserstellbildschirm bei der dritten Ausführungsform zeigt.
    • 24 ist ein Diagramm, das den Berichtserstellbildschirm bei der dritten Ausführungsform zeigt.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Nachstehend werden Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen beschrieben. Zunächst wird eine Konfiguration eines medizinischen Informationssystems 1 beschrieben, auf das eine Informationsverarbeitungsvorrichtung gemäß der vorliegenden Ausführungsform angewendet wird. 1 ist ein Diagramm, das eine schematische Konfiguration des medizinischen Informationssystems 1 zeigt. Das in 1 gezeigte medizinische Informationssystem 1 ist, auf der Grundlage eines Untersuchungsauftrags von einem Arzt in einer medizinischen Abteilung unter Verwendung eines bekannten Auftragssystems, ein System zum Abbilden eines Untersuchungszielteils einer Untersuchungsperson, zum Speichern eines durch das Abbilden erfassten medizinischen Bildes, zum Auswerten des medizinischen Bildes durch einen Radiologen und zum Erstellen eines Auswertungsberichts und zum Ansehen des Auswertungsberichts und zum detaillierten Beobachten des auszuwertenden medizinischen Bildes durch den Arzt in der medizinischen Abteilung, der eine Anforderungsquelle ist.
  • Wie in 1 gezeigt, sind bei dem medizinischen Informationssystem 1 mehrere Bildgebungsvorrichtungen 2, mehrere Auswertungsworkstations (WSs) 3, die Auswertungsterminals sind, eine medizinische Versorgungs-WS 4, ein Bildserver 5, eine Bilddatenbank (nachstehend als eine Bild-DB bezeichnet) 6, ein Berichtsserver 7 und eine Berichtsdatenbank (nachstehend als eine Berichts-DB bezeichnet) 8 über ein drahtgebundenes oder drahtloses Netzwerk 10 kommunikativ miteinander verbunden.
  • Jede Vorrichtung ist ein Computer, auf dem ein Anwendungsprogramm zum Veranlassen jeder Vorrichtung installiert ist, als eine Komponente des medizinischen Informationssystems 1 zu fungieren. Das Anwendungsprogramm wird auf einem Aufzeichnungsmedium, wie beispielsweise einer Digital Versatile Disc (DVD) oder einer Compact Disc Read-Only Memory (CD-ROM), aufgezeichnet und verteilt und von dem Aufzeichnungsmedium auf dem Computer installiert. Alternativ wird das Anwendungsprogramm in einer Speichervorrichtung eines Server-Computers, der mit dem Netzwerk 10 verbunden ist, oder in einem Netzwerkspeicher in einem Zustand gespeichert, in dem es von außen zugänglich ist, und wird als Reaktion auf eine Anforderung auf den Computer heruntergeladen und auf diesem installiert.
  • Die Bildgebungsvorrichtung 2 ist eine Vorrichtung (Modalität), die ein medizinisches Bild erzeugt, das einen Diagnosezielteil der Untersuchungsperson durch Abbilden des Diagnosezielteils zeigt. Insbesondere enthalten Beispiele der Modalität eine einfache Röntgenbildgebungsvorrichtung, eine CT-Vorrichtung, eine MRT-Vorrichtung, eine Positronen-Emissions-Tomographie(PET)-Vorrichtung und dergleichen. Das von der Bildgebungsvorrichtung 2 erzeugte medizinische Bild wird an den Bildserver 5 übertragen und in der Bild-DB 6 gespeichert.
  • Die Auswertungs-WS 3 ist ein Computer, der beispielsweise von einem Radiologen einer Radiologieabteilung verwendet wird, um ein medizinisches Bild auszuwerten und einen Auswertungsbericht zu erstellen, und beinhaltet eine Informationsverarbeitungsvorrichtung 20 (die später detailliert beschrieben wird) gemäß der vorliegenden Ausführungsform. In der Auswertungs-WS 3 werden eine Ansichtsanforderung für ein medizinisches Bild an den Bildserver 5, verschiedene Bildverarbeitungen für das von dem Bildserver 5 empfangene medizinische Bild, Anzeige des medizinischen Bildes und Eingabeempfang von Kommentaren zu Befunden in Bezug auf das medizinische Bild durchgeführt. In der Auswertungs-WS 3 werden ein Analyseprozess für medizinische Bilder und eingegebene Kommentare zu Befunden, Unterstützung zum Erstellen eines Auswertungsberichts auf der Grundlage des Analyseergebnisses, eine Registrierungsanforderung und eine Ansichtsanforderung für den Auswertungsbericht an den Berichtsserver 7 und Anzeige des von dem Berichtsserver 7 empfangenen Auswertungsberichts durchgeführt. Die obigen Prozesse werden von der Auswertungs-WS 3 durchgeführt, die Programme für jeweilige Prozesse ausführt.
  • Die medizinische Versorgungs-WS 4 ist ein Computer, der von einem Arzt in einer medizinischen Abteilung verwendet wird, um ein Bild detailliert zu beobachten, einen Auswertungsbericht anzusehen, eine elektronische Krankenakte zu erstellen und dergleichen, und ist so konfiguriert, dass sie eine Verarbeitungsvorrichtung, eine Anzeigevorrichtung wie eine Anzeige und eine Eingabevorrichtung wie eine Tastatur und eine Maus enthält. In der medizinischen Versorgungs-WS 4 werden eine Ansichtsanforderung für das Bild an den Bildserver 5, Anzeige des von dem Bildserver 5 empfangenen Bildes, eine Ansichtsanforderung für den Auswertungsbericht an den Berichtsserver 7 und Anzeige des von dem Berichtsserver 7 empfangenen Auswertungsberichts durchgeführt. Die obigen Prozesse werden von der medizinischen Versorgungs-WS 4 durchgeführt, die Programme für jeweilige Prozesse ausführt.
  • Der Bildserver 5 ist ein Allzweckcomputer, auf dem ein Softwareprogramm installiert ist, das eine Funktion eines Datenbankverwaltungssystems (database management system, DBMS) bereitstellt. Der Bildserver 5 umfasst einen Datenspeicher, in dem die Bild-DB 6 konfiguriert ist. Dieser Datenspeicher kann eine Festplattenvorrichtung sein, die über einen Datenbus mit dem Bildserver 5 verbunden ist, oder kann ein Plattenvorrichtung sein, die mit einem Storage Area Network (SAN) oder einem Network Attached Storage (NAS) verbunden ist, das/der mit dem Netzwerk 10 verbunden ist. In einem Fall, in dem der Bildserver 5 eine Anforderung zur Registrierung eines medizinischen Bildes von der Bildgebungsvorrichtung 2 empfängt, bereitet der Bildserver 5 das medizinische Bild in einem Format für eine Datenbank vor und registriert das medizinische Bild in der Bild-DB 6.
  • Bilddaten des von der Bildgebungsvorrichtung 2 erfassten medizinischen Bildes und Zusatzinformationen werden in der Bild-DB 6 registriert. Die Zusatzinformationen enthalten zum Beispiel eine Bildidentifikation (ID) zum Identifizieren jedes medizinischen Bildes, eine Patienten-ID zum Identifizieren einer Untersuchungsperson, eine Untersuchungs-ID zum Identifizieren einer Untersuchung, eine eindeutige ID (eindeutige Identifikation (unique identification, UID)), die jedem medizinischen Bild zugewiesen wird, Untersuchungsdatum und Untersuchungszeit, zu der ein medizinisches Bild erzeugt wird, den Typ von Bildgebungsvorrichtung, der bei einer Untersuchung zum Erfassen eines medizinischen Bildes verwendet wird, Patienteninformationen wie den Namen, das Alter und das Geschlecht eines Patienten, einen Untersuchungsteil (einen Bildgebungsteil), Bildgebungsinformationen (ein Bildgebungsprotokoll, eine Bildgebungssequenz, ein Bildgebungsverfahren, Bildgebungsbedingungen, die Verwendung eines Kontrastmittels und dergleichen) und Informationen wie eine Seriennummer oder eine Sammlungsnummer in einem Fall, in dem mehrere medizinische Bilder bei einer Untersuchung erfasst werden.
  • Darüber hinaus sucht der Bildserver 5 in einem Fall, in dem die Ansichtsanforderung von der Auswertungs-WS 3 und der medizinischen Versorgungs-WS 4 über das Netzwerk 10 empfangen wird, nach einem in der Bild-DB 6 registrierten medizinischen Bild und überträgt das gesuchte medizinische Bild an die Auswertungs-WS 3 und an die medizinische Versorgungs-WS 4, die Anforderungsquellen sind.
  • Bei der vorliegenden Ausführungsform wird angenommen, dass das medizinische Bild ein dreidimensionales CT-Bild ist, das aus mehreren Tomographiebildern mit einer Lunge als einem Diagnoseziel besteht, und dass ein Auswertungsbericht über eine Struktur von Interesse, wie beispielsweise eine in der Lunge enthaltene abnormale Verschattung, durch Auswerten des CT-Bildes in der Auswertungs-WS 3 erstellt wird. Das medizinische Bild ist nicht auf das CT-Bild beschränkt, und jedes medizinische Bild wie beispielsweise ein MRT-Bild und ein einfaches zweidimensionales Bild, das durch eine einfache Röntgenbildgebungsvorrichtung erfasst wird, kann verwendet werden.
  • Der Berichtsserver 7 beinhaltet ein Softwareprogramm zum Bereitstellen einer Funktion eines Datenbankverwaltungssystems für einen Allzweckcomputer. In einem Fall, in dem der Berichtsserver 7 eine Anforderung zur Registrierung des Auswertungsberichts von der Auswertungs-WS 3 empfängt, bereitet der Berichtsserver 7 den Auswertungsbericht in einem Format für eine Datenbank vor und registriert den Auswertungsbericht in der Berichts-DB 8.
  • In der Berichts-DB 8 wird ein Auswertungsbericht, der die Kommentare zu Befunden enthält, die von dem Radiologen unter Verwendung der Auswertungs-WS 3 erstellt wurden, registriert. Der Auswertungsbericht kann beispielsweise Informationen wie ein auszuwertendes medizinisches Bild, eine Bild-ID zum Identifizieren des medizinischen Bildes, eine Radiologen-ID zum Identifizieren des Radiologen, der die Auswertung durchgeführt hat, einen Läsionsnamen, Läsionspositionsinformationen, Informationen zum Zugreifen auf ein medizinisches Bild (die später detailliert beschrieben werden) und Eigenschaftsinformationen (die später detailliert beschrieben werden) enthalten.
  • Ferner sucht in einem Fall, in dem der Berichtsserver 7 die Ansichtsanforderung für den Auswertungsbericht von der Auswertungs-WS 3 und der medizinischen Versorgungs-WS 4 über das Netzwerk 10 empfängt, der Berichtsserver 7 nach dem Auswertungsbericht, der in der Berichts-DB 8 registriert ist, und überträgt den gesuchten Auswertungsbericht an die Auswertungs-WS 3 und an die medizinische Versorgungs-WS 4, die Anforderungsquellen sind.
  • Das Netzwerk 10 ist ein drahtgebundenes oder drahtloses lokales Netzwerk, das verschiedene Vorrichtungen in einem Krankenhaus miteinander verbindet. In einem Fall, in dem die Auswertungs-WS 3 in einem anderen Krankenhaus oder einer Klinik installiert ist, kann das Netzwerk 10 so konfiguriert sein, dass es lokale Netzwerke von jeweiligen Krankenhäusern über das Internet oder eine dedizierte Leitung verbindet.
  • Als Nächstes wird die Informationsverarbeitungsvorrichtung gemäß der ersten Ausführungsform beschrieben. 2 beschreibt eine Hardwarekonfiguration der Informationsverarbeitungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Offenbarung. Wie in 2 gezeigt, enthält die Informationsverarbeitungsvorrichtung 20 eine Zentraleinheit (central processing unit, CPU) 11, einen nichtflüchtigen Datenspeicher 13 und einen Speicher 16 als einen temporären Speicherbereich. Ferner enthält die Informationsverarbeitungsvorrichtung 20 eine Anzeige 14, wie beispielsweise eine Flüssigkristallanzeige, eine Eingabevorrichtung 15, wie beispielsweise eine Tastatur und eine Maus, und eine Netzwerkschnittstelle 17, die mit dem Netzwerk 10 verbunden ist. Die CPU 11, der Datenspeicher 13, die Anzeige 14, die Eingabevorrichtung 15, der Speicher 16 und die Netzwerkschnittstelle 17 sind mit einem Bus 18 verbunden. Die CPU 11 ist ein Beispiel eines Prozessors bei der vorliegenden Offenbarung.
  • Der Datenspeicher 13 wird durch ein Festplattenlaufwerk (hard disk drive, HDD), ein Solid-State-Laufwerk (solid state drive, SSD), einen Flash-Speicher und dergleichen realisiert. In dem Datenspeicher 13 als dem Speichermedium wird ein Informationsverarbeitungsprogramm 12 gespeichert. Die CPU 11 liest das Informationsverarbeitungsprogramm 12 aus dem Datenspeicher 13, lädt das gelesene Programm in den Speicher 16 und führt das geladene Informationsverarbeitungsprogramm 12 aus.
  • Als Nächstes wird eine funktionale Konfiguration der Informationsverarbeitungsvorrichtung gemäß der ersten Ausführungsform beschrieben. 3 ist ein Diagramm, das eine funktionale Konfiguration der Informationsverarbeitungsvorrichtung gemäß der vorliegenden Ausführungsform zeigt. Wie in 3 gezeigt, umfasst die Informationsverarbeitungsvorrichtung 20 eine Bilderfassungseinheit 21, eine Eigenschaftsableitungseinheit 22, eine Basisbild-Ableitungseinheit 23, eine Anzeigesteuereinheit 24, eine Berichterstellungseinheit 25 und eine Kommunikationseinheit 26. Dann fungiert in einem Fall, in dem die CPU 11 das Informationsverarbeitungsprogramm 12 ausführt, die CPU 11 als die Bilderfassungseinheit 21, die Eigenschaftsableitungseinheit 22, die Basisbild-Ableitungseinheit 23, die Anzeigesteuereinheit 24, die Berichterstellungseinheit 25 und die Kommunikationseinheit 26.
  • Die Bilderfassungseinheit 21 erfasst ein medizinisches Bild zum Erstellen eines Auswertungsberichts von dem Bildserver 5 gemäß einer Anweisung von der Eingabevorrichtung 15 durch den Radiologen, der ein Bediener ist.
  • Die Eigenschaftsableitungseinheit 22 analysiert das medizinische Bild, um Eigenschaftsinformationen abzuleiten, die eine Eigenschaft für mindestens ein Eigenschaftselement angeben, das sich auf die Struktur von Interesse bezieht, wie beispielsweise einen in dem medizinischen Bild enthaltenen abnormalen Verschattungskandidaten. Bei der vorliegenden Ausführungsform ist das medizinische Bild ein dreidimensionales Bild, das aus mehreren Tomographiebildern besteht. Die Eigenschaftsableitungseinheit 22 analysiert jedes der mehreren Tomographiebilder, um Eigenschaftsinformationen abzuleiten. Zu diesem Zweck weist die Eigenschaftsableitungseinheit 22 ein Lernmodell 22A auf, bei dem maschinelles Lernen durchgeführt wird, um die Struktur von Interesse in dem medizinischen Bild zu unterscheiden und die Eigenschaft für mindestens ein Eigenschaftselement zu unterscheiden, das sich auf die unterschiedene Struktur von Interesse bezieht. Bei der vorliegenden Ausführungsform enthält das Lernmodell 22A ein faltendes neuronales Netzwerk (convolutional neural network, CNN), bei dem tiefes Lernen unter Verwendung von überwachten Trainingsdaten durchgeführt wird, um zu unterscheiden, ob jedes Pixel (Voxel) in dem medizinischen Bild eine Struktur von Interesse darstellt oder nicht, und um eine Eigenschaft für mindestens ein Eigenschaftselement in einem Fall zu unterscheiden, in dem das Pixel eine Struktur von Interesse darstellt.
  • 4 ist ein Diagramm, das ein Beispiel von Eigenschaftsinformationen zeigt, die durch das Lernmodell 22A der Eigenschaftsableitungseinheit 22 unterschieden werden. Bei der vorliegenden Ausführungsform wird angenommen, dass die Struktur von Interesse zum Unterscheiden der Eigenschaft ein Lungenknoten ist, und Eigenschaftsinformationen 30 geben Eigenschaften für mehrere Eigenschaftselemente für den Lungenknoten an. Zum Beispiel werden als die Eigenschaftselemente die Position der abnormalen Verschattung (das heißt Lungenknoten), die Größe der abnormalen Verschattung, die Form der Grenze (klar, unregelmäßig, und lobulär), der Typ von Absorptionswert (fester Typ und Milchglastyp), das Vorhandensein oder Nichtvorhandensein von Spicula, ob es ein Tumor oder ein Knoten ist, das Vorhandensein oder Nichtvorhandensein von Pleurakontakt, das Vorhandensein oder Nichtvorhandensein von Pleuraeinstülpung, das Vorhandensein oder Nichtvorhandensein von Pleurainfiltration, das Vorhandensein oder Nichtvorhandensein einer Kavität und das Vorhandensein oder Nichtvorhandensein von Verkalkung verwendet. Die Eigenschaft ist das Ergebnis davon, ob jedes Eigenschaftselement vorhanden oder nicht vorhanden ist. Ferner sind in Bezug auf die Eigenschaftselemente der Position der abnormalen Verschattung, der Größe der abnormalen Verschattung, der Form der Grenze, des Typs des Absorptionswerts und ob es ein Tumor oder ein Knoten ist, die Position, die Größe und der Typ, die durch das Lernmodell 22A unterschieden werden, die Eigenschaften. Das Lernmodell 22A wird durch Trainieren eines neuronalen Netzwerks unter Verwendung einer großen Anzahl an medizinischen Bildern, die die Struktur von Interesse enthalten, und einer großen Anzahl an überwachten Trainingsdaten, deren Eigenschaften für mehrere Eigenschaftselemente, die sich auf die Struktur von Interesse beziehen, bekannt sind, aufgebaut.
  • Es ist anzumerken, dass das Lernmodell zum Detektieren der Struktur von Interesse aus dem medizinischen Bild und das Lernmodell zum Detektieren der Eigenschaftsinformationen der Struktur von Interesse separat aufgebaut werden können. Ferner werden die von der Eigenschaftsableitungseinheit 22 abgeleiteten Eigenschaftsinformationen in dem Datenspeicher 13 gespeichert.
  • Ferner kann als das Lernmodell 22A jedes Lernmodell, wie zum Beispiel eine Support Vector Machine (SVM), zusätzlich zu dem faltenden neuronalen Netzwerk verwendet werden.
  • Die Basisbild-Ableitungseinheit 23 verwendet das in Nicht-Patentdokument 1 beschriebene Verfahren, um in dem medizinischen Bild eine Basisregion zu spezifizieren, die als eine Basis zum Ableiten der Eigenschaft in Bezug auf die Struktur von Interesse dient, und leitet ein Basisbild ab, in dem die Basisregion spezifiziert ist. Bei der vorliegenden Ausführungsform leitet die Basisbild-Ableitungseinheit 23 das Basisbild unter Verwendung der durch das Lernmodell 22A der Eigenschaftsableitungseinheit 22 abgeleiteten Eigenschaftsinformationen ab. 5 ist ein konzeptionelles Diagramm des Ableitens von Eigenschaftsinformationen und des Ableitens eines Basisbildes, die durch das Lernmodell 22A bei der ersten Ausführungsform durchgeführt werden. Es ist anzumerken, dass 5 Verarbeitung für ein Tomographiebild Sk unter mehreren Tomographiebildern Si (i = 1 bis n: n ist die Anzahl an Tomographiebildern) zeigt, die in dem medizinischen Bild enthalten sind.
  • Zunächst leitet das Lernmodell 22A der Eigenschaftsableitungseinheit 22 eine Merkmalskarte 32 des Tomographiebildes Sk via ein CNN 31 ab, gibt die Merkmalskarte 32 in eine vollständig verbundene Schicht 33 ein und leitet Eigenschaftsinformationen 34 ab, die die Eigenschaften für die Eigenschaftselemente angeben, die sich auf die Struktur von Interesse beziehen. Es ist anzumerken, dass jedes Quadrat der Eigenschaftsinformationen 34 eine Ausgabe (das heißt eine Wahrscheinlichkeitsbewertung) darstellt, die die Eigenschaft bei jedem der Eigenschaftselemente darstellt. Hier wird eine Eigenschaft 34A für ein Eigenschaftselement bei den Eigenschaftsinformationen 34 untersucht.
  • Die Basisbild-Ableitungseinheit 23 spezifiziert in der Merkmalskarte 32 einen Abschnitt, der einen großen Einfluss auf die Wahrscheinlichkeitsbewertung der Eigenschaft 34A hat, indem sie die Intensität in der Merkmalskarte differenziert, und leitet eine Heatmap Hk, die ihre Größe darstellt, via das in Nicht-Patentdokument 1 beschriebene Grad-CAM-Verfahren ab.
  • Andererseits verwendet die Basisbild-Ableitungseinheit 23 das in Nicht-Patentdokument 1 beschriebene Guided-Backpropagation-Verfahren, um eine Region, die eine große Wahrscheinlichkeitsbewertung aufweist, die als eine Basis zum Spezifizieren der Eigenschaft 34A dient, als eine Basisregion durch Backpropagation des CNN 31 zu spezifizieren, und leitet ein spezifisches Bild STk ab. Insbesondere führt die Basisbild-Ableitungseinheit 23 Backpropagation in Bezug auf die Merkmalskarte 32 durch, wobei sie den Wert eines Pixels außer einem Pixel, dessen Merkmalsmenge auf der Karte aktiv ist, das heißt einem Pixel mit einem positiven Pixelwert, auf 0 einstellt. Backpropagation entspricht einer umgekehrten Faltung der Faltung in dem CNN 31. Dementsprechend wird nur der Abschnitt, der sich auf die Aktivität in der Merkmalskarte 32 auswirkt, mit der gleichen Auflösung wie das Tomographiebild Sk, das in das CNN 31 eingegeben wird, wiederhergestellt. Der wiederhergestellte Abschnitt ist eine Basisregion Ak. Ferner ist ein Bild, das die Basisregion Ak enthält und die gleiche Auflösung wie das Tomographiebild Sk aufweist, das in das CNN 31 eingegeben wird, das spezifische Bild STk. Dementsprechend enthält das spezifische Bild STk die Basisregion Ak, die die Eigenschaft 34A in der gleichen Auflösung wie das Tomographiebild Sk spezifiziert.
  • Die Basisbild-Ableitungseinheit 23 leitet ein spezifisches Bild STi für alle Tomographiebilder Si für eine Eigenschaft 34A ab. Darüber hinaus wird in 5 nur ein spezifisches Bild STk, das die Basisregion Ak enthält, gezeigt. Dann wählt die Basisbild-Ableitungseinheit 23 aus den mehreren spezifischen Bildern STi ein spezifisches Bild STi aus, das eine Basisregion Ai enthält, die die Eigenschaft 34A am deutlichsten darstellt, und wählt aus den mehreren Tomographiebildern Si ein Tomographiebild aus, das dem ausgewählten spezifischen Bild entspricht, wodurch sie das Basisbild ableitet. Hier bedeutet „am deutlichsten darstellt“, dass die Größe der Basisregion Ai am größten ist oder dass die Wahrscheinlichkeitsbewertung in der Basisregion Ai am größten ist.
  • 6 ist ein Diagramm zum Beschreiben der Auswahl von Basisbildern. In 6 werden Basisbilder Ba, Bb und Bc aus den mehreren Tomographiebildern Si, die in einem medizinischen Bild G0 enthalten sind, für die drei Eigenschaften Festigkeit, Spicula und Lobulierung ausgewählt.
  • Dann kombiniert die Basisbild-Ableitungseinheit 23 die Basisbilder Ba, Bb und Bc und die Tomographiebilder, die jedem der Basisbilder Ba, Bb und Bc entsprechen, um ein hervorgehobenes Basisbild abzuleiten, in dem die Basisregion in dem Tomographiebild hervorgehoben ist. 7 ist ein Diagramm, das hervorgehobene Basisbilder zeigt. 7 zeigt vergrößerte Ansichten der Regionen der Struktur von Interesse, die in hervorgehobenen Basisbildern BGa, BGb und BGc enthalten sind, auf der rechten Seite der hervorgehobenen Basisbilder BGa, BGb und BGc. Wie in 7 gezeigt, ist in dem hervorgehobenen Basisbild BGa der Festigkeit ein fester Tumor 40a enthalten, und eine Heatmap 41a zum Hervorheben des festen Tumors 40a ist in der Nähe der Mitte davon hinzugefügt. Die Region der Heatmap 41a entspricht der Basisregion in dem Basisbild. In 7 ist die Heatmap zur Vereinfachung durch diagonale Linien gezeigt. Ferner ist in dem hervorgehobenen Basisbild BGb der Spicula ein Tumor 40b mit der Spicula enthalten, und eine Heatmap 41b zum Hervorheben der Spicula wird zu dem Abschnitt der Spicula hinzugefügt. In dem hervorgehobenen Basisbild BGc der Lobulierung ist ein lobulärer Tumor 40c enthalten, und eine Heatmap 41c zum Hervorheben des lobulierten Abschnitts wird dazu hinzugefügt.
  • Darüber hinaus kann ein Basisbild für mehrere Typen von Eigenschaftselementen ausgewählt werden. Zum Beispiel kann, wie in 8 gezeigt, ein spezifisches Bild, das einen lobulären festen Tumor 40d mit Spicula als eine Basisregion enthält, als ein Basisbild Bd ausgewählt werden. In einem solchen Fall, wie in 9 gezeigt, leitet die Basisbild-Ableitungseinheit 23 drei hervorgehobene Basisbilder BGa bis BGc ab, in denen jeweils die Festigkeit, die Spicula und die Lobulierung hervorgehoben sind. Wie in 9 gezeigt, wird in dem hervorgehobenen Basisbild BGa der Festigkeit eine Heatmap 42a zum Hervorheben der Festigkeit in der Nähe der Mitte des Tumors 40d hinzugefügt. Ferner wird in dem hervorgehobenen Basisbild BGb der Spicula eine Heatmap 42b zum Hervorheben der Spicula zu dem Abschnitt der Spicula in dem Tumor 40d hinzugefügt. In dem hervorgehobenen Basisbild BGc der Lobulierung wird eine Heatmap 42c zum Hervorheben des lobulierten Abschnitts in dem Tumor 40d dazu hinzugefügt. 9 zeigt auch vergrößerte Ansichten der Regionen der Struktur von Interesse in hervorgehobenen Basisbildern BGa, BGb, und BGc auf der rechten Seite der hervorgehobenen Basisbilder BGa, BGb, und BGc.
  • Andererseits kann eine Basisregion, die als eine Basis zum Spezifizieren der Eigenschaft für ein bestimmtes Eigenschaftselement dient, über mehrere Tomographiebilder enthalten sein. In diesem Fall kann, in einem Fall, in dem die Basisregion in mehreren Tomographiebildern dreidimensional beobachtet wird, eine Tomographieebene spezifiziert werden, in der die Eigenschaft des Eigenschaftselements am deutlichsten erscheint, und ein Tomographiebild (das heißt, ein Schrägbild) auf der Tomographieebene kann als ein Basisbild abgeleitet werden. 10 ist ein Diagramm zum Beschreiben von Erzeugung eines Schrägbildes. Wie in 10 gezeigt, wird angenommen, dass ein lobulärer fester Tumor 45 mit Spicula über mehrere Tomographiebilder Si vorhanden ist. Der Tumor 45 enthält einen festen Abschnitt 45a, einen Spicula-Abschnitt 45b und einen lobulären Abschnitt 45c. In einem solchen Fall sind auf einer Tomographieebene 46, die alle des festen Abschnitts 45a, des Spiculaabschnitts 45b und des lobulären Abschnitts 45c passiert, alle des festen Abschnitts 45a, des Spicula-Abschnitts 45b und des lobulären Abschnitts 45c am leichtesten zu beobachten. Daher stellt die Basisbild-Ableitungseinheit 23 die Tomographieebene 46 ein, die mehrere Eigenschaften in dem medizinischen Bild G0 am deutlichsten darstellt, und leitet das Schrägbild auf der Tomographieebene 46 als das Basisbild ab. Als das Basisbild kann ein Bild mit hervorgehobenen Maximalwerten (Maximum Intensity Projection(MIP)-Bild) in einem Fall abgeleitet werden, in dem der Blickpunkt in der Richtung senkrecht zu der Tomographieebene 46 platziert ist.
  • Die Anzeigesteuereinheit 24 zeigt das hervorgehobene Basisbild auf der Anzeige 14 an. Bei der vorliegenden Ausführungsform zeigt die Anzeigesteuereinheit 24 einen Berichtserstellbildschirm zum Erstellen eines Auswertungsberichts für das medizinische Bild G0 auf der Anzeige 14 an und zeigt ein hervorgehobenes Basisbild auf dem Berichtserstellbildschirm als Reaktion auf eine Anweisung eines Bedieners an.
  • 11 ist ein Diagramm, das einen Berichtserstellbildschirm bei der ersten Ausführungsform zeigt. Wie in 11 gezeigt, enthält ein Berichtserstellbildschirm 50 eine Satzanzeigeregion 51 und eine Bildanzeigeregion 52. In der Satzanzeigeregion 51 werden Designationstasten 53A bis 53C zum Designieren der in dem medizinischen Bild G0 abgeleiteten Eigenschaftselemente angezeigt. Bei der vorliegenden Ausführungsform werden zur Vereinfachung der Beschreibung nur drei Designationsstasten 53A bis 53C angezeigt, die sich auf Festigkeit, Spicula und Lobulierung unter den mehreren Eigenschaftselementen beziehen. In der Satzanzeigeregion 51 ist oberhalb dieser Designationstasten 53A bis 53C eine Befundeingaberegion 54 enthalten. Ferner wird unterhalb der Satzanzeigeregion 51 eine Bestätigungstaste 55 zum Bestätigen der eingegebenen Kommentare zu Befunden angezeigt.
  • In einem Fall, in dem der Bediener irgendeine der Designationstasten 53A bis 53C auf dem Berichtserstellbildschirm 50 auswählt, zeigt die Anzeigesteuereinheit 24 dann ein hervorgehobenes Basisbild für das Eigenschaftselement, das der ausgewählten Designationstaste entspricht, in der Bildanzeigeregion 52 an. In einem Fall, in dem beispielsweise die Designationstaste 53C für Lobulierung ausgewählt ist, zeigt die Anzeigesteuereinheit 24 das in 9 gezeigte hervorgehobene Basisbild BGc in der Bildanzeigeregion 52 an, wie in 12 gezeigt. 12 zeigt, dass die Designationstaste 53C durch Hinzufügen eines Rahmens zu der Designationstaste 53C ausgewählt wird.
  • Die Berichterstellungseinheit 25 erstellt einen Auswertungsbericht. Beim Erstellen des Auswertungsberichts gibt der Bediener die Kommentare zu Befunden unter Verwendung der Eingabevorrichtung 15 in die Befundeingaberegion 54 ein, während er das in der Bildanzeigeregion 52 angezeigte hervorgehobene Basisbild betrachtet. Die Berichterstellungseinheit 25 transkribiert die in die Befundeingaberegion 54 eingegebenen Kommentare zu Befunden in einen Auswertungsbericht, um einen Auswertungsbericht zu erstellen. Dann, in einem Fall, in dem die Bestätigungstaste 55 ausgewählt ist, speichert die Berichterstellungseinheit 25 den erstellten Auswertungsbericht in dem Datenspeicher 13 zusammen mit einem oder mehreren hervorgehobenen Basisbildern, auf die in dem Fall Bezug genommen wird, in dem die Kommentare zu Befunden eingegeben werden.
  • Die Kommunikationseinheit 26 überträgt den erstellten Auswertungsbericht zusammen mit einem oder mehreren hervorgehobenen Basisbildern, auf die in dem Fall Bezug genommen wird, in dem die Kommentare zu Befunden eingegeben werden, via die Netzwerkschnittstelle 17 an den Berichtsserver 7. In dem Berichtsserver 7 wird der erstellte Auswertungsbericht zusammen mit einem oder mehreren hervorgehobenen Basisbildern gespeichert, auf die in dem Fall Bezug genommen wird, in dem die Kommentare zu Befunden eingegeben werden.
  • Als Nächstes wird ein bei der ersten Ausführungsform durchgeführter Prozess beschrieben. 13 ist ein Flussdiagramm, das einen bei der ersten Ausführungsform durchgeführten Prozess zeigt. Es wird davon ausgegangen, dass das zu interpretierende medizinische Bild von dem Bildserver 5 durch die Bilderfassungseinheit 21 erfasst und in dem Datenspeicher 13 gespeichert wird. Der Prozess wird in einem Fall gestartet, in dem eine Anweisung zur Erstellung eines Auswertungsberichts durch den Radiologen gegeben wird, und die Eigenschaftsableitungseinheit 22 leitet Eigenschaftsinformationen ab, die die Eigenschaften für mindestens ein vorbestimmtes Eigenschaftselement angeben, das sich auf die Struktur von Interesse bezieht, die in dem medizinischen Bild G0 enthalten ist (Schritt ST1). Als Nächstes spezifiziert die Basisbild-Ableitungseinheit 23 die Basisregion, die als eine Basis zum Ableiten der Eigenschaft dient, die sich auf die Struktur von Interesse bezieht, für jedes Eigenschaftselement und leitet das Basisbild, das die Basisregion enthält, ab (Schritt ST2). Ferner hebt die Basisbild-Ableitungseinheit 23 die Basisregion in dem Basisbild hervor und leitet das hervorgehobene Basisbild ab (Schritt ST3).
  • Nachfolgend zeigt die Anzeigesteuereinheit 24 den Berichtserstellbildschirm 50 auf der Anzeige 14 an (Schritt ST4). Dann, in einem Fall, in dem irgendeine der Designationstasten 53A bis 53C ausgewählt ist (Schritt ST5; JA), zeigt die Anzeigesteuereinheit 24 das der ausgewählten Designationstaste entsprechende hervorgehobene Basisbild in der Bildanzeigeregion 52 an (Schritt ST6). In einem Fall, in dem Schritt ST5 negativ ist, fährt der Prozess mit Schritt ST8 fort, der später beschrieben wird. Nachfolgend empfängt die Berichterstellungseinheit 25 die Eingabe der Kommentare zu Befunden in die Befundeingaberegion 54 (Schritt ST7) und startet Überwachung, ob die Bestätigungstaste 55 ausgewählt ist oder nicht (Schritt ST8). In einem Fall, bei dem Schritt ST8 negativ ist, kehrt der Prozess zu Schritt ST5 zurück, und die Prozesse nach Schritt ST5 werden wiederholt.
  • In einem Fall, in dem Schritt ST8 positiv ist, erstellt die Berichterstellungseinheit 25 einen Auswertungsbericht, der die eingegebenen Kommentare zu Befunden enthält (Schritt ST9), und speichert den erstellten Auswertungsbericht in dem Datenspeicher 13 zusammen mit einem oder mehreren hervorgehobenen Basisbildern, auf die in dem Fall Bezug genommen wird, in dem die Kommentare zu Befunden eingegeben werden (Schritt ST10). Ferner überträgt die Kommunikationseinheit 26 den erstellten Auswertungsbericht zusammen mit einem oder mehreren hervorgehobenen Basisbildern, auf die in dem Fall Bezug genommen wird, in dem die Kommentare zu Befunden eingegeben werden (Schritt ST11), an den Berichtsserver 7 und beendet den Prozess.
  • Auf diese Weise wird bei der ersten Ausführungsform die Basisregion, die als eine Basis zum Ableiten der Eigenschaft in dem medizinischen Bild G0 dient, für jedes der abgeleiteten Eigenschaftselemente spezifiziert, und das Basisbild, das die Basisregion enthält, wird abgeleitet. Daher ist es möglich, durch Anzeigen und Beziehen auf das Basisbild die Region zu erkennen, die als eine Basis dient, von der die Eigenschaft für das Eigenschaftselement der in dem Basisbild enthaltenen Struktur von Interesse abgeleitet wird.
  • Ferner ist es durch Ableiten des hervorgehobenen Basisbildes, in dem die Basisregion hervorgehoben ist, möglich, den als eine Basis dienenden Abschnitt leicht zu erkennen, von dem die Eigenschaft für das in dem Basisbild enthaltene Eigenschaftselement der Struktur von Interesse abgeleitet wird.
  • Darüber hinaus ist es durch Erzeugen eines Schrägbildes oder eines MIP-Bildes auf der Tomographieebene, wobei das Schrägbild aus mehreren Tomographiebildern als das Basisbild erzeugt wird, möglich, die Basisregion, die als eine Basis zum Ableiten von Eigenschaften in einer Region von Interesse in dem Basisbild dient, leichter zu sehen.
  • Als Nächstes wird eine zweite Ausführungsform der vorliegenden Offenbarung beschrieben. 14 ist ein Diagramm, das eine funktionale Konfiguration einer Informationsverarbeitungsvorrichtung gemäß der zweiten Ausführungsform der vorliegenden Offenbarung zeigt. In 14 sind den gleichen Konfigurationen wie in 3 die gleichen Bezugszeichen zugeordnet, und detaillierte Beschreibung davon wird hier weggelassen. Eine Informationsverarbeitungsvorrichtung 20A gemäß der zweiten Ausführungsform unterscheidet sich von der ersten Ausführungsform dadurch, dass sie ferner eine Phrasenspezifizierungseinheit 27 umfasst, die die von dem Bediener eingegebenen Kommentare zu Befunden analysiert, um eine Phrase zu spezifizieren, die sich auf das in den Kommentaren zu Befunden enthaltene Eigenschaftselement bezieht, und die Anzeigesteuereinheit 24 Informationen zum Zugreifen auf das Basisbild, das als eine Basis zum Ableiten der durch die spezifizierte Phrase dargestellten Eigenschaften dient, zu der in den Kommentaren zu Befunden spezifizierten Phrase hinzufügt und die Kommentare zu Befunden auf der Anzeige 14 anzeigt.
  • Die Phrasenspezifizierungseinheit 27 spezifiziert eine Phrase, die sich auf ein Eigenschaftselement bezieht, das in den Kommentaren zu Befunden enthalten ist, die in die Befundeingaberegion 54 eingegeben werden. Zu diesem Zweck weist die Phrasenspezifizierungseinheit 27 ein Lernmodell 27A auf, in dem maschinelles Lernen durchgeführt wird, um eine Phrase zu spezifizieren, die sich auf ein in einem Satz enthaltenes Eigenschaftselement bezieht. Bei der vorliegenden Ausführungsform besteht das Lernmodell 27A aus einem faltenden neuronalen Netzwerk (CNN), in dem tiefes Lernen unter Verwendung der überwachten Trainingsdaten durchgeführt wird, um Phrasen zu unterscheiden, die sich auf Eigenschaftselemente beziehen, die in den eingegebenen Kommentaren zu Befunden in einem Fall enthalten sind, in dem die Kommentare zu Befunden eingegeben werden.
  • Die überwachten Trainingsdaten zum Trainieren des Lernmodells 27A enthalten Sätze und Phrasen, die sich auf die in den Sätzen enthaltenen Eigenschaftselemente beziehen. Zum Beispiel ein Satz „Ein fester Tumor mit klarer Grenze wird in dem Unterlappen S6 der linken Lunge gefunden“, und „Unterlappen S6 der linken Lunge“, „klare Grenze“, „fest“ und „Tumor“, die Phrasen in Bezug auf die Eigenschaftselemente sind, sind enthalten. Das Lernmodell 27A wird durch Trainieren eines neuronalen Netzwerks unter Verwendung einer großen Menge solcher überwachter Trainingsdaten aufgebaut. Dementsprechend wird das Lernmodell 27A in einem Fall, in dem der Satz „Ein fester Tumor mit einer klaren Grenze wird in dem Unterlappen S6 der linken Lunge gefunden“ eingegeben wird, so trainiert, dass es „Unterlappen S6 der linken Lunge“, „klare Grenze“, „fest“ und „Tumor“ als die Phrasen ausgibt, die sich auf die Eigenschaftselemente beziehen.
  • Ferner kann als das Lernmodell 27A beispielsweise jedes beliebige Lernmodell, wie eine Support-Vektor-Maschine und ein rekurrentes neuronales Netzwerk, zusätzlich zu dem faltenden neuronalen Netzwerk verwendet werden.
  • Darüber hinaus fügt die Phrasenspezifizierungseinheit 27 Informationen zum Zugreifen auf das Basisbild, das als eine Basis zum Ableiten der durch die spezifizierte Phrase dargestellten Eigenschaften dient, zu der in den Kommentaren zu Befunden spezifizierten Phrase hinzu. Dann, in einem Fall, in dem die Phrase, zu der die Informationen zum Zugreifen auf das Basisbild hinzugefügt werden, ausgewählt ist, zeigt die Anzeigesteuereinheit 24 das Basisbild, das der ausgewählten Phrase entspricht, auf der Anzeige 14 an.
  • 15 ist ein Diagramm, das einen Berichtserstellbildschirm bei der zweiten Ausführungsform zeigt. Wie in 15 gezeigt, enthält ein Berichtserstellbildschirm 50Abei der zweiten Ausführungsform die Satzanzeigeregion 51 und die Bildanzeigeregion 52, ähnlich wie der Berichtserstellbildschirm 50 bei der ersten Ausführungsform. In der Satzanzeigeregion 51 sind die Designationstasten 53A bis 53C und die Befundeingaberegion 54 enthalten. Unterhalb der Satzanzeigeregion 51 wird eine Anzeigetaste 56 angezeigt. In der Befundeingaberegion 54 werden Kommentare zu Befunden „Ein fester Knoten wird in dem linken Lungenzungenbereich gefunden. Lobulierung und Spicula werden gefunden“ eingegeben.
  • Bei der zweiten Ausführungsform spezifiziert die Phrasenspezifizierungseinheit 27 in einem Fall, in dem die Anzeigetaste 56 ausgewählt ist, beispielsweise nach der Eingabe der Kommentare zu Befunden, die Phrase, die sich auf das in den Kommentaren zu Befunden enthaltene Eigenschaftselement bezieht. Dann fügt die Phrasenspezifizierungseinheit 27 Informationen zum Zugreifen auf das Basisbild, das als eine Basis zum Ableiten der durch die spezifizierte Phrase dargestellten Eigenschaften dient, zu der spezifizierten Phrase hinzu. Bei der zweiten Ausführungsform bettet die Phrasenspezifizierungseinheit 27 als ein Beispiel der Informationen zum Zugreifen auf das Basisbild einen Hyperlink in die Phrase ein. 16 ist ein Diagramm, das einen Zustand zeigt, in dem ein Hyperlink eingebettet ist. Wie in 16 gezeigt, bettet die Anzeigesteuereinheit 24 einen Hyperlink 57A für das hervorgehobene Basisbild BGa der Festigkeit in die Phrase „fest“ in den Kommentaren zu Befunden „Ein fester Knoten wird in dem linken Lungenzungenbereich gefunden. Lobulierung und Spicula werden gefunden“ ein. Ferner bettet die Phrasenspezifizierungseinheit 27 einen Hyperlink 57B zu dem hervorgehobenen Basisbild BGb der Spicula in die Phrase „Spicula“ ein. Darüber hinaus bettet die Phrasenspezifizierungseinheit 27 einen Hyperlink 57C zu dem hervorgehobenen Basisbild BGc der Lobulierung in die Phrase „Lobulierung“ ein.
  • In einem Fall, in dem die Phrase „fest“ in den Kommentaren zu Befunden ausgewählt ist, zeigt die Anzeigesteuereinheit 24 das hervorgehobene Basisbild BGa der Festigkeit in der Bildanzeigeregion 52 an, wie in 17 gezeigt. In 17 wird der ausgewählten Phrase Schraffur hinzugefügt.
  • Die Hyperlinks 57A bis 57C können einen Uniform Resource Locator (URL) enthalten, der einen Speicherort der hervorgehobenen Basisbilder BGa bis BGc angibt. Hier wird der Auswertungsbericht zusammen mit dem hervorgehobenen Basisbild auf dem Berichtsserver 7 gespeichert. Daher kann der Speicherort in dem Berichtsserver 7 in den Hyperlinks 57A bis 57C enthalten sein, indem Informationen über den Speicherort in dem Berichtsserver 7 im Voraus erfasst werden. Die Informationen zum Zugreifen auf die hervorgehobenen Basisbilder BGa bis BGc sind nicht auf den Hyperlink beschränkt, sondern es können beispielsweise auch die Koordinatenpositionen der hervorgehobenen Basisbilder BGa bis BGc in dem medizinischen Bild G0 verwendet werden.
  • Als Nächstes wird ein bei der zweiten Ausführungsform durchgeführter Prozess beschrieben. 18 ist ein Flussdiagramm, das einen bei der zweiten Ausführungsform durchgeführten Prozess zeigt. Da bei der zweiten Ausführungsform die Prozesse bis zur Auswahl der Bestätigungstaste 55 die gleichen wie die Prozesse von Schritt ST1 bis Schritt ST7 in dem in 13 dargestellten Prozess der ersten Ausführungsform sind, werden hier die Prozesse nach Schritt ST7 in 13 beschrieben.
  • In einem Fall, in dem die Anzeigetaste 56 auf dem Berichtserstellbildschirm 50A ausgewählt ist (Schritt ST21; JA), spezifiziert die Phrasenspezifizierungseinheit 27 eine Phrase, die sich auf das Eigenschaftselement bezieht, das in den Kommentaren zu Befunden enthalten ist (Schritt ST22). Ferner fügt die Phrasenspezifizierungseinheit 27 Informationen zum Zugreifen auf das Basisbild, das als eine Basis zum Ableiten der durch die spezifizierte Phrase dargestellten Eigenschaften dient, zu der in den Kommentaren zu Befunden spezifizierten Phrase hinzu (Schritt ST23). In einem Fall, in dem Schritt ST21 negativ ist, kehrt der Prozess zu Schritt ST5 in 13 zurück.
  • Dann wird Überwachung, ob die Bestätigungstaste 55 ausgewählt ist oder nicht, gestartet (Schritt ST24), und in einem Fall, in dem Schritt ST24 positiv ist, erstellt die Berichterstellungseinheit 25 einen Auswertungsbericht, der Kommentare zu Befunden enthält, in denen Informationen zum Zugreifen auf das Basisbild zu der Phrase hinzugefügt werden (Schritt ST25), und speichert den erstellten Auswertungsbericht in dem Datenspeicher 13 zusammen mit einem oder mehreren hervorgehobenen Basisbildern, auf die in dem Fall Bezug genommen wird, in dem die Kommentare zu Befunden eingegeben werden (Speichern von Auswertungsbericht, Schritt ST26). Ferner überträgt die Kommunikationseinheit 26 den erstellten Auswertungsbericht zusammen mit einem oder mehreren hervorgehobenen Basisbildern, auf die in dem Fall Bezug genommen wird, in dem die Kommentare zu Befunden eingegeben werden (Schritt ST27), an den Berichtsserver 7 und beendet den Prozess.
  • Auf diese Weise wird bei der zweiten Ausführungsform die Phrase, die sich auf das Eigenschaftselement bezieht, das in den Kommentaren zu Befunden enthalten ist, spezifiziert, und Informationen zum Zugreifen auf das Basisbild, das als eine Basis zum Ableiten der Eigenschaften dient, die durch die spezifizierte Phrase dargestellt werden, werden dazu hinzugefügt. Daher kann in einem Fall, in dem eine Phrase, die sich auf ein in den Kommentaren zu Befunden enthaltenes Eigenschaftselement bezieht, in dem Auswertungsbericht ausgewählt ist, ein hervorgehobenes Basisbild angezeigt werden, das der ausgewählten Phrase entspricht. Daher ist es möglich, die Eigenschaften der Struktur von Interesse, die in den Kommentaren zu Befunden in dem hervorgehobenen Basisbild enthalten sind, sofort zu überprüfen.
  • Als Nächstes wird eine dritte Ausführungsform der vorliegenden Offenbarung beschrieben. 19 ist ein Diagramm, das eine funktionale Konfiguration einer Informationsverarbeitungsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Offenbarung zeigt. In 19 sind den gleichen Konfigurationen wie in 3 die gleichen Bezugszeichen zugeordnet, und detaillierte Beschreibung davon wird hier weggelassen. Eine Informationsverarbeitungsvorrichtung 20B gemäß der dritten Ausführungsform unterscheidet sich von derjenigen der ersten Ausführungsform dadurch, dass die Eigenschaftsableitungseinheit 22 die Eigenschaft für das Eigenschaftselement ableitet, bei dem eine Änderung in Bezug auf eine Struktur von Interesse zwischen einem ersten medizinischen Bild G1, das zu einem ersten Punkt in der Zeit erfasst wurde, und einem zweiten medizinischen Bild G2, das zu einem zweiten Punkt in der Zeit erfasst wurde, der sich von dem ersten Punkt in der Zeit unterscheidet, aufgetreten ist, und die Basisbild-Ableitungseinheit 23 die Basisregion spezifiziert, die als eine Basis zum Ableiten der Eigenschaft in mindestens einem des ersten medizinischen Bildes G1 oder des zweiten medizinischen Bildes G2 dient, und das Basisbild für das Eigenschaftselement ableitet, bei dem die Änderung der Eigenschaft zwischen dem ersten Bild und dem zweiten Bild aufgetreten ist. Es ist anzumerken, dass angenommen wird, dass der Zeitpunkt von Erfassung des ersten medizinischen Bildes G1 vor dem Zeitpunkt von Erfassung des zweiten medizinischen Bildes G2 liegt.
  • Daher weist die Eigenschaftsableitungseinheit 22 gemäß der dritten Ausführungsform ein Lernmodell 22B auf, das trainiert wurde, um die Eigenschaft zu unterscheiden, bei der eine Änderung für die Struktur von Interesse aufgetreten ist, die üblicherweise in zwei medizinischen Bildern in einem Fall enthalten ist, in dem die zwei medizinischen Bilder eingegeben werden. Bei der dritten Ausführungsform enthält das Lernmodell 22B ein faltendes neuronales Netzwerk (CNN), in dem tiefes Lernen unter Verwendung von überwachten Trainingsdaten durchgeführt wird, um zu unterscheiden, ob jedes Pixel (Voxel) in den beiden medizinischen Bildern eine Struktur von Interesse darstellt oder nicht, und um Änderungen der Eigenschaften von Strukturen von Interesse in den beiden medizinischen Bildern in einem Fall zu unterscheiden, in dem das Pixel eine Struktur von Interesse darstellt.
  • Bei der dritten Ausführungsform verwendet die Basisbild-Ableitungseinheit 23 das in Nicht-Patentdokument 1 beschriebene Verfahren, um die Basisregion zu spezifizieren, die als eine Basis zum Ableiten der Eigenschaften dient, in denen Änderungen in dem ersten und zweiten medizinischen Bild G1 und G2 aufgetreten sind, und leitet das Basisbild, das die Basisregion enthält, für jeweils das erste und zweite medizinische Bild G1 und G2 ab. Bei der dritten Ausführungsform leitet die Basisbild-Ableitungseinheit 23 das Basisbild unter Verwendung der von dem Lernmodell 22B der Eigenschaftsableitungseinheit 22 abgeleiteten Informationen ab.
  • 20 ist ein konzeptionelles Diagramm des Ableitens von Eigenschaftsinformationen und des Ableitens eines Basisbildes, die durch das Lernmodell 22B bei der dritten Ausführungsform durchgeführt werden. Es ist anzumerken, dass 20 Verarbeitung für eines von Tomographiebildern S1k und S2k aus mehreren Tomographiebildern S1i und S2i (i = 1 bis n: n ist die Anzahl an Tomographiebildern) zeigt, die in dem ersten und zweiten medizinischen Bild G1 und G2 entsprechend enthalten sind.
  • Zunächst leitet das Lernmodell 22B der Eigenschaftsableitungseinheit 22 via ein CNN 61 eine Merkmalskarte 62 ab, die den Unterschied zwischen den Tomographiebildern S1k und S2k zeigt, gibt die Merkmalskarte 62 in eine vollständig verbundene Schicht 63 ein und leitet Eigenschaftsinformationen 64 und 65 ab, die die Eigenschaften für die Eigenschaftselemente angeben, in denen Änderungen in Bezug auf die Strukturen von Interesse aufgetreten sind, die in den Tomographiebildern S1k und S2k enthalten sind. Es ist anzumerken, dass jedes Quadrat der Eigenschaftsinformationen 64 eine Ausgabe (das heißt eine Wahrscheinlichkeitsbewertung) darstellt, die die Eigenschaft in jedem der Eigenschaftselemente darstellt, in denen Änderungen zwischen den Tomographiebildern S1k und S2k aufgetreten sind. Hier werden Eigenschaften 64A und 65A für ein Eigenschaftselement in den Eigenschaftsinformationen 64 und 65 beschrieben.
  • Bei der dritten Ausführungsform spezifiziert die Basisbild-Ableitungseinheit 23 in der Merkmalskarte 62 einen Abschnitt, der einen großen Einfluss auf die Wahrscheinlichkeitsbewertungen der Eigenschaften 64A und 65A hat, indem sie die Intensität in der Merkmalskarte differenziert, und leitet Heatmaps, die ihre Größen darstellen, für jedes der Tomographiebilder S1k und S2k via das in Nicht-Patentdokument 1 beschriebene Grad-CAM-Verfahren ab (Heatmaps H1k und H2k).
  • Andererseits verwendet die Basisbild-Ableitungseinheit 23 das in Nicht-Patentdokument 1 beschriebene Guided-Backpropagation-Verfahren, um eine Region mit einer großen Wahrscheinlichkeitsbewertung, die als eine Basis zum Spezifizieren der Eigenschaften 64A und 65A dient, als eine Basisregion durch Backpropagation des CNN zu spezifizieren, und leitet spezifische Bilder STIk und ST2k für jedes der Tomographiebilder S1k und S2k ab. In den spezifischen Bildern STIk und ST2k sind Basisregionen A1k und A2k, die die Eigenschaften 64A und 65A spezifizieren, mit der gleichen Auflösung wie die Tomographiebilder S1k und S2k spezifiziert (nur A1k ist gezeigt).
  • Die Basisbild-Ableitungseinheit 23 leitet spezifische Bilder ST1i und ST2i für alle Tomographiebilder S1i und S2i für eine Eigenschaft 64A oder 65A ab. Darüber hinaus sind in 20 nur zwei spezifische Bilder STIk und ST2k, die die Basisregionen A1k und A2k enthalten, gezeigt. Dann wählt die Basisbild-Ableitungseinheit 23 spezifische Bilder ST1i und ST2i, die Basisregionen A1i und A2i enthalten, die die Eigenschaften 64A und 65A am deutlichsten darstellen, aus den mehreren spezifischen Bildern ST1i und ST2i aus, und wählt ein Tomographiebild, das dem ausgewählten spezifischen Bild entspricht, aus den mehreren Tomographiebildern Si aus, wodurch das Basisbild abgeleitet wird.
  • 21 ist ein Diagramm, das Basisbilder zeigt, die bei der dritten Ausführungsform abgeleitet wurden. In 21 werden ein erstes Basisbild B1a und ein zweites Basisbild B2a aus dem ersten medizinischen Bild G1 beziehungsweise dem zweiten medizinischen Bild G2 ausgewählt. Die Basisbilder B1a und B2a zeigen nur einen Teil des entsprechenden Tomographiebildes zur Beschreibung. Wie in 21 gezeigt, enthält das erste Basisbild B1a einen festen Tumor mit einer klaren Grenze, während das zweite Basisbild B2a denselben Tumor mit einer unklaren Grenze enthält. Daher leitet das Lernmodell 22B die Grenze als die Eigenschaft ab, bei der die Änderung aufgetreten ist.
  • Dann, bei der dritten Ausführungsform, kombiniert die Basisbild-Ableitungseinheit 23 Heatmaps H1a und H1b für die ersten und zweiten Basisbilder B1a und B2a mit den ersten und zweiten Basisbildern B1a und B2a, und leitet hervorgehobene Basisbilder BG1a und BG2a ab. 22 ist ein Diagramm, das hervorgehobene Basisbilder zeigt. Wie in 22 gezeigt, wird in dem hervorgehobenen Basisbild BG1a eine Heatmap 61a zu dem Abschnitt hinzugefügt, der der Festigkeit entspricht, die als eine Basis der Änderung des Eigenschaftselement dient. Ferner wird in dem hervorgehobenen Basisbild BG2a eine Heatmap 61b zu dem Abschnitt hinzugefügt, der der Eigenschaft entspricht, bei der die Änderung aufgetreten ist, das heißt, der Grenze des Tumors. In 22 sind die Heatmaps 61a und 61b der Vereinfachung halber durch diagonale Linien gezeigt.
  • Bei der dritten Ausführungsform zeigt die Anzeigesteuereinheit 24 die hervorgehobenen Basisbilder BG1a und BG2a für das erste und zweite medizinische Bild G1 und G2 auf der Anzeige 14 an. Insbesondere wird, wie bei der ersten Ausführungsform, der Berichtserstellbildschirm auf der Anzeige 14 angezeigt, und das hervorgehobene Basisbild wird gemäß den Anweisungen des Bedieners angezeigt, der den Berichtserstellbildschirm verwendet.
  • 23 ist ein Diagramm, das einen Berichtserstellbildschirm bei der dritten Ausführungsform zeigt. Wie in 23 gezeigt, enthält ein Berichtserstellbildschirm 50B die Satzanzeigeregion 51 und die Bildanzeigeregion 52, ähnlich wie der Berichtserstellbildschirm 50 bei der ersten Ausführungsform. In der Satzanzeigeregion 51 sind eine Designationstaste 58 und die Befundeingaberegion 54 enthalten. Ein Zeichen der Grenze, das eine Eigenschaft ist, bei der Änderungen in dem ersten und zweiten medizinischen Bild G1 und G2 aufgetreten sind, wird der Designationstaste 58 hinzugefügt.
  • In einem Fall, in dem der Bediener die Designationstaste 58 auf dem Berichtserstellbildschirm 50B auswählt, zeigt die Anzeigesteuereinheit 24 die hervorgehobenen Basisbilder BG1a und BG2a für die zwei medizinischen Bilder G1 und G2 in der Bildanzeigeregion 52 an. 24 ist ein Diagramm, das den Berichtserstellbildschirm zeigt, in dem die hervorgehobenen Basisbilder bei der dritten Ausführungsform angezeigt werden. Wie in 24 gezeigt, werden zwei hervorgehobene Basisbilder BG1a und BG2a in der Bildanzeigeregion 52 des Berichtserstellbildschirms 50B angezeigt. Der Bediener kann die Eigenschaft, bei der die Änderung aufgetreten ist, in den zwei angezeigten hervorgehobenen Basisbildern BG1a und BG2a leicht überprüfen.
  • Bei der dritten Ausführungsform sind Erstellung, Speicherung und Übertragung des Auswertungsberichts die gleichen wie die bei der ersten Ausführungsform, und daher wird detaillierte Beschreibung hier weggelassen.
  • Ferner kann bei der dritten Ausführungsform, wie bei der zweiten Ausführungsform, die Phrase, die sich auf das Eigenschaftselement bezieht, das in den Kommentaren zu Befunden enthalten ist, spezifiziert werden, und Informationen zum Zugreifen auf das Basisbild, das als eine Basis zum Ableiten der Eigenschaften dient, die durch die spezifizierte Phrase dargestellt werden, können dazu hinzugefügt werden.
  • Darüber hinaus wird bei jeder der obigen Ausführungsformen ein Auswertungsbericht erstellt, der die Kommentare zu Befunden enthält, die von dem Bediener eingegeben wurden, aber die vorliegende Offenbarung ist nicht darauf beschränkt. Die Berichterstellungseinheit 25 kann automatisch Kommentare zu Befunden auf der Grundlage des von der Eigenschaftsableitungseinheit 22 abgeleiteten Eigenschaftselements erzeugen. In diesem Fall weist die Berichterstellungseinheit 25 ein Lernmodell auf, das trainiert wurde, um einen Satz auszugeben, der die Eigenschaftsinformationen in einem Fall enthält, in dem die Eigenschaftsinformationen eingegeben werden. Als das Lernmodell kann beispielsweise ein rekurrentes neuronales Netzwerk verwendet werden.
  • Ferner werden bei jeder der obigen Ausführungsformen das Basisbild und die Heatmap für das Basisbild kombiniert, um das hervorgehobene Basisbild abzuleiten, in dem die Basisregion hervorgehoben ist, aber die vorliegende Offenbarung ist nicht darauf beschränkt. Anstatt eine Heatmap zu erstellen, kann das hervorgehobene Basisbild auch durch Hinzufügen einer Markierung, beispielsweise eines Pfeils, zu der Basisregion in dem Basisbild als eine Anmerkung oder durch Hinzufügen von Textinformationen, beispielsweise eines Kommentars, abgeleitet werden.
  • Ferner ist bei jeder der obigen Ausführungsformen, obwohl der Unterstützungsprozess für Erstellung von Auswertungsbericht unter Verwendung eines medizinischen Bildes mit der Lunge als das Diagnoseziel durchgeführt wird, das Diagnoseziel nicht auf die Lunge beschränkt. Zusätzlich zu der Lunge kann jeder Teil eines menschlichen Körpers, wie zum Beispiel Herz, Leber, Gehirn und Gliedmaßen, diagnostiziert werden.
  • In dem Auswertungsbericht kann das Diagnoseergebnis des Radiologen als diagnostische Informationen beschrieben werden, die auf mindestens einem Stück von Eigenschaftsinformationen basieren. Bei der vorliegenden Ausführungsform können Informationen zum Zugreifen auf mindestens ein Stück von Eigenschaftsinformationen aus den Diagnoseinformationen zu den in dem Auswertungsbericht beschriebenen Diagnoseinformationen hinzugefügt werden. In einem Fall, in dem mehrere Stücke von Eigenschaftsinformationen vorhanden sind, können Informationen zum Zugreifen auf jedes Stück der Eigenschaftsinformationen aus den Diagnoseinformationen hinzugefügt werden. Da bei der vorliegenden Ausführungsform das Basisbild jedem Eigenschaftselement zugeordnet ist, für das die Eigenschaftsinformationen spezifiziert sind, kann ferner gleichzeitig auf das Basisbild in dem Fall zugegriffen werden, in dem auf die Eigenschaftsinformationen über die Diagnoseinformationen zugegriffen wird.
  • Ferner können bei jeder der obigen Ausführungsformen beispielsweise als Hardwarestrukturen von Verarbeitungseinheiten, die verschiedene Arten von Verarbeitung ausführen, wie die Bilderfassungseinheit 21, die Eigenschaftsableitungseinheit 22, die Basisbild-Ableitungseinheit 23, die Anzeigesteuereinheit 24, die Berichterstellungseinheit 25, die Kommunikationseinheit 26 und die Phrasenspezifizierungseinheit 27, verschiedene unten gezeigte Prozessoren verwendet werden. Wie oben beschrieben, enthalten die verschiedenen Prozessoren eine programmierbare Logikvorrichtung (programmable logic device, PLD) als einen Prozessor, dessen Schaltungskonfiguration nach Herstellung geändert werden kann, wie beispielsweise ein Field Programmable Gate Array (FPGA), eine dedizierte elektrische Schaltung als einen Prozessor, der eine dedizierte Schaltungskonfiguration zum Ausführen spezifischer Verarbeitungen aufweist, wie eine anwendungsspezifische integrierte Schaltung (application-specific intergrated circuit, ASIC), und dergleichen, zusätzlich zu der CPU als einem Allzweckprozessor, der als verschiedene Verarbeitungseinheiten durch Ausführen von Software (Programmen) fungiert.
  • Eine Verarbeitungseinheit kann durch einen der verschiedenen Prozessoren konfiguriert sein, oder sie kann durch eine Kombination der gleichen oder verschiedener Arten von zwei oder mehr Prozessoren konfiguriert sein (zum Beispiel eine Kombination mehrerer FPGAs oder eine Kombination aus der CPU und dem FPGA). Darüber hinaus können mehrere Verarbeitungseinheiten durch einen Prozessor konfiguriert werden. Als ein Beispiel, bei dem mehrere Verarbeitungseinheiten durch einen Prozessor konfiguriert werden, gibt es erstens eine Form, bei der ein Prozessor durch eine Kombination von einer oder mehreren CPUs und Software, wie sie von einem Computer, wie einem Client oder einem Server, typisiert wird, konfiguriert wird und dieser Prozessor als mehrere Verarbeitungseinheiten fungiert. Zweitens gibt es eine Form, bei der ein Prozessor zum Realisieren der Funktion des gesamten Systems einschließlich mehrerer Verarbeitungseinheiten via einem IC(integrated circuit, integrierte Schaltung)-Chip, wie durch einen System On Chip (SoC) oder dergleichen typisiert, verwendet wird. Auf diese Weise sind verschiedene Verarbeitungseinheiten durch Verwenden eines oder mehrerer der oben beschriebenen verschiedenen Prozessoren als Hardwarestrukturen konfiguriert.
  • Ferner kann als die Hardwarestruktur der verschiedenen Prozessoren, weiter insbesondere eine elektrische Schaltung (Schaltkreis), bei der Schaltungselemente wie Halbleiterelemente kombiniert sind, verwendet werden.
  • Bezugszeichenliste
  • 1
    medizinisches Informationssystem
    2
    Bildgebungsvorrichtung
    3
    Auswertungs-WS
    4
    medizinische Versorgungs-WS
    5
    Bildserver
    6
    Bild-DB
    7
    Berichtsserver
    8
    Berichts-DB
    10
    Netzwerk
    11
    CPU
    12
    Informationsverarbeitungsprogramm
    13
    Datenspeicher
    14
    Anzeige
    15
    Eingabevorrichtung
    16
    Speicher
    17
    Netzwerkschnittstelle
    18
    Bus
    20, 20A, 20B
    Informationsverarbeitungsvorrichtung
    21
    Bilderfassungseinheit
    22
    Eigenschaftsableitungseinheit
    22A, 22B
    Lernmodell
    23
    Basisbild-Ableitungseinheit
    24:
    Anzeigesteuereinheit
    25
    Berichterstellungseinheit
    26
    Kommunikationseinheit
    27
    Phrasenspezifizierungseinheit
    27A
    Lernmodell
    30
    überwachte Trainingsdaten
    31, 61
    CNN
    32, 62
    Merkmalskarte
    33, 63
    vollständig verbundene Schicht
    34, 64, 65
    Eigenschaftsinformationen
    34A, 64A
    Eigenschaft
    40a, 40d
    fester Tumor
    40b
    Tumor mit Spicula
    40c
    lobulärer Tumor
    41a bis 41c, 42a bis 42c, 61a, 61b
    Heatmap
    45
    Tumor
    45a
    fester Abschnitt
    45b
    Spicula-Abschnitt
    45c
    lobulärer Abschnitt
    46
    Tomographieebene
    50, 50A, 50B
    Anzeigebildschirm
    51
    Satzanzeigeregion
    52
    Bildanzeigeregion
    53Abis 53C, 58
    Designationstaste
    54
    Befundeingaberegion
    55
    Bestätigungstaste
    56
    Anzeigetaste
    57A bis 57C
    Hyperlink
    Ak, A1k, A2k
    Basisregion
    GBk, GB1k, GB2k
    spezifisches Bild
    Hk, H1k, H2k
    Heatmap
    Si, Sk, S1k, S2k
    Tomographiebild
    Ba, Bb, Bc, B1a, B2a
    Basisbild
    BGa, BGb, BGc, BG1a, BG2a
    hervorgehobenes Basisbild
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2019153250 A [0005]

Claims (10)

  1. Informationsverarbeitungsvorrichtung, die mindestens einen Prozessor umfasst, wobei der Prozessor so konfiguriert ist, dass er Eigenschaftsinformationen ableitet, die eine Eigenschaft für mindestens ein vorbestimmtes Eigenschaftselement angeben, das sich auf eine in einem Bild enthaltene Struktur von Interesse bezieht, und in dem Bild eine Basisregion, die als eine Basis zum Ableiten der Eigenschaft dient, die sich auf die Struktur von Interesse bezieht, für jedes Eigenschaftselement spezifiziert und ein Basisbild ableitet, bei dem die Basisregion spezifiziert ist.
  2. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei der Prozessor so konfiguriert ist, dass er in einem Fall, in dem das Bild ein dreidimensionales Bild ist, das aus mehreren Tomographiebildern besteht, für jedes Eigenschaftselement ein Tomographiebild, das die Basisregion enthält, die die Eigenschaft des Eigenschaftselements am deutlichsten darstellt, aus den mehreren Tomographiebildern als das Basisbild auswählt, um das Basisbild abzuleiten.
  3. Informationsverarbeitungsvorrichtung nach Anspruch 1, wobei der Prozessor so konfiguriert ist, dass er in einem Fall, in dem das Bild ein dreidimensionales Bild ist, das aus mehreren Tomographiebildern besteht, für jedes Eigenschaftselement ein Basisbild, das die Basisregion enthält, die die Eigenschaft des Eigenschaftselements am deutlichsten darstellt, aus den mehreren Tomographiebildern erzeugt, um das Basisbild abzuleiten.
  4. Informationsverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 3, wobei der Prozessor so konfiguriert ist, dass er die Eigenschaft für das Eigenschaftselement ableitet, bei dem eine Änderung in Bezug auf die Struktur von Interesse zwischen einem ersten Bild, das zu einem ersten Punkt in der Zeit erfasst wurde, und einem zweiten Bild, das zu einem zweiten Punkt in der Zeit erfasst wurde, der sich von dem ersten Punkt in der Zeit unterscheidet, aufgetreten ist, und für das Eigenschaftselement, bei dem die Änderung der Eigenschaft zwischen dem ersten Bild und dem zweiten Bild aufgetreten ist, die Basisregion in mindestens einem von dem ersten Bild oder dem zweiten Bild spezifiziert und das Basisbild ableitet.
  5. Informationsverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 4, wobei der Prozessor so konfiguriert ist, dass er eine Designationstaste zum Designieren mindestens eines Eigenschaftselements auf einer Anzeige anzeigt, und die Designationstaste auswählt, um ein Basisbild für ein der ausgewählten Designationstaste entsprechendes Eigenschaftselement auf der Anzeige anzuzeigen.
  6. Informationsverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 5, wobei der Prozessor so konfiguriert ist, dass er einen Satz, der Phrasen enthält, die sich auf das Eigenschaftselement beziehen, analysiert, um eine Phrase zu spezifizieren, die sich auf das Eigenschaftselement bezieht, das in dem Satz enthalten ist, und der spezifizierten Phrase Informationen zum Zugreifen auf das Basisbild hinzuzufügen, das als eine Basis zum Ableiten der durch die spezifizierte Phrase dargestellten Eigenschaft dient, und den Satz auf einer Anzeige anzeigt und das Basisbild, das der in dem Satz ausgewählten Phrase entspricht, auf der Anzeige anzeigt.
  7. Informationsverarbeitungsvorrichtung nach Anspruch 6, wobei der Prozessor so konfiguriert ist, dass er den Satz durch Verwenden der Eigenschaft für das Eigenschaftselement erzeugt.
  8. Informationsverarbeitungsvorrichtung nach einem der Ansprüche 5 bis 7, wobei der Prozessor so konfiguriert ist, dass er die Basisregion in dem angezeigten Basisbild hervorhebt.
  9. Informationsverarbeitungsverfahren, umfassend: Ableiten von Eigenschaftsinformationen, die eine Eigenschaft für mindestens ein vorbestimmtes Eigenschaftselement angeben, das sich auf eine in einem Bild enthaltene Struktur von Interesse bezieht; und Spezifizieren einer Basisregion in dem Bild, die als eine Basis zum Ableiten der Eigenschaft dient, die sich auf die Struktur von Interesse bezieht, für jedes Eigenschaftselement und Ableiten eines Basisbildes, bei dem die Basisregion spezifiziert ist.
  10. Computerlesbares Medium, das speichert: Ein Informationsverarbeitungsprogramm zum Veranlassen eines Computers, eine Prozedur auszuführen, die umfasst: Ableiten von Eigenschaftsinformationen, die eine Eigenschaft für mindestens ein vorbestimmtes Eigenschaftselement angeben, das sich auf eine in einem Bild enthaltene Struktur von Interesse bezieht; und Spezifizieren einer Basisregion in dem Bild, die als eine Basis zum Ableiten der Eigenschaft dient, die sich auf die Struktur von Interesse bezieht, für jedes Eigenschaftselement und Ableiten eines Basisbildes, bei dem die Basisregion spezifiziert ist.
DE112021001190.1T 2020-02-20 2021-02-19 Informationsverarbeitungsvorrichtung, -verfahren und -programm Pending DE112021001190T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-027210 2020-02-20
JP2020027210 2020-02-20
PCT/JP2021/006422 WO2021167080A1 (ja) 2020-02-20 2021-02-19 情報処理装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
DE112021001190T5 true DE112021001190T5 (de) 2022-12-15

Family

ID=77390873

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021001190.1T Pending DE112021001190T5 (de) 2020-02-20 2021-02-19 Informationsverarbeitungsvorrichtung, -verfahren und -programm

Country Status (4)

Country Link
US (1) US20220392619A1 (de)
JP (1) JP7420913B2 (de)
DE (1) DE112021001190T5 (de)
WO (1) WO2021167080A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021107098A1 (de) * 2019-11-29 2021-06-03

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153250A (ja) 2018-03-06 2019-09-12 富士フイルム株式会社 医療文書作成支援装置、方法およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5308973B2 (ja) 2009-09-16 2013-10-09 富士フイルム株式会社 医用画像情報表示装置および方法並びにプログラム
JP6536153B2 (ja) 2015-04-27 2019-07-03 コニカミノルタ株式会社 医用画像表示装置及びプログラム
JP2018175227A (ja) 2017-04-10 2018-11-15 富士フイルム株式会社 医用画像表示装置、方法およびプログラム
JP7082993B2 (ja) 2018-01-24 2022-06-09 富士フイルム株式会社 医療画像処理装置、方法及びプログラム、診断支援装置、方法及びプログラム並びに医療支援システム及び方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019153250A (ja) 2018-03-06 2019-09-12 富士フイルム株式会社 医療文書作成支援装置、方法およびプログラム

Also Published As

Publication number Publication date
JPWO2021167080A1 (de) 2021-08-26
US20220392619A1 (en) 2022-12-08
JP7420913B2 (ja) 2024-01-23
WO2021167080A1 (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
DE10311319B4 (de) Verfahren, System und Computerprodukt zur Planung eines Herzinterventionsverfahrens
DE102018126895A1 (de) Bildsuchvorrichtung, Bildsuchverfahren und Bildsuchprogramm
DE102004055767A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bilddaten, um die Erfassung einer Erkrankung zu untersützen
DE102006012015A1 (de) Verfahren und Systeme zur Überwachung einer Tumorbelastung
DE102012201169A1 (de) Automatische Registrierung von Bildpaaren von medizinischen Bilddatensätzen
DE102011053044A1 (de) System und Verfahren zur Analyse und sichtbaren Darstellung lokaler klinischer Merkmale
DE102018108072A1 (de) Einrichtung, Verfahren und Programm zur Klassifizierung medizinischer Bilder
DE102008002882A1 (de) System und Verfahren zu von einer elektronischen Krankenakte beeinflusster Datenerfassung, -verarbeitung und -anzeige
DE10353883A1 (de) Verfahren und Einrichtung zum Messen Krankheits-relevanter Gewebeveränderungen
DE102007057096A1 (de) Verfahren und Vorrichtung zur automatischen Registrierung von Läsionen zwischen Untersuchungen
DE102005036412A1 (de) Verbesserte GGN-Segmentierung in Lungenaufnahmen für Genauigkeit und Konsistenz
DE102006033383A1 (de) Verfahren zum Bestimmen einer Eigenschaftskarte für einen Gegenstand, insbesondere für ein Lebewesen, basierend auf zumindest einem ersten Bild, insbesondere Kernspinresonanzbild
DE112012002671T5 (de) Anzeigen einer Vielzahl von registrierten Bildern
DE112019005902T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE102008037558A1 (de) System und Verfahren zum Diagnostizieren eines medizinischen Zustands
JP2023175011A (ja) 文書作成支援装置、方法およびプログラム
DE112021000329T5 (de) Unterstützungsvorrichtung, verfahren und programm für dokumentenerstellung
DE102014201321A1 (de) Bestimmung von Läsionen in Bilddaten eines Untersuchungsobjekts
DE112019004300T5 (de) Ähnlichkeitsbestimmungsvorrichtung, ähnlichkeitsbestimmungsverfahren und ähnlichkeitsbestimmungsprogramm
DE112021001190T5 (de) Informationsverarbeitungsvorrichtung, -verfahren und -programm
DE102013210252A1 (de) Automatische Generierung eines Auswahl-Bilddatensatzes
DE112021006834T5 (de) Vorrichtung, verfahren und programm zum anzeigen medizinischer bilder
DE112019005308T5 (de) Erzeugungsvorrichtung, -verfahren und -programm für gewichtetes bild, bestimmerlernvorrichtung, -verfahren und -programm, bereichsextraktionsvorrichtung, -verfahren und -programm und bestimmer
DE112020005870T5 (de) Unterstützungsvorrichtung für dokumentenerstellung, unterstützungsverfahren für dokumentenerstellung und unterstützungsprogramm für dokumentenerstellung
DE112021000934T5 (de) Unterstützungsvorrichtung für dokumentenerstellung, unterstützungsverfahren für dokumentenerstellung und programm

Legal Events

Date Code Title Description
R012 Request for examination validly filed