WO2022215530A1 - 医用画像装置、医用画像方法、及び医用画像プログラム - Google Patents

医用画像装置、医用画像方法、及び医用画像プログラム Download PDF

Info

Publication number
WO2022215530A1
WO2022215530A1 PCT/JP2022/013693 JP2022013693W WO2022215530A1 WO 2022215530 A1 WO2022215530 A1 WO 2022215530A1 JP 2022013693 W JP2022013693 W JP 2022013693W WO 2022215530 A1 WO2022215530 A1 WO 2022215530A1
Authority
WO
WIPO (PCT)
Prior art keywords
interest
region
regions
lesion
medical image
Prior art date
Application number
PCT/JP2022/013693
Other languages
English (en)
French (fr)
Inventor
晶路 一ノ瀬
佳児 中村
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to EP22784515.3A priority Critical patent/EP4321100A1/en
Priority to JP2023512928A priority patent/JPWO2022215530A1/ja
Publication of WO2022215530A1 publication Critical patent/WO2022215530A1/ja
Priority to US18/479,817 priority patent/US20240029252A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Definitions

  • the processor when the number of regions of interest having the same attribute as the attribute of the selected region of interest is equal to or greater than a threshold, the processor provides information about the region of interest having an attribute different from the attribute of the selected region of interest. You may perform control to display.
  • control to further display information indicating that the attributes are different may be performed.
  • the medical image program of the present disclosure obtains a medical image, information representing a plurality of regions of interest included in the medical image, and attributes of each of the plurality of regions of interest, and determines at least one region of interest among the plurality of regions of interest. It is for causing a processor included in the medical imaging apparatus to perform a process of controlling the display of information about regions of interest other than the selected region of interest based on the attributes of the selected region of interest.
  • the medical image program of the present disclosure obtains a medical image, information representing a plurality of regions of interest included in the medical image, and attributes of each of the plurality of regions of interest, and determines at least one region of interest among the plurality of regions of interest. This is for causing a processor included in the medical imaging apparatus to execute a process of selecting and generating a finding sentence of a region of interest having the same attribute as the selected region of interest.
  • FIG. 1 is a block diagram showing a schematic configuration of a medical information system
  • FIG. 1 is a block diagram showing an example of the hardware configuration of a medical imaging apparatus
  • FIG. 1 is a block diagram showing an example of a functional configuration of a medical imaging apparatus according to first and second embodiments
  • FIG. It is a figure for demonstrating the process which extracts a lesion.
  • FIG. 10 is a diagram for explaining processing for deriving the name of a lesion; It is a figure which shows an example of the screen by which the lesion was highlighted.
  • 6 is a flowchart showing an example of lesion display processing according to the first embodiment;
  • FIG. 10 is a flowchart showing an example of lesion display processing according to the first embodiment
  • FIG. 1 is a block diagram showing an example of the hardware configuration of a medical imaging apparatus
  • FIG. 1 is a block diagram showing an example of a functional configuration of a medical imaging apparatus according to first and second embodiments
  • FIG. It is a figure for demonstrating the process
  • the medical information system 1 is a system for taking images of a diagnostic target region of a subject and storing the medical images acquired by the taking, based on an examination order from a doctor of a clinical department using a known ordering system.
  • the medical information system 1 is a system for interpretation of medical images and creation of interpretation reports by interpretation doctors, and for viewing interpretation reports and detailed observations of medical images to be interpreted by doctors of the department that requested the diagnosis. be.
  • the image server 5 incorporates a software program that provides a general-purpose computer with the functions of a database management system (DBMS).
  • DBMS database management system
  • the incidental information includes, for example, an image ID (identification) for identifying individual medical images, a patient ID for identifying a patient who is a subject, an examination ID for identifying examination content, and an ID assigned to each medical image. It includes information such as a unique ID (UID: unique identification) that is assigned to the user.
  • the additional information includes the examination date when the medical image was generated, the examination time, the type of imaging device used in the examination for obtaining the medical image, patient information (for example, the patient's name, age, gender, etc.).
  • the interpretation report DB 8 stores, for example, an image ID for identifying a medical image to be interpreted, an interpreting doctor ID for identifying an image diagnostician who performed the interpretation, a lesion name, lesion position information, findings, and confidence levels of findings. An interpretation report in which information such as is recorded is registered.
  • the interpretation WS 3 requests the image server 5 to view medical images, performs various image processing on the medical images received from the image server 5, displays the medical images, analyzes the medical images, emphasizes display of the medical images based on the analysis results, and analyzes the images. Create an interpretation report based on the results.
  • the interpretation WS 3 also supports the creation of interpretation reports, requests registration and viewing of interpretation reports to the interpretation report server 7 , displays interpretation reports received from the interpretation report server 7 , and the like.
  • the interpretation WS3 performs each of the above processes by executing a software program for each process.
  • the interpretation WS 3 includes a medical imaging apparatus 10, which will be described later, and among the above processes, processes other than those performed by the medical imaging apparatus 10 are performed by well-known software programs. omitted.
  • the storage unit 22 is implemented by a HDD (Hard Disk Drive), SSD (Solid State Drive), flash memory, or the like.
  • a medical image program 30 is stored in the storage unit 22 as a storage medium.
  • the CPU 20 reads out the medical image program 30 from the storage unit 22 , expands it in the memory 21 , and executes the expanded medical image program 30 .
  • the acquisition unit 40 acquires a medical image to be diagnosed (hereinafter referred to as a "diagnosis target image") from the image server 5 via the network I/F 25.
  • a medical image to be diagnosed hereinafter referred to as a "diagnosis target image”
  • the image to be diagnosed is a CT image of the liver.
  • the extraction unit 42 inputs the diagnostic target image to the learned model M1.
  • the learned model M1 outputs information specifying a region in which a lesion is present in the input diagnosis target image.
  • the shaded area indicates the lesion.
  • the extraction unit 42 may extract a region including a lesion using a known CAD (Computer-Aided Diagnosis), or may extract a region specified by the user as the region including the lesion.
  • CAD Computer-Aided Diagnosis
  • the analysis unit 44A analyzes each lesion extracted at step S12 as described above, and derives whether the lesion is benign or malignant.
  • step S20A the display control unit 48A performs control to highlight, on the display 23, a lesion with an attribute different from that of the first lesion selected in step S18, among the second lesions, as described above.
  • the lesion display process ends.
  • the medical imaging apparatus 10 includes an acquisition unit 40, an extraction unit 42, an analysis unit 44B, a selection unit 46, a display control unit 48B, and a generation unit 50.
  • the CPU 20 functions as an acquisition unit 40, an extraction unit 42, an analysis unit 44B, a selection unit 46, a display control unit 48B, and a generation unit 50.
  • the generation unit 50 generates a finding sentence summarizing findings of lesions having the same name as the name of the lesion selected by the selection unit 46 .
  • one of the five liver cyst lesions (the lesion indicated by the arrow representing the mouse pointer in the example of FIG. 13) is specified by the user, and the specified lesion name and
  • An example is shown in which a finding statement summarizing the findings of five liver cysts with the same name is generated.
  • the display control unit 48B performs control to display information representing a plurality of lesions extracted by the extraction unit 42 on the display 23, in the same manner as the display control unit 48 according to the first embodiment. In addition, the display control unit 48B performs control to display the observation text generated by the generation unit 50 on the display 23.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

医用画像装置は、医用画像、医用画像に含まれる複数の関心領域を表す情報、及び複数の関心領域それぞれの属性を取得し、複数の関心領域のうち少なくとも1つの関心領域を選択し、選択した関心領域の属性に基づいて、選択した関心領域以外の関心領域に関する情報を表示する制御を行う。

Description

医用画像装置、医用画像方法、及び医用画像プログラム
 本開示は、医用画像装置、医用画像方法、及び医用画像プログラムに関する。
 国際公開2020/209382号公報には、医用画像に含まれる異常陰影に関する特徴を表す複数の所見を検出し、検出した所見の中から読影レポートの作成に使用する少なくとも1つの所見を特定し、特定した所見を用いて読影レポートを作成する技術が開示されている。
 しかしながら、国際公開2020/209382号公報に記載の技術では、医用画像に多数の関心領域が含まれる場合、読影レポート等の医療文書を作成するためには、医師がそれぞれの関心領域を指定することになるため、医師にとって手間のかかるものであった。すなわち、国際公開2020/209382号公報に記載の技術では、医用画像に多数の関心領域が含まれる場合に、医療文書の作成を適切に支援することができない場合がある。
 本開示は、以上の事情を鑑みてなされたものであり、医用画像に多数の関心領域が含まれる場合においても医療文書の作成を適切に支援することができる医用画像装置、医用画像方法、及び医用画像プログラムを提供することを目的とする。
 本開示の医用画像装置は、少なくとも一つのプロセッサを備える医用画像装置であって、プロセッサは、医用画像、医用画像に含まれる複数の関心領域を表す情報、及び複数の関心領域それぞれの属性を取得し、複数の関心領域のうち少なくとも1つの関心領域を選択し、選択した関心領域の属性に基づいて、選択した関心領域以外の関心領域に関する情報を表示する制御を行う。
 なお、本開示の医用画像装置は、プロセッサが、選択した関心領域の属性と同一属性の関心領域に関する情報を表示する制御を行ってもよい。
 また、本開示の医用画像装置は、プロセッサが、選択した関心領域の属性と異なる属性の関心領域に関する情報を表示する制御を行ってもよい。
 また、本開示の医用画像装置は、プロセッサが、選択した関心領域の属性と同一属性の関心領域の数が閾値以上である場合に、選択した関心領域の属性と異なる属性の関心領域に関する情報を表示する制御を行ってもよい。
 また、本開示の医用画像装置は、関心領域が、病変を含む領域であり、属性が、病変が良性であるか又は悪性であるかを含み、プロセッサが、選択した関心領域が良性の病変を含み、かつ良性の病変を含む関心領域の数が閾値以上である場合に、悪性の病変を含む関心領域に関する情報を表示する制御を行ってもよい。
 また、本開示の医用画像装置は、プロセッサが、関心領域に関する情報を表示する制御として、関心領域を強調表示する制御を行ってもよい。
 また、本開示の医用画像装置は、プロセッサが、関心領域に関する情報を表示する制御として、選択した関心領域の属性と異なる属性の関心領域が存在することを表す情報を表示する制御を行ってもよい。
 また、本開示の医用画像装置は、プロセッサが、選択した関心領域以外の関心領域について、過去に検出された際と比較して属性が異なる場合、属性が異なることを表す情報を更に表示する制御を行ってもよい。
 また、本開示の医用画像方法は、医用画像、医用画像に含まれる複数の関心領域を表す情報、及び複数の関心領域それぞれの属性を取得し、複数の関心領域のうち少なくとも1つの関心領域を選択し、選択した関心領域の属性に基づいて、選択した関心領域以外の関心領域に関する情報を表示する制御を行う処理を医用画像装置が備えるプロセッサが実行するものである。
 また、本開示の医用画像プログラムは、医用画像、医用画像に含まれる複数の関心領域を表す情報、及び複数の関心領域それぞれの属性を取得し、複数の関心領域のうち少なくとも1つの関心領域を選択し、選択した関心領域の属性に基づいて、選択した関心領域以外の関心領域に関する情報を表示する制御を行う処理を医用画像装置が備えるプロセッサに実行させるためのものである。
 また、本開示の医用画像装置は、少なくとも一つのプロセッサを備える医用画像装置であって、プロセッサは、医用画像、医用画像に含まれる複数の関心領域を表す情報、及び複数の関心領域それぞれの属性を取得し、複数の関心領域のうち少なくとも1つの関心領域を選択し、選択した関心領域の属性と同一属性の関心領域の所見文を生成する。
 また、本開示の医用画像方法は、医用画像、医用画像に含まれる複数の関心領域を表す情報、及び複数の関心領域それぞれの属性を取得し、複数の関心領域のうち少なくとも1つの関心領域を選択し、選択した関心領域の属性と同一属性の関心領域の所見文を生成する処理を医用画像装置が備えるプロセッサが実行するものである。
 また、本開示の医用画像プログラムは、医用画像、医用画像に含まれる複数の関心領域を表す情報、及び複数の関心領域それぞれの属性を取得し、複数の関心領域のうち少なくとも1つの関心領域を選択し、選択した関心領域の属性と同一属性の関心領域の所見文を生成する処理を医用画像装置が備えるプロセッサに実行させるためのものである。
 本開示によれば、医用画像に多数の関心領域が含まれる場合においても医療文書の作成を適切に支援することができる。
医療情報システムの概略構成を示すブロック図である。 医用画像装置のハードウェア構成の一例を示すブロック図である。 第1及び第2実施形態に係る医用画像装置の機能的な構成の一例を示すブロック図である。 病変を抽出する処理を説明するための図である。 病変の名称を導出する処理を説明するための図である。 病変が強調表示された画面の一例を示す図である。 第1実施形態に係る病変表示処理の一例を示すフローチャートである。 病変の属性を導出する処理を説明するための図である。 病変が強調表示された画面の一例を示す図である。 第2実施形態に係る病変表示処理の一例を示すフローチャートである。 第3実施形態に係る医用画像装置の機能的な構成の一例を示すブロック図である。 病変の名称及び所見を導出する処理を説明するための図である。 所見文を生成する処理を説明するための図である。 第3実施形態に係る所見文生成処理の一例を示すフローチャートである。 変形例に係る病変が強調表示された画面の一例を示す図である。
 以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
 [第1実施形態]
 まず、図1を参照して、開示の技術に係る医用画像装置を適用した医療情報システム1の構成を説明する。医療情報システム1は、公知のオーダリングシステムを用いた診療科の医師からの検査オーダに基づいて、被写体の診断対象部位の撮影、及び撮影により取得された医用画像の保管を行うためのシステムである。また、医療情報システム1は、読影医による医用画像の読影と読影レポートの作成、及び依頼元の診療科の医師による読影レポートの閲覧と読影対象の医用画像の詳細観察とを行うためのシステムである。
 図1に示すように、本実施形態に係る医療情報システム1は、複数の撮影装置2、読影端末である複数の読影ワークステーション(WorkStation:WS)3、診療科WS4、画像サーバ5、画像データベース(DataBase:DB)6、読影レポートサーバ7、及び読影レポートDB8を含む。撮影装置2、読影WS3、診療科WS4、画像サーバ5、及び読影レポートサーバ7は、有線又は無線のネットワーク9を介して互いに通信可能な状態で接続される。また、画像DB6は画像サーバ5に接続され、読影レポートDB8は読影レポートサーバ7に接続される。
 撮影装置2は、被写体の診断対象部位を撮影することにより、診断対象部位を表す医用画像を生成する装置である。撮影装置2は、例えば、単純X線撮影装置、内視鏡装置、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、及びPET(Positron Emission Tomography)装置等であってもよい。撮影装置2により生成された医用画像は画像サーバ5に送信され、保存される。
 診療科WS4は、診療科の医師が医用画像の詳細観察、読影レポートの閲覧、及び電子カルテの作成等に利用するコンピュータである。診療科WS4では、患者の電子カルテの作成、画像サーバ5に対する画像の閲覧要求、及び画像サーバ5から受信した医用画像の表示の各処理が、各処理のためのソフトウェアプログラムを実行することにより行われる。また、診療科WS4では、医用画像中の疾患を疑う領域の自動検出又は強調表示、読影レポートサーバ7に対する読影レポートの閲覧要求、及び読影レポートサーバ7から受信した読影レポートの表示等の各処理が、各処理のためのソフトウェアプログラムを実行することにより行われる。
 画像サーバ5には、汎用のコンピュータにデータベース管理システム(DataBase Management System:DBMS)の機能を提供するソフトウェアプログラムが組み込まれる。画像サーバ5は、撮影装置2からの医用画像の登録要求を受け付けると、その医用画像をデータベース用のフォーマットに整えて画像DB6に登録する。
 画像DB6には、撮影装置2において取得された医用画像を表す画像データと、画像データに付帯する付帯情報とが登録される。付帯情報には、例えば、個々の医用画像を識別するための画像ID(identification)、被写体である患者を識別するための患者ID、検査内容を識別するための検査ID、及び医用画像毎に割り当てられるユニークなID(UID:unique identification)等の情報が含まれる。また、付帯情報には、医用画像が生成された検査日、検査時刻、医用画像を取得するための検査で使用された撮影装置の種類、患者情報(例えば、患者の氏名、年齢、及び性別等)、検査部位(すなわち、撮影部位)、撮影情報(例えば、撮影プロトコル、撮影シーケンス、撮像手法、撮影条件、及び造影剤の使用有無等)、及び1回の検査で複数の医用画像を取得したときのシリーズ番号あるいは採取番号等の情報が含まれる。また、画像サーバ5は、読影WS3からの閲覧要求をネットワーク9経由で受信すると、画像DB6に登録されている医用画像を検索し、検索された医用画像を要求元の読影WS3に送信する。
 読影レポートサーバ7には、汎用のコンピュータにDBMSの機能を提供するソフトウェアプログラムが組み込まれる。読影レポートサーバ7は、読影WS3からの読影レポートの登録要求を受け付けると、その読影レポートをデータベース用のフォーマットに整えて読影レポートデータベース8に登録する。また、読影レポートの検索要求を受け付けると、その読影レポートを読影レポートDB8から検索する。
 読影レポートDB8には、例えば、読影対象の医用画像を識別する画像ID、読影を行った画像診断医を識別するための読影医ID、病変名、病変の位置情報、所見、及び所見の確信度等の情報が記録された読影レポートが登録される。
 ネットワーク9は、病院内の各種機器を接続する有線又は無線のローカルエリアネットワークである。読影WS3が他の病院又は診療所に設置されている場合には、ネットワーク9は、各病院のローカルエリアネットワーク同士をインターネット又は専用回線で接続する構成としてもよい。何れの場合にも、ネットワーク9は光ネットワーク等の医用画像の高速転送が実現可能な構成にすることが好ましい。
 読影WS3は、画像サーバ5に対する医用画像の閲覧要求、画像サーバ5から受信した医用画像に対する各種画像処理、医用画像の表示、医用画像に対する解析処理、解析結果に基づく医用画像の強調表示、及び解析結果に基づく読影レポートの作成を行う。また、読影WS3は、読影レポートの作成の支援、読影レポートサーバ7に対する読影レポートの登録要求と閲覧要求、及び読影レポートサーバ7から受信した読影レポートの表示等を行う。読影WS3は、以上の各処理を、各処理のためのソフトウェアプログラムを実行することにより行う。読影WS3は、後述する医用画像装置10を内包しており、上記の各処理のうち、医用画像装置10が行う処理以外の処理は、周知のソフトウェアプログラムにより行われるため、ここでは詳細な説明は省略する。また、医用画像装置10が行う処理以外の処理を読影WS3において行わず、別途その処理を行うコンピュータをネットワーク9に接続しておき、読影WS3からの処理の要求に応じて、そのコンピュータにおいて要求された処理を行うようにしてもよい。以下、読影WS3に内包される医用画像装置10について詳細に説明する。
 次に、図2を参照して、本実施形態に係る医用画像装置10のハードウェア構成を説明する。図2に示すように、医用画像装置10は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、医用画像装置10は、液晶ディスプレイ等のディスプレイ23、キーボードとマウス等の入力装置24、及びネットワーク9に接続されるネットワークI/F(InterFace)25を含む。CPU20、メモリ21、記憶部22、ディスプレイ23、入力装置24、及びネットワークI/F25は、バス27に接続される。
 記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、医用画像プログラム30が記憶される。CPU20は、記憶部22から医用画像プログラム30を読み出してからメモリ21に展開し、展開した医用画像プログラム30を実行する。
 次に、図3を参照して、本実施形態に係る医用画像装置10の機能的な構成について説明する。図3に示すように、医用画像装置10は、取得部40、抽出部42、解析部44、選択部46、及び表示制御部48を含む。CPU20が医用画像プログラム30を実行することにより、取得部40、抽出部42、解析部44、選択部46、及び表示制御部48として機能する。
 取得部40は、診断対象の医用画像(以下、「診断対象画像」という)を、ネットワークI/F25を介して、画像サーバ5から取得する。なお、以下において、診断対象画像が、肝臓のCT画像である場合を例に説明する。
 抽出部42は、取得部40により取得された診断対象画像から病変を含む領域を抽出する。具体的には、抽出部42は、診断対象画像から病変を検出するための学習済みモデルM1を用いて、病変を含む領域を抽出する。診断対象画像における病変を含む領域が、開示の技術に係る関心領域の一例である。なお、関心領域は、病変を含む領域に限定されず、肺及び肝臓等の臓器の領域を適用してもよいし、肝臓のS1~S8に区分けされた亜区域等の解剖学的構造の領域を適用してもよい。
 学習済みモデルM1は、例えば、医用画像を入力とし、その医用画像に含まれる病変を含む領域を出力とするCNN(Convolutional Neural Network)によって構成される。学習済みモデルM1は、例えば、病変を含む医用画像と、その医用画像中の病変が存在する領域を特定した情報と、の多数の組み合わせを学習用データとして用いた機械学習によって学習されたモデルである。
 一例として図4に示すように、抽出部42は、診断対象画像を学習済みモデルM1に入力する。学習済みモデルM1は、入力された診断対象画像に含まれる病変が存在する領域を特定した情報を出力する。図4の例では、斜線で塗りつぶされた領域が病変を示している。なお、抽出部42は、公知のCAD(Computer-Aided Diagnosis)により病変を含む領域を抽出してもよいし、ユーザにより指定された領域を、病変を含む領域として抽出してもよい。
 解析部44は、抽出部42により抽出された病変それぞれについて解析を行い、病変の属性の一例として病変の名称を導出する。具体的には、解析部44は、病変の名称を導出するための学習済みモデルM2を用いて、病変の名称を導出する。学習済みモデルM2は、例えば、病変を含む医用画像及びその病変が存在する医用画像中の領域を特定した情報を入力とし、その病変の名称を出力とするCNNによって構成される。学習済みモデルM2は、例えば、病変を含む医用画像及びその病変が存在する医用画像中の領域を特定した情報と、その病変の名称との多数の組み合わせを学習用データとして用いた機械学習によって学習されたモデルである。
 一例として図5に示すように、解析部44は、診断対象画像及びその診断対象画像について抽出部42により抽出された病変が存在する領域を特定した情報を学習済みモデルM2に入力する。学習済みモデルM2は、入力された診断対象画像に含まれる病変の名称を出力する。図5では、5つの病変の名称が肝嚢胞であり、1つの病変の名称が肝転移である例を示している。なお、病変の属性は、病変の名称に限定されず、例えば、位置、サイズ、石灰化の有無、良性であるか又は悪性であるか、及び辺縁不整の有無等の所見でもよい。また、病変の属性は、複数でもよい。
 選択部46は、抽出部42により抽出された複数の病変の中から、ユーザにより指定された少なくとも1つの病変を選択する。
 表示制御部48は、抽出部42により抽出された診断対象画像に含まれる複数の病変を表す情報を抽出部42から取得する。また、表示制御部48は、解析部44により導出された複数の病変それぞれの属性を解析部44から取得する。なお、表示制御部48は、診断対象画像に含まれる複数の病変を表す情報及び複数の病変それぞれの属性を診療科WS4等の外部装置から取得してもよい。この場合、抽出部42及び解析部44は、その外部装置が備えることになる。
 表示制御部48は、抽出部42により抽出された複数の病変を表す情報をディスプレイ23に表示する制御を行う。ユーザは、ディスプレイ23に表示された複数の病変の中から、読影レポート等の医療文書の作成対象とする病変を指定する。この指定された病変が前述した選択部46により選択される。
 また、表示制御部48は、選択部46により選択された病変(以下、「第1の病変」という)の属性に基づいて、第1の病変以外の病変(以下、「第2の病変」という)に関する情報をディスプレイ23に表示する制御を行う。本実施形態では、表示制御部48は、第1の病変、及び第2の病変のうち第1の病変と同一名称の病変をディスプレイ23に強調表示する制御を行う。一例として図6に示すように、表示制御部48は、第1の病変、及び第1の病変と同一名称の病変を矩形の枠線で囲むことによって、病変を強調表示する制御を行う。なお、図6では、図5において肝嚢胞の病変のうちの1つ(図6の例では、マウスポインタを表す矢印により指し示されている病変)がユーザにより指定された場合の強調表示の例を示している。このように、ユーザが医療文書の作成対象として指定した病変と同一名称の病変をユーザが簡易に把握できる。これにより、ユーザは、同一名称の病変の所見をまとめた所見文を作成し易くなる。
 なお、表示制御部48は、上記枠線の色を病変の名称に応じて予め設定された色とすることによって、病変の名称を識別可能に表示する制御を行ってもよい。また、例えば、表示制御部48は、病変を点滅させること、予め定められたマークを付加すること、又は病変の領域の外縁を線で描画すること等によって病変を強調表示する制御を行ってもよい。
 次に、図7を参照して、本実施形態に係る医用画像装置10の作用を説明する。CPU20が医用画像プログラム30を実行することによって、図7に示す病変表示処理が実行される。図7に示す病変表示処理は、例えば、ユーザにより実行開始の指示が入力された場合に実行される。
 図7のステップS10で、取得部40は、診断対象画像を、ネットワークI/F25を介して、画像サーバ5から取得する。ステップS12で、抽出部42は、前述したように、ステップS10で取得された診断対象画像から病変を含む領域を抽出する。ステップS14で、解析部44は、前述したように、ステップS12で抽出された病変それぞれについて解析を行い、病変の名称を導出する。
 ステップS16で、表示制御部48は、ステップS12で抽出された複数の病変を表す情報をディスプレイ23に表示する制御を行う。ユーザは、ディスプレイ23に表示された複数の病変の中から、読影レポート等の医療文書の作成対象とする病変を指定する。ステップS18で、選択部46は、複数の病変の中から、ユーザにより指定された少なくとも1つの病変を選択する。
 ステップS20で、表示制御部48は、前述したように、ステップS18で選択された第1の病変、及び第1の病変と同一名称の病変をディスプレイ23に強調表示する制御を行う。ステップS20の処理が終了すると、病変表示処理が終了する。
 以上説明したように、本実施形態によれば、医用画像に多数の病変が含まれる場合においても、ユーザが指定した病変と同一属性の病変が強調表示されるため、ユーザは医療文書を作成し易くなる。従って、医療文書の作成を適切に支援することができる。
 [第2実施形態]
 開示の技術の第2実施形態を説明する。なお、本実施形態に係る医療情報システム1の構成及び医用画像装置10のハードウェア構成は、第1実施形態と同一であるため、説明を省略する。
 図3を参照して、本実施形態に係る医用画像装置10の機能的な構成について説明する。第1実施形態に係る医用画像装置10と同一の機能を有する機能部については、同一の符号を付して説明を省略する。図3に示すように、医用画像装置10は、取得部40、抽出部42、解析部44A、選択部46、及び表示制御部48Aを含む。CPU20が医用画像プログラム30を実行することにより、取得部40、抽出部42、解析部44A、選択部46、及び表示制御部48Aとして機能する。
 解析部44Aは、抽出部42により抽出された病変それぞれについて解析を行い、病変の属性の一例として病変が良性であるか又は悪性であるかを導出する。具体的には、解析部44Aは、病変が良性であるか又は悪性であるかを導出するための学習済みモデルM3を用いて、病変が良性であるか又は悪性であるかを導出する。学習済みモデルM3は、例えば、病変を含む医用画像及びその病変が存在する医用画像中の領域を特定した情報を入力とし、その病変が良性であるか又は悪性であるかを出力とするCNNによって構成される。学習済みモデルM3は、例えば、病変を含む医用画像及びその病変が存在する医用画像中の領域を特定した情報と、その病変が良性であるか又は悪性であるかを表す情報とを学習用データとして用いた機械学習によって学習されたモデルである。
 一例として図8に示すように、解析部44Aは、診断対象画像及びその診断対象画像について抽出部42により抽出された病変が存在する領域を特定した情報を学習済みモデルM3に入力する。学習済みモデルM3は、入力された診断対象画像に含まれる病変が良性であるか又は悪性であるかを出力する。図8では、5つの病変が良性であり、1つの病変が悪性である例を示している。
 表示制御部48Aは、第1実施形態に係る表示制御部48と同様に、抽出部42により抽出された複数の病変を表す情報をディスプレイ23に表示する制御を行う。
 また、表示制御部48Aは、選択部46により選択された第1の病変の属性に基づいて、第1の病変以外の第2の病変に関する情報をディスプレイ23に表示する制御を行う。本実施形態では、表示制御部48Aは、第2の病変のうち第1の病変の属性と異なる属性の病変をディスプレイ23に強調表示する制御を行う。この強調表示の方法は、第1実施形態と同様であるため、詳細な説明を省略する。一例として図9に示すように、表示制御部48Aによる制御により、ユーザにより指定された病変とは属性が異なる病変が強調表示される。なお、図9では、図8において良性の病変のうちの1つ(図9の例では、マウスポインタを表す矢印により指し示されている病変)がユーザにより指定された場合の強調表示の例を示している。
 なお、表示制御部48Aは、選択部46により選択された第1の病変の属性と同一属性の病変の数が閾値TH以上である場合に、第1の病変の属性と異なる属性の病変をディスプレイ23に強調表示する制御を行ってもよい。具体的には、表示制御部48Aは、選択部46により選択された第1の病変が良性の病変であり、かつ良性の病変の数が閾値TH以上である場合に、悪性の病変をディスプレイ23に強調表示する制御を行ってもよい。これにより、医用画像中に多数の良性の病変が存在することに起因する、ユーザによる悪性の病変の見落としを抑制することができる。
 また、表示制御部48Aは、選択部46により選択された第1の病変の属性と同一属性の病変の数が閾値TH以上である場合に、第1の病変の属性と異なる属性の病変が存在することを表す情報をディスプレイ23に表示する制御を行ってもよい。具体的には、表示制御部48Aは、選択部46により選択された第1の病変が良性の病変であり、かつ良性の病変の数が閾値TH以上である場合に、悪性の病変が存在することを表す情報をディスプレイ23に表示する制御を行ってもよい。これにより、ユーザが、医用画像中に悪性の病変が存在することを把握することができる結果、医用画像中に多数の良性の病変が存在することに起因する、ユーザによる悪性の病変の見落としを抑制することができる。
 また、表示制御部48Aは、選択部46により選択された第1の病変以外の第2の病変について、過去に検出された際と比較して属性が異なる場合、属性が異なることを表す情報を更に表示する制御を行ってもよい。具体的には、一例として図15に示すように、表示制御部48Aは、前述したように、第2の病変のうち第1の病変の属性と異なる属性の病変をディスプレイ23に強調表示する制御を行う。この形態例では、表示制御部48Aは、過去に検出された際と比較して属性が異なる第2の病変については、属性が異なることを表す情報を更に表示する制御を行う。図15では、図9と同様に、良性の病変のうちの1つがユーザにより指定され、指定された病変とは異なる属性の病変、すなわち、悪性の病変について、前回に検出された際の属性が良性である場合の例を示している。また、図15では、属性が異なることを表す情報として、前回の検査では病変が良性であったことを表すテキストが表示される例を示している。この形態例では、ユーザは、病変が良性から悪性になったことを把握することができる。
 次に、図10を参照して、本実施形態に係る医用画像装置10の作用を説明する。CPU20が医用画像プログラム30を実行することによって、図10に示す病変表示処理が実行される。図10に示す病変表示処理は、例えば、ユーザにより実行開始の指示が入力された場合に実行される。図10における図7と同一の処理を実行するステップについては、同一のステップ番号を付して説明を省略する。
 図10のステップS14Aで、解析部44Aは、前述したように、ステップS12で抽出された病変それぞれについて解析を行い、病変が良性であるか又は悪性であるかを導出する。
 ステップS20Aで、表示制御部48Aは、前述したように、第2の病変のうち、ステップS18で選択された第1の病変の属性と異なる属性の病変をディスプレイ23に強調表示する制御を行う。ステップS20Aの処理が終了すると、病変表示処理が終了する。
 以上説明したように、本実施形態によれば、医用画像に多数の関心領域が含まれる場合においても医療文書の作成を適切に支援することができる。
 [第3実施形態]
 開示の技術の第3実施形態を説明する。なお、本実施形態に係る医療情報システム1の構成及び医用画像装置10のハードウェア構成は、第1実施形態と同一であるため、説明を省略する。
 図11を参照して、本実施形態に係る医用画像装置10の機能的な構成について説明する。第1実施形態に係る医用画像装置10と同一の機能を有する機能部については、同一の符号を付して説明を省略する。図11に示すように、医用画像装置10は、取得部40、抽出部42、解析部44B、選択部46、表示制御部48B、及び生成部50を含む。CPU20が医用画像プログラム30を実行することにより、取得部40、抽出部42、解析部44B、選択部46、表示制御部48B、及び生成部50として機能する。
 解析部44Bは、抽出部42により抽出された病変それぞれについて解析を行い、病変の属性の一例として病変の名称を導出する。更に、解析部44Bは、抽出部42により抽出された病変それぞれについて解析を行い、病変の所見も導出する。以下では、説明を分かりやすくするために、所見としてサイズを適用した例を説明する。病変のサイズの例としては、病変の長径が挙げられる。
 具体的には、解析部44Bは、病変の名称及び所見を導出するための学習済みモデルM4を用いて、病変の名称及び所見を導出する。学習済みモデルM4は、例えば、病変を含む医用画像及びその病変が存在する医用画像中の領域を特定した情報を入力とし、その病変の名称及び所見を出力とするCNNによって構成される。学習済みモデルM4は、例えば、病変を含む医用画像及びその病変が存在する医用画像中の領域を特定した情報と、その病変の名称及び所見との多数の組み合わせを学習用データとして用いた機械学習によって学習されたモデルである。
 一例として図12に示すように、解析部44Bは、診断対象画像及びその診断対象画像について抽出部42により抽出された病変が存在する領域を特定した情報を学習済みモデルM4に入力する。学習済みモデルM4は、入力された診断対象画像に含まれる病変の名称及び所見を出力する。図12では、5つの病変の名称が肝嚢胞であり、1つの病変の名称が肝転移である例を示している。また、図12では、それぞれの病変について導出されたサイズも示されている。
 一例として図13に示すように、生成部50は、選択部46により選択された病変の名称と同一名称の病変の所見をまとめた所見文を生成する。なお、図13では、5つの肝嚢胞の病変のうちの1つ(図13の例では、マウスポインタを表す矢印により指し示されている病変)がユーザにより指定され、指定された病変の名称と同一名称の5つの肝嚢胞の所見をまとめた所見文が生成された例を示している。
 例えば、生成部50は、選択部46により選択された病変の名称及びその名称と同一名称の病変の所見を、入力された単語からテキストを生成するように学習が行われたリカレントニューラルネットワークに入力することによって所見文を生成する。
 表示制御部48Bは、第1実施形態に係る表示制御部48と同様に、抽出部42により抽出された複数の病変を表す情報をディスプレイ23に表示する制御を行う。また、表示制御部48Bは、生成部50により生成された所見文をディスプレイ23に表示する制御を行う。
 次に、図14を参照して、本実施形態に係る医用画像装置10の作用を説明する。CPU20が医用画像プログラム30を実行することによって、図14に示す所見文生成処理が実行される。図14に示す所見文生成処理は、例えば、ユーザにより実行開始の指示が入力された場合に実行される。図14における図7と同一の処理を実行するステップについては、同一のステップ番号を付して説明を省略する。
 図14のステップS14Bで、解析部44Bは、前述したように、ステップS12で抽出された病変それぞれについて解析を行い、病変の名称及び所見を導出する。
 ステップS22で、生成部50は、前述したように、ステップS18で選択された病変の名称と同一名称の病変の所見をまとめた所見文を生成する。ステップS24で、表示制御部48Bは、ステップS22で生成された所見文をディスプレイ23に表示する制御を行う。ステップS24の処理が終了すると、所見文生成処理が終了する。
 以上説明したように、本実施形態によれば、医用画像に多数の関心領域が含まれる場合においても医療文書の作成を適切に支援することができる。
 なお、上記各実施形態において、例えば、医用画像装置10の各機能部のような各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサで
ある専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 また、上記各実施形態では、医用画像プログラム30が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。医用画像プログラム30は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、医用画像プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 2021年4月7日に出願された日本国特許出願2021-065375号の開示、及び2021年12月22日に出願された日本国特許出願2021-208525号の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (13)

  1.  少なくとも一つのプロセッサを備える医用画像装置であって、
     前記プロセッサは、
     医用画像、前記医用画像に含まれる複数の関心領域を表す情報、及び前記複数の関心領域それぞれの属性を取得し、
     前記複数の関心領域のうち少なくとも1つの関心領域を選択し、
     選択した関心領域の属性に基づいて、選択した関心領域以外の関心領域に関する情報を表示する制御を行う
     医用画像装置。
  2.  前記プロセッサは、
     選択した関心領域の属性と同一属性の関心領域に関する情報を表示する制御を行う
     請求項1に記載の医用画像装置。
  3.  前記プロセッサは、
     選択した関心領域の属性と異なる属性の関心領域に関する情報を表示する制御を行う
     請求項1に記載の医用画像装置。
  4.  前記プロセッサは、
     選択した関心領域の属性と同一属性の関心領域の数が閾値以上である場合に、選択した関心領域の属性と異なる属性の関心領域に関する情報を表示する制御を行う
     請求項3に記載の医用画像装置。
  5.  前記関心領域は、病変を含む領域であり、
     前記属性は、病変が良性であるか又は悪性であるかを含み、
     前記プロセッサは、
     選択した関心領域が良性の病変を含み、かつ良性の病変を含む関心領域の数が前記閾値以上である場合に、悪性の病変を含む関心領域に関する情報を表示する制御を行う
     請求項4に記載の医用画像装置。
  6.  前記プロセッサは、
     前記関心領域に関する情報を表示する制御として、前記関心領域を強調表示する制御を行う
     請求項2から請求項5の何れか1項に記載の医用画像装置。
  7.  前記プロセッサは、
     前記関心領域に関する情報を表示する制御として、選択した関心領域の属性と異なる属性の関心領域が存在することを表す情報を表示する制御を行う
     請求項3から請求項5の何れか1項に記載の医用画像装置。
  8.  前記プロセッサは、
     選択した関心領域以外の関心領域について、過去に検出された際と比較して属性が異なる場合、属性が異なることを表す情報を更に表示する制御を行う
     請求項1から請求項7の何れか1項に記載の医用画像装置。
  9.  医用画像、前記医用画像に含まれる複数の関心領域を表す情報、及び前記複数の関心領域それぞれの属性を取得し、
     前記複数の関心領域のうち少なくとも1つの関心領域を選択し、
     選択した関心領域の属性に基づいて、選択した関心領域以外の関心領域に関する情報を表示する制御を行う
     処理を医用画像装置が備えるプロセッサが実行する医用画像方法。
  10.  医用画像、前記医用画像に含まれる複数の関心領域を表す情報、及び前記複数の関心領域それぞれの属性を取得し、
     前記複数の関心領域のうち少なくとも1つの関心領域を選択し、
     選択した関心領域の属性に基づいて、選択した関心領域以外の関心領域に関する情報を表示する制御を行う
     処理を医用画像装置が備えるプロセッサに実行させるための医用画像プログラム。
  11.  少なくとも一つのプロセッサを備える医用画像装置であって、
     前記プロセッサは、
     医用画像、前記医用画像に含まれる複数の関心領域を表す情報、及び前記複数の関心領域それぞれの属性を取得し、
     前記複数の関心領域のうち少なくとも1つの関心領域を選択し、
     選択した関心領域の属性と同一属性の関心領域の所見文を生成する
     医用画像装置。
  12.  医用画像、前記医用画像に含まれる複数の関心領域を表す情報、及び前記複数の関心領域それぞれの属性を取得し、
     前記複数の関心領域のうち少なくとも1つの関心領域を選択し、
     選択した関心領域の属性と同一属性の関心領域の所見文を生成する
     処理を医用画像装置が備えるプロセッサが実行する医用画像方法。
  13.  医用画像、前記医用画像に含まれる複数の関心領域を表す情報、及び前記複数の関心領域それぞれの属性を取得し、
     前記複数の関心領域のうち少なくとも1つの関心領域を選択し、
     選択した関心領域の属性と同一属性の関心領域の所見文を生成する
     処理を医用画像装置が備えるプロセッサに実行させるための医用画像プログラム。
PCT/JP2022/013693 2021-04-07 2022-03-23 医用画像装置、医用画像方法、及び医用画像プログラム WO2022215530A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP22784515.3A EP4321100A1 (en) 2021-04-07 2022-03-23 Medical image device, medical image method, and medical image program
JP2023512928A JPWO2022215530A1 (ja) 2021-04-07 2022-03-23
US18/479,817 US20240029252A1 (en) 2021-04-07 2023-10-02 Medical image apparatus, medical image method, and medical image program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2021065375 2021-04-07
JP2021-065375 2021-04-07
JP2021208525 2021-12-22
JP2021-208525 2021-12-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/479,817 Continuation US20240029252A1 (en) 2021-04-07 2023-10-02 Medical image apparatus, medical image method, and medical image program

Publications (1)

Publication Number Publication Date
WO2022215530A1 true WO2022215530A1 (ja) 2022-10-13

Family

ID=83545367

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/013693 WO2022215530A1 (ja) 2021-04-07 2022-03-23 医用画像装置、医用画像方法、及び医用画像プログラム

Country Status (4)

Country Link
US (1) US20240029252A1 (ja)
EP (1) EP4321100A1 (ja)
JP (1) JPWO2022215530A1 (ja)
WO (1) WO2022215530A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013100053A1 (ja) * 2011-12-27 2013-07-04 株式会社 東芝 医用画像表示装置及び医用画像保管システム
WO2014184887A1 (ja) * 2013-05-15 2014-11-20 株式会社日立製作所 画像診断支援システム
WO2020209382A1 (ja) 2019-04-11 2020-10-15 富士フイルム株式会社 医療文書作成装置、方法およびプログラム
JP2021029387A (ja) * 2019-08-20 2021-03-01 コニカミノルタ株式会社 医用情報処理装置及びプログラム
JP2021065375A (ja) 2019-10-21 2021-04-30 国立大学法人山形大学 水生生物模型
WO2021107099A1 (ja) * 2019-11-29 2021-06-03 富士フイルム株式会社 文書作成支援装置、文書作成支援方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013100053A1 (ja) * 2011-12-27 2013-07-04 株式会社 東芝 医用画像表示装置及び医用画像保管システム
WO2014184887A1 (ja) * 2013-05-15 2014-11-20 株式会社日立製作所 画像診断支援システム
WO2020209382A1 (ja) 2019-04-11 2020-10-15 富士フイルム株式会社 医療文書作成装置、方法およびプログラム
JP2021029387A (ja) * 2019-08-20 2021-03-01 コニカミノルタ株式会社 医用情報処理装置及びプログラム
JP2021065375A (ja) 2019-10-21 2021-04-30 国立大学法人山形大学 水生生物模型
WO2021107099A1 (ja) * 2019-11-29 2021-06-03 富士フイルム株式会社 文書作成支援装置、文書作成支援方法及びプログラム

Also Published As

Publication number Publication date
US20240029252A1 (en) 2024-01-25
JPWO2022215530A1 (ja) 2022-10-13
EP4321100A1 (en) 2024-02-14

Similar Documents

Publication Publication Date Title
JP2019153250A (ja) 医療文書作成支援装置、方法およびプログラム
JP7000206B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
JP7102509B2 (ja) 医療文書作成支援装置、医療文書作成支援方法、及び医療文書作成支援プログラム
JP2019149005A (ja) 医療文書作成支援装置、方法およびプログラム
US10860894B2 (en) Learning data generation support apparatus, operation method of learning data generation support apparatus, and learning data generation support program
JP2024009342A (ja) 文書作成支援装置、方法およびプログラム
WO2021107099A1 (ja) 文書作成支援装置、文書作成支援方法及びプログラム
US20230005580A1 (en) Document creation support apparatus, method, and program
US11978274B2 (en) Document creation support apparatus, document creation support method, and document creation support program
WO2019193983A1 (ja) 医療文書表示制御装置、医療文書表示制御方法、及び医療文書表示制御プログラム
JP7504987B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP7420914B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022215530A1 (ja) 医用画像装置、医用画像方法、及び医用画像プログラム
WO2022239593A1 (ja) 文書作成支援装置、文書作成支援方法、及び文書作成支援プログラム
WO2022230641A1 (ja) 文書作成支援装置、文書作成支援方法、及び文書作成支援プログラム
JP7371220B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
WO2022220158A1 (ja) 作業支援装置、作業支援方法、及び作業支援プログラム
WO2021172477A1 (ja) 文書作成支援装置、方法およびプログラム
WO2022224848A1 (ja) 文書作成支援装置、文書作成支援方法、及び文書作成支援プログラム
WO2022215529A1 (ja) 医用画像解析装置、医用画像解析方法、及び医用画像解析プログラム
WO2023054646A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
US20230281810A1 (en) Image display apparatus, method, and program
WO2022220081A1 (ja) 文書作成支援装置、文書作成支援方法、及び文書作成支援プログラム
US20230225681A1 (en) Image display apparatus, method, and program
WO2022070528A1 (ja) 医用画像処理装置、方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22784515

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023512928

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 2022784515

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022784515

Country of ref document: EP

Effective date: 20231107