JP2022064763A - X線撮影装置、画像処理方法、および、学習済みモデルの生成方法 - Google Patents

X線撮影装置、画像処理方法、および、学習済みモデルの生成方法 Download PDF

Info

Publication number
JP2022064763A
JP2022064763A JP2020173580A JP2020173580A JP2022064763A JP 2022064763 A JP2022064763 A JP 2022064763A JP 2020173580 A JP2020173580 A JP 2020173580A JP 2020173580 A JP2020173580 A JP 2020173580A JP 2022064763 A JP2022064763 A JP 2022064763A
Authority
JP
Japan
Prior art keywords
image
ray
foreign matter
identification
generated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020173580A
Other languages
English (en)
Inventor
尓重 胡
Er Zhong Hu
直正 細見
Naomasa Hosomi
知宏 中矢
Tomohiro Nakaya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Priority to JP2020173580A priority Critical patent/JP2022064763A/ja
Priority to CN202111154079.XA priority patent/CN114343702A/zh
Priority to US17/496,534 priority patent/US20220114729A1/en
Publication of JP2022064763A publication Critical patent/JP2022064763A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5252Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data removing objects from field of view, e.g. removing patient table from a CT image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • A61B6/583Calibration using calibration phantoms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/034Recognition of patterns in medical or anatomical images of medical instruments

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

【課題】被検体の体内に取り残された異物が強調された強調画像を生成することによって異物の確認を行う場合に、X線画像に含まれる異物を容易に識別することが可能なX線撮影装置、画像処理方法、および、学習済みモデルの生成方法を提供することである。【解決手段】このX線撮影装置100は、X線照射部1と、X線検出部2と、X線画像生成部3と、制御部6と、を備え、制御部6は、X線画像10と、機械学習によって生成された学習済みモデル51によってX線画像10から異物200が除去された除去画像20とに基づいて、異物200が強調された強調画像30を生成する強調画像生成部62と、強調画像30に基づいて、強調された異物200に対応する部分を色付けすることによって、異物200を識別するための識別画像40を生成する識別画像生成部63と、識別画像40を出力する画像出力部64と、を含む。【選択図】図2

Description

本発明は、X線撮影装置、画像処理方法、および、学習済みモデルの生成方法に関し、特に、手術後の被検体の体内に取り残された異物を識別するためにX線撮影を行うX線撮影装置、画像処理方法、および、学習済みモデルの生成方法に関する。
従来、開腹手術の後に止血用ガーゼ(異物)の有無を確認するための確認用の放射線検査(X線撮影)を行う放射線撮影システム(X線撮影装置)が知られている(たとえば、特許文献1参照)。
上記特許文献1に記載されている放射線撮影システムは、検査目的に応じて、予め設定された処理手順に従って放射線画像の処理を行う。たとえば、開腹手術の後に止血用ガーゼの有無を確認するための処理手順が設定されている場合には、撮影された撮影画像に対して異物強調処理が実行される。そして、上記特許文献1に記載の放射線撮影システムは、被検者の体内の異物(ガーゼ)が見やすいように異物強調処理が実行された腹部画像を表示する。
特開2019-180605号公報
ここで、上記特許文献1には明記されていないが、上記特許文献1の放射線撮影システムのように、手術後に被検者(被検体)の体内に取り残されている止血用ガーゼ(手術用ガーゼ)などの異物の有無を医師などの作業者が確認するために、撮影されたX線画像に異物強調処理を実行する場合には、異物強調処理として、エッジ検出などの画像処理を実行して強調画像を生成することが考えられる。しかしながら、撮影されたX線画像にエッジ検出などの異物強調処理を実行した場合には、異物のみならず被検体の骨などの構造の輪郭までもが強調される。これにより、強調画像における異物の視認性が低下するため、撮影されたX線画像に含まれる異物を確認することが困難となる。
この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、被検体の体内に取り残された異物が強調された強調画像を生成することによって異物の確認を行う場合に、X線画像に含まれる異物を容易に識別することが可能なX線撮影装置、画像処理方法、および、学習済みモデルの生成方法を提供することである。
上記目的を達成するために、この発明の第1の局面におけるX線撮影装置は、手術後の被検体の体内に取り残された異物を識別するためにX線撮影を行うX線撮影装置であって、被検体にX線を照射するX線照射部と、X線照射部から照射されたX線を検出するX線検出部と、X線検出部によって検出されたX線の検出信号に基づいてX線画像を生成するX線画像生成部と、制御部と、を備え、制御部は、X線画像と、機械学習によって生成された学習済みモデルによってX線画像からX線画像に含まれる異物が除去された除去画像とに基づいて、X線画像に含まれる異物が強調された強調画像を生成する強調画像生成部と、強調画像生成部によって生成された強調画像に基づいて、強調された異物に対応する部分を色付けすることによって、異物を識別するための識別画像を生成する識別画像生成部と、識別画像生成部によって生成された識別画像を出力する画像出力部と、を含む。
この発明の第2の局面における画像処理方法では、手術後の被検体の体内に取り残された異物を識別するために被検体にX線を照射するステップと、照射されたX線を検出するステップと、検出されたX線の検出信号に基づいてX線画像を生成するステップと、X線画像と、機械学習によって生成された学習済みモデルによってX線画像からX線画像に含まれる異物が除去された除去画像とに基づいて、X線画像に含まれる異物が強調された強調画像を生成するステップと、生成された強調画像に基づいて、強調された異物に対応する部分を色付けすることによって、異物を識別するための識別画像を生成するステップと、生成された識別画像を出力するステップと、を備える。
この発明の第3の局面における学習済みモデルの生成方法では、体内に異物が取り残されている手術後の被検体にX線を照射することによって生成されたX線画像を模擬するように生成された教師入力用X線画像を取得するステップと、教師入力用X線画像から異物が除去された教師出力用除去画像を取得するステップと、異物に対応する部分を色付けすることによって異物を識別するための識別画像を生成するために、教師入力用X線画像と教師出力用除去画像とに基づいて、機械学習によって、X線画像からX線画像に含まれる異物が除去された除去画像を出力する学習済みモデルを生成するステップと、を備える。
上記第1の局面におけるX線撮影装置および上記第2の局面における画像処理方法では、X線画像と、機械学習によって生成された学習済みモデルによってX線画像からX線画像に含まれる異物が除去された除去画像とに基づいて、X線画像に含まれる異物が強調された強調画像を生成する。そして、生成された強調画像に基づいて、強調された異物に対応する部分を色付けすることによって、異物を識別するための識別画像を生成する。これにより、強調画像において、エッジ検出などの異物強調処理によって被検体の骨などの構造と被検体に含まれる異物との両方が強調される場合と異なり、異物が含まれるX線画像と異物が除去された除去画像とに基づいて異物を抽出することによって、被検体の骨などの構造を強調させずに異物を強調させることができる。そのため、異物が強調された強調画像に基づいて異物を識別するための識別画像を生成する場合に、識別画像における異物を効果的に抽出して色付けすることができる。そのため、強調された異物に対応する部分が効果的に色付けされた識別画像を視認することによって、色付けされた異物を容易に識別することができる。その結果、被検体の体内に取り残された異物が強調された強調画像を生成することによって異物の確認を行う場合に、X線画像に含まれる異物を容易に識別することができる。
また、上記第3の局面における学習済みモデルの生成方法では、異物に対応する部分を色付けすることによって異物を識別するための識別画像を生成するために、教師入力用X線画像と教師出力用除去画像とに基づいて、X線画像からX線画像に含まれる異物が除去された除去画像を出力する学習済みモデルを生成する。これにより、機械学習によって生成された学習済みモデルに基づいて異物が除去された除去画像を生成することができるので、異物が含まれるX線画像と異物が除去された除去画像とに基づいてX線画像における異物を抽出することができるので、被検体の骨などの構造に対する強調を抑制しながら異物が強調された強調画像を生成することができる。そのため、強調された異物に対応する部分を色付けすることによって異物を識別するための識別画像を容易に生成することができる。その結果、識別画像を視認することによって色付けされた異物に対応する部分を容易に識別することができるので、X線画像に含まれる異物を容易に識別することが可能な学習済みモデルの生成方法を提供することができる。
一実施形態によるX線撮影装置の構成を説明するための図である。 一実施形態によるX線撮影装置の構成を説明するためのブロック図である。 一実施形態による体内に異物が取り残された被検体のX線画像の一例を示す図である。 一実施形態による除去画像の生成について説明するための図である。 一実施形態による除去画像生成部によるX線画像の切り分けについて説明するための図である。 一実施形態による学習済みモデルの生成について説明するための図である。 一実施形態による強調画像の生成について説明するための図である。 一実施形態による識別画像の生成について説明するための図である。 一実施形態による表示部の表示について説明するための図である。 一実施形態による学習済みモデルの生成方法について説明するためのフローチャート図である。 一実施形態による画像処理方法について説明するためのフローチャート図である。
以下、本発明を具体化した実施形態を図面に基づいて説明する。
(X線撮影装置の全体構成)
図1~図9を参照して、本発明の一実施形態によるX線撮影装置100について説明する。
図1に示すように、X線撮影装置100は、手術後の被検体101の体内に取り残された異物200を識別するためにX線撮影を行う。X線撮影装置100は、手術室内において開腹手術が行われた被検体101に対して、異物200が体内に取り残されているか否かを確認するためのX線撮影を行う。X線撮影装置100は、たとえば、装置全体が移動可能な回診用X線撮影装置である。異物200は、たとえば、手術用ガーゼ、縫合針、および、鉗子(止血鉗子など)を含む。
一般に、開腹手術などの外科手術が行われた場合には、医師などの作業者は、閉創後に手術用ガーゼ、縫合針、および、鉗子などの異物200が被検体101の体内に取り残される(残留する)ことがないように、被検体101に対して確認のためのX線撮影を行う。医師などの作業者は、撮影されたX線画像10(図3参照)を視認することによって、被検体101の体内に異物200が取り残されていないことを確認する。
〈X線撮影装置について〉
図2に示すように、X線撮影装置100は、X線照射部1、X線検出部2、X線画像生成部3、表示部4、記憶部5、および、制御部6を備える。
X線照射部1は、手術後の被検体101にX線を照射する。X線照射部1は、電圧が印加されることによってX線を照射するX線管を含む。
X線検出部2は、被検体101を透過したX線を検出する。そして、X線検出部2は、検出されたX線に基づいて検出信号を出力する。X線検出部2は、たとえば、FPD(Flat Panel Detector)を含む。また、X線検出部2は、ワイヤレスタイプのX線検出器として構成されており、無線信号としての検出信号を出力する。具体的には、X線検出部2は、無線LANなどによる無線接続によって、後述するX線画像生成部3と通信可能に構成されており、X線画像生成部3に対して無線信号としての検出信号を出力する。
X線画像生成部3は、図3に示すように、X線照射部1およびX線検出部2を制御することによって、X線撮影の制御を行う。そして、X線画像生成部3は、X線検出部2によって検出されたX線の検出信号に基づいてX線画像10を生成する。X線画像生成部3は、無線LANなどによる無線接続によってX線検出部2と通信可能に構成されている。X線画像生成部3は、たとえば、FPGA(field-programmable gate array)などのプロセッサを含む。そして、X線画像生成部3は、後述する制御部6に対して生成されたX線画像10を出力する。
X線画像10は、手術後の被検体101の腹部をX線撮影することにより取得された画像である。たとえば、X線画像10には、異物200として手術用ガーゼが含まれる。なお、手術用ガーゼは、手術後のX線撮影によるX線画像10において視認可能なようにX線を透過させにくい造影糸が織り込まれている。
表示部4は、たとえば、タッチパネル式の液晶ディスプレイを含む。そして、表示部4は、撮影されたX線画像10を表示する。また、表示部4は、後述する画像出力部64によって出力された識別画像40(図8参照)を表示する。また、表示部4は、タッチパネルに対する操作に基づいて、医師などの作業者によるX線撮影装置100を操作するための入力操作を受け付けるように構成されている。
記憶部5は、たとえば、ハードディスクドライブなどの記憶装置により構成されている。記憶部5は、X線画像生成部3によって生成されたX線画像10、および、後述する制御部6によって生成された識別画像40(図8参照)などの画像データを記憶する。また、記憶部5は、X線撮影装置100を動作させる各種の設定値を記憶するように構成されている。また、記憶部5は、制御部6によるX線撮影装置100の制御の処理に用いられるプログラムを記憶する。また、記憶部5は、後述する学習済みモデル51を記憶する。
制御部6は、たとえば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、ROM(Read Only Memory)、および、RAM(Random Access Memory)などを含んで構成されたコンピュータである。制御部6は、機能的な構成として、除去画像生成部61、強調画像生成部62、識別画像生成部63、および、画像出力部64を含む。すなわち、制御部6は、所定の制御プログラムを実行することにより、除去画像生成部61、強調画像生成部62、識別画像生成部63、および、画像出力部64として機能する。また、除去画像生成部61、強調画像生成部62、識別画像生成部63、および、画像出力部64は、制御部6の中のソフトウェアとしての機能ブロックであり、ハードウェアとしての制御部6の指令信号に基づいて機能するように構成されている。
(除去画像の生成について)
図4に示すように、本実施形態では、除去画像生成部61(制御部6)は、機械学習によって生成された学習済みモデル51に基づいて、X線画像10から、X線画像10に含まれる異物200が除去された除去画像20を生成する。学習済みモデル51は、深層学習を用いた機械学習によって生成される。学習済みモデル51は、たとえば、全層畳み込みネットワーク(Fully Convolution Network:FCN)の1種類であるU-Netをベースとして生成される。学習済みモデル51は、入力であるX線画像10の各画素のうちから、異物200であると推定される画素を変換することによって、X線画像10から異物200であると推定された部分を除去する画像変換(画像再構成)を実行するように学習させることによって生成される。
また、図5に示すように、本実施形態では、除去画像生成部61(制御部6)は、X線画像10を複数の領域に切り分けるとともに、機械学習によって生成された学習済みモデル51に基づいて、複数の領域に切り分けられた状態のX線画像10から除去画像20を生成するように構成されている。具体的には、除去画像生成部61は、X線画像10に含まれる異物200に対応する大きさにX線画像10を切り分ける。
たとえば、除去画像生成部61は、異物200が手術用ガーゼである場合には、切り分けられた1つのX線画像10が、X線画像10に含まれる異物200(手術用ガーゼ)の標準的な大きさよりも少し大きい大きさとなるように、X線画像10を切り分ける。具体的には、除去画像生成部61は、X線画像生成部3によって生成されたX線画像10をダウンサンプリング(サイズ変更)した後に、たてに5等分、よこに4等分に切り分けることによって、1辺が320ピクセルの20個の正方形の領域に切り分ける。そして、除去画像生成部61は、切り分けられた正方形の領域ごとに、機械学習によって生成された学習済みモデル51に基づいて、それぞれ異物200を除去する処理を実行する。除去画像生成部61は、切り分けられた20個の正方形の領域の各々に対して異物200を除去する処理を実行した後に、切り分ける前のX線画像10と対応するように異物200が除去された20個の正方形の領域を合成することによって、X線画像10から異物200が除去された除去画像20を生成する。なお、除去画像生成部61によるX線画像10の切り分けは、正方形ではなく長方形でもよい。また、除去画像生成部61によるX線画像10の切り分けは、異物200の大きさに拘らず所定の大きさに切り分けるようにしてもよい。
(学習済みモデルの生成について)
図6に示すように、本実施形態では、学習済みモデル51は、X線画像10から手術用ガーゼ、縫合針、および、鉗子を含む異物200を除去するように機械学習によって生成される。学習済みモデル51は、X線撮影装置100とは別個の学習装置300によって予め生成される。学習装置300は、たとえば、CPU、GPU、ROM、および、RAMなどを含んで構成されたコンピュータである。学習済みモデル51は、教師入力用X線画像310と教師出力用除去画像320とに基づいて、深層学習を用いた機械学習によって生成される。
教師入力用X線画像310は、体内に異物200が取り残された被検体101を撮影したX線画像10を模擬するように学習装置300によって生成される。学習装置300は、たとえば、人体を模した人体ファントムにX線を照射することによって生成された模擬X線画像と、医療用ガーゼ、縫合針、および、鉗子などの異物200をX線撮影することによって生成された異物画像とを取得する。
そして、学習装置300は、教師入力用X線画像310を生成するために、X線撮影装置100の制御部6の除去画像生成部61によるX線画像10の切り分けと同様に、取得した模擬X線画像を切り分ける。たとえば、除去画像生成部61がX線画像10を320ピクセル四方の正方形に切り分ける場合には、学習装置300も同様に模擬X線画像を320ピクセル四方の正方形に切り分ける。そして、学習装置300は、切り分けられた模擬X線画像と異物画像とを合成することによって教師入力用X線画像310を生成する。学習装置300は、模擬X線画像と異物画像とを合成する場合のパラメータ(角度、濃度、大きさなど)を複数の条件に変更させることによって、複数の教師入力用X線画像310を生成する。
すなわち、学習済みモデル51を生成するための機械学習において入力に用いられる教師入力用X線画像310は、学習済みモデル51を用いた推論において入力に用いられるX線画像10と、同様の条件(大きさ)となるように学習装置300によって生成される。なお、教師入力用X線画像310は、異物200が含まれていない(異物画像が合成されていない)模擬X線画像を含んでいてもよい。また、模擬X線画像に替えて、実際に人体をX線撮影した画像を用いて教師入力用X線画像310を生成してもよい。
教師出力用除去画像320は、生成された複数の教師入力用X線画像310のうちから異物200が除去された画像である。たとえば、学習装置300は、教師入力用X線画像310を生成する場合に用いられる異物画像が合成される前の模擬X線画像を教師出力用除去画像320として取得する。すなわち、教師出力用除去画像320は、教師入力用X線画像310と同様に、切り分けられた状態の画像として取得される。
学習装置300は、教師入力用X線画像310を入力として、教師出力用除去画像320を出力として、機械学習によって学習を行い、学習済みモデル51を生成する。すなわち、学習装置300は、教師入力用X線画像310と教師出力用除去画像320とを教師データ(トレーニングセット)として、機械学習によって学習済みモデル51を生成する。学習装置300は、複数の教師入力用X線画像310と複数の教師出力用除去画像320とを用いて学習を行うことによって、学習済みモデル51を生成する。
生成された学習済みモデル51は、X線撮影を行う前に予めX線撮影装置100の記憶部5に記憶される。学習済みモデル51は、ネットワークを介して学習装置300からX線撮影装置100の記憶部5に記憶されてもよいし、フラッシュメモリなどの記憶媒体を介して記憶部5に記憶されてもよい。
(強調画像の生成について)
図7に示すように、本実施形態では、強調画像生成部62(制御部6)は、X線画像10と、機械学習によって生成された学習済みモデル51によってX線画像10からX線画像10に含まれる異物200が除去された除去画像20とに基づいて、X線画像10に含まれる異物200が強調された強調画像30を生成する。具体的には、強調画像生成部62は、X線画像10と除去画像20との差分を取得することによって、X線画像10に含まれる異物200が強調された強調画像30を生成するように構成されている。
詳細には、強調画像生成部62は、X線画像10から除去画像20を減算することによって、強調画像30を生成する。すなわち、強調画像生成部62は、X線画像10に含まれる画素の各々の画素値から、除去画像20の対応する画素の各々の画素値を減算することによって、強調画像30を生成する。強調画像30は、X線画像10に含まれる異物200が強調されるとともに、X線画像10における異物200以外の構造(被検体101の骨など)の強調が抑制された画像となる。
(識別画像の生成について)
図8に示すように、本実施形態では、識別画像生成部63(制御部6)は、強調画像生成部62(制御部6)によって生成された強調画像30に基づいて、強調された異物200に対応する部分を色付けすることによって、異物200を識別するための識別画像40を生成する。
具体的には、本実施形態では、識別画像生成部63(制御部6)は、強調画像30のうちから異物200の線状の構造(形状)を識別するとともに、識別された線状の構造に基づいて色付けすることによって、識別画像40を生成するように構成されている。詳細には、識別画像生成部63は、強調画像30のうちから識別した異物200の線状の構造が配置される部位を含む所定の領域における密度を取得するとともに、密度に応じて変化するように色付けされたヒートマップ画像(カラーマップ画像)として識別画像40を生成するように構成されている。
たとえば、識別画像生成部63は、生成された強調画像30を2値化処理する。そして、識別画像生成部63は、2値化処理された強調画像30において、線状の構造の密度を検出することによって、線状の構造が含まれる部分(画素)を識別する。具体的には、識別画像生成部63は、2値化された強調画像30に対して、強調画像30のうちから特徴量を抽出することによってパターン認識を実行して線状の構造を識別する。
たとえば、識別画像生成部63は、高次局所自己相関(HLAC:Higher-order Local AutoCorrelation)特徴を特徴量として抽出する。識別画像生成部63は、たとえば、強調画像30の1つの画素を参照点として取得する。そして、識別画像生成部63は、参照点を含む(中心とする)所定の領域の局所自己相関特徴による特徴量を抽出する。そして、識別画像生成部63は、抽出した特徴量と、予め設定されている線状の構造(形状)の特徴量との一致度を測定することによって、参照点を含む所定の領域における線状の構造を識別(検出)する。識別画像生成部63は、参照点を含む所定の領域における線状の構造の検出値を、参照点における線状の構造の所定の領域における密度として取得する。識別画像生成部63は、強調画像30の画素の各々を参照点として局所自己相関特徴量を取得することによって、強調画像30の画素の各々において線状の構造の密度(検出値)を取得する。ここで、参照点を含む所定の領域の大きさは、たとえば、3×3ピクセルの領域であってもよいし、3×3ピクセルよりも大きい9×9ピクセルなどの大きさの領域であってもよい。
そして、識別画像生成部63は、強調画像30の画素ごとに取得された線状の構造の密度(検出値)に基づいて、画素ごとに色付けすることによって識別画像40を生成する。識別画像40は、各々の画素において、たとえば、赤色を基準として、対応する密度の値が大きいほど輝度が高く、密度の値が小さいほど輝度が低くなるように色付けされる。すなわち、値が大きいほど色が薄く白くなり、値が小さいほど色が濃く黒くなるように識別画像40が生成される。たとえば、識別画像40における色の輝度は、0以上255以下の256段階の値によって設定される。識別画像生成部63は、取得された線状の構造の密度(検出値)の0.0以上4.0以下の値の範囲を、256段階の輝度に対応付けるようにして、識別画像40における色を設定する。なお、密度(検出値)が4.0より大きい場合には、4.0と同様の色(輝度値が最大となる色)が設定される。なお、図8では、色の違いをハッチングの違いによって表している。図8では、識別画像40において、密度(検出値)の値の1.0ごとに段階的に色(ハッチング)が変化するように表しているが、段階的(離散的)な色の変化ではなく、徐々に色が変化するようにして識別画像40を生成するようにしてもよい。
識別画像生成部63は、上記のようにして、表示される色によって、各画素(各領域)における特徴量が、異物200に対応する線状の構造の特徴量とどの程度一致しているかということが識別可能な識別画像40を生成する。なお、識別画像40における色の変化は、256段階の連続的な色(輝度値)の変化ではなく、しきい値を設けることによって、4または5段階ほどの色の変化(離散的な色の変化)によって表すようにしてもよい。また、識別画像40を生成する場合における線状の構造(形状)の識別(抽出)は、高次局所自己相関特徴以外の特徴量の抽出方法を用いたパターン認識によって所定の領域ごとに特徴量を取得するとともに、線状の構造(形状)の密度(パターンの該当の程度)を識別(検出)して色付けされるようにしてもよい。また、上記では、異物200として手術用ガーゼを識別する例について説明したが、異物200が縫合針または鉗子などである場合にも、同様に、強調画像30から線状の構造(形状)を識別することによって、識別画像40が生成される。
(表示部の表示について)
図9に示すように、本実施形態では、画像出力部64(制御部6)は、識別画像生成部63によって生成された識別画像40を出力する。具体的には、画像出力部64は、X線画像10と識別画像40とを表示部4に表示させるように構成されている。本実施形態では、画像出力部64は、X線画像10に識別画像40を重畳させて表示部4に表示させるように構成されている。
画像出力部64は、たとえば、識別画像40の透過度を50%にする画像処理を行う。そして、画像出力部64は、透過度が50%の識別画像40を、X線画像10に重畳させて表示部4に表示させる。すなわち、画像出力部64は、X線画像10に、透過処理がされた識別画像40を重畳させて表示部4に表示させる。画像出力部64は、X線画像10における異物200が色付けされた状態で視認可能なように、X線画像10に識別画像40を重畳させて表示部4に表示させる。
なお、画像出力部64は、表示部4のタッチパネルに対する入力操作に基づいて、識別画像40をX線画像10に重畳して表示させることと、識別画像40を表示せずX線画像10のみを表示させることとを切り替えるように構成されていてもよい。また、画像出力部64は、識別画像40とX線画像10とに加えて、強調画像30を表示部4に表示させるように構成されていてもよい。
(本実施形態による学習済みモデルの生成方法について)
次に、図10を参照して、本実施形態による学習済みモデルの生成方法について説明する。なお、学習済みモデルの生成方法は、学習装置300によって実施される。
まず、ステップ401において、人体ファントムをX線撮影した模擬X線画像と、異物200をX線撮影した異物画像とが取得される。
次に、ステップ402において、体内に異物200が取り残されている手術後の被検体101にX線を照射することによって生成されたX線画像10を模擬するように生成された教師入力用X線画像310が取得される。具体的には、複数の模擬X線画像が切り分けられる。そして、切り分けられた模擬X線画像と、複数の異物画像とが、パラメータ(濃度、角度、および、大きさなど)を変更しながら合成されることによって生成された教師入力用X線画像310が取得される。
次に、ステップ403において、教師入力用X線画像310から異物200が除去された教師出力用除去画像320が取得される。具体的には、ステップ402において切り分けられた複数の模擬X線画像が、教師入力用X線画像310に対応するように教師出力用除去画像320として取得される。
次に、ステップ404において、異物200に対応する部分を色付けすることによって異物200を識別するための識別画像40を生成するために、教師入力用X線画像310と教師出力用除去画像320とに基づいて、機械学習によって、X線画像10からX線画像10に含まれる異物200が除去された除去画像20を出力する学習済みモデル51が生成される。具体的には、教師入力用X線画像310を入力として、教師出力用除去画像320を出力として、深層学習による機械学習によって学習が行われ、除去画像20を生成するための学習済みモデル51が生成される。
(本実施形態による画像処理方法について)
次に、図11を参照して、本実施形態による画像処理方法に関する制御処理フローについて説明する。また、ステップ501~ステップ503は、X線画像生成部3による制御処理を示し、ステップ504~ステップ506は、制御部6による制御処理を示す。
まず、ステップ501において、手術後の被検体101の体内に取り残された異物200を識別するために被検体101にX線が照射される。次に、ステップ502において、照射されたX線が検出される。次に、ステップ503において、検出されたX線の検出信号に基づいてX線画像10が生成される。
次に、ステップ504において、X線画像10と、機械学習によって生成された学習済みモデル51によってX線画像10からX線画像10に含まれる異物200が除去された除去画像20とに基づいて、X線画像10に含まれる異物200が強調された強調画像30が生成される。具体的には、X線画像10が複数の領域に切り分けられ、学習済みモデル51に基づいて、複数の領域に切り分けられた状態のX線画像10から、異物200が除去された除去画像20が生成される。そして、X線画像10と除去画像20との差分を取得することによって、異物200が強調された強調画像30が生成される。
次に、ステップ505において、生成された強調画像30に基づいて、強調された異物200に対応する部分を色付けすることによって、異物200を識別するための識別画像40が生成される。具体的には、強調画像30のうちから異物200の線状の構造(形状)を識別(検出)するとともに、識別された線状の構造が配置される部位を含む所定の領域における密度(検出値)に基づいて色付けすることによって、識別画像40が生成される。
次に、ステップ506において、生成された識別画像40が出力される。具体的には、X線画像10に識別画像40が重畳させられて表示部4に表示させられる。
[本実施形態の効果]
本実施形態では、以下のような効果を得ることができる。
本実施形態のX線撮影装置100では、上記のように、X線画像10と、機械学習によって生成された学習済みモデル51によってX線画像10からX線画像10に含まれる異物200が除去された除去画像20とに基づいて、X線画像10に含まれる異物200が強調された強調画像30を生成する。そして、生成された強調画像30に基づいて、強調された異物200に対応する部分を色付けすることによって、異物200を識別するための識別画像40を生成する。これにより、強調画像30において、エッジ検出などの異物強調処理によって被検体101の骨などの構造と被検体101に含まれる異物200との両方が強調される場合と異なり、異物200が含まれるX線画像10と異物200が除去された除去画像20とに基づいて異物200を抽出することによって、被検体101の骨などの構造を強調させずに異物200を強調させることができる。そのため、異物200が強調された強調画像30に基づいて異物200を識別するための識別画像40を生成する場合に、識別画像40における異物200を効果的に抽出して色付けすることができる。そのため、強調された異物200に対応する部分が効果的に色付けされた識別画像40を視認することによって、色付けされた異物200を容易に識別することができる。その結果、被検体101の体内に取り残された異物200が強調された強調画像30を生成することによって異物200の確認を行う場合に、X線画像10に含まれる異物200を容易に識別することができる。
また、上記実施形態では、以下のように構成したことによって、下記のような更なる効果が得られる。
すなわち、本実施形態では、上記のように、識別画像生成部63(制御部6)は、強調画像30のうちから異物200の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、識別画像40を生成するように構成されている。このように構成すれば、強調画像30に含まれる異物200は線状の構造を有しているため、強調画像30のうちから線状の構造を識別することによって、異物200に対応する部分を容易に識別することができる。そのため、異物200に対応する部分が色付けされた識別画像40を容易に生成することができるので、生成された識別画像40を参照することによってX線画像10に含まれる異物200を容易に識別することができる。
また、本実施形態では、上記のように、識別画像生成部63(制御部6)は、強調画像30のうちから識別した異物200の線状の構造が配置される部位を含む所定の領域における密度を取得するとともに、密度に応じて変化するように色付けされたヒートマップ画像として識別画像40を生成するように構成されている。このように構成すれば、異物200の線状の構造が配置される部位を含む所定の領域における密度に応じて識別画像40が色付けされるため、密度の高い部分をより強調した識別画像40を生成することができる。そのため、異物200を強調するように生成された強調画像30では、異物200に対応する部分において線状の構造の密度が高くなるため、識別画像40における異物200に対応する部分をより強調させて色付けすることができる。その結果、識別画像40を視認することによって、X線画像10に含まれる異物200をより容易に識別することができる。
また、本実施形態では、上記のように、制御部6は、機械学習によって生成された学習済みモデル51に基づいて、X線画像10から、X線画像10に含まれる異物200が除去された除去画像20を生成する除去画像生成部61をさらに含み、除去画像生成部61(制御部6)は、X線画像10を複数の領域に切り分けるとともに、機械学習によって生成された学習済みモデル51に基づいて、複数の領域に切り分けられた状態のX線画像10から除去画像20を生成するように構成されており、識別画像生成部63(制御部6)は、X線画像10と複数の領域に切り分けられた状態のX線画像10から生成された除去画像20とに基づいて生成された強調画像30のうちから、異物200の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、識別画像40を生成するように構成されている。このように構成すれば、切り分けられたX線画像10を入力として学習済みモデル51を用いて異物200を除去する処理を実行するため、切り分けずに1つのX線画像10を入力として異物200を除去する処理を実行する場合に比べて、入力の画像全体に占める異物200の割合を大きくすることができる。そのため、切り分けられたX線画像10を入力とすることによって異物200の除去の精度を高くすることができる。その結果、強調画像30におけて異物200をより精度よく強調することができるため、複数の領域に切り分けられた状態のX線画像10から除去画像20を生成することによって、医師などの作業者は、異物200をより効果的に識別することができる。
また、本実施形態では、上記のように、強調画像生成部62(制御部6)は、X線画像10と除去画像20との差分を取得することによって、X線画像10に含まれる異物200が強調された強調画像30を生成するように構成されており、識別画像生成部63(制御部6)は、除去画像20とX線画像10との差分を取得することによって生成された強調画像30のうちから、異物200の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、識別画像40を生成するように構成されている。このように構成すれば、異物200が含まれるX線画像10と異物200が含まれない除去画像20との差分を取得することによって、骨などの構造のエッジが除去されているため効果的に異物200を強調(抽出)した強調画像30を生成することができる。そのため、強調画像30のうちから異物200の線状の構造を識別する場合に、異物200に対応する部分を精度よく識別することができる。その結果、異物200に対応する部分を精度よく色付けすることができるので、異物200に対応する部分をより効果的に識別可能なように識別画像40を生成することができる。
また、本実施形態では、上記のように、異物200は、手術用ガーゼ、縫合針、および、鉗子を含み、識別画像生成部63(制御部6)は、強調画像生成部62(制御部6)によって生成された強調画像30のうちから、手術用ガーゼ、縫合針、および、鉗子に対応する線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、識別画像40を生成するように構成されている。このように構成すれば、手術後の被検体101の体内に取り残されやすい手術用ガーゼ、縫合針、および、鉗子を、識別画像40において、容易に識別可能なように色付けすることができる。その結果、医師などの作業者は、識別画像40を視認することによって、手術後の被検体101の体内に取り残されやすい手術用ガーゼ、縫合針、および、鉗子を効果的に識別することができる。
また、本実施形態では、上記のように、画像出力部64(制御部6)によって出力された画像を表示する表示部4をさらに備え、画像出力部64は、X線画像10と識別画像40とを表示部4に表示させるように構成されている。このように構成すれば、医師などの作業者は、表示部4に表示されたX線画像10と識別画像40との両方を視認することによって、識別画像40において色付けされた異物200の部分と、色付けされた異物200の部分に対応するX線画像10の位置(領域)とを容易に見比べることができる。そのため、医師などの作業者は、X線画像10における異物200と識別された部分を容易に認識することができる。
また、本実施形態では、上記のように、画像出力部64(制御部6)は、X線画像10に識別画像40を重畳させて表示部4に表示させるように構成されている。このように構成すれば、異物200と識別された部分が色付けされた識別画像40をX線画像10に重畳させるため、X線画像10と識別画像40とが並べて表示されている場合と異なり、X線画像10と識別画像40との間で視点を移動させることなくX線画像10における異物200と識別された領域を確認することができる。その結果、医師などの作業者は、X線画像10における異物200と識別された部分をより容易に認識することができる。
[本実施形態による画像処理方法の効果]
本実施形態のX線撮影装置100による画像処理方法では、以下のような効果を得ることができる。
本実施形態の画像処理方法では、上記のように構成することにより、X線画像10と、機械学習によって生成された学習済みモデル51によってX線画像10からX線画像10に含まれる異物200が除去された除去画像20とに基づいて、X線画像10に含まれる異物200が強調された強調画像30を生成する。そして、生成された強調画像30に基づいて、強調された異物200に対応する部分を色付けすることによって、異物200を識別するための識別画像40を生成する。これにより、強調画像30において、エッジ検出などの異物強調処理によって被検体101の骨などの構造と被検体101に含まれる異物200との両方が強調される場合と異なり、異物200が含まれるX線画像10と異物200が除去された除去画像20とに基づいて異物200を抽出することによって、被検体101の骨などの構造を強調させずに異物200を強調させることができる。そのため、異物200が強調された強調画像30に基づいて異物200を識別するための識別画像40を生成する場合に、識別画像40における異物200を効果的に抽出して色付けすることができる。そのため、強調された異物200に対応する部分が効果的に色付けされた識別画像40を視認することによって、色付けされた異物200を容易に識別することができる。その結果、被検体101の体内に取り残された異物200が強調された強調画像30を生成することによって異物200の確認を行う場合に、X線画像10に含まれる異物200を容易に識別することが可能な画像処理方法を提供することができる。
[本実施形態による学習済みモデルの生成方法の効果]
本実施形態の学習済みモデルの生成方法では、以下のような効果を得ることができる。
本実施形態の学習済みモデルの生成方法では、上記のように、異物200に対応する部分を色付けすることによって異物200を識別するための識別画像40を生成するために、教師入力用X線画像310と教師出力用除去画像320とに基づいて、X線画像10からX線画像10に含まれる異物200が除去された除去画像20を出力する学習済みモデル51を生成する。これにより、機械学習によって生成された学習済みモデル51に基づいて異物200が除去された除去画像20を生成することができるので、異物200が含まれるX線画像10と異物200が除去された除去画像20とに基づいてX線画像10における異物200を抽出することができるので、被検体101の骨などの構造に対する強調を抑制しながら異物200が強調された強調画像30を生成することができる。そのため、強調された異物200に対応する部分を色付けすることによって異物200を識別するための識別画像40を容易に生成することができる。その結果、識別画像40を視認することによって色付けされた異物200に対応する部分を容易に識別することができるので、X線画像10に含まれる異物200を容易に識別することが可能な学習済みモデルの生成方法を提供することができる。
[変形例]
なお、今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく特許請求の範囲によって示され、さらに特許請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
すなわち、上記実施形態では、識別画像生成部63(制御部6)は、強調画像30のうちから異物200の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、識別画像40を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、線状の構造(形状)のパターン認識ではなく、強調画像30の画素値に基づいて色付けすることによって識別画像40を生成するようにしてもよい。すなわち、強調画像30の所定の領域における画素値の濃度に基づいて、識別画像40を色付けするようにしてもよい。
また、上記実施形態では、識別画像生成部63(制御部6)は、異物200の線状の構造が配置される部位を含む所定の領域における密度に応じて変化するように色付けされたヒートマップ画像として識別画像40を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、色を変化させずに、線状の構造の密度(検出値)にしきい値を設けることによって、しきい値より大きい部分(領域)が1つの色によって色付けされた識別画像40を生成するようにしてもよい。
また、上記実施形態では、除去画像生成部61(制御部6)は、X線画像10を複数の領域に切り分けるとともに、機械学習によって生成された学習済みモデル51に基づいて、複数の領域に切り分けられた状態のX線画像10から除去画像20を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、X線画像10を切り分けずに、1つのX線画像10から除去画像20を生成するようにしてもよい。
また、上記実施形態では、強調画像生成部62(制御部6)は、X線画像10と除去画像20との差分を取得する(減算処理をする)ことによって、X線画像10に含まれる異物200が強調された強調画像30を生成するように構成されている例を示したが、本発明はこれに限られない。たとえば、減算処理ではなく、X線画像10から除去画像20を除算処理することによって強調画像30を生成するようにしてもよい。
また、上記実施形態では、異物200は、手術用ガーゼ、縫合針、および、鉗子を含む例を示したが、本発明はこれに限られない。たとえば、異物200は、ボルト、および、固定用のクリップなどを含んでいてもよい。
また、上記実施形態では、画像出力部64(制御部6)によって出力された画像を表示する表示部4をさらに備える例を示したが、本発明はこれに限られない。たとえば、X線撮影装置100とは別個に設けられた外部モニタなどの表示装置にX線画像10および識別画像40などの画像出力部64によって出力された画像を表示するようにしてもよい。
また、上記実施形態では、画像出力部64(制御部6)は、X線画像10に識別画像40を重畳させて表示部4に表示させるように構成されている例を示したが、本発明はこれに限られない。たとえば、X線画像10と識別画像40とを並べて表示部4に表示するようにしてもよい。
また、上記実施形態では、赤色を基準として、輝度の差異によって、線状の構造(形状)の密度(検出値)を識別可能なように識別画像40を生成する例を示したが、本発明はこれに限られない。たとえば、色相を異ならせることによって線状形状の検出値の分布を識別可能なように識別画像40を生成するようにしてもよい。すなわち、検出値が大きい場合は赤色を表示させ、赤、黄、緑、青の順で、検出値の変化を表すようにしてもよい。
また、上記実施形態では、別個のハードウェアとして構成されたX線画像生成部3と、制御部6とによって、X線画像10の生成についての制御処理と、識別画像40の生成についての制御処理とがそれぞれ行われる例を示したが、本発明はこれに限られない。たとえば、共通の1つの制御部(ハードウェア)によって、X線画像10の生成および識別画像40の生成が行われるように構成されていてもよい。
また、上記実施形態では、除去画像生成部61、強調画像生成部62、識別画像生成部63、および、画像出力部64が、1つのハードウェア(制御部6)における機能ブロック(ソフトウェア)として構成されている例を示したが、本発明はこれに限られない。たとえば、除去画像生成部61、強調画像生成部62、識別画像生成部63、および、画像出力部64が、それぞれ別個のハードウェア(演算回路)によって構成されていてもよい。
また、上記実施形態では、X線撮影装置100とは別個の学習装置300によって学習済みモデル51が生成される例を示したが、本発明はこれに限られない。たとえば、X線撮影装置100によって学習済みモデル51が生成されてもよい。
また、上記実施形態では、学習済みモデル51は、全層畳み込みネットワーク(Fully Convolution Network:FCN)の1種類であるU-Netをベースとして生成される例を示したが本発明はこれに限られない。たとえば、学習済みモデル51は、全結合層を含むCNN(Convolutional Neural Network)をベースとして生成されてもよい。また、学習済みモデル51は、SegNetまたはPSPNetなどのU-Net以外のEncoder-Decoderモデルをベースとして生成されてもよい。
[態様]
上記した例示的な実施形態は、以下の態様の具体例であることが当業者により理解される。
(項目1)
手術後の被検体の体内に取り残された異物を識別するためにX線撮影を行うX線撮影装置であって、
前記被検体にX線を照射するX線照射部と、
前記X線照射部から照射されたX線を検出するX線検出部と、
前記X線検出部によって検出されたX線の検出信号に基づいてX線画像を生成するX線画像生成部と、
制御部と、を備え、
前記制御部は、
前記X線画像と、機械学習によって生成された学習済みモデルによって前記X線画像から前記X線画像に含まれる前記異物が除去された除去画像とに基づいて、前記X線画像に含まれる前記異物が強調された強調画像を生成する強調画像生成部と、
前記強調画像生成部によって生成された前記強調画像に基づいて、強調された前記異物に対応する部分を色付けすることによって、前記異物を識別するための識別画像を生成する識別画像生成部と、
前記識別画像生成部によって生成された前記識別画像を出力する画像出力部と、を含む、X線撮影装置。
(項目2)
前記識別画像生成部は、前記強調画像のうちから前記異物の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、前記識別画像を生成するように構成されている、項目1に記載のX線撮影装置。
(項目3)
前記識別画像生成部は、前記強調画像のうちから識別した前記異物の線状の構造が配置される部位を含む所定の領域における密度を取得するとともに、前記密度に応じて変化するように色付けされたヒートマップ画像として前記識別画像を生成するように構成されている、項目2に記載のX線撮影装置。
(項目4)
前記制御部は、機械学習によって生成された前記学習済みモデルに基づいて、前記X線画像から、前記X線画像に含まれる前記異物が除去された前記除去画像を生成する除去画像生成部をさらに含み、
前記除去画像生成部は、前記X線画像を複数の領域に切り分けるとともに、機械学習によって生成された前記学習済みモデルに基づいて、複数の領域に切り分けられた状態の前記X線画像から前記除去画像を生成するように構成されており、
前記識別画像生成部は、前記X線画像と複数の領域に切り分けられた状態の前記X線画像から生成された前記除去画像とに基づいて生成された前記強調画像のうちから、前記異物の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、前記識別画像を生成するように構成されている、項目2または3に記載のX線撮影装置。
(項目5)
前記強調画像生成部は、前記X線画像と前記除去画像との差分を取得することによって、前記X線画像に含まれる前記異物が強調された前記強調画像を生成するように構成されており、
前記識別画像生成部は、前記除去画像と前記X線画像との差分を取得することによって生成された前記強調画像のうちから、前記異物の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、前記識別画像を生成するように構成されている、項目2~4のいずれか1項に記載のX線撮影装置。
(項目6)
前記異物は、手術用ガーゼ、縫合針、および、鉗子を含み、
前記識別画像生成部は、前記強調画像生成部によって生成された前記強調画像のうちから、前記手術用ガーゼ、前記縫合針、および、前記鉗子に対応する線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、前記識別画像を生成するように構成されている、項目2~5のいずれか1項に記載のX線撮影装置。
(項目7)
前記画像出力部によって出力された画像を表示する表示部をさらに備え、
前記画像出力部は、前記X線画像と前記識別画像とを前記表示部に表示させるように構成されている、項目1~6のいずれか1項に記載のX線撮影装置。
(項目8)
前記画像出力部は、前記X線画像に前記識別画像を重畳させて前記表示部に表示させるように構成されている、項目7に記載のX線撮影装置。
(項目9)
手術後の被検体の体内に取り残された異物を識別するために前記被検体にX線を照射するステップと、
照射されたX線を検出するステップと、
検出されたX線の検出信号に基づいてX線画像を生成するステップと、
前記X線画像と、機械学習によって生成された学習済みモデルによって前記X線画像から前記X線画像に含まれる前記異物が除去された除去画像とに基づいて、前記X線画像に含まれる前記異物が強調された強調画像を生成するステップと、
生成された前記強調画像に基づいて、強調された前記異物に対応する部分を色付けすることによって、前記異物を識別するための識別画像を生成するステップと、
生成された前記識別画像を出力するステップと、を備える、画像処理方法。
(項目10)
体内に異物が取り残されている手術後の被検体にX線を照射することによって生成されたX線画像を模擬するように生成された教師入力用X線画像を取得するステップと、
前記教師入力用X線画像から前記異物が除去された教師出力用除去画像を取得するステップと、
前記異物に対応する部分を色付けすることによって前記異物を識別するための識別画像を生成するために、前記教師入力用X線画像と前記教師出力用除去画像とに基づいて、機械学習によって、前記X線画像から前記X線画像に含まれる前記異物が除去された除去画像を出力する学習済みモデルを生成するステップと、を備える、学習済みモデルの生成方法。
1 X線照射部
2 X線検出部
3 X線画像生成部
4 表示部
6 制御部
10 X線画像
20 除去画像
30 強調画像
40 識別画像
51 学習済みモデル
61 除去画像生成部
62 強調画像生成部
63 識別画像生成部
64 画像出力部
100 X線撮影装置
101 被検体
200 異物
310 教師入力用X線画像
320 教師出力用除去画像

Claims (10)

  1. 手術後の被検体の体内に取り残された異物を識別するためにX線撮影を行うX線撮影装置であって、
    前記被検体にX線を照射するX線照射部と、
    前記X線照射部から照射されたX線を検出するX線検出部と、
    前記X線検出部によって検出されたX線の検出信号に基づいてX線画像を生成するX線画像生成部と、
    制御部と、を備え、
    前記制御部は、
    前記X線画像と、機械学習によって生成された学習済みモデルによって前記X線画像から前記X線画像に含まれる前記異物が除去された除去画像とに基づいて、前記X線画像に含まれる前記異物が強調された強調画像を生成する強調画像生成部と、
    前記強調画像生成部によって生成された前記強調画像に基づいて、強調された前記異物に対応する部分を色付けすることによって、前記異物を識別するための識別画像を生成する識別画像生成部と、
    前記識別画像生成部によって生成された前記識別画像を出力する画像出力部と、を含む、X線撮影装置。
  2. 前記識別画像生成部は、前記強調画像のうちから前記異物の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、前記識別画像を生成するように構成されている、請求項1に記載のX線撮影装置。
  3. 前記識別画像生成部は、前記強調画像のうちから識別した前記異物の線状の構造が配置される部位を含む所定の領域における密度を取得するとともに、前記密度に応じて変化するように色付けされたヒートマップ画像として前記識別画像を生成するように構成されている、請求項2に記載のX線撮影装置。
  4. 前記制御部は、機械学習によって生成された前記学習済みモデルに基づいて、前記X線画像から、前記X線画像に含まれる前記異物が除去された前記除去画像を生成する除去画像生成部をさらに含み、
    前記除去画像生成部は、前記X線画像を複数の領域に切り分けるとともに、機械学習によって生成された前記学習済みモデルに基づいて、複数の領域に切り分けられた状態の前記X線画像から前記除去画像を生成するように構成されており、
    前記識別画像生成部は、前記X線画像と複数の領域に切り分けられた状態の前記X線画像から生成された前記除去画像とに基づいて生成された前記強調画像のうちから、前記異物の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、前記識別画像を生成するように構成されている、請求項2または3に記載のX線撮影装置。
  5. 前記強調画像生成部は、前記X線画像と前記除去画像との差分を取得することによって、前記X線画像に含まれる前記異物が強調された前記強調画像を生成するように構成されており、
    前記識別画像生成部は、前記除去画像と前記X線画像との差分を取得することによって生成された前記強調画像のうちから、前記異物の線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、前記識別画像を生成するように構成されている、請求項2~4のいずれか1項に記載のX線撮影装置。
  6. 前記異物は、手術用ガーゼ、縫合針、および、鉗子を含み、
    前記識別画像生成部は、前記強調画像生成部によって生成された前記強調画像のうちから、前記手術用ガーゼ、前記縫合針、および、前記鉗子に対応する線状の構造を識別するとともに、識別された線状の構造に基づいて色付けすることによって、前記識別画像を生成するように構成されている、請求項2~5のいずれか1項に記載のX線撮影装置。
  7. 前記画像出力部によって出力された画像を表示する表示部をさらに備え、
    前記画像出力部は、前記X線画像と前記識別画像とを前記表示部に表示させるように構成されている、請求項1~6のいずれか1項に記載のX線撮影装置。
  8. 前記画像出力部は、前記X線画像に前記識別画像を重畳させて前記表示部に表示させるように構成されている、請求項7に記載のX線撮影装置。
  9. 手術後の被検体の体内に取り残された異物を識別するために前記被検体にX線を照射するステップと、
    照射されたX線を検出するステップと、
    検出されたX線の検出信号に基づいてX線画像を生成するステップと、
    前記X線画像と、機械学習によって生成された学習済みモデルによって前記X線画像から前記X線画像に含まれる前記異物が除去された除去画像とに基づいて、前記X線画像に含まれる前記異物が強調された強調画像を生成するステップと、
    生成された前記強調画像に基づいて、強調された前記異物に対応する部分を色付けすることによって、前記異物を識別するための識別画像を生成するステップと、
    生成された前記識別画像を出力するステップと、を備える、画像処理方法。
  10. 体内に異物が取り残されている手術後の被検体にX線を照射することによって生成されたX線画像を模擬するように生成された教師入力用X線画像を取得するステップと、
    前記教師入力用X線画像から前記異物が除去された教師出力用除去画像を取得するステップと、
    前記異物に対応する部分を色付けすることによって前記異物を識別するための識別画像を生成するために、前記教師入力用X線画像と前記教師出力用除去画像とに基づいて、機械学習によって、前記X線画像から前記X線画像に含まれる前記異物が除去された除去画像を出力する学習済みモデルを生成するステップと、を備える、学習済みモデルの生成方法。
JP2020173580A 2020-10-14 2020-10-14 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法 Pending JP2022064763A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020173580A JP2022064763A (ja) 2020-10-14 2020-10-14 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法
CN202111154079.XA CN114343702A (zh) 2020-10-14 2021-09-29 X射线摄影装置、图像处理方法及学习完毕模型生成方法
US17/496,534 US20220114729A1 (en) 2020-10-14 2021-10-07 X-ray imaging apparatus, image processing method, and generation method of trained model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020173580A JP2022064763A (ja) 2020-10-14 2020-10-14 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法

Publications (1)

Publication Number Publication Date
JP2022064763A true JP2022064763A (ja) 2022-04-26

Family

ID=81078183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020173580A Pending JP2022064763A (ja) 2020-10-14 2020-10-14 X線撮影装置、画像処理方法、および、学習済みモデルの生成方法

Country Status (3)

Country Link
US (1) US20220114729A1 (ja)
JP (1) JP2022064763A (ja)
CN (1) CN114343702A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7413216B2 (ja) * 2020-09-15 2024-01-15 富士フイルム株式会社 学習装置、方法およびプログラム、学習済みモデル、並びに放射線画像処理装置、方法およびプログラム

Also Published As

Publication number Publication date
US20220114729A1 (en) 2022-04-14
CN114343702A (zh) 2022-04-15

Similar Documents

Publication Publication Date Title
EP3108447B1 (en) Method and system for providing recommendation for optimal execution of surgical procedures
JP7194143B2 (ja) 肝臓腫瘍例のレビューを容易にするシステムおよび方法
EP2386999A2 (en) Image processing apparatus, image processing method, and image processing program
WO2023103467A1 (zh) 图像处理方法、装置及设备
JP6282853B2 (ja) 画像処理装置及び画像処理方法
CN104077747B (zh) 医用图像处理装置以及医用图像处理方法
US8155480B2 (en) Image processing apparatus and image processing method
US20200261231A1 (en) Semi-automated imaging reconstruction for orbital fracture repair
JPH0877329A (ja) 時系列処理画像の表示装置
JPH1094538A (ja) 異常陰影候補の検出方法および装置
JP2022064763A (ja) X線撮影装置、画像処理方法、および、学習済みモデルの生成方法
Gross et al. Polyp segmentation in NBI colonoscopy
CA3239159A1 (en) Surgery assisting system, surgery assisting method, and surgery assisting program
US11069060B2 (en) Image processing apparatus and radiographic image data display method
KR20200046775A (ko) Ct 영상 내 간암 영역 기반으로 3차원 분석을 하는 수술 보조 장치 및 방법
US20150289831A1 (en) X-ray diagnostic apparatus and image processing apparatus
JP2019208832A (ja) 歯科分析システムおよび歯科分析x線システム
WO2022215303A1 (ja) X線撮影装置、画像処理装置、および、画像処理プログラム
CN105447870A (zh) 医学图像中身体组织的提取方法及装置
WO2022176280A1 (ja) X線撮影装置、画像処理装置、および、画像処理方法
JP2022064760A (ja) X線撮影装置、画像処理方法、および、学習済みモデルの生成方法
JP7472845B2 (ja) X線撮影装置および画像処理方法
JP2022064766A (ja) X線撮影システムおよび異物確認方法
KR20210099834A (ko) 치과용 임플란트 시뮬레이션 방법 및 그 장치
WO2024053698A1 (ja) 手術支援プログラム、手術支援装置、および手術支援方法