JP2020058590A - 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム - Google Patents

医用画像処理装置、医用画像処理システム及び医用画像処理プログラム Download PDF

Info

Publication number
JP2020058590A
JP2020058590A JP2018191547A JP2018191547A JP2020058590A JP 2020058590 A JP2020058590 A JP 2020058590A JP 2018191547 A JP2018191547 A JP 2018191547A JP 2018191547 A JP2018191547 A JP 2018191547A JP 2020058590 A JP2020058590 A JP 2020058590A
Authority
JP
Japan
Prior art keywords
data
medical image
learned model
analysis
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018191547A
Other languages
English (en)
Other versions
JP7187244B2 (ja
Inventor
匠真 五十嵐
Takuma Igarashi
匠真 五十嵐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2018191547A priority Critical patent/JP7187244B2/ja
Priority to US16/598,540 priority patent/US11257211B2/en
Publication of JP2020058590A publication Critical patent/JP2020058590A/ja
Application granted granted Critical
Publication of JP7187244B2 publication Critical patent/JP7187244B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7221Determining signal validity, reliability or quality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Signal Processing (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Fuzzy Systems (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Quality & Reliability (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

【課題】学習用データの抽出にかかる手間を軽減すること。【解決手段】実施形態に係る医用画像処理装置は、解析部と、抽出部とを備える。解析部は、収集済みの複数の医用画像データに対して画像解析を行う。抽出部は、前記解析部の解析結果に基づいて、学習済みモデルの生成に用いられた教師データと共通の属性を有する医用画像データを、前記学習済みモデルの教師データの候補として前記収集済みの複数の医用画像データから抽出する。【選択図】図1

Description

本発明の実施形態は、医用画像処理装置、医用画像処理システム及び医用画像処理プログラムに関する。
従来、医用画像診断装置によって収集された医用画像データと、医用画像データから得られた教師データとを学習用データとして用いた学習済みモデルが生成されている。かかる学習済みモデルの生成には、例えば、複数の医用画像データの中から適切な学習用データが抽出されて用いられる。
特開2015−194927号公報 特開2009−113717号公報
本発明が解決しようとする課題は、学習用データの抽出にかかる手間を軽減することである。
実施形態に係る医用画像処理装置は、解析部と、抽出部とを備える。解析部は、収集済みの複数の医用画像データに対して画像解析を行う。抽出部は、前記解析部の解析結果に基づいて、学習済みモデルの生成に用いられた教師データと共通の属性を有する医用画像データを、前記学習済みモデルの教師データの候補として前記収集済みの複数の医用画像データから抽出する。
図1は、本実施形態に係る医用画像処理システムの構成の一例を示す図である。 図2は、本実施形態に係るAIサービスサーバによって行われる学習時及び運用時の処理を示す図である。 図3は、本実施形態に係る医用画像処理装置による処理の一例を説明するための図である。 図4は、本実施形態に係る制御機能によって表示される表示情報の一例を示す図である。 図5は、本実施形態に係る医用画像処理装置による処理の手順を示すフローチャートである。
以下、図面を参照しながら、医用画像処理装置、医用画像処理システム及び医用画像処理プログラムの実施形態について詳細に説明する。なお、本願に係る医用画像処理装置、医用画像処理システム及び医用画像処理プログラムは、以下に示す実施形態によって限定されるものではない。
(実施形態)
図1は、本実施形態に係る医用画像処理システム100の構成の一例を示す図である。図1に示すように、本実施形態に係る医用画像処理システム100は、例えば、VNA(Vendor Neutral Archive)110と、AI(Artificial Intelligence)サービスサーバ120と、医用画像処理装置130とを含む。ここで、各システム及び各装置は、ネットワーク200を介して通信可能に接続されている。
VNA110は、種々の診療情報を一括して管理する。具体的には、VNA110は、病院内の診療科ごとのシステムや、独自規格のデータなどを管理する。例えば、VNA110は、放射線科で採用されるPACS(Picture Archiving and Communication Systems)におけるDICOM(Digital Imaging and Communications in Medicine)フォーマットの医用画像データや、JPEG(Joint Photographic Experts Group)フォーマット、Tiff(Tagged Image File Format)フォーマット及びAnalyzeフォーマットなどのNon−DICOMフォーマットの医用画像データを受信して、受信した医用画像データを自装置の記憶回路に保存して管理する。
ここで、VNA110は、2次元の医用画像データ及び3次元の医用画像データ(ボリュームデータ)を自装置の記憶回路に保存して管理する。また、VNA110は、例えば、検査レポートなどのベンダー独自規格のデータを自装置の記憶回路に保存して管理することもできる。例えば、VNA110は、サーバやワークステーション等のコンピュータ機器によって実現される。
AIサービスサーバ120は、機械学習や、深層学習用のアルゴリズムのAPI(Application Programming Interface)を提供するサーバ装置である。具体的には、AIサービスサーバ120は、ネットワーク200を介して入力データと入力データに基づく教師データとを含む学習用データを受信し、受信した学習用データを用いた機械学習により、学習済みモデルを生成する。そして、AIサービスサーバ120は、生成した学習済みモデルに対して入力データを学習済みモデルに基づく出力データを出力する。
ここで、本実施形態に係るAIサービスサーバ120は、任意の画像処理のアルゴリズムのAPIを提供する。以下、頭部のT1強調画像(T1W)から脳を解剖学的領域或いは機能学的領域にセグメンテーションするためのアルゴリズムを構築する場合を一例に挙げて、AIサービスサーバ120における処理を説明する。図2は、本実施形態に係るAIサービスサーバ120によって行われる学習時及び運用時の処理を示す図である。
例えば、図2の上側に示すように、学習時には、AIサービスサーバ120が、被検体から収集された頭部のT1強調画像(原画像)と、当該原画像を対象として実施されたセグメンテーション結果(教師データ)との関係を学習することによって、被検体の原画像に基づいてセグメンテーション結果を出力する学習済みモデルを生成する。なお、教師データは、例えば、医師が原画像に含まれる脳に対して実施した解剖学的或いは機能学的なセグメンテーションの結果などである。
すなわち、本実施形態に係るAIサービスサーバ120は、原画像と、当該原画像を解析して得られた画像特徴量と、当該原画像に対するセグメンテーションによって区分された領域の画像特徴量との関係を学習することで、原画像に基づいてセグメンテーション結果を出力する学習済みモデルを生成する。
ここで、画像特徴量は、画像の特徴を定量的に示す数値である。例えば、画像特徴量は、原画像を用いテクスチャ解析等を行うことによって得られる解析値である。この画像特徴量は、原画像及び教師データが送信されるごとに導出され、原画像及び教師データと対応付けて、AIサービスサーバ120におけるDBに蓄積される。
AIサービスサーバ120は、DBを参照して、複数の学習用データ(原画像、教師データ及び画像特徴量)を取得する。そして、AIサービスサーバ120は、取得した原画像、教師データ及び画像特徴量を、自装置における機械学習エンジンに入力することによって、機械学習を行う。
ここで、機械学習エンジンは、例えば、入力された原画像の画像特徴量と、セグメンテーションされた領域における画像特徴量とを比較することで、セグメンテーションに最適なパラメータを決定する。例えば、機械学習エンジンは、ディープラーニング(Deep Learning)や、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bayes)等の各種のアルゴリズムを用いて、最適なパラメータを決定する。
このような機械学習の結果として、AIサービスサーバ120は、原画像に基づいてセグメンテーション結果を出力する学習済みモデルを生成する。そして、AIサービスサーバ120は、生成した学習済みモデルを自装置の記憶回路に記憶させる。なお、このとき、AIサービスサーバ120は、以前に作成した学習済みモデルが既に記憶回路に記憶されていた場合には、新しく作成した学習済みモデルで、記憶されている学習済みモデルを置き換える。
一方、例えば、図2の下側に示すように、運用時には、AIサービスサーバ120が、被検体の頭部から収集したT1強調画像(原画像)を受け付け、受け付けたT1強調画像を学習済みモデルに入力することで、セグメンテーション結果(出力情報)を出力する。
具体的には、AIサービスサーバ120は、ネットワーク200上の他装置から送信されたセグメンテーションの処理対象の原画像を受信する。そして、AIサービスサーバ120は、取得した原画像に対してテクスチャ解析などの解析処理を実行して、画像特徴量を導出する。
その後、AIサービスサーバ120は、学習済みモデルに対して、原画像と画像特徴量を入力することで、原画像の脳に含まれる解剖学的領域或いは機能学的領域のセグメンテーション結果を推測する。そして、AIサービスサーバ120は、原画像を送信した他装置に対して、推測結果を送信する。
図1に戻って、医用画像処理装置130は、VNA110から医用画像データを取得し、取得した医用画像データを用いて各種の画像処理を行う。また、例えば、医用画像処理装置130は、医用画像データの処理結果を学習用データとしてAIサービスサーバ120に送信する。また、例えば、医用画像処理装置130は、医用画像データをAIサービスサーバ120に送信することで、学習済みモデルの出力情報を取得する。例えば、医用画像処理装置130は、サーバやワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。
図1に示すように、医用画像処理装置130は、通信インターフェース131と、記憶回路132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを有する。
通信インターフェース131は、処理回路135に接続されており、医用画像処理装置130と各システムとの間で行われる通信を制御する。具体的には、通信インターフェース131は、各システムから各種の情報を受信し、受信した情報を処理回路135に出力する。例えば、通信インターフェース131は、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
記憶回路132は、処理回路135に接続されており、各種のデータを記憶する。例えば、記憶回路132は、VNA110から受信した医用画像データや、AIサービスサーバ120から取得した出力情報などを記憶する。また、記憶回路132は、処理回路135が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路132は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。
入力インターフェース133は、処理回路135に接続されており、操作者から各種の指示及び情報の入力操作を受け付ける。具体的には、入力インターフェース133は、操作者から受け付けた入力操作を電気信号へ変換して処理回路135に出力する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース133の例に含まれる。ここで、入力インターフェース133は、受付部の一例である。
ディスプレイ134は、処理回路135に接続されており、各種の情報及び画像を表示する。具体的には、ディスプレイ134は、処理回路135から送られる情報及び画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。
処理回路135は、入力インターフェース133を介して操作者から受け付けた入力操作に応じて、医用画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。
以上、本実施形態に係る医用画像処理システム100の構成について説明した。例えば、本実施形態に係る医用画像処理システム100は、病院や医院等の医療機関に配置されたVNA110及び医用画像処理装置130と、外部ネットワーク上に配置されたAIサービスサーバ120によって構成される。このような構成のもと、医用画像処理システム100は、学習用データの抽出にかかる手間を軽減することを可能にする。
上述したように、AIサービスサーバ120は、学習用データを受け付けて、画像処理に関するアルゴリズムのAPIを提供する。ここで、より精度の高い(或いは、より汎用性の高い)アルゴリズムを構築するためには、多数の学習用データを収集して、AIサービスサーバ120においてさらに機械学習を実施させることが求められる。
しかしながら、画像処理に関するアルゴリズムを構築する場合には、目的のアルゴリズムごとに適切な医用画像データがあり、多数の医用画像データの中から目的のアルゴリズムのための適切な医用画像データを抽出することは容易ではない。例えば、頭部のT1強調画像を対象とした脳のセグメンテーションのアルゴリズムについて、より精度の高い(或いは、より汎用性の高い)ものにする場合、部位及び画像種が「頭部」及び「T1強調画像」であり、アルゴリズムの制約(例えば、画質や画像に含まれる詳細な部位など)を満たす医用画像データを多数の医用画像データの中から抽出することとなり、この抽出には、手間と時間を要することが多い。
そこで、本実施形態では、医用画像処理システム100における医用画像処理装置130が、VNA110において管理された多数の医用画像データから学習用データを抽出する際に、収集済みの複数の医用画像データに対して画像解析を行い、解析結果に基づいて、学習済みモデルの生成に用いられた教師データと共通の属性を有する医用画像データを、学習済みモデルの教師データの候補として抽出することで、学習用データの抽出にかかる手間を軽減する。このような医用画像処理装置130によれば、ヘッダーに種々の情報を含むDICOMフォーマットの医用画像データだけではなく、Tiffフォーマットや、JPEGフォーマットなどのNon−DICOMフォーマットの医用画像データの中からも適切な学習用データを容易に抽出することができる。
以下、本実施形態に係る医用画像処理装置130の詳細について説明する。図1に示すように、医用画像処理装置130の処理回路135は、制御機能135a、解析機能135b、抽出機能135c、取得機能135d、及び、決定機能135eを実行する。ここで、制御機能135aは、制御部の一例である。また、解析機能135bは、解析部の一例である。また、抽出機能135cは、抽出部の一例である。また、取得機能135dは、取得部の一例である。また、決定機能135eは、決定部の一例である。
制御機能135aは、入力インターフェース133を介して入力された各種要求に応じた処理を実行するように制御する。例えば、制御機能135aは、通信インターフェース131を介した医用画像データ等の送受信、記憶回路132への情報の格納、ディスプレイ134への情報(例えば、表示画像や、解析結果)の表示などを制御する。
例えば、制御機能135aは、VNA110から複数の医用画像データを取得して、記憶回路132に格納する。また、例えば、制御機能135aは、VNA110から取得した複数の医用画像データから学習用データを抽出する際の種々の条件を選択するためのGUIや、各機能による処理結果をディスプレイ134に表示させるように制御する。なお、制御機能135aによって表示される表示内容の詳細については、後述する。
ここで、制御機能135aによって取得される医用画像データは、目的のアルゴリズムに応じて、2次元の医用画像データと、或いは、3次元の医用画像データとなる。例えば、対象となる学習済みモデルのアルゴリズムの処理対象が、ボリュームデータの場合、制御機能135aは、VNA110から3次元の医用画像データを取得する。一方、対象となる学習済みモデルのアルゴリズムの処理対象が、2次元の医用画像データの場合、制御機能135aは、VNA110から2次元の医用画像データを取得する、或いは、VNA110に格納されたボリュームデータから2次元の医用画像データ(例えば、ボリュームデータの1スライスなど)を抽出して取得する。
なお、処理対象が2次元の医用画像データであるか、或いは、3次元の医用画像データであるかは、例えば、操作者によって指定される場合でもよく、或いは、対象となる学習済みモデルのアルゴリズムに応じて、制御機能135aが決定する場合でもよい。操作者によって指定される場合、例えば、制御機能135aは、2次元或いは3次元を選択するためのGUIをディスプレイ134に表示させ、入力インターフェース133を介して、操作者による指定操作を受け付ける。また、対象となる学習済みモデルのアルゴリズムに応じて制御機能135aが決定する場合、例えば、記憶回路132が、アルゴリズムと処理対象となるデータ情報(2次元であるか、或いは、3次元であるか)とを対応付けた対応情報を予め記憶しておく。制御機能135aは、記憶回路132の対応情報を参照して、対象となる学習済みモデルのアルゴリズムに対応するデータ情報に基づいて、2次元であるか、或いは、3次元であるかを決定する。
解析機能135bは、収集済みの複数の医用画像データに対して画像解析を行う。具体的には、解析機能135bは、収集済みの複数の医用画像データに対して、画像の種別を特定するための学習済みモデル又は画像処理を用いた解析を行う。例えば、解析機能135bは、VNA110から取得され、記憶回路132に記憶された複数の医用画像データに対して、部位を特定するための画像解析と、画像種を特定するための画像解析とを行う。また、解析機能135bは、学習用データにおける原画像として適切か否かを判定するための解析を行う。そして、解析機能135bは、各医用画像データに対して解析結果を付与して、記憶回路132に格納する。
例えば、解析機能135bは、解剖学的指標(アナトミカルランドマーク)などに基づく解析を実行することで、各医用画像データに含まれる部位を特定する。一例を挙げると、解析機能135bは、各医用画像データから解剖学的指標を抽出し、抽出した解剖学的指標と部位ごとの解剖学的指標とを比較することで、各医用画像データに含まれる部位(例えば、頭部、胸部、腹部、下肢など)を特定する。
そして、解析機能135bは、学習済みモデル又は画像処理を用いた解析により、画像種を特定する。以下、脳を撮像した「T1強調画像(T1W)」、「T2強調画像(T2W)」、「CT(Computed Tomography)画像」、「FLAIR(FLuid-Attenuated Inversion Recovery)画像」及び「DWI(Diffusion Weighted Image)画像」から各画像種を特定するための解析を一例に挙げて説明する。
例えば、学習済みモデルを利用する場合、各画像種において特徴的な信号値を示す部位の情報を用いた学習済みモデルが予め構築される。例えば、「T1強調画像:CSF(cerebrospinal fluid:脳脊髄液)が低信号」、「T2強調画像:CSFが高信号」、「FLAIR画像:T2WでCSFで低信号」、「DWI画像:他の画像と比較してノイズが多い」、「CT画像:頭蓋が高信号」という特徴を用いて、信号値と画像種とを学習用データとした学習済みモデルが生成される。なお、学習済みモデルは、AIサービスサーバ120に構築されてもよく、或いは、医用画像処理装置130に構築されてもよい。例えば、解析機能135bは、部位を頭部と特定した各医用画像データを上記した学習済みモデルに入力することで、各医用画像データの画像種を特定する。
また、画像処理を利用する場合、解析機能135bは、既存のアルゴリズムを用いて上記した画像種を分類することができる。一例を挙げると、解析機能135bは、Voxel Based Morphometry(VBM)を応用して、「T1強調画像」、「T2強調画像」、「FLAIR画像」を分類することできる。例えば、解析機能135bは、各医用画像データについて、解剖学的標準化を行い、クラスター分析と事前確率画像を用いて、灰白質と、白質と、CSF(脳脊髄液)とを分割する。そして解析機能135bは、分割した灰白質と、白質と、CSF(脳脊髄液)における信号値の分布に基づいて、「T1強調画像」、「T2強調画像」、「FLAIR画像」を特定する。
また、解析機能135bは、各医用画像データに対して輪郭抽出を行い、頭部領域の外側(頭蓋)に高信号領域があるか否かによって「CT画像」を特定する。また、例えば、解析機能135bは、各医用画像データのS/N(signal-to-noise ratio)を算出して、算出したS/Nと所定の閾値とを比較して、閾値を下回る医用画像データを「DWI画像」と特定する。
上述したように、解析機能135bが各医用画像データに対する解析処理を行うと、抽出機能135cが、解析結果に基づいて、学習用データの候補を抽出する。具体的には、抽出機能135cは、解析機能135bの解析結果に基づいて、学習済みモデルの生成に用いられた教師データと共通の属性を有する医用画像データを、学習済みモデルの教師データの候補として収集済みの複数の医用画像データから抽出する。
例えば、抽出機能135cは、まず、対象となる学習済みモデルの学習用データとして利用された教師データの原画像を参照して、抽出対象となる医用画像データの部位及び画像種を取得し、取得した部位及び画像種の医用画像データを抽出する。一例を挙げると、抽出機能135cは、「部位:頭部(脳)」及び「画像種:T1W」を取得する。そして、抽出機能135cは、解析機能135bによる解析結果を参照して、取得した部位及び画像種と同じ「頭部のT1W」を、記憶回路132によって記憶された複数の医用画像データから抽出する。
さらに、抽出機能135cは、抽出した医用画像データの中から学習用データとして適切な医用画像データをさらに抽出する。例えば、抽出機能135cは、教師データと共通の画像種の複数の医用画像データを抽出し、画質、教師データの原画像との類似度、及び、学習済みモデルに用いるための制約のうち少なくとも1つに基づいて、抽出した複数の医用画像データの中から教師データと共通の属性を有する医用画像データを抽出する。
ここで、学習用データとして適切な医用画像データをさらに抽出する際に、学習済みモデルのアルゴリズムをより精度の高いものにするか、或いは、学習済みモデルのアルゴリズムをより汎用性の高いものにするかによって、抽出対象を変えることができる。すなわち、抽出機能135cは、学習済みモデルのアルゴリズムをより精度の高いものにするか、或いは、学習済みモデルのアルゴリズムをより汎用性の高いものにするかによって、抽出の判定を切り替えることができる。
学習済みモデルのアルゴリズムをより精度の高いものにするか、或いは、学習済みモデルのアルゴリズムをより汎用性の高いものにするかは、操作者によって任意に設定することができる。ここで、操作者は、以下で説明する各抽出処理を任意に選択することで、学習済みモデルのアルゴリズムをより精度の高いものにするか、或いは、学習済みモデルのアルゴリズムをより汎用性の高いものにするかを選択することができる。かかる場合には、例えば、制御機能135aが以下で説明する各抽出処理に関するGUIをディスプレイ134に表示させ、操作者が入力インターフェース133を介して、どの抽出処理をどのような閾値判定によって実行させるかを選択する。
まず、学習済みモデルのアルゴリズムをより精度の高いものにする場合の抽出処理について説明する。かかる場合には、例えば、抽出機能135cは、部位及び画像種に基づいて抽出した医用画像データのS/Nをそれぞれ算出し、算出したS/Nが所定の閾値に達していない医用画像データを対象外とする。すなわち、抽出機能135cは、部位及び画像種に基づいて抽出した医用画像データのうち、所定の画質を有する医用画像データのみを抽出する。なお、S/Nに対して設定される閾値は、対象となる学習済みモデルごとにそれぞれ設定されてもよく、代表的な値が設定される場合でもよい。
また、例えば、抽出機能135cは、部位及び画像種に基づいて抽出した医用画像データと、教師データの原画像との類似度を算出して、類似度が所定の値に達している医用画像データを抽出する。一例を挙げると、抽出機能135cは、抽出した医用画像データの信号値と教師データの原画像の信号値との相互情報量(MI:Mutual Information)を算出し、算出した相互情報量が所定の閾値に達していない場合に、抽出した医用画像データを対象外とする。
また、例えば、抽出機能135cは、学習済みモデルに用いるための制約として、断面が適切か、スライスピッチが適切か、アーチファクトが大きすぎないか、医用画像データにターゲットの領域が全て含まれているか、医用画像データに腫瘍が含まれているかなどを用いて、学習用データとして適切な医用画像データをさらに抽出する。
一例を挙げると、脳のセグメンテーションのアルゴリズムについては、抽出機能135cは、「サジタル断面が適切」、「スライスピッチが所定のピッチ以下が適切」、「アーチファクトが大きすぎないものが適切」、「医用画像データにターゲットの領域が全て含まれているものが適切」、「腫瘍が含まれていないものが適切」とする判断基準に基づいて、抽出した医用画像データの中から学習用データとして適切な医用画像データをさらに抽出する。
また、学習済みモデルのアルゴリズムをより汎用性の高いものにする場合の抽出処理では、例えば、部位及び画像種に基づいて抽出した医用画像データと教師データの原画像との類似度により医用画像データを抽出する際の閾値が、アルゴリズムの精度を高める場合と比較して、低く設定される。抽出機能135cは、設定された閾値に基づいて、学習用データとして適切な医用画像データを抽出する。
また、例えば、抽出機能135cは、学習済みモデルのアルゴリズムをより汎用性の高いものにする場合の抽出処理では、撮像された断面の制約を用いずに医用画像データを抽出する。すなわち、抽出機能135cは、サジタル断面、アキシャル断面、コロナル断面のいずれの場合も適切な医用画像データとして抽出する。
なお、上述した抽出の例は、あくまでも一例であり、抽出機能135cは、操作者による設定に応じて、その他種々の条件、及び、種々の組み合わせによって、学習用データとして適切な医用画像データを抽出することができる。
取得機能135dは、教師データと共通の属性を有する医用画像データを入力データとして学習済みモデルに入力することで出力データを取得する。具体的には、取得機能135dは、抽出機能135cによって抽出された学習用データとして適切な医用画像データを学習済みモデルの入力データとしてAIサービスサーバ120に送信する。AIサービスサーバ120は、取得機能135dから受信した入力データを学習済みモデルに入力することで得られた出力データを取得機能135dに送信する。取得機能135dは、AIサービスサーバ120から受信した出力データを一次教師データとして記憶回路132に格納する。
決定機能135eは、入力データと出力データとを学習済みモデルの学習用データとして決定する。具体的には、決定機能135eは、一次教師データに対して操作者が修正処理を施した処理後の医用画像データを教師データとし、当該教師データと教師データの原画像(AIサービスサーバ120に送信された医用画像データ)とを学習用データとして決定する。そして、決定機能135eは、決定した学習用データをAIサービスサーバ120に送信することで、決定した学習用データを用いた機械学習をAIサービスサーバ120に実行させる。
ここで、一次教師データに対する操作者の修正処理は、例えば、ディスプレイ134に表示された表示情報に基づいて実行される。すなわち、制御機能135aが、一次教師データに関する情報をディスプレイ134に表示させる。例えば、制御機能135aは、抽出機能135cによる抽出処理に基づくスコア、医用画像データの収集日時、取得機能135dによる一次教師データの取得状況、及び、学習済みモデルの生成に用いられた教師データと一次教師データとの比較結果のうち少なくとも1つを当該一次教師データとともにディスプレイ134にて表示させるように制御する。
入力インターフェース133、表示情報に対する操作を操作者から受け付ける。すなわち、操作者は、ディスプレイ134にて表示された種々の表示情報に基づいて、一次教師データを学習用データとして用いるか否か、学習用データとして用いる場合に修正を行うか否かなどを判断して、学習用データとして用いる一次教師データを決定し、決定した一次教師データを学習用データとするための操作を実行する。決定機能135eは、操作者による操作に基づいて、学習用データを決定し、決定した学習用データをAIサービスサーバ120に送信する。
上述したように、本実施形態に係る医用画像処理装置130は、VNA110にて管理された医用画像データを解析して、学習用データの候補となる医用画像データを抽出し、抽出した医用画像データを学習済みモデルに適用することで、一次教師データを取得する。そして、医用画像処理装置130は、一次教師データを操作者に提示して、操作者によって教師データとして適切であると判定された医用画像データを教師データと決定する。さらに、医用画像処理装置130は、決定した教師データと当該教師データの原画像とをAIサービスサーバ120に送信する。
以下、図3を用いて、医用画像処理装置130の処理の一例を説明する。図3は、本実施形態に係る医用画像処理装置130による処理の一例を説明するための図である。ここで、図3においては、医用画像処理装置130が、頭部のT1Wを用いた脳のセグメンテーションの学習済みモデルのアルゴリズムに適切な学習用データをVNA110に保存されたNon−DICOM画像から抽出する場合の例を示す。
図3に示すように、医用画像処理装置130においては、抽出機能135cが、(1)教師データの原画像を参照して、原画像と同じ画像種の画像を抽出する。かかる場合には、例えば、解析機能135bが、VNA110に保存されたTiffフォーマットやanalyzeフォーマットなどのNon−DICOM画像に対して部位や画像種を特定するための解析処理を実行する。そして、抽出機能135cは、解析機能135bの解析結果に基づいて、Non−DICOM画像の中からMRI装置によって頭部が撮像されたT1Wを抽出する。
その後、抽出機能135cは、(1)において抽出した頭部のT1Wの中から、(2)教師データの原画像として適切な医用画像データを抽出する。すなわち、抽出機能135cは、解析機能135bによって解析された画質や、類似度、学習済みモデルにおける制約などに基づいて、教師データの原画像として適切な医用画像データを抽出する。ここで、抽出機能135cは、操作者によって選択された条件を満たす医用画像データを、教師データの原画像として適切な医用画像データとして抽出する。
そして、取得機能135dは、抽出機能135cによって抽出された教師データの原画像として適切な医用画像データを、AIサービスサーバ120に送信することで、(3)抽出した原画像に対して学習済みモデルを適用させ、一次教師データを取得する。すなわち、取得機能135dは、教師データの原画像として適切な頭部のT1Wを、脳のセグメンテーションの学習済みモデルに適用させることで、セグメンテーション結果(AI搭載アルゴリズムの出力結果)を取得する。
ここで、取得機能135dは、AIサービスサーバ120に送信する医用画像データに対して画像処理を施すことができる。例えば、頭部のT1Wを用いた脳のセグメンテーションの学習済みモデルの場合、送信する頭部のT1Wに含まれる脳が通常の形状と著しく異なる場合に出力がエラーとなる場合がある。例えば、脳の大きさは、年齢とともに萎縮するため、抽出したT1Wのままでは出力がエラーとなる場合がある。そこで、取得機能135dは、AIサービスサーバ120に対して頭部のT1Wを送信する前に当該T1Wに対して画像の縮尺を調整する前処理を行って、脳の大きさを一律に揃えた後に、AIサービスサーバ120に送信することも可能である。
そして、制御機能135aは、(4)学習済みモデルへの適用結果を提示して、操作者から修正を受け付ける。すなわち、制御機能135aは、取得機能135dによって取得された一次教師データをディスプレイ134にて表示させることで、操作者による修正を受け付ける。ここで、制御機能135aは、AIサービスサーバ120によるセグメンテーション結果とともに、解析機能135bによる解析結果を操作者に提示させることができる。
図4は、本実施形態に係る制御機能135aによって表示される表示情報の一例を示す図である。例えば、制御機能135aは、図4に示すように、「一次教師データ」に対して、「スコア」、「日時」、「エラー有無」及び「検定結果」を対応付けた表示情報をディスプレイ134にて表示させる。
ここで、「一次教師データ」は、AIサービスサーバ120による実施された脳のセグメンテーションの結果を示す。また、「スコア」は、解析機能135bによる解析結果に対してスコアを付与した結果を示す。例えば、「スコア」は、学習用データとして適切な医用画像データであるか否かを判定する際に、条件を満たした項目の数に応じて加算される。一例挙げると、「スコア」は、学習済みモデルのアルゴリズムをより精度の高いものにするための条件、及び、学習済みモデルのアルゴリズムをより汎用性の高いものにするための条件でそれぞれ算出されることとなる。
また、「日時」は、一次教師データの原画像が収集された日時を示す。また、「検定結果」は、AIサービスサーバ120によって機械学習に用いられた学習用データの教師データ(セグメンテーション結果)と、一次教師データとを比較した際の検定結果を示す。「検定結果」としては、例えば、機械学習に用いられた教師データにおいてセグメンテーションされた領域の体積値や面積値の平均値及びSD(Standard Deviation)を算出して、一次教師データにおけるセグメンテーション結果の体積値や面積値が2SD以内となっているか否かが示される。また、「検定結果」としては、例えば、セグメンテーションされた各領域間でのコントラストの値が示される。
なお、上述した「スコア」や、「検定結果」は、例えば、解析機能135bによって算出され、制御機能135aによってディスプレイ134に表示される。また、制御機能135aは、図4に示すように、「スコア」、「日時」、「エラー有無」及び「検定結果」について、昇順・降順で任意に並びかえることができるGUIを表示させることができる。
操作者は、図4に示すような表示情報が参照して、学習用データとして採用する医用画像データを決定する。具体的には、操作者は、まず、「スコア」、「日時」、「エラー有無」及び「検定結果」に基づいて、採用する一次教師データを決定する。そして、操作者は、採用した一次教師データ(セグメンテーション結果)を参照して、分類された各部位(例えば、灰白質、白質、CSFなど)の領域について、修正が必要か否かを判定する。そして、操作者は、修正が必要であると判定した場合に、入力インターフェース133を介して当該領域を修正し、教師データを生成する。
その後、操作者は、修正後の教師データと当該教師データの原画像を学習用データとして決定する決定操作を実行する。決定機能135eは、操作者によって実行された決定操作に応じて、対応する修正後の教師データと当該教師データの原画像をAIサービスサーバ120に送信する、
上述したように、医用画像処理装置130は、学習用データの候補となる医用画像データを抽出し、抽出した医用画像データを学習済みモデルに適用することで、一次教師データを取得し、一次教師データに対する操作者の操作に応じて教師データを決定する。そして、医用画像処理装置130は、決定した教師データをAIサービスサーバ120に送信することで、学習済みモデルを更新させる。
ここで、医用画像処理装置130は、適切な医用画像データを抽出する際の条件ごとや、一次教師データに対して操作を実行した操作者ごとの学習済みモデルを更新させることもできる。かかる場合には、決定機能135eは、AIサービスサーバ120に学習用データを送信する際に、条件又は操作者が識別可能となるように識別子を付して送信することで、AIサービスサーバ120に条件ごと、或いは、操作者ごとに学習済みモデルを更新させる。この場合、AIサービスサーバ120は、条件ごと、或いは、操作者ごとに学習済みモデルを管理することとなる。
以上、医用画像処理装置130の処理回路135が有する各処理機能について説明した。ここで、処理回路135がプロセッサによって実現される場合には、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路132に記憶されている。そして、処理回路135は、記憶回路132から各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、図1の処理回路135に示された各機能を有することとなる。なお、図1では、単一のプロセッサによって各処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路135が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、図1に示す例では、単一の記憶回路132が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路が個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
次に、医用画像処理装置130による処理の手順を説明する。図5は、本実施形態に係る医用画像処理装置130による処理の手順を示すフローチャートである。ここで、図5におけるステップS101〜ステップS104は、処理回路135が記憶回路132から解析機能135b及び抽出機能135cに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図5におけるステップS105は、処理回路135が記憶回路132から取得機能135dに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図5におけるステップS106は、処理回路135が記憶回路132から制御機能135aに対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図5におけるステップS107〜ステップS110は、処理回路135が記憶回路132から決定機能135eに対応するプログラムを呼び出して実行することにより、実現されるステップである。
図5に示すように、医用画像処理装置130においては、処理回路135が、まず、学習用データの抽出処理が開始されたか否かを判定する(ステップS101)。ここで、抽出処理が開始されると(ステップS101、肯定)、処理回路135は、教師データに用いられている医用画像データの原画像を参照して(ステップS102)、VNA110に登録されている医用画像データを解析して原画像と同じ画像種の医用画像データを抽出する(ステップS103)。なお、抽出処理が開始されるまで、処理回路135は待機状態である(ステップS101、否定)。
そして、処理回路135は、解析結果に基づいて、抽出した医用画像データから原画像として適切なものをさらに抽出する(ステップS104)。その後、処理回路135は、抽出した医用画像データを学習済みデータに適用して(ステップ105)、出力結果をユーザに提示して(ステップS106)、修正を受け付けたか否かを判定する(ステップS107)。
ここで、修正を受け付けた場合(ステップS107、肯定)、処理回路135は、修正結果を反映して(ステップS108)、登録操作を受け付けたか否かを判定する(ステップS109)。なお、修正を受け付けていない場合(ステップS107、否定)、処理回路135は、登録操作を受け付けたか否かを判定する(ステップS109)。
そして、登録操作を受け付けた場合(ステップS109、肯定)、処理回路135は、学習用データをAIサービスサーバ120に送信して、学習済みモデルを更新させて保存させる(ステップS110)。一方、登録操作を受け付けていない場合(ステップS109、否定)、処理回路135は、処理を終了する。
上述したように、本実施形態によれば、解析機能135bは、収集済みの複数の医用画像データに対して画像解析を行う。抽出機能135cは、解析機能135bの解析結果に基づいて、学習済みモデルの生成に用いられた教師データと共通の属性を有する医用画像データを、学習済みモデルの教師データの候補として収集済みの複数の医用画像データから抽出する。したがって、本実施形態に係る医用画像処理装置130は、画像情報に基づいて、学習済みモデルの教師データの候補を抽出することができ、多数の医用画像データの中から学習用データを抽出する手間を軽減することを可能にする。
また、本実施形態によれば、解析機能135bは、収集済みの複数の医用画像データに対して、画像の種別を特定するための学習済みモデル又は画像処理を用いた解析を行う。抽出機能135cは、解析機能135bによる解析結果に基づいて教師データと共通の画像種の複数の医用画像データを抽出し、画質、教師データの原画像との類似度、及び、学習済みモデルに用いるための制約のうち少なくとも1つに基づいて、抽出した複数の医用画像データの中から教師データと共通の属性を有する医用画像データを抽出する。したがって、本実施形態に係る医用画像処理装置130は、対象の学習済みモデルに適切な学習用データを容易に抽出することを可能にする。
また、本実施形態によれば、取得機能135dは、教師データと共通の属性を有する医用画像データを入力データとして学習済みモデルに入力することで出力データを取得する。決定機能135eは、入力データと出力データとを学習済みモデルの学習用データとして決定する。したがって、本実施形態に係る医用画像処理装置130は、学習済みモデルの教師データの抽出にかかる手間を軽減することを可能にする。
また、本実施形態によれば、制御機能135aは、出力データをディスプレイ134に表示させるように制御する。入力インターフェース133は、ディスプレイ134にて表示された出力データに対する処理の操作を受け付ける。決定部は、入力データと処理後の出力データとを学習済みモデルの学習用データとして決定する。したがって、本実施形態に係る医用画像処理装置130は、より信頼度の高い教師データを容易に抽出することを可能にする。
また、本実施形態によれば、決定機能135eは、入力データと処理後の出力データとを、学習済みモデルのアルゴリズムを提供するAIサービスサーバ120に送信することで、学習済みモデルを更新させる。したがって、本実施形態に係る医用画像処理装置130は、学習済みモデルの更新を容易に実行することを可能にする。
また、本実施形態によれば、制御機能135aは、抽出機能135cによる抽出処理に基づくスコア、医用画像データの収集日時、取得機能135dによる出力データの取得状況、及び、学習済みモデルの生成に用いられた教師データと出力データとの比較結果のうち少なくとも1つを当該出力データとともにディスプレイ134にて表示させるように制御する。したがって、本実施形態に係る医用画像処理装置130は、対象の学習済みモデルに対して適切な医用画像データを容易に抽出することを可能にする。
また、本実施形態によれば、取得機能135dは、教師データと共通の属性を有する医用画像データに対して画像変形(例えば、脳の大きさをそろえる処理)を行ったうえで学習済みモデルに入力することで出力データを取得する。したがって、本実施形態に係る医用画像処理装置130は、一次教師データの取得におけるエラーを抑制することを可能にする。
(他の実施形態)
なお、上述した実施形態は、医用画像処理装置130が有する構成又は機能の一部を変更することで、適宜に変形して実施することも可能である。そこで、以下では、上述した実施形態に係るいくつかの変形例を他の実施形態として説明する。なお、以下では、上述した実施形態と異なる点を主に説明することとし、既に説明した内容と共通する点については詳細な説明を省略する。また、以下で説明する各実施形態は、個別に実施されてもよいし、適宜に組み合わせて実施されてもよい。
(他の実施形態−1)
例えば、上述した実施形態では、一次教師データの取得においてエラーが生じた場合に、対象外とする例について説明した。しかしながら、実施形態はこれに限定されるものではなく、エラーが生じた場合の結果をフィードバックして、抽出機能135cの抽出処理に反映させるようにしてもよい。
かかる場合には、例えば、取得機能135dは、記憶回路132に保存された医用画像データのうち、AIサービスサーバ120から受信した出力結果においてエラーが通知された医用画像データに対してエラーが通知された旨を対応付けて記憶させる。抽出機能135cは、取得機能135dによる出力データの取得においてエラーが生じた医用画像データの属性情報を蓄積し、蓄積した属性情報を有する医用画像データを抽出の対象外とする。例えば、抽出機能135cは、エラーが通知された旨を対応付けられた医用画像データの画像特徴量を算出して、算出した画像特徴量の情報を記憶回路132に蓄積させる。そして、抽出機能135cは、学習用データとして適切な医用画像データを抽出する際に、蓄積した画像特徴量を有する医用画像データを対象外のデータとする。これにより、医用画像処理装置130は、学習用データとしてより適切な医用画像データを自動で抽出することを可能にする。
(他の実施形態−2)
また、例えば、上述した実施形態では、医用画像データをもとに生成された学習済みモデルの学習用データを抽出する場合について説明した。しかしながら、実施系形態はこれに限定されるものではなく、例えば、ECG(Electrocardiogram)等の他の被検体情報を用いる場合であってもよい。
(他の実施形態−3)
また、上述した実施形態では、医用画像処理装置130が、病院や医院等の医療機関に設置される場合の例を説明したが、実施形態はこれに限られない。例えば、医用画像処理装置130は、医療機関とは別の場所に設置され、ネットワーク200を介して、1つ又は複数の医療機関に設置されたVNA110と通信可能に接続されていてもよい。
この場合には、例えば、医用画像処理装置130が、ネットワーク200を介して、各医用機関に設置されたVNA110から医用画像データを取得して、学習用データを抽出する。
(他の実施形態−4)
また、上述した実施形態では、医用画像処理装置130によって抽出した学習用データをAIサービスサーバ120に送信して学習済みモデルを生成する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、医用画像処理装置130によって学習済みモデルが生成される場合であってもよい。
(他の実施形態−5)
また、上述した実施形態では、医用画像処理装置130が、制御機能135a、解析機能135b、抽出機能135c、取得機能135d、決定機能135eを実行する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、各機能が、医用画像処理システム100に含まれる複数の装置によって分散して実行される場合であってもよい。
(他の実施形態−6)
また、上述した各実施形態では、本明細書における制御部、解析部、抽出部、取得部及び決定部を、それぞれ、処理回路135の制御機能135a、解析機能135b、抽出機能135c、取得機能135d、及び、決定機能135eによって実現する場合の例を説明したが、実施形態はこれに限られない。例えば、本明細書における制御部、解析部、抽出部、取得部及び決定部は、実施形態で述べた制御機能135a、解析機能135b、抽出機能135c、取得機能135d、及び、決定機能135eによって実現する他にも、ハードウェアのみ、又は、ハードウェアとソフトウェアとの混合によって同機能を実現するものであっても構わない。
なお、上述した説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは、記憶回路142に保存されたプログラムを読み出して実行することで、機能を実現する。なお、記憶回路142にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合は、プロセッサは回路内に組み込まれたプログラムを読み出して実行することで機能を実現する。また、本実施形態のプロセッサは、単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。
ここで、プロセッサによって実行されるプログラム(医用画像処理プログラム)は、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)−ROM、FD(Flexible Disk)、CD−R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に保存され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、上述した各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。
以上説明した少なくとも1つの実施形態によれば、学習用データの抽出にかかる手間を軽減することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100 医用画像処理システム
110 VNA
120 AIサービスサーバ
130 医用画像処理装置
133 入力インターフェース
135 処理回路
135a 制御機能
135b 解析機能
135c 抽出機能
135d 取得機能
135e 決定機能

Claims (9)

  1. 収集済みの複数の医用画像データに対して画像解析を行う解析部と、
    前記解析部の解析結果に基づいて、学習済みモデルの生成に用いられた教師データと共通の属性を有する医用画像データを、前記学習済みモデルの教師データの候補として前記収集済みの複数の医用画像データから抽出する抽出部と、
    を備える、医用画像処理装置。
  2. 前記解析部は、前記収集済みの複数の医用画像データに対して、画像の種別を特定するための学習済みモデル又は画像処理を用いた解析を行い、
    前記抽出部は、前記解析部による解析結果に基づいて前記教師データと共通の画像種の複数の医用画像データを抽出し、画質、前記教師データの原画像との類似度、及び、前記学習済みモデルに用いるための制約のうち少なくとも1つに基づいて、抽出した複数の医用画像データの中から前記教師データと共通の属性を有する医用画像データを抽出する、請求項1に記載の医用画像処理装置。
  3. 前記教師データと共通の属性を有する医用画像データを入力データとして前記学習済みモデルに入力することで出力データを取得する取得部と、
    前記入力データと前記出力データとを前記学習済みモデルの学習用データとして決定する決定部と、
    をさらに備える、請求項1又は2に記載の医用画像処理装置。
  4. 前記出力データを表示部に表示させるように制御する制御部と、
    前記表示部にて表示された前記出力データに対する処理の操作を受け付ける受付部と、
    をさらに備え、
    前記決定部は、前記入力データと前記処理後の出力データとを前記学習済みモデルの学習用データとして決定する、請求項3に記載の医用画像処理装置。
  5. 前記決定部は、前記入力データと前記処理後の出力データとを、前記学習済みモデルのアルゴリズムを提供する提供装置に送信することで、前記学習済みモデルを更新させる、請求項4に記載の医用画像処理装置。
  6. 前記制御部は、前記抽出部による抽出処理に基づくスコア、前記医用画像データの収集日時、前記取得部による出力データの取得状況、及び、前記学習済みモデルの生成に用いられた教師データと前記出力データとの比較結果のうち少なくとも1つを当該出力データとともに表示部にて表示させるように制御する、請求項4又は5に記載の医用画像処理装置。
  7. 前記抽出部は、前記取得部による出力データの取得において誤りが生じた医用画像データの属性情報を蓄積し、蓄積した属性情報を有する医用画像データを抽出の対象外とする、請求項3〜6のいずれか1つに記載の医用画像処理装置。
  8. 収集済みの複数の医用画像データに対して画像解析を行う解析部と、
    前記解析部の解析結果に基づいて、学習済みモデルの生成に用いられた教師データと共通の属性を有する医用画像データを、前記学習済みモデルの教師データの候補として前記収集済みの複数の医用画像データから抽出する抽出部と、
    を備える、医用画像処理システム。
  9. 収集済みの複数の医用画像データに対して画像解析を行う解析機能と、
    前記解析機能の解析結果に基づいて、学習済みモデルの生成に用いられた教師データと共通の属性を有する医用画像データを、前記学習済みモデルの教師データの候補として前記収集済みの複数の医用画像データから抽出する抽出機能と、
    をコンピュータに実現させるための医用画像処理プログラム。
JP2018191547A 2018-10-10 2018-10-10 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム Active JP7187244B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018191547A JP7187244B2 (ja) 2018-10-10 2018-10-10 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
US16/598,540 US11257211B2 (en) 2018-10-10 2019-10-10 Medical image processing apparatus, medical image processing system, and medical image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018191547A JP7187244B2 (ja) 2018-10-10 2018-10-10 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020058590A true JP2020058590A (ja) 2020-04-16
JP7187244B2 JP7187244B2 (ja) 2022-12-12

Family

ID=70159028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018191547A Active JP7187244B2 (ja) 2018-10-10 2018-10-10 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム

Country Status (2)

Country Link
US (1) US11257211B2 (ja)
JP (1) JP7187244B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022065060A1 (ja) * 2020-09-28 2022-03-31 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル
JP2022534712A (ja) * 2020-07-28 2022-08-03 平安科技(深▲せん▼)有限公司 画像サンプルの選択方法及び関連装置
WO2023187855A1 (ja) * 2022-03-28 2023-10-05 日本電気株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7049974B2 (ja) * 2018-10-29 2022-04-07 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム
DE112019005378T5 (de) * 2018-10-29 2021-07-15 Fujifilm Corporation Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und -Programm
CN112950600B (zh) * 2021-03-10 2024-06-28 武汉联影智融医疗科技有限公司 脑标识提取方法、装置、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297365A (ja) * 2008-06-16 2009-12-24 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
WO2013140667A1 (ja) * 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 画像処理装置
JP2013192624A (ja) * 2012-03-16 2013-09-30 Hitachi Ltd 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム
JP2015194927A (ja) * 2014-03-31 2015-11-05 セコム株式会社 対象識別装置
JP2016067573A (ja) * 2014-09-30 2016-05-09 富士フイルム株式会社 検出器生成装置、方法およびプログラム並びに画像検出装置
WO2017216980A1 (ja) * 2016-06-16 2017-12-21 株式会社日立製作所 機械学習装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006114003A1 (en) * 2005-04-27 2006-11-02 The Governors Of The University Of Alberta A method and system for automatic detection and segmentation of tumors and associated edema (swelling) in magnetic resonance (mri) images
JP5159242B2 (ja) * 2007-10-18 2013-03-06 キヤノン株式会社 診断支援装置、診断支援装置の制御方法、およびそのプログラム
JP2009113717A (ja) 2007-11-08 2009-05-28 Fuji Heavy Ind Ltd 状態推定システム
WO2018001099A1 (zh) * 2016-06-30 2018-01-04 上海联影医疗科技有限公司 一种血管提取方法与***
WO2018222755A1 (en) * 2017-05-30 2018-12-06 Arterys Inc. Automated lesion detection, segmentation, and longitudinal identification
CN110910340A (zh) * 2018-08-28 2020-03-24 奥林巴斯株式会社 注解装置和注解方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009297365A (ja) * 2008-06-16 2009-12-24 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
JP2013192624A (ja) * 2012-03-16 2013-09-30 Hitachi Ltd 医用画像診断支援装置、医用画像診断支援方法ならびにコンピュータプログラム
WO2013140667A1 (ja) * 2012-03-21 2013-09-26 オリンパスメディカルシステムズ株式会社 画像処理装置
JP2015194927A (ja) * 2014-03-31 2015-11-05 セコム株式会社 対象識別装置
JP2016067573A (ja) * 2014-09-30 2016-05-09 富士フイルム株式会社 検出器生成装置、方法およびプログラム並びに画像検出装置
WO2017216980A1 (ja) * 2016-06-16 2017-12-21 株式会社日立製作所 機械学習装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022534712A (ja) * 2020-07-28 2022-08-03 平安科技(深▲せん▼)有限公司 画像サンプルの選択方法及び関連装置
JP7288088B2 (ja) 2020-07-28 2023-06-06 平安科技(深▲せん▼)有限公司 画像サンプルの選択方法及び関連装置
US11972601B2 (en) 2020-07-28 2024-04-30 Ping An Technology (Shenzhen) Co., Ltd. Method for selecting image samples and related equipment
WO2022065060A1 (ja) * 2020-09-28 2022-03-31 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル
JP7463538B2 (ja) 2020-09-28 2024-04-08 富士フイルム株式会社 画像処理装置、画像処理装置の作動方法、画像処理装置の作動プログラム、並びに学習済みモデル
WO2023187855A1 (ja) * 2022-03-28 2023-10-05 日本電気株式会社 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
JP7187244B2 (ja) 2022-12-12
US11257211B2 (en) 2022-02-22
US20200118265A1 (en) 2020-04-16

Similar Documents

Publication Publication Date Title
JP7187244B2 (ja) 医用画像処理装置、医用画像処理システム及び医用画像処理プログラム
US11139067B2 (en) Medical image display device, method, and program
US10049451B2 (en) Automated lesion segmentation from MRI images
US10929973B2 (en) Medical image pre-processing at the scanner for facilitating joint interpretation by radiologists and artificial intelligence algorithms
US9053213B2 (en) Interactive optimization of scan databases for statistical testing
US11969265B2 (en) Neural network classification of osteolysis and synovitis near metal implants
US20180108128A1 (en) Method, computer and imaging apparatus for determining an imaging parameter for an imaging procedure
US11688498B2 (en) Medical document display control apparatus, medical document display control method, and medical document display control program
US11923069B2 (en) Medical document creation support apparatus, method and program, learned model, and learning apparatus, method and program
US11551351B2 (en) Priority judgement device, method, and program
CN115482936A (zh) 用于评估医学图像数据的方法和设备
US11244754B2 (en) Artificial neural network combining sensory signal classification and image generation
US11328414B2 (en) Priority judgement device, method, and program
US10078726B2 (en) Image processing system and method for detecting an anatomical marker within an image study
US20220108451A1 (en) Learning device, method, and program, medical image processing apparatus, method, and program, and discriminator
JP7350595B2 (ja) 画像処理装置、医用画像診断装置及び画像処理プログラム
US12033366B2 (en) Matching apparatus, matching method, and matching program
US20210272254A1 (en) Image analysis device, analysis function decision method, and analysis function decision program
US20220101983A1 (en) Image diagnosis supporting device and image processing method
US20220076796A1 (en) Medical document creation apparatus, method and program, learning device, method and program, and trained model
JP2023092327A (ja) 情報処理装置及びプログラム
JP2024011742A (ja) 医用画像処理装置、医用画像処理方法、及びプログラム
JP2023134655A (ja) 医療映像分析方法、医療映像分析装置及び医療映像分析システム
WO2024102765A1 (en) Registration based medical image analysis
JP2023168807A (ja) 医用画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210812

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221130

R150 Certificate of patent or registration of utility model

Ref document number: 7187244

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150