JP7321271B2 - 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム - Google Patents

学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム Download PDF

Info

Publication number
JP7321271B2
JP7321271B2 JP2021535326A JP2021535326A JP7321271B2 JP 7321271 B2 JP7321271 B2 JP 7321271B2 JP 2021535326 A JP2021535326 A JP 2021535326A JP 2021535326 A JP2021535326 A JP 2021535326A JP 7321271 B2 JP7321271 B2 JP 7321271B2
Authority
JP
Japan
Prior art keywords
learning
image
teacher data
variation
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021535326A
Other languages
English (en)
Other versions
JPWO2021020339A5 (ja
JPWO2021020339A1 (ja
Inventor
貞登 赤堀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021020339A1 publication Critical patent/JPWO2021020339A1/ja
Publication of JPWO2021020339A5 publication Critical patent/JPWO2021020339A5/ja
Application granted granted Critical
Publication of JP7321271B2 publication Critical patent/JP7321271B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

本開示は、学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラムに関する。
近年、ディープラーニング(深層学習)を用いた機械学習の技術が注目を集めている。ディープラーニングを用いることによって、画像に含まれる物体を検出及び分類したり、画像に含まれる物体の領域をセグメンテーションしたりするモデルを構築できることが知られている。ディープラーニングにおいては、画像識別の精度をより向上させるために様々な技術が開発されている。特開2019-28650号公報には、撮像装置のセンサ値による入力画像を取得し、変換部を有する識別器を用いて、取得されたセンサ値による入力画像を識別する画像識別装置に関する開示がある。この画像識別装置は、撮像装置のセンサ値による学習画像とこの学習画像に付与された正解データとに基づいて変換部を学習させることにより、識別に適した画像を得ることができ、かつ高精度な画像識別を実現できる。
一般的に、ディープラーニングにおいては、多くの学習用画像があるほど、より精度の高い出力結果が得られることが知られている。しかしながら、入力対象となる画像が、例えば、くも膜下出血、脳内出血、及び脳梗塞等の脳卒中を発症した脳の脳画像である場合、セグメンテーションの対象となる梗塞領域及び出血領域等の疾患領域は、形状、大きさ、及び発症箇所等が不定である。また、疾患の発症からの経過時間によって脳画像中の疾患領域の画素値が変化する。そのため、脳画像においては多様な症例が存在することとなり、多様な症例を全てカバーできる程度の学習用画像を用意するのは困難である。また、多様な症例を全てカバーできる程度の学習用画像が用意できない場合には、学習用画像が存在しない未知の画像に対してモデルを安定して動作させることは困難である。
本開示は、限られた学習用画像を用いて、安定して動作できるようにモデルを学習させることができる学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラムを提供する。
本開示の第1の態様は、学習用画像生成装置であって、学習用画像を取得する画像取得部と、画像取得部により取得された学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより変動学習用画像を生成する変動学習用画像生成部と、を含む。
ここで、例えば、学習用画像が脳画像の場合であって、モデルの出力が0以上0.5未満の場合に脳梗塞なし、0.5以上1以下の場合に脳梗塞ありと判別されるモデル(分類判別モデル)を使用することとする。この場合、変動前の学習用画像について、モデルの出力が0.6の場合には、この学習用画像は梗塞ありの画像となる。この画像は梗塞ありの画像であるため、最も梗塞ありの可能性が高いと判別される「1」が本開示の「目標値」となる。よって「目標値から離れる変動」は、モデルの出力が「1」からより離れる値であって、0.5以上0.6未満の値となる変動である。一方、変動前の学習用画像について、モデルの出力が0.3の場合には、この学習用画像は梗塞なしの画像となる。この画像は梗塞なしの画像であるため、最も梗塞なしの可能性が高いと判別される「0」が本開示の「目標値」となる。よって「目標値から離れる変動」は、モデルの出力が「0」からより離れる値であって、0.3よりも大きく0.5未満の値となる変動である。
また、例えば、学習用画像が脳画像の場合であって、学習用画像を構成する画素毎にモデルの出力がされるモデル、具体的には、モデルの出力が0以上0.5未満の場合にその画素は脳梗塞領域に属さない、0.5以上1以下の場合に脳梗塞領域に属すると判別されるモデル(セグメンテーション判別モデル)を使用することとする。この場合、変動前の学習用画像を構成する1つの画素について、モデルの出力が0.6の場合には、この画素は梗塞領域に属する画素となる。この画素は梗塞領域に属する画素であるため、最も梗塞領域に属する可能性が高いと判別される「1」が本開示の「目標値」となる。よって「目標値から離れる変動」は、モデルの出力が「1」からより離れる値であって、0.5以上0.6未満の値となる変動である。一方、変動前の学習用画像を構成する1つの画素について、モデルの出力が0.3の場合には、この画素は梗塞領域に属さない画素となる。この画素は梗塞領域に属さない画素であるため、最も梗塞領域に属さない可能性が高いと判別される「0」が本開示の「目標値」となる。よって「目標値から離れる変動」は、モデルの出力が「0」からより離れる値であって、0.3よりも大きく0.5未満の値となる変動である。
本開示の第2の態様は、第1の態様において、変動学習用画像生成部は、学習用画像を構成する各画素の画素値に対する出力値の勾配を取得し、取得した勾配を使用して変動を加えてもよい。
本開示の第3の態様は、上記態様において、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした教師データを取得する教師データ取得部を備え、変動学習用画像生成部は、教師データ取得部により取得された教師データのうちの正解学習用画像を用いて注目画素を決定し、決定した注目画素の出力値の勾配を取得し、取得した勾配を使用して変動を加えてもよい。
本開示の第4の態様は、上記第3の態様において、変動学習用画像生成部は、正解領域に属する画素に対応する学習用画像における画素を注目画素として決定してもよい。
本開示の第5の態様は、上記第3又は第4の態様において、変動学習用画像生成部は、正解領域以外に属する画素に対応する学習用画像における画素を注目画素として決定してもよい。
本開示の第6の態様は、上記第3から第5のいずれか1態様において、変動学習用画像生成部は、正解領域の重心に属する画素に対応する学習用画像における画素を注目画素として決定してもよい。
本開示の第7の態様は、上記態様において、変動学習用画像生成部は、モデルが、入力された学習用画像を1以上の正解クラスを含む複数のクラスに分類する複数の出力部を有するモデルであって、正解クラスに分類する出力部から出力される出力値の勾配を取得してもよい。
本開示の第8の態様は、学習用画像生成方法であって、学習用画像を取得し、取得された学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより変動学習用画像を生成する。
本開示の第9の態様は、学習用画像生成プログラムであって、学習用画像を取得する画像取得部と、画像取得部により取得された学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより変動学習用画像を生成する変動学習用画像生成部として、コンピュータを機能させる。
本開示の他の態様は、学習用画像生成装置であって、プロセッサに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、学習用画像を取得し、取得された学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより変動学習用画像を生成する処理を実行する。
本開示の第10の態様は、学習方法であって、学習用画像と、学習用画像における正解情報とを組にした1以上の第1教師データ、及び、学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像における正解情報とを組にした1以上の第2教師データを用いてモデルを学習させる。
本開示の第11の態様は、上記第10の態様において、正解情報は、学習用画像において正解領域が定義された正解学習用画像であってもよい。
本開示の第12の態様は、上記第10又は第11の態様において、1回目の学習において、複数の第1教師データを用いてモデルを学習させ、2回目以降の学習において、複数の第1教師データのうちの少なくとも1つの第1教師データを第2教師データに換えてモデルを学習させてもよい。
本開示の第13の態様は、上記第10又は第11の態様において、1回目の学習において、複数の第1教師データを用いてモデルを学習させ、2回目以降の学習において、少なくとも1つの第2教師データを追加してモデルを学習させてもよい。
本開示の第14の態様は、上記第12又は第13の態様において、2回目以降の学習において、学習の回毎に、使用する第2教師データ及び第2教師データの数の少なくとも一方をランダムに設定してもよい。
本開示の第15の態様は、上記第12又は第13の態様において、2回目以降の学習において、使用する第2教師データ及び第2教師データの数の少なくとも一方を予め設定してもよい。
本開示の第16の態様は、上記第12から第15の態様において、2回目以降の学習において、少なくとも1回、複数の第1教師データのみを用いてモデルを学習させてもよい。
本開示の第17の態様は、学習装置であって、学習用画像と、学習用画像における正解情報とを組にした1以上の第1教師データ、及び、学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像における正解情報とを組にした1以上の第2教師データとを取得する教師データ取得部と、教師データ取得部により取得された1以上の第1教師データ及び1以上の第2教師データを用いてモデルを学習させる学習部と、を含む。
本開示の他の態様は、学習装置であって、プロセッサに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、学習用画像と、学習用画像における正解情報とを組にした1以上の第1教師データ、及び、学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像における正解情報とを組にした1以上の第2教師データを用いてモデルを学習させる処理を実行する。
本開示の第18の態様は、学習装置であって、学習部は、上記第10から第16の態様における学習方法によってモデルを学習させることができる。
本開示の第19の態様は、学習プログラムであって、学習用画像と、学習用画像における正解情報とを組にした1以上の第1教師データ、及び、学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像における正解情報とを組にした1以上の第2教師データとを取得する教師データ取得部と、教師データ取得部により取得された1以上の第1教師データ及び1以上の第2教師データを用いてモデルを学習させる学習部として、コンピュータを機能させる。
なお、本開示の学習装置及び学習プログラムにおいては、正解情報が、学習用画像において正解領域が定義された正解学習用画像であってもよい。
上記態様によれば、本開示の学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラムは、限られた学習用画像を用いて、安定して動作できるようにモデルを学習させることができる。
本開示の一例示的実施形態である学習用画像生成装置及び学習装置を適用した、診断支援システムの概要を示すハードウェア構成図 本開示の第1の例示的実施形態である学習装置の構成を示す概略ブロック図 CT画像と正解情報とを組にした第1教師データFを説明するための図 学習モデルの一例を示す図 勾配を説明するための図 CT画像に変動を加えて生成した変動CT画像を説明するための図 変動CT画像を生成する処理を示すフローチャート 変動CT画像と正解情報とを組にした第2教師データを説明するための図 学習モデルを説明するための図 第2の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 学習時に行われる処理を示すフローチャート 第3の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 第4の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 第5の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 第6の例示的実施形態における第1教師データ及び第2教師データを用いた学習方法を説明するための図 CT画像と正解CT画像とを組にした第1教師データを説明するための図 U-Netの構造を有する学習モデルの一例を示す図 注目画素を説明するための図 CT画像上の注目画素を説明するための図である。 変動CT画像を生成する処理を示すフローチャート 変動CT画像と正解CT画像とを組にした第2教師データを説明するための図 学習モデルを説明するための図 多クラス分類の学習モデルの一例を示す図 多クラス分類の学習モデルの一例を示す図
以下、図面を参照して本開示の第1の例示的実施形態について説明する。図1は、本開示の第1の例示的実施形態による学習用画像生成装置及び学習装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本例示的実施形態による学習装置1、3次元画像撮影装置2、及び画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。なお、学習装置1には、本例示的実施形態による学習モデル及び学習用画像生成装置が内包される。
3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、及びPET(Positron Emission Tomography)装置等である。この3次元画像撮影装置2により生成された医用画像は画像保管サーバ3に送信され、保存される。なお、本例示的実施形態においては、被検体である患者の診断対象部位は脳であり、3次元画像撮影装置2はCT装置である。そして、CT装置において、被検体の脳を含む3次元のCT画像Bc0を生成する。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置及びデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成されたCT画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式及びネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。また、本例示的実施形態においては、画像保管サーバ3は、後述する学習モデル22の学習のための学習用画像となるCT画像Bc0を含む第1教師データD(後述する)も保管して管理している。
本例示的実施形態の学習用画像生成装置及び学習モデルを含む学習装置1は、1台のコンピュータに、本開示の学習用画像生成プログラム及び学習プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーション又はパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。学習用画像生成プログラム及び学習プログラムは、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。又は、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じて医師が使用するコンピュータにダウンロードされ、インストールされる。
図2は、コンピュータに学習用画像生成プログラム及び学習プログラムをインストールすることにより実現される本開示の一例示的実施形態である学習装置1の概略構成を示す図である。図2に示すように、学習装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12及びストレージ13を備えている。また、学習装置1には、液晶ディスプレイ等からなる表示部14、並びにキーボード及びマウス等からなる入力部15が接続されている。入力部15は、ユーザによる種々の設定入力を受け付ける。なお、タッチパネルを用いることによって表示部14と入力部15とを兼用するようにしてもよい。
ストレージ13は、ハードディスクドライブ及びSSD(Solid State Drive)等からなる。ストレージ13には、ネットワーク4を経由して画像保管サーバ3から取得した、学習モデル22の学習のための学習用画像となるCT画像Bc0を含む第1教師データD、及び処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、学習用画像生成プログラム及び学習プログラムが記憶されている。学習用画像生成プログラムは、CPU11に実行させる処理として、学習用画像を取得する画像取得処理と、変動学習用画像生成処理とを規定する。変動学習用画像生成処理は、取得された学習用画像を学習モデル22に入力した場合に、学習モデル22の出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより変動学習用画像を生成する。
また、学習プログラムは、CPU11に実行させる処理として、学習用画像と、学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第1教師データ、及び、学習用画像をモデルに入力した場合に、モデルの出力が目標値から離れる変動を、学習用画像を構成する少なくとも1つの画素の画素値に加えることにより生成した1以上の変動学習用画像と、1以上の変動学習用画像の各々において変動前の学習用画像において正解領域が定義された正解学習用画像とを組にした1以上の第2教師データとを取得する教師データ取得処理、取得された1以上の第1教師データ及び1以上の第2教師データを用いてモデルを学習させる学習処理、学習用画像又は判別の対象となる対象画像が入力された場合に、入力された画像における判別結果を出力する判別処理、並びに学習用画像、変動学習用画像、及び判別結果等を表示部14に表示する表示制御処理を規定する。
そして、CPU11がプログラムに従いこれらの処理を実行することで、コンピュータは、画像取得部20、教師データ取得部21、学習モデル22、変動学習用画像生成部23、学習部24、及び表示制御部25として機能する。ここで、画像取得部20及び変動学習用画像生成部23が、本例示的実施形態の学習用画像生成装置を構成する。
表示制御部25は、画像取得部20が取得したCT画像Bc0、後述する変動CT画像Bc2、及び判別結果等を表示部14に表示させる。
画像取得部20は、ネットワークに接続されたインターフェース(不図示)を介して、画像保管サーバ3から、CT画像Bc0を取得する。図3はCT画像Bc0と正解情報J0とを組にした第1教師データFを説明するための図である。図3に示すCT画像Bc0は、後述する学習モデル22の学習のための学習用画像である。なお、図3において、CT画像Bc0は3次元画像であるが、ここでは説明のため、CT画像Bc0の1つの断層面における2次元の断層画像を用いて説明する。なお、CT画像Bc0が既にストレージ13に記憶されている場合には、画像取得部20は、ストレージ13からCT画像Bc0を取得するようにしてもよい。また、画像取得部20は、後述する学習モデル22の学習のために、多数の被検体についてのCT画像Bc0を取得する。
教師データ取得部21は、ネットワークに接続されたインターフェース(不図示)を介して、画像保管サーバ3から、第1教師データDを取得する。第1教師データDは、図3に示すように、CT画像Bc0と、CT画像Bc0における正解情報J0として「梗塞あり」又は「梗塞なし」を示す情報とを組にしたデータである。なお、「梗塞あり」又は「梗塞なし」の正解情報J0は、ユーザが入力部15から手動で入力してもよい。また、CT画像Bc0を学習モデル22に入力した場合に、CT画像Bc0全体xに対する学習モデル22の出力値S(x)の値に基づく判別結果が、「梗塞領域あり」である場合(表1参照)に、そのCT画像Bc0を「梗塞あり」の画像としてもよい。
学習モデル22は、CT画像Bc0における疾病領域の有無を判別する。すなわち、CT画像Bc0の分類(疾患領域があるかないか)を判別するモデルである。本例示的実施形態においては、一例として疾病領域を梗塞領域とする。本例示的実施形態においては、学習モデル22は、複数の処理層が階層的に接続され、深層学習(ディープラーニング)がなされたモデルである。図4は学習モデル22の一例を示す図である。なお、学習モデル22は本開示のモデルに対応する。
学習モデル22は、図4に示すように、3つの入力層を含む入力部L1、4つの処理層を含む第1処理部L2、4つの処理層を含む第2処理部L3、及び1つの出力層を含む出力部L4を有して構成されている。各々の入力層、処理層、及び出力層は、図4のように接続されている。
本例示的実施形態において、第1処理部L2及び第2処理部L3は、梗塞領域を含む多数の脳のCT画像Bc0と、CT画像Bc0における判別結果である正解情報とのデータセットを教師データとして使用して、入力されたCT画像Bc0全体xについての梗塞領域あり又は梗塞領域なしの判別結果を示す出力値S(x)を出力するように学習がなされている。なお、正解情報は、CT画像Bc0全体xにおいて梗塞領域ありか梗塞領域なしかの情報である。
これにより、第1処理部L2の入力層にCT画像Bc0が入力されると、第1処理部L2及び第2処理部L3の複数の処理層において、前段の処理層から出力された特徴量マップが次段の処理層に順次入力される。次に、CT画像Bc0全体xにおける梗塞領域あり又は梗塞領域なしの判別結果を示す出力値S(x)が出力部L4の出力層から出力される。なお、出力部L4が出力する出力値S(x)は、CT画像Bc0全体xについて梗塞領域ありか梗塞領域なしかの判別結果を示す値である。ここで、下記表1に、学習モデル22による出力値S(x)と判別結果の一例を示す。

学習モデル22の出力値S(x)が0以上0.5未満の場合に梗塞領域なし、0.5以上1以下の場合に梗塞ありと判別される。すなわち、例えばCT画像Bc0を学習モデル22に入力した際に、学習モデル22の出力値S(x)が0.6の場合には、このCT画像Bc0は梗塞領域ありとなる。また、CT画像Bc0を学習モデル22に入力した際に、学習モデル22の出力値S(x)が0.3の場合には、このCT画像Bc0は梗塞領域なしとなる。
変動学習用画像生成部23は、CT画像Bc0を学習モデル22に入力した場合に、学習モデル22の出力が目標値から離れる変動を、CT画像Bc0を構成する少なくとも1つの画素の画素値に加えることにより変動CT画像Bc2を生成する。例えば、変動前のCT画像Bc0について、学習モデル22の出力値S(x)が0.6の場合には、このCT画像Bc0は梗塞領域ありと判別される。このCT画像Bc0は、梗塞領域ありの画像であるため、最も梗塞領域ありの可能性が高いと判別される出力値S(x)である「1」が「目標値」となる。よって「目標値から離れる変動」は、学習モデル22の出力値S(x)が「1」からより離れる(「1」よりも低下する)値であって、0.5以上0.6未満の値となるように画素値に加えられる変動である。一方、変動前のCT画像Bc0について、学習モデル22の出力値S(x)が0.3の場合には、このCT画像Bc0は梗塞領域なしの画像となる。このCT画像Bc0は梗塞なしの画像であるため、最も梗塞領域なしの可能性が高いと判別される出力値S(x)である「0」が「目標値」となる。よって「目標値から離れる変動」は、学習モデル22の出力値S(x)が「0」からより離れる値であって、0.3よりも大きく0.5未満の値となるように画素値に加えられる変動である。
変動学習用画像生成部23は、具体的には、まずCT画像Bc0を学習モデル22に入力した場合の、CT画像Bc0全体xに対する学習モデル22の出力値S(x)の勾配M(x)を取得する。CT画像Bc0全体xに対する学習モデル22の出力値S(x)の勾配M(x)は、下記式(1)により導出する。
M(x)=∂S(x)/∂x・・・(1)
図5は、勾配M(x)を説明するための図である。図5の左図は、CT画像Bc0の一例、右図は左図に示すCT画像Bc0における勾配M(x)の値をプロットした図である。なお、図5の左図においては、画像上の左側に右側と比較して黒色の領域が存在する。この黒色の領域は脳梗塞Rの所見を示す。図5の右図に示すように、左側の斜線で示す領域、すなわち脳梗塞Rの所見がある領域側の勾配M(x)はマイナスの値であり、右側の斜線以外の色付きで示す領域、すなわち脳梗塞の所見がない領域側の勾配M(x)はプラスの値である。また、色が濃くなるにつれて勾配M(x)の絶対値が大きくなる。
図5の右図で示す左側の斜線で示す領域に属する画素、つまり脳梗塞Rの所見が有る領域に属する画素については、画素値が小さくなると学習モデル22の出力値S(x)が上昇する。すなわち、左側の斜線で示す領域において画素値が小さくなると領域がより黒くなり、出力が上昇する。つまり、より脳梗塞の症例らしくなる。
上記に対して、図5の右図で示す右側の斜線以外の色付きで示す領域に属する画素については、画素値が大きくなると学習モデル22の出力値S(x)が上昇する。すなわち、右側の斜線以外の色付きで示す領域において画素値が大きくなると領域がより白くなり、左右比べた場合に脳梗塞Rの所見がある領域側が相対的により黒くなるので、出力が上昇する。つまり、より脳梗塞の症例らしくなる。
このように、勾配M(x)を使用することにより、画素値をどのように変動させた場合に、学習モデル22の出力値S(x)がどのように変動するのかを容易に導出することができる。
次に、上記式(1)により導出された勾配M(x)を使用して、下記式(2)によりCT画像Bc0を構成する画素の画素値に変動を加えた変動CT画像Bc2を生成する。
xa=x-k×M(x)・・・(2)
ただし、k>0の定数とする。
ここで、xaは、CT画像Bc0全体xを変動させた後の変動CT画像Bc2全体を示す。また、k×M(x)は図5の右図で示す勾配画像全体を表す。
変動学習用画像生成部23は、図5の左図に示すCT画像Bc0全体xに対して、図5の右図に示す勾配画像全体k×M(x)を減算することにより、CT画像Bc0を構成する画素の画素値に変動を加える。図6はCT画像Bc0に変動を加えて生成した変動CT画像Bc2を説明するための図である。
変動学習用画像生成部23が、CT画像Bc0全体xに対して、勾配画像全体k×M(x)を減算すると、図6に示すように、CT画像Bc0における脳梗塞Rの所見が有る領域は画素値がプラスされて出力が低下する。このため、変動CT画像Bc2において脳梗塞Rに対応する領域R2は黒色が弱まって、より脳梗塞の症例らしくなくなる。また、CT画像Bc0における脳梗塞Rの所見が有る側と反対側の領域は画素値がマイナスされて出力が上昇する。このため、変動CT画像Bc2において脳梗塞Rとは反対側に対応する領域は黒色が強まって、より脳梗塞の症例らしくなる。
このように、CT画像Bc0全体xに「目標値」から離れる変動を加えることにより、変動前のCT画像Bc0と比較して学習モデル22が梗塞領域を正しく認識し難い変動CT画像Bc2を生成することができる。
次いで、本例示的実施形態における変動CT画像Bc2を生成する処理について説明する。図7は変動CT画像Bc2を生成する処理を示すフローチャートである。先ず、画像取得部20が、CT画像Bc0を取得する(ステップST1)。次に、変動学習用画像生成部23が、CT画像Bc0を学習モデル22に入力した場合の、CT画像Bc0全体xに対する学習モデル22の出力値S(x)の勾配M(x)を取得する(ステップST2)。そして、変動学習用画像生成部23が、上述したように、CT画像Bc0全体xに対して、「目標値」から離れる変動を加えることにより変動CT画像Bc2を生成して(ステップST3)、一連の処理を終了する。
画像取得部20及び変動学習用画像生成部23で構成される本例示的実施形態の学習用画像生成装置、本例示的実施形態の学習用画像生成方法、並びに本例示的実施形態の学習用画像生成プログラムによれば、CT画像Bc0全体xに対して「目標値」から離れる変動を加えることにより、変動前のCT画像Bc0と比較して学習モデル22が梗塞領域を正しく認識し難い変動CT画像Bc2を生成することができる。また、上記式(2)のkの値を替えることにより、CT画像Bc0を構成する画素の画素値が異なる複数の変動CT画像Bc2を生成することができる。これにより、限られたCT画像Bc0以外のCT画像である変動CT画像Bc2も学習用画像として使用することができるので、限られたCT画像Bc0を用いて、CT画像Bc0以外の未知のCT画像に対しても安定して動作できるように学習モデル22を学習させることができる。
なお、上記式(2)のkの値は、予め設定された一定の値を使用してもよいし、ランダムに値を変化させて使用してもよい。また、後述するように、学習モデル22を学習させる際に、学習の進行に応じて変動させてもよい。また、上記式(2)のkの値に上限値を設けてもよい。これにより、変動CT画像Bc2が異常な画像となるのを防止することができる。この場合、上限値は、例えば、画素値の取り得る値に応じて設定することができる。
以上のようにして変動学習用画像生成部23により生成された変動CT画像Bc2は、第2教師データFを構成する画像データとしてストレージ13に記憶される。図8は変動CT画像Bc2と正解情報J2とを組にした第2教師データFを説明するための図である。第2教師データFは、図8に示すように、変動CT画像Bc2と、変動前のCT画像Bc0における正解情報J2として「梗塞あり」又は「梗塞なし」を示す情報とを組にしたデータである。なお、「梗塞あり」又は「梗塞なし」の正解情報J2は、ユーザが入力部15から手動で入力してもよい。また、変動前のCT画像Bc0を学習モデル22に入力した場合に、変動前のCT画像Bc0全体xに対する学習モデル22の出力値S(x)の値に基づく判別結果が「梗塞領域あり」である場合に、そのCT画像Bc0を変動させた変動CT画像Bc2を「梗塞あり」の画像としてもよい。
次に、図2に戻り、学習部24は、教師データ取得部21により取得された1以上の第1教師データD及び1以上の第2教師データFを用いて学習モデル22を学習させる。図9は学習モデルの学習方法を説明するための図である。なお、本例示的実施形態において学習モデル22は、本開示のモデルに対応する。
学習部24は、図9に示すように、第1教師データDすなわちCT画像Bc0及び正解情報J0を学習モデル22に入力することにより、学習モデル22にCT画像Bc0における梗塞領域の有無を学習させる。これにより、CT画像Bc0が入力された場合に、CT画像Bc0における梗塞領域の有無が出力されるように学習モデル22を学習させる。また、学習部24は、第2教師データFすなわち変動CT画像Bc2及び正解情報J2を学習モデル22に入力することにより、学習モデル22に変動CT画像Bc2における梗塞領域の有無を学習させる。これにより、変動CT画像Bc2が入力された場合に、変動CT画像Bc2における梗塞領域の有無が出力されるように学習モデル22を学習させる。
次に、1以上の第1教師データD及び1以上の第2教師データFを用いた学習モデル22の学習方法について説明する。一般的に学習モデル22を学習させる場合には、例えばn個の教師データを順に学習モデル22に学習させる。そして、n個の教師データが全て学習されると、2回目として再度n個の教師データを順に学習モデル22に学習させて、予め定められた回数、同じ教師データを使用して繰り返し学習モデル22に学習させることが行われている。
本例示的実施形態においては、n個の第1教師データD1~Dnを用いて学習モデル22を学習させる際に、1回目はn個の第1教師データD1~Dnを用いて学習モデル22を学習させ、2回目以降は、n個の第1教師データD1~Dnのうちの少なくとも1つの第1教師データDを第2教師データFに換えて学習モデル22を学習させる。図10は第2の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。なお、第1教師データD及び第2教師データFは、CT画像Bc0又は変動CT画像Bc2と、正解情報J0又は正解情報J2との組で、すなわち2つのデータで構成されているが、図10において第1教師データD及び第2教師データFは説明の都合上、1枚の画像で表してある。なお、以下の図面においても同様に表すことがある。
学習部24は、図10に示すように、1回目の学習時(1T)には、n個の第1教師データD1~Dnを用いて学習モデル22を学習させる。2回目の学習時(2T)には、第1教師データD1を第2教師データF1に換えて学習モデル22を学習させる。3回目の学習時(3T)には、第2教師データF1を第1教師データD1に戻して、かつ、第1教師データD2を第2教師データF2に換えて学習モデル22を学習させる。さらに4回目の学習時(4T)には、第2教師データF2を第1教師データD2に戻して、かつ、第1教師データD3を第2教師データF3に換えて学習モデル22を学習させる。
このように、第2の例示的実施形態においては、2回目以降の学習において、回毎に、n個の第1教師データD1~Dnのうちの1つの第1教師データDを第2教師データFに換えて学習モデル22を学習させる。n+1回の学習が終了すると、1回目の学習(1T)に戻り、設定された回数の学習が終了するまで上記学習を繰り返し行う。
次いで、第2の例示的実施形態における一連の処理について説明する。図11は学習時に行われる処理を示すフローチャートである。先ず、教師データ取得部21が、画像保管サーバ3及びストレージ13から第1教師データD及び第2教師データFを取得する(ステップST11)。次いで、学習部24が、取得した第1教師データD及び第2教師データFを用いて、学習モデル22を上述のようにして学習させて(ステップST12)、一連の処理を終了する。
第2の例示的実施形態においては、CT画像Bc0全体xに対してモデルの出力が「目標値」から離れる変動をCT画像Bc0を構成する画素に加えることにより生成された変動CT画像Bc2と正解情報J2とを組にした第2教師データFを学習に使用する。このように、第1教師データDのみを使用して学習モデル22を学習させるよりも、第2教師データFを使用することにより、限られたCT画像Bc0以外のCT画像である変動CT画像Bc2も学習用画像として使用することができる。すなわち、限られたCT画像Bc0を用いて、CT画像Bc0以外の未知のCT画像に対しても安定して動作できるように学習モデル22を学習させることができる。
なお、第2の例示的実施形態においては、2回目以降の学習において、回毎に1つの第1教師データDを第2教師データFに換えて学習モデル22を学習させたが、本開示の技術はこれに限られない。2つの第1教師データDを第2教師データFに換えてもよいし、3つ、4つ等、任意の数の第1教師データDを第2教師データFに替えることができる。また、予め定められた第1教師データDのみを回毎に異なる第2教師データFに換えてもよい。また、第2教師データFに変更する第1教師データDはランダムに選択されるようにしてもよい。また、第2教師データFに変更する第1教師データDの個数はランダムに決定されるようにしてもよい。また、第2教師データFに変更する第1教師データD及び第2教師データFに変更する第1教師データDの個数の両方を、ランダムに決定するようにしてもよい。図12は、第3の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。
学習部24は、図12に示すように、1回目の学習時(1T)には、n個の第1教師データD1~Dnを用いて学習モデル22を学習させる。2回目の学習時(2T)には、第1教師データD1を第2教師データF1に換えて学習モデル22を学習させる。3回目の学習時(3T)には、第2教師データF1を第1教師データD1に戻して、かつ、第1教師データD2を第2教師データF2に、第1教師データD4を第2教師データF4に、第1教師データD5を第2教師データF5に、それぞれ換えて学習モデル22を学習させる。さらに4回目の学習時(4T)には、第2教師データF2を第1教師データD2に、第2教師データF4を第1教師データD4に、第2教師データF5を第1教師データD5に、それぞれ戻して、かつ、第1教師データD1を第2教師データF1に、第1教師データD3を第2教師データF3に換えて学習モデル22を学習させる。
なお、第2の例示的実施形態及び第3の例示的実施形態においては、2回目以降の学習において、回毎に第1教師データDを第2教師データFに換えて学習モデル22を学習させたが、本開示の技術はこれに限られない。回毎にn個の第1教師データDnに第2教師データFを追加して学習モデル22を学習させてもよい。図13は第4の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。
学習部24は、図13に示すように、1回目の学習時(1T)には、n個の第1教師データD1~Dnを用いて学習モデル22を学習させる。2回目の学習時(2T)には、第2教師データF1を加えて学習モデル22を学習させる。3回目の学習時(3T)には、第2教師データF2を加えて学習モデル22を学習させる。さらに4回目の学習時(4T)には、第2教師データF3を加えて学習モデル22を学習させる。
このように、第4の例示的実施形態においては、2回目以降の学習において、回毎に、n個の第1教師データD1~Dnに、さらに第2教師データFを1つ加えて学習モデル22を学習させる。n+1回の学習が終了すると、1回目の学習(1T)に戻り、設定された回数の学習が終了するまで上記学習を繰り返し行う。
なお、第4の例示的実施形態においては、2回目以降の学習において、回毎に1つの第2教師データF加えて学習モデル22を学習させたが、本開示の技術はこれに限られない。2つの第2教師データFを加えてもよいし、3つ、4つ等、任意の数の第2教師データFを加えることができる。また、加える第2教師データFはランダムに選択されるようにしてもよい。図14は第5の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。
学習部24は、図14に示すように、1回目の学習時(1T)には、n個の第1教師データD1~Dnを用いて学習モデル22を学習させる。2回目の学習時(2T)には、第2教師データF2、第2教師データF3、及び第2教師データF5を加えて学習モデル22を学習させる。3回目の学習時(3T)には、第2教師データF4を加えて学習モデル22を学習させる。さらに4回目の学習時(4T)には、第2教師データF1及び第2教師データF4を加えて学習モデル22を学習させる。
このように、第5の例示的実施形態においては、2回目以降の学習において、回毎に、n個の第1教師データD1~Dnに、さらに第2教師データFをランダムの個数加えて、設定された回数の学習が終了するまで学習モデル22を学習させる。
なお、本開示の学習モデル22の学習方法は上記第2~第5の例示的実施形態に示す学習方法に限られない。図15は、第6の例示的実施形態における第1教師データD及び第2教師データFを用いた学習方法を説明するための図である。
学習部24は、図15に示すように、2回目以降の学習において、少なくとも1回、本例示的実施形態においては7回目の学習において、n個の第1教師データD1~Dnのみを用いて学習モデル22を学習させる。なお、n個の第1教師データD1~Dnのみを用いて学習モデル22を学習させる回は、7回目に限られず何れの回であってもよい。また、2回、3回とn個の第1教師データD1~Dnのみを用いて学習モデル22を学習させてもよい。
なお、上述した例示的実施形態においては、第2教師データFは、回毎に、上記式(2)のkの値を換えて変動させた変動CT画像Bc2を使用してもよい。この場合、回毎にkの値をランダムに換えてもよいし、予め定められた値としてもよい。
また、上述した例示的実施形態においては、第1教師データDをCT画像Bc0と正解情報J0とを組にした教師データ、第2教師データFを変動CT画像Bc2と正解情報J2とを組にした教師データとしたが、本開示の技術はこれに限られない。図16はCT画像Bc0と正解CT画像Bc1とを組にした第1教師データD-2を説明するための図である。図16に示すように、第1教師データDは、学習モデル22の学習のための学習用画像となるCT画像Bc0及びこのCT画像Bc0において正解領域として梗塞領域Aが定義された正解マスクBc1とを組にした教師データである。
なお、図16において、正解マスクBc1は、正解領域である梗塞領域Aを白色に塗り潰して描画することにより定義しているが、正解マスクBc1はこれに限られない。例えば、梗塞領域Aの内部を塗り潰すことなく、梗塞領域Aの境界を白色で描画することにより梗塞領域Aを定義してもよい。また、白色以外の色で描画してもよい。また、梗塞領域Aの内部と、梗塞領域Aの外部とを異なる画素値を有する画素で構成した画像とすることにより梗塞領域Aを定義してもよい。
本例示的実施形態のCT画像Bc0は本開示の学習用画像に、本例示的実施形態の正解マスクBc1は本開示の正解学習用画像にそれぞれ対応する。なお、CT画像Bc0及び正解マスクBc1、すなわち第1教師データD-2が既にストレージ13に記憶されている場合には、教師データ取得部21は、ストレージ13から第1教師データD-2を取得するようにしてもよい。また、教師データ取得部21は、後述する学習モデル22-2の学習のために、多数の被検体についての第1教師データD-2を取得する。
本例示的実施形態において、変動学習用画像生成部23は、正解マスクBc1を用いて決定した注目画素に対して、CT画像Bc0を後述する学習モデル22-2(図17で示されるモデル)に入力した場合に、学習モデル22-2の出力が目標値から離れる変動を加える。ここで学習モデル22-2について説明する。なお、注目画素の決定方法については後で詳細に説明する。
学習モデル22-2は、CT画像Bc0を構成する各画素について梗塞領域の有無を判別する。すなわち、CT画像Bc0のセグメンテーションを判別するモデルである。具体的には、梗塞領域Aを検出する対象となるCT画像Bc0が入力された場合に、CT画像Bc0における梗塞領域Aが定義された正解マスクBc1を出力するように学習されたモデルである。本例示的実施形態においては、学習モデル22-2は、U-Net(U Networks)の構造を有する。U-Netは、全層畳み込みネットワーク(Fully Convolution Network;FCN)の1つであり、画像のセグメンテーションに特化したネットワークである。図17はU-Netの構造を有する学習モデル22-2の一例を示す図である。図17において、斜線で示す層は畳み込み層、ドットで示す層はプーリング層、格子で示す層はアップサンプリング層とする。また図17において、円で囲んだ矢印は、画像サイズを同じにして統合することを示す。
学習モデル22-2は、下向きのパス(図中下向きの矢印)は、畳み込み処理及びプーリング処理により、データ量が低減された特徴量マップを出力する。一方、上向きのパス(図中上向きの矢印)は、畳み込み処理及びアップサンプリング処理により、特徴量マップの大きさを大きく復元して出力する。学習モデル22-2は、両方のパスにおいて、画像サイズが同じものを深い層から段階的に統合することによって、局所的特徴を保持したまま全***置情報の復元を行う。なお、本例示的実施形態の学習モデル22-2は、公知のU-Netの構造を使用することができる。
上記学習モデル22-2に梗塞領域Aを検出する対象となるCT画像Bc0全体xが入力された場合に、学習モデル22-2からはCT画像Bc0における梗塞領域Aが定義された正解マスクBc1が出力されるように学習が行われる。この正解マスクBc1は、CT画像Bc0を構成する各画素について、梗塞領域に属する画素か、又は梗塞領域以外の領域に属する画素かの出力値を有している。例えば、ある注目する画素(以下、注目画素という)が梗塞領域に属する画素か、又は梗塞領域以外の領域に属する画素かの出力値を出力値Ss(x)とする。ここで、下記表2に、学習モデル22-2による出力値Ss(x)と判別結果の一例を示す。

学習モデル22-2の出力値Ss(x)が0以上0.5未満の場合に梗塞領域以外の画素、0.5以上1以下の場合に梗塞領域の画素と判別される。すなわち、例えばCT画像Bc0を学習モデル22-2に入力した際に、学習モデル22-2の注目画素の出力値Ss(x)が0.6の場合には、この注目画素は梗塞領域に属する画素となる。また、CT画像Bc0を学習モデル22-2に入力した際に、学習モデル22-2の注目画素の出力値Ss(x)が0.3の場合には、この注目画素は梗塞領域以外に属する画素となる。
変動学習用画像生成部23は、CT画像Bc0を学習モデル22-2に入力した場合に、学習モデル22-2の注目領域の出力が目標値から離れる変動を、注目画素の画素値に加えることにより変動CT画像Bc2を生成する。例えば、変動前のCT画像Bc0について、学習モデル22-2の注目画素の出力値Ss(x)が0.6の場合には、この注目画素は梗塞領域に属する画素と判別される。このため、この注目画素において最も梗塞領域に属する画素である可能性が高いと判別される出力値Ss(x)である「1」が「目標値」となる。よって「目標値から離れる変動」は、学習モデル22-2の注目画素の出力値Ss(x)が「1」からより離れる(「1」よりも低下する)値であって、0.5以上0.6未満の値となるように画素値に加えられる変動である。一方、変動前のCT画像Bc0について、学習モデル22-2の注目画素の出力値Ss(x)が0.3の場合には、この注目画素は梗塞領域以外に属する画素と判別される。このため、この注目画素において最も梗塞領域以外に属する画素である可能性が高いと判別される出力値Ss(x)である「0」が「目標値」となる。よって「目標値から離れる変動」は、学習モデル22-2の注目画素の出力値Ss(x)が「0」からより離れる値であって、0.3よりも大きく0.5未満の値となるように画素値に加えられる変動である。
変動学習用画像生成部23は、具体的には、まずCT画像Bc0を学習モデル22-2に入力した場合の、注目画素sに対する学習モデル22-2の出力値Ss(x)の勾配Ms(x)を取得する。注目画素sに対する学習モデル22-2の出力値Ss(x)の勾配Ms(x)は、下記式(3)により導出する。
Ms(x)=∂Ss(x)/∂x・・・(3)
なお、勾配Ms(x)については、図5に示して説明した勾配M(x)と同様の説明とすることができるため、ここでの詳細な説明は省略する。
次に、上記式(3)により導出された勾配Ms(x)を使用して、下記式(4)によりCT画像Bc0を構成する少なくとも1つの画素に変動を加えた変動CT画像Bc2を生成する。
xa=x-k×Ms(x)・・・(4)
ただし、k>0の定数とする。
ここで、xはCT画像Bc0全体、xaはCT画像Bc0を変動させた後の変動CT画像Bc2全体を示す。また、k×Ms(x)は図5の右図と同様に勾配画像全体を表す。
変動学習用画像生成部23は、CT画像Bc0全体xに対して、勾配画像全体k×Ms(x)を減算することにより、CT画像Bc0を構成する少なくとも1つの画素に変動を与えた変動CT画像Bc2を生成する。
次に変動学習用画像生成部23による注目画素の決定方法について説明する。変動学習用画像生成部23は、まず、正解マスクBc1において定義された梗塞領域Aの重心Gが属する画素を検出する。図18は注目画素を説明するための図である。
変動学習用画像生成部23は、図18に示すように、梗塞領域Aの重心Gを導出する。ここで、重心Gの導出は、公知の方法により行うことができる。変動学習用画像生成部23は、梗塞領域Aの重心Gが属する画素Pgを検出する。次に、検出した画素PgがCT画像Bc0において対応する画素を注目画素Pgsとして決定する。図19はCT画像Bc0上の注目画素Pgsを説明するための図である。
変動学習用画像生成部23は、図19に示すように、正解マスクBc1において検出された梗塞領域Aの重心Gが属する画素Pgに対応する、CT画像Bc0上の画素を注目画素Pgsとして決定する。そして、CT画像Bc0を学習モデル22-2(図17で示されるモデル)に入力した場合に、学習モデル22-2の注目画素Pgsの出力が目標値から離れる変動を上記にて説明したように加える。これにより、変動学習用画像生成部23は、CT画像Bc0上に変動を加えた変動CT画像Bc2を生成する。
次いで、本例示的実施形態における変動CT画像Bc2を生成する処理について説明する。図20は変動CT画像Bc2を生成する処理を示すフローチャートである。先ず、教師データ取得部21が、CT画像Bc0と正解マスクBc1とを組にした第1教師データDを取得する(ステップST21)。次に、変動学習用画像生成部23が、CT画像Bc0において、注目画素Pgsを決定する(ステップST22)。次に、変動学習用画像生成部23が、CT画像Bc0の注目画素Pgsに対する学習モデル22-2の出力値Ss(x)の勾配Ms(x)を取得する(ステップST23)。そして、変動学習用画像生成部23が、上述したように、注目画素Pgsの出力が「目標値」から離れる変動をCT画像Bc0に加えることにより変動CT画像Bc2を生成して(ステップST24)、一連の処理を終了する。
画像取得部20、教師データ取得部21、及び変動学習用画像生成部23で構成される本例示的実施形態の学習用画像生成装置、本例示的実施形態の学習用画像生成方法、並びに本例示的実施形態の学習用画像生成プログラムによれば、注目画素Pgsの出力が「目標値」から離れる変動をCT画像Bc0に加えることにより、変動前のCT画像Bc0と比較して学習モデル22-2が梗塞領域を正しく認識し難い変動CT画像Bc2を生成することができる。これにより、限られたCT画像Bc0以外のCT画像である変動CT画像Bc2も学習用画像として使用することができるので、限られたCT画像Bc0を用いて、CT画像Bc0以外の未知のCT画像に対しても安定して動作できるように後述する学習モデル22-2を学習させることができる。
なお、本例示的実施形態においては、注目画素Pgsを1つとしたが、本開示の技術はこれに限られず、複数の注目画素Pgsとしてもよい。この場合、正解マスクBc1において検出する画素Pgは、重心Gが属する画素に限られず、梗塞領域Aに属する画素から任意に検出することができる。そして、検出した複数の画素Pgに各々対応するCT画像Bc0上の複数の注目画素Pgs1,Pgs2,...において、学習モデル22-2の出力値Ss1(x),Ss2(x),...の勾配Ms1(x),Ms2(x),...を取得する。
そして、取得した勾配Ms1(x),Ms2(x),...を使用して、下記式(5)により変動を加えた変動CT画像Bc2を生成する。
xa=x-k×(Ms1(x)+Ms2(x)+ ...)・・・(5)
ただし、k>0の定数とする。
変動学習用画像生成部23は、CT画像Bc0全体xに対して、勾配画像全体k×(Ms1(x)+Ms2(x)+ ...)を減算することにより、CT画像Bc0を構成する複数の注目画素Pgs1,Pgs2,...の出力が「目標値」から離れる変動を与えた変動CT画像Bc2を生成する。このように、CT画像Bc0の複数の注目画素Pgs1,Pgs2,...の出力が「目標値」から離れる変動をCT画像Bc0に加えることにより、変動前のCT画像Bc0と比較して学習モデル22が梗塞領域を正しく認識し難い変動CT画像Bc2を生成することができる。
なお、本例示的実施形態においては、正解マスクBc1において検出する画素Pgは、梗塞領域Aに属する画素から検出したが、本開示の技術はこれに限られず、梗塞領域Aに属する画素と梗塞領域A以外の領域に属する画素との両方から検出してもよい。また、梗塞領域A以外の領域に属する画素のみから検出してもよい。
次に、学習部24は、教師データ取得部21により取得された1以上の第1教師データD-2及び1以上の第2教師データF-2を用いて学習モデル22-2を学習させる。図21は変動CT画像と正解CT画像とを組にした第2教師データF-2を説明するための図である。第2教師データF-2は、図21に示すように、変動CT画像Bc2と、変動CT画像Bc2の変動前のCT画像Bc0において梗塞領域Aが定義された正解マスクBc1とを組にした教師データである。なお、本例示的実施形態において第2教師データF-2は、変動CT画像Bc2と変動前のCT画像Bc0において梗塞領域Aが定義された正解マスクBc1とを組にしたが、変動CT画像Bc2と、変動CT画像Bc2において新たに梗塞領域Aを定義した正解マスクBc3とを組にしてもよい。ただし、変動CT画像Bc2は、変動前のCT画像Bc0において、注目画素sに対する学習モデル22-2の出力値Ss(x)の値に基づく判別結果が変わらないように変動させているので、正解マスクBc1と、変動CT画像Bc2において新たに梗塞領域Aを定義した正解マスクBc3とは同じ正解マスクとなる。
図22は学習モデル22-2の学習方法を説明するための図である。なお、本例示的実施形態において学習モデル22-2は、本開示のモデルに対応する。学習部24は、図22に示すように、第1教師データD-2すなわちCT画像Bc0及び正解マスクBc1を学習モデル22-2に入力することにより、学習モデル22-2にCT画像Bc0における梗塞領域Aを学習させる。これにより、CT画像Bc0が入力された場合に、正解マスクBc1と一致する領域が梗塞領域Aとして出力されるように学習モデル22-2を学習させる。また、学習部24は、第2教師データF-2すなわち変動CT画像Bc2及び正解マスクBc1を学習モデル22-2に入力することにより、学習モデル22-2に変動CT画像Bc2における梗塞領域Aを学習させる。これにより、変動CT画像Bc2が入力された場合に、正解マスクBc1と一致する領域が梗塞領域Aとして出力されるように学習モデル22-2を学習させる。
なお、本例示的実施形態の学習方法の一連の処理については、図11で示したフローチャートと同様の処理であるため、ここでの詳細な説明は省略する。
なお、上述した例示的実施形態においては、学習モデル22及び学習モデル22-2は、出力部が1つの単クラスのモデルであるが、本開示の技術はこれに限られず、学習モデルは複数の出力部を有する多クラスのモデルであってもよい。図23は多クラス分類の学習モデル22-3の一例を示す図である。
図4に示す学習モデル22の出力部L4が1つの出力層を有しているのに対して、本例示的実施形態の学習モデル22-3は、図23に示すように、出力部L4が3つの出力層を有している。3つの出力層から出力される出力値S1(x)~S3(x)は、図4に示す学習モデル22と同様に、畳み込み層及びプーリング層の少なくとも一方を含む。
本例示的実施形態において、例えば、出力値S1(x)は、CT画像Bc0上に梗塞領域Aが有るか無いかの判別結果を示す値が出力される。出力値S2(x)は、CT画像Bc0上において特定された梗塞の解剖学的な部位の判別結果を表す値が出力される。出力値S3(x)は、CT画像Bc0上に出血領域が有るか無いかの判別結果を示す値が出力される。このように構成された学習モデル22-3においては、入力するCT画像Bc0の各出力値S1(x)~S3(x)に対して下記式(6)~(8)により勾配M1(x)~M3(x)を導出する。
M1(x)=∂S1(x)/∂x・・・(6)
M2(x)=∂S2(x)/∂x・・・(7)
M3(x)=∂S3(x)/∂x・・・(8)
上記式(6)~(8)により導出した勾配M1(x)~M3(x)を用いて、上述した例示的実施形態と同様に、変動CT画像Bc2を生成する。なお、勾配M1(x)~M3(x)を導出した後の処理は、第1の例示的実施形態と同様であるため、ここでの詳細な説明は省略する。
また、本開示の技術において、多クラス分類の学習モデルは、図23に示す学習モデル22-3に限られない。図24は多クラス分類の学習モデル22-4の一例を示す図である。学習モデル22-4は、CT画像Bc0が入力された場合に、CT画像Bc0における梗塞領域A1及び出血領域A2が各々定義された正解マスクBc1、Bc2を出力するように学習されたモデルである。本例示的実施形態においては、学習モデル22-4は、U-Net(U Networks)の構造を有する。
学習モデル22-4においても、正解マスクBc1、Bc2の各々を用いて、それぞれの注目画素Pg10,Pg20を算出して、上記式(6)(7)により勾配M1(x),M2(x)を導出する。上記式(6)(7)により導出した勾配M1(x),M2(x)を用いて、上述した例示的実施形態と同様に、変動CT画像Bc2を生成する。なお、勾配M1(x),M2(x)を導出した後の処理は、上述した例示的実施形態と同様であるため、ここでの詳細な説明は省略する。
なお、上記例示的実施形態においては、CT画像Bc0を学習モデルに入力した場合に、学習モデルの出力が目標値から離れる変動を、CT画像Bc0を構成する少なくとも1つの画素の画素値に加えるために、勾配M(x)を使用したが、本開示の技術はこれに限られない。学習モデルの出力が目標値から離れる変動を、CT画像Bc0を構成する少なくとも1つの画素に加えられれば勾配M(x)を使用しなくてもよい。
また、上記例示的実施形態においては、疾患を梗塞としたが、本開示の技術はこれに限られず、例えば疾患は出血等であってもよい。
また、上記例示的実施形態においては、本開示の学習用画像としてCT画像を用いているが、本開示の技術はこれに限定されるものではなく、本開示の学習用画像は例えばPET画像、超音波画像、及びMRI画像等の他の医用画像であってもよい。MRI画像は、T1画像、T2画像、及び拡散強調画像の何れの画像であってもよい。
また、上記例示的実施形態においては、医用画像として脳画像を用いているが、これに限定されるものではない。例えば、人体の胸部、腹部、全身及び四肢等の医用画像に含まれる疾患領域及び関心領域等を判別する場合にも、本開示を適用することができる。
また、上記例示的実施形態においては、学習装置1は、学習用画像生成装置が内包されているが、本開示の技術はこれに限られず、学習用画像生成装置が内包されていなくてもよい。ただし、この場合、学習装置1は教師データ取得部21を備えるものとし、教師データ取得部21が、外部の学習用生成装置によって生成された変動学習用画像を含む第2教師データを取得するようにすればよい。
また、上記例示的実施形態においては、学習モデル22-2,22-4は、U-Netの構造を有するものとしたが、本開示の技術はこれに限定されるものではない。U-Net以外の、全層畳み込みネットワーク(Fully Convolution Network;FCN)を使用してもよい。なお、セグメンテーションの問題をEnd-to-End深層学習により学習するモデルを利用する際に、U-Net及びFCNに限られず、広く応用することができる。
また、上述した例示的実施形態において、例えば、画像取得部20、教師データ取得部21、学習モデル22、変動学習用画像生成部23、学習部24、及び表示制御部25といった各種の処理を実行する処理部(Processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ又はCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
2019年7月26日出願の日本国特許出願2019-138235号の開示は、その全体が参照により本明細書に取り込まれる。
本明細書に記載された全ての文献、特許出願及び技術規格は、個々の文献、特許出願及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (19)

  1. 学習用画像を取得する画像取得部と、
    前記画像取得部により取得された前記学習用画像を学習モデルに入力した場合に、前記学習モデルの出力が目標値から離れるような変動を、前記学習用画像を構成する少なくとも1つの画素の画素値に加えることにより変動学習用画像を生成する変動学習用画像生成部と、
    を含む、学習用画像生成装置。
  2. 前記変動学習用画像生成部は、前記学習用画像を構成する各画素の画素値に対する出力値の勾配を取得し、取得した前記勾配を使用して前記変動を加える、請求項1に記載の学習用画像生成装置。
  3. 学習用画像と、前記学習用画像において定義された正解領域とを組にした教師データを取得する教師データ取得部を備え、
    前記変動学習用画像生成部は、前記教師データ取得部により取得された前記教師データのうちの前記正解領域を用いて注目画素を決定し、決定した注目画素の出力値の勾配を取得し、取得した前記勾配を使用して前記変動を加える、
    請求項1又は請求項2に記載の学習用画像生成装置。
  4. 前記変動学習用画像生成部は、前記正解領域に属する画素に対応する前記学習用画像における画素を前記注目画素として決定する、請求項3に記載の学習用画像生成装置。
  5. 前記変動学習用画像生成部は、前記正解領域以外に属する画素に対応する前記学習用画像における画素を前記注目画素として決定する、請求項3又は請求項4に記載の学習用画像生成装置。
  6. 前記変動学習用画像生成部は、前記正解領域の重心に属する画素に対応する前記学習用画像における画素を前記注目画素として決定する、請求項3から請求項5のいずれか1項に記載の学習用画像生成装置。
  7. 前記変動学習用画像生成部は、
    前記学習モデルが、入力された前記学習用画像を1以上の正解クラスを含む複数のクラスに分類する複数の出力部を有する学習モデルであって、
    前記正解クラスに分類する出力部から出力される出力値の勾配を取得する、
    請求項1から請求項6のいずれか1項に記載の学習用画像生成装置。
  8. コンピュータが、
    学習用画像を取得し、
    取得された前記学習用画像を学習モデルに入力した場合に、前記学習モデルの出力が目標値から離れるような変動を、前記学習用画像を構成する少なくとも1つの画素の画素値に加えることにより変動学習用画像を生成する、
    学習用画像生成方法。
  9. 学習用画像を取得する画像取得部と、
    前記画像取得部により取得された前記学習用画像を学習モデルに入力した場合に、前記学習モデルの出力が目標値から離れるような変動を、前記学習用画像を構成する少なくとも1つの画素の画素値に加えることにより変動学習用画像を生成する変動学習用画像生成部として、
    コンピュータを機能させる学習用画像生成プログラム。
  10. コンピュータが、
    学習用画像と、前記学習用画像における正解情報とを組にした1以上の第1教師データ、及び、前記学習用画像を学習モデルに入力した場合に、前記学習モデルの出力が目標値から離れるような変動を、前記学習用画像を構成する少なくとも1つの画素の画素値に加えることにより生成した1以上の変動学習用画像と、1以上の前記変動学習用画像の各々において変動前の学習用画像における正解情報とを組にした1以上の第2教師データを用いて学習モデルを学習させる、
    学習方法。
  11. 前記正解情報は、前記学習用画像において定義された正解領域である、請求項10に記載の学習方法。
  12. 1回目の学習において、複数の前記第1教師データを用いて前記学習モデルを学習させ、2回目以降の学習において、複数の前記第1教師データのうちの少なくとも1つの前記第1教師データを前記第2教師データに換えて前記学習モデルを学習させる、請求項10又は請求項11に記載の学習方法。
  13. 1回目の学習において、複数の前記第1教師データを用いて前記学習モデルを学習させ、2回目以降の学習において、少なくとも1つの前記第2教師データを追加して前記学習モデルを学習させる、請求項10又は請求項11に記載の学習方法。
  14. 前記2回目以降の学習において、前記学習の回毎に、使用する前記第2教師データ及び前記第2教師データの数の少なくとも一方をランダムに設定する、請求項12又は請求項13に記載の学習方法。
  15. 前記2回目以降の学習において、使用する前記第2教師データ及び前記第2教師データの数の少なくとも一方を予め設定する、請求項12又は請求項13に記載の学習方法。
  16. 前記2回目以降の学習において、少なくとも1回、複数の前記第1教師データのみを用いて前記学習モデルを学習させる、請求項12から請求項15のいずれか1項に記載の学習方法。
  17. 学習用画像と、前記学習用画像における正解情報とを組にした1以上の第1教師データ、及び、前記学習用画像を学習モデルに入力した場合に、前記学習モデルの出力が目標値から離れるような変動を、前記学習用画像を構成する少なくとも1つの画素の画素値に加えることにより生成した1以上の変動学習用画像と、1以上の前記変動学習用画像の各々において変動前の学習用画像における正解情報とを組にした1以上の第2教師データとを取得する教師データ取得部と、
    前記教師データ取得部により取得された1以上の前記第1教師データ及び1以上の第2教師データを用いて学習モデルを学習させる学習部と、
    を含む学習装置。
  18. 前記学習部は、請求項10から請求項16のいずれか1項に記載の学習方法によって前記学習モデルを学習させる請求項17に記載の学習装置。
  19. 学習用画像と、前記学習用画像における正解情報とを組にした1以上の第1教師データ、及び、前記学習用画像を学習モデルに入力した場合に、前記学習モデルの出力が目標値から離れるような変動を、前記学習用画像を構成する少なくとも1つの画素の画素値に加えることにより生成した1以上の変動学習用画像と、1以上の前記変動学習用画像の各々において変動前の学習用画像における正解情報とを組にした1以上の第2教師データとを取得する教師データ取得部と、
    前記教師データ取得部により取得された1以上の前記第1教師データ及び1以上の第2教師データを用いて学習モデルを学習させる学習部として、
    コンピュータを機能させる学習プログラム。
JP2021535326A 2019-07-26 2020-07-27 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム Active JP7321271B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019138235 2019-07-26
JP2019138235 2019-07-26
PCT/JP2020/028685 WO2021020339A1 (ja) 2019-07-26 2020-07-27 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム

Publications (3)

Publication Number Publication Date
JPWO2021020339A1 JPWO2021020339A1 (ja) 2021-02-04
JPWO2021020339A5 JPWO2021020339A5 (ja) 2022-04-13
JP7321271B2 true JP7321271B2 (ja) 2023-08-04

Family

ID=74230436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021535326A Active JP7321271B2 (ja) 2019-07-26 2020-07-27 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム

Country Status (3)

Country Link
US (1) US20220148294A1 (ja)
JP (1) JP7321271B2 (ja)
WO (1) WO2021020339A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117173497B (zh) * 2023-11-02 2024-02-27 腾讯科技(深圳)有限公司 一种图像生成方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007029467A1 (ja) 2005-09-05 2007-03-15 Konica Minolta Medical & Graphic, Inc. 画像処理方法及び画像処理装置
US20180357753A1 (en) 2017-06-12 2018-12-13 Nvidia Corporation Systems and methods for training neural networks for regression without ground truth training samples
JP2018206382A (ja) 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
JP2019025044A (ja) 2017-07-31 2019-02-21 株式会社日立製作所 医用撮像装置及び医用画像処理方法
US20190197358A1 (en) 2017-12-21 2019-06-27 International Business Machines Corporation Generative Adversarial Network Medical Image Generation for Training of a Classifier
JP2021010970A (ja) 2019-07-05 2021-02-04 京セラドキュメントソリューションズ株式会社 ロボットシステム及びロボット制御方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006114003A1 (en) * 2005-04-27 2006-11-02 The Governors Of The University Of Alberta A method and system for automatic detection and segmentation of tumors and associated edema (swelling) in magnetic resonance (mri) images
US20130202177A1 (en) * 2010-06-30 2013-08-08 Medic Vision - Imaging Solutions Ltd. Non-linear resolution reduction for medical imagery

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007029467A1 (ja) 2005-09-05 2007-03-15 Konica Minolta Medical & Graphic, Inc. 画像処理方法及び画像処理装置
JP2018206382A (ja) 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
US20180357753A1 (en) 2017-06-12 2018-12-13 Nvidia Corporation Systems and methods for training neural networks for regression without ground truth training samples
JP2019025044A (ja) 2017-07-31 2019-02-21 株式会社日立製作所 医用撮像装置及び医用画像処理方法
US20190197358A1 (en) 2017-12-21 2019-06-27 International Business Machines Corporation Generative Adversarial Network Medical Image Generation for Training of a Classifier
JP2021010970A (ja) 2019-07-05 2021-02-04 京セラドキュメントソリューションズ株式会社 ロボットシステム及びロボット制御方法

Also Published As

Publication number Publication date
WO2021020339A1 (ja) 2021-02-04
US20220148294A1 (en) 2022-05-12
JPWO2021020339A1 (ja) 2021-02-04

Similar Documents

Publication Publication Date Title
US11069056B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
JP2022025095A (ja) 機械学習を用いた医用イメージングの変換のためのシステムおよび方法
JP7366583B2 (ja) 医用情報処理装置、方法及びプログラム
US10956635B1 (en) Radiologist-assisted machine learning with interactive, volume subtending 3D cursor
US11893729B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
US11238197B1 (en) Generating a 3D dataset containing a simulated surgical device
Cho et al. Medical image deep learning with hospital PACS dataset
JP7129870B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
EP3723042A1 (en) Artifical intelligence-based copd assessment
JP6914233B2 (ja) 類似度決定装置、方法およびプログラム
JP2021140769A (ja) 医用情報処理装置、医用情報処理方法及び医用情報処理プログラム
Yerukalareddy et al. Brain tumor classification based on mr images using GAN as a pre-trained model
KR102067412B1 (ko) 치매 평가 방법 및 이를 이용한 장치
JP7339270B2 (ja) 医用画像処理装置、方法およびプログラム
JP7321271B2 (ja) 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム
Segars et al. Population of 100 realistic, patient-based computerized breast phantoms for multi-modality imaging research
JP2020068881A (ja) 情報処理装置、情報処理方法、及びプログラム
JP7334256B2 (ja) 画像処理装置、方法およびプログラム、学習装置、方法およびプログラム、並びに導出モデル
JP7307166B2 (ja) 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム
CN114220534A (zh) 针对***癌的多模态计算机辅助诊断***和方法
CN113205472A (zh) 基于循环生成对抗网络CycleGAN模型的跨模态MR影像互生成方法
O'Sullivan et al. Craniofacial syndrome identification using convolutional mesh autoencoders
JPWO2020044736A1 (ja) 類似度決定装置、方法およびプログラム
JP7121191B2 (ja) 構造物分離装置、方法およびプログラム、学習装置、方法およびプログラム、並びに学習済みモデル
JP7342120B2 (ja) 学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230725

R150 Certificate of patent or registration of utility model

Ref document number: 7321271

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150