JP7170868B2 - 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器 - Google Patents

学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器 Download PDF

Info

Publication number
JP7170868B2
JP7170868B2 JP2021528288A JP2021528288A JP7170868B2 JP 7170868 B2 JP7170868 B2 JP 7170868B2 JP 2021528288 A JP2021528288 A JP 2021528288A JP 2021528288 A JP2021528288 A JP 2021528288A JP 7170868 B2 JP7170868 B2 JP 7170868B2
Authority
JP
Japan
Prior art keywords
learning
teacher label
image
medical image
teacher
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021528288A
Other languages
English (en)
Other versions
JPWO2020262681A1 (ja
JPWO2020262681A5 (ja
Inventor
瑞希 武井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020262681A1 publication Critical patent/JPWO2020262681A1/ja
Publication of JPWO2020262681A5 publication Critical patent/JPWO2020262681A5/ja
Application granted granted Critical
Publication of JP7170868B2 publication Critical patent/JP7170868B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/161Applications in the field of nuclear medicine, e.g. in vivo counting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/037Emission tomography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pathology (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)

Description

本開示は、医用画像に含まれる疾病領域を抽出するための判別器を学習する学習装置、方法およびプログラム、学習された判別器を用いた医用画像処理装置、方法およびプログラム、並びに学習により構築された判別器に関するものである。
近年、CT(Computed Tomography)装置およびMRI(Magnetic Resonance Imaging)装置等の医療機器の進歩により、より質の高い高解像度の医用画像を用いての画像診断が可能となってきている。とくに、対象部位を脳とした場合において、CT画像およびMRI画像等を用いた画像診断により、脳梗塞および脳出血等の血管障害を起こしている疾病領域を特定することができるため、特定した結果に基づいて適切な治療が行われるようになってきている。一般に疾病領域はCT画像上において周囲の領域と比較して高いもしくは低いCT値を示す。このため、画像診断においては周囲の領域と比較して高いもしくは低いCT値を示す領域の有無を読影することにより、疾病領域を判別することができる。
また、読影を行う医師の負担を軽減するために、ディープラーニング等により機械学習がなされたニューラルネットワーク等からなる判別器を用いたCAD(Computer-Aided Diagnosis)により医用画像を解析して、脳内における出血領域および梗塞領域等の疾病領域を検出することも行われている。
ここで、上述したCADに用いられる判別器の学習に際しては、疾病領域を含む学習用画像とその学習用画像内における疾病領域がラベリングされることにより疾病領域が特定された教師ラベルとを含む教師データが予め用意される。学習用画像の疾病領域に対するラベルの付与は、医師により手作業で行われる。判別器の学習に際しては、学習用画像を判別器に入力し、学習用画像における疾病領域を検出し、検出結果と教師ラベルとの相違を損失として導出し、導出した損失を用いて判別器の学習が行われる。
一方、判別器を学習するに際して、医師の希望に沿った形の検出精度を調整するための各種手法が提案されている。例えば、特開2018-061771号公報には、判別器の学習により得られる学習パラメータを用いて疾病領域の特徴量を抽出し、疾病領域に関する、ユーザ入力によって新たに追加された特徴ラベルに応じて、特徴ラベルの種類を追加し、学習パラメータを更新する手法が提案されている。また、特開2018-061771号公報においては、特徴ラベルを追加して機械学習を行うことも提案されている。
ところで、医用画像が非造影CT画像である場合、軽度のくも膜下出血、または超急性期の脳梗塞では、疾患が発生している部分とその周辺部分とのコントラストが不明瞭な場合が多い。このような場合、疾病領域のラベリングを正確に行うことが難しい。また、疾患が発生している部分とその周辺部分とのコントラストが不明瞭な場合、ラベリングを行う医師により、疾病領域であると判断する領域が異なるものとなることが多い。例えば、ある医師がラベリングした疾病領域を他の医師が見たときに、ラベリングされた領域よりも広い領域を疾病領域と判断する場合がある。このような場合、狭くラベリングされた疾病領域を教師ラベルとして用いて判別器の学習を行うと、検出されてもよい領域が検出されるべきでない領域として学習されてしまうため、疾病領域を見逃してしまう可能性がある。
上記特開2018-061771号公報に記載された手法においては、疾病領域のサイズを特徴ラベルとして追加することが可能である。しかしながら、特開2018-061771号公報に記載された手法は、医師の入力により特徴ラベルが追加される。このため、医師に応じて疾病領域と判断する領域が異なることに起因する、疾病領域を見逃してしまうという問題は解決されない。
本開示は上記事情に鑑みなされたものであり、疾病領域の見逃しを防止することを目的とする。
本開示による学習装置は、疾病領域を含む学習用画像および学習用画像に含まれる疾病領域を特定する第1教師ラベルを取得する情報取得部と、
疾病領域を特定する基準が第1教師ラベルとは異なる少なくとも1つの第2教師ラベルを生成する教師ラベル生成部と、
学習用画像、第1教師ラベルおよび少なくとも1つの第2教師ラベルに基づいて、対象画像に含まれる疾病領域を検出する判別器を学習する学習部とを備える。
なお、本開示による学習装置においては、教師ラベル生成部は、第1教師ラベルを用いて少なくとも1つの第2教師ラベルを生成するものであってもよい。
また、本開示による学習装置においては、教師ラベル生成部は、学習用画像における第1教師ラベル内の領域の信号値の分布、および第1教師ラベルの位置に基づいて、少なくとも1つの第2教師ラベルを生成するものであってもよい。
また、本開示による学習装置においては、教師ラベル生成部は、学習用画像における第1教師ラベル内の領域の信号値の代表値を導出し、第1教師ラベルに対応する領域および学習用画像における第1教師ラベル内の領域に隣接する領域の信号値が、代表値に対して予め定められた範囲内にある領域を、第2教師ラベルとして生成するものであってもよい。
「代表値」としては、例えば平均値、重み付け平均値、中央値、最大値および最小値等を用いることができる。
また、本開示による学習装置においては、学習部は、判別器に学習用画像を入力することにより学習用疾病領域を検出し、学習用疾病領域と第1教師ラベルとの第1の損失、および学習用疾病領域と第2教師ラベルとの第2の損失を導出し、第1の損失および第2の損失からトータル損失を導出し、トータル損失を判別器の学習に使用することにより、判別器を学習するものであってもよい。
また、本開示による学習装置においては、学習用画像は脳を含み、疾病領域は脳疾患の領域であってもよい。
本開示による医用画像処理装置は、本開示による学習装置により学習された判別器が適用されてなり、対象医用画像の入力により、対象医用画像に含まれる疾病領域を検出する疾病領域検出部を備える。
なお、本開示による医用画像処理装置においては、対象医用画像から検出された疾病領域にラベリングを行うラベリング部と、
ラベリングされた対象医用画像を表示部に表示する表示制御部とをさらに備えるものであってもよい。
本開示による判別器は、本開示による学習装置により学習され、対象医用画像の入力により、対象医用画像に含まれる疾病領域を検出する。
本開示による学習方法は、疾病領域を含む学習用画像および学習用画像に含まれる疾病領域を特定する第1教師ラベルを取得し、
疾病領域を特定する基準が第1教師ラベルとは異なる少なくとも1つの第2教師ラベルを生成し、
学習用画像、第1教師ラベルおよび少なくとも1つの第2教師ラベルに基づいて、対象画像に含まれる疾病領域を検出する判別器を学習する。
本開示による医用画像処理方法は、本開示による学習方法により学習された判別器を用いて、対象医用画像の入力により、対象医用画像に含まれる疾病領域を検出する。
なお、本開示による学習方法および医用画像処理方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本開示による他の学習装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
疾病領域を含む学習用画像および学習用画像に含まれる疾病領域を特定する第1教師ラベルを取得し、
疾病領域を特定する基準が第1教師ラベルとは異なる少なくとも1つの第2教師ラベルを生成し、
学習用画像、第1教師ラベルおよび少なくとも1つの第2教師ラベルに基づいて、対象画像に含まれる疾病領域を検出する判別器を学習する処理を実行する。
本開示による他の医用画像処理装置は、コンピュータに実行させるための命令を記憶するメモリと、
記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、
本開示による学習方法により学習された判別器を用いて、対象医用画像の入力により、対象医用画像に含まれる疾病領域を検出する処理を実行する。
本開示によれば、対象画像に含まれる疾病領域の見逃しを防止できる。
本開示の実施形態による医用画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図 本開示の実施形態による医用画像処理装置の概略構成を示す図 脳画像と教師ラベルを示す図 脳画像と教師ラベルを示す図 学習用画像、第1教師ラベルおよび第2教師ラベルを示す図 疾病領域におけるCT値の分布を示す図 本実施形態において行われる学習の概念図 対象画像からの疾病領域の検出を説明するための図 本実施形態において行われる学習処理を示すフローチャート 本実施形態において行われる医用画像処理を示すフローチャート 対象画像からの疾病領域の検出を説明するための図
以下、図面を参照して本開示の実施形態について説明する。図1は、本開示の実施形態による学習装置および医用画像処理装置を適用した、診断支援システムの概要を示すハードウェア構成図である。図1に示すように、診断支援システムでは、本実施形態による学習装置および医用画像処理装置(以下、医用画像処理装置とする)1、3次元画像撮影装置2、および画像保管サーバ3が、ネットワーク4を経由して通信可能な状態で接続されている。
3次元画像撮影装置2は、被検体の診断対象となる部位を撮影することにより、その部位を表す3次元画像を生成する装置であり、具体的には、CT装置、MRI装置、およびPET(Positron Emission Tomography)装置等である。3次元画像撮影装置2により生成された3次元画像は画像保管サーバ3に送信され、保存される。なお、本実施形態においては、被検体である患者の診断対象部位は脳であり、3次元画像撮影装置2はCT装置であり、被検体の脳を含む頭部のCT画像を対象画像として生成する。また、後述するように学習に使用する学習用画像は脳のCT画像であり、学習用画像における疾病領域がラベリングされて教師ラベルが生成されているものとする。
画像保管サーバ3は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。画像保管サーバ3は、有線あるいは無線のネットワーク4を介して他の装置と通信を行い、画像データ等を送受信する。具体的には3次元画像撮影装置2で生成された対象画像の画像データを含む各種データをネットワーク経由で取得し、大容量外部記憶装置等の記録媒体に保存して管理する。なお、画像データの格納形式およびネットワーク4経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。
医用画像処理装置1は、1台のコンピュータに、本実施形態の学習プログラムおよび医用画像処理プログラムをインストールしたものである。コンピュータは、診断を行う医師が直接操作するワークステーションまたはパーソナルコンピュータでもよいし、それらとネットワークを介して接続されたサーバコンピュータでもよい。学習プログラムおよび医用画像処理プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置、もしくはネットワークストレージに、外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。または、DVD(Digital Versatile Disc)あるいはCD-ROM(Compact Disc Read Only Memory)等の記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。
図2は、コンピュータに学習プログラムおよび医用画像処理プログラムをインストールすることにより実現される医用画像処理装置の概略構成を示す図である。図2に示すように、医用画像処理装置1は、標準的なワークステーションの構成として、CPU(Central Processing Unit)11、メモリ12およびストレージ13を備えている。また、医用画像処理装置1には、液晶ディスプレイ等の表示部14、並びにキーボードおよびマウス等の入力部15が接続されている。
ストレージ13はハードディスクドライブ等からなり、ネットワーク4を経由して画像保管サーバ3から取得した処理対象となる対象画像、後述するようにニューラルネットワークの学習を行うための学習用画像、学習用画像に対する教師ラベル、および処理に必要な情報を含む各種情報が記憶されている。
また、メモリ12には、学習プログラムおよび医用画像処理プログラムが記憶されている。学習プログラムは、CPU11に実行させる処理として、疾病領域を含む学習用画像および学習用画像に含まれる疾病領域を特定する第1教師ラベルを取得する情報取得処理、疾病領域を特定する基準が第1教師ラベルとは異なる少なくとも1つの第2教師ラベルを生成する教師ラベル生成処理、並びに学習用画像、第1教師ラベルおよび少なくとも1つの第2教師ラベルに基づいて、対象画像に含まれる疾病領域を検出する判別器を学習する学習処理を規定する。
医用画像処理プログラムは、CPU11に実行させる処理として、情報取得処理により取得した疾病領域の検出の対象となる対象画像に含まれる疾病領域を検出する疾病領域検出処理、検出された疾病領域にラベリングを行うラベリング処理、およびラベリングされた対象画像を表示部14に表示する表示制御処理を規定する。
そして、CPU11が学習プログラムおよび医用画像処理プログラムに従いこれらの処理を実行することで、コンピュータは、情報取得部21、教師ラベル生成部22、学習部23、疾病領域検出部24、ラベリング部25および表示制御部26として機能する。
情報取得部21は、ネットワークに接続されたインターフェース(不図示)を介して、画像保管サーバ3から、学習用画像および学習用画像に含まれる疾病領域を特定する第1教師ラベルを取得する。また、処理の対象となる対象画像も取得する。なお、学習用画像、第1教師ラベルおよび対象画像が既にストレージ13に記憶されている場合には、情報取得部21は、ストレージ13から学習用画像、第1教師ラベルおよび対象画像を取得するようにしてもよい。
ここで、脳のCT画像において、脳出血等の疾病領域は、周囲の領域と比較して高いもしくは低いCT値を示す。例えば、図3に示すような脳画像30の場合、疾病領域31が他の領域と比較して高いCT値を示している。このような場合、疾病領域31とその周囲の領域とのコントラストが明瞭であるため、誰が作成しても教師ラベル32は脳画像30における疾病領域31とほぼ一致するものとなる。
一方、図4に示す脳画像40のように、軽度のくも膜下出血、または超急性期の脳梗塞のような疾患では、疾病領域41とその周辺領域とのコントラストが不明瞭な場合が多い。なお、図4においてはコントラストが不明瞭であることを破線で示している。このような場合、どこまでを疾病領域と見なしてラベリングを行うかが、ラベリングを行う医師に応じて異なる。例えば、ある医師は小さめのサイズの教師ラベル42を付与するが、他の医師は大きめのサイズの教師ラベル43を付与する事態が生じうる。
教師ラベル生成部22は、疾病領域を特定する基準が第1教師ラベルとは異なる少なくとも1つの第2教師ラベルを生成する。このため、教師ラベル生成部22は、図5に示すように取得した学習用画像50において、第1教師ラベル51が付与された領域55内のCT値の代表値を導出し、第1教師ラベル51に対応する領域および学習用画像50における第1教師ラベル51内の領域に隣接する領域のCT値が、代表値に対して予め定められた範囲内にある領域を、第2教師ラベルとして生成する。
なお、本実施形態においては、教師ラベル生成部22は、領域55内のCT値の平均値μを代表値として導出するものとするが、これに限定されるものではない。中央値、重み付け平均値、最大値または最小値等を代表値として用いてもよい。また、本実施形態においては、教師ラベル生成部22は、領域55内のCT値の標準偏差σおよび学習用画像50における第1教師ラベル51により特定される領域の重心位置56を導出する。
教師ラベル生成部22は、学習用画像50における重心位置56から予め定められた距離内にある画素のうち、μ±σの範囲のCT値を有する画素からなる領域をラベリングすることにより、図5に示すように第2教師ラベル52を生成する。ここで、図6は疾病領域におけるCT値の分布を示す図である。図6に示すように、疾病領域のCT値はその周囲のCT値と比較すると大きい値となり、疾病領域の周辺ほどCT値は小さくなり、疾病領域の周囲の領域のCT値と徐々に一致するように分布する。このため、図6に示す矢印Aに示す範囲に第1教師ラベルが付与されていたとすると、μ-σのCT値を有する画素からなる領域をラベリングすることにより、矢印Bに示すように、第1教師ラベル51よりも大きいサイズの第2教師ラベル52を生成することができる。一方、μ+σのCT値を有する画素からなる領域をラベリングすることにより、矢印Cに示すように、第1教師ラベル51よりも小さいサイズの第2教師ラベル52を生成することができる。
なお、学習用画像50における疾病領域の境界が不明瞭な場合、図5に示すように、第1教師ラベル51とは異なる第2教師ラベル52が生成される。一方、図3に示すように、疾病領域の境界が明瞭な場合、疾病領域内のCT値は一定となるため、標準偏差σは実質的に0となる。このような場合、教師ラベル生成部22が生成する第2教師ラベル52は、実質的に第1教師ラベル51と同一となる。
また、本実施形態においては、第1教師ラベル51から1つの第2教師ラベル52を生成するものとするが、複数の第2の教ラベルを生成してもよい。この場合、例えば、μ±0.5σ、μ±σ、μ±1.5σ等のそれぞれのCT値を有する画素からなる領域をラベリングして複数の第2教師ラベル52を生成すればよい。
学習部23は、学習用画像50、第1教師ラベル51および第2教師ラベル52に基づいて、対象画像に含まれる疾病領域を検出する判別器28を学習する。判別器28は、対象画像に含まれる脳の疾病領域を判別する。本実施形態においては、判別器28は、複数の処理層が階層的に接続され、深層学習(ディープラーニング)がなされた多層ニューラルネットワークの1つである、畳み込みニューラルネットワーク(以下CNN(Convolutional Neural Network)とする)であるものとする。
畳み込みニューラルネットワークは、複数の畳み込み層およびプーリング層からなる。畳み込み層は、入力される画像に対して各種カーネルを用いた畳み込み処理を行い、畳み込み処理により得られた特徴量データからなる特徴量マップを出力する。カーネルは、n×n画素サイズ(例えばn=3)を有し、各要素に重みが設定されている。具体的には入力された画像のエッジを強調する微分フィルタのような重みが設定されている。畳み込み層は、カーネルの注目画素をずらしながら、入力された画像または前段の処理層から出力された特徴量マップの全体にカーネルを適用する。さらに、畳み込み層は、畳み込みされた値に対して、シグモイド関数等の活性化関数を適用し、特徴量マップを出力する。
プーリング層は、畳み込み層が出力した特徴量マップをプーリングすることにより、特徴量マップのデータ量を低減して、データ量が低減された特徴量マップを出力する。
図7は本実施形態において行われる学習の概念図である。図7に示すように、学習部23は、学習用画像50を判別器28となるCNN60に入力し、CNN60から学習用画像50における疾病領域の判別結果57を出力させる。判別結果57は、学習用画像50の各画素が疾病領域であることの確率を表すものとなる。学習部23は、確率が予め定められたしきい値以上となる画素からなる領域を、学習用疾病領域58に特定する。そして、学習部23は、第1教師ラベル51と学習用疾病領域58の判別結果57との相違に基づいて、第1損失L1を導出する。第1損失L1は、第1教師ラベル51において疾病領域であるのに、疾病領域でないと判別された画素についての、確率と上記しきい値との差、および第1教師ラベル51において疾病領域でないのに疾病領域であると判別された画素についての、上記しきい値と確率との差である。
また、学習部23は、第2教師ラベル52と判別結果57との相違に基づいて、第2損失L2を導出する。第2損失L2は、第2教師ラベル52において疾病領域であるのに、疾病領域でないと判別された画素についての、確率と上記しきい値との差、および第2教師ラベル52において疾病領域でないのに疾病領域であると判別された画素についての、上記しきい値と確率との差である。
さらに、学習部23は、第1損失L1および第2損失L2を下記の式(1)に示すように重み付け加算して、学習用画像50の各画素についてのトータル損失L0を導出する。なお、式(1)のαは重み係数であり、例えば0.5の値をとるが、これに限定されるものではない。
L0=L1+α・L2 (1)
そして、学習部23はトータル損失L0が予め定められたしきい値以下となるように、多数の学習用画像50、第1教師ラベル51および第2教師ラベル52を用いて、CNN60すなわち判別器28を学習する。具体的には、トータル損失L0が予め定められたしきい値以下となるように、CNN60を構成する畳み込み層の数、プーリング層の数、畳み込み層におけるカーネルの係数およびカーネルの大きさ等を導出することにより、CNN60すなわち判別器28の学習を行う。これにより、学習された判別器28に対象画像が入力されると、判別器28は、対象画像の各画素が脳の疾病領域であることの確率を出力するものとなる。なお、学習部23は、トータル損失L0が予め定められたしきい値以下となるように学習を行うことに代えて、予め定められた回数の学習を行うものであってもよい。
上記のように学習部23がCNN60すなわち判別器28の学習を行うことにより、対象画像が入力されると、対象画像に含まれる疾病領域であることの確率を判別結果として出力する学習済みモデルが構築される。学習済みモデルが判別器28として疾病領域検出部に適用される。
疾病領域検出部24は、対象画像が入力されると、判別器28を用いて、対象画像に含まれる疾病領域を検出する。すなわち、疾病領域検出部24は、対象画像を判別器28に入力し、判別器28から対象画像の各画素が脳の疾病領域であることの確率を出力させる。そして、疾病領域検出部24は、確率が予め定められたしきい値を超えた画素を、対象画像に含まれる疾病領域の画素として検出する。
ラベリング部25は、疾病領域検出部24による検出結果に基づいて、対象画像に含まれる疾病領域のラベリングを行う。例えば、図8に示すように疾病領域71(破線で示す)が含まれる対象画像70が疾病領域検出部24に入力された場合、疾病領域検出部24は、対象画像70に含まれる疾病領域71を検出する。ラベリング部25は、対象画像70に含まれる疾病領域71にラベルを付与することにより、ラベリングを行う。例えば、図8に示すように、疾病領域の色を変化させることにより疾病領域71にラベル72を付与して、ラベリングを行う。なお、図8においては色を変化させることをハッチングを付与することにより示している。また、疾病領域を囲む枠を付与することにより、ラベリングを行うようにしてもよい。
表示制御部26は、ラベリングされた対象画像を表示部14に表示する。
次いで、本実施形態において行われる処理について説明する。図9は本実施形態において行われる学習処理を示すフローチャートである。なお、複数の学習用画像および第1教師ラベルが画像保管サーバ3から情報取得部21により取得されて、ストレージ13に保存されているものとする。まず、情報取得部21がストレージ13に保存された複数の学習用画像および第1教師ラベルから1組の学習用画像50および第1教師ラベル51を取得する(ステップST1)。次いで、教師ラベル生成部22が、疾病領域を特定する基準が第1教師ラベル51とは異なる少なくとも1つの第2教師ラベル52を生成する(ステップST2)。
そして、学習部23が、CNN60に対して、学習用画像50、第1教師ラベル51および第2教師ラベル52を入力してトータル損失L0を導出し、トータル損失L0が予め定められたしきい値以下となるように、CNN60すなわち判別器28を学習する(ステップST3)。
そして、ステップST1にリターンし、次の学習用画像50および第1教師ラベル51をストレージ13から取得して、ステップST2およびステップST3の処理を繰り返す。これにより、学習済みの判別器28が構築される。
次いで、本実施形態において行われる疾病領域を検出する医用画像処理について説明する。図10は本実施形態において行われる医用画像処理のフローチャートである。情報取得部21が対象画像を取得し(ステップST11)、疾病領域検出部24が対象画像に含まれる疾病領域を検出する(ステップST12)。次いで、ラベリング部25が、対象画像70から検出された疾病領域のラベリングを行う(ステップST13)。そして、表示制御部26がラベリングされた対象画像を表示部14に表示し(ステップST14)、処理を終了する。
このように、本実施形態においては、疾病領域を含む学習用画像50および学習用画像50に含まれる疾病領域を特定する第1教師ラベル51を取得し、疾病領域を特定する基準が第1教師ラベル51とは異なる少なくとも1つの第2教師ラベル52を生成する。そして、学習用画像50、第1教師ラベル51および少なくとも1つの第2教師ラベル52に基づいて、対象画像70に含まれる疾病領域を検出するための判別器28を学習するようにした。このため、判別器28は、第1教師ラベル51の基準のみならず、第2教師ラベル52の基準にも基づいて、対象画像から疾病領域を検出するものとなる。これにより、本実施形態においては、異なる基準の複数の教師ラベルを用いて判別器28が学習されることから、医師によって判断がぶれる可能性が高い、周囲とのコントラストが不明瞭な疾病領域を、学習された判別器28によりある程度の許容範囲を持って検出することができる。このため、とくに第1教師ラベル51よりも大きい範囲の疾病をラベリングするように第2教師ラベル52を生成することにより、第1教師ラベル51のみを使用して学習を行う場合よりも、広い範囲の疾病領域を検出できるように判別器28を構築することができる。したがって、本実施形態によれば、対象画像に含まれる疾病領域の見逃しを防止できる。
なお、上記実施形態において、疾病領域検出部24の判別器28が出力する疾病領域であることを表す確率は、疾病領域の周辺ほど小さいものとなる。このため、図11に示すように、判別器28が出力した確率に応じて段階的に透明度が異なるラベルを付与するようにしてもよい。なお、図11においては、透明度が異なることを異なるハッチングにより示している。また、段階的に色を変更するのみならず、徐々に透明度を変更するようにしてもよい。また、透明度に代えて、色を変更してもよい。
学習部26は、学習用医用画像GL0の特徴ベクトルCL0、および学習医用画像GL0に関する学習用医療文書TL0を学習データとして複数使用して、CNNの学習を行う。具体的には、学習部26は、図7に示す特徴ベクトルCL0および図8に示す学習用医療文書TL0が入力されると、学習用医療文書TL0の表現ベクトルzL0を表現ベクトル生成部25に生成させる。そして、学習用医用画像GL0の特徴ベクトルCL0および学習用の表現ベクトルzL0が入力されると、図8に示す学習医療文書TL0を出力するようにCNNの学習を行って学習済みモデルM3を生成する。
また、上記実施形態においては、第1教師ラベル51よりも大きいサイズの第2教師ラベル52を生成しているが、第1教師ラベル51よりも小さいサイズの第2教師ラベル52を生成するようにしてもよい。
また、上記実施形態においては、教師ラベル生成部22が、第1教師ラベル51から第2教師ラベル52を生成しているが、これに限定されるものではない。例えば学習用画像50から第2教師ラベル52を生成してもよい。
また、上記実施形態においては、対象画像を脳を含む3次元画像として、脳の疾病領域を検出しているが、これに限定されるものではない。脳以外の肺、肝臓、心臓および腎臓等の他の構造物に含まれる疾病領域を検出する場合にも、本開示の技術を適用することができる。例えば、肝臓を含む医用画像を学習用画像、肝臓の腫瘤をラベリングした第1教師ラベルを用いることにより、肝臓に含まれる腫瘤を見逃すことなく検出できる判別器28を構築できる。また、肺を含む医用画像を学習用画像、肺結節をラベリングした第1教師ラベルを用いることにより、肺に含まれる肺結節を見逃すことなく検出できる判別器28を構築できる。
また、上記実施形態においては、対象画像として3次元の医用画像を用いているが、これに限定されるものではない。3次元の医用画像を構成する個々の断層画像を対象画像として用いてもよい。また、単純X線撮影により取得された2次元のX線画像を対象画像として用いてもよい。この場合、対象画像の種類に応じた学習用画像および第1教師ラベルが用意されてCNN60すなわち判別器28の学習が行われることとなる。
また、上記実施形態においては、判別器28としてCNN60を用いているが、これに限定されるものではない。複数の処理層から構成されるニューラルネットワークであれば、ディープニューラルネットワーク(DNN(Deep Neural Network))およびリカレントニューラルネットワーク(RNN(Recurrent Neural Network))等を用いることができる。
また、上記実施形態において、例えば、情報取得部21、教師ラベル生成部22、学習部23、疾病領域検出部24、ラベリング部25および表示制御部26といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。上記各種のプロセッサには、上述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせまたはCPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアとの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(Circuitry)を用いることができる。
医用画像処理装置
2 3次元画像撮影装置
3 画像保管サーバ
4 ネットワーク
11 CPU
12 メモリ
13 ストレージ
14 表示部
15 入力部
21 情報取得部
22 教師ラベル生成部
23 学習部
24 疾病領域検出部
25 ラベリング部
26 表示制御部
28 判別器
30,40 脳画像
31,41 疾病領域
32,42,43 教師ラベル
50 学習用画像
51 第1教師ラベル
52 第2教師ラベル
55
56 重心位置
57 判別結果
60 CNN
70 対象画像
71 疾病領域
72,73 ラベル

Claims (13)

  1. 疾病領域を含む学習用画像および該学習用画像に含まれる前記疾病領域を特定する第1教師ラベルを取得する情報取得部と、
    前記疾病領域を特定する基準が前記第1教師ラベルとは異なる少なくとも1つの第2教師ラベルを生成する教師ラベル生成部と、
    前記学習用画像、前記第1教師ラベルおよび前記少なくとも1つの第2教師ラベルに基づいて、対象画像に含まれる疾病領域を検出する判別器を学習する学習部とを備えた学習装置。
  2. 前記教師ラベル生成部は、前記第1教師ラベルを用いて前記少なくとも1つの第2教師ラベルを生成する請求項1に記載の学習装置。
  3. 前記教師ラベル生成部は、前記学習用画像における前記第1教師ラベル内の領域の信号値の分布、および前記第1教師ラベルの位置に基づいて、前記少なくとも1つの第2教師ラベルを生成する請求項2に記載の学習装置。
  4. 前記教師ラベル生成部は、前記学習用画像における前記第1教師ラベル内の領域の信号値の代表値を導出し、前記第1教師ラベルに対応する領域および前記学習用画像における前記第1教師ラベル内の領域に隣接する領域の信号値が、前記代表値に対して予め定められた範囲内にある領域を、前記第2教師ラベルとして生成する請求項3に記載の学習装置。
  5. 前記学習部は、前記判別器に前記学習用画像を入力することにより学習用疾病領域を検出し、該学習用疾病領域と前記第1教師ラベルとの第1の損失、および前記学習用疾病領域と前記第2教師ラベルとの第2の損失を導出し、前記第1の損失および前記第2の損失からトータル損失を導出し、該トータル損失を前記判別器の学習に使用することにより、前記判別器を学習する請求項1から4のいずれか1項に記載の学習装置。
  6. 前記学習用画像は脳を含み、前記疾病領域は脳疾患の領域である請求項1から5のいずれか1項に記載の学習装置。
  7. 請求項1から6のいずれか1項に記載の学習装置により学習された判別器が適用されてなり、対象医用画像の入力により、該対象医用画像に含まれる疾病領域を検出する疾病領域検出部を備えた医用画像処理装置。
  8. 前記対象医用画像から検出された前記疾病領域にラベリングを行うラベリング部と、
    前記ラベリングされた対象医用画像を表示部に表示する表示制御部とをさらに備えた請求項7に記載の医用画像処理装置。
  9. 請求項1から6のいずれか1項に記載の学習装置により学習され、対象医用画像の入力により、該対象医用画像に含まれる疾病領域を検出する判別器。
  10. 疾病領域を含む学習用画像および該学習用画像に含まれる前記疾病領域を特定する第1教師ラベルを取得し、
    前記疾病領域を特定する基準が前記第1教師ラベルとは異なる少なくとも1つの第2教師ラベルを生成し、
    前記学習用画像、前記第1教師ラベルおよび前記少なくとも1つの第2教師ラベルに基づいて、対象画像に含まれる疾病領域を検出する判別器を学習する学習方法。
  11. 請求項10に記載の学習方法により学習された判別器を用いて、対象医用画像の入力により、該対象医用画像に含まれる疾病領域を検出する医用画像処理方法。
  12. 疾病領域を含む学習用画像および該学習用画像に含まれる前記疾病領域を特定する第1教師ラベルを取得する手順と、
    前記疾病領域を特定する基準が前記第1教師ラベルとは異なる少なくとも1つの第2教師ラベルを生成する手順と、
    前記学習用画像、前記第1教師ラベルおよび前記少なくとも1つの第2教師ラベルに基づいて、対象画像に含まれる疾病領域を検出する判別器を学習する手順とをコンピュータに実行させる学習プログラム。
  13. 請求項10に記載の学習方法により学習された判別器を用いて、対象医用画像の入力により、該対象医用画像に含まれる疾病領域を検出する手順をコンピュータに実行させる医用画像処理プログラム。
JP2021528288A 2019-06-28 2020-06-26 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器 Active JP7170868B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019121015 2019-06-28
JP2019121015 2019-06-28
PCT/JP2020/025399 WO2020262681A1 (ja) 2019-06-28 2020-06-26 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器

Publications (3)

Publication Number Publication Date
JPWO2020262681A1 JPWO2020262681A1 (ja) 2020-12-30
JPWO2020262681A5 JPWO2020262681A5 (ja) 2022-03-11
JP7170868B2 true JP7170868B2 (ja) 2022-11-14

Family

ID=74060193

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021528288A Active JP7170868B2 (ja) 2019-06-28 2020-06-26 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器

Country Status (3)

Country Link
US (1) US20220108451A1 (ja)
JP (1) JP7170868B2 (ja)
WO (1) WO2020262681A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019509813A (ja) 2016-03-16 2019-04-11 ハートフロー, インコーポレイテッド 冠動脈において健全な管腔径を推定し狭窄を定量化するためのシステム及び方法
US20190192096A1 (en) 2017-12-21 2019-06-27 Beijing Curacloud Technology Co., Ltd. Method and device for generating anatomical labels for a physiological tree structure

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
US11521742B2 (en) * 2018-07-18 2022-12-06 SCA Robotics Methods of implementing an artificial intelligence based neuroradiology platform for neurological tumor identification and for T-Cell therapy initiation and tracking and related precision medical treatment predictive modeling
EP3933383A4 (en) * 2019-02-28 2022-04-13 Sony Group Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING SYSTEM
WO2020194662A1 (ja) * 2019-03-28 2020-10-01 オリンパス株式会社 情報処理システム、内視鏡システム、学習済みモデル、情報記憶媒体、情報処理方法及び学習済みモデルの製造方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019509813A (ja) 2016-03-16 2019-04-11 ハートフロー, インコーポレイテッド 冠動脈において健全な管腔径を推定し狭窄を定量化するためのシステム及び方法
US20190192096A1 (en) 2017-12-21 2019-06-27 Beijing Curacloud Technology Co., Ltd. Method and device for generating anatomical labels for a physiological tree structure

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HAN, Jiangfan et al.,"Deep Self-Learning From Noisy Labels",arXiv,2019年08月06日,arXiv:1908.02160v1
NATARAJAN, Nagarajan et al.,"Leaning with Noisy Labels",NIPS'13: Proceedings of the 26th International Conference on Neural Information Processing Systems,2013年,Volume 1,pp.1196-1204
島原 佑基,"[企業総説]深層学習を活用した脳動脈瘤検知ソフトウェアの開発",医用画像情報学会雑誌,2017年,Vol.34, No.2,pp.103-104

Also Published As

Publication number Publication date
JPWO2020262681A1 (ja) 2020-12-30
WO2020262681A1 (ja) 2020-12-30
US20220108451A1 (en) 2022-04-07

Similar Documents

Publication Publication Date Title
JP7225295B2 (ja) 医用画像表示装置、方法およびプログラム
US11069056B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
US11893729B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
JP7129870B2 (ja) 疾患領域を判別する判別器の学習装置、方法及びプログラム、疾患領域を判別する判別器、並びに疾患領域判別装置及びプログラム
JP7203978B2 (ja) 学習装置、方法およびプログラム、関心領域抽出装置、方法およびプログラム、並びに学習済み抽出モデル
JP7339270B2 (ja) 医用画像処理装置、方法およびプログラム
JP2019518288A (ja) 医療画像における変化検出
Kurachka et al. Vertebrae detection in X-ray images based on deep convolutional neural networks
JP7007469B2 (ja) 医療文書作成支援装置、方法およびプログラム、学習済みモデル、並びに学習装置、方法およびプログラム
JP2023114463A (ja) 表示装置、方法およびプログラム
JP7170868B2 (ja) 学習装置、方法およびプログラム、医用画像処理装置、方法およびプログラム、並びに判別器
Öztürk Convolutional neural networks for medical image processing applications
EP3965117A1 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
JP7321271B2 (ja) 学習用画像生成装置、方法及びプログラム、並びに学習方法、装置及びプログラム
JP2023545570A (ja) 形状プライアを用いた及び用いないセグメンテーション結果によって解剖学的異常を検出すること
WO2020110520A1 (ja) 類似度決定装置、方法およびプログラム
WO2020044736A1 (ja) 類似度決定装置、方法およびプログラム
JP7342120B2 (ja) 学習装置、方法およびプログラム、クラス分類装置、方法およびプログラム、並びに学習済みモデル
WO2021060461A1 (ja) 画像処理装置、方法およびプログラム
WO2022137855A1 (ja) 情報処理装置、方法およびプログラム
JP7299314B2 (ja) 医療文書作成装置、方法およびプログラム、学習装置、方法およびプログラム、並びに学習済みモデル
Akpan et al. XAI for medical image segmentation in medical decision support systems
WO2022054541A1 (ja) 画像処理装置、方法およびプログラム
US20230088616A1 (en) Progression prediction apparatus, progression prediction method, and progression prediction program
US20240037927A1 (en) Learning device, learning method, and learning program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221101

R150 Certificate of patent or registration of utility model

Ref document number: 7170868

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150