JP7408324B2 - Diagnosis support device, diagnosis support system, diagnosis support method and program - Google Patents
Diagnosis support device, diagnosis support system, diagnosis support method and program Download PDFInfo
- Publication number
- JP7408324B2 JP7408324B2 JP2019167109A JP2019167109A JP7408324B2 JP 7408324 B2 JP7408324 B2 JP 7408324B2 JP 2019167109 A JP2019167109 A JP 2019167109A JP 2019167109 A JP2019167109 A JP 2019167109A JP 7408324 B2 JP7408324 B2 JP 7408324B2
- Authority
- JP
- Japan
- Prior art keywords
- finding
- information
- data format
- inference
- medical image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003745 diagnosis Methods 0.000 title claims description 71
- 238000000034 method Methods 0.000 title claims description 18
- 238000012360 testing method Methods 0.000 claims description 42
- 238000013145 classification model Methods 0.000 claims description 21
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 22
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 13
- 230000002159 abnormal effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 11
- 210000004072 lung Anatomy 0.000 description 8
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 2
- 206010027476 Metastases Diseases 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 201000005202 lung cancer Diseases 0.000 description 2
- 208000020816 lung neoplasm Diseases 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000009401 metastasis Effects 0.000 description 2
- 206010037660 Pyrexia Diseases 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000009534 blood test Methods 0.000 description 1
- 210000000621 bronchi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 239000000439 tumor marker Substances 0.000 description 1
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本発明は、診断支援装置、診断支援システム、診断支援方法およびプログラムに関する。 The present invention relates to a diagnosis support device, a diagnosis support system, a diagnosis support method, and a program.
機械学習により構築される分類モデルは多様化しており、学習データとして入力されるデータも様々である。データの種類によって、学習データとして入力されるデータが取り得る値は連続値、離散値となることがある。そこで、特許文献1に示すように、学習データとして連続値と離散値の両方を含むデータを用いてモデルの学習を行う技術も提案されている。
Classification models constructed by machine learning are diversifying, and the data input as learning data is also diverse. Depending on the type of data, the possible values of the data input as learning data may be continuous values or discrete values. Therefore, as shown in
分類モデルを用いてデータを分類する手法の1つに、学習済みである複数の分類モデルを直列に組み合わせることで最終的な分類結果を得る手法がある。この手法では、前段のモデルから出力される変数ごとの尤度を、連続値としてそのまま後段のモデルに入力するか、ワンホット(one-hot)表現等に加工して離散値として後段のモデルに入力するかで、最終的な分類精度が変わる。 One method of classifying data using a classification model is to obtain a final classification result by serially combining a plurality of trained classification models. In this method, the likelihood of each variable output from the previous model is either input as a continuous value into the subsequent model, or it is processed into a one-hot expression etc. and then input as a discrete value into the subsequent model. The final classification accuracy changes depending on the input.
特許文献1に提案される技術を用いることで、データの種類ごとに尤度をそのまま(尤度形式)あるいはワンホット表現等に加工して(バイナリ形式)後段の分類モデルに入力することができる。しかしながら、分類精度は、前段の分類モデルと後段の分類モデルの関係や学習データの種類、分類対象のデータ等の種々の条件によって複雑に変化する。よって、これらの条件が変われば分類精度が低下する可能性がある。この結果、上記の分類モデルを用いて医用画像に対する推論を行っても、医師等の診断に資する精度よい推論結果を得ることはできない可能性がある。
By using the technology proposed in
本件開示の技術は、上記に鑑みて、推論精度を向上させることを目的とする。 In view of the above, the technology disclosed herein aims to improve inference accuracy.
本件開示の技術に係る診断支援装置は、
医用画像を取得する取得手段と、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出する所見導出手段と、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段と、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行う推論手段と、
を有することを特徴とする。
また、本件開示の技術に係る診断支援システムは、
医用画像を取得する取得手段と、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出する所見導出手段と、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段と、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行う推論手段と、
を有することを特徴とする。
また、本件開示の技術に係るプロセッサにより実行される診断支援方法は、
医用画像を取得するステップと、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出するステップと、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定するステップと、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行うステップと
を有することを特徴とする。
また、本件開示の技術に係るプログラムは、
コンピュータに上記の診断支援方法を実行させる、ことを特徴とする。
The diagnostic support device according to the technology disclosed herein is:
an acquisition means for acquiring a medical image;
Findings deriving means for deriving finding information from the acquired medical images using a classification model created by machine learning using medical images;
a setting means for setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
an inference means for inferring the acquired medical image based on the set finding information;
It is characterized by having the following.
In addition, the diagnostic support system related to the technology disclosed in this case is
an acquisition means for acquiring a medical image;
Findings deriving means for deriving finding information from the acquired medical images using a classification model created by machine learning using medical images;
a setting means for setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
an inference means for inferring the acquired medical image based on the set finding information;
It is characterized by having the following.
Furthermore, the diagnostic support method executed by the processor according to the technology disclosed herein is
acquiring a medical image;
Deriving finding information from the acquired medical image using a classification model created by machine learning using the medical image;
setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
The method is characterized by comprising the step of making inferences regarding the acquired medical image based on the set finding information.
In addition, the program related to the technology disclosed in this matter is
The present invention is characterized by causing a computer to execute the above diagnosis support method.
本件開示の技術により、推論精度を向上させることができる。 With the technology disclosed herein, inference accuracy can be improved.
以下に、図面を参照しつつ、本件開示の技術の好適な実施の形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状およびそれらの相対配置等は、発明が適用される装置の構成や各種条件により適宜変更されるべきものである。よって、この発明の範囲を以下の記載に限定する趣旨のものではない。特に図示あるいは記述をしない構成や工程には、当該技術分野の周知技術または公知技術を適用することが可能である。また、重複する説明は省略する場合がある。 Below, preferred embodiments of the technology disclosed herein will be described with reference to the drawings. However, the dimensions, materials, shapes, and relative arrangement of the components described below should be changed as appropriate depending on the configuration of the device to which the invention is applied and various conditions. Therefore, the scope of the present invention is not intended to be limited to the following description. For configurations and steps that are not particularly illustrated or described, well-known or well-known techniques in the technical field can be applied. Further, duplicate explanations may be omitted.
(第1実施形態)
第1実施形態に係る医用画像診断支援システムについて説明する。医療の分野では、X線CT(Computer Tomography)装置やMRI(Magnetic Resonance Imaging)装置等の撮影装置により得られた医用画像に基づいて診断を行う、画像診断が行われている。ここで、医師等が医用画像を観察して診断を導きだすことを読影という。例えば、主治医からの読影の依頼に応じて、画像診断を専門とする読影医が読影を行う。読影医は医用画像から得られる所見(以下、画像所見と称する。)や各種の測定値から総合的に判断して、医用画像に含まれる被検体である患者の病変や症状を特定する。また、読影医は、画像所見や測定値に基づく診断の経緯等を含む読
影レポートを作成する。このような読影を支援するために、コンピュータが医用情報を解析して得られた結果を提示するシステムが提案されている。
(First embodiment)
A medical image diagnosis support system according to a first embodiment will be described. In the medical field, image diagnosis is performed in which diagnosis is performed based on medical images obtained by imaging devices such as X-ray CT (Computer Tomography) devices and MRI (Magnetic Resonance Imaging) devices. Here, the process by which a doctor or the like observes a medical image and derives a diagnosis is called image interpretation. For example, in response to a request for interpretation from the attending physician, an interpretation doctor who specializes in image diagnosis performs the interpretation. An image interpreter makes a comprehensive judgment based on findings obtained from medical images (hereinafter referred to as image findings) and various measured values, and identifies lesions and symptoms of a patient, who is a subject included in a medical image. In addition, the image interpretation doctor creates an image interpretation report that includes the history of diagnosis based on image findings and measured values. In order to support such image interpretation, systems have been proposed in which a computer analyzes medical information and presents the results obtained.
第1実施形態に係る診断支援装置100は、読影の対象となる医用画像や、電子カルテ等に記載された情報等を取得し、コンピュータが診断の手掛かりとなる情報を提示することにより診断支援を行う。なお、以下の説明では、診断支援装置100は、医用画像と、当該医用画像に付帯する付帯情報と、患者を特定する患者情報、撮影日や撮影部位等の撮影情報、患者の臨床情報を取得するものとする。本実施形態では、医用画像は患者の肺の異常陰影の読影に用いられる医用画像である。付帯情報は、異常陰影の位置を示す座標情報や等の医用画像に対する補足情報である。患者情報は、患者の氏名、年齢、性別等の患者を識別する情報である。撮影情報は、医用画像の撮影日、撮影装置、撮影部位等の撮影に関する情報である。臨床情報は、患者の病歴や腫瘍マーカーの血液検査値等の情報である。
The
そして、診断支援装置100が、取得した情報を基に推論に使用する入力情報を生成し、入力情報から診断の手掛かりとなる情報をユーザ(医師等)に理解可能な形式で生成する場合を例として説明する。なお、本実施形態に係る診断支援装置100による処理はこれに限定されるものではない。また、以下に説明する診断名や所見情報、臨床情報等は、いずれも診断支援装置100の処理の工程を説明するための一例に過ぎない。
Then, the
図1は、第1実施形態に係る診断支援システム1の機能構成の一例を示す図である。診断支援システム1は、診断支援装置100と症例情報端末200を有する。診断支援装置100は、症例情報端末200と通信可能に接続されている。診断支援装置100は、入力情報生成部101と、所見情報生成部102と、推論部103と、表示制御部104とを有する。また、症例情報端末200は、読影に用いられる症例に関する情報をサーバ(不図示)から取得する。症例に関する情報とは、例えば、医用画像、医用画像の撮影情報、電子カルテに記載された臨床情報や患者情報である。症例情報端末200は、例えばFDD、HDD、CDドライブ、DVDドライブ、MOドライブ、ZIPドライブ等の外部記憶装置(不図示)と接続し、外部記憶装置から症例に関する情報を取得するように構成されていてもよい。
FIG. 1 is a diagram showing an example of the functional configuration of a
図2は、診断支援装置100のハードウェア構成の一例を示す図である。CPU111は、主として診断支援装置100内の各構成要素の動作を制御する。メインメモリ112は、CPU111が実行する制御プログラムを格納したり、CPU111によるプログラム実行時の作業領域を提供したりする。磁気ディスク113は、オペレーティングシステム(OS)、周辺機器のデバイスドライバ、後述する処理等を行う各種アプリケーションソフトウェアを実現するプログラムを格納する。CPU111は、メインメモリ112、磁気ディスク113に格納されているプログラムを実行することにより、図1に示す入力情報生成部101、所見情報生成部102、推論部103、表示制御部104として機能する。表示メモリ114は、例えばモニタ300に表示させる表示用データを一時記憶する。
FIG. 2 is a diagram showing an example of the hardware configuration of the
診断支援装置100は、I/Oインターフェイス116を介して、画像やテキスト等の表示を行う表示装置であるモニタ300やユーザがポインティング入力や文字等の入力を行うために使用する入力装置400に接続されている。モニタ300は、例えばCRT(Cathod-ray Tube)モニタや液晶モニタ等である。また、入力装置400は、例えばマウス及びキーボード等である。
The
診断支援装置100内の各構成要素は、共通バス116によって互いに通信可能に接続されている。診断支援装置100は、上記の各部の処理を行う複数のCPUを有していて
もよい。例えば診断支援装置100は、以下に説明する推論部103として実行する処理を専用に行うGPUを有していてもよいし、推論部103の機能がプログラムされたFPGA(Field-Programmable Gate Array)を有していてもよい。
Each component within the
次に、診断支援装置100の各部について説明する。入力情報生成部101は、症例情報端末200から受信した情報、例えば医用画像、臨床情報、付帯情報を用いて入力情報を生成する。ここで入力情報とは、推論部103に入力され、推論部103によって実行される推論に用いられる情報を要素とする、情報の集合である。また、入力情報生成部101は、症例情報端末200から患者情報および撮影情報も受信する。入力情報生成部101が、医用画像を取得する取得手段の一例である。
Next, each part of the
所見情報生成部102は、入力情報生成部101から出力された医用画像および付帯情報に基づいて所見情報を生成し、生成した所見情報を入力情報生成部101に出力する。なお、所見情報生成部102は、医用画像上の異常陰影の位置を入力情報生成部101から出力された付帯情報に基づいて特定してもよいし、周知の画像処理を用いて特定してもよい。所見情報生成部102が、医用画像から所見情報を導出する所見導出手段の一例である。
The finding
本実施形態では、入力情報生成部101が医用画像と付帯情報を所見情報生成部102に出力し、所見情報生成部102が医用画像と付帯情報を基に所見情報を生成する。生成された所見情報は、所見情報生成部102から入力情報生成部101に出力される。そして、入力情報生成部101は、取得した所見情報と臨床情報を組み合わせて入力情報を生成し、生成した入力情報を推論部103に出力する。
In the present embodiment, the input
図11に、本実施形態の診断支援装置100における、医用画像の推論処理の流れを模式的に示す。所見情報生成部102は、所見情報ごとに分類モデル(導出器)を有し、分類モデルから得られる所見情報の尤度を入力情報生成部101に出力する。入力情報生成部101は、所見情報生成部102から出力される尤度形式の所見情報を、そのまま尤度形式として出力するかあるいはバイナリ形式として設定して出力する。バイナリ形式が第1のデータ形式の一例であり、尤度形式が第2のデータ形式の一例である。また、入力情報生成部101が、導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段の一例である。入力情報生成部101は、データ形式を設定した所見情報を推論部103に出力する。推論部103は、推論器を有し、入力情報生成部101から出力される所見情報を基に、医用画像に含まれる部位に関する診断名の推論を行い、推論結果を出力する。
FIG. 11 schematically shows the flow of medical image inference processing in the
本実施形態では、推論部103は、入力情報生成部101が生成した入力情報を基に、対象とする症例に関する診断名を推論する。第1実施形態においては、肺の異常陰影に関する診断名の推論を例に説明する。推論部103は、医用画像に含まれる肺の異常陰影が、複数の診断名の候補それぞれに該当する確率を推論結果として取得する。そして、推論部103は、取得した推論結果を表示制御部104に出力する。なお、推論部103が、推論手段の一例である。
In this embodiment, the
表示制御部104は、診断支援装置100の各部や症例情報端末200から取得した情報を表示する。具体的には、表示制御部104は、症例情報端末200から医用画像を取得し、取得した情報をユーザが読影可能な形式でモニタ300に表示する。そして、表示制御部104は、モニタ300に表示される医用画像上に異常陰影が存在するとユーザが考える領域の座標情報の入力をユーザに要求するGUIをモニタ300に表示する。この
GUIを介してユーザが入力した情報は、医用画像の付帯情報として症例情報端末200に送信される。また、症例情報端末200は、付帯情報を医用情報とともに診断支援装置100に送信する。また、表示制御部104は、推論部103が出力した推論結果をモニタ300に表示してユーザに提示する。
The
なお、図1に示す診断支援装置100の各部の少なくとも一部を独立した装置として構成してもよい。また、診断支援装置100の各部は、1つ以上のソフトウェアを用いて実現されてもよい。なお、第1実施形態では、図1に示す診断支援装置100の各部は、それぞれCPU111が実行するソフトウェアによって実現されているものとする。
Note that at least a portion of each part of the
次に、本実施形態において診断支援装置100によって実行される処理について説明する。図3は、診断支援装置100によって実行される処理の一例を示すフローチャートである。第1実施形態では、CPU111がメインメモリ112に格納されている各部の機能を実現するプログラムを実行することにより、図3に示す各処理が実現される。
Next, processing executed by the
以下の説明では、各所見情報を所見名Fn(n=1~N)を用いて所見情報Fnと表し、各臨床情報を臨床名Cj(j=1~J)を用いて臨床情報Cjと表す。また、全所見情報の集合をF=∪Fn、全臨床情報の集合をC=∪Cjで表す。各所見情報Fnは具体的な所見内容を示す所見項目(カテゴリ値)を有する。また、各臨床情報Cjは具体的な数値を示す実数値または具体的な臨床内容を示すカテゴリ値を有する。所見情報Fnと臨床情報CJがカテゴリ値を有する場合は、それぞれのカテゴリ値をfnk、cjkで表す。この場合、所見情報Fnにおけるカテゴリ値の集合をFn=∪fnk、臨床情報Cjにおけるカテゴリ値の集合をCj=∪cjkで表す。なお、kの値は所見情報や臨床情報に応じて決まる。また、臨床情報Cjが実数値を有する場合は、それぞれの実数値をcjで表
す。
In the following explanation, each finding information is expressed as finding information F n using a finding name F n (n=1 to N), and each clinical information is expressed as clinical information using a clinical name C j (j=1 to J). It is expressed as C j . Further, the set of all finding information is represented by F=∪F n and the set of all clinical information is represented by C=∪C j . Each finding information Fn has finding items (category values) indicating specific findings. Further, each clinical information Cj has a real value indicating a specific numerical value or a category value indicating specific clinical content. When the finding information F n and the clinical information C J have category values, the respective category values are represented by f nk and c jk . In this case, the set of category values in the finding information F n is expressed as F n =∪f nk , and the set of category values in the clinical information C j is expressed as C j =∪c jk . Note that the value of k is determined according to finding information and clinical information. Furthermore, when the clinical information C j has real numerical values, each real numerical value is represented by c j .
所見情報および/または臨床情報がカテゴリ値を有する場合、各カテゴリ値の確からしさを尤度で示すデータ形式と各カテゴリ値の確からしさをバイナリ値(0又は1:2値)で示すデータ形式のいずれかのデータ形式が採用される。以下の説明では、各カテゴリ値の確からしさを尤度で示すデータ形式を尤度形式と称し、各カテゴリ値の確からしさをバイナリ値で示すデータ形式をバイナリ形式と称する。また、尤度形式であることをL()を用いて表し、バイナリ形式であることをB()を用いて表す。例えば、所見情報Fnが有するカテゴリ値の確からしさを尤度形式で表す場合は、L(Fn)と表され、L(Fn)={L(fn1),L(fn2),…,L(fnk)}(fnkは各カテゴリ値)が成り立つ。また、所見情報Fnが有するカテゴリ値の確からしさをバイナリ形式で表す場合は、B(Fn)と表され、B(Fn)={B(fn1),B(fn2),…,B(fnk)}(fnkは各カテゴリ値)が成り立つ。 If the finding information and/or clinical information has categorical values, there are two data formats: one that shows the probability of each category value as a likelihood, and the other that shows the probability of each category value as a binary value (0 or 1:2 value). Either data format is adopted. In the following description, a data format that indicates the probability of each category value using a likelihood is referred to as a likelihood format, and a data format that indicates the probability of each category value using a binary value is referred to as a binary format. Furthermore, the likelihood format is expressed using L(), and the binary format is expressed using B(). For example, when expressing the probability of the category value of finding information F n in a likelihood format, it is expressed as L(F n ), where L(F n )={L(f n1 ), L(f n2 ), ..., L(f nk )} (f nk is each category value) holds true. Furthermore, when the probability of the category value of the finding information F n is expressed in binary format, it is expressed as B(F n ), and B(F n )={B(f n1 ), B(f n2 ),... , B(f nk )} (f nk is each category value) holds true.
図4は、第1実施形態における所見情報と臨床情報におけるカテゴリ値とその確からしさを表す値との対応関係の一例を示す。図4に示すように、所見情報F1の「形状」は、f11「球形」、f12「分葉状」、f13「多角形」、f14「不整形」の4種類のカテゴリ値を有する。また、所見情報F2の「切れ込み」は、f21「強い」、f22「弱い」、f23「なし」の3種類のカテゴリ値を有する。また、臨床情報C1の「発熱」は、c11「あり」、c12「なし」の2種類のカテゴリ値を有する。また、臨床情報CJの「CEA」(腫瘍マーカーの一種)は、連続値である実数値cJを有する。 FIG. 4 shows an example of the correspondence between the category values in the finding information and clinical information and the values representing their certainty in the first embodiment. As shown in FIG. 4, the “shape” of the finding information F 1 has four category values: f 11 “spherical”, f 12 “lobulated”, f 13 “polygon”, and f 14 “irregular”. have Further, the “notch” of the finding information F 2 has three types of category values: f 21 “strong”, f 22 “weak”, and f 23 “none”. Furthermore, the clinical information C 1 "fever" has two category values: c 11 "present" and c 12 "absent". Further, "CEA" (a type of tumor marker) of the clinical information CJ has a real value cJ that is a continuous value.
また、以下の説明では入力情報をEfで表す。Efはすべての所見情報および臨床情報で構成され、Ef=F∪Cで表される。図4に例示する所見情報と臨床情報とカテゴリ値を用いる場合、Ef={f11,f12,f13,f14,f21,…,fN1,fN2,fN3,c11,c12,c21,c22,c31,…,cj}が成り立つ。また、入
力情報の要素ごとに、尤度形式とバイナリ形式のいずれのデータ形式も用いることができる。
Furthermore, in the following explanation, input information will be expressed as E f . E f is composed of all finding information and clinical information and is expressed as E f =F∪C. When using the finding information, clinical information, and category values illustrated in FIG. 4, E f ={f 11 , f 12 , f 13 , f 14 , f 21 ,..., f N1 , f N2 , f N3 , c 11 , c 12 , c 21 , c 22 , c 31 , ..., c j } holds true. Moreover, either a likelihood format or a binary format can be used for each element of input information.
さらに、以下の説明では、診断名をDで表す。第1実施形態では、推論部106が肺の異常陰影に関する診断名の推論を行い、推論される診断名は「原発性肺癌」、「癌の肺転移」、「その他」の3つ診断名のいずれかであるとする。以下では、診断名をdu(u=1,2,3)で表す。また、d1は「原発性肺癌」、d2は「癌の肺転移」、d3は「その他」である。また、入力情報Efが推論部103に入力された場合に診断名duが推論される確率(以下、推論確率と称する)をP(du|Ef)で表す。 Furthermore, in the following explanation, the diagnosis name will be represented by D. In the first embodiment, the inference unit 106 infers the diagnosis name regarding the abnormal shadow of the lung, and the inferred diagnosis name is "primary lung cancer", "lung metastasis of cancer", and "other". Suppose that it is either. In the following, the diagnosis name will be expressed as d u (u=1, 2, 3). Furthermore, d1 is "primary lung cancer," d2 is "cancer lung metastasis," and d3 is "others." Further, the probability that the diagnosis name d u is inferred when the input information E f is input to the inference unit 103 (hereinafter referred to as inference probability) is expressed as P(d u |E f ).
以下に、図3のフローチャートの処理について説明する。まず、ステップS3000において、CPU111は、症例情報端末200から医用画像、臨床情報、付帯情報を取得する。本実施形態の例では、付帯情報には異常陰影の座標情報が含まれている。
The processing in the flowchart of FIG. 3 will be described below. First, in step S3000, the
次に、ステップS3010において、CPU111は、ステップS3000で取得した医用画像と付帯情報に基づいて、尤度形式の所見情報L(F)={L(F1),L(F2),…,L(FN)}を生成する。さらに、CPU111は、バイナリ形式の所見情報B(F)={B(F1),B(F2),…,B(FN)}を生成する。
Next, in step S3010, the
本実施形態において、診断支援装置100のメインメモリ111には、医用画像から所見情報を導出する導出器が格納されている。導出器は、医用画像に所見情報ごとの分類の正解ラベルが付与された、医用画像のデータ群を用いてCNN(Convolutional Neural Network)により構築される。CNNは機械学習の一例である。導出器は、分類モデルの出力データをソフトマックス関数で処理することにより、分類の尤度を合わせて取得することができる。なお、CPU111は、導出器に入力される医用画像に前処理を施してもよい。例えば、CPU111は、ステップS3000で取得した付帯情報を基に、医用画像からROI(Region Of Interest)やVOI(Volume Of Interest)を切り出した部分画像を生成する前処理を実行してもよい。また、CPU111は、医用画像の特定の領域をマスク処理する前処理や、コントラスト強調等の画像処理を行う前処理を実行してもよい。
In this embodiment, the
ステップS3010では、CPU111は、導出器から出力される尤度形式の所見情報L(F)を基に、バイナリ形式の所見情報B(F)を生成する。図5は、尤度形式の所見情報L(F)を基にしたバイナリ形式の所見情報B(F)の生成の一例を模式的に示す。また、図10は、所見情報Fnにおける尤度形式の所見情報とバイナリ形式の所見情報の関係を示す別の図である。図5、図10に示すように、1つの所見情報におけるカテゴリ値の中で最も高い尤度を持つカテゴリ値が1となり、それ以外のカテゴリ値が0となる。なお、図5、図10に示す以外の方法でバイナリ形式の所見情報を生成してもよい。例えば、各カテゴリ値の尤度を閾値以上か否かを基に0か1かを判断し、1つの所見情報において1を値に取るカテゴリ値が複数存在するようにバイナリ形式の所見情報を生成してもよい。
In step S3010, the
次に、ステップS3020において、CPU111は、ステップS3000で取得した臨床情報と、ステップS3010で取得した所見情報とに基づいて入力情報を生成する。CPU111は、所見情報ごとにデータ形式(L(Fn)またはB(Fn))を切り替えて入力情報を生成する。CPU111は、図6に示すテーブル600を参照して、所見情報ごとにデータ形式を決定する。図6に示すテーブル600は、所見情報生成部ID、推論部ID、所見情報Fnを示す所見名称、各カテゴリ値のデータ形式が対応づいた表である。ここで、所見情報生成部ID(図中「XXXX」は0001~9999)と推論部ID(図中「YYYY」は0001~9999)は、所見情報生成部101と推論部103
の機能を実現するモジュールが作成または更新されるたびに発行される識別情報である。所見情報生成部IDと推論部IDは対応するモジュールに参照可能に保存される。例えば、モジュールのバージョン情報としてモジュールに埋め込まれる。なお、本実施形態において、モジュールはメインメモリ112に格納される。
Next, in step S3020,
This is identification information that is issued each time a module that implements the functionality of the module is created or updated. The finding information generation unit ID and the inference unit ID are stored in corresponding modules so that they can be referenced. For example, it is embedded in the module as module version information. Note that in this embodiment, the module is stored in the
図6に示すように、一例として入力情報生成部IDが0004であり、推論部IDが0002である場合、入力情報に使用する所見情報FeはFe={L(F1),B(F2),B(F3),…,L(FN)}となる。ここで、図4からわかるように、所見情報F1は「形状」、所見情報F2は「切れ込み」、所見情報F3は「鋸歯状辺縁」、所見情報FNは「巻(気管支)」である。また、ステップS3000で取得した臨床情報CeがCe={B(c12),B(c22),…,cJ}であるとすると、入力情報EfはEf=Fe∪Ceで表される。 As shown in FIG. 6, as an example, when the input information generation unit ID is 0004 and the inference unit ID is 0002, the finding information F e used for the input information is F e ={L(F 1 ), B( F 2 ), B(F 3 ),..., L(F N )}. Here, as can be seen from FIG. 4, finding information F1 is "shape", finding information F2 is "notch", finding information F3 is "serrated margin", and finding information FN is "volume (bronchus)". ”. Further, if the clinical information C e acquired in step S3000 is C e ={B(c 12 ), B(c 22 ), ..., c J }, the input information E f is E f =F e ∪C Represented by e .
次に、ステップS3030において、CPU111は、ステップS3020で生成した入力情報を基に、診断対象である肺の異常陰影に関する推論を実行する。そして、CPU111は、診断名ごとの推論確率P(d|Ef)={P(d1|Ef),P(d2|Ef),P(d3|Ef)}を取得する。このとき推論を行う手法としては、ベイジアンネットワーク、サポートベクターマシン、ニューラルネットワーク等を用いた手法が挙げられる。第1実施形態では、一例としてベイジアンネットワークを用いて推論を行うものとする。
Next, in step S3030, the
次に、ステップS3040において、CPU111は、ステップS3030で取得した推論結果をモニタ300に表示することでユーザに提示する。ここで、CPU111は、入力情報である所見情報や臨床情報を合わせてモニタ300に表示してもよい。さらに、CPU111は、個々の入力情報の推論結果に対する影響度を回帰分析によって算出し、算出した影響度が閾値以上である入力情報を表示するなど、表示する入力情報を制限してもよい。
Next, in step S3040, the
図7は、ステップS3040において、モニタ300に表示される推論結果を含む画面の一例である。表示画面700には、ステップS3000で取得される医用画像7000と、ステップS3030で取得される推論結果7010が含まれる。医用画像7000には、異常陰影の部位7020も表示される。また、表示画面700には、患者情報や撮影情報も含まれる。ユーザは、表示画面700に表示される推論結果7010、患者情報、撮影情報等を参照しながら、医用画像7000に対する読影を行う。
FIG. 7 is an example of a screen containing the inference results displayed on the
第1実施形態に係る診断支援装置100によれば、医用画像の推論に用いられる分類モデルへの入力情報を、所見情報のデータ形式を所見ごとに尤度形式とバイナリ形式とで切り替えて生成することができる。このように生成された入力情報を元に推論を行うことで、すべての所見情報が尤度形式で構成された入力情報やすべての所見情報がバイナリ形式で構成された入力情報を使用する場合に比べて、より好適なデータ形式で所見情報を用いた推論結果が得られる。これにより、より信頼性の高い推論結果をユーザに提示することができる。特に、分類モデルにおいて上記のIDの組み合わせが異なるモジュールを選択的に使用する場合や、複数のモジュールを統合して推論結果を出す場合等、推論に用いられるモジュールが複数存在する場合に効果的である。
According to the
(第2実施形態)
次に、第2実施形態について説明する。なお、以下の説明において、第1実施形態と同様の構成については、同一の符号を付して詳細な説明は省略する。第2実施形態では、診断支援装置を用いてテーブル600を作成する。
(Second embodiment)
Next, a second embodiment will be described. In the following description, the same configurations as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted. In the second embodiment, a table 600 is created using a diagnostic support device.
図8は、第2実施形態に係る診断支援システム2の機能構成の一例を示す図である。診断支援システム2は、診断支援装置800と症例情報端末200を有する。診断支援装置800は、入力情報生成部101と、所見情報生成部102と、推論部103と、表示制御部104と、試験データ生成部801と、テーブル保存部802とを有する。試験データ生成部801は、推論部103に試験的に入力される入力情報(以下、試験情報と称する)を生成する。テーブル保存部802は、推論部103が試験データ生成部801によって生成された試験情報に基づいて行った推論結果を用いて、テーブル600を更新する。試験データ生成部801が、所見情報の試験データを取得する試験データ取得手段の一例であり、医用画像と診断名の正解ラベルとが対応付けられた正解データを取得する正解データ取得手段の一例である。
FIG. 8 is a diagram showing an example of the functional configuration of the
図9は、診断支援装置800のCPU111が実行する、テーブル600を更新する処理の一例を示すフローチャートである。CPU111は、メインメモリ112、磁気ディスク113に格納されているプログラムを実行することにより、入力情報生成部101、所見情報生成部102、推論部103、表示制御部104、試験データ生成部801、テーブル保存部802として機能する。本実施形態では、診断支援装置800のCPU111は、上記の分類モデルに試験情報を入力し、推論精度が高くなる所見情報ごとのデータ形式の組み合わせを決定してテーブル600を作成する。
FIG. 9 is a flowchart illustrating an example of a process for updating the table 600, which is executed by the
ステップS9000において、CPU111は、試験用の正解データセットを取得する。ここで、試験用の正解データセットとは、医用画像に所見情報ごとの正解ラベル(正解の所見項目)と診断結果の正解ラベル(正解の診断名)とが付与されているデータ群である。また、試験用の正解データセットは、診断支援装置800において使用される導出器の分類モデルを構築する際に使用する正解データセットとは異なるデータ群として用意されている。
In step S9000, the
次に、ステップS9010において、CPU111は、ステップS9000で取得した試験用の正解データセットに含まれる各医用画像に基づいて尤度形式の所見情報L(F)={L(F1),L(F2),…,L(FN)}を生成する。さらに、CPU111は、L(F)に基づいてバイナリ形式の所見情報B(F)={B(F1),B(F2),…,B(FN)}を生成する。CPU111は、各画像に対して生成した各形式の所見情報をメインメモリ112に保存する。なお、バイナリ形式の所見情報が第1の試験データの一例であり、尤度形式の所見情報が第2の試験データの一例である。
Next, in step S9010, the
ステップS9020において、CPU111は、ステップS9010で取得した所見情報L(F)およびB(F)を用いて試験用の入力情報を生成する。ここで、試験用の入力情報は、所見情報ごとに尤度形式(L(Fn))またはバイナリ形式(B(Fn))(nは1~nの自然数)のいずれかを選択し、すべてのデータ形式の組み合わせを網羅するように生成される。すなわち、所見情報の数がN個である場合、所見情報ごとにL(Fn)とB(Fn)の組み合わせが異なる2N種類の入力情報が、試験用の正解データセットに含まれる各画像について生成される。CPU111は、各画像に対して生成した入力情報をメインメモリ112に保存する。
In step S9020, the
次に、ステップS9030において、CPU111は、ステップS9020で生成した試験用の入力情報をメインメモリ112から読み出し、各入力情報を用いて診断対象である肺の異常陰影に関する推論を実行する。そして、CPU111は、試験用の各入力情報に対する診断名(d1、d2、d3)ごとの推論確率を算出する。これにより、試験用の正解データセットに含まれる各画像について、各入力情報と各診断名の推論確率との組(2N×3組)が得られる。
Next, in step S9030, the
次に、ステップS9040において、CPU111は、各入力情報に対して推論の精度を算出する。ここで、推論の精度とは、入力情報のL(Fn)とB(Fn)の組み合わせを用いて各画像の推論をしたときの診断名ごとの推論確率のうち最も高い確率となる診断名が正解ラベルの診断名と一致する割合である。より具体的には、入力情報をVi(i=1~2N)とする。また、入力情報ViにおけるL(Fn)とB(Fn)(n=1~N)の組み合わせを用いてある画像に対して推論を行ったときの診断名d1、d2、d3の推論確率をP(d1|Vi)、P(d2|Vi)、P(d3|Vi)とする。そして、試験用の正解データセットに含まれるすべての画像にわたって入力情報Viを用いて推論を行ったときに、推論確率P(d1|Vi)、P(d2|Vi)、P(d3|Vi)が最も高い推論確率と正解ラベルの診断名とが一致する割合が推論の精度となる。
Next, in step S9040, the
さらに、CPU111は、推論の精度が最も高い入力情報を特定する。そして、CPU111は、特定した入力情報におけるL(Fn)とB(Fn)の組み合わせを、ステップS9010で使用した所見情報生成部104のIDおよびステップS9030で使用した推論部106のIDと対応付けて、テーブル600に保存する。上記の処理により、CPU111は、尤度形式によって構成された試験データとバイナリ形式によって構成された試験データとの間で推論の精度を比較し、推論の精度が高くなるデータ形式を特定することができる。
Furthermore, the
本実施形態によれば、試験用の正解データセットに含まれる画像を用いて、所見情報生成部104と推論部106との組み合わせにおいて推論の精度が最も高くなる所見情報ごとのデータ形式(尤度形式かバイナリ形式か)を特定することができる。 According to the present embodiment, the data format (likelihood format or binary format).
以上が本件開示の技術に係る実施形態の説明であるが、各実施形態の説明は本件開示の技術を説明する上での例示であり、本件開示の技術は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、上記で説明した診断支援装置100の各手段の少なくとも1つの機能は、症例情報端末200等の診断支援装置100の外部の装置が担ってもよい。例えば、症例情報端末200が、医用画像を取得する取得手段として機能してもよい。また、上記の実施形態において、推論部103は、複数の推論器を多段接続して各診断名の推論を行ってもよい。また、以下に上記の実施形態の変形例について説明する。以下の各変形例も適宜組み合わせて実施されてよい。
The above is a description of the embodiments related to the technology disclosed herein. However, the description of each embodiment is an illustration for explaining the technology disclosed herein, and the technology disclosed herein may be used within the scope of the spirit of the invention. They can be modified or combined as appropriate. For example, at least one function of each means of the
(第1実施形態の変形例1)
第1実施形態では、ステップS3020において所見情報生成部ID、推論部ID、所見情報に基づいてデータ形式が特定される。これに代えて、所見情報生成部ID、推論部ID、所見情報のいずれか1つまたは2つに基づいてデータ形式が特定されてもよい。例えば所見情報生成部IDと推論部IDのいずれか一方と所見情報に基づいてデータ形式が特定されてもよいし、所見情報生成部IDのみに基づいてデータ形式が特定されてもよい。あるいは、入力画像の画像特徴量等の情報によってさらに細分化された項目ごとにデータ形式が特定されてもよい。
(
In the first embodiment, the data format is specified in step S3020 based on the finding information generation unit ID, the reasoning unit ID, and the finding information. Alternatively, the data format may be specified based on any one or two of the finding information generation unit ID, the reasoning unit ID, and the finding information. For example, the data format may be specified based on either the finding information generation unit ID or the inference unit ID and the finding information, or the data format may be specified based only on the finding information generation unit ID. Alternatively, the data format may be specified for each item that is further subdivided based on information such as the image feature amount of the input image.
(第1実施形態の変形例2)
第1実施形態では、ステップS3020においてテーブル600を用いてデータ形式が特定される。これに限らず、テーブル600を用いずにデータ形式が特定されてもよい。例えば、所見情報ごとに異なる導出器を用いて所見が導出されるように構成し、導出器の所見導出精度に基づいて所見情報ごとにデータ形式が切り替えられてもよい。
(
In the first embodiment, the data format is specified using the table 600 in step S3020. The data format is not limited to this, and the data format may be specified without using the table 600. For example, the configuration may be such that a finding is derived using a different deriving device for each finding information, and the data format may be switched for each finding information based on the finding derivation accuracy of the deriving device.
(第1実施形態の変形例3)
第1実施形態では、ステップS3010において尤度形式の所見情報とバイナリ形式の所見情報とが生成され、ステップS3020において各形式の所見情報が選択的に使用さ
れた。これに限らず、ステップS3010では尤度形式の所見情報が生成され、ステップS3020において必要に応じてバイナリ形式の所見情報に変換されてもよい。
(
In the first embodiment, likelihood format finding information and binary format finding information are generated in step S3010, and each format of finding information is selectively used in step S3020. The present invention is not limited to this, and finding information in a likelihood format may be generated in step S3010, and may be converted to finding information in a binary format as necessary in step S3020.
(第2実施形態の変形例1)
第2実施形態では、ステップS9020において、所見情報生成部104の出力を基に試験用の入力情報が生成される。これに限らず、試験用の正解データセットに含まれる正解ラベルを基に試験用の入力情報が生成されてもよい。試験用の正解データセットに含まれる正解ラベルを用いる場合、所見情報のデータ形式は必然的にバイナリ形式となるため、尤度形式の入力情報に変換される場合は、人為的に生成された尤度が用いられる。また、試験用の正解データセットに含まれる正解ラベルを用いる場合は、入力情報の一部に人為的に誤りを発生させる。また、誤りの発生がそれぞれ異なるように数千パターンのデータセットが生成され、生成されたデータセットを用いて上記の処理が実行されることで、統計的に推論精度が最も高くなる所見情報ごとのデータ形式が特定されてもよい。
(
In the second embodiment, test input information is generated in step S9020 based on the output of the finding
(その他の実施形態)
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(たとえば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more functions of the above embodiments via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.
上記の各実施形態における情報処理装置は、単体の装置として実現してもよいし、複数の装置を互いに通信可能に組合せて上記の処理を実行する形態としてもよく、いずれも本件開示の技術の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上記の処理を実行することとしてもよい。情報処理装置および情報処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。 The information processing device in each of the above embodiments may be realized as a single device, or may be a form in which a plurality of devices are combined so as to be able to communicate with each other to execute the above processing, and in either case, the technology of the present disclosure is applicable. Included in the embodiment. The above processing may be executed by a common server device or a group of servers. The plurality of devices constituting the information processing device and the information processing system only need to be able to communicate at a predetermined communication rate, and do not need to be located in the same facility or in the same country.
上記の実施形態には、各実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読み出して実行するという形態を含む。したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本件開示の技術に係る実施形態の1つである。また、コンピュータが読み出したプログラムに含まれる指示に基づき、コンピュータで稼働しているOS等が、実際の処理の一部又は全部を行い、その処理によっても各実施形態の機能が実現され得る。 The above embodiments include a form in which a software program that implements the functions of each embodiment is supplied to a system or device, and a computer of the system or device reads and executes the code of the supplied program. . Therefore, the program code itself that is installed on a computer in order to implement the processing according to the embodiment on the computer is also one of the embodiments according to the technology of the present disclosure. Furthermore, the OS or the like running on the computer performs part or all of the actual processing based on instructions included in the program read by the computer, and the functions of each embodiment can also be realized by this processing.
100・・・診断支援装置、101・・・入力情報生成部、102・・・所見情報生成部、103・・・推論部、111・・・CPU 100... Diagnosis support device, 101... Input information generation unit, 102... Finding information generation unit, 103... Inference unit, 111... CPU
Claims (14)
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出する所見導出手段と、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段と、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行う推論手段と、
を有することを特徴とする診断支援装置。 an acquisition means for acquiring a medical image;
Findings deriving means for deriving finding information from the acquired medical images using a classification model created by machine learning using medical images;
a setting means for setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
an inference means for inferring the acquired medical image based on the set finding information;
A diagnostic support device comprising:
前記設定手段は、前記複数の所見情報ごとに、所見項目の確からしさを表す値のデータ形式を、前記第1のデータ形式または前記第2のデータ形式のいずれかのデータ形式に設定する、
ことを特徴とする請求項1に記載の診断支援装置。 The finding deriving means derives a plurality of finding information from the acquired medical image,
The setting means sets, for each of the plurality of finding information, a data format of a value representing the certainty of a finding item to either the first data format or the second data format.
The diagnostic support device according to claim 1, characterized in that:
前記設定手段は、前記導出された所見情報における前記所見項目の確からしさを表す値のデータ形式を前記第1のデータ形式に設定するか、または、前記第2のデータ形式のままとする、
ことを特徴とする請求項1から4のいずれか一項に記載の診断支援装置。 The finding deriving means derives the finding information using the second data format as a data format of a value representing the certainty of the finding item in the finding information,
The setting means sets a data format of a value representing the certainty of the finding item in the derived finding information to the first data format, or leaves it as the second data format.
The diagnostic support device according to any one of claims 1 to 4.
前記設定手段は、前記推論手段が前記第1の試験データを用いて試験用の医用画像に対して推論を行った場合の推論結果と、前記推論手段が前記第2の試験データを用いて前記試験用の医用画像に対して推論を行った場合の推論結果との比較に基づいて、前記所見情報ごとに前記第1のデータ形式または前記第2のデータ形式を特定する、
ことを特徴とする請求項1から8のいずれか一項に記載の診断支援装置。 first test data in which a value representing the certainty of a finding item of the finding information is configured in the first data format; and a value representing the certainty of the finding item in the finding information is configured in the second data format. further comprising test data acquisition means for acquiring the configured second test data;
The setting means includes an inference result obtained when the inference means performs inference on the test medical image using the first test data, and an inference result obtained when the inference means performs inference on the test medical image using the second test data. identifying the first data format or the second data format for each of the finding information based on a comparison with an inference result when inference is performed on a test medical image;
The diagnostic support device according to any one of claims 1 to 8.
前記試験データ取得手段は、前記取得した正解データに基づいて、前記第1の試験データおよび前記第2の試験データを生成する、
ことを特徴とする請求項9に記載の診断支援装置。 further comprising correct data acquisition means for obtaining correct data in which the medical image and the correct label of the diagnosis name are associated with each other;
The test data acquisition means generates the first test data and the second test data based on the acquired correct answer data.
The diagnostic support device according to claim 9, characterized in that:
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出する所見導出手段と、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段と、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行う推論手段と、
を有することを特徴とする診断支援システム。 an acquisition means for acquiring a medical image;
Findings deriving means for deriving finding information from the acquired medical images using a classification model created by machine learning using medical images;
a setting means for setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
an inference means for inferring the acquired medical image based on the set finding information;
A diagnostic support system comprising:
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出するステップと、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定するステップと、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行うステ
ップと
を有することを特徴とするプロセッサにより実行される診断支援方法。 acquiring a medical image;
Deriving finding information from the acquired medical image using a classification model created by machine learning using the medical image;
setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
A diagnosis support method executed by a processor , comprising the step of making an inference regarding the acquired medical image based on the set finding information.
A program that causes a computer to execute the diagnosis support method according to claim 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167109A JP7408324B2 (en) | 2019-09-13 | 2019-09-13 | Diagnosis support device, diagnosis support system, diagnosis support method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019167109A JP7408324B2 (en) | 2019-09-13 | 2019-09-13 | Diagnosis support device, diagnosis support system, diagnosis support method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021043857A JP2021043857A (en) | 2021-03-18 |
JP7408324B2 true JP7408324B2 (en) | 2024-01-05 |
Family
ID=74862364
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019167109A Active JP7408324B2 (en) | 2019-09-13 | 2019-09-13 | Diagnosis support device, diagnosis support system, diagnosis support method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7408324B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3821225B2 (en) | 2002-07-17 | 2006-09-13 | 日本電気株式会社 | Autoregressive model learning device for time series data and outlier and change point detection device using the same |
JP2019074868A (en) | 2017-10-13 | 2019-05-16 | キヤノン株式会社 | Diagnosis support device, information processing method, diagnosis support system and program |
-
2019
- 2019-09-13 JP JP2019167109A patent/JP7408324B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3821225B2 (en) | 2002-07-17 | 2006-09-13 | 日本電気株式会社 | Autoregressive model learning device for time series data and outlier and change point detection device using the same |
JP2019074868A (en) | 2017-10-13 | 2019-05-16 | キヤノン株式会社 | Diagnosis support device, information processing method, diagnosis support system and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021043857A (en) | 2021-03-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288550B2 (en) | Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program | |
US10896753B2 (en) | Lung screening assessment system | |
US10878948B2 (en) | Mid-protocol evaluation system | |
JP7051849B2 (en) | Methods for deep learning medical systems and medical procedures | |
JP2020500377A (en) | Deep learning medical system and method for image acquisition | |
CN111563523B (en) | COPD classification using machine-trained anomaly detection | |
JP7224757B2 (en) | Diagnosis support device, information processing method, diagnosis support system and program | |
JP6818424B2 (en) | Diagnostic support device, information processing method, diagnostic support system and program | |
JP6016406B2 (en) | Medical diagnosis support apparatus, medical diagnosis support method, and input support system | |
US12027267B2 (en) | Information processing apparatus, information processing system, information processing method, and non-transitory computer-readable storage medium for computer-aided diagnosis | |
JP2013511762A (en) | Protocol Guide Imaging Procedure | |
JP7007469B2 (en) | Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs | |
JP7408324B2 (en) | Diagnosis support device, diagnosis support system, diagnosis support method and program | |
EP4379672A1 (en) | Methods and systems for classifying a medical image dataset | |
JP7368592B2 (en) | Document creation support device, method and program | |
WO2023054646A1 (en) | Information processing device, information processing method, and information processing program | |
CN116596828A (en) | Recording medium, dynamic analysis system, and dynamic analysis device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230905 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231031 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231220 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7408324 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |