JP7408324B2 - Diagnosis support device, diagnosis support system, diagnosis support method and program - Google Patents

Diagnosis support device, diagnosis support system, diagnosis support method and program Download PDF

Info

Publication number
JP7408324B2
JP7408324B2 JP2019167109A JP2019167109A JP7408324B2 JP 7408324 B2 JP7408324 B2 JP 7408324B2 JP 2019167109 A JP2019167109 A JP 2019167109A JP 2019167109 A JP2019167109 A JP 2019167109A JP 7408324 B2 JP7408324 B2 JP 7408324B2
Authority
JP
Japan
Prior art keywords
finding
information
data format
inference
medical image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019167109A
Other languages
Japanese (ja)
Other versions
JP2021043857A (en
Inventor
直紀 松木
将実 川岸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019167109A priority Critical patent/JP7408324B2/en
Publication of JP2021043857A publication Critical patent/JP2021043857A/en
Application granted granted Critical
Publication of JP7408324B2 publication Critical patent/JP7408324B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、診断支援装置、診断支援システム、診断支援方法およびプログラムに関する。 The present invention relates to a diagnosis support device, a diagnosis support system, a diagnosis support method, and a program.

機械学習により構築される分類モデルは多様化しており、学習データとして入力されるデータも様々である。データの種類によって、学習データとして入力されるデータが取り得る値は連続値、離散値となることがある。そこで、特許文献1に示すように、学習データとして連続値と離散値の両方を含むデータを用いてモデルの学習を行う技術も提案されている。 Classification models constructed by machine learning are diversifying, and the data input as learning data is also diverse. Depending on the type of data, the possible values of the data input as learning data may be continuous values or discrete values. Therefore, as shown in Patent Document 1, a technique has been proposed in which model learning is performed using data that includes both continuous values and discrete values as learning data.

特許第3821225号公報Patent No. 3821225

分類モデルを用いてデータを分類する手法の1つに、学習済みである複数の分類モデルを直列に組み合わせることで最終的な分類結果を得る手法がある。この手法では、前段のモデルから出力される変数ごとの尤度を、連続値としてそのまま後段のモデルに入力するか、ワンホット(one-hot)表現等に加工して離散値として後段のモデルに入力するかで、最終的な分類精度が変わる。 One method of classifying data using a classification model is to obtain a final classification result by serially combining a plurality of trained classification models. In this method, the likelihood of each variable output from the previous model is either input as a continuous value into the subsequent model, or it is processed into a one-hot expression etc. and then input as a discrete value into the subsequent model. The final classification accuracy changes depending on the input.

特許文献1に提案される技術を用いることで、データの種類ごとに尤度をそのまま(尤度形式)あるいはワンホット表現等に加工して(バイナリ形式)後段の分類モデルに入力することができる。しかしながら、分類精度は、前段の分類モデルと後段の分類モデルの関係や学習データの種類、分類対象のデータ等の種々の条件によって複雑に変化する。よって、これらの条件が変われば分類精度が低下する可能性がある。この結果、上記の分類モデルを用いて医用画像に対する推論を行っても、医師等の診断に資する精度よい推論結果を得ることはできない可能性がある。 By using the technology proposed in Patent Document 1, the likelihood for each type of data can be input as is (likelihood format) or processed into a one-hot expression (binary format) to the subsequent classification model. . However, classification accuracy varies in a complicated manner depending on various conditions such as the relationship between the first-stage classification model and the second-stage classification model, the type of learning data, and the data to be classified. Therefore, if these conditions change, classification accuracy may decrease. As a result, even if inference is made on medical images using the above classification model, it may not be possible to obtain accurate inference results that are useful for diagnosis by doctors and the like.

本件開示の技術は、上記に鑑みて、推論精度を向上させることを目的とする。 In view of the above, the technology disclosed herein aims to improve inference accuracy.

本件開示の技術に係る診断支援装置は、
医用画像を取得する取得手段と、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出する所見導出手段と、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段と、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行う推論手段と、
を有することを特徴とする。
また、本件開示の技術に係る診断支援システムは、
医用画像を取得する取得手段と、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出する所見導出手段と、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段と、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行う推論手段と、
を有することを特徴とする。
また、本件開示の技術に係るプロセッサにより実行される診断支援方法は、
医用画像を取得するステップと、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出するステップと、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定するステップと、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行うステップと
を有することを特徴とする。
また、本件開示の技術に係るプログラムは、
コンピュータに上記の診断支援方法を実行させる、ことを特徴とする。
The diagnostic support device according to the technology disclosed herein is:
an acquisition means for acquiring a medical image;
Findings deriving means for deriving finding information from the acquired medical images using a classification model created by machine learning using medical images;
a setting means for setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
an inference means for inferring the acquired medical image based on the set finding information;
It is characterized by having the following.
In addition, the diagnostic support system related to the technology disclosed in this case is
an acquisition means for acquiring a medical image;
Findings deriving means for deriving finding information from the acquired medical images using a classification model created by machine learning using medical images;
a setting means for setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
an inference means for inferring the acquired medical image based on the set finding information;
It is characterized by having the following.
Furthermore, the diagnostic support method executed by the processor according to the technology disclosed herein is
acquiring a medical image;
Deriving finding information from the acquired medical image using a classification model created by machine learning using the medical image;
setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
The method is characterized by comprising the step of making inferences regarding the acquired medical image based on the set finding information.
In addition, the program related to the technology disclosed in this matter is
The present invention is characterized by causing a computer to execute the above diagnosis support method.

本件開示の技術により、推論精度を向上させることができる。 With the technology disclosed herein, inference accuracy can be improved.

第1実施形態に係る診断支援装置の機能構成を例示する図A diagram illustrating the functional configuration of the diagnostic support device according to the first embodiment 第1実施形態に係る診断支援装置のハードウェア構成を例示する図A diagram illustrating the hardware configuration of the diagnostic support device according to the first embodiment 第1実施形態に係る診断支援装置による処理のフローチャートを例示する図A diagram illustrating a flowchart of processing by the diagnostic support device according to the first embodiment 第1実施形態に係る診断支援装置が取得する情報を例示する図A diagram illustrating information acquired by the diagnosis support device according to the first embodiment 第1実施形態に係る診断支援装置によるデータ形式の設定を例示する図A diagram illustrating data format settings by the diagnosis support device according to the first embodiment 第1実施形態に係る診断支援装置が参照するテーブルを例示する図A diagram illustrating a table referred to by the diagnosis support device according to the first embodiment 第1実施形態に係る診断支援装置が表示する画面を例示する図A diagram illustrating a screen displayed by the diagnosis support device according to the first embodiment 第2実施形態に係る診断支援装置の機能構成を例示する図A diagram illustrating the functional configuration of a diagnostic support device according to a second embodiment 第2実施形態に係る診断支援装置による処理のフローチャートを例示する図A diagram illustrating a flowchart of processing by the diagnostic support device according to the second embodiment 尤度形式のデータとバイナリ形式のデータを例示する図Diagram illustrating likelihood format data and binary format data 画像から診断内容を取得するまでの処理の流れを例示する図Diagram illustrating the process flow from obtaining diagnostic details from images

以下に、図面を参照しつつ、本件開示の技術の好適な実施の形態について説明する。ただし、以下に記載されている構成部品の寸法、材質、形状およびそれらの相対配置等は、発明が適用される装置の構成や各種条件により適宜変更されるべきものである。よって、この発明の範囲を以下の記載に限定する趣旨のものではない。特に図示あるいは記述をしない構成や工程には、当該技術分野の周知技術または公知技術を適用することが可能である。また、重複する説明は省略する場合がある。 Below, preferred embodiments of the technology disclosed herein will be described with reference to the drawings. However, the dimensions, materials, shapes, and relative arrangement of the components described below should be changed as appropriate depending on the configuration of the device to which the invention is applied and various conditions. Therefore, the scope of the present invention is not intended to be limited to the following description. For configurations and steps that are not particularly illustrated or described, well-known or well-known techniques in the technical field can be applied. Further, duplicate explanations may be omitted.

(第1実施形態)
第1実施形態に係る医用画像診断支援システムについて説明する。医療の分野では、X線CT(Computer Tomography)装置やMRI(Magnetic Resonance Imaging)装置等の撮影装置により得られた医用画像に基づいて診断を行う、画像診断が行われている。ここで、医師等が医用画像を観察して診断を導きだすことを読影という。例えば、主治医からの読影の依頼に応じて、画像診断を専門とする読影医が読影を行う。読影医は医用画像から得られる所見(以下、画像所見と称する。)や各種の測定値から総合的に判断して、医用画像に含まれる被検体である患者の病変や症状を特定する。また、読影医は、画像所見や測定値に基づく診断の経緯等を含む読
影レポートを作成する。このような読影を支援するために、コンピュータが医用情報を解析して得られた結果を提示するシステムが提案されている。
(First embodiment)
A medical image diagnosis support system according to a first embodiment will be described. In the medical field, image diagnosis is performed in which diagnosis is performed based on medical images obtained by imaging devices such as X-ray CT (Computer Tomography) devices and MRI (Magnetic Resonance Imaging) devices. Here, the process by which a doctor or the like observes a medical image and derives a diagnosis is called image interpretation. For example, in response to a request for interpretation from the attending physician, an interpretation doctor who specializes in image diagnosis performs the interpretation. An image interpreter makes a comprehensive judgment based on findings obtained from medical images (hereinafter referred to as image findings) and various measured values, and identifies lesions and symptoms of a patient, who is a subject included in a medical image. In addition, the image interpretation doctor creates an image interpretation report that includes the history of diagnosis based on image findings and measured values. In order to support such image interpretation, systems have been proposed in which a computer analyzes medical information and presents the results obtained.

第1実施形態に係る診断支援装置100は、読影の対象となる医用画像や、電子カルテ等に記載された情報等を取得し、コンピュータが診断の手掛かりとなる情報を提示することにより診断支援を行う。なお、以下の説明では、診断支援装置100は、医用画像と、当該医用画像に付帯する付帯情報と、患者を特定する患者情報、撮影日や撮影部位等の撮影情報、患者の臨床情報を取得するものとする。本実施形態では、医用画像は患者の肺の異常陰影の読影に用いられる医用画像である。付帯情報は、異常陰影の位置を示す座標情報や等の医用画像に対する補足情報である。患者情報は、患者の氏名、年齢、性別等の患者を識別する情報である。撮影情報は、医用画像の撮影日、撮影装置、撮影部位等の撮影に関する情報である。臨床情報は、患者の病歴や腫瘍マーカーの血液検査値等の情報である。 The diagnosis support device 100 according to the first embodiment acquires medical images to be interpreted, information written in electronic medical records, etc., and provides diagnostic support by having a computer present information that provides clues for diagnosis. conduct. In the following explanation, the diagnosis support device 100 acquires a medical image, additional information attached to the medical image, patient information that identifies the patient, imaging information such as the date of imaging and the area to be imaged, and clinical information of the patient. It shall be. In this embodiment, the medical image is a medical image used for interpreting an abnormal shadow in a patient's lungs. The supplementary information is supplementary information for the medical image, such as coordinate information indicating the position of an abnormal shadow. The patient information is information that identifies the patient, such as the patient's name, age, and gender. The imaging information is information related to imaging, such as the imaging date of the medical image, the imaging device, and the imaging site. The clinical information is information such as the patient's medical history and blood test values for tumor markers.

そして、診断支援装置100が、取得した情報を基に推論に使用する入力情報を生成し、入力情報から診断の手掛かりとなる情報をユーザ(医師等)に理解可能な形式で生成する場合を例として説明する。なお、本実施形態に係る診断支援装置100による処理はこれに限定されるものではない。また、以下に説明する診断名や所見情報、臨床情報等は、いずれも診断支援装置100の処理の工程を説明するための一例に過ぎない。 Then, the diagnosis support device 100 generates input information to be used for inference based on the acquired information, and generates information that becomes a clue for diagnosis from the input information in a format that is understandable to the user (such as a doctor). It will be explained as follows. Note that the processing by the diagnostic support device 100 according to this embodiment is not limited to this. Further, the diagnosis name, finding information, clinical information, etc. described below are only examples for explaining the processing steps of the diagnosis support device 100.

図1は、第1実施形態に係る診断支援システム1の機能構成の一例を示す図である。診断支援システム1は、診断支援装置100と症例情報端末200を有する。診断支援装置100は、症例情報端末200と通信可能に接続されている。診断支援装置100は、入力情報生成部101と、所見情報生成部102と、推論部103と、表示制御部104とを有する。また、症例情報端末200は、読影に用いられる症例に関する情報をサーバ(不図示)から取得する。症例に関する情報とは、例えば、医用画像、医用画像の撮影情報、電子カルテに記載された臨床情報や患者情報である。症例情報端末200は、例えばFDD、HDD、CDドライブ、DVDドライブ、MOドライブ、ZIPドライブ等の外部記憶装置(不図示)と接続し、外部記憶装置から症例に関する情報を取得するように構成されていてもよい。 FIG. 1 is a diagram showing an example of the functional configuration of a diagnostic support system 1 according to the first embodiment. The diagnosis support system 1 includes a diagnosis support device 100 and a case information terminal 200. The diagnosis support device 100 is communicably connected to the case information terminal 200. The diagnosis support device 100 includes an input information generation section 101, a finding information generation section 102, an inference section 103, and a display control section 104. Further, the case information terminal 200 acquires information regarding the case used for image interpretation from a server (not shown). The information regarding a case is, for example, a medical image, photographing information of the medical image, clinical information written in an electronic medical record, and patient information. The case information terminal 200 is configured to connect to an external storage device (not shown) such as an FDD, HDD, CD drive, DVD drive, MO drive, ZIP drive, etc., and obtain information regarding the case from the external storage device. You can.

図2は、診断支援装置100のハードウェア構成の一例を示す図である。CPU111は、主として診断支援装置100内の各構成要素の動作を制御する。メインメモリ112は、CPU111が実行する制御プログラムを格納したり、CPU111によるプログラム実行時の作業領域を提供したりする。磁気ディスク113は、オペレーティングシステム(OS)、周辺機器のデバイスドライバ、後述する処理等を行う各種アプリケーションソフトウェアを実現するプログラムを格納する。CPU111は、メインメモリ112、磁気ディスク113に格納されているプログラムを実行することにより、図1に示す入力情報生成部101、所見情報生成部102、推論部103、表示制御部104として機能する。表示メモリ114は、例えばモニタ300に表示させる表示用データを一時記憶する。 FIG. 2 is a diagram showing an example of the hardware configuration of the diagnostic support device 100. The CPU 111 mainly controls the operation of each component within the diagnostic support device 100. The main memory 112 stores a control program executed by the CPU 111 and provides a work area when the CPU 111 executes the program. The magnetic disk 113 stores programs that implement an operating system (OS), device drivers for peripheral devices, and various application software that perform processing that will be described later. The CPU 111 functions as the input information generation section 101, the finding information generation section 102, the inference section 103, and the display control section 104 shown in FIG. 1 by executing programs stored in the main memory 112 and the magnetic disk 113. The display memory 114 temporarily stores display data to be displayed on the monitor 300, for example.

診断支援装置100は、I/Oインターフェイス116を介して、画像やテキスト等の表示を行う表示装置であるモニタ300やユーザがポインティング入力や文字等の入力を行うために使用する入力装置400に接続されている。モニタ300は、例えばCRT(Cathod-ray Tube)モニタや液晶モニタ等である。また、入力装置400は、例えばマウス及びキーボード等である。 The diagnostic support device 100 is connected via the I/O interface 116 to a monitor 300, which is a display device that displays images, text, etc., and an input device 400, which is used by the user to input pointing input, characters, etc. has been done. The monitor 300 is, for example, a CRT (Cathode-ray Tube) monitor or a liquid crystal monitor. Further, the input device 400 is, for example, a mouse, a keyboard, or the like.

診断支援装置100内の各構成要素は、共通バス116によって互いに通信可能に接続されている。診断支援装置100は、上記の各部の処理を行う複数のCPUを有していて
もよい。例えば診断支援装置100は、以下に説明する推論部103として実行する処理を専用に行うGPUを有していてもよいし、推論部103の機能がプログラムされたFPGA(Field-Programmable Gate Array)を有していてもよい。
Each component within the diagnostic support device 100 is communicably connected to each other by a common bus 116. Diagnosis support device 100 may include a plurality of CPUs that perform the processing of each section described above. For example, the diagnosis support device 100 may include a GPU that exclusively performs processing executed as the inference unit 103 described below, or may include an FPGA (Field-Programmable Gate Array) programmed with the functions of the inference unit 103. may have.

次に、診断支援装置100の各部について説明する。入力情報生成部101は、症例情報端末200から受信した情報、例えば医用画像、臨床情報、付帯情報を用いて入力情報を生成する。ここで入力情報とは、推論部103に入力され、推論部103によって実行される推論に用いられる情報を要素とする、情報の集合である。また、入力情報生成部101は、症例情報端末200から患者情報および撮影情報も受信する。入力情報生成部101が、医用画像を取得する取得手段の一例である。 Next, each part of the diagnosis support device 100 will be explained. The input information generation unit 101 generates input information using information received from the case information terminal 200, such as medical images, clinical information, and supplementary information. Here, the input information is a collection of information whose elements are information input to the inference unit 103 and used for inference executed by the inference unit 103. The input information generation unit 101 also receives patient information and imaging information from the case information terminal 200. The input information generation unit 101 is an example of an acquisition unit that acquires medical images.

所見情報生成部102は、入力情報生成部101から出力された医用画像および付帯情報に基づいて所見情報を生成し、生成した所見情報を入力情報生成部101に出力する。なお、所見情報生成部102は、医用画像上の異常陰影の位置を入力情報生成部101から出力された付帯情報に基づいて特定してもよいし、周知の画像処理を用いて特定してもよい。所見情報生成部102が、医用画像から所見情報を導出する所見導出手段の一例である。 The finding information generating section 102 generates finding information based on the medical image and accompanying information output from the input information generating section 101 and outputs the generated finding information to the input information generating section 101. Note that the finding information generation unit 102 may specify the position of the abnormal shadow on the medical image based on the additional information output from the input information generation unit 101, or may specify it using well-known image processing. good. The finding information generation unit 102 is an example of a finding deriving unit that derives finding information from a medical image.

本実施形態では、入力情報生成部101が医用画像と付帯情報を所見情報生成部102に出力し、所見情報生成部102が医用画像と付帯情報を基に所見情報を生成する。生成された所見情報は、所見情報生成部102から入力情報生成部101に出力される。そして、入力情報生成部101は、取得した所見情報と臨床情報を組み合わせて入力情報を生成し、生成した入力情報を推論部103に出力する。 In the present embodiment, the input information generation unit 101 outputs the medical image and accompanying information to the finding information generating unit 102, and the finding information generating unit 102 generates finding information based on the medical image and the accompanying information. The generated finding information is output from the finding information generating section 102 to the input information generating section 101. Then, the input information generation unit 101 generates input information by combining the acquired finding information and clinical information, and outputs the generated input information to the inference unit 103.

図11に、本実施形態の診断支援装置100における、医用画像の推論処理の流れを模式的に示す。所見情報生成部102は、所見情報ごとに分類モデル(導出器)を有し、分類モデルから得られる所見情報の尤度を入力情報生成部101に出力する。入力情報生成部101は、所見情報生成部102から出力される尤度形式の所見情報を、そのまま尤度形式として出力するかあるいはバイナリ形式として設定して出力する。バイナリ形式が第1のデータ形式の一例であり、尤度形式が第2のデータ形式の一例である。また、入力情報生成部101が、導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段の一例である。入力情報生成部101は、データ形式を設定した所見情報を推論部103に出力する。推論部103は、推論器を有し、入力情報生成部101から出力される所見情報を基に、医用画像に含まれる部位に関する診断名の推論を行い、推論結果を出力する。 FIG. 11 schematically shows the flow of medical image inference processing in the diagnosis support apparatus 100 of this embodiment. The finding information generation unit 102 has a classification model (derivative) for each finding information, and outputs the likelihood of the finding information obtained from the classification model to the input information generation unit 101. The input information generation unit 101 outputs the finding information in the likelihood format output from the finding information generation unit 102 as is in the likelihood format or sets it as a binary format and outputs it. The binary format is an example of the first data format, and the likelihood format is an example of the second data format. Further, the input information generation unit 101 sets the data format of the value representing the probability of the finding item in the derived finding information to either the first data format or the second data format. This is an example. The input information generation unit 101 outputs finding information with a set data format to the inference unit 103. The inference unit 103 includes an inference device, infers a diagnosis name for a region included in a medical image based on the finding information output from the input information generation unit 101, and outputs an inference result.

本実施形態では、推論部103は、入力情報生成部101が生成した入力情報を基に、対象とする症例に関する診断名を推論する。第1実施形態においては、肺の異常陰影に関する診断名の推論を例に説明する。推論部103は、医用画像に含まれる肺の異常陰影が、複数の診断名の候補それぞれに該当する確率を推論結果として取得する。そして、推論部103は、取得した推論結果を表示制御部104に出力する。なお、推論部103が、推論手段の一例である。 In this embodiment, the inference unit 103 infers a diagnosis name regarding the target case based on the input information generated by the input information generation unit 101. The first embodiment will be described using an example of inferring a diagnosis regarding an abnormal shadow in the lungs. The inference unit 103 obtains, as an inference result, the probability that an abnormal lung shadow included in a medical image corresponds to each of a plurality of diagnostic name candidates. The inference unit 103 then outputs the obtained inference result to the display control unit 104. Note that the inference unit 103 is an example of inference means.

表示制御部104は、診断支援装置100の各部や症例情報端末200から取得した情報を表示する。具体的には、表示制御部104は、症例情報端末200から医用画像を取得し、取得した情報をユーザが読影可能な形式でモニタ300に表示する。そして、表示制御部104は、モニタ300に表示される医用画像上に異常陰影が存在するとユーザが考える領域の座標情報の入力をユーザに要求するGUIをモニタ300に表示する。この
GUIを介してユーザが入力した情報は、医用画像の付帯情報として症例情報端末200に送信される。また、症例情報端末200は、付帯情報を医用情報とともに診断支援装置100に送信する。また、表示制御部104は、推論部103が出力した推論結果をモニタ300に表示してユーザに提示する。
The display control unit 104 displays information acquired from each unit of the diagnosis support device 100 and the case information terminal 200. Specifically, the display control unit 104 acquires a medical image from the case information terminal 200 and displays the acquired information on the monitor 300 in a format that can be interpreted by the user. Then, the display control unit 104 displays on the monitor 300 a GUI that requests the user to input coordinate information of an area where the user thinks an abnormal shadow exists on the medical image displayed on the monitor 300. Information input by the user via this GUI is transmitted to the case information terminal 200 as supplementary information of the medical image. Further, the case information terminal 200 transmits supplementary information to the diagnosis support device 100 together with the medical information. Furthermore, the display control unit 104 displays the inference result output by the inference unit 103 on the monitor 300 and presents it to the user.

なお、図1に示す診断支援装置100の各部の少なくとも一部を独立した装置として構成してもよい。また、診断支援装置100の各部は、1つ以上のソフトウェアを用いて実現されてもよい。なお、第1実施形態では、図1に示す診断支援装置100の各部は、それぞれCPU111が実行するソフトウェアによって実現されているものとする。 Note that at least a portion of each part of the diagnostic support device 100 shown in FIG. 1 may be configured as an independent device. Further, each part of the diagnostic support device 100 may be realized using one or more pieces of software. In the first embodiment, it is assumed that each part of the diagnostic support apparatus 100 shown in FIG. 1 is realized by software executed by the CPU 111, respectively.

次に、本実施形態において診断支援装置100によって実行される処理について説明する。図3は、診断支援装置100によって実行される処理の一例を示すフローチャートである。第1実施形態では、CPU111がメインメモリ112に格納されている各部の機能を実現するプログラムを実行することにより、図3に示す各処理が実現される。 Next, processing executed by the diagnostic support device 100 in this embodiment will be described. FIG. 3 is a flowchart illustrating an example of processing executed by the diagnostic support device 100. In the first embodiment, each process shown in FIG. 3 is realized by the CPU 111 executing a program stored in the main memory 112 that realizes the functions of each part.

以下の説明では、各所見情報を所見名F(n=1~N)を用いて所見情報Fと表し、各臨床情報を臨床名C(j=1~J)を用いて臨床情報Cと表す。また、全所見情報の集合をF=∪F、全臨床情報の集合をC=∪Cで表す。各所見情報Fは具体的な所見内容を示す所見項目(カテゴリ値)を有する。また、各臨床情報Cは具体的な数値を示す実数値または具体的な臨床内容を示すカテゴリ値を有する。所見情報Fと臨床情報Cがカテゴリ値を有する場合は、それぞれのカテゴリ値をfnk、cjkで表す。この場合、所見情報Fにおけるカテゴリ値の集合をF=∪fnk、臨床情報Cにおけるカテゴリ値の集合をC=∪cjkで表す。なお、kの値は所見情報や臨床情報に応じて決まる。また、臨床情報Cjが実数値を有する場合は、それぞれの実数値をcで表
す。
In the following explanation, each finding information is expressed as finding information F n using a finding name F n (n=1 to N), and each clinical information is expressed as clinical information using a clinical name C j (j=1 to J). It is expressed as C j . Further, the set of all finding information is represented by F=∪F n and the set of all clinical information is represented by C=∪C j . Each finding information Fn has finding items (category values) indicating specific findings. Further, each clinical information Cj has a real value indicating a specific numerical value or a category value indicating specific clinical content. When the finding information F n and the clinical information C J have category values, the respective category values are represented by f nk and c jk . In this case, the set of category values in the finding information F n is expressed as F n =∪f nk , and the set of category values in the clinical information C j is expressed as C j =∪c jk . Note that the value of k is determined according to finding information and clinical information. Furthermore, when the clinical information C j has real numerical values, each real numerical value is represented by c j .

所見情報および/または臨床情報がカテゴリ値を有する場合、各カテゴリ値の確からしさを尤度で示すデータ形式と各カテゴリ値の確からしさをバイナリ値(0又は1:2値)で示すデータ形式のいずれかのデータ形式が採用される。以下の説明では、各カテゴリ値の確からしさを尤度で示すデータ形式を尤度形式と称し、各カテゴリ値の確からしさをバイナリ値で示すデータ形式をバイナリ形式と称する。また、尤度形式であることをL()を用いて表し、バイナリ形式であることをB()を用いて表す。例えば、所見情報Fが有するカテゴリ値の確からしさを尤度形式で表す場合は、L(F)と表され、L(F)={L(fn1),L(fn2),…,L(fnk)}(fnkは各カテゴリ値)が成り立つ。また、所見情報Fが有するカテゴリ値の確からしさをバイナリ形式で表す場合は、B(F)と表され、B(F)={B(fn1),B(fn2),…,B(fnk)}(fnkは各カテゴリ値)が成り立つ。 If the finding information and/or clinical information has categorical values, there are two data formats: one that shows the probability of each category value as a likelihood, and the other that shows the probability of each category value as a binary value (0 or 1:2 value). Either data format is adopted. In the following description, a data format that indicates the probability of each category value using a likelihood is referred to as a likelihood format, and a data format that indicates the probability of each category value using a binary value is referred to as a binary format. Furthermore, the likelihood format is expressed using L(), and the binary format is expressed using B(). For example, when expressing the probability of the category value of finding information F n in a likelihood format, it is expressed as L(F n ), where L(F n )={L(f n1 ), L(f n2 ), ..., L(f nk )} (f nk is each category value) holds true. Furthermore, when the probability of the category value of the finding information F n is expressed in binary format, it is expressed as B(F n ), and B(F n )={B(f n1 ), B(f n2 ),... , B(f nk )} (f nk is each category value) holds true.

図4は、第1実施形態における所見情報と臨床情報におけるカテゴリ値とその確からしさを表す値との対応関係の一例を示す。図4に示すように、所見情報Fの「形状」は、f11「球形」、f12「分葉状」、f13「多角形」、f14「不整形」の4種類のカテゴリ値を有する。また、所見情報Fの「切れ込み」は、f21「強い」、f22「弱い」、f23「なし」の3種類のカテゴリ値を有する。また、臨床情報Cの「発熱」は、c11「あり」、c12「なし」の2種類のカテゴリ値を有する。また、臨床情報Cの「CEA」(腫瘍マーカーの一種)は、連続値である実数値cを有する。 FIG. 4 shows an example of the correspondence between the category values in the finding information and clinical information and the values representing their certainty in the first embodiment. As shown in FIG. 4, the “shape” of the finding information F 1 has four category values: f 11 “spherical”, f 12 “lobulated”, f 13 “polygon”, and f 14 “irregular”. have Further, the “notch” of the finding information F 2 has three types of category values: f 21 “strong”, f 22 “weak”, and f 23 “none”. Furthermore, the clinical information C 1 "fever" has two category values: c 11 "present" and c 12 "absent". Further, "CEA" (a type of tumor marker) of the clinical information CJ has a real value cJ that is a continuous value.

また、以下の説明では入力情報をEで表す。Eはすべての所見情報および臨床情報で構成され、E=F∪Cで表される。図4に例示する所見情報と臨床情報とカテゴリ値を用いる場合、E={f11,f12,f13,f14,f21,…,fN1,fN2,fN3,c11,c12,c21,c22,c31,…,c}が成り立つ。また、入
力情報の要素ごとに、尤度形式とバイナリ形式のいずれのデータ形式も用いることができる。
Furthermore, in the following explanation, input information will be expressed as E f . E f is composed of all finding information and clinical information and is expressed as E f =F∪C. When using the finding information, clinical information, and category values illustrated in FIG. 4, E f ={f 11 , f 12 , f 13 , f 14 , f 21 ,..., f N1 , f N2 , f N3 , c 11 , c 12 , c 21 , c 22 , c 31 , ..., c j } holds true. Moreover, either a likelihood format or a binary format can be used for each element of input information.

さらに、以下の説明では、診断名をDで表す。第1実施形態では、推論部106が肺の異常陰影に関する診断名の推論を行い、推論される診断名は「原発性肺癌」、「癌の肺転移」、「その他」の3つ診断名のいずれかであるとする。以下では、診断名をd(u=1,2,3)で表す。また、dは「原発性肺癌」、dは「癌の肺転移」、dは「その他」である。また、入力情報Eが推論部103に入力された場合に診断名dが推論される確率(以下、推論確率と称する)をP(d|E)で表す。 Furthermore, in the following explanation, the diagnosis name will be represented by D. In the first embodiment, the inference unit 106 infers the diagnosis name regarding the abnormal shadow of the lung, and the inferred diagnosis name is "primary lung cancer", "lung metastasis of cancer", and "other". Suppose that it is either. In the following, the diagnosis name will be expressed as d u (u=1, 2, 3). Furthermore, d1 is "primary lung cancer," d2 is "cancer lung metastasis," and d3 is "others." Further, the probability that the diagnosis name d u is inferred when the input information E f is input to the inference unit 103 (hereinafter referred to as inference probability) is expressed as P(d u |E f ).

以下に、図3のフローチャートの処理について説明する。まず、ステップS3000において、CPU111は、症例情報端末200から医用画像、臨床情報、付帯情報を取得する。本実施形態の例では、付帯情報には異常陰影の座標情報が含まれている。 The processing in the flowchart of FIG. 3 will be described below. First, in step S3000, the CPU 111 acquires medical images, clinical information, and supplementary information from the case information terminal 200. In the example of this embodiment, the additional information includes coordinate information of an abnormal shadow.

次に、ステップS3010において、CPU111は、ステップS3000で取得した医用画像と付帯情報に基づいて、尤度形式の所見情報L(F)={L(F),L(F),…,L(F)}を生成する。さらに、CPU111は、バイナリ形式の所見情報B(F)={B(F),B(F),…,B(F)}を生成する。 Next, in step S3010, the CPU 111 generates likelihood-format finding information L(F)={L(F 1 ), L(F 2 ), . . . based on the medical image and supplementary information acquired in step S3000. L(F N )}. Further, the CPU 111 generates finding information B(F)={B(F 1 ), B(F 2 ), . . . , B(F N )} in binary format.

本実施形態において、診断支援装置100のメインメモリ111には、医用画像から所見情報を導出する導出器が格納されている。導出器は、医用画像に所見情報ごとの分類の正解ラベルが付与された、医用画像のデータ群を用いてCNN(Convolutional Neural Network)により構築される。CNNは機械学習の一例である。導出器は、分類モデルの出力データをソフトマックス関数で処理することにより、分類の尤度を合わせて取得することができる。なお、CPU111は、導出器に入力される医用画像に前処理を施してもよい。例えば、CPU111は、ステップS3000で取得した付帯情報を基に、医用画像からROI(Region Of Interest)やVOI(Volume Of Interest)を切り出した部分画像を生成する前処理を実行してもよい。また、CPU111は、医用画像の特定の領域をマスク処理する前処理や、コントラスト強調等の画像処理を行う前処理を実行してもよい。 In this embodiment, the main memory 111 of the diagnosis support device 100 stores a deriving device that derives finding information from a medical image. The derivator is constructed using a CNN (Convolutional Neural Network) using a data group of medical images in which correct labels for classifying each finding information are given to the medical images. CNN is an example of machine learning. The derivator can obtain the likelihood of classification by processing the output data of the classification model with a softmax function. Note that the CPU 111 may perform preprocessing on the medical image input to the deriving device. For example, the CPU 111 may perform preprocessing to generate a partial image by cutting out a ROI (Region Of Interest) or a VOI (Volume Of Interest) from a medical image based on the supplementary information acquired in step S3000. Further, the CPU 111 may perform preprocessing to mask a specific region of the medical image or perform image processing such as contrast enhancement.

ステップS3010では、CPU111は、導出器から出力される尤度形式の所見情報L(F)を基に、バイナリ形式の所見情報B(F)を生成する。図5は、尤度形式の所見情報L(F)を基にしたバイナリ形式の所見情報B(F)の生成の一例を模式的に示す。また、図10は、所見情報Fにおける尤度形式の所見情報とバイナリ形式の所見情報の関係を示す別の図である。図5、図10に示すように、1つの所見情報におけるカテゴリ値の中で最も高い尤度を持つカテゴリ値が1となり、それ以外のカテゴリ値が0となる。なお、図5、図10に示す以外の方法でバイナリ形式の所見情報を生成してもよい。例えば、各カテゴリ値の尤度を閾値以上か否かを基に0か1かを判断し、1つの所見情報において1を値に取るカテゴリ値が複数存在するようにバイナリ形式の所見情報を生成してもよい。 In step S3010, the CPU 111 generates finding information B(F) in binary format based on finding information L(F) in likelihood format output from the derivation device. FIG. 5 schematically shows an example of generation of finding information B(F) in binary format based on finding information L(F) in likelihood format. Further, FIG. 10 is another diagram showing the relationship between the finding information in the likelihood format and the finding information in the binary format in the finding information Fn . As shown in FIGS. 5 and 10, the category value with the highest likelihood among the category values in one piece of finding information is 1, and the other category values are 0. Note that binary format finding information may be generated using methods other than those shown in FIGS. 5 and 10. For example, the likelihood of each category value is determined as 0 or 1 based on whether it is greater than or equal to a threshold value, and binary format finding information is generated so that there are multiple category values that take the value 1 in one finding information. You may.

次に、ステップS3020において、CPU111は、ステップS3000で取得した臨床情報と、ステップS3010で取得した所見情報とに基づいて入力情報を生成する。CPU111は、所見情報ごとにデータ形式(L(F)またはB(F))を切り替えて入力情報を生成する。CPU111は、図6に示すテーブル600を参照して、所見情報ごとにデータ形式を決定する。図6に示すテーブル600は、所見情報生成部ID、推論部ID、所見情報Fを示す所見名称、各カテゴリ値のデータ形式が対応づいた表である。ここで、所見情報生成部ID(図中「XXXX」は0001~9999)と推論部ID(図中「YYYY」は0001~9999)は、所見情報生成部101と推論部103
の機能を実現するモジュールが作成または更新されるたびに発行される識別情報である。所見情報生成部IDと推論部IDは対応するモジュールに参照可能に保存される。例えば、モジュールのバージョン情報としてモジュールに埋め込まれる。なお、本実施形態において、モジュールはメインメモリ112に格納される。
Next, in step S3020, CPU 111 generates input information based on the clinical information obtained in step S3000 and the finding information obtained in step S3010. The CPU 111 generates input information by switching the data format (L(F n ) or B(F n )) for each finding information. The CPU 111 refers to the table 600 shown in FIG. 6 and determines the data format for each piece of finding information. A table 600 shown in FIG. 6 is a table in which a finding information generation unit ID, an inference unit ID, a finding name indicating finding information Fn , and a data format of each category value are associated with each other. Here, the finding information generation unit ID (“XXXX” in the figure is 0001 to 9999) and the inference unit ID (“YYYY” in the figure is 0001 to 9999) are the finding information generation unit 101 and the inference unit 103.
This is identification information that is issued each time a module that implements the functionality of the module is created or updated. The finding information generation unit ID and the inference unit ID are stored in corresponding modules so that they can be referenced. For example, it is embedded in the module as module version information. Note that in this embodiment, the module is stored in the main memory 112.

図6に示すように、一例として入力情報生成部IDが0004であり、推論部IDが0002である場合、入力情報に使用する所見情報FはF={L(F),B(F),B(F),…,L(F)}となる。ここで、図4からわかるように、所見情報Fは「形状」、所見情報Fは「切れ込み」、所見情報Fは「鋸歯状辺縁」、所見情報Fは「巻(気管支)」である。また、ステップS3000で取得した臨床情報CがC={B(c12),B(c22),…,c}であるとすると、入力情報EはE=F∪Cで表される。 As shown in FIG. 6, as an example, when the input information generation unit ID is 0004 and the inference unit ID is 0002, the finding information F e used for the input information is F e ={L(F 1 ), B( F 2 ), B(F 3 ),..., L(F N )}. Here, as can be seen from FIG. 4, finding information F1 is "shape", finding information F2 is "notch", finding information F3 is "serrated margin", and finding information FN is "volume (bronchus)". ”. Further, if the clinical information C e acquired in step S3000 is C e ={B(c 12 ), B(c 22 ), ..., c J }, the input information E f is E f =F e ∪C Represented by e .

次に、ステップS3030において、CPU111は、ステップS3020で生成した入力情報を基に、診断対象である肺の異常陰影に関する推論を実行する。そして、CPU111は、診断名ごとの推論確率P(d|E)={P(d|E),P(d|E),P(d|E)}を取得する。このとき推論を行う手法としては、ベイジアンネットワーク、サポートベクターマシン、ニューラルネットワーク等を用いた手法が挙げられる。第1実施形態では、一例としてベイジアンネットワークを用いて推論を行うものとする。 Next, in step S3030, the CPU 111 performs inference regarding the abnormal shadow of the lung, which is the diagnosis target, based on the input information generated in step S3020. Then, the CPU 111 obtains inference probabilities P(d|E f )={P(d 1 |E f ), P(d 2 |E f ), P(d 3 |E f )} for each diagnosis name. . Examples of methods for performing inference at this time include methods using Bayesian networks, support vector machines, neural networks, and the like. In the first embodiment, it is assumed that inference is performed using a Bayesian network as an example.

次に、ステップS3040において、CPU111は、ステップS3030で取得した推論結果をモニタ300に表示することでユーザに提示する。ここで、CPU111は、入力情報である所見情報や臨床情報を合わせてモニタ300に表示してもよい。さらに、CPU111は、個々の入力情報の推論結果に対する影響度を回帰分析によって算出し、算出した影響度が閾値以上である入力情報を表示するなど、表示する入力情報を制限してもよい。 Next, in step S3040, the CPU 111 presents the inference result obtained in step S3030 to the user by displaying it on the monitor 300. Here, the CPU 111 may display the input information such as finding information and clinical information on the monitor 300. Furthermore, the CPU 111 may limit the input information to be displayed, such as by calculating the degree of influence of each input information on the inference result by regression analysis, and displaying input information for which the calculated degree of influence is equal to or greater than a threshold value.

図7は、ステップS3040において、モニタ300に表示される推論結果を含む画面の一例である。表示画面700には、ステップS3000で取得される医用画像7000と、ステップS3030で取得される推論結果7010が含まれる。医用画像7000には、異常陰影の部位7020も表示される。また、表示画面700には、患者情報や撮影情報も含まれる。ユーザは、表示画面700に表示される推論結果7010、患者情報、撮影情報等を参照しながら、医用画像7000に対する読影を行う。 FIG. 7 is an example of a screen containing the inference results displayed on the monitor 300 in step S3040. Display screen 700 includes medical image 7000 acquired in step S3000 and inference result 7010 acquired in step S3030. The medical image 7000 also displays an abnormal shadow region 7020. The display screen 700 also includes patient information and imaging information. The user interprets the medical image 7000 while referring to the inference result 7010, patient information, imaging information, etc. displayed on the display screen 700.

第1実施形態に係る診断支援装置100によれば、医用画像の推論に用いられる分類モデルへの入力情報を、所見情報のデータ形式を所見ごとに尤度形式とバイナリ形式とで切り替えて生成することができる。このように生成された入力情報を元に推論を行うことで、すべての所見情報が尤度形式で構成された入力情報やすべての所見情報がバイナリ形式で構成された入力情報を使用する場合に比べて、より好適なデータ形式で所見情報を用いた推論結果が得られる。これにより、より信頼性の高い推論結果をユーザに提示することができる。特に、分類モデルにおいて上記のIDの組み合わせが異なるモジュールを選択的に使用する場合や、複数のモジュールを統合して推論結果を出す場合等、推論に用いられるモジュールが複数存在する場合に効果的である。 According to the diagnosis support device 100 according to the first embodiment, input information to a classification model used for medical image inference is generated by switching the data format of finding information between a likelihood format and a binary format for each finding. be able to. By performing inference based on input information generated in this way, it is possible to use input information in which all finding information is configured in likelihood format or input information in which all finding information is configured in binary format. In comparison, inference results can be obtained using finding information in a more suitable data format. Thereby, more reliable inference results can be presented to the user. This is particularly effective when there are multiple modules used for inference, such as when selectively using modules with different combinations of the above IDs in a classification model, or when integrating multiple modules to produce inference results. be.

(第2実施形態)
次に、第2実施形態について説明する。なお、以下の説明において、第1実施形態と同様の構成については、同一の符号を付して詳細な説明は省略する。第2実施形態では、診断支援装置を用いてテーブル600を作成する。
(Second embodiment)
Next, a second embodiment will be described. In the following description, the same configurations as those in the first embodiment are denoted by the same reference numerals, and detailed description thereof will be omitted. In the second embodiment, a table 600 is created using a diagnostic support device.

図8は、第2実施形態に係る診断支援システム2の機能構成の一例を示す図である。診断支援システム2は、診断支援装置800と症例情報端末200を有する。診断支援装置800は、入力情報生成部101と、所見情報生成部102と、推論部103と、表示制御部104と、試験データ生成部801と、テーブル保存部802とを有する。試験データ生成部801は、推論部103に試験的に入力される入力情報(以下、試験情報と称する)を生成する。テーブル保存部802は、推論部103が試験データ生成部801によって生成された試験情報に基づいて行った推論結果を用いて、テーブル600を更新する。試験データ生成部801が、所見情報の試験データを取得する試験データ取得手段の一例であり、医用画像と診断名の正解ラベルとが対応付けられた正解データを取得する正解データ取得手段の一例である。 FIG. 8 is a diagram showing an example of the functional configuration of the diagnostic support system 2 according to the second embodiment. The diagnosis support system 2 includes a diagnosis support device 800 and a case information terminal 200. The diagnosis support device 800 includes an input information generation section 101 , a finding information generation section 102 , an inference section 103 , a display control section 104 , a test data generation section 801 , and a table storage section 802 . The test data generation unit 801 generates input information (hereinafter referred to as test information) that is input to the inference unit 103 on a trial basis. The table storage unit 802 updates the table 600 using the inference result performed by the inference unit 103 based on the test information generated by the test data generation unit 801. The test data generation unit 801 is an example of a test data acquisition unit that acquires test data of finding information, and is an example of a correct data acquisition unit that acquires correct data in which a medical image and a correct label of a diagnosis name are associated with each other. be.

図9は、診断支援装置800のCPU111が実行する、テーブル600を更新する処理の一例を示すフローチャートである。CPU111は、メインメモリ112、磁気ディスク113に格納されているプログラムを実行することにより、入力情報生成部101、所見情報生成部102、推論部103、表示制御部104、試験データ生成部801、テーブル保存部802として機能する。本実施形態では、診断支援装置800のCPU111は、上記の分類モデルに試験情報を入力し、推論精度が高くなる所見情報ごとのデータ形式の組み合わせを決定してテーブル600を作成する。 FIG. 9 is a flowchart illustrating an example of a process for updating the table 600, which is executed by the CPU 111 of the diagnostic support device 800. The CPU 111 executes programs stored in the main memory 112 and the magnetic disk 113 to generate input information generation section 101, finding information generation section 102, inference section 103, display control section 104, test data generation section 801, and table. It functions as a storage unit 802. In this embodiment, the CPU 111 of the diagnostic support device 800 inputs test information into the classification model described above, determines a combination of data formats for each finding information that increases inference accuracy, and creates the table 600.

ステップS9000において、CPU111は、試験用の正解データセットを取得する。ここで、試験用の正解データセットとは、医用画像に所見情報ごとの正解ラベル(正解の所見項目)と診断結果の正解ラベル(正解の診断名)とが付与されているデータ群である。また、試験用の正解データセットは、診断支援装置800において使用される導出器の分類モデルを構築する際に使用する正解データセットとは異なるデータ群として用意されている。 In step S9000, the CPU 111 acquires a correct answer data set for the test. Here, the correct data set for testing is a data group in which medical images are given correct labels for each finding information (correct finding items) and correct labels for diagnostic results (correct diagnosis names). Further, the correct data set for testing is prepared as a data group different from the correct data set used when constructing the classification model of the derivator used in the diagnostic support device 800.

次に、ステップS9010において、CPU111は、ステップS9000で取得した試験用の正解データセットに含まれる各医用画像に基づいて尤度形式の所見情報L(F)={L(F),L(F),…,L(F)}を生成する。さらに、CPU111は、L(F)に基づいてバイナリ形式の所見情報B(F)={B(F),B(F),…,B(F)}を生成する。CPU111は、各画像に対して生成した各形式の所見情報をメインメモリ112に保存する。なお、バイナリ形式の所見情報が第1の試験データの一例であり、尤度形式の所見情報が第2の試験データの一例である。 Next, in step S9010, the CPU 111 calculates finding information L(F)={L(F 1 ), L( F 2 ), ..., L(F N )}. Furthermore, the CPU 111 generates binary format finding information B(F)={B(F 1 ), B(F 2 ), . . . , B(F N )} based on L(F). The CPU 111 stores each type of finding information generated for each image in the main memory 112. Note that the finding information in binary format is an example of first test data, and the finding information in likelihood format is an example of second test data.

ステップS9020において、CPU111は、ステップS9010で取得した所見情報L(F)およびB(F)を用いて試験用の入力情報を生成する。ここで、試験用の入力情報は、所見情報ごとに尤度形式(L(F))またはバイナリ形式(B(F))(nは1~nの自然数)のいずれかを選択し、すべてのデータ形式の組み合わせを網羅するように生成される。すなわち、所見情報の数がN個である場合、所見情報ごとにL(F)とB(F)の組み合わせが異なる2種類の入力情報が、試験用の正解データセットに含まれる各画像について生成される。CPU111は、各画像に対して生成した入力情報をメインメモリ112に保存する。 In step S9020, the CPU 111 generates test input information using the finding information L(F) and B(F) acquired in step S9010. Here, for the input information for the test, select either the likelihood format (L (F n )) or the binary format (B (F n )) (n is a natural number from 1 to n) for each finding information, Generated to cover all data format combinations. In other words, when the number of finding information is N, each finding information has a different combination of L (F n ) and B (F n ). Generated for images. The CPU 111 stores input information generated for each image in the main memory 112.

次に、ステップS9030において、CPU111は、ステップS9020で生成した試験用の入力情報をメインメモリ112から読み出し、各入力情報を用いて診断対象である肺の異常陰影に関する推論を実行する。そして、CPU111は、試験用の各入力情報に対する診断名(d、d、d)ごとの推論確率を算出する。これにより、試験用の正解データセットに含まれる各画像について、各入力情報と各診断名の推論確率との組(2×3組)が得られる。 Next, in step S9030, the CPU 111 reads the test input information generated in step S9020 from the main memory 112, and uses each input information to perform inference regarding the abnormal shadow of the lung that is the subject of diagnosis. Then, the CPU 111 calculates the inference probability for each diagnosis name (d 1 , d 2 , d 3 ) for each input information for the test. As a result, for each image included in the correct data set for testing, sets (2 N × 3 sets) of each input information and each diagnosis name inference probability are obtained.

次に、ステップS9040において、CPU111は、各入力情報に対して推論の精度を算出する。ここで、推論の精度とは、入力情報のL(F)とB(F)の組み合わせを用いて各画像の推論をしたときの診断名ごとの推論確率のうち最も高い確率となる診断名が正解ラベルの診断名と一致する割合である。より具体的には、入力情報をV(i=1~2)とする。また、入力情報VにおけるL(F)とB(F)(n=1~N)の組み合わせを用いてある画像に対して推論を行ったときの診断名d、d、dの推論確率をP(d|V)、P(d|V)、P(d|V)とする。そして、試験用の正解データセットに含まれるすべての画像にわたって入力情報Vを用いて推論を行ったときに、推論確率P(d|V)、P(d|V)、P(d|V)が最も高い推論確率と正解ラベルの診断名とが一致する割合が推論の精度となる。 Next, in step S9040, the CPU 111 calculates the accuracy of inference for each piece of input information. Here, inference accuracy refers to the diagnosis with the highest probability among the inference probabilities for each diagnosis when inference is made for each image using the combination of input information L (F n ) and B (F n ). This is the rate at which the name matches the diagnosis name in the correct label. More specifically, let the input information be V i (i=1 to 2 N ). Furthermore, the diagnosis names d 1 , d 2 , d when inference is made for a certain image using the combination of L (F n ) and B (F n ) (n=1 to N) in the input information V i Let the inference probabilities of 3 be P(d 1 |V i ), P(d 2 |V i ), and P(d 3 |V i ). Then, when inference is made using input information V i across all images included in the correct answer dataset for testing, inference probabilities P(d 1 |V i ), P(d 2 |V i ), P The accuracy of the inference is the rate at which the inference probability with the highest value (d 3 |V i ) matches the diagnosis name of the correct label.

さらに、CPU111は、推論の精度が最も高い入力情報を特定する。そして、CPU111は、特定した入力情報におけるL(F)とB(F)の組み合わせを、ステップS9010で使用した所見情報生成部104のIDおよびステップS9030で使用した推論部106のIDと対応付けて、テーブル600に保存する。上記の処理により、CPU111は、尤度形式によって構成された試験データとバイナリ形式によって構成された試験データとの間で推論の精度を比較し、推論の精度が高くなるデータ形式を特定することができる。 Furthermore, the CPU 111 identifies input information with the highest inference accuracy. Then, the CPU 111 associates the combination of L (F n ) and B (F n ) in the specified input information with the ID of the finding information generation unit 104 used in step S9010 and the ID of the inference unit 106 used in step S9030. and save it in the table 600. Through the above processing, the CPU 111 can compare the inference accuracy between the test data configured in the likelihood format and the test data configured in the binary format, and identify the data format that provides higher inference accuracy. can.

本実施形態によれば、試験用の正解データセットに含まれる画像を用いて、所見情報生成部104と推論部106との組み合わせにおいて推論の精度が最も高くなる所見情報ごとのデータ形式(尤度形式かバイナリ形式か)を特定することができる。 According to the present embodiment, the data format (likelihood format or binary format).

以上が本件開示の技術に係る実施形態の説明であるが、各実施形態の説明は本件開示の技術を説明する上での例示であり、本件開示の技術は、発明の趣旨を逸脱しない範囲で適宜変更または組み合わせて実施することができる。例えば、上記で説明した診断支援装置100の各手段の少なくとも1つの機能は、症例情報端末200等の診断支援装置100の外部の装置が担ってもよい。例えば、症例情報端末200が、医用画像を取得する取得手段として機能してもよい。また、上記の実施形態において、推論部103は、複数の推論器を多段接続して各診断名の推論を行ってもよい。また、以下に上記の実施形態の変形例について説明する。以下の各変形例も適宜組み合わせて実施されてよい。 The above is a description of the embodiments related to the technology disclosed herein. However, the description of each embodiment is an illustration for explaining the technology disclosed herein, and the technology disclosed herein may be used within the scope of the spirit of the invention. They can be modified or combined as appropriate. For example, at least one function of each means of the diagnosis support apparatus 100 described above may be performed by a device external to the diagnosis support apparatus 100, such as the case information terminal 200. For example, the case information terminal 200 may function as an acquisition means for acquiring medical images. Further, in the above embodiment, the inference unit 103 may perform inference for each diagnosis name by connecting a plurality of inference devices in multiple stages. Further, modifications of the above embodiment will be described below. The following modifications may also be implemented in combination as appropriate.

(第1実施形態の変形例1)
第1実施形態では、ステップS3020において所見情報生成部ID、推論部ID、所見情報に基づいてデータ形式が特定される。これに代えて、所見情報生成部ID、推論部ID、所見情報のいずれか1つまたは2つに基づいてデータ形式が特定されてもよい。例えば所見情報生成部IDと推論部IDのいずれか一方と所見情報に基づいてデータ形式が特定されてもよいし、所見情報生成部IDのみに基づいてデータ形式が特定されてもよい。あるいは、入力画像の画像特徴量等の情報によってさらに細分化された項目ごとにデータ形式が特定されてもよい。
(Modification 1 of the first embodiment)
In the first embodiment, the data format is specified in step S3020 based on the finding information generation unit ID, the reasoning unit ID, and the finding information. Alternatively, the data format may be specified based on any one or two of the finding information generation unit ID, the reasoning unit ID, and the finding information. For example, the data format may be specified based on either the finding information generation unit ID or the inference unit ID and the finding information, or the data format may be specified based only on the finding information generation unit ID. Alternatively, the data format may be specified for each item that is further subdivided based on information such as the image feature amount of the input image.

(第1実施形態の変形例2)
第1実施形態では、ステップS3020においてテーブル600を用いてデータ形式が特定される。これに限らず、テーブル600を用いずにデータ形式が特定されてもよい。例えば、所見情報ごとに異なる導出器を用いて所見が導出されるように構成し、導出器の所見導出精度に基づいて所見情報ごとにデータ形式が切り替えられてもよい。
(Modification 2 of the first embodiment)
In the first embodiment, the data format is specified using the table 600 in step S3020. The data format is not limited to this, and the data format may be specified without using the table 600. For example, the configuration may be such that a finding is derived using a different deriving device for each finding information, and the data format may be switched for each finding information based on the finding derivation accuracy of the deriving device.

(第1実施形態の変形例3)
第1実施形態では、ステップS3010において尤度形式の所見情報とバイナリ形式の所見情報とが生成され、ステップS3020において各形式の所見情報が選択的に使用さ
れた。これに限らず、ステップS3010では尤度形式の所見情報が生成され、ステップS3020において必要に応じてバイナリ形式の所見情報に変換されてもよい。
(Variation 3 of the first embodiment)
In the first embodiment, likelihood format finding information and binary format finding information are generated in step S3010, and each format of finding information is selectively used in step S3020. The present invention is not limited to this, and finding information in a likelihood format may be generated in step S3010, and may be converted to finding information in a binary format as necessary in step S3020.

(第2実施形態の変形例1)
第2実施形態では、ステップS9020において、所見情報生成部104の出力を基に試験用の入力情報が生成される。これに限らず、試験用の正解データセットに含まれる正解ラベルを基に試験用の入力情報が生成されてもよい。試験用の正解データセットに含まれる正解ラベルを用いる場合、所見情報のデータ形式は必然的にバイナリ形式となるため、尤度形式の入力情報に変換される場合は、人為的に生成された尤度が用いられる。また、試験用の正解データセットに含まれる正解ラベルを用いる場合は、入力情報の一部に人為的に誤りを発生させる。また、誤りの発生がそれぞれ異なるように数千パターンのデータセットが生成され、生成されたデータセットを用いて上記の処理が実行されることで、統計的に推論精度が最も高くなる所見情報ごとのデータ形式が特定されてもよい。
(Modification 1 of the second embodiment)
In the second embodiment, test input information is generated in step S9020 based on the output of the finding information generation unit 104. The present invention is not limited to this, and the input information for the test may be generated based on the correct label included in the correct answer data set for the test. When using the correct answer labels included in the correct answer data set for testing, the data format of the finding information is necessarily in binary format, so when converting to input information in likelihood format, artificially generated likelihoods are used. degree is used. Moreover, when using the correct answer label included in the correct answer data set for the test, an error is artificially generated in a part of the input information. In addition, thousands of data sets are generated with different occurrences of errors, and the above processing is performed using the generated data sets, so that each finding information has the highest statistical inference accuracy. The data format may be specified.

(その他の実施形態)
本発明は、上記の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(たとえば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more functions of the above embodiments via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, an ASIC) that realizes one or more functions.

上記の各実施形態における情報処理装置は、単体の装置として実現してもよいし、複数の装置を互いに通信可能に組合せて上記の処理を実行する形態としてもよく、いずれも本件開示の技術の実施形態に含まれる。共通のサーバ装置あるいはサーバ群で、上記の処理を実行することとしてもよい。情報処理装置および情報処理システムを構成する複数の装置は所定の通信レートで通信可能であればよく、また同一の施設内あるいは同一の国に存在することを要しない。 The information processing device in each of the above embodiments may be realized as a single device, or may be a form in which a plurality of devices are combined so as to be able to communicate with each other to execute the above processing, and in either case, the technology of the present disclosure is applicable. Included in the embodiment. The above processing may be executed by a common server device or a group of servers. The plurality of devices constituting the information processing device and the information processing system only need to be able to communicate at a predetermined communication rate, and do not need to be located in the same facility or in the same country.

上記の実施形態には、各実施形態の機能を実現するソフトウェアのプログラムを、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムのコードを読み出して実行するという形態を含む。したがって、実施形態に係る処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本件開示の技術に係る実施形態の1つである。また、コンピュータが読み出したプログラムに含まれる指示に基づき、コンピュータで稼働しているOS等が、実際の処理の一部又は全部を行い、その処理によっても各実施形態の機能が実現され得る。 The above embodiments include a form in which a software program that implements the functions of each embodiment is supplied to a system or device, and a computer of the system or device reads and executes the code of the supplied program. . Therefore, the program code itself that is installed on a computer in order to implement the processing according to the embodiment on the computer is also one of the embodiments according to the technology of the present disclosure. Furthermore, the OS or the like running on the computer performs part or all of the actual processing based on instructions included in the program read by the computer, and the functions of each embodiment can also be realized by this processing.

100・・・診断支援装置、101・・・入力情報生成部、102・・・所見情報生成部、103・・・推論部、111・・・CPU 100... Diagnosis support device, 101... Input information generation unit, 102... Finding information generation unit, 103... Inference unit, 111... CPU

Claims (14)

医用画像を取得する取得手段と、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出する所見導出手段と、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段と、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行う推論手段と、
を有することを特徴とする診断支援装置。
an acquisition means for acquiring a medical image;
Findings deriving means for deriving finding information from the acquired medical images using a classification model created by machine learning using medical images;
a setting means for setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
an inference means for inferring the acquired medical image based on the set finding information;
A diagnostic support device comprising:
前記所見導出手段は、前記取得された医用画像から複数の所見情報を導出し、
前記設定手段は、前記複数の所見情報ごとに、所見項目の確からしさを表す値のデータ形式を、前記第1のデータ形式または前記第2のデータ形式のいずれかのデータ形式に設定する、
ことを特徴とする請求項1に記載の診断支援装置。
The finding deriving means derives a plurality of finding information from the acquired medical image,
The setting means sets, for each of the plurality of finding information, a data format of a value representing the certainty of a finding item to either the first data format or the second data format.
The diagnostic support device according to claim 1, characterized in that:
前記所見導出手段は、所見情報ごとに異なる分類モデルを用いて、前記取得された医用画像から前記複数の所見情報を導出する、請求項2に記載の診断支援装置。 The diagnosis support device according to claim 2, wherein the finding deriving means derives the plurality of finding information from the acquired medical image using a different classification model for each finding information. 前記第1のデータ形式は、前記所見項目の確からしさを表す値をバイナリ値で表すデータ形式であり、前記第2のデータ形式は、前記所見項目の確からしさを表す値を尤度で表すデータ形式である、ことを特徴とする請求項1から3のいずれか一項に記載の診断支援装置。 The first data format is a data format that represents a value representing the certainty of the finding item as a binary value, and the second data format is a data format that represents a value representing the certainty of the finding item as a likelihood. The diagnostic support device according to any one of claims 1 to 3, wherein the diagnostic support device is of the form: 前記所見導出手段は、前記所見情報における前記所見項目の確からしさを表す値のデータ形式に前記第2のデータ形式を用いて前記所見情報を導出し、
前記設定手段は、前記導出された所見情報における前記所見項目の確からしさを表す値のデータ形式を前記第1のデータ形式に設定するか、または、前記第2のデータ形式のままとする、
ことを特徴とする請求項1から4のいずれか一項に記載の診断支援装置。
The finding deriving means derives the finding information using the second data format as a data format of a value representing the certainty of the finding item in the finding information,
The setting means sets a data format of a value representing the certainty of the finding item in the derived finding information to the first data format, or leaves it as the second data format.
The diagnostic support device according to any one of claims 1 to 4.
前記設定手段は、前記所見導出手段を識別する情報と前記推論手段を識別する情報の少なくともいずれか一方に基づいて、前記所見情報における前記所見項目の確からしさを表す値のデータ形式を前記第1のデータ形式または前記第2のデータ形式に設定する、ことを特徴とする請求項1から5のいずれか一項に記載の診断支援装置。 The setting means sets the data format of the value representing the certainty of the finding item in the finding information to the first data format based on at least one of information identifying the finding deriving means and information identifying the inferring means. The diagnostic support device according to any one of claims 1 to 5, wherein the data format is set to the data format or the second data format. 前記推論手段は、前記設定された所見情報に基づいて、前記取得された医用画像に含まれる部位に関する診断名を推論する、ことを特徴とする請求項1から6のいずれか一項に記載の診断支援装置。 7. The inference means infers a diagnosis name regarding a site included in the acquired medical image based on the set finding information. Diagnostic support equipment. 前記推論手段は、複数の診断名について診断名ごとに推論される確率を算出し、算出した確率に基づいて、前記取得された医用画像に含まれる部位に関する診断名を推論する、ことを特徴とする請求項7に記載の診断支援装置。 The inference means is characterized in that it calculates the inference probability for each diagnosis name among a plurality of diagnoses, and infers the diagnosis name regarding the part included in the acquired medical image based on the calculated probability. The diagnostic support device according to claim 7. 所見情報の所見項目の確からしさを表す値が前記第1のデータ形式によって構成された第1の試験データと、前記所見情報の前記所見項目の確からしさを表す値が前記第2のデータ形式によって構成された第2の試験データと、を取得する試験データ取得手段をさらに有し、
前記設定手段は、前記推論手段が前記第1の試験データを用いて試験用の医用画像に対して推論を行った場合の推論結果と、前記推論手段が前記第2の試験データを用いて前記試験用の医用画像に対して推論を行った場合の推論結果との比較に基づいて、前記所見情報ごとに前記第1のデータ形式または前記第2のデータ形式を特定する、
ことを特徴とする請求項1から8のいずれか一項に記載の診断支援装置。
first test data in which a value representing the certainty of a finding item of the finding information is configured in the first data format; and a value representing the certainty of the finding item in the finding information is configured in the second data format. further comprising test data acquisition means for acquiring the configured second test data;
The setting means includes an inference result obtained when the inference means performs inference on the test medical image using the first test data, and an inference result obtained when the inference means performs inference on the test medical image using the second test data. identifying the first data format or the second data format for each of the finding information based on a comparison with an inference result when inference is performed on a test medical image;
The diagnostic support device according to any one of claims 1 to 8.
医用画像と診断名の正解ラベルとが対応付けられた正解データを取得する正解データ取得手段をさらに有し、
前記試験データ取得手段は、前記取得した正解データに基づいて、前記第1の試験データおよび前記第2の試験データを生成する、
ことを特徴とする請求項9に記載の診断支援装置。
further comprising correct data acquisition means for obtaining correct data in which the medical image and the correct label of the diagnosis name are associated with each other;
The test data acquisition means generates the first test data and the second test data based on the acquired correct answer data.
The diagnostic support device according to claim 9, characterized in that:
前記試験データ取得手段は、前記取得した正解データに含まれる所見項目の確からしさを表す値に誤りを発生させて、前記第1の試験データおよび前記第2の試験データを生成する、ことを特徴とする請求項10に記載の診断支援装置。 The test data acquisition means generates the first test data and the second test data by generating an error in a value representing the certainty of the finding item included in the acquired correct answer data. The diagnostic support device according to claim 10. 医用画像を取得する取得手段と、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出する所見導出手段と、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定する設定手段と、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行う推論手段と、
を有することを特徴とする診断支援システム。
an acquisition means for acquiring a medical image;
Findings deriving means for deriving finding information from the acquired medical images using a classification model created by machine learning using medical images;
a setting means for setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
an inference means for inferring the acquired medical image based on the set finding information;
A diagnostic support system comprising:
医用画像を取得するステップと、
医用画像を用いた機械学習により作成された分類モデルを用いて、前記取得された医用画像から所見情報を導出するステップと、
前記導出された所見情報における所見項目の確からしさを表す値のデータ形式を、第1のデータ形式と第2のデータ形式のいずれかのデータ形式に設定するステップと、
前記設定された所見情報に基づいて、前記取得された医用画像に対する推論を行うステ
ップと
を有することを特徴とするプロセッサにより実行される診断支援方法。
acquiring a medical image;
Deriving finding information from the acquired medical image using a classification model created by machine learning using the medical image;
setting a data format of a value representing the certainty of a finding item in the derived finding information to either a first data format or a second data format;
A diagnosis support method executed by a processor , comprising the step of making an inference regarding the acquired medical image based on the set finding information.
コンピュータに請求項13に記載の診断支援方法を実行させる、プログラム。
A program that causes a computer to execute the diagnosis support method according to claim 13.
JP2019167109A 2019-09-13 2019-09-13 Diagnosis support device, diagnosis support system, diagnosis support method and program Active JP7408324B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019167109A JP7408324B2 (en) 2019-09-13 2019-09-13 Diagnosis support device, diagnosis support system, diagnosis support method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167109A JP7408324B2 (en) 2019-09-13 2019-09-13 Diagnosis support device, diagnosis support system, diagnosis support method and program

Publications (2)

Publication Number Publication Date
JP2021043857A JP2021043857A (en) 2021-03-18
JP7408324B2 true JP7408324B2 (en) 2024-01-05

Family

ID=74862364

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167109A Active JP7408324B2 (en) 2019-09-13 2019-09-13 Diagnosis support device, diagnosis support system, diagnosis support method and program

Country Status (1)

Country Link
JP (1) JP7408324B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3821225B2 (en) 2002-07-17 2006-09-13 日本電気株式会社 Autoregressive model learning device for time series data and outlier and change point detection device using the same
JP2019074868A (en) 2017-10-13 2019-05-16 キヤノン株式会社 Diagnosis support device, information processing method, diagnosis support system and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3821225B2 (en) 2002-07-17 2006-09-13 日本電気株式会社 Autoregressive model learning device for time series data and outlier and change point detection device using the same
JP2019074868A (en) 2017-10-13 2019-05-16 キヤノン株式会社 Diagnosis support device, information processing method, diagnosis support system and program

Also Published As

Publication number Publication date
JP2021043857A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
US11288550B2 (en) Data processing apparatus and method, recognition apparatus, learning data storage apparatus, machine learning apparatus, and program
US10896753B2 (en) Lung screening assessment system
US10878948B2 (en) Mid-protocol evaluation system
JP7051849B2 (en) Methods for deep learning medical systems and medical procedures
JP2020500377A (en) Deep learning medical system and method for image acquisition
CN111563523B (en) COPD classification using machine-trained anomaly detection
JP7224757B2 (en) Diagnosis support device, information processing method, diagnosis support system and program
JP6818424B2 (en) Diagnostic support device, information processing method, diagnostic support system and program
JP6016406B2 (en) Medical diagnosis support apparatus, medical diagnosis support method, and input support system
US12027267B2 (en) Information processing apparatus, information processing system, information processing method, and non-transitory computer-readable storage medium for computer-aided diagnosis
JP2013511762A (en) Protocol Guide Imaging Procedure
JP7007469B2 (en) Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs
JP7408324B2 (en) Diagnosis support device, diagnosis support system, diagnosis support method and program
EP4379672A1 (en) Methods and systems for classifying a medical image dataset
JP7368592B2 (en) Document creation support device, method and program
WO2023054646A1 (en) Information processing device, information processing method, and information processing program
CN116596828A (en) Recording medium, dynamic analysis system, and dynamic analysis device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230905

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R151 Written notification of patent or utility model registration

Ref document number: 7408324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151