JP2022142832A - Image processing device, program, and method - Google Patents

Image processing device, program, and method Download PDF

Info

Publication number
JP2022142832A
JP2022142832A JP2021043053A JP2021043053A JP2022142832A JP 2022142832 A JP2022142832 A JP 2022142832A JP 2021043053 A JP2021043053 A JP 2021043053A JP 2021043053 A JP2021043053 A JP 2021043053A JP 2022142832 A JP2022142832 A JP 2022142832A
Authority
JP
Japan
Prior art keywords
organ
image data
virtual patient
patient model
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021043053A
Other languages
Japanese (ja)
Inventor
恭子 渡部
Kyoko Watabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2021043053A priority Critical patent/JP2022142832A/en
Publication of JP2022142832A publication Critical patent/JP2022142832A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

To shorten a processing time.SOLUTION: An image processing device of the present invention includes an inference unit and a learning unit. The inference unit sets a seed point for image data using a virtual patient model, and executes inference using the set seed point. The learning unit causes the virtual patient model to learn by correcting the center of gravity of a region of an organ included in the virtual patient model on the basis of the center of gravity of a region of the organ acquired from the result of the inference by the inference unit.SELECTED DRAWING: Figure 1

Description

本明細書及び図面に開示の実施形態は、画像処理装置、プログラム及び方法に関する。 The embodiments disclosed in the specification and drawings relate to image processing apparatuses, programs, and methods.

医療分野でもAI(Artificial Intelligence)の活用が検討されつつあるか又は実施されつつある。例えば、セグメンテーション(Segmentation)、ディテクション(Detection)及びクラシフィケーション(Classification)等の各種の推論を行うために、数千又は数万単位で学習用データの作成も行われている。既存ツールで教師データを作成する場合は、手動で領域を指定するため、処理時間がかかる。また、学習済みモデルを用いて画像データ全体からセグメンテーション処理を実行する場合も処理時間がかかる。既存のセグメンテーション処理の精度は、年々向上している。しかしながら、画像データ内の全ての対象物を同時にかつ自動でセグメンテーションする方法は存在しない。 Utilization of AI (Artificial Intelligence) is being considered or being implemented in the medical field as well. For example, in order to perform various inferences such as segmentation, detection, and classification, thousands or tens of thousands of units of learning data are created. When creating training data with an existing tool, processing time is required because the area is specified manually. Also, it takes a long time to segment the entire image data using a trained model. The accuracy of existing segmentation processes is improving year by year. However, there is no way to simultaneously and automatically segment all objects in the image data.

特表2016-513328号公報Japanese Patent Publication No. 2016-513328 特開2015-208385号公報JP 2015-208385 A

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、処理時間を短縮することである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置付けることもできる。 One of the problems to be solved by the embodiments disclosed in this specification and drawings is to shorten the processing time. However, the problems to be solved by the embodiments disclosed in this specification and drawings are not limited to the above problems. A problem corresponding to each effect of each configuration shown in the embodiments described later can be positioned as another problem.

実施形態の画像処理装置は、推論部と、学習部とを備える。推論部は、仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行う。学習部は、前記仮想患者モデルに含まれる臓器の領域の重心位置を前記推論部による推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる。 An image processing apparatus according to an embodiment includes an inference unit and a learning unit. The inference unit sets seed points for the image data using the virtual patient model, and performs inference using the set seed points. The learning unit causes the virtual patient model to learn by correcting the barycentric position of the organ region included in the virtual patient model based on the barycentric position of the organ region obtained from the inference result of the inference unit.

図1は、実施形態に係る医用処理システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a medical processing system according to an embodiment. 図2は、実施形態に係る医用画像診断装置が送信するデータの一例を説明するための図である。FIG. 2 is a diagram for explaining an example of data transmitted by the medical image diagnostic apparatus according to the embodiment; 図3は、実施形態に係るアトラス情報モデルの一例を示す図である。FIG. 3 is a diagram illustrating an example of an atlas information model according to the embodiment; 図4は、実施形態に係るアトラス情報モデルの一例を示す図である。FIG. 4 is a diagram illustrating an example of an atlas information model according to the embodiment; 図5は、実施形態に係る画像処理装置が実行するセグメンテーション処理の流れの一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of the flow of segmentation processing executed by the image processing apparatus according to the embodiment; 図6は、実施形態に係るリストの一例を説明するための図である。FIG. 6 is a diagram for explaining an example of a list according to the embodiment; 図7は、実施形態に係る表示制御機能が実行する処理の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of processing executed by a display control function according to the embodiment; 図8は、実施形態に係る学習済みモデル生成機能が実行する処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of processing executed by a learned model generation function according to the embodiment; 図9は、実施形態に係る学習済みモデル生成機能が実行する処理の一例を説明するための図である。FIG. 9 is a diagram for explaining an example of processing executed by a learned model generation function according to the embodiment;

以下、図面を参照しながら、画像処理装置、プログラム及び方法の実施形態を詳細に説明する。なお、本願に係る画像処理装置、プログラム及び方法は、以下に示す実施形態によって限定されるものではない。 Hereinafter, embodiments of an image processing apparatus, a program, and a method will be described in detail with reference to the drawings. Note that the image processing apparatus, program, and method according to the present application are not limited to the embodiments described below.

(実施形態)
図1は、実施形態に係る医用処理システム1の構成の一例を示す図である。図1に示すように、医用処理システム1は、医用画像診断装置110と、端末装置120と、画像処理装置130とを備える。ここで、医用画像診断装置110と、端末装置120と、画像処理装置130とは、ネットワーク200を介して通信可能に接続されている。
(embodiment)
FIG. 1 is a diagram showing an example of the configuration of a medical processing system 1 according to an embodiment. As shown in FIG. 1, the medical processing system 1 includes a medical image diagnostic device 110, a terminal device 120, and an image processing device . Here, the medical image diagnostic apparatus 110, the terminal device 120, and the image processing device 130 are connected via a network 200 so as to be communicable.

医用画像診断装置110は、被検体を撮像又は撮影することにより、医用画像を示す医用画像データを生成する。例えば、医用画像診断装置110は、X線CT(Computed Tomography)装置、超音波診断装置、磁気共鳴イメージング(Magnetic Resonance Imaging:MRI)装置、X線診断装置、PET(Positron Emission Tomography)装置、SPECT(Single Photon Emission Computed Tomography)装置等である。 The medical image diagnostic apparatus 110 generates medical image data representing a medical image by imaging or photographing a subject. For example, the medical image diagnostic apparatus 110 includes an X-ray CT (Computed Tomography) apparatus, an ultrasonic diagnostic apparatus, a Magnetic Resonance Imaging (MRI) apparatus, an X-ray diagnostic apparatus, a PET (Positron Emission Tomography) apparatus, SPECT ( Single Photon Emission Computed Tomography) equipment, etc.

医用画像診断装置110は、医用画像データとして、CT画像を示すCT画像データ、超音波画像を示す超音波画像データ、MRI画像を示すMRI画像データ、X線画像を示すX線画像データ、PET画像を示すPET画像データ、SPECT画像を示すSPECT画像データ等を生成する。 The medical image diagnostic apparatus 110 uses, as medical image data, CT image data representing a CT image, ultrasound image data representing an ultrasound image, MRI image data representing an MRI image, X-ray image data representing an X-ray image, and a PET image. , SPECT image data indicating a SPECT image, and the like are generated.

CT画像、超音波画像、MRI画像、X線画像、アンギオ画像、PET画像及びSPECT画像は、医用画像の一例である。また、CT画像データ、超音波画像データ、MRI画像データ、X線画像データ、アンギオ画像データ、PET画像データ及びSPECT画像データは、医用画像データの一例である。また、医用画像は、画像の一例であり、医用画像データは、画像データの一例である。 CT images, ultrasound images, MRI images, X-ray images, angio images, PET images and SPECT images are examples of medical images. CT image data, ultrasound image data, MRI image data, X-ray image data, angio image data, PET image data, and SPECT image data are examples of medical image data. A medical image is an example of an image, and medical image data is an example of image data.

そして、医用画像診断装置110は、各種のデータを画像処理装置130に送信する。図2は、実施形態に係る医用画像診断装置110が送信するデータの一例を説明するための図である。例えば、医用画像診断装置110は、医用画像データ11を画像処理装置130へ送信する。これにより、画像処理装置130は、医用画像データ11に対して各種の処理を実行する。 The medical image diagnostic apparatus 110 then transmits various data to the image processing apparatus 130 . FIG. 2 is a diagram for explaining an example of data transmitted by the medical image diagnostic apparatus 110 according to the embodiment. For example, the medical image diagnostic apparatus 110 transmits medical image data 11 to the image processing apparatus 130 . Accordingly, the image processing apparatus 130 performs various processes on the medical image data 11 .

図1の説明に戻る。端末装置120は、病院内に勤務する医師や検査技師等のユーザに画像を閲覧させるための装置である。例えば、端末装置120は、ユーザにより操作されるパーソナルコンピュータ(PC:Personal Computer)、タブレット式PC、PDA(Personal Digital Assistant)、スマートフォン又は携帯電話等によって実現される。例えば、端末装置120は、医用画像診断装置110又は画像処理装置130から送信された各種の画像データを受信する。そして、端末装置120は、受信した画像データに基づく画像(画像データにより示される画像)を端末装置120が備えるディスプレイに表示させる。また、端末装置120は、入力インターフェースを備え、入力インターフェースを介して画像に対する各種操作を受け付ける。 Returning to the description of FIG. The terminal device 120 is a device for allowing users such as doctors and laboratory technicians working in a hospital to view images. For example, the terminal device 120 is implemented by a user-operated personal computer (PC), tablet PC, PDA (Personal Digital Assistant), smart phone, mobile phone, or the like. For example, the terminal device 120 receives various image data transmitted from the medical image diagnostic device 110 or the image processing device 130 . Then, the terminal device 120 causes a display provided in the terminal device 120 to display an image based on the received image data (an image indicated by the image data). The terminal device 120 also includes an input interface, and receives various operations on images via the input interface.

画像処理装置130は、医用画像診断装置110から各種のデータを取得し、取得したデータを用いて各種の処理を実行する。例えば、画像処理装置130は、サーバ、ワークステーション、パーソナルコンピュータ、タブレット端末等のコンピュータ機器によって実現される。 The image processing apparatus 130 acquires various data from the medical image diagnostic apparatus 110 and performs various processes using the acquired data. For example, the image processing device 130 is implemented by computer equipment such as a server, workstation, personal computer, tablet terminal, or the like.

画像処理装置130は、通信インターフェース131と、メモリ132と、入力インターフェース133と、ディスプレイ134と、処理回路135とを備える。 The image processing device 130 includes a communication interface 131 , a memory 132 , an input interface 133 , a display 134 and a processing circuit 135 .

通信インターフェース131は、処理回路135に接続されており、画像処理装置130と医用画像診断装置110との間で行われる通信、及び、画像処理装置130と端末装置120との間で行われる通信を制御する。具体例を挙げて説明すると、通信インターフェース131は、医用画像診断装置110により送信された医用画像データ11を受信し、受信した医用画像データ11を処理回路135に送信する。例えば、通信インターフェース131は、ネットワークカード、ネットワークアダプタ又はNIC(Network Interface Controller)等によって実現される。 The communication interface 131 is connected to the processing circuit 135 and controls communication between the image processing apparatus 130 and the medical image diagnostic apparatus 110 and communication between the image processing apparatus 130 and the terminal device 120. Control. Specifically, the communication interface 131 receives the medical image data 11 transmitted by the medical image diagnostic apparatus 110 and transmits the received medical image data 11 to the processing circuit 135 . For example, the communication interface 131 is implemented by a network card, network adapter, NIC (Network Interface Controller), or the like.

メモリ132は、処理回路135に接続されており、各種のデータや情報を記憶する。例えば、メモリ132は、医用画像診断装置110により送信された医用画像データ11を記憶する。 The memory 132 is connected to the processing circuitry 135 and stores various data and information. For example, the memory 132 stores the medical image data 11 transmitted by the medical image diagnostic apparatus 110 .

また、メモリ132は、アトラス情報モデル(アトラス情報)132aを記憶する。アトラス情報モデル132aは、仮想患者モデルの一例である。図3及び図4は、実施形態に係るアトラス情報モデル132aの一例を示す図である。 The memory 132 also stores an atlas information model (atlas information) 132a. Atlas information model 132a is an example of a virtual patient model. 3 and 4 are diagrams showing an example of the atlas information model 132a according to the embodiment.

アトラス情報モデル132aは、被検体の各臓器の領域の重心位置、隣接する2つの臓器間の位置関係(距離及び方向)、各臓器のボリュームサイズを含む数値モデル情報である。例えば、図3に示すように、アトラス情報モデル132aは、各臓器に対応する各ノードと、隣接する2つの臓器(2つのノード)を結ぶブランチ(線分)を含む。隣接するノードがブランチで接続されることで、臓器の配置が管理される。図3の例では、アトラス情報モデル132aは、肺(Lungs)、心臓(Heart)、肝臓(Liver)、胆嚢(Gallbladder)、小腸(Small Intestine)、大腸(Large Intestine)、胃(Stomach)、脾臓(Spleen)、膵臓(Pancreas)、腎臓(Kidneys)、膀胱(Bladder)及び子宮(Uterus)の各臓器に対応する複数のノード(Node1~Node12)のそれぞれを含む。例えば、肺はNode1に対応し、心臓はNode2に対応し、肝臓はNode3に対応する。 The atlas information model 132a is numerical model information including the barycentric position of each organ region of the subject, the positional relationship (distance and direction) between two adjacent organs, and the volume size of each organ. For example, as shown in FIG. 3, the atlas information model 132a includes each node corresponding to each organ and a branch (line segment) connecting two adjacent organs (two nodes). The arrangement of organs is managed by connecting adjacent nodes with branches. In the example of FIG. 3, the atlas information model 132a includes lungs (Lungs), heart (Heart), liver (Liver), gallbladder (Gallbladder), small intestine (Small Intestine), large intestine (Large Intestine), stomach (Stomach), spleen It includes a plurality of nodes (Node1 to Node12) corresponding to each organ of Spleen, Pancreas, Kidneys, Bladder and Uterus. For example, the lung corresponds to Node1, the heart to Node2, and the liver to Node3.

また、各ノードには、各ノードに対応する臓器の名称がラベルとして付与される。例えば、Node1にはラベルLungsが付与され、Node2にはラベルHeartが付与され、Node3にはラベルLiverが付与されている。他のノードについても同様である。 Also, each node is labeled with the name of the organ corresponding to each node. For example, Node1 is given the label Lungs, Node2 is given the label Heart, and Node3 is given the label Liver. The same is true for other nodes.

図3の例では、Node2は、Node1に隣接するとともにNode3に隣接する。そのため、Node2とNode1とがブランチで接続されているとともに、Node2とNode3とがブランチで接続されている。 In the example of FIG. 3, Node2 is adjacent to Node1 and is adjacent to Node3. Therefore, Node2 and Node1 are connected by a branch, and Node2 and Node3 are connected by a branch.

また、各ノードは、臓器内の区分毎に細分化されてもよい。例えば、図3の例では、心臓が更に左心房132a_1、左心室132a_2、右心房132a_3及び右心室132a_4の区分ごとに細分化されている。この場合、細分化モデルとして、左心房132a_1がNode2-1に対応し、左心室132a_2がNode2-2に対応し、右心房132a_3がNode2-3に対応し、右心室132a_4がNode2-4に対応する。 Also, each node may be subdivided for each section within the organ. For example, in the example of FIG. 3, the heart is further subdivided into left atrium 132a_1, left ventricle 132a_2, right atrium 132a_3, and right ventricle 132a_4 segments. In this case, as a subdivision model, the left atrium 132a_1 corresponds to Node2-1, the left ventricle 132a_2 corresponds to Node2-2, the right atrium 132a_3 corresponds to Node2-3, and the right ventricle 132a_4 corresponds to Node2-4. do.

アトラス情報モデル132aは、ノード毎に、臓器の領域の重心位置、隣接する2つの臓器間の位置関係(距離及び方向)、臓器のボリュームサイズを含む。例えば、図4には、アトラス情報モデル132aに含まれる全ノードに関する情報のうち、Node2に関する情報が示されている。以下、Node2に関する情報の一例について説明するが、他のノードに関する情報もNode2に関する情報と同様である。 The atlas information model 132a includes, for each node, the centroid position of the region of the organ, the positional relationship (distance and direction) between two adjacent organs, and the volume size of the organ. For example, FIG. 4 shows information about Node2 among information about all nodes included in the atlas information model 132a. An example of the information about Node2 will be described below, but the information about other nodes is the same as the information about Node2.

図4に示すように、Node2に関する情報は、「Label(ラベル)」、「細分化モデル」、「隣接Node」、「重心位置」、「位置関係情報」及び「ボリュームサイズ」の各項目を有する。「Label(ラベル)」の項目には、Node2に付与されたラベルHeartが登録されている。また、「細分化モデル」の項目には、心臓の区分毎に細分化されたモデル(細分化モデル)であるNode2-1~2-4が登録されている。また、「隣接Node」の項目には、Node2に隣接するノードであるNode1及びNode3が登録されている。 As shown in FIG. 4, the information about Node2 has items of "Label", "Subdivided Model", "Adjacent Node", "Center of Gravity Position", "Positional Relationship Information", and "Volume Size". . The label "Heart" assigned to Node2 is registered in the item "Label". In addition, Node2-1 to Node2-4, which are models (subdivided models) subdivided for each segment of the heart, are registered in the item of "subdivided model". In addition, Node1 and Node3, which are nodes adjacent to Node2, are registered in the item "Adjacent Node".

また、「重心位置」の項目には、心臓の3次元の重心位置(x1,y1,z1)が登録されている。なお、臓器が複数の領域に分かれる場合には、領域毎に重心位置が登録されてもよい。例えば、肺や腎臓は、2つの領域に分かれる。このため、肺や腎臓では、2つの領域のそれぞれの重心位置が登録されてもよい。 In addition, the three-dimensional center-of-gravity position (x1, y1, z1) of the heart is registered in the item "center-of-gravity position". Note that if the organ is divided into a plurality of regions, the center-of-gravity position may be registered for each region. For example, lungs and kidneys are divided into two regions. Therefore, in lungs and kidneys, the center-of-gravity positions of the two regions may be registered.

また、「位置関係情報」の項目には、Node2を基準とした場合のNode2に隣接するNode1やNode3の相対的な位置関係を示す情報である位置関係情報が登録されている。具体例を挙げて説明すると、「位置関係情報」の項目には、Node2に隣接するNode1やNode3がNode2を基準としてどの方向に、Node2からどれだけ離れた距離に存在し得るかを示す位置関係情報が登録されている。例えば、「位置関係情報」の項目には、Node2を基準としてNode1が存在しうる方向の範囲、及び、Node2を基準としてNode1が存在し得る距離の範囲を示す位置関係情報1が登録されている。Node2を基準としてNode1が存在し得る距離の範囲は、例えば、Node2からNode1までの距離であって、Node1が存在し得る距離の範囲である。また、「位置関係情報」の項目には、Node2を基準としてNode3が存在しうる方向の範囲、及び、Node2を基準としてNode3が存在し得る距離の範囲を示す位置関係情報2が登録されている。Node2を基準としてNode3が存在し得る距離の範囲は、例えば、Node2からNode3までの距離であって、Node3が存在し得る距離の範囲である。また、「ボリュームサイズ」の項目には、心臓のボリュームサイズVが登録されている。 Further, in the item of "positional relationship information", positional relationship information, which is information indicating the relative positional relationship of Node1 and Node3 adjacent to Node2 with respect to Node2, is registered. To explain with a specific example, in the item of "positional relation information", there is a positional relation indicating in which direction and how far away from Node2 Node1 and Node3, which are adjacent to Node2, can exist with respect to Node2. Information is registered. For example, in the "positional relationship information" item, positional relationship information 1 indicating the range of directions in which Node1 may exist relative to Node2 and the range of distances in which Node1 may exist relative to Node2 is registered. . The range of distances in which Node1 can exist relative to Node2 is, for example, the distance from Node2 to Node1 and the range of distances in which Node1 can exist. Further, in the "positional relationship information" item, positional relationship information 2 indicating the range of directions in which Node 3 may exist relative to Node 2 and the range of distances in which Node 3 may exist relative to Node 2 is registered. . The range of distances in which Node3 can exist with respect to Node2 is, for example, the distance from Node2 to Node3 and the range of distances in which Node3 can exist. In addition, the volume size V of the heart is registered in the item "volume size".

アトラス情報モデル132aは、学習されて、アトラス情報モデル132aの登録内容が変化する。アトラス情報モデル132aが学習される前は、例えば、アトラス情報モデル132aには、図4に示す内容が登録されているものとする。 The atlas information model 132a is learned, and the registered contents of the atlas information model 132a change. Before the atlas information model 132a is learned, for example, the contents shown in FIG. 4 are registered in the atlas information model 132a.

図1の説明に戻り、メモリ132は、処理回路135が各種機能を実現するためのプログラムを記憶する。例えば、メモリ132は、フラッシュメモリ等の半導体メモリ素子、ハードディスク又は光ディスク等によって実現される。メモリ132は、記憶部の一例である。 Returning to the description of FIG. 1, the memory 132 stores programs for the processing circuit 135 to implement various functions. For example, the memory 132 is implemented by a semiconductor memory device such as flash memory, a hard disk, an optical disk, or the like. Memory 132 is an example of a storage unit.

入力インターフェース133は、処理回路135に接続されており、ユーザからの各種の指示、要求及び情報の入力操作を受け付ける。例えば、入力インターフェース133は、ユーザから受け付けた入力操作を電気信号へ変換し、この電気信号を処理回路135に送信する。例えば、入力インターフェース133は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び、音声入力回路等によって実現される。なお、本明細書において、入力インターフェース133は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、画像処理装置130とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を処理回路135へ送信する電気信号の処理回路も入力インターフェース133の例に含まれる。 The input interface 133 is connected to the processing circuit 135 and receives various instructions, requests, and information input operations from the user. For example, the input interface 133 converts an input operation received from the user into an electrical signal and transmits this electrical signal to the processing circuit 135 . For example, the input interface 133 may be a trackball, a switch button, a mouse, a keyboard, a touch pad that performs an input operation by touching an operation surface, a touch screen that integrates a display screen and a touch pad, or a non-display using an optical sensor. It is realized by a contact input circuit, an audio input circuit, and the like. In this specification, the input interface 133 is not limited to having physical operation parts such as a mouse and a keyboard. For example, an electrical signal processing circuit that receives an electrical signal corresponding to an input operation from an external input device provided separately from the image processing apparatus 130 and transmits the electrical signal to the processing circuit 135 is an example of the input interface 133. include.

ディスプレイ134は、処理回路135に接続されており、各種の情報及び各種の画像を表示する。例えば、ディスプレイ134は、処理回路135から送信される情報及びデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ134は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。 The display 134 is connected to the processing circuitry 135 and displays various information and various images. For example, the display 134 converts information and data transmitted from the processing circuit 135 into electrical signals for display and outputs the electrical signals. For example, the display 134 is realized by a liquid crystal monitor, a CRT (Cathode Ray Tube) monitor, a touch panel, or the like.

処理回路135は、入力インターフェース133を介してユーザから受け付けた入力操作に応じて、画像処理装置130の動作を制御する。例えば、処理回路135は、プロセッサによって実現される。 The processing circuit 135 controls the operation of the image processing apparatus 130 according to input operations received from the user via the input interface 133 . For example, processing circuitry 135 is implemented by a processor.

以上、本実施形態に係る医用処理システム1の構成の一例について説明した。例えば、医用処理システム1に含まれる画像処理装置130は、病院や医院等の医療機関に設置され、医療機関に入院又は通院する患者等を被検体として、医用画像診断装置110によって生成される医用画像データを用いた各種の画像診断に利用される。本実施形態では、画像処理装置130は、処理時間を短縮することができるように、以下に説明する各種の処理を実行する。 An example of the configuration of the medical processing system 1 according to this embodiment has been described above. For example, the image processing apparatus 130 included in the medical processing system 1 is installed in a medical institution such as a hospital or a doctor's office. It is used for various image diagnosis using image data. In this embodiment, the image processing device 130 executes various processes described below so as to shorten the processing time.

図1に示すように、画像処理装置130の処理回路135は、制御機能135a、取得機能135b、セグメンテーション実行機能135c、修正機能135d、選択機能135e、表示制御機能135f及び学習済みモデル生成機能135gを実行する。制御機能135aは、学習部の一例である。取得機能135bは、取得部の一例である。セグメンテーション実行機能135cは、推論部の一例である。修正機能135dは、修正部の一例である。選択機能135eは、選択部の一例である。表示制御機能135fは、表示制御部の一例である。学習済みモデル生成機能135gは、生成部の一例である。 As shown in FIG. 1, the processing circuit 135 of the image processing device 130 includes a control function 135a, an acquisition function 135b, a segmentation execution function 135c, a correction function 135d, a selection function 135e, a display control function 135f, and a trained model generation function 135g. Run. The control function 135a is an example of a learning unit. The acquisition function 135b is an example of an acquisition unit. The segmentation execution function 135c is an example of an inference unit. The correction function 135d is an example of a correction section. The selection function 135e is an example of a selection unit. The display control function 135f is an example of a display control unit. The learned model generation function 135g is an example of a generation unit.

ここで、例えば、処理回路135が有する各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ132に記憶される。図1に示す処理回路135の構成要素である制御機能135a、取得機能135b、セグメンテーション実行機能135c、修正機能135d、選択機能135e、表示制御機能135f及び学習済みモデル生成機能135gの各処理機能は、コンピュータによって実行可能なプログラムの形態でメモリ132に記憶されている。処理回路135は、各プログラムをメモリ132から読み出し、読み出された各プログラムを実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路135は、図1の処理回路135内に示された各機能を有することとなる。 Here, for example, each processing function of the processing circuit 135 is stored in the memory 132 in the form of a computer-executable program. Each processing function of the control function 135a, the acquisition function 135b, the segmentation execution function 135c, the correction function 135d, the selection function 135e, the display control function 135f, and the learned model generation function 135g, which are the components of the processing circuit 135 shown in FIG. It is stored in the memory 132 in the form of a computer-executable program. The processing circuit 135 reads each program from the memory 132 and executes each read program, thereby realizing a function corresponding to each program. In other words, the processing circuit 135 with each program read has each function shown in the processing circuit 135 of FIG.

制御機能135aは、入力インターフェース133を介して入力された各種指示及び各種要求に応じた処理を実行するように、画像処理装置130の通信インターフェース131、メモリ132、ディスプレイ134、及び、各機能135b~135gを制御する。 The control function 135a controls the communication interface 131, the memory 132, the display 134, and the functions 135b to 135b of the image processing apparatus 130 so as to execute processing according to various instructions and various requests input via the input interface 133. Control 135g.

取得機能135bは、各種のデータを取得する。例えば、取得機能135bは、医用画像診断装置110から送信された医用画像データ11を取得し、取得された医用画像データ11をメモリ132に記憶させる。制御機能135a以外の各機能135b~135gの詳細については後述する。 The acquisition function 135b acquires various data. For example, the acquisition function 135 b acquires the medical image data 11 transmitted from the medical image diagnostic apparatus 110 and stores the acquired medical image data 11 in the memory 132 . Details of the functions 135b to 135g other than the control function 135a will be described later.

次に、画像処理装置130が実行するセグメンテーション処理の一例について説明する。図5は、実施形態に係る画像処理装置130が実行するセグメンテーション処理の流れの一例を示すフローチャートである。画像処理装置130は、例えば、医用画像データ11がメモリ132に記憶された状態で、入力インターフェース133を介してユーザによりセグメンテーション処理を実行するための指示が処理回路135に入力された場合に、セグメンテーション処理を実行する。 Next, an example of segmentation processing executed by the image processing device 130 will be described. FIG. 5 is a flowchart showing an example of the flow of segmentation processing executed by the image processing device 130 according to the embodiment. For example, when the medical image data 11 is stored in the memory 132 and the user inputs an instruction to execute the segmentation process to the processing circuit 135 via the input interface 133, the image processing apparatus 130 performs segmentation. Execute the process.

(ステップS101)
図5に示すように、ステップS101では、取得機能135bは、メモリ132に記憶された医用画像データ11を取得する。例えば、医用画像データ11は、被検体のセグメンテーションされる対象の臓器が描出された3次元の医用画像データである。例えば、医用画像データ11は、セグメンテーションされる対象の心臓、肺、肝臓及び腎臓が描出された3次元のCT画像データである。
(Step S101)
As shown in FIG. 5, the acquisition function 135b acquires the medical image data 11 stored in the memory 132 in step S101. For example, the medical image data 11 is three-dimensional medical image data in which target organs for segmentation of a subject are depicted. For example, the medical image data 11 is three-dimensional CT image data in which the heart, lungs, liver, and kidneys to be segmented are depicted.

(ステップS102)
次に、ステップS102では、取得機能135bは、メモリ132に記憶されたアトラス情報モデル132aを取得する。アトラス情報モデル132aは、以下で説明する処理に用いられる。なお、メモリ132に、子供用のアトラス情報モデル132a、大人用のアトラス情報モデル132a、日本人用のアトラス情報モデル132a及び外国人用のアトラス情報モデル132a等の複数の被検体の属性に対応する複数のアトラス情報モデル132aが記憶されていてもよい。この場合、取得機能135bは、メモリ132に記憶された複数のアトラス情報モデル132aの中から、ステップS101で取得された医用画像データ11にセグメンテーション対象の臓器が描出された被検体の属性に対応するアトラス情報モデル132aを取得する。また、ステップS102では、取得機能135bは、後述する学習済みモデル生成機能135gにより生成された後述する学習済みモデル12(図9)に医用画像データ11を入力し、学習済みモデル12から出力されたアトラス情報モデルを取得してもよい。このようにして取得されたアトラス情報モデルは、アトラス情報モデル132aに代えて以下で説明する処理に用いられる。本実施形態では、例えば、ステップS102において、取得機能135bが、メモリ132に記憶されたアトラス情報モデル132aを取得するのか、又は、学習済みモデル12を用いてアトラス情報を取得するのかについては、ユーザにより設定可能である。以下では、ステップS102でメモリ132からアトラス情報モデル132aが取得された場合について説明する。なお、この時点では、アトラス情報モデル132aは、学習される前のモデルであり、例えば、図4に示す内容が含まれるモデルである。
(Step S102)
Next, in step S102, the acquisition function 135b acquires the atlas information model 132a stored in the memory 132. FIG. The atlas information model 132a is used for the processing described below. Note that the memory 132 stores a plurality of subject attributes such as an atlas information model 132a for children, an atlas information model 132a for adults, an atlas information model 132a for Japanese, and an atlas information model 132a for foreigners. Multiple atlas information models 132a may be stored. In this case, the acquisition function 135b corresponds to the attribute of the subject in which the segmentation target organ is depicted in the medical image data 11 acquired in step S101 from among the plurality of atlas information models 132a stored in the memory 132. Acquire the atlas information model 132a. In step S102, the acquisition function 135b inputs the medical image data 11 to a learned model 12 (FIG. 9) generated by a learned model generation function 135g described later, and the medical image data 11 is output from the trained model 12. An atlas information model may be obtained. The atlas information model acquired in this manner is used in the processing described below in place of the atlas information model 132a. In this embodiment, for example, in step S102, whether the acquisition function 135b acquires the atlas information model 132a stored in the memory 132 or acquires atlas information using the trained model 12 is determined by the user. can be set by Below, the case where the atlas information model 132a is acquired from the memory 132 in step S102 will be described. At this point, the atlas information model 132a is a pre-learned model, for example, a model including the contents shown in FIG.

(ステップS103)
次に、ステップS103では、セグメンテーション実行機能135cは、シード点の位置を取得する。ステップS103では、セグメンテーション実行機能135cは、様々な方法でシード点の位置を取得することができる。以下、シード点の位置を取得する方法の例として、シード点の位置を取得する2つの方法について説明する。
(Step S103)
Next, in step S103, the segmentation execution function 135c acquires the positions of seed points. At step S103, the segmentation executor 135c can obtain the seed point locations in a variety of ways. Two methods for obtaining the positions of the seed points will be described below as examples of methods for obtaining the positions of the seed points.

シード点の位置を取得する1つ目の方法について説明する。例えば、セグメンテーション実行機能135cは、アトラス情報モデル132aに含まれるセグメンテーションの対象の臓器の領域の重心位置をシード点の位置として取得する。例えば、セグメンテーションの対象の臓器が、心臓、肺、肝臓及び腎臓である場合について説明する。この場合、セグメンテーション実行機能135cは、アトラス情報モデル132aから、心臓、肺、肝臓及び腎臓のそれぞれの重心位置をシード点の位置として取得する。 A first method of obtaining the position of the seed point will be described. For example, the segmentation execution function 135c acquires the position of the center of gravity of the segmentation target organ region included in the atlas information model 132a as the position of the seed point. For example, a case where the target organs for segmentation are heart, lung, liver, and kidney will be described. In this case, the segmentation execution function 135c acquires the positions of the centers of gravity of the heart, lungs, liver, and kidneys from the atlas information model 132a as seed point positions.

シード点を取得する2つ目の方法について説明する。例えば、アトラス情報モデル132aには、上述した各種の情報に加えて、解剖学的な特徴点の位置が登録されているものとする。そして、セグメンテーション実行機能135cは、医用画像データ11からアトラス情報モデル132aに含まれる解剖学的な特徴点と同一の特徴点の位置を抽出する。 A second method of obtaining seed points will now be described. For example, it is assumed that the atlas information model 132a registers the positions of anatomical feature points in addition to the various types of information described above. Then, the segmentation execution function 135c extracts from the medical image data 11 the positions of the same anatomical feature points included in the atlas information model 132a.

ここでは、アトラス情報モデル132aに含まれる3つの特徴点の位置が、特徴点V1(x11,y11,z11)、特徴点V2(x12,y12,z13)、特徴点V3(x13,y13,z13)であるものとする。この場合、セグメンテーション実行機能135cは、医用画像データ11から、特徴点V1と同一の特徴点C1の位置(特徴点C1(x21,y21,z21))、特徴点V2と同一の特徴点C2の位置(特徴点C2(x22,y22,z22))、特徴点V3と同一の特徴点C3の位置(特徴点C3(x23,y23,z23))を抽出する。 Here, the positions of the three feature points included in the atlas information model 132a are feature point V1 (x11, y11, z11), feature point V2 (x12, y12, z13), and feature point V3 (x13, y13, z13). shall be In this case, the segmentation execution function 135c obtains from the medical image data 11 the position of the feature point C1 that is the same as the feature point V1 (feature point C1 (x21, y21, z21)), the position of the feature point C2 that is the same as the feature point V2, (feature point C2 (x22, y22, z22)) and the position of feature point C3 (feature point C3 (x23, y23, z23)) which is the same as feature point V3 are extracted.

そして、セグメンテーション実行機能135cは、解剖学的に同じ特徴点の間の位置ずれの合計「LS」を最小化するように、以下の座標変換行列「H」を求める。具体的には、セグメンテーション実行機能135cは、以下の式に示すように、V1(x11,y11,z11)とC1(x21,y21,z21)との間の位置ずれ、V2(x12,y12,z13)とC2(x22,y22,z22)との間の位置ずれ、及び、V3(x13,y13,z13)とC3(x23,y23,z23)との間の位置ずれの合計「LS」を最小化するように、座標変換行列「H」を求める。 Then, the segmentation execution function 135c obtains the following coordinate transformation matrix "H" so as to minimize the total "LS" of positional deviations between anatomically identical feature points. Specifically, the segmentation execution function 135c calculates the displacement between V1(x11, y11, z11) and C1(x21, y21, z21), V2(x12, y12, z13), as shown in the following equations. ) and C2(x22,y22,z22) and V3(x13,y13,z13) and C3(x23,y23,z23). A coordinate transformation matrix "H" is obtained so that

LS = ((x21,y21,z21)-H(x11,y11,z11))
+((x22,y22,z22)-H(x12,y12,z12))
+((x23,y23,z23)-H(x13,y13,z13))
LS = ((x21, y21, z21) - H(x11, y11, z11))
+ ((x22, y22, z22) - H (x12, y12, z12))
+ ((x23, y23, z23) - H (x13, y13, z13))

なお、上記の式において((x21,y21,z21)-H(x11,y11,z11))は、例えば、H(x11,y11,z11)とC1(x21,y21,z21)との間の距離を示す。同様に、以下の式において、((x22,y22,z22)-H(x12,y12,z12))は、例えば、H(x12,y12,z12)とC2(x22,y22,z22)との間の距離を示し、((x23,y23,z23)-H(x13,y13,z13))は、例えば、H(x13,y13,z13)とC3(x23,y23,z23)との間の距離を示す。 In the above formula, ((x21, y21, z21) - H (x11, y11, z11)) is, for example, the distance between H (x11, y11, z11) and C1 (x21, y21, z21) indicates Similarly, in the following formula, ((x22, y22, z22) - H (x12, y12, z12)) is, for example, between H (x12, y12, z12) and C2 (x22, y22, z22) ((x23, y23, z23) - H (x13, y13, z13)) is the distance between H (x13, y13, z13) and C3 (x23, y23, z23), for example show.

そして、セグメンテーション実行機能135cは、アトラス情報モデル132aに含まれるセグメンテーション対象の臓器の領域の重心位置を取得する。そして、セグメンテーション実行機能135cは、セグメンテーション対象の臓器の領域の重心位置を座標変換行列「H」により変換し、変換後の位置をシード点の位置として取得する。例えば、セグメンテーション対象の臓器が、心臓、肺、肝臓及び腎臓である場合について説明する。この場合、セグメンテーション実行機能135cは、アトラス情報モデル132aから、心臓、肺、肝臓及び腎臓のそれぞれの重心位置を座標変換行列「H」により変換し、変換後の位置をシード点の位置として取得する。 Then, the segmentation execution function 135c acquires the barycentric position of the segmentation target organ region included in the atlas information model 132a. Then, the segmentation execution function 135c transforms the barycentric position of the segmentation target organ region using the coordinate transformation matrix "H", and obtains the position after transformation as the position of the seed point. For example, a case where the organs to be segmented are the heart, lungs, liver, and kidneys will be described. In this case, the segmentation execution function 135c transforms the center-of-gravity positions of the heart, lungs, liver, and kidneys from the atlas information model 132a using the coordinate transformation matrix "H", and acquires the transformed positions as positions of seed points. .

(ステップS104)
次に、ステップS104では、セグメンテーション実行機能135cは、医用画像データ11におけるステップS103で取得されたシード点の位置にシード点を設定する。このように、セグメンテーション実行機能135cは、アトラス情報モデル132aを用いて医用画像データ11に対してシード点を設定する。
(Step S104)
Next, in step S104, the segmentation execution function 135c sets seed points at the positions of the seed points acquired in step S103 in the medical image data 11. FIG. Thus, the segmentation execution function 135c sets seed points for the medical image data 11 using the atlas information model 132a.

(ステップS105)
次に、ステップS105では、修正機能135dは、医用画像データ11に基づく医用画像をディスプレイ14に表示させるとともに、ディスプレイ14に表示された医用画像上に各シード点を重畳表示させる。ここで、医用画像上に重畳表示されたシード点の位置は、ユーザにより修正可能である。例えば、ユーザは、シード点の位置を修正する場合には、入力インターフェース133を介して、シード点の位置を修正させるための修正指示を処理回路135に入力する。修正指示には、修正対象のシード点、及び、修正対象のシード点の修正後の位置等の情報が含まれる。一方、ユーザは、シード点の位置を修正しない場合及びシード点の位置の修正が完了した場合には、入力インターフェース133を介して、シード点の位置を修正させない修正不要指示を処理回路135に入力する。
(Step S105)
Next, in step S105, the correction function 135d causes the display 14 to display a medical image based on the medical image data 11, and superimposes each seed point on the medical image displayed on the display 14. FIG. Here, the positions of the seed points superimposed on the medical image can be modified by the user. For example, when the user corrects the position of the seed point, the user inputs a correction instruction for correcting the position of the seed point to the processing circuit 135 via the input interface 133 . The correction instruction includes information such as the seed point to be corrected and the post-correction position of the seed point to be corrected. On the other hand, if the user does not correct the positions of the seed points or if the positions of the seed points have been corrected, the user inputs an instruction not to correct the positions of the seed points to the processing circuit 135 via the input interface 133. do.

(ステップS106)
次に、ステップS106では、修正機能135dは、シード点の位置を修正するか否かを判定する。例えば、修正機能135dは、修正指示を受け付けた場合には、シード点の位置を修正すると判定する。一方、修正機能135dは、修正不要指示を受け付けた場合には、シード点の位置を修正しないと判定する。シード点の位置を修正する場合(ステップS106:Yes)、修正機能135dは、ステップS107へ進む。一方、シード点の位置を修正しない場合(ステップS106:No)、修正機能135dは、ステップS108へ進む。
(Step S106)
Next, in step S106, the correction function 135d determines whether or not to correct the position of the seed point. For example, when receiving a correction instruction, the correction function 135d determines to correct the position of the seed point. On the other hand, the correction function 135d determines not to correct the position of the seed point when the correction unnecessary instruction is received. If the position of the seed point is to be corrected (step S106: Yes), the correction function 135d proceeds to step S107. On the other hand, if the position of the seed point is not corrected (step S106: No), the correction function 135d proceeds to step S108.

(ステップS107)
ステップS107では、修正機能135dは、修正指示に基づきシード点の位置を修正する。そして、修正機能135dは、ステップS104に戻る。ステップS107からステップS104に戻った場合、ステップS104では、セグメンテーション実行機能135cは、修正された位置にシード点を設定する。そして、処理回路135は、ステップS105以降の処理を行う。
(Step S107)
In step S107, the correction function 135d corrects the position of the seed point based on the correction instruction. The correction function 135d then returns to step S104. When returning from step S107 to step S104, in step S104, the segmentation execution function 135c sets seed points at the corrected positions. Then, the processing circuit 135 performs the processing after step S105.

(ステップS108)
ステップS108では、セグメンテーション実行機能135cは、セグメンテーションの対象の臓器毎に、デフォルトのセグメンテーション処理のアルゴリズムを設定する。かかるアルゴリズムは、例えば、学習済みモデルを用いてセグメンテーション処理を行うアルゴリズムである。学習済みモデルに医用画像データ11が入力されると、学習済みモデルはセグメンテーション結果を出力する。なお、学習済みモデルは、医用画像データ11及びシード点の位置が入力されると、セグメンテーション結果を出力してもよい。
(Step S108)
In step S108, the segmentation execution function 135c sets a default segmentation processing algorithm for each segmentation target organ. Such an algorithm is, for example, an algorithm that performs segmentation processing using a trained model. When the medical image data 11 is input to the trained model, the trained model outputs a segmentation result. Note that the trained model may output the segmentation result when the medical image data 11 and the positions of the seed points are input.

なお、デフォルトのセグメンテーション処理のアルゴリズムは、DLL化された(学習しないルールに従った)アルゴリズムであってもよい。このようなアルゴリズムの一例としては、リージョングローイング(Region growing)法が挙げられる。リージョングローイング法は、例えば、シード点が設定された位置(画素)から、シード点が設定された画素の画素値との差が閾値以内の領域を次々と連結し、連結された領域を抽出するアルゴリズムである。 Note that the default segmentation processing algorithm may be a DLL algorithm (according to non-learning rules). An example of such an algorithm is a region growing method. In the region growing method, for example, from the positions (pixels) where the seed points are set, regions where the difference between the pixel values of the pixels where the seed points are set are within a threshold value are connected one after another, and the connected regions are extracted. Algorithm.

(ステップS109)
次に、ステップS109では、選択機能135eは、セグメンテーションの対象の臓器毎に、適用可能なセグメンテーション処理のアルゴリズムのリストをディスプレイ134に表示させる。図6は、実施形態に係るリストの一例を説明するための図である。図6に示すように、選択機能135eは、臓器毎に、適用可能なセグメンテーション処理のアルゴリズムのリストをディスプレイ134に表示させる。例えば、図6に示すように、選択機能135eは、入力インターフェース133を介してユーザにより肺(Lung)が選択されると、肺の領域をセグメンテーション(抽出)する処理のアルゴリズムであって適用可能な処理のアルゴリズムのリストをディスプレイ134に表示させる。なお、アルゴリズムは、例えば、学習済みモデルを用いてセグメンテーション処理を行うアルゴリズムである。学習済みモデルに医用画像データ11が入力されると、学習済みモデルはセグメンテーション結果を出力する。なお、学習済みモデルは、医用画像データ11及びシード点の位置が入力されると、セグメンテーション結果を出力してもよい。なお、セグメンテーション処理のアルゴリズムは、DLL化されたリージョングローイング法等のアルゴリズムであってもよい。
(Step S109)
Next, in step S109, the selection function 135e causes the display 134 to display a list of applicable segmentation processing algorithms for each segmentation target organ. FIG. 6 is a diagram for explaining an example of a list according to the embodiment; As shown in FIG. 6, selection function 135e causes display 134 to display a list of applicable segmentation processing algorithms for each organ. For example, as shown in FIG. 6, the selection function 135e is a processing algorithm for segmenting (extracting) the lung region when the user selects the lung (Lung) via the input interface 133. A list of processing algorithms is displayed on the display 134 . Note that the algorithm is, for example, an algorithm that performs segmentation processing using a trained model. When the medical image data 11 is input to the trained model, the trained model outputs a segmentation result. Note that the trained model may output the segmentation result when the medical image data 11 and the positions of the seed points are input. Note that the segmentation processing algorithm may be an algorithm such as a DLL region growing method.

具体的には、選択機能135eは、図6に示すように、「アルゴリズムA」、「アルゴリズムB」及び「アルゴリズムC」をディスプレイ134に表示させる。なお、「アルゴリズムA」は、ステップS108で設定されたデフォルトのアルゴリズムである。このため、ステップS109では、選択機能135eは、デフォルトのアルゴリズムとして設定された「アルゴリズムA」が選択された状態で「アルゴリズムA」、「アルゴリズムB」及び「アルゴリズムC」をディスプレイ134に表示させる。ここで、ユーザは、アルゴリズムを変更する場合には、入力インターフェース133を介して、アルゴリズムを変更させるための変更指示を処理回路135に入力する。変更指示には、変更後のアルゴリズム等の情報が含まれる。一方、ユーザは、アルゴリズムを変更しない場合及びアルゴリズムの変更が完了した場合には、入力インターフェース133を介して、アルゴリズムを変更させない変更不要指示を処理回路135に入力する。 Specifically, the selection function 135e causes the display 134 to display "Algorithm A," "Algorithm B," and "Algorithm C," as shown in FIG. "Algorithm A" is the default algorithm set in step S108. Therefore, in step S109, the selection function 135e causes the display 134 to display "algorithm A", "algorithm B" and "algorithm C" with "algorithm A" set as the default algorithm selected. Here, when the user changes the algorithm, the user inputs a change instruction for changing the algorithm to the processing circuit 135 via the input interface 133 . The change instruction includes information such as the algorithm after change. On the other hand, if the user does not change the algorithm or if the change of the algorithm is completed, the user inputs to the processing circuit 135 via the input interface 133 an instruction not to change the algorithm.

(ステップS110)
次に、ステップS110では、選択機能135eは、臓器毎にアルゴリズムを変更する否かを判定する。例えば、選択機能135eは、変更指示を受け付けた場合には、アルゴリズムを変更すると判定する。一方、選択機能135eは、変更不要指示を受け付けた場合には、アルゴリズムを変更しないと判定する。アルゴリズムを変更する場合(ステップS110:Yes)、選択機能135eは、ステップS111へ進む。一方、アルゴリズムを変更しない場合(ステップS110:No)、選択機能135eは、ステップS112へ進む。
(Step S110)
Next, in step S110, the selection function 135e determines whether to change the algorithm for each organ. For example, the selection function 135e determines to change the algorithm when a change instruction is received. On the other hand, the selection function 135e determines not to change the algorithm when receiving the change unnecessary instruction. If the algorithm is to be changed (step S110: Yes), the selection function 135e proceeds to step S111. On the other hand, if the algorithm is not changed (step S110: No), the selection function 135e proceeds to step S112.

(ステップS111)
ステップS111では、選択機能135eは、変更指示に基づきアルゴリズムを選択(変更)し、選択されたアルゴリズムを設定する。そして、選択機能135eは、ステップS109に戻る。ステップS111からステップS109に戻った場合、ステップS109では、選択機能135eは、ステップS111で設定されたアルゴリズムが選択された状態で、上述したリストをディスプレイ134に表示させる。そして、処理回路135は、ステップS110以降の処理を行う。
(Step S111)
In step S111, the selection function 135e selects (changes) an algorithm based on the change instruction, and sets the selected algorithm. The selection function 135e then returns to step S109. When the process returns from step S111 to step S109, in step S109, the selection function 135e causes the display 134 to display the above list while the algorithm set in step S111 is selected. Then, the processing circuit 135 performs the processing after step S110.

(ステップS112)
ステップS112では、セグメンテーション実行機能135cは、設定されたアルゴリズムで、設定されたシード点を用いて、医用画像データ11からセグメンテーション対象の臓器の領域をセグメンテーション(抽出)する処理をセグメンテーション対象の臓器毎に実行する。すなわち、セグメンテーション実行機能135cは、設定されたシード点を用いて、推論を行う。
(Step S112)
In step S112, the segmentation execution function 135c performs a process of segmenting (extracting) a segmentation target organ region from the medical image data 11 using a set algorithm and using set seed points for each segmentation target organ. Run. That is, the segmentation execution function 135c performs inference using the set seed points.

例えば、設定されたアルゴリズムが、医用画像データ11が入力されると、セグメンテーション結果を出力する学習済みモデルである場合について説明する。この場合、セグメンテーション実行機能135cは、対象の臓器のボリュームサイズをアトラス情報モデル132aから取得する。そして、セグメンテーション実行機能135cは、取得されたボリュームサイズに基づいて、対象の臓器を含み、かつ、シード点が設定された位置を含むスライス方向の範囲を特定する。ここでいうスライス方向の範囲とは、医用画像データ11におけるスライス方向の範囲である。そして、セグメンテーション実行機能135cは、医用画像データ11全体ではなく、医用画像データ11の特定されたスライス方向の範囲の部分を学習済みモデルに入力する。これにより、学習済みモデルは、医用画像データ11全体ではなく、特定されたスライス方向の範囲の部分に絞ってセグメンテーションを行い、セグメンテーション結果を出力する。このため、処理時間の増大を抑制することができる。そして、セグメンテーション実行機能135cは、学習済みモデルから出力されたセグメンテーション結果を取得する。 For example, a case where the set algorithm is a trained model that outputs a segmentation result when the medical image data 11 is input will be described. In this case, the segmentation execution function 135c acquires the volume size of the target organ from the atlas information model 132a. Then, the segmentation execution function 135c identifies a range in the slice direction that includes the target organ and the positions where the seed points are set, based on the acquired volume size. Here, the range in the slice direction is the range in the medical image data 11 in the slice direction. Then, the segmentation execution function 135c inputs not the entire medical image data 11 but the specified range of the medical image data 11 in the slice direction to the learned model. As a result, the trained model performs segmentation not on the entire medical image data 11 but on the specified range in the slice direction, and outputs the segmentation result. Therefore, an increase in processing time can be suppressed. Then, the segmentation execution function 135c acquires the segmentation result output from the trained model.

また、例えば、設定されたアルゴリズムが、医用画像データ11及びシード点の位置が入力されると、セグメンテーション結果を出力する学習済みモデルである場合について説明する。この場合、セグメンテーション実行機能135cは、医用画像データ11及びシード点の位置を学習済みモデルに入力する。そして、セグメンテーション実行機能135cは、学習済みモデルから出力されたセグメンテーション結果を取得する。 Also, for example, a case where the set algorithm is a trained model that outputs a segmentation result when the medical image data 11 and seed point positions are input will be described. In this case, the segmentation execution function 135c inputs the medical image data 11 and the positions of the seed points to the trained model. Then, the segmentation execution function 135c acquires the segmentation result output from the trained model.

なお、例えば、設定されたアルゴリズムが、DLL化されたアルゴリズムである場合には、セグメンテーション実行機能135cは、設定されたアルゴリズムで、設定されたシード点を用いて、医用画像データ11からセグメンテーション対象の臓器の領域をセグメンテーションする処理を実行する。 Note that, for example, when the set algorithm is a DLL algorithm, the segmentation execution function 135c uses the set seed point to perform segmentation from the medical image data 11 using the set algorithm. Perform the process of segmenting the organ regions.

(ステップS113)
次に、ステップS113では、表示制御機能135fは、医用画像データ11に基づく医用画像をディスプレイ134に表示させるとともに、医用画像上にセグメンテーション結果を重畳表示させる。図7は、実施形態に係る表示制御機能135fが実行する処理の一例を説明するための図である。ここでは、ステップS112で、心臓、肺、肝臓及び腎臓のそれぞれの領域がセグメンテーションされた場合について説明する。医用画像データ11が3次元CT画像データである場合、表示制御機能135fは、医用画像データ11からコロナル像の画像データであるMPR(Multi-Planar Reconstruction)画像データを生成し、図7に示すように、生成したMPR画像データに基づくコロナル像11aをディスプレイ134に表示させる。そして、表示制御機能135fは、コロナル像11a上に肺、心臓、肝臓及び腎臓のそれぞれの領域を異なる色で重畳表示させる。具体的には、表示制御機能135fは、コロナル像11a上に、肺を構成する2つの領域12a,12b、心臓の領域12c、肝臓の領域12d及び腎臓を構成する2つの領域12e,12fのそれぞれの領域を異なる色で表示させる。更に、表示制御機能135fは、コロナル像11a上に、肺の領域12aの重心位置を示すマーク13a、肺の領域12bの重心位置を示すマーク13b、心臓の領域12cの重心位置を示すマーク13c、肝臓の領域12dの重心位置を示すマーク13d、腎臓の領域12eの重心位置を示すマーク13d、及び、腎臓の領域12fの重心位置を示すマーク13fを表示させる。
(Step S113)
Next, in step S113, the display control function 135f causes the display 134 to display a medical image based on the medical image data 11, and superimposes the segmentation result on the medical image. FIG. 7 is a diagram for explaining an example of processing executed by the display control function 135f according to the embodiment. Here, a case will be described in which the regions of the heart, lungs, liver, and kidneys are segmented in step S112. When the medical image data 11 is three-dimensional CT image data, the display control function 135f generates MPR (Multi-Planar Reconstruction) image data, which is image data of a coronal image, from the medical image data 11 as shown in FIG. Then, the display 134 displays the coronal image 11a based on the generated MPR image data. Then, the display control function 135f superimposes the regions of the lungs, heart, liver, and kidneys on the coronal image 11a in different colors. Specifically, the display control function 135f displays two regions 12a and 12b forming lungs, a heart region 12c, a liver region 12d, and two regions 12e and 12f forming kidneys on the coronal image 11a. to display areas in different colors. Furthermore, the display control function 135f creates, on the coronal image 11a, a mark 13a indicating the barycentric position of the lung region 12a, a mark 13b indicating the barycentric position of the lung region 12b, a mark 13c indicating the barycentric position of the heart region 12c, A mark 13d indicating the barycentric position of the liver region 12d, a mark 13d indicating the barycentric position of the kidney region 12e, and a mark 13f indicating the barycentric position of the kidney region 12f are displayed.

ここで、セグメンテーション結果は、ユーザにより修正可能である。ここでは、領域12a~12fのそれぞれの領域がセグメンテーションされた場合について説明する。この場合、領域12a~12fのそれぞれの領域は、ユーザにより修正可能である。例えば、ユーザは、領域12a~12fのうち少なくとも1つの領域の範囲を修正する場合には、入力インターフェース133を介して、修正対象の領域の範囲を修正させるための範囲修正指示を処理回路135に入力する。範囲修正指示には、修正対象の領域、及び、修正対象の領域の修正後の範囲等の各種の情報が含まれる。一方、ユーザは、領域12a~12fの範囲を修正しない場合には、入力インターフェース133を介して、領域12a~12fの範囲を修正させない範囲修正不要指示を処理回路135に入力する。 Here, the segmentation results are modifiable by the user. Here, a case where each of the regions 12a to 12f is segmented will be described. In this case, each of the regions 12a-12f is modifiable by the user. For example, when the user corrects the range of at least one of the regions 12a to 12f, the user sends a range correction instruction to the processing circuit 135 via the input interface 133 to correct the range of the region to be corrected. input. The range correction instruction includes various types of information such as the correction target area and the corrected range of the correction target area. On the other hand, if the user does not want to modify the range of the areas 12a to 12f, the user inputs to the processing circuit 135 via the input interface 133 an instruction not to modify the range of the areas 12a to 12f.

(ステップS114)
次に、ステップS114では、修正機能135dは、領域12a~12fのうち少なくとも1つの領域の範囲を修正するか否かを判定する。例えば、修正機能135dは、範囲修正指示を受け付けた場合には、領域12a~12fのうち少なくとも1つの領域の範囲を修正すると判定する。一方、修正機能135dは、範囲修正不要指示を受け付けた場合には、領域12a~12fの範囲を修正しないと判定する。領域12a~12fのうち少なくとも1つの領域の範囲を修正する場合(ステップS114:Yes)、修正機能135dは、ステップS115へ進む。一方、領域12a~12fの範囲を修正しない場合(ステップS114:No)、修正機能135dは、ステップS116へ進む。
(Step S114)
Next, in step S114, the modifying function 135d determines whether or not to modify the range of at least one of the areas 12a to 12f. For example, when receiving a range correction instruction, the correction function 135d determines to correct the range of at least one of the areas 12a to 12f. On the other hand, the correction function 135d determines not to correct the range of the regions 12a to 12f when receiving the instruction that the range correction is unnecessary. When modifying the range of at least one of the areas 12a to 12f (step S114: Yes), the modification function 135d proceeds to step S115. On the other hand, if the range of regions 12a to 12f is not to be corrected (step S114: No), the correction function 135d proceeds to step S116.

(ステップS115)
ステップS115では、修正機能135dは、範囲修正指示に基づき修正対象の領域の範囲を修正する。具体的には、修正機能135dは、範囲修正指示に含まれる修正対象の領域の範囲が、範囲修正指示に含まれる修正後の範囲となるように、修正対象の領域を修正する。ステップS112でセグメンテーションされた臓器の領域に代えてステップS115で範囲が修正された領域が、後述するステップS116における処理に用いられる。そして、修正機能135dは、ステップS114に戻る。
(Step S115)
In step S115, the correction function 135d corrects the range of the region to be corrected based on the range correction instruction. Specifically, the correction function 135d corrects the correction target area so that the range of the correction target area included in the range correction instruction becomes the corrected range included in the range correction instruction. Instead of the organ region segmented in step S112, the region corrected in step S115 is used for processing in step S116, which will be described later. The correction function 135d then returns to step S114.

(ステップS116)
次に、ステップS116では、制御機能135aは、各種情報及び各種データをメモリ132に記憶させることで各種情報及び各種データをメモリ132に保存する。ここで保存される各種情報及び各種データは、アトラス情報モデル132aに学習させる際に用いられる。例えば、制御機能135aは、ステップS112でセグメンテーションされた臓器の領域の重心位置を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域の重心位置を算出する。そして、制御機能135aは、算出された重心位置をメモリ132に保存する。
(Step S116)
Next, in step S116, the control function 135a saves various information and various data in the memory 132 by causing the memory 132 to store various information and various data. Various information and various data stored here are used when the atlas information model 132a learns. For example, the control function 135a calculates the center-of-gravity position of the region of the organ segmented in step S112. However, the control function 135a calculates the position of the center of gravity of the area whose range has been changed in step S115. Then, the control function 135a stores the calculated center-of-gravity position in the memory 132. FIG.

また、制御機能135aは、セグメンテーションされた臓器の領域から、セグメンテーションされた隣接する2つの臓器についての位置関係情報を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域を用いて、隣接する2つの臓器についての位置関係情報を算出する。そして、制御機能135aは、算出された位置関係情報をメモリ132に保存する。 In addition, the control function 135a calculates positional relationship information about two adjacent segmented organs from the region of the segmented organs. However, the control function 135a calculates the positional relationship information about the two adjacent organs using the area whose range has been changed in step S115. Then, the control function 135 a stores the calculated positional relationship information in the memory 132 .

また、制御機能135aは、セグメンテーションされた臓器の領域から、セグメンテーションされた臓器のボリュームサイズを算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域から臓器のボリュームサイズを算出する。そして、制御機能135aは、算出されたボリュームサイズをメモリ132に保存する。 The control function 135a also calculates the volume size of the segmented organ from the segmented organ region. However, the control function 135a calculates the volume size of the organ from the area whose range has been changed in step S115. The control function 135a then stores the calculated volume size in the memory 132. FIG.

また、制御機能135aは、医用画像データ11をメモリ132に保存する。また、制御機能135aは、セグメンテーションされた臓器の領域をメモリ132に保存する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域をメモリ132に保存する。セグメンテーションされた臓器の領域及び範囲が変更された領域は、例えば、一般的なセグメンテーションモデルの教師データとして用いられることができる。 Also, the control function 135 a stores the medical image data 11 in the memory 132 . The control function 135 a also stores the segmented organ regions in the memory 132 . However, the control function 135a stores in the memory 132 the area whose range has been changed in step S115. The region of the segmented organ and the region whose extent has been changed can be used, for example, as training data for a general segmentation model.

ここで、ユーザは、入力インターフェース133を介して、ステップS116においてメモリ132に保存された重心位置、位置関係情報、ボリュームサイズ及び領域を修正することができる。また、処理回路135は、重心位置、位置関係情報、ボリュームサイズ及び領域を修正するためのアプリケーションを実行することにより、ステップS116においてメモリ132に保存された重心位置、位置関係情報、ボリュームサイズ及び領域を修正してもよい。このように、セグメンテーション結果は、ユーザにより修正可能である。 Here, the user can modify the center-of-gravity position, positional relationship information, volume size and area stored in the memory 132 in step S116 via the input interface 133 . In addition, the processing circuit 135 executes an application for correcting the barycentric position, positional relationship information, volume size and area, thereby adjusting the barycentric position, positional relationship information, volume size and area stored in the memory 132 in step S116. may be modified. Thus, the segmentation results are modifiable by the user.

以上、図5に示すセグメンテーション処理について説明した。次に、図5に示すセグメンテーション処理により得られた各種情報及び各種データを用いてアトラス情報モデル132aに学習させる方法の一例について説明する。例えば、制御機能135aは、メモリ132に保存された臓器の領域の重心位置、位置関係情報、臓器のボリュームサイズを取得する。そして、制御機能135aは、取得された臓器の領域の重心位置、位置関係情報、臓器のボリュームサイズを用いて、アトラス情報モデル132aに含まれる臓器の領域の重心位置、位置関係情報、臓器のボリュームサイズを補正する。制御機能135aは、このような補正を繰り返し行うことにより、アトラス情報モデル132aに学習させる。すなわち、制御機能135aは、セグメンテーション結果に基づいて、アトラス情報モデル132aに学習させる。このように、制御機能135aは、アトラス情報モデル132aに含まれる臓器の領域の重心位置を、セグメンテーション結果から得られる臓器の領域の重心位置に基づいて補正する。また、制御機能135aは、アトラス情報モデル132aに含まれる2つの臓器の位置関係を、セグメンテーション結果から得られる2つの臓器の位置関係に基づいて補正する。また、制御機能135aは、アトラス情報モデル132aに含まれる臓器のボリュームサイズを、セグメンテーション結果から得られる臓器のボリュームサイズに基づいて補正する。セグメンテーション結果は、推論結果の一例である。 The segmentation processing shown in FIG. 5 has been described above. Next, an example of a method of making the atlas information model 132a learn using various information and various data obtained by the segmentation processing shown in FIG. 5 will be described. For example, the control function 135a acquires the center-of-gravity position of the region of the organ stored in the memory 132, the positional relationship information, and the volume size of the organ. Then, the control function 135a uses the obtained barycentric position of the organ region, positional relationship information, and organ volume size to calculate the barycentric position of the organ region, the positional relationship information, and the volume of the organ included in the atlas information model 132a. Correct the size. The control function 135a makes the atlas information model 132a learn by repeating such corrections. That is, the control function 135a makes the atlas information model 132a learn based on the segmentation result. In this manner, the control function 135a corrects the centroid position of the organ region included in the atlas information model 132a based on the centroid position of the organ region obtained from the segmentation result. Also, the control function 135a corrects the positional relationship between the two organs included in the atlas information model 132a based on the positional relationship between the two organs obtained from the segmentation result. The control function 135a also corrects the volume size of the organ included in the atlas information model 132a based on the volume size of the organ obtained from the segmentation result. A segmentation result is an example of an inference result.

なお、学習されたアトラス情報モデル132aは、各種の推論を行う際に用いられる。例えば、セグメンテーション実行機能135cにより、医用画像データ11からセグメンテーション対象の臓器の領域をセグメンテーションする処理が実行される際に用いられる。この場合、セグメンテーション実行機能135cは、医用画像データ11におけるアトラス情報モデル132aに含まれる臓器の領域の補正された重心位置に基づいてシード点を設定し、設定されたシード点を用いてセグメンテーションを行う。 The learned atlas information model 132a is used when performing various inferences. For example, it is used when the segmentation execution function 135c executes the process of segmenting the region of the organ to be segmented from the medical image data 11 . In this case, the segmentation execution function 135c sets seed points based on the corrected centroid positions of the organ regions included in the atlas information model 132a in the medical image data 11, and performs segmentation using the set seed points. .

アトラス情報モデル132aに学習させる方法の具体例について説明する。例えば、制御機能135aは、学習済みモデル生成機能135gを制御し、学習済みモデル生成機能135gに以下の処理を実行させる。例えば、学習済みモデル生成機能135gは、学習済みモデルを生成し、生成された学習済みモデルに次々に追加学習させることで、間接的に、アトラス情報モデル132aに学習させる。以下、この場合の詳細について説明する。例えば、図5に示すセグメンテーション処理のステップS116において、心臓の領域12cの重心位置(x1´,y1´,z1´)、心臓を基準として肺が存在しうる方向の範囲及び心臓を基準として肺が存在し得る距離の範囲を示す位置関係情報1´、心臓を基準として肝臓が存在しうる方向の範囲及び心臓を基準として肝臓が存在し得る距離の範囲を示す位置関係情報2´、及び、心臓のボリュームサイズV´がメモリ132に記憶された場合について説明する。 A specific example of a method for making the atlas information model 132a learn will be described. For example, the control function 135a controls the learned model generation function 135g and causes the learned model generation function 135g to perform the following processing. For example, the learned model generation function 135g indirectly learns the atlas information model 132a by generating a trained model and additionally learning the generated trained model one after another. The details of this case will be described below. For example, in step S116 of the segmentation processing shown in FIG. Positional relationship information 1′ indicating the range of possible distances, positional relationship information 2′ indicating the range of directions in which the liver may exist relative to the heart and the range of distances in which the liver may exist relative to the heart, and the heart A case where the volume size V′ of is stored in the memory 132 will be described.

図8は、実施形態に係る学習済みモデル生成機能135gが実行する処理の一例を説明するための図である。学習済みモデル生成機能135gは、アトラス情報モデル132aの重心位置(x1,y1,z1)を重心位置(x1´,y1´,z1´)に更新する。また、学習済みモデル生成機能135gは、アトラス情報モデル132aの位置関係情報1を位置関係情報1´に更新する。また、学習済みモデル生成機能135gは、アトラス情報モデル132aの位置関係情報2を位置関係情報2´に更新する。また、学習済みモデル生成機能135gは、アトラス情報モデル132aの心臓のボリュームサイズVを心臓のボリュームサイズV´に更新する。このようにして、学習済みモデル生成機能135gは、図8に示すアトラス情報モデル132bを生成する。 FIG. 8 is a diagram for explaining an example of processing executed by the learned model generation function 135g according to the embodiment. The learned model generation function 135g updates the barycentric position (x1, y1, z1) of the atlas information model 132a to the barycentric position (x1', y1', z1'). Also, the learned model generation function 135g updates the positional relationship information 1 of the atlas information model 132a to the positional relationship information 1'. Also, the learned model generation function 135g updates the positional relationship information 2 of the atlas information model 132a to the positional relationship information 2'. Also, the learned model generation function 135g updates the heart volume size V of the atlas information model 132a to the heart volume size V'. Thus, the learned model generation function 135g generates the atlas information model 132b shown in FIG.

そして、学習済みモデル生成機能135gは、メモリ132から医用画像データ11を取得する。 Then, the learned model generation function 135 g acquires the medical image data 11 from the memory 132 .

図9は、実施形態に係る学習済みモデル生成機能135gが実行する処理の一例を説明するための図である。図9には、実施形態の学習済みモデル12の生成方法の一例が示されている。図9に示すように、学習済みモデル生成機能135gは、医用画像データ11と、アトラス情報モデル132bとの関係を学習することによって学習済みモデル12を生成する。 FIG. 9 is a diagram for explaining an example of processing executed by the learned model generation function 135g according to the embodiment. FIG. 9 shows an example of a method of generating the trained model 12 of the embodiment. As shown in FIG. 9, the trained model generation function 135g generates the trained model 12 by learning the relationship between the medical image data 11 and the atlas information model 132b.

このように、学習済みモデル生成機能135gは、医用画像データ11と、アトラス情報モデル132bとを対応付けて学習することによって学習済みモデル12を生成する。 In this way, the trained model generation function 135g generates the trained model 12 by learning the medical image data 11 and the atlas information model 132b in association with each other.

例えば、学習済みモデル生成機能135gは、医用画像データ11を入力データとし、アトラス情報モデル132bを教師データとして機械エンジンに入力することによって、機械学習を行う。例えば、機械学習エンジンは、ディープラーニング(Deep Learning)、ニューラルネットワーク(Neural Network)、ロジスティック(Logistic)回帰分析、非線形判別分析、サポートベクターマシン(Support Vector Machine:SVM)、ランダムフォレスト(Random Forest)、ナイーブベイズ(Naive Bays)等の各種のアルゴリムを用いて、機械学習を行う。 For example, the learned model generation function 135g performs machine learning by inputting the medical image data 11 as input data and the atlas information model 132b as teacher data to the machine engine. For example, machine learning engines include deep learning, neural networks, logistic regression analysis, nonlinear discriminant analysis, support vector machines (SVM), random forests, Machine learning is performed using various algorithms such as Naive Bays.

学習済みモデル生成機能135gは、このような機械学習の結果として学習済みモデル12を生成する。学習済みモデル12は、医用画像データ11に相当する画像データが入力されることで、アトラス情報モデル132bに相当するモデルを推定(生成)し、出力する。 The learned model generation function 135g generates the learned model 12 as a result of such machine learning. The trained model 12 receives image data corresponding to the medical image data 11, estimates (generates) a model corresponding to the atlas information model 132b, and outputs the model.

そして、学習済みモデル生成機能135gは、生成した学習済みモデル12をメモリ132に記憶させる。そして、学習済みモデル生成機能135gは、新たな医用画像データ11と、新たなアトラス情報モデル132bとを対応付けて学習することによって学習済みモデル12に追加学習させる。本実施形態では、このようにして学習済みモデル12に追加学習させることが繰り返し行われる。 Then, the learned model generation function 135 g stores the generated learned model 12 in the memory 132 . Then, the learned model generation function 135g causes the learned model 12 to perform additional learning by associating the new medical image data 11 with the new atlas information model 132b for learning. In this embodiment, the additional learning of the trained model 12 is repeatedly performed in this way.

そして、上述したように、ステップS102では、取得機能135bは、追加学習された学習済みモデル12に医用画像データ11を入力し、学習済みモデル12から出力されたアトラス情報モデルを取得する。したがって、取得機能135bは、間接的に学習されたアトラス情報モデルを取得することができる。 Then, as described above, in step S102, the acquisition function 135b inputs the medical image data 11 to the additionally learned model 12 and acquires the atlas information model output from the learned model 12. FIG. Therefore, the acquisition function 135b can indirectly acquire the learned atlas information model.

以上、実施形態に係る画像処理装置130について説明した。実施形態に係る画像処理装置130は、ユーザの操作を必要とすることなく、医用画像データ11内の各臓器のセグメンテーション処理を同時に実行することができる。 The image processing apparatus 130 according to the embodiment has been described above. The image processing apparatus 130 according to the embodiment can simultaneously execute segmentation processing of each organ in the medical image data 11 without requiring user's operation.

また、実施形態に係る画像処理装置130は、AIを使って医用画像データ11全体から臓器をセグメンテーションするのではなく、学習されたアトラス情報モデルを用いて各臓器の重心をシード点として、セグメンテーション処理を行う。 In addition, the image processing apparatus 130 according to the embodiment does not segment organs from the entire medical image data 11 using AI, but uses a learned atlas information model to use the center of gravity of each organ as a seed point for segmentation processing. I do.

以上のことから、実施形態に係る画像処理装置130は、セグメンテーション処理全体の処理時間を短縮することができる。 As described above, the image processing apparatus 130 according to the embodiment can shorten the processing time of the entire segmentation process.

(実施形態の変形例1)
上述した実施形態では、アトラス情報モデル132aが特定の臓器に特化せず、複数の臓器の領域の重心位置や複数の臓器のボリュームサイズ等を含む場合について説明した。しかしながら、アトラス情報モデル132aが、特定の臓器(例えば心臓等)に特化したモデルであってもよい。そこで、このような変形例を実施形態の変形例1として説明する。なお、実施形態の変形例1の説明では、主に、実施形態と異なる点について説明し、実施形態と同様の構成の説明については省略する場合がある。
(Modification 1 of Embodiment)
In the above-described embodiment, the case where the atlas information model 132a does not specialize to a specific organ and includes the centroid positions of regions of multiple organs, the volume sizes of multiple organs, and the like has been described. However, the atlas information model 132a may be a model specialized for a specific organ (for example, heart). Therefore, such a modified example will be described as a modified example 1 of the embodiment. It should be noted that in the description of Modification 1 of the embodiment, differences from the embodiment will mainly be described, and description of the same configuration as the embodiment may be omitted.

例えば、変形例1では、アトラス情報モデル132aは、心臓に特化したモデルである。すなわち、アトラス情報モデル132aは、心臓を基準としたモデルである。具体的には、アトラス情報モデル132aは、心臓の重心位置、心臓のボリュームサイズ等の心臓に関する情報を有するが、他の臓器の領域の重心位置や他の臓器のボリュームサイズ等の情報を有さない。例えば、変形例1では、アトラス情報モデル132aは、先の図4に示す心臓に関する情報(Node2に関する情報)を有するが、他の臓器に関する情報を有さない。 For example, in Modification 1, the atlas information model 132a is a model specialized for the heart. That is, the atlas information model 132a is a model based on the heart. Specifically, the atlas information model 132a has information about the heart such as the position of the center of gravity of the heart and the volume size of the heart, but does not have information such as the position of the center of gravity of the region of other organs and the volume size of the other organs. do not have. For example, in Modification 1, the atlas information model 132a has information about the heart (information about Node2) shown in FIG. 4, but does not have information about other organs.

変形例1において、画像処理装置130が、上述したようなアトラス情報モデル132aを用いて、セグメンテーション処理を実行する場合について説明する。以下、セグメンテーション処理の対象の臓器が、心臓、肺及び肝臓である場合について説明する。 In Modified Example 1, the case where the image processing device 130 executes segmentation processing using the atlas information model 132a as described above will be described. A case where the target organs for segmentation processing are the heart, lungs, and liver will be described below.

まず、セグメンテーション実行機能135cは、アトラス情報モデル132aに含まれる心臓の重心位置をシード点の位置として取得する。セグメンテーション実行機能135cは、取得されたシード点の位置にシード点を設定する。そして、セグメンテーション実行機能135cは、設定されたシード点を用いて、医用画像データ11から心臓の領域をセグメンテーション(抽出)するセグメンテーション処理を実行する。そして、セグメンテーション実行機能135cは、セグメンテーションされた心臓の領域を取得する。 First, the segmentation execution function 135c acquires the position of the center of gravity of the heart included in the atlas information model 132a as the position of the seed point. The segmentation execution function 135c sets seed points at the positions of the obtained seed points. Then, the segmentation execution function 135c executes segmentation processing for segmenting (extracting) the heart region from the medical image data 11 using the set seed points. The segmentation execution function 135c then obtains the segmented regions of the heart.

そして、セグメンテーション実行機能135cは、アトラス情報モデル132aに含まれる位置関係情報1及び位置関係情報2を取得する。そして、セグメンテーション実行機能135cは、セグメンテーションされた心臓の領域と位置関係情報1とから、おおよその肺の領域の重心位置を推定する。そして、セグメンテーション実行機能135cは、医用画像データ11の推定された肺の領域の重心位置にシード点を設定する。そして、セグメンテーション実行機能135cは、設定されたシード点を用いて、医用画像データ11から肺の領域をセグメンテーションするセグメンテーション処理を実行して、肺の領域をセグメンテーションする。 Then, the segmentation execution function 135c acquires the positional relationship information 1 and the positional relationship information 2 included in the atlas information model 132a. Then, the segmentation executing function 135c estimates the approximate center-of-gravity position of the lung region from the segmented heart region and the positional relationship information 1 . Then, the segmentation execution function 135c sets a seed point at the position of the center of gravity of the estimated lung region of the medical image data 11. FIG. Then, the segmentation execution function 135c uses the set seed points to execute segmentation processing for segmenting the lung region from the medical image data 11, thereby segmenting the lung region.

また、セグメンテーション実行機能135cは、セグメンテーションされた心臓の領域と位置関係情報2とから、おおよその肝臓の領域の重心位置を推定する。そして、セグメンテーション実行機能135cは、医用画像データ11の推定された肝臓の領域の重心位置にシード点を設定する。そして、セグメンテーション実行機能135cは、設定されたシード点を用いて、医用画像データ11から肝臓の領域をセグメンテーションするセグメンテーション処理を実行して、肝臓の領域をセグメンテーションする。 Further, the segmentation execution function 135c estimates the approximate center-of-gravity position of the liver region from the segmented heart region and the positional relationship information 2 . Then, the segmentation execution function 135c sets a seed point at the barycentric position of the estimated liver region of the medical image data 11 . Then, the segmentation execution function 135c uses the set seed points to execute segmentation processing for segmenting the liver region from the medical image data 11, thereby segmenting the liver region.

したがって、実施形態の変形例1によれば、画像処理装置130は、ユーザの操作を必要とすることなく、医用画像データ11内の各臓器のセグメンテーション処理を同時に実行することができる。 Therefore, according to Modification 1 of the embodiment, the image processing apparatus 130 can simultaneously execute segmentation processing for each organ in the medical image data 11 without requiring user's operation.

また、実施形態の変形例1に係る画像処理装置130は、AIを使って医用画像データ11全体から臓器をセグメンテーションするのではなく、学習されたアトラス情報モデルを用いて各臓器の重心をシード点として、セグメンテーション処理を行う。 In addition, the image processing apparatus 130 according to Modification 1 of the embodiment does not use AI to segment organs from the entire medical image data 11, but uses a learned atlas information model to extract the center of gravity of each organ as a seed point. As such, segmentation processing is performed.

以上のことから、実施形態の変形例1に係る画像処理装置130は、セグメンテーション処理全体の処理時間を短縮することができる。 As described above, the image processing apparatus 130 according to Modification 1 of the embodiment can shorten the processing time of the entire segmentation process.

(実施形態の変形例2)
上述した実施形態では、画像処理装置130が、ステップS116において、セグメンテーションされた臓器の領域の重心位置、セグメンテーションされた隣接する2つの臓器についての位置関係情報、及び、セグメンテーションされた臓器のボリュームサイズをメモリ132に保存する場合について説明した。そして、上述した実施形態では、画像処理装置130が、保存されたこれらの情報を用いて、アトラス情報モデル132aに学習させる場合について説明した。しかしながら、画像処理装置130は、ステップS116において、アトラス情報モデル132aに含まれる情報と、セグメンテーションの結果から得られる情報との差分をメモリ132に保存させてもよい。そして、画像処理装置130は、保存された差分を用いて、アトラス情報モデル132aに学習させてもよい。そこで、このような変形例を実施形態の変形例2として説明する。なお、実施形態の変形例2の説明では、主に、実施形態と異なる点について説明し、実施形態と同様の構成の説明については省略する場合がある。
(Modification 2 of Embodiment)
In the above-described embodiment, in step S116, the image processing device 130 obtains the centroid position of the region of the segmented organ, the positional relationship information about the two adjacent segmented organs, and the volume size of the segmented organ. The case of saving in the memory 132 has been described. In the above-described embodiment, the case where the image processing device 130 causes the atlas information model 132a to learn using the saved information has been described. However, the image processing device 130 may cause the memory 132 to store the difference between the information included in the atlas information model 132a and the information obtained from the segmentation result in step S116. Then, the image processing device 130 may cause the atlas information model 132a to learn using the stored difference. Therefore, such a modification will be described as Modification 2 of the embodiment. It should be noted that in the description of Modified Example 2 of the embodiment, differences from the embodiment will mainly be described, and description of the same configuration as the embodiment may be omitted.

変形例2では、ステップS116において、制御機能135aは、アトラス情報モデル132aに含まれる臓器の領域の重心位置と、医用画像データ11におけるステップS112でセグメンテーションされた臓器の領域の重心位置との差分(重心位置の差分)を算出する。例えば、制御機能135aは、アトラス情報モデル132aに含まれる臓器の領域の重心位置を基準として、重心位置の差分を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域の重心位置と、アトラス情報モデル132aに含まれる臓器の領域の重心位置との差分を算出する。なお、同一の臓器の間で重心位置の差分が算出される。そして、制御機能135aは、算出された重心位置の差分をメモリ132に保存する。 In the second modification, in step S116, the control function 135a calculates the difference ( The difference in the center of gravity position) is calculated. For example, the control function 135a calculates the difference in the barycentric position with reference to the barycentric position of the region of the organ included in the atlas information model 132a. However, the control function 135a calculates the difference between the barycentric position of the region whose range has been changed in step S115 and the barycentric position of the organ region included in the atlas information model 132a. In addition, the difference of the center-of-gravity position is calculated between the same organs. Then, the control function 135 a stores the calculated difference in the center-of-gravity position in the memory 132 .

また、ステップS116において、制御機能135aは、アトラス情報モデル132aに含まれる位置関係情報と、セグメンテーションされた隣接する2つの臓器についての位置関係情報との差分(位置関係情報の差分)を算出する。例えば、制御機能135aは、アトラス情報モデル132aに含まれる位置関係情報を基準として、位置関係情報の差分を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域を用いて隣接する2つの臓器についての位置関係情報を算出し、算出された位置関係情報とアトラス情報モデル132aに含まれる位置関係情報との差分(位置関係情報の差分)を算出する。なお、同一の2つの隣接する臓器の間で位置関係情報の差分が算出される。そして、制御機能135aは、算出された位置関係情報の差分をメモリ132に保存する。 Also, in step S116, the control function 135a calculates a difference (difference in positional relationship information) between the positional relationship information included in the atlas information model 132a and the positional relationship information for the two adjacent organs that have been segmented. For example, the control function 135a calculates the difference of the positional relationship information based on the positional relationship information included in the atlas information model 132a. However, the control function 135a calculates the positional relationship information about the two adjacent organs using the region whose range has been changed in step S115, and calculates the calculated positional relationship information and the atlas. A difference (difference in positional relationship information) from the positional relationship information included in the information model 132a is calculated. Note that the difference in positional relationship information is calculated between the same two adjacent organs. Then, the control function 135a stores the calculated difference in the positional relationship information in the memory 132 .

また、ステップS116において、制御機能135aは、アトラス情報モデル132aに含まれる臓器のボリュームサイズと、セグメンテーションされた臓器のボリュームサイズとの差分(ボリュームサイズの差分)を算出する。例えば、制御機能135aは、アトラス情報モデル132aに含まれる臓器のボリュームサイズを基準として、ボリュームサイズの差分を算出する。ただし、制御機能135aは、ステップS115において範囲が変更された領域については、範囲が変更された領域から臓器のボリュームサイズを算出し、算出されたボリュームサイズとアトラス情報モデル132aに含まれる臓器のボリュームサイズとの差分(ボリュームサイズの差分)を算出する。なお、同一の臓器の間でボリュームサイズの差分が算出される。そして、制御機能135aは、算出されたボリュームサイズの差分をメモリ132に保存する。 Also, in step S116, the control function 135a calculates a difference (volume size difference) between the volume size of the organ included in the atlas information model 132a and the volume size of the segmented organ. For example, the control function 135a calculates the difference in volume size based on the volume size of the organ included in the atlas information model 132a. However, the control function 135a calculates the volume size of the organ from the area whose range has been changed in step S115, and calculates the calculated volume size and the volume of the organ included in the atlas information model 132a. Calculate the difference from the size (difference in volume size). Note that the difference in volume size is calculated between the same organs. Then, the control function 135 a stores the calculated difference in volume size in the memory 132 .

次に、変形例2において、アトラス情報モデル132aに学習させる方法の一例について説明する。例えば、制御機能135aは、メモリ132に保存された重心位置の差分、位置関係情報の差分、ボリュームサイズの差分を取得する。そして、制御機能135aは、取得された重心位置の差分、位置関係情報の差分、ボリュームサイズの差分を用いて、アトラス情報モデル132aに含まれる臓器の領域の重心位置、位置関係情報、臓器のボリュームサイズを補正する。すなわち、制御機能135aは、アトラス情報モデル132aに含まれる臓器の領域の重心位置を、アトラス情報モデル132aに含まれる臓器の領域の重心位置とセグメンテーション結果から得られる臓器の領域の重心位置との差分に基づいて補正する。また、制御機能135aは、アトラス情報モデル132aに含まれる2つの臓器の位置関係を、アトラス情報モデル132aに含まれる2つの臓器の位置関係とセグメンテーション結果から得られる2つの臓器の位置関係との差分に基づいて補正する。また、制御機能135aは、アトラス情報モデル132aに含まれる臓器のボリュームサイズを、アトラス情報モデル132aに含まれる臓器のボリュームサイズとセグメンテーション結果から得られる臓器のボリュームサイズとの差分に基づいて補正する。このような補正を繰り返し行うことにより、アトラス情報モデル132aに学習させる。 Next, in Modified Example 2, an example of a method of making the atlas information model 132a learn will be described. For example, the control function 135a acquires the difference in the center-of-gravity position, the difference in positional relationship information, and the difference in volume size stored in the memory 132 . Then, the control function 135a uses the obtained difference in the barycentric position, the difference in the positional relationship information, and the difference in the volume size to calculate the barycentric position of the region of the organ included in the atlas information model 132a, the positional relationship information, and the volume of the organ. Correct the size. That is, the control function 135a calculates the centroid position of the organ region included in the atlas information model 132a as the difference between the centroid position of the organ region included in the atlas information model 132a and the centroid position of the organ region obtained from the segmentation result. corrected based on In addition, the control function 135a calculates the positional relationship between the two organs included in the atlas information model 132a as the difference between the positional relationship between the two organs included in the atlas information model 132a and the positional relationship between the two organs obtained from the segmentation result. corrected based on The control function 135a also corrects the volume size of the organ included in the atlas information model 132a based on the difference between the volume size of the organ included in the atlas information model 132a and the volume size of the organ obtained from the segmentation result. By repeating such corrections, the atlas information model 132a is made to learn.

変形例2において、アトラス情報モデル132aに学習させる方法の具体例について説明する。例えば、制御機能135aは、学習済みモデル生成機能135gを制御し、学習済みモデル生成機能135gに以下の処理を実行させる。例えば、上述した実施形態では、学習済みモデル生成機能135gが、アトラス情報モデル132bを用いて学習済みモデル12に次々に追加学習させることで、間接的に、アトラス情報モデル132aに学習させる場合について説明した。一方、変形例2では、学習済みモデル生成機能135gは、アトラス情報モデル132bに代えて、制御機能135aにより取得された重心位置の差分、位置関係情報の差分、ボリュームサイズの差分を用いて学習済みモデル12に次々に追加学習させることで、間接的に、アトラス情報モデル132aに学習させる。 In Modification 2, a specific example of a method for making the atlas information model 132a learn will be described. For example, the control function 135a controls the learned model generation function 135g and causes the learned model generation function 135g to perform the following processing. For example, in the above-described embodiment, the learned model generation function 135g causes the atlas information model 132b to indirectly learn by causing the learned model 12 to additionally learn one after another using the atlas information model 132b. did. On the other hand, in Modification 2, the learned model generation function 135g uses the difference in the center-of-gravity position, the difference in the positional relationship information, and the difference in the volume size acquired by the control function 135a instead of the atlas information model 132b. The atlas information model 132a is indirectly learned by making the model 12 additionally learn one after another.

以上、実施形態の変形例2に係る画像処理装置130について説明した。変形例2に係る画像処理装置130は、実施形態に係る画像処理装置130と同様に、セグメンテーション処理全体の処理時間を短縮することができる。 The image processing apparatus 130 according to Modification 2 of the embodiment has been described above. The image processing apparatus 130 according to Modification 2 can shorten the processing time of the entire segmentation process, like the image processing apparatus 130 according to the embodiment.

なお、画像処理装置130の処理回路135は、シード点を用いたディテクション(detection)を行ってもよい。処理回路135は、学習済みモデルを用いて、かかるディテクションを行う。以下の説明では、このような学習済みモデルは、例えば、ディテクション用学習済みモデルと称される。 Note that the processing circuit 135 of the image processing device 130 may perform detection using seed points. Processing circuitry 135 performs such detection using a trained model. In the following description, such a trained model is referred to as, for example, a trained model for detection.

まず、処理回路135が実行する学習時のディテクション用学習済みモデルを生成する処理の一例について説明する。例えば、処理回路135は、学習時において、3次元データである医用画像データ11と、セグメンテーション実行機能135cにより医用画像データ11からセグメンテーションされた臓器の領域を包含する直方体の8つの頂点の座標と、ラベル(例えば、医用画像データ11からセグメンテーションされた臓器の名称)との関係を学習することによってディテクション用学習済みモデルを生成する。以下の説明では、ラベルが臓器の名称である場合について説明するが、ラベルはこれに限られない。このように、処理回路135は、医用画像データ11と、座標と、臓器の名称とを対応付けて学習することによってディテクション用学習済みモデルを生成する。 First, an example of processing for generating a learned model for detection during learning, which is executed by the processing circuit 135, will be described. For example, at the time of learning, the processing circuit 135 includes the medical image data 11, which is three-dimensional data, the coordinates of eight vertices of a rectangular parallelepiped containing the region of the organ segmented from the medical image data 11 by the segmentation execution function 135c, A trained model for detection is generated by learning a relationship with a label (for example, the name of an organ segmented from the medical image data 11). In the following description, the label is the name of the organ, but the label is not limited to this. In this way, the processing circuit 135 associates the medical image data 11, the coordinates, and the name of the organ with each other and learns to generate a learned model for detection.

例えば、処理回路135は、医用画像データ11を入力データとし、座標及びラベルの組合せを教師データとして機械エンジンに入力することによって、機械学習を行う。例えば、機械学習エンジンは、ディープラーニング、ニューラルネットワーク、ロジスティック回帰分析、非線形判別分析、サポートベクターマシン、ランダムフォレスト、ナイーブベイズ等の各種のアルゴリムを用いて、機械学習を行う。 For example, the processing circuit 135 performs machine learning by inputting the medical image data 11 as input data and a combination of coordinates and labels as training data to the machine engine. For example, the machine learning engine performs machine learning using various algorithms such as deep learning, neural network, logistic regression analysis, nonlinear discriminant analysis, support vector machine, random forest, and naive Bayes.

処理回路135は、このような機械学習の結果としてディテクション用学習済みモデルを生成する。ディテクション用学習済みモデルは、医用画像データ11に相当する画像データが入力されることで、医用画像データ11に相当する画像データにおいてセグメンテーションされた臓器の領域を包含する直方体の頂点の座標に相当する座標、及び、医用画像データ11に相当する画像データにおいてセグメンテーションされた臓器の名称に相当する臓器の名称を推定(生成)し、出力する。 The processing circuit 135 generates a learned model for detection as a result of such machine learning. When image data corresponding to the medical image data 11 is input, the trained model for detection corresponds to the coordinates of the vertices of a rectangular parallelepiped containing the region of the organ segmented in the image data corresponding to the medical image data 11. and the name of the organ corresponding to the name of the organ segmented in the image data corresponding to the medical image data 11 are estimated (generated) and output.

そして、処理回路135は、生成されたディテクション用学習済みモデルをメモリ132に記憶させる。上述したようなディテクション用学習済みモデルを生成する方法によれば、教師データを作成する際に要する時間の増大を抑制することができる。 Then, the processing circuit 135 stores the generated learned model for detection in the memory 132 . According to the method of generating a trained model for detection as described above, it is possible to suppress an increase in the time required to create teacher data.

次に、処理回路135が実行する運用時のディテクション用学習済みモデルを用いたディテクション処理の一例について説明する。例えば、処理回路135は、運用時において、医用画像データ11をディテクション用学習済みモデルに入力し、ディテクション用学習済みモデルに、医用画像データ11においてセグメンテーションされた臓器の領域を包含する直方体の頂点の座標に相当する座標、及び、医用画像データ11においてセグメンテーションされた臓器の名称に相当する臓器の名称を推定させ、出力させる。そして、処理回路135は、ディテクション用学習済みモデルにより出力された座標及び臓器の名称を取得する。 Next, an example of detection processing using a trained model for detection during operation executed by the processing circuit 135 will be described. For example, during operation, the processing circuit 135 inputs the medical image data 11 to the trained model for detection, and converts the trained model for detection to a rectangular parallelepiped region that includes the region of the organ segmented in the medical image data 11. The coordinates corresponding to the vertex coordinates and the name of the organ corresponding to the name of the organ segmented in the medical image data 11 are estimated and output. Then, the processing circuit 135 acquires the coordinates and the name of the organ output by the learned model for detection.

そして、処理回路135は、医用画像データ11に基づく医用画像をディスプレイ134に表示させるとともに、医用画像上にディテクション結果を重畳表示させる。例えば、処理回路135は、3次元データである医用画像データ11からコロナル像の画像データであるMPR画像データを生成する。そして、処理回路135は、生成したMPR画像データに基づくコロナル像をディスプレイ134に表示させる。また、処理回路135は、取得された座標により3次元空間における位置が示される8つの頂点を結ぶことにより得られる直方体を、コロナル像のコロナル断面で切断した場合のコロナル断面における直方体の形状(例えば矩形)を特定する。そして、処理回路135は、ディスプレイ134に表示されたコロナル像に、特定された形状を重畳表示させる。更に、処理回路135は、取得された臓器の名称をディスプレイ134に表示させる。これにより、ユーザは、ディスプレイ134に表示された形状内に存在する臓器の名称を把握することができる。 Then, the processing circuit 135 causes the display 134 to display a medical image based on the medical image data 11, and superimposes the detection result on the medical image. For example, the processing circuit 135 generates MPR image data, which is coronal image data, from the medical image data 11, which is three-dimensional data. Then, the processing circuit 135 causes the display 134 to display a coronal image based on the generated MPR image data. The processing circuit 135 also determines the shape of a rectangular parallelepiped (for example, rectangle). Then, the processing circuit 135 superimposes the specified shape on the coronal image displayed on the display 134 . Further, the processing circuit 135 causes the display 134 to display the name of the acquired organ. Thereby, the user can grasp the name of the organ existing in the shape displayed on the display 134 .

また、画像処理装置130の処理回路135は、シード点を用いたクラシフィケーション(classification)を行ってもよい。処理回路135は、学習済みモデルを用いて、かかるクラシフィケーションを行う。以下の説明では、このような学習済みモデルは、例えば、クラシフィケーション用学習済みモデルと称される。 The processing circuitry 135 of the image processing device 130 may also perform classification using seed points. Processing circuitry 135 performs such classification using the trained model. In the following description, such a trained model is referred to as, for example, a trained model for classification.

まず、処理回路135が実行する学習時のクラシフィケーション用学習済みモデルを生成する処理の一例について説明する。例えば、処理回路135は、学習時において、3次元データである医用画像データ11と、セグメンテーション実行機能135cにより医用画像データ11からセグメンテーションされた臓器の領域内の腫瘍の位置を示す情報(以下、位置情報と称する)と、腫瘍が悪性であるのか又は良性であるのかを示す情報(以下、良悪性情報と称する)との関係を学習することによってクラシフィケーション用学習済みモデルを生成する。このように、処理回路135は、医用画像データ11と、位置情報と、良悪性情報とを対応付けて学習することによってクラシフィケーション用学習済みモデルを生成する。 First, an example of processing for generating a trained model for classification during learning, which is executed by the processing circuit 135, will be described. For example, at the time of learning, the processing circuit 135 includes the medical image data 11, which is three-dimensional data, and information indicating the position of the tumor in the region of the organ segmented from the medical image data 11 by the segmentation execution function 135c (hereinafter referred to as position information) and information indicating whether the tumor is malignant or benign (hereinafter referred to as benign/malignant information) to generate a trained model for classification. In this way, the processing circuit 135 associates and learns the medical image data 11, position information, and benign/malignant information to generate a trained model for classification.

例えば、処理回路135は、医用画像データ11を入力データとし、位置情報及び良悪性情報の組合せを教師データとして機械エンジンに入力することによって、機械学習を行う。例えば、機械学習エンジンは、ディープラーニング、ニューラルネットワーク、ロジスティック回帰分析、非線形判別分析、サポートベクターマシン、ランダムフォレスト、ナイーブベイズ等の各種のアルゴリムを用いて、機械学習を行う。 For example, the processing circuit 135 performs machine learning by inputting the medical image data 11 as input data and a combination of the position information and benign/malignant information as training data to the machine engine. For example, the machine learning engine performs machine learning using various algorithms such as deep learning, neural network, logistic regression analysis, nonlinear discriminant analysis, support vector machine, random forest, and naive Bayes.

処理回路135は、このような機械学習の結果としてクラシフィケーション用学習済みモデルを生成する。クラシフィケーション用学習済みモデルは、医用画像データ11に相当する画像データが入力されることで、位置情報及び良悪性情報を推定(生成)し、出力する。 Processing circuitry 135 generates a trained model for classification as a result of such machine learning. The trained model for classification estimates (generates) position information and benign/malignant information by inputting image data corresponding to the medical image data 11, and outputs the information.

そして、処理回路135は、生成されたクラシフィケーション用学習済みモデルをメモリ132に記憶させる。上述したようなクラシフィケーション用学習済みモデルを生成する方法によれば、教師データを作成する際に要する時間の増大を抑制することができる。 Then, the processing circuit 135 stores the generated trained model for classification in the memory 132 . According to the method of generating a trained model for classification as described above, it is possible to suppress an increase in the time required to create teacher data.

次に、処理回路135が実行する運用時のクラシフィケーション用学習済みモデルを用いたクラシフィケーション処理の一例について説明する。例えば、処理回路135は、運用時において、医用画像データ11をクラシフィケーション用学習済みモデルに入力し、クラシフィケーション用学習済みモデルに、位置情報及び良悪性情報を推定させ、出力させる。そして、処理回路135は、クラシフィケーション用学習済みモデルにより出力された位置情報及び良悪性情報を取得する。 Next, an example of classification processing using a trained model for classification during operation executed by the processing circuit 135 will be described. For example, during operation, the processing circuit 135 inputs the medical image data 11 to a trained model for classification, and causes the trained model for classification to estimate and output position information and benign/malignant information. Then, the processing circuit 135 acquires the position information and benign/malignant information output by the trained model for classification.

そして、処理回路135は、医用画像データ11に基づく医用画像をディスプレイ134に表示させるとともに、医用画像上にクラシフィケーション結果を表示させる。例えば、処理回路135は、3次元データである医用画像データ11からコロナル像の画像データであるMPR画像データを生成する。そして、処理回路135は、生成したMPR画像データに基づくコロナル像をディスプレイ134に表示させる。また、処理回路135は、ディスプレイ134に表示されたコロナル像上の位置情報により示される腫瘍の位置に腫瘍を示すマークを重畳表示させる。更に、処理回路135は、良悪性情報をディスプレイ134に表示させる。これにより、ユーザは、ディスプレイ134に表示された腫瘍の位置及び腫瘍が悪性であるのか良性であるのかを把握することができる。 Then, the processing circuit 135 causes the display 134 to display the medical image based on the medical image data 11 and causes the classification result to be displayed on the medical image. For example, the processing circuit 135 generates MPR image data, which is coronal image data, from the medical image data 11, which is three-dimensional data. Then, the processing circuit 135 causes the display 134 to display a coronal image based on the generated MPR image data. Further, the processing circuit 135 superimposes a mark indicating the tumor on the position of the tumor indicated by the position information on the coronal image displayed on the display 134 . Further, the processing circuit 135 causes the display 134 to display benign/malignant information. Thereby, the user can grasp the position of the tumor displayed on the display 134 and whether the tumor is malignant or benign.

なお、上述した実施形態の説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。ここで、メモリ132にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合には、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。 In addition, the term "processor" used in the description of the above embodiments is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an application specific integrated circuit (ASIC), Circuits such as programmable logic devices (e.g., Simple Programmable Logic Devices (SPLDs), Complex Programmable Logic Devices (CPLDs), and Field Programmable Gate Arrays (FPGAs)) means. Here, instead of storing the program in the memory 132, the program may be directly installed in the circuit of the processor. In this case, the processor implements its functions by reading and executing the program embedded in the circuit. Further, each processor of the present embodiment is not limited to being configured as a single circuit for each processor, and may be configured as one processor by combining a plurality of independent circuits to realize its function. good.

ここで、プロセッサによって実行されるプログラムは、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な非一過性の記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納され、ネットワーク経由でダウンロードされることによって提供又は配布されてもよい。例えば、このプログラムは、上述した各処理機能を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。 Here, the program executed by the processor is pre-installed in a ROM (Read Only Memory), a storage circuit, or the like and provided. This program is a file in a format that can be installed in these devices or in a format that can be executed, such as CD (Compact Disk)-ROM, FD (Flexible Disk), CD-R (Recordable), DVD (Digital Versatile Disk), etc. may be recorded and provided on a non-transitory computer-readable storage medium. Also, this program may be provided or distributed by being stored on a computer connected to a network such as the Internet and downloaded via the network. For example, this program is composed of modules including each processing function described above. As actual hardware, the CPU reads out a program from a storage medium such as a ROM and executes it, so that each module is loaded onto the main storage device and generated on the main storage device.

以上説明した少なくとも一つの実施形態によれば、処理時間を短縮することができる。 According to at least one embodiment described above, the processing time can be shortened.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

130 画像処理装置
135a 制御機能
135c セグメンテーション実行機能
130 image processing device 135a control function 135c segmentation execution function

Claims (10)

仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行う推論部と、
前記仮想患者モデルに含まれる臓器の領域の重心位置を前記推論部による推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる学習部と、
を備える、画像処理装置。
an inference unit that sets seed points for image data using a virtual patient model and performs inference using the set seed points;
a learning unit that causes the virtual patient model to learn by correcting the barycentric position of the organ region included in the virtual patient model based on the barycentric position of the organ region obtained from the inference result of the inference unit;
An image processing device comprising:
前記推論部は、前記画像データにおける前記仮想患者モデルに含まれる前記臓器の領域の補正された重心位置に前記シード点を設定し、設定された前記シード点を用いて推論を行う、
請求項1に記載の画像処理装置。
The inference unit sets the seed point to the corrected center-of-gravity position of the region of the organ included in the virtual patient model in the image data, and performs inference using the set seed point.
The image processing apparatus according to claim 1.
前記学習部は、前記仮想患者モデルに含まれる2つの臓器の位置関係を前記推論結果から得られる2つの臓器の位置関係に基づいて補正する、
請求項1又は2に記載の画像処理装置。
The learning unit corrects the positional relationship between two organs included in the virtual patient model based on the positional relationship between the two organs obtained from the inference result.
The image processing apparatus according to claim 1 or 2.
前記学習部は、前記仮想患者モデルに含まれる臓器のボリュームサイズを前記推論結果から得られる臓器のボリュームサイズに基づいて補正する、
請求項1~3のいずれか1つに記載の画像処理装置。
The learning unit corrects the volume size of the organ included in the virtual patient model based on the volume size of the organ obtained from the inference result.
The image processing device according to any one of claims 1 to 3.
前記学習部は、前記仮想患者モデルに含まれる臓器の領域の重心位置を、前記仮想患者モデルに含まれる臓器の領域の重心位置と前記推論結果から得られる臓器の領域の重心位置との差分に基づいて補正する、
請求項1~4のいずれか1つに記載の画像処理装置。
The learning unit sets the barycentric position of the organ region included in the virtual patient model to the difference between the barycentric position of the organ region included in the virtual patient model and the barycentric position of the organ region obtained from the inference result. correct based on
The image processing device according to any one of claims 1 to 4.
前記学習部は、前記仮想患者モデルに含まれる2つの臓器の位置関係を、前記仮想患者モデルに含まれる2つの臓器の位置関係と前記推論結果から得られる2つの臓器の位置関係との差分に基づいて補正する、
請求項1~5のいずれか1つに記載の画像処理装置。
The learning unit converts the positional relationship between the two organs included in the virtual patient model into a difference between the positional relationship between the two organs included in the virtual patient model and the positional relationship between the two organs obtained from the inference result. correct based on
The image processing device according to any one of claims 1 to 5.
前記学習部は、前記仮想患者モデルに含まれる臓器のボリュームサイズを、前記仮想患者モデルに含まれる臓器のボリュームサイズと前記推論結果から得られる臓器のボリュームサイズとの差分に基づいて補正する、
請求項1~6のいずれか1つに記載の画像処理装置。
The learning unit corrects the volume size of the organ included in the virtual patient model based on the difference between the volume size of the organ included in the virtual patient model and the volume size of the organ obtained from the inference result.
The image processing device according to any one of claims 1 to 6.
前記推論結果を表示部に表示させる表示制御部を備える、
請求項1~7のいずれか1つに記載の画像処理装置。
A display control unit for displaying the inference result on a display unit,
The image processing device according to any one of claims 1 to 7.
コンピュータに、
仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行い、
前記仮想患者モデルに含まれる臓器の領域の重心位置を推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる、
処理を実行させるためのプログラム。
to the computer,
Setting seed points for image data using a virtual patient model, performing inference using the set seed points,
making the virtual patient model learn by correcting the centroid position of the organ region included in the virtual patient model based on the centroid position of the organ region obtained from the inference result;
A program for executing a process.
コンピュータが、
仮想患者モデルを用いて画像データに対してシード点を設定し、設定されたシード点を用いて推論を行い、
前記仮想患者モデルに含まれる臓器の領域の重心位置を推論結果から得られる臓器の領域の重心位置に基づいて補正することにより、前記仮想患者モデルに学習させる、
処理を実行する方法。
the computer
Setting seed points for image data using a virtual patient model, performing inference using the set seed points,
making the virtual patient model learn by correcting the centroid position of the organ region included in the virtual patient model based on the centroid position of the organ region obtained from the inference result;
How to perform an action.
JP2021043053A 2021-03-17 2021-03-17 Image processing device, program, and method Pending JP2022142832A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021043053A JP2022142832A (en) 2021-03-17 2021-03-17 Image processing device, program, and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021043053A JP2022142832A (en) 2021-03-17 2021-03-17 Image processing device, program, and method

Publications (1)

Publication Number Publication Date
JP2022142832A true JP2022142832A (en) 2022-10-03

Family

ID=83454088

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021043053A Pending JP2022142832A (en) 2021-03-17 2021-03-17 Image processing device, program, and method

Country Status (1)

Country Link
JP (1) JP2022142832A (en)

Similar Documents

Publication Publication Date Title
US20180174311A1 (en) Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation
EP3100236A1 (en) Method and system for constructing personalized avatars using a parameterized deformable mesh
CN108701220A (en) System and method for handling multi-modality images
JP2017174039A (en) Image classification device, method, and program
JP2015530193A (en) Multiple bone segmentation for 3D computed tomography
US10275909B2 (en) Systems and methods for an integrated system for visualizing, simulating, modifying and 3D printing 3D objects
JP6824845B2 (en) Image processing systems, equipment, methods and programs
US11954860B2 (en) Image matching method and device, and storage medium
CN111275762B (en) System and method for patient positioning
JP6357108B2 (en) Subject image labeling apparatus, method and program
US9547906B2 (en) System and method for data driven editing of rib unfolding
US20180064409A1 (en) Simultaneously displaying medical images
JP5194138B2 (en) Image diagnosis support apparatus, operation method thereof, and image diagnosis support program
US20180005378A1 (en) Atlas-Based Determination of Tumor Growth Direction
US20230260129A1 (en) Constrained object correction for a segmented image
WO2017180097A1 (en) Deformable registration of intra and preoperative inputs using generative mixture models and biomechanical deformation
JP2022111705A (en) Leaning device, image processing apparatus, medical image pick-up device, leaning method, and program
JP2022111704A (en) Image processing apparatus, medical image pick-up device, image processing method, and program
JP2022142832A (en) Image processing device, program, and method
US20210256741A1 (en) Region correction apparatus, region correction method, and region correction program
US20190378241A1 (en) A method and apparatus for positioning markers in images of an anatomical structure
CN111566699A (en) Registration of static pre-procedural planning data to dynamic intra-procedural segmentation data
US11138736B2 (en) Information processing apparatus and information processing method
EP3695380A1 (en) Hypersurface reconstruction of microscope view
US20240054643A1 (en) Image processing apparatus, image processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240208