JP6734111B2 - Finding information creation device and system - Google Patents

Finding information creation device and system Download PDF

Info

Publication number
JP6734111B2
JP6734111B2 JP2016094069A JP2016094069A JP6734111B2 JP 6734111 B2 JP6734111 B2 JP 6734111B2 JP 2016094069 A JP2016094069 A JP 2016094069A JP 2016094069 A JP2016094069 A JP 2016094069A JP 6734111 B2 JP6734111 B2 JP 6734111B2
Authority
JP
Japan
Prior art keywords
image
information
finding
finding information
virtual patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016094069A
Other languages
Japanese (ja)
Other versions
JP2017204041A (en
Inventor
塚越 伸介
伸介 塚越
崇博 後藤
崇博 後藤
豪 椋本
豪 椋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to JP2016094069A priority Critical patent/JP6734111B2/en
Publication of JP2017204041A publication Critical patent/JP2017204041A/en
Application granted granted Critical
Publication of JP6734111B2 publication Critical patent/JP6734111B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、所見情報作成装置及びシステムに関する。 Embodiments of the present invention relate to a finding information creation device and system.

従来、読影医は、医用画像診断装置により生成された画像を読影し、読影結果を所見情
報(レポート)として、臨床医に受け渡す。ここで、読影医は、読影結果をレポートとし
て作成する際に、手書きでシェーマを作成し、所見を手書きで入力していた。
Conventionally, a radiogram interpreter interprets an image generated by a medical image diagnostic apparatus, and passes the radiogram interpretation result to a clinician as finding information (report). Here, the image interpreting doctor, when creating the image interpretation result as a report, created a schema by handwriting and input the findings by handwriting.

特開2008−012171号公報JP, 2008-012171, A 特開2006−075490号公報JP, 2006-075490, A 特開2009−076102号公報JP, 2009-076102, A 特開2008−012229号公報JP, 2008-012229, A 特開2007−181623号公報JP, 2007-181623, A

本発明が解決しようとする課題は、所見情報の作成を簡易化することを可能とする所見
情報作成装置及びシステムを提供することである。
The problem to be solved by the present invention is to provide a finding information creating apparatus and system capable of simplifying creating finding information.

実施形態の所見情報作成装置は、検出部と、生成部とを備える。検出部は、被検体に対
するスキャンによって収集されたデータを用いて生成された画像における前記被検体の特
徴点を検出する。生成部は、前記画像において位置の指定と所見の入力とを受付け、人体
の解剖学的モデルに基づく仮想患者上で、指定された前記位置に対応する対応部位を前記
特徴点の位置に関する情報に基づいて特定し、前記対応部位と前記所見とを前記仮想患者
上に対応付けた所見情報を生成する。
The finding information creating apparatus according to the embodiment includes a detecting unit and a creating unit. The detection unit detects feature points of the subject in an image generated using the data collected by scanning the subject. The generation unit accepts the designation of the position and the input of the finding in the image, and on the virtual patient based on the anatomical model of the human body, the corresponding site corresponding to the designated position is set as information regarding the position of the feature point. Based on the virtual patient, the finding information in which the corresponding site and the finding are associated with each other on the virtual patient is generated.

図1は、第1の実施形態に係る医用情報処理システムの構成の一例を示す図である。FIG. 1 is a diagram showing an example of the configuration of a medical information processing system according to the first embodiment. 図2は、第1の実施形態に係る端末装置及び所見情報作成装置の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of the configurations of the terminal device and the finding information creation device according to the first embodiment. 図3Aは、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 3A is a diagram for explaining an example of a region detection process by the detection function according to the first embodiment. 図3Bは、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 3B is a diagram for explaining an example of a region detection process by the detection function according to the first embodiment. 図4は、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 4 is a diagram for explaining an example of a site detection process by the detection function according to the first embodiment. 図5は、第1の実施形態に係る検出機能による部位の検出処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a site detection process by the detection function according to the first embodiment. 図6は、第1の実施形態に係る記憶回路によって記憶される仮想患者画像の一例を示す図である。FIG. 6 is a diagram showing an example of a virtual patient image stored by the storage circuit according to the first embodiment. 図7は、第1の実施形態に係る位置照合機能による照合処理の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of the matching process by the position matching function according to the first embodiment. 図8は、第1の実施形態を説明するための図(1)である。FIG. 8 is a diagram (1) for explaining the first embodiment. 図9は、第1の実施形態を説明するための図(2)である。FIG. 9 is a diagram (2) for explaining the first embodiment. 図10は、第1の実施形態を説明するための図(3)である。FIG. 10 is a diagram (3) for explaining the first embodiment. 図11Aは、第1の実施形態を説明するための図(4)である。FIG. 11A is a diagram (4) for explaining the first embodiment. 図11Bは、第1の実施形態を説明するための図(5)である。FIG. 11B is a diagram (5) for explaining the first embodiment. 図12は、第1の実施形態に係る所見情報作成装置による処理手順を示すフローチャートである。FIG. 12 is a flowchart showing a processing procedure by the finding information creating apparatus according to the first embodiment. 図13は、第2の実施形態に係る処理回路の構成例を示す図である。FIG. 13 is a diagram illustrating a configuration example of the processing circuit according to the second embodiment. 図14は、第2実施形態を説明するための図(1)である。FIG. 14 is a diagram (1) for explaining the second embodiment. 図15は、第2実施形態を説明するための図(2)である。FIG. 15 is a diagram (2) for explaining the second embodiment. 図16Aは、第3の実施形態を説明するための図(1)である。FIG. 16A is a diagram (1) for explaining the third embodiment. 図16Bは、第3の実施形態を説明するための図(2)である。FIG. 16B is a diagram (2) for explaining the third embodiment. 図16Cは、第3の実施形態を説明するための図(3)である。FIG. 16C is a diagram (3) for explaining the third embodiment. 図16Dは、第3の実施形態を説明するための図(4)である。FIG. 16D is a diagram (4) for explaining the third embodiment.

以下、添付図面を参照して、所見情報作成装置及びシステムの実施形態を詳細に説明す
る。なお、以下、所見情報作成装置を含む医用情報処理システムを例に挙げて説明する。
なお、図1に示す医用情報処理システム100においては、サーバ装置と端末装置とがそ
れぞれ1台のみ示されているが、実際にはさらに複数のサーバ装置と端末装置とを含むこ
とができる。
Hereinafter, embodiments of a finding information creating apparatus and system will be described in detail with reference to the accompanying drawings. In the following, a medical information processing system including a finding information creation device will be described as an example.
In the medical information processing system 100 shown in FIG. 1, only one server device and one terminal device are shown, but in reality, a plurality of server devices and terminal devices may be included.

(第1の実施形態)
図1は、第1の実施形態に係る医用情報処理システム100の構成の一例を示す図であ
る。図1に示すように、第1の実施形態に係る医用情報処理システム100は、医用画像
診断装置1と、サーバ装置2と、端末装置3と、所見情報作成装置5とを備える。医用画
像診断装置1と、サーバ装置2と、端末装置3と、所見情報作成装置5とは、例えば、病
院内に設置された院内LAN(Local Area Network)4により、直接的、又は間接的に
相互に通信可能な状態となっている。例えば、医用情報処理システム100にPACS(
Picture Archiving and Communication System)が導入されている場合、各装置は、
DICOM(Digital Imaging and Communications in Medicine)規格に則って、
医用画像等を相互に送受信する。
(First embodiment)
FIG. 1 is a diagram showing an example of the configuration of a medical information processing system 100 according to the first embodiment. As shown in FIG. 1, the medical information processing system 100 according to the first embodiment includes a medical image diagnostic device 1, a server device 2, a terminal device 3, and a finding information creation device 5. The medical image diagnostic apparatus 1, the server apparatus 2, the terminal apparatus 3, and the finding information creation apparatus 5 are directly or indirectly provided by, for example, an in-hospital LAN (Local Area Network) 4 installed in a hospital. They can communicate with each other. For example, in the medical information processing system 100, the PACS (
If Picture Archiving and Communication System) is installed,
In accordance with DICOM (Digital Imaging and Communications in Medicine) standards,
Send and receive medical images to and from each other.

また、医用情報処理システム100においては、例えば、HIS(Hospital Informat
ion System)や、RIS(Radiology Information System)などが導入され、各種情
報が管理される。例えば、端末装置3は、上記したシステムに沿って作成された検査オー
ダーを医用画像診断装置1やサーバ装置2に送信する。医用画像診断装置1は、端末装置
3から直接受信した検査オーダー、或いは、検査オーダーを受信したサーバ装置2によっ
て作成されたモダリティごとの患者リスト(モダリティワークリスト)から患者情報を取
得して、患者ごとの医用画像データを収集する。そして、医用画像診断装置1は、収集し
た医用画像データや、医用画像データに対して各種画像処理を行うことで生成した画像デ
ータをサーバ装置2に送信する。サーバ装置2は、医用画像診断装置1から受信したX線
CT画像データ及び画像データを記憶するとともに、X線CT画像データから画像データ
の生成を行い、端末装置3からの取得要求に応じた画像データを端末装置3に送信する。
端末装置3は、サーバ装置2から受信した画像データをモニタなどに表示する。また、端
末装置3は、所見情報作成装置5から受信した所見情報をモニタなどに表示する。所見情
報作成装置5は、医用画像診断装置1から受信した医用画像データを用いて、所見情報を
生成する。以下、各装置について説明する。
In addition, in the medical information processing system 100, for example, HIS (Hospital Informat
Ion System) and RIS (Radiology Information System) are introduced to manage various information. For example, the terminal device 3 transmits the examination order created according to the system described above to the medical image diagnostic apparatus 1 and the server apparatus 2. The medical image diagnostic apparatus 1 obtains patient information from an examination order received directly from the terminal device 3 or a patient list (modality work list) for each modality created by the server apparatus 2 that receives the examination order, and acquires the patient information. Collect medical image data for each. Then, the medical image diagnostic apparatus 1 transmits the collected medical image data and image data generated by performing various image processing on the medical image data to the server apparatus 2. The server device 2 stores the X-ray CT image data and the image data received from the medical image diagnostic device 1, generates image data from the X-ray CT image data, and generates an image in response to an acquisition request from the terminal device 3. The data is transmitted to the terminal device 3.
The terminal device 3 displays the image data received from the server device 2 on a monitor or the like. The terminal device 3 also displays the finding information received from the finding information creating device 5 on a monitor or the like. The finding information creating apparatus 5 uses the medical image data received from the medical image diagnostic apparatus 1 to create finding information. Hereinafter, each device will be described.

医用画像診断装置1は、X線診断装置、X線CT(Computed Tomography)装置、MR
I(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT(Single Phot
on Emission Computed Tomography)装置、PET(Positron Emission computed
Tomography)装置、SPECT装置とX線CT装置とが一体化されたSPECT−CT装
置、PET装置とX線CT装置とが一体化されたPET−CT装置、又はこれらの装置群
等である。また、第1の実施形態に係る医用画像診断装置1は、3次元の医用画像データ
(ボリュームデータ)を生成可能である。
The medical image diagnostic apparatus 1 includes an X-ray diagnostic apparatus, an X-ray CT (Computed Tomography) apparatus, and an MR.
I (Magnetic Resonance Imaging) device, ultrasonic diagnostic device, SPECT (Single Phot)
on Emission Computed Tomography), PET (Positron Emission computed)
Tomography) device, a SPECT-CT device in which a SPECT device and an X-ray CT device are integrated, a PET-CT device in which a PET device and an X-ray CT device are integrated, or a group of these devices. Further, the medical image diagnostic apparatus 1 according to the first embodiment can generate three-dimensional medical image data (volume data).

具体的には、第1の実施形態に係る医用画像診断装置1は、被検体を撮影することによ
りボリュームデータを生成する。例えば、医用画像診断装置1は、被検体を撮影すること
により投影データやMR(Magnetic Resonance)信号等のデータを収集し、収集したデ
ータから、被検体の体軸方向に沿った複数のアキシャル(axial)面の医用画像データを
再構成することで、ボリュームデータを生成する。例えば、医用画像診断装置1は、50
0枚のアキシャル面の医用画像データを再構成する。この500枚のアキシャル面の医用
画像データ群が、ボリュームデータである。なお、医用画像診断装置1により撮影された
被検体の投影データやMR信号等自体をボリュームデータとしてもよい。
Specifically, the medical image diagnostic apparatus 1 according to the first embodiment generates volume data by imaging a subject. For example, the medical image diagnostic apparatus 1 collects data such as projection data and MR (Magnetic Resonance) signals by imaging a subject, and from the collected data, a plurality of axial (along the axial direction of the subject). Volume data is generated by reconstructing medical image data of the (axial) plane. For example, the medical image diagnostic apparatus 1 has 50
Reconstruct 0 medical image data of the axial plane. The medical image data group of the 500 axial surfaces is volume data. The projection data of the subject imaged by the medical image diagnostic apparatus 1, the MR signal and the like may be volume data.

また、第1の実施形態に係る医用画像診断装置1は、生成したボリュームデータをサー
バ装置2に送信する。なお、医用画像診断装置1は、ボリュームデータをサーバ装置2に
送信する際に、付帯情報として、例えば、患者を識別する患者ID、検査を識別する検査
ID、医用画像診断装置1を識別する装置ID、医用画像診断装置1による1回の撮影を
識別するシリーズ(series)ID等を送信する。
Further, the medical image diagnostic apparatus 1 according to the first embodiment transmits the generated volume data to the server device 2. When transmitting the volume data to the server apparatus 2, the medical image diagnostic apparatus 1 uses, as additional information, for example, a patient ID for identifying a patient, an examination ID for identifying an examination, and an apparatus for identifying the medical image diagnostic apparatus 1. An ID, a series ID for identifying one imaging by the medical image diagnostic apparatus 1, and the like are transmitted.

サーバ装置2は、医用画像診断装置1によって収集された3次元の医用画像データを記
憶したり、3次元の医用画像データに対して各種画像処理を行ったりする装置であり、例
えば、PACSサーバなどである。例えば、サーバ装置2は、各診療科に配置された端末
装置3から複数の検査オーダーを受信して、医用画像診断装置ごとに患者リストを作成し
て、作成した患者リストを各医用画像診断装置に送信する。一例を挙げると、サーバ装置
2は、医用画像診断装置1による検査を実施するための検査オーダーを各診療科の端末装
置3からそれぞれ受信して患者リストを作成し、作成した患者リストを医用画像診断装置
1に送信する。そして、サーバ装置2は、医用画像診断装置1によって収集された3次元
の医用画像データ及び医用画像データを記憶し、端末装置3からの取得要求に応じて、3
次元の医用画像データ及び医用画像データを端末装置3に送信する。
The server device 2 is a device that stores the three-dimensional medical image data collected by the medical image diagnostic device 1 and performs various image processing on the three-dimensional medical image data, such as a PACS server. Is. For example, the server device 2 receives a plurality of examination orders from the terminal device 3 arranged in each medical department, creates a patient list for each medical image diagnostic device, and uses the created patient list for each medical image diagnostic device. Send to. As an example, the server device 2 receives an inspection order for performing an inspection by the medical image diagnostic device 1 from each terminal device 3 of each clinical department to create a patient list, and the created patient list is used as a medical image. It is transmitted to the diagnostic device 1. Then, the server device 2 stores the three-dimensional medical image data and the medical image data collected by the medical image diagnostic device 1, and in response to an acquisition request from the terminal device 3,
The three-dimensional medical image data and the medical image data are transmitted to the terminal device 3.

端末装置3は、病院内の各診療科に配置され、各診療科に勤務する医師によって操作さ
れる装置であり、PC(Personal Computer)やタブレット式PC、PDA(Personal
Digital Assistant)、携帯電話等である。例えば、端末装置3は、医師によって患者の
症状や医師の所見などのカルテ情報や読影医による所見がまとめられた所見情報(レポー
トとも言う)が入力される。また、端末装置3は、医用画像診断装置1による検査をオー
ダーするための検査オーダーが入力され、入力された検査オーダーを医用画像診断装置1
やサーバ装置2に送信する。すなわち、診療科の医師は、端末装置3を操作して、来院し
た患者の受付情報と電子カルテの情報とを読み出し、該当する患者の診察を行い、読み出
した電子カルテにカルテ情報を入力する。そして、診療科の医師は、医用画像診断装置1
による検査の要否に応じて、端末装置3を操作して検査オーダーを送信する。
The terminal device 3 is a device that is arranged in each medical department in a hospital and is operated by a doctor who works in each medical department, and is a PC (Personal Computer), a tablet PC, or a PDA (Personal).
Digital Assistant), mobile phones, etc. For example, the terminal device 3 receives medical record information such as patient's symptoms and doctor's findings, and finding information (also referred to as a report) summarizing findings by an image interpreting doctor. Further, the terminal device 3 receives an examination order for ordering an examination by the medical image diagnostic apparatus 1, and the inputted examination order is the medical image diagnostic apparatus 1
Or to the server device 2. That is, the doctor in the medical department operates the terminal device 3 to read the reception information of the patient who has visited the hospital and the information of the electronic medical chart, examines the corresponding patient, and inputs the medical chart information to the read electronic medical chart. Then, the doctor in the medical department uses the medical image diagnostic apparatus 1
The terminal device 3 is operated to transmit the inspection order according to the necessity of the inspection by.

図2は、第1の実施形態に係る端末装置3及び所見情報作成装置5の構成の一例を示す
図である。図2に示すように、第1の実施形態に係る端末装置3は、入力回路31と、デ
ィスプレイ32と、通信IF33と、記憶回路34と、処理回路35とを有する。
FIG. 2 is a diagram illustrating an example of configurations of the terminal device 3 and the finding information creation device 5 according to the first embodiment. As shown in FIG. 2, the terminal device 3 according to the first embodiment includes an input circuit 31, a display 32, a communication IF 33, a storage circuit 34, and a processing circuit 35.

入力回路31は、端末装置3の操作者が各種指示や各種設定の入力に用いるマウスやキ
ーボード、トラックボール、スイッチ、ボタン、ジョイスティック等を有し、操作者から
受け付けた指示や設定の情報を、処理回路35に転送する。例えば、入力回路31は、操
作者から、医用画像データの撮影条件や、医用画像データを生成する際の生成条件、医用
画像データに対する画像処理条件等を受付ける。また、入力回路31は、被検体に対する
検査を選択するための操作を受付ける。また、入力回路31は、画像上の部位を指定する
ための指定操作を受付ける。また、入力回路31は、所見情報作成装置5から受信した所
見情報を表示するための操作を受付ける。
The input circuit 31 has a mouse, a keyboard, a trackball, a switch, a button, a joystick, and the like used by the operator of the terminal device 3 to input various instructions and various settings, and outputs information of instructions and settings received from the operator, Transfer to the processing circuit 35. For example, the input circuit 31 receives, from the operator, imaging conditions for medical image data, generation conditions for generating medical image data, image processing conditions for medical image data, and the like. Further, the input circuit 31 accepts an operation for selecting a test for a subject. The input circuit 31 also receives a designation operation for designating a part on the image. Further, the input circuit 31 receives an operation for displaying the finding information received from the finding information creating device 5.

ディスプレイ32は、操作者によって参照されるモニタであり、処理回路35による制
御のもと、医用画像データから生成された画像データを操作者に表示したり、入力回路3
1を介して操作者から各種指示や各種設定等を受け付けるためのGUI(Graphical Use
r Interface)を表示したりする。また、ディスプレイ32は、スキャン計画の計画画面
や、スキャン中の画面などを表示する。また、ディスプレイ32は、被曝情報を含む仮想
患者画像や画像データなどを表示する。なお、ディスプレイ32によって表示される仮想
患者画像については、後に詳述する。
The display 32 is a monitor referred to by the operator, and under the control of the processing circuit 35, the image data generated from the medical image data is displayed to the operator and the input circuit 3 is used.
GUI (Graphical Use) for receiving various instructions and various settings from the operator via
r Interface) is displayed. The display 32 also displays a scan planning screen, a screen during scanning, and the like. The display 32 also displays a virtual patient image including exposure information, image data, and the like. The virtual patient image displayed on the display 32 will be described in detail later.

通信IF33は、他装置との通信を制御する。例えば、通信IF33は、サーバ装置2
から医用画像データを受信したり、所見情報作成装置5から所見情報を受信したりする。
記憶回路34は、サーバ装置2から受信した画像データを記憶する。また、記憶回路34
は、所見情報作成装置5から受信した所見情報を記憶する。
The communication IF 33 controls communication with other devices. For example, the communication IF 33 is the server device 2
To receive medical image data and to receive finding information from the finding information creating device 5.
The storage circuit 34 stores the image data received from the server device 2. In addition, the memory circuit 34
Stores the finding information received from the finding information creating device 5.

処理回路35は、端末装置3の全体制御を行う。処理回路35は、図2に示すように、
表示制御機能35aを実行する。ここで、例えば、図2に示す処理回路35の構成要素で
ある表示制御機能35aが実行する処理機能は、コンピュータによって実行可能な表示制
御プログラムの形態で記憶回路34に記録されている。処理回路35は、表示制御プログ
ラムを記憶回路34から読み出し、実行することで表示制御プログラムに対応する機能を
実現するプロセッサである。換言すると、表示制御プログラムを読み出した状態の処理回
路35は、図2の処理回路35内に示された表示制御機能を有することとなる。例えば、
表示制御機能35aは、所見情報を取得し、ディスプレイ32に当該所見情報を表示する
。また、表示制御機能35aは、記憶回路34が記憶する各種画像データをディスプレイ
32に表示する。なお、表示制御機能35aのことを表示制御部とも言う。
The processing circuit 35 controls the entire terminal device 3. The processing circuit 35, as shown in FIG.
The display control function 35a is executed. Here, for example, the processing function executed by the display control function 35a which is a component of the processing circuit 35 shown in FIG. 2 is recorded in the storage circuit 34 in the form of a display control program executable by a computer. The processing circuit 35 is a processor that realizes a function corresponding to the display control program by reading the display control program from the storage circuit 34 and executing it. In other words, the processing circuit 35 in the state in which the display control program is read out has the display control function shown in the processing circuit 35 of FIG. For example,
The display control function 35a acquires the finding information and displays the finding information on the display 32. Further, the display control function 35a displays various image data stored in the storage circuit 34 on the display 32. The display control function 35a is also referred to as a display control unit.

所見情報作成装置5は、サーバ装置2から受信した医用画像データを用いて、所見情報
を生成する。図2に示すように、第1の実施形態に係る所見情報作成装置5は、入力回路
51と、ディスプレイ52と、通信IF53と、記憶回路54と、処理回路55とを有す
る。
The finding information creating device 5 uses the medical image data received from the server device 2 to create finding information. As shown in FIG. 2, the finding information creation device 5 according to the first embodiment includes an input circuit 51, a display 52, a communication IF 53, a storage circuit 54, and a processing circuit 55.

入力回路51は、所見情報の作成依頼を操作者から受付ける。また、入力回路51は、
読影対象の医用画像について位置の指定や所見入力を受付ける。また、入力回路51は、
作成された所見情報に対する各種操作の指定を受付ける。
The input circuit 51 receives a request for creating finding information from the operator. Further, the input circuit 51 is
Accepts position specification and finding input for medical images to be interpreted. Further, the input circuit 51 is
Accept the specification of various operations for the created finding information.

ディスプレイ52は、操作者によって参照されるモニタであり、処理回路55による制
御のもと、入力回路51を介して操作者から各種指示や各種設定等を受け付けるためのG
UI(Graphical User Interface)を表示したりする。また、ディスプレイ52は、仮
想患者画像や読影対象の医用画像データなどを表示する。なお、ディスプレイ52によっ
て表示される仮想患者画像については、後に詳述する。
The display 52 is a monitor referred to by the operator, and is a G for receiving various instructions and various settings from the operator via the input circuit 51 under the control of the processing circuit 55.
Display a UI (Graphical User Interface). The display 52 also displays a virtual patient image, medical image data to be interpreted, and the like. The virtual patient image displayed on the display 52 will be described in detail later.

通信IF53は、他装置との通信を制御する。例えば、通信IF33は、サーバ装置2
から医用画像データを受信したり、端末装置3に所見情報を送信したりする。記憶回路5
4は、サーバ装置2から受信した医用画像データを記憶する。また、記憶回路54は、作
成した所見情報を記憶する。
The communication IF 53 controls communication with other devices. For example, the communication IF 33 is the server device 2
Receives medical image data from the device, or transmits finding information to the terminal device 3. Memory circuit 5
4 stores the medical image data received from the server device 2. The storage circuit 54 also stores the created finding information.

処理回路55は、所見情報作成装置5の全体制御を行う。また、処理回路55は、図2
に示すように、取得機能55a、検出機能55b、位置照合機能55c、及び生成機能5
5dを実行する。ここで、例えば、図2に示す処理回路55の構成要素である取得機能5
5a、検出機能55b、位置照合機能55c、及び生成機能55dが実行する各処理機能
は、コンピュータによって実行可能なプログラムの形態で記憶回路54に記録されている
。処理回路55は、各プログラムを記憶回路54から読み出し、実行することで各プログ
ラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み出し
た状態の処理回路55は、図2の処理回路55内に示された各機能を有することとなる。
なお、検出機能55bのことを検出部とも言い、生成機能55dのことを生成部とも言う
The processing circuit 55 performs overall control of the finding information creation device 5. In addition, the processing circuit 55 is shown in FIG.
, The acquisition function 55a, the detection function 55b, the position matching function 55c, and the generation function 5
Run 5d. Here, for example, the acquisition function 5 which is a component of the processing circuit 55 shown in FIG.
Each processing function executed by 5a, the detection function 55b, the position matching function 55c, and the generation function 55d is recorded in the storage circuit 54 in the form of a program executable by a computer. The processing circuit 55 is a processor that realizes a function corresponding to each program by reading each program from the storage circuit 54 and executing the program. In other words, the processing circuit 55 in the state where each program is read out has each function shown in the processing circuit 55 of FIG.
The detection function 55b is also referred to as a detection unit, and the generation function 55d is also referred to as a generation unit.

取得機能55aは、サーバ装置2から読影対象の医用画像を取得する。例えば、所見情
報作成装置5は、読影医から指定された読影対象の検査IDがDICOMタグとして付与
された医用画像をサーバ装置2に要求する。サーバ装置2は、要求された検査IDをDI
COMタグに含んだ医用画像を検索して、所見情報作成装置5に応答する。
The acquisition function 55a acquires a medical image to be interpreted from the server device 2. For example, the finding information creating apparatus 5 requests the server apparatus 2 for a medical image to which the examination ID of the image interpretation target designated by the image interpretation doctor is added as a DICOM tag. The server device 2 sends the requested inspection ID to the DI
The medical image included in the COM tag is searched and the finding information creating device 5 is responded to.

検出機能55bは、3次元画像データに含まれる被検体における複数の部位をそれぞれ
検出する。具体的には、検出機能55bは、医用画像診断装置1によって生成されたボリ
ュームデータに含まれる臓器などの部位を検出する。例えば、検出機能55bは、ボリュ
ームデータについて、解剖学的な特徴点(Anatomical Landmark)に基づいて臓器などの
部位を検出する。ここで、解剖学的な特徴点とは、特定の骨や臓器、血管、神経、内腔な
どの部位の特徴を示す点である。すなわち、検出機能55bは、特定の臓器や骨などの解
剖学的な特徴点を検出することによって、ボリュームデータに含まれる骨や臓器、血管、
神経、内腔などを検出する。また、検出機能55bは、人体の特徴的な特徴点を検出する
ことで、ボリュームデータに含まれる頭部、首、胸部、腹部、足などの位置を検出するこ
ともできる。なお、本実施形態で説明する部位は、骨や臓器、血管、神経、内腔などにこ
れらの位置も含めたものを意味する。以下、検出機能55bによる部位の検出の一例につ
いて説明する。なお、検出機能55bが実行する「部位の検出処理」のことを「AL解析
」とも言う。
The detection function 55b detects each of a plurality of parts in the subject included in the three-dimensional image data. Specifically, the detection function 55b detects a site such as an organ included in the volume data generated by the medical image diagnostic apparatus 1. For example, the detection function 55b detects a site such as an organ in the volume data based on an anatomical feature point (Anatomical Landmark). Here, the anatomical characteristic point is a point indicating the characteristic of a site such as a specific bone, organ, blood vessel, nerve, or lumen. That is, the detection function 55b detects an anatomical feature point such as a specific organ or bone to detect the bone or organ, blood vessel, or the like included in the volume data.
Detect nerves, lumens, etc. Further, the detection function 55b can also detect the positions of the head, neck, chest, abdomen, legs, etc. included in the volume data by detecting characteristic feature points of the human body. The parts described in the present embodiment mean bones, organs, blood vessels, nerves, lumens, and the like including these positions. Hereinafter, an example of detection of a part by the detection function 55b will be described. The "region detection process" executed by the detection function 55b is also referred to as "AL analysis".

例えば、検出機能55bは、位置決め画像のボリュームデータ、或いは、診断に用いら
れる画像のボリュームデータにおいて、ボリュームデータに含まれるボクセルの値から解
剖学的な特徴点を抽出する。そして、検出機能55bは、教科書などの情報における解剖
学的な特徴点の3次元的な位置と、ボリュームデータから抽出した特徴点の位置とを比較
することによって、ボリュームデータから抽出した特徴点の中から不正確な特徴点を除去
して、ボリュームデータから抽出した特徴点の位置を最適化する。これにより、検出機能
37aは、ボリュームデータに含まれる被検体の各部位を検出する。一例を挙げると、検
出機能55bは、まず、教師あり機械学習アルゴリズムを用いて、ボリュームデータに含
まれる解剖学的な特徴点を抽出する。ここで、上記した教師あり機械学習アルゴリズムは
、正しい解剖学的な特徴点が手動で配置された複数の教師画像を用いて構築されたもので
あり、例えば、ディシジョンフォレスト(decision forest)などが利用される。
For example, the detection function 55b extracts an anatomical feature point from the voxel value included in the volume data in the volume data of the positioning image or the volume data of the image used for diagnosis. Then, the detection function 55b compares the three-dimensional position of the anatomical feature point in the information such as the textbook with the position of the feature point extracted from the volume data to determine the feature point extracted from the volume data. Inaccurate feature points are removed from the inside to optimize the positions of the feature points extracted from the volume data. Accordingly, the detection function 37a detects each part of the subject included in the volume data. For example, the detection function 55b first extracts an anatomical feature point included in the volume data by using a supervised machine learning algorithm. Here, the above-described supervised machine learning algorithm is constructed by using a plurality of teacher images in which correct anatomical feature points are manually arranged, and for example, a decision forest is used. To be done.

そして、検出機能55bは、身体における解剖学的な特徴点の3次元的な位置関係を示
すモデルと、抽出した特徴点とを比較することで、抽出した特徴点を最適化する。ここで
、上記したモデルは、上述した教師画像を用いて構築されたものであり、例えば、点分布
モデルなどが利用される。すなわち、検出機能55bは、正しい解剖学的な特徴点が手動
で配置された複数の教師画像に基づいて部位の形状や位置関係、部位に固有な点などが定
義されたモデルと、抽出した特徴点とを比較することで、不正確な特徴点を除去して、特
徴点を最適化する。
Then, the detection function 55b optimizes the extracted feature points by comparing the model showing the three-dimensional positional relationship of the anatomical feature points in the body with the extracted feature points. Here, the model described above is constructed using the above-mentioned teacher image, and for example, a point distribution model or the like is used. That is, the detection function 55b uses a model in which the shape and positional relationship of the part, points unique to the part, and the like are defined based on a plurality of teacher images in which correct anatomical feature points are manually arranged, and the extracted features. By comparing with points, inaccurate feature points are removed and feature points are optimized.

以下、図3A,3B,4,5を用いて、検出機能55bによる部位の検出処理の一例を
説明する。図3A,3B,4,5は、第1の実施形態に係る検出機能55bによる部位の
検出処理の一例を説明するための図である。なお、図3A,3Bにおいては、2次元上に
特徴点を配置しているが、実際には、特徴点は3次元的に配置される。例えば、検出機能
55bは、ボリュームデータに対して教師あり機械学習アルゴリズムを適用することで、
図3Aに示すように、解剖学的な特徴点とみなすボクセルを抽出する(図中の黒点)。そ
して、検出機能55bは、抽出したボクセルの位置を、部位の形状や位置関係、部位に固
有な点などが定義されたモデルにフィッティングさせることで、図3Bに示すように、抽
出したボクセルのうち不正確な特徴点を除去して、より正確な特徴点に対応するボクセル
のみを抽出する。
Hereinafter, an example of a site detection process by the detection function 55b will be described with reference to FIGS. 3A, 3B, 4, and 5. 3A, 3B, 4, and 5 are diagrams for describing an example of a site detection process by the detection function 55b according to the first embodiment. 3A and 3B, the characteristic points are arranged two-dimensionally, but in reality, the characteristic points are arranged three-dimensionally. For example, the detection function 55b applies the supervised machine learning algorithm to the volume data,
As shown in FIG. 3A, voxels regarded as anatomical feature points are extracted (black dots in the figure). Then, the detection function 55b fits the positions of the extracted voxels to a model in which the shape of the part, the positional relationship, points unique to the part, etc. are defined, so that among the extracted voxels, as shown in FIG. 3B. Inaccurate feature points are removed and only voxels corresponding to more accurate feature points are extracted.

ここで、検出機能55bは、抽出した特徴点(ボクセル)に対して、各部位の特徴を示
す特徴点を識別するための識別コードを付与し、識別コードと各特徴点の位置(座標)情
報とを対応づけた情報を画像データに付帯させて記憶回路54に格納する。例えば、検出
機能55bは、図3Bに示すように、抽出した特徴点(ボクセル)に対して、C1、C2
、C3などの識別コードを付与する。ここで、検出機能55bは、検出処理を行ったデー
タごとにそれぞれ識別コードを付帯させて、記憶回路54に格納する。具体的には、検出
機能55bは、位置決め画像の投影データ、非造影下で収集された投影データ、及び、造
影剤によって造影された状態で収集された投影データのうち、少なくとも1つの投影デー
タから再構成されたボリュームデータに含まれる被検体の部位を検出する。
Here, the detection function 55b assigns an identification code for identifying the feature point indicating the feature of each part to the extracted feature point (voxel), and the identification code and the position (coordinate) information of each feature point. Information associated with and is attached to the image data and stored in the storage circuit 54. For example, as shown in FIG. 3B, the detection function 55b uses C1, C2 for the extracted feature points (voxels).
, C3, etc. are assigned. Here, the detection function 55b attaches an identification code to each piece of data subjected to the detection processing and stores the identification code in the storage circuit 54. Specifically, the detection function 55b determines from at least one projection data among the projection data of the positioning image, the projection data collected under non-contrast, and the projection data collected in a state of being contrast-enhanced with a contrast agent. The part of the subject included in the reconstructed volume data is detected.

例えば、検出機能55bは、図4に示すように、位置決め画像のボリュームデータ(図
中、位置決め)から検出した各ボクセルの座標に識別コードを対応付けた情報をボリュー
ムデータに付帯させて記憶回路54に格納する。一例を挙げると、検出機能55bは、位
置決め画像のボリュームデータから標識点の座標を抽出して、図4に示すように、「識別
コード:C1、座標(x1, y1, z1)」、「識別コード:C2、座標(x2, y2,
2)」などをボリュームデータに対応付けて格納する。これにより、検出機能55bは
、位置決め画像のボリュームデータにおけるどの位置にどのような特徴点があるかを識別
することができ、これらの情報に基づいて臓器などの各部位を検出することができる。
For example, as shown in FIG. 4, the detection function 55b attaches to the volume data the information in which the identification code is associated with the coordinates of each voxel detected from the volume data (positioning in the figure) of the positioning image, and adds the information to the storage circuit 54. To store. As an example, the detection function 55b from the volume data of the positioning image by extracting the coordinates of the landmark, as shown in FIG. 4, "identification code: C1, coordinates (x 1, y 1, z 1) " , "Identification code: C2, coordinates (x 2 , y 2 ,
z 2 )” and the like are stored in association with the volume data. Thus, the detection function 55b can identify what kind of feature point is at which position in the volume data of the positioning image, and can detect each part such as an organ based on these pieces of information.

また、検出機能55bは、例えば、図4に示すように、診断用の画像のボリュームデー
タ(図中、スキャン)から検出した各ボクセルの座標に識別コードを対応付けた情報をボ
リュームデータに付帯させて記憶回路54に格納する。ここで、検出機能55bは、スキ
ャンにおいて、造影剤によって造影されたボリュームデータ(図中、造影Phase)と
、造影剤によって造影されていないボリュームデータ(図中、非造影Phase)とから
、それぞれ標識点の座標を抽出して、抽出した座標に識別コードを対応付けることができ
る。
Further, for example, as shown in FIG. 4, the detection function 55b attaches, to the volume data, information in which the identification code is associated with the coordinates of each voxel detected from the volume data (scan in the drawing) of the diagnostic image. Stored in the memory circuit 54. Here, in the scan, the detection function 55b labels from the volume data (contrast enhanced Phase in the figure) contrast-enhanced by the contrast agent and the volume data not contrasted by the contrast agent (non-contrast Phase in the figure). It is possible to extract the coordinates of the point and associate the identification code with the extracted coordinates.

一例を挙げると、検出機能55bは、診断用の画像のボリュームデータのうち、非造影
Phaseのボリュームデータから標識点の座標を抽出して、図4に示すように、「識別
コード:C1、座標(x’1, y’1, z’1)」、「識別コード:C2、座標(x’2,
y’2, z’2)」などをボリュームデータに対応付けて格納する。また、検出機能5
5bは、診断用の画像のボリュームデータのうち、造影Phaseのボリュームデータか
ら標識点の座標を抽出して、図4に示すように、「識別コード:C1、座標(x’1, y
1, z’1)」、「識別コード:C2、座標(x’2, y’2, z’2)」などをボリュ
ームデータに対応付けて格納する。ここで、造影Phaseのボリュームデータから標識
点を抽出する場合、造影されることで抽出可能となる標識点が含まれる。例えば、検出機
能55bは、造影Phaseのボリュームデータから標識点を抽出する場合、造影剤によ
って造影された血管などを抽出することができる。従って、造影Phaseのボリューム
データの場合、検出機能55bは、図4に示すように、造影することで抽出された血管な
どの標識点の座標(x’31, y’31, z’31)〜座標(x’34, y’34, z’34)な
どに、それぞれの血管を識別するための識別コードC31、C32、C33及びC34な
どを対応付ける。
For example, the detection function 55b extracts the coordinates of the marker point from the volume data of the non-contrast Phase in the volume data of the diagnostic image, and as shown in FIG. 4, “identification code: C1, coordinates (x '1, y' 1 , z '1) "," identification code: C2, coordinates (x' 2,
y '2, z' 2) "storing in association with such a volume data. In addition, the detection function 5
5b extracts the coordinates of the marker point from the volume data of the contrast phase from the volume data of the diagnostic image, and as shown in FIG. 4, “identification code: C1, coordinates (x′ 1 , y
'1, z' 1) "," identification code: C2, coordinates (x '2, y' 2 , z '2) "storing in association with such a volume data. Here, when the marker points are extracted from the volume data of the contrast phase, the marker points that can be extracted by being imaged are included. For example, the detection function 55b can extract a blood vessel or the like contrast-enhanced with a contrast agent when extracting a marker point from the volume data of the contrast phase. Therefore, when the volume data of the contrast Phase, detection 55b, as shown in FIG. 4, the coordinates of the landmark, such as a blood vessel extracted by contrast (x '31, y' 31 , z '31) ~ Identification codes C31, C32, C33, C34, etc. for identifying the respective blood vessels are associated with the coordinates (x′ 34 , y′ 34 , z′ 34 ), etc.

上述したように、検出機能55bは、位置決め画像、或いは、診断用の画像のボリュー
ムデータにおけるどの位置にどのような標識点があるかを識別することができ、これらの
情報に基づいて臓器などの各部位を検出することができる。例えば、検出機能55bは、
検出の対象となる対象部位と、対象部位の周辺の部位との解剖学的な位置関係の情報を用
いて、対象部位の位置を検出する。一例を挙げると、検出機能55bは、対象部位を「肺
」とした場合、肺の特徴を示す識別コードに対応付けられた座標情報を取得するとともに
、「肋骨」や「鎖骨」、「心臓」、「横隔膜」など、「肺」の周囲の部位を示す識別コー
ドに対応付けられた座標情報を取得する。そして、検出機能55bは、「肺」と周囲の部
位との解剖学的な位置関係の情報と、取得した座標情報とを用いて、ボリュームデータに
おける「肺」の領域を抽出する。
As described above, the detection function 55b can identify what position and what marker point is in the volume data of the positioning image or the diagnostic image, and based on these information, the organ and the like can be identified. Each site can be detected. For example, the detection function 55b is
The position of the target site is detected using the information on the anatomical positional relationship between the target site to be detected and the site around the target site. For example, the detection function 55b acquires the coordinate information associated with the identification code indicating the characteristics of the lung when the target part is “lung”, and the “rib”, “clavicle”, and “heart”. , Coordinate information associated with an identification code indicating a region around the “lung” such as “diaphragm” is acquired. Then, the detection function 55b uses the information on the anatomical positional relationship between the “lung” and the surrounding parts and the acquired coordinate information to extract the “lung” region in the volume data.

例えば、検出機能55bは、「肺尖:鎖骨の2〜3cm上方」や、「肺の下端:第7肋
骨の高さ」などの位置関係の情報と、各部位の座標情報とから、図5に示すように、ボリ
ュームデータにおいて「肺」に相当する領域R1を抽出する。すなわち、検出機能55b
は、ボリュームデータにおける領域R1のボクセルの座標情報を抽出する。検出機能55
bは、抽出した座標情報を部位情報と対応付けてボリュームデータに付帯させて記憶回路
54に格納する。同様に、検出機能55bは、図5に示すように、ボリュームデータにお
いて「心臓」に相当する領域R2などを抽出することができる。
For example, the detection function 55b uses the positional relationship information such as “lung apex: 2-3 cm above the clavicle”, “lower edge of the lung: height of the seventh rib”, and coordinate information of each part to determine the position shown in FIG. As shown in, the region R1 corresponding to the "lung" in the volume data is extracted. That is, the detection function 55b
Extracts the coordinate information of the voxel of the region R1 in the volume data. Detection function 55
In b, the extracted coordinate information is associated with the site information, attached to the volume data, and stored in the storage circuit 54. Similarly, the detection function 55b can extract a region R2 or the like corresponding to the "heart" in the volume data, as shown in FIG.

また、検出機能55bは、人体における頭部や胸部などの位置を定義する特徴点に基づ
いて、ボリュームデータに含まれる位置を検出する。ここで、人体における頭部や胸部な
どの位置は任意に定義することができる。例えば、第7頸椎から肺の下端までを胸部と定
義すると、検出機能55bは、第7頸椎に対応する特徴点から肺の下端に対応する特徴点
までを胸部として検出する。なお、検出機能55bは、上述した解剖学的な特徴点を用い
た方法以外にも種々の方法により部位を検出することができる。例えば、検出機能55b
は、ボクセル値に基づく領域拡張法などによりボリュームデータに含まれる部位を検出す
ることができる。
Further, the detection function 55b detects the position included in the volume data, based on the characteristic points that define the position of the head or chest of the human body. Here, the positions of the head and chest of the human body can be arbitrarily defined. For example, if the seventh cervical vertebra to the lower end of the lung is defined as the chest, the detection function 55b detects the characteristic point corresponding to the seventh cervical vertebra to the characteristic point corresponding to the lower end of the lung as the chest. The detection function 55b can detect the site by various methods other than the method using the anatomical feature points described above. For example, the detection function 55b
Can detect a site included in volume data by a region expansion method based on voxel values.

位置照合機能55cは、3次元画像データに含まれる被検体における複数の部位それぞ
れの位置と、仮想患者データに含まれる人体における複数の部位それぞれの位置とを照合
する。ここで、仮想患者データとは、人体における複数の部位それぞれの標準的な位置を
表す情報である。すなわち、位置照合機能55cは、被検体の部位と標準的な部位の位置
とを照合して、照合結果を記憶回路54に格納する。例えば、位置照合機能55cは、人
体の部位が標準的な位置に配置された仮想患者画像(単に仮想患者とも言う)と、被検体
のボリュームデータとをマッチングする。
The position matching function 55c matches the position of each of the plurality of parts of the subject included in the three-dimensional image data with the position of each of the plurality of parts of the human body included in the virtual patient data. Here, the virtual patient data is information representing the standard position of each of a plurality of parts in the human body. That is, the position matching function 55c matches the part of the subject with the position of the standard part and stores the matching result in the storage circuit 54. For example, the position matching function 55c matches a virtual patient image (also simply referred to as a virtual patient) in which a human body part is arranged at a standard position with the volume data of the subject.

ここで、まず、仮想患者画像について説明する。仮想患者画像は、年齢、成人/子供、
男性/女性、体重、身長などの体格などに関わるパラメータに関する複数の組み合わせに
応じた標準的な体格などを有する人体について実際にX線で撮影した画像として予め生成
されて、記憶回路54に格納される。すなわち、記憶回路54は、上述したパラメータの
組み合わせに応じた複数の仮想患者画像のデータを記憶する。ここで、記憶回路54によ
って記憶される仮想患者画像には、解剖学的な特徴点(特徴点)が対応づけて記憶される
。例えば、人体には、パターン認識等の画像処理により比較的容易にその形態的特徴等に
基づいて画像から抽出できる多数の解剖学的な特徴点がある。これら多数の解剖学的な特
徴点の身体におけるその位置や配置は年齢、成人/子供、男性/女性、体重、身長などの
体格等に従っておおよそ決まっている。
Here, first, the virtual patient image will be described. Virtual patient images can be age, adult/child,
It is generated in advance as an image of an actual X-ray image of a human body having a standard physique according to a plurality of combinations of parameters relating to physique, such as male/female, weight, and height, and is stored in the storage circuit 54. It That is, the storage circuit 54 stores the data of a plurality of virtual patient images according to the combination of the parameters described above. Here, anatomical feature points (feature points) are stored in association with each other in the virtual patient image stored by the storage circuit 54. For example, a human body has a large number of anatomical feature points that can be extracted from an image based on morphological features and the like relatively easily by image processing such as pattern recognition. The positions and arrangements of these numerous anatomical feature points in the body are roughly determined according to age, adult/child, male/female, weight, height and other physical constitutions.

記憶回路54によって記憶される仮想患者画像は、これら多数の解剖学的な特徴点が予
め検出され、検出された特徴点の位置データがそれぞれの特徴点の識別コードとともに仮
想患者画像のデータに付帯又は関連付けされて記憶される。図6は、第1の実施形態に係
る記憶回路54によって記憶される仮想患者画像の一例を示す図である。例えば、記憶回
路54は、図6に示すように、臓器などの部位を含む3次元の人体に、解剖学的な特徴点
と特徴点を識別するための識別コード「V1」、「V2」及び「V3」などとが関連付け
られた仮想患者画像を記憶する。
In the virtual patient image stored by the storage circuit 54, a large number of these anatomical feature points are detected in advance, and the position data of the detected feature points is attached to the data of the virtual patient image together with the identification code of each feature point. Alternatively, they are stored in association with each other. FIG. 6 is a diagram showing an example of a virtual patient image stored by the storage circuit 54 according to the first embodiment. For example, as shown in FIG. 6, the memory circuit 54 identifies the anatomical feature points and the identification codes “V1”, “V2”, and A virtual patient image associated with “V3” or the like is stored.

すなわち、記憶回路54は、3次元の人体画像のおける座標空間における特徴点の座標
と対応する識別コードとを関連付けて記憶する。一例を挙げると、記憶回路54は、図6
に示す識別コード「V1」に対応づけて、対応する特徴点の座標を記憶する。同様に、記
憶回路54は、識別コードと特徴点の座標とを対応づけて記憶する。なお、図6において
は、臓器として肺、心臓、肝臓、胃、腎臓などのみが示されているが、実際には、仮想患
者画像は、さらに多数の臓器、骨、血管、神経などが含まれる。また、図6においては、
識別コード「V1」、「V2」及び「V3」に対応する特徴点についてのみ示されている
が、実際にはさらに多数の特徴点が含まれる。
That is, the storage circuit 54 stores the coordinates of the feature points in the coordinate space in the three-dimensional human body image and the corresponding identification code in association with each other. As an example, the memory circuit 54 has a configuration shown in FIG.
The coordinates of the corresponding feature points are stored in association with the identification code “V1” shown in FIG. Similarly, the storage circuit 54 stores the identification code and the coordinates of the feature points in association with each other. In FIG. 6, only the lungs, heart, liver, stomach, kidneys, etc. are shown as the organs, but in reality, the virtual patient image includes more organs, bones, blood vessels, nerves, and the like. .. In addition, in FIG.
Although only the feature points corresponding to the identification codes “V1”, “V2”, and “V3” are shown, a larger number of feature points are actually included.

位置照合機能55cは、検出機能55bによって検出された被検体のボリュームデータ
中の特徴点と、上述した仮想患者画像中の特徴点とを識別コードを用いてマッチングして
、ボリュームデータの座標空間と仮想患者画像の座標空間とを関連付ける。図7は、第1
の実施形態に係る位置照合機能55cによる照合処理の一例を説明するための図である。
ここで、図7においては、スキャノ画像から検出した特徴点と仮想患者画像から検出され
た特徴点との間で同一の特徴点を示す識別コードが割り当てられた3組の特徴点を用いて
マッチングを行う場合について示すが、実施形態はこれに限定されるものではなく、任意
の組の特徴点を用いてマッチングを行うことができる。
The position matching function 55c matches a feature point in the volume data of the subject detected by the detection function 55b with a feature point in the virtual patient image described above by using an identification code to obtain a coordinate space of the volume data. Associate with virtual patient image coordinate space. FIG. 7 shows the first
FIG. 6 is a diagram for explaining an example of a matching process by a position matching function 55c according to the embodiment.
Here, in FIG. 7, matching is performed by using three sets of feature points to which identification codes indicating the same feature points are assigned between the feature points detected from the scanogram image and the feature points detected from the virtual patient image. However, the embodiment is not limited to this, and matching can be performed using an arbitrary set of feature points.

例えば、位置照合機能55cは、図7に示すように、仮想患者画像において識別コード
「V1」、「V2」及び「V3」で示される特徴点と、ボリュームデータにおいて識別コ
ード「C1」、「C2」及び「C3」で示される特徴点とをマッチングする場合、同一の
特徴点間の位置ずれが最小となるように座標変換することにより、画像間の座標空間を関
連付ける。例えば、位置照合機能55cは、図7に示すように、解剖学的に同じ特徴点「
V1(x1,y1,z1)、C1(X1,Y1,Z1)」、「V2(x2,y2,z2)、C2(X2,Y2,Z2)」、「
V3(x3,y3,z3)、C3(X3,Y3,Z3)」の間の位置ズレの合計「LS」を最小化するよう
に、以下の座標変換行列「H」を求める。
For example, as shown in FIG. 7, the position matching function 55c uses the characteristic points indicated by the identification codes “V1”, “V2” and “V3” in the virtual patient image and the identification points “C1” and “C2” in the volume data. When matching the feature points indicated by “C3” and “C3”, the coordinate space is associated with each other by performing coordinate conversion so that the positional deviation between the same feature points is minimized. For example, as shown in FIG. 7, the position matching function 55c has an anatomically same feature point "
V1(x1,y1,z1), C1(X1,Y1,Z1)", "V2(x2,y2,z2), C2(X2,Y2,Z2)", "
The following coordinate transformation matrix “H” is obtained so as to minimize the total “LS” of positional deviations between V3(x3,y3,z3) and C3(X3,Y3,Z3)”.

LS = ((X1,Y1,Z1)-H(x1,y1,z1))
+((X2,Y2,Z2)-H(x2,y2,z2))
+((X3,Y3,Z3)-H(x3,y3,z3))
LS = ((X1,Y1,Z1)-H(x1,y1,z1))
+ ((X2,Y2,Z2)-H(x2,y2,z2))
+ ((X3,Y3,Z3)-H(x3,y3,z3))

位置照合機能55cは、求めた座標変換行列「H」により、仮想患者画像上に指定され
た範囲をボリュームデータ上の範囲に変換することができる。例えば、位置照合機能55
cは、座標変換行列「H」を用いることで、図7に示すように、仮想患者画像上に指定さ
れた範囲「SRV」をボリュームデータ上の範囲「SRC」に変換することができる。例
えば、操作者が仮想患者画像上で範囲「SRV」を設定すると、位置照合機能55cは、
上述した座標変換行列「H」を用いて、設定された範囲「SRV」をボリュームデータ上
の範囲「SRC」に変換する。
The position matching function 55c can convert the range specified on the virtual patient image into the range on the volume data by the obtained coordinate conversion matrix “H”. For example, the position matching function 55
By using the coordinate conversion matrix “H”, c can convert the range “SRV” specified on the virtual patient image into the range “SRC” on the volume data, as shown in FIG. 7. For example, when the operator sets the range “SRV” on the virtual patient image, the position matching function 55c displays
The set range “SRV” is converted into the range “SRC” on the volume data using the coordinate conversion matrix “H” described above.

これにより、例えば、仮想患者画像上で識別コード「Vn」に対応する特徴点を含むよ
うに設定された範囲「SRV」は、ボリュームデータ上で同一の特徴点に対応する識別コ
ード「Cn」が含まれる範囲「SRC」に変換されて設定される。なお、上述した座標変
換行列「H」は、被検体ごとに記憶回路54に記憶されて、適宜読み出されて使用される
場合であってもよく、或いは、ボリュームデータが収集されるごとに算出される場合であ
ってもよい。このように第1の実施形態によれば、プリセット時の範囲指定のために仮想
患者画像を表示し、その上で位置・範囲を計画しておくことで、ボリュームデータの撮影
後に、計画された位置・範囲に対応するボリュームデータ上の位置・範囲を自動で数値設
定することが可能である。
As a result, for example, the range “SRV” set to include the feature point corresponding to the identification code “Vn” on the virtual patient image has the identification code “Cn” corresponding to the same feature point on the volume data. It is converted into the included range “SRC” and set. The coordinate conversion matrix “H” described above may be stored in the storage circuit 54 for each subject and appropriately read and used, or calculated each time volume data is collected. It may be the case. As described above, according to the first embodiment, by displaying the virtual patient image for the range designation at the time of presetting and planning the position/range on the virtual patient image, it is possible to plan after capturing the volume data. The position/range on the volume data corresponding to the position/range can be automatically set as a numerical value.

以上、医用情報処理システム100の全体構成、及び、第1の実施形態に係る端末装置
3及び所見情報作成装置5の構成について説明した。かかる構成のもと、第1の実施形態
に係る医用情報処理システム100では、読影医は、医用画像診断装置1によって撮影さ
れた医用画像を用いて読影を行い、読影結果をレポートとして作成し、臨床医に受け渡す
The overall configuration of the medical information processing system 100 and the configurations of the terminal device 3 and the finding information creation device 5 according to the first embodiment have been described above. Under such a configuration, in the medical information processing system 100 according to the first embodiment, the image interpretation doctor performs image interpretation using the medical image captured by the medical image diagnostic apparatus 1 and creates an image interpretation result as a report. Hand over to the clinician.

ここで、従来の医用情報処理システム100では、読影医は、読影結果をレポートとし
て作成する際に、マニュアルで一から手書きでシェーマを作成し、所見をコメントしてい
た。また、プリセットのシェーマを用いて、このシェーマ上に所見を記載しコメントして
いた。更に、実画像をキャプチャしてレポートに貼り付けた場合、臓器の輪郭だけでなく
、塗りつぶしなどがある。このため、読影医がキャプチャ画像上にコメントしても、レポ
ートを受け取った臨床医には記載されたコメントの内容を理解できない場合がある。すな
わち、従来技術に係る医用情報処理システム100では、レポートの作成が煩雑であり、
また、読影内容を正確に伝達することができない場合があった。
Here, in the conventional medical information processing system 100, when the image interpretation doctor creates the image interpretation result as a report, he manually creates a schema by hand and comments on the findings. In addition, using a preset schema, the findings were described and commented on this schema. Furthermore, when a real image is captured and pasted on a report, not only the outline of the organ but also the filling is performed. Therefore, even if the radiologist makes a comment on the captured image, the clinician who receives the report may not understand the contents of the comment. That is, in the medical information processing system 100 according to the related art, creating a report is complicated,
In addition, there are cases where the contents of image interpretation cannot be transmitted accurately.

このようなことから、第1の実施形態に係る所見情報作成装置5は、所見情報の作成を
簡易化する。例えば、第1の実施形態に係る所見情報作成装置5は、医用画像データにお
いて位置の指定と所見の入力とを受付ける。そして、第1の実施形態に係る所見情報作成
装置5は、人体の解剖学的モデルに基づく仮想患者上で、指定された位置に対応する対応
部位を特徴点の位置に関する情報に基づいて特定し、対応部位と所見とを仮想患者上に対
応付けた所見情報を生成する。このような機能は、生成機能55dにより実現される。以
下では、生成機能55dについて説明する。図8は、第1の実施形態を説明するための図
(1)であり、図9は、第1の実施形態を説明するための図(2)である。
Because of this, the finding information creation device 5 according to the first embodiment simplifies finding information creation. For example, the finding information creating apparatus 5 according to the first embodiment receives designation of a position and input of finding in medical image data. Then, the finding information creation device 5 according to the first embodiment specifies the corresponding site corresponding to the specified position on the virtual patient based on the anatomical model of the human body based on the information on the position of the feature point. , And generates finding information in which the corresponding part and the finding are associated with each other on the virtual patient. Such a function is realized by the generation function 55d. The generation function 55d will be described below. FIG. 8 is a diagram (1) for explaining the first embodiment, and FIG. 9 is a diagram (2) for explaining the first embodiment.

図8では、アキシャル面の医用画像データの一例を示す。この医用画像データは、例え
ば500枚のアキシャル面の医用画像データの一部を示すものである。読影医は、例えば
、500枚のアキシャル面の医用画像データを連続的に読影する。ここで、読影医は、あ
るアキシャル面の医用画像データで病変部位を発見した場合、この医用画像データで病変
部位の位置を指定する。例えば、図8の例では、読影医は、位置T1を病変部位として指
定した場合を示す。
FIG. 8 shows an example of medical image data on the axial surface. This medical image data represents a part of the medical image data of, for example, 500 axial surfaces. The image interpretation doctor continuously reads, for example, 500 pieces of medical image data on the axial surface. Here, when the diagnosing reading doctor finds a lesion part in the medical image data of a certain axial plane, the radiologist specifies the position of the lesion part in this medical image data. For example, in the example of FIG. 8, the radiogram interpreter designates the position T1 as a lesion site.

生成機能55dは、図8の位置T1の指定を受付けた場合、指定された位置T1に対応
する仮想患者上の対応部位を特徴点の位置に関する情報に基づいて特定する。図9では、
図8に示す位置T1の指定を受付けた場合の仮想患者画像の一例を示す。例えば、生成機
能55dは、図8の位置T1に対応する仮想患者上の部位として、図9に示すT11を特
定する。
When the generation function 55d receives the designation of the position T1 in FIG. 8, the generation function 55d identifies the corresponding site on the virtual patient corresponding to the designated position T1 based on the information regarding the position of the feature point. In Figure 9,
9 shows an example of a virtual patient image when the designation of the position T1 shown in FIG. 8 is accepted. For example, the generation function 55d identifies T11 shown in FIG. 9 as the site on the virtual patient corresponding to the position T1 in FIG.

また、生成機能55dは、指定された部位に対する所見を読影医から受付ける。なお、
所見の受付けは、入力回路51を介した文字入力でもよいし、読影医の発した音声を解析
して文字に変換してもよい。例えば、生成機能55dは、図9に示すように、検査日が2
015年4月3日であり、病変部位がS4であり、病変サイズが6mm×8mmであるこ
とを示した所見A1「2015年4月3日 S4 肝臓癌 6mm×8mm」を読影医が
読影した所見として仮想患者画像に対応付ける。なお、生成機能55dは、計測ツールで
自動的に計測された値を病変サイズとして用いてもよい。また、生成機能55dは、読影
医から受付けた所見であるか計測ツールで自動的に計測された所見であるかを識別する情
報を更に仮想患者画像に対応付けてもよい。更に、生成機能55dは、読影医から所見を
受付けた場合、読影医の名前を仮想患者画像に対応付けてもよい。
In addition, the generation function 55d receives a finding on the designated site from the image interpreting doctor. In addition,
The acceptance of the finding may be performed by inputting characters via the input circuit 51, or by analyzing the voice uttered by the image interpreting doctor and converting it into characters. For example, as shown in FIG. 9, the generation function 55d has an inspection date of 2
It was April 3, 015, the lesion site was S4, and the finding that the lesion size was 6 mm x 8 mm was read by the interpreting doctor A1 "April 3, 2015 S4 liver cancer 6 mm x 8 mm". The findings are associated with the virtual patient image. The generation function 55d may use the value automatically measured by the measurement tool as the lesion size. In addition, the generation function 55d may further associate information for identifying the finding received from the image interpretation doctor or the finding automatically measured by the measurement tool with the virtual patient image. Furthermore, the generation function 55d may associate the name of the image interpretation doctor with the virtual patient image when the finding is received from the image interpretation doctor.

ここで、生成機能55dは、生成した所見情報をDICOM情報として記憶させたり、
RIS或いはHISなどに記憶させたりする。これにより、患者IDと検査IDとを特定
することで、過去の検査の所見情報を特定したり、過去の検査で生成された医用画像を特
定したりすることが可能になる。例えば、生成機能55dは、更に、過去に生成した所見
情報である過去情報が存在する場合には、当該過去情報に含まれる対応部位及び所見の少
なくともいずれか一方を取得して、仮想患者上に対応付けた所見情報を生成する。図9に
示す例では、仮想患者の部位T11に対応付けられた過去の所見A2として「2015年
3月1日 S4 肝臓癌 5mm×4mm」を更に示している。
Here, the generation function 55d stores the generated finding information as DICOM information,
For example, it is stored in RIS or HIS. Accordingly, by specifying the patient ID and the examination ID, it is possible to specify the finding information of the past examination and the medical image generated in the past examination. For example, when there is past information that is previously generated finding information, the generation function 55d acquires at least one of the corresponding part and the finding included in the past information, and displays it on the virtual patient. The associated finding information is generated. In the example shown in FIG. 9, “March 1, 2015 S4 liver cancer 5 mm×4 mm” is further shown as a past finding A2 associated with the site T11 of the virtual patient.

また、生成機能55dは、過去に生成した所見情報を参照することで、腫瘍サイズの変
化を更に対応付けるようにしてもよい。この腫瘍サイズの変化を参照することで、臨床医
は、腫瘍の改善率などを指標として治療の効果を評価することが可能になる。
Further, the generation function 55d may further associate the change in tumor size with reference to the finding information generated in the past. By referring to this change in tumor size, the clinician can evaluate the effect of treatment by using the tumor improvement rate as an index.

なお、図9に示す例では、正面向きの仮想患者と横向きの仮想患者とを図示したが、実
施形態はこれに限定されるものではない。例えば、生成機能55dは、対応部位の位置に
応じて仮想患者を所定の方向に回転や拡大或いはパンさせて所見情報を生成するようにし
てもよい。また、生成機能55dは、操作者の指示に応じて仮想患者の向きを自由に回転
させたり操作者に指示された仮想患者の部位を拡大させたりしてもよい。
In addition, in the example shown in FIG. 9, the virtual patient facing the front and the virtual patient facing the side are illustrated, but the embodiment is not limited to this. For example, the generation function 55d may generate the finding information by rotating, enlarging, or panning the virtual patient in a predetermined direction according to the position of the corresponding part. Further, the generation function 55d may freely rotate the orientation of the virtual patient according to the instruction of the operator or may enlarge the part of the virtual patient instructed by the operator.

また、生成機能55dは、更に、所見情報の生成時における被検体Pの体格を反映させ
た仮想患者を選択して所見情報を生成するようにしてもよい。図10は、第1の実施形態
を説明するための図(3)である。図10では、前回の所見情報作成時よりも被検体Pの
体格が小さくなった場合について説明する。図10のVM1は、今回の所見情報作成時の
被検体Pの体格を反映した仮想患者を示し、VM2は、前回の所見情報作成時の被検体P
の体格を反映した仮想患者を示す。このように、所見情報作成時の被検体Pの体格を反映
した仮想患者上に所見を対応付けることで、例えば臨床医は、癌などの病変部位が縮小し
た場合に、被検体Pの体格の変化によるものであるのか、治療の効果によるものであるの
かを判断することが可能になる。
Further, the generation function 55d may further select the virtual patient in which the physique of the subject P at the time of generating the finding information is selected to generate the finding information. FIG. 10 is a diagram (3) for explaining the first embodiment. In FIG. 10, a case where the body size of the subject P becomes smaller than that when the finding information was created last time will be described. VM1 in FIG. 10 indicates a virtual patient that reflects the physique of the subject P at the time of creating the finding information this time, and VM2 indicates the subject P at the time of creating the previous finding information.
The virtual patient which reflected the physique of is shown. Thus, by associating the findings with the virtual patient that reflects the physique of the subject P at the time of creating the finding information, for example, the clinician can change the physique of the subject P when the lesion site such as cancer is reduced. It is possible to determine whether it is due to the treatment effect or the treatment effect.

また、生成機能55dは、過去の所見情報を更に対応付ける場合、過去の所見情報の生
成に用いられた過去画像と特定して、更に対応付けてもよい。例えば、生成機能55dは
、特徴点の位置に関する情報に基づいて、過去情報の生成に用いられた過去画像のうち、
今回の診断に用いた画像と同一位置の断面を示す過去画像を特定し、特定した過去画像を
更に対応付けた所見情報を生成するようにしてもよい。図11Aは、第1の実施形態を説
明するための図(4)であり、図11Bは、第1の実施形態を説明するための図(5)で
ある。
Further, when further associating the past finding information, the generating function 55d may specify the past image used for generating the past finding information and further associate it. For example, the generation function 55d may select, from among the past images used to generate the past information, based on the information about the positions of the feature points,
It is also possible to specify a past image showing a cross-section at the same position as the image used for this diagnosis and generate finding information in which the specified past image is further associated. FIG. 11A is a diagram (4) for explaining the first embodiment, and FIG. 11B is a diagram (5) for explaining the first embodiment.

図11Aでは、今回の所見情報作成時の画像を示し、図11Bでは、過去の所見情報作
成時の画像を示す。また、図11Aでは、被検体Pの体格が図10のVM1で反映される
アキシャル面の医用画像データの一例を示し、図11Bでは、被検体Pの体格が図10の
VM2で反映されるアキシャル面の医用画像データの一例を示す。通常、被検体Pの体格
が変わると、同じ断面を見つけにくいが、AL解析により過去の画像と現在の画像とを位
置合わせして仮想患者上に対応付けることが可能になる。これにより、臨床医は、過去の
画像と現在の画像との比較を行いやすくなる。
FIG. 11A shows an image at the time of creating the finding information this time, and FIG. 11B shows an image at the time of creating the past finding information. Further, FIG. 11A shows an example of the medical image data of the axial plane in which the physique of the subject P is reflected in VM1 of FIG. 10, and in FIG. 11B, the physique of the subject P is reflected in VM2 of FIG. An example of the medical image data of a surface is shown. Usually, when the body size of the subject P changes, it is difficult to find the same cross section, but it is possible to align the past image and the current image by the AL analysis and associate them with each other on the virtual patient. This makes it easier for the clinician to compare the past image with the current image.

図12は、第1の実施形態に係る所見情報作成装置5による処理手順を示すフローチャ
ートである。図12では、所見情報作成装置5全体の動作を説明するフローチャートを示
し、各構成要素がフローチャートのどのステップに対応するかを説明する。
FIG. 12 is a flowchart showing a processing procedure by the finding information creating apparatus 5 according to the first embodiment. FIG. 12 shows a flowchart for explaining the overall operation of the finding information creation apparatus 5, and explains which step in the flowchart each component corresponds to.

ステップS101は、取得機能55aに対応するステップである。処理回路55が記憶
回路54から取得機能55aに対応する所定のプログラムを呼び出し実行することにより
、取得機能55aが実現されるステップである。ステップS101では、取得機能55a
は、サーバ装置2から読影対象の医用画像データを取得する。
Step S101 is a step corresponding to the acquisition function 55a. This is a step in which the processing circuit 55 calls the predetermined program corresponding to the acquisition function 55a from the storage circuit 54 and executes the program to realize the acquisition function 55a. In step S101, the acquisition function 55a
Acquires the medical image data to be interpreted from the server device 2.

ステップS102は、検出機能55bに対応するステップである。処理回路55が記憶
回路54から検出機能55bに対応する所定のプログラムを呼び出し実行することにより
、検出機能55bが実現されるステップである。ステップS102では、検出機能55b
は、位置決め用画像に対してAL解析を実行する。
Step S102 is a step corresponding to the detection function 55b. In this step, the detection function 55b is realized by the processing circuit 55 calling a predetermined program corresponding to the detection function 55b from the storage circuit 54 and executing it. In step S102, the detection function 55b
Performs AL analysis on the positioning image.

ステップS103は、位置照合機能55cに対応するステップである。処理回路55が
記憶回路54から位置照合機能55cに対応する所定のプログラムを呼び出し実行するこ
とにより、位置照合機能55cが実現されるステップである。ステップS103では、位
置照合機能55cは、AL解析結果とプリセット位置とを照合する。
Step S103 is a step corresponding to the position matching function 55c. This is a step in which the processing circuit 55 calls the predetermined program corresponding to the position matching function 55c from the storage circuit 54 and executes the program to realize the position matching function 55c. In step S103, the position matching function 55c matches the AL analysis result with the preset position.

ステップS104〜ステップS109は、生成機能55dに対応するステップである。
処理回路55が記憶回路54から生成機能55dに対応する所定のプログラムを呼び出し
実行することにより、生成機能55dが実現されるステップである。ステップS104で
は、生成機能55dは、位置の指定を受付けたか否かを判定する。ここで、生成機能55
dは、位置の指定を受付けたと判定しなかった場合(ステップS104、No)、ステッ
プS104の判定処理を繰り返す。一方、生成機能55dは、位置の指定を受付けたと判
定した場合(ステップS104、Yes)、ステップS105では、仮想患者上で対応す
る部位を特定する。
Steps S104 to S109 are steps corresponding to the generation function 55d.
This is a step in which the processing function 55 calls the predetermined program corresponding to the generation function 55d from the storage circuit 54 and executes it, so that the generation function 55d is realized. In step S104, the generation function 55d determines whether the designation of the position has been accepted. Here, the generation function 55
If it is not determined that the designation of the position has been accepted (step S104, No), d repeats the determination process of step S104. On the other hand, when the generation function 55d determines that the designation of the position has been accepted (step S104, Yes), the corresponding part is identified on the virtual patient in step S105.

ステップS106では、生成機能55dは、所見を受付ける。そして、ステップS10
7では、生成機能55dは、仮想患者上に所見を対応付ける。続いて、ステップS108
では、生成機能55dは、所見情報作成の終了を受付けたか否かを判定する。ここで、生
成機能55dは、所見情報作成の終了を受付けたと判定しなかった場合(ステップS10
8、No)、ステップS104に移行する。一方、生成機能55dは、所見情報作成の終
了を受付けたと判定した場合(ステップS108、Yes)、ステップS109では、作
成した所見情報を臨床医が使用する端末装置3へ送信する。生成機能55dは、例えば、
図9に示した所見情報を端末装置3へ送信する。なお、生成機能55dは、生成した所見
情報をサーバ装置2へ送信してもよい。また、サーバ装置2へ所見情報を送信する場合、
担当医である臨床医が使用する端末装置3へ、所見情報の作成が完了した旨をメールや自
動音声案内で通知してもよい。
In step S106, the generation function 55d receives the finding. Then, step S10
In 7, the generation function 55d associates the findings on the virtual patient. Then, step S108.
Then, the generation function 55d determines whether or not the end of the finding information creation has been accepted. Here, when the generation function 55d does not determine that the completion of the finding information creation has been accepted (step S10).
8, No), and proceeds to step S104. On the other hand, when the generation function 55d determines that the completion of the finding information creation is accepted (Yes in step S108), the creating function 55d transmits the created finding information to the terminal device 3 used by the clinician. The generation function 55d is, for example,
The finding information shown in FIG. 9 is transmitted to the terminal device 3. The generation function 55d may transmit the generated finding information to the server device 2. In addition, when transmitting the finding information to the server device 2,
The terminal device 3 used by the clinician who is the attending doctor may be notified by mail or automatic voice guidance that the creation of the finding information is completed.

これにより端末装置3では、表示制御機能35aは、所見情報を取得し、所定の表示部
に当該所見情報を表示する。ここで、表示制御機能35aは、所見情報として表示された
仮想患者上に対応付けられた対応部位及び所見のうち、操作者によって選択された所見情
報に対応する画像を表示させる。一例をあげると、表示制御機能35aは、図9中の所見
A1が選択された場合、図8に示す画像を表示させる。また、表示制御機能35aは、図
9中の所見A2が選択された場合には、所見A2に対応付けられた過去の画像を表示させ
る。
Accordingly, in the terminal device 3, the display control function 35a acquires the finding information and displays the finding information on a predetermined display unit. Here, the display control function 35a displays an image corresponding to the finding information selected by the operator among the corresponding parts and findings associated with the virtual patient displayed as the finding information. As an example, the display control function 35a displays the image shown in FIG. 8 when the finding A1 in FIG. 9 is selected. Further, when the finding A2 in FIG. 9 is selected, the display control function 35a displays the past image associated with the finding A2.

また、表示制御機能35aは、所見情報として対応付けられた過去の対応部位及び所見
と、今回の対応部位及び所見とを異なる表示形態で表示させてもよい。例えば、表示制御
機能35aは、過去の対応部位及び所見を赤色で表示し、今回の対応部位及び所見を青色
で表示する。また、表示制御機能35aは、過去の対応部位及び所見と、今回の対応部位
及び所見とを操作者の選択に応じて表示を切り替えるようにしてもよい。更に、表示制御
機能35aは、所見情報として対応づけられた任意の情報を操作者からの選択に応じて表
示することが可能である。
Further, the display control function 35a may display the past corresponding part and finding associated with the finding information and the current corresponding part and finding in different display forms. For example, the display control function 35a displays past corresponding parts and findings in red and present corresponding parts and findings in blue. Further, the display control function 35a may switch the display of the corresponding part and finding of the past and the corresponding part and finding of this time according to the selection of the operator. Further, the display control function 35a can display arbitrary information associated with the finding information according to the selection by the operator.

なお、上述した実施形態では、所見情報は、仮想患者上で所見や画像などの情報が直接
的に対応付けられるものとして説明した。そして、端末装置3には、この所見情報が送信
されるものとして説明したが、実施形態はこれに限定されるものではない。例えば、生成
機能55dにより生成された所見情報は、キャプチャ画像として端末装置3に送信されて
もよい。かかる場合、表示制御機能35aは、キャプチャ画像として受信した所見情報を
端末装置3のディスプレイ32に表示させる。そして、表示制御機能35aは、端末装置
3の操作者の選択に応じて、所見情報作成装置5から選択された所見や画像を読み出して
、端末装置3のディスプレイ32に表示させる。
It should be noted that in the above-described embodiment, the finding information is described as the information such as the finding and the image directly associated with each other on the virtual patient. Then, although it has been described that the finding information is transmitted to the terminal device 3, the embodiment is not limited to this. For example, the finding information generated by the generating function 55d may be transmitted to the terminal device 3 as a captured image. In such a case, the display control function 35a causes the display 32 of the terminal device 3 to display the finding information received as the captured image. Then, the display control function 35 a reads the selected finding or image from the finding information creating apparatus 5 according to the selection of the operator of the terminal device 3, and causes the display 32 of the terminal device 3 to display the finding or image.

上述したように第1の実施形態では、所見情報作成装置5は、画像において位置の指定
と所見の入力とを受付け、指定された位置に対応する部位を、特徴点の位置に関する情報
に基づいて仮想患者上で対応部位として特定する。そして、所見情報作成装置5は、対応
部位と所見とを仮想患者上に対応付けた所見情報を生成する。このように、第1の実施形
態によれば、例えば、読影医は、画像を見ながら画像上の部位を指定して所見を入力する
ことで、所見情報を簡易に作成することが可能になる。
As described above, in the first embodiment, the finding information creating apparatus 5 accepts the designation of the position and the input of the finding in the image, and determines the part corresponding to the designated position based on the information about the position of the feature point. It is specified as a corresponding part on the virtual patient. Then, the finding information creation device 5 creates finding information in which the corresponding part and the finding are associated with each other on the virtual patient. As described above, according to the first embodiment, for example, an image interpretation doctor can easily create finding information by designating a part on the image and inputting the finding while viewing the image. ..

また、生成機能55dは、更に、被検体に照射された放射線量に関する情報、スキャン
時のスキャン条件及び指定された部位に形成された腫瘍サイズのうち少なくともいずれか
一つを更に仮想患者上に対応付けた所見情報を生成するようにしてもよい。
In addition, the generation function 55d further corresponds at least one of the information regarding the radiation dose applied to the subject, the scan condition at the time of scanning, and the tumor size formed in the designated site on the virtual patient. The attached finding information may be generated.

(第2の実施形態)
第1の実施形態では、所見情報作成装置5は、読影医から位置の指定を受付けて所見情
報を作成する場合について説明した。ところで、被検体Pの医用画像に対して所定の支援
診断アルゴリズムを用いて、病変部位を検出するコンピュータ支援診断(Computer Aide
d Diagnosis:CAD)処理が利用される場合がある。かかる場合、読影医は、CADの
処理結果を参照して、医用画像に対して読影を行う。このようなことから、所見情報作成
において、CAD機能を利用してもよいものである。そこで、第2の実施形態では、CA
D機能を利用して所見情報を作成する場合について説明する。
(Second embodiment)
In the first embodiment, the finding information creating apparatus 5 has described the case where the finding information is created by receiving the designation of the position from the image interpretation doctor. By the way, a computer-aided diagnosis (Computer Aide) for detecting a lesion site is performed on a medical image of the subject P using a predetermined assisted diagnosis algorithm.
d Diagnosis (CAD) processing may be used. In such a case, the image interpretation doctor refers to the CAD processing result and performs image interpretation on the medical image. For this reason, the CAD function may be used in creating the finding information. Therefore, in the second embodiment, CA
A case where finding information is created using the D function will be described.

第2の実施形態に係る所見情報作成装置5の構成は、処理回路の一部の構成が異なる点
を除いて、第1の実施形態に係る所見情報作成装置5の構成と同様である。このため、処
理回路以外の説明については省略する。図13は、第2の実施形態に係る処理回路150
の構成例を示す図である。
The configuration of the finding information creation device 5 according to the second embodiment is the same as the configuration of the finding information creation device 5 according to the first embodiment, except that a part of the processing circuit is different. Therefore, explanations other than the processing circuit are omitted. FIG. 13 shows a processing circuit 150 according to the second embodiment.
It is a figure which shows the structural example.

第2の実施形態に係る処理回路150は、図13に示すように、取得機能55a、検出
機能55b、位置照合機能55c、診断機能150a及び生成機能55dを実行する。こ
こで、例えば、図13に示す処理回路150の構成要素である取得機能55a、検出機能
55b、位置照合機能55c、診断機能150a及び生成機能55dが実行する各処理機
能は、コンピュータによって実行可能なプログラムの形態で記憶回路54に記録されてい
る。処理回路150は、各プログラムを記憶回路54から読み出し、実行することで各プ
ログラムに対応する機能を実現するプロセッサである。換言すると、各プログラムを読み
出した状態の処理回路150は、図13の処理回路150内に示された各機能を有するこ
ととなる。なお、検出機能55bのことを検出部とも言い、診断機能150aのことを診
断部とも言い、生成機能55dのことを生成部とも言う。
As shown in FIG. 13, the processing circuit 150 according to the second embodiment executes an acquisition function 55a, a detection function 55b, a position matching function 55c, a diagnostic function 150a, and a generation function 55d. Here, for example, the processing functions executed by the acquisition function 55a, the detection function 55b, the position matching function 55c, the diagnostic function 150a, and the generation function 55d, which are the constituent elements of the processing circuit 150 illustrated in FIG. 13, can be executed by a computer. It is recorded in the storage circuit 54 in the form of a program. The processing circuit 150 is a processor that realizes a function corresponding to each program by reading each program from the storage circuit 54 and executing the program. In other words, the processing circuit 150 in the state where each program is read out has the respective functions shown in the processing circuit 150 of FIG. The detection function 55b is also referred to as a detection unit, the diagnosis function 150a is also referred to as a diagnosis unit, and the generation function 55d is also referred to as a generation unit.

診断機能150aは、検出機能55bにより検出された特徴点に基づく画像上の被検体
Pの部位に対して支援診断処理を実行し、処理結果を画像上に描出させる。図14は、第
2実施形態を説明するための図(1)である。図14では、アキシャル面の医用画像デー
タについてCAD処理を実行した結果の一例を示す。図14の例では、診断機能150a
が、病変部位の候補としてCAD1とCAD2とを検出した場合を示す。そして、例えば
、読影医は、図14に示すCAD処理の結果を読影し、CAD1は病変部位であるがCA
D2は病変部位ではないと判断したものとする。かかる場合、読影医は、入力回路51を
介してCAD1のみを選択する。
The diagnosis function 150a executes a support diagnosis process on the part of the subject P on the image based on the feature points detected by the detection function 55b, and visualizes the process result on the image. FIG. 14 is a diagram (1) for explaining the second embodiment. FIG. 14 shows an example of the result of executing the CAD processing on the medical image data on the axial surface. In the example of FIG. 14, the diagnostic function 150a
Shows the case where CAD1 and CAD2 were detected as candidates for the lesion site. Then, for example, the image interpreting doctor interprets the result of the CAD processing shown in FIG. 14, and CAD 1 is a lesion site, but CA
It is determined that D2 is not a lesion site. In such a case, the image interpretation doctor selects only CAD1 via the input circuit 51.

そして、生成機能55dは、更に、画像に描出された処理結果の選択を受付け、選択さ
れた処理結果に対応する仮想患者上の部位を対応部位として特定し、仮想患者上に対応付
けた所見情報を生成する。図15は、第2実施形態を説明するための図(2)である。図
15では、図14のCAD1の選択を受付けた場合の仮想患者画像の一例を示す。図15
に示すように、生成機能55dは、図14のCAD1に対応する仮想患者上の部位を対応
部位として特定し、仮想患者上に対応付けた所見情報を生成する。また、読影医により、
この対応部位に対して所見が入力された場合には、生成機能55dは、この所見を更に仮
想患者上に対応付ける。図15の例では、「S4 肝臓がん 6mm×8mm」を読影医
が読影した所見として入力した場合を示す。このように、CAD処理の結果を所見情報の
作成に利用することにより、読影医はより簡便に所見情報を作成することが可能になる。
Then, the generation function 55d further accepts the selection of the processing result rendered in the image, identifies the site on the virtual patient corresponding to the selected processing result as the corresponding site, and the finding information associated with the virtual patient. To generate. FIG. 15 is a diagram (2) for explaining the second embodiment. FIG. 15 shows an example of a virtual patient image when the selection of CAD1 in FIG. 14 is accepted. Figure 15
As shown in FIG. 14, the generation function 55d specifies the site on the virtual patient corresponding to CAD1 in FIG. 14 as the corresponding site, and generates the finding information associated with the virtual patient. In addition, by interpretation doctor,
When a finding is input to this corresponding part, the generation function 55d further associates this finding with the virtual patient. The example of FIG. 15 illustrates a case where “S4 liver cancer 6 mm×8 mm” is input as the finding read by the image reading doctor. As described above, by using the result of the CAD processing for creating the finding information, the image interpretation doctor can create the finding information more easily.

なお、図14では、診断機能150aが、CAD処理の結果として病変部位の候補を丸
印で示す例を説明したが、実施形態はこれに限定されるものではない。例えば、診断機能
150aは、CAD処理の結果として推定の所見も提供するようにしてもよい。かかる場
合、診断機能150aは、病変部位の候補に所見も更に対応付けたCAD処理の結果を表
示してもよい。また、生成機能55dは、図15において、選択を受付けた病変部位の候
補に対応付けられた所見を、仮想患者に更に対応付けるようにしてもよい。
In FIG. 14, the diagnostic function 150a describes an example in which the candidate of the lesion site is indicated by a circle as a result of the CAD process, but the embodiment is not limited to this. For example, diagnostic function 150a may also provide inferred findings as a result of CAD processing. In such a case, the diagnostic function 150a may display the result of the CAD processing in which the finding is further associated with the lesion site candidate. In addition, the generation function 55d may further associate the findings associated with the lesion site candidates for which selection has been accepted in FIG. 15 with the virtual patient.

(第3の実施形態)
第1の実施形態や第2の実施形態により作成された所見情報は、臨床医に適用されるだ
けではなく、例えば患者への説明にも利用可能である。ところで、実際の生体組織が描出
された実画像は、患者にとって視覚的に好ましくない場合がある。そこで、第3の実施形
態では、所見情報を例えば患者への説明用に、実際の生体組織を簡易化して描出する場合
ついて説明する。図16A〜図16Dは、第3の実施形態を説明するための図(1)〜(
4)である。図16Aでは、仮想患者上に対応付けられた病変部位T11を示す。
(Third Embodiment)
The finding information created by the first embodiment and the second embodiment can be applied not only to the clinician but also to the patient, for example. By the way, the actual image in which the actual biological tissue is depicted may be visually unfavorable to the patient. Therefore, in the third embodiment, a case will be described in which the finding information is simplified and depicted as actual living tissue for explanation to a patient, for example. 16A to 16D are diagrams (1) to ((1) for explaining the third embodiment.
4). In FIG. 16A, the lesion site T11 associated with the virtual patient is shown.

図16Aでは、仮想患者において、実際の生体組織を詳細に模倣した構造物が描出され
ている。そこで、生成機能55dは、例えば、実際の画像から特徴量を算出し、画像に描
出される構造物を簡易化して、仮想患者上に描出した簡易画像を生成する。例えば、図1
6Bに示すように、生成機能55dは、仮想患者上に病変部位の位置を示す目印を対応付
けた簡易画像を生成する。或いは、生成機能55dは、図16Cや図16Dに示すように
、画像に描出される構造物を輪郭のみ表示した簡易画像を生成するようにしてもよい。例
えば、生成機能55dは、図16Cでは、胆嚢における病変部位を簡易化して示し、図1
6Dでは、冠動脈における病変部位を簡易化して示す。また、生成機能55dは、仮想患
者上に更に所見を対応付けた簡易画像を生成してもよい。或いは、生成機能55dは、仮
想患者上に更に撮影条件や被検体の被曝量などを対応付けた簡易画像を生成してもよい。
In FIG. 16A, a structure that closely mimics the actual living tissue is depicted in the virtual patient. Therefore, the generation function 55d, for example, calculates the feature amount from the actual image, simplifies the structure depicted in the image, and generates the simplified image depicted on the virtual patient. For example, in FIG.
As shown in 6B, the generation function 55d generates a simple image in which a mark indicating the position of the lesion site is associated with the virtual patient. Alternatively, as shown in FIGS. 16C and 16D, the generation function 55d may generate a simple image in which only the outline of the structure depicted in the image is displayed. For example, in FIG. 16C, the generation function 55d is a simplified representation of a lesion site in the gallbladder, and FIG.
In 6D, the lesion site in the coronary artery is shown in a simplified manner. Further, the generation function 55d may generate a simple image in which the findings are further associated on the virtual patient. Alternatively, the generation function 55d may generate a simple image in which the imaging conditions and the exposure dose of the subject are further associated on the virtual patient.

(その他の実施形態)
さて、これまで第1〜第3の実施形態について説明したが、上記した第1〜第3の実施
形態以外にも、種々の異なる形態にて実施されてよいものである。
(Other embodiments)
Now, the first to third embodiments have been described so far, but the embodiments may be implemented in various different forms other than the first to third embodiments described above.

AL解析の結果、腎臓や肺が片側しか存在しなかった場合には、標準の人体モデルと相
違が生じる。このような場合、生成機能55dは、仮想患者上に臓器が欠失していること
を認識可能な状態で所見情報とした更に対応付けてもよい。例えば、生成機能55dは、
欠失している臓器を塗りつぶしたり、アノテーションを付与したりする。また、かかる場
合、診断機能150aは、欠失している臓器について、支援診断処理の対象外とするよう
にしてもよい。
As a result of the AL analysis, when the kidney or lung is present on only one side, a difference from the standard human body model occurs. In such a case, the generation function 55d may be further associated with the finding information in a state in which it can be recognized that the organ is deleted on the virtual patient. For example, the generation function 55d is
Fill in missing organs or add annotations. Further, in such a case, the diagnostic function 150a may exclude the missing organ from the support diagnostic processing.

上述した実施形態では、所見情報作成装置5は、医用画像診断装置1が本撮影により収
集した画像を用いて、所見情報を作成するものとして説明したが、実施形態はこれに限定
されるものではない。例えば、所見情報作成装置5は、医用画像診断装置1によるスキャ
ノ画像の撮影において、被検体Pに対する全周分の投影データを収集することで撮影した
3次元のスキャノ画像を用いて、所見情報を作成するようにしてもよい。かかる場合、検
出機能55bが、3次元のスキャノ画像についてAL解析を行い、生成機能55dが、A
L解析結果に基づいて、指定された位置に対応する対応部位を特定し、対応部位と所見と
を仮想患者上に対応付けた所見情報を生成する。また、例えば、所見情報作成装置5は、
医用画像診断装置1により撮影した2次元のスキャノ画像を用いて、所見情報を作成する
ようにしてもよい。かかる場合、検出機能55bが、2次元のスキャノ画像についてAL
解析を行い、生成機能55dが、AL解析結果に基づいて、指定された位置に対応する対
応部位を特定し、対応部位と所見とを仮想患者上に対応付けた所見情報を生成する。
In the above-described embodiment, the finding information creating apparatus 5 has been described as creating finding information using the images collected by the medical image diagnostic apparatus 1 by the main imaging, but the embodiment is not limited to this. Absent. For example, the finding information creation device 5 uses the three-dimensional scano image taken by collecting projection data for the entire circumference of the subject P when the scan image is taken by the medical image diagnostic device 1 to obtain the finding information. It may be created. In such a case, the detection function 55b performs AL analysis on the three-dimensional scano image, and the generation function 55d sets A
Based on the L analysis result, the corresponding part corresponding to the designated position is specified, and the finding information in which the corresponding part and the finding are associated with each other on the virtual patient is generated. Further, for example, the finding information creation device 5 is
The finding information may be created using a two-dimensional scano image taken by the medical image diagnostic apparatus 1. In such a case, the detection function 55b does
Analysis is performed, and the generation function 55d identifies the corresponding part corresponding to the specified position based on the AL analysis result, and generates finding information in which the corresponding part and the finding are associated with each other on the virtual patient.

また、医用画像診断装置1が、所見情報を作成するようにしてもよい。かかる場合、医
用画像診断装置1は、所見情報作成装置5が有する処理回路55の取得機能55a、検出
機能55b、位置照合機能55c、及び生成機能55dを実行する。或いは、医用画像診
断装置1は、所見情報作成装置5が有する処理回路150の取得機能55a、検出機能5
5b、位置照合機能55c、診断機能150a及び生成機能55dを実行する。
Further, the medical image diagnostic apparatus 1 may create finding information. In such a case, the medical image diagnostic apparatus 1 executes the acquisition function 55a, the detection function 55b, the position matching function 55c, and the generation function 55d of the processing circuit 55 included in the finding information creation apparatus 5. Alternatively, the medical image diagnostic apparatus 1 includes the acquisition function 55a and the detection function 5 of the processing circuit 150 included in the finding information creation apparatus 5.
5b, the position verification function 55c, the diagnostic function 150a, and the generation function 55d.

なお、上述した実施形態では、検出機能55bは、位置決め画像のボリュームデータ、
或いは、診断に用いられる画像のボリュームデータを用いてAL解析を実行するものとし
て説明したが、実施形態はこれに限定されるものではない。例えば、検出機能55bは、
2次元の位置決め画像を用いてAL解析を実行するようにしてもよい。
In the above-described embodiment, the detection function 55b is the volume data of the positioning image,
Alternatively, the AL analysis is performed using the volume data of the image used for diagnosis, but the embodiment is not limited to this. For example, the detection function 55b is
The AL analysis may be performed using a two-dimensional positioning image.

上記説明において用いた「プロセッサ」という文言は、例えば、CPU(central pre
process unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回
路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デ
バイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Dev
ice:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic D
evice:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable
Gate Array:FPGA))等の回路を意味する。プロセッサは記憶回路に保存された
プログラムを読み出し実行することで機能を実現する。なお、記憶回路にプログラムを保
存する代わりに、プロセッサの回路内にプログラムを直接組み込むよう構成しても構わな
い。この場合、プロセッサは回路内に組み込まれたプログラムを読み出し実行することで
機能を実現する。なお、本実施形態の各プロセッサは、プロセッサごとに単一の回路とし
て構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして
構成し、その機能を実現するようにしてもよい。さらに、図2における複数の構成要素を
1つのプロセッサへ統合してその機能を実現するようにしてもよい。
The word "processor" used in the above description is, for example, CPU (central pre
process unit), GPU (Graphics Processing Unit), or application specific integrated circuit (ASIC), programmable logic device (for example, simple programmable logic device (Simple Programmable Logic Dev)
ice: SPLD), Complex Programmable Logic D
evice: CPLD) and field programmable gate array (Field Programmable)
Gate Array (FPGA)) and the like. The processor realizes the function by reading and executing the program stored in the memory circuit. Instead of storing the program in the memory circuit, the program may be directly incorporated in the circuit of the processor. In this case, the processor realizes the function by reading and executing the program incorporated in the circuit. It should be noted that each processor of the present embodiment is not limited to the case where each processor is configured as a single circuit, and a plurality of independent circuits may be combined to configure one processor to realize its function. Good. Further, a plurality of constituent elements in FIG. 2 may be integrated into one processor to realize its function.

また、上述した実施形態で図示した各装置の各構成要素は機能概念的なものであり、必
ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統
合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況
などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる
。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUお
よび当該CPUにて解析実行されるプログラムにて実現され、或いは、ワイヤードロジッ
クによるハードウェアとして実現され得る。
In addition, each component of each device illustrated in the above-described embodiment is functionally conceptual, and does not necessarily have to be physically configured as illustrated. That is, the specific form of distribution/integration of each device is not limited to that shown in the figure, and all or part of the device may be functionally or physically distributed/arranged in arbitrary units according to various loads and usage conditions. It can be integrated and configured. Further, each processing function performed in each device may be implemented entirely or in part by a CPU and a program that is analyzed and executed by the CPU, or may be realized as hardware by a wired logic.

また、第1の実施形態で説明した制御方法は、予め用意された制御プログラムをパーソ
ナルコンピュータやワークステーション等のコンピュータで実行することによって実現す
ることができる。この制御プログラムは、インターネット等のネットワークを介して配布
することができる。また、この制御プログラムは、ハードディスク、フレキシブルディス
ク(FD)、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に
記録され、コンピュータによって記録媒体から読み出されることによって実行することも
できる。
The control method described in the first embodiment can be realized by executing a control program prepared in advance on a computer such as a personal computer or a workstation. This control program can be distributed via a network such as the Internet. The control program can also be executed by being recorded in a computer-readable recording medium such as a hard disk, a flexible disk (FD), a CD-ROM, an MO, or a DVD, and being read from the recording medium by the computer.

以上、説明したとおり、各実施形態によれば、所見情報の作成を簡易化することを可能
とする。
As described above, according to each embodiment, it is possible to simplify the creation of finding information.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したも
のであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様
々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、
置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に
含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるもので
ある。
Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions can be made without departing from the scope of the invention.
It can be replaced and changed. These embodiments and modifications thereof are included in the invention described in the claims and equivalents thereof as well as included in the scope and the gist of the invention.

5 所見情報作成装置
55 処理回路
55b 検出機能
55d 生成機能
5 Finding information creation device 55 Processing circuit 55b Detection function 55d Generation function

Claims (10)

被検体に対するスキャンによって収集されたデータを用いて生成された画像における前記被検体の複数の部位それぞれの位置を表す解剖学的な特徴点を検出する検出部と、
前記画像において位置の指定と所見の入力とを受付け、前記特徴点の位置に関する情報と、人体の解剖学的モデルに基づくデータであって、仮想患者の複数の部位それぞれの位置を表す仮想患者データとに基づいて、前記仮想患者上で、指定された前記位置に対応する対応部位を特定し、前記対応部位と前記所見とを前記仮想患者上に対応付けた所見情報を生成する生成部と
を備える、所見情報作成装置。
A detection unit that detects an anatomical feature point that represents the position of each of the plurality of parts of the subject in the image generated using the data collected by the scan for the subject,
Virtual patient data, which is information based on the position of the feature points and data based on the anatomical model of the human body, which accepts designation of a position and input of findings in the image, and which represents the position of each of a plurality of parts of the virtual patient. based on the bets in the imaginary patient, a generator for a corresponding region corresponding to the specified the location and specific, to generate the observation information that associates with the corresponding portion to the findings on the imaginary patient Finding information creation device equipped with.
前記生成部は、更に、過去に生成した所見情報である過去情報が存在する場合には、当該過去情報に含まれる対応部位及び所見の少なくともいずれか一方を取得して、前記仮想患者上に対応付けた所見情報を生成する、請求項1に記載の所見情報作成装置。 Further, when there is past information that is finding information generated in the past, the generation unit acquires at least one of the corresponding part and the finding included in the past information, and corresponds to the virtual patient. The finding information creating apparatus according to claim 1, which generates the attached finding information. 前記生成部は、更に、前記特徴点の位置に関する情報と前記仮想患者データとに基づいて、前記過去情報の生成に用いられた過去画像のうち、前記画像と同一位置の断面を示す過去画像を特定し、特定した前記過去画像を更に対応付けた所見情報を生成する、請求項2に記載の所見情報作成装置。 The generation unit further generates a past image showing a cross-section at the same position as the image among the past images used to generate the past information, based on the information about the position of the feature point and the virtual patient data. The finding information creating apparatus according to claim 2, wherein the finding information creating device further creates finding information in which the specified past image is further associated. 前記生成部は、更に、前記所見情報の生成時における前記被検体の体格を反映させた仮想患者を選択して前記所見情報を生成する、請求項1〜3のいずれか一つに記載の所見情報作成装置。 The finding according to any one of claims 1 to 3, wherein the creating unit further creates a finding by selecting a virtual patient that reflects the physique of the subject at the time of creating the finding information. Information creation device. 前記生成部は、更に、前記被検体に照射された放射線量に関する情報、前記スキャン時のスキャン条件及び前記指定された位置に対応する部位に形成された腫瘍サイズのうち少なくともいずれか一つを更に前記仮想患者上に対応付けた所見情報を生成する、請求項1〜4のいずれか一つに記載の所見情報作成装置。 The generation unit further includes at least one of information regarding a radiation dose applied to the subject, a scan condition at the time of scanning, and a tumor size formed at a site corresponding to the designated position. The finding information creating apparatus according to claim 1, wherein finding information associated with the virtual patient is generated. 前記検出部により検出された特徴点に基づく前記画像上の前記被検体の部位に対して支援診断処理を実行し、処理結果を前記画像上に描出させる診断部を更に備え、
前記生成部は、更に、前記画像に描出された前記処理結果の選択を受付け、選択された前記処理結果に対応する前記仮想患者上の部位を前記対応部位として特定し、前記仮想患者上に対応付けた所見情報を生成する、請求項1〜5のいずれか一つに記載の所見情報作成装置。
Further comprising a diagnosis unit for performing a support diagnosis process on the part of the subject on the image based on the characteristic points detected by the detection unit, and rendering the processing result on the image.
The generation unit further accepts a selection of the processing result depicted in the image, identifies a site on the virtual patient corresponding to the selected processing result as the corresponding site, and supports the virtual patient. The finding information creating apparatus according to claim 1, which generates attached finding information.
前記生成部は、前記対応部位の位置に応じて前記仮想患者を所定の方向に回転させて前記所見情報を生成する、請求項1〜6のいずれか一つに記載の所見情報作成装置。 7. The finding information creating apparatus according to claim 1, wherein the creating unit creates the finding information by rotating the virtual patient in a predetermined direction according to the position of the corresponding part. 前記生成部は、更に、前記画像に描出される構造物を簡易化して、前記仮想患者上に描出した簡易画像を生成する、請求項1〜7のいずれか一つに記載の所見情報作成装置。 8. The finding information creation device according to claim 1, wherein the creation unit further simplifies the structure drawn in the image to create a simple image drawn on the virtual patient. .. レポート作成装置と、表示装置とを有するシステムであって、
前記レポート作成装置は、
被検体に対するスキャンによって収集されたデータを用いて生成された画像における前記被検体の複数の部位それぞれの位置を表す解剖学的な特徴点を検出する検出部と、
前記画像において位置の指定と所見の入力とを受付け、前記特徴点の位置に関する情報と、人体の解剖学的モデルに基づくデータであって、仮想患者の複数の部位それぞれの位置を表す仮想患者データとに基づいて、前記仮想患者上で、指定された前記位置に対応する対応部位を特定し、前記対応部位と前記所見とを前記仮想患者上に対応付けた所見情報を生成する生成部と
を備え、
前記表示装置は、
前記所見情報を取得し、所定の表示部に当該所見情報を表示する表示制御部を備える、
システム。
A system having a report creating device and a display device,
The report creation device,
A detection unit that detects an anatomical feature point that represents the position of each of the plurality of parts of the subject in the image generated using the data collected by the scan for the subject,
Virtual patient data, which is information based on the position of the feature points and data based on the anatomical model of the human body, which accepts designation of a position and input of findings in the image, and which represents the position of each of a plurality of parts of the virtual patient. based on the bets in the imaginary patient, a generator for a corresponding region corresponding to the specified the location and specific, to generate the observation information that associates with the corresponding portion to the findings on the imaginary patient Equipped with
The display device is
A display control unit that acquires the finding information and displays the finding information on a predetermined display unit;
system.
前記表示制御部は、前記仮想患者上に対応付けられた前記対応部位及び前記所見のうち選択された所見情報に対応する画像を表示させる、請求項9に記載のシステム。 The system according to claim 9, wherein the display control unit displays an image corresponding to the finding information selected from the corresponding site and the finding associated with the virtual patient.
JP2016094069A 2016-05-09 2016-05-09 Finding information creation device and system Active JP6734111B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016094069A JP6734111B2 (en) 2016-05-09 2016-05-09 Finding information creation device and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016094069A JP6734111B2 (en) 2016-05-09 2016-05-09 Finding information creation device and system

Publications (2)

Publication Number Publication Date
JP2017204041A JP2017204041A (en) 2017-11-16
JP6734111B2 true JP6734111B2 (en) 2020-08-05

Family

ID=60322925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016094069A Active JP6734111B2 (en) 2016-05-09 2016-05-09 Finding information creation device and system

Country Status (1)

Country Link
JP (1) JP6734111B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7000206B2 (en) * 2018-03-06 2022-01-19 富士フイルム株式会社 Medical image processing equipment, medical image processing methods, and medical image processing programs
JP2019185452A (en) * 2018-04-12 2019-10-24 コニカミノルタ株式会社 Recording device, order issuance device, and analysis processing system
WO2024071246A1 (en) * 2022-09-27 2024-04-04 富士フイルム株式会社 Information processing device, information processing method, and information processing program

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280807A (en) * 2003-02-28 2004-10-07 Toshiba Corp Cyber-hospital system
US7529394B2 (en) * 2003-06-27 2009-05-05 Siemens Medical Solutions Usa, Inc. CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
JP2006314626A (en) * 2005-05-13 2006-11-24 Methods:Kk Apparatus, method, program and system for transmitting medical image
JP4959996B2 (en) * 2006-03-23 2012-06-27 株式会社東芝 Interpretation report display device
JP4960024B2 (en) * 2006-06-07 2012-06-27 オリンパスメディカルシステムズ株式会社 Medical image management method and medical image management apparatus using the same
JP5253755B2 (en) * 2007-04-06 2013-07-31 株式会社東芝 Interpretation report creation device
JP5222082B2 (en) * 2008-09-25 2013-06-26 キヤノン株式会社 Information processing apparatus, control method therefor, and data processing system
JP2015102944A (en) * 2013-11-22 2015-06-04 コニカミノルタ株式会社 Medical information processing device
JP6490985B2 (en) * 2014-03-11 2019-03-27 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing system

Also Published As

Publication number Publication date
JP2017204041A (en) 2017-11-16

Similar Documents

Publication Publication Date Title
JP4818846B2 (en) Medical image processing apparatus and medical image processing program
JP7051307B2 (en) Medical image diagnostic equipment
JP6220310B2 (en) Medical image information system, medical image information processing method, and program
JP7027046B2 (en) Medical image imaging device and method
JP7132299B2 (en) Medical image processing method, medical image processing apparatus, medical image processing system, and medical image processing program
JP2011110429A (en) System and method for measurement of object of interest in medical image
JP2019511268A (en) Determination of rotational orientation in three-dimensional images of deep brain stimulation electrodes
JP2007037781A (en) Image processor and image processing system
JP5934071B2 (en) Apparatus, method and program for searching for shortest path of tubular structure
US20100303330A1 (en) Radiographic image display apparatus, and its method and computer program product
JP6929695B2 (en) Medical diagnostic imaging equipment and management equipment
US11327773B2 (en) Anatomy-aware adaptation of graphical user interface
JP6510196B2 (en) Image interpretation report creation support device
JP5415245B2 (en) MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM
JP6734111B2 (en) Finding information creation device and system
US9931038B2 (en) Image-assisted diagnostic evaluation
JP6797555B2 (en) Medical information processing device
JP7144129B2 (en) Medical image diagnosis device and medical information management device
JP2023036805A (en) Human body portion imaging method, computer, computer-readable storage medium, computer program and medical system
JP6925786B2 (en) X-ray CT device
US20110242096A1 (en) Anatomy diagram generation method and apparatus, and medium storing program
JP6956514B2 (en) X-ray CT device and medical information management device
JP2018000943A (en) Medical image diagnostic apparatus and medical image processor
JP6918443B2 (en) Medical information processing device
JP6855173B2 (en) X-ray CT device

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20160929

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20161021

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200414

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200609

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200709

R150 Certificate of patent or registration of utility model

Ref document number: 6734111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150