JP2018183431A - Similar case image search program, similar case image search device and similar case image search method - Google Patents

Similar case image search program, similar case image search device and similar case image search method Download PDF

Info

Publication number
JP2018183431A
JP2018183431A JP2017087396A JP2017087396A JP2018183431A JP 2018183431 A JP2018183431 A JP 2018183431A JP 2017087396 A JP2017087396 A JP 2017087396A JP 2017087396 A JP2017087396 A JP 2017087396A JP 2018183431 A JP2018183431 A JP 2018183431A
Authority
JP
Japan
Prior art keywords
image
contour line
feature
internal
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017087396A
Other languages
Japanese (ja)
Inventor
武部 浩明
Hiroaki Takebe
浩明 武部
康貴 森脇
Yasutaka Moriwaki
康貴 森脇
昌彦 杉村
Masahiko Sugimura
昌彦 杉村
遠藤 進
Susumu Endo
進 遠藤
馬場 孝之
Takayuki Baba
孝之 馬場
上原 祐介
Yusuke Uehara
祐介 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017087396A priority Critical patent/JP2018183431A/en
Publication of JP2018183431A publication Critical patent/JP2018183431A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To perform association in organ regions between different images in the disease having an abnormal shadow distributed over in an organ like the diffusive lung disease.SOLUTION: A similar case image search program makes a computer execute the processing in which an organ region is extracted to extract a first contour line with respect to an organ in an image, multiple first feature points are extracted from the top of the first contour line, the organ region is made to shrink and the organ region after the shrinkage is extracted to extract a second contour line, and multiple second feature points corresponding to the multiple first feature points on the first contour line in the second contour line are arranged at the position on the second contour line being closest to the position of the multiple first feature points on the first contour line, while keeping an internal ratio between the multiple first feature points on the first contour line.SELECTED DRAWING: Figure 7

Description

本発明は、類似症例画像検索プログラム、類似症例画像検索装置及び類似症例画像検索方法に関する。   The present invention relates to a similar case image search program, a similar case image search device, and a similar case image search method.

従来より、医療の現場では、診断対象の医用画像の症例に類似する過去の症例(類似症例)を参照して画像診断を行う比較読影が行われており、類似症例の医用画像を検索する装置として、類似症例画像検索装置が利用されている。   2. Description of the Related Art Conventionally, in medical practice, comparative interpretation that performs image diagnosis with reference to a past case (similar case) similar to a case of a medical image to be diagnosed has been performed, and a device that searches for medical images of similar cases As a similar case image search apparatus is used.

比較読影の際に、読影医等にとって画像診断が困難な症例の一つとして、びまん性肺疾患が挙げられる。びまん性肺疾患とは、肺野領域の広範囲にわたって異常陰影が分布する疾患である。びまん性肺疾患などのように臓器領域内の広範囲にわたって異常陰影が分布する疾患の画像診断においては、臓器領域内のどの領域に異常陰影が分布しているかを特定することが重要となってくる。このため、類似症例画像検索装置では、診断対象の医用画像と検索対象の医用画像との比較において、臓器領域内部の対応付けを精度よく行うことが求められる。   A diffuse lung disease is one of the cases in which image diagnosis is difficult for an interpreting doctor or the like during comparative interpretation. Diffuse lung disease is a disease in which abnormal shadows are distributed over a wide area of the lung field. In imaging diagnosis of diseases in which abnormal shadows are distributed over a wide area such as diffuse lung disease, it is important to identify the region in which abnormal shadows are distributed. . For this reason, in the similar case image search device, it is required to accurately associate the internal organ regions in the comparison between the medical image to be diagnosed and the medical image to be searched.

これに対して、例えば、下記特許文献1では、一方の画像を変形させながら、他方の画像との類似度を表す評価値が最大となる変位量を決定することで、異なる画像間での臓器領域内部の対応付けを行う方法が提案されている。   On the other hand, for example, in Patent Document 1 below, organs between different images are determined by determining a displacement amount that maximizes an evaluation value representing the similarity to the other image while deforming one image. A method for performing association within a region has been proposed.

特開2013−192569号公報JP2013-192669A

しかしながら、びまん性肺疾患のように、異常陰影が広範囲かつ多様に広がる医用画像の場合、上記方法では、臓器領域内部の類似度が低く算出される傾向がある。このため、上記評価値を用いても、臓器領域内部の対応付けを精度よく行うことができない。   However, in the case of a medical image in which abnormal shadows spread over a wide range such as a diffuse lung disease, the above method tends to calculate a low degree of similarity inside an organ region. For this reason, even if it uses the said evaluation value, the correlation inside an organ area | region cannot be performed accurately.

一つの側面では、びまん性肺疾患などのように臓器領域内に異常陰影が分布する疾患において、異なる画像間での臓器領域内部の対応付けを行うことができるようにすることを目的とする。   In one aspect, an object of the present invention is to make it possible to perform association within an organ region between different images in a disease in which an abnormal shadow is distributed in an organ region such as a diffuse lung disease.

一態様によれば、類似症例画像検索プログラムは、
画像内の臓器に対し、臓器領域を抽出して第一の輪郭線を抽出し、
前記第一の輪郭線上から複数の第一の特徴点を抽出し、
前記臓器領域を収縮させた、収縮後の臓器領域を抽出して第二の輪郭線を抽出し、
前記第二の輪郭線上における、前記第一の輪郭線上の前記複数の第一の特徴点に対応する複数の第二の特徴点を、前記第一の輪郭線上における前記複数の第一の特徴点間の内分比を保ちつつ、かつ、前記第一の輪郭線上の前記複数の第一の特徴点の位置に最も近い前記第二の輪郭線上の位置に配置する、処理をコンピュータに実行させる。
According to one aspect, the similar case image search program includes:
For the organ in the image, extract the organ area and extract the first contour line,
Extracting a plurality of first feature points from the first contour line;
Extract the second contour line by extracting the organ region after contraction, which contracted the organ region,
A plurality of second feature points corresponding to the plurality of first feature points on the first contour line on the second contour line, and the plurality of first feature points on the first contour line. The computer is caused to execute a process of disposing at a position on the second contour line closest to the positions of the plurality of first feature points on the first contour line while maintaining an internal ratio therebetween.

びまん性肺疾患などのように臓器領域内に異常陰影が分布する疾患において、異なる画像間での臓器領域内部の対応付けを行うことが可能となる。   In a disease in which an abnormal shadow is distributed in an organ region such as a diffuse lung disease, it is possible to associate the inside of the organ region between different images.

CT画像処理システムの一例を示す図である。It is a figure which shows an example of CT image processing system. 類似症例画像検索装置のハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of a similar case image search device. 類似症例画像検索装置の表示画面の一例を示す第1の図である。It is a 1st figure which shows an example of the display screen of a similar case image search device. 類似症例画像検索装置の表示画面の一例を示す第2の図である。It is a 2nd figure which shows an example of the display screen of a similar case image search device. 特徴量情報DBに格納される特徴量情報の一例を示す図である。It is a figure which shows an example of the feature-value information stored in feature-value information DB. 画像DBに格納されるCT画像情報の一例を示す図である。It is a figure which shows an example of CT image information stored in image DB. 類似症例画像検索装置の登録部の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the registration part of a similar case image search device. 陰影抽出部による陰影抽出処理の具体例を示す図である。It is a figure which shows the specific example of the shadow extraction process by a shadow extraction part. 輪郭特定部による輪郭特定処理の具体例を示す図である。It is a figure which shows the specific example of the outline specific process by an outline specific part. 特徴点抽出部による特徴点抽出処理の具体例を示す図である。It is a figure which shows the specific example of the feature point extraction process by a feature point extraction part. 特徴点抽出処理の処理結果の一例を示す図である。It is a figure which shows an example of the process result of a feature point extraction process. 特徴点抽出部による内分点抽出処理の具体例を示す図である。It is a figure which shows the specific example of the internal dividing point extraction process by a feature point extraction part. 第一の輪郭線上の特徴点に対応する、第二の輪郭線上の内部特徴点の抽出方法を説明するための第1の図である。It is a 1st figure for demonstrating the extraction method of the internal feature point on a 2nd outline corresponding to the feature point on a 1st outline. 第一の輪郭線上の特徴点に対応する、第二の輪郭線上の内部特徴点の抽出方法を説明するための第2の図である。It is a 2nd figure for demonstrating the extraction method of the internal feature point on the 2nd outline corresponding to the feature point on the 1st outline. 類似症例画像検索装置の検索部の機能構成の一例を示す図である。It is a figure which shows an example of a function structure of the search part of a similar case image search device. 類似度算出部による写像処理の具体例を示す図である。It is a figure which shows the specific example of the mapping process by a similarity calculation part. CT画像処理システムにおける類似症例画像検索処理のシーケンス図である。It is a sequence diagram of a similar case image search process in a CT image processing system.

以下、各実施形態について添付の図面を参照しながら説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複した説明を省く。   Each embodiment will be described below with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, the duplicate description is abbreviate | omitted by attaching | subjecting the same code | symbol.

[第1の実施形態]
<CT画像処理システムのシステム構成>
はじめに、第1の実施形態における類似症例画像検索装置を含むCT画像処理システムについて説明する。図1は、CT画像処理システムの一例を示す図である。
[First Embodiment]
<System configuration of CT image processing system>
First, a CT image processing system including the similar case image search device according to the first embodiment will be described. FIG. 1 is a diagram illustrating an example of a CT image processing system.

図1に示すように、CT画像処理システム100は、CT(Computed Tomography)装置110と類似症例画像検索装置120と画像データベース(以下、データベースをDBと略す)130とを有する。CT装置110と類似症例画像検索装置120とは配線111を介して接続されており、両装置間では各種データの送受信が行われる。また、類似症例画像検索装置120と画像DB130とは配線112を介して接続されており、両装置間においても各種データの送受信が行われる。   As shown in FIG. 1, a CT image processing system 100 includes a CT (Computed Tomography) device 110, a similar case image search device 120, and an image database (hereinafter, database is abbreviated as DB) 130. The CT apparatus 110 and the similar case image search apparatus 120 are connected via a wiring 111, and various types of data are transmitted and received between the two apparatuses. Further, the similar case image search device 120 and the image DB 130 are connected via a wiring 112, and various types of data are transmitted and received between both devices.

CT装置110は、放射線等を利用して患者の体内を走査し、コンピュータを用いて処理することで、医用画像として、患者の複数のスライス画像を含むCT画像を生成する(以下、このような処理を“CT画像を撮影する”と称する)。CT装置110は、撮影したCT画像を類似症例画像検索装置120に送信する。   The CT apparatus 110 scans the inside of a patient using radiation or the like and processes the image using a computer, thereby generating a CT image including a plurality of slice images of the patient as a medical image (hereinafter, such as this) The process is referred to as “capturing a CT image”). The CT apparatus 110 transmits the captured CT image to the similar case image search apparatus 120.

類似症例画像検索装置120には、類似症例画像検索プログラムがインストールされており、類似症例画像検索プログラムがコンピュータにより実行されることで、類似症例画像検索装置120は類似症例画像検索部140として機能する。   The similar case image search device 120 has a similar case image search program installed therein, and the similar case image search device 120 functions as the similar case image search unit 140 when the similar case image search program is executed by a computer. .

類似症例画像検索部140は、登録部141と、検索部142と、表示制御部143とを有する。登録部141は、CT装置110において撮影されたCT画像を、画像DB130に格納する。また、登録部141は、当該CT画像について、肺野領域内の異常陰影の分布を示す分布特徴量を算出し、特徴量情報DB150に格納する。更に、登録部141は、他のCT画像の肺野領域内の各点と対応付けを行うのに用いる各点を、所定の処理に従って肺野領域より複数抽出し、特徴量情報DB150に格納する。   The similar case image search unit 140 includes a registration unit 141, a search unit 142, and a display control unit 143. The registration unit 141 stores the CT image captured by the CT apparatus 110 in the image DB 130. Also, the registration unit 141 calculates a distribution feature amount indicating the distribution of abnormal shadows in the lung field region for the CT image, and stores it in the feature amount information DB 150. Furthermore, the registration unit 141 extracts a plurality of points used for associating with points in the lung field region of other CT images from the lung field region according to a predetermined process, and stores them in the feature amount information DB 150. .

検索部142は、CT装置110において撮影された診断対象のCT画像について、肺野領域内の異常陰影の分布特徴量を算出する。また、検索部142は、特徴量情報DB150に格納された、検索対象のCT画像についての分布特徴量と、診断対象のCT画像について算出した分布特徴量とを用いて、診断対象のCT画像の症例に類似する類似症例のCT画像を検索する。更に、検索部142は、検索結果を表示制御部143に通知する。   The search unit 142 calculates the distribution feature quantity of the abnormal shadow in the lung field region for the CT image to be diagnosed taken by the CT apparatus 110. In addition, the search unit 142 uses the distribution feature amount for the CT image to be searched and the distribution feature amount calculated for the CT image to be diagnosed, stored in the feature amount information DB 150, for the CT image to be diagnosed. A CT image of a similar case similar to the case is searched. Further, the search unit 142 notifies the display control unit 143 of the search result.

表示制御部143は、読影医等が、診断対象のCT画像について比較読影を行うための表示画面を表示する。表示画面には、診断対象のCT画像を表示するための表示機能が含まれる。また、表示画面には、読影医等が、診断対象のCT画像の症例に類似する類似症例のCT画像を検索するための指示機能が含まれる。更に、表示画面には、検索部142からの検索結果に基づいて画像DB130から読み出したCT画像を、類似症例のCT画像として、診断対象のCT画像と対比表示するための対比表示機能が含まれる。   The display control unit 143 displays a display screen for the interpretation doctor or the like to perform comparative interpretation on the CT image to be diagnosed. The display screen includes a display function for displaying a CT image to be diagnosed. The display screen also includes an instruction function for an image interpretation doctor or the like to search for a CT image of a similar case similar to the case of the CT image to be diagnosed. Further, the display screen includes a contrast display function for displaying a CT image read from the image DB 130 based on a search result from the search unit 142 as a CT image of a similar case in contrast with a CT image to be diagnosed. .

画像DB130は、CT装置110において撮影されたCT画像を格納する。また、画像DB130は、格納したCT画像を、類似症例画像検索装置120からの指示に基づき、類似症例画像検索装置120に送信する。   The image DB 130 stores CT images taken by the CT apparatus 110. Further, the image DB 130 transmits the stored CT image to the similar case image search device 120 based on an instruction from the similar case image search device 120.

<類似症例画像検索装置のハードウェア構成>
次に、類似症例画像検索装置120のハードウェア構成について説明する。図2は、類似症例画像検索装置のハードウェア構成を示す図である。図2に示すように、類似症例画像検索装置120は、CPU(Central Processing Unit)201、ROM(Read Only Memory)202、RAM(Random Access Memory)203を備える。CPU201とROM202とRAM203とは、いわゆるコンピュータを形成する。
<Hardware configuration of similar case image retrieval device>
Next, the hardware configuration of the similar case image search device 120 will be described. FIG. 2 is a diagram illustrating a hardware configuration of the similar case image search device. As shown in FIG. 2, the similar case image search device 120 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, and a RAM (Random Access Memory) 203. The CPU 201, the ROM 202, and the RAM 203 form a so-called computer.

また、類似症例画像検索装置120は、補助記憶装置204、接続装置205、表示装置206、操作装置207、ドライブ装置208を備える。なお、類似症例画像検索装置120の各ハードウェアは、バス209を介して相互に接続されている。   The similar case image search device 120 includes an auxiliary storage device 204, a connection device 205, a display device 206, an operation device 207, and a drive device 208. Note that the hardware of the similar case image search device 120 is connected to each other via a bus 209.

CPU201は、補助記憶装置204に格納された各種プログラム(例えば、類似症例画像検索プログラム等)を実行する。   The CPU 201 executes various programs (for example, a similar case image search program) stored in the auxiliary storage device 204.

ROM202は不揮発性メモリである。ROM202は、補助記憶装置204に格納された各種プログラムをCPU201が実行するために必要な各種プログラム、データ等を格納する、主記憶部として機能する。具体的には、ROM202は、BIOS(Basic Input/Output System)やEFI(Extensible Firmware Interface)等のブートプログラム等を格納する。   The ROM 202 is a nonvolatile memory. The ROM 202 functions as a main storage unit that stores various programs, data, and the like necessary for the CPU 201 to execute various programs stored in the auxiliary storage device 204. Specifically, the ROM 202 stores a boot program such as a basic input / output system (BIOS) or an extensible firmware interface (EFI).

RAM203は揮発性メモリであり、DRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等を含む。RAM203は、補助記憶装置204に格納された各種プログラムがCPU201によって実行される際に展開される作業領域を提供する、主記憶部として機能する。   The RAM 203 is a volatile memory, and includes a DRAM (Dynamic Random Access Memory), an SRAM (Static Random Access Memory), and the like. The RAM 203 functions as a main storage unit that provides a work area that is expanded when various programs stored in the auxiliary storage device 204 are executed by the CPU 201.

補助記憶装置204は、類似症例画像検索装置120にインストールされた各種プログラムや、各種プログラムが実行されることで生成されるデータ等を格納する、コンピュータ読み取り可能な補助記憶部として機能する。上述した特徴量情報DB150は、補助記憶装置204において実現される。   The auxiliary storage device 204 functions as a computer-readable auxiliary storage unit that stores various programs installed in the similar case image search device 120, data generated by executing the various programs, and the like. The feature amount information DB 150 described above is realized in the auxiliary storage device 204.

接続装置205は、CT装置110及び画像DB130と接続され、CT装置110及び画像DB130との間で、各種データの送受信を行う。表示装置206は、表示制御部143による制御のもとで、読影医等が診断対象のCT画像について比較読影を行う際に用いる表示画面を表示する。操作装置207は、読影医等が類似症例画像検索装置120に対して行う各種操作を受け付ける。   The connection device 205 is connected to the CT device 110 and the image DB 130, and transmits and receives various data between the CT device 110 and the image DB 130. The display device 206 displays a display screen used when the interpretation doctor or the like performs comparative interpretation on the CT image to be diagnosed under the control of the display control unit 143. The operation device 207 accepts various operations performed on the similar case image search device 120 by an interpretation doctor or the like.

ドライブ装置208は記録媒体210をセットするためのデバイスである。ここでいう記録媒体210には、CD−ROM、フレキシブルディスク、光磁気ディスク等のように情報を光学的、電気的あるいは磁気的に記録する媒体が含まれる。あるいは、記録媒体210には、ROM、フラッシュメモリ等のように情報を電気的に記録する半導体メモリ等が含まれていてもよい。   The drive device 208 is a device for setting the recording medium 210. The recording medium 210 here includes a medium for recording information optically, electrically or magnetically, such as a CD-ROM, a flexible disk, a magneto-optical disk or the like. Alternatively, the recording medium 210 may include a semiconductor memory that electrically records information, such as a ROM and a flash memory.

なお、補助記憶装置204に格納される各種プログラムは、例えば、配布された記録媒体210がドライブ装置208にセットされ、該記録媒体210に記録された各種プログラムがドライブ装置208により読み出されることでインストールされる。あるいは、補助記憶装置204に格納される各種プログラムは、接続装置205を介してネットワークからダウンロードされることでインストールされてもよい。   The various programs stored in the auxiliary storage device 204 are installed by, for example, setting the distributed recording medium 210 in the drive device 208 and reading the various programs recorded in the recording medium 210 by the drive device 208. Is done. Alternatively, various programs stored in the auxiliary storage device 204 may be installed by being downloaded from the network via the connection device 205.

<表示画面の表示例>
次に、表示装置206に表示される表示画面について説明する。図3及び図4は、類似症例画像検索装置の表示画面の一例を示す第1及び第2の図である。
<Display screen display example>
Next, a display screen displayed on the display device 206 will be described. 3 and 4 are first and second diagrams showing examples of display screens of the similar case image search device.

図3に示すように、表示画面300には、CT装置110により撮影された診断対象のCT画像を表示する、診断対象画像表示領域310が含まれる。   As shown in FIG. 3, the display screen 300 includes a diagnosis target image display area 310 that displays a CT image of the diagnosis target imaged by the CT apparatus 110.

また、表示画面300には、診断対象画像表示領域310に表示された診断対象のCT画像の症例に類似する類似症例のCT画像を検索する際の検索条件を指定する、検索条件指定領域320が含まれる。   Further, the display screen 300 includes a search condition designation area 320 for designating a search condition when searching for a CT image of a similar case similar to the case of the CT image to be diagnosed displayed in the diagnosis target image display area 310. included.

検索条件指定領域320は、診断対象のCT画像より抽出される異常陰影のうち、所定の種類の異常陰影について算出された分布特徴量に基づいて、検索対象のCT画像を検索することを、読影医等が指定するための指定領域である。   The search condition designating area 320 interprets searching for a CT image to be searched based on a distribution feature amount calculated for a predetermined type of abnormal shadow among abnormal shadows extracted from a CT image to be diagnosed. This is a designated area for the doctor or the like to designate.

なお、第1の実施形態において、CT装置110により撮影されたCT画像より抽出される陰影には、5種類の異常陰影及び1種類の通常陰影が含まれる可能性があるものとして説明する。また、5種類の異常陰影には、“浸潤影”、“すりガラス影”、“蜂巣影”、“嚢胞影”、“粒状影”が含まれるものとする。検索部142では、このうち、読影医等が指定した異常陰影についての分布特徴量に基づいて検索を行う。   In the first embodiment, it is assumed that the shadow extracted from the CT image captured by the CT apparatus 110 may include five types of abnormal shadows and one type of normal shadow. The five types of abnormal shadows include “infiltration shadow”, “ground glass shadow”, “honeycomb shadow”, “cyst shadow”, and “granular shadow”. Of these, the search unit 142 performs a search based on the distribution feature amount of the abnormal shadow designated by the interpretation doctor or the like.

図3の説明に戻る。表示画面300には、更に、検索ボタン330が含まれる。検索ボタン330は、検索部142に対して、類似症例のCT画像の検索を指示するためのボタンである。   Returning to the description of FIG. The display screen 300 further includes a search button 330. The search button 330 is a button for instructing the search unit 142 to search for CT images of similar cases.

また、表示画面300には、検索結果表示領域340が含まれる。検索結果表示領域340には、特徴量情報DB150に格納された、検索対象のCT画像の中から、検索部142が、診断対象のCT画像の症例に類似する類似症例のCT画像を検索した検索結果が表示される。   Further, the display screen 300 includes a search result display area 340. In the search result display area 340, a search in which the search unit 142 searches for CT images of similar cases similar to the cases of the CT images to be diagnosed from the CT images to be searched stored in the feature amount information DB 150. The result is displayed.

また、表示画面300には、類似症例検索結果表示領域350が含まれる。類似症例検索結果表示領域350には、検索結果表示領域340に表示された検索結果のうち、読影医等により指定されたCT画像が表示される。   The display screen 300 includes a similar case search result display area 350. In the similar case search result display area 350, a CT image designated by an interpretation doctor or the like among the search results displayed in the search result display area 340 is displayed.

図3(a)は、表示画面300の診断対象画像表示領域310に、CT装置110により撮影された診断対象のCT画像が表示された様子を示している。   FIG. 3A shows a state in which a CT image of a diagnosis target imaged by the CT apparatus 110 is displayed in the diagnosis target image display area 310 of the display screen 300.

図3(b)は、表示画面300の診断対象画像表示領域310に、診断対象のCT画像が表示された状態で、検索条件指定領域320において、検索条件が指定された様子を示している。図3(b)の例は、検索条件として、“浸潤影”、“すりガラス影”が指定されたことを示している。   FIG. 3B shows a state in which the search condition is specified in the search condition specifying area 320 in a state where the CT image to be diagnosed is displayed in the diagnosis target image display area 310 of the display screen 300. The example of FIG. 3B shows that “infiltration shadow” and “ground glass shadow” are designated as search conditions.

図3(b)に示す状態で、読影医等により検索ボタン330が押圧されると、図4に示す表示画面300に遷移する。   When the search button 330 is pressed by an image interpretation doctor or the like in the state shown in FIG. 3B, the screen transitions to the display screen 300 shown in FIG.

図4(a)は、検索ボタン330が押圧されたことで、検索部142により検索が行われ、検索結果が検索結果表示領域340に表示された様子を示している。   FIG. 4A shows a state where a search is performed by the search unit 142 and the search result is displayed in the search result display area 340 when the search button 330 is pressed.

図4(a)に示すように、検索結果表示領域340に表示される検索結果には、情報の項目として、“ID”、“サムネイル”、“類似度”が含まれる。“ID”には、検索部142により検索された各CT画像を識別するための識別子が格納される。“サムネイル”には、“ID”により識別されるCT画像のサムネイル画像が表示される。“類似度”には、検索部142により検索された各CT画像と、診断対象のCT画像との類似度に関する情報が格納される。   As shown in FIG. 4A, the search result displayed in the search result display area 340 includes “ID”, “thumbnail”, and “similarity” as information items. In “ID”, an identifier for identifying each CT image searched by the search unit 142 is stored. In “Thumbnail”, a thumbnail image of a CT image identified by “ID” is displayed. The “similarity” stores information about the similarity between each CT image searched by the search unit 142 and the CT image to be diagnosed.

図4(b)は、検索結果表示領域340に表示された検索結果のうち、読影医等により所定の検索結果が選択され、選択された検索結果に対応するCT画像が、類似症例検索結果表示領域350に表示された様子を示している。   FIG. 4B illustrates a case where a predetermined search result is selected by an interpreting doctor or the like from the search results displayed in the search result display area 340, and a CT image corresponding to the selected search result is displayed as a similar case search result. A state displayed in the area 350 is shown.

具体的には、図4(b)の例は、ID=“ID001”が選択されて、対応するCT画像が、類似症例のCT画像として、類似症例検索結果表示領域350に表示された様子を示している。これにより、読影医等は、診断対象のCT画像の症例に類似する類似症例のCT画像を参照しながら、比較読影により診断対象のCT画像について画像診断を行うことができる。   Specifically, in the example of FIG. 4B, ID = “ID001” is selected, and the corresponding CT image is displayed in the similar case search result display area 350 as the CT image of the similar case. Show. Thereby, an interpreting doctor or the like can perform image diagnosis on a CT image to be diagnosed by comparative interpretation while referring to a CT image of a similar case similar to the case of the CT image to be diagnosed.

なお、類似症例のCT画像を類似症例検索結果表示領域350に表示するにあたっては、図4(b)に示すように、当該CT画像に対応付けて画像DB130に格納された患者情報等(符号360参照)が表示されてもよい。   In displaying a CT image of a similar case in the similar case search result display area 350, as shown in FIG. 4B, patient information or the like (reference numeral 360) stored in the image DB 130 in association with the CT image. Reference) may be displayed.

また、表示画面300の表示内容は図3、図4に示した内容に限定されず、例えば、診断する患者の患者情報等が表示されてもよい。   Moreover, the display content of the display screen 300 is not limited to the content shown in FIG. 3 and FIG.

<特徴量情報DB及び画像DB>
次に、特徴量情報DB150に格納される特徴量情報及び画像DB130に格納されるCT画像情報の詳細について説明する。
<Feature amount information DB and image DB>
Next, details of the feature amount information stored in the feature amount information DB 150 and the CT image information stored in the image DB 130 will be described.

(1)特徴量情報の詳細
図5は、特徴量情報DBに格納される特徴量情報の一例を示す図である。図5に示すように、特徴量情報500には、陰影に関する情報510と、各点に関する情報520とが含まれる。
(1) Details of Feature Quantity Information FIG. 5 is a diagram illustrating an example of feature quantity information stored in the feature quantity information DB. As shown in FIG. 5, the feature amount information 500 includes information 510 regarding shading and information 520 regarding each point.

陰影に関する情報510には、情報の項目として、“ID”、“サムネイル画像”、“陰影”が含まれ、“陰影”には更に、“種類”、“個数”、“分布特徴量”が含まれる。   The shadow-related information 510 includes “ID”, “thumbnail image”, and “shadow” as information items, and “shadow” further includes “type”, “number”, and “distribution feature”. It is.

“ID”には、画像DB130に格納されたCT画像を識別するための識別子が格納される。“サムネイル画像”には、CT画像のサムネイル画像が格納される。“種類”には、CT画像より抽出された陰影の種類を示す情報が格納される。上述したとおり、第1の実施形態では、CT画像より抽出される陰影には、5種類の異常陰影及び1種類の通常陰影が含まれる可能性がある。このため、“種類”には、5種類の異常陰影と、1種類の通常陰影とが格納される(なお、ここでは便宜上、異常陰影1〜5としている)。“個数”には、CT画像より抽出された各種類の陰影の数が格納される。   In “ID”, an identifier for identifying a CT image stored in the image DB 130 is stored. In the “thumbnail image”, a thumbnail image of the CT image is stored. “Type” stores information indicating the type of shadow extracted from the CT image. As described above, in the first embodiment, the shadow extracted from the CT image may include five types of abnormal shadows and one type of normal shadow. For this reason, five types of abnormal shadows and one type of normal shadow are stored in the “type” (note that the abnormal shadows 1 to 5 are here for convenience). The “number” stores the number of shadows of each type extracted from the CT image.

また、“分布特徴量”には、CT画像より抽出された各陰影のCT画像上での座標(x,y)であって、“個数”に格納された数に応じた数の座標が格納される。   The “distribution feature quantity” stores the coordinates (x, y) of each shadow extracted from the CT image on the CT image, and the number of coordinates corresponding to the number stored in the “number” is stored. Is done.

点に関する情報520には、他のCT画像の肺野領域内の各点と対応付けを行うのに用いられる各点に関する情報が格納される。点に関する情報520には、情報の項目として、“特徴点、内分点、内部特徴点、内部対応点”が含まれ、更に、“個数”、“点”、“輪郭線の長さの比”、“区間名”、“位置”、“座標”が含まれる。   The point information 520 stores information about each point used for associating with each point in the lung field region of another CT image. The point-related information 520 includes “feature point, internal dividing point, internal feature point, internal corresponding point” as information items, and “number”, “point”, “ratio of length of contour line” ”,“ Section name ”,“ position ”, and“ coordinate ”.

ここで、「特徴点」とは、CT画像の肺野領域の輪郭を示す輪郭線上の点であって、後述する特徴点抽出処理を実行することで抽出される所定数の点を指す。また、「内分点」とは、CT画像の肺野領域の輪郭を示す輪郭線上の点であって、後述する内分点抽出処理を実行することで抽出される、特徴点間を均等に内分する点を指す。   Here, the “feature point” is a point on the contour line indicating the contour of the lung field region of the CT image, and indicates a predetermined number of points extracted by executing a feature point extraction process described later. Further, the “inner dividing point” is a point on the contour line indicating the outline of the lung field region of the CT image, and the feature points that are extracted by executing the inner dividing point extraction process described later are evenly distributed. The point to be divided internally.

また、「内部特徴点」とは、CT画像の肺野領域を収縮させた、収縮後の領域の輪郭を示す輪郭線上の点であって、収縮前の肺野領域の輪郭を示す輪郭線上の特徴点に対応する特徴点を指す(後述する内部特徴点抽出処理を実行することで抽出される)。更に、「内部対応点」とは、CT画像の肺野領域を収縮させた、収縮後の領域の輪郭を示す輪郭線上の点であって、内部特徴点間を均等に内分する点を指す。   Further, the “internal feature point” is a point on the contour line indicating the contour of the region after contraction, which is a contraction of the lung field region of the CT image, and on the contour line indicating the contour of the lung field region before contraction. A feature point corresponding to the feature point is indicated (extracted by executing an internal feature point extraction process described later). Furthermore, the “internal corresponding points” are points on the contour line indicating the contour of the region after contraction, which is a contraction of the lung field region of the CT image, and points that equally divide the internal feature points internally. .

“個数”には、CT画像の肺野領域において抽出された、特徴点、内分点、内部特徴点、内部対応点の数が格納される。“点”には、抽出された各点(特徴点、内分点、内部特徴点、内部対応点)を識別するための識別子が格納される。   The “number” stores the number of feature points, internal division points, internal feature points, and internal corresponding points extracted in the lung field region of the CT image. The “point” stores an identifier for identifying each extracted point (feature point, internal dividing point, internal feature point, internal corresponding point).

“輪郭線の長さの比”には、対応する各点が属する輪郭線と、CT画像の肺野領域の輪郭を示す輪郭線との長さの比が格納される。対応する各点が、特徴点または内分点であった場合には、“1”が格納される。一方、対応する各点が、内部特徴点または内部対応点であった場合には、“1”未満の値が格納される。   The “contour line length ratio” stores the ratio of the length of the contour line to which each corresponding point belongs and the contour line indicating the contour of the lung field region of the CT image. If each corresponding point is a feature point or an internal dividing point, “1” is stored. On the other hand, if each corresponding point is an internal feature point or an internal corresponding point, a value less than “1” is stored.

“区間名”には、対応する各点が属する区間を示す情報が格納される。なお、区間とは、輪郭線を各特徴点(または各内部特徴点)を用いて区分けした場合のそれぞれの線分を指す。“位置”には、対応する各点が属する輪郭線上の区間における位置を示す情報が格納される。“座標”には、対応する各点のCT画像上での座標(x,y)が格納される。   The “section name” stores information indicating a section to which each corresponding point belongs. In addition, a section refers to each line segment when the outline is divided using each feature point (or each internal feature point). “Position” stores information indicating the position in the section on the contour line to which each corresponding point belongs. “Coordinates” stores the coordinates (x, y) of the corresponding points on the CT image.

(2)CT画像情報の詳細
図6は、画像DBに格納されるCT画像情報の一例を示す図である。図6に示すように、CT画像情報600には、情報の項目として、“ID”、 “画像”、“患者情報”、“診断結果”、“診断者”が含まれる。
(2) Details of CT Image Information FIG. 6 is a diagram illustrating an example of CT image information stored in the image DB. As shown in FIG. 6, the CT image information 600 includes “ID”, “image”, “patient information”, “diagnosis result”, and “diagnostic” as information items.

“ID”には、画像DB130に格納されたCT画像を識別するための識別子が格納される。“画像”には、画像DB130に格納されたCT画像のファイル名が格納される。“患者情報”には、CT画像が撮影された患者についての詳細情報(患者ID、氏名、年齢、性別等)が格納される。“診断結果”には、対応するCT画像についての読影医等による画像診断の結果が格納される。“診断者”には、対応するCT画像について、画像診断を行った読影医等を識別するためのIDが格納される。第1の実施形態において、画像DB130に格納されるCT画像についての画像診断は、CT画像の撮影時に行われるものとする。   In “ID”, an identifier for identifying a CT image stored in the image DB 130 is stored. In “image”, the file name of the CT image stored in the image DB 130 is stored. The “patient information” stores detailed information (patient ID, name, age, sex, etc.) about the patient whose CT image was taken. The “diagnosis result” stores the result of the image diagnosis performed by the interpretation doctor or the like for the corresponding CT image. In the “diagnostic”, an ID for identifying a radiological doctor who has performed image diagnosis for the corresponding CT image is stored. In the first embodiment, it is assumed that the image diagnosis for the CT image stored in the image DB 130 is performed when the CT image is captured.

なお、CT画像情報600には、診断結果に加えて、当該患者に対して行った処置の内容や処置後の状態等の各種情報が格納されていてもよい。   In addition to the diagnosis result, the CT image information 600 may store various types of information such as the content of the treatment performed on the patient and the state after the treatment.

<類似症例画像検索装置の各部の詳細及び各部による処理の具体例>
次に、類似症例画像検索装置120の各部(登録部141、検索部142、表示制御部143)のうち、登録部141と検索部142の詳細及び登録部141と検索部142による処理の具体例について順次説明する。
<Details of each part of similar case image search device and specific examples of processing by each part>
Next, among the units (registration unit 141, search unit 142, display control unit 143) of the similar case image search device 120, details of the registration unit 141 and the search unit 142 and specific examples of processing by the registration unit 141 and the search unit 142 Will be described sequentially.

(1)登録部の詳細
はじめに、登録部141の詳細について説明する。図7は、類似症例画像検索装置の登録部の機能構成の一例を示す図である。図7に示すように、登録部141は、スライス画像取得部710、陰影抽出部720、輪郭特定部730、特徴点抽出部740、内部特徴点抽出部750、内部対応点抽出部760、特徴量算出部770を有する。
(1) Details of Registration Unit First, details of the registration unit 141 will be described. FIG. 7 is a diagram illustrating an example of a functional configuration of a registration unit of the similar case image search device. As illustrated in FIG. 7, the registration unit 141 includes a slice image acquisition unit 710, a shadow extraction unit 720, a contour specification unit 730, a feature point extraction unit 740, an internal feature point extraction unit 750, an internal corresponding point extraction unit 760, a feature amount. A calculation unit 770 is included.

読影医等が、患者情報を入力した後に、CT装置110にて当該患者についてCT画像の撮影を行い、撮影したCT画像についての診断結果を入力すると、画像DB130には、撮影したCT画像が格納される。また、CT画像情報600には、格納されたCT画像を識別するためのIDと、ファイル名と、患者情報と、診断結果と、画像診断した読影医を識別するためのIDとが格納される。   When an interpreting doctor or the like inputs patient information, the CT apparatus 110 captures a CT image of the patient, and inputs a diagnosis result of the captured CT image. The image DB 130 stores the captured CT image. Is done. Also, the CT image information 600 stores an ID for identifying the stored CT image, a file name, patient information, a diagnosis result, and an ID for identifying the image-diagnosis interpreting doctor. .

このように、画像DB130に新たにCT画像が格納され、かつ、CT画像情報600に、ID、ファイル名、患者情報、診断結果、画像診断した読影医を識別するためのIDが新たに格納されると、図7に示す登録部141の各部が動作する。   As described above, a new CT image is stored in the image DB 130, and an ID, a file name, patient information, a diagnosis result, and an ID for identifying an image-diagnosis interpreter are newly stored in the CT image information 600. Then, each part of the registration part 141 shown in FIG. 7 operates.

スライス画像取得部710は、画像DB130に新たに格納されたCT画像に含まれる各スライス画像を読み出し、陰影抽出部720及び輪郭特定部730に送信する。以降、各部の処理はスライス画像単位で行われるが、説明の便宜上、スライス画像も複数のスライス画像を含むCT画像も全て“CT画像”と称して説明を行うこととする。   The slice image acquisition unit 710 reads out each slice image included in the CT image newly stored in the image DB 130 and transmits it to the shadow extraction unit 720 and the contour identification unit 730. Hereinafter, the processing of each unit is performed in units of slice images. For convenience of explanation, both the slice image and the CT image including a plurality of slice images will be referred to as “CT images”.

陰影抽出部720は、陰影抽出処理を実行する。具体的には、陰影抽出部720は、まず、CT画像を、指定された大きさのグリッドに区切ることで、部分画像(以下、“ブロック”と称す)を生成する。続いて、陰影抽出部720は、生成したブロックごとに、ブロック内に含まれる各画素の輝度値を統計処理することで多次元ベクトルを算出する。続いて、陰影抽出部720は、算出した多次元ベクトルに基づいて、各ブロックが、いずれの陰影(浸潤影、すりガラス影、蜂巣影、嚢胞影、粒状影、通常)に該当するかを識別する。   The shadow extraction unit 720 executes a shadow extraction process. Specifically, the shadow extraction unit 720 first generates a partial image (hereinafter referred to as “block”) by dividing the CT image into a grid having a designated size. Subsequently, the shadow extraction unit 720 calculates a multidimensional vector for each generated block by statistically processing the luminance value of each pixel included in the block. Subsequently, the shadow extraction unit 720 identifies which shadow (infiltrated shadow, ground glass shadow, honeycomb shadow, cyst shadow, granular shadow, or normal) each block corresponds to based on the calculated multidimensional vector. .

なお、算出した多次元ベクトルに基づいて、各ブロックがいずれの陰影に該当するかを識別するにあたり、陰影抽出部720は、予めそれぞれの陰影(浸潤影、すりガラス影、蜂巣影、嚢胞影、粒状影、通常)を示す代表ベクトルを有しているものとする。陰影抽出部720は、各ブロックより抽出した多次元ベクトルと、予め有しているそれぞれの陰影を示す代表ベクトルとの距離を算出し、最も距離が短い代表ベクトルに対応する陰影を当該ブロックの陰影の種類として識別する。   Note that, in identifying which shadow each block corresponds to based on the calculated multidimensional vector, the shadow extraction unit 720 previously stores each shadow (infiltration shadow, ground glass shadow, honeycomb shadow, cyst shadow, granular shadow). It is assumed that a representative vector indicating a shadow (normal) is included. The shadow extraction unit 720 calculates the distance between the multi-dimensional vector extracted from each block and a representative vector indicating each of the shadows in advance, and the shadow corresponding to the representative vector with the shortest distance is the shadow of the block. Identify as type.

陰影抽出部720は、陰影の種類を識別したブロックを、陰影情報として、特徴量算出部770に通知する。   The shadow extraction unit 720 notifies the feature amount calculation unit 770 of the block that identifies the type of shadow as shadow information.

輪郭特定部730は輪郭抽出手段の一例であり、CT画像について輪郭特定処理を実行する。具体的には、輪郭特定部730は、CT画像より肺野領域を特定し、特定した肺野領域の輪郭線を抽出する。また、輪郭特定部730は、抽出した輪郭線を、特徴点抽出部740及び内部特徴点抽出部750に通知する。   The contour specifying unit 730 is an example of a contour extracting unit, and executes a contour specifying process on the CT image. Specifically, the contour specifying unit 730 specifies a lung field region from the CT image, and extracts a contour line of the specified lung field region. In addition, the contour specifying unit 730 notifies the feature point extracting unit 740 and the internal feature point extracting unit 750 of the extracted contour line.

特徴点抽出部740は特徴点抽出手段の一例であり、輪郭特定部730より通知された肺野領域の輪郭線より、特徴点を抽出する。また、特徴点抽出部740は、抽出した特徴点間を均等に内分することで、内分点を抽出する内分点抽出処理を実行する。更に、特徴点抽出部740は、抽出した特徴点及び内分点に関する情報を、特徴量情報DB150の点に関する情報520に格納するとともに、抽出した特徴点に関する情報を内部特徴点抽出部750に通知する。   The feature point extraction unit 740 is an example of a feature point extraction unit, and extracts feature points from the contour line of the lung field notified from the contour specifying unit 730. Also, the feature point extraction unit 740 executes an internal dividing point extraction process for extracting internal dividing points by equally dividing the extracted feature points. Further, the feature point extraction unit 740 stores information on the extracted feature points and internal division points in the information 520 on the points in the feature amount information DB 150 and notifies the internal feature point extraction unit 750 of the information on the extracted feature points. To do.

内部特徴点抽出部750は内部特徴点抽出手段の一例であり、CT画像の肺野領域を収縮させた、収縮後の領域の輪郭を示す輪郭線上の点であって、収縮前の領域の輪郭を示す輪郭線上の特徴点に対応する特徴点(内部特徴点)を抽出し、輪郭線上に配置する。また、内部特徴点抽出部750は、収縮後の領域の輪郭線と、抽出した内部特徴点とを、内部対応点抽出部760に通知する。   The internal feature point extraction unit 750 is an example of an internal feature point extraction unit, and is a point on the contour line indicating the contour of the region after contraction, which is a contraction of the lung field region of the CT image, and the contour of the region before contraction The feature points (internal feature points) corresponding to the feature points on the contour line are extracted and arranged on the contour line. Also, the internal feature point extraction unit 750 notifies the internal corresponding point extraction unit 760 of the outline of the region after contraction and the extracted internal feature points.

内部対応点抽出部760は、輪郭特定部730より通知された収縮後の領域の輪郭線において、内部特徴点抽出部750より通知された内部特徴点間を均等に内分することで内分点(内部対応点)を抽出する。内部対応点抽出部760は、内部特徴点抽出部750より通知された内部特徴点と、抽出した内部対応点とに関する情報を、特徴量情報DB150の点に関する情報520に格納する。   The internal corresponding point extraction unit 760 equally divides the internal feature points notified from the internal feature point extraction unit 750 in the contour line of the region after contraction notified from the contour specifying unit 730, thereby dividing the internal division point. (Internal corresponding points) are extracted. The internal corresponding point extraction unit 760 stores information regarding the internal feature point notified from the internal feature point extraction unit 750 and the extracted internal corresponding point in the information 520 regarding the point of the feature amount information DB 150.

特徴量算出部770は、陰影抽出部720より通知された陰影情報に含まれる各ブロックのCT画像上での座標(x,y)を特定し、分布特徴量として、特徴量情報DB150の陰影に関する情報510に、陰影の種類と対応付けて格納する。   The feature amount calculation unit 770 specifies the coordinates (x, y) on the CT image of each block included in the shadow information notified from the shadow extraction unit 720, and relates to the shadow of the feature amount information DB 150 as a distribution feature amount. Information 510 is stored in association with the type of shadow.

(2)登録部による処理の具体例
次に、類似症例画像検索装置120の登録部141による処理の具体例について説明する。
(2) Specific Example of Processing by Registration Unit Next, a specific example of processing by the registration unit 141 of the similar case image search device 120 will be described.

(i)陰影抽出部による陰影抽出処理の具体例
はじめに、登録部141の陰影抽出部720による陰影抽出処理の具体例について説明する。図8は、陰影抽出部による陰影抽出処理の具体例を示す図である。
(I) Specific Example of Shadow Extraction Processing by Shadow Extraction Unit First, a specific example of shadow extraction processing by the shadow extraction unit 720 of the registration unit 141 will be described. FIG. 8 is a diagram illustrating a specific example of the shadow extraction processing by the shadow extraction unit.

このうち、図8(a)は、CT画像の一例を示している。図8(a)に示すように、CT画像800には、患者の右肺の肺野領域810と、患者の左肺の肺野領域820とが含まれる。CT画像800上のブロック(例えば、ブロック830等)は、陰影抽出部720により生成されたブロックを示している。   Among these, Fig.8 (a) has shown an example of CT image. As shown in FIG. 8A, the CT image 800 includes a lung field region 810 of the patient's right lung and a lung field region 820 of the patient's left lung. Blocks on the CT image 800 (for example, the block 830) indicate the blocks generated by the shadow extraction unit 720.

図8(b)は、陰影抽出部720により生成された各ブロックがいずれの陰影に該当するかを識別した様子を示している。図8(b)に示す各ブロックのうち、太線で示したブロック(例えば、ブロック840、850)は、異常陰影(例えば、浸潤影)と識別されたブロックであることを示している。一方、太線で示したブロック以外のブロックは、通常陰影と識別されたブロックであることを示している。   FIG. 8B shows a state in which each block generated by the shadow extraction unit 720 corresponds to which shadow. Of the blocks shown in FIG. 8B, blocks indicated by bold lines (for example, blocks 840 and 850) indicate blocks that are identified as abnormal shadows (for example, infiltration shadows). On the other hand, blocks other than the blocks indicated by bold lines indicate blocks that are identified as normal shadows.

(ii)輪郭特定部による輪郭特定処理の具体例
続いて、輪郭特定部730による輪郭特定処理の具体例について説明する。図9は、輪郭特定部による輪郭特定処理の具体例を示す図である。このうち、図9(a)は、輪郭特定部730により輪郭特定処理が行われる前のCT画像800を示している。一方、図9(b)は、輪郭特定部730が、CT画像800より肺野領域810、820を特定し、肺野領域810、820の輪郭線911、912を抽出した様子を示している。
(Ii) Specific example of contour specifying process by contour specifying unit Next, a specific example of the contour specifying process by the contour specifying unit 730 will be described. FIG. 9 is a diagram illustrating a specific example of the contour specifying process by the contour specifying unit. Among these, FIG. 9A shows the CT image 800 before the contour specifying process is performed by the contour specifying unit 730. On the other hand, FIG. 9B shows a state in which the contour specifying unit 730 specifies the lung field regions 810 and 820 from the CT image 800 and extracts the contour lines 911 and 912 of the lung field regions 810 and 820.

(iii)特徴点抽出部による特徴点抽出処理の具体例
続いて、特徴点抽出部740による特徴点抽出処理の具体例について説明する。図10は、特徴点抽出部による特徴点抽出処理の具体例を示す図である。以下、右肺を例に、特徴点抽出処理の具体例について説明する。
(Iii) Specific Example of Feature Point Extraction Processing by Feature Point Extraction Unit Next, a specific example of feature point extraction processing by the feature point extraction unit 740 will be described. FIG. 10 is a diagram illustrating a specific example of the feature point extraction processing by the feature point extraction unit. Hereinafter, a specific example of the feature point extraction process will be described using the right lung as an example.

図10(a)は、特徴点抽出部740が、右肺より特徴点1010〜1030を抽出する様子を示している。図10(a)に示すように、特徴点抽出部740は、右肺の肺野領域の輪郭線911に基づいて、右肺の肺野領域の重心1001を算出する。続いて、特徴点抽出部740は、重心1001を通る垂直線1002と、右肺の肺野領域の輪郭線911との交点を算出する。更に、特徴点抽出部740は、算出した交点の周辺の輪郭線911上の点であって、y座標が最も小さい点(つまり、CT画像の最も上に位置する点)を、特徴点1010として抽出する。   FIG. 10A shows how the feature point extraction unit 740 extracts feature points 1010 to 1030 from the right lung. As shown in FIG. 10A, the feature point extraction unit 740 calculates the center of gravity 1001 of the right lung field based on the contour line 911 of the right lung field. Subsequently, the feature point extraction unit 740 calculates the intersection of the vertical line 1002 passing through the center of gravity 1001 and the contour line 911 of the lung field region of the right lung. Further, the feature point extraction unit 740 sets a point on the contour line 911 around the calculated intersection and the smallest y coordinate (that is, the point located at the top of the CT image) as the feature point 1010. Extract.

続いて、特徴点抽出部740は、特徴点1010から時計回りに輪郭線911上を移動した際に、輪郭線911が凸形状であって、かつ、輪郭線911の接線の傾きが所定の閾値をはじめて超える点を、特徴点1020として抽出する。   Subsequently, when the feature point extraction unit 740 moves on the contour line 911 clockwise from the feature point 1010, the contour line 911 is convex and the gradient of the tangent line of the contour line 911 is a predetermined threshold value. The points exceeding the first are extracted as feature points 1020.

続いて、特徴点抽出部740は、特徴点1020から更に時計回りに移動した際に、輪郭線911が凸形状であって、かつ、輪郭線911の接線の傾きが所定の閾値を超える点を、特徴点1030として抽出する。   Subsequently, when the feature point extraction unit 740 moves further clockwise from the feature point 1020, the feature point extraction unit 740 detects a point where the contour line 911 has a convex shape and the inclination of the tangent line of the contour line 911 exceeds a predetermined threshold. , Extracted as a feature point 1030.

図10(b)、(c)は、特徴点抽出部740が、右肺より特徴点1040を抽出する様子を示している。図10(b)に示すように、特徴点抽出部740は、まず、CT画像に対して、所定のウィンドウ値とウィンドウ幅を設定して、ウィンドウ(階調)処理を行うことで、CT画像より背骨1012を抽出する。   FIGS. 10B and 10C show how the feature point extraction unit 740 extracts feature points 1040 from the right lung. As shown in FIG. 10B, the feature point extraction unit 740 first sets a predetermined window value and window width for the CT image and performs window (gradation) processing to thereby obtain the CT image. More spine 1012 is extracted.

続いて、特徴点抽出部740は、図10(b)に示すように、抽出した背骨1012の上端に接する水平線1003を算出し、算出した水平線1003と、右肺の肺野領域の輪郭線911との交点1011を求める。続いて、特徴点抽出部740は、図10(c)に示すように、交点1011から時計回りに輪郭線911上を所定距離移動した位置の点を、特徴点1040として抽出する。   Subsequently, as shown in FIG. 10B, the feature point extraction unit 740 calculates a horizontal line 1003 in contact with the upper end of the extracted spine 1012 and calculates the calculated horizontal line 1003 and the contour line 911 of the lung field region of the right lung. The intersection point 1011 is obtained. Subsequently, as shown in FIG. 10C, the feature point extraction unit 740 extracts a point at a position moved a predetermined distance on the contour line 911 clockwise from the intersection point 1011 as the feature point 1040.

図11は、特徴点抽出処理の処理結果の一例を示す図である。図11に示すように、特徴点抽出処理を実行することで、特徴点抽出部740では、右肺の肺野領域より、4つの特徴点1010〜1040を抽出する。   FIG. 11 is a diagram illustrating an example of a result of the feature point extraction process. As illustrated in FIG. 11, by executing the feature point extraction process, the feature point extraction unit 740 extracts four feature points 1010 to 1040 from the lung field region of the right lung.

(iv)特徴点抽出部による内分点抽出処理の具体例
続いて、特徴点抽出部740による内分点抽出処理の具体例について説明する。図12は、特徴点抽出部による内分点抽出処理の具体例を示す図である。なお、以下では、右肺の肺野領域の輪郭線を“第一の輪郭線”と称する。また、特徴点1010から時計回りに特徴点1020に至る第一の輪郭線上の範囲を“区間1”とする。同様に、特徴点1020から時計回りに特徴点1030に至る第一の輪郭線上の範囲を“区間2”とする。また、特徴点1030から時計回りに特徴点1040に至る第一の輪郭線上の範囲を“区間3”とする。更に、特徴点1040から時計回りに特徴点1010に至る第一の輪郭線上の範囲を“区間4”とする。
(Iv) Specific Example of Internal Dividing Point Extraction Processing by Feature Point Extraction Unit Next, a specific example of internal dividing point extraction processing by the feature point extraction unit 740 will be described. FIG. 12 is a diagram illustrating a specific example of the internal dividing point extraction process by the feature point extraction unit. Hereinafter, the contour line of the lung field region of the right lung is referred to as a “first contour line”. A range on the first contour line from the feature point 1010 to the feature point 1020 in the clockwise direction is defined as “section 1”. Similarly, the range on the first contour line from the feature point 1020 to the feature point 1030 in the clockwise direction is defined as “section 2”. Further, a range on the first contour line from the feature point 1030 to the feature point 1040 in the clockwise direction is defined as “section 3”. Further, a range on the first contour line from the feature point 1040 to the feature point 1010 in the clockwise direction is defined as “section 4”.

特徴点抽出部740は、内分点抽出処理を実行することで各区間を均等に内分する。なお、内分する割合は、区間ごとに変えてもよい。図12の例は、区間1を、4つに均等に内分し、内分点1201〜1203を抽出したことを示している。   The feature point extraction unit 740 equally divides each section equally by executing the internal dividing point extraction process. Note that the ratio of internal division may be changed for each section. The example of FIG. 12 shows that the section 1 is equally divided into four, and the internal dividing points 1201 to 1203 are extracted.

続いて、特徴点抽出部740は、点に関する情報(特徴点及び内分点に関する情報)を算出し、図5を用いて説明した、特徴量情報500の“点に関する情報520”に格納する。例えば、特徴点抽出部740は、区間1において、特徴点1010に関する情報として、以下の情報を格納する。
・特徴点1010が属する第一の輪郭線の長さの比(=1)
・特徴点1010が属する区間名(=1)
・特徴点1010の第一の輪郭線上の区間1における位置(=0)
・特徴点1010のCT画像上での座標(=(x,y))
続いて、特徴点抽出部740は、特徴点1010から時計回りに第一の輪郭線上を移動し、次の内分点1201に関する情報を、特徴量情報500の“点に関する情報520”に格納する。例えば、特徴点抽出部740は、内分点1201に関する情報として、以下の情報を格納する。
・内分点1201が属する第一の輪郭線の長さの比(=1)
・内分点1201が属する区間名(=1)
・内分点1201の第一の輪郭線上の区間1における位置(=0.25)
・内分点1201のCT画像上での座標(=(x,y))
以下、同様にして、内分点1202、1203、特徴点1020に関する情報として、以下の情報を格納する。
・内分点1202の場合:(1,1,0.5,x,y
・内分点1203の場合:(1,1,0.75,x,y
・特徴点1020の場合:(1,2,0,x,y
同様に、特徴点抽出部740は、区間2、区間3、区間4においても、特徴点及び内分点に関する情報をそれぞれ、特徴量情報500の“点に関する情報520”に格納する。
Subsequently, the feature point extraction unit 740 calculates information about points (information about feature points and internal division points) and stores it in “information about points 520” of the feature amount information 500 described with reference to FIG. For example, the feature point extraction unit 740 stores the following information as information related to the feature point 1010 in the section 1.
The ratio of the length of the first contour line to which the feature point 1010 belongs (= 1)
-Section name to which the feature point 1010 belongs (= 1)
The position of feature point 1010 in section 1 on the first contour line (= 0)
The coordinates of the feature point 1010 on the CT image (= (x 1 , y 1 ))
Subsequently, the feature point extraction unit 740 moves on the first contour line clockwise from the feature point 1010, and stores information on the next internal dividing point 1201 in the “point information 520” of the feature amount information 500. . For example, the feature point extraction unit 740 stores the following information as information related to the internal dividing point 1201.
The ratio of the length of the first contour line to which the internal dividing point 1201 belongs (= 1)
・ Section name to which internal dividing point 1201 belongs (= 1)
The position of the internal dividing point 1201 in the section 1 on the first contour line (= 0.25)
・ Coordinates on the CT image of the internal dividing point 1201 (= (x 2 , y 2 ))
Hereinafter, similarly, the following information is stored as information regarding the internal dividing points 1202 and 1203 and the feature point 1020.
In the case of the internal dividing point 1202: (1, 1 , 0.5, x 3 , y 3 )
In the case of the internal dividing point 1203: (1, 1, 0.75, x 4 , y 4 )
-In the case of the feature point 1020: (1, 2, 0, x 5 , y 5 )
Similarly, the feature point extraction unit 740 also stores information on feature points and internal division points in the “information about points 520” of the feature amount information 500 in the sections 2, 3, and 4 respectively.

(v)内部特徴点抽出部による内部特徴点抽出処理の具体例
続いて、内部特徴点抽出部750による内部特徴点抽出処理の具体例について説明する。内部特徴点抽出部750は、CT画像の肺野領域を収縮させ、収縮後の領域の輪郭を示す第二の輪郭線を算出する。そして、内部特徴点抽出部750は、第一の輪郭線上の特徴点1010〜1040に対応する第二の輪郭線上の特徴点(内部特徴点)を抽出し、第二の輪郭線上に配置する。なお、ここでは、第一の輪郭線上の特徴点に基づいて第二の輪郭線上の特徴点(内部特徴点)を抽出する場合について説明するが、第nの輪郭線上の特徴点(内部特徴点)に基づいて第n+1の輪郭線上の特徴点(内部特徴点)を抽出する場合も同様である。
(V) Specific Example of Internal Feature Point Extraction Processing by Internal Feature Point Extraction Unit Next, a specific example of internal feature point extraction processing by the internal feature point extraction unit 750 will be described. The internal feature point extraction unit 750 contracts the lung field region of the CT image and calculates a second contour line indicating the contour of the region after contraction. Then, the internal feature point extraction unit 750 extracts feature points (internal feature points) on the second contour line corresponding to the feature points 1010 to 1040 on the first contour line, and arranges them on the second contour line. In addition, although the case where the feature point on the second contour line (internal feature point) is extracted based on the feature point on the first contour line is described here, the feature point on the nth contour line (internal feature point) The same applies to the case of extracting feature points (internal feature points) on the (n + 1) th contour line based on

図13は、第一の輪郭線上の特徴点に対応する、第二の輪郭線上の内部特徴点の抽出方法を説明するための第1の図である。図13に示すように、内部特徴点抽出部750は、第一の輪郭線における特徴点間の内分比を保つという制約のもとで、第二の輪郭線上において、第一の輪郭線上の特徴点から最も近い点を算出することで、第二の輪郭線上の内部特徴点を抽出する。   FIG. 13 is a first diagram for explaining a method of extracting internal feature points on the second contour line corresponding to feature points on the first contour line. As illustrated in FIG. 13, the internal feature point extraction unit 750 performs the processing on the first contour line on the second contour line under the constraint that the internal division ratio between the feature points in the first contour line is maintained. By calculating the closest point from the feature point, the internal feature point on the second contour line is extracted.

図13の例の場合、(特徴点1010と特徴点1020との間の距離):(特徴点1020と特徴点1030との間の距離):(特徴点1030と特徴点1040との間の距離):(特徴点1040と特徴点1010との間の距離)=a:b:c:dである。したがって、第一の輪郭線における特徴点間の内分比を保つという制約は、具体的には、第二の輪郭線上における内部特徴点1310〜1340間の内分比が、a:b:c:dとなるように、第二の輪郭線上において、各内部特徴点を配置することを意味する。   In the case of the example in FIG. 13, (distance between feature point 1010 and feature point 1020): (distance between feature point 1020 and feature point 1030): (distance between feature point 1030 and feature point 1040) ): (Distance between feature point 1040 and feature point 1010) = a: b: c: d. Therefore, the restriction of maintaining the internal division ratio between the feature points in the first contour line is specifically that the internal division ratio between the internal feature points 1310 to 1340 on the second outline is a: b: c. : Means that each internal feature point is arranged on the second contour line so as to be d.

当該内部特徴点1310〜1340を配置することは、上記制約のもとで最適化問題を解くことと等価であるが、本実施形態では、以下のように近似して解を求める。すなわち、第一の輪郭線を局所的な曲線(局所曲線)に分割し、それらの中心にその長さに比例した重みを与え、第一の輪郭線から第二の輪郭線へ、局所曲線の重みを割り当てる際の割り当てコストが最小となる解を求める。このときの割り当てコストは、局所曲線間の距離と割り当てる重みの量とに比例するものとし、割り当てコストが最小となる解を求めることで、第一の輪郭線上の特徴点に対応する第二の輪郭線上の内部特徴点を抽出する。   Arranging the internal feature points 1310 to 1340 is equivalent to solving the optimization problem under the above-mentioned constraints, but in the present embodiment, the solution is obtained by approximation as follows. That is, the first contour line is divided into local curves (local curves), weights proportional to their lengths are given to their centers, and from the first contour line to the second contour line, Find a solution that minimizes the allocation cost when assigning weights. The allocation cost at this time is proportional to the distance between the local curves and the amount of weight to be allocated, and by finding a solution that minimizes the allocation cost, the second corresponding to the feature point on the first contour line Extract internal feature points on the contour line.

図14は、第一の輪郭線上の特徴点に対応する第二の輪郭線上の内部特徴点の抽出方法を説明するための第2の図である。図14に示すように、
・内部特徴点抽出部750は、第一の輪郭線の周長をLを取得する。
・内部特徴点抽出部750は、第一の輪郭線上の各点をN個選択する。ここでは、選択したN個の各点を、P 、P 、・・・PN1 とする。
・内部特徴点抽出部750は、隣り合う各点で結ばれる第一の輪郭線の局所曲線の中点と長さとを取得する。ここでは、取得した局所曲線の中点を(x ,y )、局所曲線の長さをl(k=1,2,・・・N)とする。
・内部特徴点抽出部750は、N個の重み付け点P を設定する。ただし、中点(x ,y )についての重みを、C=l/Lとする。
・内部特徴点抽出部750は、第一の輪郭線から第二の輪郭線への割り当てコストW(下式参照)を最小にする問題を線形計画法に基づいて解く。
FIG. 14 is a second diagram for explaining a method of extracting internal feature points on the second contour line corresponding to feature points on the first contour line. As shown in FIG.
Internal feature point extraction unit 750, the circumferential length of the first contour line to acquire the L 1.
The internal feature point extraction unit 750 selects N 1 points on the first contour line. Here, it is assumed that the selected N 1 points are P 1 1 , P 2 1 ,... P N1 1 .
The internal feature point extraction unit 750 acquires the midpoint and length of the local curve of the first contour line connected by the adjacent points. Here, it is assumed that the midpoint of the acquired local curve is (x k 1 , y k 1 ), and the length of the local curve is l k (k = 1, 2,... N 1 ).
The internal feature point extraction unit 750 sets N 1 weighting points P k 1 . However, the weight for the midpoint (x k 1 , y k 1 ) is C k = l k / L 1 .
The internal feature point extraction unit 750 solves the problem of minimizing the allocation cost W (see the following equation) from the first contour line to the second contour line based on linear programming.

・内部特徴点抽出部750は、第一の輪郭線上の特徴点(x ,y )から第二の輪郭線上の内部特徴点への対応を下式に基づいて算出する。 The internal feature point extraction unit 750 calculates the correspondence from the feature point (x i 1 , y i 1 ) on the first contour line to the internal feature point on the second contour line based on the following equation.

(3)検索部の詳細
次に、類似症例画像検索装置120の各部(登録部141、検索部142、表示制御部143)のうち、検索部142の詳細について説明する。
(3) Details of Search Unit Next, details of the search unit 142 among the units (the registration unit 141, the search unit 142, and the display control unit 143) of the similar case image search device 120 will be described.

図15は、類似症例画像検索装置の検索部の機能構成の一例を示す図である。図15に示すように、検索部142は、スライス画像取得部1510、陰影抽出部1520、輪郭特定部1530、特徴点抽出部1540、内部特徴点抽出部1550、内部対応点抽出部1560、特徴量算出部1570を有する。更に、検索部142は、類似度算出部1580、出力部1590を有する。   FIG. 15 is a diagram illustrating an example of a functional configuration of a search unit of the similar case image search device. As illustrated in FIG. 15, the search unit 142 includes a slice image acquisition unit 1510, a shadow extraction unit 1520, a contour specification unit 1530, a feature point extraction unit 1540, an internal feature point extraction unit 1550, an internal corresponding point extraction unit 1560, a feature amount. A calculation unit 1570 is included. Further, the search unit 142 includes a similarity calculation unit 1580 and an output unit 1590.

読影医等が検索部142を起動し、診断する患者の患者情報を入力した後に、CT装置110にて当該患者についてのCT画像の撮影が行われると、表示制御部143は、撮影されたCT画像を診断対象のCT画像として表示画面300に表示する。表示制御部143により表示画面300が表示され、読影医等により検索指示が入力されることで、図15に示す検索部142の各部が動作する。   After an image interpretation doctor or the like activates the search unit 142 and inputs patient information of a patient to be diagnosed, when the CT apparatus 110 captures a CT image of the patient, the display control unit 143 displays the captured CT. The image is displayed on the display screen 300 as a CT image to be diagnosed. The display screen 300 is displayed by the display control unit 143, and when a search instruction is input by an interpreting doctor or the like, each unit of the search unit 142 illustrated in FIG. 15 operates.

なお、検索部142の各部のうち、類似度算出部1580、出力部1590を除く各部は、表示画面300に表示された診断対象のCT画像について処理を行うことのほかは、図7に示した登録部141の各部と同様の処理を行う。このため、ここでは説明を省略する。   Of the components of the search unit 142, the units other than the similarity calculation unit 1580 and the output unit 1590 perform processing on the CT image to be diagnosed displayed on the display screen 300, as shown in FIG. Processing similar to that performed by each unit of the registration unit 141 is performed. For this reason, explanation is omitted here.

類似度算出部1580は、診断対象のCT画像と、特徴量情報DB150より読み出した検索対象のCT画像との間の類似度を算出する。具体的には、類似度算出部1580は、検索対象のCT画像に含まれる各陰影を、検索対象のCT画像の点に関する情報と、診断対象のCT画像の点に関する情報との関係に基づいて、診断対象のCT画像上に写像する。これにより、検索対象のCT画像に含まれる各陰影の分布特徴量が変換される。類似度算出部1580は、検索対象のCT画像に含まれる各陰影の変換後の分布特徴量と、診断対象のCT画像より抽出された各陰影の分布特徴量とに基づいて、例えば、Earth Mover’s Distanceを用いて類似度を算出する。なお、検索の際に読影医等により陰影の種類が指定された場合にあっては、類似度算出部1580は、指定された種類の陰影の変換後の分布特徴量を用いて類似度を算出する。   The similarity calculation unit 1580 calculates the similarity between the CT image to be diagnosed and the CT image to be searched that is read from the feature amount information DB 150. Specifically, the similarity calculation unit 1580 determines each shadow included in the CT image to be searched based on the relationship between the information about the points of the CT image to be searched and the information about the points of the CT image to be diagnosed. Mapping on the CT image to be diagnosed. As a result, the distribution feature quantity of each shadow included in the CT image to be searched is converted. Based on the distribution feature amount after conversion of each shadow included in the CT image to be searched and the distribution feature amount of each shadow extracted from the CT image to be diagnosed, the similarity calculation unit 1580 performs, for example, Earth Move The similarity is calculated using 's Distance. When the type of shadow is specified by an interpreting doctor or the like at the time of the search, the similarity calculation unit 1580 calculates the similarity using the distribution feature amount after conversion of the specified type of shadow. To do.

なお、類似度算出部1580では、左肺同士の類似度を算出し、次いで、右肺同士の類似度を算出し、最後に、両者の和を算出することで、診断対象のCT画像と検索対象のCT画像との間の類似度を算出する。   The similarity calculation unit 1580 calculates the similarity between the left lungs, then calculates the similarity between the right lungs, and finally calculates the sum of the two, thereby calculating the CT image to be diagnosed and the search. The similarity between the target CT image is calculated.

類似度算出部1580は、特徴量情報DB150より読み出した検索対象の全てのCT画像について同様の処理を行い、診断対象のCT画像と各検索対象のCT画像との間の類似度を、出力部1590に通知する。   The similarity calculation unit 1580 performs the same processing for all the CT images to be searched that are read from the feature amount information DB 150, and outputs the similarity between the CT image to be diagnosed and the CT image to be searched for as an output unit. 1590 is notified.

出力部1590は、類似度算出部1580より通知された類似度について、ソート処理を行い、類似度を高い順に並べ替える。出力部1590は、類似度が高い所定数の検索対象について、対応するID、サムネイル画像を特徴量情報DB150から読み出し、類似度とともに検索結果として表示制御部143に通知する。   The output unit 1590 performs sort processing on the similarities notified from the similarity calculating unit 1580, and sorts the similarities in descending order. The output unit 1590 reads the corresponding ID and thumbnail image from the feature amount information DB 150 for a predetermined number of search targets with high similarity, and notifies the display control unit 143 of the search result together with the similarity.

(4)検索部による処理の具体例
次に、類似症例画像検索装置120の検索部142による処理のうち、類似度算出部1580による写像処理の具体例について説明する。図16は、類似度算出部による写像処理の具体例を示す図である。上述したとおり、類似度算出部1580は、診断対象のCT画像と検索対象のCT画像との間の類似度を算出する際、検索対象のCT画像に含まれる各陰影を、診断対象のCT画像上に写像する。このとき、類似度算出部1580では、まず、検索対象のCT画像の肺野領域の各点(特徴点、内分点、内部特徴点、内部対応点)を診断対象のCT画像上の対応する位置に写像する。
(4) Specific Example of Processing by Search Unit Next, a specific example of mapping processing by the similarity calculation unit 1580 among the processing by the search unit 142 of the similar case image search device 120 will be described. FIG. 16 is a diagram illustrating a specific example of mapping processing by the similarity calculation unit. As described above, when calculating the similarity between the CT image to be diagnosed and the CT image to be searched, the similarity calculating unit 1580 converts each shadow included in the CT image to be searched into the CT image to be diagnosed. Map on top. At this time, in the similarity calculation unit 1580, first, each point (feature point, internal dividing point, internal feature point, internal corresponding point) of the lung field of the CT image to be searched corresponds to the CT image to be diagnosed. Map to position.

図16(a)は、検索対象のCT画像の内部対応点を、診断対象のCT画像上の対応する位置に写像する様子を示している。図16(a)に示すように、検索対象のCT画像の内部対応点1601の写像先は、検索対象のCT画像の内部対応点に関する情報と、診断対象のCT画像の内部対応点に関する情報との関係に基づいて算出される。図16(a)の例では、検索対象のCT画像の内部対応点1601に関する情報は、(0.6,1,0.33,x,y)である。一方、診断対象の内部対応点1611〜1614に関する情報は、(0.7,1,0.25,x,y)、(0.7,1,0.5,x,y)、(0.5,1,0.25,x,y)、(0.5,1,0.5,x,y)である。したがって、類似度算出部1580は、検索対象のCT画像の内部対応点1601の写像先として、点1620を算出する。   FIG. 16A shows a state in which the internal corresponding points of the CT image to be searched are mapped to the corresponding positions on the CT image to be diagnosed. As shown in FIG. 16A, the mapping destination of the internal corresponding point 1601 of the CT image to be searched includes information on the internal corresponding point of the CT image to be searched, information on the internal corresponding point of the CT image to be diagnosed, and It is calculated based on the relationship. In the example of FIG. 16A, the information regarding the internal corresponding point 1601 of the CT image to be searched is (0.6, 1, 0.33, x, y). On the other hand, information on the internal corresponding points 1611 to 1614 to be diagnosed is (0.7, 1, 0.25, x, y), (0.7, 1, 0.5, x, y), (0. 5, 1, 0.25, x, y), (0.5, 1, 0.5, x, y). Therefore, the similarity calculation unit 1580 calculates a point 1620 as a mapping destination of the internal corresponding point 1601 of the CT image to be searched.

なお、検索対象のCT画像の内部対応点の写像先の算出方法を、より一般的に表現すると以下のようになる。例えば、検索対象のCT画像の内部対応点を、(r,i,j,x,y)とおく。 In addition, the calculation method of the mapping destination of the internal corresponding point of the CT image to be searched can be expressed more generally as follows. For example, the internal corresponding points of the CT image to be searched are set as (r d , i d , j d , x d , y d ).

このとき、rは、当該点が属する第nの輪郭線の長さの比であり、0<r≦1を満たす。また、iは、当該点が属する区間名であり、本実施形態では、1、2、3、4のいずれかの値となる。また、jは、当該点の区間iにおける位置であり、0<j≦1を満たす。更に、(x,y)は、当該点のCT画像上での座標である。 At this time, r d is the ratio of the length of the contour line of the n to which the point belongs, satisfy 0 <r d ≦ 1. Also, i d is the interval name to which the point belongs, in the present embodiment, a value of either 1, 2, 3, 4. J d is the position of the point in the interval i d and satisfies 0 <j d ≦ 1. Further, (x d , y d ) is a coordinate on the CT image of the point.

類似度算出部1580は、診断対象のCT画像における内部対応点(r,i,j,x,y)として、下記条件を満たす点を4点を求める。
・r <r<r
・i =i =i
・j11 <j<j12 を満たす最大のj11 と最小のj12
・j21 <j<j22 を満たす最大のj21 と最小のj22
更に、類似度算出部1580は、求めた4点を線形に近似して(r,i,j,x,y)の写像先の点(x,y)を算出する。具体的には、4点に関する情報を、
・(r ,i ,j11 ,x11 ,y11 )、
・(r ,i ,j12 ,x12 ,y12 )、
・(r ,i ,j21 ,x21 ,y21 )、
・(r ,i ,j22 ,x22 ,y22 )、
とすると、類似度算出部1580は、下式により、(x,y)、(x,y)を算出する。
The similarity calculation unit 1580 obtains four points that satisfy the following conditions as internal corresponding points (r q , i q , j q , x q , y q ) in the CT image to be diagnosed.
R 1 q <r d <r 2 q
I 1 q = i 2 q = id
· J 11 q <j d <maximum satisfying j 12 q j 11 q and minimal j 12 q
· J 21 q <j d < j 22 satisfy q largest j 21 q and minimal j 22 q
Further, the similarity calculation unit 1580 linearly approximates the obtained four points to calculate the mapping destination point (x, y) of (r d , i d , j d , x d , y d ). Specifically, information about 4 points
(R 1 q , i 1 q , j 11 q , x 11 q , y 11 q ),
(R 1 q , i 1 q , j 12 q , x 12 q , y 12 q ),
(R 2 q , i 2 q , j 21 q , x 21 q , y 21 q ),
(R 2 q , i 2 q , j 22 q , x 22 q , y 22 q ),
Then, the similarity calculation unit 1580 calculates (x 1 , y 1 ) and (x 2 , y 2 ) by the following formula.

そして、類似度算出部1580は、算出した(x,y)、(x,y)に基づいて、下式により、写像先の点(x,y)を算出する。 Then, the similarity calculation unit 1580 calculates the mapping destination point (x, y) by the following expression based on the calculated (x 1 , y 1 ) and (x 2 , y 2 ).

このように、類似度算出部1580は、上式を用いることにより、検索対象のCT画像の肺野領域の各点(特徴点、内分点、内部特徴点、内部対応点)を、診断対象のCT画像上の対応する位置に写像することができる。   As described above, the similarity calculation unit 1580 uses the above equation to calculate each point (feature point, internal division point, internal feature point, internal corresponding point) of the lung field of the CT image to be searched for as a diagnosis target. Can be mapped to the corresponding position on the CT image.

続いて、類似度算出部1580は、検索対象のCT画像の肺野領域の各点の写像先に基づいて、検索対象のCT画像に含まれる各陰影を、診断対象のCT画像上に写像する。異常陰影の個数がS個であったとすると、類似度算出部1580は、異常陰影を写像する処理をS回繰り返す。   Subsequently, the similarity calculation unit 1580 maps each shadow included in the CT image to be searched on the CT image to be diagnosed based on the mapping destination of each point in the lung field region of the CT image to be searched. . If the number of abnormal shadows is S, the similarity calculation unit 1580 repeats the process of mapping the abnormal shadow S times.

なお、異常陰影の位置は、通常、内部特徴点や内部対応点とは異なる位置になる。したがって、類似度算出部1580は、異常陰影の写像先を以下のようにして求める。   Note that the position of the abnormal shadow is usually a position different from the internal feature points and the internal corresponding points. Therefore, the similarity calculation unit 1580 obtains the mapping destination of the abnormal shadow as follows.

図16(b)は、検索対象のCT画像に含まれる異常陰影を、診断対象のCT画像上に写像する様子を示している。図16(b)に示すように、類似度算出部1580は、異常陰影1621の位置に対して、それを囲む内部特徴点または内部対応点を3点求める。ここでは、類似度算出部1580は、最も距離の近い3点の内部対応点1631〜1633を求める。   FIG. 16B shows a state where an abnormal shadow included in the CT image to be searched is mapped onto the CT image to be diagnosed. As illustrated in FIG. 16B, the similarity calculation unit 1580 obtains three internal feature points or internal corresponding points that surround the position of the abnormal shadow 1621. Here, the similarity calculation unit 1580 obtains three internal corresponding points 1631 to 1633 having the closest distances.

類似度算出部1580は、3点の内部対応点1631〜1633を頂点とする三角形に対する、異常陰影の相対的な位置を求める。また、類似度算出部1580は、診断対象のCT画像上において、内部対応点1631〜1633の写像先の点1641〜1643を頂点とする三角形を求める。更に、類似度算出部1580は、点1641〜1643を頂点とする三角形内の相対的に同じ位置に、検索対象のCT画像の異常陰影1621を写像する(符号1651参照)。   The similarity calculation unit 1580 calculates the relative position of the abnormal shadow with respect to the triangle having the three internal corresponding points 1631 to 1633 as vertices. In addition, the similarity calculation unit 1580 obtains a triangle having apexes of points 1641 to 1643 as mapping destinations of the internal corresponding points 1631 to 1633 on the CT image to be diagnosed. Furthermore, the similarity calculation unit 1580 maps the abnormal shadow 1621 of the CT image to be searched to the relatively same position in the triangle having the points 1641 to 1643 as vertices (see reference numeral 1651).

このように、検索対象のCT画像の各陰影を写像することで、各陰影の分布特徴量を変換することができる。この結果、本実施形態における類似症例画像検索装置120によれば、びまん性肺疾患のように異常陰影が広範囲かつ多様に広がるCT画像においても、類似症例を精度よく検索することが可能になる。   Thus, by mapping each shadow of the CT image to be searched, the distribution feature amount of each shadow can be converted. As a result, according to the similar case image search device 120 in the present embodiment, it is possible to search for similar cases with high accuracy even in CT images in which abnormal shadows spread over a wide range such as diffuse lung disease.

<CT画像処理システムにおける類似症例画像検索処理全体の流れ>
次に、CT画像処理システム100における類似症例画像検索処理全体の流れについて説明する。図17は、CT画像処理システムにおける類似症例画像検索処理のシーケンス図である。
<Overall flow of similar case image retrieval processing in CT image processing system>
Next, the flow of the entire similar case image search process in the CT image processing system 100 will be described. FIG. 17 is a sequence diagram of similar case image search processing in the CT image processing system.

図17に示すように、CT画像処理システム100における類似症例画像検索処理は、登録フェーズと検索フェーズとに大別することができる。はじめに、登録フェーズについて説明する。   As shown in FIG. 17, the similar case image search process in the CT image processing system 100 can be roughly divided into a registration phase and a search phase. First, the registration phase will be described.

ステップS1701において、CT装置110は、患者のCT画像を撮影する。CT画像の撮影に際して、類似症例画像検索装置120には、患者情報が入力される。   In step S1701, the CT apparatus 110 captures a CT image of the patient. When photographing CT images, patient information is input to the similar case image search device 120.

ステップS1702において、CT装置110は、撮影により得られたCT画像を、検索対象のCT画像として、類似症例画像検索装置120の登録部141に送信する。   In step S1702, the CT apparatus 110 transmits the CT image obtained by imaging to the registration unit 141 of the similar case image search apparatus 120 as a CT image to be searched.

ステップS1703において、登録部141は、CT装置110より送信された検索対象のCT画像を取得し、識別子を付したうえで、患者情報とともに、画像DB130に格納する。なお、登録部141がCT画像を画像DB130に格納するにあたり、読影医等は、当該CT画像についての画像診断を行う。登録部141では、このときの診断結果を当該CT画像と対応付けて画像DB130に格納する。   In step S <b> 1703, the registration unit 141 acquires the CT image to be searched transmitted from the CT apparatus 110, attaches an identifier, and stores it in the image DB 130 together with patient information. In addition, when the registration unit 141 stores the CT image in the image DB 130, the interpretation doctor or the like performs image diagnosis on the CT image. The registration unit 141 stores the diagnosis result at this time in the image DB 130 in association with the CT image.

ステップS1704において、登録部141は、格納した検索対象のCT画像について、陰影抽出処理、特徴量算出処理を実行し、各陰影を抽出することで、陰影に関する情報510を生成する。   In step S <b> 1704, the registration unit 141 performs shadow extraction processing and feature amount calculation processing on the stored CT image to be searched, and generates each shadow information information 510 by extracting each shadow.

ステップS1705において、登録部141は、格納した検索対象のCT画像について、輪郭特定処理、特徴点抽出処理、内部特徴点抽出処理、内部対応点抽出処理を実行し、各点を抽出することで、点に関する情報520を生成する。   In step S <b> 1705, the registration unit 141 performs contour specification processing, feature point extraction processing, internal feature point extraction processing, and internal corresponding point extraction processing for the stored CT image to be searched, and extracts each point. Information about a point 520 is generated.

ステップS1706において、登録部141は、生成した陰影に関する情報510、点に関する情報520を特徴量情報DB150に格納する。   In step S <b> 1706, the registration unit 141 stores the generated shading information 510 and the point information 520 in the feature amount information DB 150.

以上で、登録フェーズが完了する。なお、図17は、登録フェーズにおける患者一人分の処理の例であり、実際には、登録フェーズにおいて、複数患者分の処理が行われるものとする。   This completes the registration phase. Note that FIG. 17 is an example of processing for one patient in the registration phase. Actually, processing for a plurality of patients is performed in the registration phase.

続いて、検索フェーズについて説明する。ステップS1711において、CT装置110は、診断する患者のCT画像を撮影する。ステップS1711におけるCT画像の撮影に際して、類似症例画像検索装置120には、診断する患者の患者情報が入力される。   Next, the search phase will be described. In step S1711, the CT apparatus 110 captures a CT image of the patient to be diagnosed. When capturing a CT image in step S1711, patient information of a patient to be diagnosed is input to the similar case image search device 120.

ステップS1712において、CT装置110は、撮影により得られたCT画像を、診断対象のCT画像として、類似症例画像検索装置120の検索部142に送信する。   In step S1712, the CT apparatus 110 transmits the CT image obtained by imaging to the search unit 142 of the similar case image search apparatus 120 as a CT image to be diagnosed.

ステップS1713において、検索部142は、CT装置110より送信された診断対象のCT画像を取得する。また、検索部142は、取得した診断対象のCT画像を表示制御部143に通知する。   In step S <b> 1713, the search unit 142 acquires the CT image to be diagnosed transmitted from the CT apparatus 110. Further, the search unit 142 notifies the display control unit 143 of the acquired CT image to be diagnosed.

ステップS1714において、表示制御部143は、表示装置206に表示画面300を表示し、検索部142より通知されたCT画像を、当該表示画面300の診断対象画像表示領域310に表示する。   In step S <b> 1714, the display control unit 143 displays the display screen 300 on the display device 206, and displays the CT image notified from the search unit 142 in the diagnosis target image display area 310 of the display screen 300.

ステップS1715において、表示制御部143は、表示画面300の検索条件指定領域320において指定された検索条件を受け付ける。また、表示制御部143は、表示画面300の検索ボタン330を介して入力された検索指示を受け付ける。   In step S <b> 1715, the display control unit 143 receives the search condition designated in the search condition designation area 320 of the display screen 300. In addition, the display control unit 143 receives a search instruction input via the search button 330 on the display screen 300.

ステップS1716において、表示制御部143は、表示制御部143は、受け付けた検索条件及び検索指示を検索部142に通知する。   In step S1716, the display control unit 143 notifies the search unit 142 of the received search condition and search instruction.

ステップS1717において、検索部142は、表示制御部143より検索指示の通知を受けると、診断対象のCT画像について、陰影抽出処理、特徴量算出処理を実行し、陰影を抽出することで、陰影に関する情報を取得する。   In step S <b> 1717, when the search unit 142 receives a search instruction notification from the display control unit 143, the search unit 142 executes a shadow extraction process and a feature amount calculation process for the CT image to be diagnosed, and extracts a shadow, thereby relating to the shadow. Get information.

ステップS1718において、検索部142は、診断対象のCT画像について、輪郭特定処理、特徴点抽出処理、内部対応点抽出処理を実行し、各点を抽出することで、点に関する情報を取得する。   In step S <b> 1718, the search unit 142 performs contour specification processing, feature point extraction processing, and internal corresponding point extraction processing on the CT image to be diagnosed, and acquires each point to obtain information about the points.

ステップS1719において、検索部142は、特徴量情報DB150より特徴量情報500を読み出し、検索対象のCT画像についての陰影に関する情報及び点に関する情報を取得する。   In step S <b> 1719, the search unit 142 reads the feature amount information 500 from the feature amount information DB 150, and acquires information about shadows and information about points about the CT image to be searched.

ステップS1720において、検索部142は、取得した検索対象のCT画像に含まれる各陰影を、診断対象のCT画像に写像することで分布特徴量を変換し、検索対象のCT画像と診断対象のCT画像との類似度を算出する。また、検索部142は、算出した類似度の高い順に検索対象のCT画像をソートする。   In step S <b> 1720, the search unit 142 converts the distribution feature amount by mapping each shadow included in the acquired CT image to be searched to the CT image to be diagnosed, and calculates the CT image to be searched and the CT to be diagnosed. The similarity with the image is calculated. In addition, the search unit 142 sorts the CT images to be searched in descending order of the calculated similarity.

ステップS1721において、検索部142は、類似度の高い所定数の検索対象のCT画像に対応付けられたID及びサムネイル画像を、類似度とともに、検索結果として、表示制御部143に通知する。   In step S1721, the search unit 142 notifies the display control unit 143 of the IDs and thumbnail images associated with a predetermined number of CT images to be searched with high similarity, together with the similarity, as a search result.

ステップS1722において、表示制御部143は、検索部142より通知された検索結果を、検索結果表示領域340に表示する。   In step S <b> 1722, the display control unit 143 displays the search result notified from the search unit 142 in the search result display area 340.

ステップS1723において、表示制御部143は、検索結果表示領域340において、読影医等により所定の検索結果が選択された場合に、CT画像表示指示として受け付ける。   In step S <b> 1723, the display control unit 143 accepts a CT image display instruction when a predetermined search result is selected by an interpreting doctor or the like in the search result display area 340.

ステップS1724において、表示制御部143は、選択された検索結果に含まれるIDを特定し、特定したIDにより識別されるCT画像を、画像DB130より読み出す。   In step S <b> 1724, the display control unit 143 specifies the ID included in the selected search result, and reads out the CT image identified by the specified ID from the image DB 130.

ステップS1725において、表示制御部143は、読み出したCT画像を、類似症例検索結果表示領域350に表示する。これにより、読影医等は、診断対象のCT画像の症例に類似する類似症例のCT画像を参照しながら、比較読影により診断対象のCT画像について画像診断を行うことができる。   In step S1725, the display control unit 143 displays the read CT image in the similar case search result display area 350. Thereby, an interpreting doctor or the like can perform image diagnosis on a CT image to be diagnosed by comparative interpretation while referring to a CT image of a similar case similar to the case of the CT image to be diagnosed.

以上の説明から明らかなように、びまん性肺疾患などのように臓器領域内の広範囲に異常陰影が分布する疾患の場合、従来は、検索対象のCT画像と診断対象のCT画像との間で、肺野領域内の対応付けを精度よく行うことができなかった。   As is clear from the above explanation, in the case of a disease in which abnormal shadows are distributed over a wide range within an organ region, such as diffuse lung disease, conventionally, between a CT image to be searched and a CT image to be diagnosed. The association in the lung field region could not be accurately performed.

これに対して、本実施形態における類似症例画像検索装置120は、肺野領域において、第nの輪郭線上の特徴点(または内部特徴点)間の内分比を保ちつつ、第nの輪郭線上の特徴点(または内部特徴点)に最も近い内部特徴点を、第n+1の輪郭線より抽出する。   In contrast, the similar case image search device 120 according to the present embodiment maintains the internal division ratio between feature points (or internal feature points) on the nth contour line in the lung field region, while maintaining the internal division ratio between the feature points (or internal feature points) The internal feature point closest to the feature point (or internal feature point) is extracted from the (n + 1) th contour line.

これにより、第n+1の輪郭線上において、内部特徴点を一意に定義することが可能となり、第n+1の輪郭線上の内部対応点を、当該内部特徴点を基準に定義することが可能となる。この結果、異なるCT画像間であっても、肺野領域内部の各点を精度よく対応付けることが可能となる。   As a result, the internal feature point can be uniquely defined on the (n + 1) th contour line, and the internal corresponding point on the (n + 1) th contour line can be defined on the basis of the internal feature point. As a result, each point in the lung field region can be associated with high accuracy even between different CT images.

つまり、本実施形態によれば、びまん性肺疾患において、異なる画像間での肺野領域内部の対応付けを精度よく行うことが可能となる。   In other words, according to the present embodiment, in a diffuse lung disease, it is possible to accurately associate the inside of a lung field region between different images.

[第2の実施形態]
上記第1の実施形態において類似度算出部1580は、検索対象のCT画像と診断対象のCT画像との類似度を算出するにあたり、検索対象のCT画像に含まれる各陰影を診断対象のCT画像に写像するものとして説明した。しかしながら、類似度算出部1580は、診断対象のCT画像より抽出された各陰影を、検索対象のCT画像に写像することで、検索対象のCT画像と診断対象のCT画像との類似度を算出してもよい。
[Second Embodiment]
In the first embodiment, when calculating the similarity between the CT image to be searched and the CT image to be diagnosed, the similarity calculating unit 1580 determines each shadow included in the CT image to be searched as a CT image to be diagnosed. It was explained as mapping. However, the similarity calculation unit 1580 calculates the similarity between the CT image to be searched and the CT image to be diagnosed by mapping each shadow extracted from the CT image to be diagnosed to the CT image to be searched. May be.

また、上記第1の実施形態では、類似度の算出において、Earth Mover’s Distanceを用いるものとして説明したが、類似度の算出方法はこれに限定されない。   In the first embodiment, the explanation was made assuming that Earth Move's Distance is used in calculating the similarity, but the method of calculating the similarity is not limited to this.

また、上記第1の実施形態では、スライス画像単位で類似度を算出するものとして説明したが、CT画像に含まれる複数のスライス画像それぞれにおいて算出した類似度を和算して、CT画像単位で類似度を算出するようにしてもよい。あるいは、特定のスライス画像間の類似度を和算してCT画像単位で類似度を算出するようにしてもよい。   In the first embodiment described above, the similarity is calculated in units of slice images. However, the similarities calculated in each of a plurality of slice images included in the CT image are summed up and calculated in units of CT images. The similarity may be calculated. Alternatively, the similarity between specific slice images may be summed to calculate the similarity for each CT image.

また、上記第1の実施形態では、4つの特徴点を抽出する場合について説明したが、抽出する特徴点の数は4つに限定されない。   In the first embodiment, the case where four feature points are extracted has been described. However, the number of feature points to be extracted is not limited to four.

また、上記第1の実施形態では、主に肺野領域を撮影したCT画像について説明したが、肺野領域以外の臓器領域を撮影したCT画像に対しても適用可能である。   In the first embodiment, the CT image obtained mainly by imaging the lung field region has been described. However, the present invention can also be applied to a CT image obtained by imaging organ regions other than the lung field region.

また、上記第1の実施形態では、特徴量情報500とCT画像情報600とを異なるDBに分けて格納する場合について説明したが、特徴量情報500とCT画像情報600とは、同じDBに格納してもよい。   In the first embodiment, the case has been described where the feature amount information 500 and the CT image information 600 are stored separately in different DBs. However, the feature amount information 500 and the CT image information 600 are stored in the same DB. May be.

また、第1の実施形態では、検索指示を受け付けてから診断対象のCT画像についての特徴量情報を生成するものとして説明したが、診断対象のCT画像についての特徴量情報は、検索指示を受け付ける前に生成するようにしてもよい。   In the first embodiment, the feature amount information about the CT image to be diagnosed is generated after receiving the search instruction. However, the feature amount information about the CT image to be diagnosed receives the search instruction. It may be generated before.

また、上記第1の実施形態では、医用画像としてCT画像を検索する場合について説明したが、CT画像以外の医用画像(例えば、MRI(Magnetic resonance imaging)画像)を検索する場合に適用してもよい。   In the first embodiment, the case where a CT image is retrieved as a medical image has been described. However, the present invention may be applied to a case where a medical image other than a CT image (for example, an MRI (Magnetic Resonance Imaging) image) is retrieved. Good.

なお、開示の技術では、以下に記載する付記のような形態が考えられる。
(付記1)
画像内の臓器に対し、臓器領域を抽出して第一の輪郭線を抽出し、
前記第一の輪郭線上から複数の第一の特徴点を抽出し、
前記臓器領域を収縮させた、収縮後の臓器領域を抽出して第二の輪郭線を抽出し、
前記第二の輪郭線上における、前記第一の輪郭線上の前記複数の第一の特徴点に対応する複数の第二の特徴点を、前記第一の輪郭線上における前記複数の第一の特徴点間の内分比を保ちつつ、かつ、前記第一の輪郭線上の前記複数の第一の特徴点の位置に最も近い前記第二の輪郭線上の位置に配置する、
処理をコンピュータに実行させる類似症例画像検索プログラム。
(付記2)
前記複数の第一の特徴点間を内分する内分点を前記第一の輪郭線より抽出し、抽出した該内分点に対応する前記第二の輪郭線上の内分点を更に抽出する、
処理を前記コンピュータに実行させる付記1に記載の類似症例画像検索プログラム。
(付記3)
前記第二の特徴点及び内分点に関する情報として、
前記第二の特徴点及び内分点が属する前記第二の輪郭線の、前記第一の輪郭線に対する長さの比と、
前記第二の特徴点及び内分点が属する前記第二の輪郭線における区間を示す情報と、
前記第二の特徴点及び内分点が属する前記第二の輪郭線における前記区間での前記第二の特徴点及び内分点の位置を示す情報と、
前記第二の特徴点及び内分点の前記画像上での座標と、
を抽出する処理を前記コンピュータに実行させる付記2に記載の類似症例画像検索プログラム。
(付記4)
第一の画像より抽出した、複数の第一の特徴点及び内分点と、複数の第二の特徴点及び内分点と、
第二の画像より抽出した、複数の第一の特徴点及び内分点と、複数の第二の特徴点及び内分点と、
の対応付けに基づき、該第一の画像より抽出した陰影を、該第二の画像に写像し、
前記第一の画像より抽出した陰影の写像後の位置と、前記第二の画像より抽出した陰影の位置とに基づき、前記第一の画像と前記第二の画像との類似度を算出する、
処理を前記コンピュータに実行させる付記3に記載の類似症例画像検索プログラム。
(付記5)
前記第一の画像より抽出した陰影のうち、所定の種類の陰影を、前記第二の画像に写像し、
前記第一の画像より抽出した所定の種類の陰影の写像後の位置と、前記第二の画像より抽出した所定の種類の陰影の位置とに基づき、前記第一の画像と前記第二の画像との類似度を算出することを特徴とする付記4に記載の類似症例画像検索プログラム。
(付記6)
画像内の臓器に対し、臓器領域を抽出して第一の輪郭線を抽出する輪郭抽出手段と、
前記第一の輪郭線上から複数の第一の特徴点を抽出する特徴点抽出手段と、
前記臓器領域を収縮させた、収縮後の臓器領域を抽出して第二の輪郭線を抽出し、前記第二の輪郭線上における、前記第一の輪郭線上の前記複数の第一の特徴点に対応する複数の第二の特徴点を、前記第一の輪郭線上における前記複数の第一の特徴点間の内分比を保ちつつ、かつ、前記第一の輪郭線上の前記複数の第一の特徴点の位置に最も近い前記第二の輪郭線上の位置に配置する内部特徴点抽出手段と
を有することを特徴とする類似症例画像検索装置。
(付記7)
画像内の臓器に対し、臓器領域を抽出して第一の輪郭線を抽出し、
前記第一の輪郭線上から複数の第一の特徴点を抽出し、
前記臓器領域を収縮させた、収縮後の臓器領域を抽出して第二の輪郭線を抽出し、
前記第二の輪郭線上における、前記第一の輪郭線上の前記複数の第一の特徴点に対応する複数の第二の特徴点を、前記第一の輪郭線上における前記複数の第一の特徴点間の内分比を保ちつつ、かつ、前記第一の輪郭線上の前記複数の第一の特徴点の位置に最も近い前記第二の輪郭線上の位置に配置する、
処理をコンピュータが実行する類似症例画像検索方法。
In addition, in the disclosed technology, forms such as the following supplementary notes are conceivable.
(Appendix 1)
For the organ in the image, extract the organ area and extract the first contour line,
Extracting a plurality of first feature points from the first contour line;
Extract the second contour line by extracting the organ region after contraction, which contracted the organ region,
A plurality of second feature points corresponding to the plurality of first feature points on the first contour line on the second contour line, and the plurality of first feature points on the first contour line. While maintaining the internal division ratio between, and arranged at a position on the second contour line closest to the position of the plurality of first feature points on the first contour line,
A similar case image search program for causing a computer to execute processing.
(Appendix 2)
Internal dividing points that internally divide the plurality of first feature points are extracted from the first contour line, and internal dividing points on the second contour line corresponding to the extracted internal dividing points are further extracted. ,
The similar case image search program according to appendix 1, which causes the computer to execute processing.
(Appendix 3)
As information about the second feature point and internal dividing point,
A ratio of the length of the second contour line to which the second feature point and internal dividing point belong to the first contour line;
Information indicating a section in the second contour line to which the second feature point and internal dividing point belong;
Information indicating the position of the second feature point and internal dividing point in the section in the second contour line to which the second feature point and internal dividing point belong;
The coordinates on the image of the second feature point and internal dividing point;
The similar case image search program according to supplementary note 2, which causes the computer to execute a process of extracting an image.
(Appendix 4)
A plurality of first feature points and interior dividing points extracted from the first image, a plurality of second feature points and interior dividing points,
A plurality of first feature points and interior dividing points extracted from the second image; a plurality of second feature points and interior dividing points;
The shadow extracted from the first image is mapped to the second image based on the correspondence of
Based on the position after shadow mapping extracted from the first image and the position of the shadow extracted from the second image, the similarity between the first image and the second image is calculated.
The similar case image search program according to appendix 3, which causes the computer to execute processing.
(Appendix 5)
Of the shadows extracted from the first image, a predetermined type of shadow is mapped to the second image,
The first image and the second image based on the position after mapping of the predetermined type of shadow extracted from the first image and the position of the predetermined type of shadow extracted from the second image The similar case image search program according to supplementary note 4, wherein the similarity degree is calculated.
(Appendix 6)
Contour extracting means for extracting an organ region and extracting a first contour for an organ in the image;
Feature point extraction means for extracting a plurality of first feature points from the first contour line;
Extracting the contracted organ region by extracting the second contour line by contracting the organ region, the plurality of first feature points on the first contour line on the second contour line A plurality of corresponding second feature points are maintained while maintaining an internal ratio between the plurality of first feature points on the first contour line, and the plurality of first feature points on the first contour line A similar case image retrieval device comprising: internal feature point extraction means arranged at a position on the second contour line closest to the position of the feature point.
(Appendix 7)
For the organ in the image, extract the organ area and extract the first contour line,
Extracting a plurality of first feature points from the first contour line;
Extract the second contour line by extracting the organ region after contraction, which contracted the organ region,
A plurality of second feature points corresponding to the plurality of first feature points on the first contour line on the second contour line, and the plurality of first feature points on the first contour line. While maintaining the internal division ratio between, and arranged at a position on the second contour line closest to the position of the plurality of first feature points on the first contour line,
A similar case image retrieval method in which processing is executed by a computer.

なお、上記実施形態に挙げた構成等に、その他の要素との組み合わせ等、ここで示した構成に本発明が限定されるものではない。これらの点に関しては、本発明の趣旨を逸脱しない範囲で変更することが可能であり、その応用形態に応じて適切に定めることができる。   Note that the present invention is not limited to the configurations shown here, such as combinations with other elements, etc., in the configurations described in the above embodiments. These points can be changed without departing from the spirit of the present invention, and can be appropriately determined according to the application form.

100 :CT画像処理システム
110 :CT装置
120 :類似症例画像検索装置
140 :類似症例画像検索部
141 :登録部
142 :検索部
143 :表示制御部
300 :表示画面
500 :特徴量情報
510 :陰影に関する情報
520 :点に関する情報
600 :CT画像情報
710 :スライス画像取得部
720 :陰影抽出部
730 :輪郭特定部
740 :特徴点抽出部
750 :内部特徴点抽出部
760 :内部対応点抽出部
770 :特徴量算出部
911、912 :輪郭線
1010〜1040 :特徴点
1201〜1203 :内分点
1310〜1340 :内部特徴点
1510 :スライス画像取得部
1520 :陰影抽出部
1530 :輪郭特定部
1540 :特徴点抽出部
1550 :内部特徴点抽出部
1560 :内部対応点抽出部
1570 :特徴量算出部
1580 :類似度算出部
1590 :出力部
1611〜1614 :内部対応点
100: CT image processing system 110: CT device 120: Similar case image search device 140: Similar case image search unit 141: Registration unit 142: Search unit 143: Display control unit 300: Display screen 500: Feature quantity information 510: Shadow Information 520: Information about points 600: CT image information 710: Slice image acquisition unit 720: Shadow extraction unit 730: Outline specifying unit 740: Feature point extraction unit 750: Internal feature point extraction unit 760: Internal corresponding point extraction unit 770: Feature Quantity calculation units 911 and 912: contour lines 1010 to 1040: feature points 1201 to 1203: internal dividing points 1310 to 1340: internal feature points 1510: slice image acquisition unit 1520: shadow extraction unit 1530: contour specifying unit 1540: feature point extraction Unit 1550: internal feature point extraction unit 1560: internal corresponding point extraction unit 157 : Feature quantity calculation section 1580: a similarity calculation unit 1590: output unit 1611 to 1614: Internal corresponding point

Claims (7)

画像内の臓器に対し、臓器領域を抽出して第一の輪郭線を抽出し、
前記第一の輪郭線上から複数の第一の特徴点を抽出し、
前記臓器領域を収縮させた、収縮後の臓器領域を抽出して第二の輪郭線を抽出し、
前記第二の輪郭線上における、前記第一の輪郭線上の前記複数の第一の特徴点に対応する複数の第二の特徴点を、前記第一の輪郭線上における前記複数の第一の特徴点間の内分比を保ちつつ、かつ、前記第一の輪郭線上の前記複数の第一の特徴点の位置に最も近い前記第二の輪郭線上の位置に配置する、
処理をコンピュータに実行させる類似症例画像検索プログラム。
For the organ in the image, extract the organ area and extract the first contour line,
Extracting a plurality of first feature points from the first contour line;
Extract the second contour line by extracting the organ region after contraction, which contracted the organ region,
A plurality of second feature points corresponding to the plurality of first feature points on the first contour line on the second contour line, and the plurality of first feature points on the first contour line. While maintaining the internal division ratio between, and arranged at a position on the second contour line closest to the position of the plurality of first feature points on the first contour line,
A similar case image search program for causing a computer to execute processing.
前記複数の第一の特徴点間を内分する内分点を前記第一の輪郭線より抽出し、抽出した該内分点に対応する前記第二の輪郭線上の内分点を更に抽出する、
処理を前記コンピュータに実行させる請求項1に記載の類似症例画像検索プログラム。
Internal dividing points that internally divide the plurality of first feature points are extracted from the first contour line, and internal dividing points on the second contour line corresponding to the extracted internal dividing points are further extracted. ,
The similar case image search program according to claim 1, which causes the computer to execute processing.
前記第二の特徴点及び内分点に関する情報として、
前記第二の特徴点及び内分点が属する前記第二の輪郭線の、前記第一の輪郭線に対する長さの比と、
前記第二の特徴点及び内分点が属する前記第二の輪郭線における区間を示す情報と、
前記第二の特徴点及び内分点が属する前記第二の輪郭線における前記区間での前記第二の特徴点及び内分点の位置を示す情報と、
前記第二の特徴点及び内分点の前記画像上での座標と、
を抽出する処理を前記コンピュータに実行させる請求項2に記載の類似症例画像検索プログラム。
As information about the second feature point and internal dividing point,
A ratio of the length of the second contour line to which the second feature point and internal dividing point belong to the first contour line;
Information indicating a section in the second contour line to which the second feature point and internal dividing point belong;
Information indicating the position of the second feature point and internal dividing point in the section in the second contour line to which the second feature point and internal dividing point belong;
The coordinates on the image of the second feature point and internal dividing point;
The similar case image search program according to claim 2, wherein the computer is caused to execute a process of extracting an image.
第一の画像より抽出した、複数の第一の特徴点及び内分点と、複数の第二の特徴点及び内分点と、
第二の画像より抽出した、複数の第一の特徴点及び内分点と、複数の第二の特徴点及び内分点と、
の対応付けに基づき、該第一の画像より抽出した陰影を、該第二の画像に写像し、
前記第一の画像より抽出した陰影の写像後の位置と、前記第二の画像より抽出した陰影の位置とに基づき、前記第一の画像と前記第二の画像との類似度を算出する、
処理を前記コンピュータに実行させる請求項3に記載の類似症例画像検索プログラム。
A plurality of first feature points and interior dividing points extracted from the first image, a plurality of second feature points and interior dividing points,
A plurality of first feature points and interior dividing points extracted from the second image; a plurality of second feature points and interior dividing points;
The shadow extracted from the first image is mapped to the second image based on the correspondence of
Based on the position after shadow mapping extracted from the first image and the position of the shadow extracted from the second image, the similarity between the first image and the second image is calculated.
The similar case image search program according to claim 3, which causes the computer to execute processing.
前記第一の画像より抽出した陰影のうち、所定の種類の陰影を、前記第二の画像に写像し、
前記第一の画像より抽出した所定の種類の陰影の写像後の位置と、前記第二の画像より抽出した所定の種類の陰影の位置とに基づき、前記第一の画像と前記第二の画像との類似度を算出することを特徴とする請求項4に記載の類似症例画像検索プログラム。
Of the shadows extracted from the first image, a predetermined type of shadow is mapped to the second image,
The first image and the second image based on the position after mapping of the predetermined type of shadow extracted from the first image and the position of the predetermined type of shadow extracted from the second image The similarity case image search program according to claim 4, wherein the similarity degree is calculated.
画像内の臓器に対し、臓器領域を抽出して第一の輪郭線を抽出する輪郭抽出手段と、
前記第一の輪郭線上から複数の第一の特徴点を抽出する特徴点抽出手段と、
前記臓器領域を収縮させた、収縮後の臓器領域を抽出して第二の輪郭線を抽出し、前記第二の輪郭線上における、前記第一の輪郭線上の前記複数の第一の特徴点に対応する複数の第二の特徴点を、前記第一の輪郭線上における前記複数の第一の特徴点間の内分比を保ちつつ、かつ、前記第一の輪郭線上の前記複数の第一の特徴点の位置に最も近い前記第二の輪郭線上の位置に配置する内部特徴点抽出手段と
を有することを特徴とする類似症例画像検索装置。
Contour extracting means for extracting an organ region and extracting a first contour for an organ in the image;
Feature point extraction means for extracting a plurality of first feature points from the first contour line;
Extracting the contracted organ region by extracting the second contour line by contracting the organ region, the plurality of first feature points on the first contour line on the second contour line A plurality of corresponding second feature points are maintained while maintaining an internal ratio between the plurality of first feature points on the first contour line, and the plurality of first feature points on the first contour line A similar case image retrieval device comprising: internal feature point extraction means arranged at a position on the second contour line closest to the position of the feature point.
画像内の臓器に対し、臓器領域を抽出して第一の輪郭線を抽出し、
前記第一の輪郭線上から複数の第一の特徴点を抽出し、
前記臓器領域を収縮させた、収縮後の臓器領域を抽出して第二の輪郭線を抽出し、
前記第二の輪郭線上における、前記第一の輪郭線上の前記複数の第一の特徴点に対応する複数の第二の特徴点を、前記第一の輪郭線上における前記複数の第一の特徴点間の内分比を保ちつつ、かつ、前記第一の輪郭線上の前記複数の第一の特徴点の位置に最も近い前記第二の輪郭線上の位置に配置する、
処理をコンピュータが実行する類似症例画像検索方法。
For the organ in the image, extract the organ area and extract the first contour line,
Extracting a plurality of first feature points from the first contour line;
Extract the second contour line by extracting the organ region after contraction, which contracted the organ region,
A plurality of second feature points corresponding to the plurality of first feature points on the first contour line on the second contour line, and the plurality of first feature points on the first contour line. While maintaining the internal division ratio between, and arranged at a position on the second contour line closest to the position of the plurality of first feature points on the first contour line,
A similar case image retrieval method in which processing is executed by a computer.
JP2017087396A 2017-04-26 2017-04-26 Similar case image search program, similar case image search device and similar case image search method Pending JP2018183431A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087396A JP2018183431A (en) 2017-04-26 2017-04-26 Similar case image search program, similar case image search device and similar case image search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087396A JP2018183431A (en) 2017-04-26 2017-04-26 Similar case image search program, similar case image search device and similar case image search method

Publications (1)

Publication Number Publication Date
JP2018183431A true JP2018183431A (en) 2018-11-22

Family

ID=64356435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087396A Pending JP2018183431A (en) 2017-04-26 2017-04-26 Similar case image search program, similar case image search device and similar case image search method

Country Status (1)

Country Link
JP (1) JP2018183431A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740633A (en) * 2018-12-10 2019-05-10 厦门市美亚柏科信息股份有限公司 A kind of image similarity calculation method, device, storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740633A (en) * 2018-12-10 2019-05-10 厦门市美亚柏科信息股份有限公司 A kind of image similarity calculation method, device, storage medium
CN109740633B (en) * 2018-12-10 2022-02-22 厦门市美亚柏科信息股份有限公司 Image similarity calculation method and device and storage medium

Similar Documents

Publication Publication Date Title
US10964020B2 (en) Similar case image search program, similar case image search apparatus, and similar case image search method
US20200320336A1 (en) Control method and recording medium
US10261681B2 (en) Method for displaying a medical image and a plurality of similar medical images obtained from a case search system
JP4800127B2 (en) Medical image segmentation device and medical image segmentation program
CN110598722B (en) Multi-modal neuroimaging data automatic information fusion system
US20100274776A1 (en) Data search apparatus, control method therefor, and data search system
JP2008259622A (en) Report writing supporting apparatus and its program
JP2019082881A (en) Image retrieval device, method and program
EP3373194B1 (en) Image retrieval apparatus and image retrieval method
JP2007275216A (en) Similar image retrieval device, method, and program
US10950019B2 (en) Automatic layout apparatus, automatic layout method, and automatic layout program
EP2235652B2 (en) Navigation in a series of images
CN101040779A (en) Method and system for virtual slice positioning in a 3d volume data set
JP2013123528A (en) Image diagnosis support device and image diagnosis support method
Emrich et al. CT slice localization via instance-based regression
JPWO2020110774A1 (en) Image processing equipment, image processing methods, and programs
JP2018175366A (en) Automatic layout device and automatic layout method, and automatic layout program
JP2018183431A (en) Similar case image search program, similar case image search device and similar case image search method
US11978274B2 (en) Document creation support apparatus, document creation support method, and document creation support program
JP2006130049A (en) Method, system, and program for supporting image reading
WO2023274599A1 (en) Methods and systems for automated follow-up reading of medical image data
US10699426B2 (en) Registration apparatus, registration method, and registration program
JP6521053B2 (en) Search program, search method and search device
US20230016320A1 (en) Image analysis method, image generation method, learning-model generation method, annotation apparatus, and annotation program
JP2005087470A (en) Abnormal shadow candidate detector and program