JP5554028B2 - Medical image processing apparatus, medical image processing program, and X-ray CT apparatus - Google Patents

Medical image processing apparatus, medical image processing program, and X-ray CT apparatus Download PDF

Info

Publication number
JP5554028B2
JP5554028B2 JP2009175877A JP2009175877A JP5554028B2 JP 5554028 B2 JP5554028 B2 JP 5554028B2 JP 2009175877 A JP2009175877 A JP 2009175877A JP 2009175877 A JP2009175877 A JP 2009175877A JP 5554028 B2 JP5554028 B2 JP 5554028B2
Authority
JP
Japan
Prior art keywords
distance
point
feature point
volume data
core line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009175877A
Other languages
Japanese (ja)
Other versions
JP2011024913A (en
Inventor
達郎 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Canon Medical Systems Corp
Original Assignee
Toshiba Corp
Toshiba Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Medical Systems Corp filed Critical Toshiba Corp
Priority to JP2009175877A priority Critical patent/JP5554028B2/en
Publication of JP2011024913A publication Critical patent/JP2011024913A/en
Application granted granted Critical
Publication of JP5554028B2 publication Critical patent/JP5554028B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

この発明は、X線CT装置やMRI装置などの医用画像診断装置によって得られた画像データに基づいて、管状組織の内部を表す画像データを生成する医用画像処理装置、及び医用画像処理プログラムに関する。また、この発明は、被検体にX線を曝射して得られたX線投影データに基づいて、管状組織の内部を表す画像データを生成するX線CT装置に関する。   The present invention relates to a medical image processing apparatus that generates image data representing the inside of a tubular tissue based on image data obtained by a medical image diagnostic apparatus such as an X-ray CT apparatus or an MRI apparatus, and a medical image processing program. The present invention also relates to an X-ray CT apparatus that generates image data representing the inside of a tubular tissue based on X-ray projection data obtained by exposing an object to X-rays.

X線CT装置などの医用画像取得装置によって取得された画像データに基づいて、いわゆる仮想内視鏡表示(virtual endoscopy;VE)を行うことで、血管、腸、気管支などの管状組織の内部を観察することが行われている。仮想内視鏡表示によると、観察者の視点を管状組織の内部で自由に移動させて管状組織の内部を表示することができ、更に、任意位置における形態情報から腫瘍などの状態を確認して診断を行うことができる。従来、仮想内視鏡表示を実行する場合、管状組織の内部を観察しながら視点を動かし、腫瘍などの領域を探す作業を行っていた。   Based on image data acquired by a medical image acquisition device such as an X-ray CT device, so-called virtual endoscopy (VE) is performed to observe the inside of tubular tissues such as blood vessels, intestines and bronchi To be done. According to the virtual endoscopy display, it is possible to display the inside of the tubular tissue by freely moving the observer's viewpoint inside the tubular tissue, and further confirm the state of the tumor etc. from the morphological information at an arbitrary position Diagnosis can be made. Conventionally, when virtual endoscopy display is executed, the viewpoint is moved while observing the inside of the tubular tissue to search for a region such as a tumor.

また、X線CT装置を用いて、被検体の***を撮影によって変えて、被検体の***を各***にした状態で大腸を撮影することで、各***における大腸を3次元的に表わすボリュームデータを取得し、各***におけるボリュームデータにおいて視点位置を一致させて仮想内視鏡表示を実行する試みがなされている(例えば特許文献1)。このように被検体の***を変えて撮影することで、大腸に残渣物が残っている場合に、その残渣物を避けて大腸を表す画像データを取得することが可能となる。例えば、被検体を仰向けにした状態で撮影することで取得された大腸を表すボリュームデータと、被検体をうつ伏せにした状態で撮影することで取得された大腸を表すボリュームデータとにおいて、視点位置を合わせて仮想内視鏡表示を実行していた。   Further, by using an X-ray CT apparatus, the body position of the subject is changed by imaging, and the large intestine is imaged in a state where the body position of the subject is set to each body position, thereby volume data representing the large intestine in each body position in a three-dimensional manner. Attempts have been made to execute virtual endoscopy display by matching the viewpoint position in the volume data in each body position (for example, Patent Document 1). By taking images while changing the posture of the subject in this way, when a residue remains in the large intestine, it is possible to acquire image data representing the large intestine while avoiding the residue. For example, in the volume data representing the large intestine acquired by photographing with the subject lying on the back and the volume data representing the large intestine obtained by photographing with the subject lying down, the viewpoint position is set. At the same time, the virtual endoscope display was executed.

上記特許文献1に記載されている視点位置を一致させる方法について、図5を参照して説明する。図5は、従来技術において、被検体の***を変えて撮影を行うことで取得された大腸領域を表す画像を模式的に示す図である。   A method for matching the viewpoint positions described in Patent Document 1 will be described with reference to FIG. FIG. 5 is a diagram schematically illustrating an image representing a large intestine region acquired by performing imaging while changing the posture of a subject in the related art.

(1)まず、X線CT装置を用いて、被検体の***を撮影ごとに変えて、被検体の***を各***にした状態で大腸を撮影することで、各***における大腸を表わすボリュームデータを取得する。図5に示す例では、被検体を仰向けにした状態(Supine)で撮影することで、仰向け状態における大腸を表すボリュームデータ800を取得し、被検体をうつ伏せにした状態(Prone)で撮影することで、うつ伏せ状態における大腸を表すボリュームデータ900を取得する。   (1) First, volume data representing the large intestine in each body position is obtained by imaging the large intestine with the subject's posture being changed to each position using an X-ray CT apparatus and changing the posture of the subject for each imaging. To get. In the example shown in FIG. 5, volume data 800 representing the large intestine in the supine state is acquired by photographing the subject in the supine state (Supine), and photographing is performed in a state where the subject is lying down (Prone). Thus, the volume data 900 representing the large intestine in the prone state is acquired.

(2)次に、仰向け状態で取得されたボリュームデータ800に基づいて、3次元的な芯線810を抽出する。同様に、うつ伏せ状態で取得されたボリュームデータ900に基づいて、3次元的な芯線910を抽出する。1例として、大腸の中心を通る中心線を芯線として抽出する。   (2) Next, based on the volume data 800 acquired in the supine state, a three-dimensional core wire 810 is extracted. Similarly, a three-dimensional core line 910 is extracted based on the volume data 900 acquired in the prone state. As an example, a center line passing through the center of the large intestine is extracted as a core line.

(3)次に、各***における芯線の始点を設定し、芯線に沿って始点からの距離を求める。例えば、大腸における肛門の位置を始点として、芯線に沿って肛門(始点)からの距離を求める。図5に示す例の場合、芯線810の端部の特徴点820を肛門の位置として、特徴点820を始点に設定する。そして、芯線810に沿って始点(特徴点820)からの距離Lを求める。さらに、3次元の直交座標系(x、y、z)を定義し、距離Lと芯線810のx軸上の座標位置xとの関係を曲線で表すグラフ(L−x)、距離Lと芯線810のy軸上の座標位置yとの関係を曲線で表すグラフ(L−y)、及び、距離Lと芯線810のz軸上の座標位置zとの関係を曲線で表すグラフ(L−z)を求める。同様に、芯線910の端部の特徴点920を肛門の位置として、特徴点920を始点に設定する。そして、芯線910に沿って始点(特徴点920)からの距離Lを求める。さらに、距離Lと芯線910のx軸上の座標位置xとの関係を曲線で表すグラフ(L−x)、距離Lと芯線910のy軸上の座標位置yとの関係を曲線で表すグラフ(L−y)、及び、距離Lと芯線910のz軸上の座標位置zとの関係を曲線で表すグラフ(L−z)を求める。 (3) Next, the starting point of the core wire in each body position is set, and the distance from the starting point is obtained along the core wire. For example, the distance from the anus (start point) is obtained along the core line, starting from the position of the anus in the large intestine. In the case of the example shown in FIG. 5, the feature point 820 at the end of the core wire 810 is set as the anal position, and the feature point 820 is set as the start point. Then, a distance L 1 from the start point (feature point 820) is obtained along the core line 810. Further, a three-dimensional orthogonal coordinate system (x, y, z) is defined, and a graph (L 1 -x) representing the relationship between the distance L 1 and the coordinate position x on the x-axis of the core wire 810 with a curve, the distance L 1 and a graph representing the relationship between the coordinate position y on the y-axis of the core wire 810 (L 1 -y) and a relationship between the distance L 1 and the coordinate position z on the z-axis of the core wire 810 represented by a curve Request graph (L 1 -z). Similarly, the feature point 920 at the end of the core wire 910 is set as the anal position, and the feature point 920 is set as the start point. Then, a distance L 2 from the start point (feature point 920) is obtained along the core line 910. Further, a graph (L 2 -x) representing the relationship between the distance L 2 and the coordinate position x on the x-axis of the core wire 910 as a curve, and the relationship between the distance L 2 and the coordinate position y on the y-axis of the core wire 910 is a curve. graph represented by (L 2 -y), and obtains a graph (L 2 -z) representing the relationship between the distance L 2 and the coordinate position z on the z-axis of the core wire 910 in a curve.

(4)次に、(3)で求められた各グラフにおいて、各座標位置x、y、zがピークを形成する距離を求める。具体的には、グラフ(L−x)を対象にして、座標位置xを距離Lで微分することで、座標位置xがピークを形成する距離L1xを求める。同様に、グラフ(L−y)を対象にして、座標位置yを距離Lで微分することで、座標位置yがピークを形成する距離L1yを求める。同様に、グラフ(L−z)を対象にして、座標位置zを距離Lで微分することで、座標位置zがピークを形成する距離L1zを求める。また、グラフ(L−x)を対象にして、座標位置xを距離Lで微分することで、座標位置xがピークを形成する距離L2xを求める。同様に、グラフ(L−y)を対象にして、座標位置yを距離Lで微分することで、座標位置yがピークを形成する距離L2yを求める。同様に、グラフ(L−z)を対象にして、座標位置zを距離Lで微分することで、座標位置zがピークを形成する距離L2zを求める。 (4) Next, in each graph obtained in (3), the distance at which each coordinate position x, y, z forms a peak is obtained. More specifically, the graph (L 1 -x) to the subject, by differentiating the coordinate position x at a distance L 1, obtains the distance L 1x the coordinate position x to form a peak. Similarly, graph (L 1 -y) to the subject, by differentiating the coordinate position y at a distance L 1, obtains the distance L 1y the coordinate position y forms a peak. Similarly, graph (L 1 -z) to the subject, by differentiating the coordinate position z at a distance L 1, obtains the distance L 1z the coordinate position z to form a peak. Further, to chart the (L 2 -x) to the subject, by differentiating the coordinate position x at a distance L 2, obtains a distance L 2x the coordinate position x to form a peak. Similarly, to chart the (L 2 -y) to the subject, by differentiating the coordinate position y at a distance L 2, obtains a distance L 2y the coordinate position y forms a peak. Similarly, to chart the (L 2 -z) to the subject, by differentiating the coordinate position z at a distance L 2, obtains a distance L 2z the coordinate position z to form a peak.

そして、座標位置xがピークを形成する距離L1xと、座標位置yがピークを形成する距離L1yと、座標位置zがピークを形成する距離L1zとが一致する芯線810上の点を、芯線810における特徴点(大腸の形状が変化している点)として定義する。この方法によって、芯線810上の特徴点821〜824を、大腸の形状が変化している点として定義する。同様に、座標位置xがピークを形成する距離L2xと、座標位置yがピークを形成する距離L2yと、座標位置zがピークを形成する距離L2zとが一致する芯線910上の点を、芯線910における特徴点(大腸の形状が変化している点)として定義する。これにより、芯線910上の特徴点921〜924を、大腸の形状が変化している点として定義する。また、芯線810において、始点として設定された特徴点820とは反対側の端部の点を終点(特徴点825)として定義する。同様に、芯線910において、始点として設定された特徴点920とは反対側の端部の点を終点(特徴点925)として定義する。 Then, the distance L 1x the coordinate position x to form a peak, and the distance L 1y the coordinate position y forms a peak, a point on the core line 810 that coordinates z matches the distance L 1z to form a peak, It is defined as a feature point in the core line 810 (a point where the shape of the large intestine changes). By this method, the characteristic points 821 to 824 on the core wire 810 are defined as points where the shape of the large intestine is changing. Similarly, a point on the core line 910 where the distance L 2x where the coordinate position x forms a peak, the distance L 2y where the coordinate position y forms a peak, and the distance L 2z where the coordinate position z forms a peak are indicated. , Defined as a feature point in the core line 910 (a point where the shape of the large intestine changes). Thereby, the feature points 921 to 924 on the core line 910 are defined as points where the shape of the large intestine changes. In addition, in the core line 810, the end point on the opposite side to the feature point 820 set as the start point is defined as the end point (feature point 825). Similarly, the end point (feature point 925) is defined as an end point on the opposite side to the feature point 920 set as the start point in the core line 910.

(5)次に、仰向け状態で取得されたボリュームデータ800における特徴点820〜825と、うつ伏せ状態で取得されたボリュームデータ900における特徴点920〜925とを対応付ける。例えば、始点として設定された特徴点820及び特徴点920は同じ位置にある特徴点であるとして、特徴点820と特徴点920とを対応付ける。また、芯線810に沿って特徴点820の次の特徴点821と、芯線910に沿って次の特徴点921とは、同じ位置にある特徴点であるとして、特徴点821と特徴点921とを対応付ける。同様に、特徴点822と特徴点922とを対応付け、特徴点823と特徴点923とを対応付け、特徴点824と特徴点924とを対応付け、特徴点825と特徴点925とを対応付ける。このようにして、大腸の形状が変化している点(特徴点)の位置を、仰向け状態で取得されたボリュームデータ800と、うつ伏せ状態で取得されたボリュームデータ900とで対応付ける。   (5) Next, the feature points 820 to 825 in the volume data 800 acquired in the supine state are associated with the feature points 920 to 925 in the volume data 900 acquired in the prone state. For example, assuming that the feature point 820 and the feature point 920 set as the start point are feature points at the same position, the feature point 820 and the feature point 920 are associated with each other. Further, the feature point 821 next to the feature point 820 along the core line 810 and the next feature point 921 along the core line 910 are assumed to be feature points at the same position, and the feature point 821 and the feature point 921 are Associate. Similarly, the feature point 822 is associated with the feature point 922, the feature point 823 is associated with the feature point 923, the feature point 824 is associated with the feature point 924, and the feature point 825 is associated with the feature point 925. In this manner, the position of the point (characteristic point) where the shape of the large intestine is changed is associated with the volume data 800 acquired in the supine state and the volume data 900 acquired in the prone state.

そして、仰向け状態で取得されたボリュームデータ800と、うつ伏せ状態で取得されたボリュームデータ900とにおいて、視点位置を合わせて仮想内視鏡表示を行う。例えば、ボリュームデータ800において、芯線810に沿って特徴点821から特徴点822まで視点を移動させながら、特徴点821と特徴点822との間の各位置における大腸の内部を仮想内視鏡表示する。一方、ボリュームデータ900においても、芯線910に沿って、特徴点821に対応する特徴点921から、特徴点822に対応する特徴点922に向かって視点を移動させながら、特徴点921と特徴点922との間の各位置における大腸の内部を仮想内視鏡表示する。このようにして、仰向け状態で取得されたボリュームデータ800と、うつ伏せ状態で取得されたボリュームデータ900とにおいて、視点位置を合わせて仮想内視鏡表示を行う。   Then, the virtual endoscope display is performed by matching the viewpoint positions in the volume data 800 acquired in the supine state and the volume data 900 acquired in the prone state. For example, in the volume data 800, the inside of the large intestine at each position between the feature point 821 and the feature point 822 is displayed with a virtual endoscope while moving the viewpoint from the feature point 821 to the feature point 822 along the core line 810. . On the other hand, in the volume data 900, the feature point 921 and the feature point 922 are moved along the core line 910 while moving the viewpoint from the feature point 921 corresponding to the feature point 821 toward the feature point 922 corresponding to the feature point 822. The inside of the large intestine at each position between and is displayed with a virtual endoscope. In this manner, the virtual endoscope display is performed by matching the viewpoint positions in the volume data 800 acquired in the supine state and the volume data 900 acquired in the prone state.

米国特許第7224827号明細書US Pat. No. 7,224,827

しかしながら、上記特許文献1に記載の方法によると、仰向け状態における大腸の長さと、うつ伏せ状態における大腸の長さとで差がある場合に、その差分に相当する領域については、視点位置を合わせて仮想内視鏡表示することが困難である。例えば、ボリュームデータ800においては、特徴点821と特徴点822との間の距離が60cmであり、ボリュームデータ900においては、特徴点921と特徴点922との間の距離が65cmであった場合について説明する。すなわち、ボリュームデータ900に表わされている大腸の方が、ボリュームデータ800に表わされている大腸よりも、対応する区間(特徴点821(921)〜特徴点822(922))において5cm長い場合について説明する。この場合、ボリュームデータ800については、特徴点821(0cm地点)から特徴点822(60cm地点)まで芯線810に沿って視点を移動させながら、特徴点821(0cm地点)と特徴点822(60cm地点)との間の各座標位置における大腸の内部を仮想内視鏡表示する。すなわち、0cmから60cmまでの領域を対象にして仮想内視鏡表示を行う。   However, according to the method described in Patent Document 1, when there is a difference between the length of the large intestine in the supine state and the length of the large intestine in the prone state, the region corresponding to the difference is virtually combined with the viewpoint position. Endoscopy is difficult to display. For example, in the volume data 800, the distance between the feature point 821 and the feature point 822 is 60 cm, and in the volume data 900, the distance between the feature point 921 and the feature point 922 is 65 cm. explain. That is, the large intestine represented in the volume data 900 is 5 cm longer in the corresponding section (feature point 821 (921) to feature point 822 (922)) than the large intestine represented in the volume data 800. The case will be described. In this case, for the volume data 800, the feature point 821 (0 cm point) and the feature point 822 (60 cm point) are moved while moving the viewpoint along the core line 810 from the feature point 821 (0 cm point) to the feature point 822 (60 cm point). ) To display the inside of the large intestine at each coordinate position with a virtual endoscope. That is, virtual endoscopy display is performed for the region from 0 cm to 60 cm.

一方、ボリュームデータ900については、特徴点921(0cm地点)から特徴点922(65cm地点)に向かって芯線910に沿って視点を移動させながら、特徴点921(0cm地点)と特徴点922(65cm地点)との間の各座標位置における大腸の内部を仮想内視鏡を行う。この場合において、仰向け状態で取得されたボリュームデータ800と、うつ伏せ状態で取得されたボリュームデータ900とにおいて、視点位置を合わせて0cm地点から60cm地点まで仮想内視鏡表示を行おうとすると、ボリュームデータ900については、60cmの地点(仮想点930)までしか、仮想内視鏡表示を行わないことになる。つまり、ボリュームデータ800については、特徴点821(0cm地点)から特徴点822(60cm地点)までの区間すべてを対象にして仮想内視鏡表示が行われるが、ボリュームデータ900については、その区間に対応するのは、特徴点921(0cm地点)から仮想点930(60cm地点)までの区間であるため、特徴点921(0cm地点)から仮想点930(60cm地点)までの区間についてのみ仮想内視鏡表示を行うことになる。   On the other hand, with respect to the volume data 900, while moving the viewpoint along the core line 910 from the feature point 921 (0 cm point) toward the feature point 922 (65 cm point), the feature point 921 (0 cm point) and the feature point 922 (65 cm). A virtual endoscope is performed on the inside of the large intestine at each coordinate position. In this case, if the volume data 800 acquired in the supine state and the volume data 900 acquired in the prone state are to be subjected to a virtual endoscope display from the 0 cm point to the 60 cm point together with the viewpoint position, the volume data For 900, virtual endoscope display is performed only up to a point of 60 cm (virtual point 930). That is, for volume data 800, virtual endoscope display is performed for all sections from feature point 821 (0 cm point) to feature point 822 (60 cm point). Since it corresponds to the section from the feature point 921 (0 cm spot) to the virtual point 930 (60 cm spot), only the virtual endoscopic view of the section from the feature point 921 (0 cm spot) to the virtual point 930 (60 cm spot). A mirror display will be performed.

従って、仰向け状態で取得されたボリュームデータ800と、うつ伏せ状態で取得されたボリュームデータ900とで、視点位置を合わせて仮想内視鏡表示を行う場合、うつ伏せ状態で取得されたボリュームデータ900については、60cmから65cmまでの領域において、仰向け状態で取得されたボリュームデータ800に対応させて仮想内視鏡表示が行われないことになる。その結果、従来技術に係る方法では、仰向け状態で取得されたボリュームデータ800に対応させて、うつ伏せ状態で取得されたボリュームデータ900において表示されない領域が発生することになる。そのことにより、被検体の***を各***にした状態で大腸を撮影して、各***で取得されたボリュームデータにおいて視点位置を合わせて仮想内視鏡表示を行う場合に、いずれかのボリュームデータにおいて観察されない領域が発生するおそれがあった。つまり、大腸を仮想内視鏡表示で観察する場合に、その観察において見落としが発生するおそれがあった。   Therefore, when performing the virtual endoscope display by matching the viewpoint position with the volume data 800 acquired in the supine state and the volume data 900 acquired in the prone state, the volume data 900 acquired in the prone state is In the region from 60 cm to 65 cm, the virtual endoscope display is not performed in correspondence with the volume data 800 acquired in the supine state. As a result, in the method according to the conventional technique, an area that is not displayed in the volume data 900 acquired in the prone state is generated in correspondence with the volume data 800 acquired in the supine state. As a result, if the large intestine is imaged while the subject's body position is in each body position, and the volume data acquired in each body position is used for virtual endoscope display with the viewpoint position aligned, any volume data There was a possibility that a region that was not observed was generated. That is, when observing the large intestine with a virtual endoscope display, there is a possibility that an oversight may occur in the observation.

この発明は上記の問題を解決するものであり、被検体の***を撮影ごとに変えて同じ撮影対象を撮影することで取得された各***における画像データについて、視点位置を合わせて仮想内視鏡表示を行う場合に、各***における画像データにおいて、観察されない領域の発生を抑制することが可能な医用画像処理装置、医用画像処理プログラム、及びX線CT装置を提供することを目的とする。   The present invention solves the above-described problem, and a virtual endoscope that matches the viewpoint position of image data in each posture acquired by photographing the same subject to be photographed while changing the posture of the subject for each photographing. An object of the present invention is to provide a medical image processing apparatus, a medical image processing program, and an X-ray CT apparatus capable of suppressing the occurrence of an unobserved region in image data in each body position when displaying.

請求項1に記載の発明は、管状組織がそれぞれ異なる状態で表わされた第1ボリュームデータと第2ボリュームデータとを受けて、前記第1ボリュームデータから前記管状組織の第1芯線を抽出し、前記第2ボリュームデータから前記管状組織の第2芯線を抽出する芯線抽出手段と、前記第1芯線が表す前記管状組織の形状に基づいて前記管状組織の第1の特徴点を特定し、前記第2芯線が表す前記管状組織の形状に基づいて前記管状組織の第2の特徴点を特定する特定手段と、前記第1芯線上に設定された始点から前記第1の特徴点までの距離と、前記第2芯線上に設定された始点から前記第2の特徴点までの距離との差が、予め設定された所定距離以内に含まれる前記第1の特徴点と前記第2の特徴点とを対応付ける対応付け手段と、隣り合う前記第1の特徴点間の距離を規格化し、隣り合う前記第2の特徴点間の距離を規格化し、前記規格化された隣り合う前記第1の特徴点の間の第1区間と、前記第1の特徴点と対応付けられた隣り合う前記第2の特徴点の間の第2区間とにおいて、前記規格化された距離が同じ位置にそれぞれ視点を設定し、前記第1ボリュームデータと前記第2ボリュームデータとに対してボリュームレンダリングを施すことで、前記第1ボリュームデータに基づく前記管状組織の内部を表す第1の3次元画像データと前記第2ボリュームデータに基づく前記管状組織の内部を表す第2の3次元画像データとを生成する画像生成手段と、前記第1の3次元画像データに基づく第1の3次元画像と、前記第2の3次元画像データに基づく第2の3次元画像とを並べて表示手段に表示させる表示制御手段と、を有し、前記特定手段は、前記第1芯線上に始点を設定し、前記第1芯線上の位置と前記第1芯線に沿った前記始点からの距離との関係を第1曲線で表した第1グラフと、前記第2芯線上に始点を設定し、前記第2芯線上の位置と前記第2芯線に沿った前記始点からの距離との関係を第2曲線で表した第2グラフとを求めるグラフ作成手段と、前記第1曲線の傾きに基づいて前記第1曲線の特徴点を前記第1の特徴点として特定し、前記第2曲線の傾きに基づいて前記第2曲線の特徴点を前記第2の特徴点として特定する特徴点特定手段と、からなり、前記特徴点特定手段は、前記第1曲線を前記第1芯線における距離によって2次微分することで得られた2次微分値が、予め設定された第1閾値以下となる前記第1芯線上の位置を前記第1の特徴点として特定し、前記第2曲線を前記第2芯線における距離によって2次微分することで得られた2次微分値が、前記第1閾値以下となる前記第2芯線上の位置を前記第2の特徴点として特定することを特徴とする医用画像処理装置である。
また、請求項に記載の発明は、コンピュータに、管状組織がそれぞれ異なる状態で表わされた第1ボリュームデータと第2ボリュームデータとを受けて、前記第1ボリュームデータから前記管状組織の第1芯線を抽出し、前記第2ボリュームデータから前記管状組織の第2芯線を抽出する芯線抽出機能と、前記第1芯線が表す前記管状組織の形状に基づいて前記管状組織の第1の特徴点を特定し、前記第2芯線が表す前記管状組織の形状に基づいて前記管状組織の第2の特徴点を特定する特定機能と、前記第1芯線上に設定された始点から前記第1の特徴点までの距離と、前記第2芯線上に設定された始点から前記第2の特徴点までの距離との差が、予め設定された所定距離以内に含まれる前記第1の特徴点と前記第2の特徴点とを対応付ける対応付け機能と、隣り合う前記第1の特徴点間の距離を規格化し、隣り合う前記第2の特徴点間の距離を規格化し、前記規格化された隣り合う前記第1の特徴点の間の第1区間と、前記第1の特徴点と対応付けられた隣り合う前記第2の特徴点の間の第2区間とにおいて、前記規格化された距離が同じ位置にそれぞれ視点を設定し、前記第1ボリュームデータと前記第2ボリュームデータとに対してボリュームレンダリングを施すことで、前記第1ボリュームデータに基づく前記管状組織の内部を表す第1の3次元画像データと前記第2ボリュームデータに基づく前記管状組織の内部を表す第2の3次元画像データとを生成する画像生成機能と、前記第1の3次元画像データに基づく第1の3次元画像と、前記第2の3次元画像データに基づく第2の3次元画像とを並べて表示手段に表示させる表示制御機能と、を実行させるものであって、前記特定機能は、前記第1芯線上に始点を設定し、前記第1芯線上の位置と前記第1芯線に沿った前記始点からの距離との関係を第1曲線で表した第1グラフと、前記第2芯線上に始点を設定し、前記第2芯線上の位置と前記第2芯線に沿った前記始点からの距離との関係を第2曲線で表した第2グラフとを求めるグラフ作成機能と、前記第1曲線の傾きに基づいて前記第1曲線の特徴点を前記第1の特徴点として特定し、前記第2曲線の傾きに基づいて前記第2曲線の特徴点を前記第2の特徴点として特定する特徴点特定機能と、を有し、前記特徴点特定機能は、前記第1曲線を前記第1芯線における距離によって2次微分することで得られた2次微分値が、予め設定された第1閾値以下となる前記第1芯線上の位置を前記第1の特徴点として特定し、前記第2曲線を前記第2芯線における距離によって2次微分することで得られた2次微分値が、前記第1閾値以下となる前記第2芯線上の位置を前記第2の特徴点として特定すること、を特徴とする医用画像処理プログラムである。
また、請求項に記載の発明は、管状組織を有する被検体の***を第1***にした状態で前記被検体を撮影することで、前記第1***における前記被検体を表す第1ボリュームデータを取得し、前記被検体の***を前記第1***とは異なる第2***にした状態で前記被検体を撮影することで、前記第2***における前記被検体を表す第2ボリュームデータを取得する画像取得手段と、前記第1ボリュームデータから前記管状組織の第1芯線を抽出し、前記第2ボリュームデータから前記管状組織の第2芯線を抽出する芯線抽出手段と、前記第1芯線が表す前記管状組織の形状に基づいて前記管状組織の第1の特徴点を特定し、前記第2芯線が表す前記管状組織の形状に基づいて前記管状組織の第2の特徴点を特定する特定手段と、前記第1芯線上に設定された始点から前記第1の特徴点までの距離と、前記第2芯線上に設定された始点から前記第2の特徴点までの距離との差が、予め設定された所定距離以内に含まれる前記第1の特徴点と前記第2の特徴点とを対応付ける対応付け手段と、隣り合う前記第1の特徴点間の距離を規格化し、隣り合う前記第2の特徴点間の距離を規格化し、前記規格化された隣り合う前記第1の特徴点の間の第1区間と、前記第1の特徴点と対応付けられた隣り合う前記第2の特徴点の間の第2区間とにおいて、前記規格化された距離が同じ位置にそれぞれ視点を設定し、前記第1ボリュームデータと前記第2ボリュームデータとに対してボリュームレンダリングを施すことで、前記第1ボリュームデータに基づく前記管状組織の内部を表す第1の3次元画像データと前記第2ボリュームデータに基づく前記管状組織の内部を表す第2の3次元画像データとを生成する画像生成手段と、前記第1の3次元画像データに基づく第1の3次元画像と、前記第2の3次元画像データに基づく第2の3次元画像とを並べて表示手段に表示させる表示制御手段と、を有し、前記特定手段は、前記第1芯線上に始点を設定し、前記第1芯線上の位置と前記第1芯線に沿った前記始点からの距離との関係を第1曲線で表した第1グラフと、前記第2芯線上に始点を設定し、前記第2芯線上の位置と前記第2芯線に沿った前記始点からの距離との関係を第2曲線で表した第2グラフとを求めるグラフ作成手段と、前記第1曲線の傾きに基づいて前記第1曲線の特徴点を前記第1の特徴点として特定し、前記第2曲線の傾きに基づいて前記第2曲線の特徴点を前記第2の特徴点として特定する特徴点特定手段と、からなり、前記特徴点特定手段は、前記第1曲線を前記第1芯線における距離によって2次微分することで得られた2次微分値が、予め設定された第1閾値以下となる前記第1芯線上の位置を前記第1の特徴点として特定し、前記第2曲線を前記第2芯線における距離によって2次微分することで得られた2次微分値が、前記第1閾値以下となる前記第2芯線上の位置を前記第2の特徴点として特定することを特徴とするX線CT装置である。
In the first aspect of the present invention, the first core data of the tubular tissue is extracted from the first volume data in response to the first volume data and the second volume data represented in different states of the tubular tissue. Identifying a first feature point of the tubular tissue based on a shape of the tubular tissue represented by the first core wire, and a core wire extracting means for extracting a second core wire of the tubular tissue from the second volume data, A specifying means for specifying a second feature point of the tubular tissue based on a shape of the tubular tissue represented by a second core line; and a distance from a start point set on the first core line to the first feature point; The difference between the start point set on the second core line and the distance from the second feature point is within a predetermined distance, and the first feature point and the second feature point are Associating means for associating Normalizing a distance between the matching first feature points, normalizing a distance between the adjacent second feature points, and a first section between the standardized adjacent first feature points; In the second section between the adjacent second feature points associated with the first feature points, viewpoints are respectively set at the same normalized distances, and the first volume data and By applying volume rendering to the second volume data, the inside of the tubular tissue based on the first three-dimensional image data representing the inside of the tubular tissue based on the first volume data and the second volume data Image generating means for generating second 3D image data representing the first 3D image based on the first 3D image data, and a second 3D based on the second 3D image data. Dimensional image A display control unit for displaying on the display unit side by side, the specifying unit from the first to set the starting point on the core wire, the start point along the first wire and a position on the first core wire The first graph representing the relationship with the distance of the first curve, a start point on the second core line, a position on the second core line and a distance from the start point along the second core line A graph creating means for obtaining a second graph representing the relationship by a second curve; a feature point of the first curve is specified as the first feature point based on an inclination of the first curve; and the second curve Characteristic point specifying means for specifying the characteristic point of the second curve as the second characteristic point based on the inclination of the characteristic point, and the characteristic point specifying means determines the first curve according to the distance in the first core line. The secondary differential value obtained by the secondary differentiation is a preset first value. A position on the first core line that is equal to or lower than a threshold is specified as the first feature point, and a second-order differential value obtained by second-order differentiation of the second curve according to a distance in the second core line is The medical image processing apparatus is characterized in that a position on the second core line that is equal to or lower than a first threshold is specified as the second feature point .
According to a third aspect of the present invention, the computer receives the first volume data and the second volume data in which the tubular tissues are represented in different states, and from the first volume data, the first volume data of the tubular tissues is received. Based on the core line extraction function for extracting one core line and extracting the second core line of the tubular tissue from the second volume data, and the shape of the tubular tissue represented by the first core line, the first feature point of the tubular tissue The first feature from the specifying function for specifying the second feature point of the tubular tissue based on the shape of the tubular tissue represented by the second core wire and the starting point set on the first core wire The difference between the distance to the point and the distance from the start point set on the second core line to the second feature point is within a predetermined distance set in advance, and the first feature point and the first Corresponding to 2 feature points Normalizing the distance between the first feature points adjacent to each other, normalizing the distance between the second feature points adjacent to each other, and In the first interval between and the second interval between the second feature points adjacent to each other corresponding to the first feature point, the viewpoints are respectively set at the same standardized distances. First volume data representing the inside of the tubular tissue based on the first volume data and the second volume data by performing volume rendering on the first volume data and the second volume data An image generation function for generating second 3D image data representing the inside of the tubular tissue based on the first 3D image, a first 3D image based on the first 3D image data, and the second 3D image To the data Brute a display control function of displaying on the display unit side by side and the second three-dimensional image, there is to be executed, wherein the specific function, set the start point on the first core, on the first core wire A first graph representing a relationship between a position and a distance from the start point along the first core line by a first curve; a start point on the second core line; and a position on the second core line and the first line A graph creation function for obtaining a second graph representing a relationship with a distance from the starting point along a two-core line by a second curve; and a feature point of the first curve based on an inclination of the first curve. A feature point identifying function that identifies the feature point of the second curve as the second feature point based on the slope of the second curve, and the feature point identifying function includes: The first curve is obtained by second-order differentiation according to the distance in the first core wire. A position on the first core line at which the obtained secondary differential value is equal to or lower than a preset first threshold is specified as the first feature point, and the second curve is quadratic according to the distance in the second core line. A medical image processing program characterized by specifying, as the second feature point, a position on the second core line where a second-order differential value obtained by differentiation is equal to or less than the first threshold value .
According to a fourth aspect of the present invention, the first volume data representing the subject in the first body position is obtained by imaging the subject in a state where the body posture of the subject having a tubular tissue is in the first body position. And acquiring the second volume data representing the subject in the second body position by photographing the subject in a state where the body posture of the subject is in a second body position different from the first body position. Image acquisition means; core line extraction means for extracting a first core wire of the tubular tissue from the first volume data; and extracting a second core wire of the tubular tissue from the second volume data; and the first core wire represents Identifying means for identifying a first feature point of the tubular tissue based on the shape of the tubular tissue, and identifying a second feature point of the tubular tissue based on the shape of the tubular tissue represented by the second core wire; The first core The difference between the distance from the start point set above to the first feature point and the distance from the start point set on the second core line to the second feature point is within a preset predetermined distance The association means for associating the first feature point and the second feature point included in each other, the distance between the adjacent first feature points, and the distance between the adjacent second feature points , And the standardized first section between the adjacent first feature points and the second section between the adjacent second feature points associated with the first feature points In the above, the viewpoints are respectively set at the positions where the standardized distances are the same, and volume rendering is performed on the first volume data and the second volume data, so that the tube based on the first volume data is obtained. The first 3 representing the inside of the organization Image generating means for generating original image data and second 3D image data representing the inside of the tubular tissue based on the second volume data; and a first 3D image based on the first 3D image data And display control means for displaying the second 3D image based on the second 3D image data side by side on the display means, and the specifying means sets a starting point on the first core line. A first graph representing a relationship between a position on the first core line and a distance from the start point along the first core line by a first curve; a start point on the second core line; Graph creating means for obtaining a second graph representing a relationship between a position on a core line and a distance from the starting point along the second core line by a second curve, and the first based on the slope of the first curve A feature point of a curve is specified as the first feature point, and the second feature point Feature point specifying means for specifying the feature point of the second curve as the second feature point based on the slope of the curve, wherein the feature point specifying means is a distance between the first curve and the first curve. A position on the first core line where the second-order differential value obtained by second-order differentiation is equal to or less than a preset first threshold is specified as the first feature point, and the second curve is A second differential value obtained by performing a second order differentiation with respect to a distance in the second core line specifies a position on the second core line that is equal to or lower than the first threshold value as the second feature point. X-ray CT apparatus.

この発明によると、第1区間の距離と、その第1区間に対応する第2区間の距離とを規格化し、第1区間と第2区間とにおいて、規格化された距離が同じ位置にそれぞれ視点を設定して、第1ボリュームデータと第2ボリュームデータとに対してボリュームレンダリングを施すことで、第1ボリュームデータと第2ボリュームデータとで、それぞれ対応する位置における3次元画像データを生成して表示することが可能となる。そのことにより、第1区間の長さと第2区間の長さとが異なっていても、第1区間及び第2区間の全体に亘って3次元画像データを生成して表示することが可能となる。その結果、管状組織がそれぞれ異なる状態で表わされた第1の3次元画像と第2の3次元画像とにおいて、管状組織の観察における見落としの発生を抑制することが可能となる。   According to the present invention, the distance of the first section and the distance of the second section corresponding to the first section are normalized, and the standardized distance is the same in both the first section and the second section. And performing volume rendering on the first volume data and the second volume data to generate three-dimensional image data at corresponding positions in the first volume data and the second volume data, respectively. It is possible to display. As a result, even if the length of the first section is different from the length of the second section, it is possible to generate and display 3D image data over the entire first section and second section. As a result, it is possible to suppress the occurrence of oversight in the observation of the tubular tissue in the first three-dimensional image and the second three-dimensional image in which the tubular tissues are represented in different states.

この発明の実施形態に係る医用画像処理装置を示すブロック図である。1 is a block diagram illustrating a medical image processing apparatus according to an embodiment of the present invention. この発明の実施形態において、被検体の***を変えて撮影を行うことで取得された大腸領域を表す画像を模式的に示す図である。In embodiment of this invention, it is a figure which shows typically the image showing the large intestine area | region acquired by imaging by changing the body posture of a subject. この発明の実施形態に係る医用画像処理装置によって、大腸の形状が変化している箇所を特定する処理を説明するためのグラフである。It is a graph for demonstrating the process which specifies the location where the shape of the large intestine is changing by the medical image processing apparatus which concerns on embodiment of this invention. この発明の実施形態に係る医用画像処理装置によって、大腸の形状が変化している箇所を特定する処理を説明するためのグラフである。It is a graph for demonstrating the process which specifies the location where the shape of the large intestine is changing by the medical image processing apparatus which concerns on embodiment of this invention. 従来技術において、被検体の***を変えて撮影を行うことで取得された大腸領域を表す画像を模式的に示す図である。In a prior art, it is a figure which shows typically the image showing the large intestine area | region acquired by imaging | photography while changing the body posture of a subject.

この発明の実施形態に係る医用画像処理装置について、図1を参照して説明する。図1は、この発明の実施形態に係る医用画像処理装置を示すブロック図である。   A medical image processing apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing a medical image processing apparatus according to an embodiment of the present invention.

この発明の実施形態に係る医用画像処理装置1は、画像データ記憶部2、芯線抽出部3、グラフ作成部4、特徴点特定部5、対応付け部6、画像生成部7、表示制御部9、及び表示部10を備えている。また、医用画像処理装置1は、医用画像診断装置50に接続されている。   A medical image processing apparatus 1 according to an embodiment of the present invention includes an image data storage unit 2, a core line extraction unit 3, a graph creation unit 4, a feature point identification unit 5, an association unit 6, an image generation unit 7, and a display control unit 9. And a display unit 10. The medical image processing apparatus 1 is connected to a medical image diagnostic apparatus 50.

(医用画像診断装置50)
医用画像診断装置50は例えばX線CT装置やMRI装置であり、被検体を撮影することで、撮影対象を3次元的に表わすボリュームデータを取得する。例えば、医用画像診断装置50としてX線CT装置を用いて、被検体の***を撮影ごとに変えて、被検体の大腸(管状組織)を撮影することで、各***における大腸領域を含む組織を3次元的に表すボリュームデータを取得する。この実施形態では、1例として、医用画像診断装置50によって、被検体を仰向けにした状態(Supine)で撮影することで、仰向け状態における大腸領域を含む組織を表すボリュームデータを取得する。また、医用画像診断装置50によって、被検体をうつ伏せにした状態(Prone)で撮影することで、うつ伏せ状態における大腸領域を含む組織を表すボリュームデータを取得する。なお、仰向け状態の***が、この発明の「第1***」の1例に相当し、うつ伏せ状態の***が、この発明の「第2***」の1例に相当する。また、仰向け状態におけるボリュームデータが、この発明の「第1ボリュームデータ」の1例に相当し、うつ伏せ状態におけるボリュームデータが、この発明の「第2ボリュームデータ」の1例に相当する。
(Medical image diagnostic apparatus 50)
The medical image diagnostic apparatus 50 is, for example, an X-ray CT apparatus or an MRI apparatus, and acquires volume data that three-dimensionally represents an imaging target by imaging a subject. For example, by using an X-ray CT apparatus as the medical image diagnostic apparatus 50, the body position of the subject is changed for each imaging, and the large intestine (tubular tissue) of the subject is imaged, so that a tissue including the large intestine region in each body position is obtained. Volume data expressed three-dimensionally is acquired. In this embodiment, as an example, the medical image diagnostic apparatus 50 captures volume data representing a tissue including a large intestine region in a supine state by photographing the subject in a supine state (Supine). Further, the medical image diagnostic apparatus 50 captures volume data representing a tissue including a large intestine region in a prone state by photographing the subject in a prone state (Prone). The posture in the supine state corresponds to one example of the “first body position” of the present invention, and the body position in the prone state corresponds to one example of the “second body position” of the present invention. The volume data in the supine state corresponds to an example of “first volume data” of the present invention, and the volume data in a prone state corresponds to an example of “second volume data” of the present invention.

医用画像診断装置50は、各***におけるボリュームデータを医用画像処理装置1に出力する。この実施形態では、医用画像診断装置50は、仰向け状態における大腸領域を含む組織を表すボリュームデータと、うつ伏せ状態における大腸領域を含む組織を表すボリュームデータとを医用画像処理装置1に出力する。   The medical image diagnostic apparatus 50 outputs volume data for each posture to the medical image processing apparatus 1. In this embodiment, the medical image diagnostic apparatus 50 outputs volume data representing a tissue including a large intestine region in a supine state and volume data representing a tissue including a large intestine region in a prone state to the medical image processing apparatus 1.

(画像データ記憶部2)
画像データ記憶部2は、医用画像診断装置50から画像データを受けて、その画像データを記憶する。この実施形態では、画像データ記憶部2は、仰向け状態で取得された大腸領域を含む組織を表すボリュームデータと、うつ伏せ状態で取得された大腸領域を含む組織を表すボリュームデータとを記憶する。なお、画像データ記憶部2は、ハードディスクやメモリなどの記憶装置によって構成されている。
(Image data storage unit 2)
The image data storage unit 2 receives image data from the medical image diagnostic apparatus 50 and stores the image data. In this embodiment, the image data storage unit 2 stores volume data representing a tissue including a large intestine region acquired in a supine state and volume data representing a tissue including a large intestine region acquired in a prone state. The image data storage unit 2 is configured by a storage device such as a hard disk or a memory.

(芯線抽出部3)
芯線抽出部3は、大腸領域を含む組織を表わすボリュームデータを画像データ記憶部2から読み込んで、大腸領域を含む組織を表すボリュームデータから、大腸領域を3次元的に表すボリュームデータを抽出する。この実施形態では、芯線抽出部3は、仰向け状態で取得された大腸領域を含む組織を表すボリュームデータから、仰向け状態における大腸領域を表すボリュームデータを抽出する。また、芯線抽出部3は、うつ伏せ状態における大腸領域を含む組織を表すボリュームデータから、うつ伏せ状態における大腸領域を含む組織を表すボリュームデータを抽出する。大腸領域を表すボリュームデータを抽出方法は、公知の抽出方法を採用することができる。例えば、芯線抽出部3は、ボリュームデータを形成する画素の画素値について閾値処理を実行することで、大腸に相当する画像領域(大腸領域)を抽出する。閾値処理で用いる閾値は、医用画像処理装置1に設けられている図示しない記憶装置に予め記憶させておけば良い。
(Core extraction unit 3)
The core line extraction unit 3 reads volume data representing a tissue including the large intestine region from the image data storage unit 2, and extracts volume data representing the large intestine region three-dimensionally from the volume data representing the tissue including the large intestine region. In this embodiment, the core wire extraction unit 3 extracts volume data representing the large intestine region in the supine state from the volume data representing the tissue including the large intestine region acquired in the supine state. Further, the core line extraction unit 3 extracts volume data representing a tissue including a large intestine region in a lying state from volume data representing a tissue including a large intestine region in a lying state. A known extraction method can be adopted as a method for extracting volume data representing the large intestine region. For example, the core line extraction unit 3 extracts an image region corresponding to the large intestine (colon region) by executing threshold processing on the pixel values of the pixels forming the volume data. The threshold used in the threshold processing may be stored in advance in a storage device (not shown) provided in the medical image processing apparatus 1.

ここで、大腸領域を表す画像について、図2を参照して説明する。図2は、この発明の実施形態において、被検体の***を変えて撮影を行うことで取得された大腸領域を表す画像を模式的に示す図である。例えば図2に示すように、芯線抽出部3は、仰向け状態(Supine)における大腸領域を表すボリュームデータ100と、うつ伏せ状態(Prone)における大腸領域を表すボリュームデータ200とをそれぞれ抽出する。   Here, an image representing the large intestine region will be described with reference to FIG. FIG. 2 is a diagram schematically showing an image representing a large intestine region acquired by performing imaging while changing the posture of a subject in the embodiment of the present invention. For example, as illustrated in FIG. 2, the core line extraction unit 3 extracts volume data 100 representing the large intestine region in the supine state (Supine) and volume data 200 representing the large intestine region in the prone state (Prone).

さらに、芯線抽出部3は、仰向け状態で取得されたボリュームデータ100に基づいて、3次元的な芯線110を抽出する。同様に、芯線抽出部3は、うつ伏せ状態で取得されたボリュームデータ200に基づいて、3次元的な芯線210を抽出する。1例として、芯線抽出部3は、大腸領域の中心を通る中心線を芯線として、芯線110と芯線210とを抽出する。例えば、特開2006−246941号公報に記載の方法や、特開2004−230086号公報に記載の方法によって、大腸領域を表すボリュームデータから芯線を抽出することができる。なお、大腸領域において、途絶している領域がある場合には、芯線抽出部3は、その途絶している区間を直線で繋げることで芯線を抽出する。そして、芯線抽出部3は、仰向け状態における芯線110の座標情報と、うつ伏せ状態における芯線210の座標情報とを、グラフ作成部4と画像生成部7とに出力する。なお、芯線110が、この発明の「第1芯線」の1例に相当し、芯線210が、この発明の「第2芯線」の1例に相当する。また、芯線抽出部3が、この発明の「芯線抽出手段」の1例に相当する。   Furthermore, the core wire extraction unit 3 extracts a three-dimensional core wire 110 based on the volume data 100 acquired in the supine state. Similarly, the core line extraction unit 3 extracts a three-dimensional core line 210 based on the volume data 200 acquired in a prone state. As an example, the core line extraction unit 3 extracts the core line 110 and the core line 210 using a center line passing through the center of the large intestine region as a core line. For example, a core line can be extracted from volume data representing a large intestine region by a method described in Japanese Patent Application Laid-Open No. 2006-246941 or a method described in Japanese Patent Application Laid-Open No. 2004-230086. When there is a discontinuous region in the large intestine region, the core line extraction unit 3 extracts the core line by connecting the discontinuous sections with a straight line. Then, the core line extraction unit 3 outputs the coordinate information of the core wire 110 in the supine state and the coordinate information of the core wire 210 in the prone state to the graph creation unit 4 and the image generation unit 7. The core wire 110 corresponds to an example of the “first core wire” of the present invention, and the core wire 210 corresponds to an example of the “second core wire” of the present invention. The core wire extraction unit 3 corresponds to an example of the “core wire extraction unit” of the present invention.

(グラフ作成部4)
グラフ作成部4は、始点設定部41と距離算出部42とを備えている。グラフ作成部4は、芯線抽出部3によって抽出された芯線の座標情報に基づいて、芯線上の各座標位置と芯線の長さとの関係を曲線で表すグラフを作成する。以下、グラフ作成部4の詳細を説明する。
(Graph generator 4)
The graph creation unit 4 includes a start point setting unit 41 and a distance calculation unit 42. The graph creation unit 4 creates a graph representing the relationship between each coordinate position on the core line and the length of the core line as a curve based on the coordinate information of the core line extracted by the core line extraction unit 3. Details of the graph creation unit 4 will be described below.

(始点設定部41)
始点設定部41は、芯線抽出部3によって抽出された各***における芯線に対して、始点を設定する。図2に示す例の場合、始点設定部41は、芯線110の端部の位置にある特徴点120を始点として設定する。同様に、始点設定部41は、芯線210の端部にある特徴点220を始点として設定する。なお、特徴点120及び特徴点220は、大腸における肛門の位置に相当する。このように、始点設定部41は、芯線110と芯線210とにおいて、同じ位置に始点を設定する。例えば、始点設定部41は、芯線110において特徴点120を始点に設定した場合、特徴点120の座標位置と、芯線210における特徴点220及び特徴点225の座標位置とを比べて、座標位置が特徴点120と比較的近い特徴点を、芯線210における始点として設定する。座標位置が比較的近い場合には、芯線210において特徴点120と同じ位置を示していると推定されるからである。図2に示す例の場合、特徴点220の座標位置が特徴点120の座標位置と比較的近いため、始点設定部41は、特徴点220を芯線210における始点に設定する。なお、始点設定部41は、芯線110において、特徴点120とは反対側の端部にある特徴点125を始点として設定し、芯線210において、特徴点220とは反対側の端部にある特徴点225を始点として設定しても良い。または、始点設定部41は、図示しない操作部によって操作者が指定した点を始点として設定しても良い。
(Start point setting unit 41)
The start point setting unit 41 sets a start point for the core line in each body position extracted by the core line extraction unit 3. In the case of the example illustrated in FIG. 2, the start point setting unit 41 sets the feature point 120 at the end position of the core wire 110 as the start point. Similarly, the start point setting unit 41 sets a feature point 220 at the end of the core wire 210 as a start point. Note that the feature point 120 and the feature point 220 correspond to the position of the anus in the large intestine. Thus, the start point setting unit 41 sets the start point at the same position in the core wire 110 and the core wire 210. For example, when the feature point 120 is set as the start point in the core line 110, the start point setting unit 41 compares the coordinate position of the feature point 120 with the coordinate positions of the feature point 220 and the feature point 225 in the core line 210, and the coordinate position is A feature point that is relatively close to the feature point 120 is set as the start point of the core line 210. This is because when the coordinate positions are relatively close, it is estimated that the core line 210 indicates the same position as the feature point 120. In the example shown in FIG. 2, since the coordinate position of the feature point 220 is relatively close to the coordinate position of the feature point 120, the start point setting unit 41 sets the feature point 220 as the start point of the core line 210. The start point setting unit 41 sets the feature point 125 at the end opposite to the feature point 120 in the core line 110 as the start point, and the feature at the end opposite to the feature point 220 in the core line 210. You may set the point 225 as a starting point. Alternatively, the start point setting unit 41 may set a point designated by the operator using an operation unit (not shown) as the start point.

(距離算出部42)
距離算出部42は、各***における芯線に沿って始点からの距離を求める。具体的には、距離算出部42は、仰向け状態における芯線110に沿って、始点設定部41によって設定された始点(特徴点120)からの距離Lを求める。同様に、距離算出部42は、うつ伏せ状態における芯線210に沿って、始点設定部41によって設定された始点(特徴点220)からの距離Lを求める。
(Distance calculation unit 42)
The distance calculation part 42 calculates | requires the distance from a starting point along the core line in each body position. Specifically, the distance calculation unit 42 calculates the distance L 1 from the start point (feature point 120) set by the start point setting unit 41 along the core line 110 in the supine state. Similarly, the distance calculation unit 42, face down along the core line 210 in a state, it obtains the distance L 2 from the starting point set by the starting point setting unit 41 (feature point 220).

以上のように距離L及び距離Lが求められると、グラフ作成部4は、芯線上の各座標位置と芯線の長さ(距離L、距離L)との関係を曲線で表すグラフを作成する。具体的には、グラフ作成部4は、3次元の直交座標系(x、y、z)を定義し、距離Lと芯線110のx軸上の座標位置xとの関係を曲線で表すグラフ(L−x)を求める。同様に、グラフ作成部4は、距離Lと芯線110のy軸上の座標位置yとの関係を曲線で表すグラフ(L−y)を求め、距離Lと芯線110のz軸上の座標位置zとの関係を曲線で表すグラフ(L−z)を求める。また、グラフ作成部4は、距離Lと芯線210のx軸上の座標位置xとの関係を曲線で表すグラフ(L−x)、距離Lと芯線210のy軸上の座標位置yとの関係を曲線で表すグラフ(L−y)、及び、距離Lと芯線210のz軸上の座標位置zとの関係を曲線で表すグラフ(L−z)を求める。 When the distance L 1 and the distance L 2 are obtained as described above, the graph creating unit 4 is a graph that represents the relationship between each coordinate position on the core wire and the length of the core wire (distance L 1 , distance L 2 ) as a curve. Create Graph Specifically, the graph creation unit 4, represented by curve the relationship between to define the three-dimensional orthogonal coordinate system (x, y, z), the distance L 1 and the coordinate position x on the x-axis of the core wire 110 (L 1 -x) is obtained. Similarly, the graph creation unit 4 obtains a graph (L 1 −y) that represents the relationship between the distance L 1 and the coordinate position y of the core wire 110 on the y axis as a curve, and the distance L 1 and the core wire 110 on the z axis. Request graph (L 1 -z) representing the relationship between the coordinate position z of the curve. Further, the graph creation unit 4 is a graph (L 2 -x) that represents the relationship between the distance L 2 and the coordinate position x on the x-axis of the core wire 210, and the coordinate position on the y-axis of the distance L 2 and the core wire 210. A graph (L 2 -y) representing the relationship with y as a curve and a graph (L 2 -z) representing the relationship between the distance L 2 and the coordinate position z of the core wire 210 on the z axis as a curve are obtained.

グラフ作成部4によって作成された各グラフを図3及び図4に示す。図3及び図4は、この発明の実施形態に係る医用画像処理装置によって、大腸の形状が変化している箇所を特定する処理を説明するためのグラフである。図3には、距離Lと芯線110の各軸の座標位置との関係を示すグラフが示されている。また、図4には、距離Lと芯線210の各軸の座標位置との関係を示すグラフが示されている。 Each graph created by the graph creation unit 4 is shown in FIGS. FIG. 3 and FIG. 4 are graphs for explaining processing for specifying a portion where the shape of the large intestine is changed by the medical image processing apparatus according to the embodiment of the present invention. FIG. 3 shows a graph showing the relationship between the distance L 1 and the coordinate position of each axis of the core wire 110. Further, in FIG. 4 is a graph showing the relationship between the coordinate position of each axis of the distance L 2 and the core wire 210 is shown.

図3において、グラフ300は、距離Lとx軸上の座標位置xとの関係を曲線で表すグラフ(L−x)であり、グラフ310は、距離Lとy軸上の座標位置yとの関係を曲線で表すグラフ(L−y)であり、グラフ320は、距離Lとz軸上の座標位置zとの関係を曲線で表すグラフ(L−z)である。一方、図4において、グラフ400は、距離Lとx軸上の座標位置xとの関係を曲線で表すグラフ(L−x)であり、グラフ410は、距離Lとy軸上の座標位置yとの関係を曲線で表すグラフ(L−y)であり、グラフ420は、距離Lとz軸上の座標位置zとの関係を曲線で表すグラフ(L−z)である。 In FIG. 3, a graph 300 is a graph (L 1 −x) that represents the relationship between the distance L 1 and the coordinate position x on the x-axis by a curve, and the graph 310 is a coordinate position on the y-axis and the distance L 1. A graph (L 1 -y) representing the relationship with y as a curve, and a graph 320 is a graph (L 1 -z) representing the relationship between the distance L 1 and the coordinate position z on the z axis as a curve. On the other hand, in FIG. 4, a graph 400 is a graph (L 2 −x) that represents the relationship between the distance L 2 and the coordinate position x on the x axis by a curve, and the graph 410 is a graph on the distance L 2 and the y axis. The graph is a graph (L 2 -y) representing the relationship with the coordinate position y as a curve, and the graph 420 is a graph (L 2 -z) representing the relationship between the distance L 2 and the coordinate position z on the z axis as a curve. is there.

以上のようにして、グラフ作成部4は、仰向け状態における芯線110に基づいて、各軸上の座標位置と距離Lとの関係を曲線で表すグラフを作成し、また、うつ伏せ状態における芯線210に基づいて、各軸上の座標位置と距離Lとの関係を曲線で表すグラフを作成する。そして、グラフ作成部4は、各グラフの曲線を示す情報を特徴点特定部5に出力する。なお、グラフ300、310、320が、この発明の「第1グラフ」の1例に相当し、グラフ300、310、320にそれぞれ表わされた曲線が、この発明の「第1曲線」に相当する。また、グラフ400、410、420が、この発明の「第2グラフ」の1例に相当し、グラフ400、410、420にそれぞれ表わされた曲線が、この発明の「第2曲線」に相当する。また、グラフ作成部4が、この発明の「グラフ作成手段」の1例に相当する。 As described above, the graph creation unit 4, based on the core wire 110 in a supine condition, creates a graph representing the relationship between the coordinate position and the distance L 1 on each axis a curve, also the core wire 210 in a prone state based on, to create a graph showing the relationship between the coordinate position and the distance L 2 on each axis with a curve. Then, the graph creating unit 4 outputs information indicating the curve of each graph to the feature point specifying unit 5. The graphs 300, 310, and 320 correspond to an example of the “first graph” of the present invention, and the curves respectively represented by the graphs 300, 310, and 320 correspond to the “first curve” of the present invention. To do. The graphs 400, 410, and 420 correspond to an example of the “second graph” of the present invention, and the curves represented by the graphs 400, 410, and 420 correspond to the “second curve” of the present invention. To do. The graph creating unit 4 corresponds to an example of “graph creating means” of the present invention.

(特徴点特定部5)
特徴点特定部5は、微分処理部51と、個別ピーク点特定部52と、個別変化点特定部55と、形状変化点特定部58とを備えている。特徴点特定部5は、グラフ作成部4によって作成されたグラフが表す曲線に基づいて、大腸の形状が変化している箇所(特徴点)を特定する。例えば、特徴点特定部5は、各グラフが表す曲線のピーク点を特定し、そのピーク点を大腸の形状が変化している箇所(特徴点)として定義する。また、特徴点特定部5は、各グラフが表す曲線の傾きの変化量が予め設定された閾値以上となっている点を、大腸の形状が変化している箇所(特徴点)として定義する。以下、特徴点特定部5の各部について説明する。
(Feature point identification unit 5)
The feature point specifying unit 5 includes a differentiation processing unit 51, an individual peak point specifying unit 52, an individual change point specifying unit 55, and a shape change point specifying unit 58. The feature point specifying unit 5 specifies a location (feature point) where the shape of the large intestine changes based on the curve represented by the graph created by the graph creating unit 4. For example, the feature point specifying unit 5 specifies a peak point of a curve represented by each graph, and defines the peak point as a location (feature point) where the shape of the large intestine changes. Further, the feature point specifying unit 5 defines a point where the amount of change in the slope of the curve represented by each graph is equal to or greater than a preset threshold value as a location where the shape of the large intestine changes (a feature point). Hereinafter, each part of the feature point specifying unit 5 will be described.

(微分処理部51)
微分処理部51は、グラフ作成部4によって作成された各グラフが表す曲線を示す情報を受けて、各グラフが表す曲線に対して距離による微分処理を行う。この実施形態では、微分処理部51は、各グラフが表す曲線に対して距離による1次微分と2次微分とを行う。そして、微分処理部51は、微分処理によって得られた1次微分値と2次微分値とを、個別ピーク点特定部52と個別変化点特定部55とに出力する。
(Differential processing part 51)
The differentiation processing unit 51 receives information indicating the curve represented by each graph created by the graph creation unit 4, and performs a differentiation process based on the distance on the curve represented by each graph. In this embodiment, the differentiation processing unit 51 performs primary differentiation and secondary differentiation based on the distance with respect to the curve represented by each graph. Then, the differential processing unit 51 outputs the primary differential value and the secondary differential value obtained by the differential processing to the individual peak point specifying unit 52 and the individual change point specifying unit 55.

例えば、微分処理部51は、距離Lとx軸上の座標位置xとの関係を曲線で表すグラフ300に対して、距離Lによる1次微分処理と2次微分処理とを行い、1次微分値と2次微分値とを個別ピーク点特定部52と個別変化点特定部55とに出力する。同様に、微分処理部51は、距離Lとy軸上の座標位置yとの関係を曲線で表すグラフ310に対して、距離Lによる1次微分処理と2次微分処理とを行い、1次微分値と2次微分値とを個別ピーク点特定部52と個別変化点特定部55とに出力する。同様に、微分処理部51は、距離Lとz軸上の座標位置zとの関係を曲線で表すグラフ320に対して、距離Lによる1次微分処理と2次微分処理とを行い、1次微分値と2次微分値とを個別ピーク点特定部52と個別変化点特定部55とに出力する。また、微分処理部51は、距離Lとx軸上の座標位置xとの関係を曲線で表すグラフ400に対して、距離Lによる1次微分処理と2次微分処理とを行い、1次微分値と2次微分値とを個別ピーク点特定部52と個別変化点特定部55とに出力する。同様に、微分処理部51は、距離Lとy軸上の座標位置yとの関係を曲線で表すグラフ410に対して、距離Lによる1次微分処理と2次微分処理とを行い、1次微分値と2次微分値とを個別ピーク点特定部52と個別変化点特定部55とに出力する。同様に、微分処理部51は、距離Lとz軸上の座標位置zとの関係を曲線で表すグラフ420に対して、距離Lによる1次微分処理と2次微分処理とを行い、1次微分値と2次微分値とを個別ピーク点特定部52と個別変化点特定部55とに出力する。 For example, the differential processing unit 51 performs a primary differential process and a secondary differential process based on the distance L 1 on the graph 300 that represents the relationship between the distance L 1 and the coordinate position x on the x axis as a curve. The secondary differential value and the secondary differential value are output to the individual peak point specifying unit 52 and the individual change point specifying unit 55. Similarly, the differential processing unit 51 performs a primary differential process and a secondary differential process based on the distance L 1 on the graph 310 that represents the relationship between the distance L 1 and the coordinate position y on the y-axis as a curve, The primary differential value and the secondary differential value are output to the individual peak point specifying unit 52 and the individual change point specifying unit 55. Similarly, the differential processing unit 51 performs a primary differential process and a secondary differential process with the distance L 1 on the graph 320 that represents the relationship between the distance L 1 and the coordinate position z on the z-axis as a curve, The primary differential value and the secondary differential value are output to the individual peak point specifying unit 52 and the individual change point specifying unit 55. In addition, the differential processing unit 51 performs a primary differential process and a secondary differential process based on the distance L 2 on the graph 400 that represents the relationship between the distance L 2 and the coordinate position x on the x-axis as a curve. The secondary differential value and the secondary differential value are output to the individual peak point specifying unit 52 and the individual change point specifying unit 55. Similarly, the differential processing unit 51 performs a primary differential process and a secondary differential process based on the distance L 2 on the graph 410 that represents the relationship between the distance L 2 and the coordinate position y on the y-axis as a curve, The primary differential value and the secondary differential value are output to the individual peak point specifying unit 52 and the individual change point specifying unit 55. Similarly, the differential processing unit 51 performs a primary differential process and a secondary differential process based on the distance L 2 on the graph 420 that represents the relationship between the distance L 2 and the coordinate position z on the z axis as a curve. The primary differential value and the secondary differential value are output to the individual peak point specifying unit 52 and the individual change point specifying unit 55.

(個別ピーク点特定部52)
個別ピーク点特定部52は、ピーク点特定部53とピーク点推定部54とを備えている。個別ピーク点特定部52は、各グラフの1次微分値と2次微分値とを微分処理部51から受けて、各グラフが表す曲線において座標位置x、y、zがそれぞれピークを形成するピーク点(グラフの傾きの符号が変化する点)を特定する。
(Individual peak point specifying unit 52)
The individual peak point specifying unit 52 includes a peak point specifying unit 53 and a peak point estimating unit 54. The individual peak point specifying unit 52 receives the primary differential value and the secondary differential value of each graph from the differential processing unit 51, and the peak at which the coordinate positions x, y, and z each form a peak in the curve represented by each graph. Specify a point (a point where the sign of the slope of the graph changes).

(ピーク点特定部53)
ピーク点特定部53は、各グラフが表す曲線において、2次微分値が「0」となる点をピーク点として特定する。具体的には、ピーク点特定部53は、グラフ300が表す曲線の2次微分値が「0」となる点301(L1xa、X1a)をピーク点として特定する。また、ピーク点特定部53は、グラフ300が表す曲線の2次微分値が「0」となる点303をピーク点として特定する。同様に、ピーク点特定部53は、グラフ310が表す曲線の2次微分値が「0」となる点311(L1ya、Y1a)をピーク点として特定する。同様に、ピーク点特定部53は、グラフ320が表す曲線の2次微分値が「0」となる点321(L1za、Z1a)をピーク点として特定する。このように、ピーク点特定部53は、仰向け状態における大腸の長さ(距離L)と、座標位置x、y、zとの関係に基づいて、仰向け状態において座標位置x、y、zのそれぞれがピークを形成するピーク点を特定する。
(Peak point identification part 53)
The peak point specifying unit 53 specifies a point where the secondary differential value is “0” in the curve represented by each graph as a peak point. Specifically, the peak point specifying unit 53 specifies a point 301 (L 1xa , X 1a ) where the secondary differential value of the curve represented by the graph 300 is “0” as a peak point. In addition, the peak point specifying unit 53 specifies a point 303 at which the secondary differential value of the curve represented by the graph 300 is “0” as a peak point. Similarly, the peak point specifying unit 53 specifies a point 311 (L 1ya , Y 1a ) where the secondary differential value of the curve represented by the graph 310 is “0” as a peak point. Similarly, the peak point specifying unit 53 specifies a point 321 (L 1za , Z 1a ) where the secondary differential value of the curve represented by the graph 320 is “0” as a peak point. As described above, the peak point specifying unit 53 determines the coordinates of the coordinate positions x, y, and z in the supine state based on the relationship between the length of the large intestine (distance L 1 ) in the supine state and the coordinate positions x, y, and z. The peak point where each forms a peak is specified.

さらに、ピーク点特定部53は、グラフ400が表す曲線の2次微分値が「0」となる点401(L2xa、X2a)をピーク点として特定する。また、ピーク点特定部53は、グラフ400が表す曲線の2次微分値が「0」となる点403をピーク点として特定する。同様に、ピーク点特定部53は、グラフ410が表す曲線の2次微分値が「0」となる点411(L2ya、Y2a)をピーク点として特定する。同様に、ピーク点特定部53は、グラフ420が表す曲線の2次微分値が「0」となる点421(L2za、Z2a)をピーク点として特定する。このように、ピーク点特定部53は、うつ伏せ状態における大腸の長さ(距離L)と、座標位置x、y、zとの関係に基づいて、うつ伏せ状態において座標位置x、y、zのそれぞれがピークを形成するピーク点を特定する。 Furthermore, the peak point specifying unit 53 specifies a point 401 (L 2xa , X 2a ) where the secondary differential value of the curve represented by the graph 400 is “0” as a peak point. Further, the peak point specifying unit 53 specifies a point 403 where the secondary differential value of the curve represented by the graph 400 is “0” as a peak point. Similarly, the peak point specifying unit 53 specifies a point 411 (L 2ya , Y 2a ) where the secondary differential value of the curve represented by the graph 410 is “0” as a peak point. Similarly, the peak point specifying unit 53 specifies a point 421 (L 2za , Z 2a ) where the secondary differential value of the curve represented by the graph 420 is “0” as a peak point. As described above, the peak point specifying unit 53 determines the coordinate position x, y, z in the prone state based on the relationship between the length of the large intestine (distance L 2 ) in the prone state and the coordinate positions x, y, z. The peak point where each forms a peak is specified.

(ピーク点推定部54)
一方、ピーク点推定部54は、各グラフが表す曲線の2次微分値が予め設定された第1閾値以下となる距離の範囲を特定し、その距離の範囲において中心となる距離の点をピーク点として推定する。例えば、各グラフが表す曲線において明確なピーク点を特定することが困難な場合には、ピーク点推定部54によって各グラフが表す曲線のピーク点を推定すれば良い。具体的には、ピーク点推定部54は、グラフ300が表す曲線の2次微分値が第1閾値以下となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L1xaの点301(L1xa、X1a)をピーク点として推定する。同様に、ピーク点推定部54は、グラフ310が表す曲線の2次微分値が第1閾値以下となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L1yaの点311(L1ya、Y1a)をピーク点として推定する。同様に、ピーク点推定部54は、グラフ320が表す曲線の2次微分値が第1閾値以下となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L1zaの点321(L1za、Z1a)をピーク点として推定する。このように、ピーク点推定部54は、仰向け状態における大腸の長さ(距離L)と、座標位置x、y、zとの関係に基づいて、座標位置x、y、zのそれぞれがピークを形成するピーク点を推定する。
(Peak point estimation unit 54)
On the other hand, the peak point estimation unit 54 specifies a distance range in which the secondary differential value of the curve represented by each graph is equal to or less than a preset first threshold value, and peaks the distance point at the center in the distance range. Estimate as a point. For example, when it is difficult to specify a clear peak point in the curve represented by each graph, the peak point estimation unit 54 may estimate the peak point of the curve represented by each graph. Specifically, the peak point estimation unit 54 specifies a distance range ΔL 1 in which the second-order differential value of the curve represented by the graph 300 is equal to or less than the first threshold value, and the distance L becomes the center in the distance range ΔL 1 . 1XA the point 301 (L 1xa, X 1a) is estimated as the peak point. Similarly, the peak point estimation unit 54 specifies a distance range ΔL 1 in which the secondary differential value of the curve represented by the graph 310 is equal to or less than the first threshold, and the center of the distance L 1ya in the distance range ΔL 1 is obtained . A point 311 (L 1ya , Y 1a ) is estimated as a peak point. Similarly, the peak point estimation unit 54 specifies a distance range ΔL 1 in which the second-order differential value of the curve represented by the graph 320 is equal to or less than the first threshold, and the distance L 1za that is the center in the distance range ΔL 1 is determined . A point 321 (L 1za , Z 1a ) is estimated as a peak point. In this way, the peak point estimation unit 54 peaks the coordinate positions x, y, and z based on the relationship between the length of the large intestine (distance L 1 ) in the supine state and the coordinate positions x, y, and z. Is estimated.

さらに、ピーク点推定部54は、グラフ400が表す曲線の2次微分値が第1閾値以下となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L2xaの点401(L2xa、X2a)をピーク点として推定する。同様に、ピーク点推定部54は、グラフ410が表す曲線の2次微分値が第1閾値以下となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L2yaの点411(L2ya、Y2a)をピーク点として推定する。同様に、ピーク点推定部54は、グラフ420が表す曲線の2次微分値が第1閾値以下となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L2zaの点421(L2za、Z2a)をピーク点として推定する。このように、ピーク点推定部54は、うつ伏せ状態における大腸の長さ(距離L)と、座標位置x、y、zとの関係に基づいて、座標位置x、y、zのそれぞれがピークを形成するピーク点を推定する。なお、第1閾値、距離の範囲ΔL、及び距離の範囲ΔLは、経験的に求められる値であり、図示しない記憶部に予め記憶されている。 Further, the peak point estimation unit 54 specifies a distance range ΔL 2 in which the second-order differential value of the curve represented by the graph 400 is equal to or less than the first threshold, and the point of the distance L 2xa that is the center in the distance range ΔL 2 401 (L 2xa , X 2a ) is estimated as a peak point. Similarly, the peak point estimation unit 54 specifies a distance range ΔL 2 in which the second derivative of the curve represented by the graph 410 is equal to or less than the first threshold, and the center of the distance L 2ya in the distance range ΔL 2 is determined . A point 411 (L 2ya , Y 2a ) is estimated as a peak point. Similarly, the peak point estimation unit 54 specifies a distance range ΔL 2 in which the second derivative of the curve represented by the graph 420 is equal to or smaller than the first threshold, and the distance L 2za that is the center in the distance range ΔL 2 is determined . A point 421 (L 2za , Z 2a ) is estimated as a peak point. In this way, the peak point estimation unit 54 determines that the coordinate positions x, y, and z are peaks based on the relationship between the length of the large intestine (distance L 2 ) in the prone state and the coordinate positions x, y, and z. Is estimated. Note that the first threshold value, the distance range ΔL 1 , and the distance range ΔL 2 are empirically obtained values, and are stored in advance in a storage unit (not shown).

この実施形態においては、ピーク点特定部53によって2次微分値が「0」となる点をピーク点として特定しても良いし、ピーク点推定部54によってピーク点を推定しても良い。以上のようにして、各座標位置x、y、zのそれぞれがピークを形成するピーク点が特定又は推定されると、個別ピーク点特定部52は、各ピーク点の距離と座標位置とを示す情報を形状変化点特定部58に出力する。すなわち、個別ピーク点特定部52は、仰向け状態における座標位置x、y、zのそれぞれのピーク点の距離と座標位置とを示す情報を形状変化点特定部58に出力する。具体的には、個別ピーク点特定部52は、点301(L1xa、X1a)を示す情報、点311(L1ya、Y1a)を示す情報、及び点321(L1za、Z1a)を示す情報を形状変化点特定部58に出力する。また、個別ピーク点特定部52は、うつ伏せ状態における座標位置x、y、zのそれぞれのピーク点の距離と座標位置とを示す情報を形状変化点特定部58に出力する。具体的には、個別ピーク点特定部52は、点401(L2xa、X2a)を示す情報、点411(L2ya、Y2a)を示す情報、及び点421(L2za、Z2a)を示す情報を形状変化点特定部58に出力する。 In this embodiment, the point where the secondary differential value is “0” may be specified as the peak point by the peak point specifying unit 53, or the peak point may be estimated by the peak point estimating unit 54. As described above, when the peak point at which each coordinate position x, y, z forms a peak is specified or estimated, the individual peak point specifying unit 52 indicates the distance and coordinate position of each peak point. The information is output to the shape change point specifying unit 58. That is, the individual peak point specifying unit 52 outputs information indicating the distance and coordinate position of each peak point of the coordinate positions x, y, and z in the supine state to the shape change point specifying unit 58. Specifically, the individual peak point identification unit 52 obtains information indicating the point 301 (L 1xa , X 1a ), information indicating the point 311 (L 1ya , Y 1a ), and the point 321 (L 1za , Z 1a ). The indicated information is output to the shape change point specifying unit 58. Further, the individual peak point specifying unit 52 outputs information indicating the distance and coordinate position of each peak point of the coordinate positions x, y, and z in the prone state to the shape change point specifying unit 58. Specifically, the individual peak point specifying unit 52 obtains information indicating the point 401 (L 2xa , X 2a ), information indicating the point 411 (L 2ya , Y 2a ), and the point 421 (L 2za , Z 2a ). The indicated information is output to the shape change point specifying unit 58.

(個別変化点特定部55)
個別変化点特定部55は、変化点特定部56と変化点推定部57とを備えている。個別変化点特定部55は、各グラフの1次微分値と2次微分値を微分処理部51から受けて、各グラフの傾きの変化量が閾値以上となっている箇所を、大腸の形状が変化している箇所(変化点)として定義する。
(Individual change point identification unit 55)
The individual change point specifying unit 55 includes a change point specifying unit 56 and a change point estimating unit 57. The individual change point specifying unit 55 receives the primary differential value and the secondary differential value of each graph from the differential processing unit 51, and determines the location where the change amount of the slope of each graph is equal to or greater than the threshold as the shape of the large intestine. It is defined as a changing point (change point).

(変化点特定部56)
変化点特定部56は、各グラフが表す曲線において、1次微分値の変化量が大きい点を大腸の形状が変化している箇所(変化点)として定義する。例えば、変化点特定部56は、各グラフが表す曲線において、2次微分値がピークを形成する点を特定する。具体的には、変化点特定部56は、グラフ300が表す曲線の2次微分値がピークを形成する点302(L1xb、X1b)を特定する。同様に、変化点特定部56は、グラフ310が表す曲線の2次微分値がピークを形成する点312(L1yb、Y1b)を特定する。同様に、変化点特定部56は、グラフ320が表す曲線の2次微分値がピークを形成する点322(L1zb、Z1b)を特定する。このように、変化点特定部56は、仰向け状態における大腸の長さ(距離L)と、座標位置x、y、zとの関係に基づいて、仰向け状態における大腸の形状(芯線の形状)が変化している箇所(変化点)を特定する。
(Change point identification unit 56)
The change point specifying unit 56 defines a point where the amount of change in the primary differential value is large in the curve represented by each graph as a location where the shape of the large intestine is changing (change point). For example, the change point specifying unit 56 specifies a point where the secondary differential value forms a peak in the curve represented by each graph. Specifically, the change point specifying unit 56 specifies a point 302 (L 1xb , X 1b ) at which the secondary differential value of the curve represented by the graph 300 forms a peak. Similarly, the change point specifying unit 56 specifies a point 312 (L 1yb , Y 1b ) at which the second derivative of the curve represented by the graph 310 forms a peak. Similarly, the change point specifying unit 56 specifies a point 322 (L 1zb , Z 1b ) at which the second derivative of the curve represented by the graph 320 forms a peak. As described above, the change point specifying unit 56 determines the shape of the large intestine in the supine state (the shape of the core wire) based on the relationship between the length of the large intestine in the supine state (distance L 1 ) and the coordinate positions x, y, and z. The part (change point) where is changing is specified.

さらに、変化点特定部56は、グラフ400が表す曲線の2次微分値がピークを形成する点402(L2xb、X2b)を特定する。同様に、変化点特定部56は、グラフ410が表す曲線の2次微分値がピークを形成する点412(L2yb、Y2b)を特定する。同様に、変化点特定部56は、グラフ420が表す曲線の2次微分値がピークを形成する点422(L2zb、Z2b)を特定する。このように、変化点特定部56は、うつ伏せ状態における大腸の長さ(距離L)と、座標位置x、y、zとの関係に基づいて、うつ伏せ状態における大腸の形状(芯線の形状)が変化している箇所(変化点)を特定する。 Further, the change point specifying unit 56 specifies a point 402 (L 2xb , X 2b ) where the second derivative value of the curve represented by the graph 400 forms a peak. Similarly, the change point specifying unit 56 specifies a point 412 (L 2yb , Y 2b ) where the second derivative value of the curve represented by the graph 410 forms a peak. Similarly, the changing point specifying unit 56 specifies a point 422 (L 2zb , Z 2b ) where the second derivative value of the curve represented by the graph 420 forms a peak. As described above, the change point specifying unit 56 determines the shape of the large intestine (the shape of the core wire) in the prone state based on the relationship between the length of the large intestine (distance L 2 ) in the prone state and the coordinate positions x, y, and z. The part (change point) where is changing is specified.

(変化点推定部57)
一方、変化点推定部57は、各グラフが表す曲線の傾きの変化量が予め設定された第2閾値以上となる距離の範囲を特定し、その距離の範囲において中心となる距離の箇所を、大腸の形状が変化している箇所(変化点)として推定する。具体的には、変化点推定部57は、各グラフが表す曲線の2次微分値が予め設定された第2閾値以上となる距離の範囲を特定し、その距離の範囲において中心となる距離の箇所を、大腸の形状が変化している箇所(変化点)として推定する。例えば、各グラフにおいて明確な変化点を特定することが困難な場合には、変化点推定部57によって各グラフが表す曲線の変化点を推定すれば良い。具体的には、変化点推定部57は、グラフ300が表す曲線の2次微分値が第2閾値以上となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L1xbの点302(L1xb、X1b)を変化点として推定する。同様に、変化点推定部57は、グラフ310が表す曲線の2次微分値が第2閾値以上となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L1ybの点312(L1yb、Y1b)を変化点として推定する。同様に、変化点推定部57は、グラフ320が表す曲線の2次微分値が第2閾値以上となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L1zbの点322(L1zb、Z1b)を変化点として推定する。このように、変化点推定部57は、仰向け状態における大腸の長さ(距離L1)と、座標位置x、y、zとの関係に基づいて、仰向け状態における大腸の形状(芯線の形状)が変化している箇所(変化点)を推定する。
(Change point estimation unit 57)
On the other hand, the change point estimation unit 57 specifies a distance range in which the amount of change in the slope of the curve represented by each graph is equal to or greater than a preset second threshold value, and determines the location of the center distance in the distance range as follows. It is estimated as a location where the shape of the large intestine changes (change point). Specifically, the change point estimation unit 57 identifies a distance range in which the second derivative value of the curve represented by each graph is equal to or greater than a preset second threshold, and the center distance in the distance range is determined. A location is estimated as a location (change point) where the shape of the large intestine changes. For example, when it is difficult to specify a clear change point in each graph, the change point estimation unit 57 may estimate the change point of the curve represented by each graph. Specifically, the change point estimation unit 57 specifies a distance range ΔL 3 in which the second-order differential value of the curve represented by the graph 300 is equal to or greater than the second threshold value, and the distance L is the center in the distance range ΔL 3 . A 1 × b point 302 (L 1xb , X 1b ) is estimated as a change point. Similarly, the change point estimation unit 57 identifies a distance range ΔL 3 in which the second-order differential value of the curve represented by the graph 310 is equal to or greater than the second threshold, and the center of the distance L 1yb in the distance range ΔL 3 is determined . A point 312 (L 1yb , Y 1b ) is estimated as a change point. Similarly, the change point estimation unit 57 specifies a distance range ΔL 3 in which the second-order differential value of the curve represented by the graph 320 is equal to or greater than the second threshold, and the center of the distance L 1zb in the distance range ΔL 3 is determined . A point 322 (L 1zb , Z 1b ) is estimated as a change point. As described above, the change point estimation unit 57 determines the shape of the large intestine in the supine state (the shape of the core wire) based on the relationship between the length of the large intestine in the supine state (distance L1) and the coordinate positions x, y, and z. Estimate the changing part (change point).

さらに、変化点推定部57は、グラフ400が表す曲線の2次微分値が第2閾値以上となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L2xbの点402(L2xb、X2b)を変化点として推定する。同様に、変化点推定部57は、グラフ410が表す曲線の2次微分値が第2閾値以上となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L2ybの点412(L2yb、Y2b)を変化点として推定する。同様に、変化点推定部57は、グラフ420が表す曲線の2次微分値が第2閾値以上となる距離の範囲ΔLを特定し、その距離の範囲ΔLにおいて中心となる距離L2zbの点422(L2zb、Z2b)を変化点として推定する。このように、変化点推定部57は、うつ伏せ状態における大腸の長さ(距離L)と、座標位置x、y、zとの関係に基づいて、うつ伏せ状態における大腸の形状(芯線の形状)が変化している箇所(変化点)を推定する。なお、第2閾値、距離の範囲ΔL、及び距離の範囲ΔLは、経験的に求められる値であり、図示しない記憶部に予め記憶されている。 Furthermore, the change point estimation unit 57 specifies a distance range ΔL 4 in which the second derivative of the curve represented by the graph 400 is equal to or greater than the second threshold, and a point of the distance L 2xb that is the center in the distance range ΔL 4 402 (L 2xb , X 2b ) is estimated as a change point. Similarly, the change point estimation unit 57 specifies a distance range ΔL 4 in which the second-order differential value of the curve represented by the graph 410 is equal to or greater than the second threshold, and the center of the distance L 2yb in the distance range ΔL 4 is determined . A point 412 (L 2yb , Y 2b ) is estimated as a change point. Similarly, the change point estimation unit 57 identifies a distance range ΔL 4 in which the second derivative of the curve represented by the graph 420 is equal to or greater than the second threshold, and the distance L 2zb that is the center in the distance range ΔL 4 is determined . A point 422 (L 2zb , Z 2b ) is estimated as a change point. As described above, the change point estimation unit 57 determines the shape of the large intestine in the prone state (core shape) based on the relationship between the length of the large intestine in the prone state (distance L 2 ) and the coordinate positions x, y, and z. Estimate the location (change point) where is changing. The second threshold value, the distance range ΔL 3 , and the distance range ΔL 4 are empirically obtained values and are stored in advance in a storage unit (not shown).

この実施形態においては、変化点特定部56によって2次微分値がピークを形成する点を変化点として特定しても良いし、変化点推定部57によって変化点を推定しても良い。以上のように、変化点が特定又は推定されると、個別変化点特定部55は、各変化点の距離と座標位置とを示す情報を形状変化点特定部58に出力する。すなわち、個別変化点特定部55は、仰向け状態における変化点の距離と座標位置とを示す情報を形状変化点特定部58に出力する。具体的には、個別変化点特定部55は、点302(L1xb、X1b)を示す情報、点312(L1yb、Y1b)を示す情報、点322(L1zb、Z1b)を示す情報を形状変化点特定部58に出力する。また、個別変化点特定部55は、うつ伏せ状態における変化点の距離と座標位置とを示す情報を形状変化点特定部58に出力する。具体的には、個別変化点特定部55は、点402(L2xb、X2b)を示す情報、点412(L2yb、Y2b)を示す情報、及び点422(L2zb、Z2b)を示す情報を形状変化点特定部58に出力する。 In this embodiment, the point where the secondary differential value forms a peak may be specified as the changing point by the changing point specifying unit 56, or the changing point may be estimated by the changing point estimating unit 57. As described above, when the change point is specified or estimated, the individual change point specifying unit 55 outputs information indicating the distance and the coordinate position of each change point to the shape change point specifying unit 58. That is, the individual change point specifying unit 55 outputs information indicating the distance and the coordinate position of the change point in the supine state to the shape change point specifying unit 58. Specifically, the individual change point specifying unit 55 indicates information indicating the point 302 (L 1xb , X 1b ), information indicating the point 312 (L 1yb , Y 1b ), and point 322 (L 1zb , Z 1b ). The information is output to the shape change point specifying unit 58. Further, the individual change point specifying unit 55 outputs information indicating the distance and coordinate position of the change point in the prone state to the shape change point specifying unit 58. Specifically, the individual change point specifying unit 55 obtains information indicating the point 402 (L 2xb , X 2b ), information indicating the point 412 (L 2yb , Y 2b ), and point 422 (L 2zb , Z 2b ). The indicated information is output to the shape change point specifying unit 58.

(形状変化点特定部58)
形状変化点特定部58は、個別ピーク点特定部52によって求められた各座標軸(x、y、z)のピーク点に基づいて、3次元空間において大腸の形状が変化している箇所(特徴点)を特定する。すなわち、形状変化点特定部58は、仰向け状態における各座標軸のピーク点に基づいて、仰向け状態において大腸の形状が変化している箇所(特徴点)を特定する。また、形状変化点特定部58は、うつ伏せ状態における各座標軸のピーク点に基づいて、うつ伏せ状態において大腸の形状が変化している箇所(特徴点)を特定する。
(Shape change point identification unit 58)
The shape change point specifying unit 58 is a portion (feature point) where the shape of the large intestine changes in the three-dimensional space based on the peak point of each coordinate axis (x, y, z) obtained by the individual peak point specifying unit 52. ). That is, the shape change point specifying unit 58 specifies a location (feature point) where the shape of the large intestine changes in the supine state based on the peak point of each coordinate axis in the supine state. Further, the shape change point specifying unit 58 specifies a location (characteristic point) where the shape of the large intestine changes in the prone state based on the peak point of each coordinate axis in the prone state.

例えば、形状変化点特定部58は、ピーク点の距離が3つの座標軸で一致している座標位置(x、y、z)を、3次元空間における大腸の特徴点として特定する。例えば、形状変化点特定部58は、仰向け状態における座標位置xのピーク点の距離L1xa、座標位置yのピーク点の距離L1ya、及び座標位置zのピーク点の距離L1zaが一致している場合に(距離L1xa=距離L1ya=距離L1za)、その距離L1xaの座標位置(X1a、Y1a、Z1a)を、3次元空間において大腸の形状が変化している特徴点として特定する。また、形状変化点特定部58は、ピーク点の距離が2つの座標軸で一致している場合に、その一致している距離の座標位置(x、y、z)を、3次元空間において大腸の形状が変化している特徴点として特定する。例えば、形状変化点特定部58は、仰向け状態における座標位置xのピーク点の距離L1xaと、座標位置yのピーク点の距離L1yaとが一致している場合に(距離L1xa=距離L1ya)、その距離L1xaの座標位置(X1a、Y1a、z)を、3次元空間において大腸の形状が変化している特徴点として特定する。 For example, the shape change point specifying unit 58 specifies the coordinate position (x, y, z) at which the distance of the peak point coincides with the three coordinate axes as the feature point of the large intestine in the three-dimensional space. For example, the shape change point specifying section 58, the distance L 1XA the peak point of the coordinate position x in a supine condition, the distance of the peak point of the coordinate position y L 1 yA, and the distance L 1 zA peak points of the coordinate position z is coincident (distance L 1XA = distance L 1 yA = distance L 1 zA), the coordinate position of the distance L 1xa (X 1a, Y 1a , Z 1a) , and feature points shape of the large intestine is changing in a three-dimensional space when you are As specified. In addition, when the distance between the peak points is coincident with the two coordinate axes, the shape change point specifying unit 58 determines the coordinate position (x, y, z) of the coincident distance in the three-dimensional space. It is specified as a feature point whose shape is changing. For example, the shape change point specifying section 58, the distance of the peak point of the coordinate position x in a supine state L 1XA and, in the case where the distance L 1 yA peak points of the coordinate position y are coincident (distance L 1XA = distance L 1 yA), specifying the coordinate position (X 1a of the distance L 1xa, Y 1a, a z), as a feature point shape of the large intestine is changed in the three-dimensional space.

同様に、形状変化点特定部58は、うつ伏せ状態における座標位置xのピーク点の距離L2xa、座標位置yのピーク点の距離L2ya、及び座標位置zのピーク点の距離L2zaが一致している場合(距離L2xa=距離L2ya=距離L2za)、その距離L2xaの座標位置(X2a、Y2a、Z2a)を、3次元空間において大腸の形状が変化している特徴点として特定する。また、形状変化点特定部58は、うつ伏せ状態における座標位置xのピーク点の距離L2xaと、座標位置yのピーク点の距離L2yaとが一致している場合に(距離L2xa=距離L2ya)、その距離L2xaの座標位置(X2a、Y2a、z)を、3次元空間において大腸の形状が変化している特徴点として特定しても良い。 Similarly, the shape change point specifying section 58, the distance L 2xa the peak point of the coordinate position x in a prone state, the distance of the peak point of the coordinate position y L 2ya, and the distance L 2Za the peak point of the coordinate position z matches If it has (distance L 2xa = distance L 2ya = distance L 2za), the coordinate position of the distance L 2xa (X 2a, Y 2a , Z 2a) , and feature points shape of the large intestine is changing in a three-dimensional space As specified. The shape change point specifying section 58, when the distance L 2xa the peak point of the coordinate position x in a prone position, and the distance L 2ya the peak point of the coordinate position y are coincident (distance L 2xa = distance L 2ya), the coordinate position (X 2a of the distance L 2xa, Y 2a, a z), may be identified as a feature point shape of the large intestine is changed in the three-dimensional space.

また、形状変化点特定部58は、ピーク点の距離が3つの座標軸で一致していない場合であっても、3つの座標軸におけるピーク点の距離が予め設定された所定距離の範囲内に含まれている場合に、3つの座標軸におけるピーク点の距離の平均距離を算出し、その平均距離の座標位置(x、y、z)を、3次元空間における大腸の特徴点として定義しても良い。例えば、形状変化点特定部58は、3つの座標軸におけるピーク点の距離の差を求め、その距離の差が予め設定された距離差ΔL以内となる場合に、3つの座標軸におけるピーク点の距離の平均距離を求め、その平均距離の座標位置(x、y、z)を大腸の特徴点として定義する。なお、距離差ΔLは、経験的に求められる値であり、図示しない記憶部に予め記憶されている。 Further, the shape change point specifying unit 58 includes the distances of the peak points on the three coordinate axes within a predetermined distance range even when the distances of the peak points do not match on the three coordinate axes. In this case, the average distance of the peak point distances on the three coordinate axes may be calculated, and the coordinate position (x, y, z) of the average distance may be defined as the feature point of the large intestine in the three-dimensional space. For example, the shape change point specifying unit 58 obtains the difference between the peak points on the three coordinate axes, and when the difference between the distances is within a preset distance difference ΔL 5, the distance between the peak points on the three coordinate axes. And the coordinate position (x, y, z) of the average distance is defined as a feature point of the large intestine. The distance difference ΔL 5 is a value obtained empirically and is stored in advance in a storage unit (not shown).

1例として、仰向け状態における座標位置xのピーク点の距離L1xa、座標位置yのピーク点の距離L1ya、及び座標位置zのピーク点の距離L1zaが一致していない場合について説明する。この場合、形状変化点特定部58は、距離L1xa、距離L1ya、及び距離L1zaのそれぞれの差を求める。そして、形状変化点特定部58は、その距離の差が予め設定された距離差ΔL以内となる場合に、距離L1xa、距離L1ya、及び距離L1zaの平均距離を求め、その平均距離の座標位置(x、y、z)を仰向け状態における大腸の特徴点として定義する。また、うつ伏せ状態における座標位置xのピーク点の距離L2xa、座標位置yのピーク点の距離L2ya、及び座標位置zのピーク点の距離L2zaが一致していない場合も、形状変化点特定部58は、距離L2xa、距離L2ya、及び距離L2zaのそれぞれの差を求める。そして、形状変化点特定部58は、その距離の差が予め設定された距離差ΔL以内となる場合に、距離L2xa、距離L2ya、及び距離L2zaの平均距離を求め、その平均距離の座標位置(x、y、z)をうつ伏せ状態における大腸の特徴点として定義する。 As an example, the distance L 1XA the peak point of the coordinate position x in a supine condition, the distance L 1 yA peak points of the coordinate position y, and the case where the distance L 1 zA peak points of the coordinate position z does not match will be described. In this case, the shape change point specifying section 58, the distance L 1XA, distance L 1 yA, and each of the difference in distance L 1 zA determined. The shape change point specifying section 58, when the difference between the distance is within a distance difference [Delta] L 5 which is set in advance, the distance L 1XA, distance L 1 yA, and obtains the average distance of the distance L 1 zA, the average distance Are defined as feature points of the large intestine in the supine state. The distance L 2xa the peak point of the coordinate position x in a prone state, the distance of the peak point of the coordinate position y L 2ya, and even if the distance L 2Za the peak point of the coordinate position z does not match, the shape change point particular part 58, the distance L 2xa, distance L 2ya, and each of the difference in distance L 2Za determined. The shape change point specifying section 58, when the difference between the distance is within a distance difference [Delta] L 5 which is set in advance, the distance L 2xa, distance L 2ya, and obtains the average distance of the distance L 2Za, the average distance Is defined as a feature point of the large intestine in the prone state.

また、形状変化点特定部58は、2つの座標軸におけるピーク点の距離の差を求め、その距離の差が予め設定された距離差ΔL以内となる場合に、その2つの座標軸におけるピーク点の距離の平均距離を求め、その平均距離の座標位置(x、y、z)を大腸の特徴点として定義しても良い。 In addition, the shape change point specifying unit 58 obtains the difference between the peak points on the two coordinate axes, and when the difference between the distances is within a preset distance difference ΔL 5 , An average distance may be obtained, and the coordinate position (x, y, z) of the average distance may be defined as a feature point of the large intestine.

例えば、形状変化点特定部58は、仰向け状態における距離L1xa、距離L1ya、及び距離L1zaのそれぞれの差を求める。そして、形状変化点特定部58は、距離L1xaと距離L1yaとの差が予め設定された距離差ΔL以内となる場合に、距離L1xaと距離L1yaとの平均距離を求め、その平均距離の座標位置(x、y、z)を仰向け状態における大腸の特徴点として定義しても良い。同様に、形状変化点特定部58は、うつ伏せ状態における距離L2xa、距離L2ya、及び距離L2zaのそれぞれの差を求める。そして、形状変化点特定部58は、距離L2xaと距離L2yaとの差が予め設定された距離差ΔL以内となる場合に、距離L2xaと距離L2yaとの平均距離を求め、その平均距離の座標位置(x、y、z)をうつ伏せ状態における大腸の特徴点として定義しても良い。 For example, the shape change point specifying section 58 obtains the distance in the supine state L 1XA, distance L 1 yA, and each of the difference in distance L 1 zA. The shape change point specifying section 58, when the difference between the distance L 1XA and the distance L 1 yA is within distance difference [Delta] L 5 which is set in advance, an average distance between the distance L 1XA and the distance L 1 yA, its The coordinate position (x, y, z) of the average distance may be defined as a feature point of the large intestine in the supine state. Similarly, the shape change point specifying section 58, the distance L 2xa in prone state, the distance L 2ya, and determine the respective differences of the distance L 2za. The shape change point specifying section 58, when the difference between the distance L 2xa and the distance L 2ya is within distance difference [Delta] L 5 which is set in advance, an average distance between the distance L 2xa and the distance L 2ya, its The coordinate position (x, y, z) of the average distance may be defined as a feature point of the large intestine in the prone state.

また、形状変化点特定部58は、個別変化点特定部55によって求められた各座標軸(x、y、z)の変化点に基づいて、3次元空間において大腸の形状が変化している特徴点を特定する。すなわち、形状変化点特定部58は、仰向け状態における各座標軸の変化点に基づいて、仰向け状態において大腸の形状が変化している特徴点を特定する。また、形状変化点特定部58は、うつ伏せ状態における各座標軸の変化点に基づいて、うつ伏せ状態において大腸の形状が変化している特徴点を特定する。   In addition, the shape change point specifying unit 58 is a feature point in which the shape of the large intestine changes in the three-dimensional space based on the change points of the coordinate axes (x, y, z) obtained by the individual change point specifying unit 55. Is identified. That is, the shape change point specifying unit 58 specifies a feature point where the shape of the large intestine changes in the supine state based on the change point of each coordinate axis in the supine state. Further, the shape change point specifying unit 58 specifies a feature point where the shape of the large intestine changes in the prone state based on the change point of each coordinate axis in the prone state.

例えば、形状変化点特定部58は、変化点の距離が3つの座標軸で一致している座標位置(x、y、z)を、3次元空間における大腸の特徴点として定義する。例えば、形状変化点特定部58は、仰向け状態における座標位置xの変化点の距離L1xb、座標位置yの変化点の距離L1yb、及び座標位置zの変化点の距離L1zbが一致している場合に(距離L1xb=距離L1yb=距離L1zb)、その距離L1xbの座標位置(X1b、Y1b、Z1b)を、3次元空間において大腸の形状が変化している特徴点として定義する。また、形状変化点特定部58は、変化点の距離が2つの座標軸で一致している場合に、その一致している距離の座標位置(x、y、z)を、3次元空間において大腸の形状が変化している特徴点として定義しても良い。例えば、形状変化点特定部58は、仰向け状態における座標位置xの変化点の距離L1xbと、座標位置yの変化点の距離L1ybとが一致している場合に(距離L1xb=距離L1yb)、その距離L1xbの座標位置(X1b、Y1b、z)を、3次元空間において大腸の形状が変化している特徴点として定義する。 For example, the shape change point specifying unit 58 defines the coordinate position (x, y, z) at which the distance of the change point coincides with the three coordinate axes as the feature point of the large intestine in the three-dimensional space. For example, the shape change point specifying section 58, the distance L 1xb change point coordinate position x in a supine condition, the distance of the change point of the coordinate position y L 1yb, and the distance L 1Zb change point coordinate position z is coincident (Distance L 1xb = distance L 1yb = distance L 1zb ), the coordinate position (X 1b , Y 1b , Z 1b ) of the distance L 1xb is the feature point where the shape of the large intestine changes in the three-dimensional space Define as In addition, when the distance between the change points coincides on the two coordinate axes, the shape change point specifying unit 58 determines the coordinate position (x, y, z) of the coincidence distance in the three-dimensional space of the large intestine. It may be defined as a feature point whose shape is changing. For example, when the distance L 1xb of the change point of the coordinate position x in the supine state coincides with the distance L 1yb of the change point of the coordinate position y, the shape change point specifying unit 58 (distance L 1xb = distance L) 1yb ), and the coordinate position (X 1b , Y 1b , z) of the distance L 1xb is defined as a feature point where the shape of the large intestine changes in the three-dimensional space.

同様に、形状変化点特定部58は、うつ伏せ状態における座標位置xの変化点の距離L2xb、座標位置yの変化点の距離L2yb、及び座標位置zの変化点の距離L2zbが一致している場合(距離L2xb=距離L2yb=距離L2zb)、その距離L2xbの座標位置(X2b、Y2b、Z2b)を、3次元空間において大腸の形状が変化している特徴点として定義する。また、形状変化点特定部58は、うつ伏せ状態における座標位置xの変化点の距離L2xbと、座標位置yの変化点の距離L2ybとが一致している場合に(距離L2xb=距離L2yb)、その距離L2xbの座標位置(X2b、Y2b、z)を、3次元空間において大腸の形状が変化している特徴点として定義しても良い。 Similarly, the shape change point specifying section 58, the distance L 2xb change point coordinate position x in a prone state, the distance of the change point of the coordinate position y L 2yb, and the distance L 2Zb change point coordinate position z matches (Distance L 2xb = distance L 2yb = distance L 2zb ), the coordinate point of the distance L 2xb (X 2b , Y 2b , Z 2b ) is the feature point where the shape of the large intestine changes in the three-dimensional space Define as The shape change point specifying unit 58 also determines that the distance L 2xb of the change point of the coordinate position x in the prone state matches the distance L 2yb of the change point of the coordinate position y (distance L 2xb = distance L). 2yb ), and the coordinate position (X 2b , Y 2b , z) of the distance L 2xb may be defined as a feature point where the shape of the large intestine changes in the three-dimensional space.

また、形状変化点特定部58は、変化点の距離が3つの座標軸で一致していない場合であっても、3つの座標軸における変化点の距離が予め設定された所定距離の範囲内に含まれている場合に、3つの座標軸における変化点の距離の平均距離を算出し、その平均距離の座標位置(x、y、z)を、3次元空間における大腸の特徴点として定義しても良い。例えば、形状変化点特定部58は、3つの座標軸における変化点の距離の差を求め、その距離の差が予め設定された距離差ΔL以内となる場合に、3つの座標軸における変化点の距離の平均距離を求め、その平均距離の座標位置(x、y、z)を大腸の特徴点として定義する。 In addition, the shape change point specifying unit 58 includes the distances of the change points on the three coordinate axes within a predetermined distance range even when the distances of the change points do not match on the three coordinate axes. In this case, the average distance of the changing points on the three coordinate axes may be calculated, and the coordinate position (x, y, z) of the average distance may be defined as the feature point of the large intestine in the three-dimensional space. For example, the shape change point specifying unit 58 obtains a difference in distance between the change points on the three coordinate axes, and when the difference between the distances is within a preset distance difference ΔL 5, the distance between the change points on the three coordinate axes. And the coordinate position (x, y, z) of the average distance is defined as a feature point of the large intestine.

1例として、仰向け状態における座標位置xの変化点の距離L1xb、座標位置yの変化点の距離L1yb、及び座標位置zの変化点の距離L1zaが一致していない場合について説明する。この場合、形状変化点特定部58は、距離L1xb、距離L1yb、及び距離L1zbのそれぞれの差を求める。そして、形状変化点特定部58は、その距離の差が予め設定された距離差ΔL以内となる場合に、距離L1xb、距離L1yb、及び距離L1zbの平均距離を求め、その平均距離の座標位置(x、y、z)を仰向け状態における大腸の特徴点として定義する。また、うつ伏せ状態における座標位置xの変化点の距離L2xb、座標位置yの変化点の距離L2yb、及び座標位置zの変化点の距離L2zbが一致していない場合も、形状変化点特定部58は、距離L2xb、距離L2yb、及び距離L2zbのそれぞれの差を求める。そして、形状変化点特定部58は、その距離の差が予め設定された距離差ΔL以内となる場合に、距離L2xb、距離L2yb、及びL2zbの平均距離を求め、その平均距離の座標位置(x、y、z)をうつ伏せ状態における大腸の特徴点として定義する。 As an example, the distance L 1xb change point coordinate position x in a supine condition, the distance L 1Yb change point coordinate position y, and the case where the distance L 1 zA change point coordinate position z it does not match will be described. In this case, the shape change point specifying unit 58 obtains differences between the distance L 1xb , the distance L 1yb , and the distance L 1zb . Then, when the difference in distance is within the preset distance difference ΔL 5 , the shape change point specifying unit 58 obtains the average distance of the distance L 1xb , the distance L 1yb , and the distance L 1zb , and the average distance Are defined as feature points of the large intestine in the supine state. The distance L 2xb change point coordinate position x in a prone state, the distance of the change point of the coordinate position y L 2yb, and even if the distance L 2Zb change point coordinate position z does not match, the shape change point particular The unit 58 obtains respective differences between the distance L 2xb , the distance L 2yb , and the distance L 2zb . Then, when the distance difference is within the preset distance difference ΔL 5 , the shape change point specifying unit 58 obtains the average distances of the distance L 2xb , the distance L2 yb , and L 2zb , and calculates the average distance The coordinate position (x, y, z) is defined as a feature point of the large intestine in the prone state.

また、形状変化点特定部58は、2つの座標軸における変化点の距離の差を求め、その距離の差が予め設定された距離差ΔL以内となる場合に、その2つの座標軸における変化点の距離の平均距離を求め、その平均距離の座標位置(x、y、z)を大腸の特徴点として定義しても良い。 In addition, the shape change point specifying unit 58 obtains a difference between the change points in the two coordinate axes, and when the difference between the distances is within a preset distance difference ΔL 5 , An average distance may be obtained, and the coordinate position (x, y, z) of the average distance may be defined as a feature point of the large intestine.

例えば、形状変化点特定部58は、仰向け状態における距離L1xb、距離L1yb、及び距離L1zbのそれぞれの差を求める。そして、形状変化点特定部58は、距離L1xbと距離L1ybとの差が予め設定された距離差ΔL以内となる場合に、距離L1xbと距離L1ybとの平均距離を求め、その平均距離の座標位置(x、y、z)を仰向け状態における大腸の特徴点として定義しても良い。同様に、形状変化点特定部58は、うつ伏せ状態における距離L2xb、距離L2yb、及び距離L2zbのそれぞれの差を求める。そして、形状変化点特定部58は、距離L2xbと距離L2ybとの差が予め設定された距離差ΔL以内となる場合に、距離L2xbと距離L2ybとの平均距離を求め、その平均距離の座標位置(x、y、z)をうつ伏せ状態における大腸の特徴点として定義しても良い。 For example, the shape change point specifying unit 58 obtains respective differences between the distance L 1xb , the distance L 1yb , and the distance L 1zb in the supine state. The shape change point specifying section 58, when the difference between the distance L 1xb and the distance L 1Yb is within distance difference [Delta] L 5 which is set in advance, an average distance between the distance L 1xb and the distance L 1Yb, its The coordinate position (x, y, z) of the average distance may be defined as a feature point of the large intestine in the supine state. Similarly, the shape change point specifying unit 58 obtains respective differences between the distance L 2xb , the distance L 2yb , and the distance L 2zb in the prone state. The shape change point specifying section 58, when the difference between the distance L 2xb and the distance L 2Yb is within distance difference [Delta] L 5 which is set in advance, an average distance between the distance L 2xb and the distance L 2Yb, its The coordinate position (x, y, z) of the average distance may be defined as a feature point of the large intestine in the prone state.

以上のようにして、特徴点特定部5は、大腸の形状が変化している特徴点を、異なる***で取得されたボリュームデータについてそれぞれ求める。この実施形態では、特徴点特定部5は、大腸の形状が変化している特徴点を、仰向け状態のボリュームデータとうつ伏せ状態のボリュームデータとについてそれぞれ求める。そして、特徴点特定部5は、仰向け状態における大腸の特徴点の位置を示す位置情報と、うつ伏せ状態における大腸の特徴点の位置を示す位置情報とを対応付け部6に出力する。特徴点の位置を示す位置情報には、3次元直交座標系で表わされる座標情報(位置x、位置y、位置z)と、芯線の始点からの距離とが含まれている。   As described above, the feature point specifying unit 5 obtains feature points whose shape of the large intestine has changed with respect to volume data acquired at different positions. In this embodiment, the feature point specifying unit 5 obtains feature points whose shape of the large intestine has changed for the volume data in the supine state and the volume data in the prone state. Then, the feature point specifying unit 5 outputs position information indicating the position of the feature point of the large intestine in the supine state and position information indicating the position of the feature point of the large intestine in the prone state to the associating unit 6. The position information indicating the position of the feature point includes coordinate information (position x, position y, position z) represented by a three-dimensional orthogonal coordinate system and a distance from the starting point of the core line.

特徴点特定部5によって特定された特徴点について、図2を参照して説明する。仰向け状態におけるボリュームデータ100については、特徴点121、特徴点122、特徴点123、及び特徴点124が、特徴点特定部5によって特定された特徴点である。なお、ボリュームデータ100において、特徴点120は、始点設定部41にて設定された芯線110の始点であり、特徴点125は芯線110の終点である。また、うつ伏せ状態におけるボリュームデータ200については、特徴点221、特徴点222、特徴点223、及び特徴点224が、特徴点特定部5によって特定された特徴点である。なお、ボリュームデータ200において、特徴点220は、始点設定部41にて設定された芯線210の始点であり、特徴点225は芯線210の終点である。   The feature points specified by the feature point specifying unit 5 will be described with reference to FIG. Regarding the volume data 100 in the supine state, the feature point 121, the feature point 122, the feature point 123, and the feature point 124 are feature points specified by the feature point specifying unit 5. In the volume data 100, the feature point 120 is the start point of the core line 110 set by the start point setting unit 41, and the feature point 125 is the end point of the core line 110. Further, for the volume data 200 in the prone state, the feature point 221, the feature point 222, the feature point 223, and the feature point 224 are the feature points specified by the feature point specifying unit 5. In the volume data 200, the feature point 220 is the start point of the core line 210 set by the start point setting unit 41, and the feature point 225 is the end point of the core line 210.

この実施形態においては、特徴点特定部5は、仰向け状態における特徴点120、特徴点121、特徴点122、特徴点123、特徴点124、及び特徴点125の位置を示す位置情報(xyzの座標情報と始点からの距離とを含む情報)と、うつ伏せ状態における特徴点220、特徴点221、特徴点222、特徴点223、特徴点224、及び特徴点225の位置を示す位置情報とを、対応付け部6に出力する。なお、仰向け状態における特徴点120、特徴点121、特徴点122、特徴点123、特徴点124、及び特徴点125が、この発明の「第1の特徴点」の1例に相当する。また、うつ伏せ状態における特徴点220、特徴点221、特徴点222、特徴点223、特徴点224、及び特徴点225が、この発明の「第2の特徴点」の1例に相当する。また、特徴点特定部5が、この発明の「特徴点特定手段」の1例に相当する。また、グラフ作成部4と特徴点特定部5とによって、この発明の「特定手段」の1例を構成する。   In this embodiment, the feature point specifying unit 5 includes position information (xyz coordinates) indicating the positions of the feature point 120, the feature point 121, the feature point 122, the feature point 123, the feature point 124, and the feature point 125 in the supine state. Information and information including the distance from the start point) and position information indicating the positions of the feature point 220, the feature point 221, the feature point 222, the feature point 223, the feature point 224, and the feature point 225 in the prone state Output to the appendix 6. Note that the feature point 120, the feature point 121, the feature point 122, the feature point 123, the feature point 124, and the feature point 125 in the supine state correspond to an example of the “first feature point” of the present invention. Further, the feature point 220, the feature point 221, the feature point 222, the feature point 223, the feature point 224, and the feature point 225 in the prone state correspond to an example of the “second feature point” of the present invention. The feature point specifying unit 5 corresponds to an example of “feature point specifying means” of the present invention. The graph creating unit 4 and the feature point specifying unit 5 constitute an example of the “specifying unit” of the present invention.

(対応付け部6)
対応付け部6は、異なる***における大腸の特徴点を、異なる***同士で対応付ける。この実施形態では、対応付け部6は、仰向け状態における大腸の特徴点と、うつ伏せ状態における大腸の特徴点とを対応付ける。具体的には、対応付け部6は、仰向け状態における特徴点の位置情報に含まれる始点からの距離と、うつ伏せ状態における特徴点の位置情報に含まれる始点からの距離とを比べて、仰向け状態における特徴点の距離とうつ伏せ状態における特徴点の距離との差が、予め設定された距離差ΔL以内に含まれる特徴点同士を対応付ける。仰向け状態における特徴点の距離と、うつ伏せ状態における特徴点の距離の差が、距離差ΔL以内であれば、2つの特徴点は大腸において同一部位の位置を示していると考えられるため、対応付け部6は、距離の差が距離差ΔL以内となる2つの特徴点同士を対応付ける。なお、距離差ΔLは、経験的に求められる値であり、図示しない記憶部に予め記憶されている。
(Association unit 6)
The associating unit 6 associates the feature points of the large intestine in different positions with different positions. In this embodiment, the associating unit 6 associates the feature points of the large intestine in the supine state with the feature points of the large intestine in the prone state. Specifically, the associating unit 6 compares the distance from the start point included in the position information of the feature point in the supine state with the distance from the start point included in the position information of the feature point in the prone state. the difference between the distance of the feature points at the distance a prone state of feature points in the associates the feature point with each other included within distance difference [Delta] L 6, which is set in advance. If the difference between the distance between the feature points in the supine state and the distance between the feature points in the prone state is within a distance difference ΔL 6 , the two feature points are considered to indicate the position of the same part in the large intestine. The attaching unit 6 associates two feature points whose distance difference is within the distance difference ΔL 6 . The distance difference ΔL 6 is a value empirically obtained and is stored in advance in a storage unit (not shown).

例えば図2に示すように、対応付け部6は、仰向け状態における特徴点121と、うつ伏せ状態における特徴点221とを対応付ける。すなわち、芯線110に沿って始点(特徴点120)から特徴点121までの距離と、芯線210に沿って始点(特徴点220)から特徴点221までの距離との差が、距離差ΔL以内となっているため、対応付け部6は、特徴点121と特徴点221とを対応付ける。同様に、対応付け部6は、仰向け状態における特徴点122と、うつ伏せ状態における特徴点222とを対応付ける。また、対応付け部6は、仰向け状態における特徴点123と、うつ伏せ状態における特徴点223とを対応付ける。また、対応付け部6は、仰向け状態における特徴点124と、うつ伏せ状態における特徴点224とを対応付ける。また、対応付け部6は、仰向け状態における特徴点125と、うつ伏せ状態における特徴点225とを対応付ける。対応付け部6は、特徴点の対応関係を示す対応情報を作成する。1例として、対応付け部6は、仰向け状態における特徴点121と、うつ伏せ状態における特徴点221とが対応していることを示す対応情報を作成する。 For example, as illustrated in FIG. 2, the association unit 6 associates the feature point 121 in the supine state with the feature point 221 in the prone state. That is, the distance from the start point along the core line 110 (minutia 120) to the feature point 121, the difference between the distance from the start point along the core line 210 (feature point 220) until the feature point 221, the distance difference [Delta] L 6 within Therefore, the associating unit 6 associates the feature points 121 and the feature points 221 with each other. Similarly, the associating unit 6 associates the feature point 122 in the supine state with the feature point 222 in the prone state. In addition, the association unit 6 associates the feature point 123 in the supine state with the feature point 223 in the prone state. In addition, the association unit 6 associates the feature point 124 in the supine state with the feature point 224 in the prone state. The association unit 6 associates the feature point 125 in the supine state with the feature point 225 in the prone state. The associating unit 6 creates correspondence information indicating the correspondence between feature points. As an example, the associating unit 6 creates correspondence information indicating that the feature point 121 in the supine state corresponds to the feature point 221 in the prone state.

そして、対応付け部6は、仰向け状態における各特徴点の位置を示す位置情報と、うつ伏せ状態における各特徴点の位置を示す位置情報と、特徴点の対応関係を示す対応情報とを、画像生成部7に出力する。なお、対応付け部6が、この発明の「対応付け手段」の1例に相当する。   Then, the associating unit 6 generates position information indicating the position of each feature point in the supine state, position information indicating the position of each feature point in the prone state, and correspondence information indicating the correspondence between the feature points. Output to unit 7. The association unit 6 corresponds to an example of “association means” of the present invention.

(画像生成部7、規格化部8)
画像生成部7は、規格化部8を備えている。規格化部8は、同じ***における各特徴点について、互いに隣り合う特徴点の間の距離を規格化する。すなわち、規格化部8は、芯線に沿って互いに隣り合う特徴点の間の距離を規格化することで、特徴点間の全体の距離を100%として、一方の特徴点を距離が0%の地点とし、他方の特徴点を距離が100%の地点とする。具体的には、規格化部8は、仰向け状態における各特徴点の位置を示す位置情報に基づいて、互いに隣り合う特徴点の間の距離を規格化する。同様に、規格化部8は、うつ伏せ状態における各特徴点の位置を示す位置情報に基づいて、互いに隣り合う特徴点の間の距離を規格化する。
(Image generation unit 7, normalization unit 8)
The image generation unit 7 includes a normalization unit 8. The normalization unit 8 normalizes the distance between adjacent feature points for each feature point in the same body position. That is, the normalization unit 8 normalizes the distance between feature points adjacent to each other along the core line so that the total distance between the feature points is 100%, and one feature point has a distance of 0%. The other feature point is a point with a distance of 100%. Specifically, the normalization unit 8 normalizes the distance between adjacent feature points based on position information indicating the position of each feature point in the supine state. Similarly, the normalization unit 8 normalizes the distance between adjacent feature points based on position information indicating the position of each feature point in the prone state.

例えば図2に示すように、規格化部8は、仰向け状態における特徴点121と特徴点122との間の第1区間について、芯線110に沿った距離を規格化する。すなわち、規格化部8は、特徴点121と特徴点122との間の全体の距離を100%とし、特徴点121を距離が0%の地点とし、特徴点122を距離が100%の地点とする。また、規格化部8は、うつ伏せ状態における特徴点221と特徴点222との間の第2区間について、芯線210に沿った距離を規格化する。すなわち、規格化部8は、特徴点221と特徴点222との間の全体の距離を100%とし、特徴点221を距離が0%の地点とし、特徴点222を距離が100%の地点とする。   For example, as illustrated in FIG. 2, the normalization unit 8 normalizes the distance along the core line 110 for the first section between the feature point 121 and the feature point 122 in the supine state. That is, the normalization unit 8 sets the total distance between the feature point 121 and the feature point 122 as 100%, sets the feature point 121 as a point where the distance is 0%, and sets the feature point 122 as a point where the distance is 100%. To do. Moreover, the normalization part 8 normalizes the distance along the core line 210 about the 2nd area between the feature point 221 and the feature point 222 in the prone state. That is, the normalization unit 8 sets the total distance between the feature point 221 and the feature point 222 as 100%, the feature point 221 as a point where the distance is 0%, and the feature point 222 as a point where the distance is 100%. To do.

画像生成部7は、ボリュームデータを画像データ記憶部2から読み出して、そのボリュームデータにボリュームレンダリングを施すことで、組織を立体的に表す表示用の3次元画像データを生成する。この実施形態では、画像生成部7は、ボリュームデータに対していわゆる透視投影法に従ったボリュームレンダリングを施すことで、組織の内腔を仮想内視鏡的に表す3次元画像データを生成する。このような透視投影法によれば、血管、腸、気管支などの管状組織を内面から観察しているかのような3次元画像データを生成することができる。   The image generation unit 7 reads volume data from the image data storage unit 2 and performs volume rendering on the volume data, thereby generating three-dimensional image data for display that represents the tissue three-dimensionally. In this embodiment, the image generation unit 7 performs volume rendering according to a so-called perspective projection method on the volume data, thereby generating three-dimensional image data representing the lumen of the tissue in a virtual endoscopic manner. According to such a perspective projection method, it is possible to generate three-dimensional image data as if a tubular tissue such as a blood vessel, an intestine, or a bronchus is observed from the inner surface.

画像生成部7は、仰向け状態におけるボリュームデータ100を画像データ記憶部2から読み出して、芯線110上に視点を設定して、ボリュームデータ100に対して透視投影法に従ったボリュームレンダリングを施すことで、その視点から見て大腸の内部を仮想内視鏡的に表す3次元画像データ(パースペクティブ画像データ)を生成する。これにより、仰向け状態における大腸の内腔を3次元的に表す画像データが生成される。同様に、画像生成部7は、うつ伏せ状態におけるボリュームデータ200を画像データ記憶部2から読み出して、芯線210上に視点を設定して、ボリュームデータ200に対して透視投影法に従ったボリュームレンダリングを施すことで、その視点から見て大腸の内部を仮想内視鏡的に表す3次元画像データを生成する。これにより、うつ伏せ状態における大腸の内腔を3次元的に表す画像データが生成される。   The image generation unit 7 reads the volume data 100 in the supine state from the image data storage unit 2, sets the viewpoint on the core wire 110, and performs volume rendering according to the perspective projection method on the volume data 100. Then, three-dimensional image data (perspective image data) representing the inside of the large intestine in a virtual endoscopic manner as viewed from the viewpoint is generated. As a result, image data that three-dimensionally represents the lumen of the large intestine in the supine state is generated. Similarly, the image generation unit 7 reads the volume data 200 in the prone state from the image data storage unit 2, sets a viewpoint on the core line 210, and performs volume rendering according to the perspective projection method on the volume data 200. As a result, three-dimensional image data representing the inside of the large intestine in a virtual endoscopic manner as viewed from the viewpoint is generated. Thereby, image data that three-dimensionally represents the lumen of the large intestine in the prone state is generated.

例えば、画像生成部7は、仰向け状態におけるボリュームデータ100を対象にして、特徴点121から特徴点122まで芯線110に沿って視点130を移動させながら、各視点130において透視投影法に従ったボリュームレンダリングを実行することで、各視点130から見て大腸の内部を仮想内視鏡的に表す3次元画像データを生成する。また、画像生成部7は、うつ伏せ状態におけるボリュームデータ200を対象にして、特徴点121に対応する特徴点221から、特徴点122に対応する特徴点222まで芯線210に沿って視点230を移動させながら、各視点230において透視投影法に従ったボリュームレンダリングを実行することで、各視点230から見て大腸の内部を仮想内視鏡的に表す3次元画像データを生成する。   For example, the image generation unit 7 moves the viewpoint 130 along the core line 110 from the feature point 121 to the feature point 122 for the volume data 100 in the supine state, and the volume according to the perspective projection method at each viewpoint 130. By executing rendering, three-dimensional image data representing the inside of the large intestine as viewed from each viewpoint 130 in a virtual endoscopic manner is generated. The image generation unit 7 moves the viewpoint 230 along the core line 210 from the feature point 221 corresponding to the feature point 121 to the feature point 222 corresponding to the feature point 122 for the volume data 200 in the prone state. However, by performing volume rendering in accordance with the perspective projection method at each viewpoint 230, three-dimensional image data representing the inside of the large intestine in a virtual endoscopic manner as viewed from each viewpoint 230 is generated.

仰向け状態において互いに隣り合う特徴点間の距離は規格化部8によって規格化され、うつ伏せ状態において互いに隣り合う特徴点間の距離は規格化部8によって規格化されている。上記の例では、特徴点121から特徴点122までの第1区間の長さが規格化され、その第1区間に対応する特徴点221から特徴点222までの第2区間の長さが規格化されている。画像生成部7は、特徴点121から特徴点122までの規格化された第1区間と、特徴点221から特徴点222までの規格化された第2区間とにおいて、それぞれ規格化された距離(距離の比率)が同じ位置に視点を設定して、ボリュームデータ100とボリュームデータ200とに対して透視投影法に従ったボリュームレンダリングを施すことで、仰向け状態における3次元画像データとうつ伏せ状態における3次元画像データとを生成する。   The distance between the feature points adjacent to each other in the supine state is normalized by the normalization unit 8, and the distance between the feature points adjacent to each other in the prone state is normalized by the normalization unit 8. In the above example, the length of the first section from the feature point 121 to the feature point 122 is normalized, and the length of the second section from the feature point 221 to the feature point 222 corresponding to the first section is normalized. Has been. The image generation unit 7 performs standardized distances (in each of the standardized first section from the feature point 121 to the feature point 122 and the standardized second section from the feature point 221 to the feature point 222 ( The viewpoint is set at the same position (distance ratio), and volume rendering according to the perspective projection method is performed on the volume data 100 and the volume data 200, so that the 3D image data in the supine state and the 3 in the prone state are displayed. Dimensional image data is generated.

例えば図2に示すように、画像生成部7は、特徴点121と特徴点122との間の第1区間において全体の50%の距離の地点に視点130を設定した場合、特徴点221と特徴点22との間の第2区間において全体の50%の距離の地点に視点230を設定する。このように、画像生成部7は、ボリュームデータ100とボリュームデータ200とにおいて、それぞれ規格化された距離(距離の比率)が同じ位置に視点を設定して、透視投影法に従ったボリュームレンダリングを実行することで、仰向け状態とうつ伏せ状態とでそれぞれ対応する位置における3次元画像データを生成する。   For example, as illustrated in FIG. 2, when the viewpoint 130 is set at a point that is 50% of the distance in the first section between the feature point 121 and the feature point 122, the image generation unit 7 and the feature point 221 The viewpoint 230 is set at a point that is 50% of the distance in the second section between the point 22 and the point 22. As described above, the image generation unit 7 sets the viewpoint at a position where the normalized distance (distance ratio) is the same in the volume data 100 and the volume data 200, and performs volume rendering according to the perspective projection method. By executing, three-dimensional image data at positions corresponding to the supine state and the prone state are generated.

また、画像生成部7は、特徴点121と特徴点122との間の区間において、全体の0%の距離の地点(特徴点121)に視点130を設定した場合、特徴点221と特徴点222との間の第1区間において、全体の0%の距離の地点(特徴点221)に視点230を設定する。そして、画像生成部7は、視点130を芯線110に沿って特徴点121から特徴点122に向けて移動させながら、各視点130において透視投影法に従ったボリュームレンダリングを実行することで、各視点130から見て大腸の内部を仮想内視鏡的に表す3次元画像データを生成する。また、画像生成部7は、視点130の移動に合わせて、特徴点221と特徴点222との間の第2区間において、特徴点121と特徴点122との間の第1区間における視点130の位置と規格化された距離(距離の比率)が同じ位置に視点230を設定して、各視点230において透視投影法に従ったボリュームレンダリングを実行することで、各視点230から見て大腸の内部を仮想内視鏡的に表す3次元画像データを生成する。   Further, when the viewpoint 130 is set at a point of 0% distance (feature point 121) in the section between the feature point 121 and the feature point 122, the image generation unit 7 sets the feature point 221 and the feature point 222. In the first interval between and, a viewpoint 230 is set at a point (feature point 221) having a distance of 0% of the whole. Then, the image generation unit 7 performs volume rendering according to the perspective projection method at each viewpoint 130 while moving the viewpoint 130 along the core line 110 from the feature point 121 toward the feature point 122, thereby Three-dimensional image data representing the inside of the large intestine in a virtual endoscopic manner as viewed from 130 is generated. In addition, the image generation unit 7 moves the viewpoint 130 in the first section between the feature point 121 and the feature point 122 in the second section between the feature point 221 and the feature point 222 as the viewpoint 130 moves. By setting the viewpoint 230 at a position where the position and the standardized distance (distance ratio) are the same, and performing volume rendering according to the perspective projection method at each viewpoint 230, the interior of the large intestine is viewed from each viewpoint 230. Is generated in a virtual endoscopic manner.

以上のように、画像生成部7は、仰向け状態におけるボリュームデータ100とうつ伏せ状態におけるボリュームデータ200とを対象にして、特徴点が対応する第1区間と第2区間とにおいて、区間内の距離の比率(規格化された距離)がそれぞれ同じ位置に視点を設定して、ボリュームデータ100とボリュームデータ200とに透視投影法に従ったボリュームレンダリングを施すことで、仰向け状態における3次元画像データとうつ伏せ状態における3次元画像データとを生成する。そして、画像生成部7は、仰向け状態における大腸の内部を仮想内視鏡的に表す3次元画像データと、うつ伏せ状態における大腸の内部を仮想内視鏡的に表す3次元画像データとを表示制御部9に出力する。なお、画像生成部7が、この発明の「画像生成手段」の1例に相当する。また、仰向け状態における3次元画像データが、この発明の「第1の3次元画像データ」の1例に相当し、うつ伏せ状態における3次元画像データが、この発明の「第2の3次元画像データ」の1例に相当する。   As described above, the image generation unit 7 targets the volume data 100 in the supine state and the volume data 200 in the prone state, in the first section and the second section corresponding to the feature points, The viewpoint is set at the same ratio (standardized distance), and volume rendering according to the perspective projection method is performed on the volume data 100 and the volume data 200, so that the three-dimensional image data in the supine state is lying down. 3D image data in a state is generated. Then, the image generation unit 7 performs display control on the three-dimensional image data that virtually represents the inside of the large intestine in the supine state and the three-dimensional image data that virtually represents the inside of the large intestine in the prone state. To the unit 9. The image generation unit 7 corresponds to an example of the “image generation unit” of the present invention. The three-dimensional image data in the supine state corresponds to an example of “first three-dimensional image data” of the present invention, and the three-dimensional image data in the prone state is “second three-dimensional image data” of the present invention. Is equivalent to one example.

(表示制御部9、表示部10)
表示制御部9は、3次元画像データを画像生成部7から受けて、仰向け状態における3次元画像とうつ伏せ状態における3次元画像とを並べて表示部10に表示させる。例えば、表示制御部9は、仰向け状態における特徴点121から特徴点122までの第1区間内に設定された各視点130における3次元画像(パースペクティブ画像)と、うつ伏せ状態における特徴点221から特徴点222までの第2区間内に設定された各視点230における3次元画像(パースペクティブ画像)とを、視点ごとに順次、表示部10に表示させる。なお、表示制御部9が、この発明の「表示制御手段」の1例に相当する。
(Display control unit 9, display unit 10)
The display control unit 9 receives the 3D image data from the image generation unit 7 and displays the 3D image in the supine state and the 3D image in the prone state on the display unit 10 side by side. For example, the display control unit 9 displays the three-dimensional image (perspective image) at each viewpoint 130 set in the first section from the feature point 121 to the feature point 122 in the supine state and the feature point 221 in the prone state. A three-dimensional image (perspective image) at each viewpoint 230 set in the second section up to 222 is sequentially displayed on the display unit 10 for each viewpoint. The display control unit 9 corresponds to an example of “display control means” of the present invention.

この実施形態によると、特徴点121から特徴点122までの第1区間と、特徴点221から特徴点222までの第2区間とにおいて、規格化された距離(距離の比率)が同じ位置にそれぞれ視点が設定されているため、第1区間の長さと第2区間の長さとが異なっていても、第1区間及び第2区間の全体に亘って3次元画像データを生成して、3次元画像を表示することが可能となる。そのことにより、仰向け状態における3次元画像とうつ伏せ状態における3次元画像とにおいて、大腸(管状組織)の観察における見落としの発生を抑制することが可能となる。その結果、見落とされた箇所を探すための作業を軽減することが可能となるため、診断時間の短縮を図ることが可能となる。   According to this embodiment, the standardized distance (distance ratio) is the same in the first section from the feature point 121 to the feature point 122 and the second section from the feature point 221 to the feature point 222, respectively. Since the viewpoint is set, even if the length of the first section is different from the length of the second section, the three-dimensional image data is generated over the entire first section and the second section. Can be displayed. This makes it possible to suppress the occurrence of oversight in the observation of the large intestine (tubular tissue) in the three-dimensional image in the supine state and the three-dimensional image in the prone state. As a result, it is possible to reduce the work for searching for an overlooked place, and thus it is possible to shorten the diagnosis time.

なお、芯線抽出部3、グラフ作成部4、特徴点特定部5、対応付け部6、画像生成部7、及び表示制御部9は、それぞれ図示しないCPUと、ROM、RAM、HDDなどの記憶装置とによって構成されていても良い。記憶装置には、芯線抽出部3の機能を実行するための芯線抽出プログラムと、グラフ作成部4の機能を実行するためのグラフ作成プログラムと、特徴点特定部5の機能を実行するための特徴点特定プログラムと、対応付け部6の機能を実行するための対応付けプログラムと、画像生成部7の機能を実行するための画像生成プログラムと、表示制御部9の機能を実行するための表示制御プログラムとが記憶されている。また、グラフ作成プログラムには、始点設定部41の機能を実行するための始点設定プログラムと、距離算出部42の機能を実行するための距離算出プログラムとが含まれている。また、特徴点特定プログラムには、微分処理部51の機能を実行するための微分処理プログラムと、個別ピーク点特定部52の機能を実行するための個別ピーク点特定プログラムと、個別変化点特定部55の機能を実行するための個別変化点特定プログラムと、形状変化点特定部58の機能を実行するための形状変化点特定プログラムとが含まれている。また、個別ピーク点特定プログラムには、ピーク点特定部53の機能を実行するためのピーク点特定プログラムと、ピーク点推定部54の機能を実行するためのピーク点推定プログラムとが含まれている。また、個別変化点特定プログラムには、変化点特定部56の機能を実行するための変化点特定プログラムと、変化点推定部57の機能を実行するための変化点推定プログラムとが含まれている。また、画像生成プログラムには、規格化部8の機能を実行するための規格化プログラムが含まれている。そして、CPUが各プログラムを実行することで、各部の機能を実行する。なお、芯線抽出プログラムと、グラフ作成プログラムと、特徴点特定プログラムと、対応付けプログラムと、画像生成プログラムと、表示制御プログラムとによって、この発明の「画像処理プログラム」の1例を構成する。   The core line extracting unit 3, the graph creating unit 4, the feature point specifying unit 5, the associating unit 6, the image generating unit 7, and the display control unit 9 are each a CPU and a storage device such as a ROM, a RAM, and an HDD not shown. It may be constituted by. The storage device includes a core line extraction program for executing the function of the core line extraction unit 3, a graph creation program for executing the function of the graph creation unit 4, and a feature for executing the function of the feature point specifying unit 5 A point identification program, an association program for executing the function of the association unit 6, an image generation program for executing the function of the image generation unit 7, and display control for executing the function of the display control unit 9 The program is stored. The graph creation program includes a start point setting program for executing the function of the start point setting unit 41 and a distance calculation program for executing the function of the distance calculation unit 42. The feature point specifying program includes a differentiation processing program for executing the function of the differentiation processing unit 51, an individual peak point specifying program for executing the function of the individual peak point specifying unit 52, and an individual change point specifying unit. An individual change point specifying program for executing the function 55 and a shape change point specifying program for executing the function of the shape change point specifying unit 58 are included. The individual peak point specifying program includes a peak point specifying program for executing the function of the peak point specifying unit 53 and a peak point estimating program for executing the function of the peak point estimating unit 54. . Further, the individual change point specifying program includes a change point specifying program for executing the function of the change point specifying unit 56 and a change point estimating program for executing the function of the change point estimating unit 57. . The image generation program includes a standardization program for executing the function of the standardization unit 8. Then, the function of each unit is executed by the CPU executing each program. The core line extraction program, the graph creation program, the feature point identification program, the association program, the image generation program, and the display control program constitute one example of the “image processing program” of the present invention.

また、医用画像診断装置50に医用画像処理装置1を含ませても良い。例えば、医用画像診断装置50としてX線CT装置を用い、そのX線CT装置に医用画像処理装置1を含ませても良い。X線CT装置は、X線を曝射するX線管球と、被検体を間にしてX線管球と対向して配置されたX線検出器と、再構成処理部とを備え、X線管球からX線を曝射しながらX線管球とX線検出器とを被検体の周りで回転させることで、X線投影データを収集する。そして、再構成処理部は、収集されたX線投影データを再構成することで、被検体を表すボリュームデータを生成する。なお、X線管球、X線検出器、及び再構成部によって、この発明の「画像取得手段」の1例を構成する。   Further, the medical image diagnostic apparatus 50 may include the medical image processing apparatus 1. For example, an X-ray CT apparatus may be used as the medical image diagnostic apparatus 50, and the medical image processing apparatus 1 may be included in the X-ray CT apparatus. The X-ray CT apparatus includes an X-ray tube that exposes X-rays, an X-ray detector disposed opposite to the X-ray tube with a subject interposed therebetween, and a reconstruction processing unit. X-ray projection data is collected by rotating the X-ray tube and the X-ray detector around the subject while exposing the X-ray from the tube. Then, the reconstruction processing unit reconstructs the collected X-ray projection data, thereby generating volume data representing the subject. The X-ray tube, the X-ray detector, and the reconstruction unit constitute an example of the “image acquisition unit” of the present invention.

この実施形態では、X線CT装置は、被検体を仰向けにした状態で大腸を撮影することで、仰向け状態における大腸を表すボリュームデータを生成する。また、X線CT装置は、被検体をうつ伏せにした状態で大腸を撮影することで、うつ伏せ状態における大腸を表すボリュームデータを生成する。そして、X線CT装置に含まれる医用画像処理装置1によって、仰向け状態における大腸の特徴点とうつ伏せ状態における大腸の特徴点とを特定し、仰向け状態における大腸の特徴点とうつ伏せ状態における大腸の特徴点とを対応付ける。さらに、X線CT装置に含まれる医用画像処理装置1によって、同じ***において互いに隣り合う特徴点間の距離を規格化し、規格化された区間内において、仰向け状態とうつ伏せ状態とで規格化された距離(距離の比率)が同じ位置にそれぞれ視点を設定して、仰向け状態におけるボリュームデータとうつ伏せ状態におけるボリュームデータとに対して、透視投影法に従ったボリュームレンダリングを施すことで、仰向け状態における3次元画像データとうつ伏せ状態における3次元画像データとを生成する。このように、仰向け状態とうつ伏せ状態とにおいて、規格化された距離(距離の比率)が同じ位置に視点を設定して3次元画像データを生成しているため、仰向け状態における3次元画像とうつ伏せ状態における3次元画像とにおいて、大腸(管状組織)の観察における見落としの発生を抑制することが可能となる。   In this embodiment, the X-ray CT apparatus generates volume data representing the large intestine in the supine state by imaging the large intestine with the subject facing up. Further, the X-ray CT apparatus generates volume data representing the large intestine in the prone state by imaging the large intestine with the subject lying down. Then, the medical image processing apparatus 1 included in the X-ray CT apparatus identifies the feature points of the large intestine in the supine state and the feature points of the large intestine in the prone state, and features the large intestine in the prone state and the features of the large intestine in the prone state. Correlate points. Furthermore, the medical image processing apparatus 1 included in the X-ray CT apparatus standardized the distance between feature points adjacent to each other in the same body position, and normalized in the supine state and the prone state within the standardized section. By setting the viewpoints at the same distance (distance ratio), and performing volume rendering according to the perspective projection method on the volume data in the supine state and the volume data in the prone state, 3 in the supine state is obtained. Three-dimensional image data and three-dimensional image data in a prone state are generated. As described above, the three-dimensional image data is generated by setting the viewpoint at the position where the standardized distance (distance ratio) is the same in the supine state and the prone state. It is possible to suppress the occurrence of oversight in observation of the large intestine (tubular tissue) in the three-dimensional image in the state.

1 医用画像処理装置
2 画像データ記憶部
3 芯線抽出部
4 グラフ作成部
5 特徴点特定部
6 対応付け部
7 画像生成部
8 規格化部
9 表示制御部
10 表示部
41 始点設定部
42 距離算出部
51 微分処理部
52 個別ピーク点特定部
53 ピーク点特定部
54 ピーク点推定部
55 個別変化点特定部
56 変化点特定部
57 変化点推定部
58 形状変化点特定部
DESCRIPTION OF SYMBOLS 1 Medical image processing apparatus 2 Image data memory | storage part 3 Core line extraction part 4 Graph preparation part 5 Feature point specific part 6 Corresponding part 7 Image generation part 8 Normalization part 9 Display control part 10 Display part 41 Start point setting part 42 Distance calculation part 51 Differentiation Processing Unit 52 Individual Peak Point Identification Unit 53 Peak Point Identification Unit 54 Peak Point Estimation Unit 55 Individual Change Point Identification Unit 56 Change Point Identification Unit 57 Change Point Estimation Unit 58 Shape Change Point Identification Unit

Claims (4)

管状組織がそれぞれ異なる状態で表わされた第1ボリュームデータと第2ボリュームデータとを受けて、前記第1ボリュームデータから前記管状組織の第1芯線を抽出し、前記第2ボリュームデータから前記管状組織の第2芯線を抽出する芯線抽出手段と、
前記第1芯線が表す前記管状組織の形状に基づいて前記管状組織の第1の特徴点を特定し、前記第2芯線が表す前記管状組織の形状に基づいて前記管状組織の第2の特徴点を特定する特定手段と、
前記第1芯線上に設定された始点から前記第1の特徴点までの距離と、前記第2芯線上に設定された始点から前記第2の特徴点までの距離との差が、予め設定された所定距離以内に含まれる前記第1の特徴点と前記第2の特徴点とを対応付ける対応付け手段と、
隣り合う前記第1の特徴点間の距離を規格化し、隣り合う前記第2の特徴点間の距離を規格化し、前記規格化された隣り合う前記第1の特徴点の間の第1区間と、前記第1の特徴点と対応付けられた隣り合う前記第2の特徴点の間の第2区間とにおいて、前記規格化された距離が同じ位置にそれぞれ視点を設定し、前記第1ボリュームデータと前記第2ボリュームデータとに対してボリュームレンダリングを施すことで、前記第1ボリュームデータに基づく前記管状組織の内部を表す第1の3次元画像データと前記第2ボリュームデータに基づく前記管状組織の内部を表す第2の3次元画像データとを生成する画像生成手段と、
前記第1の3次元画像データに基づく第1の3次元画像と、前記第2の3次元画像データに基づく第2の3次元画像とを並べて表示手段に表示させる表示制御手段と、
を有し、
前記特定手段は、
前記第1芯線上に始点を設定し、前記第1芯線上の位置と前記第1芯線に沿った前記始点からの距離との関係を第1曲線で表した第1グラフと、前記第2芯線上に始点を設定し、前記第2芯線上の位置と前記第2芯線に沿った前記始点からの距離との関係を第2曲線で表した第2グラフとを求めるグラフ作成手段と、
前記第1曲線の傾きに基づいて前記第1曲線の特徴点を前記第1の特徴点として特定し、前記第2曲線の傾きに基づいて前記第2曲線の特徴点を前記第2の特徴点として特定する特徴点特定手段と、からなり、
前記特徴点特定手段は、前記第1曲線を前記第1芯線における距離によって2次微分することで得られた2次微分値が、予め設定された第1閾値以下となる前記第1芯線上の位置を前記第1の特徴点として特定し、前記第2曲線を前記第2芯線における距離によって2次微分することで得られた2次微分値が、前記第1閾値以下となる前記第2芯線上の位置を前記第2の特徴点として特定することを特徴とする医用画像処理装置。
The first volume data and the second volume data represented in different states of the tubular tissue are received, the first core line of the tubular tissue is extracted from the first volume data, and the tubular shape is extracted from the second volume data. Core extraction means for extracting the second core of the tissue;
A first feature point of the tubular tissue is identified based on the shape of the tubular tissue represented by the first core wire, and a second feature point of the tubular tissue is identified based on the shape of the tubular tissue represented by the second core wire. Identifying means for identifying
A difference between the distance from the start point set on the first core line to the first feature point and the distance from the start point set on the second core line to the second feature point is set in advance. Association means for associating the first feature point and the second feature point included within a predetermined distance;
Normalizing a distance between the adjacent first feature points; normalizing a distance between the adjacent second feature points; and a first section between the normalized adjacent first feature points; In the second section between the adjacent second feature points associated with the first feature points, viewpoints are respectively set at the same normalized distances, and the first volume data And the second volume data are subjected to volume rendering, whereby the first three-dimensional image data representing the inside of the tubular tissue based on the first volume data and the tubular tissue based on the second volume data are displayed. Image generating means for generating second 3D image data representing the interior;
Display control means for displaying a first 3D image based on the first 3D image data and a second 3D image based on the second 3D image data side by side on a display means;
Have
The specifying means is:
A first graph in which a start point is set on the first core line, and a relationship between a position on the first core line and a distance from the start point along the first core line is represented by a first curve; and the second core A graph creation means for setting a start point on a line and obtaining a second graph representing a relationship between a position on the second core line and a distance from the start point along the second core line by a second curve;
The feature point of the first curve is identified as the first feature point based on the slope of the first curve, and the feature point of the second curve is identified as the second feature point based on the slope of the second curve. And a feature point specifying means for specifying
The feature point specifying means has a second derivative value obtained by secondarily differentiating the first curve according to a distance in the first core line on the first core line that is equal to or lower than a preset first threshold value. The second core where the second differential value obtained by specifying the position as the first feature point and secondarily differentiating the second curve by the distance in the second core line is not more than the first threshold value. A medical image processing apparatus that identifies a position on a line as the second feature point .
前記芯線抽出手段は、前記管状組織を有する被検体の***を第1***にした状態で前記被検体が撮影されることで取得された前記第1***における前記被検体を表すボリュームデータを前記第1ボリュームデータとして受け、前記被検体の***を前記第1***とは異なる第2***にした状態で前記被検体が撮影されることで取得された前記第2***における前記被検体を表すボリュームデータを前記第2ボリュームデータとして受けて、前記第1ボリュームデータから前記管状組織の前記第1芯線を抽出し、前記第2ボリュームデータから前記管状組織の前記第2芯線を抽出することを特徴とする請求項1に記載の医用画像処理装置。 The core line extracting means obtains volume data representing the subject in the first body position obtained by photographing the subject in a state where the body posture of the subject having the tubular tissue is in the first body position. Volume data representing the subject in the second body position acquired as one volume data and acquired by photographing the subject in a state where the body posture of the subject is in a second body position different from the first body position. receiving a second volume data, from said first volume data extracting said first core line of the tubular tissue, and extracting the second core line of the tubular tissue from the second volume data The medical image processing apparatus according to claim 1. コンピュータに、
管状組織がそれぞれ異なる状態で表わされた第1ボリュームデータと第2ボリュームデータとを受けて、前記第1ボリュームデータから前記管状組織の第1芯線を抽出し、前記第2ボリュームデータから前記管状組織の第2芯線を抽出する芯線抽出機能と、
前記第1芯線が表す前記管状組織の形状に基づいて前記管状組織の第1の特徴点を特定し、前記第2芯線が表す前記管状組織の形状に基づいて前記管状組織の第2の特徴点を特定する特定機能と、
前記第1芯線上に設定された始点から前記第1の特徴点までの距離と、前記第2芯線上に設定された始点から前記第2の特徴点までの距離との差が、予め設定された所定距離以内に含まれる前記第1の特徴点と前記第2の特徴点とを対応付ける対応付け機能と、
隣り合う前記第1の特徴点間の距離を規格化し、隣り合う前記第2の特徴点間の距離を規格化し、前記規格化された隣り合う前記第1の特徴点の間の第1区間と、前記第1の特徴点と対応付けられた隣り合う前記第2の特徴点の間の第2区間とにおいて、前記規格化された距離が同じ位置にそれぞれ視点を設定し、前記第1ボリュームデータと前記第2ボリュームデータとに対してボリュームレンダリングを施すことで、前記第1ボリュームデータに基づく前記管状組織の内部を表す第1の3次元画像データと前記第2ボリュームデータに基づく前記管状組織の内部を表す第2の3次元画像データとを生成する画像生成機能と、
前記第1の3次元画像データに基づく第1の3次元画像と、前記第2の3次元画像データに基づく第2の3次元画像とを並べて表示手段に表示させる表示制御機能と、
を実行させるものであって、
前記特定機能は、
前記第1芯線上に始点を設定し、前記第1芯線上の位置と前記第1芯線に沿った前記始点からの距離との関係を第1曲線で表した第1グラフと、前記第2芯線上に始点を設定し、前記第2芯線上の位置と前記第2芯線に沿った前記始点からの距離との関係を第2曲線で表した第2グラフとを求めるグラフ作成機能と、
前記第1曲線の傾きに基づいて前記第1曲線の特徴点を前記第1の特徴点として特定し、前記第2曲線の傾きに基づいて前記第2曲線の特徴点を前記第2の特徴点として特定する特徴点特定機能と、を有し、
前記特徴点特定機能は、前記第1曲線を前記第1芯線における距離によって2次微分することで得られた2次微分値が、予め設定された第1閾値以下となる前記第1芯線上の位置を前記第1の特徴点として特定し、前記第2曲線を前記第2芯線における距離によって2次微分することで得られた2次微分値が、前記第1閾値以下となる前記第2芯線上の位置を前記第2の特徴点として特定すること、
を特徴とする医用画像処理プログラム。
On the computer,
The first volume data and the second volume data represented in different states of the tubular tissue are received, the first core line of the tubular tissue is extracted from the first volume data, and the tubular shape is extracted from the second volume data. A core extraction function for extracting the second core of the tissue;
A first feature point of the tubular tissue is identified based on the shape of the tubular tissue represented by the first core wire, and a second feature point of the tubular tissue is identified based on the shape of the tubular tissue represented by the second core wire. Specific function to identify,
A difference between the distance from the start point set on the first core line to the first feature point and the distance from the start point set on the second core line to the second feature point is set in advance. An association function for associating the first feature point and the second feature point included within a predetermined distance;
Normalizing a distance between the adjacent first feature points; normalizing a distance between the adjacent second feature points; and a first section between the normalized adjacent first feature points; In the second section between the adjacent second feature points associated with the first feature points, viewpoints are respectively set at the same normalized distances, and the first volume data And the second volume data are subjected to volume rendering, whereby the first three-dimensional image data representing the inside of the tubular tissue based on the first volume data and the tubular tissue based on the second volume data are displayed. An image generation function for generating second 3D image data representing the inside;
A display control function for displaying the first three-dimensional image based on the first three-dimensional image data and the second three-dimensional image based on the second three-dimensional image data side by side on a display means;
It is those for the execution,
The specific function is:
A first graph in which a start point is set on the first core line, and a relationship between a position on the first core line and a distance from the start point along the first core line is represented by a first curve; and the second core A graph creation function for setting a start point on a line and obtaining a second graph representing a relationship between a position on the second core line and a distance from the start point along the second core line by a second curve;
The feature point of the first curve is identified as the first feature point based on the slope of the first curve, and the feature point of the second curve is identified as the second feature point based on the slope of the second curve. And a feature point specifying function to be specified as
The feature point specifying function has a second derivative value obtained by secondarily differentiating the first curve according to a distance in the first core line on the first core line that is equal to or lower than a preset first threshold value. The second core where the second differential value obtained by specifying the position as the first feature point and secondarily differentiating the second curve by the distance in the second core line is not more than the first threshold value. Specifying a position on a line as the second feature point;
A medical image processing program characterized by the above.
管状組織を有する被検体の***を第1***にした状態で前記被検体を撮影することで、前記第1***における前記被検体を表す第1ボリュームデータを取得し、前記被検体の***を前記第1***とは異なる第2***にした状態で前記被検体を撮影することで、前記第2***における前記被検体を表す第2ボリュームデータを取得する画像取得手段と、
前記第1ボリュームデータから前記管状組織の第1芯線を抽出し、前記第2ボリュームデータから前記管状組織の第2芯線を抽出する芯線抽出手段と、
前記第1芯線が表す前記管状組織の形状に基づいて前記管状組織の第1の特徴点を特定し、前記第2芯線が表す前記管状組織の形状に基づいて前記管状組織の第2の特徴点を特定する特定手段と、
前記第1芯線上に設定された始点から前記第1の特徴点までの距離と、前記第2芯線上に設定された始点から前記第2の特徴点までの距離との差が、予め設定された所定距離以内に含まれる前記第1の特徴点と前記第2の特徴点とを対応付ける対応付け手段と、
隣り合う前記第1の特徴点間の距離を規格化し、隣り合う前記第2の特徴点間の距離を規格化し、前記規格化された隣り合う前記第1の特徴点の間の第1区間と、前記第1の特徴点と対応付けられた隣り合う前記第2の特徴点の間の第2区間とにおいて、前記規格化された距離が同じ位置にそれぞれ視点を設定し、前記第1ボリュームデータと前記第2ボリュームデータとに対してボリュームレンダリングを施すことで、前記第1ボリュームデータに基づく前記管状組織の内部を表す第1の3次元画像データと前記第2ボリュームデータに基づく前記管状組織の内部を表す第2の3次元画像データとを生成する画像生成手段と、
前記第1の3次元画像データに基づく第1の3次元画像と、前記第2の3次元画像データに基づく第2の3次元画像とを並べて表示手段に表示させる表示制御手段と、
を有し、
前記特定手段は、
前記第1芯線上に始点を設定し、前記第1芯線上の位置と前記第1芯線に沿った前記始点からの距離との関係を第1曲線で表した第1グラフと、前記第2芯線上に始点を設定し、前記第2芯線上の位置と前記第2芯線に沿った前記始点からの距離との関係を第2曲線で表した第2グラフとを求めるグラフ作成手段と、
前記第1曲線の傾きに基づいて前記第1曲線の特徴点を前記第1の特徴点として特定し、前記第2曲線の傾きに基づいて前記第2曲線の特徴点を前記第2の特徴点として特定する特徴点特定手段と、からなり、
前記特徴点特定手段は、前記第1曲線を前記第1芯線における距離によって2次微分することで得られた2次微分値が、予め設定された第1閾値以下となる前記第1芯線上の位置を前記第1の特徴点として特定し、前記第2曲線を前記第2芯線における距離によって2次微分することで得られた2次微分値が、前記第1閾値以下となる前記第2芯線上の位置を前記第2の特徴点として特定することを特徴とするX線CT装置。
The first volume data representing the subject in the first body position is acquired by imaging the subject in a state where the body posture of the subject having the tubular tissue is in the first body position, and the body posture of the subject is Image acquisition means for acquiring second volume data representing the subject in the second body position by imaging the subject in a second body position different from the first body position;
A core wire extracting means for extracting a first core wire of the tubular tissue from the first volume data and extracting a second core wire of the tubular tissue from the second volume data;
A first feature point of the tubular tissue is identified based on the shape of the tubular tissue represented by the first core wire, and a second feature point of the tubular tissue is identified based on the shape of the tubular tissue represented by the second core wire. Identifying means for identifying
A difference between the distance from the start point set on the first core line to the first feature point and the distance from the start point set on the second core line to the second feature point is set in advance. Association means for associating the first feature point and the second feature point included within a predetermined distance;
Normalizing a distance between the adjacent first feature points; normalizing a distance between the adjacent second feature points; and a first section between the normalized adjacent first feature points; In the second section between the adjacent second feature points associated with the first feature points, viewpoints are respectively set at the same normalized distances, and the first volume data And the second volume data are subjected to volume rendering, whereby the first three-dimensional image data representing the inside of the tubular tissue based on the first volume data and the tubular tissue based on the second volume data are displayed. Image generating means for generating second 3D image data representing the interior;
Display control means for displaying a first 3D image based on the first 3D image data and a second 3D image based on the second 3D image data side by side on a display means;
Have
The specifying means is:
A first graph in which a start point is set on the first core line, and a relationship between a position on the first core line and a distance from the start point along the first core line is represented by a first curve; and the second core A graph creation means for setting a start point on a line and obtaining a second graph representing a relationship between a position on the second core line and a distance from the start point along the second core line by a second curve;
The feature point of the first curve is identified as the first feature point based on the slope of the first curve, and the feature point of the second curve is identified as the second feature point based on the slope of the second curve. And a feature point specifying means for specifying
The feature point specifying means has a second derivative value obtained by secondarily differentiating the first curve according to a distance in the first core line on the first core line that is equal to or lower than a preset first threshold value. The second core where the second differential value obtained by specifying the position as the first feature point and secondarily differentiating the second curve by the distance in the second core line is not more than the first threshold value. An X-ray CT apparatus characterized by specifying a position on a line as the second feature point .
JP2009175877A 2009-07-28 2009-07-28 Medical image processing apparatus, medical image processing program, and X-ray CT apparatus Active JP5554028B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009175877A JP5554028B2 (en) 2009-07-28 2009-07-28 Medical image processing apparatus, medical image processing program, and X-ray CT apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009175877A JP5554028B2 (en) 2009-07-28 2009-07-28 Medical image processing apparatus, medical image processing program, and X-ray CT apparatus

Publications (2)

Publication Number Publication Date
JP2011024913A JP2011024913A (en) 2011-02-10
JP5554028B2 true JP5554028B2 (en) 2014-07-23

Family

ID=43634367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009175877A Active JP5554028B2 (en) 2009-07-28 2009-07-28 Medical image processing apparatus, medical image processing program, and X-ray CT apparatus

Country Status (1)

Country Link
JP (1) JP5554028B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5215483B1 (en) * 2012-02-24 2013-06-19 株式会社東芝 Medical image processing device
JP5932406B2 (en) * 2012-03-09 2016-06-08 富士フイルム株式会社 Medical image processing apparatus and method, and program
JP5930539B2 (en) * 2012-09-12 2016-06-08 富士フイルム株式会社 MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM
JP5923067B2 (en) * 2013-07-26 2016-05-24 富士フイルム株式会社 Diagnosis support apparatus, diagnosis support method, and diagnosis support program
JP5725579B1 (en) * 2013-11-27 2015-05-27 株式会社Aze Medical diagnosis support apparatus, method and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003044841A (en) * 2002-06-20 2003-02-14 Sharp Corp Device and method for generating model and recording medium with model generation program recorded thereon
US7574032B2 (en) * 2003-10-31 2009-08-11 General Electric Company Method and apparatus for virtual subtraction of stool from registration and shape based analysis of prone and supine scans of the colon
US7590272B2 (en) * 2005-11-23 2009-09-15 Vital Images, Inc. Colon characteristic path registration

Also Published As

Publication number Publication date
JP2011024913A (en) 2011-02-10

Similar Documents

Publication Publication Date Title
JP5918548B2 (en) Endoscopic image diagnosis support apparatus, operation method thereof, and endoscopic image diagnosis support program
JP6348078B2 (en) Branch structure determination apparatus, operation method of branch structure determination apparatus, and branch structure determination program
JP4676021B2 (en) Diagnosis support apparatus, diagnosis support program, and diagnosis support method
JP5675227B2 (en) Endoscopic image processing apparatus, operation method, and program
JP6254053B2 (en) Endoscopic image diagnosis support apparatus, system and program, and operation method of endoscopic image diagnosis support apparatus
JP6049202B2 (en) Image processing apparatus, method, and program
JP5377153B2 (en) Image processing apparatus, image processing program, and medical diagnostic system
JP5785120B2 (en) Medical image diagnosis support apparatus and method, and program
US9196057B2 (en) Medical image diagnosis apparatus, medical image display apparatus, medical image processing apparatus, and medical image processing program
JP2007260144A (en) Medical image treatment device and medical image treatment method
US20110187707A1 (en) System and method for virtually augmented endoscopy
WO2012014438A1 (en) Device, method, and program for assisting endoscopic observation
JP5826082B2 (en) Medical image diagnosis support apparatus and method, and program
US10939800B2 (en) Examination support device, examination support method, and examination support program
WO2019130868A1 (en) Image processing device, processor device, endoscope system, image processing method, and program
JP6824078B2 (en) Endoscope positioning device, method and program
JP5554028B2 (en) Medical image processing apparatus, medical image processing program, and X-ray CT apparatus
JP4686279B2 (en) Medical diagnostic apparatus and diagnostic support apparatus
JP5457764B2 (en) Medical image processing device
WO2014147933A1 (en) Medical image display control device and method, and program
JP7441934B2 (en) Processing device, endoscope system, and method of operating the processing device
JP2007236629A (en) Medical image processor and medical image processing method
US7943892B2 (en) Projection image generation apparatus, method for generating projection image of moving target, and program
JP6199267B2 (en) Endoscopic image display device, operating method thereof, and program
US20200019813A1 (en) Examination support device, examination support method, and examination support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140430

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140528

R150 Certificate of patent or registration of utility model

Ref document number: 5554028

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350