JP2021048913A - Image processing device, method and program - Google Patents
Image processing device, method and program Download PDFInfo
- Publication number
- JP2021048913A JP2021048913A JP2019172020A JP2019172020A JP2021048913A JP 2021048913 A JP2021048913 A JP 2021048913A JP 2019172020 A JP2019172020 A JP 2019172020A JP 2019172020 A JP2019172020 A JP 2019172020A JP 2021048913 A JP2021048913 A JP 2021048913A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- region
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 47
- 238000000034 method Methods 0.000 title claims abstract description 11
- 238000006073 displacement reaction Methods 0.000 claims abstract description 57
- 238000000605 extraction Methods 0.000 claims abstract description 11
- 239000000284 extract Substances 0.000 claims abstract description 4
- 238000003384 imaging method Methods 0.000 claims description 17
- 238000004364 calculation method Methods 0.000 claims description 16
- 230000033001 locomotion Effects 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 239000003550 marker Substances 0.000 claims description 9
- 238000003672 processing method Methods 0.000 claims description 3
- 238000005481 NMR spectroscopy Methods 0.000 claims description 2
- 230000005540 biological transmission Effects 0.000 claims description 2
- 210000000988 bone and bone Anatomy 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 230000003902 lesion Effects 0.000 description 5
- 206010028980 Neoplasm Diseases 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 230000001225 therapeutic effect Effects 0.000 description 3
- 238000005314 correlation function Methods 0.000 description 2
- 238000010894 electron beam technology Methods 0.000 description 2
- 239000002184 metal Substances 0.000 description 2
- 229910052751 metal Inorganic materials 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000005251 gamma ray Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000010884 ion-beam technique Methods 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000001959 radiotherapy Methods 0.000 description 1
- 230000000241 respiratory effect Effects 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Radiation-Therapy Devices (AREA)
Abstract
Description
本発明の実施形態は、動きを持つ画像領域を追尾する、画像処理技術に関する。 An embodiment of the present invention relates to an image processing technique for tracking a moving image region.
重粒子線、X線、電子線等の放射線を患者に照射して腫瘍を治療する放射線治療では、この腫瘍を含むよう設定した関心領域に対し、放射線を正確に照射する必要がある。この関心領域が、患者の体動、呼吸、心臓の鼓動などに伴って移動する場合、放射線を正確に照射することが困難となる。 In radiation therapy for treating a tumor by irradiating a patient with radiation such as heavy particle beam, X-ray, or electron beam, it is necessary to accurately irradiate the area of interest set to include the tumor. When this area of interest moves with the patient's body movements, breathing, heartbeat, etc., it becomes difficult to accurately irradiate the radiation.
そこで、関心領域の近傍に金属製マーカーを挿入し、このマーカー位置をX線透視装置により検出し、治療放射線の照射を制御するマーカートラッキングが提案されている。また、このようなマーカーの挿入を不要とし、関心領域とは別個に設定した特徴部位を画像認識して、治療放射線の照射を制御するマーカーレストラッキングも提案されている。 Therefore, a marker tracking has been proposed in which a metal marker is inserted in the vicinity of the region of interest, the position of the marker is detected by an X-ray fluoroscope, and the irradiation of therapeutic radiation is controlled. In addition, markerless tracking has also been proposed in which the insertion of such a marker is not required, and a feature region set separately from the region of interest is image-recognized to control the irradiation of therapeutic radiation.
上述したマーカートラッキングは、関心領域の動きがマーカーの動きと同期していることを前提として治療計画が立案される。しかし、例えば横隔膜周辺では、横隔膜の回転や併進運動の結果、関心領域の動きが必ずしもマーカーの動きに同期しない場合もある。また従来のマーカーレストラッキングでは、画像中の特徴部位の抽出が不明確だと関心領域の動きの事前予測が困難となり、治療計画の立案に支障をきたす場合がある。 In the marker tracking described above, the treatment plan is formulated on the premise that the movement of the region of interest is synchronized with the movement of the marker. However, for example, around the diaphragm, the movement of the region of interest may not always be synchronized with the movement of the marker as a result of the rotation or translational movement of the diaphragm. Further, in the conventional markerless tracking, if the extraction of the featured portion in the image is unclear, it becomes difficult to predict the movement of the region of interest in advance, which may hinder the formulation of the treatment plan.
本発明の実施形態はこのような事情を考慮してなされたもので、特徴部位の変位を動画から正確に検出し、動きを持つ関心領域の追尾精度の向上を図る医用画像処理技術を提供する。 An embodiment of the present invention has been made in consideration of such circumstances, and provides a medical image processing technique for accurately detecting the displacement of a featured portion from a moving image and improving the tracking accuracy of a region of interest having motion. ..
実施形態に係る画像処理装置は、閉じた輪郭線で表すことができ周期的に変位する特徴領域が含まれる動画のフレームを取得する取得部と、各々の前記フレームに含まれる少なくとも一周期分の前記特徴領域を包含する変位領域を特定する特定部と、各々の前記フレームにおける前記変位領域を照合画像として抽出する抽出部と、いずれか一つの前記照合画像を基準画像に指定する指定部と、前記基準画像と前記照合画像との相関性に基づき演算される相対変位に基づいて前記フレームにおける前記特徴領域の位置情報を出力する位置出力部と、を備えている。 The image processing apparatus according to the embodiment includes an acquisition unit that acquires a frame of a moving image including a feature region that can be represented by a closed contour line and is displaced periodically, and an acquisition unit for at least one cycle included in each of the frames. A specific unit that specifies a displacement region including the feature region, an extraction unit that extracts the displacement region in each frame as a collation image, and a designation unit that designates any one of the collation images as a reference image. It includes a position output unit that outputs position information of the feature region in the frame based on a relative displacement calculated based on the correlation between the reference image and the collation image.
本発明の実施形態により、特徴部位の変位を動画から正確に検出し、動きを持つ関心領域の追尾精度の向上を図る医用画像処理技術が提供される。 According to an embodiment of the present invention, there is provided a medical image processing technique for accurately detecting the displacement of a featured portion from a moving image and improving the tracking accuracy of a region of interest having motion.
(第1実施形態)
以下、本発明の実施形態を添付図面に基づいて説明する。図1は本発明の第1実施形態に係る画像処理装置10Aのブロック図である。図2は各実施形態に係る画像処理装置10で取得される動画36のフレーム30を示す図である。図3は各々のフレーム30の変位領域31から抽出された照合画像371〜375及び基準画像38を示す図である。
(First Embodiment)
Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram of the
図1に示すように画像処理装置10A(10)は、閉じた輪郭線で表すことができ周期的に変位する特徴領域35(35a,35b,35c)(図2)が含まれる動画36のフレーム30を取得する取得部11と、各々のフレーム30に含まれる少なくとも一周期分の特徴領域35を包含する変位領域31(31a,31b,31c)(図2)を特定する特定部20と、各々のフレーム30における変位領域31を照合画像37(371〜375)(図3)として抽出する抽出部12と、いずれか一つの照合画像371を基準画像38に指定する指定部15と、基準画像38と照合画像37(371〜375)との相関性に基づき演算される相対変位(x,y)(図4)に基づいてフレーム30における特徴領域35の位置情報(X,Y)を出力する位置出力部17と、を備えている。
As shown in FIG. 1, the
図1に示すように画像処理装置10A(10)は、さらに、フレーム30に含まれる複数の特徴領域35(35a,35b,35c)の位置情報(X,Y)を関心領域32(図2)に変換する変換部18と、この関心領域32をフレーム30に描画させる描画部19と、を備えている。
As shown in FIG. 1, the
取得部11により取得される動画36は、X線透視撮像機器50により、患者51を撮像してリアルタイムに生成される。この動画36は、患者51の呼吸周期の動きに対し、ブレのない静止画のフレーム30が得られる程度に、充分に高速なフレームレートで撮像されるものとする。
The moving
このX線透視撮像機器50は、患者51を横臥させるベッド52と、患者51の病巣(関心領域32)(図3)にX線がクロスするように配置される二対のX線発生部55(55a,55b)及びX線受像部56(56a,56b)と、から構成される。X線受像部56は、X線の検出素子が2次元アレイ状に配置され、X線発生部55から照射され患者51を透過してそれぞれの検出素子に到達したX線のエネルギーの減衰量に応じ、透視像をリアルタイム出力する。そして、画像合成部57は、X線受像部56(56a,56b)から出力された二つの透視像を入力して合成し、患者51を予め定めた任意方向から透視した動画36を出力する。
The X-ray
X線発生部55(55a,55b)の挟む位置又はX線受像部56(56a,56b)の挟む位置には、患者51の病巣(関心領域32)に対し、治療ビームを照射するビーム照射ポート(図示略)が配置されている。治療ビームとしては、高い運動エネルギーをもって流れる物質粒子(電子線、陽子線、重イオン線)や高エネルギーの電磁波(ガンマ線)が挙げられる。
A beam irradiation port that irradiates the lesion (region of interest 32) of the
ところで、X線透視撮像機器50のX線発生部55が出力するX線は、患者51の被ばくを低減するためその強度が抑えられている。
By the way, the intensity of the X-rays output by the
このために、図2に示すように、動画36のフレーム30に写し出される病巣(関心領域32)は、不鮮明である場合が多く、この病巣(関心領域32)の変位を正確に追跡することが困難である。しかし、フレーム30には、関心領域32と同期して周期的に変位し、周囲とのコントラストが明確で閉じた輪郭線で表すことができる特徴領域35(35a,35b,35c)も写し出されている。この特徴領域35は、臓器(例えば横隔膜)や骨の一部である他に、臓器と臓器との間隙部であったり、病巣近傍に埋め込んだ金属製のマーカーであったりする。また特徴領域35は、関心領域32の外部に位置する場合を例示しているが、関心領域32の内部に位置する場合もある。
For this reason, as shown in FIG. 2, the lesion (region of interest 32) projected in the
このように、フレーム30に鮮明に写し出される特徴領域35の変位を追尾することにより、不鮮明に写し出される関心領域32の変位を推測することができる。なお実施形態において動画36は、X線透過の原理を利用して撮像されたものを例示しているが、これに限定されることはなく、核磁気共鳴、超音波エコー、可視光線反射、赤外線反射の原理を利用して撮像されたものも採用することができる。このため、関心領域32は、体内の腫瘍や結石等に留まらず、皮膚表面等といった人体の表面の腫瘍等、動きを伴うものであればすべて対象となる。
By tracking the displacement of the
特定部20(図1)は、取得部11から動画36を入力し、この動画36を構成する各々のフレーム30を解析し、コマ送りした際に周期的に変位する特徴領域35を認定する。そして図2に示すように、周期的に変位する特徴領域35(35a,35b,35c)を全て包含する変位領域31(31a,31b,31c)を特定する。そしてフレーム30で特定された変位領域31の位置・大きさの情報が、抽出部31に送られる。なお図2において、フレーム30から三つの変位領域31が特定されているが、一つである場合もあるし、それ以上である場合もある。
The specific unit 20 (FIG. 1) inputs the
抽出部12(図1)は、特定部20から送られた変位領域31の位置・大きさの情報に基づいて、取得部11より入力したフレーム30から照合画像37(371〜375)(図3)を抽出する。そして、指定部15により、いずれか一つの照合画像371が基準画像38として指定される。なお実施形態において基準画像38は、変位領域31が特定された後、最初に取得された照合画像371を指定したが、特に限定されず、任意の照合画像37が指定される。
Extraction unit 12 (FIG. 1) based on the position and size information of the
指定された基準画像38は、刻々と送られてくるフレーム30から抽出される照合画像37に、閉じた輪郭線で表される特徴領域35が含まれている限り、変更されずに継続される。そして、特徴領域35の輪郭線が照合画像37から外れた場合は、変位領域31の特定を再度やり直し、基準画像38の指定も再度やり直される。
The designated
演算部16は、変位領域31の変更がない限り指定された基準画像38を基本的に一回だけ入力する。そして演算部16は、その後、フレーム30から連続的に抽出される照合画像37(371〜375)を入力し、基準画像38との相関性に基づき特徴領域35(351〜355)の相対変位(x,y)を演算する。
The
図4は、演算部16で採用される位相限定相関法(POC:Phase Only Correction)の説明図である。演算部16に入力された基準画像38及び照合画像37の各々は、フーリエ変換により数学的に処理されると、振幅画像(濃淡情報)と位相画像(輪郭情報)とにそれぞれ分解される。このうち位相画像は、高周波成分に含まれる輪郭情報が強調されることにより、エッジ画像に類似した画像となる。
FIG. 4 is an explanatory diagram of a phase only correlation method (POC) adopted by the
そして演算部16は、基準画像38の位相画像と照合画像37の位相画像とを合成し、これを逆フーリエ変換して、位相限定相関関数(POC関数)を出力する。この位相限定相関関数(POC関数)は、相対変位(x,y)の座標と類似度Rとを組み合わせたデータの集合体である。このPOC関数のピークPの波高値は対比する二つの画像の類似度を表し、この二つの画像が類似している場合、ピークPは鋭く高い値を示す。
Then, the
基準画像38と照合画像37は、形状や大きさが同一の特徴領域35が共通に写り込んでいるために、照合画像37(371〜375)に由来する全てのピークP(P1〜P5)(図4)は、波高値が大きく鋭い形状を示している。さらにそれぞれのピークP(P1〜P5)の座標は、基準画像38の特徴領域351から照合画像37(371〜375)の特徴領域35(351〜355)までの相対変位(x,y)に相当する。
なお、実施形態では位相限定相関法を用いて、基準画像38と照合画像37との相対変位(x,y)及び類似度Rを演算したが、これらの演算方法は特に限定されることなく、発明の実施時において公知の演算方法を採用することができる。
In the embodiment, the relative displacement (x, y) and the degree of similarity R between the
位置出力部17(図1)は、演算部16から入力したピークPの座標を、変位領域31における特徴領域35の相対変位(x,y)とみなす。そして、この相対変位(x,y)に、フレーム30における変位領域31の座標情報を加算して、フレーム30における特徴領域35の位置情報(X,Y)を出力する。
The position output unit 17 (FIG. 1) regards the coordinates of the peak P input from the
変換部18(図1)は、フレーム30(図2)に含まれる複数の特徴領域35(35a,35b,35c)の位置情報(X,Y)を関心領域32に変換する。上述したようにX線透視撮像機器50から取得する動画36の解像度が低い場合、フレーム30に写っている関心領域32は、不鮮明である。そこで、X線透視撮像機器50から動画36を取得するのに先立って、より高解像度な撮像機器(例えば、X線CT装置等)で関心領域32を立体動画撮像しておく。この立体動画撮像から再構成された平面動画には、関心領域32が鮮明に描写されている。
The conversion unit 18 (FIG. 1) converts the position information (X, Y) of the plurality of feature regions 35 (35a, 35b, 35c) included in the frame 30 (FIG. 2) into the region of
そこで、この立体動画撮像から再構成された平面動画において、特徴領域35(35a,35b,35c)の位置情報(X,Y)と関心領域32の位置・形状情報との関係を予め学習して記憶しておく。そして変換部18は、位置出力部17から入力した特徴領域35(35a,35b,35c)の位置情報(X,Y)を、学習により関連付けした関心領域32に変換する。描画部19は、変換部18で変換された関心領域32を、フレーム30に追加して画面表示する。
Therefore, in the planar moving image reconstructed from this stereoscopic moving image imaging, the relationship between the position information (X, Y) of the feature area 35 (35a, 35b, 35c) and the position / shape information of the
(第2実施形態)
次に図5を参照して本発明における第2実施形態について説明する。図5は第2実施形態に係る画像処理装置10Bのブロック図である。なお、図5において図1と共通の構成又は機能を有する部分は、同一符号で示し、重複する説明を省略する。画像処理装置10B(10)は、動画36のフレーム30を取得する取得部11と、変位領域31の特定部20と、照合画像37の抽出部12と、基準画像38の指定部15と、特徴領域35の位置情報(X,Y)を出力する位置出力部17と、を備えている。
(Second Embodiment)
Next, a second embodiment of the present invention will be described with reference to FIG. FIG. 5 is a block diagram of the
そして画像処理装置10Bの特定部20は、フレーム30にタイル領域39(図6)を設定する設定部21と、動きが前後するフレーム30において注目するタイル領域39の相関性に基づき演算される類似度Rが閾値mより小さいタイル領域39を拡張する拡張部25と、拡張したことにより類似度Rが閾値mを超えたタイル領域39を変位領域31に決定する決定部26と、を有している。
Then, the
図6(A)〜(F)は第2実施形態においてフレーム30に設定したタイル領域39(391,392,393,394,395)を拡張して変位領域31を特定する方法の説明図である。図7(A)は前後するフレーム30において注目するタイル領域39の相関性が低い場合の類似度RのピークPの形状を示すグラフである。図7(B)は相関性が高い場合の類似度RのピークPの形状を示すグラフである。
FIG 6 (A) ~ (F)
図6(A)に示すように、取得部11(図5)から設定部21に、特徴領域351の写り込んだ一枚目のフレーム301が入力すると、このフレーム301に、単位サイズのタイル領域391が割り振られる。なお、図6(A)においてタイル領域391は、互いに外接するように割り振られているが、互いに一部領域が重複するように割り振られる場合もある。そして、各々のタイル領域391によりフレーム301から抽出された分割画像は、指定部15(図5)により基準画像として演算部16に送られる。
As shown in FIG. 6 (A), the setting
次に図6(B)に示すように、特徴領域352の写り込んだ二枚目のフレーム302が設定部21(図5)に入力すると、タイル領域391により抽出されたフレーム302の分割画像は、照合画像として演算部16に送られる。この演算部16は、動きが前後するフレーム301とフレーム302において、注目するタイル領域391の相関性を演算する。
Next, as shown in FIG. 6 (B), the
図6(B)に示すように、変位した特徴領域351,352に位置するタイル領域391は画像が変化しているので、演算部16からは、図7(A)に示すように、類似度Rが閾値mよりも小さい波高値のピークPが出力される。判定部22(図5)は、全てのタイル領域391に対して類似度Rの判定を行い、閾値mよりも小さいものについては拡張部25で拡張したタイル領域392にする。そして、判定部22は、図7(B)に示すように、閾値mよりも大きい波高値のピークPを持つものについては、タイル領域391を消滅させ、以降演算の対象にしない。
As shown in FIG. 6 (B), the displacement and
図6(C)〜図6(D)についても、同じように、動きが前後するフレーム30n,30n+1において注目するタイル領域39nの相関性が演算される。そして、図7(A)に示すように、このタイル領域39nの類似度Rが閾値mより小さいものについては拡張したタイル領域39n+1にする。そして、図6(E)に示すように、拡張した結果、図7(B)のように類似度Rが閾値mを超えたタイル領域395は、図6(F)に示すように、変位領域31に決定される。
Similarly, in FIGS. 6 (C) to 6 (D), the correlation of the
特定部20で変位領域31が決定された後は、第1実施形態で既に説明したように、連続的に取得されるフレーム30から特徴領域35(35a,35b,35c)の相対位置(x、y)を演算し、その位置情報(X,Y)を出力する。第2実施形態によれば、演算部16を用いて、変位領域31の決定から特徴領域35の位置情報(X,Y)の出力までをシームレスに行うことができる。
After the
(第3実施形態)
次に図8を参照して本発明における第3実施形態について説明する。図8は第3実施形態に係る画像処理装置10Cのブロック図である。図9は第3実施形態において関心領域32が描画されたフレーム30の説明図である。なお、図8において図1と共通の構成又は機能を有する部分は、同一符号で示し、重複する説明を省略する。
(Third Embodiment)
Next, a third embodiment of the present invention will be described with reference to FIG. FIG. 8 is a block diagram of the
画像処理装置10C(10)は、動画36のフレーム30を取得する取得部11と、変位領域31の特定部20と、照合画像37の抽出部12と、基準画像38の指定部15と、特徴領域35の位置情報(X,Y)を出力する位置出力部17と、を備えている。
The
さらに画像処理装置10Cは、X線透視撮像機器50の動画36よりも高解像撮像された参照動画の参照フレーム40を取得する取得部41と、この参照フレーム40に描画されている関心領域(図示略)の画像を切り取って参照フレーム40に描画されている特徴領域の位置情報に関連付けて保存する保存部45とを備えている。
Further, the
変換部18は、フレーム30の複数の特徴領域35(35a,35b,35c)の位置情報(X,Y)を、位置出力部17から入力する。そして変換部18は、この位置情報(X,Y)に対応する参照フレーム40の関心領域の画像を保存部45から取り出す。これにより、図9に示すように描画部19は、フレーム30に参照フレーム40の鮮明な関心領域32を重畳して描画させる。
The
X線透視撮像機器50よりも高解像撮像できる機器としては、X線CT装置が挙げられるが、特に限定されない。また一般に、高解像撮像機器は、低解像撮像機器よりも動画のフレームレートが小さく、前後するフレームの撮像のインターバルが長い。
An X-ray CT apparatus can be mentioned as an apparatus capable of taking a higher resolution image than the X-ray
そこで画像処理装置10Cは、実際に撮像された参照フレーム40に基づいて、インターバル期間中に仮想される参照フレームを生成する仮想生成部42を備えている。そして、仮想した参照フレームに描画されている関心領域の画像、及び特徴領域の位置情報も保存部45に保存される。これにより、高速で撮像されるX線透視撮像機器50の動画36と同じインターバルで参照フレームを得ることができる。
Therefore, the
図10のフローチャートを参照して、実施形態に係る画像処理方法及び画像処理プログラムの動作を示す(適宜、図2参照)。まず、特徴領域35(35a,35b,35c)が含まれる動画36のフレーム30を取得する(S11)。次に、各々のフレーム30に含まれる少なくとも一周期分の特徴領域35を包含する変位領域31(31a,31b,31c)を特定する(S12 Yes)。
The operation of the image processing method and the image processing program according to the embodiment is shown with reference to the flowchart of FIG. 10 (see FIG. 2 as appropriate). First, the
具体的には、最初(n=1)に取得したフレーム301に単位サイズのタイル領域391(図9)が設定される(S13 No,S14)。そして次(n→n+1,S11)に取得された動きが前後するフレーム30n+1,30nにおいて、注目するタイル領域39に対し相関性に基づく演算を行う(S13 Yes,S15)。そして、演算された類似度Rが閾値mより小さい場合(S16 No)、タイル領域39を拡張する(S17)。
Specifically, the first (n = 1) to the
さらに次のフレーム30を取得して(n→n+1,S11)、相関性の演算を繰り返し、演算された類似度Rが閾値mを超えたところで(S16 Yes)、そのときのタイル領域39を変位領域31に決定する(S18)。そして、決定した変位領域31における照合画像37を抽出し(S19)、基準画像38に指定する(S20)。
Further, the
そして、次(n→n+1,S11)に取得されるフレーム30から抽出した照合画像37に対し(S12 No,S21)、基準画像38との相関性を演算する(S22)。この演算から得られた相対変位(x,y)に基づいてフレーム30における特徴領域35の位置情報(X,Y)を出力する(S23)。
Then, the correlation with the
そして、複数の特徴領域35(35a,35b,35c)の位置情報(X,Y)から変換した関心領域32をフレーム30に描画させる(S24)。そして治療ビームが照射されるまで、上述した(S11)〜(S24)のフローが繰り返される(S25 No Yes END)。
Then, the
以上述べた少なくともひとつの実施形態の画像処理装置によれば、動画のフレームに含まれる一周期分の特徴領域を包含する変位領域を特定し、演算により画像相関性を定量的に評価する。これにより、この特徴部位の変位を正確に検出し、動きを持つ関心領域の追尾精度を向上させることが可能となる。 According to the image processing apparatus of at least one embodiment described above, the displacement region including the feature region for one cycle included in the frame of the moving image is specified, and the image correlation is quantitatively evaluated by calculation. This makes it possible to accurately detect the displacement of this characteristic portion and improve the tracking accuracy of the region of interest having motion.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。また、画像処理装置の構成要素は、コンピュータのプロセッサで実現することも可能であり、画像処理プログラムにより動作させることが可能である。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, as well as in the scope of the invention described in the claims and the equivalent scope thereof. Further, the components of the image processing device can be realized by a computer processor, and can be operated by an image processing program.
以上説明した画像処理装置は、専用のチップ、FPGA(Field Programmable Gate Array)、GPU(Graphics Processing Unit)、又はCPU(Central Processing Unit)などのプロセッサを高集積化させた制御装置と、ROM(Read Only Memory)やRAM(Random Access Memory)などの記憶装置と、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの外部記憶装置と、ディスプレイなどの表示装置と、マウスやキーボードなどの入力装置と、通信I/Fとを、備えており、通常のコンピュータを利用したハードウェア構成で実現できる。 The image processing device described above includes a control device in which processors such as a dedicated chip, FPGA (Field Programmable Gate Array), GPU (Graphics Processing Unit), or CPU (Central Processing Unit) are highly integrated, and a ROM (Read). Storage devices such as Only Memory) and RAM (Random Access Memory), external storage devices such as HDD (Hard Disk Drive) and SSD (Solid State Drive), display devices such as displays, and input devices such as mice and keyboards. And a communication I / F, which can be realized by a hardware configuration using a normal computer.
また画像処理装置で実行されるプログラムは、ROM等に予め組み込んで提供される。もしくは、このプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、CD−R、メモリカード、DVD、フレキシブルディスク(FD)等のコンピュータで読み取り可能な記憶媒体に記憶されて提供するようにしてもよい。 Further, the program executed by the image processing device is provided by incorporating it into a ROM or the like in advance. Alternatively, the program is provided as a file in an installable or executable format stored on a computer-readable storage medium such as a CD-ROM, CD-R, memory card, DVD, or flexible disk (FD). You may try to do it.
また、本実施形態に係る画像処理装置で実行されるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせて提供するようにしてもよい。また、装置は、構成要素の各機能を独立して発揮する別々のモジュールを、ネットワーク又は専用線で相互に接続し、組み合わせて構成することもできる。 Further, the program executed by the image processing device according to the present embodiment may be stored on a computer connected to a network such as the Internet, downloaded via the network, and provided. In addition, the device can also be configured by connecting separate modules that independently exhibit the functions of the components to each other via a network or a dedicated line and combining them.
10(10A,10B,10C)…画像処理装置、11…取得部、12…抽出部、15…指定部、16…演算部、17…位置出力部、18…変換部、19…描画部、20…特定部、21…設定部、22…判定部、25…拡張部、26…決定部、30…フレーム、31…抽出部、31…変位領域、32…関心領域、35…特徴領域、36…動画、37…照合画像、38…基準画像、39…タイル領域、40…参照フレーム、41…取得部、42…仮想生成部、45…保存部、50…X線透視撮像機器、51…患者、52…ベッド、55(55a,55b)…X線発生部、56(56a,56b)…X線受像部、57…画像合成部、R…類似度、m…閾値、P…ピーク。 10 (10A, 10B, 10C) ... Image processing device, 11 ... Acquisition unit, 12 ... Extraction unit, 15 ... Designation unit, 16 ... Calculation unit, 17 ... Position output unit, 18 ... Conversion unit, 19 ... Drawing unit, 20 ... Specific part, 21 ... Setting part, 22 ... Judgment part, 25 ... Expansion part, 26 ... Decision part, 30 ... Frame, 31 ... Extraction part, 31 ... Displacement area, 32 ... Interest area, 35 ... Feature area, 36 ... Video, 37 ... collation image, 38 ... reference image, 39 ... tile area, 40 ... reference frame, 41 ... acquisition unit, 42 ... virtual generation unit, 45 ... storage unit, 50 ... X-ray fluoroscopic imaging device, 51 ... patient, 52 ... Bed, 55 (55a, 55b) ... X-ray generating part, 56 (56a, 56b) ... X-ray receiving part, 57 ... Image compositing part, R ... Similarity, m ... Threshold, P ... Peak.
Claims (11)
各々の前記フレームに含まれる少なくとも一周期分の前記特徴領域を包含する変位領域を特定する特定部と、
各々の前記フレームにおける前記変位領域を照合画像として抽出する抽出部と、
いずれか一つの前記照合画像を基準画像に指定する指定部と、
前記基準画像と前記照合画像との相関性に基づき演算される相対変位に基づいて前記フレームにおける前記特徴領域の位置情報を出力する位置出力部と、を備える画像処理装置。 An acquisition unit that acquires a moving image frame that includes a feature area that can be represented by a closed contour and is displaced periodically.
A specific portion that specifies a displacement region that includes the characteristic region for at least one cycle included in each frame, and a specific portion that specifies the displacement region.
An extraction unit that extracts the displacement region in each of the frames as a collation image,
A designated part that designates any one of the collated images as a reference image, and
An image processing device including a position output unit that outputs position information of the feature region in the frame based on a relative displacement calculated based on the correlation between the reference image and the collation image.
前記特定部は、
前記フレームにタイル領域を設定する設定部と、
動きが前後する前記フレームにおいて、注目する前記タイル領域の相関性に基づき演算される類似度が閾値より小さい前記タイル領域を拡張する拡張部と、
前記拡張したことにより前記類似度が前記閾値を超えた前記タイル領域を前記変位領域に決定する決定部と、を有する画像処理装置。 In the image processing apparatus according to claim 1,
The specific part is
A setting unit that sets the tile area in the frame,
In the frame in which the movement moves back and forth, an extension portion that expands the tile area whose similarity calculated based on the correlation of the tile area of interest is smaller than the threshold value, and
An image processing apparatus having a determination unit that determines the tile region whose similarity exceeds the threshold value as the displacement region due to the expansion.
前記フレームに含まれる複数の前記特徴領域の前記位置情報を関心領域に変換する変換部と、
前記関心領域を前記フレームに描画させる描画部と、を備える画像処理装置。 In the image processing apparatus according to claim 1 or 2.
A conversion unit that converts the position information of a plurality of the feature regions included in the frame into an interest region, and
An image processing device including a drawing unit for drawing the region of interest on the frame.
前記動画よりも高解像撮像された参照動画の参照フレームに描画されている前記関心領域の画像を切り取って、前記参照フレームの前記特徴領域の前記位置情報に関連付けて保存する保存部を備え、
前記描画部は、前記フレームの複数の前記特徴領域の前記位置情報に対応する前記参照フレームの前記関心領域の画像を、前記フレームに重畳して描画させる画像処理装置。 In the image processing apparatus according to claim 3,
A storage unit is provided that cuts out an image of the region of interest drawn in a reference frame of a reference video imaged with a higher resolution than the moving image and saves the image in association with the position information of the feature region of the reference frame.
The drawing unit is an image processing device that superimposes and draws an image of the region of interest of the reference frame corresponding to the position information of the plurality of the feature regions of the frame on the frame.
実際に撮像された前記参照フレームに基づいて、撮像のインターバル期間において仮想される前記参照フレームを生成する仮想生成部を備え、
前記保存部は、仮想した前記参照フレームに描画されている前記関心領域の画像、及び前記特徴領域の前記位置情報も保存する画像処理装置。 In the image processing apparatus according to claim 4,
A virtual generation unit that generates the reference frame that is virtualized during the imaging interval period based on the reference frame that is actually imaged is provided.
The storage unit is an image processing device that stores an image of the region of interest drawn on the virtual reference frame and the position information of the feature region.
前記演算は、位相限定相関法が採用される画像処理装置。 In the image processing apparatus according to any one of claims 1 to 5.
The calculation is an image processing apparatus that employs a phase-limited correlation method.
前記動画は、X線透過、核磁気共鳴、超音波エコー、可視光線反射、赤外線反射のうち少なくとも一つを利用して撮像されたものである画像処理装置。 The image processing apparatus according to any one of claims 1 to 6.
The moving image is an image processing apparatus that is captured by using at least one of X-ray transmission, nuclear magnetic resonance, ultrasonic echo, visible light reflection, and infrared reflection.
前記特徴領域は、前記動画の撮像領域に設置されたマーカー、骨の一部及び横隔膜のいずれかである画像処理装置。 In the image processing apparatus according to any one of claims 1 to 7.
The feature area is an image processing device that is either a marker, a part of a bone, or a diaphragm installed in the image pickup area of the moving image.
前記特徴領域の位置情報と前記関心領域の位置・形状情報との関係を予め学習して記憶しておく記憶部を備え、
前記変換部は、入力した前記特徴領域の前記位置情報を、前記学習により関連付けした前記関心領域に変換する画像処理装置。 In the image processing apparatus according to claim 3,
It is provided with a storage unit that learns and stores the relationship between the position information of the feature area and the position / shape information of the area of interest in advance.
The conversion unit is an image processing device that converts the input position information of the feature area into the area of interest associated with the learning.
各々の前記フレームに含まれる少なくとも一周期分の前記特徴領域を包含する変位領域を特定するステップと、
各々の前記フレームにおける前記変位領域を照合画像として抽出するステップと、
いずれか一つの前記照合画像を基準画像に指定するステップと、
前記基準画像と前記照合画像との相関性に基づき演算される相対変位に基づいて前記フレームにおける前記特徴領域の位置情報を出力するステップと、を含む画像処理方法。 The step of getting a video frame that contains a feature area that can be represented by a closed contour and is displaced periodically,
A step of identifying a displacement region including the characteristic region for at least one cycle included in each frame, and
A step of extracting the displacement region in each of the frames as a collation image, and
A step of designating any one of the collated images as a reference image, and
An image processing method including a step of outputting position information of the feature region in the frame based on a relative displacement calculated based on the correlation between the reference image and the collated image.
閉じた輪郭線で表すことができ周期的に変位する特徴領域が含まれる動画のフレームを取得するステップ、
各々の前記フレームに含まれる少なくとも一周期分の前記特徴領域を包含する変位領域を特定するステップ、
各々の前記フレームにおける前記変位領域を照合画像として抽出するステップ、
いずれか一つの前記照合画像を基準画像に指定するステップ、
前記基準画像と前記照合画像との相関性に基づき演算される相対変位に基づいて前記フレームにおける前記特徴領域の位置情報を出力するステップ、を実行させる画像処理プログラム。 To the computer.
A step to get a frame of a video that contains a feature area that can be represented by a closed contour and is displaced periodically,
A step of identifying a displacement region including the characteristic region for at least one cycle included in each of the frames.
A step of extracting the displacement region in each of the frames as a collation image,
A step of designating any one of the collated images as a reference image,
An image processing program that executes a step of outputting position information of the feature region in the frame based on a relative displacement calculated based on the correlation between the reference image and the collated image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172020A JP7366665B2 (en) | 2019-09-20 | 2019-09-20 | Image processing device, method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019172020A JP7366665B2 (en) | 2019-09-20 | 2019-09-20 | Image processing device, method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021048913A true JP2021048913A (en) | 2021-04-01 |
JP7366665B2 JP7366665B2 (en) | 2023-10-23 |
Family
ID=75156181
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019172020A Active JP7366665B2 (en) | 2019-09-20 | 2019-09-20 | Image processing device, method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7366665B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004112027A (en) | 2002-09-13 | 2004-04-08 | Mitsubishi Electric Corp | Image collating unit |
JP2016116659A (en) | 2014-12-19 | 2016-06-30 | 株式会社東芝 | Medical image processing device, treatment system, medical image processing method, and medical image processing program |
-
2019
- 2019-09-20 JP JP2019172020A patent/JP7366665B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7366665B2 (en) | 2023-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102070714B1 (en) | Object positioning apparatus, object positioning method, object positioning program, and radiation therapy system | |
JP6467654B2 (en) | Medical image processing apparatus, method, program, and radiotherapy apparatus | |
JP4842820B2 (en) | Apparatus and method for processing X-ray images | |
EP1664996B1 (en) | Systems for gating medical procedures | |
JP5296315B2 (en) | Apparatus and method for tracking a moving object and monitoring its position | |
JP4647360B2 (en) | DIFFERENTIAL IMAGE CREATION DEVICE, DIFFERENTIAL IMAGE CREATION METHOD, AND PROGRAM THEREOF | |
JP6442243B2 (en) | Method and apparatus for artifact reduction in computer tomography image reconstruction | |
JP2010246883A (en) | Patient positioning system | |
JP2017144000A (en) | Medical image processing apparatus, method, and program, and radiotherapeutic apparatus | |
US11410317B2 (en) | Frameless anatomy-based 2D/3D image registration | |
US20230097849A1 (en) | Creation method of trained model, image generation method, and image processing device | |
JP5495886B2 (en) | Patient positioning system | |
KR102106535B1 (en) | Method, apparatus and system for generating model representing deformation of shape and location of organ in respiration cycle | |
KR101909125B1 (en) | Method for computer-aided diagnosis and computer-aided diagnosis apparatus thereof | |
JP6829437B2 (en) | In vivo motion tracking device | |
JP7366665B2 (en) | Image processing device, method and program | |
JP2021041090A (en) | Medical image processing device, x-ray image processing system and generation method of learning model | |
JP7292721B2 (en) | Target contour estimator and therapy device | |
WO2024070093A1 (en) | Irradiation position verification assisting device, irradiation position verification assisting method, and irradiation position verification assisting program | |
WO2019202841A1 (en) | Radiographic image processing device, radiographic image processing method, and program | |
JP2021019931A (en) | Image processing device, method, and program | |
Siddique | Active Imag Guidance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191008 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191120 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220830 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230825 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231011 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7366665 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |