JP2014161658A - Medical image processing program, medical image processing method, and medical image processing device - Google Patents

Medical image processing program, medical image processing method, and medical image processing device Download PDF

Info

Publication number
JP2014161658A
JP2014161658A JP2013037857A JP2013037857A JP2014161658A JP 2014161658 A JP2014161658 A JP 2014161658A JP 2013037857 A JP2013037857 A JP 2013037857A JP 2013037857 A JP2013037857 A JP 2013037857A JP 2014161658 A JP2014161658 A JP 2014161658A
Authority
JP
Japan
Prior art keywords
image
medical image
medical
filter function
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013037857A
Other languages
Japanese (ja)
Other versions
JP6035167B2 (en
Inventor
Hiroshi Takeda
寛 竹田
Toshitaka Maeda
壽登 前田
Hantai Yamaki
範泰 山木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Medi Physics Co Ltd
Mie University NUC
Original Assignee
Nihon Medi Physics Co Ltd
Mie University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Medi Physics Co Ltd, Mie University NUC filed Critical Nihon Medi Physics Co Ltd
Priority to JP2013037857A priority Critical patent/JP6035167B2/en
Publication of JP2014161658A publication Critical patent/JP2014161658A/en
Application granted granted Critical
Publication of JP6035167B2 publication Critical patent/JP6035167B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Magnetic Resonance Imaging Apparatus (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Nuclear Medicine (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a motion artifact, which is attributable to a respiratory movement, in a medical image at a practical level without introduction of special equipment for acquiring a respiratory time phase.SOLUTION: A medical image processing device 100 includes an image input unit 10, an area identification unit 20, a change rate calculation unit 30, a filter production unit 40, and a sharpening processing unit 50. The area identification unit 20 identifies a contact area between the diaphragm and liver in a medical image IM that shows the chest of a human body and is inputted at the image input unit 10. The change rate calculation unit 30 calculates a change rate in a cephalocaudal direction of a pixel intensity in the medical image IM in relation to the identified contact area. The filter production unit 40 produces a filter function for the medical image IM on the basis of the calculated change rate. The sharpening processing unit 50 uses the produced filter function to perform deconvolution processing on the medical image IM.

Description

本発明は、医用画像処理プログラム、医用画像処理方法および医用画像処理装置に関する。   The present invention relates to a medical image processing program, a medical image processing method, and a medical image processing apparatus.

医用画像には、大別して、解剖学的情報を画像化した形態画像と、生理学的情報を画像化した機能画像とが存在する。形態画像としては、コンピュータ断層撮影(CT)画像や磁気共鳴(MR)画像が知られている。機能画像の一態様である核医学画像としては、陽電子放出型断層撮像(PET)画像や単光子放出型断層撮像(SPECT)画像が知られている。近年、形態画像と核医学画像、たとえばPET画像とCT画像を融合することで、解剖学的情報および生理学的情報を考慮した高精度の診断を行うことが提案されている。   Medical images are roughly classified into morphological images obtained by imaging anatomical information and functional images obtained by imaging physiological information. Known morphological images include computed tomography (CT) images and magnetic resonance (MR) images. As a nuclear medicine image which is one mode of a functional image, a positron emission tomography (PET) image and a single photon emission tomography (SPECT) image are known. In recent years, it has been proposed to perform highly accurate diagnosis in consideration of anatomical information and physiological information by fusing morphological images and nuclear medicine images, for example, PET images and CT images.

腹胸部領域の医用画像を撮像する場合、呼吸などの体動の影響(モーションアーチファクト)により画像にブレが生じることが問題となる。一例としてPETの場合、画像の撮像のために十分な陽電子のカウント数を得るためには2分程度の時間を要するため、その間に被験者が呼吸を停止しておくことは難しい。このため、撮像される医用画像には呼吸運動によるブレが含まれることとなる。   When a medical image of the abdominal chest region is captured, there is a problem that the image is blurred due to the influence (motion artifact) of body motion such as breathing. As an example, in the case of PET, it takes about 2 minutes to obtain a sufficient positron count for imaging, and it is difficult for the subject to stop breathing during that time. For this reason, the medical image to be captured includes blur due to respiratory motion.

非特許文献1には、PET画像とCT画像とを融合して腫瘍の位置を同定することが放射線治療に有効であることが記載されている。非特許文献1には、体表面に取り付けた赤外線マーカーから呼吸周期の位相を取得しつつ撮像を行うことで、PET画像から呼吸性移動による誤差要因を除去することが記載されている。
非特許文献2には、呼吸運動の大きい下肺野に関してはPET画像に含まれるブレが大きく、CT画像と融合することが困難であることが記載されている。非特許文献2には、この問題を解決するため、呼吸停止下でPET画像を撮像する手法のほか、呼吸同期下でPET画像とCT画像を取得し、全呼吸時相のデータを照合してPETとCTの時相の一致したデータのみを抽出する手法などが記載されている。非特許文献2には、被験者に過度の負担を与えることなくPET画像のモーションアーチファクトを実用的に十分に低減するには改善の余地があることが記載されている。
Non-Patent Document 1 describes that it is effective for radiotherapy to identify the position of a tumor by fusing a PET image and a CT image. Non-Patent Document 1 describes that an error factor due to respiratory movement is removed from a PET image by performing imaging while acquiring the phase of a respiratory cycle from an infrared marker attached to the body surface.
Non-Patent Document 2 describes that the lower lung field having a large respiratory motion has a large blur included in the PET image and is difficult to fuse with the CT image. In order to solve this problem, Non-Patent Document 2 obtains a PET image and a CT image under respiration synchronization in addition to a method of capturing a PET image while stopping breathing, and collates the data of all respiratory time phases. A method for extracting only data in which the time phases of PET and CT coincide is described. Non-Patent Document 2 describes that there is room for improvement in order to practically sufficiently reduce the motion artifacts of PET images without imposing an excessive burden on the subject.

特許文献1および2には、心臓を撮像する磁気共鳴(MR)映像装置において、呼吸動に起因するモーションアーチファクトを低減することが記載されている。具体的には、被験者の体表にプローブを装着して呼吸動による横隔膜の変位を検出し、検出された移動量に基づいて心臓のスキャン位置を補正している。   Patent Documents 1 and 2 describe reducing motion artifacts caused by respiratory motion in a magnetic resonance (MR) imaging apparatus that images the heart. Specifically, the probe is attached to the body surface of the subject, the displacement of the diaphragm due to respiratory motion is detected, and the scan position of the heart is corrected based on the detected movement amount.

特開2011−147560号公報JP 2011-147560 A 特開2011−147561号公報JP 2011-147561 A

「PET/CTシミュレータによる治療計画 呼吸制御の現状」、立石宇貴秀著、臨床放射線、金原出版株式会社、Vol.57 No.4、P.496−P.501、2012年4月"Therapeutic plan with PET / CT simulator, present state of respiratory control", Ukihide Tateishi, Clinical Radiation, Kanehara Publishing Co., Ltd., Vol. 57 No. 4, P.I. 496-P. 501, April 2012 「肺癌診断におけるPET−CTの有用性と限界」、野上宗伸著、画像診断、株式会社学研メディカル秀潤社、Vol.31 No.10、P.1046−P.1054、2011年9月“Usefulness and limitations of PET-CT in lung cancer diagnosis”, written by Munenobu Nogami, diagnostic imaging, Gakken Medical Shujunsha, Vol. 31 No. 10, P.I. 1046-P. 1054, September 2011

しかしながら、特許文献1、2および非特許文献1の技術は、呼吸時相を取得するためのプローブや赤外線マーカー等の特別な機器を導入する必要があるため汎用性に欠ける。また、医用画像に呼吸時相を対応づけて撮像する技術であるため、呼吸時相を取得することなく過去に通常の方法で撮像されて蓄積されている医用画像に対して適用することはできない。そして、非特許文献2に記載されているように、医用画像において呼吸動に起因するモーションアーチファクトを十分に低減することはまだ実現されていない。   However, the techniques of Patent Documents 1 and 2 and Non-Patent Document 1 lack general versatility because it is necessary to introduce special equipment such as a probe and an infrared marker for acquiring a respiratory time phase. In addition, since it is a technique for imaging a medical image by associating a respiratory time phase, it cannot be applied to a medical image that has been captured and accumulated in the past by a normal method without acquiring the respiratory time phase. . As described in Non-Patent Document 2, it has not yet been realized to sufficiently reduce motion artifacts caused by respiratory motion in medical images.

本発明は上述のような課題に鑑みてなされたものであり、呼吸時相を取得するための特別な機器を導入することなく医用画像から呼吸動に起因するモーションアーチファクトを実用的なレベルで低減することができる技術を提供するものである。   The present invention has been made in view of the above-described problems, and reduces motion artifacts caused by respiratory motion from a medical image at a practical level without introducing a special device for acquiring a respiratory time phase. The technology which can be done is provided.

本発明によれば、人体の胸部を含む医用画像をコンピュータに画像処理させるためのプログラムであって、前記医用画像から横隔膜と肝臓との接触領域に関する画素強度の頭尾方向の変化率に基づいてフィルタ関数を生成するステップと、生成された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行うステップと、を含む医用画像処理プログラムが提供される。   According to the present invention, there is provided a program for causing a computer to process a medical image including a chest of a human body, based on the rate of change in the head-to-tail direction of the pixel intensity related to the contact area between the diaphragm and the liver from the medical image. A medical image processing program including a step of generating a filter function and a step of performing a deconvolution process on the medical image using the generated filter function is provided.

また、本発明によれば、人体の胸部を含む医用画像から横隔膜と肝臓との接触領域に関する画素強度の頭尾方向の変化率に基づいてフィルタ関数を算出する工程と、算出された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行う工程と、を含む医用画像処理方法が提供される。   Further, according to the present invention, a step of calculating a filter function from a medical image including a chest of a human body based on a rate of change in the head-to-tail direction of pixel intensity related to a contact area between the diaphragm and the liver, and the calculated filter function And performing a deconvolution process on the medical image using a medical image processing method.

また、本発明によれば、人体の胸部を含む医用画像を画像処理する装置であって、前記医用画像を入力する画像入力手段と、入力された前記医用画像における横隔膜と肝臓との接触領域を特定する領域特定手段と、特定された前記接触領域に関する前記医用画像の画素強度の頭尾方向の変化率を算出する変化率算出手段と、算出された前記変化率に基づいて前記医用画像のフィルタ関数を生成するフィルタ生成手段と、生成された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行う鮮鋭化処理部と、を含む医用画像処理装置が提供される。   Further, according to the present invention, there is provided an apparatus for image processing of a medical image including a chest of a human body, the image input means for inputting the medical image, and a contact area between the diaphragm and the liver in the input medical image. Area specifying means for specifying, change rate calculating means for calculating a rate of change of the pixel intensity of the medical image relating to the specified contact area in a head-to-tail direction, and a filter for the medical image based on the calculated change rate There is provided a medical image processing apparatus including a filter generation unit that generates a function, and a sharpening processing unit that performs a deconvolution process on the medical image using the generated filter function.

本発明によれば、撮像された医用画像からフィルタ関数を生成してデコンボリューション(逆畳み込み)処理を行う。このため、呼吸時相を取得するための特別な機器を導入することなく、自由呼吸下で撮像された医用画像から呼吸動に起因するモーションアーチファクトを実用的なレベルで低減することが可能である。   According to the present invention, a filter function is generated from a captured medical image and a deconvolution (deconvolution) process is performed. For this reason, it is possible to reduce motion artifacts caused by respiratory motion from a medical image captured under free breathing at a practical level without introducing a special device for acquiring a respiratory time phase. .

本発明の実施形態にかかる医用画像処理装置のブロック図である。1 is a block diagram of a medical image processing apparatus according to an embodiment of the present invention. 被験者のPET画像の一例を示す図である。It is a figure which shows an example of a test subject's PET image. 図3(a)はPET画像の放射線計測のカウント値を示すプロファイルカーブの例を示すグラフである。図3(b)は図3(a)の一次微分カーブを示すグラフである。FIG. 3A is a graph showing an example of a profile curve indicating a count value of radiation measurement of a PET image. FIG. 3B is a graph showing the first derivative curve of FIG. 図4(a)はモーションアーチファクトが存在するPET画像の放射線計測のカウント値を示すプロファイルカーブの例を示すグラフである。図4(b)は、図4(a)の一次微分カーブを示すグラフである。FIG. 4A is a graph showing an example of a profile curve indicating a count value of radiation measurement of a PET image in which a motion artifact exists. FIG. 4B is a graph showing the first derivative curve of FIG. 本発明の実施形態にかかる医用画像処理方法のフローチャートである。It is a flowchart of the medical image processing method concerning embodiment of this invention. 図6(a)はPET装置で撮像された体軸断面画像の一例である。図6(b)は生成された冠状断面画像を示す図である。FIG. 6A is an example of a body axis cross-sectional image captured by a PET apparatus. FIG. 6B shows the generated coronal cross-sectional image. 実施例に用いたモデル画像である。It is the model image used for the Example. 図8(a)は摸擬対象画像である。図8(b)は摸擬鮮鋭画像である。FIG. 8A shows a simulation target image. FIG. 8B is a quasi-sharp image.

以下、本発明の実施形態を図面に基づいて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、重複する説明は適宜省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same constituent elements are denoted by the same reference numerals, and redundant description is omitted as appropriate.

本実施形態の医用画像処理装置100は、コンピュータプログラムを読み取って対応する処理動作を実行できるように、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、インタフェースユニット等の汎用デバイスで構築されたハードウェア、もしくは所定の処理動作を実行するように構築された専用の論理回路、またはこれらの組み合わせ、等として実施することができる。医用画像処理装置100の各構成要素は、所定の機能を発揮する専用のハードウェア、所定の機能がコンピュータプログラムにより付与された情報処理装置、もしくはコンピュータプログラムにより情報処理装置に実現された所定の機能、またはこれらの任意の組み合わせ、等として実現することができる。そして、医用画像処理装置100の各構成要素は、個々に独立した存在である必要はなく、一つの構成要素が他の構成要素の一部であること、ある構成要素の一部と他の構成要素の一部とが重複していること、等を許容する。   The medical image processing apparatus 100 according to the present embodiment can read a computer program and execute a corresponding processing operation, such as a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), an interface unit, and the like. It can be implemented as hardware constructed with general-purpose devices, dedicated logic circuits constructed so as to execute predetermined processing operations, or combinations thereof. Each component of the medical image processing apparatus 100 includes dedicated hardware for performing a predetermined function, an information processing apparatus to which the predetermined function is given by a computer program, or a predetermined function realized in the information processing apparatus by the computer program , Or any combination thereof, etc. Each component of the medical image processing apparatus 100 does not have to be individually independent, but one component is a part of another component, a part of one component and another component Allow that some of the elements overlap.

また、本実施形態の医用画像処理プログラムおよび医用画像処理方法を説明するにあたり、順番に記載された複数の処理ステップや工程を用いて説明する場合があるが、その記載の順番は複数の処理ステップや工程を実行する順番やタイミングを必ずしも限定するものではない。このため、本実施形態の医用画像処理プログラムおよび医用画像処理方法を実施するにあたっては、その複数の処理ステップや工程の順番を、内容的に支障のない範囲で変更することができ、また複数の処理ステップや工程の実行タイミングの一部または全部が互いに重複していてもよい。   Further, in describing the medical image processing program and the medical image processing method of the present embodiment, there may be a case where a plurality of processing steps or processes described in order are used, and the description order is a plurality of processing steps. The order and timing of executing the steps are not necessarily limited. For this reason, in carrying out the medical image processing program and the medical image processing method of the present embodiment, it is possible to change the order of the plurality of processing steps and processes within a range that does not hinder the contents, Some or all of the execution timings of the processing steps and processes may overlap each other.

(医用画像処理装置)
図1は、本発明の実施形態の医用画像処理装置100のブロック図である。
はじめに、本実施形態の医用画像処理装置100の概要を説明する。
(Medical image processing device)
FIG. 1 is a block diagram of a medical image processing apparatus 100 according to an embodiment of the present invention.
First, an outline of the medical image processing apparatus 100 of this embodiment will be described.

医用画像処理装置100は、人体の胸部を含む医用画像IMを画像処理する装置である。
医用画像処理装置100は、画像入力部10、領域特定部20、変化率算出部30、フィルタ生成部40および鮮鋭化処理部50を含む。
画像入力部10は、医用画像IMを入力する手段である。領域特定部20は、入力された医用画像IMにおける横隔膜と肝臓との接触領域を特定する手段である。変化率算出部30は、特定された接触領域に関する医用画像IMの画素強度の頭尾方向の変化率を算出する手段である。フィルタ生成部40は、算出された変化率に基づいて医用画像IMのフィルタ関数を生成する手段である。鮮鋭化処理部50は、生成されたフィルタ関数を用いて医用画像IMにデコンボリューション処理を行う手段である。
The medical image processing apparatus 100 is an apparatus that performs image processing on a medical image IM including a chest of a human body.
The medical image processing apparatus 100 includes an image input unit 10, a region specifying unit 20, a change rate calculation unit 30, a filter generation unit 40, and a sharpening processing unit 50.
The image input unit 10 is a means for inputting a medical image IM. The area specifying unit 20 is a means for specifying the contact area between the diaphragm and the liver in the input medical image IM. The change rate calculation unit 30 is a unit that calculates the change rate in the head-to-tail direction of the pixel intensity of the medical image IM related to the specified contact area. The filter generation unit 40 is a unit that generates a filter function of the medical image IM based on the calculated change rate. The sharpening processing unit 50 is means for performing a deconvolution process on the medical image IM using the generated filter function.

以下、医用画像処理装置100について詳細に説明する。
医用画像処理装置100は、二次元画像または三次元画像である医用画像IMをデコンボリューション処理により鮮鋭化する装置である。医用画像IMは、任意の被験者の胸部を撮像対象として含む画像である。医用画像IMは、腹部や頭部を撮像対象として含んでもよい。
Hereinafter, the medical image processing apparatus 100 will be described in detail.
The medical image processing apparatus 100 is an apparatus that sharpens a medical image IM that is a two-dimensional image or a three-dimensional image by a deconvolution process. The medical image IM is an image including the chest of an arbitrary subject as an imaging target. The medical image IM may include the abdomen and head as imaging targets.

医用画像処理装置100は、ディスプレイ装置200や入力デバイス210と接続して使用される。入力デバイス210としてはマウスやキーボードを例示することができる。   The medical image processing apparatus 100 is used by being connected to the display apparatus 200 and the input device 210. Examples of the input device 210 include a mouse and a keyboard.

医用画像IMとしては、PET画像やSPECT画像などの核医学画像を例示することができる。このほか、MR画像などの形態画像を用いてもよい。医用画像IMは、PET装置やSPECT装置、MR装置などの専用の撮像装置(図示せず)により取得される。   Examples of the medical image IM include nuclear medicine images such as PET images and SPECT images. In addition, morphological images such as MR images may be used. The medical image IM is acquired by a dedicated imaging device (not shown) such as a PET device, a SPECT device, or an MR device.

画像入力部10は、これらの撮像装置で取得された医用画像IMを医用画像処理装置100に取り込むためのインタフェースである。取り込まれた医用画像IMは記憶部90に蓄積される。記憶部90は医用画像IMを含む各種のデータを記憶する手段である。なお、記憶部90がデータを記憶するとは、記憶部90がデータを記憶する機能を有することを意味しており、医用画像処理装置100の流通時や使用開始前などに関しては医用画像IMなどのデータが記憶部90に格納されていることを必ずしも要しない。   The image input unit 10 is an interface for taking the medical image IM acquired by these imaging apparatuses into the medical image processing apparatus 100. The captured medical image IM is accumulated in the storage unit 90. The storage unit 90 is means for storing various data including the medical image IM. Note that the storage unit 90 stores data means that the storage unit 90 has a function of storing data, and the medical image processing apparatus 100 is in a medical image IM or the like when it is distributed or before the start of use. It is not always necessary that the data is stored in the storage unit 90.

本実施形態の医用画像処理装置100による医用画像処理方法の実施にあたり、記憶部90には、多数の被験者に関して、複数の二次元画像、または三次元画像が、医用画像IMとしてそれぞれ記憶されている。本実施形態では、被験者の腹胸部の二次元断層画像が医用画像IMとして記憶されている。医用画像IMとしては、撮像装置で取得されて画像入力部10に入力された画像(以下、取得画像という場合がある)および鮮鋭化処理部50によりデコンボリューション処理が施された画像(以下、鮮鋭画像という場合がある)が挙げられる。ここでは、取得画像として、被験者の複数の体軸断面(axial section)画像が、頭尾方向の撮像位置を示す撮像位置情報と対応づけて記憶部90に記憶されているものとする。   When the medical image processing method is performed by the medical image processing apparatus 100 according to the present embodiment, the storage unit 90 stores a plurality of two-dimensional images or three-dimensional images as medical images IM for a large number of subjects. . In the present embodiment, a two-dimensional tomographic image of the subject's abdominal chest is stored as a medical image IM. As the medical image IM, an image acquired by the imaging device and input to the image input unit 10 (hereinafter, also referred to as an acquired image) and an image that has been subjected to deconvolution processing by the sharpening processing unit 50 (hereinafter, sharp) May be referred to as an image). Here, it is assumed that a plurality of axial section images of a subject are stored in the storage unit 90 in association with imaging position information indicating imaging positions in the head-to-tail direction as acquired images.

画像出力部80は、医用画像IMをディスプレイ装置200に表示させる手段である。表示される医用画像IMとしては、上記の取得画像や鮮鋭画像のほか、後述する再構成部60で再構成された三次元画像や、断層画像生成部70により生成された画像(以下、対象画像という場合がある)をディスプレイ装置200に表示させてもよい。   The image output unit 80 is means for causing the display device 200 to display the medical image IM. As the medical image IM to be displayed, in addition to the acquired image and the sharp image described above, a three-dimensional image reconstructed by the reconstructing unit 60 described later, an image generated by the tomographic image generating unit 70 (hereinafter referred to as a target image) May be displayed on the display device 200.

演算処理部110は、医用画像IMに各種の演算処理を行う手段である。演算処理部110は医用画像処理装置100のCPUにより実現される。本実施形態の演算処理部110は、領域特定部20、変化率算出部30、フィルタ生成部40、鮮鋭化処理部50、再構成部60および断層画像生成部70を含む。   The arithmetic processing unit 110 is means for performing various arithmetic processes on the medical image IM. The arithmetic processing unit 110 is realized by the CPU of the medical image processing apparatus 100. The arithmetic processing unit 110 according to the present embodiment includes a region specifying unit 20, a change rate calculating unit 30, a filter generating unit 40, a sharpening processing unit 50, a reconstruction unit 60, and a tomographic image generating unit 70.

再構成部60は、記憶部90を参照し、断層画像(体軸断面画像)である取得画像を撮像位置情報に基づいて頭尾方向に結合して被験者の三次元画像を構成(再構成)する。再構成部60は、公知の手法により複数の取得画像を前後左右方向に位置合わせしたうえで、頭尾方向に補間して三次元画像を再構成する。   The reconstruction unit 60 refers to the storage unit 90, and composes (reconstructs) a three-dimensional image of the subject by combining the acquired images, which are tomographic images (body axis cross-sectional images), in the head-to-tail direction based on the imaging position information. To do. The reconstruction unit 60 aligns a plurality of acquired images in the front-rear and left-right directions by a known method, and then interpolates in the head-to-tail direction to reconstruct a three-dimensional image.

図2は被験者SのPET画像の一例を示す図である。図2は、[18F]2−フルオロ−2−デオキシ−D−グルコースを薬剤として用いたFDG−PET画像である。冠状断面(coronal section)画像CSは、撮像位置を前後方向(Y方向)にずらしながら被験者SをZX平面に平行に切った断面の画像である。矢状断面(sagittal section)画像SSは、撮像位置を左右方向(X方向)にずらしながら被験者SをYZ平面に平行に切った断面の画像である。体軸断面画像ASは、撮像位置を頭尾方向(Z方向)にずらしながら被験者SをXY平面に平行に切った断面の画像である。冠状断面画像CS、矢状断面画像SSおよび体軸断面画像ASの撮像位置の例を図2にそれぞれ一点鎖線で示す。 FIG. 2 is a diagram illustrating an example of a PET image of the subject S. FIG. 2 is an FDG-PET image using [ 18 F] 2-fluoro-2-deoxy-D-glucose as a drug. The coronal section image CS is an image of a cross section obtained by cutting the subject S parallel to the ZX plane while shifting the imaging position in the front-rear direction (Y direction). The sagittal section image SS is an image of a cross section obtained by cutting the subject S parallel to the YZ plane while shifting the imaging position in the left-right direction (X direction). The body axis cross-sectional image AS is a cross-sectional image obtained by cutting the subject S in parallel with the XY plane while shifting the imaging position in the head-to-tail direction (Z direction). Examples of imaging positions of the coronal slice image CS, the sagittal slice image SS, and the body axis slice image AS are shown by dashed lines in FIG.

接触領域300は医用画像IM(対象画像)において肝臓と横隔膜とが接している曲面領域である。一般に肝臓は右葉前上区域が最も高く突出して横隔膜と密着している。すなわち、肝臓を頭尾方向に切った断層画像である対象画像には、呼吸動により主として頭尾方向に発生する肝臓および横隔膜の体動が画像情報として含まれることとなる。   The contact area 300 is a curved area where the liver and the diaphragm are in contact with each other in the medical image IM (target image). In general, the liver is in close contact with the diaphragm, with the upper right lobe protruding the highest. That is, the target image, which is a tomographic image obtained by cutting the liver in the head-to-tail direction, includes body movements of the liver and the diaphragm that are generated mainly in the head-to-tail direction due to respiratory motion as image information.

領域特定部20は、対象画像に撮像対象として含まれる横隔膜と肝臓との接触領域300を特定する。かかる接触領域300の特定方法は特に限定されない。本実施形態では、医用画像IM(対象画像)をディスプレイ装置200に表示した状態で、医師等のユーザがこの医用画像IMを目視しながら入力デバイス210を操作して、横隔膜と肝臓とが良好に密着していると視認される接触領域300を特定する(図1参照)。接触領域300としては、肝臓の上面を特定してもよく、または横隔膜の下面を特定してもよい。   The area specifying unit 20 specifies a contact area 300 between the diaphragm and the liver included in the target image as an imaging target. The method for specifying the contact area 300 is not particularly limited. In the present embodiment, in a state where the medical image IM (target image) is displayed on the display device 200, a user such as a doctor operates the input device 210 while viewing the medical image IM so that the diaphragm and the liver are excellent. The contact area 300 visually recognized as being in close contact is specified (see FIG. 1). As the contact region 300, the upper surface of the liver may be specified, or the lower surface of the diaphragm may be specified.

図2に示すようなFDG−PET画像の場合、糖代謝が活発な脳や肝臓、および尿排出される糖が蓄積される腎臓や膀胱から主として放出される陽電子が画像化される。領域特定部20は、このため、FDG−PET画像のうち肝臓の画素強度(画素値)は高くなり、肺や横隔膜の画素強度は低くなる。したがって、医用画像IMがFDG−PET画像の場合は、接触領域300として肝臓の上面を特定することが好適である。このほか、領域特定部20は、取得画像または対象画像の画素強度に基づいて横隔膜と肝臓との接触領域300を算出してもよい。具体的には、取得画像(本実施形態では体軸断面画像AS)または対象画像(本実施形態では冠状断面画像CSまたは矢状断面画像SS)から画素強度に基づいて肝臓の撮像領域を特定したうえ、肝臓が最も高く突出している右葉前上区域のXY座標位置を接触領域300として算出することができる。   In the case of an FDG-PET image as shown in FIG. 2, positrons mainly emitted from the brain and liver where sugar metabolism is active, and from the kidney and bladder where sugar excreted in urine is accumulated are imaged. For this reason, the region specifying unit 20 increases the pixel intensity (pixel value) of the liver in the FDG-PET image and decreases the pixel intensity of the lung and the diaphragm. Therefore, when the medical image IM is an FDG-PET image, it is preferable to specify the upper surface of the liver as the contact region 300. In addition, the region specifying unit 20 may calculate the contact region 300 between the diaphragm and the liver based on the pixel intensity of the acquired image or the target image. Specifically, the imaging region of the liver is identified based on the pixel intensity from the acquired image (body axis cross-sectional image AS in the present embodiment) or target image (coronal cross-sectional image CS or sagittal cross-sectional image SS in the present embodiment). In addition, the XY coordinate position of the upper right front area where the liver protrudes highest can be calculated as the contact area 300.

接触領域300のうち、肝臓の右葉前上区域の頂部を通り頭尾方向(Z方向)に延在する計測ライン310を図2に示す。断層画像生成部70は、再構成部60により再構成された被験者Sの三次元画像から、領域特定部20で特定された接触領域300のいずれかの位置を通る頭尾方向の断面画像を対象画像として生成する(図1参照)。具体的には断層画像生成部70は計測ライン310を含む冠状断面画像CSまたは矢状断面画像SSを対象画像として生成する。   FIG. 2 shows a measurement line 310 that extends in the head-to-tail direction (Z direction) through the top of the upper right frontal area of the liver in the contact region 300. The tomographic image generation unit 70 targets a cross-sectional image in the head-to-tail direction passing through any position of the contact region 300 specified by the region specifying unit 20 from the three-dimensional image of the subject S reconstructed by the reconstruction unit 60. Generated as an image (see FIG. 1). Specifically, the tomographic image generation unit 70 generates a coronal slice image CS or a sagittal slice image SS including the measurement line 310 as a target image.

すなわち、本実施形態の医用画像処理装置100は、医用画像IM(対象画像)と異なる撮像方向から撮像された体軸断面画像ASである複数の断層画像(取得画像)に基づいて胸部の三次元画像を構成する再構成部60と、構成された三次元画像から医用画像IM(対象画像)として冠状断面画像または矢状断面画像を作成する断層画像生成部70とを備えている。   That is, the medical image processing apparatus 100 according to the present embodiment performs three-dimensional chest imaging based on a plurality of tomographic images (acquired images) that are body axis cross-sectional images AS captured from a different imaging direction from the medical image IM (target image). A reconstruction unit 60 that configures an image, and a tomographic image generation unit 70 that generates a coronal slice image or a sagittal slice image as a medical image IM (target image) from the configured three-dimensional image are provided.

図1に示す変化率算出部30は、医用画像IM(対象画像)の接触領域300に関する画素強度の頭尾方向の変化率を算出する。変化率算出部30は、断層画像生成部70が生成した対象画像における画素強度(画素値)の一次元または二次元プロファイルの差分処理により、この変化率を算出する。簡単のため、計測ライン310に関する対象画像の一次元プロファイルを用いて変化率算出部30の処理を具体的に説明する。   The change rate calculation unit 30 illustrated in FIG. 1 calculates the change rate in the head-to-tail direction of the pixel intensity related to the contact area 300 of the medical image IM (target image). The change rate calculation unit 30 calculates the change rate by the difference processing of the one-dimensional or two-dimensional profile of the pixel intensity (pixel value) in the target image generated by the tomographic image generation unit 70. For simplicity, the processing of the change rate calculation unit 30 will be specifically described using a one-dimensional profile of the target image regarding the measurement line 310.

図3(a)は、計測ライン310に関するPET画像の放射線計測のカウント値を示すプロファイルカーブの例を示すグラフである。同図は、モーションアーチファクトが存在しない場合の理想的なプロファイルカーブを示している。ここでは、ベータ線飛程や検出器に起因するボケは無視する。図3(a)における左方は、図2の+Z方向、すなわち頭側にあたる。同図の右方は、図2の−Z方向、すなわち足側にあたる。図3(b)は、図3(a)の一次微分カーブを示すグラフである。
モーションアーチファクトが存在しない場合、図3(a)に示すように頭尾方向の所定の位置(Z=14〜15)でカウント値は急峻に立ち上がる。この立ち上がり位置が計測ライン310における肝臓の上縁にあたり、その左方は横隔膜や肺にあたる。そしてカウント値のプロファイルカーブの一次微分カーブはインパルスとなる。これは、肺や横隔膜では糖代謝が実質的に無視できる程度に低く、計測ライン310が肝臓を横切った瞬間にカウント値が計測されるためである。
FIG. 3A is a graph showing an example of a profile curve indicating the radiation measurement count value of the PET image with respect to the measurement line 310. This figure shows an ideal profile curve when there is no motion artifact. Here, the blur caused by the beta ray range and the detector is ignored. The left side in FIG. 3A corresponds to the + Z direction in FIG. 2, that is, the head side. The right side of the figure corresponds to the −Z direction of FIG. 2, that is, the foot side. FIG. 3B is a graph showing the first derivative curve of FIG.
When there is no motion artifact, the count value rises steeply at a predetermined position (Z = 14 to 15) in the head-to-tail direction as shown in FIG. This rising position corresponds to the upper edge of the liver in the measurement line 310, and the left side corresponds to the diaphragm or lung. The first derivative curve of the profile curve of the count value becomes an impulse. This is because the glucose metabolism is so low as to be substantially negligible in the lung and the diaphragm, and the count value is measured at the moment when the measurement line 310 crosses the liver.

図4(a)はモーションアーチファクトが存在するPET画像における、計測ライン310に関する放射線計測のカウント値を示すプロファイルカーブの例を示すグラフである。図4(b)は、図4(a)の一次微分カーブを示すグラフである。図4(a)、(b)における左方は図2の+Z方向にあたり、右方は−Z方向にあたる。
PET画像の取得には一般に数分間の撮像時間を要するため、自由呼吸下で撮像したPET画像においては肝臓の上縁はモーションアーチファクトにより非鮮鋭となる。図4(b)に両側矢印で示した範囲がカウント値の変動領域であり、すなわち横隔膜と肝臓との接触領域300が呼吸動により頭尾方向に揺動する範囲である。また、この一次微分カーブが尖鋭でピーク値が大きいほど、図3(b)に示すインパルスに近くモーションアーチファクトの影響が小さいといえる。逆に、図4(b)に示す一次微分カーブが鈍形でピーク値が小さいほど、モーションアーチファクトの影響が大きく接触領域300は非鮮鋭であるといえる。したがって、この一次微分カーブの形状から、対象画像における胸部の動き関数を求めることができる。
FIG. 4A is a graph showing an example of a profile curve indicating a count value of radiation measurement related to the measurement line 310 in a PET image in which motion artifact exists. FIG. 4B is a graph showing the first derivative curve of FIG. 4A and 4B, the left side corresponds to the + Z direction in FIG. 2, and the right side corresponds to the −Z direction.
Since acquisition of a PET image generally requires an imaging time of several minutes, the upper edge of the liver becomes unsharp due to motion artifacts in a PET image captured under free breathing. The range indicated by the double-sided arrow in FIG. 4B is the count value fluctuation region, that is, the range in which the contact region 300 between the diaphragm and the liver swings in the head-to-tail direction due to respiratory motion. Further, it can be said that the sharper the first derivative curve and the larger the peak value, the closer to the impulse shown in FIG. Conversely, it can be said that the smaller the first derivative curve shown in FIG. 4B and the smaller the peak value, the greater the influence of motion artifacts and the sharper the contact region 300. Therefore, the motion function of the chest in the target image can be obtained from the shape of the first derivative curve.

変化率算出部30は、計測ライン310に沿って医用画像IM(対象画像)の画素強度を差分演算して動き関数を算出することができる。または、医用画像IM(対象画像)の画素強度の関数を求め、この関数の一次微分演算により動き関数を算出してもよい。   The change rate calculation unit 30 can calculate a motion function by performing a difference operation on the pixel intensity of the medical image IM (target image) along the measurement line 310. Alternatively, a function of the pixel intensity of the medical image IM (target image) may be obtained, and the motion function may be calculated by a first derivative operation of this function.

図1に示すフィルタ生成部40は、変化率算出部30が算出した動き関数に任意で係数を乗じてフィルタ関数を生成する。このフィルタ関数は、一次微分カーブを積分した面積が1になるように規格化されたボケ関数である。   The filter generation unit 40 shown in FIG. 1 generates a filter function by arbitrarily multiplying the motion function calculated by the change rate calculation unit 30 with a coefficient. This filter function is a blur function that is standardized so that the area obtained by integrating the first-order differential curve becomes 1.

フィルタ生成部40が生成するフィルタ関数について説明する。本実施形態では、複数の医用画像IM(対象画像)に対して、一次元または二次元関数である共通のフィルタ関数を用いてデコンボリューション処理を行う。フィルタ関数が一次元関数であって対象画像が二次元画像である場合は、対象画像に対して頭尾方向にこのフィルタ関数を適用する。   A filter function generated by the filter generation unit 40 will be described. In the present embodiment, deconvolution processing is performed on a plurality of medical images IM (target images) using a common filter function that is a one-dimensional or two-dimensional function. When the filter function is a one-dimensional function and the target image is a two-dimensional image, this filter function is applied to the target image in the head-to-tail direction.

ただし本発明はこれに限られず、対象画像ごとに異なるフィルタ関数を個別に生成してもよい。すなわち、複数の医用画像IM(対象画像)に関して個別に画素強度の変化率を算出してフィルタ関数を生成し、生成されたフィルタ関数を用いて当該対象画像にそれぞれデコンボリューション処理を行うこととしてもよい。   However, the present invention is not limited to this, and a different filter function may be generated for each target image. That is, it is also possible to individually calculate the rate of change in pixel intensity for a plurality of medical images IM (target images), generate a filter function, and perform deconvolution processing on each target image using the generated filter function. Good.

また、生成されたフィルタ関数を対象画像の全体に適用してデコンボリューション処理を行ってもよく、または対象画像の領域ごとにフィルタ関数に異なる係数を乗じたうえで適用してもよい。たとえば、フィルタ関数は、横隔膜の近傍における鮮鋭度よりも、横隔膜からの頭尾方向の距離が大きい位置における鮮鋭度の方が高いものとすることができる。すなわち、呼吸動に起因するモーションアーチファクトは下肺において最も顕著であり、PET画像では横隔膜と接する肝臓の上部に顕著なボケが発生する。これに対して、横隔膜から頭尾方向に大きく離間した位置では呼吸動の影響は小さくなる。このため、横隔膜の近傍に適用するフィルタ関数を鈍らせて鮮鋭度を小さくし、頭尾方向に離間した部位に適用するフィルタ関数の鮮鋭度を高くすることで、後記のデコンボリューション処理の収束を早めることが期待される。   The generated filter function may be applied to the entire target image for deconvolution processing, or may be applied after multiplying the filter function by a different coefficient for each region of the target image. For example, the filter function may have a higher sharpness at a position where the distance from the diaphragm in the head-to-tail direction is larger than the sharpness in the vicinity of the diaphragm. That is, motion artifacts due to respiratory motion are most prominent in the lower lung, and in the PET image, noticeable blur occurs in the upper part of the liver in contact with the diaphragm. On the other hand, the influence of the respiratory motion becomes small at a position far away from the diaphragm in the head-to-tail direction. For this reason, the filter function applied to the vicinity of the diaphragm is blunted to reduce the sharpness, and the sharpness of the filter function applied to the part separated in the head-to-tail direction is increased, thereby converging the deconvolution process described later. It is expected to be accelerated.

鮮鋭化処理部50は、生成されたフィルタ関数を用いて医用画像IM(対象画像)にデコンボリューション(逆畳み込み)処理を行う。
図1に示すように、本実施形態の鮮鋭化処理部50は、重畳演算部52、誤差判定部54および画像更新部56を備えている。
重畳演算部52は、フィルタ関数を推定画像に重畳して重畳画像を生成する手段である。誤差判定部54は、この重畳画像と医用画像IM(対象画像)との乖離度に基づいて推定画像の誤差判定を行う手段である。画像更新部56は、誤差判定の結果に基づいて推定画像を更新する手段である。具体的なデコンボリューション処理は後述するが、画像更新部56にて推定画像を反復的に更新して重畳画像を医用画像IM(対象画像)に近づけていくことにより、この推定画像を対象画像の鮮鋭画像として取得することができる。
The sharpening processing unit 50 performs deconvolution (deconvolution) processing on the medical image IM (target image) using the generated filter function.
As shown in FIG. 1, the sharpening processing unit 50 of this embodiment includes a superimposition calculation unit 52, an error determination unit 54, and an image update unit 56.
The superimposition calculation unit 52 is means for generating a superimposed image by superimposing the filter function on the estimated image. The error determination unit 54 is means for performing error determination of the estimated image based on the degree of deviation between the superimposed image and the medical image IM (target image). The image update unit 56 is a means for updating the estimated image based on the error determination result. Although specific deconvolution processing will be described later, the estimated image is repetitively updated by the image update unit 56 so that the superimposed image is brought close to the medical image IM (target image). It can be acquired as a sharp image.

鮮鋭化処理部50によりデコンボリューション処理が施された複数の医用画像IM(鮮鋭画像)は、再構成部60にて三次元画像に再構成される。断層画像生成部70は、鮮鋭化された三次元画像から、体軸断面画像ASを含む任意の断層画像を生成する。これにより、本実施形態で鮮鋭化された医用画像IMと、他の医用画像(たとえばCT画像)とを融合させて高精度の診断を行うことが可能となる。   A plurality of medical images IM (sharp images) subjected to the deconvolution processing by the sharpening processing unit 50 are reconstructed into three-dimensional images by the reconstruction unit 60. The tomographic image generation unit 70 generates an arbitrary tomographic image including the body axis cross-sectional image AS from the sharpened three-dimensional image. As a result, the medical image IM sharpened in the present embodiment and another medical image (for example, a CT image) can be fused to perform highly accurate diagnosis.

(医用画像処理プログラム)
以下、本実施形態の医用画像処理装置100を動作させる医用画像処理プログラム(以下、本プログラムという)および本プログラムにより実行される医用画像処理方法(以下、本方法という)について説明する。
図5は本方法のフローチャートである。図1、2、5を参照して本プログラムによる画像処理を説明する。
(Medical image processing program)
Hereinafter, a medical image processing program (hereinafter referred to as the present program) for operating the medical image processing apparatus 100 of the present embodiment and a medical image processing method (hereinafter referred to as the present method) executed by the program will be described.
FIG. 5 is a flowchart of the method. Image processing by this program will be described with reference to FIGS.

本プログラムは、人体の胸部を含む医用画像IMを、コンピュータである医用画像処理装置100に画像処理させるためのプログラムである。
本プログラムは、医用画像IM(対象画像)から横隔膜と肝臓との接触領域300に関する画素強度の頭尾方向の変化率に基づいてフィルタ関数を生成する生成ステップS20と、生成されたフィルタ関数を用いて医用画像IMにデコンボリューション処理を行う画像処理ステップS30と、を含む。
This program is a program for causing the medical image processing apparatus 100, which is a computer, to perform image processing on a medical image IM including a human chest.
This program uses a generation step S20 for generating a filter function based on the rate of change in the head-to-tail direction of the pixel intensity related to the contact region 300 between the diaphragm and the liver from the medical image IM (target image), and the generated filter function. Image processing step S30 for performing a deconvolution process on the medical image IM.

本プログラムは、医用画像処理装置100の演算処理部110を制御して医用画像IMを鮮鋭化する。本プログラムによれば、呼吸時相の情報を持たない医用画像であっても、その医用画像がもつ情報に基づいて鮮鋭化することができる。   This program controls the arithmetic processing unit 110 of the medical image processing apparatus 100 to sharpen the medical image IM. According to this program, even a medical image having no respiratory phase information can be sharpened based on the information of the medical image.

すなわち、本プログラムによれば、人体の胸部を含む医用画像IM(対象画像)から横隔膜と肝臓との接触領域300に関する画素強度の頭尾方向の変化率に基づいてフィルタ関数を算出する工程と、算出されたフィルタ関数を用いて医用画像IMにデコンボリューション処理を行う工程と、を含む医用画像処理方法が実現される。   That is, according to this program, a step of calculating a filter function from a medical image IM (target image) including a chest of a human body based on a rate of change in the head-to-tail direction of the pixel intensity related to the contact region 300 between the diaphragm and the liver; A medical image processing method including a step of performing a deconvolution process on the medical image IM using the calculated filter function.

本方法では、放射性薬剤が集積しやすく、かつ横隔膜に接している臓器である肝臓のうち、特別なマーカーが無くても観察できる指標部位(接触領域300)が呼吸動により経時的に移動する様子を解析する。本方法は、指標部位の移動をリアルタイムにモニタするのではなく、この指標部位の存在確率を示す空間プロファイルのデータに基づいてボケ関数を求め、同じ被験者の任意の測定部位の画像を、このボケ関数を用いて鮮鋭化するものである。これは、指標部位の周期的な体動(呼吸動)が十分に平均化された状態で空間プロファイルに含まれるとみなしうる程度に長時間に亘って撮像された取得画像に基づいてボケ関数を算出していることに基づいている。   In this method, an indicator region (contact region 300) that can be observed without a special marker in a liver that is an organ that is easy to accumulate radiopharmaceuticals and that is in contact with the diaphragm moves with time due to respiratory motion. Is analyzed. In this method, instead of monitoring the movement of the index part in real time, a blur function is obtained based on the spatial profile data indicating the existence probability of the index part, and an image of an arbitrary measurement part of the same subject is obtained. It uses a function to sharpen. This is a blur function based on an acquired image captured over a long period of time so that it can be considered to be included in the spatial profile in a state where the periodic body motion (respiratory motion) of the index part is sufficiently averaged. Based on the calculation.

以下、本方法を詳細に説明する。
本方法では、生成ステップS20に先立ち、任意で画像準備ステップS10を行う。画像準備ステップS10では、PET画像などの二次元医用画像を取得画像として画像入力部10で取得する(ステップS12)。本方法では、取得画像として、PET装置で撮像された被験者Sの腹胸部を含む複数の体軸断面画像ASを取得するものとする。つぎに、この取得画像を再構成部60にて三次元画像に再構成する(ステップS14)。
なお、医用画像処理装置100以外の画像処理装置にて予め再構成された三次元医用画像を画像入力部10で取得する場合は、画像準備ステップS10は不要となる。この場合、画像入力部10で取得した三次元医用画像を再構成部60に読み込んでおく。
Hereinafter, this method will be described in detail.
In this method, an image preparation step S10 is optionally performed prior to the generation step S20. In the image preparation step S10, a two-dimensional medical image such as a PET image is acquired by the image input unit 10 as an acquired image (step S12). In this method, a plurality of body axis cross-sectional images AS including the abdominal chest of the subject S imaged by the PET apparatus are acquired as acquired images. Next, the acquired image is reconstructed into a three-dimensional image by the reconstruction unit 60 (step S14).
Note that when the image input unit 10 acquires a three-dimensional medical image reconstructed in advance by an image processing apparatus other than the medical image processing apparatus 100, the image preparation step S10 is unnecessary. In this case, the three-dimensional medical image acquired by the image input unit 10 is read into the reconstruction unit 60.

生成ステップS20は、再構成された三次元画像の読み込みステップS22、対象画像作成ステップS24、カウントプロファイルカーブ作成ステップS26およびフィルタ関数生成ステップS28を含む。   The generation step S20 includes a reconstructed three-dimensional image reading step S22, a target image generation step S24, a count profile curve generation step S26, and a filter function generation step S28.

ステップS22で、断層画像生成部70は再構成部60より三次元医用画像を取得して読み込む。ステップS24で、断層画像生成部70は、領域特定部20により特定された接触領域300を通る頭尾方向の断面画像を対象画像として生成する。具体的には、断層画像生成部70は、医用画像IM(対象画像)として、肝臓の冠状断面画像または肝臓の左右方向の中間部を通る矢状断面画像を生成する。ここでは、肝臓の右葉前上区域の頂部を通る計測ライン310を含む冠状断面画像CS(図2を参照)を対象画像として生成するものとする。   In step S <b> 22, the tomographic image generation unit 70 acquires and reads a three-dimensional medical image from the reconstruction unit 60. In step S24, the tomographic image generation unit 70 generates a cross-sectional image in the head-to-tail direction passing through the contact area 300 specified by the area specifying unit 20 as a target image. Specifically, the tomographic image generation unit 70 generates, as the medical image IM (target image), a coronal cross-sectional image of the liver or a sagittal cross-sectional image passing through an intermediate portion in the left-right direction of the liver. Here, it is assumed that a coronal slice image CS (see FIG. 2) including a measurement line 310 passing through the top of the upper right lobe area of the liver is generated as a target image.

以上より、本方法は、医用画像IM(対象画像)と異なる撮像方向から撮像された複数の断層画像(体軸断面画像AS)に基づいて胸部の三次元画像を構成(再構成)するステップS14と、構成された三次元画像から医用画像IM(対象画像)を作成するステップS24と、を含むものといえる。   As described above, in this method, a three-dimensional image of the chest is constructed (reconstructed) based on a plurality of tomographic images (body axis cross-sectional images AS) captured from a different imaging direction from the medical image IM (target image). And step S24 for creating a medical image IM (target image) from the constructed three-dimensional image.

つぎに、ステップS26で、変化率算出部30は核医学画像である医用画像IM(対象画像)から、接触領域300の近傍の画素強度に基づいて、放射線計測のカウント値の頭尾方向の推移を示すカウントプロファイルカーブを作成する。カウントプロファイルカーブは、画素強度の配列として作成してもよく、または画素強度を示す関数として作成してもよい。   Next, in step S26, the change rate calculation unit 30 changes the count value of the radiation measurement in the head-to-tail direction based on the pixel intensity in the vicinity of the contact region 300 from the medical image IM (target image) that is a nuclear medicine image. Create a count profile curve that shows The count profile curve may be created as an array of pixel intensities or as a function indicating pixel intensity.

ステップS28でフィルタ生成部40は、このカウントプロファイルカーブの頭尾方向の変化率を算出する。変化率は、画素強度の配列の差分処理または画素強度を示す関数の一次微分処理により求めることができる。この変化率が対象画像の呼吸動のモーションアーチファクトを示す動き関数gにあたる。動き関数gは、積分値が1になるように規格化されたボケ関数である。   In step S28, the filter generation unit 40 calculates the rate of change of the count profile curve in the head-to-tail direction. The rate of change can be obtained by a difference process of the pixel intensity array or a first-order differential process of a function indicating the pixel intensity. This rate of change corresponds to the motion function g indicating the motion artifact of the respiratory motion of the target image. The motion function g is a blur function that is standardized so that the integral value becomes 1.

動き関数gの次数は、対象画像の次数を超えない限り、一次元から三次元のいずれでもよい。すなわち、対象画像が二次元画像である場合、動き関数gは一次元関数または二次元関数である。後述するように対象画像が三次元画像である場合、動き関数gは一次元関数または二次元関数であるほか、三次元関数でもよい。
図2に示すように直線状の一次元の計測ライン310に沿って画素強度の変化率を求める場合、頭尾方向(Z方向)の一次元の一次微分カーブ(図4(b)を参照)を動き関数g(z)とすることができる。以下、動き関数が二次元または三次元関数の場合も、簡単のためg(z)と表記する場合がある。
更に、ステップS28でフィルタ生成部40は、動き関数gに任意で係数を乗じて、デコンボリューション処理のためのフィルタ関数を生成する。以下、フィルタ関数をg(z)と表記する。
The order of the motion function g may be any one of one to three as long as it does not exceed the order of the target image. That is, when the target image is a two-dimensional image, the motion function g is a one-dimensional function or a two-dimensional function. As will be described later, when the target image is a three-dimensional image, the motion function g may be a one-dimensional function or a two-dimensional function, or may be a three-dimensional function.
When obtaining the rate of change in pixel intensity along a linear one-dimensional measurement line 310 as shown in FIG. 2, a one-dimensional first-order differential curve in the head-to-tail direction (Z direction) (see FIG. 4B). Can be a motion function g (z). Hereinafter, even when the motion function is a two-dimensional or three-dimensional function, it may be expressed as g (z) for simplicity.
In step S28, the filter generation unit 40 arbitrarily multiplies the motion function g by a coefficient to generate a filter function for the deconvolution process. Hereinafter, the filter function is expressed as g (z).

すなわち、フィルタ生成部40は、差分演算または微分演算により、医用画像IM(対象画像)のカウントプロファイルカーブの一次微分関数をフィルタ関数として生成する。   That is, the filter generation unit 40 generates a first derivative function of the count profile curve of the medical image IM (target image) as a filter function by difference calculation or differentiation calculation.

画像処理ステップS30は鮮鋭化処理部50により実行される。画像処理ステップS30は、初期画像設定ステップS31、重畳積分ステップS32、差分処理ステップS33、画像更新ステップS34および誤差判定ステップS35を含む。   The image processing step S30 is executed by the sharpening processing unit 50. The image processing step S30 includes an initial image setting step S31, a superposition and integration step S32, a difference processing step S33, an image update step S34, and an error determination step S35.

初期画像設定ステップS31では、推定画像として初期画像f0(z)を設定する。推定画像fn(z)は、対象画像forg(z)からモーションアーチファクトを除去した鮮鋭画像として推定される画像である。初期画像f0(z)は、推定画像fn(z)にデコンボリューション処理を反復的に適用するための初期値となる画像である。初期画像f0(z)のすべての画素強度は非ゼロであることが好ましい。本方法のように核医学画像を対象画像forg(z)とする場合、カウント値(画素強度)がゼロである画素が存在することがある。これに対し、初期画像f0(z)の画素の画素強度(画素値)にゼロ以外の値を付与しておくことによりデコンボリューション処理の収束を早めることができる。 In an initial image setting step S31, an initial image f 0 (z) is set as an estimated image. The estimated image f n (z) is an image estimated as a sharp image obtained by removing motion artifacts from the target image f org (z). The initial image f 0 (z) is an image serving as an initial value for repeatedly applying the deconvolution process to the estimated image f n (z). All pixel intensities of the initial image f 0 (z) are preferably non-zero. When the nuclear medicine image is the target image f org (z) as in this method, there may be a pixel with a count value (pixel intensity) of zero. On the other hand, the convergence of the deconvolution process can be accelerated by giving a value other than zero to the pixel intensity (pixel value) of the pixel of the initial image f 0 (z).

初期画像f0(z)には、対象画像forg(z)のうち画素強度がゼロである画素に最小値(たとえば1)を付与した画像を用いることができる。初期画像f0(z)として対象画像forg(z)に近い画像を設定することでデコンボリューション処理の収束を早めることができる。 As the initial image f 0 (z), an image obtained by assigning a minimum value (for example, 1) to a pixel having a pixel intensity of zero in the target image f org (z) can be used. By setting an image close to the target image f org (z) as the initial image f 0 (z), convergence of the deconvolution process can be accelerated.

画像処理ステップS30で行われるデコンボリューション処理では、以下の(i)から(iii)の工程を反復的に行う。
(i)フィルタ関数g(z)を推定画像fn(z)に重畳して重畳画像fcnv(z)を生成する重畳積分ステップS32。
(ii)重畳画像fcnv(z)と医用画像IM(対象画像forg(z))との乖離度に基づいて推定画像fn(z)の誤差判定を行う誤差判定ステップS35。
(iii)誤差判定の結果に基づいて推定画像fn(z)を更新する画像更新ステップS34。
In the deconvolution process performed in the image processing step S30, the following steps (i) to (iii) are repeatedly performed.
(I) A superposition and integration step S32 for superimposing the filter function g (z) on the estimated image f n (z) to generate a superposed image f cnv (z).
(Ii) Error determination step S35 for performing error determination on the estimated image f n (z) based on the degree of deviation between the superimposed image f cnv (z) and the medical image IM (target image f org (z)).
(Iii) Image update step S34 for updating the estimated image f n (z) based on the result of the error determination.

本方法では、図5に示すように、(i)重畳積分ステップS32、(iii)画像更新ステップS34、(ii)誤差判定ステップS35の順に実行される。ただし、(i)から(iii)の工程は、フローチャートに応じて任意の順序で行うことができる。具体的には、画像更新ステップS34は、誤差判定ステップS35において収束条件を満たさない(ステップS35:No)と判定された場合に行ってもよい。   In this method, as shown in FIG. 5, (i) superimposition integration step S32, (iii) image update step S34, and (ii) error determination step S35 are executed in this order. However, steps (i) to (iii) can be performed in any order according to the flowchart. Specifically, the image update step S34 may be performed when it is determined in the error determination step S35 that the convergence condition is not satisfied (step S35: No).

重畳積分ステップS32では、重畳演算部52は、下式(1)により、フィルタ関数g(z)を推定画像fn(z)に重畳積分して重畳画像fcnv(z)を求める。式中、nはそれまでに実行された画像処理ステップS30の反復回数である。n回の画像処理ステップS30が実行された後の推定画像を、n回目の推定画像fn(z)と呼称する。初回(n=0)の画像処理ステップS30では、推定画像fn(z)の初期画像f0(z)とフィルタ関数g(z)との重畳積分を行う。重畳画像fcnv(z)は、推定画像fn(z)にボケ関数である動き関数g(z)を重畳したボケ画像である。 In the superposition integration step S32, the superposition calculation unit 52 obtains a superposed image f cnv (z) by superposing and integrating the filter function g (z) on the estimated image f n (z) by the following equation (1). In the formula, n is the number of iterations of the image processing step S30 executed so far. The estimated image after the nth image processing step S30 is executed is referred to as an nth estimated image f n (z). In the first (n = 0) image processing step S30, superposition integration of the initial image f 0 (z) of the estimated image f n (z) and the filter function g (z) is performed. The superimposed image f cnv (z) is a blurred image in which a motion function g (z) that is a blurred function is superimposed on the estimated image f n (z).

推定画像fn(z)にフィルタ関数g(z)を重畳積分するにあたり、推定画像fn(z)の周縁に位置する画素に対してはそのままフィルタ関数g(z)を重畳することができない。このため、重畳積分ステップS32では、推定画像fn(z)の周縁の画素に対して補間処理を行う。具体的な補間処理は特に限定されないが、初期画像f0(z)における当該画素の画素強度をそのまま与えてもよく、または当該画素に隣接する他の画素に基づく外挿演算によって画素強度を補間してもよい。 Upon superimposing integrating the filter function g (z) to the estimated image f n (z), it can not be directly superimposed the filter function g (z) for pixels located in the periphery of the estimated image f n (z) . For this reason, in the superimposition integration step S32, interpolation processing is performed on the peripheral pixels of the estimated image f n (z). The specific interpolation process is not particularly limited, but the pixel intensity of the pixel in the initial image f 0 (z) may be given as it is, or the pixel intensity is interpolated by extrapolation based on other pixels adjacent to the pixel. May be.

差分処理ステップS33では、誤差判定部54は、下式(2)により、重畳画像fcnv(z)と元画像にあたる対象画像forg(z)との差分処理を行うことにより誤差画像ferr(z)を求める。誤差画像ferr(z)は、ボケ画像である重畳画像fcnv(z)と元画像との乖離度を表している。この誤差画像ferr(z)が小さくなる重畳画像fcnv(z)を求めることで、動き関数g(z)を重畳する前の推定画像fn(z)が対象画像forg(z)の鮮鋭画像であると推定される。 In the difference processing step S33, the error determination unit 54 performs a difference process between the superimposed image f cnv (z) and the target image f org (z) corresponding to the original image by the following equation (2) to thereby obtain the error image f err ( Find z). The error image f err (z) represents the degree of deviation between the superimposed image f cnv (z), which is a blurred image, and the original image. By obtaining a superimposed image f cnv (z) that reduces the error image f err (z), the estimated image f n (z) before superimposing the motion function g (z) is obtained from the target image f org (z). It is estimated that the image is sharp.

(数1)
ferr(z)=fcnv(z)−forg(z) ・・・(2)
(Equation 1)
f err (z) = f cnv (z) −f org (z) (2)

画像更新ステップS34では、画像更新部56は、次回の画像処理ステップS30にて誤差画像ferr(z)が小さくなるように推定画像fn(z)を更新する。具体的には、画像更新部56は、下式(3)により、n回目の推定画像fn(z)から誤差画像ferr(z)を減算する。 In the image update step S34, the image update unit 56 updates the estimated image f n (z) so that the error image f err (z) becomes small in the next image processing step S30. Specifically, the image update unit 56 subtracts the error image f err (z) from the n-th estimated image f n (z) by the following equation (3).

(数2)
fn+1(z)=fn(z)−ferr(z) ・・・(3)
(Equation 2)
f n + 1 (z) = f n (z) −f err (z) (3)

なお、画像更新ステップS34では、ベイズの定理を利用したLucy-Richardson法や、Iterative Back Projection(IBP)法などの公知の手法により逐次近似的に推定画像fn(z)を更新してもよい。すなわち、画像更新ステップS34では、n回目の推定画像fn(z)から誤差画像ferr(z)をそのまま減算してもよく、または誤差画像ferr(z)に所定の調整値を乗じて減算してもよい。または、n回目の推定画像fn(z)を、誤差画像ferr(z)が示す乖離度に対応する係数で除算してもよい。 In the image update step S34, the estimated image f n (z) may be updated approximately and successively by a known method such as the Lucy-Richardson method using Bayes' theorem or the Iterative Back Projection (IBP) method. . That is, in the image update step S34, the error image f err (z) may be subtracted as it is from the n-th estimated image f n (z), or the error image f err (z) is multiplied by a predetermined adjustment value. You may subtract. Alternatively, the n-th estimated image f n (z) may be divided by a coefficient corresponding to the degree of deviation indicated by the error image f err (z).

誤差判定ステップS35では、誤差判定部54は、重畳画像fcnv(z)と元画像との乖離度に基づいて、推定画像fn(z)の誤差判定を行う。誤差判定部54による誤差判定は種々の方法で行うことができる。一例として、誤差画像ferr(z)の画素強度の総和(単純合計または自乗和、以下同様)が、予め設定された閾値以下となったことをもって収束条件を満たす(ステップS35:Yes)と判定することができる。このほか、重畳画像fcnv(z)の画素強度の総和と対象画像forg(z)の画素強度の総和との比率が、1を中心とする所定の閾値範囲内に収まった場合に収束条件を満たすと判定することができる。このように、誤差判定ステップS35では、重畳画像fcnv(z)と対象画像forg(z)との乖離度を示す誤差画像ferr(z)の絶対値や比率に基づいて、推定画像fn(z)の収束判定を行う。 In error determination step S35, the error determination unit 54 performs error determination on the estimated image f n (z) based on the degree of deviation between the superimposed image f cnv (z) and the original image. The error determination by the error determination unit 54 can be performed by various methods. As an example, it is determined that the convergence condition is satisfied (Step S35: Yes) when the sum of pixel intensities (simple sum or sum of squares, the same applies hereinafter) of the error image f err (z) is equal to or less than a preset threshold value. can do. In addition, the convergence condition when the ratio of the sum of the pixel intensities of the superimposed image f cnv (z) and the sum of the pixel intensities of the target image f org (z) falls within a predetermined threshold range centered at 1. It can be determined that As described above, in the error determination step S35, the estimated image f err (z) indicating the degree of deviation between the superimposed image f cnv (z) and the target image f org (z) is based on the absolute value or ratio of the error image f err (z). Determine the convergence of n (z).

誤差判定ステップS35において誤差判定部54が収束条件を満たさない(ステップS35:No)と判定した場合、画像処理ステップS30の反復回数nに1を加算したうえ、重畳積分ステップS32に戻って画像処理ステップS30を繰り返す。   When the error determination unit 54 determines that the convergence condition is not satisfied in the error determination step S35 (step S35: No), 1 is added to the number n of iterations of the image processing step S30, and the process returns to the superposition and integration step S32. Step S30 is repeated.

そして、画像処理ステップS30を複数回、場合により1回、推定画像fn(z)に適用して誤差判定部54が収束条件を満たす(ステップS35:Yes)と判定した場合、この推定画像fn(z)が対象画像forg(z)の鮮鋭画像として取得される。 Then, when the image processing step S30 is applied to the estimated image f n (z) a plurality of times, or once in some cases, and the error determining unit 54 determines that the convergence condition is satisfied (step S35: Yes), the estimated image f n (z) is acquired as a sharp image of the target image f org (z).

本方法では、医用画像IM(対象画像)が二次元画像であり、デコンボリューション処理が施された複数の医用画像IM(鮮鋭画像)に基づいて被験者の胸部の三次元画像を構成する再構成ステップS40を更に実行してもよい。再構成ステップS40は、医用画像処理装置100の再構成部60で行うことができる。   In this method, the medical image IM (target image) is a two-dimensional image, and a reconstruction step of constructing a three-dimensional image of the subject's chest based on a plurality of medical images IM (sharp images) subjected to deconvolution processing S40 may be further executed. The reconstruction step S40 can be performed by the reconstruction unit 60 of the medical image processing apparatus 100.

本方法では、更に、鮮鋭画像を再構成した三次元画像から、対象画像とは異なる断層画像(たとえば体軸断面画像AS)を作成する断層画像作成ステップS50を実行してもよい。断層画像作成ステップS50は医用画像処理装置100の断層画像生成部70で行うことができる。   In the present method, a tomographic image creation step S50 for creating a tomographic image (for example, a body axis cross-sectional image AS) different from the target image from a three-dimensional image obtained by reconstructing a sharp image may be executed. The tomographic image creation step S50 can be performed by the tomographic image generation unit 70 of the medical image processing apparatus 100.

なお、本方法に代えて、再構成ステップS40および断層画像作成ステップS50を医用画像処理装置100とは異なる他の画像処理装置で行ってもよい。   Instead of this method, the reconstruction step S40 and the tomographic image creation step S50 may be performed by another image processing apparatus different from the medical image processing apparatus 100.

鮮鋭化された断層画像(たとえば体軸断面画像AS)に対して、更にPET装置の検出系に起因する部分容積効果などのボケを補正してもよい。   You may correct | amend blurring, such as the partial volume effect resulting from the detection system of PET apparatus, with respect to the sharpened tomographic image (for example, body-axis cross-sectional image AS).

以上より、本方法では、複数枚の断層画像(たとえば体軸断面画像AS)を三次元再構成し(ステップS14)、この断層画像と異なる方向の他の断層画像(たとえば冠状断面画像CS)から肝臓の所定位置を特定してカウントプロファイルカーブを作成する(ステップS26)。さらに、肝臓の上記の所定位置に関する一次元から三次元のボケ関数をフィルタ関数g(z)として求め(ステップS28)、上記の断層画像(たとえば冠状断面画像CS)を鮮鋭化(更新)する(ステップS34)。これにより、過去に撮像されて医療機関等に蓄積された任意の断層画像を鮮鋭化することが可能である。   As described above, in this method, a plurality of tomographic images (for example, the body axis cross-sectional image AS) are three-dimensionally reconstructed (step S14), and other tomographic images (for example, the coronal cross-sectional image CS) in a direction different from the tomographic image are used. A count profile curve is created by specifying a predetermined position of the liver (step S26). Further, a one-dimensional to three-dimensional blur function relating to the predetermined position of the liver is obtained as a filter function g (z) (step S28), and the tomographic image (for example, the coronal slice image CS) is sharpened (updated) ( Step S34). Thereby, it is possible to sharpen an arbitrary tomographic image that has been captured in the past and accumulated in a medical institution or the like.

なお、本発明は上述の実施形態に限定されるものではなく、本発明の目的が達成される限りにおける種々の変形、改良等の態様も含む。   The present invention is not limited to the above-described embodiment, and includes various modifications and improvements as long as the object of the present invention is achieved.

たとえば、上記実施形態では取得画像および対象画像として二次元画像を用い、フィルタ関数g(z)として一次元関数を用いることを例示したが、本発明はこれに限られない。対象画像を冠状断面画像CSとする場合、二次元関数であるフィルタ関数g(x,z)を用い、重畳積分ステップS32では下式(4)により重畳積分を行うことができる。   For example, in the above embodiment, a two-dimensional image is used as the acquired image and the target image, and a one-dimensional function is used as the filter function g (z). However, the present invention is not limited to this. When the target image is the coronal slice image CS, the filter function g (x, z) that is a two-dimensional function is used, and in the integration step S32, the integration can be performed by the following equation (4).

二次元関数のフィルタ関数は、接触領域300を通過する対象画像(たとえば冠状断面画像CS)から、頭尾方向およびこれに直交する方向の二方向について画素強度の変化率(一次微分)を算出して求めることができる。   The filter function of the two-dimensional function calculates the change rate (first derivative) of the pixel intensity from the target image passing through the contact region 300 (for example, the coronal slice image CS) in two directions, the head-to-tail direction and the direction orthogonal thereto. Can be obtained.

さらに本発明の変形例として、医用画像IMが三次元画像であり、フィルタ関数が三次元関数であってもよい。すなわち、ステップS14で取得画像を再構成してなる三次元画像を、一つの対象画像として取り扱う。三次元関数のフィルタ関数は、三次元の対象画像のうち接触領域300を内包する部分領域を抽出し、この部分領域に関し直交三軸方向について画素強度の変化率(一次微分)を算出して求めることができる。重畳積分ステップS32では、下式(5)によりフィルタ関数g(x,y,z)と推定画像fn(x,y,z)との重畳積分を行うことができる。 Further, as a modification of the present invention, the medical image IM may be a three-dimensional image and the filter function may be a three-dimensional function. That is, the three-dimensional image obtained by reconstructing the acquired image in step S14 is handled as one target image. The filter function of the three-dimensional function is obtained by extracting a partial region including the contact region 300 from the three-dimensional target image and calculating a change rate (first derivative) of the pixel intensity in the orthogonal three-axis direction with respect to this partial region. be able to. In the superposition integration step S32, the superposition integration of the filter function g (x, y, z) and the estimated image f n (x, y, z) can be performed by the following equation (5).

また、ステップS26では、領域特定部20で特定された、たとえば計測ライン310に関するカウントプロファイルカーブを作成して頭尾方向の変化率を算出することを例示したが、本発明はこれに限られない。ステップS26において、接触領域300を通過する異なる複数箇所に関してカウントプロファイルカーブを作成して頭尾方向の変化率を算出し、算出された複数の変化率のうち最も鈍形であるものを選択してもよい。これにより、横隔膜と肝臓とが良好に接触している領域を接触領域300としてユーザが特定しなくとも、モーションアーチファクトの影響が大きい部位を算出してフィルタ関数を生成することができる。   In step S26, for example, the count profile curve for the measurement line 310 specified by the region specifying unit 20 is created and the rate of change in the head-to-tail direction is calculated. However, the present invention is not limited to this. . In step S26, a count profile curve is created for a plurality of different locations that pass through the contact region 300 to calculate a head-to-tail change rate, and the most blunted one of the calculated change rates is selected. Also good. As a result, even if the user does not specify the region where the diaphragm and the liver are in good contact as the contact region 300, the filter function can be generated by calculating a region where the influence of the motion artifact is large.

上記実施形態では、取得画像と対象画像との撮像方向が異なる場合を例示したが、本発明はこれに限られない。ステップS12で取得する断層画像が冠状断面画像CSや矢状断面画像SSなど頭尾方向の成分を含む断層画像である場合には、これらの取得画像のうち接触領域300を含むものを対象画像として選択すればよい。この場合、ステップS14からステップS24は不要である。   In the above embodiment, the case where the captured image and the target image have different imaging directions has been illustrated, but the present invention is not limited to this. When the tomographic image acquired in step S12 is a tomographic image including a head-to-tail component such as a coronal slice image CS or a sagittal slice image SS, an image including the contact region 300 among these acquired images is used as a target image. Just choose. In this case, steps S14 to S24 are not necessary.

以下、実施例を用いて本発明を詳細に説明する。図1から図5を適宜参照する。
図6(a)はPET装置で撮像された体軸断面画像ASの一例である。同図では、頭尾方向の位置情報を含む4枚の体軸断面画像ASを図示してある。これらの体軸断面画像ASを取得画像として画像入力部10より取り込み、記憶部90に医用画像IMとして記録する。再構成部60が体軸断面画像ASを三次元画像に再構成したうえで、断層画像生成部70は冠状断面画像CSを生成する。生成された冠状断面画像CSを図6(b)に示す。冠状断面画像CSには、陽電子のカウント値が高い環状の集積領域Cが存在している。
Hereinafter, the present invention will be described in detail using examples. 1 to 5 will be referred to as appropriate.
FIG. 6A is an example of the body axis cross-sectional image AS captured by the PET apparatus. In the figure, four body axis cross-sectional images AS including positional information in the head-tail direction are shown. These body axis cross-sectional images AS are acquired from the image input unit 10 as acquired images and recorded in the storage unit 90 as medical images IM. After the reconstruction unit 60 reconstructs the body axis slice image AS into a three-dimensional image, the tomographic image generation unit 70 generates a coronal slice image CS. The generated coronal slice image CS is shown in FIG. In the coronal slice image CS, there is an annular accumulation region C having a high positron count value.

図7は冠状断面画像CSのモデル画像である。このモデル画像は、肺野LGおよび肝臓LVと、それぞれに含まれる集積領域Cと、を模式的に鮮鋭に表したものである。ピクセルサイズを1mmとし、モデル画像は256ピクセル四方の画像サイズである。肺野LGの画素強度を1とし、肝臓LVの画素強度は3、集積領域Cの画素強度を6としてある。集積領域Cとしては、図6(b)に観察される環状領域のほか、直径の異なる3つの円形領域を追加してある。環状の集積領域Cは、外径49mm、内径29mmで厚さ10mmとした。円形の集積領域Cは、腫瘍サイズを摸擬して、直径19mm、9mmおよび直径5mmとした。   FIG. 7 is a model image of the coronal slice image CS. This model image schematically represents the lung field LG and the liver LV and the accumulation region C included in each of them schematically and sharply. The pixel size is 1 mm, and the model image has an image size of 256 pixels square. The pixel intensity of the lung field LG is 1, the pixel intensity of the liver LV is 3, and the pixel intensity of the accumulation region C is 6. As the accumulation region C, in addition to the annular region observed in FIG. 6B, three circular regions having different diameters are added. The annular accumulation region C had an outer diameter of 49 mm, an inner diameter of 29 mm, and a thickness of 10 mm. The circular accumulation area C was 19 mm, 9 mm, and 5 mm in diameter to simulate the tumor size.

図8(a)は、図7のモデル画像をY方向にのみ平滑化した摸擬対象画像である。摸擬対象画像は、図7の鮮鋭なモデル画像にモーションアーチファクトが発生した状態を摸擬している。平滑化フィルタには、Y方向に連続して並ぶ5点への重み係数を1:4:8:4:1とする一次元フィルタを用いた。環状の集積領域Cは、X方向に鮮鋭であるのに対し、Y方向に暈けた画像となった。円形の集積領域Cも、全体にY方向に伸張して暈けた画像となった。   FIG. 8A is a simulation target image obtained by smoothing the model image of FIG. 7 only in the Y direction. The simulation target image simulates a state in which motion artifacts have occurred in the sharp model image of FIG. As the smoothing filter, a one-dimensional filter having a weighting factor of 1: 4: 8: 4: 1 for five points arranged continuously in the Y direction was used. The annular accumulation region C was sharp in the X direction, but became an image blurred in the Y direction. The circular accumulation region C also became an image that was stretched and blurred in the Y direction.

環状の集積領域Cの中心を通りY方向に延在する線分を計測ライン310として画素値のプロファイルカーブを作成し(図示省略)、その一次微分カーブをフィルタ関数gとして生成した。   A profile curve of pixel values is created using a line segment passing through the center of the annular accumulation region C in the Y direction as a measurement line 310 (not shown), and a first derivative curve is generated as a filter function g.

図5に示す画像処理ステップS30を反復的に実行した。
初期画像設定ステップS31として、推定画像fnの初期画像f0には、図8(a)に示す摸擬対象画像を設定した。重畳積分ステップS32として、推定画像fnとフィルタ関数gとの重畳積分により重畳画像fcnvを求めた。つぎに、差分処理ステップS33として、重畳画像fcnvと対象画像(摸擬対象画像)forgとの差分処理により誤差画像ferrを求めた。そして、画像更新ステップS34として、推定画像fnと誤差画像ferrとの差分処理により推定画像fnを更新した。誤差判定ステップS35を省略して重畳積分ステップS32に戻り、画像処理ステップS30を10回反復して繰り返した。
The image processing step S30 shown in FIG. 5 was repeatedly executed.
As an initial image setting step S31, the initial image f 0 of the estimated image f n was set to摸擬target image shown in FIG. 8 (a). As a superposition integration step S32, a superposition image f cnv was obtained by superposition integration of the estimated image f n and the filter function g. Next, as a difference processing step S33, an error image f err was obtained by difference processing between the superimposed image f cnv and the target image (simulated target image) f org . Then, the image updating step S34, and updates the estimated image f n by differential processing between the estimated image f n and the error image f err. The error determination step S35 was omitted, and the process returned to the superposition and integration step S32. The image processing step S30 was repeated 10 times and repeated.

図8(b)は、画像処理ステップS30を10回反復して繰り返した後の推定画像fnであり、すなわち摸擬対象画像を鮮鋭化した摸擬鮮鋭画像である。図8(b)に示すように、Y方向の暈けが除去されてX方向と同程度に鮮鋭な画像となっていることが分かった。肺野LGおよび肝臓LVのいずれについても集積領域Cの暈けは除去された。すなわち、集積領域Cとその周囲とのコントラスト比の高低によらず、本実施例によればモーションアーチファクトを模した暈けが除去されることが分かった。 FIG. 8B is an estimated image f n after repeating the image processing step S30 10 times, that is, a false pseudo sharp image obtained by sharpening the false target image. As shown in FIG. 8B, it was found that the blur in the Y direction was removed and the image was as sharp as the X direction. The blur in the accumulation region C was removed for both the lung field LG and the liver LV. That is, it was found that the blur imitating the motion artifact is removed according to the present embodiment regardless of the contrast ratio between the integrated region C and the surrounding area.

本発明の実施形態および実施例は、以下の技術思想を包含するものである。
(1)人体の胸部を含む医用画像をコンピュータに画像処理させるためのプログラムであって、前記医用画像から横隔膜と肝臓との接触領域に関する画素強度の頭尾方向の変化率に基づいてフィルタ関数を生成するステップと、生成された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行うステップと、を含む医用画像処理プログラム。
(2)前記医用画像が核医学画像であり、前記接触領域における放射線計測のカウント値に基づいて前記変化率を算出する上記(1)に記載の医用画像処理プログラム。
(3)前記カウント値のプロファイルカーブの一次微分関数を前記フィルタ関数とする上記(2)に記載の医用画像処理プログラム。
(4)前記医用画像として、肝臓の冠状断面画像または肝臓の左右方向の中間部を通る矢状断面画像を用いる上記(1)から(3)のいずれか一項に記載の医用画像処理プログラム。
(5)前記医用画像と異なる撮像方向から撮像された複数の断層画像に基づいて胸部の三次元画像を構成するステップと、構成された前記三次元画像から前記医用画像を作成するステップと、を更に含む上記(4)に記載の医用画像処理プログラム。
(6)前記デコンボリューション処理が、以下の(i)から(iii)の工程;(i)前記フィルタ関数を推定画像に重畳して重畳画像を生成する工程、(ii)前記重畳画像と前記医用画像との乖離度に基づいて前記推定画像の誤差判定を行う工程、(iii)前記誤差判定の結果に基づいて前記推定画像を更新する工程、を反復的に行うことを含む上記(1)から(5)のいずれか一項に記載の医用画像処理プログラム。
(7)前記推定画像の初期画像のすべての画素強度が非ゼロである上記(6)に記載の医用画像処理プログラム。
(8)前記医用画像が三次元画像であり、前記フィルタ関数が三次元関数である上記(1)から(7)のいずれか一項に記載の医用画像処理プログラム。
(9)前記医用画像が二次元画像であり、前記デコンボリューション処理が施された複数の前記医用画像に基づいて前記胸部の三次元画像を構成するステップを更に含む上記(1)から(7)のいずれか一項に記載の医用画像処理プログラム。
(10)複数の前記医用画像に対して、一次元または二次元関数である共通の前記フィルタ関数を用いて前記デコンボリューション処理を行うことを特徴とする上記(9)に記載の医用画像処理プログラム。
(11)複数の前記医用画像に関して個別に前記変化率を算出して前記フィルタ関数を生成し、生成された前記フィルタ関数を用いて当該医用画像にそれぞれ前記デコンボリューション処理を行う上記(9)に記載の医用画像処理プログラム。
(12)前記フィルタ関数は、横隔膜の近傍における鮮鋭度よりも、横隔膜からの頭尾方向の距離が大きい位置における鮮鋭度の方が高いことを特徴とする上記(1)から(11)のいずれか一項に記載の医用画像処理プログラム。
(13)人体の胸部を含む医用画像から横隔膜と肝臓との接触領域に関する画素強度の頭尾方向の変化率に基づいてフィルタ関数を算出する工程と、算出された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行う工程と、を含む医用画像処理方法。
(14)人体の胸部を含む医用画像を画像処理する装置であって、前記医用画像を入力する画像入力手段と、入力された前記医用画像における横隔膜と肝臓との接触領域を特定する領域特定手段と、特定された前記接触領域に関する前記医用画像の画素強度の頭尾方向の変化率を算出する変化率算出手段と、算出された前記変化率に基づいて前記医用画像のフィルタ関数を生成するフィルタ生成手段と、生成された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行う鮮鋭化処理手段と、を含む医用画像処理装置。
Embodiments and examples of the present invention include the following technical ideas.
(1) A program for causing a computer to process a medical image including a chest of a human body, wherein a filter function is calculated from the medical image based on a rate of change in head-to-tail direction of pixel intensity related to a contact area between a diaphragm and a liver. A medical image processing program comprising: a generating step; and a step of performing a deconvolution process on the medical image using the generated filter function.
(2) The medical image processing program according to (1), wherein the medical image is a nuclear medicine image, and the change rate is calculated based on a count value of radiation measurement in the contact area.
(3) The medical image processing program according to (2), wherein the first derivative function of the count value profile curve is the filter function.
(4) The medical image processing program according to any one of (1) to (3), wherein a coronal cross-sectional image of the liver or a sagittal cross-sectional image passing through an intermediate portion in the left-right direction of the liver is used as the medical image.
(5) constructing a three-dimensional image of a chest based on a plurality of tomographic images captured from a different imaging direction from the medical image; and creating the medical image from the configured three-dimensional image. The medical image processing program according to (4), further including:
(6) The deconvolution processing includes the following steps (i) to (iii): (i) a step of generating a superimposed image by superimposing the filter function on the estimated image, and (ii) the superimposed image and the medical use From the above (1), including repeatedly performing an error determination of the estimated image based on a degree of deviation from the image, and (iii) updating the estimated image based on a result of the error determination The medical image processing program according to any one of (5).
(7) The medical image processing program according to (6), wherein all the pixel intensities of the initial image of the estimated image are non-zero.
(8) The medical image processing program according to any one of (1) to (7), wherein the medical image is a three-dimensional image and the filter function is a three-dimensional function.
(9) The medical image is a two-dimensional image, and further includes a step of constructing a three-dimensional image of the chest based on the plurality of medical images subjected to the deconvolution processing. The medical image processing program according to any one of the above.
(10) The medical image processing program according to (9), wherein the deconvolution processing is performed on a plurality of the medical images using the common filter function that is a one-dimensional or two-dimensional function. .
(11) In the above (9), the rate of change is individually calculated for a plurality of medical images to generate the filter function, and the medical image is subjected to the deconvolution processing using the generated filter function. The medical image processing program described.
(12) Any one of the above (1) to (11), wherein the filter function has a higher sharpness at a position where the distance from the diaphragm in the head-to-tail direction is larger than the sharpness in the vicinity of the diaphragm. A medical image processing program according to claim 1.
(13) A step of calculating a filter function from a medical image including a chest of a human body based on a change rate in a head-to-tail direction of a pixel intensity related to a contact area between the diaphragm and the liver, and the medical use using the calculated filter function Performing a deconvolution process on the image.
(14) An apparatus for performing image processing on a medical image including a chest of a human body, the image input means for inputting the medical image, and the area specifying means for specifying the contact area between the diaphragm and the liver in the input medical image A rate-of-change calculating unit that calculates a rate of change of the pixel intensity of the medical image related to the identified contact area in a head-to-tail direction, and a filter that generates a filter function of the medical image based on the calculated rate of change A medical image processing apparatus comprising: generation means; and sharpening processing means for performing deconvolution processing on the medical image using the generated filter function.

10:画像入力部、20:領域特定部、30:変化率算出部、40:フィルタ生成部、50:鮮鋭化処理部、52:重畳演算部、54:誤差判定部、56:画像更新部、60:再構成部、70:断層画像生成部、80:画像出力部、90:記憶部、100:医用画像処理装置、110:演算処理部、200:ディスプレイ装置、210:入力デバイス、300:接触領域、310:計測ライン、f0:初期画像、fcnv:重畳画像、ferr:誤差画像、fn:推定画像、forg:対象画像、S:被験者、IM:医用画像、AS:体軸断面画像、CS:冠状断面画像、SS:矢状断面画像、C:集積領域、LG:肺野、LV:肝臓 10: Image input unit, 20: Region specifying unit, 30: Change rate calculation unit, 40: Filter generation unit, 50: Sharpening processing unit, 52: Superimposition calculation unit, 54: Error determination unit, 56: Image update unit, 60: reconstruction unit, 70: tomographic image generation unit, 80: image output unit, 90: storage unit, 100: medical image processing device, 110: arithmetic processing unit, 200: display device, 210: input device, 300: contact Area 310: measurement line f 0 : initial image f cnv : superimposed image f err : error image f n : estimated image f org : target image S: test subject IM: medical image AS: body axis Cross-sectional image, CS: coronal cross-sectional image, SS: sagittal cross-sectional image, C: accumulation region, LG: lung field, LV: liver

Claims (14)

人体の胸部を含む医用画像をコンピュータに画像処理させるためのプログラムであって、
前記医用画像から横隔膜と肝臓との接触領域に関する画素強度の頭尾方向の変化率に基づいてフィルタ関数を生成するステップと、
生成された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行うステップと、
を含む医用画像処理プログラム。
A program for causing a computer to perform image processing on a medical image including a chest of a human body,
Generating a filter function from the medical image based on the rate of change in the head-to-tail direction of the pixel intensity for the contact area between the diaphragm and the liver;
Performing a deconvolution process on the medical image using the generated filter function;
A medical image processing program.
前記医用画像が核医学画像であり、前記接触領域における放射線計測のカウント値に基づいて前記変化率を算出する請求項1に記載の医用画像処理プログラム。   The medical image processing program according to claim 1, wherein the medical image is a nuclear medicine image, and the change rate is calculated based on a count value of radiation measurement in the contact area. 前記カウント値のプロファイルカーブの一次微分関数を前記フィルタ関数とする請求項2に記載の医用画像処理プログラム。   The medical image processing program according to claim 2, wherein a first-order differential function of the profile curve of the count value is the filter function. 前記医用画像として、肝臓の冠状断面画像または肝臓の左右方向の中間部を通る矢状断面画像を用いる請求項1から3のいずれか一項に記載の医用画像処理プログラム。   The medical image processing program according to any one of claims 1 to 3, wherein a coronal cross-sectional image of the liver or a sagittal cross-sectional image passing through an intermediate portion in the left-right direction of the liver is used as the medical image. 前記医用画像と異なる撮像方向から撮像された複数の断層画像に基づいて胸部の三次元画像を構成するステップと、
構成された前記三次元画像から前記医用画像を作成するステップと、を更に含む請求項4に記載の医用画像処理プログラム。
Configuring a three-dimensional image of the chest based on a plurality of tomographic images taken from different imaging directions from the medical image;
The medical image processing program according to claim 4, further comprising: creating the medical image from the configured three-dimensional image.
前記デコンボリューション処理が、以下の(i)から(iii)の工程;
(i)前記フィルタ関数を推定画像に重畳して重畳画像を生成する工程、
(ii)前記重畳画像と前記医用画像との乖離度に基づいて前記推定画像の誤差判定を行う工程、
(iii)前記誤差判定の結果に基づいて前記推定画像を更新する工程、
を反復的に行うことを含む請求項1から5のいずれか一項に記載の医用画像処理プログラム。
The deconvolution process includes the following steps (i) to (iii):
(I) generating a superimposed image by superimposing the filter function on the estimated image;
(Ii) performing an error determination on the estimated image based on a degree of divergence between the superimposed image and the medical image;
(Iii) updating the estimated image based on the result of the error determination;
The medical image processing program according to any one of claims 1 to 5, comprising repetitively performing.
前記推定画像の初期画像のすべての画素強度が非ゼロである請求項6に記載の医用画像処理プログラム。   The medical image processing program according to claim 6, wherein all pixel intensities of the initial image of the estimated image are non-zero. 前記医用画像が三次元画像であり、前記フィルタ関数が三次元関数である請求項1から7のいずれか一項に記載の医用画像処理プログラム。   The medical image processing program according to any one of claims 1 to 7, wherein the medical image is a three-dimensional image, and the filter function is a three-dimensional function. 前記医用画像が二次元画像であり、前記デコンボリューション処理が施された複数の前記医用画像に基づいて前記胸部の三次元画像を構成するステップを更に含む請求項1から7のいずれか一項に記載の医用画像処理プログラム。   The medical image is a two-dimensional image, and further includes a step of configuring a three-dimensional image of the chest based on the plurality of medical images subjected to the deconvolution processing. The medical image processing program described. 複数の前記医用画像に対して、一次元または二次元関数である共通の前記フィルタ関数を用いて前記デコンボリューション処理を行うことを特徴とする請求項9に記載の医用画像処理プログラム。   The medical image processing program according to claim 9, wherein the deconvolution processing is performed on a plurality of the medical images using the common filter function which is a one-dimensional or two-dimensional function. 複数の前記医用画像に関して個別に前記変化率を算出して前記フィルタ関数を生成し、生成された前記フィルタ関数を用いて当該医用画像にそれぞれ前記デコンボリューション処理を行う請求項9に記載の医用画像処理プログラム。   The medical image according to claim 9, wherein the rate of change is individually calculated for a plurality of the medical images to generate the filter function, and the deconvolution processing is performed on the medical images using the generated filter function. Processing program. 前記フィルタ関数は、横隔膜の近傍における鮮鋭度よりも、横隔膜からの頭尾方向の距離が大きい位置における鮮鋭度の方が高いことを特徴とする請求項1から11のいずれか一項に記載の医用画像処理プログラム。   12. The filter function according to claim 1, wherein a sharpness at a position where a distance in a head-to-tail direction from the diaphragm is large is higher than a sharpness in the vicinity of the diaphragm. Medical image processing program. 人体の胸部を含む医用画像から横隔膜と肝臓との接触領域に関する画素強度の頭尾方向の変化率に基づいてフィルタ関数を算出する工程と、
算出された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行う工程と、
を含む医用画像処理方法。
Calculating a filter function based on a rate of change in the head-to-tail direction of the pixel intensity related to the contact area between the diaphragm and the liver from a medical image including the chest of the human body;
Performing a deconvolution process on the medical image using the calculated filter function;
A medical image processing method.
人体の胸部を含む医用画像を画像処理する装置であって、
前記医用画像を入力する画像入力手段と、
入力された前記医用画像における横隔膜と肝臓との接触領域を特定する領域特定手段と、
特定された前記接触領域に関する前記医用画像の画素強度の頭尾方向の変化率を算出する変化率算出手段と、
算出された前記変化率に基づいて前記医用画像のフィルタ関数を生成するフィルタ生成手段と、
生成された前記フィルタ関数を用いて前記医用画像にデコンボリューション処理を行う鮮鋭化処理手段と、
を含む医用画像処理装置。
An apparatus for image processing a medical image including a chest of a human body,
Image input means for inputting the medical image;
Area specifying means for specifying a contact area between the diaphragm and the liver in the input medical image;
A rate-of-change calculating means for calculating a rate of change in the head-to-tail direction of the pixel intensity of the medical image related to the identified contact area;
Filter generation means for generating a filter function of the medical image based on the calculated rate of change;
Sharpening processing means for performing deconvolution processing on the medical image using the generated filter function;
A medical image processing apparatus.
JP2013037857A 2013-02-27 2013-02-27 Medical image processing program, medical image processing method, and medical image processing apparatus Expired - Fee Related JP6035167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013037857A JP6035167B2 (en) 2013-02-27 2013-02-27 Medical image processing program, medical image processing method, and medical image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013037857A JP6035167B2 (en) 2013-02-27 2013-02-27 Medical image processing program, medical image processing method, and medical image processing apparatus

Publications (2)

Publication Number Publication Date
JP2014161658A true JP2014161658A (en) 2014-09-08
JP6035167B2 JP6035167B2 (en) 2016-11-30

Family

ID=51612858

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013037857A Expired - Fee Related JP6035167B2 (en) 2013-02-27 2013-02-27 Medical image processing program, medical image processing method, and medical image processing apparatus

Country Status (1)

Country Link
JP (1) JP6035167B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011147560A (en) * 2010-01-20 2011-08-04 Toshiba Corp Magnetic resonance imaging apparatus
JP2013505492A (en) * 2009-09-18 2013-02-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for determining blur characteristics in a blurred image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013505492A (en) * 2009-09-18 2013-02-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for determining blur characteristics in a blurred image
JP2011147560A (en) * 2010-01-20 2011-08-04 Toshiba Corp Magnetic resonance imaging apparatus

Also Published As

Publication number Publication date
JP6035167B2 (en) 2016-11-30

Similar Documents

Publication Publication Date Title
CN109009200B (en) System and method for positron emission tomography image reconstruction
Segars et al. Application of the 4-D XCAT phantoms in biomedical imaging and beyond
Küstner et al. MR-based respiratory and cardiac motion correction for PET imaging
US9754390B2 (en) Reconstruction of time-varying data
Tsoumpas et al. Fast generation of 4D PET-MR data from real dynamic MR acquisitions
EP2925216B1 (en) Stenosis therapy planning
CN105989621B (en) Method and system for performing joint estimation techniques in image reconstruction
US9968324B2 (en) Generating a 2D projection image of a vascular system
US10282872B2 (en) Noise reduction in tomograms
WO2005046478A1 (en) Image processing method, image processing device, medical image diagnosis support system, and time-axis direction filtering method
CN109381205B (en) Method for performing digital subtraction angiography, hybrid imaging device
EP3084726B1 (en) Moving structure motion compensation in imaging
US20230097849A1 (en) Creation method of trained model, image generation method, and image processing device
US11127153B2 (en) Radiation imaging device, image processing method, and image processing program
US10297023B2 (en) Reconstruction of an image on the basis of one or more imaging modalities
US10013778B2 (en) Tomography apparatus and method of reconstructing tomography image by using the tomography apparatus
CN110458779B (en) Method for acquiring correction information for attenuation correction of PET images of respiration or heart
JP6678822B2 (en) Apparatus for tomosynthesis image reconstruction
EP3300664B1 (en) Reconstruction of flow data
EP3725227B1 (en) Method of calibrating x-ray projection geometry in x-ray cone beam computed tomography
KR20210102958A (en) Automated Motion Compensation in PET Imaging
KR101232925B1 (en) Apparatus and method for producing a real-time tomography, and a medical device using the real-time tomography
JP6035167B2 (en) Medical image processing program, medical image processing method, and medical image processing apparatus
Ozsahin et al. Monte Carlo simulation of PET/MR scanner and assessment of motion correction strategies
Zhang et al. Dynamic estimation of three‐dimensional cerebrovascular deformation from rotational angiography

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161031

R150 Certificate of patent or registration of utility model

Ref document number: 6035167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees