JP3195136B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP3195136B2
JP3195136B2 JP21861593A JP21861593A JP3195136B2 JP 3195136 B2 JP3195136 B2 JP 3195136B2 JP 21861593 A JP21861593 A JP 21861593A JP 21861593 A JP21861593 A JP 21861593A JP 3195136 B2 JP3195136 B2 JP 3195136B2
Authority
JP
Japan
Prior art keywords
image
tomographic plane
image data
contour
tomographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21861593A
Other languages
Japanese (ja)
Other versions
JPH0773291A (en
Inventor
直樹 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Corp filed Critical Japan Science and Technology Corp
Priority to JP21861593A priority Critical patent/JP3195136B2/en
Publication of JPH0773291A publication Critical patent/JPH0773291A/en
Application granted granted Critical
Publication of JP3195136B2 publication Critical patent/JP3195136B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、MRI−CTやX線C
T、超音波診断装置などから得られる連続する複数の断
層面の画像データに基づいて3次元像の輪郭の2次元パ
ターンを認識する画像処理装置に関し、特に診断などに
おいて注目される領域あるいは臓器等の輪郭を表す特徴
パターン情報を高速にかつ効率的に抽出することが可能
な画像処理装置に関する。
BACKGROUND OF THE INVENTION The present invention relates to MRI-CT and X-ray C
T, an image processing apparatus for recognizing a two-dimensional pattern of a contour of a three-dimensional image based on image data of a plurality of continuous tomographic planes obtained from an ultrasonic diagnostic apparatus, etc. The present invention relates to an image processing apparatus capable of rapidly and efficiently extracting feature pattern information representing an outline of a pattern.

【0002】心臓や肝臓などの臓器を対象とする診断で
は、診断装置から得られる生体の像から臓器の3次元輪
郭像を作成することが診断精度を向上させるうえで強く
望まれている。本発明は、各断層面の画像データから有
効な3次元像を高い精度で効率的に自動作成する画像処
理装置を提供する。
In diagnosis of organs such as the heart and liver, it is strongly desired to create a three-dimensional contour image of an organ from an image of a living body obtained from a diagnostic apparatus in order to improve the accuracy of diagnosis. The present invention provides an image processing apparatus that automatically and efficiently creates an effective three-dimensional image from image data of each tomographic plane with high accuracy.

【0003】[0003]

【従来の技術】最近、MRI−CTやX線CT及び超音
波診断装置を用いて生体の連続断層面の画像データを作
成し、診断を行う技術がさかんに利用されるようになっ
てきている。従来のこれらのデータを処理する画像処理
装置では、個々の断層面において臓器や組織の2次元的
な輪郭パターンの認識を行い、各断層面ごとの認識結果
を組み合わせて3次元像を作成していたが、実際の連続
断層面の画像データから3次元の臓器輪郭を高精度・高
速に自動抽出することは容易ではなかった。これは、組
織の解剖学的形態を考慮しないで行われる画像処理で
は、誤認識や認識不能となる輪郭パターンが多くなるか
らである。このため従来は、専門の医師が各断層像毎に
読影した2次元の臓器輪郭を計算機に入力し、3次元の
臓器輪郭の抽出を行っていた。
2. Description of the Related Art Recently, a technique of creating image data of a continuous tomographic plane of a living body using an MRI-CT, an X-ray CT, and an ultrasonic diagnostic apparatus and performing a diagnosis has been increasingly used. . In a conventional image processing apparatus that processes these data, a two-dimensional contour pattern of an organ or a tissue is recognized on each tomographic plane, and a recognition result of each tomographic plane is combined to create a three-dimensional image. However, it has not been easy to automatically and accurately extract a three-dimensional organ contour from image data of an actual continuous tomographic plane. This is because, in image processing performed without considering the anatomical form of the tissue, there are many contour patterns that are erroneously recognized or cannot be recognized. For this reason, conventionally, a two-dimensional organ outline read by a specialized doctor for each tomographic image is input to a computer to extract a three-dimensional organ outline.

【0004】[0004]

【発明が解決しようとする課題】断層面の垂直方向の絶
対的位置が規則的な(たとえば等間隔の)多数の連続断
層面の画像から3次元輪郭画像を作成するための従来の
画像処理装置では、生体の臓器などの輪郭画像を対象と
する場合、通常の画像処理装置の輪郭認識処理機能の能
力では実用レベルのものを得ることは困難であった。こ
のため専門家による人手作業(用手法という)での連続
断層面画像の読み取りを行って意図する臓器の輪郭を識
別し、その画像データを入力し直す必要があった。
A conventional image processing apparatus for creating a three-dimensional contour image from a plurality of images of a continuous tomographic plane whose absolute position in the vertical direction of the tomographic plane is regular (for example, at equal intervals). Then, when a contour image of an organ of a living body or the like is targeted, it is difficult to obtain a practical level with the capability of a contour recognition processing function of a normal image processing apparatus. For this reason, it is necessary to read the continuous tomographic plane image by a manual operation (referred to as a manual technique) by an expert, identify the contour of the intended organ, and re-input the image data.

【0005】しかし用手法により連続断層面の画像中の
臓器輪郭の画像データを入力する方法では、画像の読み
取り解読と入力処理に時間がかかり、そのため処理対象
データ数が制限されるという問題があった。
However, the method of inputting the image data of the contour of the organ in the image of the continuous tomographic plane by the conventional method has a problem in that it takes time to read and decode the image and input processing, thereby limiting the number of data to be processed. Was.

【0006】本発明は、連続断層面の画像データから3
次元輪郭画像を自動作成する処理の精度を改善し、実用
レベルの高速動作が可能な画像処理装置を実現すること
を目的としている。
[0006] The present invention is based on the image data of a continuous tomographic plane.
It is an object of the present invention to improve the accuracy of processing for automatically creating a three-dimensional contour image, and to realize an image processing apparatus capable of high-speed operation at a practical level.

【0007】[0007]

【課題を解決するための手段】本発明は、各連続断層面
の画像データを対象とする臓器輪郭等の関心領域の2次
元パターンの認識処理において、当該2次元パターンの
中のある領域が輝度、形状、位置に関しその内の全てあ
るいはいずれかに特徴的な性質を有するために、2次元
パターンからその領域(以後、基準領域と呼ぶ)の抽出
が簡便な処理によって容易に行えるかあるいはその領域
に関する情報がある程度確定できるとき、2次元パター
ン中で抽出の困難な領域の認識処理を行うのに先立つ前
処理によって基準領域に関する情報を取得し、その基準
画像の位置情報を抽出困難な領域本来の輝度・形態情報
に加えることで2次元パターン全体の領域認識精度の向
上を図るものである。
According to the present invention, in a process for recognizing a two-dimensional pattern of a region of interest such as an organ contour which targets image data of each continuous tomographic plane, a certain region in the two-dimensional pattern has a luminance. , Shape, and position have characteristic characteristics in all or any of them, so that the extraction of the area (hereinafter referred to as a reference area) from the two-dimensional pattern can be easily performed by simple processing or the area can be easily extracted. When the information about the reference area can be determined to some extent, information about the reference area is obtained by preprocessing prior to performing the recognition processing of the area that is difficult to extract in the two-dimensional pattern, and the position information of the reference image is extracted from the original area that is difficult to extract. It is intended to improve the area recognition accuracy of the entire two-dimensional pattern by adding it to the luminance / morphological information.

【0008】図1は、本発明の原理的構成図であり、例
示的方法を用いて示したものである。図1において、1
は、MRI−CTなどの連続断層面の画像データを生成
できる断層装置である。
FIG. 1 is a block diagram showing the principle of the present invention, which is shown using an exemplary method. In FIG. 1, 1
Is a tomographic apparatus that can generate image data of a continuous tomographic plane such as MRI-CT.

【0009】2−1は、断層装置1から出力された各連
続断層面の画像データを格納する連続断層面画像データ
ファイルである。2−2は、断層装置1から同一位置で
別の撮像条件で出力された各連続断層面の画像データを
格納する連続断層面画像データファイルである。
A continuous tomographic plane image data file 2-1 stores image data of each continuous tomographic plane output from the tomographic apparatus 1. A continuous tomographic plane image data file 2-2 stores image data of each continuous tomographic plane output from the tomographic apparatus 1 at the same position under different imaging conditions.

【0010】3−1ないし3−Nは、ファイルに格納さ
れている連続断層面画像データである。画像データは、
画像の濃度レベルを画素単位に表したものである。4
は、1つの断層面の画像データを入力として、いくつか
の前処理を通して基準組織の2次元パターンを抽出する
基準組織画像抽出部である。
Reference numerals 3-1 to 3-N denote continuous tomographic plane image data stored in a file. Image data is
The density level of an image is expressed in pixel units. 4
Is a reference tissue image extraction unit that receives image data of one tomographic plane as input and extracts a two-dimensional pattern of the reference tissue through some preprocessing.

【0011】5は、後述される認識処理部6において、
入力される画像データの認識の方法を規定する知識ファ
イルである。6は、連続断層面画像データファイル2−
1あるいは2−2からの断層面の画像データを入力とし
ていくつかの前処理を通して、基準組織画像抽出部4か
らの基準組織画像データとともに知識ファイル5の知識
に基づき認識を行う認識処理部である。
Reference numeral 5 denotes a recognition processing unit 6 described later.
This is a knowledge file that defines a method of recognizing input image data. 6 is a continuous tomographic plane image data file 2-
A recognition processing unit that performs recognition based on the knowledge of the knowledge file 5 together with the reference tissue image data from the reference tissue image extraction unit 4 through some preprocessing using the image data of the tomographic plane from 1 or 2-2 as input. .

【0012】断層装置1から出力される一定間隔で作成
された連続する複数(N枚)の断層面の多値の画像デー
タは、連続断層面画像データファイル2−1,2−2に
3−1ないし3−Nで示されるように別々に格納され
る。連続断層面画像データファイル2−2の断層面画像
データ3−1ないし3−Nは、エッジを強調する微分処
理、同一断層面内及び隣接断層面内の輪郭線の連続画素
部分からの距離分布を得る処理、などの前処理を行って
認識処理部6に入力される。
The multivalued image data of a plurality of (N) continuous tomographic planes generated at a constant interval and output from the tomographic apparatus 1 is stored in a continuous tomographic plane image data file 2-1, 2-2. They are stored separately as indicated by 1 to 3-N. The tomographic plane image data 3-1 to 3-N of the continuous tomographic plane image data file 2-2 is subjected to differential processing for emphasizing an edge, and a distance distribution from a continuous pixel portion of a contour line in the same tomographic plane and an adjacent tomographic plane. , And input to the recognition processing unit 6.

【0013】連続断層面画像データファイル2−1の断
層面画像データ3−1〜3−Nは、連続断層面画像デー
タファイル2−2の断層面画像データ3−1〜3−Nと
同一の撮像条件あるいは異なる撮像条件で撮像されたも
ので、基準組織を抽出しやすいものが用いられる。デー
タファイル2−1の断層面画像データ3−1〜3−N
は、前処理された後基準組織画像抽出部4に入力され、
適当な閾値による2値化を行って基準組織領域の抽出が
行われる。
The tomographic plane image data 3-1 to 3-N of the continuous tomographic plane image data file 2-1 is the same as the tomographic plane image data 3-1 to 3-N of the continuous tomographic plane image data file 2-2. An image taken under imaging conditions or under different imaging conditions, from which a reference tissue can be easily extracted, is used. Tomographic plane image data 3-1 to 3-N of the data file 2-1
Is input to the pre-processed post-reference tissue image extraction unit 4,
The reference tissue region is extracted by performing binarization using an appropriate threshold.

【0014】断層装置にX線−CTが用いられる場合に
は、基準組織領域を抽出する断層面画像データ3−1〜
3−Nとして、認識処理部6に直接入力されるものと同
一の撮像条件のものが選ばれる。
When X-ray-CT is used for a tomographic apparatus, tomographic plane image data 3-1 to 3-1 for extracting a reference tissue region is used.
As 3-N, the one under the same imaging conditions as those directly input to the recognition processing unit 6 is selected.

【0015】基準組織画像抽出部4は、基準組織の占有
領域を決定し、画像データ中において基準組織の内部に
ある画素かあるいは外部にある画素かによって2値化し
た画像データを作成し、さらに画素ごとにその輪郭部分
からの距離分布を計算した画像データを得る。これらの
2つの画像データは、基準画像のデータとして認識処理
部6に入力される。
The reference tissue image extracting unit 4 determines an occupied area of the reference tissue, and creates binarized image data depending on whether the pixel is inside or outside the reference tissue in the image data. Image data in which the distance distribution from the contour portion is calculated for each pixel is obtained. These two image data are input to the recognition processing unit 6 as reference image data.

【0016】認識処理部6は、断層面ごとに3次元像の
輪郭の2次元パターンの認識処理を行う機能をもつが、
ハードウェア上では、断層面ごとおよび関心項目の認識
対象パターンごとに多重化されて並列処理するように構
成されていても、あるいはより少数のハードウェアを用
いてシーケンシャルに処理するように構成されていても
よい。
The recognition processing unit 6 has a function of recognizing a two-dimensional pattern of a contour of a three-dimensional image for each tomographic plane.
On the hardware, even if it is configured to be multiplexed and processed in parallel for each tomographic plane and for each pattern to be recognized of the item of interest, or configured to perform processing sequentially using a smaller number of hardware. You may.

【0017】認識処理部6における認識処理結果出力
は、当該スライス面における輪郭線の確度の高い位置を
表し、その結果により関心領域の2次元パターンを得
る。なお図1の例の構成では、連続断層面画面ファイル
群として2−1,2−2の2種を用いているが、1種で
基準組織の抽出が行えれば認識処理部6に入力するのは
1種のみでもよい。
The output of the recognition processing result in the recognition processing unit 6 indicates the position of the contour line on the slice plane where the accuracy is high, and a two-dimensional pattern of the region of interest is obtained based on the result. In the configuration of the example in FIG. 1, two types of 2-1 and 2-2 are used as the continuous tomographic plane screen file group, but if the reference tissue can be extracted by one type, it is input to the recognition processing unit 6. May be only one kind.

【0018】また、認識処理部6より出力された2次元
パターンを、隣接面における基準組織画像抽出部4に入
力して、隣接面の基準組織の抽出に用いてもよい。
Further, the two-dimensional pattern output from the recognition processing unit 6 may be input to the reference tissue image extraction unit 4 on the adjacent surface and used for extracting the reference tissue on the adjacent surface.

【0019】[0019]

【作用】たとえば生体腹部の診断において、肝臓の3次
元輪郭像を知りたい場合、MRI−CT出力の連続断層
面の各画像データには、肝臓以外にも腹腔壁や、胃、椎
体(脊椎)、腹部大動脈その他の臓器や組織の画像情報
が含まれている。図2の(a),(b)はこのような連
続断層面の画像の例を示したもので、(a)はn枚目の
断層面、(b)はn+1枚目の断層面をそれぞれ表して
いる。(a)のn枚目の断層面では、関心項目の肝臓の
ほかに腹腔壁、椎体、腹部大動脈の領域を明瞭に認める
ことができ、(b)のn+1枚目の断層面にはさらに胃
の領域の存在を視認できる。
For example, when it is desired to obtain a three-dimensional contour image of the liver in the diagnosis of the abdomen of a living body, the image data of the continuous tomographic plane of the MRI-CT output includes not only the liver but also the abdominal cavity wall, stomach, and vertebral body ), Image information of the abdominal aorta and other organs and tissues. 2A and 2B show examples of images of such a continuous tomographic plane, wherein FIG. 2A shows an n-th tomographic plane, and FIG. 2B shows an (n + 1) th tomographic plane. Represents. On the n-th tomographic plane in (a), the region of the abdominal cavity wall, vertebral body, and abdominal aorta can be clearly recognized in addition to the liver of the item of interest. The presence of the stomach area can be visually recognized.

【0020】読影が困難な組織や臓器の画像群において
も、ある特定の組織および臓器はその占有領域の位置・
形状あるいは輝度が特徴的で、異なる画像間においても
ある範囲ではその占有領域に関して予測することが可能
である場合が多い。本発明では、このような性質を利用
して、形状・位置ともに予測困難な他の軟組織等の部位
の領域抽出を行う。
Even in a group of images of tissues and organs that are difficult to read, certain tissues and organs are located at the position of the occupied area.
The shape or the luminance is characteristic, and it is often possible to predict the occupied area in a certain range even between different images. In the present invention, utilizing such properties, region extraction is performed for a region of another soft tissue or the like whose shape and position are difficult to predict.

【0021】たとえば関心項目として肝臓に着目する
と、肝臓が画像中で示す輝度・形状の特徴は、隣接する
周辺組織との弁別を完全に行わせるほど明確ではない。
このような軟組織等の自動認識が困難な部位に関して、
従来は専門家の読影による作業に頼っていたが、本発明
では、関心項目以外の臓器や組織の画像情報で、輪郭抽
出が容易に行えるものや、存在位置に関する情報が容易
に得られる場合、その領域の画像位置情報を予め取得
し、その領域を基準組織として認識困難な領域の抽出の
際の情報として利用するものである。
For example, when attention is paid to the liver as an item of interest, the characteristics of the brightness and shape that the liver shows in the image are not so clear as to completely discriminate them from adjacent peripheral tissues.
For the parts where automatic recognition such as soft tissue is difficult,
In the past, it relied on the work of interpretation by specialists.In the present invention, image information of organs and tissues other than the item of interest can be easily extracted, and if information on the location is easily obtained, The image position information of the region is acquired in advance, and the region is used as information when extracting a region that is difficult to recognize as a reference tissue.

【0022】図3は、本発明による認識処理の1例を示
したもので、図中に斜線を付して示されている腹腔壁、
椎体および腹部大動脈をそれぞれ基準組織として認識処
理対象領域において予め取得し、基準組織の存在領域を
基準にその他の領域抽出困難部位の存在可能性を、基準
組織領域内に含まれるかどうか、及び基準組織領域辺縁
からの距離分布で表して、入力画像上に設定する。
FIG. 3 shows an example of the recognition processing according to the present invention.
The vertebral body and the abdominal aorta are each acquired in advance in the recognition processing target region as the reference tissue, and the presence of the other region extraction difficult site based on the presence region of the reference tissue is included in the reference tissue region, and Expressed as a distance distribution from the edge of the reference tissue region and set on the input image.

【0023】なお、たとえば図2の(a)のように、腹
腔壁や椎体、腹部大動脈のような組織の画像が他の臓器
や組織から弁別しやすく、これらを高い精度で認識でき
る断層面が得られる場合には、その断層面での基準画像
としてその認識結果を他の断層面に適用して認識困難な
部位の認識処理を容易にすることができる。これは腹腔
壁や椎体、腹部大動脈の場合は、断層面によって位置や
大きさがそれほど大きく変動することがないからであ
る。
For example, as shown in FIG. 2A, an image of a tissue such as an abdominal wall, a vertebral body, or an abdominal aorta can be easily distinguished from other organs or tissues, and a tomographic plane capable of recognizing these with high accuracy. Is obtained, the recognition result can be applied to another tomographic plane as a reference image on the tomographic plane to facilitate recognition processing of a part that is difficult to recognize. This is because the position and size of the abdominal wall, vertebral body, and abdominal aorta do not vary so much depending on the tomographic plane.

【0024】[0024]

【実施例】以下に、本発明による画像処理装置の実施例
を説明する。図4は、ファジィ素子を用いて臓器等の関
心3次元像のマルチスライスされた輪郭画像を抽出する
本発明実施例のハードウェアの基本構成図である。図中
7ないし11で示される構成要素は通常のパソコンにお
けるものと同じであり、7はCPU、8は主メモリMS
U、9はファイル制御ユニットFCU、10は作業用フ
ァイル装置、11はシステムバスである。また12ない
し15は画像処理のために特別に付加されている構成要
素であり、12はフレームメモリボード、13はファジ
ィ推論ボード、14はファジィ素子、15はメモリ、1
6は原画像ファイル装置、17はビデオ信号出力装置で
ある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the image processing apparatus according to the present invention will be described below. FIG. 4 is a basic configuration diagram of hardware of an embodiment of the present invention for extracting a multi-sliced contour image of a three-dimensional image of interest such as an organ using a fuzzy element. The components denoted by reference numerals 7 to 11 in the figure are the same as those in a normal personal computer, 7 is a CPU, 8 is a main memory MS.
U and 9 are file control units FCU, 10 is a working file device, and 11 is a system bus. Reference numerals 12 to 15 denote components specially added for image processing, 12 is a frame memory board, 13 is a fuzzy inference board, 14 is a fuzzy element, 15 is a memory,
6 is an original image file device, and 17 is a video signal output device.

【0025】断層装置等から出力された各連続断層面の
画像データは、図4の原画像ファイル装置16にアナロ
グのビデオ信号形式で記録されている。3次元画像作成
のためにビデオ信号出力装置17を介して原画像ファイ
ル装置16から読み出された各断層面の画像データは、
フレームメモリボード12に入力され、A/D変換され
て多値のディジタル信号形式で断層面単位にフレームメ
モリに格納され、さらにFCU9を介して作業用ファイ
ル装置10に格納される。作業用ファイル装置10内に
示されているF1ないしF7は、作業用に作成されるフ
ァイルである。
The image data of each continuous tomographic plane output from the tomographic device or the like is recorded in the original image file device 16 in FIG. 4 in the form of an analog video signal. Image data of each tomographic plane read from the original image file device 16 via the video signal output device 17 for creating a three-dimensional image is:
The data is input to the frame memory board 12, A / D converted, stored in the frame memory in multi-level digital signal format in units of tomographic planes, and further stored in the working file device 10 via the FCU 9. F1 to F7 shown in the work file device 10 are files created for work.

【0026】ファジィ推論ボード13は、図1における
認識処理部6の機能を、知識ファイル5を用いてファジ
ィ推論機能によって実現するもので、断層面別、関心項
目別に多数のファジィ素子14を配置したものである。
またメモリ15は、ファジィ演算を行うための推論ルー
ルやメンバシップ関数、演算データなどを格納するため
に用いられる。推論ルールやメンバシップ関数は、CP
U7側で作成してファジィ制御ボード13に供給され
る。
The fuzzy inference board 13 realizes the function of the recognition processing unit 6 in FIG. 1 by a fuzzy inference function using the knowledge file 5, and has a large number of fuzzy elements 14 arranged for each tomographic plane and each item of interest. Things.
The memory 15 is used for storing inference rules, membership functions, operation data, and the like for performing fuzzy operations. Inference rules and membership functions are CP
It is created on the U7 side and supplied to the fuzzy control board 13.

【0027】作業用ファイル装置10内に示されている
ファイルF1ないしF7の構成の詳細は図5に示されて
いる。各ファイルの内容は、次のようなものである。F
1は、フレームメモリボード12からの原画像データを
保持する原画像ファイルである。
The details of the configuration of the files F1 to F7 shown in the working file device 10 are shown in FIG. The contents of each file are as follows. F
Reference numeral 1 denotes an original image file that holds original image data from the frame memory board 12.

【0028】F2は、F1のコピーの原画像ファイルで
ある。このF2の値が注目画素において高値あるいは低
値であれば、その列における輪郭候補点としての可能性
が高まるように推論ルールおよびメンバシップ関数が作
成される。この高値あるいは低値であるかは、用いる画
像および関心領域の種類に依存する。
F2 is the original image file of the copy of F1. If the value of F2 is a high value or a low value in the pixel of interest, an inference rule and a membership function are created so that the possibility as a contour candidate point in the column is increased. Whether the value is high or low depends on the type of the image and the region of interest used.

【0029】F3は、F2の原画像データと微分処理を
施して画像のエッジを強調した画像データを格納した微
分画像ファイルである。このF3の値が注目画素で高値
であれば、その列における輪郭候補点としての可能性が
高まるように推論ルールおよびメンバシップ関数が作成
される。
F3 is a differential image file storing the original image data of F2 and image data in which the edge of the image is emphasized by differentiating the original image data. If the value of F3 is a high value for the pixel of interest, an inference rule and a membership function are created so that the possibility as a contour candidate point in that column is increased.

【0030】F4は、同一断層面内での関心領域の連続
性を検出した結果を示す画像データを格納した層内連続
性ファイルであり、既処理列における輪郭候補点からの
距離分布を有する情報をもつ。
F4 is an intra-layer continuity file storing image data indicating the result of detecting the continuity of the region of interest in the same tomographic plane, and has information having a distance distribution from contour candidate points in the already processed row. With.

【0031】F5は、隣接断層面との間での関心領域の
連続性を検出した結果を示す画像データが格納された層
間連続性ファイルであり、既処理隣接面における輪郭候
補点からの距離分布を有する情報をもつ。
F5 is an interlayer continuity file in which image data indicating the result of detecting the continuity of the region of interest with the adjacent tomographic plane is stored, and the distance distribution from the contour candidate point in the processed adjacent plane is stored. With information having

【0032】上記したファイルF4とF5の値が注目画
素において低値すなわち連続性が高ければ、その列にお
ける輪郭候補点としての可能性が高まるように推論ルー
ルおよびメンバシップ関数が作成される。
If the values of the files F4 and F5 are low, that is, the continuity is high in the pixel of interest, an inference rule and a membership function are created so as to increase the possibility as a contour candidate point in that column.

【0033】F6は、原画像ファイルF1に対し、抽出
し易い基準組織画像の輪郭線と占有領域を抽出し、その
内と外で2値の値を画素に与えた基準画像データが格納
された基準組織輪郭ファイルである。このF6の値が注
目画素において、基準組織領域内に与えられた数値であ
れば、その列における輪郭候補点としての可能性が低く
なるように推論ルールおよびメンバシップ関数が作成さ
れる。
In step F6, the contour image and the occupied area of the reference tissue image, which are easy to extract, are extracted from the original image file F1, and reference image data in which pixels are given binary values inside and outside thereof are stored. 9 is a reference tissue contour file. If the value of F6 is a numerical value given in the reference tissue region in the target pixel, an inference rule and a membership function are created so that the possibility of being a contour candidate point in the column is reduced.

【0034】F7は、基準画像の占有領域の辺縁からの
距離値を断層面全画素に与え、基準組織辺縁からの距離
分布を表す基準組織領域ファイルである。F7に関する
推論ルールおよびメンバシップ関数は、F2〜F6の値
によって変動するが、F6において注目画素が基準組織
内にあると判断された場合は、F7の値が大きい即ち注
目画素が基準組織の中心に近いときは、その注目画素が
その列における輪郭候補点である可能性が低くなるよう
に、推論ルールおよびメンバシップ関数が作成される。
F7 is a reference tissue area file representing the distance distribution from the edge of the reference tissue by giving the distance value from the edge of the occupied area of the reference image to all pixels on the tomographic plane. The inference rule and the membership function relating to F7 vary depending on the values of F2 to F6, but if it is determined in F6 that the target pixel is in the reference tissue, the value of F7 is large, that is, the target pixel is located at the center of the reference tissue. , An inference rule and a membership function are created such that the pixel of interest is less likely to be a contour candidate point in the column.

【0035】F8は、ファジィ推論結果の画像データを
格納する出力ファイルである。ここで具体例として、図
6に、X線−CTを断層装置に用いた場合の処理フロー
を示す。この図6の処理フローは、原画像ファイルF1
から原画像データを読み出して中間のファイルF2〜F
7を作成し、図4のファジィ推論ボード13に転送し
て、推論処理させる過程を示している。なお必要に応じ
て、図4の実施例構成が参照される。また説明の便宜
上、関心領域が腹部断層(横断面)像中の肝臓の場合を
述べる。この領域の断層画像上では、断層画像中の硬組
織の輝度が高いという特徴を有する。
F8 is an output file for storing image data as a result of fuzzy inference. Here, as a specific example, FIG. 6 shows a processing flow when X-ray-CT is used for a tomographic apparatus. The processing flow of FIG.
Read out the original image data from
7 is created, transferred to the fuzzy inference board 13 in FIG. 4, and subjected to inference processing. Note that the configuration of the embodiment in FIG. 4 is referred to as necessary. For convenience of explanation, a case where the region of interest is a liver in an abdominal tomographic (cross-sectional) image will be described. On the tomographic image in this region, the feature is that the brightness of the hard tissue in the tomographic image is high.

【0036】そこで、この連続断層画像においては硬組
織として、椎体および肋骨を基準組織として考え、閾値
処理による領域抽出を行う。さらに、基準組織の孤立化
および平滑化を行う。その後、断層像画面上の孤立点の
ノイズを除去した後、得られている画像を基準組織の画
像とする。そして、基準組織の輪郭内(輪郭線上を含
む)すなわち領域内の画素に数値1を与え、輪郭外すな
わち領域外の画素に数値0を与え、領域を基準組織の輪
郭線にて2値化する。そのファイルをF6とする。
Therefore, in this continuous tomographic image, the vertebral body and the ribs are considered as hard tissues as reference tissues, and a region is extracted by threshold processing. Further, the reference tissue is isolated and smoothed. Then, after removing noise at an isolated point on the tomographic image screen, the obtained image is used as an image of the reference tissue. Then, a numerical value 1 is given to pixels inside the contour of the reference tissue (including on the contour line), that is, inside the region, a numerical value 0 is given to pixels outside the contour, that is, outside the region, and the region is binarized by the contour line of the reference tissue. . The file is set to F6.

【0037】次に、注目画素が基準組織の輪郭線からど
れくらいの距離にあるかを計算し、その距離分布を基準
組織内部および外部に数値を与える。その距離分布ファ
イルをF7とする。
Next, the distance from the contour line of the reference tissue to the target pixel is calculated, and the distance distribution is given numerical values inside and outside the reference tissue. The distance distribution file is defined as F7.

【0038】ファイルF2ないしF7は、ファイルF1
に対して図4のCPU7がそれぞれ対応する画像処理プ
ログラムを実行することによって作成される。作業用フ
ァイル装置10のファイルF2ないしF7の画像データ
は、ファジィ推論処理開始前にファジィ推論ボード13
に転送される。同様に推論ルールおよびメンバシップ関
数のファイル(図示せず)も作業用ファイル装置10か
らファジィ推論ボード13に転送される。
The files F2 to F7 correspond to the file F1.
4 is executed by the CPU 7 of FIG. 4 executing the corresponding image processing program. The image data of the files F2 to F7 of the work file device 10 are stored in the fuzzy inference board 13 before the start of the fuzzy inference processing.
Is forwarded to Similarly, files of inference rules and membership functions (not shown) are also transferred from the working file device 10 to the fuzzy inference board 13.

【0039】CPU7側は、ファジィ推論ボード13の
各ファジィ素子14を制御してファジィ推論を実行す
る。ディファジィファイ処理まで行われたファジィ推論
の結果はMSU8に戻される。出力された注目画素の輪
郭候補点としての確度から、CPU7によって、画面の
ライン毎の輪郭線の候補点を決定する処理を行う。画面
の全体に亘ってこの一連の処理を行うことによって、候
補点を連続させた関心領域の輪郭を表す2次元パターン
の画像データが得られる。この2次元パターンの画像デ
ータは、出力ファイルF8に格納され、その後、3次元
画像を作成するために用いられる。
The CPU 7 controls each fuzzy element 14 of the fuzzy inference board 13 to execute fuzzy inference. The result of the fuzzy inference performed up to the defuzzification process is returned to the MSU 8. Based on the accuracy of the output target pixel as a contour candidate point, the CPU 7 performs a process of determining a contour candidate point for each line of the screen. By performing this series of processing over the entire screen, image data of a two-dimensional pattern representing the contour of the region of interest in which the candidate points are continuous can be obtained. The image data of the two-dimensional pattern is stored in the output file F8, and is subsequently used to create a three-dimensional image.

【0040】次に、別の具体例として、図7にMRI−
CTを断層装置に用いた場合の例の処理フローを示す。
関心領域が腹部断層(横断面)像中の肝臓の場合を述べ
る。MRIにおいて通常の方法で撮像したものと同一位
置を血管を強調した方法で撮像した画像とを用意する。
血管強調における連続断層画像においては腹部大動脈お
よび下大静脈の部位の輝度が高いという特徴を有する。
そこで、血管強調画像において、腹部大動脈・下大静脈
を基準組織として考え、閾値処理による領域抽出を行
う。さらに、基準組織の孤立化および平滑化を行う。そ
の後、断層像画面上の孤立点のノイズを除去した後、得
られている画像を基準組織の画像とする。そして、基準
組織の輪郭内(輪郭線上を含む)すなわち領域内の画素
に数値1を与え、輪郭外すなわち領域外の画素に数値0
を与え、領域を基準組織の輪郭線にて2値化する。その
ファイルをF6とする。
Next, as another specific example, FIG.
4 shows a processing flow of an example when CT is used for a tomographic apparatus.
The case where the region of interest is the liver in the abdominal tomographic (transverse) image will be described. An MRI image prepared by a method emphasizing blood vessels at the same position as an image obtained by a normal method is prepared.
The continuous tomographic image in the blood vessel enhancement has a feature that the brightness of the abdominal aorta and the inferior vena cava is high.
Therefore, in the blood vessel enhanced image, the abdominal aorta and inferior vena cava are considered as reference tissues, and region extraction is performed by threshold processing. Further, the reference tissue is isolated and smoothed. Then, after removing noise at an isolated point on the tomographic image screen, the obtained image is used as an image of the reference tissue. Then, a numerical value 1 is given to pixels inside the contour (including on the contour line) of the reference tissue, that is, inside the region, and a numerical value 0 is given to pixels outside the contour, that is, outside the region.
And binarize the region with the contour line of the reference tissue. The file is set to F6.

【0041】次に、注目画素が基準組織の輪郭線からど
れくらいの距離にあるかを計算し、その距離分布を基準
組織内部および外部に数値を与える。その距離分布ファ
イルをF7とする。
Next, the distance from the contour line of the reference tissue to the target pixel is calculated, and the distance distribution is given numerical values inside and outside the reference tissue. The distance distribution file is defined as F7.

【0042】このあとの処理は、図6のX線−CTの場
合と同様である。なお各断層面ごとの基準組織の画像デ
ータを作成する場合は、基準組織の画像の特性を利用す
ることによって作成処理を簡単化することができる。た
とえば図8の(a)に示す椎体の場合のように、各断層
面内での基準組織の画像の位置が不変に近い場合には、
特定の断層面で抽出した椎体の画像位置を記録し、各断
層面での画像の認識処理時に使用することができる。ま
た図8の(b)に示す腹部大動脈の例のように、組織が
直線形状をもっている場合には、一定間隔で離れている
12枚の断層面j,k(たとえば両端の断層面)で腹部
大動脈の位置、大きさを計測し、それらの値から中間の
断層面における値を補間して腹部大動脈の画像領域を求
めることができる。さらにある組織の画像が他の部分の
画像に比べて高輝度であることが判っている場合には、
予め適当な閾値を用いて各断層面の画像データをスキャ
ンし、その画像の情報のみを各断層面ごとに抽出してお
いて、使用することができる。
The subsequent processing is the same as in the case of X-ray-CT in FIG. When creating image data of the reference tissue for each tomographic plane, the creation process can be simplified by using the characteristics of the image of the reference tissue. For example, as in the case of the vertebral body shown in FIG. 8A, when the position of the image of the reference tissue in each tomographic plane is almost unchanged,
The image position of the vertebral body extracted at a specific tomographic plane can be recorded and used at the time of image recognition processing at each tomographic plane. Further, when the tissue has a linear shape as in the example of the abdominal aorta shown in FIG. 8B, the abdominal part is formed by twelve tomographic planes j and k (for example, the tomographic planes at both ends) which are separated at a constant interval. The position and size of the aorta can be measured, and the values on the intermediate tomographic plane can be interpolated from these values to determine the image area of the abdominal aorta. Also, if you know that the image of one tissue is brighter than the other,
The image data of each tomographic plane is scanned using an appropriate threshold value in advance, and only the information of the image is extracted for each tomographic plane and can be used.

【0043】図9は、本発明の実施例において用いられ
るファジィ推論のルールの例を一部示したものである。
これらのルールは、ある断層面画像データの処理におい
て注目した点の画素の特性として、輝度の高低、差分値
の大小、層内連続性の高低、層間連続性の高低、基準画
像領域の内外、基準画像の辺縁からの距離の遠近の各値
をとり、これらの値に基づいてその点が輪郭候補点であ
る可能性の高低を決定するファジィ推論の条件を示して
いる。ファジィ推論のルールは、読影が必要な画像の特
性に応じて最適に設定される。
FIG. 9 shows some examples of fuzzy inference rules used in the embodiment of the present invention.
These rules include, as characteristics of a pixel at a point of interest in processing of certain tomographic plane image data, luminance level, difference value level, intra-layer continuity level, inter-layer continuity level, inside / outside the reference image area, Each value of distance from the edge of the reference image is taken, and conditions of fuzzy inference for determining whether the point is a contour candidate point based on these values are shown. The rules for fuzzy inference are optimally set according to the characteristics of the image that requires interpretation.

【0044】[0044]

【発明の効果】本発明では、従来に比較し、次のような
利点が生じる。 (1)読影を計算機に行わせることで医師による読影作
業を代替させることができる。
According to the present invention, the following advantages are obtained as compared with the prior art. (1) By causing a computer to perform image interpretation, image interpretation work by a doctor can be substituted.

【0045】(2)医師による読影作業を行わないの
で、医用画像装置から出力される連続断層像を随時処理
することができる。 (3)人体の各種連続断層像において、適当なスライス
間隔で臓器の連続性を把えることができるため、自動三
次元画像再構築を行うための必須要件である、対象組織
の高速自動輪郭抽出の一手法となる。また、形状抽出が
容易でない組織に対して、組織一般の解剖学的形態を考
慮することにより、より精度の高い抽出が可能となる。
(2) Since the doctor does not perform the image interpretation work, the continuous tomographic image output from the medical imaging device can be processed as needed. (3) In various continuous tomographic images of the human body, since the continuity of organs can be grasped at appropriate slice intervals, high-speed automatic contour extraction of a target tissue, which is an essential requirement for automatic three-dimensional image reconstruction. It is one method. In addition, for a tissue for which shape extraction is not easy, more accurate extraction is possible by considering the general anatomical form of the tissue.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理的構成図である。FIG. 1 is a diagram showing the basic configuration of the present invention.

【図2】断層面の画像例の説明図である。FIG. 2 is an explanatory diagram of an example of an image of a tomographic plane.

【図3】本発明における基準組織による認識処理例の説
明図である。
FIG. 3 is an explanatory diagram of an example of recognition processing by a reference organization in the present invention.

【図4】本発明の1実施例のハードウェア構成図であ
る。
FIG. 4 is a hardware configuration diagram of an embodiment of the present invention.

【図5】本発明の1実施例におけるファイル入力処理の
フロー図である。
FIG. 5 is a flowchart of a file input process according to an embodiment of the present invention.

【図6】X線−CTを断層装置に用いた実施例の処理フ
ロー図である。
FIG. 6 is a processing flowchart of an embodiment using X-ray-CT for a tomography apparatus.

【図7】MRI−CTを断層装置に用いた実施例の処理
フロー図である。
FIG. 7 is a processing flowchart of an embodiment using MRI-CT for a tomographic apparatus.

【図8】本発明の1実施例による基準組織の画像の特性
を利用した2次元パターンの情報の作成例の説明図であ
る。
FIG. 8 is an explanatory diagram of an example of creating information of a two-dimensional pattern using characteristics of an image of a reference tissue according to one embodiment of the present invention.

【図9】本発明に用いられるファジィ推論のルールの例
の説明図である。
FIG. 9 is an explanatory diagram of an example of a fuzzy inference rule used in the present invention.

【符号の説明】[Explanation of symbols]

1 断層装置 2−1,2−2 連続断層面画像データファイル 3−1〜3−N 連続断層面画像データ 4 基準組織画像抽出部 5 知識ファイル 6 認識処理部 DESCRIPTION OF SYMBOLS 1 Tomographic apparatus 2-1 and 2-2 Continuous tomographic plane image data file 3-1 to 3-N Continuous tomographic plane image data 4 Reference tissue image extraction unit 5 Knowledge file 6 Recognition processing unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G06T 15/00 200 A61B 5/05 300 ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification code FI G06T 15/00 200 A61B 5/05 300

Claims (2)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 連続する複数の断層面の画像データを入
力として断層面ごとに3次元像の輪郭を形成する2次元
パターンを抽出する画像処理を行う画像処理装置におい
て、 任意の断層面の画像データを対象に、断層面ごとに、予
め定められた種類の3次元像の輪郭を形成する2次元パ
ターンを識別する処理を行う認識処理部と、 断層面の画像データを入力として、予め定められた抽出
が容易な基準組織の2次元パターンの領域を抽出する基
準組織画像抽出部とを備え、 上記認識処理部は、断層面ごとに予め定められた種類の
3次元像の輪郭を形成する抽出が困難な2次元パターン
を認識処理する際、上記基準組織画像抽出部から出力さ
れる抽出が容易な基準組織の2次元パターンの領域を基
準とする相対的な位置関係を認識条件に含めて行なう
とを特徴とする画像処理装置。
1. An image processing apparatus for performing image processing for extracting a two-dimensional pattern forming a contour of a three-dimensional image for each tomographic plane by using image data of a plurality of continuous tomographic planes as an input. A recognition processing unit for performing a process of identifying a two-dimensional pattern forming a contour of a predetermined type of three-dimensional image for each tomographic plane with respect to data; and a predetermined processing performed by inputting tomographic plane image data. Extraction
A reference tissue image extraction unit that extracts a two-dimensional pattern region of the reference tissue that is easy to perform , and the recognition processing unit has difficulty in extracting a contour of a predetermined type of three-dimensional image for each tomographic plane. a time of the two-dimensional pattern recognition processing, this is performed, including the relative positional relationship relative to the region of the two-dimensional pattern of extraction easy reference tissue that is output from the reference tissue image extracting unit to recognize conditions < An image processing apparatus characterized by the above.
【請求項2】 請求項1において、少なくとも認識処理
部はファジィ素子を用いて実現されていることを特徴と
する画像処理装置。
2. The image processing apparatus according to claim 1, wherein at least the recognition processing unit is realized using a fuzzy element.
JP21861593A 1993-09-02 1993-09-02 Image processing device Expired - Fee Related JP3195136B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP21861593A JP3195136B2 (en) 1993-09-02 1993-09-02 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21861593A JP3195136B2 (en) 1993-09-02 1993-09-02 Image processing device

Publications (2)

Publication Number Publication Date
JPH0773291A JPH0773291A (en) 1995-03-17
JP3195136B2 true JP3195136B2 (en) 2001-08-06

Family

ID=16722736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21861593A Expired - Fee Related JP3195136B2 (en) 1993-09-02 1993-09-02 Image processing device

Country Status (1)

Country Link
JP (1) JP3195136B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000126182A (en) * 1998-10-27 2000-05-09 Mitani Sangyo Co Ltd Tumor diagnosing method
JP4495891B2 (en) * 1999-06-03 2010-07-07 帝人株式会社 Bone measurement method
JP4100239B2 (en) * 2003-04-22 2008-06-11 松下電工株式会社 Obstacle detection device and autonomous mobile robot using the same device, obstacle detection method, and obstacle detection program
JP4497951B2 (en) * 2004-02-16 2010-07-07 株式会社日立メディコ Medical diagnostic imaging equipment
JP4721865B2 (en) * 2005-10-18 2011-07-13 株式会社日立メディコ Medical image display device
JP5105584B2 (en) * 2007-04-12 2012-12-26 富士フイルム株式会社 Target area display device and program
JP4492886B2 (en) 2008-04-03 2010-06-30 富士フイルム株式会社 Three-dimensional intraperitoneal region detection apparatus, method, and program
JP5300569B2 (en) * 2009-04-14 2013-09-25 株式会社日立メディコ Image processing device
WO2013008449A1 (en) * 2011-07-08 2013-01-17 国立大学法人豊橋技術科学大学 Fat-checking method, fat-checking device, and fat-checking program
KR101899866B1 (en) 2011-11-03 2018-09-19 삼성전자주식회사 Apparatus and method for detecting error of lesion contour, apparatus and method for correcting error of lesion contour and, apparatus for insecting error of lesion contour
US9633482B2 (en) * 2014-08-12 2017-04-25 Toshiba Medical Systems Corporation Apparatus and method for restricting image data visualization
JP6456002B2 (en) * 2014-10-30 2019-01-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Apparatus and method for determining image quality of a radiogram image
US11417144B2 (en) 2019-02-22 2022-08-16 Nec Corporation Processing apparatus, fingerprint image extraction processing apparatus, system, processing method, and computer readable medium
CN112908451B (en) * 2021-04-16 2023-12-26 千乘镜像(北京)科技有限公司 Image processing method, device and storage medium

Also Published As

Publication number Publication date
JPH0773291A (en) 1995-03-17

Similar Documents

Publication Publication Date Title
Coppini et al. Neural networks for computer-aided diagnosis: detection of lung nodules in chest radiograms
Vujovic et al. Establishing the correspondence between control points in pairs of mammographic images
EP0757544B1 (en) Computerized detection of masses and parenchymal distortions
JP3195136B2 (en) Image processing device
JP6570145B2 (en) Method, program, and method and apparatus for constructing alternative projections for processing images
JPH10500321A (en) Automated method and system for detecting lesions in medical computed tomography scans
JP2015528372A (en) System and method for automatically detecting pulmonary nodules in medical images
Karssemeijer et al. Recognition of organs in CT-image sequences: a model guided approach
JP2006034585A (en) Picture display device and picture display method, and program thereof
Hong et al. Automatic liver tumor detection from CT
JP6458166B2 (en) MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM
Rad et al. Computer-aided dental caries detection system from X-ray images
Balakrishnan et al. An efficient and complete automatic system for detecting lung module
US7421100B2 (en) Method, computer program and system of visualizing image data
Jeeva A Computer Aided Diagnosis for detection and classification of lung nodules
Kumar et al. Neural Network Based Approach for Detection of Abnormal Regions of Lung Cancer in X-Ray Image
KR20230106205A (en) Apparatus and methods for classifying neurodegenerative diseases image of amyloid-positive based on deep-learning
Manikandan et al. A computer-aided diagnosis system for lung cancer detection with automatic region growing, multistage feature selection and neural network classifier
Amritha et al. Liver tumor segmentation and classification using deep learning
KR102132564B1 (en) Apparatus and method for diagnosing lesion
Prakash Medical image processing methodology for liver tumour diagnosis
Wu et al. Intelligent breast tumor detection system with texture and contrast features
Ping et al. Computer aided bone tumor detection and classification using X-ray images
Veena et al. Fusion techniques for the breast cancer detection
Sathya Narayana et al. Tumor detection & classification using random forest algorithm in brain MRI

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080601

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090601

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees