JPH08103439A - Alignment processor for image and inter-image processor - Google Patents

Alignment processor for image and inter-image processor

Info

Publication number
JPH08103439A
JPH08103439A JP6240219A JP24021994A JPH08103439A JP H08103439 A JPH08103439 A JP H08103439A JP 6240219 A JP6240219 A JP 6240219A JP 24021994 A JP24021994 A JP 24021994A JP H08103439 A JPH08103439 A JP H08103439A
Authority
JP
Japan
Prior art keywords
image
alignment processing
alignment
images
anatomical structure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6240219A
Other languages
Japanese (ja)
Inventor
Akiko Yanagida
亜紀子 柳田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP6240219A priority Critical patent/JPH08103439A/en
Publication of JPH08103439A publication Critical patent/JPH08103439A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PURPOSE: To easily apply alignment processing to the relative dislocation of an examinee between time series images with high accuracy. CONSTITUTION: The anatomical structure for each of two time series images of the lung and the backbone, etc., is extracted (S1, S2). Rough alignment is performed by linear transformation based on extracted anatomical structure(S3). Thence, more detail alignment processing is performed by non-linear transformation capable of corresponding to the complicated distortion of the image (S4). After detail alignment processing is performed, differential processing is performed between both images, and the image in which a change part in the lapse of time is emphasized selectively can be obtained (S5).

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は画像の位置合わせ処理装
置及び画像間処理装置に関し、特に、複数の画像間にお
ける被写体の相対的な位置ずれを精度良くかつ効率良く
合わせる技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image alignment processing device and an inter-image processing device, and more particularly to a technique for accurately and efficiently aligning a relative displacement of a subject between a plurality of images.

【0002】[0002]

【従来の技術】X線画像のような放射線画像は、病気診
断用などに多く用いられており、このX線画像を得るた
めに、被写体を透過したX線を蛍光体層(蛍光スクリー
ン)に照射し、これにより可視光を生じさせてこの可視
光を通常の写真と同様に銀塩を使用したフィルムに照射
して現像した、所謂、放射線写真が従来から多く利用さ
れている。
2. Description of the Related Art Radiation images such as X-ray images are often used for diagnosing diseases, etc. In order to obtain this X-ray image, X-rays transmitted through a subject are applied to a phosphor layer (fluorescent screen). Conventionally, so-called radiography, in which visible light is generated by irradiation, and the visible light is applied to a film using a silver salt to develop the film, which is the same as in ordinary photography, has been conventionally used.

【0003】しかし、近年、銀塩を塗布したフィルムを
使用しないで、蛍光体層から直接画像を取り出す方法が
工夫されるようになってきている。この方法としては、
被写体を透過した放射線を蛍光体に吸収せしめ、しかる
後、この蛍光体を例えば光又は熱エネルギーで励起する
ことによりこの蛍光体が上記吸収により蓄積している放
射線エネルギーを蛍光として放射せしめ、この蛍光を光
電変換し、更にA/D変換してディジタル画像信号を得
る方法がある(米国特許3,859,527 号,特開昭55−1214
4 号公報等参照)。
However, in recent years, a method for directly taking out an image from a phosphor layer has been devised without using a film coated with a silver salt. For this method,
Radiation that has passed through the subject is absorbed by the phosphor, and then the phosphor is excited by, for example, light or thermal energy to cause the phosphor to emit the radiation energy accumulated by the absorption as fluorescence. There is a method for obtaining a digital image signal by photoelectrically converting the signal and further A / D converting it (US Pat. No. 3,859,527, Japanese Patent Laid-Open No. 55-1214).
(See No. 4, etc.)

【0004】このようにして得られた放射線画像信号
は、そのままの状態で、或いは画像処理を施されて銀塩
フィルム,CRT等に出力されて可視化される。また、
放射線画像を記録した銀塩フィルムに、レーザ・蛍光灯
などの光源からの光を照射して、銀塩フィルムの透過光
を得て、かかる透過光を光電変換して放射線画像信号を
得る方法もある。
The radiation image signal thus obtained is output as it is or after being subjected to image processing and output to a silver salt film, CRT or the like for visualization. Also,
There is also a method of irradiating a silver salt film on which a radiation image is recorded with light from a light source such as a laser or a fluorescent lamp to obtain transmitted light of the silver salt film, and photoelectrically converting the transmitted light to obtain a radiation image signal. is there.

【0005】一方、従来から、共通の被写体部分を含む
画像間で、被写体の相対的な位置ずれを合わせる位置合
わせ処理が公知となっている。即ち、共通の被写体部分
を含む複数の画像間で例えば差分処理を行って、特定構
造物や経時変化部分を強調した画像を抽出するには、前
記差分処理に先立って、画像間における被写体の相対的
な位置ずれを合わせる処理が必要になるものであり、か
かる位置合わせ処理としては、従来、特公昭61−14
553号公報や特開昭63−278183号公報に開示
されるようなものがあった。
On the other hand, conventionally, there has been known a positioning process for matching a relative positional shift of a subject between images including a common subject portion. That is, in order to extract an image in which a specific structure or a temporal change portion is emphasized, for example, by performing difference processing between a plurality of images including a common subject portion, prior to the difference processing, the relative movement of the subject between the images is performed. A process for adjusting the positional deviation is required. As such a position adjusting process, a conventional Japanese Patent Publication No.
553 and JP-A-63-278183.

【0006】前記特公昭61−14553号公報に開示
される位置合わせ処理は、2枚の画像の相互に対応する
部分領域間の位置ずれを線型近似してそれぞれ求めた
後、これら各対応部分領域毎に求められた位置ずれ量か
ら前記2枚の画像間の非線型な位置ずれに対する補正関
数の係数を求める構成となっている。また、前記特開昭
63−278183号公報に開示される位置合わせ処理
は、外部入力したパラメータに基づいて大まかな位置合
わせを行った後、対応する領域毎に相互相関法によりず
れ量を算出して歪み補正を行う構成となっている。
In the alignment process disclosed in Japanese Patent Publication No. 61-14553, the positional deviation between the partial areas of two images corresponding to each other is linearly approximated, and then the corresponding partial areas are obtained. The coefficient of the correction function for the nonlinear positional deviation between the two images is calculated from the positional deviation amount calculated for each. Further, in the alignment processing disclosed in Japanese Patent Laid-Open No. 63-278183, after performing rough alignment based on externally input parameters, the shift amount is calculated for each corresponding region by the cross-correlation method. It is configured to correct distortion.

【0007】[0007]

【発明が解決しようとする課題】ところで、特に共通の
被写体部分を含み相互に異なる時刻に撮影された画像
(以下、時系列画像という)間での位置合わせを行う場
合には、撮影時のポジショニングや放射線入射方向の差
異などに起因する比較的大きな位置ずれが生じる可能性
がある。
By the way, particularly in the case of performing alignment between images (hereinafter referred to as time-series images) taken at mutually different times including a common subject portion, positioning during shooting is performed. There is a possibility that a relatively large positional deviation may occur due to differences in the radiation incident direction, or the like.

【0008】ここで、前記特公昭61−14553号公
報に開示される位置合わせ処理においては、2枚の画像
の相互に対応する部分領域間で位置ずれを検出する構成
であるから、前述のように、画像間における相対的な位
置ずれ量が大きい場合には、対応する部分領域の中に共
通の画像部分が含まれなくなって、実質的に位置合わせ
が行えなくなってしまう可能性がある。
Here, in the alignment processing disclosed in the above Japanese Patent Publication No. 61-14553, the positional deviation is detected between the partial areas corresponding to each other in the two images, and therefore, as described above. In addition, when the relative positional deviation amount between the images is large, there is a possibility that the common image portion is not included in the corresponding partial areas and the alignment cannot be substantially performed.

【0009】これに対し、前記特開昭63−27818
3号公報に開示される位置合わせ処理においては、前述
のように時系列画像間で大きな位置ずれがあっても、こ
れを外部入力パラメータによって大まかに位置合わせす
ることが可能である。しかしながら、上記のように外部
入力を必要とする構成では、自動処理が不可能で効率が
低いという問題があり、また、パラメータの入力ミスに
よって位置合わせ処理を失敗する可能性があるという問
題があった。更に、位置合わせ処理毎に大まかな位置合
わせ情報を外部入力させる構成では、位置合わせ処理の
再現性がないという問題もあった。
On the other hand, the above-mentioned Japanese Patent Laid-Open No. 63-27818.
In the alignment processing disclosed in Japanese Patent Laid-Open No. 3 publication, even if there is a large positional deviation between time-series images as described above, it is possible to roughly align this with external input parameters. However, in the configuration requiring external input as described above, there is a problem that the automatic processing is impossible and the efficiency is low, and there is a problem that the registration processing may fail due to a parameter input error. It was Further, in the configuration in which rough alignment information is externally input for each alignment process, there is a problem that the alignment process does not have reproducibility.

【0010】本発明は上記問題点に鑑みなされたもので
あり、人体の放射線画像の間で相対的に大きな位置ずれ
があっても、かかる位置ずれを精度良く位置合わせする
処理を、効率的かつ安定的に自動処理できるようにする
ことを目的とする。
The present invention has been made in view of the above problems, and even if there is a relatively large positional deviation between radiation images of a human body, the processing for accurately aligning the positional deviation can be performed efficiently and efficiently. The purpose is to enable stable automatic processing.

【0011】[0011]

【課題を解決するための手段】そのため請求項1の発明
にかかる画像の位置合わせ処理装置は、人体の一部であ
る共通の被写体部分を含む複数の画像間で位置合わせ処
理を行うものであり、解剖学的構造抽出手段により前記
複数の画像それぞれから人体の解剖学的構造を抽出する
処理を行う。そして、粗位置合わせ処理手段は、前記解
剖学的構造の抽出結果に基づいて、前記複数の画像間に
おける前記解剖的構造の相対的な位置ずれを大まかに位
置合わせする。
Therefore, the image registration processing apparatus according to the invention of claim 1 performs registration processing between a plurality of images including a common subject portion which is a part of a human body. The anatomical structure extracting means performs a process of extracting the anatomical structure of the human body from each of the plurality of images. Then, the rough alignment processing means roughly aligns the relative displacement of the anatomical structure between the plurality of images based on the extraction result of the anatomical structure.

【0012】更に、精位置合わせ処理手段は、粗位置合
わせ処理手段で位置合わせが行われた前記複数の画像そ
れぞれの画像データに基づき、前記複数の画像間の相対
的な位置ずれを細かく位置合わせする。請求項2の発明
にかかる画像の位置合わせ処理装置では、前記粗位置合
わせ処理手段における位置合わせ処理が画像の線型変換
を用いて表される一方、前記精位置合わせ処理手段にお
ける位置合わせ処理が画像の非線型変換を用いて表され
るものとした。
Further, the fine alignment processing means finely aligns the relative displacement between the plurality of images based on the image data of each of the plurality of images aligned by the rough registration processing means. To do. In the image alignment processing apparatus according to the invention of claim 2, the alignment processing in the rough alignment processing means is represented by linear conversion of the image, while the alignment processing in the fine alignment processing means is imaged. The non-linear transformation of

【0013】請求項3の発明にかかる画像の位置合わせ
処理装置では、前記解剖学的構造抽出手段,粗位置合わ
せ処理手段,精位置合わせ処理手段のうちの少なくとも
1つの手段が、画像の画素数を減少させた縮小画像を用
いて抽出処理や位置合わせ処理を行うものとし、かつ、
前記精位置合わせ処理手段に比して前記粗位置合わせ処
理手段における画像の縮小度合いが同等又は大きくなる
ようにした。
In the image registration apparatus according to the third aspect of the present invention, at least one of the anatomical structure extraction means, the rough registration processing means, and the precise registration processing means has at least one pixel number of the image. Extraction processing and registration processing are performed using a reduced image in which
The degree of reduction of the image in the rough registration processing means is equal to or larger than that in the precise registration processing means.

【0014】請求項4の発明にかかる画像の位置合わせ
処理装置では、前記複数の画像における共通の被写体部
分が脊椎を含む人体部分である場合に、前記解剖学的構
造抽出手段が、解剖学的構造として少なくとも前記脊椎
の位置を抽出する構成とした。請求項5の発明にかかる
画像の位置合わせ処理装置では、前記複数の画像におけ
る共通の被写体部分が肺を含む人体部分である場合に、
前記解剖学的構造抽出手段が、解剖学的構造として少な
くとも前記肺の位置を抽出する構成とした。
According to a fourth aspect of the present invention, in the image alignment processing apparatus, the anatomical structure extracting means is anatomical when the common subject part in the plurality of images is a human body part including the spine. As a structure, at least the position of the spine is extracted. In the image registration processing apparatus according to the invention of claim 5, when the common subject portion in the plurality of images is a human body portion including a lung,
The anatomical structure extracting means is configured to extract at least the position of the lung as an anatomical structure.

【0015】請求項6の発明にかかる画像の位置合わせ
処理装置では、前記粗位置合わせ処理手段における位置
合わせ処理が画像の線型変換を用いて表されるものと
し、かつ、前記粗位置合わせ処理手段が、前記抽出され
た解剖学的構造の座標データ及び/又は解剖学的構造部
分の画像データに基づいて、前記粗位置合わせ処理にお
ける回転量、平行移動量、拡大・縮小率のうちの少なく
とも1つを決定する構成とした。
In the image registration processing apparatus according to the sixth aspect of the present invention, the registration processing in the rough registration processing means is represented by using linear conversion of the image, and the rough registration processing means. Is based on the coordinate data of the extracted anatomical structure and / or the image data of the anatomical structure portion, and at least one of a rotation amount, a parallel movement amount, and an enlargement / reduction ratio in the rough alignment processing. It is configured to decide one.

【0016】請求項7の発明にかかる画像の位置合わせ
処理装置では、前記複数の画像における共通の被写体部
分が脊椎及び肺を含む人体部分である場合に、前記解剖
学的構造抽出手段が、前記脊椎及び肺の位置をそれぞれ
に解剖学的構造として抽出するものとする。更に、前記
粗位置合わせ処理手段における位置合わせ処理が画像の
線型変換を用いて表され、かつ、該粗位置合わせ処理手
段が、脊椎の抽出結果に基づいて設定した位置合わせ情
報と、肺の抽出結果に基づいて設定した位置合わせ情報
との組み合わせを、粗位置合わせ処理における位置合わ
せ情報とする構成とした。
According to a seventh aspect of the present invention, in the image registration processing apparatus, the anatomical structure extracting means is configured to extract the anatomical structure when the common subject portion in the plurality of images is a human body portion including a spine and a lung. The positions of the spine and lungs shall be extracted as anatomical structures. Further, the alignment processing in the rough alignment processing means is represented by using linear transformation of the image, and the rough alignment processing means extracts the alignment information set based on the extraction result of the spine and the lung extraction. The combination with the alignment information set based on the result is used as the alignment information in the rough alignment process.

【0017】請求項8の発明にかかる画像の位置合わせ
処理装置では、前記複数の画像を、同一人体を相互に異
なる時刻に撮影した複数の時系列画像とした。請求項9
の発明にかかる画像の位置合わせ処理装置では、前記複
数の画像を、同一人体を相互に異なる検査において撮影
した複数の時系列画像とした。請求項10の発明にかかる
画像間演算処理装置は、上記請求項1〜8のいずれか1
つに記載の画像の位置合わせ処理装置で位置合わせが行
われた複数の画像間で演算を行う画像間演算手段を有し
て構成される。
In the image registration processing apparatus according to the present invention, the plurality of images are a plurality of time series images of the same human body taken at different times. Claim 9
In the image registration processing apparatus according to the invention, the plurality of images are a plurality of time-series images of the same human body taken in different examinations. An inter-image arithmetic processing apparatus according to the invention of claim 10 is any one of claims 1 to 8 above.
The image alignment processing device described in No. 1 includes an inter-image computation unit that performs computation between a plurality of images that have been aligned.

【0018】[0018]

【作用】請求項1の発明にかかる画像の位置合わせ処理
装置によると、まず、複数の画像毎に解剖学的構造(例
えば脊椎,肺など)が抽出され、かかる抽出結果に基づ
いて前記抽出された解剖学的構造の位置を大まかに合わ
せるような位置合わせが行われる。ここで、前記解剖学
的構造の位置を対比して位置合わせが行われるので、比
較的大きな位置ずれがあっても、これを大まかに合わせ
る処理が可能である。
According to the image registration processing apparatus of the first aspect of the present invention, first, the anatomical structure (for example, spine, lung, etc.) is extracted for each of a plurality of images, and the extraction is performed based on the extraction result. The position of the anatomical structure is roughly aligned. Here, since the position of the anatomical structure is compared with the position of the anatomical structure, even if the position of the anatomical structure is relatively large, it is possible to roughly adjust the position.

【0019】上記のように大まかな位置合わせが行われ
ると、続いて画像データに基づく細かな位置合わせが行
われるが、予め大まかな位置合わせが行われており、位
置ずれ量は十分に小さいから、比較的簡便に高精度な位
置合わせが可能となる。請求項2の発明にかかる画像の
位置合わせ処理装置によると、大まかな位置合わせは演
算が簡単な線型変換が用いられるが、続いて行われる細
かな位置合わせにおいては、画像の複雑な歪みにも対応
できる非線型変換が用いられ、精度の高い位置合わせが
行える。
When the rough alignment is performed as described above, the fine alignment is subsequently performed based on the image data. However, since the rough alignment is performed in advance and the position shift amount is sufficiently small. It becomes possible to perform highly accurate positioning relatively easily. According to the image alignment processing apparatus of the second aspect of the present invention, linear alignment, which is easy to calculate, is used for rough alignment, but in the subsequent fine alignment, even complex distortion of the image may occur. A non-linear conversion that can be used is used, and highly accurate alignment can be performed.

【0020】請求項3の発明にかかる画像の位置合わせ
処理装置によると、解剖学的構造の抽出や位置合わせ処
理において、画素数を減少させた縮小画像を用いること
で、演算負担を軽減し、また、大まかな位置合わせと細
かな位置合わせとでは、少なくとも細かな位置合わせに
おける縮小度合いの方が大きくなることがないようにし
て、演算負担を軽減しつつ、細かな位置合わせの精度が
確保されるようにした。
According to the image alignment processing apparatus of the third aspect of the present invention, in the extraction of the anatomical structure and the alignment processing, a reduced image with a reduced number of pixels is used to reduce the calculation load, Further, in the rough alignment and the fine alignment, at least the reduction degree in the fine alignment does not become larger, so that the precision of the fine alignment is secured while reducing the calculation load. It was to so.

【0021】請求項4の発明にかかる画像の位置合わせ
処理装置によると、形状変化の比較的少ない脊椎を含む
人体部分が被写体とされる場合に、少なくとも脊椎を解
剖学的構造として抽出して大まかな位置合わせ処理を行
わせ、画像間で脊椎の位置が略一致するように位置合わ
せ処理される。請求項5の発明にかかる画像の位置合わ
せ処理装置によると、形状変化の比較的少ない肺を含む
人体部分が被写体とされる場合に、少なくとも肺を解剖
学的構造として抽出して大まかな位置合わせ処理を行わ
せ、画像間で肺の位置が略一致するように位置合わせ処
理される。
According to the image alignment processing apparatus of the present invention, at least the spine is extracted as an anatomical structure when a human body part including the spine whose shape change is relatively small is taken as an object. The alignment process is performed so that the positions of the spines substantially match between the images. According to the image alignment processing apparatus of the fifth aspect of the present invention, when a human body part including a lung whose shape change is relatively small is taken as a subject, at least the lung is extracted as an anatomical structure and rough alignment is performed. Processing is performed, and alignment processing is performed so that the positions of the lungs approximately match between the images.

【0022】請求項6の発明にかかる画像の位置合わせ
処理装置によると、抽出された解剖学的構造の座標デー
タや解剖学的構造部分の画像データに基づく大まかな位
置合わせにおいて、位置合わせの情報が回転量、平行移
動量、拡大・縮小率のうちの少なくとも1つで表される
線型変換を用いて行われる。請求項7の発明にかかる画
像の位置合わせ処理装置によると、胸部放射線画像のよ
うに肺と脊椎との両方を含む被写体部分である場合に、
前記肺及び脊椎の両方を抽出させ、脊椎の抽出結果に基
づいて位置合わせ情報を設定すると共に、肺の抽出結果
に基づいても位置合わせ情報を設定し、これらの位置合
わせ情報の組み合わせとして最終的な粗位置合わせ処理
が行われる。
According to the image alignment processing apparatus of the sixth aspect of the present invention, the alignment information is used in the rough alignment based on the coordinate data of the extracted anatomical structure and the image data of the anatomical structure portion. Is performed using a linear conversion represented by at least one of the rotation amount, the parallel movement amount, and the enlargement / reduction ratio. According to the image registration processing apparatus of the seventh aspect of the present invention, when the object part includes both the lung and the spine as in a chest radiographic image,
Both the lung and the spine are extracted, and the alignment information is set based on the extraction result of the spine, and the alignment information is also set based on the extraction result of the lung. Rough alignment processing is performed.

【0023】請求項8の発明にかかる画像の位置合わせ
処理装置によると、位置合わせ処理の対象画像を、同一
人体を相互に異なる時刻に撮影した複数の時系列画像と
し、異なる時刻に撮影されることによる被写体のポジシ
ョニングや放射線入射方向の差異に起因する位置ずれを
合わせる処理が行われるようにした。請求項9の発明に
かかる画像の位置合わせ処理装置によると、位置合わせ
処理の対象画像を、同一人体を相互に異なる検査におい
て撮影した複数の時系列画像とし、異なる検査で得られ
た放射線画像(例えば異なる年度の定期検診で撮影され
た胸部放射線画像)は、特に大きな位置ずれが存在する
確率が高いが、かかる画像においても、解剖学的構造の
抽出結果に基づく粗位置合わせでおおまかな位置合わせ
が可能である。
According to the image registration processing apparatus of the eighth aspect of the present invention, the target image of the registration processing is a plurality of time series images of the same human body taken at different times, and the images are taken at different times. Due to this, processing for aligning the position shift of the subject and the positional shift caused by the difference in the radiation incident direction are performed. According to the image alignment processing apparatus of the invention of claim 9, the target image of the alignment processing is a plurality of time-series images of the same human body taken in different examinations, and radiation images obtained in different examinations ( For example, there is a high probability that there will be a particularly large misalignment in chest radiographs taken during regular medical examinations in different years, but even in such images, rough alignment based on the anatomical structure extraction results is used. Is possible.

【0024】請求項10の発明にかかる画像間処理装置に
よると、上記のように解剖学的構造の抽出に基づく大ま
かな位置合わせ及び該大まかな位置合わせ後の細かな位
置合わせ処理によって位置合わせが行われた画像間で演
算を行い、例えば差分処理により特定構造物や経時変化
部分を強調した画像を得る。
According to the inter-image processing apparatus of the tenth aspect of the present invention, the alignment is performed by the rough alignment based on the extraction of the anatomical structure and the fine alignment processing after the rough alignment as described above. An operation is performed between the performed images, and an image in which a specific structure or a temporal change portion is emphasized is obtained by, for example, difference processing.

【0025】[0025]

【実施例】以下に本発明の実施例を説明する。本発明の
実施例におけるシステム構成を図1に示す。尚、図1に
示すシステムは、本発明にかかる画像の位置合わせ処理
装置及び画像間処理装置を含んで構成されるものとす
る。
Embodiments of the present invention will be described below. FIG. 1 shows the system configuration of the embodiment of the present invention. The system shown in FIG. 1 is configured to include an image alignment processing device and an inter-image processing device according to the present invention.

【0026】図1において、画像記憶部1(記憶装置)
は、医療診断用としてX線撮影された放射線画像(例え
ば定期検診で撮影された人体の胸部放射線画像など)の
ディジタル画像データを複数格納するものであり、光磁
気ディスク等から構成される。前記放射線画像データ
は、放射線画像を記録した銀塩フィルムに、レーザ・蛍
光灯などの光源からの光を照射して、銀塩フィルムの透
過光を得て、かかる透過光を光電変換してディジタル化
したもの、或いは、被写体を透過した放射線を蛍光体に
吸収せしめ、その後、この蛍光体を例えば光又は熱エネ
ルギーで励起することによりこの蛍光体が上記吸収によ
り蓄積している放射線エネルギーを蛍光として放射せし
め、この蛍光を光電変換してディジタル化したものであ
っても良い。
In FIG. 1, an image storage unit 1 (storage device)
Stores a plurality of digital image data of X-ray radiographs for medical diagnosis (for example, chest radiographs of a human body photographed in regular medical examinations), and is composed of a magneto-optical disk and the like. The radiation image data is obtained by irradiating a silver salt film on which a radiation image is recorded with light from a light source such as a laser or a fluorescent lamp to obtain transmitted light of the silver salt film, and photoelectrically converting the transmitted light into digital data. Radiation or the radiation that has passed through the subject is absorbed by the phosphor, and then the phosphor is excited by, for example, light or thermal energy, and the radiation energy accumulated by the phosphor is absorbed as fluorescence. It may be radiated, and this fluorescence may be photoelectrically converted into a digital one.

【0027】また、前記画像記憶部1とは別に、画像情
報記憶部2が設けられており、この画像情報記憶部2に
は、画像記憶部1に記憶されている各画像についての各
種情報として、例えば撮影日時,撮影部位,撮影条件,
画像処理条件,被検者等について情報を記憶させること
ができるようになっている。前記画像記憶部1に記憶さ
れた画像データと前記画像情報記憶部2に記憶された各
種の付随的な情報とは、画像管理部3によって照合され
て読み出されるようになっている。但し、画像情報記憶
部2を省略し、画像データと各画像に対応する各種情報
とを対にして画像記憶部1に記憶させる構成であっても
良い。
An image information storage unit 2 is provided separately from the image storage unit 1, and the image information storage unit 2 stores various information about each image stored in the image storage unit 1. , For example, shooting date, part, shooting conditions,
Information about image processing conditions, examinees, etc. can be stored. The image data stored in the image storage unit 1 and various incidental information stored in the image information storage unit 2 are collated and read by the image management unit 3. However, the image information storage unit 2 may be omitted and the image data and various information corresponding to each image may be stored in the image storage unit 1 as a pair.

【0028】前記画像記憶部1及び画像情報記憶部2の
記憶データは、操作卓4によって読み出し画像を任意に
選択することで、前記画像管理部3によって随時読み出
されるようになっており、読み出された画像データは、
必要に応じて画像処理部5における画像処理を経た後、
放射線画像の読影を行わせるべく、画像表示ユニットA
の画像表示部6に表示される。
The stored data in the image storage unit 1 and the image information storage unit 2 are read out at any time by the image management unit 3 by arbitrarily selecting a read image by the console 4. The image data is
After undergoing image processing in the image processing unit 5 as necessary,
Image display unit A for reading radiographic images
Is displayed on the image display unit 6.

【0029】従って、放射線フィルムをシャウカステン
を用いて読影を行う場合に行われるような、目的フィル
ムを探し出し、これをシャウカステンに掛けるといった
作業が必要でなく、効率の良い読影作業が可能である。
前記画像表示ユニットAは、前記画像表示部6の他に、
画像メモリ7,表示制御部8を備えて構成される。前記
画像表示部6としては、CRT,プラズマディスプレ
ィ,液晶ディスプレィ等が用いられるが、階調表現性能
の点からCRTを用いることが好ましく、更に、医療用
高精細CRTとして知られる走査線1000本系以上のCR
Tを用いることがより好ましい。
Therefore, it is not necessary to search for a target film and hang it on the Schaukasten, as is done when the radiation film is read by using the Schaukasten, and efficient interpretation work is possible.
The image display unit A includes, in addition to the image display unit 6,
The image memory 7 and the display controller 8 are provided. As the image display unit 6, a CRT, a plasma display, a liquid crystal display or the like is used, but it is preferable to use the CRT from the viewpoint of gradation expression performance. Furthermore, 1000 scanning line system known as a medical high definition CRT is used. CR above
It is more preferable to use T.

【0030】前記画像記憶部1から読み出された画像デ
ータ(又は、読み出し後に画像処理が施された画像デー
タ)は、画像表示ユニットAの画像メモリ7に記憶さ
れ、該画像メモリ7に記憶された画像データが、表示制
御部8によって制御されて画像表示部6に表示される。
前記表示制御部8は、操作卓4を介して行われる表示フ
ォーマットの指示に従って表示画像を制御する。
The image data read from the image storage unit 1 (or the image data that has been subjected to image processing after reading) is stored in the image memory 7 of the image display unit A, and is stored in the image memory 7. The image data is displayed on the image display unit 6 under the control of the display control unit 8.
The display control unit 8 controls a display image according to a display format instruction given via the console 4.

【0031】画像処理を経た後の画像データを、画像記
憶部に蓄積しておき、読影次に順次読み出して画像表示
部に表示する構成としても良い。また、画像処理を経た
画像をレーザーフィルムプリンタ等の画像出力装置によ
りハードコピーとして出力しても良い。ところで、例え
ば年度の異なる定期検診(検査)などによって定期的に
胸部X線撮影などを行っている被検者については、被検
者毎の経時的な画像系列ができ上がる。
The image data that has undergone image processing may be stored in the image storage unit, and may be sequentially read out after image interpretation and displayed on the image display unit. Further, the image that has undergone image processing may be output as a hard copy by an image output device such as a laser film printer. By the way, for a subject who has undergone a chest X-ray, for example, by periodical examinations (examinations) of different years, a time-series image sequence for each subject is completed.

【0032】そして、このようにして異なる時期に撮影
された同一被検者の同一部分の複数の画像(時系列画
像)間で差分処理を行うことにより、被検者の経時変化
部分を選択的に強調することができ、以て、前記差分画
像(前記差分処理によって生成された画像。以下同様)
の観察によって経時変化部分、即ち、新たに発生した病
変や病状の変化した病変の検出を容易に行えるようにな
る。
Then, by performing difference processing between a plurality of images (time-series images) of the same portion of the same subject imaged at different times in this way, the time-varying portion of the subject is selectively selected. The difference image (the image generated by the difference process. The same applies hereinafter).
By observing the above, it becomes possible to easily detect a time-varying portion, that is, a newly-generated lesion or a lesion with a changed medical condition.

【0033】そこで、本実施例では、前記時系列画像に
ついて前記差分処理を行って、かかる差分画像(時系列
処理画像)を画像表示部6に表示させることで、医師等
の読影者が被検者の経時変化を容易に確認できるよう構
成されている。ここで、前記時系列画像間における差分
処理においては、予め共通する被写体部分の位置合わせ
を行うことが必要となる。即ち、撮影時における被写体
のポジショニングやX線入射方向の差異に起因する相対
的な位置ずれが時系列画像間に生じるため、差分処理に
よって変化のない正常構造部分を打ち消して経時変化部
分を選択的に強調するには、差分処理に先立って同一の
解剖学的構造に対応する画像部分を重ね合わせることが
必要である。時系列画像の中でも、特に年度の異なる定
期検診などの相互に異なる検査で得られた放射線画像間
においては、大きな位置ずれが存在する確率が高く、前
記位置合わせ処理が必須となる。
Therefore, in the present embodiment, the difference processing is performed on the time-series images, and the difference image (time-series processed image) is displayed on the image display unit 6, so that a radiogram interpreter such as a doctor can be examined. It is configured so that a person's temporal change can be easily confirmed. Here, in the difference processing between the time-series images, it is necessary to perform alignment of common subject parts in advance. That is, since relative positional shifts due to the positioning of the subject at the time of shooting and the difference in the X-ray incident direction occur between the time-series images, the normal structure portion that does not change by the difference processing is canceled and the time-varying portion is selectively changed. It is necessary to superimpose image portions corresponding to the same anatomical structure prior to the difference processing in order to emphasize. Among the time-series images, there is a high probability that a large positional deviation will occur, especially between radiographic images obtained by different examinations such as regular examinations in different years, and the alignment processing is essential.

【0034】そこで、本実施例では、図2のフローチャ
ートに示すようにして位置合わせ処理及び画像間演算処
理(差分処理)が行われる。図2のフローチャートにお
いて、まず、2つの時系列画像(1),(2)それぞれ
について、解剖学的構造の抽出を行わせる(S1,S
2:解剖学的構造抽出手段)。
Therefore, in this embodiment, the alignment processing and the inter-image calculation processing (difference processing) are performed as shown in the flowchart of FIG. In the flowchart of FIG. 2, first, the anatomical structure is extracted for each of the two time-series images (1) and (2) (S1, S).
2: anatomical structure extraction means).

【0035】本実施例では、時系列画像を、同一被検者
の胸部放射線画像とし、前記胸部放射線画像に被写体部
分として共通に含まれる脊椎と肺との少なくとも一方を
前記解剖学的構造として抽出させる。尚、前記脊椎及び
肺は、経時的な形状変化が比較的少なく、後述する位置
合わせ処理における処理精度を維持できる。但し、被写
体の解剖学的構造を、前記肺又は脊椎に限定するもので
はない。
In the present embodiment, the time-series image is a chest radiographic image of the same subject, and at least one of the spine and lungs commonly included in the chest radiographic image as a subject portion is extracted as the anatomical structure. Let It should be noted that the spine and the lung have a relatively small change in shape over time, and the processing accuracy in the alignment processing described later can be maintained. However, the anatomical structure of the subject is not limited to the lung or spine.

【0036】時系列画像(1),(2)それぞれについ
て解剖学的構造の抽出を行うと、次に、前記抽出結果に
基づいて相対的な位置ずれを大まかに合わせる粗位置合
わせ処理が行われる(S3:粗位置合わせ処理手段)。
粗位置合わせ処理が終了すると、続いて前記粗位置合わ
せよりも精細に位置合わせを行う精位置合わせ処理が行
われ(S4:精位置合わせ処理手段)、かかる精位置合
わせ処理で得られた位置合わせ情報が、S5(画像間演
算手段)に示される画像間演算(差分処理)に演算情報
として与えられ、時系列画像間において同一の解剖学的
構造に対応する画像部分を位置合わせして差分処理が行
われ、経時変化のない正常構造部分を打ち消して経時変
化部分を選択的に強調した差分画像(時系列処理画像)
が生成される。
When the anatomical structure is extracted from each of the time-series images (1) and (2), a coarse alignment process is then performed to roughly adjust the relative displacement based on the extraction result. (S3: Coarse registration processing means).
When the rough alignment process is completed, a fine alignment process for performing finer alignment than the coarse alignment is subsequently performed (S4: fine alignment process means), and the alignment obtained by the fine alignment process is performed. The information is given as calculation information to the inter-image calculation (difference processing) shown in S5 (inter-image calculation means), and the image portions corresponding to the same anatomical structure are aligned between the time-series images to perform the difference processing. The difference image (time-series processed image) in which normal structural parts that have not changed with time are canceled and the changed parts with time are selectively emphasized
Is generated.

【0037】尚、粗位置合わせ処理によって得た位置合
わせ情報に基づいて少なくとも一方の時系列画像を座標
変換し、かかる座標変換が施された時系列画像間で精位
置合わせ処理を実行させても良いし、前記粗位置合わせ
処理によって位置合わせ情報を得た後、画像データの座
標変換を行った変換画像を生成せずに、前記粗位置合わ
せ情報と原画像データとに基づいて精位置合わせ処理が
実行されるようにしても良い。
Even if coordinate conversion is performed on at least one of the time-series images based on the alignment information obtained by the rough alignment process, and the precise alignment process is executed between the time-series images subjected to the coordinate conversion. Good, after the alignment information is obtained by the rough alignment processing, the precise alignment processing is performed based on the rough alignment information and the original image data without generating the converted image in which the coordinate conversion of the image data is performed. May be executed.

【0038】同様に、精位置合わせ処理によって得た位
置合わせ情報に基づいて少なくとも一方の時系列画像を
座標変換し、かかる座標変換が施された時系列画像に基
づいて画像間演算(差分処理)を行わせても良いし、画
像データの座標変換を行った変換画像を生成せずに、精
位置合わせ情報と原画像データとに基づいて画像間演算
を行わせるようにしても良い。
Similarly, at least one of the time-series images is subjected to coordinate conversion on the basis of the alignment information obtained by the precise alignment processing, and the inter-image calculation (difference processing) is performed on the basis of the time-series image subjected to the coordinate transformation. May be performed, or the inter-image calculation may be performed based on the precise alignment information and the original image data without generating the converted image in which the coordinate conversion of the image data is performed.

【0039】ここで、前記図2のフローチャートに示し
た各処理について詳述する。まず、S1,S2における
解剖学的構造の抽出(解剖学的構造抽出手段)について
説明する。人体を透過した放射線の透過量に対応して形
成される放射線画像の場合、人体の解剖学的構造に対応
して信号レベルが局所的に変化するため、画像信号の解
析によって解剖学的構造を抽出することができる。
Now, each process shown in the flow chart of FIG. 2 will be described in detail. First, the extraction of the anatomical structure (anatomical structure extraction means) in S1 and S2 will be described. In the case of a radiation image formed corresponding to the amount of radiation that has passed through the human body, the signal level locally changes corresponding to the anatomical structure of the human body. Can be extracted.

【0040】特に、胸部放射線画像においては、解剖学
的構造としての肺及び脊椎は、経時的な形状変化が比較
的少なく、位置合わせ処理の対象物として好ましく、肺
と脊椎との少なくとも一方を抽出させる。肺の構造の中
でも特に肺野輪郭を形作る骨性胸壁は経時的な形状変化
が極めて小さいので、位置合わせ処理の対象物として肺
野輪郭を抽出することが特に好ましい。
Particularly, in the chest radiographic image, the lungs and the spine as anatomical structures have a relatively small change in shape over time, and are preferable as an object of alignment processing, and at least one of the lung and the spine is extracted. Let Among the lung structures, the bony chest wall forming the lung field contour has a very small change in shape over time, and therefore it is particularly preferable to extract the lung field contour as an object of alignment processing.

【0041】前記胸部放射線画像における肺野部の輪郭
抽出は、例えば特開昭63−240832号公報に開示
される方法を用いて行える。具体的には、画像データの
1つの行又は列についてのみ注目し、その1次元の画像
データ列の中で前後のデータとの関係が予め定めた特定
のパターンとなる点を、その行或いは列における輪郭点
とし、必要な範囲の行或いは列について前記輪郭点を求
めてそれらの点を結んだ線を肺野の輪郭とするものであ
り、前記特定のパターンとしては極小となる点,傾きが
最大となる点,傾きが最小となる点などを用いる。
The contour extraction of the lung field in the chest radiographic image can be performed by using the method disclosed in, for example, Japanese Patent Laid-Open No. 63-240832. Specifically, paying attention to only one row or column of the image data, the point in which the relationship with the preceding and following data in the one-dimensional image data row becomes a predetermined specific pattern is determined for that row or column. Is a contour point, and the line connecting the points is obtained for the necessary range of rows or columns, and the line connecting the points is the contour of the lung field. The maximum point and the minimum slope are used.

【0042】また、前記胸部放射線画像において肺野を
含む矩形領域を抽出する方法としては、例えば特開平3
−218578号公報に開示されるような方法がある。
具体的には、画像の縦方向についてプロジェクション値
(画像データの一方向の累積値)を求める。そして、前
記プロジェクション値が最小値となる点を正中線とし、
該正中線から外側に向けて移動しながらプロジェクショ
ン値と所定の閾値とを比較して、プロジェクション値が
最初に閾値以下になった左右それぞれの点を、肺野の左
端及び右端として決定する。同様に画像の横方向につい
てもプロジェクション値を求めて、肺野の上端及び下端
を決定する。
As a method of extracting a rectangular area including a lung field in the chest radiographic image, for example, Japanese Patent Laid-Open No. Hei 3
There is a method such as that disclosed in Japanese Patent Laid-Open No. 218578.
Specifically, a projection value (cumulative value in one direction of image data) is obtained in the vertical direction of the image. And, the point where the projection value is the minimum value is the median line,
While moving outward from the midline, the projection value is compared with a predetermined threshold value, and the left and right points at which the projection value first falls below the threshold value are determined as the left end and the right end of the lung field. Similarly, the projection value is obtained also in the horizontal direction of the image to determine the upper and lower ends of the lung field.

【0043】また、胸部放射線画像において肺野輪郭や
肋骨位置を抽出する方法としては、特開平2−2501
80号公報に開示されるようなものがある。このもの
は、縦横のプロファイル情報に基づいて肺野輪郭や肋骨
位置を抽出するものであり、特に肋骨の抽出において
は、背景部分の影響を多項式近似により排除する構成と
なっている。
Further, as a method for extracting the contour of lung field and the position of ribs in a chest radiographic image, there is disclosed in Japanese Patent Laid-Open No. 2501/1990.
There is one disclosed in Japanese Patent Publication No. 80. This is to extract lung field contours and rib positions based on vertical and horizontal profile information, and particularly in the extraction of ribs, the influence of the background portion is eliminated by polynomial approximation.

【0044】一方、腹部の放射線画像において、解剖学
的構造として腰椎,腸骨,骨盤などの骨部を抽出する方
法としては、特開平4−341246号公報に開示され
る方法がある。例えば、腹部放射線画像において腸骨部
を抽出するには、画像の横方向における信号変化を示す
プロファイルを作成し、かかるプロファイルにおいて極
小値をとる部位の個数・位置に基づいて、腸骨部を囲む
上下2つの線分を求めて、腸骨部領域を抽出する。ま
た、骨部と骨以外の部分との境界信号値をヒストグラム
等から求めて、かかる境界信号を閾値として画像信号の
2値化を行うことで、腰椎,腸骨,骨盤などの骨部領域
とそれ以外の領域とに区分して骨部領域を抽出すること
が可能である。
On the other hand, there is a method disclosed in Japanese Patent Application Laid-Open No. 4-341246 as a method for extracting bone parts such as the lumbar spine, iliac bones and pelvis as an anatomical structure in the abdominal radiation image. For example, in order to extract the iliac part from the abdominal radiographic image, a profile showing the signal change in the lateral direction of the image is created, and the iliac part is surrounded based on the number and position of the minimum values in the profile. The upper and lower two line segments are obtained and the iliac region is extracted. In addition, the boundary signal value between the bone part and the part other than the bone is obtained from a histogram or the like, and the image signal is binarized by using the boundary signal as a threshold, so that the bone part region such as the lumbar vertebra, ilium, and pelvis It is possible to extract the bone region by dividing it into other regions.

【0045】尚、上記に示す解剖学的構造の抽出方法に
限定されるものではなく、公知の種々の抽出方法を用い
ることができることは明らかである。解剖学的構造の抽
出結果は、代表点の座標,代表直線又は曲線を表す式又
は座標群,領域の輪郭線を表す式又は座標群などによっ
て表され、例えば胸部放射線画像において肺を解剖学的
構造として抽出する場合には、図3に示すように、肺野
の輪郭,両肺を含む矩形,左右それぞれの肺を含む2つ
の矩形として抽出結果を得る一方、脊椎を解剖学的構造
として抽出する場合には、図3に示すように、脊椎線を
直線近似したり、或いは曲線近似して抽出結果とする。
It should be noted that the extraction method of the anatomical structure shown above is not limited, and it is obvious that various known extraction methods can be used. The extraction result of the anatomical structure is represented by coordinates of a representative point, a formula or coordinate group representing a representative straight line or a curve, a formula or coordinate group representing a contour line of a region, etc. When extracting as a structure, as shown in FIG. 3, the extraction result is obtained as a contour of a lung field, a rectangle including both lungs, and two rectangles including left and right lungs, while the spine is extracted as an anatomical structure. In this case, as shown in FIG. 3, the spinal line is linearly approximated or curvedly approximated to obtain the extraction result.

【0046】上記のようにして、共通の被写体部分を含
む複数の画像それぞれにおいて、共通する解剖学的構造
を抽出すると、該抽出結果に基づいて複数の画像の解剖
学的構造の位置を大まかに合わせるように、少なくとも
1つの画像を座標変換するか、或いは、該粗位置合わせ
における座標変換を表す式,係数等を決定する。即ち、
複数画像中の1画像を基準画像として設定し、かかる基
準画像における解剖学的構造(例えば肺,脊椎など)の
位置に、他の画像の同じ解剖学的構造の位置が一致する
ように大まかな位置合わせを行う(粗位置合わせ処理手
段)。
As described above, when the common anatomical structure is extracted from each of the plurality of images including the common subject portion, the positions of the anatomical structures of the plurality of images are roughly determined based on the extraction result. At least one image is subjected to coordinate transformation so as to match, or an equation, a coefficient, etc. representing the coordinate transformation in the rough alignment are determined. That is,
One image of a plurality of images is set as a reference image, and the position of the anatomical structure (for example, lung, spine, etc.) in the reference image is roughly matched with the position of the same anatomical structure in other images. Positioning is performed (coarse positioning processing means).

【0047】前記座標変換は、回転,拡大・縮小,平行
移動の組み合わせからなる線型変換を用いることが、計
算量が少なく処理速度が速いので好ましく、変換前の
x,y座標を(x,y)、変換後のx,y座標を
(x’,y’)、係数をaij,bijとすると、2次元画
像の線型変換は、
For the coordinate conversion, it is preferable to use a linear conversion consisting of a combination of rotation, enlargement / reduction, and parallel movement, because the amount of calculation is small and the processing speed is high, and the x, y coordinates before conversion are (x, y). ), And the x and y coordinates after conversion are (x ′, y ′) and the coefficients are a ij and b ij , the linear conversion of the two-dimensional image is

【0048】[0048]

【数1】 [Equation 1]

【0049】として表される。前記数1における係数a
ij,bijは、変換前及び変換後の座標値の組みを用いて
定められる多元1次方程式を解くことにより求めても良
いし、前記回転,拡大・縮小,平行移動量等の量から導
いても良い。具体的には、例えば脊椎を直線近似によっ
て抽出した場合には、該脊椎を示す直線が重なるよう
に、一方の画像の回転角と平行移動量との少なくとも一
方を決定する。
Is represented as Coefficient a in Equation 1
ij and b ij may be obtained by solving a multi-dimensional linear equation defined by using a set of coordinate values before and after conversion, or derived from the amount of rotation, enlargement / reduction, parallel movement, etc. May be. Specifically, for example, when the spine is extracted by linear approximation, at least one of the rotation angle and the parallel movement amount of one image is determined so that the straight lines indicating the spine overlap.

【0050】また、脊椎を曲線近似によって抽出した場
合には、該脊椎を示す曲線が重なるように、一方の画像
の回転角,拡大・縮小率,平行移動量のうちの少なくと
も1つを決定する。更に、肺野を含む矩形領域を抽出し
た場合には、矩形の上辺及び左右辺が重なるように、一
方の画像の回転角,拡大・縮小率,平行移動量のうちの
少なくとも1つを決定する。肺の場合には、呼吸によっ
てその下端部分が上下するのに対し、肺の上端は動きが
少ないので、上記のように、上下方向の位置合わせには
肺野を含む矩形領域の上辺を用いることが好ましい。
Further, when the spine is extracted by curve approximation, at least one of the rotation angle, the enlargement / reduction ratio, and the parallel movement amount of one image is determined so that the curves showing the spine overlap. . Furthermore, when a rectangular area including the lung field is extracted, at least one of the rotation angle, the enlargement / reduction rate, and the parallel movement amount of one image is determined so that the upper side and the left and right sides of the rectangle overlap. . In the case of the lung, the lower end of the lung moves up and down, while the upper end of the lung does not move much, so use the upper side of the rectangular area including the lung field for vertical alignment as described above. Is preferred.

【0051】また、肺野の輪郭線を抽出した場合には、
輪郭線又はその一部が重なるように、一方の画像の回転
角,拡大・縮小率,平行移動量のうちの少なくとも1つ
を決定する。具体的には、一方の画像の輪郭線と他方の
画像の輪郭線との間の距離の総和(面積)が最小になる
ように座標変換の特性を決定したり、プロクラステス手
法(Med.Phys.19,329-334(1992) 参照) を使用して輪郭
曲線を合わせるようにしても良い。
When the contour line of the lung field is extracted,
At least one of the rotation angle, the enlargement / reduction ratio, and the parallel movement amount of one image is determined so that the contour line or a part thereof overlaps. Specifically, the characteristics of coordinate conversion are determined so that the total sum (area) of the distance between the contour line of one image and the contour line of the other image is minimized, or the Procrustes method (Med. Phys.19,329-334 (1992)) may be used to match the contour curves.

【0052】また、肺野(解剖学的構造)の輪郭線で囲
まれる領域の画像データを用いて、SSDA法(Sequen
tial Similarity Detection Algorithm),相互相関法,
フーリエ変換位相相関法等を用いて、回転角,拡大・縮
小率,平行移動量のうちの少なくとも1つを決定する構
成としても良い。前記領域は、肺野に加えて縦隔(脊椎
及び心臓部分)を含む領域であっても良い。
Further, the SSDA method (Sequen method) is used by using the image data of the area surrounded by the contour line of the lung field (anatomical structure).
tial Similarity Detection Algorithm), cross-correlation method,
At least one of the rotation angle, the enlargement / reduction ratio, and the parallel movement amount may be determined by using the Fourier transform phase correlation method or the like. The region may include the mediastinum (spine and heart portion) in addition to the lung field.

【0053】前記SSDA法とは、対応する画素間の画
像データの差の絶対値の総和が最小になるところを探索
する方法であり、相互相関法とは、相互相関値が最大と
なるところを探索する方法であり、位相相関法とは、フ
ーリエ変換の位相項の相関値が最大になるところを探索
する方法である。上記のようにSSDA法、相互相関
法,フーリエ変換位相相関法等を用いる場合に、肺野の
外側の画像データは腕や撮影補助器具等の影響による変
化が大きいので、位置合わせに用いることは好ましくな
く、上記のように肺野領域内(縦隔を含んでも良い)の
画像データを用いることが好ましい。
The SSDA method is a method of searching for a place where the sum of absolute values of differences in image data between corresponding pixels is the minimum, and the cross-correlation method is a place where the cross-correlation value is the maximum. The phase correlation method is a method for searching, and a method for searching a place where the correlation value of the phase term of the Fourier transform becomes maximum. As described above, when the SSDA method, the cross-correlation method, the Fourier transform phase correlation method, or the like is used, the image data outside the lung field largely changes due to the influence of the arm, the imaging aid, etc. This is not preferable, and it is preferable to use image data in the lung field region (which may include the mediastinum) as described above.

【0054】また、胸部放射線画像において、解剖学的
構造として脊椎と肺野との両方を抽出する場合には、脊
椎に基づいて決定した位置合わせ情報と、肺野に基づい
て決定した位置合わせ情報とを組み合わせて、位置合わ
せを行わせると良い。具体的な組み合わせの例として
は、以下に示す(1)〜(3)の構成例が好ましい。
When both the spine and the lung field are extracted as anatomical structures in the chest radiographic image, the alignment information determined based on the spine and the alignment information determined based on the lung field. It is advisable to combine with and perform alignment. As examples of specific combinations, the following configuration examples (1) to (3) are preferable.

【0055】(1)直線近似された脊椎線に基づいて回
転角及び/又は左右方向の平行移動量を決定する一方、
肺野を含む矩形領域の上辺に基づいて上下方向の平行移
動量を決定し、これらを組み合わせる構成 (2)直線近似された脊椎線に基づいて回転角を決定す
る一方、肺野輪郭線の外側の部分に基づいて平行移動
量,拡大・縮小率を決定し、これらを組み合わせる構成 (3)直線近似された脊椎線に基づいて回転角を決定す
る一方、肺野輪郭線で囲まれる領域内の画像データに基
づき相互相関法で平行移動量を決定し、これらを組み合
わせる構成 また、解剖学的構造に基づく位置合わせ処理(粗位置合
わせ処理)が行われた後に、より細かな位置合わせ処理
(精位置合わせ処理)が行われるから、解剖学的構造の
抽出及び粗位置合わせ処理においては、原画像の画素数
を間引き或いは平均化処理によって減少させた縮小画像
を用いることが、処理速度を向上させる上で好ましい。
更に、粗位置合わせ処理後に行われる精位置合わせ処理
においても縮小画像を用いても良いが、精位置合わせ処
理における精度を確保しつつ粗位置合わせ処理の演算を
簡略化するために、精位置合わせ処理に比して粗位置合
わせ処理における画像の縮小度合いを同等又は大きくす
ることが好ましい。同様に、精位置合わせ処理の後に行
われる画像間演算(差分処理)においても、縮小画像を
用いても良いが、画像間演算における画像の縮小度合い
は、精位置合わせ処理における縮小度合いと同等か或い
はより小さくすることが好ましい。
(1) The rotation angle and / or the horizontal translation amount are determined based on the linearly approximated spinal line,
A configuration in which the vertical translation amount is determined based on the upper side of the rectangular area including the lung field, and these are combined (2) The rotation angle is determined based on the linearly approximated spinal line, while outside the lung field contour line The amount of translation and the enlargement / reduction rate are determined based on the part of (3), and these are combined (3) The rotation angle is determined based on the linearly approximated spine line, while within the area surrounded by the lung field contour line A configuration in which the amount of parallel movement is determined by the cross-correlation method based on the image data and these are combined. Further, after the alignment processing (coarse alignment processing) based on the anatomical structure is performed, finer alignment processing (fine (Registration processing) is performed, so in the extraction of anatomical structures and the rough registration processing, it is necessary to use a reduced image in which the number of pixels of the original image is reduced by thinning or averaging processing. Preferable in order to improve speed.
Further, the reduced image may be used also in the fine alignment process performed after the coarse alignment process, but in order to simplify the calculation of the coarse alignment process while ensuring the accuracy in the fine alignment process, the fine alignment process is performed. It is preferable that the degree of reduction of the image in the rough alignment processing is equal to or larger than that in the processing. Similarly, a reduced image may be used also in the inter-image calculation (difference process) performed after the fine alignment process, but whether the reduction degree of the image in the inter-image calculation is equal to the reduction degree in the fine alignment process. Alternatively, it is preferable to make it smaller.

【0056】例えば、原画像の実効画素サイズ(被写体
である人体の大きさと同一の尺度で表した画素ピッチ)
が0.2mm 程度である場合、おおまかな位置合わせ処理に
使用される画像の実効画素サイズは0.4 〜6mmが好まし
く、細かな位置合わせ処理に使用される画像の実効画素
サイズは0.2 〜3mmが好ましく、画像間演算処理に使用
される画像の実効画素サイズは0.2 〜1mmが好ましい。
For example, the effective pixel size of the original image (pixel pitch expressed on the same scale as the size of the human body as the subject)
Is about 0.2 mm, the effective pixel size of the image used for the rough alignment process is preferably 0.4 to 6 mm, and the effective pixel size of the image used for the fine alignment process is preferably 0.2 to 3 mm, The effective pixel size of the image used for the inter-image arithmetic processing is preferably 0.2 to 1 mm.

【0057】ところで、上記のように解剖学的構造を抽
出し、該抽出した解剖学的構造の位置を合わせるように
行われる粗位置合わせ処理では、2画像間において大き
な位置ずれが発生していても、構造物の抽出によって位
置合わせすべき対象が予め明らかになっているから、か
かる位置ずれを検出することが容易であり、大きな位置
ずれがあっても位置合わせが可能である。また、大まか
な位置合わせを外部入力パメラータを用いずに行うか
ら、パラメータ入力の煩雑さがなく自動処理が可能で、
また、入力ミスによる処理の失敗がなく、更に、同じ画
像を処理対象とするものであれば一定の結果が得られる
という再現性を有する。
By the way, in the rough alignment processing performed to extract the anatomical structure as described above and align the position of the extracted anatomical structure, a large positional deviation occurs between the two images. However, since the target to be aligned has already been clarified by the extraction of the structure, it is easy to detect such positional deviation, and even if there is a large positional deviation, the positional adjustment is possible. In addition, since rough alignment is performed without using an external input parameter, automatic processing is possible without the complexity of parameter input.
In addition, there is no processing failure due to an input error, and further, if the same image is the processing target, a certain result can be obtained with reproducibility.

【0058】尚、前記解剖学的構造に基づく粗位置合わ
せ処理において、画像を複数領域に分割し、各領域毎に
独立に粗位置合わせを行っても良い。具体的には、胸部
放射線画像において左右の肺の輪郭線を抽出し、右肺野
輪郭線,左肺野輪郭線に基づいて、画像の右領域,左領
域をそれぞれに独立に粗位置合わせする(左右領域それ
ぞれについて位置合わせ情報を決定する)。
In the rough registration processing based on the anatomical structure, the image may be divided into a plurality of areas, and the rough registration may be performed independently for each area. Specifically, the contour lines of the left and right lungs are extracted from the chest radiographic image, and the right region and the left region of the image are roughly aligned independently based on the right lung field contour line and the left lung field contour line. (Determine alignment information for each of the left and right regions).

【0059】次に、前記粗位置合わせの後で行われる精
位置合わせ処理(精位置合わせ処理手段)について説明
する。精位置合わせ処理においては、粗位置合わせ処理
を施した画像データ又は粗位置合わせ処理における位置
合わせ情報に基づき、画像間における共通の被写体部分
の構造を相対的により精細に合わせるように、少なくと
も1つの画像について座標変換を行うか、或いは、座標
変換を表す式,係数等を決定する。
Next, the fine alignment processing (fine alignment processing means) performed after the rough alignment will be described. In the fine alignment process, at least one of the at least one image is subjected to the coarse alignment process or the alignment information in the coarse alignment process so as to relatively finely match the structure of the common subject portion between the images. Coordinate conversion is performed on the image, or an expression, a coefficient, etc. representing the coordinate conversion is determined.

【0060】ここで、前記座標変換においては、非線型
変換を用いることが好ましい。即ち、非線型変換では、
画像を歪ませることが可能であるから、人体の複雑な位
置ずれを精度良く位置合わせすることが可能である。2
次元画像の非線型変換は、例えば変換前の座標を(x,
y)、変換後の座標を(x’,y’)とすると、以下の
数2に示される2次元多項式変換で表される。
Here, in the coordinate conversion, it is preferable to use non-linear conversion. That is, in the nonlinear conversion,
Since it is possible to distort an image, it is possible to accurately align a complicated displacement of the human body. Two
For the non-linear conversion of a three-dimensional image, for example, the coordinates before conversion are (x,
y) and the coordinate after conversion is (x ', y'), it is expressed by the two-dimensional polynomial conversion shown in the following Expression 2.

【0061】[0061]

【数2】 [Equation 2]

【0062】ここで、多項式の次数nとしては、4以上
10以下が好ましい。また、非線型変換における係数(数
2におけるaij,bij)の決定においては、複数の点に
おいてそれぞれローカルマッチングの手法を用いて求め
た複数の移動量を総合することにより定めると良い。前
記ローカルマッチングとは、画像の大きさよりも小さい
部分領域を選択し、該部分領域内の特徴に基づいて該領
域の中心点に対応する移動量を求めるものである。
Here, the degree n of the polynomial is 4 or more.
10 or less is preferable. Further, in determining the coefficients (a ij and b ij in the equation 2) in the non-linear conversion, it may be determined by integrating a plurality of movement amounts obtained by using a local matching method at a plurality of points. The local matching is to select a partial area smaller than the size of the image and obtain a movement amount corresponding to the center point of the area based on the feature in the partial area.

【0063】例えば胸部放射線画像においては、肺野領
域の輪郭を抽出し、複数の画像それぞれについて画像の
肺野領域全体にわたって多数の点をマトリックス的に配
置する。次いで、それぞれの点を中心として、一定の大
きさの部分領域を設定する。このとき、座標変換を行う
画像における部分領域の大きさを、基準画像(座標変換
を行わない画像)の部分領域の大きさに比べて大きく設
定し、小さい方の部分領域をテンプレート、大きい方の
部分領域をサーチ領域と呼ぶ。
For example, in a chest radiation image, the contour of the lung field region is extracted, and a large number of points are arranged in a matrix for each of the plurality of images over the entire lung field region of the image. Next, a partial area having a certain size is set around each point. At this time, the size of the partial area in the image on which the coordinate conversion is performed is set larger than the size of the partial area of the reference image (the image on which the coordinate conversion is not performed), and the smaller partial area is set as the template and the larger partial area is set. The partial area is called a search area.

【0064】そして、図4に示すように、肺野内でおお
よそ対応する位置にあるテンプレートとサーチ領域との
ペアを用いて、サーチ領域に含まれる、テンプレートA
と同形の副領域を少しずつ移動しながら、その中でテン
プレートAと最も良く類似した副領域Bを探索する。副
領域Bが探索されると、中心座標に基づいてテンプレー
トAの中心座標に対する移動量を計算する。ここで、あ
る副領域がテンプレートとどの程度類似しているか(類
似度)を評価する手段としては、前述したSSDA法,
相互相関法,フーリエ変換位相相関法などを使用するこ
とができる。
Then, as shown in FIG. 4, the template A included in the search area is used by using a pair of the template and the search area at approximately corresponding positions in the lung field.
While gradually moving the sub-region of the same shape as, the sub-region B most similar to the template A is searched. When the sub-region B is searched, the amount of movement of the template A with respect to the center coordinates is calculated based on the center coordinates. Here, as a means for evaluating how similar a certain sub-region is to the template (similarity), the SSDA method described above,
A cross-correlation method, a Fourier transform phase correlation method, etc. can be used.

【0065】複数のテンプレートについて決定された移
動量Δx及びΔyの分布に基づいて、数2に示すような
n次の多項式で表される座標変換式が決定され、かかる
変換式に基づいて一方の画像の変換を行うか、或いは、
前記座標変換式又は係数の情報を精位置合わせ情報とし
て、画像間演算処理に与え、差分処理などの画像間演算
を行うときに、前記精位置合わせ情報に基づいて対応画
素を決定して差分処理を行わせる。
Based on the distributions of the movement amounts Δx and Δy determined for a plurality of templates, a coordinate conversion formula represented by a polynomial of degree n as shown in Equation 2 is determined, and one of the coordinate conversion formulas is determined based on the conversion formula. Do image conversion, or
The information of the coordinate conversion formula or the coefficient is given to the inter-image calculation process as the fine alignment information, and when the inter-image calculation such as the difference process is performed, the corresponding pixel is determined based on the fine alignment information to perform the difference process. To perform.

【0066】前記移動量Δx及びΔyの分布から前記n
次多項式の係数を決定するには、最小二乗法などの多項
式近似手法を用いることができる。多項式近似の際に、
ローカルマッチングを行った全てのテンプレートの中心
点に対する移動量の値を使用しても良いが、下記に示す
ようにマッチングの比較的劣るテンプレートから得られ
た値を除外することが好ましい。
From the distribution of the movement amounts Δx and Δy, the n
A polynomial approximation method such as the least square method can be used to determine the coefficient of the second-order polynomial. In polynomial approximation,
Although the value of the movement amount with respect to the center point of all the templates subjected to local matching may be used, it is preferable to exclude the value obtained from the template having relatively poor matching as shown below.

【0067】例えば2枚の時系列画像において、一方の
画像のみの一部にペースメーカーなどの医療器具による
特異な陰影が存在する場合、該特異な陰影を含むテンプ
レートにおいては、他方の画像にそれに相当する陰影が
どこにも存在しないため、得られた移動量は信頼性の低
い値となり、かつ、そのときの類似度は低くなる。この
ような値が多項式近似のためのデータに混在している
と、近傍のデータに悪影響を与え、結果として位置合わ
せ精度が低下する。そこで、このようなマッチングの悪
い移動量を認識して、多項式近似の計算から除外するよ
うにすることが好ましい。
For example, in two time-series images, when a unique shadow due to a medical device such as a pacemaker exists in only one of the images, the template including the unique shadow corresponds to the other image. Since there is no shadow that appears anywhere, the obtained amount of movement has a low reliability and the degree of similarity at that time is low. If such values are mixed in the data for the polynomial approximation, the neighboring data is adversely affected, and as a result, the alignment accuracy decreases. Therefore, it is preferable to recognize such a movement amount with poor matching and exclude it from the calculation of the polynomial approximation.

【0068】前記マッチングの劣る移動量を認識するに
は、例えば該緯度を量の得られたときの類似度が所定の
閾値よりも小さいものを選べば良い。或いは、隣接する
テンプレートから得られた移動量と比較して、その値が
特異に大きいか又は小さいものを選んでも良い。また、
移動量の多項式近似の計算への寄与度を0以上1以下の
値で表されるお重み係数として定義し、前記類似度に応
じて重み付けを行っても良い。例えば前記類似度として
相互相関値を使用した場合、相互相関値が大きくなるに
従って前記重み係数が大きくなるように予め定めておく
ことが好ましい。相互相関値と重み係数との関係の例を
図5に示す。
In order to recognize the movement amount in which the matching is inferior, for example, one whose similarity degree when the amount of the latitude is obtained is smaller than a predetermined threshold value may be selected. Alternatively, it is possible to select a value whose value is uniquely large or small as compared with the movement amount obtained from the adjacent template. Also,
The contribution of the movement amount to the calculation of the polynomial approximation may be defined as a weighting coefficient represented by a value of 0 or more and 1 or less, and weighting may be performed according to the similarity. For example, when a cross-correlation value is used as the similarity, it is preferable to determine in advance that the weighting coefficient increases as the cross-correlation value increases. An example of the relationship between the cross-correlation value and the weighting coefficient is shown in FIG.

【0069】ところで、テンプレートの大きさをあまり
小さくすると、位置合わせの精度が悪化することになる
一方、テンプレートの大きさをあまり大きくすると、演
算時間が長引くことになってしまうので、位置合わせ精
度と演算時間との兼ね合いでテンプレートの大きさを決
定することが望まれ、例えば実効画素サイズが0.7mmの
場合には、前記テンプレートの領域の一辺の大きさは、
5〜50mmが好ましく、15〜40mmとすることがより好まし
い。同様に、サーチ領域の大きさをあまり小さくする
と、位置合わせ精度が低下する一方、サーチ領域の大き
さをあまり大きくすると、演算時間が増大する上に経時
的な変化部分までも位置合わせしてしまう可能性がある
ので、前記テンプレートの大きさに対して、10〜40mm程
度だけ大きなサイズとすることが好ましい。また、隣合
うテンプレートの中心点間の距離をあまり小さくする
と、テンプレートの総数が大きくなるので演算時間が増
大する一方、中心点間の距離をあまり大きくすると位置
合わせ精度が低下するので、前記距離は、5〜50mmとす
ることが好ましい。尚、隣合うテンプレート同士は、重
なり合っても良い。
By the way, if the size of the template is too small, the alignment accuracy is deteriorated. On the other hand, if the size of the template is too large, the calculation time is prolonged. It is desirable to determine the size of the template in consideration of the calculation time, for example, when the effective pixel size is 0.7 mm, the size of one side of the region of the template is
It is preferably 5 to 50 mm, and more preferably 15 to 40 mm. Similarly, if the size of the search area is made too small, the alignment accuracy will be reduced, while if the size of the search area is made too large, the calculation time will be increased and even the changed portion over time will be aligned. Therefore, it is preferable that the size of the template is increased by about 10 to 40 mm. Also, if the distance between the center points of adjacent templates is too small, the total number of templates will be large, and the calculation time will increase. On the other hand, if the distance between the center points is too large, the alignment accuracy will decrease. , 5 to 50 mm is preferable. The adjacent templates may be overlapped with each other.

【0070】また、粗位置合わせ処理において、位置合
わせが平行移動量と回転角との組み合わせで行われる場
合には、前記精位置合わせ処理におけるローカルマッチ
ングでは、サーチ領域内での副領域の平行移動のみによ
る探索を行わせることが好ましい。かかる構成とすれ
ば、画像全体の回転ずれを1段階の処理で補正できるこ
とになり、処理速度を早めることができる。
Further, in the rough alignment processing, when the alignment is performed by the combination of the translation amount and the rotation angle, in the local matching in the fine alignment processing, the parallel movement of the sub area in the search area is performed. It is preferable to perform the search only by itself. With such a configuration, the rotation deviation of the entire image can be corrected by one-step processing, and the processing speed can be increased.

【0071】更に、上記ローカルマッチングの手法を粗
位置合わせ処理に用いても良く、例えば胸部放射線画像
において、抽出した肺の輪郭線上での比較的少数の代表
点を中心にテンプレート及びサーチ領域を設定し、線型
変換で表される座標変換式を決定する構成としても良
い。ここで、前述のように、非線型変換による精位置合
わせ処理の前に、前記解剖学的構造の抽出に基づく粗位
置合わせ処理が行われているから、精位置合わせ処理に
おける位置ずれ補正量は十分に小さくなり、精位置合わ
せ処理のみで位置合わせを行わせる場合に比べて処理速
度を速くできる。また、前記粗位置合わせによって予め
位置ずれ量を十分に小さくできるから、特にサーチ領域
のサイズを小さくしてもサーチ領域内でテンプレートと
類似した副領域を確実に探索でき、これによっても処理
速度の短縮を図れる。
Further, the above-mentioned local matching method may be used for the rough registration processing. For example, in the chest radiographic image, the template and the search area are set around a relatively small number of representative points on the extracted contour line of the lung. However, it may be configured to determine the coordinate conversion formula represented by the linear conversion. Here, as described above, since the coarse alignment processing based on the extraction of the anatomical structure is performed before the fine alignment processing by the nonlinear conversion, the positional deviation correction amount in the fine alignment processing is The size is sufficiently small, and the processing speed can be increased as compared with the case where the alignment is performed only by the precise alignment process. Also, since the amount of positional deviation can be made sufficiently small by the rough alignment in advance, even if the size of the search area is made small, it is possible to reliably search for a sub-area similar to the template within the search area. Can be shortened.

【0072】精位置合わせ処理が終了すると、2つの時
系列画像間で位置合わせされた対応する画素間で画像デ
ータの差分をとる差分処理(画像間演算手段)を実行
し、経時的な差分画像(時系列処理画像)を得る。ここ
で、前記差分処理の後に、所定のオフセット値を加える
処理や階調処理などの後処理を施して、最終的に時系列
画像に基づいて得られた差分画像を設定することが好ま
しい。
When the fine alignment process is completed, a difference process (inter-image calculation means) for obtaining a difference in image data between corresponding pixels aligned between the two time series images is executed, and the difference image over time is obtained. (Time-series processed image) is obtained. Here, it is preferable that after the difference processing, post-processing such as processing for adding a predetermined offset value and gradation processing be performed to finally set the difference image obtained based on the time-series image.

【0073】また、粗位置合わせ処理及び精位置合わせ
処理からなる位置合わせ処理の直前(又は直後)に、画
像全体の濃度・階調を標準的な濃度・階調特性に合わせ
る濃度・階調補正処理を行わせるようにしても良い。具
体的には、米国特許5224177号に開示されるような濃度
・階調補正処理を用いることができる。また、画像を複
数の小領域に分割し、対応する小領域内の画素値の統計
値が等しくなるように一方の画像の画素値を補正する方
法を用いても良い。前記統計量としては、平均値,分散
値等が用いられる。
Immediately before (or immediately after) the position adjustment process consisting of the coarse position adjustment process and the fine position adjustment process, the density / tone correction for adjusting the density / tone of the entire image to the standard density / tone characteristics is performed. You may make it process. Specifically, the density / gradation correction processing as disclosed in US Pat. No. 5,224,177 can be used. Alternatively, a method may be used in which the image is divided into a plurality of small areas and the pixel values of one image are corrected so that the statistical values of the pixel values in the corresponding small areas are equal. An average value, a variance value, or the like is used as the statistic.

【0074】また、精位置合わせ処理後に差分処理する
際に、画像間で共通しない被写体部分があり、差分画像
の周辺部にかかる非共通被写体部分が含まれる場合に
は、差分画像の観察に前記非共通被写体部分の画像は不
要であるので、該不要部分をマスキング又はトリミング
する処理を施すことが好ましい。前記差分画像は、経時
変化のない正常構造部分を打ち消し、経時変化した部分
を選択的に強調する画像であるから、かかる差分画像を
画像表示部6に表示させて医師等に提示することで、経
時変化部分の確認を容易にし、以て、診断精度を向上さ
せることができる。
Further, when there is a subject part that is not common between the images when the difference process is performed after the precise alignment process, and a non-common subject part that surrounds the difference image is included, the difference image is observed as described above. Since the image of the non-common subject portion is unnecessary, it is preferable to perform a process of masking or trimming the unnecessary portion. Since the difference image is an image that cancels out a normal structure portion that does not change with time and selectively emphasizes a portion that has changed with time, by displaying the difference image on the image display unit 6 and presenting it to a doctor or the like, It is possible to easily confirm the portion that changes with time, and thus improve the diagnostic accuracy.

【0075】尚、上記実施例では、時系列画像間におけ
る差分処理に先立って、粗位置合わせ処理及び精位置合
わせ処理からなる位置合わせ処理を行わせる構成とした
が、異なった条件で撮影した2つの放射線画像間で差分
処理(減算処理)し、放射線画像中の特定構造物を抽出
させる画像間演算処理に先立って、上記実施例に示した
位置合わせ処理を適用しても良い。
In the above-described embodiment, the alignment process including the rough alignment process and the fine alignment process is performed prior to the difference process between the time-series images, but the images are taken under different conditions. The alignment process shown in the above-described embodiment may be applied prior to the inter-image calculation process of performing a difference process (subtraction process) between two radiation images and extracting a specific structure in the radiation image.

【0076】前記異なった条件で撮影した2つの放射線
画像間で差分処理を行う画像処理の例としては、造影剤
注入により特定構造物が強調された放射線画像から、造
影剤が注入されていない放射線画像を引算することによ
って、前記特定構造物を抽出する画像間演算処理や、同
一の被写体に対して異なるエネルギー分布を有する放射
線を照射し、或いは、被写体透過後の放射線をエネルギ
ー分布を変えて2つの放射線検出手段に照射して、それ
により特定の構造物が異なる画像を2つの放射線画像間
に存在せしめ、その後この2つの放射線画像の画像信号
間で適当な重み付けをした上で引算を行って、特定構造
物の画像を抽出する画像間演算処理がある。
As an example of the image processing for performing the difference processing between the two radiographic images taken under the different conditions, the radiographic image in which the specific structure is emphasized by the injection of the contrast agent is used as the radiation image in which the contrast agent is not injected. By subtracting the images, the image-to-image arithmetic processing for extracting the specific structure, or irradiating the same subject with radiation having different energy distributions, or changing the energy distribution of the radiation after passing through the subject The two radiation detecting means are irradiated so that images having different specific structures are present between the two radiation images, and then the image signals of the two radiation images are appropriately weighted and subtracted. There is an inter-image calculation process that is performed to extract the image of the specific structure.

【0077】[0077]

【発明の効果】以上説明したように請求項1の発明にか
かる画像の位置合わせ処理装置によると、解剖学的構造
の抽出結果に基づく粗位置合わせによって大規模な位置
ずれがあっても位置合わせが行える一方、該粗位置合わ
せの後で精位置合わせ処理を行わせるから、精位置合わ
せ処理における補正量が小さくなり、位置合わせ処理の
処理速度を速めることができるという効果がある。
As described above, according to the image alignment processing apparatus of the first aspect of the present invention, even if there is a large-scale misalignment due to the rough alignment based on the extraction result of the anatomical structure, the alignment is performed. On the other hand, since the fine alignment process is performed after the rough alignment, the correction amount in the fine alignment process is small, and the processing speed of the alignment process can be increased.

【0078】請求項2の発明にかかる画像の位置合わせ
処理装置によると、線型変換によって大まかな位置合わ
せが行われる一方、非線型変換によって精細な位置合わ
せを行わせるので、画像の複雑な歪みにも対応でき、精
度の高い位置合わせが可能であるという効果がある。請
求項3の発明にかかる画像の位置合わせ処理装置による
と、画素数を減少させた縮小画像を用いた位置合わせ処
理によって、細かな位置合わせの精度を確保しつつ演算
負担を軽減できるという効果がある。
According to the image alignment processing apparatus of the second aspect of the present invention, the rough alignment is performed by the linear conversion, while the fine alignment is performed by the non-linear conversion, resulting in complicated distortion of the image. It also has the effect of enabling highly accurate alignment. According to the image alignment processing apparatus of the third aspect of the present invention, by the alignment processing using the reduced image with the reduced number of pixels, it is possible to secure the precision of the fine alignment and reduce the calculation load. is there.

【0079】請求項4の発明にかかる画像の位置合わせ
処理装置によると、脊椎を含む人体部分が被写体とされ
る場合に、形状変化の比較的少ない前記脊椎を解剖学的
構造として抽出して粗位置合わせ処理を行わせるので、
高い位置合わせ精度を確保できるという効果がある。請
求項5の発明にかかる画像の位置合わせ処理装置による
と、肺を含む人体部分が被写体とされる場合に、形状変
化の比較的少ない前記肺を解剖学的構造として抽出して
粗位置合わせ処理を行わせるので、高い位置合わせ精度
を確保できるという効果がある。
According to the image alignment processing apparatus of the fourth aspect of the present invention, when a human body part including the spine is taken as a subject, the spine having a relatively small shape change is extracted as an anatomical structure and roughened. Since the alignment process is performed,
This has the effect of ensuring high alignment accuracy. According to the image alignment processing apparatus of the invention of claim 5, when a human body part including a lung is a subject, the lung having a relatively small shape change is extracted as an anatomical structure to perform a rough alignment process. Therefore, there is an effect that a high alignment accuracy can be secured.

【0080】請求項6の発明にかかる画像の位置合わせ
処理装置によると、解剖学的構造の抽出結果に基づく粗
位置合わせ処理において、回転,平行移動,拡大・縮小
の組み合わせからなる被写体部分の相対的な位置ずれを
大まかに位置合わせすることができるという効果があ
る。請求項7の発明にかかる画像の位置合わせ処理装置
によると、肺と脊椎とを含む胸部放射線画像において、
肺の抽出結果に基づく位置合わせ情報と、脊椎の抽出結
果に基づく位置合わせ情報とを組み合わせるので、形状
変化の比較的少ない肺及び脊椎に基づいて被写体部分の
位置ずれを高精度に位置合わせすることができるという
効果がある。
According to the image registration processing apparatus of the sixth aspect of the present invention, in the rough registration processing based on the extraction result of the anatomical structure, the relative position of the object portion formed by a combination of rotation, translation, and enlargement / reduction. There is an effect that the positional deviation can be roughly adjusted. According to the image alignment processing apparatus of the invention of claim 7, in a chest radiographic image including a lung and a spine,
Since the alignment information based on the extraction result of the lung and the alignment information based on the extraction result of the spine are combined, it is possible to align the position shift of the object portion with high accuracy based on the lung and the spine with a relatively small shape change. There is an effect that can be.

【0081】請求項8の発明にかかる画像の位置合わせ
処理装置によると、位置合わせ処理の対象画像が、同一
人体を相互に異なる時刻に撮影した複数の時系列画像で
あるので、異なる時刻に撮影されることによる被写体の
ポジショニングや放射線入射方向の差異に起因する位置
ずれを合わせることができるという効果がある。請求項
9の発明にかかる画像の位置合わせ処理装置によると、
例えば異なる年度の定期検診で撮影された胸部放射線画
像などの同一人体を相互に異なる検査において撮影した
複数の時系列画像では、特に大きな位置ずれが存在する
確率が高いが、かかる画像においても、解剖学的構造の
抽出結果に基づく粗位置合わせでおおまかな位置合わせ
が可能であるので、位置合わせ処理の効率向上及び安定
性向上の効果が大きいという効果がある。
According to the image alignment processing apparatus of the eighth aspect of the present invention, since the images to be subjected to the alignment processing are a plurality of time series images of the same human body taken at different times, the images are taken at different times. As a result, there is an effect that it is possible to adjust the position shift of the subject and the positional shift caused by the difference in the radiation incident direction. According to the image alignment processing device of the invention of claim 9,
For example, in multiple time-series images of the same human body taken in different examinations such as chest radiographs taken in regular examinations in different years, there is a high probability that a particularly large positional deviation exists, but even in such images, anatomy Since rough alignment can be performed by rough alignment based on the extraction result of the biological structure, there is an effect that the efficiency and stability of the alignment process are greatly improved.

【0082】請求項10の発明にかかる画像間処理装置に
よると、粗位置合わせ処理及び精位置合わせ処理によっ
て高精度に位置合わせが行われ画像間で演算を行わせる
ので、例えば差分処理により特定構造物や経時変化部分
の強調した画像を精度良く得られるという効果がある。
According to the inter-image processing apparatus of the tenth aspect of the present invention, since the coarse registration processing and the fine registration processing perform high-precision registration and calculation is performed between the images, for example, a specific structure is obtained by difference processing. There is an effect that it is possible to accurately obtain an image in which an object or a temporal change portion is emphasized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例のシステム構成図。FIG. 1 is a system configuration diagram according to an embodiment of the present invention.

【図2】実施例における位置合わせ処理及び差分処理の
様子を示すフローチャート。
FIG. 2 is a flowchart showing a state of alignment processing and difference processing in the embodiment.

【図3】胸部放射線画像における解剖学的構造の抽出例
を示す図。
FIG. 3 is a diagram showing an example of extracting an anatomical structure from a chest radiographic image.

【図4】ローカルマッチングで用いるテンプレート及び
サーチ領域の様子を示す図。
FIG. 4 is a diagram showing the states of templates and search areas used in local matching.

【図5】相互相関値と重み係数との関係を示す線図。FIG. 5 is a diagram showing a relationship between a cross-correlation value and a weighting coefficient.

【符号の説明】[Explanation of symbols]

1 画像記憶部 2 画像情報記憶部 3 画像管理部 4 操作卓 5 画像処理部 6 画像表示部 7 画像メモリ 8 表示制御部 A 画像表示ユニット 1 image storage unit 2 image information storage unit 3 image management unit 4 operator console 5 image processing unit 6 image display unit 7 image memory 8 display control unit A image display unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 9061−5H G06F 15/70 330 P ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 7/00 9061-5H G06F 15/70 330 P

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】人体の一部である共通の被写体部分を含む
複数の画像間で位置合わせ処理を行う画像の位置合わせ
処理装置であって、 前記複数の画像それぞれから人体の解剖学的構造を抽出
する処理を行う解剖学的構造抽出手段と、 該解剖学的構造抽出手段における抽出結果に基づき、前
記複数の画像間における前記解剖的構造の相対的な位置
ずれを大まかに位置合わせする粗位置合わせ処理手段
と、 該粗位置合わせ処理手段で位置合わせが行われた前記複
数の画像それぞれの画像データに基づき、前記複数の画
像間の相対的な位置ずれを細かく位置合わせする精位置
合わせ処理手段と、 を有することを特徴とする画像の位置合わせ処理装置。
1. An image alignment processing device for performing alignment processing between a plurality of images including a common subject part which is a part of a human body, wherein an anatomical structure of the human body is obtained from each of the plurality of images. An anatomical structure extracting unit that performs a process of extracting, and a rough position that roughly aligns the relative displacement of the anatomical structure between the plurality of images based on the extraction result of the anatomical structure extracting unit. Alignment processing means, and fine alignment processing means for finely aligning relative positional deviation between the plurality of images based on image data of each of the plurality of images aligned by the rough alignment processing means An image alignment processing device comprising:
【請求項2】前記粗位置合わせ処理手段における位置合
わせ処理が画像の線型変換を用いて表され、前記精位置
合わせ処理手段における位置合わせ処理が画像の非線型
変換を用いて表されることを特徴とする請求項1記載の
画像の位置合わせ処理装置。
2. The alignment processing in the rough alignment processing means is represented by using a linear transformation of an image, and the alignment processing in the fine alignment processing means is represented by using a non-linear transformation of an image. The image alignment processing apparatus according to claim 1, wherein the image alignment processing apparatus is an image alignment processing apparatus.
【請求項3】前記解剖学的構造抽出手段,粗位置合わせ
処理手段,精位置合わせ処理手段のうちの少なくとも1
つが画像の画素数を減少させた縮小画像を用いて処理を
行う構成であり、かつ、前記精位置合わせ処理手段に比
して前記粗位置合わせ処理手段における画像の縮小度合
いが同等又は大きいことを特徴とする請求項1又は2に
記載の画像の位置合わせ処理装置。
3. At least one of the anatomical structure extracting means, the rough alignment processing means, and the fine alignment processing means.
Is configured to perform processing using a reduced image in which the number of pixels of the image is reduced, and the degree of reduction of the image in the rough alignment processing means is equal to or greater than that in the fine alignment processing means. The image alignment processing apparatus according to claim 1, wherein the image alignment processing apparatus is an image alignment processing apparatus.
【請求項4】前記複数の画像における共通の被写体部分
が脊椎を含む人体部分であり、前記解剖学的構造抽出手
段が、解剖学的構造として少なくとも前記脊椎の位置を
抽出することを特徴とする請求項1〜3のいずれか1つ
に記載の画像の位置合わせ処理装置。
4. A common subject part in the plurality of images is a human body part including a spine, and the anatomical structure extracting means extracts at least the position of the spine as an anatomical structure. The image alignment processing apparatus according to claim 1.
【請求項5】前記複数の画像における共通の被写体部分
が肺を含む人体部分であり、前記解剖学的構造抽出手段
が、解剖学的構造として少なくとも前記肺の位置を抽出
することを特徴とする請求項1〜4のいずれか1つに記
載の画像の位置合わせ処理装置。
5. A common subject portion in the plurality of images is a human body portion including a lung, and the anatomical structure extracting means extracts at least the position of the lung as an anatomical structure. The image alignment processing apparatus according to claim 1.
【請求項6】前記粗位置合わせ処理手段における位置合
わせ処理が画像の線型変換を用いて表され、かつ、前記
粗位置合わせ処理手段が、前記解剖学的構造抽出手段で
抽出された解剖学的構造の座標データ及び/又は解剖学
的構造部分の画像データに基づいて、粗位置合わせ処理
における回転量、平行移動量、拡大・縮小率のうちの少
なくとも1つを決定することを特徴とする請求項1〜5
のいずれか1つに記載の画像の位置合わせ処理装置。
6. The alignment processing in the rough registration processing means is represented by using linear transformation of an image, and the rough registration processing means is anatomical extracted by the anatomical structure extracting means. At least one of a rotation amount, a parallel movement amount, and an enlargement / reduction ratio in the rough alignment processing is determined based on the coordinate data of the structure and / or the image data of the anatomical structure portion. Items 1-5
The image alignment processing device according to any one of 1.
【請求項7】前記複数の画像における共通の被写体部分
が脊椎及び肺を含む人体部分であり、前記解剖学的構造
抽出手段が、解剖学的構造として前記脊椎及び肺の位置
をそれぞれに抽出する一方、前記粗位置合わせ処理手段
における位置合わせ処理が画像の線型変換を用いて表さ
れ、かつ、前記粗位置合わせ処理手段が、脊椎の抽出結
果に基づいて設定した位置合わせ情報と、肺の抽出結果
に基づいて設定した位置合わせ情報との組み合わせを、
粗位置合わせ処理における位置合わせ情報とすることを
特徴とする請求項1〜6のいずれか1つに記載の画像の
位置合わせ処理装置。
7. A common subject part in the plurality of images is a human body part including a spine and a lung, and the anatomical structure extracting means extracts the positions of the spine and the lung as an anatomical structure. On the other hand, the alignment processing in the rough alignment processing means is represented by using a linear transformation of an image, and the rough alignment processing means extracts alignment information and alignment information set based on the extraction result of the spine. The combination with the alignment information set based on the result,
7. The image alignment processing apparatus according to claim 1, wherein the image alignment information is used in the coarse alignment process.
【請求項8】前記複数の画像が、同一人体を相互に異な
る時刻に撮影した複数の時系列画像であることを特徴と
する請求項1〜7のいずれか1つに記載の画像の位置合
わせ処理装置。
8. The alignment of images according to claim 1, wherein the plurality of images are a plurality of time series images of the same human body taken at different times. Processing equipment.
【請求項9】前記複数の画像が、同一人体を相互に異な
る検査において撮影した複数の時系列画像であることを
特徴とする請求項1〜7のいずれか1つに記載の画像の
位置合わせ処理装置。
9. The image registration according to claim 1, wherein the plurality of images are a plurality of time-series images of the same human body taken in different examinations. Processing equipment.
【請求項10】請求項1〜9のいずれか1つに記載の画像
の位置合わせ処理装置で位置合わせが行われた複数の画
像間で演算を行う画像間演算手段を有することを特徴と
する画像間演算処理装置。
10. An inter-image calculation means for performing calculation between a plurality of images that have been aligned by the image alignment processing apparatus according to claim 1. Image processing unit.
JP6240219A 1994-10-04 1994-10-04 Alignment processor for image and inter-image processor Pending JPH08103439A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6240219A JPH08103439A (en) 1994-10-04 1994-10-04 Alignment processor for image and inter-image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6240219A JPH08103439A (en) 1994-10-04 1994-10-04 Alignment processor for image and inter-image processor

Publications (1)

Publication Number Publication Date
JPH08103439A true JPH08103439A (en) 1996-04-23

Family

ID=17056228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6240219A Pending JPH08103439A (en) 1994-10-04 1994-10-04 Alignment processor for image and inter-image processor

Country Status (1)

Country Link
JP (1) JPH08103439A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191601A (en) * 2000-09-14 2002-07-09 Ge Medical Systems Global Technology Co Llc Method and apparatus for locking sample space onto moving vessel in pulse doppler ultrasound imaging
JP2002253540A (en) * 2001-02-27 2002-09-10 Canon Inc Medical imaging system and imaging display method
JP2007029502A (en) * 2005-07-28 2007-02-08 Fujifilm Corp Positioning device, positioning method and its program
JP2008067916A (en) * 2006-09-14 2008-03-27 Hitachi Medical Corp Medical image processor
JP2009160100A (en) * 2007-12-28 2009-07-23 Shimadzu Corp Image processor and radiographic equipment
JP2011019573A (en) * 2009-07-13 2011-02-03 Toshiba Corp X-ray equipment
JP2011019576A (en) * 2009-07-13 2011-02-03 Canon Inc Tomography apparatus and method of correcting tomogram
JP2012523889A (en) * 2009-04-17 2012-10-11 リバレイン メディカル グループ,リミティド ライアビリティ カンパニー Overlapping, subtraction and display of chest radiographs
WO2012144025A1 (en) * 2011-04-20 2012-10-26 株式会社メガトレード Automatic inspection device and alignment method for automatic inspection device
WO2012169344A1 (en) * 2011-06-10 2012-12-13 株式会社日立メディコ Image diagnosis assisting apparatus, and method
JP2013248466A (en) * 2013-07-31 2013-12-12 Canon Inc Processing apparatus, processing method, and program
EP2720613A1 (en) * 2011-06-14 2014-04-23 Radiology Morphological Solutions B.V. Method, a system and a computer program product for registration and identification of diagnostic images
CN104414666A (en) * 2013-08-28 2015-03-18 柯尼卡美能达株式会社 Thoracic diagnosis assistance system
US9514384B2 (en) 2014-04-28 2016-12-06 Fujitsu Limited Image display apparatus, image display method and storage medium storing image display program
JP2016214664A (en) * 2015-05-22 2016-12-22 株式会社日立製作所 Ultrasound diagnostic device and program
US10039514B2 (en) 2015-07-24 2018-08-07 Fujitsu Limited Computer readable storage medium, apparatus, and method for image processing
JP2019115515A (en) * 2017-12-27 2019-07-18 キヤノン株式会社 Image processing device, image processing method, image processing system, and program
WO2020137677A1 (en) * 2018-12-26 2020-07-02 キヤノン株式会社 Image processing device, image processing method, and program
JP6749528B1 (en) * 2020-01-31 2020-09-02 三菱電機株式会社 Defect management device, modification management method, and modification management program
US10929990B2 (en) 2017-09-27 2021-02-23 Fujifilm Corporation Registration apparatus, method, and program

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002191601A (en) * 2000-09-14 2002-07-09 Ge Medical Systems Global Technology Co Llc Method and apparatus for locking sample space onto moving vessel in pulse doppler ultrasound imaging
JP2002253540A (en) * 2001-02-27 2002-09-10 Canon Inc Medical imaging system and imaging display method
JP2007029502A (en) * 2005-07-28 2007-02-08 Fujifilm Corp Positioning device, positioning method and its program
JP4541988B2 (en) * 2005-07-28 2010-09-08 富士フイルム株式会社 Alignment apparatus, alignment method, and program thereof
JP2008067916A (en) * 2006-09-14 2008-03-27 Hitachi Medical Corp Medical image processor
JP2009160100A (en) * 2007-12-28 2009-07-23 Shimadzu Corp Image processor and radiographic equipment
JP2012523889A (en) * 2009-04-17 2012-10-11 リバレイン メディカル グループ,リミティド ライアビリティ カンパニー Overlapping, subtraction and display of chest radiographs
JP2011019573A (en) * 2009-07-13 2011-02-03 Toshiba Corp X-ray equipment
JP2011019576A (en) * 2009-07-13 2011-02-03 Canon Inc Tomography apparatus and method of correcting tomogram
WO2012144025A1 (en) * 2011-04-20 2012-10-26 株式会社メガトレード Automatic inspection device and alignment method for automatic inspection device
JP5852641B2 (en) * 2011-04-20 2016-02-03 株式会社メガトレード Automatic inspection device and alignment method in automatic inspection device
WO2012169344A1 (en) * 2011-06-10 2012-12-13 株式会社日立メディコ Image diagnosis assisting apparatus, and method
JP5684382B2 (en) * 2011-06-10 2015-03-11 株式会社日立メディコ Image diagnosis support apparatus and method
EP2720613A1 (en) * 2011-06-14 2014-04-23 Radiology Morphological Solutions B.V. Method, a system and a computer program product for registration and identification of diagnostic images
JP2013248466A (en) * 2013-07-31 2013-12-12 Canon Inc Processing apparatus, processing method, and program
CN104414666A (en) * 2013-08-28 2015-03-18 柯尼卡美能达株式会社 Thoracic diagnosis assistance system
CN104414666B (en) * 2013-08-28 2017-01-18 柯尼卡美能达株式会社 Thoracic diagnosis assistance system
US9514384B2 (en) 2014-04-28 2016-12-06 Fujitsu Limited Image display apparatus, image display method and storage medium storing image display program
JP2016214664A (en) * 2015-05-22 2016-12-22 株式会社日立製作所 Ultrasound diagnostic device and program
US10039514B2 (en) 2015-07-24 2018-08-07 Fujitsu Limited Computer readable storage medium, apparatus, and method for image processing
US10929990B2 (en) 2017-09-27 2021-02-23 Fujifilm Corporation Registration apparatus, method, and program
JP2019115515A (en) * 2017-12-27 2019-07-18 キヤノン株式会社 Image processing device, image processing method, image processing system, and program
US11170505B2 (en) 2017-12-27 2021-11-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and storage medium
WO2020137677A1 (en) * 2018-12-26 2020-07-02 キヤノン株式会社 Image processing device, image processing method, and program
JP2020103464A (en) * 2018-12-26 2020-07-09 キヤノン株式会社 Image processing device, image processing method, and program
US11880987B2 (en) 2018-12-26 2024-01-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium
JP6749528B1 (en) * 2020-01-31 2020-09-02 三菱電機株式会社 Defect management device, modification management method, and modification management program
WO2021152855A1 (en) * 2020-01-31 2021-08-05 三菱電機株式会社 Deformation management device, deformation management method, and deformation management program

Similar Documents

Publication Publication Date Title
JPH08103439A (en) Alignment processor for image and inter-image processor
JP4130661B2 (en) Device for detecting temporal changes between temporally continuous chest images
JP4653737B2 (en) Radiation imaging method for three-dimensional reconstruction and computer program and apparatus for implementing the method
JP4718003B2 (en) Method for detecting interval changes in radiographs
JP2000342558A (en) Image positioning processor and inter-picture arithmetic processor
US7069066B2 (en) Bone densitometer providing improved longitudinal studies
US8897514B2 (en) Imaging method for motion analysis
US8233692B2 (en) Method of suppressing obscuring features in an image
JP5337845B2 (en) How to perform measurements on digital images
US9875544B2 (en) Registration of fluoroscopic images of the chest and corresponding 3D image data based on the ribs and spine
JP3569566B2 (en) Image processing device
US20030097076A1 (en) Method and apparatus for calculating index concerning local blood flow circulations
US20070242869A1 (en) Processing and measuring the spine in radiographs
US7899229B2 (en) Method for detecting anatomical motion blur in diagnostic images
JPH05176919A (en) Method and apparatus for image treatment
US20010007593A1 (en) Method and unit for displaying images
JP6361435B2 (en) Image processing apparatus and program
JP5016518B2 (en) Alignment apparatus and program thereof
US20230169666A1 (en) Methods and systems for image registration
US7627158B2 (en) Automatic registration of intra-modality medical volume images using affine transformation
JPH08110939A (en) Picture aligning processor and inter-picture arithmetic processing unit
JP4294880B2 (en) Image registration method and apparatus
JP3931792B2 (en) Time-series processed image display device and display method
JP2021097864A (en) Image determination device, image determination method, and program
JP4518632B2 (en) Method and apparatus for determining the dynamic range of medical digital images