JP2024078179A - Image processing device, control method thereof, and program - Google Patents

Image processing device, control method thereof, and program Download PDF

Info

Publication number
JP2024078179A
JP2024078179A JP2022190575A JP2022190575A JP2024078179A JP 2024078179 A JP2024078179 A JP 2024078179A JP 2022190575 A JP2022190575 A JP 2022190575A JP 2022190575 A JP2022190575 A JP 2022190575A JP 2024078179 A JP2024078179 A JP 2024078179A
Authority
JP
Japan
Prior art keywords
image
scattered ray
scattered
correction
pixel values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022190575A
Other languages
Japanese (ja)
Inventor
真弥 勝間田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022190575A priority Critical patent/JP2024078179A/en
Publication of JP2024078179A publication Critical patent/JP2024078179A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】複数の画像の接合により得られる長尺画像の接合部分における画質を向上する。【解決手段】画像処理装置は、被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得し、第1の散乱線低減画像と第2の散乱線低減画像との重複領域であって、第1の散乱線低減画像における重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正し、前2の散乱線低減画像における重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正し、画像端領域が補正された第1の散乱線低減画像と第2の散乱線低減画像とを用いて長尺画像を生成する。【選択図】図1[Problem] To improve image quality at a joint portion of a long image obtained by joining multiple images. [Solution] An image processing device performs scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of a subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image, corrects an image edge region on the overlapping region side in the first scattered ray reduced image, which is an overlapping region between the first scattered ray reduced image and the second scattered ray reduced image, based on pixel values outside the image edge region, corrects an image edge region on the overlapping region side in the first scattered ray reduced image, based on pixel values outside the image edge region, and generates a long image using the first scattered ray reduced image and the second scattered ray reduced image with the image edge regions corrected. [Selected Figure] Figure 1

Description

本開示は、画像処理装置およびその制御方法、プログラムに関する。 This disclosure relates to an image processing device, a control method thereof, and a program.

放射線撮影装置は、医用画像や工業用非破壊検査など、多くの分野で広く利用されている。近年ではFlat Panel Detector(以下、FPDと略す)と呼ばれる、放射線を電気信号に変換するための半導体素子を2次元行列状に多数配設させた構成を有するデジタルの放射線撮影装置が広く普及している。FPDから読み込まれた放射線画像は、各画素の感度補正などのFPDのセンサに起因した特性を補正する補正処理、視認しやすい画像にするための周波数強調処理、ダイナミックレンジ処理および階調処理などを経てユーザに表示される。また、撮影時に放射線が被写体を通過する際に発生する散乱線は、画像のコントラストが低下する原因になる。したがって、FPDから読み込まれた画像に対して、散乱線を低減する画像処理(以下、散乱線低減処理)が行われる(特許文献1、特許文献2)。 Radiation imaging devices are widely used in many fields, such as medical imaging and industrial non-destructive testing. In recent years, digital radiation imaging devices called Flat Panel Detectors (hereinafter abbreviated as FPDs), which have a configuration in which a large number of semiconductor elements for converting radiation into electrical signals are arranged in a two-dimensional matrix, have become widespread. The radiation image read from the FPD is displayed to the user after undergoing correction processing to correct characteristics caused by the FPD sensor, such as sensitivity correction for each pixel, frequency emphasis processing to make the image easier to view, dynamic range processing, and gradation processing. In addition, scattered rays generated when radiation passes through the subject during imaging cause the contrast of the image to decrease. Therefore, image processing to reduce scattered rays (hereinafter referred to as scattered radiation reduction processing) is performed on the image read from the FPD (Patent Document 1, Patent Document 2).

また、FPDを用いた放射線撮影装置により、FPDのサイズよりも長い被写体を撮影する方法として、長尺撮影が知られている。長尺撮影では、被写体をそのままにFPDの位置を被写体が一部で重複するように移動しながら複数回の放射線撮影を行う。そして、取得された複数の放射線画像を被写体の重複領域が合わさる様に画像処理により接合することにより接合画像(長尺画像)を得る。 Long-length photography is also known as a method of imaging a subject that is longer than the size of the FPD using a radiation imaging device that uses an FPD. In long-length photography, the subject is left in place and multiple radiation images are taken while the position of the FPD is moved so that some of the subject overlaps. Then, the multiple acquired radiation images are joined by image processing so that the overlapping areas of the subject are joined together to obtain a joined image (long image).

特開2016-198469号公報JP 2016-198469 A 特開2017-189393号公報JP 2017-189393 A

ここで、長尺画像の接合部分の画質を向上するために、接合される複数の放射線画像において、上述した散乱線低減処理が行われる場合を考える。このとき、各放射線画像の端部では画像外における放射線照射野の状態や被写体の情報を得ることは難しい。このため、長尺画像の接合部分では、散乱線低減処理の結果として、例えば、不適切な輝度を有する帯状の領域が発生することがあり、長尺画像の画質を低下させてしまう可能性がある。 Now consider the case where the above-mentioned scattered radiation reduction process is performed on the multiple radiation images to be joined in order to improve the image quality at the joints of the long images. In this case, it is difficult to obtain information on the state of the radiation exposure field outside the image or on the subject at the ends of each radiation image. For this reason, for example, a band-shaped area with inappropriate brightness may occur at the joints of the long images as a result of the scattered radiation reduction process, which may degrade the image quality of the long images.

本開示は、上記課題に鑑みてなされたものであり、複数の画像の接合により得られる長尺画像の接合部分における画質を向上することを目的とする。 This disclosure has been made in consideration of the above-mentioned problems, and aims to improve the image quality at the joints of a long image obtained by joining multiple images.

本開示の一態様による画像処理装置は以下の構成を備える。すなわち、
被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理手段と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域であって、前記第1の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正し、前記第2の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正する補正手段と、
前記補正手段により前記画像端領域が補正された前記第1の散乱線低減画像と前記第2の散乱線低減画像とを用いて長尺画像を生成する生成手段と、を備える。
An image processing device according to an embodiment of the present disclosure includes the following configuration:
a processing means for performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of a subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a correction means for correcting an image edge region on the overlapping region side of the first scattered ray reduced image and the second scattered ray reduced image based on pixel values outside the image edge region, and for correcting an image edge region on the overlapping region side of the second scattered ray reduced image based on pixel values outside the image edge region;
A generating means generates a long image using the first scattered ray reduced image and the second scattered ray reduced image in which the image edge regions have been corrected by the correcting means.

本開示によれば、複数の画像の接合により得られる長尺画像の接合部分における画質が向上する。 According to the present disclosure, image quality is improved at the joints of a long image obtained by joining multiple images.

第1実施形態による放射線撮影システムの構成例を示す図。1 is a diagram showing an example of the arrangement of a radiation imaging system according to a first embodiment; 被写体の全脊椎撮影を行う長尺撮影の例を示す図。FIG. 13 is a diagram showing an example of long-length photography for capturing an image of the entire spine of a subject. 長尺画像への接合処理時の設定画面例を表す図。FIG. 13 is a diagram showing an example of a setting screen when performing joining processing on a long image. 第1実施形態の画像処理を示すフローチャート。4 is a flowchart showing image processing according to the first embodiment. 第1実施形態の散乱線低減画像の補正処理を示すフローチャート。10 is a flowchart showing a correction process for a scattered radiation reduced image according to the first embodiment. 第1実施形態の画像の接合位置と接合周辺領域との関係を示す図。5A and 5B are diagrams showing the relationship between a joint position and a joint peripheral region of an image in the first embodiment. 第1実施形態による補正処理を説明する図。5A to 5C are views for explaining a correction process according to the first embodiment. 第2実施形態の画像処理を示すフローチャート。10 is a flowchart showing image processing according to a second embodiment. 第2実施形態の散乱線低減画像の補正処理を示すフローチャート。10 is a flowchart showing a correction process for a scattered radiation reduced image according to a second embodiment. 第2実施形態の接合画像と接合周辺領域との関係を示す図。13A and 13B are diagrams illustrating a relationship between a joint image and a joint peripheral region according to a second embodiment. 第2実施形態による補正処理を説明する図。13A to 13C are views for explaining a correction process according to a second embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る本開示を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが本開示に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The embodiments are described in detail below with reference to the attached drawings. Note that the following embodiments do not limit the present disclosure according to the claims. Although the embodiments describe multiple features, not all of these multiple features are necessarily essential to the present disclosure, and multiple features may be combined in any manner. Furthermore, in the attached drawings, the same reference numbers are used for the same or similar configurations, and duplicate explanations are omitted.

<第1実施形態>
第1実施形態では、被写体の一部が重複するように撮影した複数の画像に対して散乱線低減処理を行い、散乱線低減処理後の複数の画像において散乱線の推定精度の低い領域を補正し、補正した複数の画像を接合することにより長尺画像を生成する。
First Embodiment
In the first embodiment, scattered radiation reduction processing is performed on multiple images taken so that parts of the subject overlap, and areas in the multiple images after the scattered radiation reduction processing where the estimated accuracy of scattered radiation is low are corrected, and a long image is generated by joining the multiple corrected images.

図1は、第1実施形態による放射線撮影システム10の構成例を示す図である。本実施形態の放射線撮影システム10では、放射線としてX線が用いられる。X線管100から被写体1の延長線上にある放射線撮影装置(FPD200)にX線が照射される。X線を照射されたFPD200は、X線を放射線画像に変換し、画像処理装置300のI/O部301へ送る。このとき、X線管100から画像処理装置300へ線量や管電圧などの画像撮影時の撮影に関する情報(以下、撮影情報)が送られてもよい。FPD200から取得された放射線画像は、I/O部301を介して記憶媒体302に記憶される。記憶媒体302に記憶された放射線画像は、同じく記憶媒体302に記憶されている画像処理プログラムと共にメモリ303に一時的に読み出され、画像処理プログラムを実行するCPU304により用いられる。CPU304は、記憶媒体302に記憶されているプログラムを実行することにより、各種処理部として機能する。例えば、CPU304は、画像取得部311、散乱線低減部312、接合位置算出部313、散乱線低減画像補正部(以下、画像補正部)314、接合部315、表示用画像処理部316として機能する。ただし、上述したような機能部の一部あるいはすべてが、CPU304の代わりにGPUや画像処理用チップ等の演算装置により実現されてもよい。表示装置400は、画像処理装置300による画像処理の結果などを表示する。操作装置500は、画像処理装置300の操作や撮影情報の入力、撮影画像の接合位置情報や画像処理の輝度やコントラスト調整等のパラメータ設定を行うために用いられ得る。 1 is a diagram showing an example of the configuration of a radiation imaging system 10 according to the first embodiment. In the radiation imaging system 10 of this embodiment, X-rays are used as radiation. X-rays are irradiated from the X-ray tube 100 to a radiation imaging device (FPD 200) on an extension line of the subject 1. The FPD 200 irradiated with X-rays converts the X-rays into a radiation image and sends it to the I/O unit 301 of the image processing device 300. At this time, information on imaging at the time of imaging, such as dose and tube voltage (hereinafter, imaging information), may be sent from the X-ray tube 100 to the image processing device 300. The radiation image acquired from the FPD 200 is stored in the storage medium 302 via the I/O unit 301. The radiation image stored in the storage medium 302 is temporarily read into the memory 303 together with an image processing program also stored in the storage medium 302, and is used by the CPU 304 that executes the image processing program. The CPU 304 functions as various processing units by executing the program stored in the storage medium 302. For example, the CPU 304 functions as an image acquisition unit 311, a scattered radiation reduction unit 312, a joining position calculation unit 313, a scattered radiation reduction image correction unit (hereinafter, image correction unit) 314, a joining unit 315, and a display image processing unit 316. However, some or all of the above-mentioned functional units may be realized by a calculation device such as a GPU or an image processing chip instead of the CPU 304. The display device 400 displays the results of image processing by the image processing device 300. The operation device 500 can be used to operate the image processing device 300, input shooting information, and set parameters such as joining position information of the captured image and brightness and contrast adjustment for image processing.

次に、図1の放射線撮影システム10により長尺撮影を行う際の被写体1とFPD200の関係について図2を用いて説明する。図2は、長尺撮影により被写体1の全脊椎を撮影する場合を示している。被写体1の全脊椎を撮影するには頭と四肢を除く胴体すべてが画像に写りこむ必要がある。例えば、まず図2の第1の撮影箇所201においてFPD200を用いて撮影することにより、画像Aが得られる。次にFPD200を被写体1の一部が重なる形となる第2の撮影箇所202に移動して撮影することで画像Bが得られる。こうして、複数回の放射線撮影(本例では2回の放射線撮影)により画像Aと画像Bとの2枚の放射線画像が取得される。なお、本例では2つの撮影箇所と2つの放射線画像が用いられる場合を説明したが、これに限られるものではなく、複数の撮影箇所で撮影された複数の放射線画像であれば何枚でもよい。 Next, the relationship between the subject 1 and the FPD 200 when performing long-length photography using the radiation imaging system 10 in FIG. 1 will be described with reference to FIG. 2. FIG. 2 shows a case where the entire spine of the subject 1 is photographed by long-length photography. To photograph the entire spine of the subject 1, the entire torso except for the head and limbs must be captured in the image. For example, image A is obtained by first photographing the first photography location 201 in FIG. 2 using the FPD 200. Next, image B is obtained by moving the FPD 200 to the second photography location 202 where a part of the subject 1 overlaps and photographing the subject. In this way, two radiation images, image A and image B, are obtained by multiple radiation photography (two radiation photography in this example). Note that in this example, a case where two photography locations and two radiation images are used has been described, but this is not limited to this, and any number of multiple radiation images taken at multiple photography locations may be used.

図3は、長尺撮影された2つの画像の接合位置を決定する際のユーザインターフェースを示す図である。図2で説明した長尺撮影を終えると、画像Aと画像Bが表示装置400に表示される。図3(a)において、サムネイル表示部401には、画像Aのサムネイルと画像Bのサムネイルとが表示されており、ユーザは、操作装置500を操作することにより接合対象の画像として画像Aと画像Bとを選択することができる。なお、図2で説明した長尺撮影の実行後に、自動的に接合対象の画像として画像Aと画像Bとが選択されて図3(a)のような表示が行われてもよい。その場合、サムネイル表示部401からユーザが接合対象の画像を選択する操作は省略され得る。表示装置400の画面には各種操作アイテムが表示され、ユーザは操作装置500を用いてこれら操作アイテムを操作する。接合対象として選択された画像Aと画像Bとについて、相関係数の高い位置を求める等の画像処理により自動的に被写体の重複領域が検出される。そして、図3(a)に示されるように、検出された互いの重複領域を接合位置として画像Aと画像Bとを重ねた状態が表示装置400に表示される。この状態で、ユーザは、位置調整ボタン501を操作することにより、画像Aと画像Bとの間の接合位置を微調整することができる。 3 is a diagram showing a user interface when determining the joining position of two images photographed in a long length. After the long length photographing described in FIG. 2 is completed, images A and B are displayed on the display device 400. In FIG. 3(a), thumbnails of images A and B are displayed on the thumbnail display unit 401, and the user can select images A and B as images to be joined by operating the operation device 500. Note that after the long length photographing described in FIG. 2 is performed, images A and B may be automatically selected as images to be joined and displayed as shown in FIG. 3(a). In that case, the operation of the user selecting images to be joined from the thumbnail display unit 401 may be omitted. Various operation items are displayed on the screen of the display device 400, and the user operates these operation items using the operation device 500. For images A and B selected as images to be joined, an overlapping area of the subject is automatically detected by image processing such as determining a position with a high correlation coefficient. Then, as shown in FIG. 3(a), a state in which images A and B are superimposed with the detected overlapping areas as the joining positions is displayed on the display device 400. In this state, the user can fine-tune the joining position between image A and image B by operating the position adjustment button 501.

決定ボタン502が押されると、画像Aと画像Bとの間の接合位置が決定され、それら撮影画像の接合位置を表す接合位置情報が決定され、決定された接合位置情報に基づいて画像Aと画像Bとが接合され、長尺画像が生成される。生成された長尺画像は、図3(b)に示されるように、生成された長尺画像が表示装置400に表示される。また、サムネイル表示部401には、生成された長尺画像のサムネイルが追加される。決定ボタン502の押下により実行される長尺画像の生成処理について、以下、説明する。 When the decision button 502 is pressed, the joining position between image A and image B is determined, joining position information indicating the joining position of the captured images is determined, and image A and image B are joined based on the determined joining position information to generate a long image. The generated long image is displayed on the display device 400 as shown in FIG. 3(b). A thumbnail of the generated long image is added to the thumbnail display section 401. The long image generation process executed by pressing the decision button 502 is described below.

図4は、第1実施形態の画像処理装置300が行う画像処理を説明するフローチャートである。図4に示される処理は、例えば、決定ボタン502の押下により開始される。以下、画像処理装置300により実行される画像処理について、図4のフローチャートを参照して説明する。 Figure 4 is a flowchart explaining the image processing performed by the image processing device 300 of the first embodiment. The processing shown in Figure 4 is started, for example, by pressing the decision button 502. The image processing performed by the image processing device 300 will be explained below with reference to the flowchart in Figure 4.

まず、S101において、画像取得部311は、被写体の一部が重複した複数の放射線画像(長尺撮影における接合対象の放射線画像)を記憶媒体302から取得する。より具体的には、画像取得部311は、複数の放射線画像を記憶媒体302から読み出し、メモリ303に保存する。次に、S102において、散乱線低減部312は、メモリ303に保存されている複数の放射線画像のそれぞれについて散乱線低減処理を行う。散乱線低減処理では、放射線画像から散乱線を推定し、推定した散乱線の一定量を放射線画像から減算することで散乱線低減画像を作成する。散乱線の推定には公知の手法が用いられ得る。例えば、照射したX線が被写体を透過し散乱せずFPD200に到達した1次X線で表される1つの式に対して2つのガウス関数をコンボリューションした式を用いて散乱線をモデル化する方法がある。なお、推定した散乱線を放射線画像から減算する際は、例えばグリッド相当の散乱線量になる様に推定した散乱線に対してグリッドの散乱線透過率(JIS規格)に等価になるよう減算すればよい。 First, in S101, the image acquisition unit 311 acquires from the storage medium 302 a plurality of radiation images (radiation images to be joined in long-length photography) in which a part of the subject overlaps. More specifically, the image acquisition unit 311 reads out the plurality of radiation images from the storage medium 302 and stores them in the memory 303. Next, in S102, the scattered radiation reduction unit 312 performs a scattered radiation reduction process on each of the plurality of radiation images stored in the memory 303. In the scattered radiation reduction process, the scattered radiation is estimated from the radiation image, and a certain amount of the estimated scattered radiation is subtracted from the radiation image to create a scattered radiation reduced image. A known method may be used to estimate the scattered radiation. For example, there is a method of modeling the scattered radiation using an equation obtained by convoluting two Gaussian functions with one equation representing the primary X-rays that have passed through the subject and reached the FPD 200 without being scattered. When subtracting the estimated scattered radiation from the radiological image, the estimated scattered radiation may be subtracted so as to be equivalent to the scattered radiation transmittance of the grid (JIS standard), for example, to the amount of scattered radiation equivalent to the grid.

次に、S103において、接合位置算出部313は、接合対象である2つの放射線画像間の重複する被写体領域が一致する接合位置を表す接合位置情報を取得する。例えば、画像の相関係数の高い位置を求める等の画像処理により取得された接合位置に従って、2つの放射線画像の接合位置情報が取得される。図3(a)で説明したように、接合対象の2つの放射線画像を取得された接合位置情報に基づいて配置し、表示することにより、ユーザは接合の状態を確認することができる。ユーザ操作により接合位置が微調整されると、これに応じて接合位置情報が更新される。なお、画像処理を用いずにユーザが表示装置400で目視確認をしながら接合位置を決定してもよいし、画像処理により決定された接合位置がそのまま用いられるようにしてもよい。次に、S104において、画像補正部314は、S102の散乱線低減処理において散乱線の推定精度が低くなる画像端領域に関して散乱線低減量の過不足を補正する散乱線低減補正処理を実行して、補正画像を生成する。以下、図5を用いて、S104における散乱線低減補正処理についてより詳細に説明する。 Next, in S103, the joining position calculation unit 313 acquires joining position information representing the joining position where the overlapping subject regions of the two radiation images to be joined coincide. For example, the joining position information of the two radiation images is acquired according to the joining position acquired by image processing such as determining the position of the high correlation coefficient of the images. As described in FIG. 3A, the two radiation images to be joined are arranged based on the acquired joining position information and displayed, so that the user can check the joining state. When the joining position is finely adjusted by the user's operation, the joining position information is updated accordingly. Note that the user may determine the joining position while visually checking the display device 400 without using image processing, or the joining position determined by image processing may be used as it is. Next, in S104, the image correction unit 314 executes a scattered radiation reduction correction process that corrects the excess or deficiency of the scattered radiation reduction amount for the image edge region where the estimation accuracy of the scattered radiation is low in the scattered radiation reduction process of S102, and generates a corrected image. Hereinafter, the scattered radiation reduction correction process in S104 will be described in more detail with reference to FIG. 5.

図5は、第1実施形態による散乱線低減補正処理を説明するフローチャートである。なお、図5のフローチャートにより示される処理は、接合対象である複数の放射線画像のそれぞれについて行われる。まず、S201において、画像補正部314は、放射線画像から、低周波成分の画像である低周波画像を生成する。低周波画像の生成は、散乱線低減処理済みの放射線画像の端部の散乱線精度の低さを補正するために、散乱線成分が多く含まれる低周波成分を抜き出すことを目的としている。低周波画像は、例えば、移動平均やガウスフィルタ等の低周波フィルタを放射線画像に適用することにより取得され得る。或いは、放射線画像にフーリエ変換や離散コサイン変換等を行い、周波数空間上で高周波帯域を制限するように重みをかけることにより低周波画像を取得してもよい。なお、放射線画像から低周波画像を取得する処理は、これらに限られるものではない。次に、S202において、画像補正部314は、散乱線成分の少ない被写体の骨や血管等の構造部分を抽出することを目的として、放射線画像から高周波成分の画像である高周波画像を生成する。例えば、高周波画像は、放射線画像からS201で生成された低周波画像を減算することにより得られる。 FIG. 5 is a flowchart for explaining the scattered radiation reduction correction process according to the first embodiment. The process shown in the flowchart of FIG. 5 is performed for each of the multiple radiographic images to be joined. First, in S201, the image correction unit 314 generates a low-frequency image, which is an image of low-frequency components, from the radiographic image. The purpose of generating the low-frequency image is to extract low-frequency components containing a large amount of scattered radiation components in order to correct the low accuracy of scattered radiation at the end of the radiographic image that has been subjected to the scattered radiation reduction process. The low-frequency image can be obtained by applying a low-frequency filter such as a moving average or a Gaussian filter to the radiographic image. Alternatively, the low-frequency image may be obtained by performing a Fourier transform or a discrete cosine transform on the radiographic image and applying weighting to limit the high-frequency band in frequency space. Note that the process of obtaining a low-frequency image from a radiographic image is not limited to these. Next, in S202, the image correction unit 314 generates a high-frequency image, which is an image of high-frequency components, from the radiographic image in order to extract structural parts such as bones and blood vessels of the subject that have few scattered radiation components. For example, the high-frequency image is obtained by subtracting the low-frequency image generated in S201 from the radiation image.

S203において、画像補正部314は、補正を行う画像端領域とその周辺とを含む接合周辺領域を低周波画像から抜き出して、接合周辺領域画像を取得する。接合周辺領域画像について、図6を参照して説明する。例えば、画像Aの接合周辺領域601は、S103で得られた接合位置情報により示される放射線画像の重複領域側の端部の画像端領域603とその周辺領域602とを含む領域である。画像端領域603は、画像補正部314により散乱線低減処理結果の補正が行われる領域であり、例えば、画像端から固定長の範囲(所定の距離までの範囲)が設定され得る。ここで、固定長は、散乱線低減処理結果の補正が必要な範囲(画像端からの距離)を事前に調査することにより、設定され得る。また、表示装置400と操作装置500を介して固定長をユーザが設定できるようにしてもよい。或いは、例えば、被写体の体厚に応じて補正が必要な範囲(固定長)が拡大するようなテーブルを用いて、画像端領域が設定されてもよい。この場合、例えば、表示装置400に図3(c)に示されるようなユーザインターフェースを提示し、被写体の体厚のリストから接合時の重複領域に対応する被写体の体厚をユーザが選択するようにしてもよい。図3(c)のユーザインターフェースによれば、ユーザ操作により3種類の体厚から一つが選択され得る。決定ボタン521の押下により、選択された体厚に対応する距離が設定され、画像端領域が規定されることになる。なお、3枚以上の画像を接合する場合には複数の重複領域が生じるが、それぞれの重複領域について被写体の体厚を選択できるようにしてもよい。その場合、複数の重複領域に関してS204が実行されるたびに図3(c)のユーザインターフェースを表示して、ユーザに体厚を選択させるようにしてもよい。このようにすれば、接合部ごとに体厚を選択することができ、接合部ごとに適切な画像端領域が設定され得る。周辺領域602は、所定のライン数の領域であり、本実施形態では1ライン分の画像端領域外の領域である。なお、本実施形態において、ラインとは接合周辺領域601の長手方向に延びる画素の直線状の並びを指す。 In S203, the image correction unit 314 extracts the junction peripheral area including the image edge area to be corrected and its periphery from the low-frequency image to obtain a junction peripheral area image. The junction peripheral area image will be described with reference to FIG. 6. For example, the junction peripheral area 601 of image A is an area including an image edge area 603 at the end of the overlapping area side of the radiation image indicated by the junction position information obtained in S103 and its peripheral area 602. The image edge area 603 is an area in which the scattered radiation reduction processing result is corrected by the image correction unit 314, and for example, a fixed length range (range up to a predetermined distance) from the image edge can be set. Here, the fixed length can be set by investigating in advance the range (distance from the image edge) in which the scattered radiation reduction processing result needs to be corrected. In addition, the fixed length may be set by the user via the display device 400 and the operation device 500. Alternatively, for example, the image edge area may be set using a table in which the range (fixed length) in which correction is needed according to the body thickness of the subject is expanded. In this case, for example, a user interface as shown in FIG. 3(c) may be presented on the display device 400, and the user may select the subject's body thickness corresponding to the overlapping region at the time of joining from a list of subject body thicknesses. According to the user interface of FIG. 3(c), one of three types of body thickness may be selected by the user's operation. By pressing the decision button 521, the distance corresponding to the selected body thickness is set, and the image edge region is defined. Note that, when three or more images are joined, multiple overlapping regions are generated, and the subject's body thickness may be selected for each overlapping region. In that case, the user interface of FIG. 3(c) may be displayed each time S204 is executed for multiple overlapping regions, and the user may select the body thickness. In this way, the body thickness can be selected for each joint, and an appropriate image edge region can be set for each joint. The peripheral region 602 is a region of a predetermined number of lines, and in this embodiment, it is a region outside the image edge region for one line. Note that in this embodiment, the line refers to a linear arrangement of pixels extending in the longitudinal direction of the joint peripheral region 601.

S204において、画像補正部314は、飽和画素をこれから行う補正処理に影響を及ぼさない様に除外する。飽和画素は、散乱線の推定量の過多の影響が不明であるためである。なお、飽和画素とは、FPD200にX線が到達した際に到達した線量が多いことに起因してA/D変換の上限を超えA/D変換の上限値にクリップされてしまった画素を指す。飽和画素であるか否かは、例えばFPD200の特性に基づき事前に設定した閾値以上である場合を飽和画素としても良いし、FPD200にA/D変換時にA/D変換の上限値となった画素情報を受け取ってもよい。例えば、FPD200側でオフセット補正する場合は、飽和画素の値はAD変換の最大値にならない場合がある。そのため、FPD200がオフセット補正する前に飽和したと判定された画素の座標情報を保持し、飽和画素の画素情報として画像処理装置300に送るようにしてもよい。 In S204, the image correction unit 314 excludes saturated pixels so as not to affect the correction process to be performed. This is because the influence of an excessive amount of estimated scattered radiation on saturated pixels is unknown. A saturated pixel refers to a pixel that exceeds the upper limit of A/D conversion and is clipped to the upper limit of A/D conversion due to a large amount of radiation that reaches the FPD 200 when X-rays reach the FPD 200. Whether or not a pixel is saturated may be determined, for example, by determining that the pixel is equal to or greater than a threshold value set in advance based on the characteristics of the FPD 200, or by receiving pixel information that is the upper limit of A/D conversion during A/D conversion from the FPD 200. For example, when offset correction is performed on the FPD 200 side, the value of a saturated pixel may not be the maximum value of A/D conversion. Therefore, the FPD 200 may hold coordinate information of a pixel determined to be saturated before offset correction and send it to the image processing device 300 as pixel information of a saturated pixel.

次に、S205において、画像補正部314は、飽和画素除去後の接合周辺領域画像からラインプロファイルを取得する。例えば図6の様に縦方向に接合されている場合、画像Aの接合周辺領域601では、散乱線の推定精度の低い領域は下側にあり、上側に行くほど散乱線の推定精度が高くなる。同様に、画像Bの接合周辺領域では、散乱線の推定精度の低い領域は上側(画像Bの上端側)にあり、下側に行くほど散乱線の推定精度が高くなる。散乱線除去前では画像端に行くほど散乱線量が少ない状態になっているが、散乱線低減処理(S102)では、端部における散乱線の推定精度が低いため、画像端に向かうほど補正過多または補正不足が大きくなる。一方、図6の接合状態において、ライン方向には、補正の過不足の量について一定の増減傾向がある。よって、例えばライン方向の画素値に所定の演算を適用して得られる代表値のプロファイルを取得することで各ラインの補正の過不足量の傾向を示したラインプロファイルを生成することができる。本実施形態では、代表値として平均値を用いる。但し、他の統計処理等による演算から得られる代表値であってもよい。 Next, in S205, the image correction unit 314 acquires a line profile from the joint peripheral area image after removing the saturated pixels. For example, in the case of a vertical joint as shown in FIG. 6, in the joint peripheral area 601 of image A, the area with low estimation accuracy of the scattered radiation is on the lower side, and the estimation accuracy of the scattered radiation increases toward the upper side. Similarly, in the joint peripheral area of image B, the area with low estimation accuracy of the scattered radiation is on the upper side (the upper end side of image B), and the estimation accuracy of the scattered radiation increases toward the lower side. Before the scattered radiation removal, the amount of scattered radiation is less toward the end of the image, but in the scattered radiation reduction process (S102), the estimation accuracy of the scattered radiation at the end is low, so that the over-correction or under-correction increases toward the end of the image. On the other hand, in the joint state of FIG. 6, there is a certain tendency for the amount of over-correction or under-correction to increase or decrease in the line direction. Therefore, for example, a line profile showing the tendency of the over-correction or under-correction of each line can be generated by acquiring a profile of a representative value obtained by applying a predetermined calculation to the pixel values in the line direction. In this embodiment, the average value is used as the representative value. However, it may be a representative value obtained by calculation using other statistical processing or the like.

図7は、画像補正部314による補正係数の生成を説明する図である。図7では、画像Aの第mラインから第nライン(nは画像Aの最下端のライン)が接合周辺領域601として設定されている。この接合周辺領域601のうち、補正の対象となる画像端領域603は第m+1ラインから第nラインであり、画像端領域外である周辺領域602は第mラインである。ラインプロファイル701は、各ライン(m、m+1、m+2、...、n)の画素値の平均値により生成され得る。以下、ラインプロファイル701をL(i)(i=m,m+1,m+2,...,n)とする。 Figure 7 is a diagram for explaining the generation of correction coefficients by the image correction unit 314. In Figure 7, the mth to nth lines (n is the bottommost line of image A) of image A are set as the joint peripheral region 601. Of this joint peripheral region 601, the image edge region 603 to be corrected is the m+1th to nth lines, and the peripheral region 602 outside the image edge region is the mth line. The line profile 701 can be generated by the average value of the pixel values of each line (m, m+1, m+2, ..., n). Hereinafter, the line profile 701 is referred to as L(i) (i = m, m+1, m+2, ..., n).

次に、S206において、画像補正部314は、S205で生成されたラインプロファイル701に基づいて散乱線低減処理(S102)における散乱線の推定精度の低い領域を補正するための補正係数を導出する。例えば、ラインプロファイル701において、画像端と逆位置に対応する第mラインの値L(m)(以下、L)は、最も散乱線の推定精度の高い値になる。従って、その値Lを基準にラインプロファイルL(i)が一定値になるような補正係数W(i)を算出することにより、補正係数が導出され得る(702)。すなわち、補正係数w(i)は、基準値Lと第iラインの代表値(本例では平均値)L(i)との比により表される。例えば、式(1)により第iラインに対応する補正係数w(i)が算出される。ここで、L(i)は第iラインに対応するラインプロファイル701の値、Lは接合周辺領域601において画像端と逆位置にある周辺領域602に対応する第mラインのラインプロファイル701の値(L(m))である。なお、iはラインプロファイル701のライン番号(i=m+1~n)を表す。 Next, in S206, the image correction unit 314 derives a correction coefficient for correcting an area with low estimation accuracy of scattered radiation in the scattered radiation reduction process (S102) based on the line profile 701 generated in S205. For example, in the line profile 701, the value L(m) (hereinafter, L B ) of the m-th line corresponding to the opposite position to the image end is the value with the highest estimation accuracy of scattered radiation. Therefore, the correction coefficient can be derived ( 702 ) by calculating a correction coefficient W(i) that makes the line profile L(i) a constant value based on the value L B. That is, the correction coefficient w(i) is represented by the ratio between the reference value L B and the representative value (average value in this example) L(i) of the i-th line. For example, the correction coefficient w(i) corresponding to the i-th line is calculated by the formula (1). Here, L(i) is the value of the line profile 701 corresponding to the i-th line, and L B is the value (L(m)) of the line profile 701 of the m-th line corresponding to the peripheral region 602 located at the opposite position to the image edge in the joint peripheral region 601. Note that i represents the line number of the line profile 701 (i=m+1 to n).

Figure 2024078179000002
Figure 2024078179000002

次に、S207において、画像補正部314は、S206で得たライン補正係数w(i)に基づいて、S201で生成された低周波画像の画像端領域603を補正する。これにより、接合周辺領域における、散乱線の推定精度が低い画像端領域603(補正対象領域)が補正される。本実施形態では、画像補正部314は、低周波画像の画像端領域603を構成する各ライン(第iライン)に並ぶ画素(p,i)の画素値に、当該ラインの補正係数w(i)を積算することで、第i行の補正後の画素値を得る(703)。このような補正を、画像端領域603の全てのライン(i=m+1~n)について行うことで、画像端領域603の補正された画像が得られる。以上のように、Lを用いて補正係数を導出することは、画像端領域603を、画像端領域外の画素値(周辺領域602の画素値)に基づいて補正する処理の一例である。S208において、画像補正部314は、S207で補正された低周波画像と、S202で生成された高周波画像とを合成し、散乱線低減量が補正された散乱線低減画像を生成する。以上のような、S201からS208の処理を行うことで、S104の散乱線低減画像補正処理が実施され得る。 Next, in S207, the image correction unit 314 corrects the image edge region 603 of the low-frequency image generated in S201 based on the line correction coefficient w(i) obtained in S206. As a result, the image edge region 603 (region to be corrected) in the joint peripheral region, in which the estimation accuracy of scattered radiation is low, is corrected. In this embodiment, the image correction unit 314 obtains the corrected pixel value of the i-th row by integrating the pixel value of the pixel (p, i) arranged on each line (i-th line) constituting the image edge region 603 of the low-frequency image by the correction coefficient w(i) of the line (703). By performing such correction for all lines (i=m+1 to n) of the image edge region 603, a corrected image of the image edge region 603 is obtained. As described above, deriving the correction coefficient using L B is an example of a process of correcting the image edge region 603 based on pixel values outside the image edge region (pixel values of the peripheral region 602). In S208, the image correction unit 314 synthesizes the low-frequency image corrected in S207 and the high-frequency image generated in S202 to generate a scattered-ray reduced image in which the amount of scattered-ray reduction has been corrected. By performing the processes from S201 to S208 as described above, the scattered-ray reduced image correction process of S104 can be implemented.

図4に戻り、S105において、画像補正部314は、長尺撮影により撮影されたすべての接合対象の放射線画像の接合箇所について散乱線低減画像の補正処理が行われたか否かを判定する。未処理の接合箇所があれば(S105でNO)処理はS103へ戻り、未処理の接合箇所について上述の補正処理が行われる。例えば、画像Aの画像端領域について補正処理を終えたが画像Bの画像端領域について補正処理が行われていない場合、処理はS104に戻り、画像補正部314は、画像Bの画像端領域について上述した補正処理を行う。全ての接合対象の放射線画像の、全ての接合箇所について上記補正処理を終えると(S105でYES)、処理はS106へ進む。 Returning to FIG. 4, in S105, the image correction unit 314 determines whether or not the scattered radiation reduction image correction process has been performed for the joining points of all the radiographic images to be joined captured by long-length photography. If there are any unprocessed joining points (NO in S105), the process returns to S103, and the above-mentioned correction process is performed for the unprocessed joining points. For example, if the correction process has been completed for the image edge region of image A but not for the image edge region of image B, the process returns to S104, and the image correction unit 314 performs the above-mentioned correction process for the image edge region of image B. When the above-mentioned correction process has been completed for all joining points of all the radiographic images to be joined (YES in S105), the process proceeds to S106.

S106において、接合部315は、S104で生成された複数の補正散乱線低減画像をS103で算出された接合位置に基づいて接合し、1枚の接合画像(以下、長尺画像)を生成する。例えば、公知の技術の様に被写体の重なる領域の画素値の関係から2つの放射線画像の画素値が近づくように補正してから接合してもよいし、重複領域の画素値に重みをつけて2つの画像を合成してもよい。なお、接合位置情報は、散乱線低減画像補正処理を終えた散乱線低減画像について接合位置を再度検出し直すことにより取得されてもよいし、S103で算出された接合位置情報が流用されてもよい。なお、S106で接合位置の取得をやり直すことが前提であれば、S103では、接合箇所側の端部(重複領域側の端部)が検出されればよく、正確な接合位置情報が取得される必要はない。次に、S107において、表示用画像処理部316は、接合により得られた長尺画像を、ユーザが診断しやすい画像となるように画像処理を行う。例えば、公知の技術としてノイズ調整処理、階調処理、ウィンドウ調整処理、エッジ強調処理、ダイナミック圧縮処理等があり、全て行っても良いし何れかの処理を行ってもよい。 In S106, the joining unit 315 joins the multiple corrected scattered radiation reduced images generated in S104 based on the joining position calculated in S103 to generate one joined image (hereinafter, long image). For example, the pixel values of the two radiographic images may be corrected to approach each other based on the pixel value relationship of the overlapping area of the subject as in a known technology, and then joined, or the two images may be synthesized by weighting the pixel values of the overlapping area. The joining position information may be obtained by re-detecting the joining position for the scattered radiation reduced image that has been subjected to the scattered radiation reduced image correction process, or the joining position information calculated in S103 may be reused. If it is assumed that the joining position is to be redone in S106, it is sufficient to detect the end on the joining point side (the end on the overlapping area side) in S103, and accurate joining position information does not need to be obtained. Next, in S107, the display image processing unit 316 performs image processing on the long image obtained by joining so that the image becomes an image that is easy for the user to diagnose. For example, well-known techniques include noise adjustment processing, gradation processing, window adjustment processing, edge emphasis processing, dynamic compression processing, etc., and all or any of these processes may be performed.

以上のように、第1実施形態によれば、接合前の複数の放射線画像のそれぞれにおいて画像端の散乱線の推定精度の低い領域の散乱線低減処理結果が補正される。すなわち、複数の放射線画像のそれぞれの接合領域において、散乱線低減処理における散乱線低減量の過不足により生じる不適切な輝度が抑制されるため、長尺画像の接合部における画質が向上する。 As described above, according to the first embodiment, the results of the scattered radiation reduction process in the areas of the image edges where the estimation accuracy of the scattered radiation is low in each of the multiple radiographic images before joining are corrected. That is, in the joining area of each of the multiple radiographic images, inappropriate brightness caused by an excess or deficiency in the amount of scattered radiation reduction in the scattered radiation reduction process is suppressed, thereby improving the image quality at the joining portion of the long images.

<第2実施形態>
第1実施形態では、接合対象となる散乱線低減処理後の放射線画像のそれぞれについて、散乱線低減量の過不足による不適切な輝度の発生を抑える補正をした。第2実施形態では、散乱線低減処理後の複数の放射線画像を接合して得られた長尺画像の接合部に対して、散乱線低減量の過不足により生じる不適切な輝度を抑える補正を行う。なお、第2実施形態の放射線撮影システム10の構成および長尺撮影の動作は第1実施形態(図1~図3)と同様である。以下、第2実施形態の画像処理装置300による画像処理について、図9~図11を用いて説明する。
Second Embodiment
In the first embodiment, a correction is performed on each of the post-scattered radiation reduction processed radiographic images to be joined, to suppress the occurrence of inappropriate luminance due to an excess or deficiency in the amount of scattered radiation reduction. In the second embodiment, a correction is performed on the joint portion of a long image obtained by joining a plurality of post-scattered radiation reduction processed radiographic images, to suppress inappropriate luminance due to an excess or deficiency in the amount of scattered radiation reduction. Note that the configuration of the radiation imaging system 10 and the operation of long imaging in the second embodiment are the same as those in the first embodiment (FIGS. 1 to 3). Image processing by the image processing device 300 in the second embodiment will be described below with reference to FIGS. 9 to 11.

図8は、第2実施形態の画像処理装置300が行う画像処理を説明するフローチャートである。S301において、画像取得部311は、長尺のため撮影された複数の放射線画像を記憶媒体302から取得しメモリ303に保存する。S302において、散乱線低減部312は、S301でメモリ303に保存された放射線画像に対して散乱線低減処理を行って散乱線低減画像を生成する。次に、S303において、接合位置算出部313が散乱線低減画像間の接合位置情報を算出し、S312において、接合部315が接合位置情報に基づいて散乱線低減画像を接合して接合画像(長尺画像)を生成する。以上のS301~S304の処理は、第1実施形態(図3)のS101~S103、S105と同様である。但し、S304における画像の接合処理では、散乱線低減画像補正処理が行われていない散乱線低減画像が接合されて長尺画像が生成される。 Figure 8 is a flow chart for explaining the image processing performed by the image processing device 300 of the second embodiment. In S301, the image acquisition unit 311 acquires multiple radiographic images captured due to their long length from the storage medium 302 and stores them in the memory 303. In S302, the scattered radiation reduction unit 312 performs scattered radiation reduction processing on the radiographic images stored in the memory 303 in S301 to generate a scattered radiation reduction image. Next, in S303, the joining position calculation unit 313 calculates joining position information between the scattered radiation reduction images, and in S312, the joining unit 315 joins the scattered radiation reduction images based on the joining position information to generate a joined image (long image). The above processing of S301 to S304 is the same as S101 to S103 and S105 of the first embodiment (Figure 3). However, in the image joining processing in S304, scattered radiation reduction images that have not been subjected to scattered radiation reduction image correction processing are joined to generate a long image.

S304で生成された長尺画像において、接合箇所は散乱線低減画像の端部の領域を含むため、散乱線の補正精度の低い領域を含む。S305において、画像補正部314は、長尺画像に対して散乱線低減画像補正処理を施す。この処理の詳細については、図9により後述する。S306において、表示用画像処理部316は、S305にて散乱線低減画像補正処理が行われた長尺画像に対し、診断に適した画像を得るための画像処理を行う。S306の処理は、第1実施形態(図3)のS107の処理と同様である。 In the long image generated in S304, the joint includes an area at the end of the scattered radiation reduced image, and therefore includes an area where the accuracy of the scattered radiation correction is low. In S305, the image correction unit 314 performs a scattered radiation reduced image correction process on the long image. Details of this process will be described later with reference to FIG. 9. In S306, the display image processing unit 316 performs image processing on the long image that has been subjected to the scattered radiation reduced image correction process in S305 in order to obtain an image suitable for diagnosis. The process of S306 is similar to the process of S107 in the first embodiment (FIG. 3).

次に、第2実施形態による散乱線低減画像補正処理(S313)の詳細について説明する。図9は、第2実施形態による散乱線低減画像補正処理を説明するフローチャートである。画像補正部314は、S401において長尺画像から低周波成分の画像である低周波画像を生成し、S402において長尺画像から高周波成分の画像である高周波画像を生成する。S401の低周波画像の生成、S402の高周波画像の生成は、処理対象が長尺画像であることを除いて第1実施形態(S201、S202)と同様である。 Next, the scattered radiation reduction image correction process (S313) according to the second embodiment will be described in detail. FIG. 9 is a flowchart explaining the scattered radiation reduction image correction process according to the second embodiment. The image correction unit 314 generates a low-frequency image, which is an image of low-frequency components, from the long image in S401, and generates a high-frequency image, which is an image of high-frequency components, from the long image in S402. The generation of the low-frequency image in S401 and the generation of the high-frequency image in S402 are the same as those in the first embodiment (S201, S202) except that the processing target is a long image.

次に、S403において、画像補正部314は、画像の接合位置に基づいて長尺画像から接合周辺領域を抜き出し接合周辺領域画像を取得する。例えば、図10の様な2枚の放射線画像(画像Aと画像B)が接合された長尺画像であった場合を考える。この場合、接合周辺領域601は、画像Aの重複領域側である下端1001における画像端領域603aと周辺領域602a、および、画像Bの重複領域側である上端1002における画像端領域603bと周辺領域602bから構成される。第1実施形態で説明したように、画像端領域603a、603bは、画像Aと画像Bそれぞれについて行われた散乱線低減処理の精度が低い。従って、画像端領域603aと603bを合わせた領域が、散乱線推定精度が低く、散乱線除去処理による補正量に比較的大きな過不足が生じる補正対象領域1003として規定される。第2実施形態では、この補正対象領域1003に対して散乱線低減処理の補正を行う。なお、周辺領域602a、602bは、補正対象領域1003の両側の補正対象領域外の領域であり、補正対象領域第1実施形態の周辺領域602と同様にそれぞれ所定のライン数の領域である。第2実施形態においても周辺領域602a、602bをそれぞれ画素の1ラインの領域とする。なお、S403においても、第1実施形態(S203)と同様に図3(c)のようなユーザインターフェースを用いて、画像端領域の大きさをユーザ操作により、体厚に応じて設定可能としてもよい。 Next, in S403, the image correction unit 314 extracts the joint peripheral area from the long image based on the joint position of the images to obtain a joint peripheral area image. For example, consider a long image in which two radiation images (image A and image B) are joined as shown in FIG. 10. In this case, the joint peripheral area 601 is composed of an image edge area 603a and a peripheral area 602a at the lower end 1001, which is the overlapping area side of image A, and an image edge area 603b and a peripheral area 602b at the upper end 1002, which is the overlapping area side of image B. As described in the first embodiment, the image edge areas 603a and 603b have low accuracy of the scattered radiation reduction processing performed on image A and image B, respectively. Therefore, the area including the image edge areas 603a and 603b is defined as a correction target area 1003 in which the scattered radiation estimation accuracy is low and a relatively large excess or deficiency occurs in the correction amount by the scattered radiation removal processing. In the second embodiment, the correction target area 1003 is corrected by the scattered radiation reduction processing. The peripheral regions 602a and 602b are regions outside the correction target region on both sides of the correction target region 1003, and each has a predetermined number of lines, similar to the peripheral region 602 in the first embodiment. In the second embodiment, the peripheral regions 602a and 602b each have one line of pixels. In S403, the size of the image edge region may be set by the user according to the body thickness using a user interface such as that shown in FIG. 3C, similar to the first embodiment (S203).

S404において、画像補正部314は、接合周辺領域601の画像から飽和画素を除外する。S404の飽和画素除去処理は、第1実施形態(図5のS204)と同様である。S405において、画像補正部314は、接合周辺領域601の各行について画素値の平均値を計算することにより、ラインプロファイルを生成する。接合周辺領域601のラインプロファイルを生成する処理は、第1実施形態(図5のS205)と同様である。そして、S406において、画像補正部314は、S405で得られたラインプロファイルに基づき、散乱線の推定精度の低い領域を補正するためのライン補正係数を導出する。 In S404, the image correction unit 314 removes saturated pixels from the image of the junction peripheral region 601. The saturated pixel removal process in S404 is similar to that in the first embodiment (S204 in FIG. 5). In S405, the image correction unit 314 generates a line profile by calculating the average pixel value for each row of the junction peripheral region 601. The process of generating the line profile of the junction peripheral region 601 is similar to that in the first embodiment (S205 in FIG. 5). Then, in S406, the image correction unit 314 derives a line correction coefficient for correcting areas with low scattered radiation estimation accuracy based on the line profile obtained in S405.

図11に、第2実施形態により生成されるラインプロファイル1100を示す。第1実施形態では、第nラインは画像端であったため散乱線の推定精度が最も低くなっていたが、第2実施形態では、第nラインは接合前の画像の画像端(画像Bの上端1002)から離れた位置となる。したがって、S405で得られたラインプロファイル1100では、その始端と終端付近(第mラインと第nライン)が最も散乱線の推定精度の高い領域である。従って、画像補正部314は、例えば式(2)により始端(第mライン)の基準値L(m)と終端(第nライン)の基準値L(n)とを線形補間することにより、直線1101により表される基準値L(i)を得る。そして、画像補正部314は、(3)式に示されるように、ラインプロファイルL(i)に積算した際に基準値L(i)となるような補正係数w(i)を導出する(1103)。 11 shows a line profile 1100 generated by the second embodiment. In the first embodiment, the nth line was the image end, so the estimation accuracy of the scattered radiation was the lowest. However, in the second embodiment, the nth line is located away from the image end (the upper end 1002 of image B) of the image before joining. Therefore, in the line profile 1100 obtained in S405, the area near the start end and the end end (the mth line and the nth line) is the area with the highest estimation accuracy of the scattered radiation. Therefore, the image correction unit 314 obtains the reference value L B (i) represented by the straight line 1101 by linearly interpolating the reference value L B (m) of the start end (the mth line) and the reference value L B (n) of the end end (the nth line) by, for example, equation (2). Then, the image correction unit 314 derives a correction coefficient w(i) that becomes the reference value L B (i) when multiplied by the line profile L(i) as shown in equation ( 3) (1103).

Figure 2024078179000003
Figure 2024078179000003

Figure 2024078179000004
Figure 2024078179000004

S407において画像補正部314は、補正係数w(i)を用いて、S401で生成された低周波画像の補正対象領域1003の画像(第m+1ライン~第n-1ライン)を補正する。具体的には、画像補正部314は、例えば、ラインiの画素値(p,i)に補正係数w(i)を乗じることにより補正後の画素値(p,i)を得る(1104)。そして、S408において、画像補正部314は、S407で補正された低周波画像とS402で生成された高周波画像とを合成し、散乱線低減処理の結果が補正された長尺画像を得る。S407とS408の処理は第1実施形態(図5のS207、S208)と同様である。S409において、画像補正部314は、長尺画像内のすべての接合箇所について、上記S403からS408までの補正処理が行われたかを判定する。未処理の接合箇所があれば(S409でNO)、次の接合箇所について上記補正を実行するために、処理をS403に戻す。全ての接合箇所について上記補正が行われると(S409でEYS)、本処理は終了する。 In S407, the image correction unit 314 corrects the image (m+1th line to n-1th line) of the correction target area 1003 of the low-frequency image generated in S401 using the correction coefficient w(i). Specifically, the image correction unit 314 obtains the corrected pixel value (p, i) by multiplying the pixel value (p, i) of line i by the correction coefficient w(i) (1104). Then, in S408, the image correction unit 314 synthesizes the low-frequency image corrected in S407 and the high-frequency image generated in S402 to obtain a long image in which the result of the scattered radiation reduction process has been corrected. The processes of S407 and S408 are the same as those in the first embodiment (S207 and S208 in FIG. 5). In S409, the image correction unit 314 determines whether the correction processes from S403 to S408 have been performed on all joints in the long image. If there are any unprocessed joints (NO in S409), the process returns to S403 to perform the above correction on the next joint. When the above correction has been performed on all joints (EYS in S409), this process ends.

図8に戻り、S306において、表示用画像処理部316は、長尺画像に対してユーザが診断しやすい画像となるように画像処理を行う。S314の処理は第1実施形態(図4のS107)と同様である。 Returning to FIG. 8, in S306, the display image processing unit 316 performs image processing on the long image so that the image becomes easy for the user to diagnose. The processing in S314 is the same as in the first embodiment (S107 in FIG. 4).

以上のように、第2実施形態によれば、散乱線の推定精度の低い長尺画像の接合領域において、散乱線低減量の過不足による不適切な輝度を抑えるように補正されることにより、長尺画像における接合領域の輝度が適切な輝度に調整される。結果、長尺画像の接合部における画質が向上する。 As described above, according to the second embodiment, in the joint area of a long image where the estimation accuracy of scattered radiation is low, the luminance of the joint area of the long image is adjusted to an appropriate luminance by correcting the luminance to suppress inappropriate luminance caused by an excess or deficiency in the amount of scattered radiation reduction. As a result, the image quality of the joint area of the long image is improved.

以上説明したように、上記各実施形態によれば、長尺撮影により得られた複数の放射線画像を接合して生成される接合画像における、接合位置付近の領域の輝度の不適切な変化を低減することができ、長尺画像の接合部の画質を向上させることができる。 As described above, according to each of the above embodiments, it is possible to reduce inappropriate changes in the brightness of the area near the joining position in a joined image generated by joining multiple radiographic images obtained by long-length photography, thereby improving the image quality of the joints in the long-length images.

(その他の実施例)
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Other Examples
The present disclosure can also be realized by a process in which a program for implementing one or more of the functions of the above-described embodiments is supplied to a system or device via a network or a storage medium, and one or more processors in a computer of the system or device read and execute the program. The present disclosure can also be realized by a circuit (e.g., ASIC) for implementing one or more of the functions.

本明細書の開示は、以下の画像処理装置、放射線撮影システム、画像処理装置の制御方法及びプログラムを含む。
(項目1)
被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理手段と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域であって、前記第1の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正し、前記第2の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正する補正手段と、
前記補正手段により前記画像端領域が補正された前記第1の散乱線低減画像と前記第2の散乱線低減画像とを用いて長尺画像を生成する生成手段と、を備える画像処理装置。
(項目2)
前記補正手段は、
前記画像端領域の所定の方向に延びる各ラインの画素値に基づいて取得される代表値と、前記画像端領域外の前記所定の方向に延びるラインの画素値に基づいて取得される基準値とに基づいて、前記画像端領域の前記各ラインの補正係数を生成し、
前記画像端領域の前記各ラインの画素値を前記補正係数に基づいて補正する、項目1に記載の画像処理装置。
(項目3)
前記補正係数は、前記基準値と前記各ラインの前記代表値との比である、項目2に記載の画像処理装置。
(項目4)
前記所定の方向は前記画像端領域の長手方向である、項目2または3に記載の画像処理装置。
(項目5)
前記代表値と前記基準値とは、ラインに並ぶ画素値の平均値である、項目2乃至4のいずれか1項に記載の画像処理装置。
(項目6)
前記代表値と前記基準値とは、ラインに並ぶ画素値から飽和画素の画素値を除外した画素値に基づいて取得される、項目2乃至5のいずれか1項に記載の画像処理装置。
(項目7)
前記画像端領域は、散乱線低減処理の精度が低下する領域であり、画像端からあらかじめ設定された距離までの領域である、項目1乃至6のいずれか1項に記載の画像処理装置。
(項目8)
前記画像端領域における前記被写体の体厚を設定するユーザ操作を受け付ける操作手段をさらに備え、
前記画像端領域を規定する画像端からの距離が前記操作手段により設定された体厚に基づいて決定される、項目1乃至6のいずれか1項に記載の画像処理装置。
(項目9)
前記補正手段は、
前記第1の散乱線低減画像の低周波成分の画像である第1の低周波画像と、前記第2の散乱線低減画像の低周波成分の画像である第2の低周波画像とを生成し、
前記第1の低周波画像の前記画像端領域と前記第2の低周波画像の前記画像端領域とを補正し、
前記第1の散乱線低減画像の高周波成分の画像である第1の高周波画像と前記補正された前記第1の低周波画像とを合成して補正された前記第1の散乱線低減画像を生成し、前記第2の散乱線低減画像の高周波成分の画像である第2の高周波画像と前記補正された前記第2の低周波画像とを合成して補正された前記第2の散乱線低減画像を生成する、項目1乃至8のいずれか1項に記載の画像処理装置。
(項目10)
被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理手段と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域において前記第1の散乱線低減画像と前記第2の散乱線低減画像とを接合して接合画像を生成する生成手段と、
前記接合画像の前記重複領域における、前記第1の散乱線低減画像の画像端領域と前記第2の散乱線低減画像の画像端領域とにより規定される補正対象領域を、前記補正対象領域外の画素値に基づいて補正する補正手段と、を備える画像処理装置。
(項目11)
前記補正手段は、
前記補正対象領域の所定の方向に延びる各ラインの画素値に基づいて取得される代表値と、前記補正対象領域外の前記所定の方向に延びるラインの画素値に基づいて取得される基準値と、に基づいて前記補正対象領域の前記各ラインの補正係数を生成し、
前記補正対象領域の前記各ラインの画素値を前記補正係数に基づいて補正する、項目10に記載の画像処理装置。
(項目12)
前記補正対象領域の両側の前記補正対象領域外において前記所定の方向に延びるラインの画素値に基づいて得られる2つの基準値から、前記補正対象領域の前記各ラインに対応する前記基準値を線形補間により取得する、項目11に記載の画像処理装置。
(項目13)
前記補正係数は、前記基準値と前記各ラインの前記代表値との比である、項目11または12に記載の画像処理装置。
(項目14)
前記所定の方向は前記補正対象領域の長手方向である、項目11乃至13のいずれか1項に記載の画像処理装置。
(項目15)
前記代表値と前記基準値とは、ラインに並ぶ画素値の平均値である、項目11乃至14のいずれか1項に記載の画像処理装置。
(項目16)
前記代表値と前記基準値とは、前記ラインに並ぶ画素値から飽和画素の画素値を除外した画素値に基づいて取得される、項目11乃至15のいずれか1項に記載の画像処理装置。
(項目17)
前記画像端領域は、散乱線低減処理の精度が低下する領域であり、画像端からあらかじめ設定された距離までの領域である、項目10乃至16のいずれか1項に記載の画像処理装置。
(項目18)
前記画像端領域における前記被写体の体厚を設定するユーザ操作を受け付ける操作手段をさらに備え、
前記画像端領域を規定する画像端からの距離が前記操作手段により設定された体厚に基づいて決定される、項目10乃至17のいずれか1項に記載の画像処理装置。
(項目19)
前記補正手段は、
前記接合画像の低周波成分の画像である低周波画像を生成し、
前記低周波画像の前記補正対象領域を補正し、
前記接合画像の高周波成分の画像である高周波画像と前記補正された前記低周波画像とを合成することにより、補正された前記接合画像を生成する、項目10乃至18のいずれか1項に記載の画像処理装置。
(項目20)
項目1乃至19のいずれか1項に記載された画像処理装置と、
前記被写体の撮影箇所を変更しながら複数回の放射線撮影が行われる長尺撮影により、前記第1の放射線画像と前記第2の放射線画像とを撮影する放射線撮影装置と、を備える放射線撮影システム。
(項目21)
被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理工程と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域であって、前記第1の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正し、前記第2の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正する補正工程と、
前記補正工程により前記画像端領域が補正された前記第1の散乱線低減画像と前記第2の散乱線低減画像とを用いて長尺画像を生成する生成工程と、を備える画像処理装置の制御方法。
(項目22)
被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理工程と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域において前記第1の散乱線低減画像と前記第2の散乱線低減画像とを接合して接合画像を生成する生成工程と、
前記接合画像の前記重複領域における、前記第1の散乱線低減画像の画像端領域と前記第2の散乱線低減画像の画像端領域とにより規定される補正対象領域を、前記補正対象領域外の画素値に基づいて補正する補正工程と、を備える画像処理装置の制御方法。
(項目23)
コンピュータを、項目1乃至19のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
The disclosure of this specification includes the following image processing device, radiation imaging system, and control method and program for the image processing device.
(Item 1)
a processing means for performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of a subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a correction means for correcting an image edge region on the overlapping region side of the first scattered ray reduced image and the second scattered ray reduced image based on pixel values outside the image edge region, and for correcting an image edge region on the overlapping region side of the second scattered ray reduced image based on pixel values outside the image edge region;
a generating unit configured to generate a long image using the first scattered ray reduced image and the second scattered ray reduced image in which the image edge regions have been corrected by the correcting unit.
(Item 2)
The correction means is
generating correction coefficients for each line in the image edge region based on a representative value obtained based on pixel values of each line extending in a predetermined direction in the image edge region and a reference value obtained based on pixel values of a line outside the image edge region extending in the predetermined direction;
2. The image processing device according to item 1, further comprising: a processor for processing the image based on the correction coefficient;
(Item 3)
3. The image processing device according to item 2, wherein the correction coefficient is a ratio between the reference value and the representative value of each of the lines.
(Item 4)
4. The image processing device according to item 2 or 3, wherein the predetermined direction is a longitudinal direction of the image edge region.
(Item 5)
5. The image processing device according to any one of items 2 to 4, wherein the representative value and the reference value are average values of pixel values arranged in a line.
(Item 6)
6. The image processing device according to any one of items 2 to 5, wherein the representative value and the reference value are acquired based on pixel values obtained by excluding pixel values of saturated pixels from pixel values arranged in a line.
(Item 7)
7. The image processing device according to claim 1, wherein the image edge region is a region in which the accuracy of scattered radiation reduction processing decreases, and is a region up to a preset distance from the edge of the image.
(Item 8)
an operation unit for receiving a user operation for setting a body thickness of the subject in the image edge region,
7. The image processing device according to any one of items 1 to 6, wherein a distance from an image edge that defines the image edge region is determined based on a body thickness set by the operation means.
(Item 9)
The correction means is
generating a first low-frequency image which is an image of a low-frequency component of the first scattered radiation reduced image and a second low-frequency image which is an image of a low-frequency component of the second scattered radiation reduced image;
correcting the image edge region of the first low frequency image and the image edge region of the second low frequency image;
9. An image processing device according to any one of items 1 to 8, which generates a corrected first scattered radiation reduced image by synthesizing a first high frequency image, which is an image of a high frequency component of the first scattered radiation reduced image, with the corrected first low frequency image, and generates a corrected second scattered radiation reduced image by synthesizing a second high frequency image, which is an image of a high frequency component of the second scattered radiation reduced image, with the corrected second low frequency image.
(Item 10)
a processing means for performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of a subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a generating means for generating a joined image by joining the first scattered ray reduced image and the second scattered ray reduced image in an overlapping region of the first scattered ray reduced image and the second scattered ray reduced image;
an image processing device comprising: a correction means for correcting a correction target area defined by an image edge area of the first scattered ray reduced image and an image edge area of the second scattered ray reduced image in the overlapping area of the joined image based on pixel values outside the correction target area.
(Item 11)
The correction means is
generating correction coefficients for each line in the correction target area based on a representative value obtained based on pixel values of each line extending in a predetermined direction in the correction target area and a reference value obtained based on pixel values of a line outside the correction target area extending in the predetermined direction;
Item 11. The image processing device according to item 10, wherein pixel values of the lines in the correction target area are corrected based on the correction coefficients.
(Item 12)
Item 12. The image processing device according to item 11, wherein the reference values corresponding to each of the lines in the area to be corrected are obtained by linear interpolation from two reference values obtained based on pixel values of lines extending in the predetermined direction outside the area to be corrected on both sides of the area to be corrected.
(Item 13)
13. The image processing device according to item 11 or 12, wherein the correction coefficient is a ratio between the reference value and the representative value of each of the lines.
(Item 14)
14. The image processing device according to any one of items 11 to 13, wherein the predetermined direction is a longitudinal direction of the correction target area.
(Item 15)
15. The image processing device according to any one of items 11 to 14, wherein the representative value and the reference value are average values of pixel values arranged in a line.
(Item 16)
16. The image processing device according to any one of items 11 to 15, wherein the representative value and the reference value are acquired based on pixel values obtained by excluding pixel values of saturated pixels from pixel values arranged on the line.
(Item 17)
17. The image processing device according to any one of items 10 to 16, wherein the image edge region is a region in which the accuracy of scattered radiation reduction processing decreases, and is a region up to a preset distance from the image edge.
(Item 18)
an operation unit for receiving a user operation for setting a body thickness of the subject in the image edge region,
18. The image processing device according to any one of items 10 to 17, wherein a distance from an image edge that defines the image edge region is determined based on a body thickness set by the operation means.
(Item 19)
The correction means is
generating a low-frequency image which is an image of a low-frequency component of the joint image;
Correcting the correction target region of the low frequency image;
19. The image processing device according to any one of items 10 to 18, wherein the corrected joint image is generated by synthesizing a high frequency image that is an image of high frequency components of the joint image with the corrected low frequency image.
(Item 20)
An image processing device according to any one of claims 1 to 19,
a radiation imaging device configured to capture the first radiation image and the second radiation image by long-length imaging in which radiation imaging is performed multiple times while changing an imaging location of the subject.
(Item 21)
a processing step of performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of the subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a correction step of correcting an image edge region on the overlapping region side of the first scattered ray reduced image and the second scattered ray reduced image based on pixel values outside the image edge region, and correcting an image edge region on the overlapping region side of the second scattered ray reduced image based on pixel values outside the image edge region;
A control method for an image processing device comprising: a generation step of generating a long image using the first scattered ray reduced image and the second scattered ray reduced image in which the image edge regions have been corrected by the correction step.
(Item 22)
a processing step of performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of the subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a generating step of generating a joined image by joining the first scattered ray reduced image and the second scattered ray reduced image in an overlapping region of the first scattered ray reduced image and the second scattered ray reduced image;
A control method for an image processing device comprising: a correction process for correcting a correction target area defined by an image edge area of the first scattered ray reduced image and an image edge area of the second scattered ray reduced image in the overlapping area of the joined image, based on pixel values outside the correction target area.
(Item 23)
20. A program for causing a computer to function as each of the means of the image processing device according to any one of items 1 to 19.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above-described embodiment, and various modifications and variations are possible without departing from the spirit and scope of the invention. Therefore, the following claims are appended to disclose the scope of the invention.

10:放射線撮影システム、100:X線管、200:FPD、300:画像処理装置、301:I/О部、302:記憶媒体、303:メモリ、304:CPU、311:画像取得部、312:散乱線低減部、313:接合位置算出部、314:散乱線低減画像補正部、315:接合部、316:表示用画像部、400:表示装置、500:操作装置 10: Radiography system, 100: X-ray tube, 200: FPD, 300: Image processing device, 301: I/O unit, 302: Storage medium, 303: Memory, 304: CPU, 311: Image acquisition unit, 312: Scattered radiation reduction unit, 313: Joint position calculation unit, 314: Scattered radiation reduction image correction unit, 315: Joint unit, 316: Display image unit, 400: Display device, 500: Operation device

Claims (23)

被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理手段と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域であって、前記第1の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正し、前記第2の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正する補正手段と、
前記補正手段により前記画像端領域が補正された前記第1の散乱線低減画像と前記第2の散乱線低減画像とを用いて長尺画像を生成する生成手段と、を備える画像処理装置。
a processing means for performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of a subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a correction means for correcting an image edge region on the overlapping region side of the first scattered ray reduced image and the second scattered ray reduced image based on pixel values outside the image edge region, and for correcting an image edge region on the overlapping region side of the second scattered ray reduced image based on pixel values outside the image edge region;
a generating unit configured to generate a long image using the first scattered ray reduced image and the second scattered ray reduced image in which the image edge regions have been corrected by the correcting unit.
前記補正手段は、
前記画像端領域の所定の方向に延びる各ラインの画素値に基づいて取得される代表値と、前記画像端領域外の前記所定の方向に延びるラインの画素値に基づいて取得される基準値とに基づいて、前記画像端領域の前記各ラインの補正係数を生成し、
前記画像端領域の前記各ラインの画素値を前記補正係数に基づいて補正する、請求項1に記載の画像処理装置。
The correction means is
generating correction coefficients for each line in the image edge region based on a representative value obtained based on pixel values of each line extending in a predetermined direction in the image edge region and a reference value obtained based on pixel values of a line outside the image edge region extending in the predetermined direction;
The image processing apparatus according to claim 1 , wherein pixel values of the lines in the image edge region are corrected based on the correction coefficient.
前記補正係数は、前記基準値と前記各ラインの前記代表値との比である、請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the correction coefficient is a ratio between the reference value and the representative value of each line. 前記所定の方向は前記画像端領域の長手方向である、請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the predetermined direction is the longitudinal direction of the image edge region. 前記代表値と前記基準値とは、ラインに並ぶ画素値の平均値である、請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the representative value and the reference value are average values of pixel values arranged in a line. 前記代表値と前記基準値とは、ラインに並ぶ画素値から飽和画素の画素値を除外した画素値に基づいて取得される、請求項2に記載の画像処理装置。 The image processing device according to claim 2, wherein the representative value and the reference value are obtained based on pixel values obtained by excluding pixel values of saturated pixels from pixel values arranged in a line. 前記画像端領域は、散乱線低減処理の精度が低下する領域であり、画像端からあらかじめ設定された距離までの領域である、請求項1に記載の画像処理装置。 The image processing device according to claim 1, wherein the image edge region is a region where the accuracy of the scattered radiation reduction process decreases, and is a region up to a preset distance from the image edge. 前記画像端領域における前記被写体の体厚を設定するユーザ操作を受け付ける操作手段をさらに備え、
前記画像端領域を規定する画像端からの距離が前記操作手段により設定された体厚に基づいて決定される、請求項1に記載の画像処理装置。
an operation unit for receiving a user operation for setting a body thickness of the subject in the image edge region,
The image processing apparatus according to claim 1 , wherein the distance from the image edge that defines the image edge region is determined based on a body thickness set by the operation means.
前記補正手段は、
前記第1の散乱線低減画像の低周波成分の画像である第1の低周波画像と、前記第2の散乱線低減画像の低周波成分の画像である第2の低周波画像とを生成し、
前記第1の低周波画像の前記画像端領域と前記第2の低周波画像の前記画像端領域とを補正し、
前記第1の散乱線低減画像の高周波成分の画像である第1の高周波画像と前記補正された前記第1の低周波画像とを合成して補正された前記第1の散乱線低減画像を生成し、前記第2の散乱線低減画像の高周波成分の画像である第2の高周波画像と前記補正された前記第2の低周波画像とを合成して補正された前記第2の散乱線低減画像を生成する、請求項1に記載の画像処理装置。
The correction means is
generating a first low-frequency image which is an image of a low-frequency component of the first scattered radiation reduced image and a second low-frequency image which is an image of a low-frequency component of the second scattered radiation reduced image;
correcting the image edge region of the first low frequency image and the image edge region of the second low frequency image;
2. The image processing device according to claim 1, wherein a first high-frequency image, which is an image of a high-frequency component of the first scattered radiation reduced image, is synthesized with the corrected first low-frequency image to generate a corrected first scattered radiation reduced image, and a second high-frequency image, which is an image of a high-frequency component of the second scattered radiation reduced image, is synthesized with the corrected second low-frequency image to generate a corrected second scattered radiation reduced image.
被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理手段と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域において前記第1の散乱線低減画像と前記第2の散乱線低減画像とを接合して接合画像を生成する生成手段と、
前記接合画像の前記重複領域における、前記第1の散乱線低減画像の画像端領域と前記第2の散乱線低減画像の画像端領域とにより規定される補正対象領域を、前記補正対象領域外の画素値に基づいて補正する補正手段と、を備える画像処理装置。
a processing means for performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of a subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a generating means for generating a joined image by joining the first scattered ray reduced image and the second scattered ray reduced image in an overlapping region of the first scattered ray reduced image and the second scattered ray reduced image;
an image processing device comprising: a correction means for correcting a correction target area defined by an image edge area of the first scattered ray reduced image and an image edge area of the second scattered ray reduced image in the overlapping area of the joined image based on pixel values outside the correction target area.
前記補正手段は、
前記補正対象領域の所定の方向に延びる各ラインの画素値に基づいて取得される代表値と、前記補正対象領域外の前記所定の方向に延びるラインの画素値に基づいて取得される基準値と、に基づいて前記補正対象領域の前記各ラインの補正係数を生成し、
前記補正対象領域の前記各ラインの画素値を前記補正係数に基づいて補正する、請求項10に記載の画像処理装置。
The correction means is
generating correction coefficients for each line in the correction target area based on a representative value obtained based on pixel values of each line extending in a predetermined direction in the correction target area and a reference value obtained based on pixel values of a line outside the correction target area extending in the predetermined direction;
The image processing apparatus according to claim 10 , wherein pixel values of the lines in the correction target area are corrected based on the correction coefficient.
前記補正対象領域の両側の前記補正対象領域外において前記所定の方向に延びるラインの画素値に基づいて得られる2つの基準値から、前記補正対象領域の前記各ラインに対応する前記基準値を線形補間により取得する、請求項11に記載の画像処理装置。 The image processing device according to claim 11, wherein the reference value corresponding to each of the lines in the correction target area is obtained by linear interpolation from two reference values obtained based on pixel values of lines extending in the predetermined direction outside the correction target area on both sides of the correction target area. 前記補正係数は、前記基準値と前記各ラインの前記代表値との比である、請求項11に記載の画像処理装置。 The image processing device according to claim 11, wherein the correction coefficient is a ratio between the reference value and the representative value of each line. 前記所定の方向は前記補正対象領域の長手方向である、請求項11に記載の画像処理装置。 The image processing device according to claim 11, wherein the predetermined direction is the longitudinal direction of the correction target area. 前記代表値と前記基準値とは、ラインに並ぶ画素値の平均値である、請求項11に記載の画像処理装置。 The image processing device according to claim 11, wherein the representative value and the reference value are average values of pixel values arranged in a line. 前記代表値と前記基準値とは、前記ラインに並ぶ画素値から飽和画素の画素値を除外した画素値に基づいて取得される、請求項11に記載の画像処理装置。 The image processing device according to claim 11, wherein the representative value and the reference value are obtained based on pixel values obtained by excluding pixel values of saturated pixels from pixel values arranged on the line. 前記画像端領域は、散乱線低減処理の精度が低下する領域であり、画像端からあらかじめ設定された距離までの領域である、請求項10に記載の画像処理装置。 The image processing device according to claim 10, wherein the image edge region is a region where the accuracy of the scattered radiation reduction process decreases, and is a region up to a preset distance from the image edge. 前記画像端領域における前記被写体の体厚を設定するユーザ操作を受け付ける操作手段をさらに備え、
前記画像端領域を規定する画像端からの距離が前記操作手段により設定された体厚に基づいて決定される、請求項10に記載の画像処理装置。
an operation unit for receiving a user operation for setting a body thickness of the subject in the image edge region,
The image processing apparatus according to claim 10 , wherein the distance from the image edge that defines the image edge region is determined based on a body thickness set by the operation means.
前記補正手段は、
前記接合画像の低周波成分の画像である低周波画像を生成し、
前記低周波画像の前記補正対象領域を補正し、
前記接合画像の高周波成分の画像である高周波画像と前記補正された前記低周波画像とを合成することにより、補正された前記接合画像を生成する、請求項10に記載の画像処理装置。
The correction means is
generating a low-frequency image which is an image of a low-frequency component of the joint image;
Correcting the correction target region of the low frequency image;
The image processing apparatus according to claim 10 , wherein the corrected joint image is generated by combining a high frequency image, which is an image of high frequency components of the joint image, with the corrected low frequency image.
請求項1乃至19のいずれか1項に記載された画像処理装置と、
前記被写体の撮影箇所を変更しながら複数回の放射線撮影が行われる長尺撮影により、前記第1の放射線画像と前記第2の放射線画像とを撮影する放射線撮影装置と、を備える放射線撮影システム。
An image processing device according to any one of claims 1 to 19,
a radiation imaging device configured to capture the first radiation image and the second radiation image by long-length imaging in which radiation imaging is performed multiple times while changing an imaging location of the subject.
被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理工程と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域であって、前記第1の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正し、前記第2の散乱線低減画像における前記重複領域側の画像端領域を、画像端領域外の画素値に基づいて補正する補正工程と、
前記補正工程により前記画像端領域が補正された前記第1の散乱線低減画像と前記第2の散乱線低減画像とを用いて長尺画像を生成する生成工程と、を備える画像処理装置の制御方法。
a processing step of performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of the subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a correction step of correcting an image edge region on the overlapping region side of the first scattered ray reduced image and the second scattered ray reduced image based on pixel values outside the image edge region, and correcting an image edge region on the overlapping region side of the second scattered ray reduced image based on pixel values outside the image edge region;
A control method for an image processing device comprising: a generation step of generating a long image using the first scattered ray reduced image and the second scattered ray reduced image in which the image edge regions have been corrected by the correction step.
被写体を長尺撮影することにより得られる第1の放射線画像と第2の放射線画像とに散乱線低減処理を行うことにより、第1の散乱線低減画像と第2の散乱線低減画像とを取得する処理工程と、
前記第1の散乱線低減画像と前記第2の散乱線低減画像との重複領域において前記第1の散乱線低減画像と前記第2の散乱線低減画像とを接合して接合画像を生成する生成工程と、
前記接合画像の前記重複領域における、前記第1の散乱線低減画像の画像端領域と前記第2の散乱線低減画像の画像端領域とにより規定される補正対象領域を、前記補正対象領域外の画素値に基づいて補正する補正工程と、を備える画像処理装置の制御方法。
a processing step of performing scattered ray reduction processing on a first radiographic image and a second radiographic image obtained by long-length photography of the subject, thereby obtaining a first scattered ray reduced image and a second scattered ray reduced image;
a generating step of generating a joined image by joining the first scattered ray reduced image and the second scattered ray reduced image in an overlapping region of the first scattered ray reduced image and the second scattered ray reduced image;
A control method for an image processing device comprising: a correction process for correcting a correction target area defined by an image edge area of the first scattered ray reduced image and an image edge area of the second scattered ray reduced image in the overlapping area of the joined image, based on pixel values outside the correction target area.
コンピュータを、請求項1乃至19のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each of the means of an image processing device according to any one of claims 1 to 19.
JP2022190575A 2022-11-29 2022-11-29 Image processing device, control method thereof, and program Pending JP2024078179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022190575A JP2024078179A (en) 2022-11-29 2022-11-29 Image processing device, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022190575A JP2024078179A (en) 2022-11-29 2022-11-29 Image processing device, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2024078179A true JP2024078179A (en) 2024-06-10

Family

ID=91377567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022190575A Pending JP2024078179A (en) 2022-11-29 2022-11-29 Image processing device, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2024078179A (en)

Similar Documents

Publication Publication Date Title
JP6145889B2 (en) Radiation image processing apparatus and method, and program
US10045746B2 (en) Radiation image processing apparatus, method, and medium
JP6072102B2 (en) Radiographic system and radiographic method
US9996910B2 (en) Radiographic image processing device, method, and recording medium
JP6042855B2 (en) Radiation image capturing apparatus, radiation image capturing method, and radiation image capturing program
JP6214226B2 (en) Image processing apparatus, tomography apparatus, image processing method and program
JP6156847B2 (en) Radiation image processing apparatus and method, and program
US10672108B2 (en) Image processing apparatus, image processing method, and image processing program
JP6556005B2 (en) Tomographic image generating apparatus, method and program
JP2017055973A5 (en)
US20120148156A1 (en) Enhanced contrast for scatter compensation in x-ray imaging
JP6815818B2 (en) Radiation imaging system and radiography imaging method
JP6957170B2 (en) Radiation imaging equipment, radiography systems, radiography methods, and programs
JP3540914B2 (en) X-ray equipment
US20130308841A1 (en) Method and apparatus for image processing
JP6156849B2 (en) Radiation image processing apparatus, method and program
JP7091047B2 (en) Radiation imaging system and radiography imaging method
JP2024078179A (en) Image processing device, control method thereof, and program
JP5759405B2 (en) Luminance unevenness detection apparatus and method
JP4184965B2 (en) Method and apparatus for intensity correction in CR mosaic image composition
JP6676345B2 (en) Radiation imaging system and radiation imaging method
JP6285006B2 (en) Radiation image processing apparatus, method and program
JP6313402B2 (en) Radiation image capturing apparatus, radiation image capturing method, and radiation image capturing program
WO2020012520A1 (en) Medical x-ray image processing device and x-ray imaging device
JP2004336662A (en) Image processor and image processing method