JP2020065614A - Radiation image processing system, image processing method and program - Google Patents

Radiation image processing system, image processing method and program Download PDF

Info

Publication number
JP2020065614A
JP2020065614A JP2018198752A JP2018198752A JP2020065614A JP 2020065614 A JP2020065614 A JP 2020065614A JP 2018198752 A JP2018198752 A JP 2018198752A JP 2018198752 A JP2018198752 A JP 2018198752A JP 2020065614 A JP2020065614 A JP 2020065614A
Authority
JP
Japan
Prior art keywords
transmission image
image
transmission
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018198752A
Other languages
Japanese (ja)
Other versions
JP7150558B2 (en
Inventor
影山 昌広
Masahiro Kageyama
昌広 影山
啓子 高橋
Keiko Takahashi
啓子 高橋
宏之助 天明
Konosuke TEMMEI
宏之助 天明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2018198752A priority Critical patent/JP7150558B2/en
Publication of JP2020065614A publication Critical patent/JP2020065614A/en
Application granted granted Critical
Publication of JP7150558B2 publication Critical patent/JP7150558B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

To provide a radiation image processing system which can obtain a transmission image with the improved visibility of a device for manipulation in real-time.SOLUTION: A radiation image processing system which images a transmission image by irradiating a subject with a radiation includes: an image generation unit which generates a first transmission image; and an image processing unit which executes processing for improving the visibility of the first transmission image. The image processing unit includes: a low frequency component extraction part which extracts a low frequency component from the first transmission image; a division processing part which divides the first transmission image by the low frequency component; and a halo reduction part which reduces a halo of the first transmission image.SELECTED DRAWING: Figure 6

Description

本発明は、被写体に放射線を照射して得られた画像(透過像)を処理するシステム、方法、およびプログラムに関する。   The present invention relates to a system, method, and program for processing an image (transmission image) obtained by irradiating a subject with radiation.

医療現場では、人体(患者)等の被写体に対してX線等の放射線を照射し、被写体を透過した放射線の強度分布を検出器で検出して得た画像(以下、透過像と記載する)をリアルタイムで表示しながら、医師や技師により治療や検査等の医療行為が行われている。   In the medical field, an image obtained by irradiating a subject such as a human body (patient) with radiation such as X-rays and detecting the intensity distribution of the radiation transmitted through the subject with a detector (hereinafter referred to as a transmission image) While displaying in real time, medical treatment such as treatment and examination is being performed by doctors and technicians.

医療行為の一例である、内視鏡(胃カメラ)を使って胆管および膵管を造影するERCP(endoscopic retrograde cholangiopancreatography:内視鏡的逆行性胆道膵管造影)検査では、口から十二指腸まで内視鏡を挿入し、内視鏡の先端から膵管および胆管等の臓器の中にカテーテル(細い管)を挿入し、そのカテーテルから造影剤を注入し、臓器のX線写真を撮る。このとき、内視鏡径は太く、臓器に入らないので、通過が容易なカテーテルやガイドワイヤ(金属製の細いワイヤ)等のデバイスを補助的に用いることが一般的である。本明細書では、カテーテルやガイドワイヤ等のデバイスを手技用デバイスと記載する。   The endoscopic retrograde cholangiopancreatography (ERCP), which is an example of medical practice, uses the endoscope (gastroscope) to image the bile duct and pancreatic duct, and an endoscope from the mouth to the duodenum After insertion, a catheter (thin tube) is inserted from the tip of the endoscope into an organ such as a pancreatic duct and a bile duct, a contrast agent is injected from the catheter, and an X-ray photograph of the organ is taken. At this time, since the endoscope has a large diameter and does not enter the organ, a device such as a catheter or a guide wire (a thin metal wire) that can easily pass through is generally used as an auxiliary. In this specification, a device such as a catheter or a guide wire is referred to as a procedural device.

前述した透過像のリアルタイムな表示は、前述のような医療行為において、手技用デバイスが正しい位置に挿入されているか否かを確認する場合に用いられる。   The above-mentioned real-time display of the transmission image is used for confirming whether or not the procedural device is inserted in the correct position in the medical procedure as described above.

ERCP検査でガイドワイヤを膵管に挿入する場合、解剖学的に膵臓は脊椎を横断する位置にあるため、透過像においてガイドワイヤと椎体(脊椎を構成する個々の骨)とが重なりやすい。そのため、X線は椎体によって大きく減弱されるため、透過像では椎体が映り込んでいる領域が暗くなる。このとき、椎体と重なったガイドワイヤは、視認しにくくなるため、医師によるガイドワイヤの操作に支障をきたすという課題がある。   When the guide wire is inserted into the pancreatic duct in the ERCP examination, the guide wire and the vertebral body (individual bones forming the spine) are likely to overlap each other in the transmission image because the pancreas is anatomically located at a position crossing the spine. Therefore, since the X-rays are greatly attenuated by the vertebral body, the region in which the vertebral body is reflected becomes dark in the transmission image. At this time, the guide wire that overlaps with the vertebral body becomes difficult to visually recognize, and thus there is a problem in that the operation of the guide wire by the doctor is hindered.

そこで、透過像に映り込んだ椎体等を減弱することによって、相対的に手技用デバイスの視認性を向上させる画像処理技術の実現が望まれている。   Therefore, it is desired to realize an image processing technique that relatively improves the visibility of the procedural device by reducing the vertebral bodies and the like reflected in the transmission image.

例えば、非特許文献1には、胸部単純X線画像上に映った肺結節病変の読影を支援するためのソフトウェアの実現を目的として、透過像に映り込んだ肋骨や鎖骨を認識し減弱することで、肺野内の視認性を向上する画像処理技術について述べられている。この技術では、(1)肺野認識処理、(2)骨認識処理、(3)骨信号減弱処理、を行い、骨に起因する信号変化のみを減弱することによって、骨に重なる異常陰影や血管等の微細構造の信号をオリジナル画像のまま残し、病変の視認性を改善している。   For example, Non-Patent Document 1 recognizes and attenuates ribs and clavicles reflected in a transmission image for the purpose of realizing software for supporting the interpretation of lung nodule lesions shown on a plain chest X-ray image. Describes an image processing technique for improving visibility in the lung field. According to this technique, (1) lung field recognition processing, (2) bone recognition processing, and (3) bone signal attenuation processing are performed to attenuate only signal changes caused by bone, thereby causing abnormal shadows and blood vessels that overlap with bone. The signal of the fine structure such as is left as it is in the original image to improve the visibility of the lesion.

小林剛ほか、「胸部単純X線CADアプリケーション」 Bone Suppression処理の開発、KONICA MINOLTA TECHNOLOGY REPORT VOL.12 pp.71-76 (2015)Tsuyoshi Kobayashi et al., Development of Bone Suppression processing for "Chest X-ray CAD application", KONICA MINOLTA TECHNOLOGY REPORT VOL.12 pp.71-76 (2015)

非特許文献1記載の技術では、前述したように、(1)肺野認識処理、(2)骨認識処理、(3)骨信号減弱処理、を行うことが述べられている。非特許文献1によると、これらの具体的な処理内容は、以下のとおりである。   As described above, the technique described in Non-Patent Document 1 describes that (1) lung field recognition processing, (2) bone recognition processing, and (3) bone signal attenuation processing are performed. According to Non-Patent Document 1, these specific processing contents are as follows.

(1)肺野認識処理では、辺縁の性質が異なる四つの領域(肺尖部、外胸郭部、横隔膜部、縦隔部)に肺野を行う分類し、各境界の性質に最適なエッジ情報を用いて領域を抽出している。   (1) In the lung field recognition processing, lung fields are classified into four regions (lung apex, external rib cage, diaphragm, mediastinum) having different peripheral properties, and the edges that are optimal for the properties of each boundary are classified. The area is extracted using the information.

(2)骨認識処理では、大量データから構築した骨のモデル情報を用いて、示す事前情報を元にした骨構造の推定値と、対象の胸部単純X線画像から計測した被写体固有の骨構造の推定結果を合わせることにより、骨の詳細構造を精度よく抽出するロバストな骨認識を実現している。   (2) In the bone recognition process, an estimated value of the bone structure based on the a priori information shown using the model information of the bone constructed from a large amount of data, and the bone structure specific to the subject measured from the plain chest X-ray image of the target By combining the estimation results of, the robust bone recognition that accurately extracts the detailed structure of the bone is realized.

(3)骨信号減弱処理では、認識された骨候補から骨の信号成分を推定し減弱を行う。推定には肋骨および鎖骨とオーバーラップしていない構造物の信号変化を利用している。   (3) In the bone signal attenuation processing, the signal component of the bone is estimated from the recognized bone candidate and is attenuated. The estimation uses the signal changes of structures that do not overlap ribs and clavicle.

前述したように、非特許文献1記載の技術は、肺結節病変の読影を支援するためのソフトウェアの実現を目的としているため、リアルタイム性は必要とされておらず、高度な画像認識処理等を用いることによって、非リアルタイム処理(オフライン処理)で透過像に映り込んだ骨等を減弱している。   As described above, since the technique described in Non-Patent Document 1 aims to realize software for supporting the interpretation of lung nodule lesions, real-time processing is not required, and advanced image recognition processing and the like are required. By using it, bones and the like reflected in the transmission image are attenuated by non-real time processing (offline processing).

一方、前述したERCP検査等において、リアルタイムで手技用デバイス等の視認性を向上する場合、パーソナルコンピュータ(以下、PC)等の汎用計算機上で稼働するソフトウェアによって高度な画像認識処理等を行うと多大な処理時間がかかってしまい、手技用デバイスおよび内臓等の被写体の動きが滑らかでない不自然な動きの透過像が表示されてしまう問題がある。そのため、被写体の動きが滑らかで自然な動きの透過像を表示するためには、高速な処理を実行できる特別な計算機リソースを備えた高価な装置が必要となり、不経済である。   On the other hand, in the above-mentioned ERCP inspection and the like, when improving the visibility of a surgical device in real time, it is very difficult to perform advanced image recognition processing by software operating on a general-purpose computer such as a personal computer (hereinafter, PC). However, there is a problem in that a transparent image of an unnatural movement in which the movement of the subject such as the manipulation device and the internal organs is not smooth is displayed. Therefore, in order to display a transparent image in which the movement of the subject is smooth and natural, an expensive device having special computer resources capable of performing high-speed processing is required, which is uneconomical.

本発明は、このような状況に鑑みてなされたものであり、演算量を削減し、手技用デバイスのリアルタイムな視認性を向上できる放射線画像処理システムを提供するものである。   The present invention has been made in view of such a situation, and provides a radiation image processing system capable of reducing the amount of calculation and improving the real-time visibility of a procedural device.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。すなわち、被写体に放射線を照射して透過像を撮像する放射線画像処理システムであって、第一透過像を生成する画像生成部と、前記第一透過像の視認性を向上させるための処理を実行する画像処理部と、を備え、前記画像処理部は、前記第一透過像から低周波成分を抽出する低周波成分抽出部と、前記第一透過像を前記低周波成分で除算する除算処理部と、前記第一透過像のハローを低減するハロー低減部と、を含む。   The following is a brief description of the outline of the typical invention disclosed in the present application. That is, a radiation image processing system that irradiates a subject with radiation to capture a transmission image, and executes a process for improving the visibility of the image generation unit that generates the first transmission image and the first transmission image. An image processing unit for performing the image processing, wherein the image processing unit is a low-frequency component extraction unit that extracts a low-frequency component from the first transmission image, and a division processing unit that divides the first transmission image by the low-frequency component. And a halo reduction unit that reduces the halo of the first transmission image.

本発明によれば、手技用デバイス等の視認性を向上した透過像をリアルタイムに得ることが可能になる。上記した以外の課題、構成および効果は、以下の実施例の説明により明らかにされる。   According to the present invention, it is possible to obtain in real time a transmission image with improved visibility of a surgical device or the like. Problems, configurations, and effects other than those described above will be clarified by the following description of the embodiments.

実施例1の放射線画像処理システムの構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of a radiation image processing system of Example 1. FIG. 実施例1の画像処理部の構成の一例を示すブロック図である。3 is a block diagram illustrating an example of a configuration of an image processing unit of Example 1. FIG. 実施例1の画像処理部が実行する処理の一例を説明するフローチャートである。5 is a flowchart illustrating an example of processing executed by the image processing unit according to the first embodiment. 実施例1の画像処理部が実行する処理の具体例を示す図である。FIG. 6 is a diagram illustrating a specific example of processing executed by the image processing unit according to the first embodiment. 実施例1の効果の一例を示す図である。FIG. 7 is a diagram showing an example of the effect of the first embodiment. 実施例2の画像処理部の構成の一例を示すブロック図である。9 is a block diagram showing an example of a configuration of an image processing unit of Example 2. FIG. 実施例2の画像処理部が実行する処理の具体例を示す図である。FIG. 11 is a diagram showing a specific example of processing executed by the image processing unit of the second embodiment. 実施例2のハロー低減部の動作の説明図である。FIG. 9 is an explanatory diagram of an operation of a halo reduction unit of the second embodiment. 実施例2のハロー低減部の構成の一例を示すブロック図である。FIG. 9 is a block diagram showing an example of a configuration of a halo reduction unit according to a second exemplary embodiment. 実施例2の画像処理部が実行する処理の一例を説明するフローチャートである。9 is a flowchart illustrating an example of processing executed by an image processing unit according to the second embodiment.

本発明は、手技用デバイス等の視認性を向上した透過像をリアルタイムに得ることを実現する技術を提供するものである。   The present invention provides a technique for realizing a real-time transmission image with improved visibility of a surgical device or the like.

以下、添付図面を参照して本発明の実施例について説明する。なお、添付図面は本発明の原理に則った具体的な実施例と実装例を示しているが、これらは本発明の理解のためのものであり、決して本発明を限定的に解釈するために用いられるものではない。   Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that the attached drawings show specific examples and implementation examples according to the principle of the present invention, but these are for understanding the present invention, and are not intended to limit the present invention in any way. It is not used.

本実施例では、当業者が本発明を実施するのに十分詳細にその説明がなされているが、他の実装および形態も可能で、本発明の技術的思想の範囲と精神を逸脱することなく構成および構造の変更および多様な要素の置き換えが可能であることを理解する必要がある。したがって、以降の記述をこれに限定して解釈してはならない。   Although the present embodiment has been described in detail enough for those skilled in the art to carry out the present invention, other implementations and modes are possible without departing from the scope and spirit of the technical idea of the present invention. It should be understood that changes in configuration and structure and substitution of various elements are possible. Therefore, the following description should not be limited to this.

また、実施例を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。   In addition, in all the drawings for explaining the embodiments, the same members are denoted by the same reference symbols in principle and the repeated description thereof will be omitted.

<放射線画像処理システムの構成例>
図1は、実施例1の放射線画像処理システムの構成の一例を示すブロック図である。
<Example of configuration of radiation image processing system>
FIG. 1 is a block diagram illustrating an example of the configuration of the radiation image processing system according to the first embodiment.

図1に示すように、放射線画像処理システム101は、X線管102、高電圧発生部103、X線制御部104、絞り105、X線補償フィルタ106、絞り/フィルタ制御部107、テーブル109、機構制御部110、X線検出器111、検出器制御部112、記憶部113、中央処理部114、画像処理部115、入力部116、表示部117を有する。   As shown in FIG. 1, the radiation image processing system 101 includes an X-ray tube 102, a high voltage generator 103, an X-ray controller 104, a diaphragm 105, an X-ray compensation filter 106, a diaphragm / filter controller 107, a table 109, and It has a mechanism control unit 110, an X-ray detector 111, a detector control unit 112, a storage unit 113, a central processing unit 114, an image processing unit 115, an input unit 116, and a display unit 117.

テーブル109は、人等の被写体108を載せる寝台である。機構制御部110は、テーブル109と電気的に接続され、被写体108が撮影に適した位置となるように、テーブル109の動きを制御する。このとき、X線検出器111についても、テーブル109と一体的に移動する構造としてもよい。   The table 109 is a bed on which a subject 108 such as a person is placed. The mechanism control unit 110 is electrically connected to the table 109 and controls the movement of the table 109 so that the subject 108 is in a position suitable for shooting. At this time, the X-ray detector 111 may also be configured to move integrally with the table 109.

X線管102は、X線を発生させ、テーブル109の上に配置された被写体108に向けて当該X線を照射する。高電圧発生部103は、X線管102と電気的に接続され、X線管102に与える高電圧を発生する。X線制御部104は、高電圧発生部103と電気的に接続され、高電圧発生部103を制御し、X線管102から照射されるX線の線量および線質を制御する。   The X-ray tube 102 generates X-rays and irradiates the subject 108 placed on the table 109 with the X-rays. The high voltage generator 103 is electrically connected to the X-ray tube 102 and generates a high voltage applied to the X-ray tube 102. The X-ray control unit 104 is electrically connected to the high voltage generation unit 103, controls the high voltage generation unit 103, and controls the dose and quality of X-rays emitted from the X-ray tube 102.

絞り105は、X線管102のX線照射方向に配置され、X線管102で発生したX線が照射される領域を、X線吸収率の高い金属の開閉によって制御する。X線補償フィルタ106は、X線吸収率の高い物質で構成され、被写体108のX線吸収率の低い部位に到達するX線を減衰させることによってハレーションを軽減する。   The diaphragm 105 is arranged in the X-ray irradiation direction of the X-ray tube 102, and controls the area irradiated with the X-ray generated in the X-ray tube 102 by opening and closing a metal having a high X-ray absorption rate. The X-ray compensation filter 106 is made of a substance having a high X-ray absorptivity, and attenuates X-rays that reach a portion of the subject 108 having a low X-ray absorptance, thereby reducing halation.

絞り/フィルタ制御部107は、絞り105およびX線補償フィルタ106と電気的に接続され、絞り105およびX線補償フィルタ106を制御する。   The diaphragm / filter control unit 107 is electrically connected to the diaphragm 105 and the X-ray compensation filter 106, and controls the diaphragm 105 and the X-ray compensation filter 106.

X線検出器111は、絞り105、X線補償フィルタ106およびテーブル109を介在してX線管102と対向するように配置され、画像生成部として機能する。具体的には、X線検出器111は、X線管102から照射され被写体108を透過したX線の強度分布を特徴量に変換し、画素毎の特徴量から構成される透過像のデータを出力する。特徴量は、例えば、輝度値及び分散値等である。本明細書では、輝度値を特徴量として有する画像を用いて説明する。   The X-ray detector 111 is arranged so as to face the X-ray tube 102 with the diaphragm 105, the X-ray compensation filter 106, and the table 109 interposed therebetween, and functions as an image generation unit. Specifically, the X-ray detector 111 converts the intensity distribution of X-rays emitted from the X-ray tube 102 and transmitted through the subject 108 into a feature amount, and obtains transmission image data composed of the feature amount for each pixel. Output. The feature amount is, for example, a brightness value and a variance value. In this specification, an image having a brightness value as a feature amount will be described.

検出器制御部112は、X線検出器111と電気的に接続され、X線検出器111を制御することによって透過像のデータを取得し、画像処理部115に透過像のデータを入力する。検出器制御部112は、X線検出器111を制御することによって、透過像を静止画として生成してもよいし、時間的に異なるタイミングで撮影した複数の透過像を動画像として生成してもよい。動画像を生成するための撮影タイミングは、例えば、毎秒30フレームおよび毎秒15フレーム等の一定の時間間隔が考えられる。なお、本発明は、時間間隔に限定されない。   The detector control unit 112 is electrically connected to the X-ray detector 111, acquires the transmission image data by controlling the X-ray detector 111, and inputs the transmission image data to the image processing unit 115. The detector control unit 112 may generate a transmission image as a still image by controlling the X-ray detector 111, or may generate a plurality of transmission images captured at different timings as a moving image. Good. The shooting timing for generating the moving image may be a constant time interval such as 30 frames per second and 15 frames per second. Note that the present invention is not limited to time intervals.

画像処理部115は、検出器制御部112と電気的に接続され、X線検出器111で撮影され、検出器制御部112を介して入力された透過像の補正処理を実行する。   The image processing unit 115 is electrically connected to the detector control unit 112, executes the correction process of the transmission image captured by the X-ray detector 111 and input via the detector control unit 112.

中央処理部114は、X線制御部104、絞り/フィルタ制御部107、機構制御部110、検出器制御部112、記憶部113、画像処理部115、入力部116、表示部117と電気的に接続され、電気的に接続される各機能部を制御する。中央処理部114は、例えば、汎用計算機が有するCPU(Central Processing Unit)である。   The central processing unit 114 electrically connects with the X-ray control unit 104, aperture / filter control unit 107, mechanism control unit 110, detector control unit 112, storage unit 113, image processing unit 115, input unit 116, and display unit 117. It controls each functional unit that is connected and electrically connected. The central processing unit 114 is, for example, a CPU (Central Processing Unit) included in a general-purpose computer.

記憶部113は、半導体メモリおよび磁気ディスク等の記録媒体を備え、画像取得条件および画像等をデータとして記憶する。なお、記録媒体の種類は、これに限定されるものではない。   The storage unit 113 includes a recording medium such as a semiconductor memory and a magnetic disk, and stores image acquisition conditions, images and the like as data. The type of recording medium is not limited to this.

入力部116は、使用者が画像取得条件等を設定するためのユーザインターフェースである。入力部116として、キーボード、マウス、および制御用ボタン等を有してもよいし、音声入力およびジェスチャー入力など行うためのセンサ等を有してもよい。   The input unit 116 is a user interface for the user to set image acquisition conditions and the like. The input unit 116 may include a keyboard, a mouse, control buttons, or the like, or may include a sensor or the like for performing voice input, gesture input, or the like.

表示部117は、補正後の画像を表示する。表示部117として、ディスプレイおよびプリンタ等を有してもよい。   The display unit 117 displays the corrected image. The display unit 117 may include a display and a printer.

X線制御部104、絞り/フィルタ制御部107、機構制御部110、検出器制御部112、および画像処理部115は専用のハードウェアを用いて実現しているがこれに限定されない。例えば、各ハードウェアをソフトウェアとして実現してもよい。この場合、各ハードウェアの機能を実現するプログラムを記憶部113に格納し、中央処理部114が当該プログラムにしたがって処理を実行することによって、各ハードウェアの機能を実現する。   The X-ray control unit 104, diaphragm / filter control unit 107, mechanism control unit 110, detector control unit 112, and image processing unit 115 are realized using dedicated hardware, but are not limited to this. For example, each hardware may be realized as software. In this case, a program that implements the function of each hardware is stored in the storage unit 113, and the central processing unit 114 executes the process in accordance with the program to implement the function of each hardware.

画像処理部115の詳細については、以下に詳しく述べる。   Details of the image processing unit 115 will be described below.

<放射線画像処理システムの動作原理>
まず、放射線(X線)が被写体を透過したときに得られる各画素の強度分布として出力される透過像Im(x,y)、一次線の強度分布として出力される一次線像Ip(x,y)、および散乱線の強度分布として出力される散乱線像Is(x,y)の特性について説明する。なお、以下の式中の(x,y)は画素の位置を示す。
<Operation principle of radiation image processing system>
First, a transmission image Im (x, y) output as an intensity distribution of each pixel obtained when radiation (X-rays) passes through a subject, and a primary line image Ip (x, x) output as an intensity distribution of a primary line. y) and the characteristics of the scattered radiation image Is (x, y) output as the intensity distribution of the scattered radiation will be described. In addition, (x, y) in the following equations indicates the position of the pixel.

式(1)に示すように、透過像Im(x,y)は一次線像Ip(x,y)および散乱線像Is(x,y)の和として表される。ここで、一次線像Ip(x、y)は式(2)で与えられ、散乱線像Is(x,y)は式(3)で与えられる。なお、式(3)の記号は畳み込み演算を表す。   As shown in Expression (1), the transmission image Im (x, y) is represented as the sum of the primary line image Ip (x, y) and the scattered line image Is (x, y). Here, the primary ray image Ip (x, y) is given by the equation (2), and the scattered ray image Is (x, y) is given by the equation (3). In addition, the symbol of Formula (3) represents a convolution operation.

Figure 2020065614
Figure 2020065614

Figure 2020065614
Figure 2020065614

Figure 2020065614
Figure 2020065614

式(2)は、一次線像Ip(x,y)の強度が被写体の厚みT(x,y)に応じて指数的に減衰することを示す。式(2)におけるIo(x,y)は、位置(x,y)における照射線量の強度を示し、μは単位厚みあたりの放射線減衰率(線減弱係数)を示す。式(3)は、散乱線像Is(x,y)の強度が一次線像Ip(x,y)の強度と点拡散関数Sσ(T(x,y))の畳み込み演算で表されることを示す。点拡散関数Sσ(T(x,y))は被写体の厚みT(x,y)に応じて変化する関数である。   Expression (2) shows that the intensity of the primary line image Ip (x, y) is exponentially attenuated according to the thickness T (x, y) of the subject. Io (x, y) in the equation (2) represents the intensity of the irradiation dose at the position (x, y), and μ represents the radiation attenuation rate (linear attenuation coefficient) per unit thickness. In Expression (3), the intensity of the scattered radiation image Is (x, y) is expressed by a convolution operation of the intensity of the primary radiation image Ip (x, y) and the point diffusion function Sσ (T (x, y)). Indicates. The point diffusion function Sσ (T (x, y)) is a function that changes according to the thickness T (x, y) of the subject.

一般的に、被写体とX線検出器111の間に、グリッドと呼ばれる放射線の吸収率が高い物質と吸収率が低い物質を薄く交互に積層した板を設置し、X線検出器111に入射する散乱線量を低く抑える運用がなされる。したがって、透過像Im(x,y)に含まれる散乱線像Is(x,y)の強度は比較的弱いと考えることができる。そこで、簡単のため散乱線像Is(x,y)を十分小さいものとして扱い、式(4)に示すように透過像Im(x,y)は一次線像Ip(x,y)とほぼ等しいものと近似して、以下、本実施例の動作原理を説明する。   Generally, between the subject and the X-ray detector 111, a plate called a grid, in which a substance having a high absorptance of radiation and a substance having a low absorptance of the radiation are laminated thinly and alternately, is incident on the X-ray detector 111. An operation is performed to keep the scattered dose low. Therefore, it can be considered that the intensity of the scattered radiation image Is (x, y) included in the transmission image Im (x, y) is relatively weak. Therefore, for simplicity, the scattered radiation image Is (x, y) is treated as a sufficiently small one, and the transmission image Im (x, y) is almost equal to the primary radiation image Ip (x, y) as shown in equation (4). In the following, the operation principle of this embodiment will be described in a manner similar to the above.

Figure 2020065614
Figure 2020065614

以下の説明では、透過像Im(x,y)に厚さTd(x,y)の手技用デバイスが映り込んでいる場合を想定する。ただし、透過像Im(x,y)の手技用デバイスが存在しない位置ではTd(x,y)=0とする。このとき、式(4)および式(2)から、透過像Im(x,y)は式(5)のように表すことができる。   In the following description, it is assumed that the transmission image Im (x, y) is reflected in the manipulation device having the thickness Td (x, y). However, Td (x, y) = 0 is set at a position in the transmission image Im (x, y) where the manipulation device does not exist. At this time, the transmission image Im (x, y) can be expressed as in Expression (5) from Expression (4) and Expression (2).

Figure 2020065614
Figure 2020065614

また、手技用デバイスが強調表示される透過像Id(x,y)は、式(6)式のように表すことができる。   Further, the transmission image Id (x, y) in which the manipulation device is highlighted can be expressed as in Expression (6).

Figure 2020065614
Figure 2020065614

ここで、手技用デバイスは細い金属で構成されることから、厚みTd(x,y)は位置(x,y)に応じて急峻に変化する。そのため、透過像Id(x,y)は低周波成分よりも高周波成分を多く含む。一方、手技用デバイスを除いた被写体(体内の臓器、骨、結果、および筋肉等)の厚みT(x,y)は位置(x,y)に応じて比較的緩やかに変化する。そのため、高周波成分よりも低周波成分を多く含む。したがって、手技用デバイスを除いた被写体の透過像Io(x,y)exp(−μT(x,y))は、透過像Im(x,y)の低周波成分像Iml(x,y)で近似することができる。具体的には、式(6)は式(7)のように近似できる。   Here, since the procedure device is made of a thin metal, the thickness Td (x, y) changes sharply according to the position (x, y). Therefore, the transmitted image Id (x, y) contains more high frequency components than low frequency components. On the other hand, the thickness T (x, y) of the subject (organs, bones, results, muscles, etc. in the body) excluding the manipulation device changes relatively gently according to the position (x, y). Therefore, it contains more low frequency components than high frequency components. Therefore, the transmission image Io (x, y) exp (−μT (x, y)) of the subject excluding the manipulation device is the low-frequency component image Iml (x, y) of the transmission image Im (x, y). Can be approximated. Specifically, equation (6) can be approximated as equation (7).

Figure 2020065614
Figure 2020065614

以上で述べた放射線画像処理システム100の動作原理をまとめると、透過像Id(x,y)は、透過像Im(x,y)をその低周波成分像Iml(x,y)で除算することによって、近似的に算出できる。   To summarize the operation principle of the radiation image processing system 100 described above, the transmission image Id (x, y) is obtained by dividing the transmission image Im (x, y) by the low-frequency component image Iml (x, y). Can be calculated approximately.

<画像処理部の構成例>
図2は、実施例1の画像処理部115の構成の一例を示すブロック図である。図3は、実施例1の画像処理部115が実行する処理の一例を説明するフローチャートである。
<Example of configuration of image processing unit>
FIG. 2 is a block diagram illustrating an example of the configuration of the image processing unit 115 according to the first embodiment. FIG. 3 is a flowchart illustrating an example of processing executed by the image processing unit 115 according to the first embodiment.

図2に示すように、画像処理部115は、検出器制御部112から、X線検出器111によって撮影された透過像Im(x,y)を入力画像として受け付ける(ステップS301)。透過像Im(x,y)は、低周波成分抽出部201および除算処理部202に入力される。   As shown in FIG. 2, the image processing unit 115 receives the transmission image Im (x, y) captured by the X-ray detector 111 as an input image from the detector control unit 112 (step S301). The transmission image Im (x, y) is input to the low frequency component extraction unit 201 and the division processing unit 202.

画像処理部115の低周波成分抽出部201は、低周波成分像Iml(x,y)を抽出し(ステップS302)、除算処理部202に低周波成分像Iml(x,y)を入力する。   The low frequency component extraction unit 201 of the image processing unit 115 extracts the low frequency component image Iml (x, y) (step S302), and inputs the low frequency component image Iml (x, y) to the division processing unit 202.

なお、低周波成分抽出部201は、水平方向および垂直方向の低周波成分を通過させる2次元ローパスフィルタを用いて実現できる。2次元ローパスフィルタによる低周波成分の抽出方法は公知であるため、詳細な説明を省略する。2次元ローパスフィルタによる低周波成分の抽出処理は演算時間が短く、かつ、演算量が小さい。   The low-frequency component extraction unit 201 can be realized by using a two-dimensional low-pass filter that passes low-frequency components in the horizontal direction and the vertical direction. Since a method of extracting a low frequency component by a two-dimensional low pass filter is known, detailed description will be omitted. The calculation process of the low-frequency component extraction by the two-dimensional low-pass filter is short and the calculation amount is small.

画像処理部115の除算処理部203は、式(7)に示すように、透過像Im(x,y)を低周波成分像Iml(x,y)で除算することによって、透過像Id(x,y)を算出する(ステップS303)。   The division processing unit 203 of the image processing unit 115 divides the transmission image Im (x, y) by the low-frequency component image Iml (x, y) to obtain the transmission image Id (x as shown in Expression (7). , Y) is calculated (step S303).

除算処理は画素毎に行われる。なお、除算処理は公知の演算方法であるため詳細な説明は省略する。除算処理は演算時間が短く、かつ、演算量が小さい。   The division process is performed for each pixel. Since the division process is a known calculation method, detailed description will be omitted. The division process has a short calculation time and a small calculation amount.

画像処理部115の除算処理部203は、表示部117に透過像Id(x,y)を出力し(ステップS304)、処理を終了する。   The division processing unit 203 of the image processing unit 115 outputs the transmission image Id (x, y) to the display unit 117 (step S304), and ends the processing.

<画像処理部の動作例>
図4は、実施例1の画像処理部115が実行する処理の具体例を示す図である。
<Operation example of image processing unit>
FIG. 4 is a diagram illustrating a specific example of processing executed by the image processing unit 115 according to the first embodiment.

図4(a)は、透過像の一例であり、人体の胸部を模したファントム(模型)を被写体108として撮影することによって取得された透過像の一部である。この画像には、ガイドワイヤ402の陰影と、中心線401に沿って並ぶ複数の模擬的な椎体403の陰影が映っている。なお、中心線401は、説明のために追加した線であって、実際の透過像には映っていない。   FIG. 4A is an example of a transmission image, which is a part of a transmission image acquired by photographing a phantom (model) imitating a chest of a human body as a subject 108. In this image, the shadow of the guide wire 402 and the shadows of a plurality of simulated vertebral bodies 403 arranged along the center line 401 are shown. The center line 401 is a line added for the sake of explanation and is not shown in the actual transmission image.

図4(b)は、図4(a)の画像から主要な輪郭線を抽出した画像である。図4(a)の画像におけるガイドワイヤ402および椎体403の位置関係は、図4(b)のようになる。   FIG. 4B is an image in which main contour lines are extracted from the image of FIG. The positional relationship between the guide wire 402 and the vertebral body 403 in the image of FIG. 4A is as shown in FIG. 4B.

図4(c)は、図4(a)に示した画像の中心線401上の輝度値を描いたグラフである。グラフの縦軸は垂直方向の位置を示し、グラフの横軸はその位置における画像の輝度値を示す。なお、グラフに向かって左方向が大きな値となる。図4(c)において、椎体403が存在する位置の信号の変化はゆるやかであり、ガイドワイヤ402が存在する位置の信号の変化が急峻であることがわかる。これは、ガイドワイヤが細い金属で構成されることから、ガイドワイヤが存在する位置では放射線が大きく減弱されて、ガイドワイヤの周囲よりも輝度値が急峻に小さくなる、すなわち、画像が急峻に暗くなることを示す。   FIG. 4C is a graph showing the luminance value on the center line 401 of the image shown in FIG. The vertical axis of the graph shows the vertical position, and the horizontal axis of the graph shows the luminance value of the image at that position. Note that the left side of the graph has a large value. In FIG. 4C, it can be seen that the change in the signal at the position where the vertebral body 403 exists is gentle and the change at the position where the guide wire 402 exists is steep. This is because the guide wire is made of a thin metal, so that the radiation is greatly attenuated at the position where the guide wire exists, and the brightness value becomes sharply smaller than that around the guide wire, that is, the image sharply darkens. Indicates that

図4(d)は、図4(c)に示す信号から抽出された低周波成分の輝度値を示す。椎体403が存在する位置の信号の変化は、図4(c)に示す信号の変化よりも緩やかになる。一方、ガイドワイヤ402が存在する位置の信号はほぼ変化していないことがわかる。これは、ガイドワイヤ402は細いため、当該部分では高周波成分が主な成分であり、低周波成分抽出部201によってその高周波成分が強く減衰されたことを示す。   FIG. 4D shows the luminance value of the low frequency component extracted from the signal shown in FIG. 4C. The change in the signal at the position where the vertebral body 403 exists is slower than the change in the signal shown in FIG. On the other hand, it can be seen that the signal at the position where the guide wire 402 exists is almost unchanged. This indicates that since the guide wire 402 is thin, the high frequency component is the main component in this portion, and the high frequency component is strongly attenuated by the low frequency component extraction unit 201.

図4(e)は、図4(c)に示す信号を、図4(d)に示す信号で除算することによって得られた輝度値を示す。ここで、図4(c)に示す信号の輝度値が変化しない場合、図4(c)に示す信号と図4(d)に示した信号の各輝度値は等しくなるため、図4(e)に示す輝度値は1.0となる。また、図4(c)に示す、椎体403が存在する位置の輝度値の変化は比較的ゆるやかであるため、図4(e)に示す除算後の椎体403が存在する位置の輝度値の変化は比較的小さい。一方、ガイドワイヤ402が存在する位置の輝度値の変化は比較的急峻であるため、図4(e)に示す除算後のガイドワイヤ402が存在する位置の輝度値は急峻に小さくなる。   FIG. 4 (e) shows the luminance value obtained by dividing the signal shown in FIG. 4 (c) by the signal shown in FIG. 4 (d). Here, if the luminance value of the signal shown in FIG. 4C does not change, the luminance values of the signal shown in FIG. 4C and the signal shown in FIG. The luminance value shown in () is 1.0. Further, since the change in the brightness value at the position where the vertebral body 403 exists as shown in FIG. 4C is relatively gentle, the brightness value at the position where the vertebral body 403 exists after division shown in FIG. 4E. The change in is relatively small. On the other hand, since the change in the brightness value at the position where the guide wire 402 is present is relatively steep, the brightness value at the position where the guide wire 402 after division shown in FIG.

このように、透過像Im(x,y)をその低周波成分像Iml(x,y)で除算した場合、椎体403が存在する位置の信号の変化量(振幅)は緩やかに小さくなるのに対し、ガイドワイヤ402が存在する位置の信号の変化量は急峻に小さく。したがって、画像におけるガイドワイヤ402の視認性が向上するという効果が得られる。   As described above, when the transmission image Im (x, y) is divided by the low-frequency component image Iml (x, y), the change amount (amplitude) of the signal at the position where the vertebral body 403 exists is gradually reduced. On the other hand, the amount of change in the signal at the position where the guide wire 402 exists is steeply small. Therefore, the effect of improving the visibility of the guide wire 402 in the image can be obtained.

<画像処理部における効果例>
図5は、実施例1の効果の一例を示す図である。以下、この図を用いて、実際の透過像におけるガイドワイヤの視認性向上の効果について説明する。
<Example of effect in image processing unit>
FIG. 5 is a diagram illustrating an example of the effect of the first embodiment. Hereinafter, the effect of improving the visibility of the guide wire in the actual transmission image will be described with reference to this drawing.

図5(a1)は、人体の胸部を模したファントム(模型)の透過像Im(x,y)であり、透過像Im(x,y)にはガイドワイヤ501および椎体502等が映っている。   FIG. 5 (a1) is a transmission image Im (x, y) of a phantom (model) imitating the chest of a human body. The transmission image Im (x, y) shows the guide wire 501 and the vertebral body 502. There is.

図5(a2)は、図5(a1)の矩形部分を拡大した画像を示す。図5(a2)に示すように、処理前の透過像Im(x,y)では、ガイドワイヤ501および椎体502が重なっている部分では画像が暗くなっており、ガイドワイヤ501が視認しにくい。   FIG. 5 (a2) shows an enlarged image of the rectangular portion of FIG. 5 (a1). As shown in FIG. 5 (a2), in the transmission image Im (x, y) before processing, the image is dark in the portion where the guide wire 501 and the vertebral body 502 overlap, and the guide wire 501 is difficult to visually recognize. .

図5(b1)は、図5(a1)の透過像Im(x,y)を処理することによって出力された透過像Id(x,y)である。透過像Id(x,y)では、ガイドワイヤ501が存在する位置が明瞭に表示され、椎体502が存在する位置が全体的に灰色となり、輪郭が薄く表示される。   FIG. 5B1 is a transmission image Id (x, y) output by processing the transmission image Im (x, y) of FIG. 5A1. In the transmission image Id (x, y), the position where the guide wire 501 is present is clearly displayed, the position where the vertebral body 502 is present is entirely gray, and the outline is displayed thin.

図5(b2)は、図5(b1)の矩形部分を拡大した画像を示す。図5(b2)に示すように、ガイドワイヤ501および椎体502が重なっている部分でも、ガイドワイヤ501が明瞭に視認できる。すなわち、透過像Id(x,y)は、もとの透過像Im(x,y)より、ガイドワイヤ501の視認性が向上している。   FIG. 5 (b2) shows an enlarged image of the rectangular portion of FIG. 5 (b1). As shown in FIG. 5 (b 2), the guide wire 501 can be clearly seen even in the portion where the guide wire 501 and the vertebral body 502 overlap. That is, in the transmitted image Id (x, y), the visibility of the guide wire 501 is improved as compared with the original transmitted image Im (x, y).

<実施例1のまとめ>
以上で述べたように、実施例1の放射線画像処理システム101は、ガイドワイヤのように金属製で輪郭が急峻な手技用デバイスが存在する位置の輝度が急峻に暗くなる画像を出力できる。これによって、椎体(骨)、内臓、血管等の背景と手技用デバイスとのコントラスト差が付くため、手技用デバイスの視認性が向上する。
<Summary of Example 1>
As described above, the radiation image processing system 101 according to the first embodiment can output an image in which the brightness at a position where a procedure device such as a guide wire made of metal and having a sharp contour is steeply dark. As a result, there is a difference in contrast between the background of the vertebral body (bone), internal organs, blood vessels, etc. and the procedural device, and the visibility of the procedural device is improved.

画像処理部115が実行する処理は、演算時間が短いため、リアルタイムに画像を表示できる。また、画像処理部115が有する低周波成分抽出部201および除算処理部202は、汎用計算機を用いて実現でき、専用な計算機リソースを用意する必要がないため、コストを抑えることができる。   The processing executed by the image processing unit 115 can be displayed in real time because the calculation time is short. Further, the low frequency component extraction unit 201 and the division processing unit 202 included in the image processing unit 115 can be realized by using a general-purpose computer, and it is not necessary to prepare a dedicated computer resource, so that the cost can be suppressed.

次に、実施例2について説明する。実施例2では画像処理部115の構成および処理が一部異なる。以下、実施例1との差異を中心に実施例2について説明する。   Next, a second embodiment will be described. In the second embodiment, the configuration and processing of the image processing unit 115 are partially different. Hereinafter, the second embodiment will be described focusing on the differences from the first embodiment.

実施例2の放射線画像処理システム101の構成は実施例1の放射線画像処理システム101と同一の構成である。   The configuration of the radiation image processing system 101 of the second embodiment is the same as that of the radiation image processing system 101 of the first embodiment.

<画像処理部の構成例>
図6は、実施例2の画像処理部115の構成の一例を示すブロック図である。
<Example of configuration of image processing unit>
FIG. 6 is a block diagram illustrating an example of the configuration of the image processing unit 115 according to the second embodiment.

図6に示すように、画像処理部115は、低周波成分抽出部201、除算処理部202、およびハロー低減部601を含む。低周波成分抽出部201および除算処理部202は、実施例1と同一の構成である。   As shown in FIG. 6, the image processing unit 115 includes a low frequency component extraction unit 201, a division processing unit 202, and a halo reduction unit 601. The low frequency component extraction unit 201 and the division processing unit 202 have the same configuration as that of the first embodiment.

<画像処理部の動作例>
図7は、実施例2の画像処理部115が実行する処理の具体例を示す図である。
<Operation example of image processing unit>
FIG. 7 is a diagram illustrating a specific example of processing executed by the image processing unit 115 according to the second embodiment.

図7(a)は、透過像Id(x,y)を示す図である。椎体403の輪郭付近、すなわち、図4(c)に示した信号の輝度値が図4(d)に示した信号の輝度値よりも大きくなる位置で、除算後の輝度値が大きくなる現象、すなわち、ハロー701が生じる。このような、輪郭付近の輝度値が大きく(明るく)なる現象は、被写体の後ろ側から「後光」が差しているように見えることから「ハロー」と呼ばれている。   FIG. 7A is a diagram showing the transmission image Id (x, y). Phenomenon in which the luminance value after division becomes large near the contour of the vertebral body 403, that is, at a position where the luminance value of the signal shown in FIG. 4C becomes larger than the luminance value of the signal shown in FIG. 4D. That is, the halo 701 is generated. Such a phenomenon that the brightness value near the contour becomes large (bright) is called “halo” because it seems that “afterglow” is coming from the back side of the subject.

手技用デバイスおよび骨のように放射線(X線)を強く減弱する物体は、透過像では、当該物体の内部は暗く(黒く)映り、周辺は明るく(白く)映る。この透過像の低周波成分は、被写体の輪郭周辺の外側では入力信号よりも若干暗くなる。すなわち、低周波成分像の輝度値が透過像の輝度値よりも小さくなる。したがって、透過像の輝度値を低周波成分像の輝度値で除算すると、1.0よりも大きい値になってハローが発生する。   In a transmission image, an object that strongly attenuates radiation (X-rays) such as a procedural device and a bone appears dark (black) inside the object and bright (white) around the periphery. The low-frequency component of this transmission image is slightly darker than the input signal outside the periphery of the contour of the subject. That is, the brightness value of the low-frequency component image becomes smaller than the brightness value of the transmission image. Therefore, when the brightness value of the transmitted image is divided by the brightness value of the low-frequency component image, the value becomes larger than 1.0 and a halo occurs.

図7(a)に示す透過像Id(x,y)において、手技用デバイスの視認性を向上するためには、低周波成分像の通過周波数帯域を狭くし、入力信号の輝度値と低周波成分の輝度値との差を大きくすることが重要である。   In the transmission image Id (x, y) shown in FIG. 7A, in order to improve the visibility of the procedural device, the pass frequency band of the low frequency component image is narrowed, and the luminance value of the input signal and the low frequency are reduced. It is important to increase the difference from the brightness value of the component.

しかし、内視鏡のように比較的太く、かつ放射線の減弱量が大きい手技用デバイスが映った透過像に対して、通過周波数帯域の狭い低周波成分抽出を行った場合、ハローが太くかつ明るくなる。手技用デバイスの存在する位置の陰影の周囲に強いハローが生じた場合、不自然な画像になるばかりでなく、医師の誤診および病変部の見逃しに繋がる恐れがある。例えば、ERCPでは必ず内視鏡を使用するため、医師が内視鏡の周辺にある臓器を視認する場合、ハローが目障りであり、また、胆管およびハローが重なって胆管を認識できなくなる。   However, when a low-frequency component with a narrow pass frequency band is extracted from a transmission image showing a procedure device that is relatively thick like an endoscope and has a large amount of radiation attenuation, the halo is thick and bright. Become. When a strong halo is generated around the shadow where the manipulation device is present, not only an unnatural image but also a misdiagnosis by a doctor and a missed lesion may be overlooked. For example, in ERCP, an endoscope is always used. Therefore, when a doctor visually recognizes an organ around the endoscope, the halo is obtrusive, and the bile duct and the halo overlap each other, so that the bile duct cannot be recognized.

同様に、造影剤を原液のまま使用した場合、造影剤の周辺に太くて明るいハローが生じるため、透過像における胆管壁が不自然に映るため、誤診に繋がる恐れがある。また、EUS−BD(EUS−guided biliary drainage:超音波内視鏡ガイド下胆道ドレナージ)では、針(金属)を使用するためハローが発生しやすく、ハローによって針周辺の組織の認識が困難となって、医師の手技に支障をきたす恐れがある。   Similarly, when the contrast medium is used as it is, a thick and bright halo is generated around the contrast medium, and the bile duct wall in the transmission image looks unnatural, which may lead to misdiagnosis. Further, in EUS-BD (EUS-guided biliary drainage), since a needle (metal) is used, a halo is likely to occur, and the halo makes it difficult to recognize the tissue around the needle. Therefore, it may interfere with the doctor's procedure.

このように、強いハローの発生によって重大な支障が出てしまう恐れがある。そこで、実施例2ではハロー低減部601が、図7(b)に示すようにハロー702を低減する処理を実行する。   As described above, the occurrence of the strong halo may cause serious trouble. Therefore, in the second embodiment, the halo reduction unit 601 executes the process of reducing the halo 702 as shown in FIG.

<ハロー低減部の動作例>
図8は、実施例2のハロー低減部601の動作の説明図である。
<Operation example of halo reduction unit>
FIG. 8 is an explanatory diagram of the operation of the halo reduction unit 601 according to the second embodiment.

ハロー低減部601は、図8(a)または図8(b)に示すような入出力特性を有する輝度値変換器として実現することができる。   The halo reduction unit 601 can be realized as a luminance value converter having an input / output characteristic as shown in FIG. 8A or 8B.

図8(a)は、入力する輝度値が1.0よりも大きい場合、傾きが1.0よりも小さくなるような折れ線状の入出力特性を持った輝度値変換器を示す。当該輝度値変換器は、入力値(u)が1.0以下の場合、出力値(v)はv=uの直線801となる特性を持ち、入力値(u)が1.0以上の場合、出力値(v)がv=k(u−1)+1の直線802となる特性を持つ。ただし、kは0.0より大きく1.0より小さい。当該起動変換器を用いることによって、1.0よりも大きい輝度値を持つハローを目立たなくすることができる。   FIG. 8A shows a brightness value converter having a linear input / output characteristic such that the slope becomes smaller than 1.0 when the input brightness value is larger than 1.0. The brightness value converter has a characteristic that when the input value (u) is 1.0 or less, the output value (v) becomes a straight line 801 of v = u, and when the input value (u) is 1.0 or more. , And the output value (v) is a straight line 802 of v = k (u−1) +1. However, k is larger than 0.0 and smaller than 1.0. By using the activation converter, a halo having a brightness value greater than 1.0 can be made inconspicuous.

図8(b)は、曲線803の入出力特性を持った輝度値変換を示す。当該輝度値変換器は、(u,v)=(1.0,1.0)の周辺における曲線の傾きを連続的に変化させることによって出力画像が不自然になることを回避し、かつ、入力値(u)が1.0より大きくなるハローに対応する出力値(v)を小さく抑えることによって、ハローを目立たなくすることができる。また、入力値(u)が1.0よりも小さい場合、出力値(v)の値を入力値(u)の値よりも意図的に小さくする変換を行うことによって、透過像Id(x,y)において、希釈した造影剤等の薄い陰影が強調されるため、視認性を向上できる。   FIG. 8B shows the luminance value conversion having the input / output characteristic of the curve 803. The luminance value converter avoids the output image from becoming unnatural by continuously changing the slope of the curve around (u, v) = (1.0, 1.0), and By suppressing the output value (v) corresponding to the halo in which the input value (u) is larger than 1.0, the halo can be made inconspicuous. Further, when the input value (u) is smaller than 1.0, the transmission image Id (x, x is converted by intentionally making the value of the output value (v) smaller than the value of the input value (u). In y), since the thin shadow of the diluted contrast agent or the like is emphasized, the visibility can be improved.

なお、曲線803の具体的な入出力特性は、椎体403等の濃い陰影を弱める効果と、希釈した造影剤等の薄い陰影を強調する効果との兼ね合いに基づいて決定すればよい。例えば、事前の実験等によって、透過像における各物体の視認性を確認しながら特性を決定すればよい。   Note that the specific input / output characteristics of the curve 803 may be determined based on a balance between the effect of weakening the dark shadow of the vertebral body 403 and the like and the effect of emphasizing the thin shadow of the diluted contrast medium or the like. For example, the characteristics may be determined by confirming the visibility of each object in the transmission image by a preliminary experiment or the like.

輝度値の変換は、図8(a)および図8(b)に示すような入出力特性を持った、一次式、高次多項式、分数式、指数式、対数式、およびこれらを組み合わせた関数式で実現してもよいし、ルックアップテーブルによって実現できる。ルックアップテーブルの入出力特性は、実験的に決定すればよい。例えば、入力値(u)が1.0よりも大きい場合、ハローの見え方を確認しながら、出力値(v)が入力値(u)より小さくなるように設定し、入力値(u)が1.0よりも小さい場合、椎体403等の濃い陰影を弱める効果と、希釈した造影剤等の薄い陰影を強調する効果との兼ね合いに基づいて、出力値(v)を設定する。   The conversion of the brightness value is performed by a linear expression, a higher order polynomial expression, a fractional expression, an exponential expression, a logarithmic expression, and a function combining these, which have input / output characteristics as shown in FIGS. 8A and 8B. It may be realized by a formula or a look-up table. The input / output characteristics of the lookup table may be experimentally determined. For example, when the input value (u) is larger than 1.0, the output value (v) is set to be smaller than the input value (u) while checking the appearance of the halo, and the input value (u) is When it is smaller than 1.0, the output value (v) is set based on the balance between the effect of weakening the dark shadow of the vertebral body 403 and the like and the effect of emphasizing the thin shadow of the diluted contrast medium and the like.

<ハロー低減部の構成例>
図9は、実施例2のハロー低減部601の構成の一例を示すブロック図である。図10は、実施例2の画像処理部115が実行する処理の一例を説明するフローチャートである。
<Example of configuration of halo reduction section>
FIG. 9 is a block diagram illustrating an example of the configuration of the halo reduction unit 601 according to the second embodiment. FIG. 10 is a flowchart illustrating an example of processing executed by the image processing unit 115 according to the second embodiment.

ステップS1001からステップS1003までの処理は、ステップS301からステップS303までの処理と同一である。除算処理部202が算出した透過像Id(x,y)は、ハロー低減部601に入力される。   The processing from step S1001 to step S1003 is the same as the processing from step S301 to step S303. The transmission image Id (x, y) calculated by the division processing unit 202 is input to the halo reduction unit 601.

ハロー低減部601は、透過像Id(x,y)を所定の輝度値で減算する(ステップS1004)。これは、ハローは、透過像Id(x,y)において、輝度値が1.0よりも大きくなるという性質を持つためである。   The halo reduction unit 601 subtracts the transmission image Id (x, y) by a predetermined brightness value (step S1004). This is because the halo has a property that the luminance value becomes larger than 1.0 in the transmitted image Id (x, y).

具体的には、減算器901が、透過像Id(x,y)の各画素の輝度値を所定の輝度値で減算する。減算する輝度値は任意に設定できる。例えば1.0とする。   Specifically, the subtractor 901 subtracts the brightness value of each pixel of the transmission image Id (x, y) by a predetermined brightness value. The brightness value to be subtracted can be set arbitrarily. For example, set to 1.0.

ハロー低減部601は、各画素について、輝度値が正成分であるか否かを判定する(ステップS1005)。   The halo reduction unit 601 determines for each pixel whether or not the brightness value is a positive component (step S1005).

輝度値が正成分であると判定された場合、正成分抽出部902が、輝度値の大きさに応じて信号成分を抽出し、低周波成分抽出部903が、正成分抽出部902によって抽出された信号から低周波成分(低周波成分像)を抽出する(ステップS1006)。   When it is determined that the luminance value is a positive component, the positive component extraction unit 902 extracts a signal component according to the magnitude of the luminance value, and the low frequency component extraction unit 903 is extracted by the positive component extraction unit 902. A low frequency component (low frequency component image) is extracted from the obtained signal (step S1006).

正成分抽出部902は、例えば、式(8)にしたがって、入力値(u)から出力値(v)を算出する。式(8)は、入力値(u)および0のうち大きい値を出力する関数を表す。   The positive component extraction unit 902 calculates the output value (v) from the input value (u) according to the equation (8), for example. Expression (8) represents a function that outputs a larger value of the input value (u) and 0.

Figure 2020065614
Figure 2020065614

医師の手技に支障をきたすような強いハローは低周波成分が主体である。したがって、ハロー低減部601は、正成分の低周波成分をハローとして抽出する。   A strong halo that interferes with a doctor's procedure is mainly composed of low frequency components. Therefore, the halo reduction unit 601 extracts the low frequency component of the positive component as a halo.

なお、低周波成分抽出部903は、低周波成分抽出部201と同様に、2次元ローパスフィルタを用いて実現できる。なお、低周波成分抽出部903のタップ数(フィルタ長)および通過周波数特性は、抑えたいハローの周波数特性と一致するように決定してもよいし、ハローの見え方を確認しながら実験的に決定してもよい。   The low-frequency component extraction unit 903 can be realized by using a two-dimensional low-pass filter, like the low-frequency component extraction unit 201. The number of taps (filter length) and the pass frequency characteristic of the low frequency component extraction unit 903 may be determined so as to match the frequency characteristic of the halo to be suppressed, or experimentally while confirming the appearance of the halo. You may decide.

次に、ハロー低減部601の減算器905は、正成分抽出部902が抽出した信号から低周波成分を減算する(ステップS1007)。これによって、ハローを抑えることができる。全ての画素について処理が完了していない場合、ハロー低減部601はステップS1005に戻り、同様の処理を実行する。全ての画素について処理が完了している場合、ハロー低減部601はステップS1009に進む。   Next, the subtractor 905 of the halo reduction unit 601 subtracts the low frequency component from the signal extracted by the positive component extraction unit 902 (step S1007). This can suppress the halo. When the processing has not been completed for all pixels, the halo reduction unit 601 returns to step S1005 and executes the same processing. If the processing has been completed for all pixels, the halo reduction unit 601 proceeds to step S1009.

ステップS1005において、輝度値が負成分であると判定された場合、負成分抽出部904が、輝度値の大きさに応じて信号成分を抽出する(ステップS1008)。全ての画素について処理が完了していない場合、ハロー低減部601はステップS1005に戻り、同様の処理を実行する。全ての画素について処理が完了している場合、ハロー低減部601はステップS1009に進む。   When it is determined in step S1005 that the luminance value is the negative component, the negative component extraction unit 904 extracts the signal component according to the magnitude of the luminance value (step S1008). When the processing has not been completed for all pixels, the halo reduction unit 601 returns to step S1005 and executes the same processing. If the processing has been completed for all pixels, the halo reduction unit 601 proceeds to step S1009.

負成分抽出部904は、例えば、式(9)にしたがって、入力値(u)から出力値(v)を算出する。式(9)は、入力値(u)および0のうち小さい値を出力する関数を表す。   The negative component extraction unit 904 calculates the output value (v) from the input value (u) according to, for example, Expression (9). Expression (9) represents a function that outputs a smaller value of the input value (u) and 0.

Figure 2020065614
Figure 2020065614

ステップS1009では、加算器906が、減算器905および負成分抽出部904の各々の出力値を加算する(ステップS1009)。さらに、加算器907は、加算器906の出力値に所定の輝度値を加算する(ステップS1010)。   In step S1009, the adder 906 adds the output values of the subtractor 905 and the negative component extraction unit 904 (step S1009). Further, the adder 907 adds a predetermined brightness value to the output value of the adder 906 (step S1010).

次に、ハロー低減部601は、ルックアップテーブル908を用いて、希釈した造影剤等の薄い陰影の強調等を実現するための輝度値変換を実行する(ステップS1011)。   Next, the halo reduction unit 601 uses the look-up table 908 to execute the luminance value conversion for emphasizing the thin shadow of the diluted contrast agent or the like (step S1011).

ハロー低減部601は、表示部117に、処理された透過像Id(x,y)を出力し(ステップS1012)、処理を終了する。   The halo reduction unit 601 outputs the processed transmission image Id (x, y) to the display unit 117 (step S1012), and ends the processing.

なお、低周波成分抽出部903および減算器905は、高周波成分抽出器に置き換えてもよい。また、ステップS1011の処理は省略されてもよい。   The low frequency component extraction unit 903 and the subtractor 905 may be replaced with a high frequency component extractor. Further, the process of step S1011 may be omitted.

<実施例2のまとめ>
以上で述べたように、実施例2の放射線画像処理システム101は、手技用デバイス、造影剤の原液、および椎体のような太い骨などの周囲に発生するハローを抑えることができる。これによって、手技用デバイスの視認性がより向上するため、医師による手技を支障なく円滑に進めることができる。
<Summary of Example 2>
As described above, the radiation image processing system 101 according to the second embodiment can suppress the halo that is generated around the surgical device, the stock solution of the contrast agent, and the thick bone such as the vertebral body. This further improves the visibility of the procedure device, so that the procedure by the doctor can be smoothly advanced.

また、実施例1と同様に、画像処理部115が実行する処理は、演算時間が短いため、リアルタイムに画像を表示できる。また、画像処理部115が有する低周波成分抽出部201、除算処理部202、およびハロー低減部601は、汎用計算機を用いて実現でき、専用な計算機リソースを用意する必要がないため、コストを抑えることができる。   Further, as in the first embodiment, the processing executed by the image processing unit 115 can display an image in real time because the calculation time is short. Further, the low-frequency component extraction unit 201, the division processing unit 202, and the halo reduction unit 601 included in the image processing unit 115 can be realized by using a general-purpose computer, and it is not necessary to prepare a dedicated computer resource, so that the cost can be suppressed. be able to.

<全体のまとめ>
(i)以上で説明した本発明の一形態によれば、手技用デバイス等の視認性が向上した透過像をリアルタイムに得られる。手技用デバイスと、放射線を大きく減弱する骨等の被写体が重なるような手技において、不要なハローを目立たせずに、手技用デバイスの視認性を向上することができる。
<Overall summary>
(I) According to the embodiment of the present invention described above, it is possible to obtain a real-time transmitted image with improved visibility of a surgical device or the like. In a procedure in which the procedure device and a subject such as a bone that greatly reduces radiation overlap, the visibility of the procedure device can be improved without making unnecessary halos noticeable.

(ii)本発明を用いて実現した放射線画像処理システム100の適用先は、ERCPおよびEUS−BDに限定されない。これら以外にも、例えば、PFC(pancreateic and peripancreatic fluid collecions:膵炎に伴う膵および膵周囲液体貯留に対するドレナージ)、PTCD(percutaneous transhepatic cholangiodrainage:経皮経肝胆道ドレナージ)、シャント造影検査(血管造影検査)等のような幅広い適用先が考えられる。   (Ii) The application destination of the radiation image processing system 100 realized by using the present invention is not limited to ERCP and EUS-BD. In addition to these, for example, PFC (pancreatic and peripancreatic fluid collections: drainage for pancreas associated with pancreatitis and peri-pancreatic fluid retention), PTCD (percutaneous transpatient cholangiography) angiography (percutaneous transhepatic biliary tract) It can be applied to a wide range of applications such as.

(iii)なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。また、例えば、上記した実施例は本発明を分かりやすく説明するために構成を詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、各実施例の構成の一部について、他の構成に追加、削除、置換することが可能である。   (Iii) It should be noted that the present invention is not limited to the above-described embodiments, but includes various modifications. In addition, for example, the above-described embodiment is a detailed description of the configuration in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to one having all the configurations described. Further, a part of the configuration of each embodiment can be added, deleted, or replaced with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、本発明は、実施例の機能を実現するソフトウェアのプログラムコードによっても実現できる。この場合、プログラムコードを記録した記憶媒体をコンピュータに提供し、そのコンピュータが備えるプロセッサが記憶媒体に格納されたプログラムコードを読み出す。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施例の機能を実現することになり、そのプログラムコード自体、およびそれを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、CD−ROM、DVD−ROM、ハードディスク、SSD(Solid State Drive)、光ディスク、光磁気ディスク、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどが用いられる。   Further, each of the above-mentioned configurations, functions, processing units, processing means, etc. may be realized by hardware by designing a part or all of them with, for example, an integrated circuit. The present invention can also be realized by a program code of software that realizes the functions of the embodiments. In this case, the storage medium recording the program code is provided to the computer, and the processor included in the computer reads the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the program code itself and the storage medium storing the program code constitute the present invention. As a storage medium for supplying such a program code, for example, a flexible disk, a CD-ROM, a DVD-ROM, a hard disk, an SSD (Solid State Drive), an optical disk, a magneto-optical disk, a CD-R, a magnetic tape, A non-volatile memory card, ROM or the like is used.

また、本実施例に記載の機能を実現するプログラムコードは、例えば、アセンブラ、C/C++、perl、Shell、PHP、Python、Java(登録商標)等の広範囲のプログラムまたはスクリプト言語で実装できる。   The program code that implements the functions described in the present embodiment can be implemented in a wide range of programs or script languages such as assembler, C / C ++, perl, Shell, PHP, Python, and Java (registered trademark).

さらに、実施例の機能を実現するソフトウェアのプログラムコードを、ネットワークを介して配信することによって、それをコンピュータのハードディスクやメモリ等の記憶手段またはCD−RW、CD−R等の記憶媒体に格納し、コンピュータが備えるプロセッサが当該記憶手段や当該記憶媒体に格納されたプログラムコードを読み出して実行するようにしてもよい。   Furthermore, by distributing the program code of the software that realizes the functions of the embodiments via a network, the program code is stored in a storage means such as a hard disk or a memory of a computer or a storage medium such as a CD-RW or a CD-R. Alternatively, the processor included in the computer may read and execute the program code stored in the storage unit or the storage medium.

上述の実施例において、制御線や情報線は、説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。全ての構成が相互に接続されていてもよい。   In the above-mentioned embodiments, the control lines and information lines are shown to be necessary for explanation, and not all the control lines and information lines in the product are necessarily shown. All configurations may be connected to each other.

101 放射線画像処理システム
102 X線管
103 高電圧発生部
104 X線制御部
105 絞り
106 X線補償フィルタ
107 絞り/フィルタ制御部
108 被写体
109 テーブル
110 機構制御部
111 X線検出器
112 検出器制御部
113 記憶部
114 中央処理部
115 画像処理部
116 入力部
117 表示部
201、903 低周波成分抽出部
202 除算処理部
203 除算処理部
601 ハロー低減部
901、905 減算器
902 正成分抽出部
904 負成分抽出部
906、907 加算器
908 ルックアップテーブル
101 Radiation Image Processing System 102 X-ray Tube 103 High Voltage Generation Unit 104 X-ray Control Unit 105 Aperture 106 X-ray Compensation Filter 107 Aperture / Filter Control Unit 108 Subject 109 Table 110 Mechanism Control Unit 111 X-ray Detector 112 Detector Control Unit 113 storage unit 114 central processing unit 115 image processing unit 116 input unit 117 display unit 201, 903 low frequency component extraction unit 202 division processing unit 203 division processing unit 601 halo reduction unit 901, 905 subtractor 902 positive component extraction unit 904 negative component Extraction units 906 and 907 Adder 908 Look-up table

Claims (9)

被写体に放射線を照射して透過像を撮像する放射線画像処理システムであって、
第一透過像を生成する画像生成部と、
前記第一透過像の視認性を向上させるための処理を実行する画像処理部と、を備え、
前記画像処理部は、
前記第一透過像から低周波成分を抽出する低周波成分抽出部と、
前記第一透過像を前記低周波成分で除算する除算処理部と、
前記第一透過像のハローを低減するハロー低減部と、を含むことを特徴とする放射線画像処理システム。
A radiation image processing system for irradiating a subject with radiation and capturing a transmission image,
An image generation unit that generates a first transmission image,
An image processing unit that executes a process for improving the visibility of the first transmission image,
The image processing unit,
A low frequency component extraction unit for extracting a low frequency component from the first transmission image,
A division processing unit for dividing the first transmission image by the low frequency component,
And a halo reduction unit that reduces the halo of the first transmission image.
請求項1に記載の放射線画像処理システムであって、
画像を表示する表示部を備え、
前記第一透過像は、複数の画素の輝度値から構成される画像であり、
前記除算処理部は、前記第一透過像を前記低周波成分で除算することによって第二透過像を算出して、前記第二透過像を前記ハロー低減部に出力し、
前記ハロー低減部は、
前記第二透過像の各々の画素の輝度値を第一輝度値で減算して、第三透過像を算出し、
前記第三透過像において、輝度値が正となる画素を抽出することによって第四透過像を算出し、
前記第四透過像の低周波成分を抽出することによって第五透過像を算出し、
前記第五透過像および前記第一透過像を用いて、前記ハローが低減された第六透過像を算出し、
前記表示部に、前記第六透過像を出力することを特徴とする放射線画像処理システム。
The radiation image processing system according to claim 1, wherein
Equipped with a display unit that displays images,
The first transmission image is an image composed of luminance values of a plurality of pixels,
The division processing unit calculates a second transmission image by dividing the first transmission image by the low frequency component, and outputs the second transmission image to the halo reduction unit,
The halo reduction unit,
The brightness value of each pixel of the second transmission image is subtracted by the first brightness value to calculate a third transmission image,
In the third transmission image, a fourth transmission image is calculated by extracting pixels having a positive luminance value,
The fifth transmission image is calculated by extracting the low-frequency component of the fourth transmission image,
Using the fifth transmission image and the first transmission image, to calculate the sixth transmission image in which the halo is reduced,
The radiation image processing system, wherein the sixth transmission image is output to the display unit.
請求項2に記載の放射線画像処理システムであって、
前記ハロー低減部は、
前記第六透過像に対して、任意の特性を有する領域の輝度値を調整するための輝度値変換処理を実行することによって、第七透過像を算出し、
前記表示部に、前記第七透過像を出力することを特徴とする放射線画像処理システム。
The radiation image processing system according to claim 2, wherein
The halo reduction unit,
With respect to the sixth transmission image, a seventh transmission image is calculated by performing a luminance value conversion process for adjusting the luminance value of the region having an arbitrary characteristic,
The radiation image processing system, wherein the seventh transmission image is output to the display unit.
被写体に放射線を照射して透過像を生成する放射線画像処理システムが実行する画像処理方法であって、
前記放射線画像処理システムは、前記透過像を生成する画像生成部と、前記透過像の視認性を向上させるための処理を実行する画像処理部と、を有し、
画像処理方法は、
前記画像生成部が、第一透過像を生成する第1のステップと、
前記画像処理部が、前記第一透過像から低周波成分を抽出し、前記第一透過像を前記低周波成分で除算することによって第二透過像を算出する第2のステップと、
前記画像処理部が、前記第二透過像のハローを低減するための処理を実行する第3のステップと、を含むことを特徴とする画像処理方法。
An image processing method executed by a radiation image processing system that irradiates a subject with radiation to generate a transmission image,
The radiation image processing system includes an image generation unit that generates the transmission image, and an image processing unit that executes a process for improving the visibility of the transmission image.
The image processing method is
A first step in which the image generation unit generates a first transmission image;
A second step in which the image processing unit extracts a low-frequency component from the first transmission image and calculates a second transmission image by dividing the first transmission image by the low-frequency component;
The image processing unit includes a third step of performing a process for reducing a halo of the second transmission image, the image processing method.
請求項4に記載の画像処理方法であって、
前記放射線画像処理システムは、画像を表示する表示部を有し、
前記第一透過像は、複数の画素の輝度値から構成される画像であり、
前記第3のステップは、
前記画像処理部が、前記第二透過像の各々の画素の輝度値を第一輝度値で減算して、第三透過像を算出するステップと、
前記画像処理部が、前記第三透過像において、輝度値が正となる画素を抽出することによって第四透過像を算出するステップと、
前記画像処理部が、前記第四透過像の低周波成分を抽出することによって第五透過像を算出するステップと、
前記画像処理部が、前記第五透過像および前記第一透過像を用いて、前記ハローが低減された第六透過像を算出するステップと、
前記画像処理部が、前記表示部に、前記第六透過像を出力するステップと、を含むことを特徴とする画像処理方法。
The image processing method according to claim 4, wherein
The radiation image processing system has a display unit for displaying an image,
The first transmission image is an image composed of luminance values of a plurality of pixels,
The third step is
A step in which the image processing unit subtracts the brightness value of each pixel of the second transmission image by the first brightness value to calculate a third transmission image;
The image processing unit, in the third transmission image, a step of calculating a fourth transmission image by extracting pixels having a positive luminance value,
A step of calculating the fifth transmission image by extracting the low frequency component of the fourth transmission image, the image processing unit;
The image processing unit, using the fifth transmission image and the first transmission image, a step of calculating a sixth transmission image in which the halo is reduced,
The image processing section includes a step of outputting the sixth transmission image to the display section.
請求項5に記載の画像処理方法であって、
前記第3のステップは、
前記画像処理部が、前記第六透過像に対して、任意の特性を有する領域の輝度値を調整するための輝度値変換処理を実行することによって、第七透過像を算出するステップと、
前記画像処理部が、前記表示部に、前記第七透過像を出力するステップと、を含むことを特徴とする画像処理方法。
The image processing method according to claim 5, wherein
The third step is
The image processing unit, for the sixth transmission image, by performing a luminance value conversion process for adjusting the luminance value of the region having an arbitrary characteristic, a step of calculating a seventh transmission image,
The image processing section outputs the seventh transmission image to the display section, and the image processing method.
被写体に放射線を照射することによって生成された透過像を処理する計算機に実行させるためのプログラムであって、
第一透過像を受け付ける第1の手順と、
前記第一透過像から低周波成分を抽出し、前記第一透過像を前記低周波成分で除算することによって第二透過像を算出する第2の手順と、
前記第二透過像のハローを低減するための処理を実行する第3の手順と、を前記計算機に実行させることを特徴とするプログラム。
A program to be executed by a computer that processes a transmission image generated by irradiating a subject with radiation,
A first procedure for receiving a first transmission image,
A second step of calculating a second transmission image by extracting a low frequency component from the first transmission image and dividing the first transmission image by the low frequency component;
A program for causing the computer to execute a third procedure for executing a process for reducing the halo of the second transmission image.
請求項7に記載のプログラムであって、
前記計算機は、画像を表示する表示装置と接続し、
前記第一透過像は、複数の画素の輝度値から構成される画像であり、
前記第3の手順は、
前記第二透過像の各々の画素の輝度値を第一輝度値で減算して、第三透過像を算出する手順と、
前記第三透過像において、輝度値が正となる画素を抽出することによって第四透過像を算出する手順と、
前記第四透過像の低周波成分を抽出することによって第五透過像を算出する手順と、
前記第五透過像および前記第一透過像を用いて、前記ハローが低減された第六透過像を算出する手順と、
前記表示装置に前記第六透過像を出力する手順と、を含むことを特徴とするプログラム。
The program according to claim 7,
The computer is connected to a display device for displaying images,
The first transmission image is an image composed of luminance values of a plurality of pixels,
The third step is
A step of calculating a third transmission image by subtracting the luminance value of each pixel of the second transmission image by the first luminance value;
In the third transmission image, a procedure of calculating a fourth transmission image by extracting pixels having a positive luminance value,
A procedure of calculating a fifth transmission image by extracting the low frequency component of the fourth transmission image,
Using the fifth transmission image and the first transmission image, a procedure of calculating the sixth transmission image in which the halo is reduced,
A step of outputting the sixth transmission image to the display device, the program.
請求項8に記載のプログラムであって、
前記第3の手順は、
前記第六透過像に対して、任意の特性を有する領域の輝度値を調整するための輝度値変換処理を実行することによって、第七透過像を算出する手順と、
前記表示装置に前記第七透過像を出力する手順と、を含むことを特徴とするプログラム。
The program according to claim 8,
The third step is
With respect to the sixth transmission image, by performing a brightness value conversion process for adjusting the brightness value of the region having an arbitrary characteristic, a procedure of calculating a seventh transmission image,
And a step of outputting the seventh transmission image to the display device.
JP2018198752A 2018-10-22 2018-10-22 Radiation image processing system, image processing method, and program Active JP7150558B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018198752A JP7150558B2 (en) 2018-10-22 2018-10-22 Radiation image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018198752A JP7150558B2 (en) 2018-10-22 2018-10-22 Radiation image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2020065614A true JP2020065614A (en) 2020-04-30
JP7150558B2 JP7150558B2 (en) 2022-10-11

Family

ID=70388852

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018198752A Active JP7150558B2 (en) 2018-10-22 2018-10-22 Radiation image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7150558B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022264468A1 (en) * 2021-06-18 2022-12-22 株式会社日立製作所 Radiological image processing device, image processing method, and system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006223891A (en) * 2006-05-15 2006-08-31 Konica Minolta Holdings Inc Radiation image processor
JP2013215593A (en) * 2013-06-10 2013-10-24 Canon Inc Image processor, image processing system, image processing method, and memory medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3733260B2 (en) 1999-04-30 2006-01-11 キヤノン株式会社 Image processing apparatus and image processing method
JP4059257B2 (en) 2005-04-26 2008-03-12 コニカミノルタホールディングス株式会社 Radiation image processing method and radiation image processing apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006223891A (en) * 2006-05-15 2006-08-31 Konica Minolta Holdings Inc Radiation image processor
JP2013215593A (en) * 2013-06-10 2013-10-24 Canon Inc Image processor, image processing system, image processing method, and memory medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022264468A1 (en) * 2021-06-18 2022-12-22 株式会社日立製作所 Radiological image processing device, image processing method, and system

Also Published As

Publication number Publication date
JP7150558B2 (en) 2022-10-11

Similar Documents

Publication Publication Date Title
JP7194143B2 (en) Systems and methods to facilitate review of liver tumor cases
US7869637B2 (en) Histogram calculation for auto-windowing of collimated X-ray image
JP2010162278A (en) X-ray image diagnostic apparatus
JP5341471B2 (en) Radiographic image processing apparatus, image processing method, X-ray fluoroscopic apparatus, and control method thereof
JP4512313B2 (en) Automatic optimization imaging system and method
JP2012517267A (en) Medical display system for displaying X-ray images
JP2017221483A (en) Medical image processing device and program
JP7150558B2 (en) Radiation image processing system, image processing method, and program
US10079003B2 (en) Method and device for imaging a region of interest
CN109118468B (en) Method, system, equipment and storage medium for fusing X-ray esophageal radiography images
JP4830564B2 (en) Medical imaging system
JPWO2020059306A1 (en) Image processing device, image processing method, and image processing program
JP6776171B2 (en) Radiation imaging device, image processing device and image processing program
JP6956554B2 (en) X-ray diagnostic equipment and image processing program
JP4692245B2 (en) Phase contrast X-ray imaging system for asbestos and phase contrast X-ray imaging method for asbestos
JP7366870B2 (en) Learning device, method and program, trained model, and radiographic image processing device, method and program
US11813095B2 (en) Radiation imaging apparatus, radiation imaging method, and non-transitory computer-readable storage medium
JP2006255217A (en) X-ray image diagnostic apparatus
CN112137634A (en) X-ray imaging method, device, equipment and medium
JP2007244738A (en) Medical image system
JP2020031857A (en) X-ray diagnostic apparatus
JP2009054013A (en) Image processor
JP2014068815A (en) Medical image display device, control method for the same and program
JPH10229519A (en) X-ray image digital processor
CN112438743B (en) Radiation image processing system and image processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210226

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20210311

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210617

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20211027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R150 Certificate of patent or registration of utility model

Ref document number: 7150558

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150