JP2005007061A - Image processor, image processing system, image processing method, memory medium and program - Google Patents

Image processor, image processing system, image processing method, memory medium and program Download PDF

Info

Publication number
JP2005007061A
JP2005007061A JP2003176991A JP2003176991A JP2005007061A JP 2005007061 A JP2005007061 A JP 2005007061A JP 2003176991 A JP2003176991 A JP 2003176991A JP 2003176991 A JP2003176991 A JP 2003176991A JP 2005007061 A JP2005007061 A JP 2005007061A
Authority
JP
Japan
Prior art keywords
image
ray
imaging
image processing
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003176991A
Other languages
Japanese (ja)
Inventor
Sanemasa Hayashida
真昌 林田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003176991A priority Critical patent/JP2005007061A/en
Publication of JP2005007061A publication Critical patent/JP2005007061A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an X-ray image photographing apparatus or system for preventing the structure around a sensor from being photographed in an image and causing no blur in the image even if the image is photographed by low X-ray energy when oblique photographing is performed in the photographing of an X-ray image. <P>SOLUTION: This X-ray image photographing apparatus or system has an imaging means 40 for acquiring the image of a subject 50 from the radiation transmitted through the subject 50, the installation means 4 installed in the imaging range of the imaging means 40, a position detecting means 51 for detecting the position of the installation means 4, which is obtained by photographing with the imaging means 40, of the installation means 4, an angle acquiring means for acquiring the incident angle of radiation to the imaging means 40 on the basis of the detection result and an image processing means 26 for processing the photographed image of the subject 50 on the basis of the incident angle of radiation obtained by the angle acquiring means. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、固体撮影素子を使用するX線画像撮影に用いられる、画像処理装置、画像処理システム、画像処理方法、それを実施するためのプログラムを記憶したコンピュータ読出可能な記憶媒体、及び当該プログラムに関するものである。
【0002】
【従来の技術】
従来より例えば、X線撮影装置では、X線源から被分析対象(医療患者等)に対しX線ビームを投射し、当該被分析対象の撮像画像情報を、例えば、スクリーンフィルムカセッテや、フィルムオートチェンジャ、CR(Computed radiography)、或いはFPD(Flat Panel Detector)等を用いて取得する。
【0003】
一般の民生機器における情報処理ではデジタル処理が普及しているが、X線撮影装置によって被分析対象を撮像して得られた当該被分析対象のX線画像についても、上記民生機器と同様に、デジタル化が急速に進んでいる。
【0004】
特に、最近では、FPDと称されるような、受像手段として、微小な光電変換素子やスイッチング素子等からなる画素を格子状に配列した光電変換装置を用いることによって、被分析対象(被写体)のデジタル画像を取得する技術が開発されている。
【0005】
例えば、X線撮影で上記光電変換装置を用いる利点としては、以下の点が挙げられる。
【0006】
(1)被写体の撮影画像情報をデジタル画像データとして直接取得できるため、画像処理(例えば、不適当な撮影条件で撮影した場合の画像補正や特定画像領域の画像強調等の画像処理)を容易に行うことができる。
【0007】
(2)光電変換装置への画像通信手段として、例えば大容量の通信回線等を利用することにより、大病院等の専門医師が不在の遠隔地域に居住する患者の診断を、通信回線を介して光電変換装置に送信された当該患者の画像情報を基に行うことができる。
【0008】
(3)被写体のデジタル画像データを、例えば光磁気ディスク等に保存することにより、被写体のX線フィルムを保存する場合と比較して、その保存スペースを小さくすることができる。
【0009】
(4)デジタル画像データの場合、過去に撮影して取得した画像データを容易に検索することができるため、X線フィルムの検索の場合と比較し、迅速に所望の画像データを参照することができる。
【0010】
上述したような利点を有する光電変換装置であるが、さらに最近では、例えば特許文献1等で提案されているような、カセッテと呼ばれる小型かつ薄型の撮影装置の実現が可能となってきた。
【0011】
具体的には、カセッテは、一般に軽量であるため運搬が可能であり、任意の場所に設置できることから、カセッテによるX線画像撮影においては、各種の撮影法を用いることが可能となる。特に、カセッテに対しカセッテ支持装置(例えば、立位スタンドや臥位テーブル等)を使用する場合、予めカセッテが装填される位置が明確となることから、例えば立位スタンド表板に刻印された目盛り線を目安に、患者並びにX線源の位置合わせを行うことができる。
【0012】
また、立位スタンド又は臥位テーブルは、カセッテに対しそれぞれ垂直又は水平に装填されるため、例えば、X線源をカセッテにおける角度調整機構のクリック位置等に固定する構成にすることで、X線源の傾き角度を正確に設定することができる。
【0013】
またカセッテは、例えば、肩関節等の撮影に使用されるジョナー位像撮影法のように、傾斜して撮影(斜め撮影)する場合にも適用が可能であるが、この斜め撮影の際のX線入射斜め角度情報を得る構成として、加速度センサを用いた構成が、例えば特許文献2等に記載されている。また、X線入射斜め角度情報を得るためのその他の方法としては、例えば、ジャイロセンサを用いる方法やカメラを用いる方法が挙げられている。
【0014】
【特許文献1】
特開平6−342099号公報
【特許文献2】
特開2000−23955号公報
【0015】
【発明が解決しようとする課題】
しかしながら、上述したような従来のX線画像撮影装置において、例えば斜め撮影を行う場合、以下のような問題点があった。
【0016】
(1)特に、低X線エネルギーによって撮影する場合は、X線画像撮影装置のカバーや、蛍光体、或いは衝撃吸収材等の構造が画像に写ってしまうという問題があった。
【0017】
(2)X線が蛍光体に対し斜めに入射することで蛍光体の実効的な厚さが変化するため、画像がぼけてしまうという問題があった。また、当該画像のボケを解消するための画像処理において、画像のボケを考慮した適切な画像処理パラメータを選択することができなかった。
【0018】
(3)特に低X線エネルギーによって撮影する場合は、センサ(受光手段)前面にある物質の構造ムラが画像に写り易いという問題があった。
【0019】
ここで、上記(3)の問題を解決するための構成として、例えば、画素ごとの感度差を補正するための白撮影を行う構成が考えられる。
白撮影による白補正とは、画素毎に異なるゲインを補正することである。白補正に用いる白画像としては、被写体の正面からセンサ全面に照射された複数の画像の平均画像を用いる。このような白補正により、X線量子ノイズの影響を減少させることができる。
【0020】
すなわち、画素ごとに感度差を補正する白撮影方法により、各画素のゲインばらつきを補正できると共に、X線管球の照射ムラ、グリッドの透過ムラ、及びフォトタイマの透過ムラ等も同時に補正できるため、アナログ写真よりも更に均一な画像を取得することが可能であるという長所を有する。
【0021】
しかしながら、上記の白補正で行われている、被写体の正面を撮影して得られた白画像を用いる構成では、被写体を正面以外の斜め方向から撮影した場合、センサ前面、センサ後面、及び周囲の構造物(具体的には例えば、センサ前方の付加フィルタ、カバー、衝撃吸収材や、またセンサ後方のX線モニタ、層構造物のリブ、電子部品、及びPCB等の構造物)の材料ムラが、撮影に使用するX線エネルギーの大きさ(例えば、80kVp以下の低エネルギー)によっては、画像に写ってしまうという問題があった。
【0022】
このような被写体の斜め撮影によって、上記のセンサまわりの各構造物の材料ムラが画像に写る原因は、各構造物について撮影画像での位置と白画像での位置がずれているためである。
【0023】
すなわち、X線画像撮影装置で撮影した画像に対して白補正を施すにあたり、斜め撮影によって取得した画像に基づいて撮影画像を白補正すると、センサまわりの構造物の材料ムラが画像に表れやすいという問題がある。
【0024】
そこで、本発明は、上記問題点を解決するために成されたもので、放射線画像撮影において斜め撮影を行う場合であっても、良好な撮影画像を取得することができる、画像処理装置、画像処理システム、画像処理方法、それを実施するためのプログラムを記憶したコンピュータ読出可能な記憶媒体、及び当該プログラムを提供することを目的とする。
【0025】
具体的には例えば、斜め撮影の際、低X線エネルギーによって撮影する場合であっても、センサ周囲の構造物が画像に写らず、また画像のボケが生じないX線画像を得られることができるようにする。
【0026】
【課題を解決するための手段】
斯かる目的下において、本発明は、被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像手段と、上記撮像手段における撮像範囲に設置される設置手段を、上記撮像手段により撮像して得られた当該設置手段の画像位置を検出する位置検出手段と、上記検出結果に基づき、上記撮像手段に対する放射線入射角度を取得する角度取得手段と、上記取得手段で得られた上記放射線入射角度に基づき、上記被写体の撮像画像に対して画像処理を行う画像処理手段とを有することを特徴とする。
【0027】
また、本発明は、被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像ステップと、上記撮像ステップにおける撮像範囲に設置される設置手段を、上記撮像ステップにより撮像して得られた当該設置手段の画像位置を検出する位置検出ステップと、上記検出結果に基づき、上記撮像ステップにおける撮像の際の放射線入射角度を取得する角度取得ステップと、上記取得ステップで得られた上記放射線入射角度に基づき、上記被写体の撮像画像に対して画像処理を行う画像処理ステップとを含むことを特徴とする。
【0028】
また、本発明は、コンピュータに所定の手段として機能させるためのプログラムであって、上記所定の手段は、被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像手段と、上記撮像手段における撮像範囲に設置される設置手段を、上記撮像手段により撮影して得られた当該設置手段の画像位置を検出する位置検出手段と、上記検出結果に基づき、上記撮像手段に対する放射線入射角度を取得する角度取得手段と、上記取得手段で得られた上記放射線入射角度に基づき、上記被写体の撮像画像に対して画像処理を行う画像処理手段とを備えることを特徴とする。
【0029】
また、本発明は、上記に記載のプログラムをコンピュータ読出可能な記憶媒体に記録したことを特徴とする。
【0030】
また、本発明の画像処理装置は、被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像手段と、上記撮像手段に対する放射線入射角度を取得する角度取得手段と、上記角度取得手段で得られた上記放射線入射角度に基づき、上記被写体の撮像画像に対して画像処理を行う画像処理手段とを有することを特徴とする。
また、本発明の他の特徴とするところは、被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像手段と、上記撮像手段に対する放射線入射角度を取得する角度取得手段とを有することを特徴とする。
【0031】
【発明の実施の形態】
以下、本発明の画像処理装置、画像処理システム、画像処理方法、記憶媒体、及びプログラムの実施の形態について図面を用いて説明する。
[第1の実施の形態]
本発明は、例えば、図1に示すような、X線画像撮影システム1に適用される。
以下、本実施の形態のX線画像撮影システム1の構成及び動作について、具体的に説明する。
【0032】
<X線画像撮影システム1の構成>
図1に示すX線画像撮影システム1は、X線室10、X線制御室12、及び診断室(その他の操作室を含む)14を含む構成としている。
【0033】
まず、X線室10の構成について説明する。
X線室10には、X線を発生するX線発生器40、被検体(患者)50、撮影用寝台48、X線検出器52を含むX線検出系51、及び薄型X線検出器152等が設置される。
【0034】
X線発生器40は、例えば、X線を発生するX線管球42、X線管球42を駆動する高圧発生電源44、X線管球42より発生されたX線ビームを所望の撮影領域に絞り込むX線絞り46、及びCCDカメラ47等を備えている。
【0035】
撮影用寝台48は、被検体(患者等)50を設置するための寝台である。撮影用寝台48は、後述するX線制御室12内の撮影制御器24から発信される制御信号により駆動される。
また、このような撮影用寝台48の駆動により、X線発生器40から発生されるX線ビームに対して、被検体50の向きを変更することができる。
【0036】
X線検出系51は、X線検出器52及び駆動器62等を含んだ構成としている。
【0037】
X線検出器52は、例えば、X線露光量モニタ60の上部に、グリッド54、シンチレータ56、及び光検出器アレー58を備えた積層体構造を有し、この構造により、被検体50及び撮影用寝台48を透過したX線ビームを検出する。
【0038】
グリッド54は、X線が被検体50を透過することによって生じるX線散乱の影響を低減する。また、グリッド54は、X線の低吸収部材及び高吸収部材を備え、例えば、AlとPbのストライプ構造からなる。
【0039】
シンチレータ56では、エネルギーの高いX線によって蛍光体の母体物質が励起(吸収)され、その再結合エネルギーにより可視領域の蛍光が発生する。
すなわち、シンチレータ56は、X線発生器40から発生するX線を可視光に変換する。
このようなシンチレータ56において、蛍光体が励起こされ再結合エネルギーにより発生する蛍光は、例えば、CaWo4やCdWo4等の母体自身、或いはCsI:TlやZnS:Ag等の母体内に付加された発光中心物質により生じる。
【0040】
尚、X線画像撮影システム1で最も良く用いられている蛍光体としては、例えばCsIの柱状結晶が挙げられる。CsIの柱状結晶を用いる場合、正面撮影において、蛍光が柱状の結晶の方向に伝播しやすくなる。
【0041】
光検出器アレー58は、シンチレータ56からの可視光を電気信号に変換する。
【0042】
駆動器62は、光検出器アレー58を駆動すると共に、グリッド54を振動させる駆動源としても用いられ、X線照射時において、X線制御室12の撮影制御器24の指令に基づいて駆動器62の制御信号を出力しグリッド54を振動させる。これは、光検出器アレー58とグリッド54との格子比の関係により、X線画像にモアレが生じないようにするためである。
また、駆動器62は、撮影制御器24の指令に基づき、光検出器アレー58の各画素から信号を読み出す。
【0043】
尚、X線撮影者の選択により、グリッド54を振動させるか否かを決定し、グリッド54を固定させて被検体50を撮影することもできる。グリッド54を固定させた状態で被検体50を撮影する場合は、光検出器アレー58とグリッド54との格子比の関係により、エリアシングやビート等のモアレが発生しにくいようにグリッド54を設定することが望ましい。
また、グリッド縞そのものがX線画像に写るが、画像処理によってグリッド縞の周波数を弱めるような処理をすることも望ましい。
【0044】
X線露光量モニタ60は、光検出器アレー58の基板裏面に成膜されたアモルファスシリコン受光素子を含んだ構成としており、光検出器アレー58を透過した過視光(X線量に比例する過視光)を検知して、その光量情報をX線制御室12の撮影制御器24に供給する。これにより、撮影制御器24は、X線露光量モニタ60からの情報に基づいてX線発生器40に含まれる高圧発生電源44を制御し、X線量を調節する。
【0045】
尚、X線露光量モニタ60は、X線透過量を監視する目的で設置され、結晶シリコンの受光素子等を用いて直接X線を検出する構成としても、或いはシンチレータ56により蛍光を検出する構成としてもよい。
【0046】
また、本実施の形態では、シンチレータ56と光検出器アレー58とを別々に設ける構成としたが、例えば、直接、X線を電気信号に変換するようになされた検出器を設ける構成としても良い。X線を、直接的に電気信号に変換する検出器としては、例えば、アモルファスSeやPbI2等の受光部とアモルファスシリコンTFT等からなるX線検出器等が挙げられる。
【0047】
X線ビームを検出するには、X線検出器52の他に、図1に示すように、薄型X線検出器152も用いられる。
薄型X線検出器152は、X線検出器52と同様に、シンチレータ56、光検出器アレー58、及びX線露光量モニタ60等を含む積層体と共に、光検出器アレー58を駆動する駆動器62等を備えている。
また、薄型X線検出器152は、例えば四肢等を撮影する場合、システム制御器20と接続する他の薄型X線検出器152と、中継器153を介して接続する。
【0048】
上述したX線検出器52と薄型X線検出器152との相違点としは、次のような点が挙げられる。
(1)薄型X線検出器152は、X線検出器52と比較して、その厚さが薄く、例えば、フィルムスクリーン系カセッテと同様の約20mm以下の厚さである。
(2)薄型X線検出器152には、グリッド54が内蔵されていない。
(3)薄型X線検出器152は、簡易電源かつ大容量(例えば10画像以上20画像以下)メモリを内蔵している。
(4)薄型X線検出器152は、画像信号及び制御信号の送受信を、中継器153とケーブルレスで行うことができる。
【0049】
尚、薄型X線検出器152は、複数種類のセンサの中の1つに限定されず、例えば、異なる空間分解能のセンサや、薄型X線検出器152の大きさ(撮影領域の大きさ)の異なるセンサ等と交換して使用することができる。
また、ケーブル154が薄型X線検出器152に接続されていない場合でも、薄型X線検出器152の動作は可能である。ケーブル154を使用した場合は、画像処理器26への画像転送を高速に実行できるため、X線撮影後の被写体についての画像取得、画像処理、及び画像確認の処理がより短い時間で行われる。
【0050】
つぎに、X線制御室12の構成について説明する。
X線制御室12は、操作者21、モニタディスプレイ(以下、モニタと略す)30、操作者インターフェース22、及びシステム制御器20等を含む構成としている。
【0051】
モニタ30は、撮影画像を表示する。
操作者インターフェース22は、操作者21が種々の指令をシステム制御器20に入力するのに使用され、X線曝射要求SW、タッチパネル、マウス、キーボード、ジョイスティック及びフットスイッチ(不図示)等を含む構成である。
【0052】
操作者21は、例えば、モニタ30に表示された撮影画像を参照しながら、操作者インターフェース22を介し、システム制御器20に対する指令情報(例えば、撮影条件(静止画/動画、X線管電圧、管電流及びX線照射時間等)、撮影タイミング、画像処理条件、被検者ID、及び取込み画像の処理方法等に関する条件)を入力する。
【0053】
システム制御器20は、X線画像撮影システム1全体の動作制御を司るものであり、撮影制御器24、画像処理器26、記憶装置28、表示制御器32、外部記憶装置34、及びLANボード36を含んで構成している。
【0054】
撮影制御器24は、上述したX線室10に設置されるX線検出系51を制御する。
【0055】
画像処理器26は、X線検出系51で得られた画像データに対して、画像処理(例えば、照射野認識、画像データの補正、空間フィルタリング、リカーシブ処理、階調処理、散乱線補正、及びダイナミックレンジ(DR)圧縮等)を施す。
【0056】
記憶装置28は、画像処理器26が処理した画像データを、大量かつ高速に記憶し、例えば、RAID等のハードディスクアレー等を含む構成である。
【0057】
表示制御器32は、種々の文字及び画像をモニタ30上に表示するための制御を行う。
外部記憶装置34は、例えば、光磁気ディスク等の大容量の記憶装置である。
【0058】
LANボード36は、X線制御室12の装置と、診断室14の装置とを接続し、X線室10で撮影した撮影画像を診断室14の装置に転送する。
【0059】
つぎに、診断室14の構成について説明する。
診断室14は、画像処理端末70、映像表示モニタ72、イメージ・プリンタ74、及び画像データを格納するファイル・サーバ76を含む構成としている。
【0060】
画像処理端末70は、上述したLANボード36からの画像を、画像処理又は診断支援するための端末装置であり、操作者21によって撮影被検体50の情報及び撮影方法等を指示するために、LANボード36を経由してHIS/LIS等と接続される。
【0061】
映像表示モニタ72は、LANボード36からの画像(動画像/静止画)を表示し、モニタ30上に表示されるX線入射角度情報8は、映像表示モニタ72にも表示される。
【0062】
尚、システム制御器20と接続する各機器を動作制御するための制御信号は、操作者21が、X線制御室12内の操作者インターフェース22、或いは診断室14内にある画像処理端末70を操作することにより出力される。
【0063】
<X線画像撮影システム1の基本的な動作>
図1に示すX線画像撮影システム1の基本的な動作を説明する。
X線発生器40の高圧発生電源44は、撮影制御器24からの制御信号に従って、X線管球42に対しX線発生のための高電圧を印加する。これにより、X線管球42はX線ビームを発生する。
【0064】
X線管球42により発生されたX線ビームは、X線絞り46を介して、被検体(患者等)50に照射される。撮影制御器24は、照射すべきX線ビームの位置に応じてX線絞り46を制御する。したがって、X線絞り46は、X線撮影領域に変更があった場合、不必要な箇所にX線照射を行わないようにするためX線ビームの整形を行う。
【0065】
X線発生器40によって出力されるX線ビームは、撮影用寝台48上に設置された被検体50、及びその撮影用寝台48を透過して、X線検出器52に入射する。このとき、撮影制御器24は、被検体50の異なる部位又は方向にもX線ビームが透過するように、撮影用寝台48を動作制御する。
【0066】
グリッド54は、光検出器アレー58とグリッド54との格子比の関係によってモアレを発生させないために、撮影制御器24の指令によって振動する。
【0067】
シンチレータ56は、照射されたX線を蛍光体の母体物質が吸収し、その際に発生した再結合エネルギーにより、可視領域の蛍光を発生する。
シンチレータ56に隣接して配置された光検出器アレー58は、シンチレータ56で発生する蛍光を電気信号に変換する。
即ち、シンチレータ56は、X線像を可視光像に変換し、光検出器アレー58は、当該可視光像を電気信号に変換する。
【0068】
X線露光量モニタ60は、光検出器アレー58を透過したX線量に比例する可視光を検出し、その検出量情報を撮影制御器24に伝える。
撮影制御器24は、X線露光量モニタ60が検出する上記X線露光量情報に基づき、高圧発生電源44を制御して、X線を遮断又はX線量を調節する。
【0069】
駆動器62は、撮影制御器24の制御信号に基づき、光検出器アレー58を駆動し、X線検出器52又は薄型X線検出器152から画素信号を読み込む。
【0070】
撮影制御器24は、駆動器62によってX線検出器52及び薄型X線検出器152から読み込んだ画素信号を、X線制御室12内の画像処理器26へ出力する。
この場合、X線室10内はX線発生に伴うノイズが大きいことから、X線検出器52から画像処理器26への信号伝送路は、耐雑音性の高い伝送路であることが必要となる。このため、例えば、上記信号伝送路には、高度の誤り訂正機能を具備するデジタル伝送系や、差動ドライバによるシールド付きのより対線又は光ファイバを用いることが望ましい。
【0071】
画像処理器26は、後述するように、システム制御器20からの指令に基づき画像信号の表示形式を切替える。また、画像処理器26は、画像信号の補正、空間フィルタリング、及びリカーシブ処理等をリアルタイムで行い、階調処理、散乱線補正、及びDR圧縮処理等を実行する。
【0072】
画像処理器26により処理された画像は、モニタ30の画面に表示される。また、モニタ30の画面に表示されるリアルタイム画像とともに、画像処理器26で画像補正の処理のみが施された画像情報(基本画像情報)は、記憶装置28に保存される。
また、記憶装置28に格納される画像情報は、操作者21の指示に基づいて、所定の規格(例えば、Image Save&Carry(IS&C))を満たすように再構成された後に、外部記憶装置34及びファイル・サーバ76内のハードディスク等に格納される。
【0073】
X線制御室12の各装置は、LANボード36を介してLAN(又はWAN)に接続されているため、LANボード36は、所定のプロトコル(例えば、Digital Imaging and Communications in Medicine(DICOM)等)に従って、画像データを任意のモニタ等に出力する。
このため、LAN(又はWAN)に接続された映像表示モニタ72の画面に、X線画像の高解像静止画及び動画を表示できるように構成することで、X線撮影とほぼ同時に、映像表示モニタ72の画面を参照する医師によるリアルタイム遠隔診断が可能になる。
【0074】
尚、LANには、複数のX線画像撮影システム1を接続できることは勿論である。
【0075】
<システム制御器20の基本的な動作>
図1に示すX線制御室12内のシステム制御器20の基本的な動作を説明する。
システム制御器20は、X線撮影系のシーケンスを制御する撮影制御器24に対して、操作者21の指示に基づいた撮影条件を指令する。撮影制御器24は、システム制御器20からの指令に基づき、X線発生器40、撮影用寝台48、及びX線検出器52を駆動制御し、被検体50をX線撮影する制御を行う。
【0076】
この場合、X線検出器52より出力されるX線画像は、画像処理器26に供給され、操作者21の指定する所定の画像処理が画像処理器26で施される。
画像処理器26により画像処理された画像処理データ(X線画像データ)は、モニタ30に表示される。また、上記画像データは、基本画像データとして記憶装置28に格納される。
【0077】
システム制御器20は、操作者21によって再度、画像処理が指示された場合、該当する画像処理を画像データ(X線画像データ)に対して施し、その画像処理結果をモニタ30へ表示する。また、システム制御器20は、ネットワーク77を介してシステム制御器20と接続する各種装置に対し、画像データの転送、保存、映像表示、及びフィルム印刷等のための制御を行う。
【0078】
尚、システム制御器20と接続するための手段としては、ネットワーク77に限らず、画像処理データの転送等を行うことが可能な他の通信ネットワークにも適用可能である。
【0079】
図2に、画像処理器26のブロック構成を示す。
図2に示すように、画像処理器26は、データパスを選択するマルチプレクサ801、X線画像用フレームメモリ802、暗画像用フレームメモリ803、オフセット補正回路804、ゲイン補正データ用フレームメモリ805、ゲイン補正用回路806、欠陥補正回路807、及びその他の画像処理回路808を含んだ構成としている。
【0080】
上述したように、X線検出系51の光検出器アレー58により、X線は電気信号の画像データに変換され、当該画像データの各画素の信号は、駆動器62によってX線検出器52又は薄型X線検出器152から読み出されて画像処理器26へ出力される。
【0081】
この場合、光検出器アレー58のX線画像取得フレーム(Frxoフレーム)で取得されたX線画像は、図2に示す画像処理器26内のマルチプレクサ801を経由してX線画像用フレームメモリ802に記憶される。また、光検出器アレー58の補正画像取得フレーム(Frnoフレーム)で取得された補正画像は、マルチプレクサ801を経由して暗画像用フレームメモリ803に記憶される。
画像処理器26で、暗画像用フレームメモリ803を用いるのは、光検出器アレー58の固体パターンノイズを補正するためである。
【0082】
駆動器62によってX線検出器52等より読み出され画像処理器26に出力された画像データが、フレームメモリ802、803へ記憶されると、画像処理器26内のオフセット補正回路804は、当該画像データに対しオフセット補正(例えば、Frxo−Frno)を行う。さらに、オフセット補正回路804は、予め取得してゲイン補正データ用フレームメモリ805に記憶してあるゲイン補正用データFgに基づき、当該画像データに対しゲイン補正(例えば、(Frxo−Frno)/Fg)を行う。
【0083】
上記のようなゲイン補正回路806が、画像データに対してゲイン補正を行う目的は、光検出器アレー58の画素毎の感度差を補正すると共に、センサ前面にある衝撃吸収材78、グリッド54、及び上カバー80等の材質ムラも、上記ゲイン補正によって同時に補正するためである。
【0084】
尚、ゲイン補正を行うためのX線撮影をキャリブレーション又は白撮影と呼び、ゲイン補正用データ又はゲイン画像をキャリブレーション画像又は白画像とも呼ぶこととする。
【0085】
ゲイン補正回路806によりゲイン補正が施された画像データは、さらに欠陥補正回路807に転送される。補正回路807は、X線検出器52におけるセンサに起因する部分の補正処理を行う。例えば、この補正回路807は、不感画素や複数パネルで構成されるX線検出器52のつなぎ目部等に対応する画像に不自然さを生じさせないようにするために、画像データを連続的に補間する。
【0086】
尚、本実施の形態では、画像処理器26をシステム制御器20内に設けるように構成したが、上述の光検出器アレー58に大きく依存する画像処理機能については、当該画像処理機能を具備する画像処理器26を、X線検出器52又は薄型X線検出器152に内蔵させるように構成しても良い。
【0087】
画像処理回路808は、画像データに対し、一般的な画像処理(例えば、階調処理、周波数処理、強調処理等)を施し、表示制御器32に画像処理済データを転送する。モニタ30は、表示制御器32から転送されたデータを撮影画像として表示する。
【0088】
<X線入射斜め角度の算出処理>
従来では、斜め撮影の際、特に低X線エネルギー撮影の場合、X線撮像装置のカバーや蛍光体等の構造物がX線画像に写ってしまう。そこで本実施の形態ではこれを解消するために、例えばX線が入射するその入射角度(X線入射斜め角度)を算出し、このX線入射斜め角度を用いて、画像上に現れる上記構造物の像を補正する。
【0089】
すなわち、本実施の形態では、撮影領域内に任意の構造物(以下、「特定構造物」という)を設置してX線撮影をし、画像上に映る当該構造物の画像上の位置情報を用いて、X線入射斜め角度を算出する。尚、図5に、特定構造物4がグリッド54や光検出器アレー58上に設置された状態を示す。
【0090】
図3は、X線入射斜め角度(以下、単に「角度」ともいう)を算出するための角度情報検出処理の動作フローを示す。図3で示される角度情報検出処理は、図2に示す画像処理器26に含まれる画像処理回路808の中で行われるものである。
【0091】
図3に示すように、画像処理回路808は、被検体50に対する正面撮影及び斜め撮影(以下、「今回撮影」ともいう)から得られる2つの画像データに基づき、角度情報(X線入射斜め角度)を算出する。
今回撮影とは、X線撮影において、一般的に行われる通常撮影を指す。また、正面撮影は、角度検出の基準となる特定構造物4の位置座標を求めるために行う撮影である。
【0092】
ステップS300:
斜め撮影(今回撮影)では、X線発生器40は、被検体50に対してX線を照射しX線撮影するが、通常は、図4に示すX線3のように、X線ビームは、被検体50に対して任意の斜め方向に入射する。
ステップS301:
画像処理器26は、ステップS300の今回撮影によって、図4に示すような特定構造物4の画像データを含む撮影画像データを取得する。特定構造物4は、被検体50と同時にX線撮影され、画像処理器26での画像処理では被検体50と同一のX線画像上に検出できるようにX線検出系51に設置された有体物である。
ステップS302:
画像処理回路808は、今回撮影時のX線画像データに現れる被検体50の位置情報を検出すると共に、特定構造物4の位置情報を検出する処理を実行する。ステップS303:
今回撮影とは別に、特定構造物4についての正面撮影を行う。正面撮影とは、図4に示すX線2のように、特定構造物4に対してX線が垂直に照射される撮影をいう。
【0093】
ステップS306で後述するように、特定構造物4のX線画像位置から算出されるX線入射斜め角度は、正面撮影時のX線画像位置を基準とするため、正面撮影時はできるだけ正確なアライメントで、X線方向に対する特定構造物4の設置を行うようにする。
上述したような正確なアライメントを行うための方法としては、例えば、X線管球42と、X線検出系51との間にミラーを置き、電球で照らしたミラーからの光の反射を利用することによって、正面撮影時のアライメントを行うことが挙げられる。
【0094】
このように正確なアライメントで、X線検出系51に特定構造物4の設置が行われた後では、あらかじめその設置時に特定構造物4を正面撮影する必要があるが、この代わりに、毎日又はある一定期間毎に、特定構造物4を正面撮影するようにしても良い。この場合、画像処理回路808は、毎日又はある一定期間毎に行われる特定構造物4の正面撮影によって得られるX線画像位置に基づき、X線の入射斜め角度を算出することになる。
【0095】
ステップS304:
ステップS303の正面撮影によって、画像処理回路808は、特定構造物4を撮影したX線画像データを取得する。X線画像データ上の特定構造物4の位置情報は、ステップS306でのX線入射斜め角度を算出するために用いられる。
【0096】
ステップS305:
画像処理回路808は、今回撮影時の場合と同様に、正面撮影時のX線画像データに現れる特定構造物4の位置情報を検出する処理を行う。
【0097】
しかしながら、画像処理回路808は、正面撮影時で得られた特定構造物4のX線画像位置を、必ずしも毎回検出する必要はなく、例えば、特定構造物4の設置時に正面撮影した特定構造物4のX線画像位置を用いるというように、画像処理回路808が、画像上における特定構造物4の位置情報を事前に把握できていれば良い。
但し、特定構造物4の位置の移動等がある場合、特定構造物4の設置時に正面撮影を行うのではなく、特定構造物4の移動後に正面撮影を行うことが望ましい。
【0098】
ステップS306:
画像処理回路808は、上述したステップS305の正面撮影及びステップS302の斜め撮影によって得られる特定構造物4についての2つのX線画像位置情報から、X線入射斜め角度を算出し、当該X線入射斜め角度に基づき、被検体50の位置の補正処理(キャリブレーション処理)を行う。
【0099】
この場合、画像処理回路808がX線入射斜め角度を正確に算出することができるために、(1)特定構造物4の物理的な位置は、正面撮影時(ステップS303)から今回撮影(斜め撮影)時(ステップS300)で移動していないこと、(2)正面撮影時画像(ステップS304)において、特定構造物の位置が判別可能であること、(3)今回撮影(斜め撮影)時画像(ステップS302)において、特定構造物の位置が判別可能であること、が必要となる。
【0100】
画像処理回路808は、正面撮影画像時及び斜め撮影時における特定構造物4のX線画像位置座標を検出した後、当該2つの位置座標を、X線位置情報/角度テーブル500と照合することにより、X線入射斜め角度を算出する。
【0101】
画像処理回路808により算出されたX線入射斜め角度は、X線入射斜め角度記憶部510に記憶され、また、X線入射斜め角度表示部520に表示される。
ここで、X線入射斜め角度記憶部510とは、例えば、記憶装置28又は外部記憶装置34が相当し、また、X線入射斜め角度表示部520とは、例えば、モニタ30又は映像表示モニタ72が相当する。
【0102】
つぎに、画像処理回路808でのX線入射斜め角度の具体的な算出処理を、以下説明する。
図4は、特定構造物4を含むX線検出系51の一部の断面図及びX線撮影画像を示したものである。図4(a)は、X線2、3が、特定構造物4を通過後、さらにカバー80、及び衝撃吸収材78を透過して、蛍光体56で可視光に変換され、光検出アレー58によって検出されるときのX線検出系51の断面図である。
【0103】
図4(a)に示す距離D200は、特定構造物4と光検出器アレー58との間の距離である。また、図4(b)及び(c)に示す画像間距離dLx201は、特定構造物4についての正面画像と今回撮影(斜め撮影)画像との位置座標の変位量である。
【0104】
また、図4(b)は、図4(a)に示す特定構造物4の正面撮影画像であり、図4(c)は、図4(a)に示す特定構造物4の斜め撮影画像である。
また、図4(d)及び図4(e)は、それぞれ図4(b)及び図4(c)に示す特定構造物4の正面撮影画像及び斜め撮影画像のプロファイルを表した図である。
【0105】
図4(d)及び図4(e)に示すように、特定構造物4の画像プロファイルは、散乱X線の影響により一般に、特定構造物4の中心にいくほど低い画素値が分布する。
【0106】
このため、画像処理回路808は、画像上の特定構造物4の境界線を抽出できる場合、特定構造物4の重心の位置座標によって、特定構造物4の中心位置を算出する。或いは、画像処理回路808は、特定構造物4の周辺画素の中で、最も画素値の小さい位置座標を特定構造物4の中心と仮定して求める。
【0107】
上述した画像処理回路808による特定構造物4の位置座標を検出する処理は、画像処理器26によって自動で実行しても、或いは手動で実行しても良いが、画像処理器26が当該位置座標を自動検出する場合は、検出精度の点から、特定構造物4の大きさは少なくとも画像上の2画素以上あることが必要である。
また、特定構造物4の厚さ(高さ)を低くすることが、角度検出の精度を上げるために必要となる。これは、特定構造物4の厚さの影響により、特定構造物4の像がずれることを防ぐためである。
【0108】
したがって、特定構造物4の材質としては、例えば、散乱線が小さく、かつ、薄い厚さの場合でも、X線透過率が低い材質である鉛が望ましい。
【0109】
上述したような特定構造物4の重心の位置座標又は最小画素位置座標から、画像処理回路808は、特定構造物4の中心位置座標を求め、当該中心位置座標に基づき、変位量dLx201を計算し、さらに特定構造物4と光検出器アレー58間の距離値D200を用いることにより、角度θを式tan−1(dLx/D)により算出する。
【0110】
図5(a)及び(b)は、図4(a)に示したX線検出系51の立体図である。図5(a)を用いて、衝撃吸収材78上に存在する特定構造物4について説明する。
一般に、薄型X線検出器152は、立位臥位型X線検出器52と比較して、外からの静圧や衝撃を低減する必要があるため、例えば、衝撃吸収材78等を用いて、外部衝撃等から薄型X線検出器152を守る。
【0111】
この衝撃吸収材78は、シンチレータ56の前面に対しても設置する必要があるが、その吸収材材質として、例えばαゲルの発泡材等を用いた場合、発泡ムラが大きい。このため、白画像撮影と実画像撮影との間のアライメントが少しでも異なると、画像上に発泡ムラが写ることとなりノイズが発生してしまう。
【0112】
したがって、図5(a)に示すように、斜め撮影時において画像ノイズとなる可能性が最も大きい要因となる衝撃吸収材78上に、この特定構造物4を設置することが望ましい。また、特定構造物4を上カバー80の内側に設置することで、特定構造物4の位置が、特定構造物4の設置時より変化しないようにすることができる。
【0113】
また、X線入射斜め角度を検出する際には、特定構造物4は衝撃吸収材78上に必ずしも存在する必要はない。例えば、図5(b)に示すように、グリッド54上に特定構造物4を設けるようにしても良い。
【0114】
また、上カバー80上に特定構造物4がある場合は、特定構造物4は常に、上カバー80上に取り付けられていることになるので、操作者21はその設定場所を外部から容易に把握することができる。
【0115】
上記図4及び図5において、特定構造物4は、上カバー80の上面に設置しているが、カセッテの使用状況によっては、上カバー80の下面に特定構造物4を設置させる場合の方が良いこともある。
【0116】
尚、特定構造物4は、衝撃吸収材78、グリッド54、或いは上カバー80上の何れかに埋め込ませた状態にし、通常の使用状況では特定構造物4を、図5(a)に示すように衝撃吸収材78上に埋め込ませて設置することが望ましい。
【0117】
図6は、薄型X線検出器152における特定構造物4の設置位置例を表したものである。図6(a)及び(b)に示すように、特定構造物4の設置位置は、撮影画像内の端に複数存在するように設置することが望ましい。
特定構造物4を複数存在するように設置することが望ましいのは、撮影する被検体50(被写体等)によって、特定構造物4が1個ではその特定構造物4の位置を把握することができないことがあるためである。また、特定構造物4を撮影画像内の端に設置することが望ましいのは、被写体のみを撮影しようとする場合に、被写体領域のすぐ近くに特定構造物4が存在すると、特定構造物4をも撮影してしまうので、これを避ける必要があるためである。
【0118】
上記図4(a)では、X線が相互作用する場合に可視光として等方的に発光した後、光の反射等により直進することを仮定し、正面撮影画像と斜め撮影画像での特定構造物4の位置は、当該可視光の直進延長上に存在した。
【0119】
図4に示したような発光の始点はX線2、3が光電効果を起こす深さであることから、X線エネルギーの分布により、斜め撮影によって画像に写る可視光発光の始点の場所は異なる。このため、画像処理回路808でのX線入射斜め角度の検出は、正確にはX線入射斜め角度を検出するというよりも、X線エネルギーの分布の影響も含めた、X線入射斜め角度に画像への影響を示すものと言える。
【0120】
つまり、画像処理回路808でのX線入射斜め角度の検出は、斜め角度による画像への位置ずれの影響量を適切に表していることである。したがって、画像への影響量からみて、角度を直接測定するよりも、X線入射斜め角度を検出した方が上記位置ずれ影響量を適確に補正することができるので、正確なX線入射斜め角度を測定する方法よりも優れている。
【0121】
本実施の形態による構成によれば、撮影された画像によりX線入射斜め角度を、簡易かつ正確に算出でき、X線入射斜め角度に基づく画像処理を行うことが可能である。また、X線入射斜め角度を直接測定するよりも、正面画像と今回撮影(斜め撮影)画像との位置座標の位置ずれ影響量を小さくすることができる。
【0122】
尚、本発明は、例えば、直接センサと呼ばれるようなX線画像撮影システム又は装置にも適用される。
【0123】
上記直接センサとは、蛍光体56を使用しないX線撮影システム等を示すものであり、直接センサにはGaAsやa−Se等のX線検出アレーを適用することが可能である。
【0124】
例えば、X線検出アレーに上記a−Seを用いる場合、検出感度を上げるために、約1mm程度の厚さのものが用いられるが、斜め撮影時のX線エネルギーが異なると、光電変換を行う画素の分布が異なってしまい、X線エネルギーの影響力が大きくなる。
このため、蛍光体56を使用する間接型センサのX線画像撮影システムと比較して、X線エネルギーの影響力を小さくするためには、本実施の形態で示すようなX線の入射角度の検出に基づく画像処理を行うことが効果的である。
【0125】
尚、本実施の形態における特定構造物4は、隙間部分を含んでいたり、或いは複数の異質材より構成されていたりしても良い。
【0126】
また、本実施の形態のX線画像撮影システム1は、カセッテを用いる場合に限らず、例えば、立位或いは臥位を含めたすべてのX線画像撮影システムに適用可能である。
【0127】
[第2の実施の形態]
本実施の形態では、斜め撮影の際の蛍光体56の実効的な厚さが変化することによる画像のぼけを防止するために、図2に示す画像処理器26に含まれる画像処理回路808は、上述した第1の実施の形態で算出したX線入射斜め角度情報を用いて、シェーディング補正パラメータ及び鮮鋭化フィルタの指向性(X線の強さが、その入射方向よって相違する性質)を制御するパラメータを選択するように構成する。
【0128】
<画像処理回路808の構成>
本実施の形態の画像処理回路808の構成図を図7に示す。
図7に示すように、画像処理回路808は、角度情報検出部219、シェーディング補正部216、鮮鋭化処理部218、角度/シェーディング補正パラメータ変換テーブル210及び角度/鮮鋭化処理パラメータ変換テーブル215を含む構成としている。
【0129】
画像処理回路808は、画像処理器26に含まれる欠陥補正回路807から出力された画像データに対して、後述する画像処理を施した後、画像処理回路808が生成した画像処理済データ及びX線入射斜め角度情報を、表示器32へ出力する。
表示器32は、画像表示部220及びX線入射斜め角度表示部221を備えている。画像表示部220は、上記画像処理済データを表示し、また、X線入射斜め角度表示部221は、X線入射斜め角度情報を表示する。尚、画像表示部220は、例えば図1に示すモニタ30や映像モニタ72がこれに相当する。
【0130】
角度情報検出部219は、図3に示すステップS300〜ステップS306で示したX線入射斜め角度を検出するための処理を実行する。
【0131】
シェーディング補正部216は、角度情報検出部219が検出する角度情報に基づきシェーディング補正処理を行う。これは、図1に示すX線検出系51に含まれる光検出器アレー58がX線管球42に対して傾斜する場合、照射されるX線量が異なることによってシェーディングが発生するため、当該シェーディング補正処理を行う必要があるためである。
【0132】
鮮鋭化処理部218は、原画像を基にボケ画像を作成し、原画像とボケ画像の差分から高周波画像を作成し、さらに高周波画像と原画像を加算することでエッジの強調された強調画像を生成する。
【0133】
角度/シェーディング補正パラメータ変換テーブル210は、シェーディング補正部216が補正パラメータを決定する際に参照するテーブルである。
【0134】
角度/鮮鋭化処理パラメータ変換テーブル215は、鮮鋭化処理部218が鮮鋭化のためのパラメータを決定する際に参照するテーブルである。
【0135】
<画像処理回路808の動作>
画像処理回路808によるシェーディング補正パラメータ、及び鮮鋭化フィルタの指向性(X線の強さが、その入射方向よって相違する性質)を制御するパラメータの選択動作について説明する。
【0136】
(1)シェーディング補正パラメータの選択動作
上述したように、シェーディングは、光検出器アレー58がX線管球42に対して傾斜し、これにより照射されるX線量が異なってしまうことから発生するので、シェーディング補正部216は、角度情報検出部219が検出したX線入射斜め角度情報に基づき、欠陥補正回路807から出力された画像データに対して補正処理を行う。
【0137】
具体的には、シェーディング補正部216は、先ず、画像中の各位置における画素の到達X線量の逆数に相当する値を算出すると共に、角度情報検出部219が検出したX線入射斜め角度情報を読み取る。次に、シェーディング補正部216は、角度/シェーディング補正パラメータ変換テーブル210を参照し、上記各画素の到達X線量の逆数に相当する値をX線入射斜め角度情報に変換するためのパラメータを選択する。次に、シェーディング補正部216は、光検出器アレー58の出力値に対して、選択したパラメータを積算する。これにより、シェーディング補正部216は、画像データのシェーディング補正を行うことができる。
【0138】
(2)鮮鋭化フィルタの指向性を制御するパラメータの選択動作
まず、画像鮮鋭化処理及び選択的な鮮鋭化処理を、つぎに、鮮鋭化フィルタの指向性を制御するパラメータの選択について説明する。
【0139】
(i)画像鮮鋭化処理
図8は、図7に示す鮮鋭化処理部218が実行する画像鮮鋭化処理(単純アンシャープマスキング処理)の概念を表した図である。
図8に示すように、鮮鋭化処理部218は、先ず、後述するように原画像F(x,y)230をぼかした画像G(x,y)231を作成し、原画像F(x,y)230からこのボケ画像G(x,y)231を差し引くことによって高周波画像Fhf(x,y)232を作成する。
次に、鮮鋭化処理部218は、この高周波画像Fhf(x,y)232を、原画像F(x,y)230に加算することによってエッジの強調された強調画像Fusm(x,y)233を作成する。
【0140】
図9は、図7に示す鮮鋭化処理部218が実行する平滑化(空間)フィルタの概念を表した図である。
鮮鋭化処理部218は、図8に示すボケ画像G(x,y)231を作成するために、図9に示す平滑化(空間)フィルタを用いる。ここで、平滑化(空間)フィルタとは、すべての係数が1/(N・N)であるN×N行列フィルタをいう。また当該Nは、上記図8に示す単純アンシャープマスキング処理における周波数帯域のパラメータに依存して決定される値である。
【0141】
上記周波数帯域のパラメータを、図10図〜図14を用いて説明する。
図10は、原画像F(x,y)230の周波数特性が全て1であり、また図11は、原画像F(x,y)230の周波数特性がtan関数であらわされる例を示す。
原画像の周波数特性が、図10に示すような常に1の場合、鮮鋭化処理部218が平滑化(空間)フィルタに基づき生成するボケ画像の周波数特性は、図11に示すようなtan関数となる。
この場合、図9に示す周波数帯域のパラメータ(ボケマスクNともいう)は、図11の▲1▼でN=13、▲2▼でN=25、▲3▼でN=45、▲4▼でN=81である。
【0142】
X線画像撮影システム1では、画像処理を行う技師(操作者21等)が、上記ボケマスクNの値(すなわち、図11の▲1▼でN=13、▲2▼でN=25、▲3▼でN=45、▲4▼でN=81)の調整を容易に行えるようにするため、表示制御器32は、周波数帯域パラメータを、例えばそれぞれ9、7、5、及び3のようにして変換する制御を行い、当該変換後の周波数帯域パラメータを、モニタ30上に表示する。
【0143】
図12は、鮮鋭化処理部218によって、原画像F(x,y)230からボケ画像G(x,y)231を差し引くことで生成される高周波画像232の周波数特性を示したものである。図12に示すように最も周波数応答の高くなっている箇所250が、鮮鋭化処理部218による画像処理で最も強調(鮮鋭化)される周波数帯域となる。
【0144】
図13は、高周波画像Fhf(x,y)232を、原画像F(x,y)230に加算した強調画像Fusm(x,y)233の周波数特性を示したものである。本実施の形態では、強調係数Cとして例えば0.33を用い、鮮鋭化処理部218は、原画像230をC(=0.33)倍した上で当該原画像230に加算して、図13に示す周波数特性を有する強調画像233を生成する。
【0145】
図14は、鮮鋭化処理部218により、高周波画像Fhf(x,y)232と原画像F(x,y)230を加算して生成される強調画像Fusm(x,y)233の周波数特性を、上記周波数帯域のパラメータ(ボケマスクN=13、25、45、81)ごとに表したものである。
【0146】
(ii)選択的な鮮鋭化処理
鮮鋭化処理部218は、上記単純アンシャープマスキング処理をベースに、ノイズの強調を抑えるための選択的な鮮鋭化処理を行う。
鮮鋭化処理部218による選択的な鮮鋭化処理を、図15を用いて説明する。
【0147】
▲1▼鮮鋭化処理部218は、先ず、原画像400に対して、高周波成分画像420を生成する。この場合、図8で示した単純アンシャープマスキングの場合と同様に、鮮鋭化処理部218は、原画像400からそのボカシ画像を差し引くことにより高周波成分画像420を生成する。
【0148】
▲2▼鮮鋭化処理部218は、原画像400よりエッジを抽出し、エッジ画像410を生成する。
【0149】
▲3▼鮮鋭化処理部218は、エッジ画像410を基にして、高周波成分画像420に対し重み付けをし、画像処理において強調すべき構造的エッジと強調すべきでない孤立ノイズの選択を行う。すなわち、上記重み付けによって鮮鋭化処理部218が選択した高周波成分画像(選択的高周波成分画像430)が、鮮鋭化処理部218による鮮鋭処理の対象となる。
【0150】
▲4▼鮮鋭化処理部218は、選択的高周波成分画像430に対し、所定の強調係数Cを積算する。
【0151】
▲5▼鮮鋭化処理部218は、強調係数Cが積算された選択的高周波成分画像430を、原画像400に加算し、最終的な強調画像440を生成する。
【0152】
上記(i)画像鮮鋭化処理、又は(ii)選択的な鮮鋭化処理で説明したようにして、鮮鋭化処理部218は、図7に示す画像処理回路808内の角度情報検出部219が検出したX線入射斜め角度情報に基づき、強調画像233或いは選択的高周波成分画像430に対して積算する強調係数Cを設定する。
【0153】
具体的には、X線入射斜め角度が直角から傾く程、蛍光体56の実質的な深さが深くなり画像がボケることを利用し、鮮鋭化処理部218は、X線入射斜め角度の大きさに比例した強調係数Cを、角度/鮮鋭化処理パラメータ変換テーブル215を参照し設定する。
【0154】
すなわち、鮮鋭化処理部218は、X線入射の斜め角度及びその方向情報を用いて、斜め角度分の画像のボケが打ち消されるように、X線入射の斜め角度が大きくなるほど、大きな鮮鋭化処理のパラメータ値を設定する。
【0155】
(iii)鮮鋭化フィルタの指向性を制御するパラメータの選択
上述したように、鮮鋭化処理部218は、X線入射斜め角度情報を基に画像鮮鋭化の画像処理を行い、角度/鮮鋭化処理パラメータ変換テーブル215を参照して強調係数(パラメータ)Cを設定するが、X線の強さは、その入射方向よって相違する性質(指向性)がある。
このため、鮮鋭化処理部218は、強調係数(パラメータ)Cを選択する場合、さらに鮮鋭化フィルタの指向性を制御する。
【0156】
鮮鋭化処理部218は、鮮鋭化フィルタの指向性を制御するパラメータを選択するために、例えば以下のような動作を実行する。
▲1▼画像処理回路808が、X軸とY軸の二次元平面における被写体のX線画像位置を検出する場合、撮影制御器24によって、例えばX軸方向を一定で、X線の入射角度をY軸方面に傾けた状態にX線発生器40を制御して被写体を撮影する。
【0157】
▲2▼鮮鋭化処理部218は、上記アライメントで撮影された被写体のX線画像データについて、X軸方向とY軸方向とでデータの比較を行う。
【0158】
X軸方向とY軸方向のデータ比較によれば、画像データのX軸方向では、蛍光体56の実質的な深さが深くなるためにX軸方向の画像がボケる。一方、Y軸方向では、蛍光体56の画像ボケとともに生成される拡大撮影部分が、Y軸方向に対してプラス又はマイナスの片方だけとなるため、当該拡大撮影によって被写体から見た画像ピッチが細かくなり、このためY軸方向の画像が鮮鋭化される。
【0159】
▲3▼鮮鋭化処理部218は、X線傾斜方向(例えば、X軸又はY軸)別に画像データの鮮鋭度を比較し、X軸及びY軸の各軸それぞれの角度情報に基づき、角度/鮮鋭化処理パラメータ変換テーブル215から、X軸及びY軸それぞれの強調係数Cを選択する。
このため、上記強調係数Cは、X線入射方向の相違を制御した鮮鋭化フィルタの指向制御パラメータとなっている。
【0160】
尚、上記角度情報に基づく鮮鋭化フィルタの指向制御パラメータの選択は、上述したアンシャープマスキング処理をベースとする鮮鋭化フィルタに限定したものではなく、他の鮮鋭化フィルタの場合にも適用されるものである。
【0161】
このように、本実施の形態によれば、X線入射斜め角度情報に基づき画像処理パラメータが選択され、これにより、シェーディング補正及び鮮鋭化フィルタの指向性を制御することができる。
【0162】
[第3の実施の形態]
本実施の形態では、X線画像撮影システム1における斜め撮影の際、画像に写るセンサ前面の物質の構造ムラを、撮影画像時のX線入射斜め角度に近いX線入射角度で撮影された白画像により補正する。
【0163】
<画像処理回路808の構成>
本実施の形態の画像処理回路808の構成図を図16に示す。
図16に示すように、画像処理回路808は、角度情報検出部107、暗電流補正部102、白補正部103、欠陥画素補正部104、画像処理部105、角度/白画像選択テーブル108、白画像選択部109、選択部110、選択白画像角度保存部111、及び線入射角度保存部112を含む構成としている。
【0164】
上記構成の画像処理回路808は、画像処理器26に含まれる欠陥補正回路807から出力された画像データに対して、後述する画像処理を施した後、画像処理回路808が生成した画像処理後データ、選択白画像角度、及びX線入射斜め角度情報を、表示器32(例えば、図1に示すモニタ30や映像モニタ72)へ出力する。
【0165】
表示器32は、画像表示部106、選択白画像角度表示部113、及びX線入射斜め角度表示部114を備えている。画像表示部106は画像処理後データを、選択白画像角度表示部113は選択白画像角度を、及びX線入射斜め角度表示部114はX線入射斜め角度を表示器32に表示する。
【0166】
角度情報検出部107は、図3に示すステップS300〜ステップS306で説明したX線入射斜め角度を検出するための処理を実行する。
【0167】
暗電流補正部102は、欠陥補正回路807から出力されたX線画像データに対して、FPN(Fixed Pattern Noise)補正を行う。FPN補正は、X線撮影時のタイミングや温度、或いは駆動系により異なる暗電流の影響を補正する。
【0168】
白補正部103は、画像データに対して白補正処理を行う。これは、撮影画像の画素毎に異なるゲインを補正するものであり、キャリブレーション処理ともいう。本実施の形態で、白補正部103は、角度情報検出部219によって検出したX線入射斜め角度情報に基づき画像データに対する適切な白画像を選択し、画像データの白補正処理を実行する。
【0169】
欠陥画素補正部104は、白補正後の画像データに対して欠陥補正を行う。欠陥補正は、半導体の画素の製造において生じる欠陥画素と呼ばれる画素を、欠陥画素周囲の画素値を用いて補正する処理をいう。
【0170】
画像処理部105は、欠陥画素補正部104による欠陥画素補正後の画像データに対して画像処理を施す。
【0171】
白画像選択部109は、角度情報検出部107が検出した角度情報を基に、撮影画像データに対する白画像を選択し、当該選択白画像を白補正部103へ出力する。
【0172】
角度/白画像選択テーブル108は、白画像選択部109が白画像を選択する際に参照する参照テーブルである。角度/白画像選択テーブル108は、角度情報及び白画像情報を含む構成であり、図2に示すゲイン補正データ用フレームメモリ805内に格納される。
【0173】
選択部110は、白画像選択部109が適切な白画像を選択するように、白画像選択の判断基準項目の優先度、及び白画像の選択アルゴリズムを設定する。
【0174】
選択白画像角度保存部111は、白画像選択部109が選択した白画像の角度情報を保存する。
【0175】
X線入射角度保存部112は、角度情報検出部107が検出した角度情報を保存する。
【0176】
尚、選択白画像角度保存部111が保存する白画像の角度情報及びX線入射角度保存部112が保存する角度情報は、画像処理回路808外の記憶媒体(例えば、図1に示す記憶装置28又は外部記憶装置34)に記憶される構成であってもよい。
【0177】
<画像処理回路808の動作>
画像処理回路808の動作について、以下説明する。
【0178】
先ず、画像処理回路808は、欠陥補正回路807よりX線画像データを受取ると、暗電流補正部102は、当該X線画像データに対してFPN補正処理を施し、暗電流による画像の影響を低減させる。
【0179】
次に、角度情報検出部107は、第1の実施の形態で説明したように、欠陥補正回路807から出力されたX線画像データについて、X線入射斜め角度を検出する。
この場合、角度情報検出部107は、特定構造物4に対する正面撮影時と斜め撮影時の2つの画像位置を比較し、両画像位置の変位量に基づいて、X線入射斜め角度を検出する。
【0180】
図17は、特定構造物4を含むX線検出系51の断面図及びX線撮影画像図である。従来の白補正であれば、図17(a)に示す特定構造物4の正面撮影画像と、図17(b)に示す特定構造物4の斜め撮影画像との中心位置情報のずれ量である画像間距離dLx201によって、画像上にはセンサ前面に構造ムラがあらわれる。このような構造ムラがあらわれる原因として、上記画像位置ずれの影響を考慮するために行われるキャリブレーション操作が、適切に実施されていないことが挙げられる。
【0181】
このため、例えば、角度情報検出部107は、上記画像位置ずれ量が所定の値より大きな場合、操作者21に対して、再度のキャリブレーション操作を実行することが適切である旨の通知を行う。操作者21は、角度情報検出部107による再キャリブレーション操作の勧告通知によって、画像間距離dLx201から被写体画像の位置ずれ量を把握することができ、必要に応じて再キャリブレーション撮影(正面撮影)を行う。
【0182】
角度情報検出部107が、操作者21に対して再度のキャリブレーション操作を促す旨のメッセージを、モニタ30に表示した画面例を図18に示す。
図18に示すように、角度情報検出部107の指令を受けた表示制御器32は、モニタ30の画面上に、例えば、撮影時のセンサのシリアル番号100、蛍光体の種類101、グリッドの有無102、フォトタイマの種類103、及びX線の入射方向と角度104等を表示する制御を行う。
【0183】
角度情報検出部107がX線入射斜め角度を検出すると、X線入射角度保存部112は、記憶メモリ(例えば、記憶装置28又は外部記憶装置34等)に当該X線入射斜め角度を格納する。
【0184】
次に、白画像選択部109は、上記のX線入射斜め角度情報と、角度/白画像選択テーブル108とを基にして、白補正部103が白補正するために用いる白画像を、以下に説明する動作によって選択する。
【0185】
<白画像選択部109の白画像選択動作>
白画像選択部109は、角度情報検出部107が検出する角度情報(X線入射斜め角度)を基に、撮影条件等に適合した白画像を選択する際、選択部110より入力される情報も参照する。
【0186】
具体的には、選択部110から白画像選択部109へ入力される情報とは、所定の優先情報(例えば、角度等)、及び白画像を選択するためのアルゴリズムの設定情報である。選択部110は、ユーザ(操作者21等)に対して図19に示すような情報入力画面を提示し、ユーザによる白画像選択情報を設定する。
【0187】
白画像選択部109が、図19に示すような優先情報を用いて白画像選択を選択する構成にすれば、例えば、被写体が腕骨であって、骨に沿った縦軸方向のノイズよりも、骨に対し横軸方向のノイズ許容値が厳しい場合、白画像選択部109は、縦軸方向の角度よりも横軸方向の角度を重視して、横軸方向の白画像を選択することができる。
【0188】
図19に示すように、操作者21が白画像を選択する場合に設定する優先情報は、具体的には例えば、角度120、線量121、グリッド122、フォトタイマ123、回数124、及び異物125等が挙げられる。
【0189】
角度120は、X線入射の角度情報をあらわす。
【0190】
線量121は、白補正部103が白補正をする際に用いるX線量をあらわす。
【0191】
撮影時のX線量がダイナミックレンジの範囲内にある場合は、撮影時のX線と白画像のX線量の関係は線形性を有するので、白補正部103は、白画像に用いるX線量に極端に大きく依存した白補正を画像データに対して行わない。このため通常、操作者21は、線量121を優先情報として設定する必要がない(線量121:OFF)。
【0192】
一方、撮影時の線量がダイナミックレンジの範囲外にある場合は、撮影時のX線と白画像のX線量の関係は非線形性を有するので、白補正部103は、白画像に用いるX線量に極端に大きく依存した白補正を画像データに対して行う。このため通常、操作者21は、線量121を優先情報として設定する必要がある(線量121:ON)。
【0193】
グリッド122及びフォトタイマ123は、撮影画像と白画像の差によって、画像上にグリッド又はフォトタイマが写ることを避けるか否かを設定するための項目である。操作者21は、グリッド122又はフォトタイマ123の設定を、ONに切替えることで、画像におけるグリッド又はフォトタイマの影響を解消することが可能となる。
【0194】
回数124は、白補正部103で使用する白画像を積算するか否かを設定するための項目である。操作者21は、回数124の設定を、ONに切替えることで、白補正部103は、任意回数分積算された白画像を用いた白補正を行う。なお、具体的な積算回数は、別の設定画面(不図示)を用いて、操作者21により設定される。
【0195】
異物125は、白画像上に異物がある場合、当該白画像を用いることを避けるか否かを設定するための項目である。操作者21は、異物125の設定を、ONに切替えることで、白画像選択部109は異物のない白画像を選択する。
【0196】
尚、上記各項目がOFFに設定された場合、該当する各項目の情報は、白画像選択部109による白画像の選択に関して影響を与えないことを意味する。
【0197】
本実施の形態では、上記優先情報のうち角度120をONに設定した状態で、白画像選択部109が適切な白画像を選択する。
【0198】
操作者21が、図19に示す白画像選択のための優先情報(項目)で、角度120をONに設定した場合、操作者21は、角度120に関する詳細な設定を、図20に示すような設定画面によって行う。
【0199】
図20に示すように、角度120とは、具体的には例えば、角度1(縦)130、角度2(横)131、及び角度1又は角度2の選択方法(tan関数値を用いるか否か等)132の指定項目を含む情報をいう。
【0200】
角度1(縦)130及び角度2(横)131は、例えば、X線入射斜め角度におけるX軸(又はY軸)方向の角度成分を、白画像の選択に用いるか否かを、操作者21で設定する項目である。
選択方法132は、角度1(縦)130又は角度2(横)131の値を、そのまま用いて白画像を選択するのか、或いは、詳細は後述するが、角度1(縦)130又は角度2(横)131の値を変換式(例えば、tan関数式等)で変換して求まる位置変位量に基づき白画像を選択するのかを、操作者21で設定する項目である。
【0201】
すなわち、操作者21による図20に示す選択方法132の設定は、白画像選択部109が、どのようなアルゴリズムを用いて白画像を選択するのかを指定することになる。
この選択アルゴリズムは、例えば、画像上のX軸又はY軸の少なくとも1つの方向において、撮影時のX線入射斜め角度と最も近い角度で入射されたX線によって撮影された白画像を判断し、その白画像を選択するアルゴリズムや、或いは、撮影時のX線入射斜め角度のtan関数が、白画像の撮影時における入射角度のtan関数と最も近い白画像を選択するアルゴリズムが相当する。
【0202】
また、上記選択アルゴリズムは、角度情報検出部107が、少なくとも2方向以上のX線入射斜め角度を算出する場合、例えばこの2方向以上の角度情報を用いて、入射斜め角度差の最小二乗値の和が最小になる白画像を選択するアルゴリズムや、或いは、入射斜め角度の差のtan関数の最小二乗値の和が最小になる白画像を選択するアルゴリズムであってもよい。
【0203】
具体的には、白画像選択部109は、以下のようにして、設定された選択アルゴリズムに基づき白画像を選択する。
【0204】
図21は、X線入射斜め角度に対する画像の位置ずれ量を概念的に表したものである。
撮影時のX線入射斜め角度がθで、白画像撮影時のX線入射斜め角度が0及び2θである場合、白画像選択部109は、X線入射斜め角度が0の白画像と、X線入射斜め角度が2θの白画像のいずれを選択するかを、図21を用いて説明する。
【0205】
図20に示す選択方法132が、tanθ134に設定されている場合であって、特に白画像と撮影画像の角度差が最小になる白画像を選択するアルゴリズムである場合、|撮影時のX線入射斜め角度θ―白画像のX線入射斜め角度0|=|撮影時のX線入射斜め角度θ―白画像のX線入射斜め角度2θ|=θ(ここで、|A|は、Aの絶対量(値)を示す。)であることから、撮影時のX線入射斜め角度がθに対する、X線入射斜め角度が0又は2θである2つの白画像は等価となる。
【0206】
画像上におけるノイズ成分の位置ずれをみると、図21に示すように、白画像撮影時のX線入射斜め角度が0の場合はtanθ、白画像撮影時のX線入射斜め角度が2θの場合はtan2θの分の位置ずれがある。
【0207】
上記の場合、(tanθ−tanθ)>(tan2θ−tanθ)より、位置ずれの影響量は、X線入射角度が0よりも2θの白画像の方が少ない。
【0208】
このため、撮影時のX線入射斜め角度がθで、白画像撮影時のX線入射斜め角度が0及び2θの場合、白画像選択部109は、画像上の位置ずれを小さくするために、X線入射斜め角度が2θの白画像を選択する。
【0209】
尚、上記の場合であって、操作者21が図20に示す選択方法132を、単純な角度差θ133を選択して設定している場合、白画像選択部109は、X線入射斜め角度が2θの他に、0の白画像を選択することもある。
【0210】
このようにして、白画像選択部109は、角度情報検出部107が検出するX線入射斜め角度、及び選択部110で設定した優先情報に基づき、上述したようなアルゴリズムによって白画像を選択することになるが、白画像選択部109は、さらに、角度/白画像選択テーブル108を参照して、白画像の選択を行う。
【0211】
白画像選択部109が参照する角度/白画像選択テーブル108の例を図22に示す。
図22に示すように、角度/白画像情報テーブル108は、センサシリアルナンバー170で表された各白画像の名前、撮影時の角度情報(方向、角度)171、センサの種類172、蛍光体種類173、グリッド種類174、フォトタイマ種類175、及び補正テーブル名176を含む構成である。
【0212】
白画像選択部109は、選択部110で設定した優先情報を含む白画像を、角度/白画像情報テーブル108より選択する。
【0213】
白画像選択部109により選択された白画像を、表示制御器32により、モニタ30に表示制御した画面例を図23に示す。
図23に示すように、画像表示部106は、例えば、取得日時140、白画像名141、白方向(縦)142、白角度(縦)143、白方向(横)144、及び白角度(横)145等の情報を表示する。
【0214】
操作者21は、図23に示す白画像選択部109が選択した白画像に対し、当該白画像を白補正部103の補正で用いる画像に適すると判断した場合、例えば、図23に示す画面上の「OK」ボタン98を入力する。
一方、操作者21は、白画像選択部109が選択した白画像を、白補正部103の補正で用いる画像に適しないと判断した場合、例えば、図23に示す画面上の「後で白補正」ボタン97を入力するか、或いは、白画像の選択を中止するために、画面上の「Cancel」ボタン99を選択する。
【0215】
尚、優先情報及び設定アルゴリズム等に基づき白画像選択部109のよって選択される白画像を、操作者21が、自己の判断に基づき任意の白画像を選択できる構成にしても良い。
【0216】
図24に、撮影後の画像リストの一覧画面となる、白画像情報をOFF(使用しない)300にした撮影画像リストが、表示制御器32によってモニタ30に表示制御された例を示す。
図25に、白画像情報をON(使用する)310にした撮影画像リストの例を示す。図25に示すように、選択白画像角度表示部113は、モニタ30に、白画像に用いた角度方向320、322、角度321、323、及び撮影時画像の角度方向と角度(不図示)を表示する。
【0217】
図25には、白画像に用いた角度方向320、322と角度321、323のみを表示しているが、操作者21が、図25下部のスクロールバー330を横方向に移動した場合、表示制御器32は、撮影時画像の角度方向と角度角度方向も表示する。これにより、操作者21は、白補正に用いた白画像の角度情報と撮影画像の角度情報とを比較することができる。
【0218】
なお、白画像選択部109は、補正データ用フレームメモリ805から、撮影時の撮影条件に適する白画像を選択する際に、適当な白画像が存在しない判断した場合、表示制御器32に指令を送り、表示制御器32は、例えば、「適切な角度orグリッドのキャリブレーション撮影が必要です」等というような警告メッセージをモニタ30に表示するように制御指令を出す。この表示を参照した操作者21は、撮影画像データに適するキャリブレーション(白画像)撮影を実行する。
【0219】
次に、白補正部103は、白画像選択部109が選択した白画像を用いて、暗電流補正部102によってFPN補正処理が施された画像データに対して、白補正を行う。この場合、白補正部103は、正面撮影で得られた白画像と、特定の角度傾けて得られた白画像とを合成することにより、検出された角度に近い白画像を作成し、当該合成白画像に基づき、FPN補正処理後の画像データの白補正を行う構成にしてもよい。
【0220】
選択白画像角度保存部111は、白画像選択部109が選択した白画像を記憶メモリ(例えば、記憶装置28又は外部記憶装置34等)に格納する。
【0221】
欠陥画素補正部104は、白補正部103による白補正後の画像データに対して、欠陥画素を対象とした補正を行う。
【0222】
画像処理部105は、欠陥画素補正部104による欠陥画素補正後の画像データに対して画像処理を施す。
【0223】
表示制御器32に含まれる画像表示部106、選白画像角度表示部113、及びX線入射角度表示部114は、それぞれ画像処理部105が所定の画像処理を施した画像データ、白画像選択部109が選択した白画像の角度情報、及び角度情報検出部107が検出したX線入射斜め角度を、モニタ30に表示するための制御を行う。
【0224】
上述したような本実施の形態によれば、X線画像撮影装置における斜め撮影の際、撮影画像と近い角度で撮影した白画像を選択して画像補正をするように構成することで、画像に写るセンサ前面の物質の構造ムラを解消することができる。
【0225】
また、本発明の目的は、上記第1〜第3の実施の形態の情報端末の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読みだして実行することによっても、達成されることは言うまでもない。
【0226】
この場合、記憶媒体から読み出されたプログラムコード自体が第1〜第3の実施の形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体及び当該プログラムコードは本発明を構成することとなる。
プログラムコードを供給するための記憶媒体としては、ROM、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード等を用いることができる。
【0227】
また、コンピュータが読みだしたプログラムコードを実行することにより、第1〜第3の実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS等が実際の処理の一部又は全部を行い、その処理によって第1〜第3の実施の形態の機能が実現される場合も含まれることは言うまでもない。
【0228】
【発明の効果】
以上説明したように本発明では、被写体に対し放射線を照射することによって得られた当該被写体の撮像画像の画像処理をするにあたり、撮像可能な範囲内に設置手段(有体物)を設置し、設置手段を含む被写体の撮像時の撮像画像と、設置手段の白画像(画素毎の感度差の補正を行うための放射線撮影画像)とを比較して得られる設置手段の位置ずれ量から放射線入射角度を取得して、当該放射線入射角度に基づき画像処理パラメータを選択するように構成した。
【0229】
これにより例えば、被写体に対し斜め方向から低エネルギーの放射線を照射して撮影する場合であっても、画像撮像システム又は装置の構造物(例えば、画像位置検出センサ周囲の構造物等)が撮像画像に写らず、また画像のボケを防ぐことが可能となる。
【図面の簡単な説明】
【図1】X線画像撮影システムの全体構成を示す概念図である。
【図2】画像処理器26のブロック構成図であり、特定構造物の画像上の位置情報から角度情報の検出を行うための構成例を示す図である。
【図3】画像処理器26における角度情報検出処理フローを示す図である。
【図4】特定構造物4を含むX線検出系51の断面図である。
【図5】特定構造物4を含むX線検出系51の立体図である。
【図6】薄型X線検出器の上カバー上に特定構造物4を設置した例を示す図である。
【図7】第2の実施の形態における画像処理器26に含まれる画像処理回路808のブロック構成図であり、X線入射斜め角度情報に基づき画像処理パラメータの選択を行うための構成例を示す図である。
【図8】図7に示す鮮鋭化処理部218が実行する画像鮮鋭化処理(単純アンシャープマスキング処理)の概念を表した図である。
【図9】図7に示す鮮鋭化処理部218が実行する平滑化(空間)フィルタの概念を表した図である。
【図10】原画像の周波数特性を表した図である。
【図11】正接関数の各周波数特性を表した図である。
【図12】原画像からボケ画像を差し引いた高周波画像の周波数特性を表した図である。
【図13】高周波画像を原画像に加算した強調画像の周波数特性を表した図である。
【図14】高周波画像を原画像に加算した強調画像の周波数特性を、各鮮鋭化フィルタの強調度ごとに表した図である。
【図15】アンシャープマスキング処理をベースにした鮮鋭化処理のフローを示す図である。
【図16】第3の実施の形態における画像処理器26に含まれる画像処理回路808のブロック構成図であり、X線入射斜め角度情報に基づき白画像選択の選択を行うための構成例を示す図である。
【図17】正面撮影と斜め撮影についての画像及びそのプロファイルの概略図である。
【図18】角度情報検出部107が、操作者21に対して再キャリブレーション操作を促す旨のメッセージ画面を示した図である。
【図19】操作者21が白画像を選択する際の各項目の優先順位を設定する画面を示した図である。
【図20】図19の選択項目で角度を選択した場合、操作者21がさらに詳細な角度情報を設定するための画面を示した図である。
【図21】X線入射斜め角度がθ毎の白画像における位置関係を示した図である。
【図22】図16に示す白画像選択部109が参照する角度/白画像選択テーブル108の例を示した図である。
【図23】白画像選択部109が選択した白画像を、操作者21が決定する画面例を示した図である。
【図24】白画像情報がOFFの場合の撮影画像リスト例を示した図である。
【図25】白画像情報がONの場合の撮影画像リスト例を示した図である。
【符号の説明】
1 X線画像撮影システム
2 X線
3 斜め入射のX線
4 特定構造物
10 X線室
12 X線制御室
14 診断室(その他の操作室を含む)
20 システム制御器
21 操作者
22 操作者インターフェース
24 撮影制御器
26 画像処理器
28 記憶装置
30 モニタディスプレイ(モニタ)
32 表示制御器
34 外部記憶装置
36 LANボード
40 X線発生器
42 X線管球
44 高圧発生電源
45 反射鏡
46 X線絞り
47 CCDカメラ
48 撮影用寝台
50 被検体
52 X線検出器
54 グリッド
56 シンチレータ
58 光検出器アレー
60 X線露光量モニタ
62 駆動器
70 画像処理端末
72 映像表示モニタ
74 イメージ・プリンタ
76 ファイル・サーバ
78 衝撃吸収材
80 上カバー
82 下カバー
84 撮影可能範囲
90 操作画面
91 表示画面
92 決定指示ボタン
93 指示ボタン
87 白画像選択の優先順位を設定する領域
98 OKボタン
99 CANCELボタン
102 暗電流補正部
103 白補正部
104 欠陥画素補正部
105 画像処理部
106 画像表示部
106 画像表示部
107 角度情報検出部
108 角度/白画像選択テーブル
109 白画像選択部
110 選択部
111 選択白画像角度保持部
112 X線入射角度保存部
113 選択白画像角度表示部
114 X線入射角度表示部
152 筐体
200 検出器−特定構造物間距離
201 特定構造物の画像上の変位量
801 データパスを選択するマルチプレクサ
802 X線画像用フレームメモリ
803 暗画像用フレームメモリ
804 オフセット補正回路
805 ゲイン補正データ用フレームメモリ
806 ゲイン補正用回路
807 欠陥補正回路
808 その他の画像処理回路
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to, for example, an image processing apparatus, an image processing system, an image processing method, a computer-readable storage medium storing a program for implementing the image processing apparatus, an image processing system, and the like, which are used for X-ray imaging using a solid-state imaging device. It relates to the program.
[0002]
[Prior art]
Conventionally, for example, in an X-ray imaging apparatus, an X-ray beam is projected from an X-ray source to an object to be analyzed (such as a medical patient), and captured image information of the object to be analyzed is, for example, a screen film cassette or a film autochanger. , CR (Computed radiography), FPD (Flat Panel Detector) or the like.
[0003]
Digital processing is widely used in information processing in general consumer devices, but the X-ray image of the analysis target obtained by imaging the analysis target with an X-ray imaging apparatus is similar to the consumer device. Digitization is progressing rapidly.
[0004]
In particular, recently, as an image receiving means called FPD, a photoelectric conversion device in which pixels composed of minute photoelectric conversion elements, switching elements, and the like are arranged in a lattice pattern can be used. Techniques for acquiring digital images have been developed.
[0005]
For example, the following points can be cited as advantages of using the photoelectric conversion device in X-ray imaging.
[0006]
(1) Since captured image information of a subject can be directly acquired as digital image data, image processing (for example, image correction such as image correction and image enhancement in a specific image region when shooting under inappropriate shooting conditions) can be easily performed. It can be carried out.
[0007]
(2) As an image communication means to the photoelectric conversion device, for example, by using a large-capacity communication line or the like, a diagnosis of a patient living in a remote area where a specialist doctor such as a large hospital is absent can be performed via the communication line. This can be performed based on the image information of the patient transmitted to the photoelectric conversion device.
[0008]
(3) By storing the digital image data of the subject on, for example, a magneto-optical disk or the like, the storage space can be reduced as compared with the case of storing the X-ray film of the subject.
[0009]
(4) In the case of digital image data, it is possible to easily search image data acquired in the past, so that it is possible to quickly reference desired image data as compared to the case of X-ray film search. it can.
[0010]
Although it is a photoelectric conversion device having the advantages as described above, it has recently become possible to realize a small and thin photographing device called a cassette as proposed in, for example, Patent Document 1.
[0011]
Specifically, since the cassette is generally lightweight and can be transported and can be installed at an arbitrary place, various imaging methods can be used in X-ray image capturing using the cassette. In particular, when a cassette support device (for example, a standing stand or a standing table) is used for the cassette, the position where the cassette is loaded becomes clear. For example, a scale stamped on the standing stand front plate The patient and the X-ray source can be aligned using the line as a guide.
[0012]
Further, since the standing stand or the recumbent table is loaded vertically or horizontally with respect to the cassette, for example, by setting the X-ray source to the click position of the angle adjusting mechanism in the cassette, the X-ray The tilt angle of the source can be set accurately.
[0013]
The cassette can also be applied to a case where an image is taken at an inclination (oblique photographing), such as a Jonner image photographing method used for photographing a shoulder joint or the like. As a configuration for obtaining the line incident oblique angle information, a configuration using an acceleration sensor is described in, for example, Patent Document 2. Other methods for obtaining X-ray incident oblique angle information include, for example, a method using a gyro sensor and a method using a camera.
[0014]
[Patent Document 1]
JP-A-6-342099
[Patent Document 2]
JP 2000-23955 A
[0015]
[Problems to be solved by the invention]
However, in the conventional X-ray imaging apparatus as described above, for example, when oblique imaging is performed, there are the following problems.
[0016]
(1) In particular, when imaging is performed with low X-ray energy, there is a problem that the structure of the cover of the X-ray imaging apparatus, the phosphor, or the shock absorbing material is reflected in the image.
[0017]
(2) Since the effective thickness of the phosphor changes when the X-rays are obliquely incident on the phosphor, there is a problem that the image is blurred. In addition, in the image processing for eliminating the blur of the image, an appropriate image processing parameter in consideration of the blur of the image cannot be selected.
[0018]
(3) In particular, when imaging is performed with low X-ray energy, there is a problem that the structure unevenness of the substance on the front surface of the sensor (light receiving means) is easily reflected in the image.
[0019]
Here, as a configuration for solving the problem (3), for example, a configuration in which white photographing for correcting a sensitivity difference for each pixel is performed can be considered.
White correction by white photographing means correcting a gain that differs for each pixel. As a white image used for white correction, an average image of a plurality of images irradiated on the entire sensor surface from the front of the subject is used. Such white correction can reduce the influence of X-ray quantum noise.
[0020]
That is, the white photographing method that corrects the sensitivity difference for each pixel can correct the gain variation of each pixel, and can simultaneously correct the uneven irradiation of the X-ray tube, the uneven transmission of the grid, the uneven transmission of the phototimer, and the like. Further, it has an advantage that a more uniform image can be obtained than an analog photograph.
[0021]
However, in the configuration using the white image obtained by photographing the front of the subject, which is performed by the white correction described above, when the subject is photographed from an oblique direction other than the front, the front surface of the sensor, the rear surface of the sensor, and the surroundings Material unevenness of structures (specifically, for example, additional filters, covers, shock absorbers in front of the sensor, X-ray monitors behind the sensor, ribs of layered structures, electronic components, and PCBs) Depending on the magnitude of the X-ray energy used for imaging (for example, low energy of 80 kVp or less), there is a problem that the image appears in the image.
[0022]
The reason why the material unevenness of each structure around the sensor appears in the image due to the oblique photographing of the subject is that the position in the photographed image and the position in the white image of each structure are misaligned.
[0023]
That is, when white correction is performed on an image captured by an X-ray image capturing apparatus and the captured image is white-corrected based on an image acquired by oblique imaging, unevenness in the material around the sensor is likely to appear in the image. There's a problem.
[0024]
Therefore, the present invention has been made to solve the above-described problems, and an image processing apparatus, an image, and an image processing apparatus that can acquire a good captured image even when performing oblique imaging in radiographic imaging. It is an object of the present invention to provide a processing system, an image processing method, a computer-readable storage medium storing a program for implementing the method, and the program.
[0025]
Specifically, for example, even when imaging is performed with low X-ray energy during oblique imaging, it is possible to obtain an X-ray image in which the structures around the sensor are not reflected in the image and the image is not blurred. It can be so.
[0026]
[Means for Solving the Problems]
Under such an object, the present invention captures an imaging unit that acquires a captured image of the subject from radiation transmitted through the subject and an installation unit that is installed in an imaging range of the imaging unit. The obtained position detecting means for detecting the image position of the setting means, the angle obtaining means for obtaining the radiation incident angle with respect to the imaging means based on the detection result, and the radiation incident angle obtained by the obtaining means. And image processing means for performing image processing on the captured image of the subject.
[0027]
Further, the present invention provides an imaging step of acquiring a captured image of the subject from radiation transmitted through the subject, and an installation unit installed in the imaging range in the imaging step obtained by imaging the imaging step. A position detection step for detecting the image position of the installation means, an angle acquisition step for acquiring a radiation incident angle at the time of imaging in the imaging step based on the detection result, and the radiation incident angle obtained in the acquisition step. And an image processing step for performing image processing on the captured image of the subject.
[0028]
Further, the present invention is a program for causing a computer to function as a predetermined unit, wherein the predetermined unit includes an imaging unit that acquires a captured image of the subject from radiation transmitted through the subject, and the imaging unit. A position detection means for detecting an image position of the installation means obtained by photographing the installation means installed in the imaging range by the imaging means, and a radiation incident angle with respect to the imaging means is acquired based on the detection result. An angle acquisition unit and an image processing unit that performs image processing on a captured image of the subject based on the radiation incident angle obtained by the acquisition unit are provided.
[0029]
Further, the present invention is characterized in that the above-described program is recorded on a computer-readable storage medium.
[0030]
The image processing apparatus of the present invention is obtained by an imaging unit that acquires a captured image of a subject from radiation transmitted through the subject, an angle acquisition unit that acquires a radiation incident angle with respect to the imaging unit, and the angle acquisition unit. And image processing means for performing image processing on the captured image of the subject based on the radiation incident angle.
Another feature of the present invention is that it has an imaging unit that acquires a captured image of the subject from radiation transmitted through the subject, and an angle acquisition unit that acquires a radiation incident angle with respect to the imaging unit. Features.
[0031]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of an image processing apparatus, an image processing system, an image processing method, a storage medium, and a program according to the present invention will be described below with reference to the drawings.
[First Embodiment]
The present invention is applied to, for example, an X-ray imaging system 1 as shown in FIG.
Hereinafter, the configuration and operation of the X-ray imaging system 1 of the present embodiment will be specifically described.
[0032]
<Configuration of X-ray imaging system 1>
The X-ray imaging system 1 shown in FIG. 1 includes an X-ray room 10, an X-ray control room 12, and a diagnostic room (including other operation rooms) 14.
[0033]
First, the configuration of the X-ray chamber 10 will be described.
The X-ray room 10 includes an X-ray generator 40 that generates X-rays, a subject (patient) 50, an imaging bed 48, an X-ray detection system 51 including an X-ray detector 52, and a thin X-ray detector 152. Etc. are installed.
[0034]
The X-ray generator 40 includes, for example, an X-ray tube 42 that generates X-rays, a high-voltage generation power source 44 that drives the X-ray tube 42, and an X-ray beam generated from the X-ray tube 42 in a desired imaging region. And an X-ray aperture 46, a CCD camera 47, and the like.
[0035]
The imaging bed 48 is a bed for installing a subject (patient or the like) 50. The imaging bed 48 is driven by a control signal transmitted from the imaging controller 24 in the X-ray control room 12 described later.
In addition, by driving the imaging bed 48 as described above, the direction of the subject 50 can be changed with respect to the X-ray beam generated from the X-ray generator 40.
[0036]
The X-ray detection system 51 includes an X-ray detector 52, a driver 62, and the like.
[0037]
The X-ray detector 52 has, for example, a laminated structure including a grid 54, a scintillator 56, and a photodetector array 58 on the X-ray exposure monitor 60. The X-ray beam transmitted through the couch 48 is detected.
[0038]
The grid 54 reduces the influence of X-ray scattering caused by transmission of X-rays through the subject 50. The grid 54 includes an X-ray low-absorption member and a high-absorption member, and has, for example, a stripe structure of Al and Pb.
[0039]
In the scintillator 56, the host material of the phosphor is excited (absorbed) by high-energy X-rays, and fluorescence in the visible region is generated by the recombination energy.
That is, the scintillator 56 converts X-rays generated from the X-ray generator 40 into visible light.
In such a scintillator 56, the fluorescence generated by the recombination energy when the phosphor is excited is, for example, the emission center added to the mother body such as CaWo4 or CdWo4 or the mother body such as CsI: Tl or ZnS: Ag. Caused by the substance.
[0040]
An example of the phosphor most frequently used in the X-ray imaging system 1 is a CsI columnar crystal. When a CsI columnar crystal is used, fluorescence is easily propagated in the direction of the columnar crystal in frontal photography.
[0041]
The photodetector array 58 converts visible light from the scintillator 56 into an electrical signal.
[0042]
The driver 62 is used as a drive source that drives the photodetector array 58 and vibrates the grid 54, and is driven based on a command from the imaging controller 24 in the X-ray control room 12 during X-ray irradiation. The control signal 62 is output to vibrate the grid 54. This is to prevent moiré from occurring in the X-ray image due to the relationship of the lattice ratio between the photodetector array 58 and the grid 54.
The driver 62 reads out signals from each pixel of the photodetector array 58 based on a command from the imaging controller 24.
[0043]
Note that it is also possible to determine whether or not to vibrate the grid 54 according to the selection of the X-ray photographer, and to image the subject 50 with the grid 54 fixed. When the subject 50 is imaged with the grid 54 fixed, the grid 54 is set so that moiré such as aliasing and beats is unlikely to occur due to the lattice ratio relationship between the photodetector array 58 and the grid 54. It is desirable to do.
In addition, although the grid stripes themselves appear in the X-ray image, it is also desirable to perform processing that weakens the frequency of the grid stripes by image processing.
[0044]
The X-ray exposure monitor 60 includes an amorphous silicon light-receiving element formed on the back surface of the photodetector array 58. The X-ray exposure monitor 60 transmits excessive light (excessive power proportional to the X-ray dose) transmitted through the photodetector array 58. The light quantity information is supplied to the imaging controller 24 of the X-ray control room 12. Thereby, the imaging controller 24 controls the high-voltage generating power supply 44 included in the X-ray generator 40 based on the information from the X-ray exposure monitor 60 to adjust the X-ray dose.
[0045]
The X-ray exposure monitor 60 is installed for the purpose of monitoring the amount of X-ray transmission, and may be configured to directly detect X-rays using a crystalline silicon light-receiving element or the like, or to detect fluorescence using the scintillator 56. It is good.
[0046]
In this embodiment, the scintillator 56 and the photodetector array 58 are separately provided. However, for example, a detector that directly converts X-rays into electrical signals may be provided. . Examples of detectors that directly convert X-rays into electrical signals include X-ray detectors composed of a light-receiving unit such as amorphous Se or PbI2 and amorphous silicon TFTs.
[0047]
In order to detect the X-ray beam, in addition to the X-ray detector 52, a thin X-ray detector 152 is also used as shown in FIG.
As with the X-ray detector 52, the thin X-ray detector 152 is a driver that drives the photodetector array 58 together with a laminate including a scintillator 56, a photodetector array 58, an X-ray exposure monitor 60, and the like. 62 etc. are provided.
The thin X-ray detector 152 is connected to another thin X-ray detector 152 connected to the system controller 20 via the repeater 153, for example, when photographing an extremity.
[0048]
Differences between the X-ray detector 52 and the thin X-ray detector 152 described above include the following points.
(1) The thin X-ray detector 152 is thinner than the X-ray detector 52, and has a thickness of about 20 mm or less, similar to a film screen cassette, for example.
(2) The thin X-ray detector 152 does not include the grid 54.
(3) The thin X-ray detector 152 includes a simple power source and a large capacity (for example, 10 images or more and 20 images or less) memory.
(4) The thin X-ray detector 152 can perform transmission / reception of an image signal and a control signal without a cable with the repeater 153.
[0049]
Note that the thin X-ray detector 152 is not limited to one of a plurality of types of sensors. For example, a sensor having a different spatial resolution or the size of the thin X-ray detector 152 (the size of the imaging region). It can be used by exchanging with a different sensor or the like.
Even when the cable 154 is not connected to the thin X-ray detector 152, the thin X-ray detector 152 can operate. When the cable 154 is used, image transfer to the image processor 26 can be performed at high speed, so that image acquisition, image processing, and image confirmation processing for a subject after X-ray imaging are performed in a shorter time.
[0050]
Next, the configuration of the X-ray control room 12 will be described.
The X-ray control room 12 includes an operator 21, a monitor display (hereinafter abbreviated as a monitor) 30, an operator interface 22, a system controller 20, and the like.
[0051]
The monitor 30 displays a captured image.
The operator interface 22 is used by the operator 21 to input various commands to the system controller 20, and includes an X-ray exposure request SW, a touch panel, a mouse, a keyboard, a joystick, a foot switch (not shown), and the like. It is a configuration.
[0052]
The operator 21 refers to, for example, command information (for example, imaging conditions (still image / video, X-ray tube voltage, X-ray tube voltage, etc.) to the system controller 20 via the operator interface 22 while referring to the captured image displayed on the monitor 30. Tube current, X-ray irradiation time, etc.), imaging timing, image processing conditions, subject ID, and conditions relating to a captured image processing method, etc.).
[0053]
The system controller 20 controls the overall operation of the X-ray imaging system 1 and includes the imaging controller 24, the image processor 26, the storage device 28, the display controller 32, the external storage device 34, and the LAN board 36. Is included.
[0054]
The imaging controller 24 controls the X-ray detection system 51 installed in the X-ray room 10 described above.
[0055]
The image processor 26 performs image processing (for example, irradiation field recognition, image data correction, spatial filtering, recursive processing, gradation processing, scattered radiation correction, and image processing on the image data obtained by the X-ray detection system 51. Dynamic range (DR) compression, etc.).
[0056]
The storage device 28 stores a large amount of image data processed by the image processor 26 at high speed, and includes, for example, a hard disk array such as a RAID.
[0057]
The display controller 32 performs control for displaying various characters and images on the monitor 30.
The external storage device 34 is a large-capacity storage device such as a magneto-optical disk.
[0058]
The LAN board 36 connects the device in the X-ray control room 12 and the device in the diagnostic room 14, and transfers the captured image taken in the X-ray room 10 to the device in the diagnostic room 14.
[0059]
Next, the configuration of the diagnostic room 14 will be described.
The diagnostic room 14 includes an image processing terminal 70, a video display monitor 72, an image printer 74, and a file server 76 for storing image data.
[0060]
The image processing terminal 70 is a terminal device for supporting image processing or diagnosis of the image from the LAN board 36 described above. In order to instruct the information about the imaging subject 50, the imaging method, and the like by the operator 21, a LAN is used. It is connected to the HIS / LIS etc. via the board 36.
[0061]
The video display monitor 72 displays an image (moving image / still image) from the LAN board 36, and the X-ray incident angle information 8 displayed on the monitor 30 is also displayed on the video display monitor 72.
[0062]
The control signal for controlling the operation of each device connected to the system controller 20 is sent from the operator 21 in the operator interface 22 in the X-ray control room 12 or the image processing terminal 70 in the diagnostic room 14. Output by operating.
[0063]
<Basic operation of X-ray imaging system 1>
A basic operation of the X-ray imaging system 1 shown in FIG. 1 will be described.
The high voltage generation power supply 44 of the X-ray generator 40 applies a high voltage for X-ray generation to the X-ray tube 42 in accordance with a control signal from the imaging controller 24. Thereby, the X-ray tube 42 generates an X-ray beam.
[0064]
An X-ray beam generated by the X-ray tube 42 is irradiated to a subject (patient or the like) 50 via an X-ray stop 46. The imaging controller 24 controls the X-ray diaphragm 46 according to the position of the X-ray beam to be irradiated. Accordingly, when the X-ray imaging region is changed, the X-ray diaphragm 46 shapes the X-ray beam so as not to perform X-ray irradiation on unnecessary portions.
[0065]
The X-ray beam output by the X-ray generator 40 passes through the subject 50 placed on the imaging bed 48 and the imaging bed 48 and enters the X-ray detector 52. At this time, the imaging controller 24 controls the operation of the imaging bed 48 so that the X-ray beam is transmitted through different parts or directions of the subject 50.
[0066]
The grid 54 vibrates in accordance with a command from the imaging controller 24 so as not to generate moiré due to the relationship of the lattice ratio between the photodetector array 58 and the grid 54.
[0067]
The scintillator 56 absorbs the irradiated X-rays by the phosphor base material, and generates fluorescence in the visible region by the recombination energy generated at that time.
The photodetector array 58 disposed adjacent to the scintillator 56 converts the fluorescence generated by the scintillator 56 into an electrical signal.
That is, the scintillator 56 converts the X-ray image into a visible light image, and the photodetector array 58 converts the visible light image into an electrical signal.
[0068]
The X-ray exposure monitor 60 detects visible light that is proportional to the X-ray dose transmitted through the photodetector array 58 and transmits the detected amount information to the imaging controller 24.
The imaging controller 24 controls the high-voltage generating power supply 44 based on the X-ray exposure information detected by the X-ray exposure monitor 60 to block X-rays or adjust the X-ray dose.
[0069]
The driver 62 drives the photodetector array 58 based on the control signal of the imaging controller 24 and reads the pixel signal from the X-ray detector 52 or the thin X-ray detector 152.
[0070]
The imaging controller 24 outputs the pixel signal read from the X-ray detector 52 and the thin X-ray detector 152 by the driver 62 to the image processor 26 in the X-ray control room 12.
In this case, since the noise accompanying the generation of X-rays is large in the X-ray room 10, the signal transmission path from the X-ray detector 52 to the image processor 26 needs to be a transmission path with high noise resistance. Become. For this reason, for example, it is desirable to use a digital transmission system having a high degree of error correction function, a twisted pair wire or an optical fiber shielded by a differential driver, for the signal transmission path.
[0071]
As will be described later, the image processor 26 switches the display format of the image signal based on a command from the system controller 20. The image processor 26 performs image signal correction, spatial filtering, recursive processing, and the like in real time, and executes gradation processing, scattered radiation correction, DR compression processing, and the like.
[0072]
The image processed by the image processor 26 is displayed on the screen of the monitor 30. In addition to the real-time image displayed on the screen of the monitor 30, image information (basic image information) subjected to only image correction processing by the image processor 26 is stored in the storage device 28.
Also, the image information stored in the storage device 28 is reconfigured to satisfy a predetermined standard (for example, Image Save & Carry (IS & C)) based on an instruction from the operator 21, and then the external storage device 34 and the file are stored. Stored in a hard disk or the like in the server 76.
[0073]
Since each device in the X-ray control room 12 is connected to a LAN (or WAN) via the LAN board 36, the LAN board 36 uses a predetermined protocol (for example, Digital Imaging and Communications in Medicine (DICOM)). Accordingly, the image data is output to an arbitrary monitor or the like.
For this reason, the video display monitor 72 connected to the LAN (or WAN) is configured to display a high-resolution still image and a moving image of the X-ray image, so that the video is displayed almost simultaneously with the X-ray imaging. Real-time remote diagnosis by a doctor referring to the screen of the monitor 72 becomes possible.
[0074]
Of course, a plurality of X-ray imaging systems 1 can be connected to the LAN.
[0075]
<Basic operation of the system controller 20>
A basic operation of the system controller 20 in the X-ray control room 12 shown in FIG. 1 will be described.
The system controller 20 commands an imaging condition based on an instruction from the operator 21 to an imaging controller 24 that controls the sequence of the X-ray imaging system. The imaging controller 24 controls the X-ray generator 40, the imaging bed 48, and the X-ray detector 52 based on a command from the system controller 20 to perform X-ray imaging of the subject 50.
[0076]
In this case, the X-ray image output from the X-ray detector 52 is supplied to the image processor 26, and predetermined image processing designated by the operator 21 is performed by the image processor 26.
Image processing data (X-ray image data) subjected to image processing by the image processor 26 is displayed on the monitor 30. The image data is stored in the storage device 28 as basic image data.
[0077]
When the image processing is instructed again by the operator 21, the system controller 20 performs the corresponding image processing on the image data (X-ray image data) and displays the image processing result on the monitor 30. The system controller 20 controls various devices connected to the system controller 20 via the network 77 for image data transfer, storage, video display, film printing, and the like.
[0078]
The means for connecting to the system controller 20 is not limited to the network 77, and can be applied to other communication networks capable of transferring image processing data.
[0079]
FIG. 2 shows a block configuration of the image processor 26.
As shown in FIG. 2, the image processor 26 includes a multiplexer 801 for selecting a data path, an X-ray image frame memory 802, a dark image frame memory 803, an offset correction circuit 804, a gain correction data frame memory 805, a gain. The correction circuit 806, the defect correction circuit 807, and other image processing circuits 808 are included.
[0080]
As described above, X-rays are converted into image data of electrical signals by the photodetector array 58 of the X-ray detection system 51, and the signals of the respective pixels of the image data are converted by the driver 62 into the X-ray detector 52 or It is read from the thin X-ray detector 152 and output to the image processor 26.
[0081]
In this case, the X-ray image acquired by the X-ray image acquisition frame (Frxo frame) of the photodetector array 58 is sent to the X-ray image frame memory 802 via the multiplexer 801 in the image processor 26 shown in FIG. Is remembered. The corrected image acquired in the corrected image acquisition frame (Frno frame) of the photodetector array 58 is stored in the dark image frame memory 803 via the multiplexer 801.
The image processor 26 uses the dark image frame memory 803 in order to correct the solid pattern noise of the photodetector array 58.
[0082]
When the image data read from the X-ray detector 52 and the like by the driver 62 and output to the image processor 26 is stored in the frame memories 802 and 803, the offset correction circuit 804 in the image processor 26 Offset correction (for example, Frxo-Frno) is performed on the image data. Further, the offset correction circuit 804 performs gain correction (for example, (Frxo-Frno) / Fg) on the image data based on the gain correction data Fg acquired in advance and stored in the gain correction data frame memory 805. I do.
[0083]
The purpose of the above-described gain correction circuit 806 to perform gain correction on the image data is to correct the sensitivity difference for each pixel of the photodetector array 58, and at the same time, the shock absorber 78, the grid 54, This is because the material unevenness of the upper cover 80 and the like is also corrected simultaneously by the gain correction.
[0084]
X-ray imaging for performing gain correction is referred to as calibration or white imaging, and gain correction data or gain image is also referred to as a calibration image or white image.
[0085]
The image data that has been subjected to gain correction by the gain correction circuit 806 is further transferred to the defect correction circuit 807. The correction circuit 807 performs correction processing for a portion caused by the sensor in the X-ray detector 52. For example, the correction circuit 807 continuously interpolates the image data so as not to cause unnaturalness in the image corresponding to the insensitive pixels or the joints of the X-ray detector 52 composed of a plurality of panels. To do.
[0086]
In the present embodiment, the image processor 26 is configured to be provided in the system controller 20. However, the image processing function that greatly depends on the above-described photodetector array 58 includes the image processing function. The image processor 26 may be configured to be incorporated in the X-ray detector 52 or the thin X-ray detector 152.
[0087]
The image processing circuit 808 performs general image processing (for example, gradation processing, frequency processing, enhancement processing, etc.) on the image data, and transfers the image processed data to the display controller 32. The monitor 30 displays the data transferred from the display controller 32 as a captured image.
[0088]
<Calculation processing of oblique angle of X-ray incidence>
Conventionally, during oblique imaging, particularly in the case of low X-ray energy imaging, a structure such as a cover of the X-ray imaging apparatus or a phosphor is reflected in the X-ray image. Therefore, in the present embodiment, in order to solve this problem, for example, an incident angle (X-ray incident oblique angle) where X-rays are incident is calculated, and the structure that appears on the image using the X-ray incident oblique angle is calculated. Correct the image.
[0089]
That is, in the present embodiment, an arbitrary structure (hereinafter referred to as “specific structure”) is set in the imaging region and X-ray imaging is performed, and position information on the image of the structure reflected on the image is obtained. And calculate the X-ray incident oblique angle. FIG. 5 shows a state where the specific structure 4 is installed on the grid 54 and the photodetector array 58.
[0090]
FIG. 3 shows an operational flow of angle information detection processing for calculating an X-ray incident oblique angle (hereinafter also simply referred to as “angle”). The angle information detection process shown in FIG. 3 is performed in the image processing circuit 808 included in the image processor 26 shown in FIG.
[0091]
As shown in FIG. 3, the image processing circuit 808 includes angle information (X-ray incident oblique angle) based on two pieces of image data obtained from frontal imaging and oblique imaging (hereinafter also referred to as “current imaging”) with respect to the subject 50. ) Is calculated.
The current imaging refers to normal imaging generally performed in X-ray imaging. Moreover, front imaging | photography is imaging | photography performed in order to obtain | require the position coordinate of the specific structure 4 used as the reference | standard of angle detection.
[0092]
Step S300:
In oblique imaging (current imaging), the X-ray generator 40 irradiates the subject 50 with X-rays to perform X-ray imaging. Normally, the X-ray beam is X-ray 3 as shown in FIG. Then, it is incident on the subject 50 in an arbitrary oblique direction.
Step S301:
The image processor 26 acquires photographed image data including the image data of the specific structure 4 as shown in FIG. 4 by the current photographing in step S300. The specific structure 4 is X-rayed at the same time as the subject 50, and a tangible object installed in the X-ray detection system 51 so that it can be detected on the same X-ray image as the subject 50 in the image processing by the image processor 26. It is.
Step S302:
The image processing circuit 808 detects the position information of the subject 50 that appears in the X-ray image data at the time of imaging this time, and executes processing for detecting the position information of the specific structure 4. Step S303:
Separately from the current shooting, the front shooting of the specific structure 4 is performed. Front imaging refers to imaging in which X-rays are irradiated perpendicularly to the specific structure 4 like the X-ray 2 shown in FIG.
[0093]
As will be described later in step S306, since the X-ray incident oblique angle calculated from the X-ray image position of the specific structure 4 is based on the X-ray image position at the time of front imaging, the alignment is as accurate as possible at the time of front imaging. Thus, the specific structure 4 is installed in the X-ray direction.
As a method for performing accurate alignment as described above, for example, a mirror is placed between the X-ray tube 42 and the X-ray detection system 51, and reflection of light from the mirror illuminated by a light bulb is used. Therefore, it is possible to perform alignment at the time of front photographing.
[0094]
After the specific structure 4 is installed in the X-ray detection system 51 with such an accurate alignment, it is necessary to photograph the specific structure 4 in front at the time of the installation in advance. You may make it image | photograph the specific structure 4 for every certain period. In this case, the image processing circuit 808 calculates the X-ray incident oblique angle based on the X-ray image position obtained by front imaging of the specific structure 4 performed every day or every certain period.
[0095]
Step S304:
By front imaging in step S303, the image processing circuit 808 acquires X-ray image data obtained by imaging the specific structure 4. The position information of the specific structure 4 on the X-ray image data is used to calculate the X-ray incident oblique angle in step S306.
[0096]
Step S305:
The image processing circuit 808 detects the position information of the specific structure 4 that appears in the X-ray image data at the time of front imaging, as in the case of the current imaging.
[0097]
However, the image processing circuit 808 does not necessarily need to detect the X-ray image position of the specific structure 4 obtained at the time of front photographing, for example, the specific structure 4 photographed at the front when the specific structure 4 is installed. As long as the X-ray image position is used, it is only necessary that the image processing circuit 808 knows in advance the position information of the specific structure 4 on the image.
However, when there is a movement of the position of the specific structure 4 or the like, it is desirable that the front image is taken after the specific structure 4 is moved, not the front image is taken when the specific structure 4 is installed.
[0098]
Step S306:
The image processing circuit 808 calculates an X-ray incident oblique angle from two pieces of X-ray image position information on the specific structure 4 obtained by the front imaging in step S305 and the oblique imaging in step S302, and the X-ray incidence is performed. Based on the oblique angle, correction processing (calibration processing) of the position of the subject 50 is performed.
[0099]
In this case, since the image processing circuit 808 can accurately calculate the oblique angle of X-ray incidence, (1) the physical position of the specific structure 4 is captured (obliquely) from the time of front imaging (step S303). (Shooting) (Step S300) that it is not moving, (2) The position of the specific structure can be determined in the front-shot image (Step S304), (3) The current shooting (oblique shooting) image In (Step S302), it is necessary to be able to determine the position of the specific structure.
[0100]
The image processing circuit 808 detects the X-ray image position coordinates of the specific structure 4 at the time of the front image and the oblique image, and then compares the two position coordinates with the X-ray position information / angle table 500. X-ray incident oblique angle is calculated.
[0101]
The X-ray incident oblique angle calculated by the image processing circuit 808 is stored in the X-ray incident oblique angle storage unit 510 and displayed on the X-ray incident oblique angle display unit 520.
Here, the X-ray incident oblique angle storage unit 510 corresponds to, for example, the storage device 28 or the external storage device 34, and the X-ray incident oblique angle display unit 520 includes, for example, the monitor 30 or the video display monitor 72. Corresponds.
[0102]
Next, a specific calculation process of the X-ray incident oblique angle in the image processing circuit 808 will be described below.
FIG. 4 shows a partial cross-sectional view and an X-ray image of the X-ray detection system 51 including the specific structure 4. In FIG. 4A, after the X-rays 2 and 3 pass through the specific structure 4, the X-rays 2 and 3 further pass through the cover 80 and the shock absorber 78 and are converted into visible light by the phosphor 56. It is sectional drawing of the X-ray detection system 51 when it detects by (1).
[0103]
A distance D <b> 200 illustrated in FIG. 4A is a distance between the specific structure 4 and the photodetector array 58. Also, the inter-image distance dLx201 shown in FIGS. 4B and 4C is the amount of displacement of the position coordinates between the front image and the current imaged (oblique imaged) image of the specific structure 4.
[0104]
4B is a front image of the specific structure 4 shown in FIG. 4A, and FIG. 4C is an oblique image of the specific structure 4 shown in FIG. 4A. is there.
4 (d) and 4 (e) are diagrams showing profiles of the front and oblique images of the specific structure 4 shown in FIGS. 4 (b) and 4 (c), respectively.
[0105]
As shown in FIGS. 4D and 4E, the image profile of the specific structure 4 generally has lower pixel values distributed toward the center of the specific structure 4 due to the influence of scattered X-rays.
[0106]
Therefore, when the boundary line of the specific structure 4 on the image can be extracted, the image processing circuit 808 calculates the center position of the specific structure 4 based on the position coordinates of the center of gravity of the specific structure 4. Alternatively, the image processing circuit 808 obtains the position coordinate having the smallest pixel value among the peripheral pixels of the specific structure 4 on the assumption that it is the center of the specific structure 4.
[0107]
The above-described processing for detecting the position coordinates of the specific structure 4 by the image processing circuit 808 may be automatically executed by the image processor 26 or manually, but the image processor 26 may detect the position coordinates. In the case of automatic detection, the size of the specific structure 4 needs to be at least two pixels on the image from the viewpoint of detection accuracy.
In addition, it is necessary to reduce the thickness (height) of the specific structure 4 in order to increase the accuracy of angle detection. This is to prevent the image of the specific structure 4 from being shifted due to the influence of the thickness of the specific structure 4.
[0108]
Therefore, as a material of the specific structure 4, for example, lead which is a material having a low X-ray transmittance is desirable even when the scattered radiation is small and the thickness is small.
[0109]
From the position coordinates of the center of gravity or the minimum pixel position coordinates of the specific structure 4 as described above, the image processing circuit 808 obtains the center position coordinates of the specific structure 4 and calculates the displacement dLx201 based on the center position coordinates. Further, by using the distance value D200 between the specific structure 4 and the photodetector array 58, the angle θ is expressed by the equation tan. -1 Calculated by (dLx / D).
[0110]
5A and 5B are three-dimensional views of the X-ray detection system 51 shown in FIG. The specific structure 4 existing on the shock absorber 78 will be described with reference to FIG.
In general, the thin X-ray detector 152 needs to reduce static pressure and impact from the outside as compared with the standing-up position X-ray detector 52, and therefore, for example, using a shock absorber 78 or the like. Protect the thin X-ray detector 152 from external impacts.
[0111]
Although it is necessary to install the shock absorbing material 78 also on the front surface of the scintillator 56, foaming unevenness is large when, for example, an α-gel foaming material is used as the material of the absorbing material. For this reason, if the alignment between the white image shooting and the actual image shooting is slightly different, foaming unevenness appears on the image and noise is generated.
[0112]
Therefore, as shown in FIG. 5A, it is desirable to install the specific structure 4 on the shock absorbing material 78 which is the most likely cause of image noise during oblique shooting. In addition, by installing the specific structure 4 inside the upper cover 80, the position of the specific structure 4 can be prevented from changing compared to when the specific structure 4 is installed.
[0113]
Further, when detecting the X-ray incident oblique angle, the specific structure 4 does not necessarily have to exist on the shock absorber 78. For example, the specific structure 4 may be provided on the grid 54 as shown in FIG.
[0114]
Further, when the specific structure 4 is on the upper cover 80, the specific structure 4 is always mounted on the upper cover 80, so that the operator 21 can easily grasp the setting location from the outside. can do.
[0115]
4 and 5, the specific structure 4 is installed on the upper surface of the upper cover 80. However, depending on the usage of the cassette, the specific structure 4 may be installed on the lower surface of the upper cover 80. Sometimes it is good.
[0116]
The specific structure 4 is embedded in any of the shock absorbing material 78, the grid 54, and the upper cover 80, and the specific structure 4 is shown in FIG. It is desirable to embed it on the shock absorber 78.
[0117]
FIG. 6 shows an example of the installation position of the specific structure 4 in the thin X-ray detector 152. As shown in FIGS. 6A and 6B, it is desirable that the specific structure 4 is installed so that there are a plurality of installation positions at the end in the captured image.
It is desirable to install a plurality of specific structures 4 so that the position of the specific structure 4 cannot be grasped by only one specific structure 4 depending on the subject 50 (subject, etc.) to be imaged. Because there are things. In addition, it is desirable to install the specific structure 4 at the end in the captured image. When the specific structure 4 exists in the immediate vicinity of the subject area when only the subject is to be photographed, the specific structure 4 is displayed. This is because it is necessary to avoid this.
[0118]
In FIG. 4A, it is assumed that the X-rays are isotropically emitted as visible light when interacting, and then go straight by reflection of light, etc., and a specific structure in the front and oblique images. The position of the object 4 was present on the straight extension of the visible light.
[0119]
Since the starting point of light emission as shown in FIG. 4 is the depth at which the X-rays 2 and 3 cause a photoelectric effect, the location of the starting point of visible light emission that appears in an image by oblique shooting differs depending on the X-ray energy distribution. . For this reason, the detection of the X-ray incident oblique angle in the image processing circuit 808 is not exactly the X-ray incident oblique angle, but the X-ray incident oblique angle including the influence of the X-ray energy distribution is detected. It can be said that it shows the influence on the image.
[0120]
In other words, the detection of the X-ray incident oblique angle by the image processing circuit 808 appropriately represents the influence amount of the positional deviation on the image due to the oblique angle. Therefore, in view of the influence amount on the image, the X-ray incident oblique angle can be corrected more accurately by detecting the X-ray incidence oblique angle than by directly measuring the angle. It is superior to the method of measuring the angle.
[0121]
According to the configuration of the present embodiment, the X-ray incident oblique angle can be easily and accurately calculated from the captured image, and image processing based on the X-ray incident oblique angle can be performed. In addition, it is possible to reduce the influence of the positional deviation between the position coordinates of the front image and the current image (oblique image) rather than directly measuring the X-ray incident oblique angle.
[0122]
The present invention is also applied to, for example, an X-ray imaging system or apparatus called a direct sensor.
[0123]
The direct sensor refers to an X-ray imaging system or the like that does not use the phosphor 56, and an X-ray detection array such as GaAs or a-Se can be applied to the direct sensor.
[0124]
For example, when the a-Se is used for the X-ray detection array, a thickness of about 1 mm is used to increase detection sensitivity. However, photoelectric conversion is performed when the X-ray energy at the time of oblique imaging is different. The distribution of pixels is different, and the influence of X-ray energy is increased.
For this reason, in order to reduce the influence of the X-ray energy compared with the X-ray imaging system of the indirect sensor using the phosphor 56, the X-ray incident angle as shown in the present embodiment is reduced. It is effective to perform image processing based on detection.
[0125]
In addition, the specific structure 4 in this Embodiment may contain the clearance gap part, or may be comprised from the some heterogeneous material.
[0126]
The X-ray imaging system 1 of the present embodiment is not limited to the case where a cassette is used, and can be applied to, for example, all X-ray imaging systems including a standing position or a lying position.
[0127]
[Second Embodiment]
In the present embodiment, the image processing circuit 808 included in the image processor 26 shown in FIG. 2 includes an image processing circuit 808 included in the image processor 26 shown in FIG. 2 in order to prevent image blur due to a change in the effective thickness of the phosphor 56 during oblique shooting. Using the X-ray incident oblique angle information calculated in the first embodiment described above, the shading correction parameter and the directivity of the sharpening filter (the property that the X-ray intensity differs depending on the incident direction) are controlled. To select the parameters to be selected.
[0128]
<Configuration of Image Processing Circuit 808>
FIG. 7 shows a configuration diagram of the image processing circuit 808 of this embodiment.
As shown in FIG. 7, the image processing circuit 808 includes an angle information detection unit 219, a shading correction unit 216, a sharpening processing unit 218, an angle / shading correction parameter conversion table 210, and an angle / sharpening processing parameter conversion table 215. It is configured.
[0129]
The image processing circuit 808 performs image processing, which will be described later, on the image data output from the defect correction circuit 807 included in the image processor 26, and then generates image processed data and X-rays generated by the image processing circuit 808. The incident oblique angle information is output to the display 32.
The display 32 includes an image display unit 220 and an X-ray incident oblique angle display unit 221. The image display unit 220 displays the image processed data, and the X-ray incident oblique angle display unit 221 displays X-ray incident oblique angle information. The image display unit 220 corresponds to, for example, the monitor 30 or the video monitor 72 shown in FIG.
[0130]
The angle information detection unit 219 executes processing for detecting the X-ray incident oblique angle shown in steps S300 to S306 shown in FIG.
[0131]
The shading correction unit 216 performs a shading correction process based on the angle information detected by the angle information detection unit 219. This is because, when the photodetector array 58 included in the X-ray detection system 51 shown in FIG. 1 is tilted with respect to the X-ray tube 42, shading occurs due to different X-ray doses. This is because correction processing needs to be performed.
[0132]
The sharpening processing unit 218 creates a blurred image based on the original image, creates a high-frequency image from the difference between the original image and the blurred image, and further adds the high-frequency image and the original image to enhance the edge-enhanced image. Is generated.
[0133]
The angle / shading correction parameter conversion table 210 is a table that is referred to when the shading correction unit 216 determines a correction parameter.
[0134]
The angle / sharpening processing parameter conversion table 215 is a table that is referred to when the sharpening processing unit 218 determines parameters for sharpening.
[0135]
<Operation of Image Processing Circuit 808>
An operation for selecting a shading correction parameter by the image processing circuit 808 and a parameter for controlling the directivity of the sharpening filter (the property that the X-ray intensity differs depending on the incident direction) will be described.
[0136]
(1) Shading correction parameter selection operation
As described above, since the shading occurs because the photodetector array 58 is inclined with respect to the X-ray tube 42 and the X-ray dose irradiated thereby varies, the shading correction unit 216 uses the angle information. Based on the X-ray incident oblique angle information detected by the detection unit 219, correction processing is performed on the image data output from the defect correction circuit 807.
[0137]
Specifically, the shading correction unit 216 first calculates a value corresponding to the reciprocal of the arrival X-ray dose of the pixel at each position in the image, and the X-ray incident oblique angle information detected by the angle information detection unit 219. read. Next, the shading correction unit 216 refers to the angle / shading correction parameter conversion table 210 and selects a parameter for converting a value corresponding to the reciprocal of the arrival X-ray dose of each pixel into X-ray incident oblique angle information. . Next, the shading correction unit 216 adds the selected parameter to the output value of the photodetector array 58. As a result, the shading correction unit 216 can perform shading correction of image data.
[0138]
(2) Parameter selection operation for controlling the directivity of the sharpening filter
First, image sharpening processing and selective sharpening processing will be described. Next, selection of parameters for controlling the directivity of the sharpening filter will be described.
[0139]
(I) Image sharpening processing
FIG. 8 is a diagram showing the concept of image sharpening processing (simple unsharp masking processing) executed by the sharpening processing unit 218 shown in FIG.
As shown in FIG. 8, the sharpening processing unit 218 first creates an image G (x, y) 231 in which the original image F (x, y) 230 is blurred as described later, and the original image F (x, y y) A high-frequency image Fhf (x, y) 232 is created by subtracting the blurred image G (x, y) 231 from 230.
Next, the sharpening processing unit 218 adds the high-frequency image Fhf (x, y) 232 to the original image F (x, y) 230 to enhance the emphasized image Fusm (x, y) 233 whose edge is enhanced. Create
[0140]
FIG. 9 is a diagram showing the concept of the smoothing (spatial) filter executed by the sharpening processing unit 218 shown in FIG.
The sharpening processing unit 218 uses a smoothing (spatial) filter shown in FIG. 9 in order to create the blurred image G (x, y) 231 shown in FIG. Here, the smoothing (spatial) filter refers to an N × N matrix filter in which all coefficients are 1 / (N · N). The N is a value determined depending on the frequency band parameter in the simple unsharp masking process shown in FIG.
[0141]
The frequency band parameters will be described with reference to FIGS.
FIG. 10 shows an example in which the frequency characteristics of the original image F (x, y) 230 are all 1, and FIG. 11 shows an example in which the frequency characteristics of the original image F (x, y) 230 are expressed by a tan function.
When the frequency characteristic of the original image is always 1 as shown in FIG. 10, the frequency characteristic of the blurred image generated by the sharpening processing unit 218 based on the smoothing (spatial) filter is the tan function as shown in FIG. Become.
In this case, the frequency band parameters (also referred to as blur mask N) shown in FIG. 9 are N = 13 in (1), N = 25 in (2), N = 45 in (3), N = 45 and (4) in FIG. N = 81.
[0142]
In the X-ray imaging system 1, an engineer (such as the operator 21) who performs image processing has the value of the blur mask N (that is, N = 13 in (1) in FIG. 11, N = 25 in (2), and (3) In order to facilitate adjustment of N = 45 by ▼ and N = 81 by (4), the display controller 32 sets the frequency band parameters to, for example, 9, 7, 5, and 3, respectively. Control for conversion is performed, and the frequency band parameter after the conversion is displayed on the monitor 30.
[0143]
FIG. 12 shows the frequency characteristics of the high-frequency image 232 generated by subtracting the blurred image G (x, y) 231 from the original image F (x, y) 230 by the sharpening processing unit 218. As shown in FIG. 12, a portion 250 having the highest frequency response is a frequency band that is most emphasized (sharpened) by image processing performed by the sharpening processing unit 218.
[0144]
FIG. 13 shows the frequency characteristics of the enhanced image Fusm (x, y) 233 obtained by adding the high-frequency image Fhf (x, y) 232 to the original image F (x, y) 230. In the present embodiment, for example, 0.33 is used as the enhancement coefficient C, and the sharpening processing unit 218 multiplies the original image 230 by C (= 0.33) and adds it to the original image 230 to obtain FIG. The enhanced image 233 having the frequency characteristics shown in FIG.
[0145]
FIG. 14 shows the frequency characteristics of the enhanced image Fusm (x, y) 233 generated by adding the high-frequency image Fhf (x, y) 232 and the original image F (x, y) 230 by the sharpening processing unit 218. These are shown for each frequency band parameter (blur mask N = 13, 25, 45, 81).
[0146]
(Ii) Selective sharpening process
The sharpening processing unit 218 performs selective sharpening processing for suppressing noise enhancement based on the simple unsharp masking processing.
The selective sharpening process by the sharpening processing unit 218 will be described with reference to FIG.
[0147]
(1) The sharpening processing unit 218 first generates a high-frequency component image 420 for the original image 400. In this case, as in the case of simple unsharp masking shown in FIG. 8, the sharpening processing unit 218 generates the high frequency component image 420 by subtracting the blurred image from the original image 400.
[0148]
(2) The sharpening processing unit 218 extracts an edge from the original image 400 and generates an edge image 410.
[0149]
(3) The sharpening processing unit 218 weights the high-frequency component image 420 based on the edge image 410, and selects a structural edge to be emphasized and an isolated noise that should not be emphasized in the image processing. That is, the high-frequency component image (selective high-frequency component image 430) selected by the sharpening processing unit 218 by the weighting is a target of the sharpening processing by the sharpening processing unit 218.
[0150]
(4) The sharpening processing unit 218 adds a predetermined enhancement coefficient C to the selective high frequency component image 430.
[0151]
(5) The sharpening processing unit 218 adds the selective high-frequency component image 430 obtained by integrating the enhancement coefficient C to the original image 400, thereby generating a final enhanced image 440.
[0152]
As described in (i) Image sharpening processing or (ii) Selective sharpening processing, the sharpening processing unit 218 is detected by the angle information detection unit 219 in the image processing circuit 808 shown in FIG. Based on the X-ray incident oblique angle information, the enhancement coefficient C to be integrated with respect to the enhanced image 233 or the selective high frequency component image 430 is set.
[0153]
Specifically, the sharpening processing unit 218 uses the fact that the substantial depth of the phosphor 56 increases and the image blurs as the X-ray incident oblique angle is inclined from the right angle. The enhancement coefficient C proportional to the size is set with reference to the angle / sharpening process parameter conversion table 215.
[0154]
That is, the sharpening processing unit 218 uses the oblique angle of X-ray incidence and the direction information thereof to increase the sharpening processing as the oblique angle of X-ray incidence increases so that the blur of the image corresponding to the oblique angle is canceled. Set the parameter value of.
[0155]
(Iii) Selection of parameters for controlling the directivity of the sharpening filter
As described above, the sharpening processing unit 218 performs image sharpening image processing based on the X-ray incident oblique angle information, and refers to the angle / sharpening processing parameter conversion table 215 to obtain the enhancement coefficient (parameter) C. Although set, the intensity of X-rays has a property (directivity) that varies depending on the incident direction.
For this reason, when selecting the enhancement coefficient (parameter) C, the sharpening processing unit 218 further controls the directivity of the sharpening filter.
[0156]
The sharpening processing unit 218 executes, for example, the following operation in order to select a parameter for controlling the directivity of the sharpening filter.
(1) When the image processing circuit 808 detects the X-ray image position of the subject in the two-dimensional plane of the X axis and the Y axis, the X-ray direction is set constant by the imaging controller 24, for example. The subject is imaged by controlling the X-ray generator 40 in a state tilted in the Y-axis direction.
[0157]
(2) The sharpening processing unit 218 compares the X-ray image data of the subject imaged by the alignment in the X-axis direction and the Y-axis direction.
[0158]
According to the data comparison between the X-axis direction and the Y-axis direction, the X-axis direction image is blurred in the X-axis direction of the image data because the substantial depth of the phosphor 56 increases. On the other hand, in the Y-axis direction, the magnified image portion generated together with the image blur of the phosphor 56 is only one of plus or minus with respect to the Y-axis direction, so the image pitch viewed from the subject by the magnified image is fine. Therefore, the image in the Y-axis direction is sharpened.
[0159]
(3) The sharpening processing unit 218 compares the sharpness of the image data for each X-ray tilt direction (for example, the X axis or the Y axis), and based on the angle information for each of the X axis and the Y axis, From the sharpening processing parameter conversion table 215, the enhancement coefficient C for each of the X axis and the Y axis is selected.
For this reason, the enhancement coefficient C is a directivity control parameter of the sharpening filter that controls the difference in the X-ray incident direction.
[0160]
The selection of the directivity control parameter of the sharpening filter based on the angle information is not limited to the sharpening filter based on the above-described unsharp masking process, and can be applied to other sharpening filters. Is.
[0161]
As described above, according to the present embodiment, the image processing parameter is selected based on the X-ray incident oblique angle information, whereby the directivity of the shading correction and the sharpening filter can be controlled.
[0162]
[Third Embodiment]
In the present embodiment, when the X-ray imaging system 1 performs oblique imaging, the structure unevenness of the substance on the front surface of the sensor that appears in the image is white that is captured at an X-ray incident angle close to the X-ray incident oblique angle in the captured image. Correct by image.
[0163]
<Configuration of Image Processing Circuit 808>
FIG. 16 shows a configuration diagram of the image processing circuit 808 of this embodiment.
As shown in FIG. 16, the image processing circuit 808 includes an angle information detection unit 107, a dark current correction unit 102, a white correction unit 103, a defective pixel correction unit 104, an image processing unit 105, an angle / white image selection table 108, white An image selection unit 109, a selection unit 110, a selected white image angle storage unit 111, and a line incident angle storage unit 112 are included.
[0164]
The image processing circuit 808 having the above configuration performs post-image processing on the image data output from the defect correction circuit 807 included in the image processor 26, and then generates post-image processing data generated by the image processing circuit 808. The selected white image angle and the X-ray incident oblique angle information are output to the display 32 (for example, the monitor 30 and the video monitor 72 shown in FIG. 1).
[0165]
The display 32 includes an image display unit 106, a selected white image angle display unit 113, and an X-ray incident oblique angle display unit 114. The image display unit 106 displays post-image processing data, the selected white image angle display unit 113 displays the selected white image angle, and the X-ray incident oblique angle display unit 114 displays the X-ray incident oblique angle on the display 32.
[0166]
The angle information detection unit 107 executes the process for detecting the oblique X-ray incidence angle described in steps S300 to S306 shown in FIG.
[0167]
The dark current correction unit 102 performs FPN (Fixed Pattern Noise) correction on the X-ray image data output from the defect correction circuit 807. FPN correction corrects the influence of dark current that varies depending on the timing and temperature during X-ray imaging or the drive system.
[0168]
The white correction unit 103 performs white correction processing on the image data. This is to correct a different gain for each pixel of the captured image, and is also referred to as calibration processing. In the present embodiment, the white correction unit 103 selects an appropriate white image for the image data based on the X-ray incident oblique angle information detected by the angle information detection unit 219, and executes a white correction process for the image data.
[0169]
The defective pixel correction unit 104 performs defect correction on the image data after white correction. Defect correction refers to a process of correcting pixels called defective pixels that occur in the manufacture of semiconductor pixels using pixel values around the defective pixels.
[0170]
The image processing unit 105 performs image processing on the image data after the defective pixel correction by the defective pixel correction unit 104.
[0171]
The white image selection unit 109 selects a white image for the captured image data based on the angle information detected by the angle information detection unit 107, and outputs the selected white image to the white correction unit 103.
[0172]
The angle / white image selection table 108 is a reference table that is referred to when the white image selection unit 109 selects a white image. The angle / white image selection table 108 includes angle information and white image information, and is stored in the gain correction data frame memory 805 shown in FIG.
[0173]
The selection unit 110 sets the priority of the white image selection criterion item and the white image selection algorithm so that the white image selection unit 109 selects an appropriate white image.
[0174]
The selected white image angle storage unit 111 stores angle information of the white image selected by the white image selection unit 109.
[0175]
The X-ray incident angle storage unit 112 stores the angle information detected by the angle information detection unit 107.
[0176]
The angle information of the white image stored by the selected white image angle storage unit 111 and the angle information stored by the X-ray incident angle storage unit 112 are stored in a storage medium outside the image processing circuit 808 (for example, the storage device 28 shown in FIG. 1). Or the structure memorize | stored in the external storage device 34) may be sufficient.
[0177]
<Operation of Image Processing Circuit 808>
The operation of the image processing circuit 808 will be described below.
[0178]
First, when the image processing circuit 808 receives the X-ray image data from the defect correction circuit 807, the dark current correction unit 102 performs FPN correction processing on the X-ray image data to reduce the influence of the image due to the dark current. Let
[0179]
Next, as described in the first embodiment, the angle information detection unit 107 detects an X-ray incident oblique angle with respect to the X-ray image data output from the defect correction circuit 807.
In this case, the angle information detection unit 107 compares two image positions at the time of front photographing and oblique photographing with respect to the specific structure 4, and detects an X-ray incident oblique angle based on the displacement amount of both image positions.
[0180]
FIG. 17 is a cross-sectional view and an X-ray image of the X-ray detection system 51 including the specific structure 4. In the case of the conventional white correction, the amount of deviation of the center position information between the front image of the specific structure 4 shown in FIG. 17A and the oblique image of the specific structure 4 shown in FIG. Due to the inter-image distance dLx201, structural unevenness appears on the front surface of the sensor on the image. The cause of such structural unevenness is that the calibration operation performed in order to consider the influence of the image positional deviation is not properly performed.
[0181]
For this reason, for example, when the image displacement amount is larger than a predetermined value, the angle information detection unit 107 notifies the operator 21 that it is appropriate to execute the calibration operation again. . The operator 21 can grasp the amount of misalignment of the subject image from the inter-image distance dLx201 based on the recommendation notification of the recalibration operation by the angle information detection unit 107, and recalibration imaging (frontal imaging) as necessary. I do.
[0182]
FIG. 18 shows a screen example in which the angle information detection unit 107 displays a message on the monitor 30 to prompt the operator 21 to perform a calibration operation again.
As illustrated in FIG. 18, the display controller 32 that has received the command from the angle information detection unit 107 displays, for example, the serial number 100 of the sensor at the time of photographing, the phosphor type 101, and the presence / absence of a grid on the screen of the monitor 30. 102, control to display the photo timer type 103, the incident direction and angle 104 of the X-ray, and the like.
[0183]
When the angle information detection unit 107 detects the X-ray incident oblique angle, the X-ray incident angle storage unit 112 stores the X-ray incident oblique angle in a storage memory (for example, the storage device 28 or the external storage device 34).
[0184]
Next, the white image selection unit 109 uses the above-described X-ray incident oblique angle information and the angle / white image selection table 108 as a white image used for white correction by the white correction unit 103 as follows. Select according to the operation described.
[0185]
<White Image Selection Operation of White Image Selection Unit 109>
The white image selection unit 109 also receives information input from the selection unit 110 when selecting a white image suitable for the imaging condition based on the angle information (X-ray incident oblique angle) detected by the angle information detection unit 107. refer.
[0186]
Specifically, the information input from the selection unit 110 to the white image selection unit 109 is predetermined priority information (for example, an angle or the like) and algorithm setting information for selecting a white image. The selection unit 110 presents an information input screen as shown in FIG. 19 to the user (operator 21 or the like) and sets white image selection information by the user.
[0187]
If the white image selection unit 109 is configured to select white image selection using priority information as shown in FIG. 19, for example, the subject is a humerus, and the noise in the vertical direction along the bone When the allowable noise value in the horizontal axis direction is strict with respect to the bone, the white image selection unit 109 can select the white image in the horizontal axis direction by placing more importance on the angle in the horizontal axis direction than the angle in the vertical axis direction. .
[0188]
As shown in FIG. 19, the priority information set when the operator 21 selects a white image specifically includes, for example, an angle 120, a dose 121, a grid 122, a photo timer 123, a frequency 124, a foreign object 125, and the like. Is mentioned.
[0189]
The angle 120 represents angle information of X-ray incidence.
[0190]
The dose 121 represents the X-ray dose used when the white correction unit 103 performs white correction.
[0191]
When the X-ray dose at the time of imaging is within the range of the dynamic range, the relationship between the X-ray dose at the time of imaging and the X-ray dose of the white image has linearity. Is not performed on the image data. For this reason, normally, the operator 21 does not need to set the dose 121 as priority information (dose 121: OFF).
[0192]
On the other hand, when the dose at the time of imaging is outside the range of the dynamic range, the relationship between the X-rays at the time of imaging and the X-ray dose of the white image has non-linearity. An extremely large white correction is performed on the image data. For this reason, normally, the operator 21 needs to set the dose 121 as priority information (dose 121: ON).
[0193]
The grid 122 and the photo timer 123 are items for setting whether to prevent the grid or the photo timer from appearing on the image due to the difference between the captured image and the white image. The operator 21 can eliminate the influence of the grid or the photo timer on the image by switching the setting of the grid 122 or the photo timer 123 to ON.
[0194]
The number of times 124 is an item for setting whether to integrate white images used in the white correction unit 103. The operator 21 switches the setting of the number of times 124 to ON, so that the white correction unit 103 performs white correction using a white image accumulated an arbitrary number of times. Note that the specific number of integrations is set by the operator 21 using another setting screen (not shown).
[0195]
The foreign object 125 is an item for setting whether or not to avoid using a white image when there is a foreign object on the white image. The operator 21 switches the setting of the foreign matter 125 to ON, so that the white image selection unit 109 selects a white image without foreign matter.
[0196]
When each item is set to OFF, it means that the information of the corresponding item does not affect the selection of the white image by the white image selection unit 109.
[0197]
In the present embodiment, the white image selection unit 109 selects an appropriate white image with the angle 120 set to ON in the priority information.
[0198]
When the operator 21 sets the angle 120 to ON in the priority information (item) for selecting a white image shown in FIG. 19, the operator 21 makes detailed settings related to the angle 120 as shown in FIG. 20. Use the setting screen.
[0199]
As shown in FIG. 20, specifically, the angle 120 is, for example, an angle 1 (vertical) 130, an angle 2 (horizontal) 131, and a selection method of the angle 1 or 2 (whether or not to use a tan function value). Etc.) Information including 132 designated items.
[0200]
For the angle 1 (vertical) 130 and the angle 2 (horizontal) 131, for example, the operator 21 determines whether or not the angle component in the X-axis (or Y-axis) direction at the X-ray incident oblique angle is used for selecting a white image. It is an item to set in.
The selection method 132 selects the white image using the value of the angle 1 (vertical) 130 or the angle 2 (horizontal) 131 as it is, or, as will be described in detail later, the angle 1 (vertical) 130 or the angle 2 ( This is an item for the operator 21 to set whether to select a white image based on a positional displacement amount obtained by converting the value of (horizontal) 131 using a conversion formula (for example, a tan function formula).
[0201]
That is, the setting of the selection method 132 shown in FIG. 20 by the operator 21 specifies what algorithm the white image selection unit 109 uses to select a white image.
This selection algorithm determines, for example, a white image photographed by X-rays incident at an angle closest to the X-ray incident oblique angle at the time of photographing in at least one direction of the X axis or Y axis on the image, The algorithm for selecting the white image or the algorithm for selecting the white image whose tan function of the X-ray incident oblique angle at the time of photographing is closest to the tan function of the incident angle at the time of photographing the white image corresponds.
[0202]
In the selection algorithm, when the angle information detection unit 107 calculates X-ray incident oblique angles in at least two directions, for example, using the angle information in the two directions or more, the least square value of the incident oblique angle difference is calculated. An algorithm that selects a white image that minimizes the sum, or an algorithm that selects a white image that minimizes the sum of the least squares of the tan function of the difference in incident oblique angle may be used.
[0203]
Specifically, the white image selection unit 109 selects a white image based on the set selection algorithm as follows.
[0204]
FIG. 21 conceptually shows the amount of image misregistration with respect to the X-ray incident oblique angle.
When the X-ray incident oblique angle at the time of photographing is θ and the X-ray incident oblique angle at the time of photographing a white image is 0 and 2θ, the white image selecting unit 109 selects a white image having an X-ray incident oblique angle of 0 and X Which one of the white images whose line incident oblique angle is 2θ is selected will be described with reference to FIG.
[0205]
When the selection method 132 shown in FIG. 20 is set to tan θ134, and in particular, an algorithm for selecting a white image that minimizes the angle difference between the white image and the photographed image, | X-ray incidence at the time of photographing Oblique angle θ−X-ray incidence oblique angle 0 | = | white image X-ray incidence oblique angle θ at the time of imaging−X-ray incidence oblique angle 2θ | = θ of white image (where | A | is the absolute value of A Therefore, two white images having an X-ray incident oblique angle of 0 or 2θ with respect to θ at the time of imaging are equivalent to each other.
[0206]
As shown in FIG. 21, when the positional deviation of the noise component on the image is seen, when the X-ray incident oblique angle at the time of white image photographing is 0, tan θ, and when the X-ray incident oblique angle at the time of white image photographing is 2θ. Is displaced by tan2θ.
[0207]
In the above case, since (tan θ−tan θ)> (tan 2θ−tan θ), the amount of influence of the positional deviation is smaller in the white image with the X-ray incident angle of 2θ than 0.
[0208]
Therefore, when the X-ray incident oblique angle at the time of photographing is θ and the X-ray incident oblique angle at the time of white image photographing is 0 and 2θ, the white image selecting unit 109 reduces the positional deviation on the image. A white image having an X-ray incident oblique angle of 2θ is selected.
[0209]
In the above case, when the operator 21 selects and sets the selection method 132 shown in FIG. 20 by selecting the simple angle difference θ133, the white image selection unit 109 has an X-ray incident oblique angle. In addition to 2θ, a white image of 0 may be selected.
[0210]
In this way, the white image selection unit 109 selects a white image by the algorithm as described above based on the X-ray incident oblique angle detected by the angle information detection unit 107 and the priority information set by the selection unit 110. However, the white image selection unit 109 further selects a white image with reference to the angle / white image selection table 108.
[0211]
An example of the angle / white image selection table 108 referred to by the white image selection unit 109 is shown in FIG.
As shown in FIG. 22, the angle / white image information table 108 includes the name of each white image represented by the sensor serial number 170, angle information (direction, angle) 171 at the time of shooting, sensor type 172, and phosphor type. 173, grid type 174, photo timer type 175, and correction table name 176.
[0212]
The white image selection unit 109 selects a white image including the priority information set by the selection unit 110 from the angle / white image information table 108.
[0213]
FIG. 23 shows a screen example in which the white image selected by the white image selection unit 109 is displayed on the monitor 30 by the display controller 32.
As shown in FIG. 23, the image display unit 106, for example, obtains the acquisition date 140, the white image name 141, the white direction (vertical) 142, the white angle (vertical) 143, the white direction (horizontal) 144, and the white angle (horizontal). ) Information such as 145 is displayed.
[0214]
If the operator 21 determines that the white image selected by the white image selection unit 109 shown in FIG. 23 is suitable for the image used in the correction of the white correction unit 103, for example, the operator 21 on the screen shown in FIG. The “OK” button 98 is input.
On the other hand, when the operator 21 determines that the white image selected by the white image selection unit 109 is not suitable for the image used in the correction of the white correction unit 103, for example, “afterwards white correction on the screen illustrated in FIG. "Button 97 or the" Cancel "button 99 on the screen is selected to cancel the selection of the white image.
[0215]
Note that the white image selected by the white image selection unit 109 based on the priority information and the setting algorithm may be configured so that the operator 21 can select any white image based on his / her own judgment.
[0216]
FIG. 24 shows an example in which the display controller 32 controls display of a captured image list in which white image information is OFF (not used) 300, which is a list screen of image lists after shooting.
FIG. 25 shows an example of a photographed image list in which white image information is turned on (used) 310. As shown in FIG. 25, the selected white image angle display unit 113 displays on the monitor 30 the angle directions 320 and 322, the angles 321 and 323 used for the white image, and the angle direction and angle (not shown) of the shooting image. indicate.
[0217]
In FIG. 25, only the angle directions 320 and 322 and the angles 321 and 323 used for the white image are displayed. However, when the operator 21 moves the scroll bar 330 at the bottom of FIG. The device 32 also displays the angle direction and angle angle direction of the image at the time of shooting. As a result, the operator 21 can compare the angle information of the white image used for white correction with the angle information of the captured image.
[0218]
If the white image selection unit 109 determines from the correction data frame memory 805 that a suitable white image does not exist when selecting a white image suitable for the shooting conditions at the time of shooting, the white image selection unit 109 issues a command to the display controller 32. The sending / display controller 32 issues a control command to display a warning message on the monitor 30 such as “Need to calibrate and capture an appropriate angle or grid”. The operator 21 referring to this display executes calibration (white image) photographing suitable for the photographed image data.
[0219]
Next, the white correction unit 103 performs white correction on the image data that has been subjected to the FPN correction processing by the dark current correction unit 102, using the white image selected by the white image selection unit 109. In this case, the white correction unit 103 creates a white image close to the detected angle by synthesizing a white image obtained by front-view photography and a white image obtained by tilting a specific angle, and the synthesis is performed. A configuration may be adopted in which white correction is performed on image data after FPN correction processing based on a white image.
[0220]
The selected white image angle storage unit 111 stores the white image selected by the white image selection unit 109 in a storage memory (for example, the storage device 28 or the external storage device 34).
[0221]
The defective pixel correction unit 104 performs correction for the defective pixel on the image data after white correction by the white correction unit 103.
[0222]
The image processing unit 105 performs image processing on the image data after the defective pixel correction by the defective pixel correction unit 104.
[0223]
The image display unit 106, the white selection image angle display unit 113, and the X-ray incident angle display unit 114 included in the display controller 32 are respectively image data and a white image selection unit that have been subjected to predetermined image processing by the image processing unit 105. Control for displaying on the monitor 30 the angle information of the white image selected by 109 and the X-ray incident oblique angle detected by the angle information detection unit 107 is performed.
[0224]
According to the present embodiment as described above, a white image captured at an angle close to the captured image is selected and image correction is performed when the X-ray image capturing apparatus performs oblique capturing, thereby correcting the image. Unevenness in the structure of the substance in front of the sensor can be eliminated.
[0225]
Another object of the present invention is to supply a storage medium storing software program codes for realizing the functions of the information terminal according to the first to third embodiments to a system or apparatus, and to use the computer of the system or apparatus. Needless to say, this can also be achieved by (or CPU or MPU) reading and executing the program code stored in the storage medium.
[0226]
In this case, the program code itself read from the storage medium realizes the functions of the first to third embodiments, and the storage medium storing the program code and the program code constitute the present invention. It becomes.
As a storage medium for supplying the program code, ROM, flexible disk, hard disk, optical disk, magneto-optical disk, CD-ROM, CD-R, magnetic tape, nonvolatile memory card, and the like can be used.
[0227]
Further, by executing the program code read by the computer, not only the functions of the first to third embodiments are realized, but also an OS running on the computer based on the instruction of the program code. Needless to say, the present invention includes a case where the functions of the first to third embodiments are realized by performing part or all of the actual processing.
[0228]
【The invention's effect】
As described above, in the present invention, in performing image processing of a captured image of a subject obtained by irradiating the subject with radiation, an installation unit (tangible object) is installed within an imageable range, and the installation unit The radiation incident angle is determined from the amount of positional deviation of the installation means obtained by comparing the captured image of the subject including the image and the white image of the installation means (the radiographic image for correcting the sensitivity difference for each pixel). The image processing parameters are acquired and selected based on the radiation incident angle.
[0229]
Thereby, for example, even when the subject is imaged by irradiating low-energy radiation from an oblique direction, a structure of the image capturing system or apparatus (for example, a structure around the image position detection sensor) is captured. It is possible to prevent blurring of the image.
[Brief description of the drawings]
FIG. 1 is a conceptual diagram showing the overall configuration of an X-ray image capturing system.
FIG. 2 is a block configuration diagram of the image processor 26, and is a diagram illustrating a configuration example for detecting angle information from position information on an image of a specific structure.
FIG. 3 is a diagram showing an angle information detection process flow in the image processor 26;
4 is a cross-sectional view of an X-ray detection system 51 including a specific structure 4. FIG.
FIG. 5 is a three-dimensional view of an X-ray detection system 51 including a specific structure 4;
FIG. 6 is a view showing an example in which a specific structure 4 is installed on an upper cover of a thin X-ray detector.
FIG. 7 is a block configuration diagram of an image processing circuit 808 included in the image processor 26 in the second embodiment, showing a configuration example for selecting an image processing parameter based on X-ray incident oblique angle information; FIG.
8 is a diagram showing a concept of image sharpening processing (simple unsharp masking processing) executed by a sharpening processing unit 218 shown in FIG.
9 is a diagram illustrating a concept of a smoothing (spatial) filter executed by a sharpening processing unit 218 shown in FIG.
FIG. 10 is a diagram illustrating frequency characteristics of an original image.
FIG. 11 is a diagram illustrating frequency characteristics of a tangent function.
FIG. 12 is a diagram illustrating frequency characteristics of a high-frequency image obtained by subtracting a blurred image from an original image.
FIG. 13 is a diagram illustrating frequency characteristics of an emphasized image obtained by adding a high-frequency image to an original image.
FIG. 14 is a diagram illustrating frequency characteristics of an enhanced image obtained by adding a high-frequency image to an original image for each enhancement degree of each sharpening filter.
FIG. 15 is a diagram illustrating a flow of a sharpening process based on an unsharp masking process.
FIG. 16 is a block configuration diagram of an image processing circuit 808 included in the image processor 26 in the third embodiment, and shows a configuration example for selecting a white image selection based on X-ray incident oblique angle information; FIG.
FIG. 17 is a schematic diagram of an image and a profile for front shooting and oblique shooting.
FIG. 18 is a diagram showing a message screen indicating that the angle information detection unit 107 prompts the operator 21 to perform a recalibration operation.
FIG. 19 is a diagram showing a screen for setting priorities of items when an operator 21 selects a white image.
20 is a diagram showing a screen for the operator 21 to set more detailed angle information when an angle is selected by the selection item of FIG. 19;
FIG. 21 is a diagram showing a positional relationship in a white image with an oblique X-ray incident angle for each θ.
22 is a diagram showing an example of an angle / white image selection table 108 referred to by the white image selection unit 109 shown in FIG.
23 is a diagram showing an example of a screen on which an operator 21 determines a white image selected by a white image selection unit 109. FIG.
FIG. 24 is a diagram showing an example of a captured image list when white image information is OFF.
FIG. 25 is a diagram showing an example of a photographed image list when white image information is ON.
[Explanation of symbols]
1 X-ray imaging system
2 X-ray
3 X-rays with oblique incidence
4 specific structures
10 X-ray room
12 X-ray control room
14 Diagnostic room (including other operation rooms)
20 System controller
21 Operator
22 Operator interface
24 Shooting controller
26 Image processor
28 Storage device
30 Monitor display (monitor)
32 Display controller
34 External storage
36 LAN board
40 X-ray generator
42 X-ray tube
44 High voltage generator
45 Reflector
46 X-ray aperture
47 CCD camera
48 Sleeper for shooting
50 subjects
52 X-ray detector
54 grid
56 Scintillator
58 Photodetector array
60 X-ray exposure monitor
62 Driver
70 Image processing terminal
72 Video display monitor
74 Image printer
76 File Server
78 Shock absorber
80 Top cover
82 Lower cover
84 Available range
90 Operation screen
91 Display screen
92 Decision button
93 Instruction button
87 Area for setting the priority of white image selection
98 OK button
99 CANCEL button
102 Dark current correction unit
103 White correction section
104 Defective pixel correction unit
105 Image processing unit
106 Image display section
106 Image display section
107 Angle information detector
108 Angle / white image selection table
109 White image selector
110 Selector
111 selected white image angle holding unit
112 X-ray incident angle storage unit
113 Selected white image angle display section
114 X-ray incident angle display
152 case
200 Detector-specific structure distance
201 Displacement amount on image of specific structure
801 Multiplexer for selecting data path
802 X-ray image frame memory
803 Frame memory for dark images
804 Offset correction circuit
805 Frame memory for gain correction data
806 Gain correction circuit
807 Defect correction circuit
808 Other image processing circuits

Claims (18)

被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像手段と、
上記撮像手段における撮像範囲に設置される設置手段を、上記撮像手段により撮像して得られた当該設置手段の画像位置を検出する位置検出手段と、
上記検出結果に基づき、上記撮像手段に対する放射線入射角度を取得する角度取得手段と、
上記取得手段で得られた上記放射線入射角度に基づき、上記被写体の撮像画像に対して画像処理を行う画像処理手段とを有することを特徴とする画像処理装置。
Imaging means for acquiring a captured image of the subject from radiation transmitted through the subject;
A position detection means for detecting an image position of the installation means obtained by imaging the installation means installed in the imaging range of the imaging means by the imaging means;
An angle acquisition means for acquiring a radiation incident angle with respect to the imaging means based on the detection result;
An image processing apparatus comprising: an image processing unit that performs image processing on a captured image of the subject based on the radiation incident angle obtained by the acquisition unit.
上記画像処理手段で実行される処理は、少なくとも上記被写体の白補正又はシェーディング補正の何れかの補正を行うことを含むことを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the processing executed by the image processing means includes at least correction of white correction or shading correction of the subject. 上記画像処理手段は、上記放射線入射角度に基づき画像処理パラメータを選択することを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, wherein the image processing unit selects an image processing parameter based on the radiation incident angle. 上記画像処理パラメータは、鮮鋭化フィルタの指向性を制御するパラメータ及びシェーディング補正パラメータの少なくとも何れかを含むことを特徴とする請求項3記載の画像処理装置。The image processing apparatus according to claim 3, wherein the image processing parameter includes at least one of a parameter for controlling directivity of a sharpening filter and a shading correction parameter. 上記撮像手段により得られた白画像情報を格納する格納手段を有し、
上記白補正に用いる白画像情報として、上記放射線入射角度に基づき上記格納手段内の該当する白画像を選択する白画像選択手段を有することを特徴とする請求項2記載の画像処理装置。
Storing means for storing white image information obtained by the imaging means;
3. The image processing apparatus according to claim 2, further comprising white image selection means for selecting a corresponding white image in the storage means based on the radiation incident angle as white image information used for the white correction.
上記白画像選択手段は、前記撮影時のX線入射角度と最も近いX線入射角度の白画像、又は前記撮影時の前記X線入射角度を変数とした関数の値が最も近い白画像、の何れかを選択することを特徴とする請求項5記載の画像処理装置。The white image selection means includes a white image having an X-ray incident angle closest to the X-ray incident angle at the time of imaging, or a white image having a function value closest to the X-ray incident angle at the time of imaging as a variable. 6. The image processing apparatus according to claim 5, wherein either one is selected. 上記白画像選択手段は、少なくとも2方向以上の放射線入射角度差及び正接関数値の最小二乗値の和の何れかが、最小となる白画像を選択することを特徴とする請求項5記載の画像処理装置。6. The image according to claim 5, wherein the white image selection means selects a white image in which any one of the sum of the least squares of the radiation incident angle difference and the tangent function value in at least two directions is minimum. Processing equipment. 上記放射線入射角度を変数とする関数式は、正接関数を含むことを特徴とする請求項6記載の画像処理装置。The image processing apparatus according to claim 6, wherein the function expression having the radiation incident angle as a variable includes a tangent function. 上記設置手段は、移動可能であり、少なくとも放射線散乱の影響を低減するためのグリッド上、衝撃吸収材上、及び当該衝撃吸収材前面の上カバー上の何れかに設置される手段を含むことを特徴とする請求項1記載の画像処理装置。The installation means is movable and includes means installed on any of the grid, the shock absorber, and the upper cover in front of the shock absorber to reduce the influence of radiation scattering. The image processing apparatus according to claim 1, wherein: 上記角度算出手段により算出される放射線入射角度を表示する角度表示手段を備えることを特徴とする請求項1記載の画像処理装置。The image processing apparatus according to claim 1, further comprising an angle display unit that displays a radiation incident angle calculated by the angle calculation unit. 上記角度表示手段は、上記放射線入射角度と上記放射線入射角度を基に選択される白画像の放射線入射角度の差を表示することを特徴とする請求項10記載の画像処理装置。The image processing apparatus according to claim 10, wherein the angle display unit displays a difference between a radiation incident angle of a white image selected based on the radiation incident angle and the radiation incident angle. 上記角度差が所定の値を越えた場合に警告を表示する警告表示手段を備えることを特徴とする請求項11記載の画像処理装置。12. The image processing apparatus according to claim 11, further comprising warning display means for displaying a warning when the angle difference exceeds a predetermined value. 複数の機器が互いに通信可能に接続されている画像処理システムであって、
上記機器のうち少なくとも1つの機器は、請求項1〜12の何れかに記載の情報処理装置の機能を有することを特徴とする画像処理システム。
An image processing system in which a plurality of devices are communicably connected to each other,
An image processing system, wherein at least one of the devices has the function of the information processing apparatus according to claim 1.
被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像ステップと、
上記撮像ステップにおける撮像範囲に設置される設置手段を、上記撮像ステップにより撮像して得られた当該設置手段の画像位置を検出する位置検出ステップと、
上記検出結果に基づき、上記撮像ステップにおける撮像の際の放射線入射角度を取得する角度取得ステップと、
上記取得ステップで得られた上記放射線入射角度に基づき、上記被写体の撮像画像に対して画像処理を行う画像処理ステップとを含むことを特徴とする画像処理方法。
An imaging step of acquiring a captured image of the subject from radiation transmitted through the subject;
A position detection step of detecting an image position of the installation means obtained by imaging the installation means installed in the imaging range in the imaging step by the imaging step;
Based on the detection result, an angle acquisition step for acquiring a radiation incident angle at the time of imaging in the imaging step;
And an image processing step of performing image processing on the captured image of the subject based on the radiation incident angle obtained in the acquisition step.
コンピュータに所定の手段として機能させるためのプログラムであって、
上記所定の手段は、
被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像手段と、上記撮像手段における撮像範囲に設置される設置手段を、上記撮像手段により撮影して得られた当該設置手段の画像位置を検出する位置検出手段と、
上記検出結果に基づき、上記撮像手段に対する放射線入射角度を取得する角度取得手段と、
上記取得手段で得られた上記放射線入射角度に基づき、上記被写体の撮像画像に対して画像処理を行う画像処理手段とを備えることを特徴とするプログラム。
A program for causing a computer to function as a predetermined means,
The predetermined means is:
The image position of the installation means obtained by imaging the imaging means for acquiring the captured image of the subject from the radiation transmitted through the subject and the installation means installed in the imaging range of the imaging means by the imaging means. Position detecting means for detecting;
An angle acquisition means for acquiring a radiation incident angle with respect to the imaging means based on the detection result;
An image processing means for performing image processing on a captured image of the subject based on the radiation incident angle obtained by the obtaining means.
請求項15記載のプログラムを記録したことを特徴とするコンピュータ読出可能な記憶媒体。A computer-readable storage medium in which the program according to claim 15 is recorded. 被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像手段と、
上記撮像手段に対する放射線入射角度を取得する角度取得手段と、
上記角度取得手段で得られた上記放射線入射角度に基づき、上記被写体の撮像画像に対して画像処理を行う画像処理手段とを有することを特徴とする画像処理装置。
Imaging means for acquiring a captured image of the subject from radiation transmitted through the subject;
Angle acquisition means for acquiring a radiation incident angle with respect to the imaging means;
An image processing apparatus comprising: image processing means for performing image processing on a captured image of the subject based on the radiation incident angle obtained by the angle acquisition means.
被写体を透過した放射線から、当該被写体の撮像画像を取得する撮像手段と、
上記撮像手段に対する放射線入射角度を取得する角度取得手段とを有することを特徴とする画像処理装置。
Imaging means for acquiring a captured image of the subject from radiation transmitted through the subject;
An image processing apparatus comprising: an angle acquisition unit configured to acquire a radiation incident angle with respect to the imaging unit.
JP2003176991A 2003-06-20 2003-06-20 Image processor, image processing system, image processing method, memory medium and program Pending JP2005007061A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003176991A JP2005007061A (en) 2003-06-20 2003-06-20 Image processor, image processing system, image processing method, memory medium and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003176991A JP2005007061A (en) 2003-06-20 2003-06-20 Image processor, image processing system, image processing method, memory medium and program

Publications (1)

Publication Number Publication Date
JP2005007061A true JP2005007061A (en) 2005-01-13

Family

ID=34099711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003176991A Pending JP2005007061A (en) 2003-06-20 2003-06-20 Image processor, image processing system, image processing method, memory medium and program

Country Status (1)

Country Link
JP (1) JP2005007061A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006262977A (en) * 2005-03-22 2006-10-05 Konica Minolta Medical & Graphic Inc Medical image display
JP2008079727A (en) * 2006-09-26 2008-04-10 Fujifilm Corp Radiographic image information photographing equipment
WO2012132319A1 (en) * 2011-03-28 2012-10-04 富士フイルム株式会社 Radiographic imaging method, radiation detector and radiographic imaging apparatus
KR20160038297A (en) * 2014-09-30 2016-04-07 (주)바텍이우홀딩스 Apparatus and method for guiding correct posture of medical image system
US10043294B2 (en) 2012-12-14 2018-08-07 Fujifilm Corporation Image processing device, radiographic imaging system, recording medium storing image processing program, and image processing method
US20210183062A1 (en) * 2018-09-18 2021-06-17 Fujifilm Corporation Image processing apparatus, image processing method, and image processing program
US20210369225A1 (en) * 2020-05-28 2021-12-02 Konica Minolta, Inc. Dynamic image processing apparatus and storage medium

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006262977A (en) * 2005-03-22 2006-10-05 Konica Minolta Medical & Graphic Inc Medical image display
JP2008079727A (en) * 2006-09-26 2008-04-10 Fujifilm Corp Radiographic image information photographing equipment
WO2012132319A1 (en) * 2011-03-28 2012-10-04 富士フイルム株式会社 Radiographic imaging method, radiation detector and radiographic imaging apparatus
JP2012200536A (en) * 2011-03-28 2012-10-22 Fujifilm Corp Radiographic imaging method, radiation detector and radiographic imaging apparatus
CN103458789A (en) * 2011-03-28 2013-12-18 富士胶片株式会社 Radiographic imaging method, radiation detector and radiographic imaging apparatus
US8664614B2 (en) 2011-03-28 2014-03-04 Fujifilm Corporation Radiographic imaging method, radiation detector and radiographic imaging apparatus
US10043294B2 (en) 2012-12-14 2018-08-07 Fujifilm Corporation Image processing device, radiographic imaging system, recording medium storing image processing program, and image processing method
KR20160038297A (en) * 2014-09-30 2016-04-07 (주)바텍이우홀딩스 Apparatus and method for guiding correct posture of medical image system
KR102313801B1 (en) 2014-09-30 2021-10-19 (주)바텍이우홀딩스 Apparatus and method for guiding correct posture of medical image system
US20210183062A1 (en) * 2018-09-18 2021-06-17 Fujifilm Corporation Image processing apparatus, image processing method, and image processing program
JPWO2020059306A1 (en) * 2018-09-18 2021-08-30 富士フイルム株式会社 Image processing device, image processing method, and image processing program
JP7221981B2 (en) 2018-09-18 2023-02-14 富士フイルム株式会社 Image processing device, image processing method, and image processing program
US20210369225A1 (en) * 2020-05-28 2021-12-02 Konica Minolta, Inc. Dynamic image processing apparatus and storage medium
JP7405005B2 (en) 2020-05-28 2023-12-26 コニカミノルタ株式会社 Dynamic image processing device and program

Similar Documents

Publication Publication Date Title
US7555100B2 (en) Long length imaging using digital radiography
JP5602198B2 (en) Radiation imaging apparatus, radiographic image detection apparatus used therefor, and operating method thereof
EP1420618B1 (en) X-Ray imaging apparatus
US7177455B2 (en) Image pasting system using a digital detector
JP5579636B2 (en) Radiographic imaging apparatus and radiographic imaging method
EP1848985B1 (en) Multiple mode flat panel x-ray imaging system
JP4264382B2 (en) Automatic exposure control method for photographed image and automatic exposure control apparatus using the method
JP4264381B2 (en) Two-dimensional image processing method of solid-state image sensor and medical digital X-ray imaging apparatus
CA2589341C (en) Digital image collector for x-ray systems
JPH10308899A (en) X-ray system
JP2011056170A (en) Radiographic system and method of controlling the same
JP5537190B2 (en) Shading correction apparatus and method, and program
JP2006141904A (en) Radiographic apparatus
JP5792569B2 (en) Radiation imaging system and long imaging method of radiation imaging system
JP2005204810A (en) X-ray imaging apparatus
JP2005007061A (en) Image processor, image processing system, image processing method, memory medium and program
JP2005031323A (en) Radiation image acquiring system
JP2009233159A (en) Radiological diagnostic apparatus
JP2005028114A (en) Radiation photographing apparatus and radiation photographing method
JP4754812B2 (en) X-ray equipment
JP2012161472A (en) Radiographic imaging apparatus and method of radiographic imaging
WO2013042514A1 (en) Fluoroscopy device, method for setting region of interest for fluoroscopy device, radiography system, and fluoroscopy control program
JP2006255216A (en) X-ray diagnostic imaging apparatus
JP2005066144A (en) X-ray imaging apparatus
JP7282914B2 (en) Photography support device, its operation method and operation program