JP2012110398A - Diagnosis support information generation system - Google Patents

Diagnosis support information generation system Download PDF

Info

Publication number
JP2012110398A
JP2012110398A JP2010259648A JP2010259648A JP2012110398A JP 2012110398 A JP2012110398 A JP 2012110398A JP 2010259648 A JP2010259648 A JP 2010259648A JP 2010259648 A JP2010259648 A JP 2010259648A JP 2012110398 A JP2012110398 A JP 2012110398A
Authority
JP
Japan
Prior art keywords
image data
image
analysis
imaging
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010259648A
Other languages
Japanese (ja)
Inventor
Shintaro Muraoka
慎太郎 村岡
Tetsuo Shimada
哲雄 島田
Sho Noji
翔 野地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2010259648A priority Critical patent/JP2012110398A/en
Publication of JP2012110398A publication Critical patent/JP2012110398A/en
Pending legal-status Critical Current

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce processing time to calculate the feature value of the relevant moving subject based on a series of frame images captured by radiographing dynamic image.SOLUTION: According to the diagnosis support information generation system, in a console 5, when the radiographing dynamic image operation has been specified by radiographing order information specified by an input section 53, a control section 51 eliminates the processing of corrections such as offset correction and gain correction made to correct the fluctuation of individual pixels, the series of frame images is sent to a WS8 for analysis, and calculates the feature value of a moving subject.

Description

本発明は、診断支援情報生成システムに関する。   The present invention relates to a diagnosis support information generation system.

従来のフィルム/スクリーンや輝尽性蛍光体プレートを用いた放射線の静止画撮影及び診断に対し、FPD(flat panel detector)等の半導体イメージセンサを利用して対象部位の動態画像を撮影し、診断に応用する試みがなされるようになってきている。具体的には、半導体イメージセンサの画像データの読取・消去の応答性の早さを利用し、半導体イメージセンサの読取・消去のタイミングと合わせて放射源からパルス状の放射線を連続照射し、1秒間に複数回の撮影を行って、診断対象部位の動態を撮影する。撮影により取得された一連の複数枚の画像を順次表示することにより、医師は検査対象部位の一連の動きを認識することが可能となる。   In contrast to conventional radiation still image photography and diagnosis using a film / screen or photostimulable phosphor plate, a dynamic image of the target region is photographed using a semiconductor image sensor such as an FPD (flat panel detector) and diagnosed. Attempts have been made to apply this technology. Specifically, by utilizing the responsiveness of reading / erasing of image data of the semiconductor image sensor, pulsed radiation is continuously irradiated from the radiation source in accordance with the reading / erasing timing of the semiconductor image sensor. Take multiple shots per second to capture the dynamics of the area to be diagnosed. By sequentially displaying a series of a plurality of images acquired by imaging, a doctor can recognize a series of movements of a region to be examined.

また、動態撮影で得られた一連のフレーム画像に基づいて当該動態に関する特徴量を算出し、早期診断に向けて診断支援情報として医師に提供することが提案されている。例えば、特許文献1には、動態画像を構成する複数のフレーム画像間で画素値の差を示す差分画像を生成し、生成された差分画像を順次切り替えて表示する技術が記載されている。   In addition, it has been proposed to calculate a feature amount related to the dynamics based on a series of frame images obtained by dynamic imaging and to provide the doctor with diagnosis support information for early diagnosis. For example, Patent Document 1 describes a technique for generating a difference image indicating a difference in pixel values between a plurality of frame images constituting a dynamic image and sequentially switching and displaying the generated difference images.

特開2003−298939号公報JP 2003-298939 A

ところで、静止画像を用いた画像診断では診断対象部位の構造物の濃度値の微妙な変化を観察する。そのため、FPDの個々の検出素子の出力バラツキを極力抑えるためのオフセット補正処理、ゲイン補正処理等が必須であった。ここで、オフセット補正処理とは、各フレーム画像に重畳された暗電流に起因するオフセット値を除去する処理である。ゲイン補正処理とは、各フレーム画像の各画素に対応する各検出素子の個体差や読み出しアンプのゲインムラによって生じる画素毎のばらつきを除去する処理である。   By the way, in image diagnosis using a still image, a subtle change in the density value of the structure at the site to be diagnosed is observed. For this reason, offset correction processing, gain correction processing, and the like for suppressing output variations of individual detection elements of the FPD as much as possible have been essential. Here, the offset correction process is a process for removing an offset value caused by a dark current superimposed on each frame image. The gain correction process is a process for removing variations among pixels caused by individual differences between detection elements corresponding to the pixels of each frame image and gain unevenness of the readout amplifier.

しかしながら、動態画像を用いて動態に関する特徴量を算出する場合、複数のフレーム画像が必要となる。例えば、肺の換気の特徴量を算出する場合、平均的な成人の呼吸周期は3.3秒前後であり、特徴量の算出には最低でも1周期分の画像が必要となるので撮影時間を4秒程度とする必要がある。この場合、フレームレートを5枚/秒とすると、20枚の画像データが必要となる。これらにオフセット処理及びゲイン補正処理を施すと、1フレーム画像当たり0.5秒〜1秒程度の時間を要するので、20枚の実施に10〜20秒の時間を要することとなる。   However, when calculating a feature amount related to dynamics using a dynamic image, a plurality of frame images are required. For example, when calculating the feature value of lung ventilation, the average adult respiratory cycle is around 3.3 seconds, and at least one cycle of images is required to calculate the feature value. It needs to be about 4 seconds. In this case, if the frame rate is 5 frames / second, 20 sheets of image data are required. If offset processing and gain correction processing are performed on these, a time of about 0.5 seconds to 1 second is required for one frame image, so that it takes 10 to 20 seconds to implement 20 sheets.

また、より忠実なオフセット補正処理を実施しようとすると、各フレーム画像の撮影後に少なくとも1回のダーク読取(放射線非照射時のFPD読取)を実施することになるが、このときFPD側ではこのダーク読取のために少なくとも所望とするフレームレートの2倍以上のフレームレートでの画像取得が必要となり、高速化にともないハードウエア構成が増大するとともに、消費電力も増大することになり好ましくない。   In order to perform more accurate offset correction processing, at least one dark reading (FPD reading when radiation is not irradiated) is performed after each frame image is captured. At this time, on the FPD side, this dark reading is performed. For reading, it is necessary to acquire an image at a frame rate at least twice as high as the desired frame rate. This is not preferable because the hardware configuration increases and the power consumption increases as the speed increases.

更に、一般的にはFPDから出力されたフレーム画像やダーク画像はコンソールに送信してオフセット補正処理を行うため、各フレーム画像の送信に加えてダーク画像の送信時間も必要となる。また、1回もしくは放射線を照射するフレーム画像より少ない回数のダーク読取を行って、これらのダーク画像を用いて全てのフレーム画像に対してオフセット補正処理を実施することも考えられるが、ダーク画像取得に必要となるフレームレートはフレーム画像毎にダーク読取を行った場合に比べて低減するものの、以前として取得したダーク画像を用いてオフセット補正処理する時間が必要であった。また、動態に関する特徴量の算出処理は、オフセット補正処理した後でなければ開始できないという欠点があった。   Furthermore, in general, since the frame image and dark image output from the FPD are transmitted to the console to perform offset correction processing, the transmission time of the dark image is required in addition to the transmission of each frame image. It is also conceivable to perform dark reading once or less than the number of frame images irradiated with radiation, and perform offset correction processing on all frame images using these dark images. Although the required frame rate is reduced as compared with the case where the dark reading is performed for each frame image, it takes time to perform the offset correction process using the dark image acquired as before. In addition, the calculation process of the feature amount related to the dynamics has a drawback that it can only be started after the offset correction process.

本発明の課題は、動態撮影で得られた一連のフレーム画像に基づいて当該動態に関する特徴量を算出する際の処理時間を短縮することである。   An object of the present invention is to shorten a processing time when calculating a feature amount related to dynamics based on a series of frame images obtained by dynamic imaging.

上記課題を解決するため、請求項1に記載の発明の診断支援情報生成システムは、
放射線源と、2次元状に配置された複数の検出素子により被写体を透過した放射線を検出して画像データを生成する放射線検出器と、を有する撮影手段と、
前記撮影手段により生成された画像データにオフセット補正処理及びゲイン補正処理のうち少なくとも一つを実施する補正手段と、
前記撮影手段により前記被写体の動態を撮影することにより得られた複数の画像データに基づいて、前記被写体の動態に係る特徴量を算出し出力する解析手段と、
前記撮影手段により生成された画像データに対する前記補正手段による補正を実施するか否かの制御を行う制御手段と、
を備える。
In order to solve the above problem, the diagnosis support information generation system according to the first aspect of the present invention provides:
An imaging means comprising: a radiation source; and a radiation detector that detects radiation transmitted through the subject by a plurality of detection elements arranged two-dimensionally to generate image data;
Correction means for performing at least one of offset correction processing and gain correction processing on the image data generated by the photographing means;
Based on a plurality of image data obtained by photographing the dynamics of the subject by the photographing means, an analysis unit that calculates and outputs a feature amount related to the dynamics of the subject;
Control means for controlling whether or not to perform correction by the correction means on the image data generated by the photographing means;
Is provided.

請求項2に記載の発明は、請求項1に記載の発明において、
前記制御手段は、前記解析手段により前記被写体の動態に係る特徴量を算出する場合は、前記補正手段による補正は実施しないように制御する。
The invention according to claim 2 is the invention according to claim 1,
The control unit performs control so that the correction by the correction unit is not performed when the analysis unit calculates a feature amount related to the dynamics of the subject.

請求項3に記載の発明は、請求項1又は2に記載の発明において、
前記解析手段は、前記放射線検出器における同一位置の検出素子の出力を示す画素を前記複数の画像データ間で互いに対応付け、肺野内の小領域毎に、撮影順が隣接する画像データ間の前記対応付けられた画素同士の差分値を算出し、呼気期間、吸気期間のそれぞれの期間において当該算出された差分値の代表値を算出し、それらの比を求めることにより、肺野内の局所領域に対する、呼気期間と吸気期間での気流速度比の指標となる特徴量を算出する。
The invention according to claim 3 is the invention according to claim 1 or 2,
The analysis means associates pixels indicating the output of the detection element at the same position in the radiation detector with each other between the plurality of image data, and for each small region in the lung field, the imaging order between adjacent image data By calculating a difference value between the associated pixels, calculating a representative value of the calculated difference value in each of the expiration period and the inspiration period, and obtaining a ratio thereof, the local area in the lung field is calculated. Then, a feature amount serving as an index of an airflow velocity ratio in the expiration period and the inspiration period is calculated.

請求項4に記載の発明は、請求項1〜3の何れか一項に記載の発明において、
前記撮影手段により生成された前記被写体の動態を示す複数の画像データのそれぞれを複数の画素ブロックに分割し、当該画素ブロック毎に画素信号値の代表値を算出して当該代表値に画素ブロック内の画素信号値を置き換えるビニング処理手段を備える。
The invention according to claim 4 is the invention according to any one of claims 1 to 3,
Each of the plurality of image data indicating the dynamics of the subject generated by the photographing unit is divided into a plurality of pixel blocks, a representative value of the pixel signal value is calculated for each pixel block, and the representative value is within the pixel block. Binning processing means for replacing the pixel signal value.

請求項5に記載の発明は、請求項1〜4の何れか一項に記載の発明において、
表示手段を備え、
前記制御手段は、前記生成された画像データを診断用に前記表示手段に表示する場合は前記補正手段による補正を行うように制御する。
The invention according to claim 5 is the invention according to any one of claims 1 to 4,
A display means,
The control means controls the correction by the correction means when the generated image data is displayed on the display means for diagnosis.

請求項6に記載の発明の診断支援情報生成システムは、
放射線源と、2次元状に配置された複数の検出素子により被写体を透過した放射線を検出し画像データを生成する放射線検出器と、を有し、前記被写体の動態を示す一連の画像データ又は前記被写体の静止画の画像データを生成する撮影手段と、
前記撮影手段により生成された画像データにオフセット補正処理及びゲイン補正処理のうち少なくとも一つを実施する補正手段と、
前記撮影手段により生成された前記被写体の動態を示す一連の画像データに基づいて、前記被写体の動態に係る特徴量を算出し出力する解析手段と、
前記撮影手段により生成された画像データに対する前記補正手段による補正を実施するか否かの制御を行う制御手段と、
を備える。
The diagnosis support information generation system of the invention described in claim 6 is:
A radiation source, and a radiation detector that detects radiation transmitted through the subject by a plurality of detection elements arranged two-dimensionally to generate image data, and a series of image data indicating the dynamics of the subject or the Photographing means for generating image data of a still image of a subject;
Correction means for performing at least one of offset correction processing and gain correction processing on the image data generated by the photographing means;
Based on a series of image data indicating the dynamics of the subject generated by the photographing unit, an analysis unit that calculates and outputs a feature amount related to the dynamics of the subject;
Control means for controlling whether or not to perform correction by the correction means on the image data generated by the photographing means;
Is provided.

本発明によれば、本発明の課題は、動態撮影で得られた一連のフレーム画像に基づいて当該動態に関する特徴量を算出する際の処理時間を短縮することが可能となる。   According to the present invention, an object of the present invention is to reduce the processing time when calculating a feature amount related to dynamics based on a series of frame images obtained by dynamic imaging.

本実施形態に係る診断支援情報生成システムの全体構成を示す図である。It is a figure which shows the whole structure of the diagnostic assistance information generation system which concerns on this embodiment. ブッキー装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a bucky apparatus. コンソールの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a console. 撮影管理テーブルのデータ格納例を示す図である。It is a figure which shows the example of data storage of an imaging | photography management table. FPDの機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of FPD. 診断支援情報生成システムの動作を示すフロー図である。It is a flowchart which shows operation | movement of a diagnostic assistance information generation system. 最大流速比の解析結果を示す図である。It is a figure which shows the analysis result of maximum flow velocity ratio. 胸部側面の時間的な変化を示す図である。It is a figure which shows the time change of the chest side. 胸部正面の時間的な変化を示す図である。It is a figure which shows the time change of the chest front. 診断支援情報生成システムの変形例を示す図である。It is a figure which shows the modification of a diagnostic assistance information generation system.

以下、本発明に係る診断支援情報生成システムの実施の形態について、図面を参照して説明する。ただし、本発明は以下の図示例のものに限定されるものではない。   Hereinafter, embodiments of a diagnosis support information generation system according to the present invention will be described with reference to the drawings. However, the present invention is not limited to the following illustrated examples.

図1は、本発明の実施の形態に係る診断支援情報生成システム100の全体構成例を示す図である。
図1に示す撮影室R1〜R3は、患者の身体の一部である被写体(すなわち患者の撮影部位)に放射線を照射して被写体の動態撮影又は静止画撮影を行うための室である。
動態撮影とは、被写体に対し、X線等の放射線をパルス的に連続照射して複数の画像を取得(即ち、連続撮影)することをいう。動態撮影では、例えば、呼吸運動に伴う肺の膨張及び収縮の形態変化、心臓の拍動等の、周期性(サイクル)を持つ被写体の動態を撮影する。この連続撮影により得られた一連の画像データを動態画像と呼ぶ。また、動態画像を構成する複数の画像データのそれぞれをフレーム画像と呼ぶ。
静止画撮影とは、従来のフィルム方式やCR方式と同様に撮影部位の濃度分解能に基づく診断に使用されるもので、被写体に対し、X線等の放射線を1回照射して一枚の静止画像を取得することをいう。
FIG. 1 is a diagram showing an overall configuration example of a diagnosis support information generation system 100 according to an embodiment of the present invention.
The imaging rooms R1 to R3 shown in FIG. 1 are rooms for performing dynamic imaging or still image imaging of a subject by irradiating a subject that is a part of the patient's body (that is, a patient's imaging region) with radiation.
Dynamic imaging refers to acquiring a plurality of images (ie, continuous imaging) by continuously irradiating a subject with radiation such as X-rays in a pulsed manner. In dynamic imaging, for example, the dynamics of a subject having a periodicity (cycle), such as changes in the shape of lung expansion and contraction associated with respiratory motion, heart pulsation, and the like are captured. A series of image data obtained by this continuous shooting is called a dynamic image. Each of the plurality of image data constituting the dynamic image is referred to as a frame image.
Still image photography is used for diagnosis based on the density resolution of the imaged part in the same way as in the conventional film method and CR method. A single piece of still image is irradiated by irradiating the subject with radiation such as X-rays once. It means acquiring an image.

撮影室R1は、単射及び連射が可能な放射線源3aが設けられた、被写体の動態撮影又は静止画撮影をするための室である。
撮影室R1には、例えば、立位撮影用のブッキー装置1と、臥位撮影用のブッキー装置2と、放射線源3aと、クレードル4と、コンソール5と、操作卓6と、アクセスポイントAPと、が備えられている。
The imaging room R1 is a room for performing dynamic imaging or still image imaging of a subject provided with a radiation source 3a capable of single shot and continuous shot.
In the radiographing room R1, for example, a bucky device 1 for standing photography, a bucky device 2 for standing photography, a radiation source 3a, a cradle 4, a console 5, an operation console 6, and an access point AP are provided. , Is provided.

撮影室R2は、単射のみが可能な放射線源3b及びポータブル撮影用の放射線源3cが設けられた、被写体の静止画撮影をするための室である。
撮影室R2には、例えば、立位撮影用のブッキー装置1と、臥位撮影用のブッキー装置2と、放射線源3b、3cと、クレードル4と、コンソール5と、操作卓6と、アクセスポイントAPと、が設けられている。
The imaging room R2 is a room for taking a still image of a subject, provided with a radiation source 3b capable of only a single shot and a radiation source 3c for portable imaging.
In the radiographing room R2, for example, a bucky device 1 for standing photography, a bucky device 2 for standing photography, radiation sources 3b and 3c, a cradle 4, a console 5, a console 6, and an access point are provided. AP is provided.

撮影室R3は、放射線源3bが設けられた、被写体の静止画撮影をするための室である。
撮影室R3には、例えば、立位撮影用のブッキー装置1と、臥位撮影用のブッキー装置2と、放射線源3bと、クレードル4と、コンソール5と、操作卓6と、アクセスポイントAPと、が設けられている。
The imaging room R3 is a room in which a radiation source 3b is provided for taking a still image of a subject.
In the photographing room R3, for example, a bucky device 1 for standing position photographing, a bucky device 2 for standing position photographing, a radiation source 3b, a cradle 4, a console 5, a console 6, and an access point AP are provided. , Is provided.

なお、各撮影室R1〜R3には前室Raと撮影実施室Rbが設けられ、前室Raにコンソール5及び操作卓6が備えられることで、撮影技師等の操作者の被曝を防止するようになっている。   Each of the photographing rooms R1 to R3 is provided with a front room Ra and a photographing room Rb, and the front room Ra is provided with a console 5 and a console 6 so as to prevent exposure of an operator such as a photographing engineer. It has become.

ブッキー装置1は、立位での撮影時にFPD9a又は9bを保持して撮影を行うための装置である。
図2に、ブッキー装置1の機能構成例を示す。図2に示すように、ブッキー装置1は、
制御部11と、検出器装着部12と、通信I/F13と、駆動部14とを備えて構成されている。
The bucky device 1 is a device for holding the FPD 9a or 9b when shooting in a standing position.
FIG. 2 shows a functional configuration example of the bucky device 1. As shown in FIG.
A control unit 11, a detector mounting unit 12, a communication I / F 13, and a drive unit 14 are provided.

制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)により構成される。制御部11のROMには、ブッキー装置1の各部を制御するための各種処理プログラムや処理に必要なデータ、当該ブッキー装置1の識別情報であるブッキーID等が記憶されている。CPUは、ROMに記憶されているプログラムとの協働によりブッキー装置1各部の動作を統括的に制御する。
例えば、制御部11は、検出器装着部12にFPD9a又は9bが装着されると、装着されたFPDにコネクタ12bを介してFPDID(FPDの識別情報)の送信要求を行い、FPDIDが受信されると、自己の識別番号であるブッキーIDをFPDIDに対応付けて通信I/F13を介してコンソール5に送信する。また、受信されたFPDIDを一時的にRAMに記憶する。
また、例えば、制御部11は、検出器装着部12からFPDが抜き取られると、通信I/F13を介してコンソール5にFPDIDを送信し、当該FPDIDの(撮影管理テーブル521からの)消去要求を行う。
The control unit 11 includes a CPU (Central Processing Unit), a ROM (Read Only Memory), and a RAM (Random Access Memory). The ROM of the control unit 11 stores various processing programs for controlling each unit of the bucky device 1, data necessary for the processing, a bucky ID that is identification information of the bucky device 1, and the like. The CPU comprehensively controls the operation of each part of the bucky device 1 in cooperation with a program stored in the ROM.
For example, when the FPD 9a or 9b is attached to the detector attachment unit 12, the control unit 11 sends an FPDID (FPD identification information) transmission request to the attached FPD via the connector 12b, and the FPDID is received. Then, the Bucky ID which is its own identification number is associated with the FPDID and transmitted to the console 5 via the communication I / F 13. Also, the received FPDID is temporarily stored in the RAM.
Further, for example, when the FPD is extracted from the detector mounting unit 12, the control unit 11 transmits the FPDID to the console 5 via the communication I / F 13, and issues a request for deleting the FPDID (from the imaging management table 521). Do.

検出器装着部12は、FPD(FPD9a又はFPD9b)を保持するための保持部12aと、保持部12aに装着されたFPDのコネクタ94を接続するためのコネクタ12bとを有する。コネクタ12bは、保持部12aに装着されたFPDとの間でデータ送受信を行ったり、FPDに電力を供給したりする。   The detector mounting unit 12 includes a holding unit 12a for holding an FPD (FPD 9a or FPD 9b) and a connector 12b for connecting a connector 94 of the FPD mounted on the holding unit 12a. The connector 12b transmits / receives data to / from the FPD attached to the holding unit 12a and supplies power to the FPD.

通信I/F13は、アクセスポイントAPを介してコンソール5等の外部機器と有線によりデータ送受信を行うためのインターフェースである。   The communication I / F 13 is an interface for transmitting and receiving data to and from an external device such as the console 5 via the access point AP.

駆動部14は、図示しないフットスイッチ等の操作に応じて検出器装着部12を垂直方向又は水平方向に移動させる。   The drive unit 14 moves the detector mounting unit 12 in the vertical direction or the horizontal direction in accordance with an operation of a foot switch or the like (not shown).

ブッキー装置2は、臥位での撮影時にFPD9a又は9bを保持して撮影を行うための装置である。
ブッキー装置2は、制御部21と、検出器装着部22と、通信I/F23と、駆動部24とを備えて構成されている。制御部21、検出器装着部22、通信I/F23、駆動部24は、それぞれ上述の制御部11、検出器装着部12、通信I/F13、駆動部14と同様の構成であるので説明を援用する。更に、ブッキー装置2は、被写体を載置するための被写体台26を備える。
The bucky device 2 is a device for holding the FPD 9a or 9b during shooting in the supine position.
The bucky device 2 includes a control unit 21, a detector mounting unit 22, a communication I / F 23, and a drive unit 24. The control unit 21, the detector mounting unit 22, the communication I / F 23, and the driving unit 24 have the same configurations as the control unit 11, the detector mounting unit 12, the communication I / F 13, and the driving unit 14, respectively. Incorporate. Further, the bucky device 2 includes a subject table 26 for placing a subject.

放射線源3aは、単射及び連射(パルス照射)が可能な放射線発生装置である。放射線源3aは、例えば、撮影室R1、R3の天井から吊り下げられており、撮影時にはコンソール5からの指示に基づいて起動され、図示しない駆動機構によりにより所定の位置、向きに調整されるようになっている。そして、放射線の照射方向を変えることで、立位用のブッキー装置1又は臥位用のブッキー装置2に装着されたFPD9a又は9bに対して放射線を照射することができるようになっている。また、放射線源3aは、コンソール5からの指示に従って放射線を1回又は連続して照射し、静止画撮影又は動態撮影を行う。   The radiation source 3a is a radiation generator capable of single shot and continuous shot (pulse irradiation). The radiation source 3a is suspended from the ceilings of the imaging rooms R1 and R3, for example, and is activated based on an instruction from the console 5 at the time of imaging, and is adjusted to a predetermined position and orientation by a driving mechanism (not shown). It has become. Then, by changing the irradiation direction of the radiation, the FPD 9a or 9b mounted on the standing-side bucky device 1 or the recumbent bucky device 2 can be irradiated with the radiation. The radiation source 3a irradiates the radiation once or continuously in accordance with an instruction from the console 5 to perform still image capturing or dynamic image capturing.

放射線源3bは、単射のみが可能な放射線発生装置である。放射線源3bは、例えば、撮影室R2の天井から吊り下げられており、撮影時にはコンソール5からの指示に基づいて起動され、図示しない駆動機構によりにより所定の位置、向きに調整されるようになっている。そして、放射線の照射方向を変えることで、立位用のブッキー装置1又は臥位用のブッキー装置2に装着されたFPD9a又は9bに対して放射線を照射することができるようになっている。また、放射線源3bは、コンソール5からの指示に従って放射線を1回照射し、静止画撮影を行う。   The radiation source 3b is a radiation generating device capable of only a single shot. For example, the radiation source 3b is suspended from the ceiling of the imaging room R2, and is activated based on an instruction from the console 5 at the time of imaging, and is adjusted to a predetermined position and orientation by a drive mechanism (not shown). ing. Then, by changing the irradiation direction of the radiation, the FPD 9a or 9b mounted on the standing-side bucky device 1 or the recumbent bucky device 2 can be irradiated with the radiation. The radiation source 3b emits radiation once in accordance with an instruction from the console 5 and performs still image shooting.

放射線源3cは、移動可能なポータブル撮影用の放射線源である。放射線源3cは、単射のみが可能である。   The radiation source 3c is a movable portable radiation source. The radiation source 3c can only be a single shot.

クレードル4は、装着されたFPDと接続するための図示しないコネクタを有し、FPDが装着されると、コネクタを介して装着されたFPDからFPDIDを取得して、コンソール5に通知する。
コンソール5は、当該FPDIDを取得すると、以後、当該FPDを自己の制御下におき、起動やスリープ遷移を制御する。
なお、本実施の形態においては、FPDを撮影室内に持ち込んだ際及び持ち出す際にクレードル4に装着することで、FPDの撮影室への侵入及び持ち出しをクレードル4を介してコンソール5で検知できるようになっている。
The cradle 4 has a connector (not shown) for connecting to the mounted FPD. When the FPD is mounted, the cradle 4 acquires the FPDID from the FPD mounted via the connector and notifies the console 5 of the FPDID.
After acquiring the FPDID, the console 5 thereafter puts the FPD under its own control and controls activation and sleep transition.
In the present embodiment, the FPD can be detected by the console 5 via the cradle 4 by attaching the FPD to the cradle 4 when the FPD is brought into or taken out of the photographic room. It has become.

コンソール5は、放射線源3a、3bやFPD9a、9bを制御することにより撮影を制御するための装置である。コンソール5は、LAN(Local Area Network)を介してHIS/RIS(Hospital Information System/ Radiology Information System)7、解析用WS8、PACS(Picture Archiving and Communication System)10等に接続されており、HIS/RIS7から送信された撮影オーダ情報に基づいて、コンソール5が対応つけられている(設置されている)撮影室でそのオーダの撮影が可能であるか否かを判断し、判断結果を表示する。そして、撮影が可能である場合、コンソール5は撮影に用いられる放射線源及びFPDを起動させる等の制御をして撮影を行わせる。   The console 5 is a device for controlling imaging by controlling the radiation sources 3a and 3b and the FPDs 9a and 9b. The console 5 is connected to a HIS / RIS (Hospital Information System / Radiology Information System) 7, an analysis WS 8, a PACS (Picture Archiving and Communication System) 10, etc. via a LAN (Local Area Network). Based on the imaging order information transmitted from, it is determined whether or not imaging of the order is possible in the imaging room to which the console 5 is associated (installed), and the determination result is displayed. If imaging is possible, the console 5 controls the radiation source and FPD used for imaging to perform imaging.

図3に、コンソール5の要部構成例を示す。図3に示すように、コンソール5は、制御部51、記憶部52、入力部53、表示部54、通信I/F55、ネットワーク通信部56等を備えて構成されており、各部はバス57により接続されている。   In FIG. 3, the example of a principal part structure of the console 5 is shown. As shown in FIG. 3, the console 5 includes a control unit 51, a storage unit 52, an input unit 53, a display unit 54, a communication I / F 55, a network communication unit 56, and the like. It is connected.

制御部51は、CPU、RAM等により構成される。制御部51のCPUは、記憶部52に記憶されているシステムプログラムや処理プログラム等の各種プログラムを読み出してRAMに展開し、展開されたプログラムに従って各種処理を実行する。
例えば、制御部51は、通信I/F55を介してFPDID及びブッキーIDが受信されると、記憶部52の撮影管理テーブル521(図4参照)の受信されたブッキーIDに対応する領域にFPDIDを書き込む。また、制御部51は、通信I/F55を介してクレードル4からFPDIDが受信されると、記憶部52の撮影管理テーブル521のブッキーIDが対応付けられていない領域にFPDIDを書き込む。また、制御部51は、ブッキー装置1又は2を介して画像データが受信されると、画像受信時刻を撮影管理テーブル521の送信元のブッキー装置のブッキーIDに対応する領域に記憶させる。
The control unit 51 includes a CPU, a RAM, and the like. The CPU of the control unit 51 reads out various programs such as system programs and processing programs stored in the storage unit 52, expands them in the RAM, and executes various processes according to the expanded programs.
For example, when the FPDID and the Bucky ID are received via the communication I / F 55, the control unit 51 assigns the FPDID to an area corresponding to the received Bucky ID in the shooting management table 521 (see FIG. 4) of the storage unit 52. Write. In addition, when the FPDID is received from the cradle 4 via the communication I / F 55, the control unit 51 writes the FPDID in an area in the imaging management table 521 of the storage unit 52 that is not associated with a bucky ID. Further, when the image data is received via the bucky device 1 or 2, the control unit 51 stores the image reception time in an area corresponding to the bucky ID of the source bucky device in the photographing management table 521.

また、例えば、制御部51は、所定時間毎にネットワーク通信部56を介してHIS/RIS7に問い合わせを行い、新たにHIS/RIS7で登録された撮影オーダ情報を取得する。
また、例えば、制御部51は、HIS/RIS7から取得した撮影オーダ情報に基づいて、後述する撮影・解析処理を実行する。
Further, for example, the control unit 51 makes an inquiry to the HIS / RIS 7 via the network communication unit 56 every predetermined time, and acquires imaging order information newly registered in the HIS / RIS 7.
Further, for example, the control unit 51 executes imaging / analysis processing described later based on imaging order information acquired from the HIS / RIS 7.

記憶部52は、例えばHDD(Hard Disk Drive)や半導体の不揮発性メモリ等で構成
されている。
The storage unit 52 includes, for example, an HDD (Hard Disk Drive), a semiconductor nonvolatile memory, or the like.

記憶部52には、各種のプログラム及びデータが記憶されている。
例えば、記憶部52には、各撮影室における撮影を管理するための撮影管理テーブル521が記憶されている。
図4に、撮影管理テーブル521のデータ格納例を示す。図4に示すように、撮影管理テーブル521には、「ブッキーID」、「管球タイプ」、「FPDID」、「画像受信時刻」等の項目が設けられている。「ブッキーID」、「管球タイプ」の領域には、当該コンソール5が設置されている撮影室に設けられているブッキー装置及び放射線源のタイプの情報が予め設定されている。ブッキーIDに対応付けられている「FPDID」の領域は、そのブッキーIDに装着されているFPDを管理するための領域であり、ブッキー装置からFPDID及びブッキーIDが受信された際に、受信されたFPDIDがブッキーIDに対応付けて格納される。また、ブッキーIDが対応付けられていない「FPDID」の領域は、撮影室に存在するFPDを管理するための領域であり、クレードル4からFPDIDが受信された際に、受信されたFPDIDが格納される。なお、ブッキー装置からFPDが抜き取られてFPDIDの消去要求が受信された場合には、制御部51により消去要求されたFPDIDのうち当該ブッキーIDに対応して格納されているFPDIDは消去される。また、ブッキーIDが対応付けられていない「FPDID」の領域に格納されているFPDIDがクレードル4から受信されると、制御部51によりそのFPDIDのFPDは撮影室から持ち出された(即ち、撮影室に存在しなくなった)と判断され、そのFPDIDは撮影管理テーブル521から消去される。また、「画像受信時刻」には、通信I/F55から画像データが受信された際に、その時刻が格納される。
The storage unit 52 stores various programs and data.
For example, the storage unit 52 stores a shooting management table 521 for managing shooting in each shooting room.
FIG. 4 shows a data storage example of the imaging management table 521. As shown in FIG. 4, the shooting management table 521 includes items such as “Bucky ID”, “tube type”, “FPDID”, and “image reception time”. In the “Bucky ID” and “tube type” areas, information on the type of the Bucky device and the radiation source provided in the radiographing room in which the console 5 is installed is set in advance. The “FPDID” area associated with the Bucky ID is an area for managing the FPD attached to the Bucky ID, and is received when the FPDID and the Bucky ID are received from the Bucky device. The FPDID is stored in association with the Bucky ID. The “FPDID” area not associated with the Bucky ID is an area for managing the FPD existing in the photographing room, and when the FPDID is received from the cradle 4, the received FPDID is stored. The When an FPDID is deleted from the Bucky device and an FPDID deletion request is received, the FPDID stored in correspondence with the Bucky ID among the FPDIDs requested to be deleted by the control unit 51 is deleted. When an FPDID stored in the “FPDID” area not associated with a Bucky ID is received from the cradle 4, the FPDID of the FPDID is taken out of the shooting room by the control unit 51 (that is, the shooting room). The FPDID is deleted from the imaging management table 521. The “image reception time” stores the time when image data is received from the communication I / F 55.

また、記憶部52には、画像データから患部を検出するための自動部位認識に基づく階調処理・周波数処理等の画像処理を行うためのプログラム等、各種のプログラムが記憶されているほか、撮影画像の画像データを部位毎の診断に適した画質に調整するための画像処理パラメータ(階調処理に用いる階調曲線を定義したルックアップテーブル、周波数処理の強調度等)等が記憶されている。   In addition, the storage unit 52 stores various programs such as a program for performing image processing such as gradation processing and frequency processing based on automatic part recognition for detecting an affected part from image data. Stores image processing parameters (look-up table defining tone curve used for tone processing, enhancement degree of frequency processing, etc.) for adjusting image data of image to image quality suitable for diagnosis for each part .

また、記憶部52には、撮影の種類(動態又は静止画)と撮影部位との組み合わせに対応付けて放射線照射条件及び画像読取条件が記憶されている。放射線照射条件は、例えば、連続照射時のパルスレート、パルス幅、パルス間隔、1撮影あたりの撮影フレーム数、X線管電流の値、X線管電圧の値、フィルタ種等である。パルスレートは、1秒あたりの放射線照射回数であり、後述するフレームレートと一致している。パルス幅は、放射線照射1回当たりの放射線照射時間である。パルス間隔は、連続撮影において、1回の放射線照射開始から次の放射線照射開始までの時間であり、後述するフレーム間隔と一致している。画像読取条件は、例えば、フレームレート、フレーム間隔、画素サイズ、画像サイズ(マトリックスサイズ)等である。フレームレートは、1秒あたりに取得するフレーム画像数であり、パルスレートと一致している。フレーム間隔は、連続撮影において、1回のフレーム画像の取得動作開始から次のフレーム画像の取得動作開始までの時間であり、パルス間隔と一致している。   The storage unit 52 stores radiation irradiation conditions and image reading conditions in association with combinations of imaging types (dynamics or still images) and imaging regions. The radiation irradiation conditions are, for example, pulse rate, pulse width, pulse interval during continuous irradiation, the number of imaging frames per imaging, X-ray tube current value, X-ray tube voltage value, filter type, and the like. The pulse rate is the number of times of radiation irradiation per second, and matches the frame rate described later. The pulse width is a radiation irradiation time per one irradiation. The pulse interval is the time from the start of one radiation irradiation to the start of the next radiation irradiation in continuous imaging, and coincides with a frame interval described later. The image reading conditions are, for example, a frame rate, a frame interval, a pixel size, an image size (matrix size), and the like. The frame rate is the number of frame images acquired per second and matches the pulse rate. The frame interval is the time from the start of one frame image acquisition operation to the start of the next frame image acquisition operation in continuous shooting, and coincides with the pulse interval.

また、記憶部52には、診断支援情報生成システム100に登録されている各FPD9a、9bのFPDIDと、そのFPDで撮影可能な撮影の種類(動態、静止画)とが対応付けて記憶されている。また、記憶部52には、診断支援情報生成システム100に登録されている各ブッキー装置1、2のブッキーIDと、そのブッキー装置で撮影可能な***(立位又は臥位)とが対応付けて記憶されている。   Further, the storage unit 52 stores the FPDID of each FPD 9a, 9b registered in the diagnosis support information generation system 100 and the type of shooting (dynamic, still image) that can be shot with the FPD in association with each other. Yes. Further, the storage unit 52 associates the bucky ID of each of the bucky devices 1 and 2 registered in the diagnosis support information generation system 100 with the body posture (standing or standing) that can be photographed by the bucky device. It is remembered.

また、記憶部52は、所定時間毎にHIS/RIS7から送信される撮影オーダ情報を記憶する。   The storage unit 52 stores imaging order information transmitted from the HIS / RIS 7 every predetermined time.

入力部53は、文字入力キー、数字入力キー、及び各種機能キー等を備えたキーボードと、マウス等のポインティングデバイスを備えて構成され、キーボードで押下操作されたキーの押下信号とマウスによる操作信号とを、入力信号として制御部51に出力する。   The input unit 53 includes a keyboard having character input keys, numeric input keys, various function keys, and the like, and a pointing device such as a mouse, and a key pressing signal pressed by the keyboard and an operation signal by the mouse. Are output to the control unit 51 as an input signal.

表示部54は、例えば、CRT(Cathode Ray Tube)やLCD(Liquid Crystal Display)等のモニタを備えて構成されており、制御部51から入力される表示信号の指
示に従って、各種画面を表示する。
なお、表示部54の画面上に、透明電極を格子状に配置した感圧式(抵抗膜圧式)のタッチパネル(図示せず)を形成し、表示部54と入力部53とが一体に構成されるタッチスクリーンとしてもよい。この場合、タッチパネルは、手指やタッチペン等で押下された力点のXY座標を電圧値で検出し、検出された位置信号が操作信号として制御部51に出力されるように構成される。なお、表示部54は、一般的なPC(Personal Computer)に用いられるモニタよりも高精細のものであってもよい。
The display unit 54 includes a monitor such as a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display), for example, and displays various screens according to instructions of display signals input from the control unit 51.
A pressure-sensitive (resistive film pressure type) touch panel (not shown) in which transparent electrodes are arranged in a grid pattern is formed on the screen of the display unit 54, and the display unit 54 and the input unit 53 are configured integrally. It may be a touch screen. In this case, the touch panel is configured to detect the XY coordinates of the power point pressed by a finger, a touch pen, or the like as a voltage value, and output the detected position signal to the control unit 51 as an operation signal. The display unit 54 may have a higher definition than a monitor used in a general PC (Personal Computer).

通信I/F55は、ブッキー装置1、ブッキー装置2、放射線源3a〜3c、FPD9a又は9bとアクセスポイントAPを介して接続し、無線、または有線によりデータ送受信を行うためのインターフェースである。本実施形態において、通信I/F55はアクセスポイントAPを介して必要に応じてFPD9a、9bに対してポーリング信号を送信する。   The communication I / F 55 is an interface for connecting to the Bucky device 1, the Bucky device 2, the radiation sources 3a to 3c, the FPD 9a or 9b via the access point AP, and performing data transmission / reception wirelessly or by wire. In the present embodiment, the communication I / F 55 transmits a polling signal to the FPDs 9a and 9b as necessary via the access point AP.

ネットワーク通信部56は、ネットワークインターフェース等により構成され、スイッチングハブを介して通信ネットワークNに接続された外部機器との間でデータの送受信を行う。   The network communication unit 56 includes a network interface or the like, and transmits / receives data to / from an external device connected to the communication network N via a switching hub.

操作卓6は、撮影室内の放射線源に接続され、放射線照射指示を入力するための入力装置である。   The console 6 is an input device that is connected to a radiation source in the imaging room and inputs a radiation irradiation instruction.

HIS/RIS7は、問診結果等に基づくオペレータによる登録操作に応じて撮影オーダ情報を生成する。撮影オーダ情報は、例えば被写体となる患者の氏名等の患者情報や、撮影部位、撮影方向、***(立位、臥位)、撮影方法、解析要否、解析項目等の撮影予約に関する情報等を含んでいる。なお、撮影オーダ情報はここに例示したものに限定されず、これ以外の情報を含んでいてもよいし、上記に例示した情報のうちの一部でもよい。   The HIS / RIS 7 generates imaging order information in response to a registration operation by an operator based on an inquiry result or the like. The imaging order information includes patient information such as the name of the patient who is the subject, information on the imaging reservation such as the imaging part, imaging direction, body position (standing position, standing position), imaging method, necessity of analysis, analysis items, etc. Contains. Note that the imaging order information is not limited to that exemplified here, but may include other information, or may be a part of the information exemplified above.

解析用WS8は、CPU、RAM等により構成される制御部と、解析用プログラムを記憶する記憶部と、入力部と、表示部と、通信ネットワークNを介してコンソール5等の外部機器とデータ送受信を行うための通信部とを備えて構成されるワークステーションである。解析用WS8は、制御部と記憶部に記憶されている解析用プログラムとの協働により、コンソール5から送信された一連のフレーム画像に基づいて解析処理を行い、解析結果をコンソール5に送信する。   The analysis WS 8 transmits / receives data to / from an external device such as the console 5 through a communication network N, a control unit including a CPU, a RAM, a storage unit for storing an analysis program, an input unit, a display unit, and a communication network N. A workstation configured to include a communication unit. The analysis WS 8 performs analysis processing based on a series of frame images transmitted from the console 5 in cooperation with the control unit and the analysis program stored in the storage unit, and transmits the analysis result to the console 5. .

FPD9aは、パルス撮影照射可能な動態撮影及び静止画撮影対応の放射線検出器である。
図5に、FPD9aの機能構成例を示す。図5に示すように、FPD9aは、制御部91、検出部92、記憶部93、コネクタ94、バッテリ95、無線通信部96等を備えて構成され、各部はバス97により接続されている。
The FPD 9a is a radiation detector compatible with dynamic imaging and still image imaging capable of pulse imaging irradiation.
FIG. 5 shows a functional configuration example of the FPD 9a. As shown in FIG. 5, the FPD 9 a includes a control unit 91, a detection unit 92, a storage unit 93, a connector 94, a battery 95, a wireless communication unit 96, and the like, and each unit is connected by a bus 97.

制御部91は、CPU、RAM等により構成される。制御部91のCPUは、記憶部93に記憶されているシステムプログラムや処理プログラム等の各種プログラムを読み出してRAMに展開し、展開されたプログラムに従って各種処理を実行する。
例えば、制御部91は、コネクタ94を介して接続されたブッキー装置1又は2からの要求に応じてFPD9aの識別情報であるFPDIDを記憶部93から読み出して要求元のブッキー装置に送信する。
また、例えば、制御部91は、コンソール5から入力された画像読取条件に基づいて検出部92のスイッチング部を制御して、各放射線検出素子(以下、検出素子)に蓄積された電気信号の読み取りをスイッチングしていき、検出部92に蓄積された電気信号を読み取ることにより、画像データ(静止画像又はフレーム画像)を生成する。そして、制御部91は、生成した画像データを、順次コネクタ94及びブッキー装置1又は2を介してコンソール5に出力する。尚、撮影により取得された各フレーム画像は、一旦FPD9aの記憶部93に記憶され、全撮影終了後に、纏めてFPD9aからコンソール5に出力することとしても良い。
なお、FPD9aは、ブッキーに装填されない単体使用時には、バッテリ駆動及び無線通信する構成であるが、動態撮影の場合には、登録第4,561,730号公報に開示されているように、ブッキーを介した外部電力供給及び有線通信する構成に変更することが好ましい。これは、静止画撮影に比べ、データ転送容量や転送時間が圧倒的に増えるので、一のフレーム画像の転送中に他のフレーム画像の撮影(読取り)に対しノイズを与えないため、且つ、転送時間自体を短くするためであり、さらに、一連の撮影途中のバッテリ切れを防止するためである。
The control unit 91 is configured by a CPU, a RAM, and the like. The CPU of the control unit 91 reads out various programs such as system programs and processing programs stored in the storage unit 93, expands them in the RAM, and executes various processes according to the expanded programs.
For example, the control unit 91 reads FPDID, which is identification information of the FPD 9a, from the storage unit 93 in response to a request from the bucky device 1 or 2 connected via the connector 94, and transmits the FPDID to the requesting bucky device.
Further, for example, the control unit 91 controls the switching unit of the detection unit 92 based on the image reading condition input from the console 5 to read the electrical signal accumulated in each radiation detection element (hereinafter, detection element). The image data (still image or frame image) is generated by reading the electrical signal stored in the detection unit 92. Then, the control unit 91 sequentially outputs the generated image data to the console 5 via the connector 94 and the bucky device 1 or 2. Each frame image acquired by shooting may be temporarily stored in the storage unit 93 of the FPD 9a, and may be output from the FPD 9a to the console 5 after completion of all shooting.
Note that the FPD 9a is configured to be battery-driven and wirelessly communicated when used alone without being attached to the bucky, but in the case of dynamic shooting, as disclosed in the registration No. 4,561,730, It is preferable to change to a configuration for external power supply and wired communication. This is because data transfer capacity and transfer time are overwhelmingly increased compared to still image shooting, so that no noise is given to the shooting (reading) of another frame image during transfer of one frame image and transfer. This is to shorten the time itself, and to prevent the battery from running out during a series of photographing.

検出部92は、例えば、ガラス基板等を有しており、基板上の所定位置に、放射線源3a〜3cの何れかから照射されて少なくとも被写体を透過した放射線をその強度に応じて検出し、検出した放射線を電気信号に変換して蓄積する複数の検出素子が二次元状に配列されている。検出素子は、フォトダイオード等の半導体イメージセンサにより構成される。各検出素子は、例えばTFT(Thin Film Transistor)等のスイッチング部に接続され、スイッチング部により電気信号の蓄積及び読み出しが制御される。
なお、生成された静止画像又はフレーム画像を構成する各画素は、検出部92の各検出素子のそれぞれから出力された信号値(ここでは、濃度値と呼称とする)を示す。
The detection unit 92 includes, for example, a glass substrate, and detects radiation that has been irradiated from any of the radiation sources 3a to 3c and transmitted through at least the subject at a predetermined position on the substrate according to the intensity thereof. A plurality of detection elements that convert detected radiation into electrical signals and store them are two-dimensionally arranged. The detection element is configured by a semiconductor image sensor such as a photodiode. Each detection element is connected to a switching unit such as a TFT (Thin Film Transistor), for example, and the switching unit controls the accumulation and reading of electric signals.
In addition, each pixel constituting the generated still image or frame image indicates a signal value (herein referred to as a density value) output from each detection element of the detection unit 92.

記憶部93は、例えば半導体の不揮発性メモリ等で構成されている。記憶部93には、検出部92を制御するための各種プログラムや自己の識別情報であるFPDID等が記憶されている。また、記憶部93には、検出部92から出力された画像データが一時的に記憶される。   The storage unit 93 is configured by, for example, a semiconductor nonvolatile memory. The storage unit 93 stores various programs for controlling the detection unit 92, FPDID that is identification information of itself, and the like. The storage unit 93 temporarily stores the image data output from the detection unit 92.

コネクタ94は、ブッキー装置1、2側のコネクタと接続し、ブッキー装置1又は2とのデータ送受信を行う。また、コネクタ94は、ブッキー装置1又は2のコネクタから供給される電力を各機能部へ供給する。なお、バッテリ95を充電する構成としても良い。   The connector 94 is connected to the connector on the Bucky device 1 or 2 side and performs data transmission / reception with the Bucky device 1 or 2. The connector 94 supplies power supplied from the connector of the bucky device 1 or 2 to each function unit. Note that the battery 95 may be charged.

バッテリ95は、制御部91の制御に基づいて、FPD9aの各部に電力を供給する。バッテリ95としては、例えばニッカド電池、ニッケル水素電池、リチウムイオン電池等の充電自在な電池等を適用することができる。   The battery 95 supplies power to each unit of the FPD 9a based on the control of the control unit 91. As the battery 95, for example, a rechargeable battery such as a nickel cadmium battery, a nickel metal hydride battery, or a lithium ion battery can be used.

FPD9bは、FPD9aと同様に、制御部91、検出部92、記憶部93、コネクタ94、バッテリ95を備えて構成されるが、フレームレートの設定はできない。即ち、FPD9bは、静止画撮影のみが可能である。
また、単体での使用は勿論のこと、ブッキー装置に装填しても使用可能で、ブッキー装置に装填時には、コネクタ接続により、バッテリ/無線方式から、有線/電力供給方式に切り替えることができる。従い、複数の患者を連続的に静止画撮影する場合に於いても、バッテリ切れを気にする必要がなくなる。
Like the FPD 9a, the FPD 9b includes a control unit 91, a detection unit 92, a storage unit 93, a connector 94, and a battery 95, but the frame rate cannot be set. That is, the FPD 9b can only take still images.
In addition, it can be used as a stand-alone unit, or can be used by being loaded into a Bucky device. When the Bucky device is loaded, it can be switched from a battery / wireless system to a wired / power supply system by connecting a connector. Accordingly, even when a plurality of patients are continuously photographed, it is not necessary to worry about running out of the battery.

PACS10は、画像データ等を保存するサーバ装置と、当該サーバ装置から診断用の画像を取得して表示するための読影端末とを備えて構成される。PACS10のサーバ装置は、コンソール5から送信された画像データや解析結果のデータを撮影オーダ情報に対応付けて記憶する。   The PACS 10 includes a server device that stores image data and the like, and an image interpretation terminal that acquires and displays a diagnostic image from the server device. The server device of the PACS 10 stores image data and analysis result data transmitted from the console 5 in association with imaging order information.

次に、診断支援情報生成システム100における撮影動作について説明する。
図6に、診断支援情報生成システム100において実行される撮影・解析処理の流れを示す。図6のコンソール5側の処理は、コンソール5の制御部51と記憶部52に記憶されているプログラムとの協働により実行される。解析用WS8側の処理は、解析用WS8の制御部と記憶部に記憶されている解析プログラムとの協働により実行される。
Next, the imaging operation in the diagnosis support information generation system 100 will be described.
FIG. 6 shows a flow of imaging / analysis processing executed in the diagnostic support information generation system 100. The processing on the console 5 side in FIG. 6 is executed in cooperation with the control unit 51 of the console 5 and the program stored in the storage unit 52. The processing on the analysis WS8 side is executed in cooperation with the control unit of the analysis WS8 and the analysis program stored in the storage unit.

まず、撮影技師等の操作者は、何れかの撮影室のコンソール5の入力部53を操作して撮影オーダ情報の一覧を表示する撮影オーダリスト画面を表示部54に表示させる。そして、入力部53を操作することにより撮影オーダリスト画面から撮影対象の撮影オーダ情報を指定する。   First, an operator such as a photographing engineer operates the input unit 53 of the console 5 in any of the photographing rooms to display a photographing order list screen for displaying a list of photographing order information on the display unit 54. Then, by operating the input unit 53, the imaging order information of the imaging target is designated from the imaging order list screen.

コンソール5においては、入力部53により撮影対象の撮影オーダ情報が指定されると(ステップS1)、記憶部52の撮影管理テーブル521が参照され、当該コンソール5が設置されている撮影室で選択された撮影オーダ情報に基づく撮影が可能であるか否かが判断される(ステップS2)。例えば、撮影オーダ情報により動態撮影が指示されていた場合、撮影管理テーブル521が参照され、その撮影室に、連射が可能な管球タイプの放射線源及び動態撮影対応のFPDが存在し、かつ、そのFPDが使用中ではない場合(画像受信時刻から予め定められた時間経過している場合)に、動態撮影が可能であると判断される。   In the console 5, when shooting order information to be shot is specified by the input unit 53 (step S1), the shooting management table 521 of the storage unit 52 is referred to and selected in the shooting room in which the console 5 is installed. It is determined whether or not shooting based on the shooting order information is possible (step S2). For example, when dynamic imaging is instructed by the imaging order information, the imaging management table 521 is referred to, and there is a tube-type radiation source capable of continuous shooting and an FPD corresponding to dynamic imaging in the imaging room, and When the FPD is not in use (when a predetermined time has elapsed from the image reception time), it is determined that dynamic imaging is possible.

当該コンソール5が設置されている撮影室において、選択された撮影オーダ情報に基づく撮影が可能であると判断されると(ステップS2;YES)、処理はステップS4に移行する。   If it is determined that shooting based on the selected shooting order information is possible in the shooting room in which the console 5 is installed (step S2; YES), the process proceeds to step S4.

当該撮影室では選択された撮影オーダ情報に基づく撮影が不可能であると判断されると(ステップS2:NO)、表示部54に警告が表示される(ステップS3)。例えば、撮影オーダ情報により動態撮影が指示されているにもかかわらず、連射可能な管球が撮影室に存在していないと判断されると(図1の撮影室R2のような場合)、「この撮影室では撮影できません」等の警告が表示される。また、例えば、撮影オーダ情報により指定された***を動態撮影するためのブッキー装置に動態撮影対応のFPD9aが装着されていないと判断されると、「立位(臥位)用のブッキー装置にFPD9aを装着してください」等の警告が表示される。そして、撮影・解析処理は終了する。なお、撮影オーダ情報により指定された***を動態撮影するためのブッキー装置に動態撮影可能なFPD9aが装着されていない場合、動態撮影対応のFPDを該当するブッキー装置に装着すれば、撮影管理テーブル521の内容は更新される。従って、撮影可能と判断され、処理はステップS4に移行する。
なお、この場合、一旦、撮影室内でFPDの入替操作を行って、再度コンソールまで戻り、再度ステップS1の処理から行わせ、確実性を高めるフローとしても良い。
If it is determined that shooting based on the selected shooting order information is impossible in the shooting room (step S2: NO), a warning is displayed on the display unit 54 (step S3). For example, when dynamic shooting is instructed by the shooting order information, it is determined that there is no continuous shooting tube in the shooting room (such as the shooting room R2 in FIG. 1). A warning such as “Cannot shoot in this room” is displayed. Further, for example, if it is determined that the FPD 9a corresponding to dynamic imaging is not attached to the Bucky device for performing dynamic imaging of the body position specified by the imaging order information, the FPD 9a Please put on "warning. Then, the photographing / analysis process ends. If the FPD 9a capable of dynamic imaging is not attached to the Bucky device for dynamically capturing the posture specified by the imaging order information, the imaging management table 521 can be provided by attaching an FPD corresponding to dynamic imaging to the corresponding Bucky device. The contents of are updated. Therefore, it is determined that photographing is possible, and the process proceeds to step S4.
In this case, the FPD replacement operation may be performed once in the photographing room, and the process may return to the console again, and the process may be performed again from step S1 to increase the certainty.

ステップS4においては、指定された撮影オーダ情報の撮影が可能な放射線源及びFPDが起動され、使用されるブッキー装置に応じて放射線源の向き及び位置が調整される。撮影技師により被写体に応じてFPDやブッキー装置の位置等が調整されると、それに応じて放射線源の向き及び位置が調整される(ステップS4)。また、記憶部52から撮影する部位や動態撮影か静止画撮影かの別に応じた放射線照射条件及び画像読取条件が読み出され、放射線源に放射線照射条件が設定されるとともに、ブッキー装置を介してFPDに画像読取条件が設定される(ステップS5)。動態撮影の結果を用いて解析を行う場合は、診断に使用し得る解析精度を確保するため、フレームレートが3.75枚/秒以上に設定される。ここで、操作者は、肺野の動態撮影の場合、安静呼吸の動態を撮影するために被験者に楽にするように指示し、安静呼吸を続けるよう促す。撮影準備が整った時点で、技師は前室へ移動し、操作卓6を操作して放射線照射指示を入力する。   In step S4, the radiation source and FPD capable of imaging the designated imaging order information are activated, and the orientation and position of the radiation source are adjusted according to the used Bucky device. When the position of the FPD or the bucky device is adjusted according to the subject by the imaging engineer, the direction and position of the radiation source are adjusted accordingly (step S4). In addition, the radiation irradiation condition and the image reading condition corresponding to the part to be imaged, dynamic imaging or still image imaging are read out from the storage unit 52, the radiation irradiation condition is set in the radiation source, and via the Bucky device Image reading conditions are set in the FPD (step S5). When analysis is performed using the result of dynamic imaging, the frame rate is set to 3.75 frames / second or more in order to ensure analysis accuracy that can be used for diagnosis. Here, in the case of lung field dynamic imaging, the operator instructs the subject to make the rest breathing easier in order to capture the rest breathing dynamics, and urges the patient to continue the rest breathing. When preparation for imaging is completed, the technician moves to the front room and operates the console 6 to input a radiation irradiation instruction.

操作卓6からの放射線照射指示が入力されると(ステップS6;YES)、撮影に使用される放射線源及びFPDが制御され、撮影が行われる(ステップS7)。
動態撮影の場合は、ステップS5で設定されたパルス間隔で放射線源3aにより放射線が照射され、ステップS5で設定されたフレームレートでFPD9aによりフレーム画像が取得される。予め定められたフレーム画像数の撮影が終了すると、制御部51により放射線源3a及びFPD9aに撮影終了の指示が出力され、撮影動作が停止される。撮影されるフレーム画像数は、少なくとも動態1サイクルが撮影できる枚数である。撮影により取得されたフレーム画像の画像データはFPD9aからブッキー装置を介して順次コンソール5に入力される。なお、撮影オーダ情報により解析が指示されていない場合には、オフセット補正用のダーク画像を読取り、コンソール5に入力することとしても良い。
静止画撮影の場合は、ステップS5で設定された条件で被写体の1枚の静止画像及びオフセット補正用の1または数枚のダーク画像が撮影される。撮影により取得された静止画像の画像データ及びダーク画像は、FPDからブッキー装置を介してコンソール5に入力される。
When a radiation irradiation instruction is input from the console 6 (step S6; YES), the radiation source and FPD used for imaging are controlled and imaging is performed (step S7).
In the case of dynamic imaging, radiation is emitted from the radiation source 3a at the pulse interval set in step S5, and a frame image is acquired by the FPD 9a at the frame rate set in step S5. When photographing of a predetermined number of frame images is completed, the control unit 51 outputs a photographing end instruction to the radiation source 3a and the FPD 9a, and the photographing operation is stopped. The number of frame images to be photographed is the number that can be photographed in at least one dynamic cycle. Image data of the frame image obtained by photographing is sequentially input from the FPD 9a to the console 5 via the bucky device. If analysis is not instructed by the shooting order information, a dark image for offset correction may be read and input to the console 5.
In the case of still image shooting, one still image of the subject and one or several dark images for offset correction are shot under the conditions set in step S5. Image data and a dark image of a still image acquired by shooting are input from the FPD to the console 5 via a bucky device.

次いで、解析用WS8で解析を行うか否かが判断される(ステップS8)。ここで、解析用WS8において解析を行うか否かの判断は、例えば、ステップS1で指定された撮影オーダ情報に基づいて判断される。撮影オーダ情報により静止画撮影がオーダされていれば、解析は行わないと判断される。動態撮影がオーダされている場合は、撮影オーダ情報により解析が必要である旨を示す情報が含まれている場合に、解析が必要であると判断される。   Next, it is determined whether or not the analysis is performed by the analysis WS 8 (step S8). Here, the determination as to whether or not to perform analysis in the analysis WS 8 is made based on, for example, the imaging order information specified in step S1. If still image shooting is ordered based on the shooting order information, it is determined that analysis is not performed. When dynamic imaging is ordered, it is determined that analysis is necessary when the imaging order information includes information indicating that analysis is necessary.

解析用WS8で解析を行わないと判断されると(ステップS8;NO)、撮影により得られた画像に対して補正処理が行われ(ステップS9)、処理はステップS10に移行する。ステップS9の補正処理においては、上述のダーク画像を用いたオフセット補正処理、ゲイン補正処理、欠陥画素補正処理、ラグ(残像)補正処理等の補正処理が必要に応じて行われる。解析を行う場合は、処理時間の短縮化を優先するためにこれらの補正処理を省略しても良く、処理はステップS10に移行する。
本件発明者等は、動態解析においては、静止画のような個々の画素の絶対的出力値はあまり重要ではなく、個々の画素におけるフレーム間の相対的出力値(変動成分)に基づく特徴量の算出が基本となっているため、上記の補正処理の一部或いは全部を省略しても、補正処理を行った場合と略同等の解析結果を得ることが可能である知見を得た。従い、解析結果を得るまでの時間を短縮するため、一部或いは全部の補正処理を省略することできる。
If it is determined that analysis is not performed by the analysis WS 8 (step S8; NO), a correction process is performed on the image obtained by photographing (step S9), and the process proceeds to step S10. In the correction process in step S9, correction processes such as the offset correction process using the dark image, the gain correction process, the defective pixel correction process, and the lag (afterimage) correction process are performed as necessary. When performing analysis, these correction processes may be omitted in order to give priority to shortening the processing time, and the process proceeds to step S10.
In the dynamic analysis, the inventors of the present invention are not so important in the absolute output value of each pixel such as a still image, and the feature amount based on the relative output value (variation component) between frames in each pixel. Since the calculation is fundamental, it has been found that even if a part or all of the correction process is omitted, an analysis result substantially equivalent to that obtained when the correction process is performed can be obtained. Accordingly, some or all of the correction processing can be omitted in order to shorten the time until the analysis result is obtained.

ステップS10においては、撮影により得られたフレーム画像又は静止画像が撮影オーダ情報と対応付けて記憶部52に記憶される(ステップS10)。なお、撮影に得られたフレーム画像には、撮影順を示す番号が付与され、各画像のヘッダ情報等に記憶される。   In step S10, a frame image or a still image obtained by shooting is stored in the storage unit 52 in association with shooting order information (step S10). It should be noted that the frame image obtained for shooting is given a number indicating the shooting order and stored in the header information of each image.

次いで、順次入力された画像が間引き処理され、表示部54に表示される(ステップS11)。ここでいう間引き処理は、各フレーム画像や静止画像の画素数を減らす処理を指す。例えば、所定の画素間隔毎の画素で構成された間引き画像を作成する処理(単純間引き処理と呼ぶ)と、フレーム画像を所定サイズの画素ブロック単位、例えば、2mm×2mm角単位の小領域に分割し、各小領域内の画素の信号値の代表値(ここでは、平均信号値とする)を算出して小領域内の画素の信号値を算出された代表値に置き換えるビニング処理が含まれる。ビニング処理では、各小領域単位を一つの画素とみなして取り扱うことで、処理対象の画素数を低減することができる。ビニング処理では、動態画像の場合、各フレーム画像間の対応する各小領域は検出素子の同じ位置の出力を示す画素群からなるように分割が行われる。例えば、フレーム画像上の同一画素位置(0、0)を基点として2mm×2mm角で分割が行われる。なお、ビニング処理における各画素ブロックのサイズは、診断対象(即ち、解析対象)となる撮影部位に応じたサイズとすることが好ましい。また、後段で解析処理を行う場合には、解析により算出される特徴量に応じたサイズとすることが好ましい。また、ビニング処理では特異的なFPD検出素子の影響が緩和されるので、ビニング処理により間引きをすることが好ましい。   Next, the sequentially input images are thinned out and displayed on the display unit 54 (step S11). The thinning-out processing here refers to processing for reducing the number of pixels of each frame image or still image. For example, a process for creating a thinned image composed of pixels at a predetermined pixel interval (referred to as simple thinning process) and a frame image are divided into pixel blocks of a predetermined size, for example, a small area of 2 mm × 2 mm square unit In addition, a binning process is included in which a representative value (here, an average signal value) of the signal values of the pixels in each small area is calculated and the signal values of the pixels in the small area are replaced with the calculated representative values. In the binning process, the number of pixels to be processed can be reduced by treating each small area unit as one pixel. In the binning process, in the case of a dynamic image, division is performed so that each corresponding small region between each frame image is composed of a pixel group indicating an output at the same position of the detection element. For example, the division is performed by 2 mm × 2 mm square with the same pixel position (0, 0) on the frame image as a base point. In addition, it is preferable that the size of each pixel block in the binning process is a size corresponding to an imaging region that is a diagnosis target (that is, an analysis target). Moreover, when performing an analysis process in the latter stage, it is preferable to set the size according to the feature amount calculated by the analysis. In addition, since the influence of a specific FPD detection element is reduced in the binning process, it is preferable to perform thinning out by the binning process.

次いで、間引きされたフレーム画像が表示部54に表示される(ステップS12)。
撮影技師は、表示された動態画像によりポジショニング等を確認し、撮影により診断に適した画像が取得された(撮影OK)か、再撮影が必要(撮影NG)か、を判断する。そして、入力部53を操作して、判断結果を入力する。尚、撮影により取得された各フレーム画像は、一旦FPD9aの記憶部93に記憶され、全撮影の終了後に纏めてFPD9aからコンソール5へ出力されるようにしても良い。
Next, the thinned frame image is displayed on the display unit 54 (step S12).
The imaging engineer confirms the positioning and the like based on the displayed dynamic image, and determines whether an image suitable for diagnosis is acquired by imaging (imaging OK) or re-imaging is necessary (imaging NG). Then, the input unit 53 is operated to input the determination result. Each frame image acquired by photographing may be temporarily stored in the storage unit 93 of the FPD 9a, and may be output from the FPD 9a to the console 5 after completion of all photographing.

入力部53の所定の操作により撮影NGを示す判断結果が入力されると(ステップS13;NO)、記憶部52に記憶された一連のフレーム画像が削除され(ステップS14)、本処理は終了する。なお、この場合、再撮影が行われることとなる。
入力部53の所定の操作により撮影OKを示す判断結果が入力されると(ステップS13;YES)、解析を行うか否かが判断される(ステップS15)。解析を行うか否かの判断は、例えば、ステップS8で説明したのと同様の判断により行われる。解析を行わないと判断されると(ステップS15;NO)、撮影された静止画像又はフレーム画像が必要に応じて画像処理され、ネットワーク通信部56を介してPACS10のサーバ装置に送信される(ステップS16)。なお、PACS10のサーバ装置においては、受信された静止画像又はフレーム画像が撮影オーダ情報に対応付けて保存される。
When a determination result indicating imaging NG is input by a predetermined operation of the input unit 53 (step S13; NO), a series of frame images stored in the storage unit 52 is deleted (step S14), and this process ends. . In this case, re-photographing is performed.
When a determination result indicating photographing OK is input by a predetermined operation of the input unit 53 (step S13; YES), it is determined whether or not to perform analysis (step S15). The determination as to whether or not to perform the analysis is performed based on the same determination as described in step S8, for example. If it is determined not to perform analysis (step S15; NO), the captured still image or frame image is subjected to image processing as necessary and transmitted to the server device of the PACS 10 via the network communication unit 56 (step S15). S16). In the server device of PACS 10, the received still image or frame image is stored in association with the shooting order information.

一方、解析を行うと判断されると(ステップS15;YES)、順次フレーム画像の間引きデータが撮影オーダ情報と対応付けられ、ネットワーク通信部56を介して解析用WS8に送信される(ステップS17)。例えば、選択された一連のフレーム画像の間引きデータのそれぞれに、動態画像を識別するための識別IDや、患者情報、撮影部位、放射線照射条件、画像読取条件(フレーム間隔等)、撮影順を示す番号、フレーム枚数、撮影日時等の情報が付帯され(例えば、DICOM(Digital Imaging and Communications in Medicine)マルチフォーマットのファイルフォーマットで画像データのヘッダ領域に書き込まれ)、ネットワーク通信部56を介して解析用WS8に送信される。また、解析項目も併せて解析用WS8に通知される。   On the other hand, if it is determined that analysis is to be performed (step S15; YES), the frame image thinning data is sequentially associated with the imaging order information and transmitted to the analysis WS8 via the network communication unit 56 (step S17). . For example, identification data for identifying a dynamic image, patient information, imaging region, radiation irradiation condition, image reading condition (frame interval, etc.), and imaging order are indicated for each of a series of selected frame image thinning data. Information such as the number, number of frames, shooting date and time is attached (for example, written in the header area of the image data in DICOM (Digital Imaging and Communications in Medicine) multi-format file format), and for analysis via the network communication unit 56 Sent to WS8. The analysis items are also notified to the analysis WS 8.

解析用WS8においては、受信したフレーム画像に基づいて解析処理が行われる(ステップS18)。解析用WS8は受信が完了したフレーム画像から順次解析処理を進める。
解析処理の内容は、撮影部位毎に異なる。ここでは、肺野の解析を行う場合を例にとり説明する。
In the analysis WS 8, analysis processing is performed based on the received frame image (step S 18). The analysis WS 8 advances the analysis process sequentially from the frame image that has been received.
The content of the analysis process differs for each imaging region. Here, a case where lung field analysis is performed will be described as an example.

肺野の解析としては、肺野の局所的な動きを示す特徴量を算出する解析と、肺野全体の動きを示す特徴量を算出する解析とがある。また、換気機能を対象とする解析と、血流機能を対象とする解析とがある。   The lung field analysis includes an analysis for calculating a feature value indicating local movement of the lung field and an analysis for calculating a feature value indicating the movement of the entire lung field. Further, there are an analysis for the ventilation function and an analysis for the blood flow function.

肺野の換気機能による局所的な信号変化を示す特徴量を算出する解析としては、例えば、下記の(1)〜(6)の項目が挙げられる。以下、各特徴量毎に、その算出方法の手順について簡単に説明する。なお、下記においては、解析に必要な処理を明確にするため、撮影されたフレーム画像の生データ(RAWデータ)から特徴量を算出する処理内容について説明するが、本実施の形態においては、解析用WS8へのフレーム画像送信時のデータ量の削減及び処理時間の短縮化の観点から、すでに各フレーム画像に、間引き処理の1種であるビニング処理が施されている(即ち、所定サイズの小領域に分割され、小領域毎に信号値の平均化が行われている)。   For example, the following items (1) to (6) are listed as the analysis for calculating the feature quantity indicating the local signal change due to the ventilation function of the lung field. Hereinafter, the procedure of the calculation method for each feature amount will be briefly described. In the following, in order to clarify the processing necessary for the analysis, the processing content for calculating the feature amount from the raw data (RAW data) of the captured frame image will be described, but in the present embodiment, the analysis is performed. From the viewpoint of reducing the amount of data when transmitting a frame image to the WS 8 and shortening the processing time, each frame image has already been subjected to a binning process which is a kind of thinning process (that is, a small size of a predetermined size). It is divided into regions, and signal values are averaged for each small region).

解析用WS8の解析処理においては、従来のようにワーピング処理を施してフレーム画像間の画素を対応付けて特徴量を算出するのではなく、ワーピング処理は施さずにFPD9aにおける同一位置の検出素子の出力を示す画素を互いに対応付けて特徴量の算出を行い、特徴量の精度を維持したまま処理時間を大幅に短縮した点に特徴がある。   In the analysis process of the analysis WS 8, the warping process is not performed and the feature amount is calculated by associating the pixels between the frame images as in the related art. The feature amount is calculated by associating pixels indicating outputs with each other, and the processing time is significantly shortened while maintaining the accuracy of the feature amount.

(1)換気−フレーム間差分画像
フレーム間差分画像は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のローパスフィルタ処理→フレーム間差分処理→ノイズ除去処理
ビニング処理は、上述のように、各フレーム画像において、画像領域を所定サイズの画素ブロック単位の小領域に分割し、小領域毎に領域内画素の信号値の代表値、例えば、平均値を算出する(平均化する)処理である。なお、代表値としては、平均値に限らず、中央値、平均値、最頻値としてもよい。画素ブロックのサイズは、解析対象となる部位、及び/又は解析により算出される特徴量に応じたものとすることが解析精度向上の点から好ましい。
時間軸方向のローパスフィルタ処理は、換気による信号値の時間変化を抽出するための処理であり、例えば、カットオフ周波数0.5Hzでフィルタリングする。
フレーム間差分処理は、一連のフレーム画像の同じ画素位置の小領域(FPDの同じ位置の検出素子から出力された領域)を互いに対応付け、各小領域毎に、フレーム単位で、隣接するフレーム画像間で信号値の差分値を算出し、フレーム間差分画像を作成する処理である。
なお、フレーム間差分画像の静止画像を作成する場合は、肺野全体の濃度変化又は横隔膜の位置の変化を解析することにより一連のフレーム画像における吸気期間と呼気期間を算出し、小領域毎に吸気期間については正のフレーム間差分値の絶対値を積算し、呼気期間については負のフレーム間差分値の絶対値を積算した画像を作成する。
(1) Ventilation-interframe difference image An interframe difference image is calculated by performing the following processing on a series of frame images.
Binning process → Low-pass filter process in the time axis direction → Inter-frame difference process → Noise removal process As described above, the binning process divides the image area into small areas in units of pixel blocks of a predetermined size in each frame image. This is a process of calculating (averaging) a representative value, for example, an average value, of signal values of pixels in the area for each area. The representative value is not limited to the average value, and may be a median value, an average value, or a mode value. The size of the pixel block is preferably in accordance with the part to be analyzed and / or the feature amount calculated by the analysis from the viewpoint of improving the analysis accuracy.
The low-pass filter process in the time axis direction is a process for extracting a time change of a signal value due to ventilation, and for example, filtering with a cutoff frequency of 0.5 Hz.
The inter-frame difference processing associates small regions at the same pixel position (regions output from detection elements at the same position of the FPD) of a series of frame images with each other, and adjacent frame images in units of frames for each small region. This is a process of calculating a difference value of signal values between them and creating an inter-frame difference image.
When creating a still image of the inter-frame difference image, the inspiratory period and expiratory period in a series of frame images are calculated by analyzing the change in the concentration of the entire lung field or the change in the position of the diaphragm. For the inhalation period, an absolute value of the positive inter-frame difference value is integrated, and for the expiration period, an image of the absolute value of the negative inter-frame difference value is integrated.

(2)換気−波形描画
換気−波形描画は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のローパスフィルタ処理→波形描画
ビニング処理及び時間軸方向のローパスフィルタ処理は上述のとおりである(以下同じ)。
波形描画処理は、一連のフレーム画像の同じ画素位置の小領域(FPDの同一位置の検出素子から出力された画素ブロックの領域)を互いに対応付け、各小領域毎に、横軸を撮影開始からの経過時間、縦軸を画素の平均信号値とした座標平面を作成して、各フレーム画像の撮影開始からの経過時間とその小領域について算出された平均信号値が交わる点をプロットすることより、換気量を示す信号値の時間変化を示す波形を描画する処理である。
(2) Ventilation-waveform drawing Ventilation-waveform drawing is calculated by performing the following processing on a series of frame images.
Binning process → low-pass filter process in time axis direction → waveform drawing The binning process and the low-pass filter process in time axis direction are as described above (hereinafter the same).
The waveform drawing process associates small regions at the same pixel position (regions of pixel blocks output from detection elements at the same position of the FPD) of a series of frame images with each other, and the horizontal axis for each small region starts from the start of imaging. By creating a coordinate plane with the vertical axis representing the average signal value of the pixel and plotting the points where the elapsed time from the start of capturing each frame image and the average signal value calculated for that small region intersect This is a process of drawing a waveform indicating a time change of a signal value indicating a ventilation amount.

(3)換気−気流速度
気流速度は、各小領域の肺のやわらかさ(肺コンプライアンス)を示す特徴量である。気流速度は、一連のフレーム画像に、以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のローパスフィルタ処理→各小領域毎にフレーム間差分処理→フレーム間差分値の代表値(最大値もしくは平均値)を算出
(3) Ventilation-Airflow velocity The airflow velocity is a feature amount indicating the softness of the lungs (lung compliance) in each small area. The air velocity is calculated by performing the following processing on a series of frame images.
Binning processing → Low-pass filter processing in the time axis direction → Inter-frame difference processing for each small area → Calculate the representative value (maximum value or average value) of inter-frame difference values

なお、最大値を代表値とする場合、各小領域毎に、呼気期間と吸気期間のそれぞれの期間における気流速度の最大値を示す指標として、呼気期間、吸気期間における信号変化(フレーム間差分値)の最大値をそれぞれ算出し、その比(最大流速比)の分布を示すヒストグラムを作成するとともに、何れか1つのフレーム画像上の各小領域を最大流速比に応じた輝度もしくは色で示す画像を作成し、両者を並べて解析結果として提供してもよい。この解析を最大流速比のヒストグラム解析と呼ぶ。
最大流速比のヒストグラム解析では、図7に示すように、各小領域の吸気気流速度の最大値(絶対値)と呼気気流速度の最大値(絶対値)との比の値がヒストグラム表示されるとともに、COPD(閉塞性肺疾患)であるか否かの指標となる肺野全体での平均値や標準偏差が表示された画像が生成される。また、併せて静止画像上の各小領域を比の値に応じた輝度もしくは色で示すことで、異常個所の分布を医師が容易に把握できるような診断情報提供する。
When the maximum value is used as a representative value, a signal change (difference value between frames) is used as an index indicating the maximum value of the airflow velocity in each of the expiration period and the inspiration period for each small region. ), And a histogram showing the distribution of the ratio (maximum flow rate ratio) is created, and each small area on any one of the frame images is displayed with brightness or color according to the maximum flow rate ratio. May be prepared, and both may be arranged and provided as an analysis result. This analysis is called histogram analysis of the maximum flow rate ratio.
In the histogram analysis of the maximum flow velocity ratio, as shown in FIG. 7, the ratio value between the maximum value (absolute value) of the inspiratory airflow velocity and the maximum value (absolute value) of the expiratory airflow velocity in each small region is displayed as a histogram. At the same time, an image in which the average value and standard deviation of the entire lung field, which is an indicator of whether or not the patient has COPD (obstructive pulmonary disease), is generated. In addition, by displaying each small region on the still image with luminance or color according to the ratio value, diagnostic information is provided so that the doctor can easily understand the distribution of abnormal parts.

(4)換気量の振幅
換気量の振幅は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のローパスフィルタ処理→一連のフレーム画像の同じ画素位置の小領域(FPDの同一位置の検出素子から出力された画素ブロックの領域)を互いに対応付け、各小領域毎に、呼吸1サイクル中の最大信号値(極大値)−最小信号値(極小値)の算出
(4) Ventilation Amplitude The ventilation volume amplitude is calculated by performing the following processing on a series of frame images.
Binning processing → Low-pass filter processing in the time axis direction → Small regions at the same pixel position (regions of pixel blocks output from detection elements at the same position in the FPD) of a series of frame images are associated with each other, Calculation of maximum signal value (maximum value)-minimum signal value (minimum value) during one breath cycle

(5)吸気遅延時間
吸気遅延時間は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のローパスフィルタ処理→一連のフレーム画像の同じ画素位置の小領域(FPDの同一位置の検出素子から出力された画素ブロックの領域)を互いに対応付け、肺野全体の濃度変化又は横隔膜位置の変化を解析することにより安静呼気位のフレーム画像を抽出し、各小領域毎に、安静呼気位のフレーム画像から、吸気時において安静呼気位の信号値との差が所定の閾値以上となるまでの時間の算出
(5) Intake delay time The intake delay time is calculated by performing the following processing on a series of frame images.
Binning processing → Low-pass filter processing in the time axis direction → Small regions at the same pixel position (regions of pixel blocks output from detection elements at the same position in the FPD) in a series of frame images are associated with each other, and density changes in the entire lung field Alternatively, a frame image of a resting expiratory position is extracted by analyzing a change in the diaphragm position, and a difference between the signal value of the resting expiratory position at the time of inspiration from a frame image of the resting expiratory position for each small region is a predetermined threshold value. Calculation of time until

(6)吸気時間、呼気時間
吸気時間、呼気時間は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のローパスフィルタ処理→一連のフレーム画像の同じ画素位置の小領域(FPDの同一位置の検出素子から出力された画素ブロックの領域)を互いに対応付け、各小領域毎に、呼吸1サイクル中の最大信号値(極大値)、最小信号値(極小値)の算出→最大信号値から最小信号値までの時間を呼気時間、最小信号値から最大信号値までの時間を呼気時間として算出
(6) Inspiration time and expiration time The inspiration time and expiration time are calculated by performing the following processing on a series of frame images.
Binning processing → Low-pass filter processing in the time axis direction → Small regions at the same pixel position (regions of pixel blocks output from detection elements at the same position in the FPD) of a series of frame images are associated with each other, Calculation of maximum signal value (maximum value) and minimum signal value (minimum value) during one breath cycle → time from maximum signal value to minimum signal value is expiration time, time from minimum signal value to maximum signal value is expiration time Calculated as

肺野内の血流による局所的な信号変化を示す特徴量を算出する解析としては、例えば、下記の(7)〜(10)が挙げられる。以下、各特徴量毎に、その算出方法の手順について簡単に説明する。なお、下記においては、撮影されたフレーム画像の生データ(RAWデータ)から特徴量を算出する処理内容について説明するが、本実施の形態においては、解析用WS8へのフレーム画像送信時のデータ量の削減及び処理時間の短縮化の観点から、すでに各画像にビニング処理が施されている(即ち、所定サイズの小領域に分割され、小領域毎に信号値の平均化が行われている)。   For example, the following (7) to (10) may be mentioned as the analysis for calculating the feature amount indicating the local signal change due to the blood flow in the lung field. Hereinafter, the procedure of the calculation method for each feature amount will be briefly described. In the following, processing contents for calculating a feature amount from raw data (RAW data) of a captured frame image will be described. In this embodiment, the data amount at the time of transmitting a frame image to the analysis WS 8 is described. Each image has already been subjected to binning processing (that is, divided into small areas of a predetermined size, and signal values are averaged for each small area) from the viewpoint of reduction of image quality and processing time. .

(7)血流−フレーム間差分画像
フレーム間差分画像は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のハイパスフィルタ処理→フレーム間差分処理→ノイズ除去
時間軸方向のハイパスフィルタ処理は、血流による信号値の時間変化を抽出するための処理であり、例えば、カットオフ周波数0.7Hzでフィルタリングする。その他は、上述の(1)換気−フレーム間差分画像で説明した処理と同様である。
(7) Blood flow-interframe difference image The interframe difference image is calculated by performing the following processing on a series of frame images.
Binning process → High-pass filter process in the time axis direction → Difference process between frames → Noise removal The high-pass filter process in the time axis direction is a process for extracting a temporal change in the signal value due to blood flow. Filter at 7 Hz. Others are the same as the processing described in the above (1) Ventilation-frame difference image.

(8)血流−波形描画
血流−波形描画は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のハイパスフィルタ処理→各小領域毎の波形描画
ビニング処理及び時間軸方向のハイパスフィルタ処理は上述のとおりである(以下同じ)。
波形描画処理は、上述の(2)換気−波形描画で説明した処理と同様の処理である。
(8) Blood flow-waveform drawing Blood flow-waveform drawing is calculated by performing the following processing on a series of frame images.
Binning process → High-pass filter process in the time axis direction → Waveform drawing for each small region The binning process and the high-pass filter process in the time axis direction are as described above (the same applies hereinafter).
The waveform drawing process is the same as the process described in (2) Ventilation-waveform drawing described above.

(9)血流量の振幅
血流量の振幅は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のハイパスフィルタ処理→一連のフレーム画像の同じ画素位置の小領域(FPDの同一位置の検出素子から出力された画素ブロックの領域)を互いに対応付け、各小領域毎に、心拍1サイクル中の最大信号値(極大値)−最小信号値(極小値)の算出
(9) Blood Flow Amplitude The blood flow amplitude is calculated by performing the following processing on a series of frame images.
Binning process → High-pass filter process in time axis direction → Small area at the same pixel position (area of the pixel block output from the detection element at the same position of the FPD) of a series of frame images is associated with each other, Calculation of maximum signal value (maximum value)-minimum signal value (minimum value) during one heartbeat cycle

(10)心室収縮遅延時間
吸気遅延時間は、一連のフレーム画像に以下の処理を施すことによって算出される。
ビニング処理→時間軸方向のハイパスフィルタ処理→一連のフレーム画像の同じ画素位置の小領域(FPDの同一位置の検出素子から出力された画素ブロックの領域)を互いに対応付け、心室領域の濃度変化又は心壁位置の変化を解析することにより心室拡張期の終わりに相当するフレーム画像を抽出し、各小領域毎に、心室拡張期の終わりに相当するフレーム画像から、心室収縮期において心室拡張期の終わりの信号値との差が所定の閾値以上となるまでの時間の算出
(10) Ventricular systolic delay time The inspiratory delay time is calculated by performing the following processing on a series of frame images.
Binning processing → High-pass filter processing in the time axis direction → Small regions at the same pixel position (regions of pixel blocks output from detection elements at the same position in the FPD) of a series of frame images are associated with each other, A frame image corresponding to the end of the ventricular diastole is extracted by analyzing the change in the ventricular wall position, and for each subregion, the frame image corresponding to the end of the ventricular diastole is extracted from the frame image corresponding to the end of the ventricular diastole. Calculating the time until the difference from the end signal value exceeds a predetermined threshold

肺野全体の動きを示す特徴量を算出する解析としては、例えば、下記の(11)〜(15)が挙げられる。以下、各特徴量毎に、その算出方法の手順について簡単に説明する。なお、本実施の形態においては、解析用WS8へのフレーム画像送信時のデータ量の削減及び処理時間の短縮化の観点から、各フレーム画像にビニング処理が施されているが、ビニング処理は行っても行わなくても下記特徴量は算出可能である。   For example, the following (11) to (15) may be mentioned as the analysis for calculating the feature amount indicating the movement of the entire lung field. Hereinafter, the procedure of the calculation method for each feature amount will be briefly described. In this embodiment, binning processing is performed on each frame image from the viewpoint of reducing the amount of data when transmitting the frame image to the analysis WS 8 and shortening the processing time. However, the binning processing is performed. Even if it is not performed, the following feature amount can be calculated.

(11)横隔膜移動量解析
横隔膜移動量は、撮影された各フレーム画像に、以下の処理を施すことによって算出される。
画像解析により各フレーム画像から横隔膜の位置を抽出→各フレーム画像の横隔膜の位置を追跡し、移動量を算出
(12)胸郭移動量解析
胸郭移動量は、撮影された各フレーム画像に、以下の処理を施すことによって算出される。
画像解析により各フレーム画像から上部胸郭(上肋骨(第2〜第6肋骨))、下部胸郭(下肋骨(第7〜第10肋骨))の位置を抽出→各フレーム画像の上胸郭、下胸郭の位置を追跡し、移動量を算出する。
(13)呼吸数、呼吸周期
呼吸数、呼吸周期は、撮影された各フレーム画像に、以下の処理を施すことによって算出される。
各フレーム画像から画像解析により求めた横隔膜位置(肺尖から横隔膜までの距離)の変化若しくはローパスフィルタ処理後の肺野全体の信号変化(信号値(平均信号値)の極大値から次の極小値までの時間間隔)より呼吸周期を求め、呼吸周期の逆数から単位時間当たりの呼吸数を算出する。
(14)心拍数、心周期
心拍数、心周期は、撮影された各フレーム画像に、以下の処理を施すことによって算出される。
各フレーム画像から画像解析により求めた心壁位置の変化若しくはハイパスフィルタ処理後の肺野全体の信号変化(信号値(平均信号値)の極大値から次の極小値までの時間間隔)より心周期を求め、心周期の逆数から単位時間当たりの心拍数を算出する。
(15)スパイロ検査相当の値の算出
横隔膜位置の時間変化波形を算出し、FEV1.0%(一秒率)相当の値を算出する。
胸郭と横隔膜位置の変化から肺野面積の変化量を算出し、別途測定した胸厚の変化量を乗ずることで、VC(肺活量)相当の値を算出する。
(11) Diaphragm movement amount analysis The diaphragm movement amount is calculated by performing the following processing on each captured frame image.
Extract the position of the diaphragm from each frame image by image analysis → track the position of the diaphragm in each frame image and calculate the movement amount (12) Thoracic movement amount analysis The thoracic movement amount is Calculated by performing processing.
Extract the positions of the upper rib cage (upper ribs (second to sixth ribs)) and lower rib cage (lower ribs (seventh to tenth ribs)) from each frame image by image analysis → upper and lower rib cages of each frame image Is tracked and the amount of movement is calculated.
(13) Respiration rate and respiration cycle The respiration rate and respiration cycle are calculated by performing the following processing on each captured frame image.
Changes in the diaphragm position (distance from the apex to the diaphragm) determined by image analysis from each frame image, or the signal change (signal value (average signal value)) from the local maximum to the next local minimum after low-pass filtering The respiratory cycle is obtained from the time interval until the respiratory rate is obtained, and the respiratory rate per unit time is calculated from the reciprocal of the respiratory cycle.
(14) Heart rate and cardiac cycle The heart rate and cardiac cycle are calculated by performing the following processing on each captured frame image.
Cardiac cycle based on changes in heart wall position obtained by image analysis from each frame image or signal changes in the entire lung field after high-pass filter processing (time interval from the maximum value of the signal value (average signal value) to the next minimum value) And the heart rate per unit time is calculated from the reciprocal of the cardiac cycle.
(15) Calculation of a value corresponding to a spiro test A time change waveform of the diaphragm position is calculated, and a value corresponding to FEV 1.0% (one second rate) is calculated.
A change in lung field area is calculated from changes in the rib cage and diaphragm positions, and a value corresponding to VC (pulmonary vital capacity) is calculated by multiplying the change in chest thickness measured separately.

解析処理が終了すると、解析用WS8において、解析結果のデータが通信ネットワークNを介してコンソール5に送信される(ステップS19)。コンソール5においては、ネットワーク通信部56により解析結果のデータが受信されると、受信された解析結果のデータが撮影オーダ情報と対応付けられてPACS10に送信される(ステップS20)。そして、撮影・解析処理は終了する。なお、特徴量の解析に使用した各フレーム画像データに関しては、静止画のような濃度諧調ベースの病変部読影には使用できないものであるので、保存データ容量削減の観点から、保存せず、算出された特徴量データのみを保存することが好ましい。また、解析用WS8にて、解析結果のデータと、コンソール5か受信した撮影オーダ情報を対応付け、これらのデータを解析用WS8からPACS10に送信する構成としても良い。   When the analysis process ends, analysis result data is transmitted to the console 5 via the communication network N in the analysis WS 8 (step S19). In the console 5, when the analysis result data is received by the network communication unit 56, the received analysis result data is transmitted to the PACS 10 in association with the imaging order information (step S20). Then, the photographing / analysis process ends. Note that each frame image data used for feature amount analysis cannot be used for density-gradation-based lesion interpretation like a still image, so it is calculated without saving from the viewpoint of saving data capacity. It is preferable to store only the feature amount data. Alternatively, the analysis WS 8 may associate the analysis result data with the imaging order information received from the console 5, and transmit these data from the analysis WS 8 to the PACS 10.

PACS10においては、受信された解析結果データが撮影オーダ情報に対応付けてサーバ装置のHDD等に記憶される。そして、読影用端末からの要求に応じて読影用端末表示部に解析結果が表示される。   In the PACS 10, the received analysis result data is stored in the HDD or the like of the server device in association with the imaging order information. The analysis result is displayed on the interpretation terminal display unit in response to a request from the interpretation terminal.

ここで、従来、動態撮影で得られた一連のフレーム画像に基づき当該動態に関する特徴量を算出し、診断支援情報として提供するシステムにおいては、診断精度の向上のため、複数のフレーム画像において被写体の同一部分が描画された領域を互いに対応付ける、所謂ワーピング処理を行うことが必要であると考えられていた(例えば、特許文献1、2)。   Here, conventionally, in a system that calculates feature values related to dynamics based on a series of frame images obtained by dynamic imaging and provides them as diagnosis support information, in order to improve diagnosis accuracy, It has been thought that it is necessary to perform a so-called warping process in which areas where the same part is drawn are associated with each other (for example, Patent Documents 1 and 2).

このワーピング処理を行うには、一のフレーム画像を複数の小領域に分割し、当該一のフレーム画像の各小領域に描画された構造物の部分と同一の部分を描画した小領域を各フレーム画像毎に抽出しなければならない。ワーピング処理では、一般的には肺野内構造物による空間的な濃度変化をもとに位置合わせを行うため、各フレーム画像にわたり当該構造物の濃度が忠実に(均一に)再現される必要があり、従って、検出器の各画素の出力バラツキ等は極力抑える必要があり(従い、オフセット補正処理、ゲイン補正処理、欠陥画素補正処理、ラグ補正処理等の各種補正処理を行って、バラツキを補正する必要がある)、補正処理に時間を要し、更に、高精度のワーピング処理を行うには、それに従い分解能の細かい画像を必要とするので画素サイズの小さな検出器が必要となり、各フレーム画像毎のデータ容量が増え、処理対象となる全体データ容量が大幅増加となる。そのため、大容量メモリや高速処理CPU等のハードウエアが必要であり、かつ処理時間も必要となっていた。   In order to perform this warping process, one frame image is divided into a plurality of small areas, and a small area in which the same part of the structure drawn in each small area of the one frame image is rendered as each frame. It must be extracted for each image. In the warping process, alignment is generally performed based on spatial density changes caused by structures in the lung field, so the density of the structure must be faithfully (uniformly) reproduced over each frame image. Therefore, it is necessary to suppress the output variation of each pixel of the detector as much as possible (accordingly, various correction processes such as an offset correction process, a gain correction process, a defective pixel correction process, and a lag correction process are performed to correct the variation. Correction process takes time, and in order to perform high-accuracy warping, an image with a fine resolution is required accordingly, so a detector with a small pixel size is required. The total data capacity to be processed is greatly increased. For this reason, hardware such as a large-capacity memory and a high-speed processing CPU is required, and processing time is also required.

しかし、本願発明者等が鋭意検討を行った結果、ワーピング処理を行わずとも、FPD個々の検出素子単位、又は複数画素をひとまとまりとした画素ブロック単位に動態撮影にかかる一連のフレーム画像間の差異を比較することで、同等の解析結果を得られることを見出した。   However, as a result of intensive studies by the inventors of the present application, even without performing warping processing, between FPD individual detection element units or a series of frame images related to dynamic imaging in a pixel block unit including a plurality of pixels as a group. It was found that equivalent analysis results can be obtained by comparing the differences.

以下、肺野を例にとり、ワーピング処理を行なわずとも同等の解析結果が得られる理由について説明する。
まず、体厚方向(z方向;側面)における信号値の変化ついて説明する。
図8は、安静呼気位である時刻T1における肺野の体厚方向(z方向)を模式的に示す図、時刻T1から吸気していくことにより安静吸気位となった時刻T2における肺野の体厚方向を模式的に示す図、及びFPDの検出素子位置(体軸方向(y方向))を模式的に示す図である。図8においては、吸気することにより肺胞a及び肺胞bのy方向の位置は下方へ移動し、時刻T1における肺胞bのy方向の位置と時刻T2における肺胞aのy方向の位置が一致した例を示している。
Hereinafter, the reason why an equivalent analysis result can be obtained without performing the warping process will be described using the lung field as an example.
First, changes in the signal value in the body thickness direction (z direction; side surface) will be described.
FIG. 8 is a diagram schematically showing the body thickness direction (z direction) of the lung field at time T1 in the resting expiratory position, and the lung field at time T2 at which the inspiratory position is reached by inhaling from time T1. It is a figure which shows a body thickness direction typically, and a figure which shows the detection element position (body-axis direction (y direction)) of FPD typically. In FIG. 8, the positions of alveoli a and b in the y direction move downward by inhaling, and the position of alveoli b in the y direction at time T1 and the position of alveolar a in the y direction at time T2. Shows an example of matching.

吸気によって肺野内における肺胞の位置は移動する。そこで、フレーム画像間で同一の肺胞に対して位置合わせを行い、ワーピングしてから信号値の差分をとると、肺野外の部分でのz方向のX線減衰量は肺野のy方向の位置によって異なるため、肺胞の位置合わせを行うことにより、逆に、呼吸による肺胞の密度変化による信号増加分に対し、肺野外部分でのX線減衰量の差が誤差因子として加わってしまうことになる。   The position of the alveoli in the lung field is moved by inspiration. Therefore, when the same alveoli between the frame images is aligned and the difference between the signal values is taken after warping, the X-ray attenuation amount in the z-direction in the portion outside the lung field is in the y-direction of the lung field. As the alveoli are aligned, the difference in X-ray attenuation in the lung field is added as an error factor to the signal increase due to the change in alveolar density due to respiration. It will be.

例えば、図8において、時刻T1におけるフレーム画像とT2におけるフレーム画像とで、肺胞bを位置合わせ及びワーピングをしてから信号値の差分をとると、この差分値の中には、時刻T1の実線の矢印で示す肺野外でのX線減衰量と、時刻T2の点線矢印で示す肺野外でのX線減衰量との差分も含んでいることとなり、この肺野外でのX線減衰量の差分が、同一肺胞間での呼吸による密度変化による信号値の変化に、誤差として加わることとなる。これにより、肺胞の密度変化による信号変化量の計算精度が下がる。   For example, in FIG. 8, when the difference between the signal values is obtained after aligning and warping the alveoli b between the frame image at the time T1 and the frame image at the time T2, the difference value includes the difference at the time T1. This also includes the difference between the X-ray attenuation outside the lung field indicated by the solid arrow and the X-ray attenuation outside the lung field indicated by the dotted arrow at time T2, and the X-ray attenuation outside the lung field is also included. The difference is added as an error to the change in the signal value due to the density change due to respiration between the same alveoli. Thereby, the calculation accuracy of the signal change amount due to the change in alveolar density is lowered.

ここで、肺胞の位置合わせ及びワーピングを行わず、時刻T1におけるフレーム画像の肺胞bと、時刻T2におけるフレーム画像の肺胞aを描画した画素(画素ブロック)、つまり、FPDの同一位置の検出素子(検出素子群)から出力された信号値の差分を計算することとする。このとき、この画素(画素ブロック)に描画されている肺胞は異なるが、肺野の同一のy方向位置に対して差分値を計算しているため、図8に示すように、肺野外におけるX線減衰量は変化しない。従って、異なる肺胞間で信号値の差分値を計算した場合、同一肺胞間での呼吸による密度変化の差による信号変化に対して、異なる肺胞間での密度の差による信号変化(図8の同一タイミングにおけるaとbの密度の差)が誤差として加わることとなる。   Here, without performing alignment and warping of the alveoli, pixels (pixel blocks) in which the alveoli b of the frame image at time T1 and the alveoli a of the frame image at time T2 are drawn, that is, at the same position of the FPD. The difference between the signal values output from the detection elements (detection element group) is calculated. At this time, alveoli drawn in this pixel (pixel block) are different, but since the difference value is calculated for the same y-direction position of the lung field, as shown in FIG. The amount of X-ray attenuation does not change. Therefore, when the difference value of the signal value between different alveoli is calculated, the signal change due to the difference in density between different alveoli (Fig. The difference between the density of a and b at the same timing of 8) is added as an error.

「肺野内のy方向位置が異なる肺胞間での密度の違いによる信号変化」は「y方向位置が異なる肺野外におけるX線減衰量の違いによる信号変化」と同等又はそれ以下である。そのため、フレーム画像間での肺胞の位置合わせ及びワーピング処理は行わず、そのままFPDの画素単位で差分をとる方が、処理の手間が省け、同等レベルの誤差で肺胞の密度変化による信号変化量が算出できる。   “Signal change due to difference in density between alveoli having different y-direction positions in the lung field” is equal to or less than “signal change due to difference in X-ray attenuation in the outside of the lung field having different y-direction positions”. For this reason, the alveolar alignment and the warping process between frame images are not performed, and it is possible to save the processing effort by taking the difference for each pixel of the FPD as it is, and the signal change due to the alveolar density change with the same level of error. The amount can be calculated.

特に、個々の画素や小領域毎に内在する誤差成分は、肺野全体の換気量情報を算出する際に加算されて相殺されることになり、肺野全体の換気や血流に関する特徴量を算出する場合には、ワーピング処理を行うと、ワーピング処理による処理時間延長というマイナス効果しか得られないことになる。   In particular, the error component inherent in each pixel or small area is added and canceled when calculating the ventilation information of the entire lung field, and the characteristic quantity related to ventilation and blood flow of the entire lung field is calculated. In the case of calculation, if the warping process is performed, only a negative effect of extending the processing time by the warping process can be obtained.

次に、x−y方向について検討する。図9に、肺野を正面(x−y方向)から見た図を示す。図9における実線は、図8における時刻T1のフレーム画像をx−y方向(正面)から見た図を示し、図9における点線は、図8における時刻T2のフレーム画像をx−y方向から見た図を示している。
図9に示すように、通常、吸気においては、肺胞は左肺野の場合左下方向に、右肺野の場合右下方向に移動する。これを鉛直方向(y方向)への移動と水平方向(x方向)への移動に分解する。y方向への肺胞の移動に対するワーピング処理は前述のとおりである。以下に、安静換気時の、肺胞のx方向への移動について説明する。
Next, the xy direction will be considered. FIG. 9 shows a view of the lung field viewed from the front (xy direction). The solid line in FIG. 9 shows a view of the frame image at time T1 in FIG. 8 viewed from the xy direction (front), and the dotted line in FIG. 9 shows the frame image at time T2 in FIG. The figure is shown.
As shown in FIG. 9, normally, in inspiration, the alveoli move in the lower left direction in the case of the left lung field and in the lower right direction in the case of the right lung field. This is broken down into movement in the vertical direction (y direction) and movement in the horizontal direction (x direction). The warping process for the movement of the alveoli in the y direction is as described above. Hereinafter, the movement of the alveoli in the x direction during rest ventilation will be described.

安静換気時の場合、胸郭の変化幅は最大でも10mm程度である。このとき、安静呼気位から安静吸気位に至る変化を考えた場合、x方向の移動量は、胸郭のすぐ内側に位置する肺胞が最も大きく、5mm程度である。3.75枚/秒のフレームレートで動態画像を取得し、フレーム間差分値を算出する場合を考えると、隣接フレーム画像間での肺胞の移動量は更に小さくなり、無視しうる。安静換気時においてはx方向の移動量は小さく、ワーピング処理を施したときと施さないときの信号値の変化量は、ほぼ同等である。従って、x−Y方向においてもワーピング処理は不要である。   In the case of rest ventilation, the change width of the rib cage is about 10 mm at the maximum. At this time, considering the change from the resting expiratory position to the resting inspiratory position, the amount of movement in the x direction is the largest for the alveoli located just inside the rib cage and is about 5 mm. Considering the case where dynamic images are acquired at a frame rate of 3.75 frames / second and the difference value between frames is calculated, the amount of movement of the alveoli between adjacent frame images is further reduced and can be ignored. During rest ventilation, the amount of movement in the x direction is small, and the amount of change in signal value when the warping process is performed and when the warping process is not performed is substantially the same. Accordingly, no warping process is required in the x-Y direction.

以上の知見によれば、ワーピング処理を施さず、FPDの個々の検出素子の出力を示す画素単位、或いは小領域単位の演算のみを行えばよいので、解析用WS8は、FPDからの出力信号形態に対する制約を行わず、各社の動画対応FPD9aで生成されるフレーム画像、例えば、ビニング処理を施されたフレーム画像を処理することができ、いわばオープンシステム化を可能とする。   According to the above knowledge, since the warping process is not performed, it is only necessary to perform the calculation in units of pixels indicating the outputs of the individual detection elements of the FPD or small area units. Therefore, it is possible to process a frame image generated by the moving image compatible FPD 9a of each company, for example, a frame image subjected to a binning process, so that an open system can be realized.

また、本願発明者等の更なる検討の結果、動態解析の場合には、オフセット補正処理、ゲイン補正処理等の個々の画素の出力バラツキを補正するための補正処理の一部及び全部を省略しても、これらの補正処理を施した場合と略同様の結果を得ることができることを見出した。   Further, as a result of further studies by the inventors of the present application, in the case of dynamic analysis, a part or all of correction processing for correcting output variations of individual pixels such as offset correction processing and gain correction processing is omitted. However, it has been found that substantially the same results as those obtained when these correction processes are performed can be obtained.

動態解析は、静止画のような個々の画素の絶対的出力値(信号値そのもの)はあまり重要ではなく、個々の画素におけるフレーム画像間の相対的出力値(変動成分)に基づく特徴量の算出が基本となっている。
また、撮影順が隣接するフレーム画像間で差分処理を行って特徴量を算出する場合、本来はオフセット補正処理やゲイン補正処理等の補正処理で均一となるFPD個々の検出素子の出力バラツキの影響度が緩和される。
例えば上述の最大流速比のヒストグラム解析等では、各画素(小領域)の呼気期間と吸気期間のフレーム間差分値の最大値の比を用いるので、個々の画素の信号値の絶対値は重要ではなくなり、ゲイン補正を省略できる。また、7.5枚/秒以上のフレームレートで撮影を行う場合、隣接するフレーム画像間では極めて時間差が短いため、ダーク値の差異は極めて微小であるので無視し得る。
よって、これらの動態解析の場合には、オフセット補正処理、ゲイン補正処理等の個々の画素の出力バラツキを補正するための補正処理を行わなくても、上記補正処理を施した場合と略同様の結果を得ることができる。
更に、複数の検出素子に対応する画素ブロックからなる小領域単位のビニング処理を行う場合には、 小領域内における信号値の平均化により個々の画素のバラツキ影響が解析項目やフレームレートに関係なく緩和されるので、特に好ましい。画素ブロックのサイズは解析精度及び処理時間の双方の点から2mm角〜5mm角とすることが好ましい。
In dynamic analysis, absolute output values (signal values themselves) of individual pixels such as still images are not very important, and feature values are calculated based on relative output values (variation components) between frame images at each pixel. Is the basis.
In addition, when calculating a feature amount by performing a difference process between adjacent frame images in the shooting order, the influence of output variations of individual FPD detection elements that are originally uniform in a correction process such as an offset correction process or a gain correction process The degree is relaxed.
For example, in the above-described histogram analysis of the maximum flow rate ratio, the absolute value of the signal value of each pixel is not important because the ratio of the maximum value of the inter-frame difference value between the expiration period and the inspiration period of each pixel (small region) is used. The gain correction can be omitted. In addition, when shooting at a frame rate of 7.5 frames / second or more, since the time difference between adjacent frame images is extremely short, the difference in dark value is extremely small and can be ignored.
Therefore, in the case of these dynamic analysis, even if correction processing for correcting output variations of individual pixels such as offset correction processing and gain correction processing is not performed, it is substantially the same as when the above correction processing is performed. The result can be obtained.
Furthermore, when performing binning processing in units of small areas consisting of pixel blocks corresponding to a plurality of detection elements, averaging of signal values within the small area affects the variation in individual pixels regardless of the analysis item or frame rate. It is particularly preferable because it is relaxed. The size of the pixel block is preferably 2 mm square to 5 mm square in terms of both analysis accuracy and processing time.

上記補正処理を省略することにより、撮影から動態解析の結果がでるまでの一連の処理時間が短縮可能となる。特に、オフセット補正処理を省略すれば、FPDにおける無駄なダーク画像の読取も不要になり、FPDの省力化も可能となる(バッテリを使用する場合)。   By omitting the correction process, a series of processing time from photographing to the result of dynamic analysis can be shortened. In particular, if the offset correction process is omitted, it is not necessary to read a useless dark image in the FPD, and the FPD can be labor-saving (when a battery is used).

例えば、健康診断等で集団検診を行う場合等には、少しでも1患者当たりの処理時間を短縮することが望まれる。そのような場合に、本発明は有効である。短時間で解析結果を提供することができるので、検診での検査結果をその場で即時に確認できるようになり、検査結果に基づき、直ちに精密検査を行ったり、ベテラン医師による聴診器診断に掛かったりすることができ、病気の早期発見に貢献することができる。   For example, when performing a mass examination in a health checkup or the like, it is desirable to reduce the processing time per patient as much as possible. In such a case, the present invention is effective. Since analysis results can be provided in a short time, it is possible to immediately check the examination results on the spot, and based on the examination results, a detailed examination can be performed immediately, and a veteran doctor can make a stethoscope diagnosis. Can contribute to the early detection of disease.

ここで、特許第4,546,174号公報のように、動態画像を撮影する撮影装置側(本実施形態ではFPD9a)でビニング処理や単純間引き処理を行い、処理済みのフレーム画像をコンソール5に送信することとしてもよい。このようにすれば、コンソール5においてビニング省略でき、またFPDとコンソールとの間での画像データの転送時間も短縮することができるので、更に好ましい。   Here, as disclosed in Japanese Patent No. 4,546,174, binning processing and simple thinning processing are performed on the side of the photographing apparatus that captures a dynamic image (in this embodiment, FPD 9a), and the processed frame image is input to the console 5. It is good also as transmitting. This is more preferable because binning can be omitted in the console 5 and the transfer time of the image data between the FPD and the console can be shortened.

以上、本実施の形態について説明したが、上記実施の形態は本発明の好適な一例であり、これに限定されない。
例えば、上記実施の形態においては、各撮影室にコンソール5を配置し、各撮影室のコンソール5で撮影室内における撮影を制御することとして説明したが、図10に示す診断支援情報生成システム200のように、撮影室の外に1又は複数のコンソール5を設置して各撮影室の操作卓6及びアクセスポイントAPと接続可能な構成とし、各コンソール5が撮影室R1〜R3の何れの撮影についても制御できるようにしてもよい。
Although the present embodiment has been described above, the above embodiment is a preferred example of the present invention, and the present invention is not limited to this.
For example, in the above embodiment, it has been described that the console 5 is arranged in each photographing room and the photographing in the photographing room is controlled by the console 5 in each photographing room. However, the diagnosis support information generating system 200 illustrated in FIG. As described above, one or a plurality of consoles 5 are installed outside the photographing room so that they can be connected to the console 6 and the access point AP of each photographing room, and each console 5 can take any picture in the photographing rooms R1 to R3. May also be controllable.

また、診断支援情報生成システム100、200では、解析用WS8をコンソール5とは別体で設ける構成としているが、コンソール5が解析用プログラムを備えて解析処理を行う構成としてもよい。このようにすれば、コンソール5から解析用WS8へ画像データを送信する時間を省くことが可能となるとともに、他のコンソール5による解析処理によって処理が遅れるといった事態も防止することができる。   In the diagnosis support information generation systems 100 and 200, the analysis WS 8 is provided separately from the console 5. However, the console 5 may include an analysis program and perform analysis processing. In this way, it is possible to save time for transmitting image data from the console 5 to the analysis WS 8, and it is possible to prevent a situation in which processing is delayed due to analysis processing by another console 5.

また、上記の説明では、本発明に係るプログラムのコンピュータ読み取り可能な媒体としてHDDや半導体の不揮発性メモリ等を使用した例を開示したが、この例に限定されない。その他のコンピュータ読み取り可能な媒体として、CD-ROM等の可搬型記録媒体を適用することが可能である。また、本発明に係るプログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も適用される。   In the above description, an example in which an HDD, a semiconductor nonvolatile memory, or the like is used as a computer-readable medium for the program according to the present invention is disclosed, but the present invention is not limited to this example. As another computer-readable medium, a portable recording medium such as a CD-ROM can be applied. Further, a carrier wave is also applied as a medium for providing program data according to the present invention via a communication line.

その他、診断支援情報生成システムを構成する各装置の細部構成及び細部動作に関しても、発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of each device constituting the diagnosis support information generation system can be changed as appropriate without departing from the spirit of the invention.

100 診断支援情報生成システム
1 ブッキー装置
11 制御部
12 検出器装着部
13 通信I/F
14 駆動部
15 バス
2 ブッキー装置
21 制御部
22 検出器装着部
23 通信I/F
24 駆動部
25 バス
3a 放射線源
3b 放射線源
3c 放射線源
4 クレードル
5 コンソール
51 制御部
52 記憶部
521 撮影管理テーブル
53 入力部
54 表示部
55 通信I/F
56 ネットワーク通信部
57 バス
9a FPD
9b FPD
91 制御部
92 検出部
93 記憶部
94 コネクタ
95 バッテリ
96 無線通信部
97 バス
6 操作卓
7 HIS/RIS
8 解析用WS
10 PACS
200 診断支援情報生成システム
DESCRIPTION OF SYMBOLS 100 Diagnosis support information generation system 1 Bucky device 11 Control part 12 Detector mounting part 13 Communication I / F
14 Drive unit 15 Bus 2 Bucky device 21 Control unit 22 Detector mounting unit 23 Communication I / F
24 Drive unit 25 Bus 3a Radiation source 3b Radiation source 3c Radiation source 4 Cradle 5 Console 51 Control unit 52 Storage unit 521 Imaging management table 53 Input unit 54 Display unit 55 Communication I / F
56 Network communication unit 57 Bus 9a FPD
9b FPD
91 control unit 92 detection unit 93 storage unit 94 connector 95 battery 96 wireless communication unit 97 bus 6 console 7 HIS / RIS
8 WS for analysis
10 PACS
200 Diagnosis support information generation system

Claims (6)

放射線源と、2次元状に配置された複数の検出素子により被写体を透過した放射線を検出して画像データを生成する放射線検出器と、を有する撮影手段と、
前記撮影手段により生成された画像データにオフセット補正処理及びゲイン補正処理のうち少なくとも一つを実施する補正手段と、
前記撮影手段により前記被写体の動態を撮影することにより得られた複数の画像データに基づいて、前記被写体の動態に係る特徴量を算出し出力する解析手段と、
前記撮影手段により生成された画像データに対する前記補正手段による補正を実施するか否かの制御を行う制御手段と、
を備える診断支援情報生成システム。
An imaging means comprising: a radiation source; and a radiation detector that detects radiation transmitted through the subject by a plurality of detection elements arranged two-dimensionally to generate image data;
Correction means for performing at least one of offset correction processing and gain correction processing on the image data generated by the photographing means;
Based on a plurality of image data obtained by photographing the dynamics of the subject by the photographing means, an analysis unit that calculates and outputs a feature amount related to the dynamics of the subject;
Control means for controlling whether or not to perform correction by the correction means on the image data generated by the photographing means;
A diagnostic support information generation system comprising:
前記制御手段は、前記解析手段により前記被写体の動態に係る特徴量を算出する場合は、前記補正手段による補正は実施しないように制御する請求項1に記載の診断支援情報生成システム。   2. The diagnosis support information generation system according to claim 1, wherein the control unit performs control so that correction by the correction unit is not performed when the analysis unit calculates a feature amount related to the dynamics of the subject. 前記解析手段は、前記放射線検出器における同一位置の検出素子の出力を示す画素を前記複数の画像データ間で互いに対応付け、肺野内の小領域毎に、撮影順が隣接する画像データ間の前記対応付けられた画素同士の差分値を算出し、呼気期間、吸気期間のそれぞれの期間において当該算出された差分値の代表値を算出し、それらの比を求めることにより、肺野内の局所領域に対する、呼気期間と吸気期間での気流速度比の指標となる特徴量を算出する請求項1又は2に記載の診断支援情報生成システム。   The analysis means associates pixels indicating the output of the detection element at the same position in the radiation detector with each other between the plurality of image data, and for each small region in the lung field, the imaging order between adjacent image data By calculating a difference value between the associated pixels, calculating a representative value of the calculated difference value in each of the expiration period and the inspiration period, and obtaining a ratio thereof, the local area in the lung field is calculated. The diagnostic support information generation system according to claim 1 or 2, wherein a feature amount serving as an index of an airflow velocity ratio in an expiration period and an inspiration period is calculated. 前記撮影手段により生成された前記被写体の動態を示す複数の画像データのそれぞれを複数の画素ブロックに分割し、当該画素ブロック毎に画素信号値の代表値を算出して当該代表値に画素ブロック内の画素信号値を置き換えるビニング処理手段を備える請求項1〜3の何れか一項に記載の診断支援情報生成システム。   Each of the plurality of image data indicating the dynamics of the subject generated by the photographing unit is divided into a plurality of pixel blocks, a representative value of the pixel signal value is calculated for each pixel block, and the representative value is within the pixel block. The diagnostic support information generation system according to any one of claims 1 to 3, further comprising a binning processing unit that replaces the pixel signal value. 表示手段を備え、
前記制御手段は、前記生成された画像データを診断用に前記表示手段に表示する場合は前記補正手段による補正を行うように制御する請求項1〜4の何れか一項に記載の診断支援情報生成システム。
A display means,
The diagnosis support information according to any one of claims 1 to 4, wherein the control means controls to perform correction by the correction means when the generated image data is displayed on the display means for diagnosis. Generation system.
放射線源と、2次元状に配置された複数の検出素子により被写体を透過した放射線を検出し画像データを生成する放射線検出器と、を有し、前記被写体の動態を示す一連の画像データ又は前記被写体の静止画の画像データを生成する撮影手段と、
前記撮影手段により生成された画像データにオフセット補正処理及びゲイン補正処理のうち少なくとも一つを実施する補正手段と、
前記撮影手段により生成された前記被写体の動態を示す一連の画像データに基づいて、前記被写体の動態に係る特徴量を算出し出力する解析手段と、
前記撮影手段により生成された画像データに対する前記補正手段による補正の実施を制御する制御手段と、
を備える診断支援情報生成システム。
A radiation source, and a radiation detector that detects radiation transmitted through the subject by a plurality of detection elements arranged two-dimensionally to generate image data, and a series of image data indicating the dynamics of the subject or the Photographing means for generating image data of a still image of a subject;
Correction means for performing at least one of offset correction processing and gain correction processing on the image data generated by the photographing means;
Based on a series of image data indicating the dynamics of the subject generated by the photographing unit, an analysis unit that calculates and outputs a feature amount related to the dynamics of the subject;
Control means for controlling execution of correction by the correction means for the image data generated by the photographing means;
A diagnostic support information generation system comprising:
JP2010259648A 2010-11-22 2010-11-22 Diagnosis support information generation system Pending JP2012110398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010259648A JP2012110398A (en) 2010-11-22 2010-11-22 Diagnosis support information generation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010259648A JP2012110398A (en) 2010-11-22 2010-11-22 Diagnosis support information generation system

Publications (1)

Publication Number Publication Date
JP2012110398A true JP2012110398A (en) 2012-06-14

Family

ID=46495312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010259648A Pending JP2012110398A (en) 2010-11-22 2010-11-22 Diagnosis support information generation system

Country Status (1)

Country Link
JP (1) JP2012110398A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9279893B2 (en) 2012-07-24 2016-03-08 Canon Kabushiki Kaisha Radiation imaging control apparatus, radiation imaging system and radiation imaging apparatus, and method for controlling the same
JP2016202886A (en) * 2015-04-27 2016-12-08 東芝メディカルシステムズ株式会社 Medical image processor, x-ray ct apparatus and image processing method
CN110292389A (en) * 2018-03-23 2019-10-01 柯尼卡美能达株式会社 Radiation imaging system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9279893B2 (en) 2012-07-24 2016-03-08 Canon Kabushiki Kaisha Radiation imaging control apparatus, radiation imaging system and radiation imaging apparatus, and method for controlling the same
JP2016202886A (en) * 2015-04-27 2016-12-08 東芝メディカルシステムズ株式会社 Medical image processor, x-ray ct apparatus and image processing method
CN110292389A (en) * 2018-03-23 2019-10-01 柯尼卡美能达株式会社 Radiation imaging system
CN110292389B (en) * 2018-03-23 2023-09-05 柯尼卡美能达株式会社 Radiographic system

Similar Documents

Publication Publication Date Title
JP5919717B2 (en) Dynamic medical image generation system
JP2012110400A (en) Dynamic diagnosis support information generation system
JP5672147B2 (en) Chest diagnosis support information generation system
JP5765343B2 (en) Chest diagnosis support system and program
JP5874636B2 (en) Diagnosis support system and program
JP5962237B2 (en) Chest diagnosis support information generation method
JP6597548B2 (en) Dynamic analysis system
JP2017124325A (en) Kinetics image analysis device
JP5617559B2 (en) Radiation imaging system
JP2016214725A (en) Dynamic phase analysis system
JP5948950B2 (en) Dynamic analysis system
JP2009153677A (en) Kinetic image processing system
WO2009139203A1 (en) Dynamic image picking-up system
JP5625800B2 (en) Dynamic diagnosis support information generation system
JP2019051322A (en) Kinetics analysis system
JP5625799B2 (en) Dynamic diagnosis support information generation system
JP5617577B2 (en) Chest diagnosis support information generation method
JP5125750B2 (en) Dynamic image diagnosis support system
JP2014147844A (en) Dynamic diagnosis support information generation system
JP2012110398A (en) Diagnosis support information generation system
JP5772653B2 (en) Dynamic diagnosis support information generation system, dynamic diagnosis support information generation method, and dynamic analysis device
JP2012115582A (en) Thoracic part diagnosis aiding system
JP2019092612A (en) Dynamic state imaging system
JP2020054550A (en) Photographing control device and program
JP2022135243A (en) Dynamic analysis apparatus and program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130416