JP4302067B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP4302067B2
JP4302067B2 JP2005035431A JP2005035431A JP4302067B2 JP 4302067 B2 JP4302067 B2 JP 4302067B2 JP 2005035431 A JP2005035431 A JP 2005035431A JP 2005035431 A JP2005035431 A JP 2005035431A JP 4302067 B2 JP4302067 B2 JP 4302067B2
Authority
JP
Japan
Prior art keywords
image
divided
image data
print
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005035431A
Other languages
Japanese (ja)
Other versions
JP2006222823A (en
Inventor
将史 佐川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2005035431A priority Critical patent/JP4302067B2/en
Publication of JP2006222823A publication Critical patent/JP2006222823A/en
Application granted granted Critical
Publication of JP4302067B2 publication Critical patent/JP4302067B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、同一被写体を分割撮影して得られた複数の分割画像を合成することにより長尺画像を得る画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method for obtaining a long image by combining a plurality of divided images obtained by dividing and photographing the same subject.

従来より、放射線(X線、α線、β線、γ線、電子線、紫外線等)を用いた撮影方法は様々な分野で利用されており、特に医療分野においては、診断のための最も重要な手段の一つとなっている。最初のX線写真が実現されてから、X線写真法は数々の改良を重ねられ、現在では蛍光スクリーンとX線フィルムを組み合わせた方法が主流となっている。一方、近年においては、医療用画像診断に用いられる装置として、X線CTや超音波、MRI等の様々なディジタル化された装置が実用化されており、病院内での診断情報処理システム等の構築が進められようとしている。X線画像についても、ディジタル化するための多くの研究がなされてきたが、輝尽性蛍光体を用いた放射線撮影方法が確立され、従来のX線写真法に置き換わるものとして注目されている。   Conventionally, imaging methods using radiation (X-rays, α-rays, β-rays, γ-rays, electron beams, ultraviolet rays, etc.) have been used in various fields, and especially in the medical field, it is the most important for diagnosis. It is one of the means. Since the first X-ray photography was realized, the X-ray photography method has been improved many times, and at present, a method combining a fluorescent screen and an X-ray film has become mainstream. On the other hand, in recent years, various digitized devices such as X-ray CT, ultrasound, and MRI have been put into practical use as devices used for medical image diagnosis, such as diagnostic information processing systems in hospitals. Construction is going on. A lot of research for digitizing X-ray images has also been made, but a radiographic method using a stimulable phosphor has been established and attracts attention as a replacement for conventional X-ray photography.

輝尽性蛍光体(蓄積性蛍光体)とは、放射線を照射するとその放射線エネルギの一部が蓄積され、その後、可視光等の励起光を照射すると、蓄積されたエネルギに応じて輝尽発光する物質であり、その存在は従来から知られていた。これを用いた放射線撮影方法とは、輝尽性蛍光体を塗布したシートに人体等の被写体の放射線画像を撮影記録し、この輝尽性蛍光体シートをレーザ光等の励起光で走査すると輝尽発光光が生じるので、医用画像読取り装置を用いて輝尽発光光を光電的に読み取ることにより画像データを得るものである。画像読取り装置に接続された画像処理装置において、この画像データを適切に処理した後、CRT等のディスプレイに出力したり、レーザプリンタ等によりフィルムに印刷したりして、放射線画像を可視画像として表示することができる。   A stimulable phosphor (storable phosphor) is a part of its radiation energy that is stored when irradiated with radiation. After that, when it is irradiated with excitation light such as visible light, it emits light according to the stored energy. It has been known for a long time. The radiography method using this is a method in which a radiographic image of a subject such as a human body is photographed and recorded on a sheet coated with a stimulable phosphor, and this stimulable phosphor sheet is scanned with excitation light such as laser light. Since exhausted light is generated, image data is obtained by photoelectrically reading the emitted light using a medical image reader. In an image processing device connected to an image reading device, this image data is appropriately processed and then output to a display such as a CRT or printed on a film by a laser printer or the like to display a radiation image as a visible image can do.

このような放射線撮影方法は、撮影感度や画質の面で、従来のX線写真法に匹敵する性能を持っている。例えば、従来のX線写真法と比較して、露光域が極めて広く、また、露光量に対する輝尽発光光の応答が露光域全域に渡ってほぼ比例している。このため、被写体をどのような放射線量で撮影しても、画像の存在する発光域をとらえ、過不足なく正規化してディジタル信号化することができる。また、このようにして得た信号を適切な画像処理方法と組み合わせることにより、様々な撮影条件の下でも定常的に良質な画像を提供することが可能である。さらに、直接、ディジタル化された画像情報を得ているので、画像の劣化を招くことなく、大量のデータを長期保存することが可能になるばかりか、医療診断情報システムへの発展等も可能になる。   Such a radiographic method has performance comparable to that of a conventional X-ray photography method in terms of imaging sensitivity and image quality. For example, compared with the conventional X-ray photography method, the exposure area is extremely wide, and the response of the photostimulated light to the exposure amount is almost proportional over the entire exposure area. For this reason, no matter what radiation dose the subject is photographed, it is possible to capture the emission region where the image exists and normalize it into a digital signal without excess or deficiency. Further, by combining the signal obtained in this way with an appropriate image processing method, it is possible to provide a steady and high-quality image even under various shooting conditions. Furthermore, since the digitized image information is obtained directly, not only can a large amount of data be stored for a long period of time without causing image deterioration, but also development into a medical diagnosis information system is possible. Become.

ところで、放射線撮影においては、多くの場合、被写体のごく一部分のみが撮影される。このため、全脊柱や全下肢等のように被写体が大きい場合には、被写体の放射線画像が1枚の輝尽性蛍光体シートに入り切らないため、複数の輝尽性蛍光体シートを用いて複数の分割画像に分けて撮影している。   By the way, in radiography, in many cases, only a small part of a subject is imaged. For this reason, when the subject is large, such as the entire spinal column or all the lower limbs, the radiation image of the subject does not fit into one stimulable phosphor sheet, and therefore a plurality of stimulable phosphor sheets are used. Shooting is divided into multiple divided images.

このようにして複数の分割画像で撮影された被写体画像は、全脊柱や全下肢の整形における角度の計測、及び、脊椎湾症やO脚の診断における横方向の長さの計測に使用されている。   The subject images captured in the plurality of divided images in this way are used for measuring the angle in shaping the entire spine and all the lower limbs, and in measuring the lateral length in the diagnosis of spondylosis or O-leg. Yes.

なお、全脊柱や全下肢等のような大きい被写体を撮影する方法としては、以下のような方法もある。
(1)複数の記録シートを使用して撮影した複数の分割画像を合成するのではなく、出力するフィルムのサイズに比べて大きい記録シート等を使用して撮影して、出力するフィルムのサイズに応じて放射線画像を分割して出力する方法。
(2)現在利用できるサイズよりも大きい裁断済みフィルムを出力することができるプリンタ、又は、ロールフィルムを使用して、出力するサイズに応じて自動的にカッティングを行うプリンタを用いることにより、分割することなく一枚のフィルムに出力する方法。
In addition, as a method of photographing a large subject such as the entire spinal column or the entire lower limb, there are the following methods.
(1) Rather than combining a plurality of divided images shot using a plurality of recording sheets, the shooting is performed using a recording sheet or the like that is larger than the size of the output film, and the size of the output film is set. According to this method, the radiation image is divided and output.
(2) Dividing by using a printer that can output a cut film larger than the currently available size, or a printer that uses a roll film and automatically cuts according to the output size. A method to output to a single film without any problems.

また、本願の画像処理装置及び画像処理方法の関連技術としては、以下に示すものがある。
下記の特許文献1には、ポスター印刷において印刷イメージに切り取り線と糊代を付加して印刷しポスターやパネルの作成を容易にするために、CPUにより、メモリに記憶した情報を印刷イメージに変換し、その印刷イメージをキーボードから指定された分割部数で分割し、分割した印刷イメージをキーボードから指定された印刷用紙の大きさに応じて拡大し、キーボードから指定された印刷用紙の大きさと分割部数に基づいて切り取り線と糊代の位置を算出し、拡大した印刷イメージに対して切り取り線と糊代を付加して印刷するよう構成された文書処理装置が開示されている。
Further, the following technologies are related to the image processing apparatus and the image processing method of the present application.
In Patent Document 1 below, the information stored in the memory is converted into a print image by the CPU in order to make it easy to create a poster or a panel by adding cut lines and glue margins to the print image in poster printing. The print image is divided by the number of divisions specified from the keyboard, the divided print image is enlarged according to the size of the print paper specified from the keyboard, the size of the print paper specified from the keyboard and the number of divisions A document processing apparatus is disclosed that calculates the position of the cut line and the margin based on the above, and adds the cut line and the margin to the enlarged print image for printing.

下記の特許文献2には、ポスター印刷において全体の印刷イメージに分割線を入れて表示又は印刷を行って分割位置を確認できるようにするために、文書、イメージ、グラフ、図形等の各種の情報を入力するキーボードと、キーボードから入力された各種の情報を記憶するメモリと、CPUと、プリンタとを備え、メモリに記憶した情報を印刷イメージに変換し、変換した印刷イメージに分割線を付加し、分割線を付加した印刷イメージを出力するよう構成された文書処理装置が開示されている。   In the following Patent Document 2, various information such as a document, an image, a graph, and a graphic are displayed so that the division position can be confirmed by inserting or displaying a division line on the entire print image in poster printing. A keyboard for inputting information, a memory for storing various information input from the keyboard, a CPU, and a printer. The information stored in the memory is converted into a print image, and dividing lines are added to the converted print image. A document processing apparatus configured to output a print image to which a dividing line is added is disclosed.

下記の特許文献3には、ポスター印刷を行った場合、印刷されたページが元の印刷データのどの部分かすぐ分かるようにするために、1ページの印刷データを拡大する拡大処理部と、その拡大したデータを複数のページに分割する分割処理部と、分割されたそれぞれのページに対して識別子として識別文字を付与する識別子付与処理部とを備え、識別文字により分割されたページを識別するポスター印刷装置が開示されている。   In the following Patent Document 3, when poster printing is performed, an enlargement processing unit for enlarging one page of print data in order to make it easy to know which portion of the original print data is printed, A poster that includes a division processing unit that divides the enlarged data into a plurality of pages and an identifier addition processing unit that assigns an identification character as an identifier to each divided page, and identifies the page divided by the identification character A printing device is disclosed.

しかしながら、複数の分割画像で撮影された被写体画像を1枚の半切フィルムに出力する場合には、この被写体画像を半切フィルムのサイズに合うように縮小せざるを得ず、角度及び横方向の長さを正確に計測することができないという問題があった。また、複数の分割画像で撮影された被写体画像はライフサイズ(等倍)で複数の半切フィルムに出力することもできるが、分割画像における重複領域(重なり部分)が排除されていないため、オペレータは、重複領域を重ね合わせて複数枚のフィルムを繋げなければならないという問題があった。さらに、複数の分割画像で撮影された被写体画像データを保存のために外部装置等へ送信する場合には、重複領域のデータは2度送信されることになるため、送信する被写体画像データのデータ量が大きくなるという問題があった。
特開平4−340653号公報(段落0008〜0018、図1) 特開平4−343167号公報(段落0012〜0022、図1) 特開2002−154251号公報(段落0009〜0011、図1)
However, in the case of outputting a subject image shot with a plurality of divided images to a single half-cut film, the subject image must be reduced to fit the size of the half-cut film, and the length in the angle and lateral directions can be reduced. There was a problem that it was impossible to measure the accuracy accurately. In addition, the subject image captured in a plurality of divided images can be output to a plurality of half-cut films with a life size (same size), but since the overlapping area (overlapping portion) in the divided images is not excluded, the operator can There was a problem that a plurality of films had to be connected by overlapping overlapping regions. Further, when the subject image data captured with a plurality of divided images is transmitted to an external device or the like for storage, the data of the overlapping area is transmitted twice. There was a problem that the amount became large.
JP-A-4-340653 (paragraphs 0008 to 0018, FIG. 1) JP-A-4-343167 (paragraphs 0012 to 0022, FIG. 1) JP 2002-154251 (paragraphs 0009 to 0011, FIG. 1)

そこで、上記の点に鑑み、本発明は、フィルムに出力した複数のライフサイズ画像を容易に繋ぎ合わせて等倍の長尺画像を得ることができ、長尺画像全体をディスプレイ上に表示することができると共に、外部装置等に送信する画像データのデータ量を削減することができる画像処理装置及び画像処理方法を提供することを目的とする。   Accordingly, in view of the above points, the present invention can easily connect a plurality of life size images output to a film to obtain a uniform long image and display the entire long image on a display. An object of the present invention is to provide an image processing apparatus and an image processing method capable of reducing the amount of image data transmitted to an external apparatus or the like.

以上の課題を解決するため、本発明に係る画像処理装置は、同一被写体を分割撮影することにより得られた、重複領域を有する複数の分割画像を表す第1の画像データに基づいて、重複領域を排除して複数の分割画像を合成することにより第2の画像データを生成する画像合成手段と、第2の画像データによって表される画像を印刷媒体のサイズに応じて欠損なく且つ重複領域を排除したまま分割した分割画像であって、隣り合う分割画像の少なくとも一方に透明部分を付加した印刷用分割画像を表す第3の画像データを生成する印刷用分割画像生成手段とを具備する。 In order to solve the above problems, an image processing apparatus according to the present invention is based on first image data representing a plurality of divided images having overlapping regions obtained by dividing and shooting the same subject. The image composition means for generating the second image data by synthesizing a plurality of divided images, and the image represented by the second image data is not lost according to the size of the print medium and the overlap area is formed. And a divided print image generation unit configured to generate third image data representing a divided image for printing, which is a divided image divided without being removed and having a transparent portion added to at least one of the adjacent divided images.

また、本発明に係る画像処理方法は、同一被写体を分割撮影することにより得られた、重複領域を有する複数の分割画像を表す第1の画像データに基づいて、重複領域を排除して複数の分割画像を合成することにより第2の画像データを生成するステップ(a)と、ステップ(a)において生成された第2の画像データによって表される画像を印刷媒体のサイズに応じて欠損なく且つ重複領域を排除したまま分割した分割画像であって、隣り合う分割画像の少なくとも一方に透明部分を付加した印刷用分割画像を表す第3の画像データを生成するステップ(b)とを具備する。
In addition, the image processing method according to the present invention eliminates the overlapping region based on the first image data representing the plurality of divided images having the overlapping region obtained by dividing and photographing the same subject. Step (a) of generating the second image data by combining the divided images, and the image represented by the second image data generated in step (a) without loss according to the size of the print medium and (B) generating a third image data representing a divided image for printing that is a divided image obtained by removing an overlapping region and adding a transparent portion to at least one of the adjacent divided images.

本発明は、以下の効果を奏する。
(1)位置合わせ用のマークが付加されたマーク付きライフサイズ画像をフィルムに出力するようにしたので、マークを目印として繋ぎ合わせることにより容易に等倍の長尺画像を得ることができる。
(2)長尺画像を縮小した縮小画像を表す縮小画像データを表示部に出力するようにしたので、縮小された長尺画像全体をディスプレイ上に表示することができる。
(3)分割画像の重複領域を排除したライフサイズ画像データを外部装置等に送信するようにしたので、外部装置等に送信する画像データのデータ量を削減することができる。
The present invention has the following effects.
(1) Since the marked life size image to which the alignment mark is added is output to the film, it is possible to easily obtain a long image of the same size by connecting the marks as marks.
(2) Since the reduced image data representing the reduced image obtained by reducing the long image is output to the display unit, the entire reduced long image can be displayed on the display.
(3) Since the life size image data excluding the overlapping area of the divided images is transmitted to the external device or the like, the data amount of the image data to be transmitted to the external device or the like can be reduced.

以下、図面に基づいて本発明の実施の形態について説明する。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。
図1に、本発明の一実施形態に係る画像処理装置を含む画像処理システムの構成を示す。図1に示すように、この画像処理システムは、被写体に放射線を照射して分割撮影を行うことにより長尺カセッテ16に格納された複数の記録シート(輝尽性蛍光体シート)18(図6)に同一被写体を分割した放射線画像等の情報を記録する画像撮影装置1と、長尺カセッテ16に格納された記録シート18を所定の方法でセットすることにより、記録シート18に記録されている放射線画像等の情報を光電的に読み取って画像データ及び画像付帯情報を生成する画像読取り装置2と、画像読取り装置2から画像データ及び画像付帯情報を入力して合成処理を含む各種の画像処理を行い、医療用診断画像を表示又は出力する画像処理装置3と、画像サーバ等の外部装置4とによって構成される。画像撮影装置1と画像読取り装置2と画像処理装置3と外部装置4とは、ネットワークN1を介して接続されている。なお、記録シートは、イメージング・プレート(Imaging Plate:IP)とも呼ばれる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings. The same constituent elements are denoted by the same reference numerals, and the description thereof is omitted.
FIG. 1 shows a configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention. As shown in FIG. 1, this image processing system is configured to irradiate a subject with radiation and perform divided imaging to record a plurality of recording sheets (stimulable phosphor sheets) 18 stored in a long cassette 16 (FIG. 6). ) Is set on the recording sheet 18 by setting the image photographing apparatus 1 for recording information such as a radiographic image obtained by dividing the same subject and the recording sheet 18 stored in the long cassette 16 by a predetermined method. An image reading device 2 that photoelectrically reads information such as a radiation image to generate image data and image supplementary information, and various image processing including synthesis processing by inputting image data and image supplementary information from the image reading device 2 And an image processing device 3 that displays or outputs a medical diagnostic image and an external device 4 such as an image server. The image capturing device 1, the image reading device 2, the image processing device 3, and the external device 4 are connected via a network N1. The recording sheet is also referred to as an imaging plate (IP).

画像撮影装置1は、複数の記録シートを収納した長尺カセッテ16の位置を上下させることにより、被検者における撮影位置を昇降させる撮影位置昇降機構11と、被検者の足の位置を決める撮影台12と、被検者に放射線を照射する放射線発生部13と、与えられた撮影条件に従って放射線発生部13等を制御する撮影制御部14と、各種の命令や撮影条件等を入力するために用いられる入力部15とを含んでいる。本実施形態においては、撮影メニューに基づく撮影条件の設定を、ネットワークN1を介して画像処理装置3において行っている。   The image photographing apparatus 1 determines the position of the subject's foot and the photographing position raising / lowering mechanism 11 that raises and lowers the photographing position of the subject by raising and lowering the position of the long cassette 16 containing a plurality of recording sheets. An imaging table 12, a radiation generator 13 for irradiating a subject with radiation, an imaging controller 14 for controlling the radiation generator 13 and the like according to given imaging conditions, and various commands and imaging conditions And an input unit 15 used in the above. In the present embodiment, setting of shooting conditions based on the shooting menu is performed in the image processing apparatus 3 via the network N1.

画像撮影装置1における放射線撮影により記録シートに記録された画像は、画像読取り装置2において読み取られ、画像データ及び画像付帯情報が生成される。画像読取り装置2において生成された画像データ及び画像付帯情報は、ネットワークN1を介して画像処理装置3に入力される。   An image recorded on a recording sheet by radiography in the image photographing device 1 is read by the image reading device 2, and image data and image supplementary information are generated. Image data and image supplementary information generated in the image reading device 2 are input to the image processing device 3 via the network N1.

画像処理装置3は、ネットワークインタフェース31と、画像判別部32と、画像合成部33と、縮小画像生成部34と、ライフサイズ画像生成部35と、画像送信部36と、画像取得部37と、マーク付加部38と、出力部39と、画像データ及び画像付帯情報を一時的に記憶するメモリ40と、データベース等を記録するハードディスク41と、ハードディスク41を制御するハードディスク制御部42と、各部を制御する制御部43と、各種の命令や情報を入力するために用いられる入力部44と、インタフェース45と、表示部46と、プリンタ47とを含んでいる。   The image processing apparatus 3 includes a network interface 31, an image determination unit 32, an image composition unit 33, a reduced image generation unit 34, a life size image generation unit 35, an image transmission unit 36, an image acquisition unit 37, A mark adding unit 38, an output unit 39, a memory 40 for temporarily storing image data and image supplementary information, a hard disk 41 for recording a database, a hard disk control unit 42 for controlling the hard disk 41, and controlling each unit A control unit 43, an input unit 44 used for inputting various commands and information, an interface 45, a display unit 46, and a printer 47.

同一被写体を分割撮影する際には、入力部44が、分割画像の撮影枚数を直接的又は間接的に指定するために用いられる。入力部44を用いて指定された撮影枚数を表す情報は、メモリ40又はハードディスク41等の格納手段に格納される。   When the same subject is divided and shot, the input unit 44 is used to directly or indirectly specify the number of shots of the divided images. Information indicating the number of shots designated using the input unit 44 is stored in a storage unit such as the memory 40 or the hard disk 41.

画像判別部32は、ネットワークインタフェース31を介して入力された画像付帯情報に基づいて、入力された画像データが同一被写体を分割撮影することにより得られた分割画像を表す分割画像データであるか否かを判別する。   Based on the image supplementary information input via the network interface 31, the image determination unit 32 determines whether the input image data is divided image data representing a divided image obtained by dividing and photographing the same subject. Is determined.

画像合成部33は、画像判別部32から入力される、複数の分割画像データによってそれぞれ表される複数の分割画像を、重複領域を排除して合成して、合成画像データ(以下、「長尺画像データ」と称する。)を生成する。このとき、制御部43は、指定された撮影枚数の分割画像を表す分割画像データが入力されたときに、画像合成部33に分割画像データの合成を開始させる。   The image composition unit 33 synthesizes a plurality of divided images respectively represented by the plurality of divided image data input from the image discrimination unit 32, excluding overlapping regions, and produces synthesized image data (hereinafter referred to as “long image”). Image data "). At this time, the control unit 43 causes the image composition unit 33 to start synthesizing the divided image data when the divided image data representing the designated number of divided images is input.

縮小画像生成部34は、画像合成部33から入力される長尺画像データによって表される長尺画像を、1枚の半切フィルムに出力できるサイズに縮小して、縮小画像データを生成する。   The reduced image generating unit 34 reduces the long image represented by the long image data input from the image synthesizing unit 33 to a size that can be output to one piece of half-cut film, and generates reduced image data.

ライフサイズ画像生成部35は、画像合成部33から入力される長尺画像データによって表される長尺画像を、1枚の半切フィルムに出力できるサイズ毎に分割して、複数の長尺画像分割画像データを生成する。ここで、ライフサイズ画像生成部35は、長尺画像分割画像データによって表わされる長尺画像分割画像であって、隣り合う長尺画像分割画像の一方に、他方との繋ぎ部分として10〜15mm程度の透明部分を付加して、ライフサイズ画像データを生成する。なお、透明部分の長さは、10〜15mm程度に限定されず、隣り合う長尺画像分割画像を繋ぎ合わせ易い長さに予め設定されていれば良い。   The life size image generation unit 35 divides a long image represented by the long image data input from the image synthesis unit 33 into sizes that can be output to one piece of half-cut film, thereby dividing a plurality of long image images Generate image data. Here, the life size image generation unit 35 is a long image divided image represented by the long image divided image data, and is connected to one of the adjacent long image divided images as a connecting portion with the other about 10 to 15 mm. The life size image data is generated by adding the transparent portion. The length of the transparent portion is not limited to about 10 to 15 mm, and may be set in advance to a length that makes it easy to join adjacent long image divided images.

画像送信部36は、縮小画像生成部34によって生成された縮小画像データと、ライフサイズ画像生成部35によって生成されたライフサイズ画像データとをネットワークインタフェース31を介して外部装置4に送信する。外部装置4は、画像送信部36から送信されてくる縮小画像データ及びライフサイズ画像データを保存する。   The image transmission unit 36 transmits the reduced image data generated by the reduced image generation unit 34 and the life size image data generated by the life size image generation unit 35 to the external device 4 via the network interface 31. The external device 4 stores the reduced image data and life size image data transmitted from the image transmission unit 36.

画像取得部37は、外部装置4に保存されている縮小画像データ及び/又はライフサイズ画像データを、ネットワークインタフェース31を介して取得して、取得した縮小画像データを出力部39に出力すると共に、取得したライフサイズ画像データをマーク付加部38に出力する。   The image acquisition unit 37 acquires the reduced image data and / or life size image data stored in the external device 4 via the network interface 31 and outputs the acquired reduced image data to the output unit 39. The acquired life size image data is output to the mark adding unit 38.

マーク付加部38は、ライフサイズ画像生成部35又は画像取得部37から入力されるライフサイズ画像データによって表されるライフサイズ画像(印刷用分割画像)に、隣り合うライフサイズ画像を繋ぎ合わせるときの位置合わせ用のマークを付加して、マーク付きライフサイズ画像データを生成する。
このとき、マーク付加部38は、ネットワークインタフェース31を介して入力された画像付帯情報に基づいて、繋ぎ合わせの順番を示す識別文字(数字等)をライフサイズ画像の画像部分に付加しても良い。
The mark adding unit 38 connects the adjacent life size images to the life size image (the divided image for printing) represented by the life size image data input from the life size image generating unit 35 or the image acquiring unit 37. A mark for alignment is added to generate life-size image data with a mark.
At this time, the mark adding unit 38 may add an identification character (number or the like) indicating the joining order to the image portion of the life size image based on the image supplementary information input via the network interface 31. .

出力部39は、縮小画像生成部34又は画像取得部37から入力される縮小画像データを、インタフェース45を介して表示部46又はプリンタ47に出力する。また、出力部39は、マーク付加部38から入力されるマーク付きライフサイズ画像データを、インタフェース45を介してプリンタ47に出力する。   The output unit 39 outputs the reduced image data input from the reduced image generation unit 34 or the image acquisition unit 37 to the display unit 46 or the printer 47 via the interface 45. The output unit 39 outputs the marked life size image data input from the mark adding unit 38 to the printer 47 via the interface 45.

CRT等のディスプレイを含む表示部46は、インタフェース45を介して出力部39から入力される縮小画像データに基づいて、縮小画像を表示する。
プリンタ47は、インタフェース45を介して出力部39から入力される縮小画像データ又はマーク付きライフサイズ画像データに基づいて、縮小画像又はマーク付きライフサイズ画像をフィルムや紙等の印刷媒体に印刷する。
A display unit 46 including a display such as a CRT displays a reduced image based on reduced image data input from the output unit 39 via the interface 45.
The printer 47 prints the reduced image or the marked life size image on a print medium such as a film or paper based on the reduced image data or the marked life size image data input from the output unit 39 via the interface 45.

以上において、画像判別部32、画像合成部33、縮小画像生成部34、ライフサイズ画像生成部35、マーク付加部38、出力部39及び制御部43は、ディジタル回路やアナログ回路で構成しても良いし、CPUとソフトウェア(プログラム)で構成しても良い。後者の場合には、CPUに動作を行わせるためのプログラムを、記録媒体としてのハードディスク41等に記録する。ここで、記録媒体としては、内蔵のハードディスクの他に、外付けハードディスク、フレキシブルディスク、MO、MT、RAM、CD−ROM、DVD−ROM等を用いることもできる。   In the above, the image discriminating unit 32, the image synthesizing unit 33, the reduced image generating unit 34, the life size image generating unit 35, the mark adding unit 38, the output unit 39, and the control unit 43 may be configured by digital circuits or analog circuits. It may be configured by a CPU and software (program). In the latter case, a program for causing the CPU to perform an operation is recorded on the hard disk 41 or the like as a recording medium. Here, in addition to the built-in hard disk, an external hard disk, flexible disk, MO, MT, RAM, CD-ROM, DVD-ROM, or the like can be used as the recording medium.

次に、図1に示す画像処理システムの分割撮影における動作について説明する。
まず、オペレータは、画像処理装置3の入力部44を用いて、表示されたメニューの中から分割撮影される部位を選択する。ここで、分割画像の撮影枚数は、ダイアログ等を表示することにより、オペレータが直接的に指定するようにしても良いし、以下に説明するように、撮影部位に対応してデフォルト値を予め設定しておき、撮影部位を選択することにより間接的に指定されるようにしても良い。
Next, the operation in the divided shooting of the image processing system shown in FIG. 1 will be described.
First, the operator uses the input unit 44 of the image processing apparatus 3 to select a part to be divided and photographed from the displayed menu. Here, the number of divided images to be taken may be specified directly by the operator by displaying a dialog or the like, or a default value is set in advance corresponding to the part to be taken as described below. In addition, it may be specified indirectly by selecting an imaging region.

例えば、オペレータは、撮影メニューにおいて全脊柱を選択する。分割画像の撮影枚数、即ち、撮影に必要な記録シートの枚数は、デフォルト値として予めハードディスク41又は外部装置4等に格納されており、入力部44を用いて選択された撮影部位に対応して、制御部43がこれを読み出して表示部46に表示する。オペレータは、このデフォルト値を変更することも可能である。制御部43は、このようにして指定された撮影枚数に基づいて、各記録シートに記録される分割画像が一連の関連する画像の内の1つであることを表す組情報と、各記録シートの相対位置を表す位置情報とを含む画像付帯情報を、メモリ40又はハードディスク41等に記憶すると共に、画像撮影装置1に出力する。   For example, the operator selects the entire spine in the imaging menu. The number of divided images to be photographed, that is, the number of recording sheets necessary for photographing, is stored in advance in the hard disk 41 or the external device 4 as a default value, and corresponds to the photographing part selected using the input unit 44. The control unit 43 reads out and displays it on the display unit 46. The operator can change this default value. Based on the number of shots designated in this way, the control unit 43 sets information indicating that the divided image recorded on each recording sheet is one of a series of related images, and each recording sheet. The image supplementary information including the position information indicating the relative position of the image is stored in the memory 40 or the hard disk 41 and is output to the image capturing apparatus 1.

また、オペレータは、画像処理装置3の入力部44を用いて長尺カセッテの種類も選択する。図2に、本実施形態に用いられるカセッテの種類及び分割画像を示す。図2の(a)及び(b)に示すように、画像読取り装置2に記録シート18をセットする方法が異なる2つのタイプの長尺カセッテが存在している。図2の(a)に示す長尺カセッテは、長尺カセッテの上下に開閉部を有しており、長尺カセッテの向きを変え、画像読取り装置2によって、それぞれの開閉部から記録シートが取り出される。図2の(b)に示す長尺カセッテは、光を遮断した暗室内で、1枚のシートサイズの標準カセッテに入れ替えられて、それぞれの標準カセッテから同じ向きで記録シートが取り出される。そのため、取り出された記録シートに記録された第2の分割画像の画像情報の向きが異なるため、標準カセッテを使用しないタイプの長尺カセッテを用いた場合には、合成画像を生成する時に第2の分割画像の画像情報を180°回転させる必要がある。そのため、オペレータは、入力部44を用いて長尺カセッテの種類を選択し、各記録シートに記録される分割画像の回転の有無を表す情報を画像付帯情報の位置情報に付する。なお、本実施形態においては、標準カセッテ使用型長尺カセッテを用いることとする。   The operator also selects the type of long cassette using the input unit 44 of the image processing apparatus 3. FIG. 2 shows the types of cassettes and divided images used in this embodiment. As shown in FIGS. 2A and 2B, there are two types of long cassettes that differ in the method of setting the recording sheet 18 in the image reading apparatus 2. The long cassette shown in FIG. 2A has an open / close section on the top and bottom of the long cassette. The orientation of the long cassette is changed, and the image reading device 2 takes out the recording sheet from each open / close section. It is. The long cassette shown in FIG. 2B is replaced with a standard cassette of one sheet size in a dark room where light is blocked, and a recording sheet is taken out from each standard cassette in the same direction. For this reason, since the orientation of the image information of the second divided image recorded on the taken-out recording sheet is different, when a long cassette that does not use a standard cassette is used, the second image is generated when a composite image is generated. It is necessary to rotate the image information of the divided images by 180 °. Therefore, the operator selects the type of the long cassette using the input unit 44, and adds information indicating the presence / absence of rotation of the divided image recorded on each recording sheet to the position information of the image supplementary information. In this embodiment, a standard cassette use type long cassette is used.

ここで、同一被写体を分割撮影して分割画像を複数の記録シートに記録する場合について、全脊柱を2分割して撮影する例を用いて説明する。図3に、複数の記録シートを収納した長尺カセッテを用いた撮影の様子を示す。全脊柱を撮影する場合には、長尺カセッテ16に第1及び第2の記録シートIP1及びIP2を収納し、この長尺カセッテ16を画像撮影装置1の所定の位置にセットして撮影を行う。図3においては、第1の記録シートIP1の下端部と第2の記録シートIP2の上端部とが互いに重複するように、第1及び第2の記録シートIP1及びIP2を配置している。   Here, the case where the same subject is dividedly photographed and the divided images are recorded on a plurality of recording sheets will be described using an example in which the entire spine is divided into two and photographed. FIG. 3 shows a state of photographing using a long cassette containing a plurality of recording sheets. When photographing the entire spine, the first and second recording sheets IP1 and IP2 are accommodated in the long cassette 16, and the long cassette 16 is set at a predetermined position of the image photographing apparatus 1 to perform photographing. . In FIG. 3, the first and second recording sheets IP1 and IP2 are arranged so that the lower end portion of the first recording sheet IP1 and the upper end portion of the second recording sheet IP2 overlap each other.

次に、画像撮影装置1において撮影が開始される。図3に示すように、放射線発生部13から発せられ被検体17を透過した放射線を、長尺カセッテ16に収納された第1及び第2の記録シートIP1及びIP2に照射することにより、被検体17の全脊柱の放射線画像が第1及び第2の記録シートIP1及びIP2に分割して記録される。撮影の終了後、長尺カセッテ16は、画像撮影装置1の所定の位置から取り出される。   Next, shooting is started in the image shooting apparatus 1. As shown in FIG. 3, the first and second recording sheets IP <b> 1 and IP <b> 2 accommodated in the long cassette 16 are irradiated with the radiation emitted from the radiation generation unit 13 and transmitted through the subject 17, thereby subjecting the subject. The radiographic images of the total 17 spines are divided and recorded on the first and second recording sheets IP1 and IP2. After the photographing is finished, the long cassette 16 is taken out from a predetermined position of the image photographing device 1.

ここで、複数の記録シートに記録される被写体の分割画像は、重複領域を含む。例えば、図4の(a)及び(b)にそれぞれ示すように、第1の記録シートIP1に記録された第1の分割画像と、第2の記録シートIP2に記録された第2の分割画像とには、図3に示す記録シートの重複領域に対応した重複画像がそれぞれ存在する。このように、合成しようとする2つの分割画像中に同一部分を表す重複画像が存在すると、これらの分割画像中に含まれている重複画像同士を一致させるように位置合わせを行うことができるので、合成処理する際の位置合わせが容易になる。なお、このような位置合わせは、双方の分割画像中に含まれている重複画像の間でのパターンマッチングを行うことにより実現することができる。   Here, the divided images of the subject recorded on the plurality of recording sheets include overlapping areas. For example, as shown in FIGS. 4A and 4B, a first divided image recorded on the first recording sheet IP1 and a second divided image recorded on the second recording sheet IP2. In FIG. 3, there are overlapping images corresponding to the overlapping regions of the recording sheets shown in FIG. In this way, if there are overlapping images representing the same part in the two divided images to be combined, the alignment can be performed so that the overlapping images included in these divided images match. Alignment during the synthesis process is facilitated. Such alignment can be realized by performing pattern matching between overlapping images included in both divided images.

また、画像撮影装置1において、分割画像と共に、バーコード等を用いて画像付帯情報が記録シートに記録される。例えば、画像撮影装置1は、組情報としての組番号SNを用いて、図3において上側に示す第1の記録シートIP1の組情報及び位置情報をSN1として第1の記録シートIP1に記録し、図3において下側に示す第2の記録シートIP2の組情報及び位置情報をSN2として第2の記録シートIP2に記録する。ここで、SN1及びSN2は、組番号を表す数字である。   Further, in the image photographing apparatus 1, image supplementary information is recorded on a recording sheet using a barcode or the like together with the divided images. For example, the image capturing apparatus 1 records the set information and position information of the first recording sheet IP1 shown on the upper side in FIG. 3 as SN1 on the first recording sheet IP1, using the set number SN as set information. In FIG. 3, the group information and position information of the second recording sheet IP2 shown on the lower side are recorded on the second recording sheet IP2 as SN2. Here, SN1 and SN2 are numbers representing set numbers.

再び図1を参照すると、画像処理装置3は、画像読取り装置2において読取りを行うべき記録シートを示す画像メニューを、表示部46に表示する。図5に、画像メニューの例を示す。図5に示すように、全脊柱の撮影に必要な記録シート2枚分の画像メニューには、組処理すべき分割画像であることを示す記号WSや、撮影した被写体の表裏(PA又はAP)や、露出補正の方法(AUTO等)や、フィルムに出力するときの表示方法(Single又はTwin)の情報が付されている。   Referring again to FIG. 1, the image processing device 3 displays an image menu indicating a recording sheet to be read by the image reading device 2 on the display unit 46. FIG. 5 shows an example of the image menu. As shown in FIG. 5, the image menu for two recording sheets necessary for photographing the entire spine includes a symbol WS indicating that it is a divided image to be combined, and the front and back (PA or AP) of the photographed subject. In addition, information on an exposure correction method (AUTO, etc.) and a display method (Single or Twin) when outputting to a film is attached.

オペレータは、このような画像メニューに従って、記録シートに記録されている放射線画像を画像読取り装置2に読み取らせる。画像読取り装置2において、複数の記録シートに記録されている分割画像及び画像付帯情報が読み取られ、画像データが生成される。   The operator causes the image reading device 2 to read the radiation image recorded on the recording sheet according to such an image menu. In the image reading device 2, the divided images and the image supplementary information recorded on the plurality of recording sheets are read, and image data is generated.

ここで、画像読取り装置2における読取り動作について説明する。画像撮影装置1から取り出された長尺カセッテ16内の第1及び第2の記録シートIP1及びIP2は、光を遮断した暗室内で、1枚のシートサイズの標準カセッテに入れ替えられて、画像読取り装置2の所定の位置に挿入される。   Here, a reading operation in the image reading apparatus 2 will be described. The first and second recording sheets IP1 and IP2 in the long cassette 16 taken out from the image capturing apparatus 1 are replaced with a standard cassette of one sheet size in a dark room where light is blocked, and image reading is performed. The device 2 is inserted into a predetermined position.

図6に、画像読取り装置2の構成を示す。標準カセッテに挿入された記録シート18(IP1又はIP2)は、画像読取り装置2の所定位置にセットされる。記録シート18は、モータ21により駆動されるシート搬送手段22により、Y軸方向に搬送される。一方、レーザ光源23より出射したビームL1は、モータ24により駆動されて矢印方向に高速回転する回転多面鏡25により反射偏向され、収束レンズ26を通過する。その後、ビームL1は、ミラー27により光路を変えて、記録シート18をX軸方向に走査する。この走査により、励起光L2が記録シート18に照射され、照射された部分からは蓄積記録されている放射線画像情報に応じた光量の輝尽発光光L3が発散される。   FIG. 6 shows the configuration of the image reading device 2. The recording sheet 18 (IP1 or IP2) inserted into the standard cassette is set at a predetermined position of the image reading device 2. The recording sheet 18 is conveyed in the Y-axis direction by a sheet conveying unit 22 driven by a motor 21. On the other hand, the beam L1 emitted from the laser light source 23 is reflected and deflected by the rotary polygon mirror 25 that is driven by the motor 24 and rotates at high speed in the direction of the arrow, and passes through the converging lens 26. Thereafter, the beam L1 changes its optical path by the mirror 27 and scans the recording sheet 18 in the X-axis direction. By this scanning, the excitation light L2 is irradiated onto the recording sheet 18, and the stimulated emission light L3 having a light amount corresponding to the stored and recorded radiation image information is emitted from the irradiated portion.

輝尽発光光L3は、光ガイド28により導かれ、フォトマルチプライヤ(光電子増倍管)29により光電的に検出される。フォトマルチプライヤ29から出力されたアナログ信号は、増幅器20により増幅され、A/D変換器30によりディジタル化される。A/D変換器30は、ディジタル化された画像データと共に記録シートに付したバーコードからバーコードリーダ(図示せず)を用いて読取られた画像付帯情報とを、ネットワークN1を介して画像処理装置3に出力する。   The stimulated emission light L3 is guided by a light guide 28 and is detected photoelectrically by a photomultiplier (photomultiplier tube) 29. The analog signal output from the photomultiplier 29 is amplified by the amplifier 20 and digitized by the A / D converter 30. The A / D converter 30 performs image processing on the image supplementary information read using a barcode reader (not shown) from the barcode attached to the recording sheet together with the digitized image data via the network N1. Output to device 3.

再び図1を参照すると、画像読取り装置2において複数の記録シートから読み取られた画像データ及び画像付帯情報は、画像処理装置3に入力されてメモリ40に一旦記憶される。一方、画像判別部32は、画像付帯情報に基づいて、画像データが分割画像データであるか否かを判別する。   Referring again to FIG. 1, image data and image supplementary information read from a plurality of recording sheets in the image reading device 2 are input to the image processing device 3 and temporarily stored in the memory 40. On the other hand, the image determination unit 32 determines whether or not the image data is divided image data based on the image supplementary information.

制御部43は、画像データが分割画像データである場合には、画像付帯情報に基づいて、撮影時に指定された撮影枚数の分割画像を表す分割画像データが入力されたか否かを監視する。指定された撮影枚数の分割画像を表す分割画像データが入力されたときに、制御部43は、画像合成部33に分割画像データの合成を開始させる。   When the image data is divided image data, the control unit 43 monitors whether or not divided image data representing the number of divided images specified at the time of shooting is input based on the image supplementary information. When the divided image data representing the designated number of divided images is input, the control unit 43 causes the image composition unit 33 to start synthesis of the divided image data.

ここで、合成する画像データが1組分に満たない場合には、制御部43は、入力部44における読込み終了ボタンの押下等のオペレータからの指示に従って、蓄積された分割画像データの合成を画像合成部33に開始させても良いし、所定の時間経過後に、蓄積された分割画像データの合成を画像合成部33に開始させても良い。   Here, when the image data to be combined is less than one set, the control unit 43 combines the accumulated divided image data into an image according to an instruction from the operator such as pressing the reading end button in the input unit 44. The synthesizing unit 33 may be started, or the synthesis of the accumulated divided image data may be started by the image synthesizing unit 33 after a predetermined time has elapsed.

画像合成部33は、入力された画像付帯情報に含まれている位置情報等に基づいて1組の分割画像データを合成することにより、長尺画像データを生成する。即ち、画像合成部33は、第1の分割画像及び第2の分割画像の重複領域又は接触部分における相関値を求め、この相関値が最大となるときの画像の平行移動量と回転量と拡大縮小量を位置ずれ量として求め、この位置ずれ量に基づいて、下記の式(1)によるアフィン変換の係数を決定し、この係数に基づいてアフィン変換を行う。

Figure 0004302067
但し、(x1,y1)は第1の分割画像データの座標値であり、(x2,y2)は第2の分割画像データの座標値である。ここで、式(1)に基づく座標変換においては、第1の分割画像データによって表される分割画像を拡大もしくは縮小、回転又は平行移動することが行われる。 The image synthesizing unit 33 generates long image data by synthesizing a set of divided image data based on position information and the like included in the input image supplementary information. That is, the image composition unit 33 obtains a correlation value in an overlapping region or a contact portion of the first divided image and the second divided image, and the parallel movement amount, the rotation amount, and the enlargement when the correlation value is maximized. A reduction amount is obtained as a positional deviation amount. Based on the positional deviation amount, a coefficient of affine transformation is determined by the following equation (1), and affine transformation is performed based on the coefficient.
Figure 0004302067
However, (x1, y1) is the coordinate value of the first divided image data, and (x2, y2) is the coordinate value of the second divided image data. Here, in the coordinate conversion based on Expression (1), the divided image represented by the first divided image data is enlarged, reduced, rotated, or translated.

式(1)に含まれる係数a、b、c及びdは、以下のようにして決定される。
式(1)は、
x2=ax1+by1+c・・・・(2)
y2=−bx1+ay1+d・・・(3)
の2式に分けられる。ここで、第1の分割画像データにおいて第2の分割画像データとの相関値が高い2点の座標を(x11,y11)、(x12,y12)とし、これに対応する第2の分割画像データにおける2点の座標を(x21,y21)、(x22,y22)とすると、
x21=ax11+by11+c・・・・(4)
x22=ax12+by12+c・・・・(5)
y21=−bx11+ay11+d・・・(6)
y22=−bx12+ay12+d・・・(7)
となる。ここで、式(4)〜(7)を解くことにより、係数a、b、c及びdを求めることができる。
The coefficients a, b, c, and d included in Equation (1) are determined as follows.
Equation (1) is
x2 = ax1 + by1 + c (2)
y2 = −bx1 + ay1 + d (3)
It can be divided into two types. Here, the coordinates of two points having a high correlation value with the second divided image data in the first divided image data are (x11, y11) and (x12, y12), and the second divided image data corresponding thereto. If the coordinates of the two points in (x21, y21) and (x22, y22) are
x21 = ax11 + by11 + c (4)
x22 = ax12 + by12 + c (5)
y21 = −bx11 + ay11 + d (6)
y22 = −bx12 + ay12 + d (7)
It becomes. Here, the coefficients a, b, c, and d can be obtained by solving the equations (4) to (7).

次に、求められた係数に基づいて、第1の分割画像データをアフィン変換して第2の分割画像データとの位置合わせを行い、これらを加算することにより長尺画像データが得られる。このようにして得られた長尺画像データは、縮小画像生成部34及びライフサイズ画像生成部35に出力される。   Next, based on the obtained coefficient, the first divided image data is affine transformed to align with the second divided image data, and these are added to obtain long image data. The long image data obtained in this way is output to the reduced image generation unit 34 and the life size image generation unit 35.

縮小画像生成部34においては、長尺画像データによって表される長尺画像が縮小されて、1枚の半切フィルムに出力できるサイズの縮小画像を表す縮小画像データが生成される。   In the reduced image generation unit 34, the long image represented by the long image data is reduced, and reduced image data representing a reduced image having a size that can be output to one half-cut film is generated.

ライフサイズ画像生成部35においては、長尺画像データによって表される長尺画像が、1枚の半切フィルムに出力できるサイズの長尺画像分割画像に分割されることにより、長尺画像分割画像データが生成される。また、このようにして生成された長尺画像分割画像データによって表わされる長尺画像分割画像であって、隣り合う長尺画像分割画像の一方に、他方との繋ぎ部分として10〜15mm程度の透明部分を付加することにより、ライフサイズ画像データが生成される。図7に、図4に示す長尺画像分割画像について、図7の(a)に示す長尺画像分割画像に、図7の(b)に示す長尺画像分割画像との繋ぎ部分として透明部分を付加して生成されたライフサイズ画像を示す。   In the life size image generation unit 35, the long image represented by the long image data is divided into long image divided images having a size that can be output to one half-cut film, thereby obtaining long image divided image data. Is generated. In addition, a long image divided image represented by the long image divided image data generated in this way, which is transparent to about 10 to 15 mm as a connecting portion with one of the adjacent long image divided images. Life size image data is generated by adding the portion. FIG. 7 shows the long image divided image shown in FIG. 4 and the long image divided image shown in (a) of FIG. 7 and a transparent portion as a connecting portion with the long image divided image shown in (b) of FIG. A life size image generated by adding is shown.

縮小画像生成部34によって生成された縮小画像データと、ライフサイズ画像生成部35によって生成されたライフサイズ画像データとは画像送信部36に出力され、ネットワークインタフェース31を介して外部装置4に送信されて保存される。このとき、重複領域を排除したライフサイズ画像を外部装置4に送信することにより、送信する画像データのデータ量を低減することができる。   The reduced image data generated by the reduced image generation unit 34 and the life size image data generated by the life size image generation unit 35 are output to the image transmission unit 36 and transmitted to the external device 4 via the network interface 31. Saved. At this time, the amount of image data to be transmitted can be reduced by transmitting to the external device 4 the life size image excluding the overlapping area.

また、縮小画像生成部34によって生成された縮小画像データは、出力部39にも出力され、必要に応じてインタフェース45を介して表示部46やプリンタ47に出力されることにより、縮小画像がディスプレイに表示されたりフィルムに印刷されたりする。これにより、オペレータは、表示部46のディスプレイ上に表示された縮小画像や、フィルムに印刷された縮小画像に基づいて、長尺画像全体を確認することができる。   The reduced image data generated by the reduced image generation unit 34 is also output to the output unit 39, and is output to the display unit 46 and the printer 47 via the interface 45 as necessary, whereby the reduced image is displayed. Or printed on film. Thereby, the operator can confirm the whole long image based on the reduced image displayed on the display of the display part 46, or the reduced image printed on the film.

さらに、ライフサイズ画像生成部35によって生成されたライフサイズ画像データは、マーク付加部38にも出力される。マーク付加部38は、このライフサイズ画像データによって表されるライフサイズ画像の画像部分と透明部分との境界線に、又は、透明部分がないライフサイズ画像の画像部分の端に、隣り合うライフサイズ画像を繋ぎ合わせるときの位置合わせ用の2つのT字状のマークを付加して、マーク付きライフサイズ画像データを生成する。図8に、図7に示すライフサイズ画像に2つのT字状のマークを付加したマーク付きライフサイズ画像を示す。
なお、図8に示すように、マーク付きライフサイズ画像には、繋ぎ合わせの順番を示す識別文字(数字等)が必要に応じて付加される。
Further, the life size image data generated by the life size image generating unit 35 is also output to the mark adding unit 38. The mark adding unit 38 is adjacent to the boundary line between the image part of the life size image and the transparent part represented by the life size image data, or the end of the image part of the life size image having no transparent part. Two T-shaped marks for alignment when images are joined are added to generate life-size image data with marks. FIG. 8 shows a marked life size image obtained by adding two T-shaped marks to the life size image shown in FIG.
As shown in FIG. 8, identification characters (numbers or the like) indicating the joining order are added to the marked life size image as necessary.

マーク付加部38において生成されたマーク付きライフサイズ画像データは、出力部39に出力された後、インタフェース45を介してプリンタ47に出力されることにより、マーク付きライフサイズ画像がフィルムに印刷される。図9に、フィルムに印刷された、図8に示すマーク付きライフサイズ画像を示す。これにより、オペレータは、フィルムに印刷された複数枚のマーク付きライフサイズ画像を、マークを目印として位置合わせして繋ぎ合わせることにより、等倍の長尺画像を生成することができる。   The marked life size image data generated by the mark adding unit 38 is output to the output unit 39 and then to the printer 47 via the interface 45, whereby the marked life size image data is printed on the film. . FIG. 9 shows the marked life size image shown in FIG. 8 printed on a film. Thus, the operator can generate a life-size image of the same size by aligning and joining a plurality of marked life-size images printed on the film using the marks as marks.

また、オペレータは、画像取得部37に対して、外部装置4に保存されている縮小画像データ又はライフサイズ画像データを、ネットワークインタフェース31を介して取得するように指示することにより、取得した縮小画像データによって表される縮小画像を表示部46に表示したりフィルムに印刷したりすることができると共に、取得したライフサイズ画像データにマーク付加部37においてマークを付して、マーク付きライフサイズ画像をフィルムに印刷することができる。   Further, the operator instructs the image acquisition unit 37 to acquire the reduced image data or life size image data stored in the external device 4 via the network interface 31, thereby acquiring the reduced image acquired. A reduced image represented by the data can be displayed on the display unit 46 or printed on a film, and a mark is added to the acquired life size image data in the mark adding unit 37 to obtain a marked life size image. Can be printed on film.

次に、本発明の一実施形態に係る画像処理方法について、図1及び図10を参照しながら説明する。図10は、本実施形態に係る画像処理方法を示すフローチャートである。
ステップS1において、オペレータは、図1に示す画像処理装置3の入力部44を用いて、表示部46に表示されている撮影メニューから、全脊柱や全下肢等の撮影部位を選択する。これに応答して、画像処理装置3は、選択された撮影部位に対応する分割画像の撮影枚数のデフォルト値をハードディスク41等から読み出す(ステップS2)。なお、オペレータは、このデフォルト値を変更することもできる。
Next, an image processing method according to an embodiment of the present invention will be described with reference to FIGS. FIG. 10 is a flowchart showing an image processing method according to the present embodiment.
In step S1, the operator uses the input unit 44 of the image processing apparatus 3 shown in FIG. 1 to select an imaging region such as the entire spine or the entire lower limb from the imaging menu displayed on the display unit 46. In response to this, the image processing apparatus 3 reads a default value of the number of captured images of the divided images corresponding to the selected imaging region from the hard disk 41 or the like (step S2). Note that the operator can also change this default value.

ステップS3において、画像処理装置3は、各記録シートに記録される分割画像が一連の関連する画像の内の1つであることを表す組情報と、各記録シートの相対位置を表す位置情報とを含む画像付帯情報を生成する。次に、ステップS4において、画像処理装置3は、画像付帯情報をメモリ40又はハードディスク41等に記憶すると共に、画像撮影装置1に出力する。   In step S <b> 3, the image processing device 3 includes group information indicating that the divided image recorded on each recording sheet is one of a series of related images, and position information indicating the relative position of each recording sheet. The image supplementary information including is generated. Next, in step S <b> 4, the image processing apparatus 3 stores the image supplementary information in the memory 40 or the hard disk 41 and outputs it to the image photographing apparatus 1.

ステップS5において、画像撮影装置1は、被検体を分割撮影することにより、複数の放射線画像を複数の記録シートに分割して記録する。その際、画像撮影装置1は、バーコードを用いて画像付帯情報をそれぞれの記録シートに記録する。   In step S <b> 5, the image capturing apparatus 1 divides and records a plurality of radiation images on a plurality of recording sheets by separately capturing the subject. At that time, the image capturing apparatus 1 records image supplementary information on each recording sheet using a barcode.

ステップS6において、画像読取り装置2は、複数の記録シートから分割画像を読み取ることにより、画像データを生成する。また、画像読取り装置2は、それぞれの記録シートに記録されているバーコードを読み取ることにより、組情報と位置情報とを含む画像付帯情報を読み出し、画像データと画像付帯情報とを対応させる。   In step S <b> 6, the image reading device 2 generates image data by reading the divided images from a plurality of recording sheets. Further, the image reading device 2 reads the image supplementary information including the set information and the position information by reading the barcode recorded on each recording sheet, and associates the image data with the image supplementary information.

ステップS7において、画像処理装置3は、画像読取り装置2から画像データと画像付帯情報を入力する。ステップS8において、画像判別部32は、画像付帯情報に基づいて、画像データが合成する必要のある分割画像データであるか否かを判別する。ここで、画像データが分割画像データでない場合には、ステップS13に移行する。一方、画像データが分割画像データである場合には、ステップS9に移行する。   In step S <b> 7, the image processing device 3 inputs image data and image supplementary information from the image reading device 2. In step S8, the image determination unit 32 determines whether the image data is divided image data that needs to be synthesized based on the image supplementary information. If the image data is not divided image data, the process proceeds to step S13. On the other hand, if the image data is divided image data, the process proceeds to step S9.

ステップS9において、制御部43が、画像付帯情報に基づいて、撮影時に指定された撮影枚数の分割画像を表す分割画像データが入力されたか否かを監視する。指定された撮影枚数の分割画像を表す分割画像データが揃うと、ステップS10において、制御部43は、画像合成部33に分割画像データの合成を開始させ、長尺画像データを生成する。   In step S9, based on the image supplementary information, the control unit 43 monitors whether or not the divided image data representing the number of divided images specified at the time of shooting has been input. When the divided image data representing the designated number of divided images has been prepared, in step S10, the control unit 43 causes the image combining unit 33 to start combining the divided image data, and generates long image data.

ステップS11において、制御部43の制御の下で、縮小画像生成部34が、長尺画像データに基づいて縮小画像データを生成すると共に、ライフサイズ画像生成部35が、長尺画像データに基づいてライフサイズ画像データを生成する。   In step S11, under the control of the control unit 43, the reduced image generating unit 34 generates reduced image data based on the long image data, and the life size image generating unit 35 is based on the long image data. Life size image data is generated.

ステップS12において、制御部43の制御の下で、マーク付加部38が、ライフサイズ画像データにマークを付加してマーク付きライフサイズ画像データを生成する。   In step S <b> 12, under the control of the control unit 43, the mark adding unit 38 adds a mark to the life size image data to generate marked life size image data.

その後、必要に応じて、縮小画像データとライフサイズ画像データとを外部装置4に送信して保存したり、縮小画像データに基づいて縮小画像を表示部46のディスプレイに表示したり(ステップS13)、縮小画像データ又はマーク付きライフサイズ画像データに基づいて縮小画像又はマーク付きライフサイズ画像をプリンタ47によりフィルムに印刷する(ステップS14)。   Thereafter, if necessary, the reduced image data and the life size image data are transmitted to the external device 4 and stored, or the reduced image is displayed on the display of the display unit 46 based on the reduced image data (step S13). The reduced image or the marked life size image data is printed on the film by the printer 47 based on the reduced image data or the marked life size image data (step S14).

以上の説明においては、印刷用分割画像として、等倍のライフサイズ画像を用いたが、等倍以外の倍率の分割画像であっても良い。
また、半切フィルムに出力したが、大角フィルム、B4フィルム、四ツフィルム又は六ツフィルムに出力する場合にも、本発明の画像処理装置及び画像処理法方を適用することができる。
さらに、出力するフィルムの向きを指定できるようにして、ポートレートフィルムに対応するように分割するだけでなく、ランドスケープフィルムを使用した分割もできるようにすることで、広幅画像を縮小することなく、広幅画像の全領域を半切フィルムに出力するようにしても良い。
In the above description, a life-size image with the same magnification is used as the divided image for printing. However, a divided image with a magnification other than the normal magnification may be used.
Moreover, although it output to the half-cut film, also when outputting to a large-angle film, B4 film, a four film, or a six film, the image processing apparatus and image processing method of this invention are applicable.
In addition, the orientation of the output film can be specified so that it can be divided not only to correspond to the portrait film but also to be divided using the landscape film, without reducing the wide image, The entire area of the wide image may be output to a half-cut film.

本発明は、同一被写体を分割撮影して得られた複数の分割画像を合成することにより長尺画像を得る画像処理装置及び画像処理方法に利用することができる。   The present invention can be used in an image processing apparatus and an image processing method for obtaining a long image by combining a plurality of divided images obtained by dividing and photographing the same subject.

本発明の一実施形態に係る画像処理装置を含む画像処理システムの構成を示す図である。1 is a diagram illustrating a configuration of an image processing system including an image processing apparatus according to an embodiment of the present invention. 本発明の一実施形態に用いられるカセッテの種類及び分割画像を示す図である。It is a figure which shows the kind of cassette and division | segmentation image which are used for one Embodiment of this invention. 本発明の一実施形態における撮影の様子を示す図である。It is a figure which shows the mode of imaging | photography in one Embodiment of this invention. 本発明の一実施形態において撮影された2つの分割画像を示す図である。It is a figure which shows two division images image | photographed in one Embodiment of this invention. 本発明の一実施形態において表示される画像メニューの例を示す図である。It is a figure which shows the example of the image menu displayed in one Embodiment of this invention. 図1に示す医用画像読取り装置の構成を示す図である。It is a figure which shows the structure of the medical image reading apparatus shown in FIG. 本発明の一実施形態において生成されるライフサイズ画像を示す図である。It is a figure which shows the life size image produced | generated in one Embodiment of this invention. 本発明の一実施形態において生成されるマーク付きライフサイズ画像を示す図である。It is a figure which shows the life size image with a mark produced | generated in one Embodiment of this invention. 本発明の一実施形態においてフィルムに印刷されたマーク付きライフサイズ画像を示す図である。It is a figure which shows the life size image with a mark printed on the film in one Embodiment of this invention. 本発明の一実施形態に係る画像処理方法を示すフローチャートである。4 is a flowchart illustrating an image processing method according to an embodiment of the present invention.

符号の説明Explanation of symbols

1 医用画像撮影装置
2 医用画像読取り装置
3 画像処理装置
4 外部装置
11 撮影位置昇降機構
12 撮影台
13 放射線発生部
14 撮影制御部
15 入力部
16 長尺カセッテ
17 被検体
18 記録シート
20 増幅器
21 モータ
22 シート搬送手段
23 レーザ光源
24 モータ
25 回転多面鏡
26 収束レンズ
27 ミラー
28 光ガイド
29 フォトマルチプライヤ(光電子増倍管)
30 A/D変換器
31 ネットワークインタフェース
32 画像判別部
33 画像合成部
34 縮小画像生成部
35 ライフサイズ画像生成部
36 画像送信部
37 画像取得部
38 マーク付加部
39 出力部
40 メモリ
41 ハードディスク
42 ディスク制御部
43 制御部
44 入力部
45 インタフェース
46 表示部
47 プリンタ
DESCRIPTION OF SYMBOLS 1 Medical imaging device 2 Medical image reader 3 Image processing device 4 External device 11 Imaging position raising / lowering mechanism 12 Imaging stand 13 Radiation generation part 14 Imaging control part 15 Input part 16 Long cassette 17 Subject 18 Recording sheet 20 Amplifier 21 Motor DESCRIPTION OF SYMBOLS 22 Sheet conveyance means 23 Laser light source 24 Motor 25 Rotating polygon mirror 26 Converging lens 27 Mirror 28 Light guide 29 Photomultiplier (photomultiplier tube)
30 A / D converter 31 Network interface 32 Image discriminating unit 33 Image compositing unit 34 Reduced image generating unit 35 Life size image generating unit 36 Image transmitting unit 37 Image acquiring unit 38 Mark adding unit 39 Output unit 40 Memory 41 Hard disk 42 Disk control Unit 43 Control unit 44 Input unit 45 Interface 46 Display unit 47 Printer

Claims (11)

同一被写体を分割撮影することにより得られた、重複領域を有する複数の分割画像を表す第1の画像データに基づいて、重複領域を排除して複数の分割画像を合成することにより第2の画像データを生成する画像合成手段と、
第2の画像データによって表される画像を印刷媒体のサイズに応じて欠損なく且つ重複領域を排除したまま分割した分割画像であって、隣り合う分割画像の少なくとも一方に透明部分を付加した印刷用分割画像を表す第3の画像データを生成する印刷用分割画像生成手段と、
を具備する画像処理装置。
Based on the first image data representing a plurality of divided images having overlapping areas obtained by dividing and photographing the same subject, the second image is obtained by synthesizing the plurality of divided images by eliminating the overlapping areas. Image composition means for generating data;
A divided image obtained by dividing the image represented by the second image data according to the size of the print medium without loss and without overlapping regions, and for adding a transparent portion to at least one of the adjacent divided images Print divided image generation means for generating third image data representing the divided image;
An image processing apparatus comprising:
前記印刷用分割画像生成手段によって生成された印刷用分割画像に、互いに隣り合う2つの画像を繋ぎ合わせるときの位置合わせ用のマークを付加して第4の画像データを生成するマーク付加手段と、
前記マーク付加手段によって生成された第4の画像データに基づいて、マークが付加された印刷用分割画像を印刷媒体に印刷する印刷手段と、
を更に具備する、請求項1記載の画像処理装置。
Mark adding means for generating fourth image data by adding a mark for alignment when connecting two adjacent images to the divided print image generated by the divided print image generating means;
Printing means for printing the divided print image to which the mark is added on a print medium based on the fourth image data generated by the mark adding means;
The image processing apparatus according to claim 1, further comprising:
前記マーク付加手段が、繋ぎ合わせの順番を示す識別文字を、印刷用分割画像の画像部分に更に付加する、請求項2記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the mark adding unit further adds an identification character indicating a joining order to an image portion of the divided print image. 前記画像合成手段によって生成された第2の画像データによって表される画像を、印刷媒体に出力できるサイズに縮小して第5の画像データを生成する縮小画像生成手段と、
前記縮小画像生成手段によって生成された第5の画像データに基づいて、縮小された画像を表示する表示手段と、
を更に具備する、請求項1〜3のいずれか1項記載の画像処理装置。
Reduced image generating means for generating fifth image data by reducing the image represented by the second image data generated by the image synthesizing means to a size that can be output to a print medium;
Display means for displaying a reduced image based on the fifth image data generated by the reduced image generating means;
The image processing apparatus according to claim 1, further comprising:
前記縮小画像生成手段によって生成された第5の画像データと、前記印刷用分割画像生成手段によって生成された第3の画像データとを外部装置に送信する画像送信手段を更に具備する、請求項1〜4のいずれか1項記載の画像処理装置。   The image transmitting means for transmitting the fifth image data generated by the reduced image generating means and the third image data generated by the divided image generation means for printing to an external device. The image processing device according to any one of -4. 前記画像処理装置が、同一被写体を複数の記録シートを用いて分割撮影した医療用診断画像を処理する医用画像処理装置である、請求項5記載の画像処理装置。   The image processing apparatus according to claim 5, wherein the image processing apparatus is a medical image processing apparatus that processes a medical diagnostic image obtained by dividing and photographing the same subject using a plurality of recording sheets. 同一被写体を分割撮影することにより得られた、重複領域を有する複数の分割画像を表す第1の画像データに基づいて、重複領域を排除して複数の分割画像を合成することにより第2の画像データを生成するステップ(a)と、
ステップ(a)において生成された第2の画像データによって表される画像を印刷媒体のサイズに応じて欠損なく且つ重複領域を排除したまま分割した分割画像であって、隣り合う分割画像の少なくとも一方に透明部分を付加した印刷用分割画像を表す第3の画像データを生成するステップ(b)と、
を具備する画像処理方法。
Based on the first image data representing a plurality of divided images having overlapping areas obtained by dividing and photographing the same subject, the second image is obtained by synthesizing the plurality of divided images by eliminating the overlapping areas. Generating data (a);
A divided image obtained by dividing the image represented by the second image data generated in step (a) according to the size of the print medium without loss and excluding the overlapping area, and at least one of the adjacent divided images Generating a third image data representing a divided print image with a transparent portion added to (b),
An image processing method comprising:
ステップ(b)において生成された印刷用分割画像に、互いに隣り合う2つの画像を繋ぎ合わせるときの位置合わせ用のマークを付加して第4の画像データを生成するステップ(c)と、
ステップ(c)において生成された第4の画像データに基づいて、マークが付加された印刷用分割画像を印刷媒体に印刷するステップ(d)と、
を更に具備する、請求項7記載の画像処理方法。
(C) generating a fourth image data by adding a mark for alignment when connecting two adjacent images to the divided print image generated in step (b);
A step (d) of printing the print divided image to which the mark is added on a print medium based on the fourth image data generated in the step (c);
The image processing method according to claim 7, further comprising:
ステップ(c)において、繋ぎ合わせの順番を示す識別文字を、印刷用分割画像の画像部分に更に付加することを含む、請求項8記載の画像処理方法。   The image processing method according to claim 8, further comprising: adding an identification character indicating a joining order in an image portion of the divided print image in step (c). ステップ(a)において生成された第1の画像データによって表される画像を、印刷媒体に出力できるサイズに縮小して第5の画像データを生成するステップ(e)と、
ステップ(e)において生成された第5の画像データに基づいて、縮小された画像を表示するステップ(f)と、
を更に具備する、請求項7〜9のいずれか1項記載の画像処理方法。
(E) generating the fifth image data by reducing the image represented by the first image data generated in step (a) to a size that can be output to a print medium;
Displaying a reduced image based on the fifth image data generated in step (e);
The image processing method according to claim 7, further comprising:
ステップ(e)において生成された第5の画像データと、ステップ(b)において生成された第3の画像データとを外部装置に送信するステップ(g)を更に具備する、請求項10記載の画像処理方法。   The image according to claim 10, further comprising a step (g) of transmitting the fifth image data generated in step (e) and the third image data generated in step (b) to an external device. Processing method.
JP2005035431A 2005-02-14 2005-02-14 Image processing apparatus and image processing method Expired - Fee Related JP4302067B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005035431A JP4302067B2 (en) 2005-02-14 2005-02-14 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005035431A JP4302067B2 (en) 2005-02-14 2005-02-14 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JP2006222823A JP2006222823A (en) 2006-08-24
JP4302067B2 true JP4302067B2 (en) 2009-07-22

Family

ID=36984818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005035431A Expired - Fee Related JP4302067B2 (en) 2005-02-14 2005-02-14 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP4302067B2 (en)

Also Published As

Publication number Publication date
JP2006222823A (en) 2006-08-24

Similar Documents

Publication Publication Date Title
US7095882B2 (en) Medical image processing method and medical image processing apparatus
US7162068B2 (en) Medical image displaying device, image obtaining and displaying device, method for displaying image in displaying device, and program for selecting display format
US7769602B2 (en) Medical image creating system, medical image creating method and display controlling program
JP4250476B2 (en) Radiation image processing apparatus, radiation image processing method, computer program, and recording medium therefor
JP4076684B2 (en) Image composition system
US20050227154A1 (en) Image output controlling method and image output controlling program
JP3788510B2 (en) Medical image apparatus, display screen transition method and screen transition program in the apparatus
JP3925058B2 (en) Radiation image processing method and radiation image processing apparatus
JP4645249B2 (en) Breast imaging system
JP2005261525A (en) Medical mobile terminal, medical image photographing controller and medical image photographing system
US7024029B2 (en) Medical image processing method and apparatus
JP4258855B2 (en) Radiographic imaging display method and radiographic imaging display device
JP2004105356A (en) Apparatus and method for medical image processing
JP4302067B2 (en) Image processing apparatus and image processing method
JP2005253669A (en) Medical imaging control device and medical imaging system
JP2004194878A (en) Medical image processor and medical image processing method
JPH03255582A (en) Radiation image recording/reproducing system
JP2005261844A (en) Medical image processing system
JP2004321782A (en) Information management method
JP2004104514A (en) Image processor and image processing method
JP2005046534A (en) Medical image processing method and device
JP4912573B2 (en) Radiation imaging system
JP2004321783A (en) Mamma image photographing system and mamma image photographing device
JP2001346765A (en) Patient identification information inputting device
JP2005080692A (en) Medical image processor and method

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090421

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140501

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees