WO2013145010A1 - 医療用x線装置 - Google Patents

医療用x線装置 Download PDF

Info

Publication number
WO2013145010A1
WO2013145010A1 PCT/JP2012/002198 JP2012002198W WO2013145010A1 WO 2013145010 A1 WO2013145010 A1 WO 2013145010A1 JP 2012002198 W JP2012002198 W JP 2012002198W WO 2013145010 A1 WO2013145010 A1 WO 2013145010A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
interest
region
stereogram
fluoroscopic
Prior art date
Application number
PCT/JP2012/002198
Other languages
English (en)
French (fr)
Inventor
幸一 柴田
幸男 三品
森 一博
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Priority to PCT/JP2012/002198 priority Critical patent/WO2013145010A1/ja
Priority to US14/388,137 priority patent/US20150042643A1/en
Priority to CN201280072095.7A priority patent/CN104244831B/zh
Priority to JP2014507002A priority patent/JP5787030B2/ja
Publication of WO2013145010A1 publication Critical patent/WO2013145010A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/022Stereoscopic imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B6/469Arrangements for interfacing with the operator or the patient characterised by special input means for selecting a region of interest [ROI]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/267Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the respiratory tract, e.g. laryngoscopes, bronchoscopes
    • A61B1/2676Bronchoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2008Assembling, disassembling

Definitions

  • the present invention relates to a medical X-ray apparatus for performing diagnosis / treatment by displaying a fluoroscopic image in real time based on detected X-rays, and in particular, an insertion member is inserted into the body of a subject to be diagnosed / treated.
  • the present invention relates to a technique for performing diagnosis and treatment by performing fluoroscopy while inserting.
  • insertion members Applicator for radiation source insertion
  • bronchial endoscopes and biopsy biological examination
  • forceps inserted through the bronchial endoscope are inserted into the bronchus of the subject to make a diagnosis about the bronchi.
  • a catheter or a wire is inserted into a blood vessel up to a target site for diagnosis or treatment.
  • the radiation source insertion applicator and the simulated radiation source are inserted up to the treatment site and the treatment plan using the radiation source is performed.
  • an endoscopic examination will be described as an example.
  • a three-dimensional image (virtual endoscopic image) of the bronchi from three-dimensional data obtained by X-ray CT (Computed Tomography). Then, in the process of inserting the bronchoscope into the bronchus of the subject and proceeding to the predetermined bronchial diagnosis position, an image (bronchoscope image) viewed from the lumen of the bronchus is created and the image is real-time By displaying, an endoscopic examination is performed, and the tip of the bronchoscope is guided (ie, navigated). At this time, it is important to determine the actual position of the tip of the bronchoscope based on the virtual endoscopic image.
  • X-ray CT Computed Tomography
  • an image similar to the current bronchoscope image (similar image) is selected from the virtual endoscopic image, and the actual position of the distal end portion of the bronchoscope is confirmed and determined by referring to the virtual endoscopic image.
  • the position is identified (for example, see Patent Document 1). Further, in Patent Document 1, the position is identified by electromagnetics.
  • the bronchoscope enters the upper lobe, for example, from the right main bronchus, and then is inserted into the peripheral thin bronchus.
  • the bronchoscope has a diameter of 5 mm, for example, and the thin bronchi at the periphery has a diameter of 1 mm, for example. Therefore, a bronchoscope having a diameter of 5 mm cannot be inserted into a thin bronchus having a diameter of 1 mm.
  • the endoscope will only advance to the position where it can be inserted, so the image viewed from the lumen of the bronchus (that is, the bronchoscope image) will only reach the position where it can be inserted.
  • the lumen of the bronchus cannot be confirmed, and the lumen of the thin bronchi cannot be confirmed.
  • forceps are inserted into the opening of the treatment channel (forceps channel) at the distal end of the bronchoscope, the position of the forceps is confirmed by a virtual endoscopic image obtained by X-ray CT, and a lesion (for example, a tumor) ) And collect a specimen such as a tissue.
  • a virtual endoscopic image obtained by X-ray CT, and a lesion (for example, a tumor)
  • a specimen such as a tissue.
  • the method of selecting a position by selecting a similar image as described above has a problem that it is difficult because the tissue / structure of the human body is flexible. That is, the display mode differs between the bronchoscopic image and the similar image obtained by X-rays. Since the bronchoscopic image is an image displayed in real time, for example, a bronchoscopic image for each phase in which the tissue / structure of the human body moves while breathing is displayed each time. On the other hand, since the similar image is not an image displayed in real time, it is displayed only as an image of a certain phase. Therefore, it is difficult to match both images, and it is difficult to select a similar image and identify the position. In addition, it is difficult to distinguish between mucus and mucous membranes in a similar image obtained by X-rays even in mucus that is transparent in the endoscopic image and through which the mucosa can be seen.
  • the method of identifying the position by electromagnetic means that the absolute position of the tip portion can be known, but the relationship with the surrounding anatomical structure and the direction in which the tip portion is facing (that is, the insertion direction) are not known. There is a point. Due to the above problems, accurate guidance (ie navigation) is difficult.
  • the present invention has been made in view of such circumstances, and an object thereof is to provide a medical X-ray apparatus capable of performing navigation with high accuracy.
  • the three-dimensional coordinate position is identified based on the stereogram image (displayed in real time), and the insertion direction is also known. Obtained knowledge.
  • the inventors have also found that the three-dimensional coordinate position is identified based on the three-dimensional image and the fluoroscopic image (displayed in real time) without being applied to the stereogram image, and the insertion direction is also known.
  • the medical X-ray apparatus (the former invention) is a medical X-ray apparatus that performs diagnosis and treatment by displaying a fluoroscopic image in real time based on the detected X-ray, and the projection direction.
  • Stereogram image creating means for creating a stereogram image made up of two perspective images with parallax added to each other, and a three-dimensional image obtained in advance based on X-rays
  • the stereogram image creating means Stereoscopic image creation means for creating a stereoscopic image based on the three-dimensional image in each projection direction in the stereogram image, and creation by the stereogram image and the stereoscopic image creation means in each projection direction, respectively.
  • Superimposing processing means for superimposing and superimposing the stereoscopic image that has been performed, and the image superimposed by the superimposing processing means in real time Based on the stereogram image created by the display means for displaying and the stereogram image creating means, the three-dimensional coordinate position of the object is calculated and detected from the position of the object on the screen displayed in real time. And a three-dimensional coordinate position detecting means.
  • the stereogram image creating means is a stereo composed of two fluoroscopic images (obtained based on X-rays) with parallax in the projection direction. Create a gram image.
  • the stereoscopic image creation means is a three-dimensional image based on a three-dimensional image in each projection direction in the stereogram image created by the stereogram image creation means described above in a three-dimensional image obtained in advance based on X-rays. Each visual image is created.
  • the superimposition processing unit superimposes the stereogram image in each projection direction and the stereoscopic image created by the above-described stereoscopic image creation unit, respectively. Further, the image superimposed by the above-described superimposition processing unit is displayed on the display unit in real time.
  • the three-dimensional coordinate position detection means calculates the three-dimensional coordinate position of the object from the position of the object on the screen displayed in real time based on the stereogram image created by the stereogram image creation means. To detect.
  • a medical X-ray apparatus is a medical X-ray apparatus that performs diagnosis and treatment by displaying a fluoroscopic image in real time based on detected X-rays.
  • a region of interest setting means for setting a region of interest, and (1) a three-dimensional image obtained in advance based on X-rays in the projection direction of the fluoroscopic image in the region of interest set by the region of interest setting means
  • the stereoscopic image based on is shifted in accordance with the shift of the fluoroscopic image, or (2) in the region of interest set by the region of interest setting means, based on the X-rays in the projection direction of the fluoroscopic image
  • An image shift means for fixing a stereoscopic image based on a three-dimensional image obtained in advance and shifting the fluoroscopic image in accordance with the position of the fixed stereoscopic image; and in the region of interest, (1)
  • the fluoroscopic image and the stereoscopic image shifted by the image shifting unit are superimposed and superimposed, or (2) the a
  • Superimposition processing means for performing superimposition processing, display means for displaying in real time the image superimposed by the superimposition processing means, and a screen displayed in real time based on the three-dimensional image and the fluoroscopic image in the region of interest And a three-dimensional coordinate position detecting means for calculating and detecting the three-dimensional coordinate position of the target object from the position of the target object.
  • the region-of-interest setting unit sets a local region of interest
  • the image shift unit is (1) the region of interest set by the region-of-interest setting unit.
  • the image shift unit (2) generates a stereoscopic image based on a three-dimensional image obtained in advance based on X-rays in the projection direction of the fluoroscopic image in the region of interest (set by the region of interest setting unit).
  • the fluoroscopic image is shifted in accordance with the position of the fixed stereoscopic image.
  • tissue or structure in the body is enlarged or reduced by the body movement of the subject (for example, body movement due to respiration), but in the local region of interest, the expansion or reduction is ignored and the size is considered to be constant and shift.
  • the entire image is not so important, and it is only necessary to know the region of interest. Therefore, in the case of (1) described above, the stereoscopic image can be shifted in accordance with the shift of the fluoroscopic image in the region of interest.
  • the stereoscopic image is fixed in the region of interest, and the fluoroscopic image is shifted according to the position of the fixed stereoscopic image. Therefore, even if the fluoroscopic image is shifted, it is fixed.
  • the fluoroscopic image is always positioned at the position of the stereoscopic image thus displayed, and the fluoroscopic image appears to be still.
  • a method of coping with the superimposition processing due to body movement by acquiring in advance a three-dimensional image synchronized with the respiration sensor or a three-dimensional image synchronized for each of a plurality of phases may be considered.
  • the superimposition processing means superimposes and superimposes (1) the fluoroscopic image and the stereoscopic image shifted by the above-described image shift means in the region of interest.
  • the superimposing process is performed by superimposing the stereoscopic image and the fluoroscopic image shifted by the above-described image shift unit.
  • the image superimposed by the above-described superimposition processing unit is displayed on the display unit in real time.
  • the three-dimensional coordinate position detecting means calculates and detects the three-dimensional coordinate position of the target object from the position of the target object on the screen displayed in real time based on the three-dimensional image and the fluoroscopic image in the region of interest. .
  • the current fluoroscopic position and orientation are identified by superimposing these images and displaying them in real time. Is possible. Further, by detecting the three-dimensional coordinate position from the three-dimensional image and the real-time fluoroscopic image, it becomes easier to identify the position / orientation currently under fluoroscopy, and navigation can be performed with high accuracy.
  • the region of interest when the three-dimensional coordinate position displayed in real time deviates from the region of interest, the region of interest is reset so that the region of interest is reset so that the three-dimensional coordinate position falls within the region of interest.
  • the image shift means, the superimposition processing means, the display means, and the three-dimensional coordinate position detection means are repeatedly performed in the region of interest reset by the means.
  • the image shifting unit, the superimposing unit, the display unit, and the three-dimensional coordinate position detecting unit are repeatedly performed, for example, when performing fluoroscopy while inserting the insertion member
  • the three-dimensional coordinate position fluctuates in, it is possible to navigate while following the position.
  • the region of interest follows the position while repeating resetting while navigating, navigation can be performed with high accuracy while following the position.
  • the stereogram image creating means for creating a stereogram image composed of two perspective images with parallax in the projection direction and the three-dimensional image created by the stereogram image creating means.
  • Stereoscopic image creation means for creating a stereoscopic image based on the three-dimensional image in each projection direction in the stereogram image, and the image shift means includes (1) the stereoscopic view in the region of interest.
  • the stereoscopic images respectively created by the image creating means are shifted in accordance with the shift of the stereogram image, or (2) the stereoscopic images respectively created by the stereoscopic image creating means in the region of interest. And shift the stereogram image according to the position of the fixed stereoscopic image.
  • the superimposition processing unit superimposes the stereogram image and the stereoscopic image shifted by the image shift unit by superimposing in each projection direction, or ( 2)
  • the stereoscopic image and the stereogram image shifted by the image shifting unit are superimposed and superimposed in each projection direction, and the display unit displays the image superimposed by the superimposition processing unit.
  • the three-dimensional coordinate position detecting means calculates and detects the three-dimensional coordinate position based on the three-dimensional image and the stereogram image in the region of interest.
  • the latter invention includes the same stereogram image creating means and stereoscopic image creating means as in the former invention.
  • the image shifting means in the latter invention by limiting the perspective image to a stereogram image, the image shifting means is created by the above-described stereoscopic image creating means in the case of (1) above in the region of interest.
  • the stereoscopic image thus shifted is shifted in accordance with the shift of the stereogram image, or in the case of (2) above, the stereoscopic image is fixed, and the stereogram is adjusted in accordance with the position of the fixed stereoscopic image. Shift the image.
  • the fluoroscopic image is limited to a stereogram image, so that the superimposition processing means in the region of interest has a stereogram image (or a stereoscopic image in the case of (2) above).
  • the stereoscopic image shifted by the image shift means are superimposed and superimposed for each projection direction.
  • the region of interest is shifted by the stereogram image (or the stereoscopic image in the case of (2) above) and the image shift means by limiting to the region of interest.
  • a stereoscopic image (or a stereogram image in the case of (2) above) is superimposed and superimposed for each projection direction.
  • the display means in the latter invention displays the image superimposed by the superimposition processing means in real time, like the display means in the former invention.
  • the perspective image is limited to a stereogram image, so that the three-dimensional coordinate position detecting means can detect the three-dimensional coordinates based on the three-dimensional image and the stereogram image in the region of interest. The position is calculated and detected.
  • the former three-dimensional coordinate position detection means in the first invention by adding a three-dimensional image in addition to the stereogram image to the underlying data, limited to the region of interest, The three-dimensional coordinate position is calculated and detected based on the stereogram image. Since the other operations and effects are a combination of the former invention and the latter invention, description thereof will be omitted.
  • An example of the above-described stereogram image creation means is to create a stereogram image that is obtained by real-time perspective with parallax added to each other in the projection direction, and is composed of two fluoroscopic images with the parallax added to each other. . That is, by performing stereogram fluoroscopy, in each case, two fluoroscopic images with parallax are obtained in real time to create a stereogram image.
  • stereogram image creating means is based on a three-dimensional image, from one original fluoroscopic image obtained by real-time fluoroscopy, the projection direction of the original fluoroscopic image and the original fluoroscopic image Creating a stereogram image composed of a perspective image with parallax. That is, by performing normal fluoroscopy (not stereogram fluoroscopy), one original fluoroscopic image is acquired in real time each time. Then, a stereogram image composed of the original perspective image and a perspective image with parallax added in the projection direction of the original perspective image is created from the original perspective image.
  • the three-dimensional coordinate position detecting means described above is an insertion member inserted into the body of the subject to be diagnosed and treated.
  • the tip position is detected as a three-dimensional coordinate position.
  • an insertion member typified by a bronchoscope, catheter, wire, or radiation source insertion applicator into the body of the subject.
  • An example of the insertion member is an endoscope, a radiation source insertion applicator, a simulated radiation source, or a catheter wire.
  • the same X-ray images are displayed in a three-dimensional image (stereoscopic image) and a stereogram image, so that they are superimposed and displayed in real time.
  • This makes it possible to identify the position / orientation currently under fluoroscopy.
  • by detecting the three-dimensional coordinate position from the real-time stereogram image it becomes easier to identify the position / orientation currently under fluoroscopy, and navigation can be performed with high accuracy.
  • the medical X-ray apparatus (the latter invention) according to the present invention the same X-ray images are displayed in real time by superimposing these three-dimensional images (stereoscopic images) and fluoroscopic images.
  • FIG. It is a schematic block diagram and a block diagram of a C-arm fluoroscopic apparatus according to each embodiment.
  • A is a schematic diagram of cone beam CT imaging (CBCT imaging) performed by a C-arm fluoroscopic imaging apparatus performed prior to endoscopic inspection (fluoroscopy), and
  • CBCT imaging cone beam CT imaging
  • fluoroscopy fluoroscopy
  • fluoroscopic fluoroscopic
  • FIG. It is the schematic which shows the flow of the data of each image. It is the schematic used for preparation of a stereoscopic vision image (CBCT right image, CBCT left image) from CBCT volume data. It is the schematic which showed one embodiment of the image display system by a display part. It is the schematic of a bronchoscope.
  • FIG. 12 is a flowchart illustrating a series of navigation flows according to the second embodiment.
  • (A)-(c) is the schematic which showed one embodiment by the display part which concerns on Example 2.
  • FIG. (A)-(c) is the schematic which showed one embodiment by the display part which concerns on Example 2.
  • FIG. (A)-(c) is the schematic which showed one embodiment by the display part which concerns on Example 2.
  • FIG. FIG. 6 is a schematic diagram illustrating an embodiment of a display unit according to a second embodiment. It is the schematic with which it uses for preparation of the stereoscopic vision image (CBCT right image, CBCT left image) from the CBCT volume data which concerns on a modification.
  • CBCT right image, CBCT left image the CBCT volume data which concerns on a modification.
  • FIG. 6 is a schematic diagram of cone beam CT imaging (CBCT imaging) by, and (b) is a schematic diagram of endoscopic examination (fluoroscopy) by a C-arm fluoroscopic imaging apparatus.
  • FIG. 1 is a schematic configuration diagram and a block diagram of a C-arm fluoroscopic imaging apparatus according to each embodiment
  • FIG. 2A is a cone beam by a C-arm fluoroscopic imaging apparatus performed prior to endoscopic examination (fluoroscopy).
  • FIG. 2 is a schematic diagram of CT imaging (CBCT imaging)
  • FIG. 2B is a schematic diagram of endoscopy (fluoroscopy) using a C-arm fluoroscopic imaging device.
  • CBCT imaging CT imaging
  • FIG. 2B is a schematic diagram of endoscopy (fluoroscopy) using a C-arm fluoroscopic imaging device.
  • CBCT imaging CT imaging
  • FIG. 2B is a schematic diagram of endoscopy (fluoroscopy) using a C-arm fluoroscopic imaging device.
  • CBCT imaging CT imaging
  • FIG. 2B is a schematic diagram of endoscopy (fluoroscopy) using a C-arm fluoroscopic imaging device.
  • CBCT imaging CT imaging
  • the C-arm fluoroscopic apparatus moves independently with respect to the top board 1 on which the subject M is placed. It is configured.
  • the C-arm fluoroscopic imaging apparatus includes an image system 4 including an X-ray tube 2 and an X-ray detector 3.
  • the X-ray tube 2 is a single tube (stereo X-ray tube) having two focal points.
  • the focus can be switched by a pulse, and the left and right fluoroscopic images are displayed in real time while switching the X-rays alternately on the left and right.
  • the C-arm fluoroscopic imaging apparatus includes a C-arm 5 that holds the X-ray tube 2 at one end and holds the X-ray detector 3 at the other end.
  • the C arm 5 is formed in a curved shape in the direction of the rotation center axis x.
  • the C-arm 5 rotates around the body axis z of the subject M along the C-arm 5 itself (in the direction of the arrow RA), so that the X-ray tube 2 and the X-ray detection held by the C-arm 5 are detected.
  • the vessel 3 can also rotate in the same direction.
  • the X-ray tube 2 and the X-ray detector 3 can also rotate in the same direction. Is possible.
  • the C-arm 5 is held on a base 6 fixedly arranged on the floor surface via a support column 7 and an arm holding unit 8.
  • the support column 7 can rotate around the axis of the vertical axis (in the direction of the arrow RC) with respect to the base 6, and the image system 4 together with the C-arm 5 held by the support column 7 rotates in the same direction. Is possible.
  • the video system 4 also rotates in the same direction together with the C arm 5 held by the arm holding portion 8. be able to.
  • the video system 4 can be rotated in the same direction together with the C arm.
  • the C-arm fluoroscopic apparatus is obtained by the image processing unit 11 that performs various image processing based on the X-rays detected by the X-ray detector 3 and the image processing unit 11.
  • a memory unit 12 for writing and storing data such as each image (in each embodiment, CBCT volume data, stereoscopic image, and image after superimposition processing), an input unit 13 for inputting data and commands, a fluoroscopic image and a CBCT image
  • a display unit 14 that displays an image obtained by superimposing these, and a controller 15 that performs overall control thereof.
  • a high voltage generating unit for generating a high voltage and supplying a tube current and a tube voltage to the X-ray tube 2 is provided.
  • the image processing unit 11 corresponds to the stereogram image creation means, stereoscopic image creation means, and superimposition processing means in the present invention
  • the display unit 14 corresponds to the display means in the present invention
  • the controller 15 corresponds to 3 in the present invention. It corresponds to a dimensional coordinate position detection means.
  • the image processing unit 11 sends a projection image based on the X-rays detected by the X-ray detector 3 to the display unit 14 via the controller 15 as a fluoroscopic image at the time of endoscopy (fluoroscopy). Is displayed on the display unit 14 in real time. By displaying the fluoroscopic image on the display unit 14 in real time, the operator (operator) monitors the fluoroscopic image in real time.
  • Example 1 including Example 3 to be described later, as shown in FIG. 2 (b), the X-ray is switched and irradiated alternately from left and right by switching the focus from the X-ray tube 2 with a pulse.
  • the image processing unit 11 sets two projection images based on the X-rays detected by the line detector 3 as two perspective images (a perspective right image and a perspective left image) each having a parallax in the projection direction. That is, the image processing unit 11 is obtained by real-time perspective with parallax in the projection direction, and is a stereogram image composed of two fluoroscopic images (the fluoroscopic right image and the fluoroscopic left image) with the parallax added to each other.
  • the video system 4 is moved in each direction (for example, the direction of the arrow RA shown in FIG. 1 and FIG. 2A) prior to the endoscopic examination (fluoroscopy). 2), and as shown in FIG. 2 (a), the X-ray detector 3 detects the cone beam (CB: Cone Beam) X-ray from only one focal point.
  • CB Cone Beam
  • CBCT imaging cone beam CT imaging
  • the image processing unit 11 performs three-dimensional reproduction based on a plurality of projection images acquired by moving the video system 4 in each direction. Configure to create a three-dimensional image (CBCT volume data). Further, the image processing unit 11 creates a CBCT right image and a CBCT left image (see FIGS. 3 to 5), which will be described later, as stereoscopic images based on the three-dimensional image (CBCT volume data). These CBCT volume data and stereoscopic images (CBCT right image, CBCT left image) are written and stored in the memory unit 12 via the controller 15.
  • a specific three-dimensional reconstruction method (calculation method) and a specific method for generating a stereoscopic image (CBCT right image, CBCT left image) (calculation method) are not characteristic features of the present invention. Is omitted.
  • the image processing unit 11 superimposes and superimposes the stereogram image (the fluoroscopic right image and the fluoroscopic left image) and the stereoscopic image (the CBCT right image and the CBCT left image) in each projection direction. Specifically, the fluoroscopic right image and the CBCT right image are superimposed and superimposed, and the fluoroscopic left image and the CBCT left image are superimposed and superimposed. These superimposed images (images after the superimposition process) are also written and stored in the memory unit 12 via the controller 15.
  • the memory unit 12 writes and stores data such as the CBCT volume data created by the image processing unit 11, the stereoscopic image (CBCT right image, CBCT left image), and the image after superimposition processing via the controller 15, The data is read out as necessary, and the data is sent to the display unit 14 via the controller 15 and displayed.
  • the memory unit 12 includes a storage medium represented by ROM (Read-only Memory), RAM (Random-Access Memory), a hard disk, and the like.
  • ROM Read-only Memory
  • RAM Random-Access Memory
  • Example 1 including Examples 2 and 3 described later, a stereoscopic image (CBCT right image, CBCT left image) and an image after superimposition processing are read from the memory unit 12 during endoscopic examination (fluoroscopy). It is displayed on the display unit 14.
  • the input unit 13 sends data and commands input by the operator to the controller 15.
  • the input unit 13 includes a pointing device represented by a mouse, a keyboard, a joystick, a trackball, a touch panel, and the like.
  • the display unit 14 is composed of a monitor.
  • the display unit 14 is a 3D monitor that displays a pair of images three-dimensionally (3D display), or a binocular head-mounted display (two-screen head). 3D display unit such as a mount display). Specific display will be described later with reference to FIG.
  • the controller 15 comprehensively controls each part constituting the X-ray angiography apparatus.
  • the position of the object 3 from the position of the object on the screen displayed in real time (the position of the distal end portion of the bronchoscope in each embodiment). It has a three-dimensional coordinate position detection function for calculating and detecting a dimensional coordinate position.
  • the controller 15 calculates and detects a three-dimensional coordinate position based on the stereogram image (the fluoroscopic right image and the fluoroscopic left image) created by the image processing unit 11.
  • the image processing unit 11 and the controller 15 described above are configured by a central processing unit (CPU) or the like. Data such as each image obtained by the image processing unit 11 is written and stored in the memory unit 12 via the controller 15 or sent to the display unit 14 for display.
  • FIG. 3 is a schematic diagram showing the flow of data of each image
  • FIG. 4 is a schematic diagram used for creating a stereoscopic image (CBCT right image, CBCT left image) from CBCT volume data
  • FIG. 6 is a schematic diagram illustrating an embodiment of an image display method by a display unit
  • FIG. 6 is a schematic diagram of a bronchoscope.
  • the projection direction for creating the CBCT right image is the “A” direction
  • the projection direction for creating the CBCT left image is the “B” direction.
  • the fluoroscopic image obtained from the B direction is the fluoroscopic left image. It becomes. That is, the relative angle ⁇ formed by the projection directions (A and B directions) in the CBCT right image and the CBCT left image depends on the perspective angle of the C arm 5 (see FIGS. 1 and 2).
  • the angle ⁇ is about 5 ° to 10 °. Therefore, as shown in FIG.
  • CBCT volume a three-dimensional image (CBCT volume) is obtained.
  • CBCT right image and CBCT left image based on (data) can be created.
  • the image processing unit 11 was obtained by cone beam CT imaging (CBCT imaging) performed prior to endoscopic examination (fluoroscopy).
  • CBCT imaging cone beam CT imaging
  • fluoroscopy fluoroscopy
  • a three-dimensional image CBCT volume data
  • the created CBCT volume data is written and stored in the memory unit 12 (see FIG. 1) via the controller 15 (see FIG. 1).
  • CBCT volume data (stored in the memory unit 12) obtained in advance (stored in the memory unit 12) is read (via the controller 15), and the image processing unit 11 Similarly, a stereoscopic image (CBCT right image, CBCT right image, CBCT volume data in each projection direction (directions A and B in FIG. 4) in the stereogram image (the perspective right image and the perspective left image) created by the image processing unit 11.
  • CBCT left image is created. That is, a CBCT right image and a CBCT left image are created based on CBCT imaging position information and fluoroscopic position information, respectively.
  • the created CBCT right image and CBCT left image are written and stored in the memory unit 12 via the controller 15, or sent to the display unit 14 (see FIGS. 1, 3 and 5) for display.
  • the image processing unit 11 creates a fluoroscopic right image and a fluoroscopic left image, and superimposes each fluoroscopic image on the CBCT right image and the CBCT left image. Create an image (right image, left image) after the superimposition process.
  • the image (right image, left image) after the superimposition processing is displayed on the display unit 14 in real time.
  • the image after superimposition processing (right image, left image) can be written and stored in the memory unit 12 via the controller 15 for later use.
  • the display unit 14 includes four monitors as shown in FIG.
  • a monitor 14A that displays a CBCT right image and a CBCT left image (also referred to as an “operation plan diagram”)
  • a monitor 14B that displays an image (bronchoscopic image) viewed from the lumen of the bronchus
  • the monitor 14C displays the image and the fluoroscopic left image in real time
  • the monitor 14D displays the superimposed image (right image and left image) in real time.
  • the fluoroscopic right image is one of the left and right eye images (here, the right eye image) of the 3D monitor, This means that the fluoroscopic left image is used as the other left-right eye image (here, the left-eye image) of the 3D monitor.
  • the monitor 14D superimposes the fluoroscopic right image and the CBCT right image and superimposes an image (right image) on one of the left and right eye images (here, for the right eye). Image), and an image obtained by superimposing the fluoroscopic left image and the CBCT left image (the left image) is used as the other left and right eye image (here, the left eye image).
  • the monitor 14C displays the fluoroscopic right image and the fluoroscopic left image side by side as a stereogram image
  • the monitor 14D displays the fluoroscopic right image and the CBCT right.
  • An image (right image) obtained by superimposing and superimposing the images, and an image (left image) superposed by superimposing the fluoroscopic left image and the CBCT left image are displayed side by side as a stereogram image.
  • the binocular head mounted display it is possible to display a pair of images on the left and right sides so that the operator himself can perform stereoscopic viewing. With this configuration, it is possible to realize a conventional device configuration (normal monitor) without requiring a special device such as a 3D monitor.
  • a bronchoscope 21 as shown in FIG. 6 is used.
  • the bronchial endoscope 21 includes a wire-shaped guide portion 22 and a distal end portion 23 including an imaging device and a treatment channel for inserting biopsy (biological examination) forceps.
  • the bronchoscope 21 is inserted into the body by guiding the distal end portion 23 into the body (oral cavity and bronchus) of the subject M (see FIGS. 1 and 2) via the guide unit 22.
  • the bronchial endoscope 21 corresponds to the insertion member in the present invention.
  • the bronchoscope 21 shown in FIG. 6 is displayed in real time on the screen of the monitors 14C and 14D shown in FIG. 5 displayed in real time.
  • an image of the entire bronchoscope 21 is denoted by reference numeral 14a
  • an image of the guide portion 22 is denoted by reference numeral 14b
  • an image of the distal end portion 23 is denoted by reference numeral 14c.
  • the controller 15 determines the position of the object on the screen displayed in real time (here, the distal end portion 23 of the bronchoscope 21). ) To calculate and detect the three-dimensional coordinate position of the object.
  • the controller 15 can automatically calculate and obtain the three-dimensional coordinate position. .
  • the controller 15 may obtain a three-dimensional coordinate position. Moreover, you may combine both manual and automatic.
  • the stereogram image creating means obtains two parallaxes in the projection direction (based on X-rays). A stereogram image consisting of a perspective image is created.
  • the stereoscopic image creation means (the image processing unit 11 in the first embodiment) is obtained in advance based on X-rays by cone beam CT imaging (CBCT imaging) performed prior to endoscopic examination (fluoroscopy).
  • CBCT imaging cone beam CT imaging
  • fluoroscopy fluoroscopy
  • the superimposition processing means includes a stereogram image (a perspective right image and a perspective left image in the first embodiment) in each projection direction and the above-described stereoscopic image creation means ( The stereoscopic images (CBCT right image and CBCT left image) respectively created by the image processing unit 11) are superimposed and superimposed. Further, the image (the right image after the superimposition process, the left image after the superimposition process) that has been subjected to the superimposition process by the above-described superimposition processing unit (image processing unit 11) is displayed (in the first embodiment, the monitor 14D of the display unit 14). Display in real time.
  • the three-dimensional coordinate position detection means (the controller 15 in the first embodiment) is based on the stereogram image (the perspective right image and the perspective left image) created by the stereogram image creation means (image processing unit 11).
  • the three-dimensional coordinate position of the target object is calculated and detected from the position of the target object on the screen displayed in real time (the position of the distal end portion 23 of the bronchoscope 21 in the first embodiment).
  • the stereogram image creation means performs real-time fluoroscopy with parallax in the projection direction (A and B directions in each Example).
  • a stereogram image composed of two fluoroscopic images (the fluoroscopic right image and the fluoroscopic left image) obtained respectively by the above and with the parallax added to each other is created. That is, by performing stereogram fluoroscopy, in each case, two fluoroscopic images (transparent right image and fluoroscopic left image) with parallax are obtained in real time to create a stereogram image.
  • the above-described three-dimensional coordinate position detection means (controller 15) is the body of the subject M to be diagnosed and treated.
  • the position of the distal end portion of the insertion member (bronchi endoscope 21 in each embodiment) to be inserted is detected as a three-dimensional coordinate position.
  • the insertion member is the bronchial endoscope 21.
  • FIG. 7 is a flowchart showing a flow of a series of navigation according to the second embodiment
  • FIGS. 8 to 11 are schematic diagrams showing one embodiment by the display unit according to the second embodiment.
  • the portions common to the above-described first embodiment are denoted by the same reference numerals and the description thereof is omitted.
  • the C-arm fluoroscopic imaging apparatus according to the second embodiment has the same configuration as the C-arm fluoroscopic imaging apparatus according to the first embodiment.
  • the target of the superimposition process is the entire image
  • X-rays are obtained by cone beam CT imaging (CBCT imaging) performed prior to endoscopic examination (fluoroscopy). Based on the three-dimensional image (CBCT volume data) obtained in advance based on this, superposition processing is performed by limiting the entire image to a local region of interest (ROI: Region Of Interest).
  • ROI Region Of Interest
  • the fluoroscopic image is limited to the stereogram image.
  • the fluoroscopic image is not necessarily limited to the stereogram image.
  • X-rays may be irradiated from only one focal point and detected by the X-ray detector 3 as shown in FIG. In Example 3 to be described later, the fluoroscopic image is limited to a stereogram image as in Example 1 described above.
  • the C-arm fluoroscopic imaging apparatus has a function of region-of-interest setting / region-of-interest resetting for setting a local region of interest (ROI).
  • the region of interest setting / region of interest resetting function may be included in the controller 15 (see FIG. 1). That is, by using the fact that the pixel values in the entire image 14a (see FIG. 5) of the entire bronchoscope 21 (see FIG. 6) are significantly different from the surrounding pixel values, the bronchoscope 21 is inserted.
  • the controller 15 may automatically set and reset the region of interest (ROI) by following it.
  • the input unit 13 may have the function of interest region setting / region of interest resetting.
  • the region of interest may be manually set / reset so as to include the location by manually inputting the pointer with the pointer according to FIG. Moreover, you may combine both manual and automatic.
  • the controller 15 has a region of interest setting function and the input unit 13 has a region of interest resetting function, so that the region of interest (ROI) is automatically set.
  • the resetting of the region of interest (ROI) following the insertion may be performed manually.
  • the input unit 13 has the function of setting the region of interest
  • the controller 15 has the function of resetting the region of interest, so that the region of interest (ROI) is set manually, and the bronchoscope 21
  • the resetting of the region of interest (ROI) following the insertion may be performed automatically.
  • the controller 15 corresponds to a region of interest setting means.
  • the input unit 13 sets the region of interest.
  • the setting of the region of interest (ROI) is performed by a combination of manual and automatic
  • the input unit 13 and the controller 15 correspond to the region of interest setting unit.
  • the controller 15 corresponds to a region of interest resetting unit.
  • the input unit 13 is used.
  • the input unit 13 and the controller 15 correspond to a region-of-interest resetting means.
  • the C-arm fluoroscopic imaging apparatus converts a stereoscopic image based on a three-dimensional image (CBCT volume data) in the projection direction of the fluoroscopic image in the set region of interest (ROI). It has a function of image shift that shifts in accordance with the shift.
  • body movements for example, body movements due to breathing
  • ROI set region of interest
  • the image processing unit 11 calculates the shift amount of the stereoscopic image in accordance with the shift of the fluoroscopic image in the region of interest (ROI), and shifts the stereoscopic image.
  • the image processing unit 11 superimposes the fluoroscopic image and the shifted stereoscopic image on the region of interest (ROI).
  • ROI region of interest
  • the image processing unit 11 corresponds to the image shift means in this invention.
  • the image processing unit 11 corresponds to the superimposition processing unit in the present invention
  • the display unit 14 corresponds to the display unit in the present invention
  • the controller 15 corresponds to the three-dimensional coordinate position detection unit in the present invention.
  • the series of navigation according to the second embodiment is performed according to the flowchart shown in FIG. In FIG. 8 to FIG. 11, the symbol T (see “ ⁇ ”) is a lesion (for example, a tumor).
  • Step S1 Insertion start of bronchoscope First, by inserting the bronchoscope 21 (see FIG. 6) into the body (oral cavity and bronchus) of the subject M (see FIGS. 1 and 2), The insertion of the bronchoscope 21 is started.
  • the main bronchus is operated by moving the bronchoscope 21 to the inside while monitoring in real time by capturing an image viewed from the lumen of the bronchi with the image sensor of the bronchial endoscope 21.
  • a fluoroscopic image relating to the main bronchus is displayed in real time on the monitor 14D of the display unit 14 as shown in FIG.
  • an image 14a of the entire bronchoscope 21 that progresses inside the main bronchus is also displayed on the monitor 14D in real time. Then, the process is continued until the bronchoscope 21 cannot progress. Since this step S1 is before the superimposition process, it may be displayed in real time on the monitor 14C shown in FIG. At this time, as shown in FIG. 8A, under normal fluoroscopy, the thin bronchi (for example, at the periphery) cannot be seen.
  • Step S2 CBCT Imaging Accordingly, when the bronchoscope 21 cannot be advanced, cone beam CT imaging (CBCT imaging) is performed to obtain a plurality of projection images. Then, three-dimensional reconstruction is performed on the basis of these projection images to create a three-dimensional image (CBCT volume data).
  • CBCT imaging cone beam CT imaging
  • three-dimensional reconstruction is performed on the basis of these projection images to create a three-dimensional image (CBCT volume data).
  • Step S3 Endoscopy An image system 4 comprising an X-ray tube 2 and an X-ray detector 3 (both shown in FIG. 1) so that a fine bronchi can be seen through after the cone beam CT imaging (CBCT imaging) in Step S2. And see FIG. 2), and a fluoroscopic image regarding the fine bronchi is displayed in real time on the monitor 14D of the display unit 14 as shown in FIG. 8B. At this time, the image 14a of the entire bronchial endoscope 21 that cannot be advanced is also displayed on the monitor 14D in real time. In this way, an endoscopy (fluoroscopy) is performed.
  • CBCT imaging cone beam CT imaging
  • Step S4 ROI setting / resetting
  • the controller 15 automatically sets a local region of interest (ROI), or the distal end portion 23 (see FIG. 6) of the bronchoscope 21
  • the operator manually sets the region of interest (ROI) by placing the pointer on the screen 14 corresponding to the image 14c (see FIG. 5) with the input unit 13 (see FIG. 1) and manually inputting the pointer.
  • the size of the region of interest (ROI) is not particularly limited, but a size that includes the next branch point of the bronchi is more preferable.
  • a region of interest (ROI) set first is denoted by reference symbol ROI 1
  • a landmark marking on the forceps extending from the distal end portion 23 is denoted by reference symbol M (see “ ⁇ ”).
  • the shift amount of the stereoscopic image based on the three-dimensional image obtained by the cone beam CT imaging (CBCT imaging) in step S2 is adjusted in accordance with the shift of the fluoroscopic image. (See FIG. 1) is obtained by calculation, and the stereoscopic image is shifted. Further, in the region of interest ROI 1 , the fluoroscopic image and the shifted stereoscopic image are superimposed and superimposed, and the superimposed image (image after the superimposition processing) is displayed in real time on the monitor 14D (hereinafter, referred to as “below”). (Abbreviated as “shift display”).
  • the cycle display is locked (fixed) by repeating the shift display for several breaths and displaying at a frame rate synchronized with the cycle according to the breath, the image after the superimposition process does not move at the same position on the monitor 14D. Is displayed. At this time, the landmark M is marked on the forceps. Marking may be performed automatically by the controller 15 or manually by the input unit 13.
  • the controller 15 determines the position of the object on the screen displayed in real time (here, the distal end portion 23 of the bronchoscope 21). ) To calculate and detect the three-dimensional coordinate position of the object.
  • the bronchial endoscope 21 can be advanced again even in a thin bronchus.
  • the progression of the bronchial endoscope 21 is stopped at the next branch point of the bronchus as shown in FIG.
  • the landmark M is stopped at the position shown in FIG. 8C.
  • the landmark M is marked in advance at the next branch point of the bronchus, and the landmark M is used for the bronchi.
  • the progress of the endoscope 21 may be stopped.
  • the landmark M is marked again on the forceps extending from the distal end portion 23 of the bronchoscope 21.
  • the controller 15 automatically resets the region of interest (ROI), or the operator inputs an input unit at a location on the screen corresponding to the image 14c of the distal end portion 23 of the bronchoscope 21.
  • the region of interest (ROI) is manually reset by aligning the pointer with 13 and inputting manually.
  • the region of interest (ROI) reset next is designated as a code ROI 2 .
  • the reset region of interest ROI 2 is shifted by repeatedly performing the image shift function, the superimposition processing function, the monitoring to the display unit 14, and the three-dimensional coordinate detection function. Display.
  • the bronchoscope 21 is advanced again with the shift display.
  • the progression of the bronchoscope 21 is stopped at the next branch point of the bronchus as shown in FIG.
  • the landmark M is marked again on the forceps extending from the distal end portion 23 of the bronchial endoscope 21.
  • the three-dimensional coordinate position of the forceps displayed in real time is likely to deviate from the region of interest ROI 2 .
  • the region of interest (ROI) is reset so that the three-dimensional coordinate position is within the range.
  • the controller 15 automatically resets the region of interest (ROI) or corresponds to the image 14 c of the distal end portion 23 of the bronchoscope 21.
  • the operator manually sets the pointer on the screen with the input unit 13 and manually resets the region of interest (ROI).
  • FIG. 10 (c) the next reset region of interest of (ROI) and reference numeral ROI 3.
  • the function of image shift, the function of superimposition processing, the monitoring to the display unit 14 and the three-dimensional coordinates Shift display is performed by repeatedly performing the detection function.
  • the bronchoscope 21 is advanced again with the shift display.
  • the progression of the bronchial endoscope 21 is stopped at the next branch point of the bronchus as shown in FIG.
  • the shift display is repeatedly performed in the reset region of interest (ROI) by repeatedly performing the function of image shift, the function of superimposition processing, the function of monitoring to the display unit 14 and the function of detecting three-dimensional coordinates.
  • ROI reset region of interest
  • Step S5 Tumor arrival?
  • the forceps inserted through the bronchoscope 21 may stop before the lesion, or if the bronchus is open in the lesion, the forceps may pass through the lesion without stopping. There is.
  • the tip of the forceps is three-dimensionally within the lesion in a fluoroscopic image obtained by X-ray fluoroscopy or a CT image obtained by CT (for example, a CBCT right image or a CBCT left image). It is preferable to confirm. In the following description, it is assumed that the forceps have reached the tumor T.
  • This determination may also be performed automatically by the controller 15 or manually by the input unit 13. If the tumor T has not been reached, the process returns to step S3, and the ROI resetting in step S4 including the shift display and the determination of tumor arrival in step S5 are repeated. If the forceps reaches the tumor T as shown in FIG. 11, the series of navigation is terminated. Then, a tissue (here, tumor T) is collected with forceps and a biopsy is performed.
  • a tissue here, tumor T
  • the region-of-interest setting means determines the local region of interest (ROI 1 in FIGS. 8 and 9).
  • the image shift means (the image processing section 11 in the present embodiment 2) is set in the region of interest ROI 1 set by the region of interest setting means (input unit 13 or controller 15) (obtained based on the X-rays). ) A stereoscopic image based on a three-dimensional image obtained in advance based on X-rays in the projection direction of the fluoroscopic image is shifted in accordance with the shift of the fluoroscopic image.
  • tissue or structure in the body is enlarged or reduced by the body movement of the subject M (for example, body movement due to respiration), but in the local region of interest (ROI), the enlargement or reduction is ignored and the size is constant and shifted. It is considered to be.
  • ROI region of interest
  • the stereoscopic image can be shifted in accordance with the shift of the fluoroscopic image in the region of interest (ROI).
  • ROI region of interest
  • body movement is acquired by acquiring in advance a three-dimensional image (CBCT volume data) synchronized with a respiration sensor or a three-dimensional image (CBCT volume data) synchronized every plural phases.
  • CBCT volume data three-dimensional image
  • CBCT volume data three-dimensional image
  • the method is different from the method of calculating the positional deviation amount of the stereoscopic image based on the positional deviation amount of the fluoroscopic image when the projection direction is changed and superimposing and displaying both.
  • the stereoscopic image is simply shifted by assuming that the size is constant, so that a conventional respiration sensor is not required, and a three-dimensional image (CBCT volume data) synchronized every plural phases is obtained. Without obtaining in advance, the number of times of imaging can be reduced to reduce the inspection time, exposure dose, and processing time.
  • the superimposition processing unit (image processing unit 11 in the second embodiment) superimposes the fluoroscopic image and the stereoscopic image shifted by the above-described image shift unit (image processing unit 11) in the region of interest (ROI). To superimpose. Furthermore, the image superimposed by the above-described superimposition processing unit (image processing unit 11) is displayed in real time on the display unit (in the second embodiment, the monitor 14D of the display unit 14). On the other hand, the three-dimensional coordinate position detection means (the controller 15 in the second embodiment) is displayed on the screen displayed in real time based on the three-dimensional image and the fluoroscopic image in the region of interest (ROI 1 in FIGS. 8 and 9). The three-dimensional coordinate position of the target object is calculated and detected from the position of the target object (in the second embodiment, the position of the distal end portion 23 of the bronchoscope 21).
  • the current fluoroscopic position and orientation are identified by superimposing these images and displaying them in real time. Is possible. Further, by detecting the three-dimensional coordinate position from the three-dimensional image and the real-time fluoroscopic image, it becomes easier to identify the position / orientation currently under fluoroscopy, and navigation can be performed with high accuracy.
  • the region of interest when the three-dimensional coordinate position displayed in real time deviates from the region of interest (ROI 1 to ROI 3 in FIGS. 8 to 11), the region of interest is reset so that the three-dimensional coordinate position is contained.
  • Region of interest ROI 2 and ROI 3 that are reset by the region of interest resetting means input unit 13 or controller 15.
  • the image shift means (image processing unit 11), the superimposition processing means (image processing unit 11), the display means (monitor 14D of the display unit 14), and the three-dimensional coordinate position detection means (controller 15) are preferably repeatedly performed.
  • the means (the monitor 14D of the display unit 14) and the three-dimensional coordinate position detection means (the controller 15) are repeatedly performed. When changing, it is possible to navigate while following the position. In addition, since the region of interest (ROI) follows the position while repeating resetting while navigating, it is possible to perform navigation with high accuracy while following the position.
  • the C-arm fluoroscopic imaging apparatus according to the third embodiment has the same configuration as the C-arm fluoroscopic imaging apparatus according to the first and second embodiments.
  • the second embodiment has a structure including the same stereogram image creating means (image processing section 11 in the first embodiment) and stereoscopic image creating means (image processing section 11 in the first embodiment) as in the first embodiment.
  • the image shifting means (image processing section 11 in the second embodiment) in the second embodiment the perspective image is limited to a stereogram image
  • the image shifting means (the image processing section 11) In (ROI) the stereoscopic images created by the above-described stereoscopic image creation means (image processing unit 11) are shifted in accordance with the shift of the stereogram image.
  • the superimposition processing unit (image processing unit 11 in the second example) in the second embodiment by limiting the perspective image to a stereogram image
  • the superimposition processing unit (the image processing unit 11) In the region of interest (ROI) the stereogram image and the stereoscopic image shifted by the image shift means are superimposed and superimposed for each projection direction.
  • the superimposition processing means in the first embodiment is also limited to the region of interest (ROI)
  • the third embodiment in the region of interest (ROI)
  • the stereogram image and The stereoscopic image shifted by the image shift means (image processing unit 11) is superimposed and superimposed for each projection direction.
  • the display means (the monitor 14D of the display unit 14 in the second embodiment) in the second embodiment and the third embodiment is similar to the display means (the monitor 14D of the display section 14) in the first embodiment, as a superimposition processing means (image The image superimposed by the processing unit 11) is displayed in real time.
  • the three-dimensional coordinate position detecting means limits the perspective image to a stereogram image. Detects and calculates a three-dimensional coordinate position based on a three-dimensional image and a stereogram image in a region of interest (ROI).
  • the three-dimensional coordinate position detecting means in the first embodiment controls the three-dimensional coordinate position detecting means in the first embodiment (controller 15 in the first embodiment).
  • a three-dimensional image is added to the underlying data in addition to the stereogram image, limited to the region of interest (ROI).
  • the three-dimensional coordinate position is calculated and detected based on the three-dimensional image and the stereogram image in the region of interest (ROI). Since other operations and effects are a combination of the first embodiment and the second embodiment, the description thereof is omitted.
  • two fluoroscopic images (a fluoroscopic right image and a fluoroscopic left image) each having a parallax are obtained in real time. Create a stereogram image.
  • the present invention is not limited to the above embodiment, and can be modified as follows.
  • the C-arm fluoroscopic imaging apparatus is shown in FIG. 1, but the video system may be applied to a fluoroscopic imaging apparatus that is fixed to the ceiling surface or wall surface. You may apply to a surgical X-ray apparatus. Moreover, the apparatus which replaced the arrangement
  • a bronchoscope is inserted into the bronchus of the subject to make a diagnosis regarding the bronchi.
  • diagnosis or treatment may be performed by inserting a catheter or wire into the blood vessel up to the target site as in angiography, or an applicator for insertion of the radiation source may be inserted up to the treatment site as in a radiotherapy plan.
  • a treatment plan using a radiation source or a simulated radiation source may be performed. For example, if a brachytherapy particle (also called “Seed”) or the like is implanted in the body, a treatment plan such as considering the position of the seed to be inserted based on the implanted seed, etc. There is.
  • a stereo X-ray tube that performs focus switching with a pulse is adopted as the X-ray tube 2.
  • Ordinary X-ray tube 2 may be employed.
  • moving the video system 4 in each direction for example, rotating about 200 ° in the direction of the arrow RA
  • acquiring a fluoroscopic image What is necessary is just to acquire and perform the fluoroscopic image which does not attach parallax in real time as shown in FIG.13 (b).
  • the configuration of FIG. 13 is useful when not limited to a stereogram image as in the second embodiment.
  • stereogram fluoroscopy by performing stereogram fluoroscopy, two fluoroscopic images each having a parallax are obtained in real time and a stereogram image is created in each case. It is not limited. For example, based on the three-dimensional image obtained in FIG. 2A or FIG. 13A, the original perspective image and the original perspective image are obtained from one original perspective image obtained by real-time perspective. A stereogram image including a perspective image with parallax in the image projection direction may be created. That is, by performing normal fluoroscopy (not stereogram fluoroscopy), one original fluoroscopic image is acquired in real time each time.
  • a stereogram image composed of the original perspective image and a perspective image with parallax added in the projection direction of the original perspective image is created from the original perspective image.
  • the same apparatus is used as shown in FIG. 2 when acquiring a perspective image and when acquiring a three-dimensional image. It may be performed using another apparatus (external apparatus) typified by an X-ray CT apparatus or the like, and may be performed using a medical X-ray apparatus only during fluoroscopy. However, the same device is preferable in that the photographing and fluoroscopy are continued without taking time and the navigation is performed more accurately.
  • the display position of the fluoroscopic image and the stereogram image is fixed, and the stereoscopic image in the region of interest (ROI) is shifted in accordance with the shift of these images.
  • the stereogram image and the shifted stereoscopic image are superimposed and superimposed, but the reverse may be possible. That is, the display position of the stereoscopic image is fixed, and the fluoroscopic image and the stereogram image in the region of interest (ROI) are shifted according to the fixed display position of the stereoscopic image, and shifted to the stereoscopic image.
  • a fluoroscopic image or a stereogram image may be superimposed and superimposed.
  • the fluoroscopic image or the stereogram image is shifted in accordance with the position of the fixed stereoscopic image.
  • the fluoroscopic image or the stereogram image is always positioned at the position of the fixed stereoscopic image so that the fluoroscopic image or the stereogram image appears to be still.
  • the cycle display is locked (fixed).
  • the image after the superimposition process can be displayed at a finer frame rate without locking (fixing) the cycle display. There is also an effect that can be done.
  • the region of interest is reset so that the three-dimensional coordinate position is contained.
  • the region of interest resetting means is provided, the region of interest resetting unit is not necessarily required when the three-dimensional coordinate position is not followed.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 この発明の医療用X線装置の一例は、内視鏡検査を行うCアーム透視撮影装置として用いられる。先ずコーンビームCT撮影(CBCT撮影)により3次元画像(CBCTボリュームデータ)を取得する。内視鏡検査(透視)においてステレオグラム画像(透視右画像,透視左画像)を作成し、当該ステレオグラム画像における各々の投影方向での3次元画像(CBCTボリュームデータ)に基づく立体視画像(CBCT右画像,CBCT左画像)をそれぞれ作成する。3次元画像(立体視画像)・ステレオグラム画像では同じX線画像同士であるので、これらを重畳処理してリアルタイムに表示部14に表示することにより、現在透視下の位置・向きを同定することが可能になる。さらに、リアルタイムのステレオグラム画像から3次元座標位置を検出することにより、現在透視下の位置・向きを同定するのがさらに容易になり、精度よくナビゲーションを行うことができる。

Description

医療用X線装置
 この発明は、検出されたX線に基づいて透視画像をリアルタイムに表示して診断・治療を行う医療用X線装置に係り、特に、診断・治療の対象となる被検体の体内に挿入部材を挿入しながら透視を行って診断・治療に供する技術に関する。
 挿入部材としては、内視鏡検査などに用いられる気管支内視鏡や、整形外科手術や血管造影などに用いられるカテーテルやワイヤや、放射線治療計画などに用いられる線源を挿入するためのアプリケータ(線源挿入用アプリケータ)や模擬線源などがある。内視鏡検査では、気管支内視鏡や気管支内視鏡を介して挿入された生検(生体検査)用の鉗子などを被検体の気管支に挿入して気管支に関する診断を行う。血管造影では、カテーテルやワイヤを目的部位まで血管中に挿入して診断あるいは治療を行う。放射線治療計画では、線源挿入用アプリケータと模擬線源とを治療部位まで挿入して線源による治療計画を行う。以下では、内視鏡検査を例に採って説明する。
 内視鏡検査に先だって、X線CT(Computed Tomography)で得られた3次元データにより、気管支の3次元画像(仮想内視鏡像)を作成することが望ましい。そして、気管支内視鏡を被検体の気管支に挿入して所定の気管支の診断位置にまで進行させる過程で、気管支の内腔から見た画像(気管支鏡画像)を作成し、当該画像をリアルタイムに表示することで内視鏡検査を行い、気管支内視鏡の先端を誘導(すなわちナビゲート)する。このとき、仮想内視鏡像に基づいて実際での気管支鏡の先端部分の位置を決めることが重要なポイントである。
 従来では、現在の気管支鏡画像と類似する画像(類似画像)を仮想内視鏡像から選び、その仮想内視鏡像を参照して気管支鏡の先端部分の実際での位置を確認して決定することで、当該位置を同定する(例えば、特許文献1参照)。また、特許文献1においては電磁気でその位置を同定する。
 ところで、末梢病変に対する気管支鏡検査では、気管支内視鏡は、例えば右主気管支から上葉に入り、その後は末梢の細い気管支に挿入する。ところが、気管支内視鏡は例えば5mm径の太さで、末梢の細い気管支は例えば1mm径の太さである。したがって、5mm径の太さの気管支内視鏡が、1mm径の太さの細い気管支に挿入することができない。また、細い気管支に太い気管支内視鏡を挿入すると当該内視鏡は挿入可能な位置までしか進まないので、気管支の内腔から見た画像(すなわち気管支鏡画像)からは挿入可能な位置までしか気管支の内腔を確認することができず、細い気管支の内腔まで確認することができない。
 そこで、気管支内視鏡の先端にある処置チャンネル(鉗子チャンネル)の開口部に鉗子を挿入して、X線CTで得られた仮想内視鏡像で鉗子の位置を確認して、病変(例えば腫瘍)まで誘導して、組織等の検体を採取する。なお、極細径の気管支鏡を使用すると、比較的に細い気管支まで挿入が可能で、そのときに分岐の方向の理解を促進する仮想内視鏡像があると有用であるが、目的の細い気管支にまで挿入できるとは限らない。また、通常の太さの気管支鏡を挿入する場合で、ある程度太い気管支レベルでも仮想内視鏡像が参考になることがある。
特開2009-56239号公報
 しかしながら、上述の類似画像を選んで位置を同定する方法は、人体の組織・構造が柔軟であるので、困難であるという問題点がある。すなわち、気管支鏡画像と、X線により得られた類似画像との間で表示の態様が異なる。気管支鏡画像はリアルタイムに表示される画像であるので、例えば、呼吸しているときの人体の組織・構造が動いた位相毎の気管支鏡画像がその都度に表示される。一方、類似画像はリアルタイムに表示される画像でないので、ある位相の画像でしか表示されない。したがって、両画像間で一致させるのは難しく、類似画像を選んで位置を同定する方法は困難となる。また、内視鏡画像では透明で粘膜が透見可能な粘液も、X線による類似画像では粘液と粘膜との区別は難しい。
 また、電磁気で位置を同定する方法は、先端部分の絶対的な位置はわかるが、周囲の解剖学的な構造との関係や、先端部分の向いている方向(すなわち挿入方向)までわからないという問題点がある。以上の問題点より、精度ある誘導(すなわちナビゲーション)は困難である。
 この発明は、このような事情に鑑みてなされたものであって、精度よくナビゲーションを行うことができる医療用X線装置を提供することを目的とする。
 発明者らは、上記の問題を解決するために鋭意研究した結果、次のような知見を得た。
 すなわち、リアルタイムに表示される画像として、従来の内視鏡による気管支鏡画像に頼るのでなく、X線に基づいて予め得られた3次元画像(仮想内視鏡像)に着目してみた。してみれば、リアルタイムに表示される画像として、X線に基づいて得られた透視画像を採用すれば、3次元画像・透視画像では同じX線画像同士である。したがって、目的物の位置(内視鏡検査の場合には内視鏡の先端部分)を同定することが可能になり、気管支内視鏡などに代表される挿入部材を被検体の体内に挿入しながら透視を行って、精度よくナビゲーションを行うことができるという知見を得た。
 また、投影方向に視差を互いにつけた2つの透視画像からなるステレオグラム画像に適用すれば、(リアルタイムに表示される)ステレオグラム画像に基づいて3次元座標位置を同定し、挿入方向もわかるという知見を得た。また、ステレオグラム画像に適用しなくとも3次元画像および(リアルタイムに表示される)透視画像に基づいて3次元座標位置を同定し、挿入方向もわかるという知見も得た。
 このような知見に基づくこの発明は、次のような構成をとる。
 すなわち、この発明に係る医療用X線装置(前者の発明)は、検出されたX線に基づいて透視画像をリアルタイムに表示して診断・治療を行う医療用X線装置であって、投影方向に視差を互いにつけた2つの透視画像からなるステレオグラム画像を作成するステレオグラム画像作成手段と、X線に基づいて予め得られた3次元画像において、前記ステレオグラム画像作成手段により作成された前記ステレオグラム画像における各々の投影方向での前記3次元画像に基づく立体視画像をそれぞれ作成する立体視画像作成手段と、各々の投影方向での前記ステレオグラム画像と前記立体視画像作成手段でそれぞれ作成された前記立体視画像とを重ね合わせて重畳処理する重畳処理手段と、その重畳処理手段で重畳処理された画像をリアルタイムに表示する表示手段と、前記ステレオグラム画像作成手段により作成された前記ステレオグラム画像に基づいて、リアルタイムに表示される画面上の目的物の位置から当該目的物の3次元座標位置を算出して検出する3次元座標位置検出手段とを備えることを特徴とするものである。
 この発明に係る医療用X線装置(前者の発明)によれば、ステレオグラム画像作成手段は、投影方向に視差を互いにつけた2つの(X線に基づいて得られた)透視画像からなるステレオグラム画像を作成する。一方、立体視画像作成手段は、X線に基づいて予め得られた3次元画像において、上述のステレオグラム画像作成手段により作成されたステレオグラム画像における各々の投影方向での3次元画像に基づく立体視画像をそれぞれ作成する。
 そして、重畳処理手段は、各々の投影方向でのステレオグラム画像と上述の立体視画像作成手段でそれぞれ作成された立体視画像とを重ね合わせて重畳処理する。さらに、上述の重畳処理手段で重畳処理された画像を表示手段にリアルタイムに表示する。一方、3次元座標位置検出手段は、ステレオグラム画像作成手段により作成されたステレオグラム画像に基づいて、リアルタイムに表示される画面上の目的物の位置から当該目的物の3次元座標位置を算出して検出する。上述したように、3次元画像(立体視画像)・透視画像(ここではステレオグラム画像)では同じX線画像同士であるので、これらを重畳処理してリアルタイムに表示することにより、現在透視下の位置・向きを同定することが可能になる。さらに、リアルタイムのステレオグラム画像から3次元座標位置を検出することにより、現在透視下の位置・向きを同定するのがさらに容易になり、精度よくナビゲーションを行うことができる。
 また、この発明に係る医療用X線装置(後者の発明)は、検出されたX線に基づいて透視画像をリアルタイムに表示して診断・治療を行う医療用X線装置であって、局所的な関心領域を設定する関心領域設定手段と、(1)その関心領域設定手段で設定された前記関心領域において、前記透視画像における投影方向での、X線に基づいて予め得られた3次元画像に基づく立体視画像を、前記透視画像のシフトに合わせてシフトする、もしくは(2)その関心領域設定手段で設定された前記関心領域において、前記透視画像における投影方向での、X線に基づいて予め得られた3次元画像に基づく立体視画像を固定し、その固定された立体視画像の位置に合わせて前記透視画像をシフトする画像シフト手段と、前記関心領域において、(1)前記透視画像と前記画像シフト手段によりシフトされた前記立体視画像とを重ね合わせて重畳処理する、もしくは(2)前記立体視画像と前記画像シフト手段によりシフトされた前記透視画像とを重ね合わせて重畳処理する重畳処理手段と、その重畳処理手段で重畳処理された画像をリアルタイムに表示する表示手段と、前記関心領域における前記3次元画像および前記透視画像に基づいて、リアルタイムに表示される画面上の目的物の位置から当該目的物の3次元座標位置を算出して検出する3次元座標位置検出手段とを備えることを特徴とするものである。
 この発明に係る医療用X線装置(後者の発明)によれば、関心領域設定手段は、局所的な関心領域を設定し、画像シフト手段は、(1)関心領域設定手段で設定された関心領域において、(X線に基づいて得られた)透視画像における投影方向での、X線に基づいて予め得られた3次元画像に基づく立体視画像を、透視画像のシフトに合わせてシフトする。もしくは、画像シフト手段は、(2)(関心領域設定手段で設定された)関心領域において、透視画像における投影方向での、X線に基づいて予め得られた3次元画像に基づく立体視画像を固定し、その固定された立体視画像の位置に合わせて透視画像をシフトする。通常、被検体の体動(例えば呼吸による体動)により体内の組織・構造は拡大あるいは縮小されるが、局所的な関心領域では拡大や縮小は無視され大きさは一定でシフトすると見なされる。また、例えば挿入部材を挿入しながら透視を行う場合には、全体画像はさほど重要でなく、関心領域さえわかればよい。そこで、上述の(1)の場合には、関心領域において透視画像のシフトに合わせて立体視画像をシフトすることができる。また、上述の(2)の場合には、関心領域において立体視画像を固定し、その固定された立体視画像の位置に合わせて透視画像をシフトするので、透視画像がシフトしたとしても、固定された立体視画像の位置に透視画像を常に位置させて、透視画像があたかも静止しているように見える。また、例えば呼吸による体動の場合には、呼吸センサに同期した3次元画像、あるいは複数位相毎に同期した3次元画像を予め取得することで、体動による重畳処理に対処する手法も考えられるが、呼吸センサが必要になったり、複数位相毎の画像を取得するために撮影回数が増して検査時間や被曝線量や処理時間の増加などがあり実用的でない。また、被検体が大きく動けば、全て撮り直しという大きな無駄も生じる。後者の発明の場合には、投影方向が変更されたときに透視画像の位置ズレ量に基づいて立体視画像の位置ズレ量を算出して両者を重畳表示する手法とは相違し、局所的な関心領域では大きさは一定と見なして立体視画像(または上述の(2)の場合には透視画像)を単にシフトすることで、従来のような呼吸センサは不要で、かつ複数位相毎に同期した3次元画像を予め取得することなく、撮影回数を低減させて検査時間や被曝線量や処理時間も低減させることができる。
 そして、重畳処理手段は、関心領域において、(1)透視画像と上述の画像シフト手段によりシフトされた立体視画像とを重ね合わせて重畳処理する。もしくは、関心領域において、(2)立体視画像と上述の画像シフト手段によりシフトされた透視画像とを重ね合わせて重畳処理する。さらに、上述の重畳処理手段で重畳処理された画像を表示手段にリアルタイムに表示する。一方、3次元座標位置検出手段は、関心領域における3次元画像および透視画像に基づいて、リアルタイムに表示される画面上の目的物の位置から当該目的物の3次元座標位置を算出して検出する。上述したように、3次元画像(立体視画像)・透視画像では同じX線画像同士であるので、これらを重畳処理してリアルタイムに表示することにより、現在透視下の位置・向きを同定することが可能になる。さらに、3次元画像およびリアルタイムの透視画像から3次元座標位置を検出することにより、現在透視下の位置・向きを同定するのがさらに容易になり、精度よくナビゲーションを行うことができる。
 後者の発明において、リアルタイムに表示される3次元座標位置が関心領域から外れるときに、当該3次元座標位置が収まるように関心領域を再設定する関心領域再設定手段を備え、その関心領域再設定手段で再設定された関心領域で、画像シフト手段,重畳処理手段,表示手段および3次元座標位置検出手段は繰り返し行うのが好ましい。上述の関心領域再設定手段で再設定された関心領域で、画像シフト手段,重畳処理手段,表示手段および3次元座標位置検出手段は繰り返し行うことで、例えば挿入部材を挿入しながら透視を行う場合において3次元座標位置が変動する場合に当該位置を追いながらナビゲートすることができる。また、ナビゲートしながら関心領域も再設定を繰り返しながら当該位置に追従するので、当該位置を追いながら精度よくナビゲーションを行うことができる。
 また、前者の発明と後者の発明とを両方組み合わせることもできる。
 すなわち、後者の発明において、投影方向に視差を互いにつけた2つの透視画像からなるステレオグラム画像を作成するステレオグラム画像作成手段と、前記3次元画像において、前記ステレオグラム画像作成手段により作成された前記ステレオグラム画像における各々の投影方向での前記3次元画像に基づく立体視画像をそれぞれ作成する立体視画像作成手段とを備え、前記画像シフト手段は、(1)前記関心領域において、前記立体視画像作成手段でそれぞれ作成された前記立体視画像を、前記ステレオグラム画像のシフトに合わせてシフトする、もしくは(2)前記関心領域において、前記立体視画像作成手段でそれぞれ作成された前記立体視画像を固定し、その固定された立体視画像の位置に合わせて前記ステレオグラム画像をシフトし、前記重畳処理手段は、前記関心領域において、(1)前記ステレオグラム画像と前記画像シフト手段によりシフトされた前記立体視画像とを各々の投影方向ごとに重ね合わせて重畳処理する、もしくは(2)前記立体視画像と前記画像シフト手段によりシフトされた前記ステレオグラム画像とを各々の投影方向ごとに重ね合わせて重畳処理し、前記表示手段は、前記重畳処理手段で重畳処理された画像をリアルタイムに表示し、前記3次元座標位置検出手段は、前記関心領域における前記3次元画像および前記ステレオグラム画像に基づいて前記3次元座標位置を算出して検出することを特徴とするものである。
 前者の発明と後者の発明とを両方組み合わせた発明によれば、後者の発明において、前者の発明と同様のステレオグラム画像作成手段と立体視画像作成手段とを備える。後者の発明における画像シフト手段において、透視画像をステレオグラム画像に限定することで、画像シフト手段は、関心領域において、上述の(1)の場合には、上述の立体視画像作成手段でそれぞれ作成された立体視画像を、ステレオグラム画像のシフトに合わせてシフトする、もしくは上述の(2)の場合には、立体視画像を固定し、その固定された立体視画像の位置に合わせてステレオグラム画像をシフトする。また、後者の発明における重畳処理手段において、透視画像をステレオグラム画像に限定することで、重畳処理手段は、関心領域において、ステレオグラム画像(または上述の(2)の場合には立体視画像)と画像シフト手段によりシフトされた立体視画像(または上述の(2)の場合にはステレオグラム画像)とを各々の投影方向ごとに重ね合わせて重畳処理する。言い換えれば、前者の発明における重畳処理手段において、関心領域に限定することで、関心領域において、ステレオグラム画像(または上述の(2)の場合には立体視画像)と画像シフト手段によりシフトされた立体視画像(または上述の(2)の場合にはステレオグラム画像)とを各々の投影方向ごとに重ね合わせて重畳処理することになる。
 また、後者の発明における表示手段は、前者の発明における表示手段と同様に、重畳処理手段で重畳処理された画像をリアルタイムに表示する。また、後者の発明における3次元座標位置検出手段において、透視画像をステレオグラム画像に限定することで、3次元座標位置検出手段は、関心領域における3次元画像およびステレオグラム画像に基づいて3次元座標位置を算出して検出する。言い換えれば、前者の発明における3次元座標位置検出手段において、関心領域に限定して、基となるデータにステレオグラム画像の他にも3次元画像を追加することで、関心領域における3次元画像およびステレオグラム画像に基づいて3次元座標位置を算出して検出することになる。それ以外の作用・効果については、前者の発明と後者の発明とを組み合わせたものであるので、その説明について省略する。
 上述のステレオグラム画像作成手段の一例は、投影方向に視差を互いにつけたリアルタイムでの透視によりそれぞれ得られ、かつ当該視差を互いにつけた2つの透視画像からなるステレオグラム画像を作成することである。すなわち、ステレオグラム透視を行うことにより、その都度に視差を互いにつけた2つの透視画像をリアルタイムに取得し、ステレオグラム画像を作成する。
 上述のステレオグラム画像作成手段の他の一例は、3次元画像に基づいて、リアルタイムでの透視により得られた1つの元の透視画像から、当該元の透視画像と当該元の透視画像の投影方向に視差をつけた透視画像とからなるステレオグラム画像を作成することである。すなわち、(ステレオグラム透視ではない)通常の透視を行うことにより、その都度に1つの元の透視画像をリアルタイムに取得する。そして、当該元の透視画像から、当該元の透視画像と当該元の透視画像の投影方向に視差をつけた透視画像とからなるステレオグラム画像を作成する。
 前者の発明・後者の発明を含め、これらの発明に係る医療用X線装置において、上述の3次元座標位置検出手段は、診断・治療の対象となる被検体の体内に挿入される挿入部材の先端部分の位置を3次元座標位置として検出する。気管支内視鏡やカテーテルやワイヤや線源挿入用アプリケータなどに代表される挿入部材を被検体の体内に挿入しながら透視を行う場合において、従来のような電磁気を用いなくとも、透視下の挿入部材の位置・向きを同定するのが容易になる。また、挿入部材の一例は、内視鏡,線源挿入用アプリケータ,模擬線源あるいはカテーテルワイヤである。
 この発明に係る医療用X線装置(前者の発明)によれば、3次元画像(立体視画像)・ステレオグラム画像では同じX線画像同士であるので、これらを重畳処理してリアルタイムに表示することにより、現在透視下の位置・向きを同定することが可能になる。さらに、リアルタイムのステレオグラム画像から3次元座標位置を検出することにより、現在透視下の位置・向きを同定するのがさらに容易になり、精度よくナビゲーションを行うことができる。
 また、この発明に係る医療用X線装置(後者の発明)によれば、3次元画像(立体視画像)・透視画像では同じX線画像同士であるので、これらを重畳処理してリアルタイムに表示することにより、現在透視下の位置・向きを同定することが可能になる。さらに、3次元画像およびリアルタイムの透視画像から3次元座標位置を検出することにより、現在透視下の位置・向きを同定するのがさらに容易になり、精度よくナビゲーションを行うことができる。
各実施例に係るCアーム透視撮影装置の概略構成図およびブロック図である。 (a)は内視鏡検査(透視)に先だって行われるCアーム透視撮影装置によるコーンビームCT撮影(CBCT撮影)の概略図、(b)はCアーム透視撮影装置による内視鏡検査(透視)の概略図である。 各画像のデータの流れを示す概略図である。 CBCTボリュームデータから立体視画像(CBCT右画像,CBCT左画像)の作成に供する概略図である。 表示部による画像表示方式の一実施態様を示した概略図である。 気管支内視鏡の概略図である。 実施例2に係る一連のナビゲーションの流れを示すフローチャートである。 (a)~(c)は実施例2に係る表示部による一実施態様を示した概略図である。 (a)~(c)は実施例2に係る表示部による一実施態様を示した概略図である。 (a)~(c)は実施例2に係る表示部による一実施態様を示した概略図である。 実施例2に係る表示部による一実施態様を示した概略図である。 変形例に係るCBCTボリュームデータから立体視画像(CBCT右画像,CBCT左画像)の作成に供する概略図である。 1つの焦点を有した通常のX線管2を採用した変形例に係るCアーム透視撮影装置の概略図であり、(a)は内視鏡検査(透視)に先だって行われるCアーム透視撮影装置によるコーンビームCT撮影(CBCT撮影)の概略図、(b)はCアーム透視撮影装置による内視鏡検査(透視)の概略図である。
 以下、図面を参照してこの発明の実施例1を説明する。図1は、各実施例に係るCアーム透視撮影装置の概略構成図およびブロック図であり、図2(a)は、内視鏡検査(透視)に先だって行われるCアーム透視撮影装置によるコーンビームCT撮影(CBCT撮影)の概略図であり、図2(b)は、Cアーム透視撮影装置による内視鏡検査(透視)の概略図である。後述する実施例2、3も含めて、本実施例1では、医療用X線装置として、Cアーム透視撮影装置を例に採って説明するとともに、挿入部材として、内視鏡を例に採って説明する。
 後述する実施例2、3も含めて、本実施例1に係るCアーム透視撮影装置は、図1に示すように、被検体Mを載置する天板1に対して独立して動くように構成されている。Cアーム透視撮影装置は、X線管2およびX線検出器3からなる映像系4を備えている。後述する実施例2、3も含めて、本実施例1では、X線管2は、2つの焦点を有した1つの管球(ステレオX線管球)である。具体的には、図2に示すように、パルスで焦点切り換えを行うことができ、左右交互でX線を切り換え照射しながら左右透視画像をリアルタイムに表示する。
 この他に、Cアーム透視撮影装置は、一端でX線管2を保持し、他端でX線検出器3を保持するCアーム5を備えている。Cアーム5は、回転中心軸x方向に湾曲状に形成されている。Cアーム5は、Cアーム5自身に沿って被検体Mの体軸zの軸心周りに(矢印RA方向に)回転することで、Cアーム5に保持されたX線管2およびX線検出器3も同方向に回転することが可能である。さらに、Cアーム5は体軸zと直交する回転中心軸xの軸心周りに(矢印RB方向に)回転することで、X線管2およびX線検出器3も同方向に回転することが可能である。
 具体的には、Cアーム5は、床面に固定配置された基台6に、支柱7およびアーム保持部8を介して保持される。基台6に対して支柱7は、鉛直軸の軸心周りに(矢印RC方向)に回転可能で、この回転により支柱7に保持されたCアーム5ごと映像系4も同方向に回転することが可能である。また、支柱7に対してアーム保持部8を回転中心軸xの軸心周りに回転可能に保持することで、アーム保持部8に保持されたCアーム5ごと映像系4も同方向に回転することができる。また、アーム保持部8に対してCアーム5を被検体Mの体軸zの軸心周りに回転可能に保持することで、Cアームごと映像系4も同方向に回転することができる。
 さらに、Cアーム透視撮影装置は、図1に示すように、X線検出器3で検出されたX線に基づいて各種の画像処理を行う画像処理部11と、画像処理部11で得られた各画像(各実施例ではCBCTボリュームデータや立体視画像や重畳処理後の画像)などのデータを書き込んで記憶するメモリ部12と、データや命令を入力する入力部13と、透視画像やCBCT画像やこれらを重畳処理した画像を表示する表示部14と、これらを統括制御するコントローラ15とを備えている。その他にも、高電圧を発生して管電流や管電圧をX線管2に与える高電圧発生部などを備えているが、この発明の特徴部分あるいは特徴部分に関連する構成でないので、図示を省略する。画像処理部11は、この発明におけるステレオグラム画像作成手段,立体視画像作成手段および重畳処理手段に相当し、表示部14は、この発明における表示手段に相当し、コントローラ15は、この発明における3次元座標位置検出手段に相当する。
 画像処理部11は、内視鏡検査(透視)時には、X線検出器3で検出されたX線に基づく投影像を透視画像として、コントローラ15を介して、表示部14に送り込んで、透視画像を表示部14にリアルタイムに表示する。透視画像を表示部14にリアルタイムに表示することにより、オペレータ(術者)は透視画像をリアルタイムにモニタリングする。
 後述する実施例3も含めて、本実施例1では、図2(b)に示すように、X線管2からパルスで焦点切り換えを行うことにより、左右交互でX線を切り換え照射してX線検出器3でそれぞれ検出されたX線に基づく2つの投影像を、画像処理部11は、投影方向に視差を互いにつけた2つの透視画像(透視右画像,透視左画像)とする。すなわち、画像処理部11は、投影方向に視差を互いにつけたリアルタイムでの透視によりそれぞれ得られ、かつ当該視差を互いにつけた2つの透視画像(透視右画像,透視左画像)からなるステレオグラム画像を作成する。
 さらに、後述する実施例2、3も含めて、本実施例1では、内視鏡検査(透視)に先だって、映像系4を各方向(例えば図1や図2(a)に示す矢印RA方向に約200°回転)に動かして、図2(a)に示すように、1つの焦点のみからコーンビーム(CB: Cone Beam)状のX線を照射してX線検出器3で検出することにより、コーンビームCT撮影(CBCT撮影)を行う。
 内視鏡検査(透視)に先だって行われるコーンビームCT撮影(CBCT撮影)時には、映像系4を各方向に動かして収集された複数の投影像に基づいて、画像処理部11は、3次元再構成して3次元画像(CBCTボリュームデータ)を作成する。さらに、画像処理部11は、その3次元画像(CBCTボリュームデータ)に基づいて、立体視画像として後述するCBCT右画像およびCBCT左画像(図3~図5を参照)をそれぞれ作成する。これらのCBCTボリュームデータや立体視画像(CBCT右画像,CBCT左画像)を、コントローラ15を介して、メモリ部12に書き込んで記憶する。具体的な3次元再構成の手法(演算手法)や、立体視画像(CBCT右画像,CBCT左画像)の具体的な生成の手法(演算手法)については、この発明の特徴部分でないので、説明を省略する。
 さらに、画像処理部11は、各々の投影方向でのステレオグラム画像(透視右画像,透視左画像)と立体視画像(CBCT右画像,CBCT左画像)とを重ね合わせて重畳処理する。具体的には、透視右画像とCBCT右画像とを重ね合わせて重畳処理し、透視左画像とCBCT左画像とを重ね合わせて重畳処理する。これらの重畳処理された画像(重畳処理後の画像)についても、コントローラ15を介して、メモリ部12に書き込んで記憶する。
 メモリ部12は、コントローラ15を介して、画像処理部11で作成されたCBCTボリュームデータや立体視画像(CBCT右画像,CBCT左画像)や重畳処理後の画像などのデータを書き込んで記憶し、適宜必要に応じて読み出して、コントローラ15を介して、これらのデータを表示部14に送り込んで表示する。メモリ部12は、ROM(Read-only Memory)やRAM(Random-Access Memory)やハードディスクなどに代表される記憶媒体で構成されている。後述する実施例2、3も含めて、本実施例1では、内視鏡検査(透視)時に立体視画像(CBCT右画像,CBCT左画像)や重畳処理後の画像をメモリ部12から読み出して表示部14に表示する。
 入力部13は、オペレータが入力したデータや命令をコントローラ15に送り込む。入力部13は、マウスやキーボードやジョイスティックやトラックボールやタッチパネルなどに代表されるポインティングデバイスで構成されている。
 表示部14は、モニタで構成されている。後述する実施例2、3も含めて、本実施例1では、表示部14は、一対の画像を3次元的に表示(3D表示)する3Dモニタ、あるいは両眼型ヘッドマウントディスプレイ(2画面ヘッドマウントディスプレイ)等の3D表示部で構成されている。具体的な表示については、図5で後述する。
 コントローラ15は、X線血管撮影装置を構成する各部分を統括制御する。後述する実施例2、3も含めて、本実施例1では、リアルタイムに表示される画面上の目的物の位置(各実施例では気管支内視鏡の先端部分の位置)から当該目的物の3次元座標位置を算出して検出する3次元座標位置検出の機能を有する。特に、本実施例1では、画像処理部11により作成されたステレオグラム画像(透視右画像,透視左画像)に基づいて、コントローラ15は3次元座標位置を算出して検出する。上述の画像処理部11やコントローラ15は、中央演算処理装置(CPU)などで構成されている。画像処理部11で得られた各画像などのデータを、コントローラ15を介して、メモリ部12に書き込んで記憶、あるいは表示部14に送り込んで表示する。
 続いて、各画像の生成および表示について、図3~図6を参照して説明する。図3は、各画像のデータの流れを示す概略図であり、図4は、CBCTボリュームデータから立体視画像(CBCT右画像,CBCT左画像)の作成に供する概略図であり、図5は、表示部による画像表示方式の一実施態様を示した概略図であり、図6は、気管支内視鏡の概略図である。
 図4では、CBCT右画像を作成する投影方向を「A」方向とするとともに、CBCT左画像を作成する投影方向を「B」方向とする。また、リアルタイムに表示される透視右画像の投影方向を上述のA方向とし、A方向に対して視差をつけた方向を上述のB方向とすると、B方向から得られた透視画像が透視左画像となる。つまり、CBCT右画像,CBCT左画像における各投影方向(A,B方向)がなす相対角度θは、Cアーム5(図1および図2を参照)の透視角度にも依存し、交差法では相対角度θは5°~10°程度である。したがって、図3に示すように、CBCT撮影位置情報およびステレオX線管球のX線管2(図1および図2を参照)から照射された透視位置情報に基づいて、3次元画像(CBCTボリュームデータ)に基づくCBCT右画像,CBCT左画像をそれぞれ作成することができる。
 より具体的に説明すると、図3に示すように、画像処理部11(図1を参照)は、内視鏡検査(透視)に先だって行われたコーンビームCT撮影(CBCT撮影)で得られた複数の投影画像に基づいて3次元画像(CBCTボリュームデータ)を作成する。作成されたCBCTボリュームデータをコントローラ15(図1を参照)を介して、メモリ部12(図1を参照)に書き込んで記憶する。
 そして、内視鏡検査(透視)時に、予め得られた(メモリ部12に記憶された)CBCTボリュームデータを(コントローラ15を介して)読み出して、画像処理部11は、当該CBCTボリュームデータにおいて、同じく画像処理部11により作成されたステレオグラム画像(透視右画像,透視左画像)における各々の投影方向(図4のA,B方向)でのCBCTボリュームデータに基づく立体視画像(CBCT右画像,CBCT左画像)をそれぞれ作成する。すなわち、CBCT撮影位置情報や透視位置情報に基づいてCBCT右画像,CBCT左画像をそれぞれ作成する。作成されたCBCT右画像,CBCT左画像を、コントローラ15を介して、メモリ部12に書き込んで記憶、あるいは表示部14(図1、図3および図5を参照)に送り込んで表示する。
 一方、内視鏡検査(透視)時に、画像処理部11は、透視右画像,透視左画像を作成するとともに、各々の透視画像とCBCT右画像,CBCT左画像とを重ね合わせて重畳処理して重畳処理後の画像(右画像,左画像)を作成する。リアルタイムに表示するために、内視鏡検査(透視)時には、メモリ部12に書き込まずに、コントローラ15を介して表示部14に送り込んで表示する。このように表示部14に直接に表示することにより、重畳処理後の画像(右画像,左画像)を表示部14にリアルタイムに表示する。ただし、重畳処理後の画像(右画像,左画像)を後で利用するために、コントローラ15を介してメモリ部12に書き込んで記憶することもできる。
 表示部14は、図5に示すように4つのモニタからなる。図5の場合には、CBCT右画像,CBCT左画像(「操作計画図」とも呼ぶ)を表示するモニタ14A、気管支の内腔から見た画像(気管支鏡画像)を表示するモニタ14B、透視右画像,透視左画像をリアルタイムに表示するモニタ14Cおよび重畳処理後の画像(右画像,左画像)をリアルタイムに表示するモニタ14Dからなる。
 また、一対の画像を3次元的に表示(3D表示)する3Dモニタの場合には、モニタ14Cでは、透視右画像を3Dモニタの左右眼用画像の一方(ここでは右眼用画像)とし、透視左画像を3Dモニタの他方の左右眼用画像(ここでは左眼用画像)とするということを意味する。そして、当該3Dモニタの場合には、モニタ14Dでは、透視右画像とCBCT右画像とを重ね合わせて重畳処理した画像(右画像)を3Dモニタの左右眼用画像の一方(ここでは右眼用画像)とし、透視左画像とCBCT左画像とを重ね合わせて重畳処理した画像(左画像)を他方の左右眼用画像(ここでは左眼用画像)とするということを意味する。
 一方、両眼型ヘッドマウントディスプレイ(2画面ヘッドマウントディスプレイ)の場合には、モニタ14Cでは、透視右画像,透視左画像を並べてステレオグラム画像として表示し、モニタ14Dでは、透視右画像とCBCT右画像とを重ね合わせて重畳処理した画像(右画像),透視左画像とCBCT左画像とを重ね合わせて重畳処理した画像(左画像)を並べてステレオグラム画像として表示する。当該両眼型ヘッドマウントディスプレイの場合には、一対の画像を左右に表示し、オペレータ自身が立体視を行う形の表示も可能である。この構成であれば、3Dモニタのような特殊な機器を必要とせずに、従来の装置構成(通常のモニタ)で実現することが可能である。
 内視鏡検査(透視)時には、図6に示すような気管支内視鏡21を用いる。気管支内視鏡21は、ワイヤ状のガイド部22と、撮像素子や生検(生体検査)用の鉗子を挿入するための処置チャンネルなどからなる先端部分23とを備えている。なお、内視鏡検査(透視)時に気管支内視鏡21の撮像素子で得られた画像を表示部14にリアルタイムに表示してもよい。ガイド部22を介して、先端部分23を被検体M(図1および図2を参照)の体内(口腔および気管支)に案内することによって、気管支内視鏡21を体内に挿入する。気管支内視鏡21は、この発明における挿入部材に相当する。
 なお、リアルタイムに表示される図5に示すモニタ14C,14Dの画面上には、図6に示す気管支内視鏡21が画像としてリアルタイムに表示される。図5において、気管支内視鏡21全体の画像を符号14aとし、ガイド部22の画像を符号14bとし、先端部分23の画像を符号14cとする。ステレオグラム画像(透視右画像,透視左画像)に基づいて、コントローラ15(図1を参照)は、リアルタイムに表示される画面上の目的物の位置(ここでは気管支内視鏡21の先端部分23の位置)から当該目的物の3次元座標位置を算出して検出する。ガイド部22の画像14bも含め、先端部分23の画像14cにおける画素値は、周囲の画素値に対して著しく異なるので、コントローラ15は3次元座標位置を自動で演算して求めることが可能である。もちろん、先端部分23の画像14cをオペレータが認識して、画像14cに該当する画面上の箇所に、オペレータが入力部13(図1を参照)によりポインタを合わせて手動で入力することにより、当該箇所に基づいてコントローラ15は3次元座標位置を求めてもよい。また、手動と自動とを両方組み合わせてもよい。
 本実施例1に係るCアーム透視撮影装置によれば、ステレオグラム画像作成手段(本実施例1では画像処理部11)は、投影方向に視差を互いにつけた2つの(X線に基づいて得られた)透視画像からなるステレオグラム画像を作成する。一方、立体視画像作成手段(本実施例1では画像処理部11)は、内視鏡検査(透視)に先だって行われたコーンビームCT撮影(CBCT撮影)により、X線に基づいて予め得られた3次元画像(本実施例1ではCBCTボリュームデータ)において、上述のステレオグラム画像作成手段(画像処理部11)により作成されたステレオグラム画像における各々の投影方向での3次元画像(CBCTボリュームデータ)に基づく立体視画像(本実施例1ではCBCT右画像,CBCT左画像)をそれぞれ作成する。
 そして、重畳処理手段(本実施例1では画像処理部11)は、各々の投影方向でのステレオグラム画像(本実施例1では透視右画像,透視左画像)と上述の立体視画像作成手段(画像処理部11)でそれぞれ作成された立体視画像(CBCT右画像,CBCT左画像)とを重ね合わせて重畳処理する。さらに、上述の重畳処理手段(画像処理部11)で重畳処理された画像(重畳処理後の右画像,重畳処理後の左画像)を表示手段(本実施例1では表示部14のモニタ14D)にリアルタイムに表示する。一方、3次元座標位置検出手段(本実施例1ではコントローラ15)は、ステレオグラム画像作成手段(画像処理部11)により作成されたステレオグラム画像(透視右画像,透視左画像)に基づいて、リアルタイムに表示される画面上の目的物の位置(本実施例1では気管支内視鏡21の先端部分23の位置)から当該目的物の3次元座標位置を算出して検出する。
 上述したように、3次元画像(立体視画像)・透視画像(ここではステレオグラム画像)では同じX線画像同士であるので、これらを重畳処理してリアルタイムに表示することにより、現在透視下の位置・向きを同定することが可能になる。さらに、リアルタイムのステレオグラム画像から3次元座標位置を検出することにより、現在透視下の位置・向きを同定するのがさらに容易になり、精度よくナビゲーションを行うことができる。
 後述する実施例3も含めて、本実施例1では、ステレオグラム画像作成手段(画像処理部11)は、投影方向(各実施例ではA,B方向)に視差を互いにつけたリアルタイムでの透視によりそれぞれ得られ、かつ当該視差を互いにつけた2つの透視画像(透視右画像,透視左画像)からなるステレオグラム画像を作成している。すなわち、ステレオグラム透視を行うことにより、その都度に視差を互いにつけた2つの透視画像(透視右画像,透視左画像)をリアルタイムに取得し、ステレオグラム画像を作成する。
 後述する実施例2、3も含めて、本実施例1では、Cアーム透視撮影装置において、上述の3次元座標位置検出手段(コントローラ15)は、診断・治療の対象となる被検体Mの体内に挿入される挿入部材(各実施例では気管支内視鏡21)の先端部分の位置を3次元座標位置として検出している。各実施例のように、気管支内視鏡21やカテーテルやワイヤや線源挿入用アプリケータなどに代表される挿入部材を被検体Mの体内に挿入しながら透視を行う場合において、従来のような電磁気を用いなくとも、透視下の挿入部材(気管支内視鏡21)の位置・向きを同定するのが容易になる。また、後述する実施例2、3も含めて、本実施例1では、挿入部材は気管支内視鏡21である。
 次に、図面を参照してこの発明の実施例2を説明する。図7は、実施例2に係る一連のナビゲーションの流れを示すフローチャートであり、図8~図11は、実施例2に係る表示部による一実施態様を示した概略図である。上述した実施例1と共通する箇所については、同じ符号を付してその説明を省略する。また、図1に示すように、本実施例2に係るCアーム透視撮影装置は、実施例1に係るCアーム透視撮影装置と同じ構成である。
 上述した実施例1では、重畳処理の対象は全体画像であったが、本実施例2では、内視鏡検査(透視)に先だって行われたコーンビームCT撮影(CBCT撮影)により、X線に基づいて予め得られた3次元画像(CBCTボリュームデータ)において、全体画像から局所的な関心領域(ROI: Region Of Interest)に限定して重畳処理を行う。また、実施例1では、透視画像をステレオグラム画像に限定したが、後述する理由により、本実施例2では透視画像を必ずしもステレオグラム画像に限定する必要はない。透視画像を得るには、透視時においても、図2(a)に示すように1つの焦点のみからX線を照射してX線検出器3で検出すればよい。なお、後述する実施例3では、上述した実施例1と同様に透視画像をステレオグラム画像に限定している。
 「課題を解決するための手段」の欄における後者の発明の作用・効果でも述べたように、気管支内視鏡などに代表される挿入部材を挿入しながら透視を行う場合には、全体画像はさほどに重要でなく、関心領域さえわかればよい。したがって、関心領域(ROI)において、透視画像と3次元画像(CBCTボリュームデータ)とを重ね合わせて重畳処理すれば、気管支内視鏡の先端部分の位置・向きが十分にわかるというのが、本実施例2では透視画像を必ずしもステレオグラム画像に限定する必要はないという理由である。ただ、透視画像上で気管支内視鏡の位置・向きをより一層正確に同定する意味では、後述する実施例3のように、透視画像としてステレオグラム画像を適用するのがより好ましい。
 さらに、本実施例2では、Cアーム透視撮影装置は、局所的な関心領域(ROI)を設定する関心領域設定・関心領域再設定の機能を有する。当該関心領域設定・関心領域再設定の機能については、コントローラ15(図1を参照)が有してもよい。すなわち、気管支内視鏡21(図6を参照)全体の画像14a(図5を参照)における画素値が周囲の画素値に対して著しく異なるのを利用して、気管支内視鏡21の挿入に追従するのをコントローラ15が関心領域(ROI)を自動で演算して設定・再設定してもよい。もちろん、当該関心領域設定・関心領域再設定の機能については、入力部13(図1を参照)が有してもよい。すなわち、気管支内視鏡21の先端部分23(図6を参照)の画像14c(図5を参照)をオペレータが認識して、画像14cに該当する画面上の箇所に、オペレータが入力部13(図1を参照)によりポインタを合わせて手動で入力することにより、当該箇所を含むように関心領域(ROI)を手動で設定・再設定してもよい。また、手動と自動とを両方組み合わせてもよい。
 さらに、関心領域設定の機能についてはコントローラ15が有し、関心領域再設定の機能については入力部13が有することで、関心領域(ROI)の設定については自動で行い、気管支内視鏡21の挿入に追従した関心領域(ROI)の再設定については手動で行ってもよい。逆に、関心領域設定の機能については入力部13が有し、関心領域再設定の機能についてはコントローラ15が有することで、関心領域(ROI)の設定については手動で行い、気管支内視鏡21の挿入に追従した関心領域(ROI)の再設定については自動で行ってもよい。関心領域(ROI)の設定について自動で行う場合には、コントローラ15は、関心領域設定手段に相当し、関心領域(ROI)の設定について手動で行う場合には、入力部13は、関心領域設定手段に相当し、関心領域(ROI)の設定について手動と自動とを組み合わせて行う場合には、入力部13およびコントローラ15は、関心領域設定手段に相当する。また、関心領域(ROI)の再設定について自動で行う場合には、コントローラ15は、関心領域再設定手段に相当し、関心領域(ROI)の再設定について手動で行う場合には、入力部13は、関心領域再設定手段に相当し、関心領域(ROI)の再設定について手動と自動とを組み合わせて行う場合には、入力部13およびコントローラ15は、関心領域再設定手段に相当する。
 さらに、本実施例2では、Cアーム透視撮影装置は、設定された関心領域(ROI)において、透視画像における投影方向での、3次元画像(CBCTボリュームデータ)に基づく立体視画像を、透視画像のシフトに合わせてシフトする画像シフトの機能を有する。通常、被検体M(図1および図2を参照)の体動(例えば呼吸による体動)により体内の組織・構造は拡大あるいは縮小されるが、局所的な関心領域(ROI)では拡大や縮小は無視され大きさは一定でシフトすると見なされる。そこで、画像処理部11(図1を参照)は、関心領域(ROI)において透視画像のシフトに合わせて立体視画像のシフト量を演算して求め、立体視画像をシフトする。
 また、本実施例2では、画像処理部11は、関心領域(ROI)において、透視画像とシフトされた立体視画像とを重ね合わせて重畳処理する。表示部14(図1を参照)の構成については、上述した実施例1と同じ構成であるので、その説明を省略する。本実施例2では、画像処理部11は、この発明における画像シフト手段に相当する。また、画像処理部11は、この発明における重畳処理手段にも相当し、表示部14は、この発明における表示手段に相当し、コントローラ15は、この発明における3次元座標位置検出手段に相当する。
 本実施例2に係る一連のナビゲーションについては、図7に示すフローチャートにしたがって行う。なお、図8~図11中の符号T(「○」を参照)は病変(例えば腫瘍)である。
 (ステップS1)気管支内視鏡の挿入開始
 先ず、気管支内視鏡21(図6を参照)を被検体M(図1および図2を参照)の体内(口腔および気管支)に挿入することにより、気管支内視鏡21の挿入開始を行う。主要気管支については、気管支内視鏡21の撮像素子により気管支の内腔から見た画像を撮像することによりリアルタイムにモニタリングしながら気管支内視鏡21を内部に進行させて操作する。また、それに並行して、主要気管支に関する透視画像を、図8(a)に示すように、表示部14のモニタ14Dにリアルタイムに表示する。このとき、主要気管支の内部に進行する気管支内視鏡21全体の画像14aもモニタ14Dにリアルタイムに表示される。そして、気管支内視鏡21が進行不可になるまで続行する。なお、このステップS1では重畳処理前であるので、図5に示すモニタ14Cにリアルタイムに表示してもよい。このとき、図8(a)に示すように、通常の透視下では(例えば末梢の)細い気管支は見えない。
 (ステップS2)CBCT撮影
 そこで、気管支内視鏡21の進行が不可になった時点で、コーンビームCT撮影(CBCT撮影)を行い、複数の投影画像を取得する。そして、これらの投影画像に基づいて3次元再構成して3次元画像(CBCTボリュームデータ)を作成する。
 どこまで気管支内視鏡21が挿入されているか確認できれば、気管支内視鏡21が挿入されていない段階で予め撮影した3次元画像、また気管支内視鏡21を抜去して撮影した3次元画像を使用してもよい。この場合、気管支内視鏡21によるX線へのアーティファクト、干渉が軽減される。
 (ステップS3)内視鏡検査
 ステップS2のコーンビームCT撮影(CBCT撮影)の後に、細かい気管支まで透視できるように、X線管2およびX線検出器3からなる映像系4(いずれも図1および図2を参照)を動かして、細かい気管支に関する透視画像を、図8(b)に示すように、表示部14のモニタ14Dにリアルタイムに表示する。このとき、進行が不可になった気管支内視鏡21全体の画像14aもモニタ14Dにリアルタイムに表示される。このようにして内視鏡検査(透視)を行う。
 (ステップS4)ROI設定・再設定
 そして、コントローラ15(図1を参照)が局所的な関心領域(ROI)を自動で設定、あるいは気管支内視鏡21の先端部分23(図6を参照)の画像14c(図5を参照)に該当する画面上の箇所にオペレータが入力部13(図1を参照)によりポインタを合わせて手動で入力して当該関心領域(ROI)を手動で設定する。関心領域(ROI)の大きさについては特に限定されないが、気管支の次なる分岐点が含まれる程度の大きさがより好ましい。図8(c)において、最初に設定された関心領域(ROI)を符号ROIとし、先端部分23から延びた鉗子にマーキングするランドマークを符号M(「●」を参照)とする。
 設定された関心領域ROIにおいて、ステップS2のコーンビームCT撮影(CBCT撮影)で得られた3次元画像に基づく立体視画像のシフト量を、透視画像のシフトに合わせて、画像処理部11(図1を参照)は演算して求め、当該立体視画像をシフトする。さらに、当該関心領域ROIにおいて、透視画像とシフトされた立体視画像とを重ね合わせて重畳処理し、その重畳処理された画像(重畳処理後の画像)をモニタ14Dにリアルタイムに表示(以下、「シフト表示」と略記)する。
 数呼吸分、シフト表示を繰り返し、呼吸に合わせた周期に同期したフレームレートで表示することにより周期表示をロック(固定)すれば、モニタ14Dには同じ位置で重畳処理後の画像が動かないように表示される。このとき、鉗子にランドマークMをマーキングする。マーキングについてはコントローラ15により自動で行ってもよいし、入力部13により手動で行ってもよい。
 当該関心領域ROIにおける3次元画像(立体視画像)および透視画像とに基づいて、コントローラ15は、リアルタイムに表示される画面上の目的物の位置(ここでは気管支内視鏡21の先端部分23の位置)から当該目的物の3次元座標位置を算出して検出する。
 シフト表示した状態で、気管支内視鏡21の位置・向きを同定することができるので、細い気管支においても気管支内視鏡21を再度に進行させることができる。リアルタイムに表示しながら、気管支内視鏡21を進行させると、図9(a)に示すように、気管支の次なる分岐点にて気管支内視鏡21の進行を停止させる。なお、図9(a)では、ランドマークMは、図8(c)の位置で止まっているが、ランドマークMを気管支の次なる分岐点に予めマーキングして、そのランドマークMにて気管支内視鏡21の進行を停止させてもよい。図9(b)に示すように、気管支内視鏡21の先端部分23から延びた鉗子にランドマークMを再度マーキングし直す。
 このとき、リアルタイムに表示される(気管支内視鏡21の先端部分23から延びた鉗子の)3次元座標位置が関心領域ROIから外れそうになる。本明細書中の「関心領域から外れるとき」とは、関心領域から実際に外れる場合のみを意味するだけでなく、関心領域から外れそうになる場合も包含していることに留意されたい。このように、鉗子の3次元座標位置が関心領域ROIから外れそうになるときに、当該3次元座標位置が収まるように関心領域(ROI)を再設定する。
 関心領域ROIの設定時と同様に、コントローラ15が関心領域(ROI)を自動で再設定、あるいは気管支内視鏡21の先端部分23の画像14cに該当する画面上の箇所にオペレータが入力部13によりポインタを合わせて手動で入力して当該関心領域(ROI)を手動で再設定する。図9(c)において、次に再設定された関心領域(ROI)を符号ROIとする。
 関心領域ROIの設定時と同様に、再設定された関心領域ROIにおいて、画像シフトの機能,重畳処理の機能,表示部14へのモニタリングおよび3次元座標検出の機能が繰り返し行うことによりシフト表示を行う。
 シフト表示した状態で気管支内視鏡21を再度に進行させる。リアルタイムに表示しながら、気管支内視鏡21を進行させると、図10(a)に示すように、気管支の次なる分岐点にて気管支内視鏡21の進行を停止させる。図10(b)に示すように、気管支内視鏡21の先端部分23から延びた鉗子にランドマークMを再度マーキングし直す。
 同様に、リアルタイムに表示される鉗子の3次元座標位置が関心領域ROIから外れそうになる。このように、鉗子の3次元座標位置が関心領域ROIから外れそうになるときに、当該3次元座標位置が収まるように関心領域(ROI)を再設定する。
 関心領域ROIの設定時や関心領域ROIの再設定時と同様に、コントローラ15が関心領域(ROI)を自動で再設定、あるいは気管支内視鏡21の先端部分23の画像14cに該当する画面上の箇所にオペレータが入力部13によりポインタを合わせて手動で入力して当該関心領域(ROI)を手動で再設定する。図10(c)において、次に再設定された関心領域(ROI)を符号ROIとする。
 関心領域ROIの設定時や関心領域ROIの再設定時と同様に、再設定された関心領域ROIにおいて、画像シフトの機能,重畳処理の機能,表示部14へのモニタリングおよび3次元座標検出の機能が繰り返し行うことによりシフト表示を行う。
 シフト表示した状態で気管支内視鏡21を再度に進行させる。リアルタイムに表示しながら、気管支内視鏡21を進行させると、図11に示すように、気管支の次なる分岐点にて気管支内視鏡21の進行を停止させる。このように、再設定された関心領域(ROI)で、画像シフトの機能,重畳処理の機能,表示部14へのモニタリングおよび3次元座標検出の機能が繰り返し行うことによりシフト表示を繰り返し行う。
 (ステップS5)腫瘍到達?
 このように、気管支内視鏡21の先端部分23から延びた鉗子が腫瘍Tに到達したか否かを判断する。なお、実際には、気管支内視鏡21が腫瘍Tなどに代表される病変に届かない、あるいは病変が見えない可能性がある。したがって、気管支内視鏡21を介して挿入された鉗子が病変の手前で止まることもあれば、病変内に気管支が開存していれば鉗子が止まらずに病変の箇所を鉗子が通り過ぎる可能性がある。このような場合には、X線透視により得られた透視画像やCTで得られたCT画像(例えばCBCT右画像,CBCT左画像)等で、鉗子の先端が3次元的に病変内にあることを確認するのが好ましい。以下では、鉗子が腫瘍Tに到達したものとして説明する。
 この判断についてもコントローラ15により自動で行ってもよいし、入力部13により手動で行ってもよい。もし、腫瘍Tに到達していなければ、ステップS3に戻って、シフト表示を含んだステップS4のROI再設定、ステップS5の腫瘍到達の判断を繰り返し行う。もし、図11に示すように、鉗子が腫瘍Tに到達した場合には、一連のナビゲーションを終了する。そして、鉗子により組織(ここでは腫瘍T)を採取して生体検査を行う。
 本実施例2に係るCアーム透視撮影装置によれば、関心領域設定手段(本実施例2では入力部13あるいはコントローラ15)は、局所的な関心領域(図8および図9ではROI)を設定し、画像シフト手段(本実施例2では画像処理部11)は、関心領域設定手段(入力部13あるいはコントローラ15)で設定された関心領域ROIにおいて、(X線に基づいて得られた)透視画像における投影方向での、X線に基づいて予め得られた3次元画像に基づく立体視画像を、透視画像のシフトに合わせてシフトする。通常、被検体Mの体動(例えば呼吸による体動)により体内の組織・構造は拡大あるいは縮小されるが、局所的な関心領域(ROI)では拡大や縮小は無視され大きさは一定でシフトすると見なされる。また、例えば挿入部材(各実施例では気管支内視鏡21)を挿入しながら透視を行う場合には、全体画像はさほど重要でなく、関心領域(ROI)さえわかればよい。
 そこで、関心領域(ROI)において透視画像のシフトに合わせて立体視画像をシフトすることができる。また、例えば呼吸による体動の場合には、呼吸センサに同期した3次元画像(CBCTボリュームデータ)、あるいは複数位相毎に同期した3次元画像(CBCTボリュームデータ)を予め取得することで、体動による重畳処理に対処する手法も考えられるが、呼吸センサが必要になったり、複数位相毎の画像を取得するために撮影回数が増して検査時間や被曝線量や処理時間の増加などがあり実用的でない。また、被検体Mが大きく動けば、全て撮り直しという大きな無駄も生じる。本実施例2の場合には、投影方向が変更されたときに透視画像の位置ズレ量に基づいて立体視画像の位置ズレ量を算出して両者を重畳表示する手法とは相違し、局所的な関心領域(ROI)では大きさは一定と見なして立体視画像を単にシフトすることで、従来のような呼吸センサは不要で、かつ複数位相毎に同期した3次元画像(CBCTボリュームデータ)を予め取得することなく、撮影回数を低減させて検査時間や被曝線量や処理時間も低減させることができる。
 そして、重畳処理手段(本実施例2では画像処理部11)は、関心領域(ROI)において、透視画像と上述の画像シフト手段(画像処理部11)によりシフトされた立体視画像とを重ね合わせて重畳処理する。さらに、上述の重畳処理手段(画像処理部11)で重畳処理された画像を表示手段(本実施例2では表示部14のモニタ14D)にリアルタイムに表示する。一方、3次元座標位置検出手段(本実施例2ではコントローラ15)は、関心領域(図8および図9ではROI)における3次元画像および透視画像に基づいて、リアルタイムに表示される画面上の目的物の位置(本実施例2では気管支内視鏡21の先端部分23の位置)から当該目的物の3次元座標位置を算出して検出する。
 上述したように、3次元画像(立体視画像)・透視画像では同じX線画像同士であるので、これらを重畳処理してリアルタイムに表示することにより、現在透視下の位置・向きを同定することが可能になる。さらに、3次元画像およびリアルタイムの透視画像から3次元座標位置を検出することにより、現在透視下の位置・向きを同定するのがさらに容易になり、精度よくナビゲーションを行うことができる。
 本実施例2において、リアルタイムに表示される3次元座標位置が関心領域(図8~図11ではROI~ROI)から外れるときに、当該3次元座標位置が収まるように関心領域を再設定する関心領域再設定手段(本実施例2では入力部13あるいはコントローラ15)を備え、その関心領域再設定手段(入力部13あるいはコントローラ15)で再設定された関心領域ROI,ROIで、画像シフト手段(画像処理部11),重畳処理手段(画像処理部11),表示手段(表示部14のモニタ14D)および3次元座標位置検出手段(コントローラ15)は繰り返し行うのが好ましい。
 上述の関心領域再設定手段(入力部13あるいはコントローラ15)で再設定された関心領域ROI,ROIで、画像シフト手段(画像処理部11),重畳処理手段(画像処理部11),表示手段(表示部14のモニタ14D)および3次元座標位置検出手段(コントローラ15)は繰り返し行うことで、例えば挿入部材(気管支内視鏡21)を挿入しながら透視を行う場合において3次元座標位置が変動する場合に当該位置を追いながらナビゲートすることができる。また、ナビゲートしながら関心領域(ROI)も再設定を繰り返しながら当該位置に追従するので、当該位置を追いながら精度よくナビゲーションを行うことができる。
 次に、図面を参照してこの発明の実施例3を説明する。上述した実施例1、2と共通する箇所については、同じ符号を付してその説明を省略する。また、図1に示すように、本実施例3に係るCアーム透視撮影装置は、実施例1、2に係るCアーム透視撮影装置と同じ構成である。
 本実施例3では、上述した実施例1と上述した実施例2とを両方組み合わせている。
 すなわち、実施例2において、実施例1と同様のステレオグラム画像作成手段(実施例1では画像処理部11)と立体視画像作成手段(実施例1では画像処理部11)とを備えた構造が本実施例3の構造である。実施例2における画像シフト手段(実施例2では画像処理部11)において、透視画像をステレオグラム画像に限定することで、本実施例3では、画像シフト手段(画像処理部11)は、関心領域(ROI)において、上述の立体視画像作成手段(画像処理部11)でそれぞれ作成された立体視画像を、ステレオグラム画像のシフトに合わせてシフトしている。
 また、実施例2における重畳処理手段(実施例2では画像処理部11)において、透視画像をステレオグラム画像に限定することで、本実施例3では、重畳処理手段(画像処理部11)は、関心領域(ROI)において、ステレオグラム画像と画像シフト手段によりシフトされた立体視画像とを各々の投影方向ごとに重ね合わせて重畳処理している。言い換えれば、実施例1における重畳処理手段(実施例1でも画像処理部11)において、関心領域(ROI)に限定することで、本実施例3では、関心領域(ROI)において、ステレオグラム画像と画像シフト手段(画像処理部11)によりシフトされた立体視画像とを各々の投影方向ごとに重ね合わせて重畳処理することになる。
 また、実施例2や本実施例3における表示手段(実施例2では表示部14のモニタ14D)は、実施例1における表示手段(表示部14のモニタ14D)と同様に、重畳処理手段(画像処理部11)で重畳処理された画像をリアルタイムに表示する。また、実施例2における3次元座標位置検出手段(実施例2ではコントローラ15)において、透視画像をステレオグラム画像に限定することで、本実施例3では、3次元座標位置検出手段(コントローラ15)は、関心領域(ROI)における3次元画像およびステレオグラム画像に基づいて3次元座標位置を算出して検出する。言い換えれば、実施例1における3次元座標位置検出手段(実施例1でもコントローラ15)において、関心領域(ROI)に限定して、基となるデータにステレオグラム画像の他にも3次元画像を追加することで、本実施例3では、関心領域(ROI)における3次元画像およびステレオグラム画像に基づいて3次元座標位置を算出して検出することになる。それ以外の作用・効果については、実施例1と実施例2とを組み合わせたものであるので、その説明について省略する。
 上述した実施例1と同様に、本実施例3では、ステレオグラム透視を行うことにより、その都度に視差を互いにつけた2つの透視画像(透視右画像,透視左画像)をリアルタイムに取得し、ステレオグラム画像を作成する。
 この発明は、上記実施形態に限られることはなく、下記のように変形実施することができる。
 (1)上述した各実施例では、図1に示すようにCアーム透視撮影装置であったが、映像系が天井面あるいは壁面に対して固定式の透視撮影装置に適用してもよいし、外科用X線装置に適用してもよい。また映像系を構成するX線管とX線検出器との配置を入れ替え構成した装置であってもよい。
 (2)上述した各実施例では、気管支内視鏡を被検体の気管支に挿入して気管支に関する診断を行ったが、被検体の診断あるいは治療を行う医療用X線装置であれば、上述したように、血管造影のようにカテーテルやワイヤを目的部位まで血管中に挿入して診断あるいは治療を行ってもよいし、放射線治療計画のように、線源挿入用アプリケータを治療部位まで挿入して線源や模擬線源による治療計画を行ってもよい。例えば、小線源用の粒(「シード(Seed)」とも呼ばれる)などを体内に植え込んだ場合には、植え込まれたシードを基にその後に挿入するシードの位置を考える等の治療計画などがある。
 (3)上述した各実施例では、図4に示すような交差法により視差を付与する方法を採用したが、図12に示すように平行法により視差を付与してもよい。
 (4)上述した各実施例では、図2に示すように、パルスで焦点切り換えを行うステレオX線管球をX線管2として採用したが、図13に示すように、1つの焦点を有した通常のX線管2を採用してもよい。3次元画像を取得する場合には、図13(a)に示すように映像系4を各方向(例えば矢印RA方向に約200°回転)に動かして行い、透視画像を取得する場合には、図13(b)に示すように視差をつけない透視画像をリアルタイムに取得して行えばよい。図13の構成は上述した実施例2のようにステレオグラム画像に限定しない場合に有用である。
 (5)上述した実施例1、3では、ステレオグラム透視を行うことにより、その都度に視差を互いにつけた2つの透視画像をリアルタイムに取得し、ステレオグラム画像を作成したが、ステレオグラム透視に限定されない。例えば、図2(a)あるいは図13(a)で得られた3次元画像に基づいて、リアルタイムでの透視により得られた1つの元の透視画像から、当該元の透視画像と当該元の透視画像の投影方向に視差をつけた透視画像とからなるステレオグラム画像を作成してもよい。すなわち、(ステレオグラム透視ではない)通常の透視を行うことにより、その都度に1つの元の透視画像をリアルタイムに取得する。そして、当該元の透視画像から、当該元の透視画像と当該元の透視画像の投影方向に視差をつけた透視画像とからなるステレオグラム画像を作成する。この場合には、図13のような1つの焦点を有した通常のX線管2を備えた構成でもステレオグラム画像を作成することが可能である。
 (6)上述した各実施例では、透視画像を取得する場合においても、3次元画像を取得する場合においても、図2に示すように同じ装置を利用したが、3次元画像を取得する場合にX線CT装置などに代表される別の装置(外部装置)を用いて行い、透視時のみ医療用X線装置を用いて行ってもよい。ただし、時間を置かずに撮影・透視を続けて行う点や、より正確にナビゲーションを行う点では、同じ装置の方が好ましい。
 (7)上述した実施例2、3では、透視画像やステレオグラム画像の表示位置を固定して、これらの画像のシフトに合わせて関心領域(ROI)での立体視画像をシフトし、透視画像やステレオグラム画像とシフトされた立体視画像とを重ね合わせて重畳処理したが、逆であってもよい。すなわち、立体視画像の表示位置を固定して、その固定された立体視画像の表示位置に合わせて関心領域(ROI)での透視画像やステレオグラム画像をシフトし、立体視画像とシフトされた透視画像やステレオグラム画像とを重ね合わせて重畳処理してもよい。この場合には、透視画像やステレオグラム画像がシフトしたとしても、固定された立体視画像の位置に合わせて透視画像やステレオグラム画像をシフトするので、透視画像やステレオグラム画像がシフトしたとしても、固定された立体視画像の位置に透視画像やステレオグラム画像を常に位置させて、透視画像やステレオグラム画像があたかも静止しているように見える。また、実施例2では、周期表示をロック(固定)したが、この変形例(7)では周期表示をロック(固定)しなくとも、より細かいフレームレートで重畳処理後の画像を表示することができるという効果をも奏する。
 (8)上述した実施例2、3では、リアルタイムに表示される3次元座標位置が関心領域(ROI~ROI)から外れるときに、当該3次元座標位置が収まるように関心領域を再設定する関心領域再設定手段を備えたが、3次元座標位置を追わない場合には、必ずしも関心領域再設定手段を備える必要はない。
 11 … 画像処理部
 13 … 入力部
 14 … 表示部
 14D … モニタ
 15 … コントローラ
 21 … 気管支内視鏡
 ROI … 関心領域
 M … 被検体

Claims (8)

  1.  検出されたX線に基づいて透視画像をリアルタイムに表示して診断・治療を行う医療用X線装置であって、
     投影方向に視差を互いにつけた2つの透視画像からなるステレオグラム画像を作成するステレオグラム画像作成手段と、
     X線に基づいて予め得られた3次元画像において、前記ステレオグラム画像作成手段により作成された前記ステレオグラム画像における各々の投影方向での前記3次元画像に基づく立体視画像をそれぞれ作成する立体視画像作成手段と、
     各々の投影方向での前記ステレオグラム画像と前記立体視画像作成手段でそれぞれ作成された前記立体視画像とを重ね合わせて重畳処理する重畳処理手段と、
     その重畳処理手段で重畳処理された画像をリアルタイムに表示する表示手段と、
     前記ステレオグラム画像作成手段により作成された前記ステレオグラム画像に基づいて、リアルタイムに表示される画面上の目的物の位置から当該目的物の3次元座標位置を算出して検出する3次元座標位置検出手段と
     を備えることを特徴とする医療用X線装置。
  2.  検出されたX線に基づいて透視画像をリアルタイムに表示して診断・治療を行う医療用X線装置であって、
     局所的な関心領域を設定する関心領域設定手段と、
     (1)その関心領域設定手段で設定された前記関心領域において、前記透視画像における投影方向での、X線に基づいて予め得られた3次元画像に基づく立体視画像を、前記透視画像のシフトに合わせてシフトする、もしくは(2)その関心領域設定手段で設定された前記関心領域において、前記透視画像における投影方向での、X線に基づいて予め得られた3次元画像に基づく立体視画像を固定し、その固定された立体視画像の位置に合わせて前記透視画像をシフトする画像シフト手段と、
     前記関心領域において、(1)前記透視画像と前記画像シフト手段によりシフトされた前記立体視画像とを重ね合わせて重畳処理する、もしくは(2)前記立体視画像と前記画像シフト手段によりシフトされた前記透視画像とを重ね合わせて重畳処理する重畳処理手段と、
     その重畳処理手段で重畳処理された画像をリアルタイムに表示する表示手段と、
     前記関心領域における前記3次元画像および前記透視画像に基づいて、リアルタイムに表示される画面上の目的物の位置から当該目的物の3次元座標位置を算出して検出する3次元座標位置検出手段と
     を備えることを特徴とする医療用X線装置。
  3.  請求項2に記載の医療用X線装置において、
     リアルタイムに表示される前記3次元座標位置が前記関心領域から外れるときに、当該3次元座標位置が収まるように関心領域を再設定する関心領域再設定手段を備え、
     その関心領域再設定手段で再設定された関心領域で、前記画像シフト手段,前記重畳処理手段,前記表示手段および前記3次元座標位置検出手段は繰り返し行うことを特徴とする医療用X線装置。
  4.  請求項2または請求項3に記載の医療用X線装置において、
     投影方向に視差を互いにつけた2つの透視画像からなるステレオグラム画像を作成するステレオグラム画像作成手段と、
     前記3次元画像において、前記ステレオグラム画像作成手段により作成された前記ステレオグラム画像における各々の投影方向での前記3次元画像に基づく立体視画像をそれぞれ作成する立体視画像作成手段と
     を備え、
     前記画像シフト手段は、(1)前記関心領域において、前記立体視画像作成手段でそれぞれ作成された前記立体視画像を、前記ステレオグラム画像のシフトに合わせてシフトする、もしくは(2)前記関心領域において、前記立体視画像作成手段でそれぞれ作成された前記立体視画像を固定し、その固定された立体視画像の位置に合わせて前記ステレオグラム画像をシフトし、
     前記重畳処理手段は、前記関心領域において、(1)前記ステレオグラム画像と前記画像シフト手段によりシフトされた前記立体視画像とを各々の投影方向ごとに重ね合わせて重畳処理する、もしくは(2)前記立体視画像と前記画像シフト手段によりシフトされた前記ステレオグラム画像とを各々の投影方向ごとに重ね合わせて重畳処理し、
     前記表示手段は、前記重畳処理手段で重畳処理された画像をリアルタイムに表示し、
     前記3次元座標位置検出手段は、前記関心領域における前記3次元画像および前記ステレオグラム画像に基づいて前記3次元座標位置を算出して検出する
     ことを特徴とする医療用X線装置。
  5.  請求項1または請求項4に記載の医療用X線装置において、
     前記ステレオグラム画像作成手段は、前記投影方向に視差を互いにつけたリアルタイムでの透視によりそれぞれ得られ、かつ当該視差を互いにつけた2つの透視画像からなる前記ステレオグラム画像を作成することを特徴とする医療用X線装置。
  6.  請求項1または請求項4に記載の医療用X線装置において、
     前記ステレオグラム画像作成手段は、前記3次元画像に基づいて、リアルタイムでの透視により得られた1つの元の透視画像から、当該元の透視画像と当該元の透視画像の投影方向に視差をつけた透視画像とからなる前記ステレオグラム画像を作成することを特徴とする医療用X線装置。
  7.  請求項1から請求項6のいずれかに記載の医療用X線装置において、
     前記3次元座標位置検出手段は、診断・治療の対象となる被検体の体内に挿入される挿入部材の先端部分の位置を前記3次元座標位置として検出することを特徴とする医療用X線装置。
  8.  請求項7に記載の医療用X線装置において、
     前記挿入部材は、内視鏡,線源挿入用アプリケータ,模擬線源あるいはカテーテルワイヤであることを特徴とする医療用X線装置。
PCT/JP2012/002198 2012-03-29 2012-03-29 医療用x線装置 WO2013145010A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2012/002198 WO2013145010A1 (ja) 2012-03-29 2012-03-29 医療用x線装置
US14/388,137 US20150042643A1 (en) 2012-03-29 2012-03-29 Medical x-ray apparatus
CN201280072095.7A CN104244831B (zh) 2012-03-29 2012-03-29 医疗用x射线装置
JP2014507002A JP5787030B2 (ja) 2012-03-29 2012-03-29 医療用x線装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/002198 WO2013145010A1 (ja) 2012-03-29 2012-03-29 医療用x線装置

Publications (1)

Publication Number Publication Date
WO2013145010A1 true WO2013145010A1 (ja) 2013-10-03

Family

ID=49258383

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/002198 WO2013145010A1 (ja) 2012-03-29 2012-03-29 医療用x線装置

Country Status (4)

Country Link
US (1) US20150042643A1 (ja)
JP (1) JP5787030B2 (ja)
CN (1) CN104244831B (ja)
WO (1) WO2013145010A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130911A (ja) * 2014-01-09 2015-07-23 パナソニックヘルスケアホールディングス株式会社 手術支援装置および手術支援プログラム
CN104799882A (zh) * 2014-01-28 2015-07-29 三星麦迪森株式会社 用于显示与感兴趣区域相应的超声图像的方法和超声设备
WO2015150415A1 (de) * 2014-03-31 2015-10-08 IDTM GmbH Operationstisch
JP2017526399A (ja) * 2014-07-02 2017-09-14 コヴィディエン リミテッド パートナーシップ 実時間自動位置合わせフィードバック
JP2019063404A (ja) * 2017-10-04 2019-04-25 株式会社島津製作所 診断画像システム
JP2020512124A (ja) * 2017-03-29 2020-04-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線ロードマップ中の血管造影パニング
JP2020156826A (ja) * 2019-03-27 2020-10-01 富士フイルム株式会社 位置情報表示装置、方法およびプログラム、並びに放射線画像撮影装置
JP7513980B2 (ja) 2020-08-04 2024-07-10 東芝エネルギーシステムズ株式会社 医用画像処理装置、治療システム、医用画像処理方法、およびプログラム

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE537421C2 (sv) * 2012-09-05 2015-04-21 Scanflex Healthcare AB Röntgenanordning med platta detektorer
CN104887316A (zh) * 2015-04-24 2015-09-09 长春理工大学 基于主动立体显示技术的虚拟立体内窥镜显示方法
JP6667231B2 (ja) * 2015-08-31 2020-03-18 キヤノン株式会社 情報処理装置、画像処理装置、情報処理システム、情報処理方法、及びプログラム。
US11172895B2 (en) 2015-12-07 2021-11-16 Covidien Lp Visualization, navigation, and planning with electromagnetic navigation bronchoscopy and cone beam computed tomography integrated
US11051886B2 (en) * 2016-09-27 2021-07-06 Covidien Lp Systems and methods for performing a surgical navigation procedure
WO2018179991A1 (ja) * 2017-03-30 2018-10-04 富士フイルム株式会社 内視鏡システム及びその作動方法
JP6806655B2 (ja) 2017-10-10 2021-01-06 株式会社日立製作所 放射線撮像装置、画像データ処理装置及び画像処理プログラム
USD910652S1 (en) * 2019-01-31 2021-02-16 OrthoGrid Systems, Inc Display screen or portion thereof with a graphical user interface
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
USD979578S1 (en) 2021-02-08 2023-02-28 Orthogrid Systems Holdings, Llc Display screen or portion thereof with a graphical user interface
US11633168B2 (en) * 2021-04-02 2023-04-25 AIX Scan, Inc. Fast 3D radiography with multiple pulsed X-ray sources by deflecting tube electron beam using electro-magnetic field

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1057365A (ja) * 1996-05-21 1998-03-03 Philips Electron Nv X線画像化方法
JP2003038477A (ja) * 2001-07-31 2003-02-12 Shimadzu Corp X線撮影装置
JP2003290192A (ja) * 2002-03-11 2003-10-14 Siemens Ag 患者の検査領域に導入された医療器具の画像描出方法
JP2011206167A (ja) * 2010-03-29 2011-10-20 Fujifilm Corp 3次元医用画像に基づいて立体視用画像を生成する装置および方法、並びにプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7035371B2 (en) * 2004-03-22 2006-04-25 Siemens Aktiengesellschaft Method and device for medical imaging
EP1802235A1 (en) * 2004-10-11 2007-07-04 Philips Intellectual Property & Standards GmbH Imaging system for the generation of high-quality x-ray projections
DE102005007893B4 (de) * 2005-02-21 2007-05-10 Siemens Ag Verfahren zur Positionsbestimmung eines Instrumentes mit einem Röntgensystem
US20070236514A1 (en) * 2006-03-29 2007-10-11 Bracco Imaging Spa Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation
JP5595745B2 (ja) * 2010-01-06 2014-09-24 株式会社東芝 X線透視装置
JP2012055549A (ja) * 2010-09-10 2012-03-22 Fujifilm Corp バイオプシ用ファントム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1057365A (ja) * 1996-05-21 1998-03-03 Philips Electron Nv X線画像化方法
JP2003038477A (ja) * 2001-07-31 2003-02-12 Shimadzu Corp X線撮影装置
JP2003290192A (ja) * 2002-03-11 2003-10-14 Siemens Ag 患者の検査領域に導入された医療器具の画像描出方法
JP2011206167A (ja) * 2010-03-29 2011-10-20 Fujifilm Corp 3次元医用画像に基づいて立体視用画像を生成する装置および方法、並びにプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130911A (ja) * 2014-01-09 2015-07-23 パナソニックヘルスケアホールディングス株式会社 手術支援装置および手術支援プログラム
CN104799882A (zh) * 2014-01-28 2015-07-29 三星麦迪森株式会社 用于显示与感兴趣区域相应的超声图像的方法和超声设备
CN104799882B (zh) * 2014-01-28 2019-04-19 三星麦迪森株式会社 用于显示与感兴趣区域相应的超声图像的方法和超声设备
WO2015150415A1 (de) * 2014-03-31 2015-10-08 IDTM GmbH Operationstisch
US10772532B2 (en) 2014-07-02 2020-09-15 Covidien Lp Real-time automatic registration feedback
JP2017526399A (ja) * 2014-07-02 2017-09-14 コヴィディエン リミテッド パートナーシップ 実時間自動位置合わせフィードバック
US11583205B2 (en) 2014-07-02 2023-02-21 Covidien Lp Real-time automatic registration feedback
JP2020512124A (ja) * 2017-03-29 2020-04-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. X線ロードマップ中の血管造影パニング
JP7118086B2 (ja) 2017-03-29 2022-08-15 コーニンクレッカ フィリップス エヌ ヴェ X線ロードマップ中の血管造影パニング
JP2019063404A (ja) * 2017-10-04 2019-04-25 株式会社島津製作所 診断画像システム
JP2020156826A (ja) * 2019-03-27 2020-10-01 富士フイルム株式会社 位置情報表示装置、方法およびプログラム、並びに放射線画像撮影装置
US11436697B2 (en) 2019-03-27 2022-09-06 Fujifilm Corporation Positional information display device, positional information display method, positional information display program, and radiography apparatus
JP7190950B2 (ja) 2019-03-27 2022-12-16 富士フイルム株式会社 位置情報表示装置、方法およびプログラム、並びに放射線画像撮影装置
JP7513980B2 (ja) 2020-08-04 2024-07-10 東芝エネルギーシステムズ株式会社 医用画像処理装置、治療システム、医用画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JPWO2013145010A1 (ja) 2015-08-03
JP5787030B2 (ja) 2015-09-30
US20150042643A1 (en) 2015-02-12
CN104244831B (zh) 2016-10-19
CN104244831A (zh) 2014-12-24

Similar Documents

Publication Publication Date Title
JP5787030B2 (ja) 医療用x線装置
JP5319188B2 (ja) X線診断装置
US10524865B2 (en) Combination of 3D ultrasound and computed tomography for guidance in interventional medical procedures
JP5597399B2 (ja) 医用画像診断装置
WO2017145155A1 (en) A method and system for displaying holographic images within a real object
CN110123449B (zh) 使用标准荧光镜进行局部三维体积重建的***和方法
US20120289825A1 (en) Fluoroscopy-based surgical device tracking method and system
JP2005270652A (ja) インターベンションまたは外科手術時の画像形成方法および装置
CA2939099C (en) Marker placement
WO2013016286A2 (en) System and method for automatically determining calibration parameters of a fluoroscope
TW201919544A (zh) 用於極低劑量電腦斷層螢光攝影之系統及方法
US20230135733A1 (en) Navigating bronchial pathways
JP5405010B2 (ja) 画像表示装置及び画像表示方法
JP5498181B2 (ja) 医用画像収集装置
JP6878028B2 (ja) 医用画像診断システム及び複合現実画像生成装置
JP5458207B2 (ja) 画像表示装置及び画像表示方法
JP5269233B2 (ja) X線診断装置
JP2013022411A (ja) 医療用x線装置
JP6056569B2 (ja) 放射線撮影装置
US11813094B2 (en) System and method for imaging
US12023187B2 (en) System and method for imaging
JP6179394B2 (ja) 放射線撮影装置
US20220079536A1 (en) System and method for imaging
JPWO2021122344A5 (ja)
KR20170030688A (ko) 의료영상을 사용하는 중재시술 가이드 방법 및 이를 위한 중재시술 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12872822

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014507002

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14388137

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12872822

Country of ref document: EP

Kind code of ref document: A1