WO2014084381A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2014084381A1
WO2014084381A1 PCT/JP2013/082276 JP2013082276W WO2014084381A1 WO 2014084381 A1 WO2014084381 A1 WO 2014084381A1 JP 2013082276 W JP2013082276 W JP 2013082276W WO 2014084381 A1 WO2014084381 A1 WO 2014084381A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
image
processing unit
difference
contrast
Prior art date
Application number
PCT/JP2013/082276
Other languages
English (en)
French (fr)
Inventor
大石 悟
Original Assignee
株式会社 東芝
東芝メディカルシステムズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社 東芝, 東芝メディカルシステムズ株式会社 filed Critical 株式会社 東芝
Publication of WO2014084381A1 publication Critical patent/WO2014084381A1/ja
Priority to US14/726,965 priority Critical patent/US9460500B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/504Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of blood vessels, e.g. by angiography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • Embodiments described herein relate generally to an image processing apparatus and an image processing method.
  • CBV Cerebral Blood Volume
  • a modality such as an X-ray CT apparatus or an Angio apparatus (X-ray imaging apparatus).
  • CBV is calculated based on a profile of CT values obtained while continuously scanning.
  • a non-contrast image acquired before the contrast agent is injected and a contrast image acquired after the contrast agent is injected are used. Specifically, from the difference between the non-contrast image and the contrast image, a non-blood vessel region such as bone or air is excluded, and a blood vessel image including capillary blood vessels is generated. The generated image is displayed as a color map, for example.
  • This method is used to determine the result of a procedure, treatment or treatment of a subject.
  • the blood flow velocity or the like may change depending on the psychological state or physical condition of the subject receiving the procedure.
  • the predetermined event such as a procedure
  • the CBV is calculated based on the inspection result after performing a predetermined procedure, whether or not the portion appearing in the image or the like as a result of the measurement has occurred after the procedure is viewed by the image viewer May not be determined. In such a case, for example, an affected part that has already occurred before the procedure may be mistaken for a newly generated affected part.
  • An object of the embodiment of the present invention is to provide a medical image processing apparatus and an image processing method capable of displaying a newly-exposed affected part at an observation site in a distinguishable manner after a predetermined event.
  • This embodiment is an image processing apparatus including a difference data generation unit, an analysis processing unit, an alignment processing unit, an image processing unit, a display unit, and a display control unit.
  • the difference data generation unit generates, as second image data, a difference between the first image data before contrast acquisition and the first image data after contrast acquired by imaging the subject at different times.
  • the analysis processing unit generates third image data by removing information indicating the structure from the plurality of second image data according to time.
  • the alignment processing unit performs alignment between the plurality of third image data at different timings based on the shape feature of the subject represented as an image in at least one of the first to third image data.
  • the image processing unit obtains a change index between the plurality of aligned third image data, and generates fourth image data based on the change index.
  • the display control unit causes the display unit to display a medical image based on the fourth image data.
  • an image processing apparatus 100 includes a projection data storage unit 10, a reconstruction processing unit 11, an analysis processing unit 12, an image data storage unit 20, and an alignment processing unit 21.
  • the image processing apparatus 100 receives projection data before contrast and projection data after contrast acquired by the imaging unit 500.
  • the image processing apparatus 100 generates image data based on the projection data.
  • the imaging unit 500 is a predetermined modality such as an X-ray CT apparatus or an Angio apparatus (X-ray diagnostic apparatus).
  • the image data is volume data, for example.
  • the projection data storage unit 10 receives projection data acquired at different times in the photographing unit 500.
  • This projection data includes, for example, data acquired before a predetermined event (procedure, therapy, or treatment for a subject) and data acquired after a predetermined event.
  • the projection data is divided into projection data D11a, D12a,... Before contrast and projection data D11b, D12b,.
  • the projection data storage unit 10 stores these projection data in association with the examination for the acquisition, before and after the contrast, and the acquired time. In the following description, it is assumed that the projection data acquired before the predetermined event and the projection data acquired after the predetermined event are acquired by different inspections.
  • the projection data D11a and the projection data D11b will be described as indicating projection data before and after contrast obtained in the same examination before a predetermined event. Further, the projection data D12a and the projection data D12b will be described as indicating the pre-contrast and post-contrast projection data acquired in the same examination after a predetermined event. In the following description, a “procedure” will be described on behalf of a predetermined event. Therefore, in the following description, when “procedure” is described, it is assumed that either a treatment or a predetermined treatment for a subject is included in addition to the procedure.
  • the reconfiguration processing unit 11 includes a difference data generation unit 111.
  • the operation of the reconstruction processing unit 11 will be described first, and then the operation of the difference data generation unit 111 will be described.
  • the reconstruction processing unit 11 reads from the projection data storage unit 10 the projection data distinguished according to the examination for acquisition, before and after contrast enhancement, and the acquired time for each distinction. As an example, a case where projection data D11a before contrast and projection data D11b after contrast acquired before the procedure is read will be described.
  • the reconstruction processing unit 11 performs reconstruction processing on the projection data D11a before contrast and the projection data D11b after contrast. Specifically, the reconstruction processing unit 11 generates image data (tomographic image data or volume data) by back projecting the read projection data using a reconstruction algorithm such as the Feldkamp method.
  • the reconstruction processing unit 11 reconstructs the volume data by an arbitrary method such as a three-dimensional Fourier transform method or a convolution / back projection method, or a cone beam reconstruction method, a multi-slice reconstruction method, or a successive approximation reconstruction method. Configuration is possible.
  • image data reconstructed based on projection data before contrast for example, projection data D11a, D12a, etc
  • image data reconstructed based on projection data after contrast for example, projection data D11b, D12b, etc.
  • image data after contrast for example, projection data D11b, D12b, etc.
  • the image data before contrast and the image data after contrast correspond to an example of “first image data”.
  • the reconstruction processing unit 11 performs reconstruction processing on the read projection data D11a and projection data D11b based on a predetermined reconstruction condition, and before the procedure, before contrast enhancement. Image data D21a and post-contrast image data D21b are generated. Similarly, when the reconstruction processing unit 11 reads out the projection data D12a and the projection data D12b acquired after the procedure, the reconstruction processing unit 11 performs a reconstruction process on the projection data D12a and the projection data D12a after the procedure, The subsequent image data D22b is generated.
  • the reconstruction processing unit 11 may perform the above-described processing related to the reconstruction based on an instruction from the operator. In this case, the reconstruction processing unit 11 receives the designation of the target examination from the operator, reads the projection data corresponding to the designated examination, and reconstructs it.
  • the reconstruction processing unit 11 stores the pre-contrast image data D21a generated before the procedure and the post-contrast image data D21b in the image data storage unit 20 in association with each other. Further, the reconstruction processing unit 11 outputs the pre-contrast image data D21a and the post-contrast image data D21b to the difference data generation unit 111. The difference data generation unit 111 generates a difference between these image data.
  • the difference data generation unit 111 generates image data indicating a difference between image data before contrasting and image data after contrasting for each examination (for example, before and after the procedure).
  • image data indicating this difference may be referred to as “difference image data”.
  • the reconstruction processing unit 11 obtains a difference between the pre-contrast image data D21a and the post-contrast image data D21b before the procedure, and first difference image data indicating these differences. D21 is generated. Further, the reconstruction processing unit 11 obtains a difference between the pre-contrast image data D22a and the post-contrast image data D22b after the procedure, and generates first difference image data D22 indicating these differences.
  • the difference data generation unit 111 obtains a difference between the projection data D11a before contrast and the projection data D11b after contrast. Further, the reconstruction processing unit 11 reconstructs projection data indicating the difference. Difference image data is generated by this reconstruction processing. In this case, the difference image data after the procedure is generated in the same procedure. Note that the difference image data generated by any of the above methods corresponds to an example of “second image data”.
  • the difference data generation unit 111 outputs one or a combination of the first difference image data D21 before the procedure, the image data D21a before the contrast, and the image data D21b after the contrast to the analysis processing unit 12. Similarly, one or a combination of the first differential image data D22 after the procedure, the pre-contrast image data D22a, and the post-contrast image data D22b is output to the analysis processing unit 12.
  • the difference data generation unit 111 outputs the first difference image data D21 before the procedure and the image data D21a before the contrast to the analysis processing unit 12, and the first difference after the procedure. The description will be made assuming that the image data D22 and the pre-contrast image data D22a are output to the analysis processing unit 12.
  • the analysis processing unit 12 receives the first difference image data D21 and the pre-contrast image data D21a from the difference data generation unit 111. As shown in FIG. 2, the analysis processing unit 12 identifies a region where blood flow does not exist from the pre-contrast image data D ⁇ b> 21 a by techniques such as voxel value analysis and segmentation.
  • the region where there is no blood flow is, for example, a region corresponding to air or a region corresponding to a bone where there is no normal blood flow.
  • the specified region may be referred to as a “region indicating a structure”. Further, if the region indicating the structure can be specified, the image data to be analyzed is not necessarily limited to the image data D21a before contrast. For example, post-contrast image data D21b may be used.
  • the analysis processing unit 12 sets the value of the voxel data corresponding to the region indicating the structure among the voxel data in the first difference image data D21 to 0.
  • the expression “voxel data” in the description of the present embodiment includes the value. May be described.
  • the analysis processing unit 12 removes the region indicating the structure specified in the first difference image data D21.
  • the difference image data from which the region indicating the structure is removed corresponds to an example of “third image data”.
  • the analysis processing unit 12 normalizes the value of the difference image data from which the region indicating the structure is removed based on the value of the voxel data corresponding to the artery region among the voxel data in the first difference image data D21. Also good. In this case, the normalized difference image data corresponds to an example of “third image data”.
  • the analysis processing unit 12 processes the voxel values in the first difference image data D21, so that the first difference image data D21 is relatively emphasized so that a fine blood vessel portion such as a capillary vessel is relatively emphasized. May be processed. In other words, this blood vessel portion can be described as a portion to be observed and a portion where blood flow exists. As a specific example, the analysis processing unit 12 sets a region indicating an artery (non-fine blood vessel) in the first difference image data D21, that is, a portion having a high value of voxel data to 0. Thereby, the analysis processing unit 12 removes the region indicating the artery from the first difference image data D21.
  • the analysis processing unit 12 causes the image data storage unit 20 to store the first difference image data D21 from which the region indicating the structure has been removed.
  • the first difference image data D21 may be data that has been subjected to normalization and processing. Further, the analysis processing unit 12 associates the first differential image data D21 with the pre-contrast image data D21a and post-contrast image data D21b, which are the basis of the first differential image data D21, and stores image data. It may be stored in the unit 20.
  • the analysis processing unit 12 performs the same process as the process applied to the first difference image data D21 on the first difference image data D22 created based on the projection data and the like after the procedure.
  • the alignment processing unit 21 uses difference image data (D21, D22) corresponding to before and after the procedure as comparison targets and projection data (D11a, D12a,...) Before contrast corresponding to the difference image data. read out.
  • the alignment processing unit 21 has read the first difference image data D21 and the first difference image data D22, and the corresponding image data D21a and image data D22a before contrast corresponding thereto.
  • the first difference image data D21 and the pre-contrast image data D21a indicate image data corresponding to the examination before the predetermined procedure is performed
  • the image data D22a indicates image data corresponding to the examination after this procedure is performed.
  • the alignment processing unit 21 extracts a structure that is represented as an image in each of the pre-contrast image data D21a and image data D22a and does not change its shape even when the subject moves.
  • the structure whose shape does not change is, for example, a bone.
  • Such a structure is extracted as an object based on, for example, evaluation of voxel data (for example, threshold processing).
  • the alignment processing unit 21 aligns the pre-contrast image data D21a and the image data D22a based on the shape feature of the structure extracted as an object.
  • the alignment processing unit 21 Based on the information indicating the position and orientation of the pre-contrast image data D21a and the image data D22a that have been aligned, the alignment processing unit 21 corresponds to the first difference image data D21 and the first The position and orientation of the difference image data D22 are adjusted. Thereby, alignment of the 1st difference image data D21 and D22 is performed.
  • This alignment means matching the unique relative coordinates in the first difference image data D21 and the unique relative coordinates in the first difference image data D22 based on the region of interest in the subject.
  • the alignment processing unit 21 outputs the first difference image data D21 and the first difference image data D22 that have been aligned, that is, adjusted in position and orientation, to the image processing unit 22.
  • the image processing unit 22 receives, from the alignment processing unit 21, the first difference image data D21 and the first difference image data D22 that have been aligned. Upon receiving these image data, the image processing unit 22 corrects (standardizes) the voxel data of one or both of the first difference image data D21 and the first difference image data D22. This correction processing is performed as follows, for example. That is, the image processing unit 22 has the same position (anatomically the same position) between the first difference image data D21 and the first difference image data D22 in the same part of the subject indicated by these image data. The predetermined voxels are corrected so that their voxel values match (show the same value).
  • the region used as a reference for correcting the voxel data may be a region corresponding to a part (that is, an anatomical position) that is not affected by treatment or the like.
  • An area serving as a reference for the correction may be designated by an operator (such as a doctor) via an operation unit (not shown), for example.
  • the image processing unit 22 calculates a correction coefficient such that the value of the voxel data in the designated area is the same for each difference image data.
  • the image processing unit 22 corrects, for example, voxel values relating to all voxels of the difference image data based on the correction coefficient.
  • the image processing unit 22 sets the first difference image data D21 and the first difference image data D22, or the pre-contrast image data D21a and D22a corresponding to these positions to be set anatomically the same. You may specify to the group. For example, the image processing unit 22 may perform this specification based on a technique such as segmentation or a comparison of shape characteristics.
  • the correction coefficient corresponds to an example of “correction factor”.
  • the image processing unit 22 makes one or both of the first difference image data D21 and the first difference image data D22 so that the voxel value data of voxels at the same position (region) match.
  • the voxel data of the image data is corrected. This correction is performed in order to generate second difference image data D31, which will be described later, which is obtained from the difference between the corrected first difference image data D21 and the first difference image data D22.
  • the second difference image data D31 corresponds to an example of “fourth image data”. Specifically, when the second difference image data D31 is generated, if a part that is not affected by a technique or treatment (a part that is not of interest) is removed, an image related to the part that has received the technique or the like.
  • the difference between the first difference image data D21 and the first difference image data D22 corresponds to an example of “change index”.
  • the image processing unit 22 may automatically obtain correction coefficients over a wide range as much as possible.
  • the affected area such as treatment is often a limited area.
  • the image processing unit 22 statistically obtains a correction coefficient common to many regions in the image data that are not affected by the treatment. Further, the image processing unit 22 applies these correction coefficients to obtain the second difference image data D31 (fourth image) subtracted between the first difference image data D21 and the first difference image data D22. Data).
  • the second difference image data D31 fourth image subtracted between the first difference image data D21 and the first difference image data D22. Data
  • the image processing unit 22 has voxel data or a small region at the same position (anatomically the same position) for each voxel between the first difference image data D21 and the first difference image data D22.
  • the correction coefficient is calculated so as to match (show the same value).
  • the image processing unit 22 calculates the correction coefficient so that the voxel data or the small region at the same position matches each small region formed of a plurality of voxel groups. As the voxel value at this time, an average value for each small region is used.
  • the image processing unit 22 creates a histogram of the calculated correction coefficients and determines the correction coefficient for obtaining the mode value.
  • the determined correction coefficient is uniformly applied to each region.
  • the image processing unit 22 corrects the first difference image data D21 and the first difference image data D22. As a result, the two images have the same position (anatomically the same position).
  • the correction coefficient is identified so that the volume H in which the voxel data or the small area matches is the largest. For this purpose, ⁇ that maximizes the following expression may be derived.
  • the calculation of the automatic correction coefficient is performed on the assumption that the area affected by the procedure / treatment is limited. However, this assumption may not apply. As such a case, it is assumed that the correction coefficient ⁇ is too far from 1.
  • the image processing unit 22 determines whether or not the correction coefficient ⁇ falls within the range of 0.67 to 1.5, for example. When the image processing unit 22 determines that the correction coefficient ⁇ does not fall within the range, the image processing unit 22 notifies (warns) the operator.
  • the notification is performed by means such as displaying a warning message and outputting a warning message by voice. By notification, it is possible to prompt the user to designate a region serving as a reference for correction as described above by an operation. In this configuration, the correction coefficient is obtained based on the designated area.
  • the image processing unit 22 performs the second processing based on the difference between these image data.
  • Difference image data D31 is generated. According to the second difference image data D31 generated in this way, for example, from the examination before the procedure corresponding to the first difference image data D21 to the examination after the procedure corresponding to the first difference image data D22. A part (for example, an affected part) that has changed in between can be shown.
  • the image processing unit 22 generates a medical image by performing image processing on the generated second difference image data D31 based on predetermined image processing conditions. For example, the image processing unit 22 reads out the pre-contrast image data D21a used before and after the procedure or the like used to generate the second difference image data D31. Further, the image processing unit 22 may generate a medical image by superimposing the second difference image data D31 on the pre-contrast image data D21a. For example, the image data D32 in FIG. 2 schematically shows image data obtained by superimposing the second difference image data D31 on the image data D21a before contrast enhancement.
  • a medical image for example, a portion that has changed between an examination corresponding to the first difference image data D21 and an examination corresponding to the first difference image data D22 can be determined as to which part of the subject. Can be identified.
  • the image processing unit 22 reads out the first difference image data D21 before and after the procedure or the like, for example, to generate the second difference image data D31. Furthermore, the image processing unit 22 may generate a medical image by superimposing the second difference image data D31 on the first difference image data D21. In this way, the image processing unit 22 superimposes the images to generate a medical image, so that, for example, an image viewer can have an affected part (for example, an infarction) and blood vessels (for example, infarct) appearing in the second difference image data D31. For example, it is possible to easily recognize the positional relationship with the artery.
  • image data in which a blood vessel portion is emphasized by correction of the voxel data may be used as the first difference image data D21.
  • the image processing unit 22 reads the image data D21b after contrast applied before and after the procedure used to generate the second difference image data D31, for example. Further, the image processing unit 22 may generate a medical image by superimposing the second difference image data D31 on the image data D21b after contrast enhancement. This medical image may be displayed in color. The image processing unit 22 generates a medical image in this manner, so that, for example, an image viewer can compare the blood flow volume of each part in the examination with the part (affected part) changed between examinations. It becomes.
  • the image processing unit 22 outputs the medical image generated as described above to the display control unit 23.
  • the display control unit 23 receives the medical image from the image processing unit 22 and causes the display unit 24 to display the medical image.
  • the image data storage unit 20 only needs to store image data for generating an image to be displayed on the display unit 24. Therefore, the image data D21a, D22a,... Before contrast and the image data D21b, D22b,... Before contrast are not necessarily stored together with the first difference image data D21, D22,. May be.
  • the image data storage unit 20 may store only the first difference image data D21, D22,.
  • FIG. 3 is a flowchart showing a series of operations of the image processing apparatus 100 according to the present embodiment.
  • the description will be made according to the premise set as an example in the image processing apparatus 100.
  • the projection data storage unit 10 includes projection data acquired before and after a predetermined event by the imaging unit 500, that is, projection data D11a, D12a,... Before contrast, and projection data D11b, D12b,. ⁇ ⁇ And remember.
  • the reconstruction processing unit 11 reads from the projection data storage unit 10 the projection data distinguished according to the examination for acquisition, before and after contrast enhancement, and the acquired time for each distinction. For example, the reconstruction processing unit 11 performs reconstruction processing on the projection data D11a before contrast before the procedure and the projection data D11b after contrast.
  • the image data D21a before contrast and the image data D21b after contrast are generated by the reconstruction process.
  • the reconstruction processing unit 11 reads the projection data D12a and D12b after the procedure, the reconstruction processing unit 11 performs reconstruction processing on the projection data D12a and D12b, and generates pre-contrast image data D22a and post-contrast image data D22b.
  • the reconstruction processing unit 11 associates the image data D21a with the image data D21b after contrast, and the image data D22a and the image data D22b and stores them in the image data storage unit 20.
  • Step S12 the difference data generation unit 111 receives the pre-contrast image data and the post-contrast image data output from the reconstruction processing unit 11 in step 11, and obtains a difference between these image data.
  • the difference data generation unit 111 generates, for example, first difference image data D21 indicating a difference between the image data D21a before contrast and the image data D21b after contrast (see FIG. 2). Further, first difference image data D22 indicating a difference between the pre-contrast image data D22a and the post-contrast image data D22b is generated.
  • the difference data generation unit 111 may generate difference image data by obtaining a difference between projection data before and after contrast enhancement and reconstructing the difference.
  • the difference data generation unit 111 outputs the generated first difference image data D21 and at least one of the pre-contrast image data D21a and the post-contrast image data D21b to the analysis processing unit 12. For example, the difference data generation unit 111 outputs the first difference image data D21 and the pre-contrast image data D21a to the analysis processing unit 12. Similarly, the difference data generation unit 111 outputs the first difference image data D22 and the pre-contrast image data D22a to the analysis processing unit 12.
  • the analysis processing unit 12 receives the first difference image data D21 and the pre-contrast image data D21a from the difference data generation unit 111.
  • the analysis processing unit 12 identifies a region where no blood flow exists from the image data D21a before contrast enhancement (see FIG. 2).
  • the image data D21b after contrast may be used.
  • the analysis processing unit 12 sets the value of the voxel data corresponding to the region indicating the structure among the voxel data in the first difference image data D21 to 0. In this way, the analysis processing unit 12 removes the area indicating the structure specified from the first difference image data D21.
  • the analysis processing unit 12 may normalize the value of the difference image data from which the region indicating the structure is removed based on the value of the voxel data corresponding to the artery region among the voxel data in the first difference image data D21. Good.
  • the analysis processing unit 12 relatively emphasizes a fine blood vessel portion such as a capillary vessel by setting a portion having a high voxel value indicating, for example, an artery in the first difference image data D21 to 0. You may let them.
  • the analysis processing unit 12 causes the image data storage unit 20 to store the first difference image data D21 from which the region indicating the structure has been removed.
  • the analysis processing unit 12 performs the same processing on the first difference image data D22.
  • the alignment processing unit 21 receives the first difference image data D21 (before the procedure) and the first difference image data D22 (after the procedure), and the corresponding image data D21a before contrast and image data D22a before contrast corresponding thereto. read out.
  • the alignment processing unit 21 extracts a structure (such as a bone) that is represented as an image in each of the pre-contrast image data D21a and image data D22a and does not change its shape even when the subject moves by threshold processing or the like. .
  • the alignment processing unit 21 aligns the pre-contrast image data D21a and the image data D22a based on the extracted shape feature of the structure. Based on information indicating the positions and orientations of these pre-contrast image data D21a and D22a that have been aligned, the alignment processing unit 21 corresponds to the first difference image data D21 and the first difference image, respectively. The position and orientation of the data D22 are adjusted. Thereby, alignment of the 1st difference image data D21 and D22 is performed.
  • the alignment processing unit 21 outputs the first difference image data D21 and the first difference image data D22 subjected to the alignment to the image processing unit 22.
  • Step S15 The image processing unit 22 receives, from the alignment processing unit 21, the first difference image data D21 and the first difference image data D22 that have been aligned.
  • the image processing unit 22 sets one or both of the image data so that the voxel values at the same position in the same part of the subject match between the first difference image data D21 and the first difference image data D22.
  • the reference region for correcting the voxel data is a region that is not affected by treatment or the like, and is specified by the operator via an operation unit (not shown), for example.
  • the image processing unit 22 calculates a correction coefficient that makes the value of the voxel data in the specified area the same for each difference image data.
  • the image processing unit 22 corrects each voxel of the difference image data with the correction coefficient.
  • the method for automatically obtaining the correction coefficient the first example or the second example described above can be adopted.
  • Step S16 When each voxel in the first difference image data D21 and the first difference image data D22 is corrected, the image processing unit 22 generates the second difference image data D31 by obtaining a difference between these image data. (See FIG. 2).
  • the image processing unit 22 generates a medical image by performing image processing on the generated second difference image data D31 based on a predetermined image processing condition. For example, the image processing unit 22 reads out the pre-contrast image data D21a before and after the procedure used to generate the second difference image data D31. The image processing unit 22 may generate a medical image by superimposing the second difference image data D31 on the pre-contrast image data D21a.
  • the second difference image data D32 in FIG. 2 schematically shows image data generated by superimposing the second difference image data D31 on the image data D21a before contrast.
  • a change occurs between an examination corresponding to the first difference image data D21 (before the procedure) and an examination corresponding to the first difference image data D22 (after the procedure). It is possible for the image viewer to identify which portion of the subject corresponds to the portion that has been processed.
  • the image processing unit 22 may generate a medical image by superimposing the second difference image data D31 on the first difference image data D21.
  • image data in which a blood vessel portion is emphasized by correction of the voxel data may be used.
  • the image processing unit 22 may generate a medical image displayed in color by superimposing the second difference image data D31 on the pre-contrast image data D21b.
  • the image processing unit 22 outputs the medical image generated as described above to the display control unit 23.
  • the display control unit 23 receives the medical image from the image processing unit 22 and causes the display unit 24 to display the medical image.
  • the image processing apparatus 100 generates difference image data indicating the difference between the pre-contrast image data and the post-contrast image data acquired for each examination before and after a predetermined event. To do. Further, the image processing apparatus 100 generates a difference between the difference image data before and after a predetermined event, and causes the display unit 24 to display a medical image based on the difference. According to the configuration of the image processing apparatus 100 according to the present embodiment, it is possible to display an affected part newly generated before and after a predetermined event such as a procedure so that an image viewer can identify the affected part.
  • a predetermined event such as a procedure
  • the second difference is obtained by obtaining the difference between the first difference image data (D21 and D22; an example of “third image data”) before and after the procedure or the like.
  • Difference image data D31 (an example of “fourth image data”) is generated.
  • the present invention is not limited to this configuration, and for example, the following configuration may be used.
  • the image processing unit 22 uses the first difference image data D22 as the first difference image data D22.
  • the difference image data D21 is divided.
  • the following equation is used. Note that PB (x, y, z) in the following equation corresponds to the first difference image data D21 before the procedure.
  • PA (x, y, z) corresponds to the first difference image data D22 after the procedure.
  • the image processing unit 22 generates second difference image data D31 by dividing these image data.
  • the value of PB (x, y, z) in the above formula may be close to “0”, and in that case, the value of PA (x, y, z) may be too large. Therefore, when the value of PB (x, y, z) is close to “0”, the image processing unit 22 adds a predetermined constant to PB (x, y, z), and then the first difference image.
  • the data D22 is divided by the first difference image data D21.
  • the following equation is used. In the following formula, “k” represents the constant.
  • the division result obtained by dividing the first difference image data D22 by the first difference image data D21 corresponds to an example of “change index”.
  • the image processing apparatus 100 generates difference image data indicating the difference between the pre-contrast image data and the post-contrast image data acquired for each examination before and after a predetermined event, as in the above embodiment. To do. Further, the image processing apparatus 100 divides the difference image data after the predetermined event by the difference image data before the predetermined event. The image processing apparatus 100 according to this modification causes the display unit 24 to display a medical image based on this division. Also in the configuration of the image processing apparatus 100 according to the present modification, it is possible to display the affected part newly generated before and after a predetermined event such as a procedure so that the viewer of the image can identify it.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Vascular Medicine (AREA)
  • Pulmonology (AREA)
  • Quality & Reliability (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 所定の事象の後で、観察部位に新たに発生した患部を識別可能に表示させることが可能な医用画像処理装置を提供することを目的とする。画像処理装置の差分データ生成部は、異なる時刻のそれぞれで被検体を撮影して取得された造影前および造影後の第1の画像データの差分を第2の画像データとして生成する。解析処理部は、時刻に応じた複数の第2の画像データから構造物を示す情報を除去することにより、第3の画像データをそれぞれ生成する。位置合わせ処理部は、第1~第3の画像データのいずれかに像として表された被検体の形状特徴に基づき、異なるタイミングにおける複数の第3の画像データ間の位置合わせを行う。画像処理部は、位置合わせされた複数の第3の画像データ間の変化指標を求め、第4の画像データを生成する。表示制御部は、第4の画像データ間に基づく医用画像を表示部に表示させる。

Description

画像処理装置及び画像処理方法
 本発明の実施形態は、画像処理装置及び画像処理方法の技術に関する。
 X線CT装置やAngio装置(X線撮影装置)のようなモダリティを用いてCBV(Cerebral Blood Volume)等の血流量を算出する方法がある。一例において、連続的にスキャンしながら得られたCT値のプロファイルを基にCBVが算出される。他の例において、造影剤が注入される前に取得された非造影画像と、造影剤が注入された後に取得された造影画像とが用いられる。具体的には、この非造影画像と造影画像との差分から、骨やエアーのような非血管領域を除き、毛細血管を含む血管の画像が生成される。生成された画像は例えばカラーマップとして表示される。
 この方法は、手技、治療または被検体に対する処置等の結果を判定するために用いられる。しかしながら、被検体の術前の状態に応じて異なる判断を下すべき場合がある。または手技等を受ける被検体の心理状態や体調などに応じて、血流速度等が変化する場合がある。その場合、手技等、所定の事象の前後で血流量を算出したとしても、その算出結果が、手技等の所定の事象によるものか否かの判断が困難となるおそれがある。例えば、所定の手技を行った後の検査結果に基づきCBVを算出したとしても、その計測の結果として画像等に表れた部分が、その手技の後に発生したものか否かを、画像の閲覧者が判断できない場合がある。このような場合には、例えば、手技の前に既に発生していた患部等を、誤って新たに発生した患部と誤認してしまう可能性がある。
 この発明の実施形態は、所定の事象の後で、観察部位に新たに発生した患部を識別可能に表示させることが可能な医用画像処理装置及び画像処理方法を提供することを目的とする。
 この実施形態は、差分データ生成部と、解析処理部と、位置合わせ処理部と、画像処理部と、表示部と、表示制御部とを備えた画像処理装置である。差分データ生成部は、異なる時刻のそれぞれで被検体を撮影して取得された造影前の第1の画像データと造影後の第1の画像データとの差分を第2の画像データとして生成する。解析処理部は、時刻に応じた複数の第2の画像データから構造物を示す情報を除去することにより、第3の画像データをそれぞれ生成する。位置合わせ処理部は、第1~第3の画像データにおいて少なくともいずれかに像として表された被検体の形状特徴に基づき、異なるタイミングにおける複数の第3の画像データ間の位置合わせを行う。画像処理部は、位置合わせされた複数の第3の画像データ間の変化指標を求め、該変化指標に基づく第4の画像データを生成する。表示制御部は、第4の画像データ間に基づく医用画像を表示部に表示させる。
本実施形態に係る画像処理装置のブロック図である。 本実施形態に係る画像データの生成及び解析に係る処理の概略を説明するための図である。 本実施形態に係る画像処理装置の一連の動作を示したフローチャートである。
 本実施形態に係る画像処理装置の構成について、図1を参照しながら説明する。図1に示すように、本実施形態に係る画像処理装置100は、投影データ記憶部10と、再構成処理部11と、解析処理部12と、画像データ記憶部20と、位置合わせ処理部21と、画像処理部22と、表示制御部23と、表示部24とを含んで構成されている。図1に示すように、本実施形態に係る画像処理装置100は、撮影部500で取得された造影前の投影データ及び造影後の投影データを受ける。また画像処理装置100は、当該投影データを基に、画像データを生成する。撮影部500は、例えばX線CT装置やAngio装置(X線診断装置)のような所定のモダリティである。また画像データは、例えばボリュームデータである。
 投影データ記憶部10は、撮影部500において異なる時刻それぞれで取得された投影データを受ける。この投影データには、例えば所定の事象(手技、治療または被検体に対する処置)の前に取得されたものと、所定の事象の後に取得されたものがある。またそれらの投影データは、造影前の投影データD11a、D12a、・・・と、造影後の投影データD11b、D12b、・・・とに分けられる。投影データ記憶部10は、これらの投影データを、その取得にかかる検査、造影の前後、および当該取得された時刻に対応づけて記憶する。なお、以下において、所定の事象の前に取得された投影データと、所定の事象の後に取得された投影データとは、異なる検査によって取得されたものとして説明する。また、以下において、投影データD11a及び投影データD11bは、所定の事象の前における同一検査で取得された造影前及び造影後の投影データを示すものとして説明する。さらに、投影データD12a及び投影データD12bは、所定の事象の後における同一検査で取得された造影前及び造影後の投影データを示すものとして説明する。また、以下において、所定の事象を代表して、「手技」として説明する。したがって、以下において「手技」と記載されている場合、手技の他、治療および被検体に対する所定の処置のいずれかが含まれているものとする。
 本実施形態に係る再構成処理部11は、差分データ生成部111を備える。ここでは、まず再構成処理部11の動作について説明し、その後、差分データ生成部111の動作について説明する。
 再構成処理部11は、取得にかかる検査、造影の前後および当該取得された時刻によって区別された投影データを、その区別ごとに投影データ記憶部10から読み出す。一例として、手技前に取得された、造影前の投影データD11aと造影後の投影データD11bとが読み出された場合について説明する。再構成処理部11は、造影前の投影データD11a及び造影後の投影データD11bに再構成処理を施す。具体的には、再構成処理部11は、例えば、Feldkamp法等の再構成アルゴリズムを利用して、読出した投影データを逆投影して画像データ(断層画像データやボリュームデータ)を生成する。再構成処理部11は、ボリュームデータを、3次元フーリエ変換法もしくはコンボリューション・バックプロジェクション法等、またはコーンビーム再構成法、マルチスライス再構成法もしくは逐次近似再構成法等、任意の方法により再構成を行うことが可能である。なお、以下において、造影前の投影データ(例えば、投影データD11a、D12a、・・・)に基づき再構成された画像データを、「造影前の画像データ」と記載する場合がある。同様に、造影後の投影データ(例えば、投影データD11b、D12b、・・・)に基づき再構成された画像データを、「造影後の画像データ」と記載する場合がある。なお、これらの造影前の画像データ及び造影後の画像データは、「第1の画像データ」の一例に該当する。
 このようにして、再構成処理部11は、あらかじめ決められた再構成条件に基づき、読み出された投影データD11a及び投影データD11bに対して再構成処理を施して、手技前における、造影前の画像データD21aと造影後の画像データD21bとを生成する。同様に、再構成処理部11は、手技後に取得された、投影データD12a及び投影データD12bを読み出した場合には、これらに再構成処理を施して、手技後にかかる造影前の画像データD22aと造影後の画像データD22bとを生成する。
 なお、再構成処理部11は、上記した再構成に係る処理を、操作者の指示に基づき行ってもよい。この場合、再構成処理部11は、操作者から対象となる検査の指定を受けて、指定された検査に対応する投影データを読み出し、これを再構成する。
 再構成処理部11は、手技前に生成された造影前の画像データD21aと造影後の画像データD21bとを関連付けて画像データ記憶部20に記憶させる。また、再構成処理部11は、この造影前の画像データD21aと造影後の画像データD21bとを差分データ生成部111に出力する。差分データ生成部111は、これらの画像データの差分を生成する。
 次に、図2を参照して、本実施形態に係る画像データの生成及び解析に係る処理を説明する。差分データ生成部111は、検査(例えば手技の前後)ごとに造影前の画像データと造影後の画像データとの差分を示す画像データを生成する。なお以下の説明において、この差分を示す画像データを「差分画像データ」と記載する場合がある。例えば、図2に示すように、再構成処理部11は、手技前における、造影前の画像データD21aと造影後の画像データD21bとの差分を求め、これらの差分を示す第1の差分画像データD21を生成する。さらに再構成処理部11は、手技後における、造影前の画像データD22aと造影後の画像データD22bとの差分を求め、これらの差分を示す第1の差分画像データD22を生成する。
 なお、上記において、差分データ生成部111が再構成された画像データを基に差分画像データを生成する例について説明した。しかしながら、本実施形態はこの構成に限られない。例えば、差分データ生成部111は、造影前の投影データD11a及び造影後の投影データD11bの差分を求める。さらに再構成処理部11が、差分を示す投影データを再構成する。この再構成処理により差分画像データが生成される。この場合、手技後における差分画像データも同様の手順で生成される。なお、上記のいずれかの方法により生成された差分画像データは、「第2の画像データ」の一例に該当する。
 差分データ生成部111は、手技前の第1の差分画像データD21ならびに、造影前の画像データD21a及び造影後の画像データD21bのうち、1つまたはその組み合わせを解析処理部12に出力する。同様に手技後の第1の差分画像データD22ならびに、造影前の画像データD22a及び造影後の画像データD22bのうち、1つまたはその組み合わせを解析処理部12に出力する。以下の説明において、差分データ生成部111は、手技前にかかる第1の差分画像データD21と造影前の画像データD21aとを解析処理部12に出力したものとして、また手技後にかかる第1の差分画像データD22と造影前の画像データD22aとを解析処理部12に出力したものとして説明する。
 解析処理部12は、差分データ生成部111から第1の差分画像データD21と造影前の画像データD21aとを受ける。解析処理部12は、図2に示すように、造影前の画像データD21aから、ボクセル値の解析やセグメンテーション等の技術により血流が存在しない領域を特定する。血流が存在しない領域とは、例えばエアーに対応する領域や、通常血流が存在しない骨に対応する領域である。なお、以下の説明において、この特定された領域を「構造物を示す領域」と記載する場合がある。また、構造物を示す領域を特定可能であれば、解析対象となる画像データは、必ずしも造影前の画像データD21aに限られない。例えば、造影後の画像データD21bが用いられてもよい。
 解析処理部12は、第1の差分画像データD21におけるボクセルデータのうち、構造物を示す領域に対応するボクセルデータの値を0に設定する。なお本実施形態の記載における「ボクセルデータ」の表現にはその値を含んでいるが、説明上、特に数値を強調するときや他の処理の根拠にするとき等において「ボクセルデータの値」と記載する場合がある。このようにして、解析処理部12は、第1の差分画像データD21において特定された、構造物を示す領域を除去する。なお、構造物を示す領域が除去された差分画像データは、「第3の画像データ」の一例に該当する。
 なお解析処理部12は、第1の差分画像データD21におけるボクセルデータのうち、動脈領域に対応するボクセルデータの値を元に構造物を示す領域が除去された差分画像データの値を正規化してもよい。なお、この場合、正規化された差分画像データが、「第3の画像データ」の一例に該当する。
 なお、解析処理部12は、第1の差分画像データD21におけるボクセル値を加工することで、毛細血管のような微細な血管の部分が相対的に強調されるように第1の差分画像データD21を加工してもよい。この血管の部分について換言すれば、観察対象となる部分であって血流の存在する部分と説明できる。具体例として、解析処理部12は、第1の差分画像データD21において、動脈(微細でない血管)を示す領域、すなわちボクセルデータの値が高い部分を0に設定する。これにより、解析処理部12は第1の差分画像データD21から動脈を示す領域を除去する。
 解析処理部12は、構造物を示す領域が除去された第1の差分画像データD21を画像データ記憶部20に記憶させる。なお第1の差分画像データD21は、正規化や加工処理が施されたデータであってもよい。また、解析処理部12は、第1の差分画像データD21を、第1の差分画像データD21の基となった、造影前の画像データD21a及び造影後の画像データD21bと関連付けて、画像データ記憶部20に記憶させてもよい。
 解析処理部12は、第1の差分画像データD21に適用した処理と同じ処理を、手技後にかかる投影データ等に基づいて作成された第1の差分画像データD22に施す。
 位置合わせ処理部21は、比較対象として手技の前後それぞれに対応する差分画像データ(D21,D22)と、その差分画像データに対応する造影前の投影データ(D11a、D12a、・・・)とを読み出す。以下の説明において、位置合わせ処理部21は、第1の差分画像データD21及び第1の差分画像データD22と、これらに対応する造影前の画像データD21a及び画像データD22aを読み出したものとする。また、第1の差分画像データD21及び造影前の画像データD21aは、上述の通り、所定の手技が行われる前の検査に対応する画像データを示し、第1の差分画像データD22及び造影前の画像データD22aは、この手技が行われた後の検査に対応する画像データを示す。
 位置合わせ処理部21は、造影前の画像データD21a及び画像データD22aのそれぞれに像として表された、被検体が動いても形状が変化しない構造物を抽出する。この形状が変化しない構造物とは、例えば骨等である。このような構造物は、例えば、ボクセルデータの評価(例えば、閾値処理)に基づきオブジェクトとして抽出される。位置合わせ処理部21は、オブジェクトとして抽出された構造物の形状特徴に基づき、造影前の画像データD21a及び画像データD22aの位置合わせを行う。位置合わせ処理部21は、位置合わせがされた、これらの造影前の画像データD21a及び画像データD22aの位置及び向きを示す情報を基に、それぞれに対応する第1の差分画像データD21及び第1の差分画像データD22の位置及び向きを調整する。これにより、第1の差分画像データD21及びD22の位置合わせが行われる。この位置合わせとは、第1の差分画像データD21における固有の相対座標と、第1の差分画像データD22における固有の相対座標とを、被検体における注目部位に基づいて合わせることを意味する。
 位置合わせ処理部21は、位置合わせが行われた、すなわち位置及び向きが調整された第1の差分画像データD21及び第1の差分画像データD22を画像処理部22に出力する。
 画像処理部22は、位置合わせ処理部21から、位置合わせが行われた第1の差分画像データD21及び第1の差分画像データD22を受ける。これらの画像データを受けると、画像処理部22は、第1の差分画像データD21及び第1の差分画像データD22における一方または双方の画像データのボクセルデータを補正(規格化)する。この補正処理は例えば次のように行われる。すなわち画像処理部22は、第1の差分画像データD21及び第1の差分画像データD22の間で、これらの画像データに示される被検体の同一部位中における同じ位置(解剖学的に同じ位置)のボクセル値が一致する(同じ値を示す)ように、所定のボクセルの補正を行う。
 なお、このボクセルデータを補正するための基準とする領域は、治療などの影響を受けない部位(即ち、解剖学的位置)に対応する領域とするとよい。この補正のための基準となる領域は、例えば、操作部(不図示)を介して操作者(医師等)が指定してもよい。
 また画像処理部22は、それぞれの差分画像データに対して指定された領域のボクセルデータの値が同じになるような補正係数を算出する。画像処理部22は、その補正係数に基づいて、例えば差分画像データの全ボクセルにかかるボクセル値を補正する。また、画像処理部22は、解剖学的に同じと設定する位置を、第1の差分画像データD21及び第1の差分画像データD22、または、これらに対応する造影前の画像データD21a及びD22aを基に特定してもよい。例えば、画像処理部22は、この特定を、セグメンテーション等の技術や形状特徴の比較に基づき行ってもよい。なお、補正係数は、「補正ファクター」の一例に該当する。
 上記のように、画像処理部22が、第1の差分画像データD21及び第1の差分画像データD22の間で、同じ位置(領域)のボクセルのボクセル値データが一致するように、一方または双方の画像データのボクセルデータを補正する。
 この補正は、補正された第1の差分画像データD21と第1の差分画像データD22との差分により求められる、後述の第2の差分画像データD31の生成のために行われる。なお、第2の差分画像データD31は、「第4の画像データ」の一例に該当する。具体的には、第2の差分画像データD31を生成するときに、手技や治療等の影響を受けない部位(関心のない部位)が除去されていると、手技等を受けた部位に係る画像データが相対的に強調されるためである。したがって、上記補正により、治療の影響を受けない部位について、可能な限り差分により除去し、または当該部位が画像において目立たなくなるようにすることができる。なお、上記第1の差分画像データD21と第1の差分画像データD22との差分は、「変化指標」の一例に該当する。
 そこで、画像処理部22は、できるだけ広範囲に亘る補正係数を自動的に求めてもよい。治療などの影響を受ける領域は、限定された領域となることが多い。この前提に基づいて、画像処理部22は、画像データにおける多くの治療の影響を受けない領域について、これらに共通する補正係数を統計的に求める。さらに、画像処理部22は、これらの補正係数を適用して、第1の差分画像データD21及び第1の差分画像データD22の間で差引きした第2の差分画像データD31(第4の画像データ)を求める。その結果、治療などの影響を受けない多くの領域が消えるか目立たなくなり、治療などの影響を受ける領域が相対的に強調される。
 画像処理部22による補正係数の算出にかかる第1の例および第2の例について説明する。第1の例において画像処理部22は、第1の差分画像データD21及び第1の差分画像データD22の間でボクセルごとに、同じ位置(解剖学的に同じ位置)のボクセルデータまたは小領域が一致する(同じ値を示す)ように補正係数を算出する。あるいは第1の例において画像処理部22は、複数のボクセル群からなる小領域ごとに、同じ位置のボクセルデータまたは小領域が一致するように補正係数を算出する。このときのボクセル値としては、小領域ごとの平均値が用いられる。そして、画像処理部22は算出した各補正係数のヒストグラムを作成し、その最頻値を求める補正係数と決定する。決定された補正係数は、各領域に一律に適用される。もう一つの例である第2の例において画像処理部22は、第1の差分画像データD21と第1の差分画像データD22を補正した結果、2つの画像の同じ位置(解剖学的に同じ位置)のボクセルデータあるいは小領域が一致する体積Hが最も多いように補正係数を同定する。これは以下の式を最大にするαを導出すればよい。
Figure JPOXMLDOC01-appb-M000001
 画像処理部22は、演算子Hにおける、小領域i(i=1~N)ごとに、{αD21(x、y、z)-D22(x、y、z)}
の平均値をチェックする。チェックにより、平均値が±Δ(ヒストグラムのBINサイズ)の中に入っていれば一致していると判断され、カウントが1加算される。平均値が±Δ(ヒストグラムのBINサイズ)の中に入っていなければ、カウントされない。この場合の補正係数αは各領域共通の値である。画像処理部22が、この演算を行うことにより、画像間でボクセル値が概ね一致する小領域の数を数えることができる。画像処理部22は、小領域の数が最も多くなるような補正係数αを求めることで補正係数を決定することができる。
 この自動補正係数(補正係数α)の算出は、手技・治療などの影響を受ける領域が限定的である前提のもとで行われる。しかしながら、この前提に当てはまらないこともあり得る。そのような場合として、補正係数αが1からあまりに大きくかけ離れてしまった状態が想定される。そのような状況に対応するため、画像処理部22は、例えば補正係数αが0.67~1.5の範囲に入るか否か判断する。画像処理部22は、補正係数αが当該範囲に入らないと判断したときは、操作者に報知(警告)する。報知は、例えば警告メッセージの表示、警告メッセージの音声出力等の手段により行われる。報知により、上記のような補正の基準となる領域を、操作により指定するように促すことができる。この構成では指定された領域に基づいて補正係数が求められる。
 第1の差分画像データD21及び第1の差分画像データD22における各ボクセルのボクセル値が補正されると、図2に示すように、画像処理部22は、これらの画像データの差分に基づく第2の差分画像データD31を生成する。このようにして生成された第2の差分画像データD31によれば、例えば第1の差分画像データD21に対応する手技前の検査から、第1の差分画像データD22に対応する手技後の検査の間に変化した部分(例えば、患部)を示すことができる。
 画像処理部22は、生成された第2の差分画像データD31に対して、あらかじめ決められた画像処理条件に基づき画像処理を施すことで医用画像を生成する。例えば、画像処理部22は、第2の差分画像データD31を生成するために用いた、手技等の前後にかかる造影前の画像データD21aを読み出す。さらに画像処理部22は、造影前の画像データD21aに第2の差分画像データD31を重畳させて医用画像を生成してもよい。例えば、図2における画像データD32は、造影前の画像データD21aに第2の差分画像データD31を重畳させた画像データを模式的に示している。このようにして医用画像を生成することで、例えば、第1の差分画像データD21に対応する検査から第1の差分画像データD22に対応する検査の間に変化した部分が、被検体におけるどの部分に相当するかを識別することが可能となる。
 また、画像処理部22は、例えば、第2の差分画像データD31を生成するために、手技等の前後にかかる第1の差分画像データD21を読み出す。さらに画像処理部22は、第1の差分画像データD21に第2の差分画像データD31を重畳させて医用画像を生成してもよい。このようにして画像処理部22が画像を重畳させて医用画像を生成することで、例えば、画像の閲覧者に、第2の差分画像データD31に表れた患部(例えば、梗塞)と、血管(例えば、動脈)との位置関係を容易に認識させることが可能となる。なお、このとき、第1の差分画像データD21としては、ボクセルデータの補正により血管の部分が強調された画像データを用いてもよい。
 また、画像処理部22は、例えば、第2の差分画像データD31を生成するために用いた手技等の前後にかかる造影後の画像データD21bを読み出す。さらに画像処理部22は、造影後の画像データD21bに第2の差分画像データD31を重畳させて医用画像を生成してもよい。この医用画像は、カラー表示されてもよい。画像処理部22がこのようにして医用画像を生成することで、例えば、画像の閲覧者に、その検査における各部の血流量と、検査間で変化した部分(患部)とを比較させることが可能となる。
 画像処理部22は、以上のようにして生成された医用画像を表示制御部23に出力する。表示制御部23は、画像処理部22から医用画像を受け、これを表示部24に表示させる。
 なお、画像データ記憶部20には、表示部24へ表示させる画像を生成するための画像データが記憶されていればよい。そのため、必ずしも、第1の差分画像データD21、D22、・・・とあわせて、造影前の画像データD21a、D22a、・・・及び造影後の画像データD21b、D22b、・・・を記憶させなくてもよい。例えば、上記医用画像の生成に差分画像データのみを用いる場合には、画像データ記憶部20には、第1の差分画像データD21、D22、・・・のみを記憶させればよい。
 次に、図3を参照しながら、本実施形態に係る画像処理装置100の一連の動作について説明する。図3は、本実施形態に係る画像処理装置100の一連の動作を示したフローチャートである。なお、この動作説明においては、上記画像処理装置100で一例として設定した前提にしたがって説明する。
 (ステップS11)
 投影データ記憶部10は、撮影部500で所定の事象の前後でそれぞれ取得された投影データ、即ち、造影前の投影データD11a、D12a、・・・と、造影後の投影データD11b、D12b、・・・とを記憶する。
 再構成処理部11は、取得にかかる検査、造影の前後および当該取得された時刻によって区別された投影データを、その区別ごとに投影データ記憶部10から読み出す。再構成処理部11は、例えば手技前の造影前の投影データD11a及び造影後の投影データD11bに再構成処理を施す。
 再構成処理により、造影前の画像データD21aと造影後の画像データD21bとが生成される。再構成処理部11が、手技後の投影データD12a及びD12bを読み出した場合には、これらに再構成処理を施して、造影前の画像データD22aと造影後の画像データD22bとを生成する。
 再構成処理部11は、画像データD21aと造影後の画像データD21b、及び画像データD22aと画像データD22bとを関連付けて画像データ記憶部20に記憶させる。
 (ステップS12)
 また、差分データ生成部111は、ステップ11において再構成処理部11から出力された造影前の画像データと造影後の画像データとを受け、これらの画像データの差分を求める。
 差分データ生成部111は、差分を求めることにより、例えば、造影前の画像データD21aと造影後の画像データD21bとの差分を示す第1の差分画像データD21を生成する(図2参照)。さらに造影前の画像データD22aと造影後の画像データD22bとの差分を示す第1の差分画像データD22を生成する。
 なお、差分データ生成部111は、造影前後の投影データの差分を求めて、これを再構成することで差分画像データを生成してもよい。
 (ステップS13)
 差分データ生成部111は、生成された第1の差分画像データD21と、造影前の画像データD21a及び造影後の画像データD21bのうちの少なくともいずれかを解析処理部12に出力する。例えば、差分データ生成部111は、第1の差分画像データD21と造影前の画像データD21aとを解析処理部12に出力する。同様に差分データ生成部111は、第1の差分画像データD22と造影前の画像データD22aとを解析処理部12に出力する。
 解析処理部12は、差分データ生成部111から第1の差分画像データD21と造影前の画像データD21aとを受ける。解析処理部12は、造影前の画像データD21aから、血流が存在しない領域を特定する(図2参照)。なお、構造物を示す領域が特定可能であれば、造影後の画像データD21bが用いられてもよい。
 解析処理部12は、第1の差分画像データD21におけるボクセルデータのうち、構造物を示す領域に対応するボクセルデータの値を0に設定する。このようにして、解析処理部12は、第1の差分画像データD21から特定された構造物を示す領域を除去する。
 解析処理部12は、第1の差分画像データD21におけるボクセルデータのうち、動脈領域に対応するボクセルデータの値を基に構造物を示す領域が除去された差分画像データの値を正規化してもよい。
 なお、解析処理部12は、第1の差分画像データD21における例えば動脈を示すようなボクセル値が高い部分を0に設定することで、毛細血管のような微細な血管の部分を相対的に強調させてもよい。
 解析処理部12は、構造物を示す領域が除去された第1の差分画像データD21を画像データ記憶部20に記憶させる。解析処理部12は、同様の処理を第1の差分画像データD22に対して施す。
 (ステップS14)
 位置合わせ処理部21は、第1の差分画像データD21(手技前)及び第1の差分画像データD22(手技後)と、これらに対応する造影前の画像データD21a及び造影前の画像データD22aを読み出す。
 位置合わせ処理部21は、造影前の画像データD21a及び画像データD22aのそれぞれに像として表された、被検体が動いても形状が変化しない構造物(骨等)を、閾値処理等により抽出する。位置合わせ処理部21は、抽出された構造物の形状特徴に基づき、造影前の画像データD21a及び画像データD22aの位置合わせを行う。位置合わせ処理部21は、位置合わせがされたこれらの造影前の画像データD21a及びD22aの位置及び向きを示す情報を基に、それぞれに対応する第1の差分画像データD21及び第1の差分画像データD22の位置及び向きを調整する。これにより、第1の差分画像データD21及びD22の位置合わせが行われる。
 位置合わせ処理部21は、位置合わせが行われた第1の差分画像データD21及び第1の差分画像データD22を画像処理部22に出力する。
 (ステップS15)
 画像処理部22は、位置合わせ処理部21から、位置合わせが行われた第1の差分画像データD21及び第1の差分画像データD22を受ける。画像処理部22は、この第1の差分画像データD21及び第1の差分画像データD22の間で、被検体の同一部位中における同じ位置のボクセル値を一致させるように、一方または双方の画像データを補正する。なお、このボクセルデータを補正するための基準とする領域は、治療などの影響を受けない部位とされ、例えば、操作部(図示しない)を介して操作者により指定される。画像処理部22は、それぞれの差分画像データに対して指定された領域のボクセルデータの値が同じになる補正係数を算出する。画像処理部22は、その補正係数で差分画像データの各ボクセルを補正する。
 また、上記した補正係数を自動的に求める方法として、上記した第1の例、又は第2の例を採用することができる。
 (ステップS16)
 第1の差分画像データD21及び第1の差分画像データD22における各ボクセルが補正されると、画像処理部22は、これらの画像データの差分を求めることにより第2の差分画像データD31を生成する(図2参照)。
 (ステップS17)
 画像処理部22は、生成された第2の差分画像データD31に対して、あらかじめ決められた画像処理条件に基づき画像処理を施すことで医用画像を生成する。例えば、画像処理部22は、第2の差分画像データD31を生成するために用いた手技等の前後にかかる造影前の画像データD21aを読み出す。画像処理部22は、造影前の画像データD21aに第2の差分画像データD31を重畳させて医用画像を生成してもよい。例えば、図2における第2の差分画像データD32は、造影前の画像データD21aに第2の差分画像データD31が重畳されることにより生成された画像データを模式的に示している。このようにして医用画像が生成されることにより、例えば、第1の差分画像データD21に対応する検査(手技前)から第1の差分画像データD22に対応する検査(手技後)の間に変化した部分が、被検体におけるどの部分に相当するかを画像の閲覧者に識別させることが可能となる。
 また、画像処理部22は、第1の差分画像データD21に第2の差分画像データD31を重畳させて医用画像を生成してもよい。なお、このとき、第1の差分画像データD21としては、ボクセルデータの補正により血管の部分が強調された画像データを用いてもよい。
 また、画像処理部22は、造影前の画像データD21bに第2の差分画像データD31を重畳させてカラー表示された医用画像を生成してもよい。
 画像処理部22は、以上のようにして生成された医用画像を表示制御部23に出力する。表示制御部23は、画像処理部22から医用画像を受け、これを表示部24に表示させる。
 以上のように、本実施形態に係る画像処理装置100は、所定の事象の前後にかかる検査ごとに取得された造影前の画像データと造影後の画像データとの差分を示す差分画像データを生成する。さらに画像処理装置100は、所定の事象の前後にかかる、各差分画像データの差分を生成し、この差分に基づく医用画像を表示部24に表示させる。本実施形態に係る画像処理装置100の構成によれば、手技等の所定の事象の前後で新たに発生した患部を、画像の閲覧者が識別できるように表示させることが可能となる。
(変形例)
 上述の実施形態にかかる画像処理装置100においては、手技等の前後にかかる第1の差分画像データ(D21及びD22;「第3の画像データ」の一例)の差分を求めることにより、第2の差分画像データD31(「第4の画像データ」の一例)を生成する。しかしながら、この構成に限られず、例えば以下のような構成とすることも可能である。
 手技前にかかる第1の差分画像データD21及び手技後にかかる第1の差分画像データD22における各ボクセルのボクセル値が補正されると、画像処理部22は、第1の差分画像データD22を第1の差分画像データD21により除算する。具体例としては、以下の式による。なお、下記式におけるPB(x,y,z)は、手技前の第1の差分画像データD21に対応する。また、PA(x,y,z)は、手技後の第1の差分画像データD22に対応する。
Figure JPOXMLDOC01-appb-M000002
 画像処理部22は、これらの画像データの除算により第2の差分画像データD31を生成する。なお、上記式におけるPB(x,y,z)の値が「0」に近くなる場合があり、その場合はPA(x,y,z)の値が大きくなりすぎるおそれがある。したがって、画像処理部22は、PB(x,y,z)の値が「0」に近くなる場合、PB(x,y,z)に所定の定数を加算してから、第1の差分画像データD22を第1の差分画像データD21により除算する。具体例としては、以下の式による。なお、下記式において「k」は当該定数を示す。
Figure JPOXMLDOC01-appb-M000003
 なお、上記第1の差分画像データD21で第1の差分画像データD22を除算した除算結果は、「変化指標」の一例に該当する。
 本変形例における画像処理装置100は、上記実施形態と同様に所定の事象の前後にかかる検査ごとに取得された造影前の画像データと造影後の画像データとの差分を示す差分画像データを生成する。さらに画像処理装置100は、所定の事象の後の差分画像データを所定の事象の前の差分画像データで除算する。この変形例にかかる画像処理装置100は、この除算に基づく医用画像を表示部24に表示させる。本変形例における画像処理装置100の構成においても、手技等の所定の事象の前後で新たに発生した患部を、画像の閲覧者が識別できるように表示させることが可能となる。
 本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載されたその均等の範囲に含まれる。
 10       投影データ記憶部
 11       再構成処理部
 12       解析処理部
 20       画像データ記憶部
 21       位置合わせ処理部
 22       画像処理部
 23       表示制御部
 24       表示部
 111      差分データ生成部
 500      撮影部
 D11a、D12a 造影前の投影データ
 D11b、D12b 造影後の投影データ
 D21a、D22a 造影前の画像データ
 D21b、D22b 造影後の画像データ
 D21、D22   第1の差分画像データ
 D31、D32   第2の差分画像データ

Claims (19)

  1.  異なる時刻それぞれで被検体を撮影して取得された造影前の第1の画像データと造影後の第1の画像データとの差分を第2の画像データとして生成する差分データ生成部と、
     前記時刻に応じた複数の前記第2の画像データから構造物を示す情報を除去することにより、第3の画像データをそれぞれ生成する解析処理部と、
     前記第1~第3の画像データにおいて少なくともいずれかに像として表された前記被検体の形状特徴に基づき、複数の前記第3の画像データ間の位置合わせを行う位置合わせ処理部と、
     位置合わせされた複数の前記第3の画像データ間の変化指標を求め、該変化指標に基づく第4の画像データを生成する画像処理部と、
     表示部と、
     前記第4の画像データに基づく医用画像を前記表示部に表示させる表示制御部と、を備える
     ことを特徴とする画像処理装置。
  2.  前記差分データ生成部は、
     所定の事象の前に取得された造影前の第1の画像データおよび造影後の第1の画像データに基づいて、前記第2の画像データを生成し、
     さらに前記所定の事象の後に取得された造影前の第1の画像データおよび造影後の第1の画像データに基づいて、前記第2の画像データを生成し、
     前記位置合わせ処理部は、
     前記所定の事象前に対応する前記第3の画像データと、前記所定の事象後に対応する前記第3の画像データとの位置合わせを行う
     ことを特徴とする請求項1に記載の画像処理装置。
  3.  前記所定の事象は、手技、治療または被検体に対する処置を含む
     ことを特徴とする請求項2に記載の画像処理装置。
  4.  前記画像処理部は、前記変化指標として、位置合わせされた複数の前記第3の画像データ間の差分を求め、該差分に基づく前記第4の画像データを生成する
     ことを特徴とする請求項2に記載の画像処理装置。
  5.  前記画像処理部は、前記所定の事象前に対応する前記第3の画像データを、前記所定の事象後に対応する前記第3の画像データで除算し、前記変化指標としての該除算の結果に基づく前記第4の画像データを生成する
     ことを特徴とする請求項2に記載の画像処理装置。
  6.  前記画像処理部は、前記所定の事象前に対応する前記第3の画像データまたは前記所定の事象後に対応する前記第3の画像データに所定の定数を加算してから前記除算を行う
     ことを特徴とする請求項5に記載の画像処理装置。
  7.  前記解析処理部は、前記造影前及び造影後の少なくともいずれかにおける前記第1の画像データから前記形状特徴を特定する
     ことを特徴とする請求項1に記載の画像処理装置。
  8.  前記解析処理部は、前記造影前の前記第1の画像データにおける骨に対応する領域あるいは空気に対応する領域から前記形状特徴を特定する
     ことを特徴とする請求項7に記載の画像処理装置。
  9.  前記画像処理部は、複数の前記第3の画像データ間で、前記被検体における解剖学的に一致する領域のボクセル値が一致するように、前記第3の画像データに含まれるボクセル値を補正し、補正後の前記第3の画像データ間の前記変化指標を求める
     ことを特徴とする請求項1または2に記載の画像処理装置。
  10.  前記画像処理部は、複数の前記第3の画像データ間で、操作部から指定された領域を基準として、ボクセル値が一致するように、前記第3の画像データに含まれるボクセル値を補正し、補正後の前記第3の画像データ間の前記変化指標を求める
     ことを特徴とする請求項1または2に記載の画像処理装置。
  11.  前記ボクセル値は、前記被検体における解剖学的に一致する領域におけるボクセル値の平均であって、
     前記画像処理部は、前記変化指標を求める前の複数の前記第3の画像データに基づき、複数の前記第3の画像データ間で、前記平均が一致する領域を最も多くさせるように、前記補正に用いる補正ファクターを算出する
     ことを特徴とする請求項9に記載の画像処理装置。
  12.  前記画像処理部は、前記算出された補正ファクターが一定範囲を超えている場合、前記補正ファクターの算出を停止し、警告を出力する
     ことを特徴とする請求項11に記載の画像処理装置。
  13.  前記表示制御部は、前記造影前における前記第1の画像データと前記第4の画像データとに基づき前記医用画像を前記表示部に表示させる
     ことを特徴とする請求項2に記載の画像処理装置。
  14.  前記表示制御部は、前記第2の画像データと前記第4の画像データとに基づき前記医用画像を前記表示部に表示させる
     ことを特徴とする請求項2に記載の画像処理装置。
  15.  前記表示制御部は、前記造影後における前記第1の画像データと前記第4の画像データとに基づき前記医用画像を前記表示部に表示させる
     ことを特徴とする請求項2に記載の画像処理装置。
  16.  前記表示制御部は、前記第1の画像データと、前記第4の画像データとを重畳させた前記医用画像を前記表示部に表示させる
     ことを特徴とする請求項13または請求項15に記載の画像処理装置。
  17.  前記表示制御部は、前記第2の画像データと、前記第4の画像データとを重畳させた前記医用画像を前記表示部に表示させる
     ことを特徴とする請求項14に記載の画像処理装置。
  18.  異なる時刻のそれぞれで被検体を撮影して取得された造影前の第1の画像データと造影後の第1の画像データとの差分を第2の画像データとして生成する差分データ生成ステップと、
     前記時刻に応じた複数の前記第2の画像データから構造物を示す情報を除去することにより、第3の画像データをそれぞれ生成する解析処理ステップと、
     前記第1~第3の画像データにおいて少なくともいずれかに像として表された前記被検体の形状特徴に基づき、複数の前記第3の画像データ間の位置合わせを行う位置合わせステップと、
     位置合わせされた複数の前記第3の画像データ間の変化指標を求め、該変化指標に基づく第4の画像データとして抽出する画像処理ステップと、
     前記第4の画像データに基づく医用画像を表示部に表示させる表示制御ステップと、を備えた
     ことを特徴とする画像処理方法。
  19.  前記差分データ生成ステップにおいて、
     所定の事象の前に取得された造影前の第1の画像データおよび造影後の第1の画像データに基づいて、前記第2の画像データが生成され、
     さらに前記所定の事象の後に取得された造影前の第1の画像データおよび造影後の第1の画像データに基づいて、前記第2の画像データが生成され、
     前記位置合わせステップにおいて、
     前記所定の事象前に対応する前記第3の画像データと、前記所定の事象後に対応する前記第3の画像データとの位置合わせが行われる
     ことを特徴とする請求項18に記載の画像処理方法。
PCT/JP2013/082276 2012-11-30 2013-11-29 画像処理装置及び画像処理方法 WO2014084381A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/726,965 US9460500B2 (en) 2012-11-30 2015-06-01 Image processing apparatus and image processing method

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2012-261880 2012-11-30
JP2012261880 2012-11-30
JP2013-247618 2013-11-29
JP2013247618A JP6282853B2 (ja) 2012-11-30 2013-11-29 画像処理装置及び画像処理方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US14/726,965 Continuation US9460500B2 (en) 2012-11-30 2015-06-01 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2014084381A1 true WO2014084381A1 (ja) 2014-06-05

Family

ID=50828009

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/082276 WO2014084381A1 (ja) 2012-11-30 2013-11-29 画像処理装置及び画像処理方法

Country Status (3)

Country Link
US (1) US9460500B2 (ja)
JP (1) JP6282853B2 (ja)
WO (1) WO2014084381A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6537797B2 (ja) * 2014-09-29 2019-07-03 キヤノンメディカルシステムズ株式会社 医用画像処理装置及びx線診断装置
JP6656807B2 (ja) 2015-02-10 2020-03-04 キヤノンメディカルシステムズ株式会社 X線診断装置
JP6697282B2 (ja) * 2015-02-19 2020-05-20 キヤノンメディカルシステムズ株式会社 X線診断装置、画像処理装置および画像処理方法
US10631806B2 (en) 2015-02-19 2020-04-28 Canon Medical Systems Corporation X-ray diagnostic apparatus, image processing apparatus, and image processing method
JP6713860B2 (ja) * 2016-07-04 2020-06-24 株式会社日立製作所 画像再構成装置、x線ct装置、および、画像再構成方法
CN111164643A (zh) * 2017-08-14 2020-05-15 雷神公司 用于肿瘤检测的减法算法
KR102495753B1 (ko) * 2017-10-10 2023-02-03 삼성전자주식회사 카메라를 이용하여 획득한 원시 이미지를 외부 전자 장치를 이용하여 처리하는 방법 및 전자 장치
US11475558B2 (en) 2019-11-13 2022-10-18 Raytheon Company Organ isolation in scan data
US11282209B2 (en) 2020-01-10 2022-03-22 Raytheon Company System and method for generating contours
US11562512B2 (en) 2020-12-09 2023-01-24 Raytheon Company System and method for generating and displaying contours
US11893745B2 (en) 2020-12-09 2024-02-06 Raytheon Company System and method for generating and displaying contours

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217035A (ja) * 1999-01-21 2000-08-04 Toshiba Corp X線診断装置
JP2008029798A (ja) * 2006-07-05 2008-02-14 Oita Univ 胸部x線像とその左右反転像を用いるサブトラクション方法
CN101810485A (zh) * 2009-02-23 2010-08-25 株式会社东芝 医用图像处理装置及医用图像处理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6373920B1 (en) * 2001-03-16 2002-04-16 Ge Medical Systems Global Technology Company, Llc Method and apparatus for acquiring CT perfusion images
US7545965B2 (en) * 2003-11-10 2009-06-09 The University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)
US20090074276A1 (en) * 2007-09-19 2009-03-19 The University Of Chicago Voxel Matching Technique for Removal of Artifacts in Medical Subtraction Images
US8643642B2 (en) * 2009-08-17 2014-02-04 Mistretta Medical, Llc System and method of time-resolved, three-dimensional angiography
US8731262B2 (en) * 2010-06-03 2014-05-20 Siemens Medical Solutions Usa, Inc. Medical image and vessel characteristic data processing system
US20130172734A1 (en) * 2011-12-30 2013-07-04 General Electric Company Flow measurement with time-resolved data

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000217035A (ja) * 1999-01-21 2000-08-04 Toshiba Corp X線診断装置
US20020151781A1 (en) * 1999-01-21 2002-10-17 Satoru Ohishi X-ray diagnosis apparatus
US20020156368A1 (en) * 1999-01-21 2002-10-24 Satoru Ohishi X-ray diagnosis apparatus including a collimater
US20030109779A1 (en) * 1999-01-21 2003-06-12 Satoru Ohishi MEDICAL image processing apparatus
US20060082598A1 (en) * 1999-01-21 2006-04-20 Satoru Ohishi Medical image processing apparatus
JP2008029798A (ja) * 2006-07-05 2008-02-14 Oita Univ 胸部x線像とその左右反転像を用いるサブトラクション方法
CN101810485A (zh) * 2009-02-23 2010-08-25 株式会社东芝 医用图像处理装置及医用图像处理方法
US20100215237A1 (en) * 2009-02-23 2010-08-26 Kabushiki Kaisha Toshiba Medical image processing apparatus and medical image processing method
JP2010193975A (ja) * 2009-02-23 2010-09-09 Toshiba Corp 医用画像処理装置及び医用画像処理方法
CN102525537A (zh) * 2009-02-23 2012-07-04 株式会社东芝 医用图像处理装置及医用图像处理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
A.S. AHMED ET AL.: "C-Arm CT Measurement of Cerebral Blood Volume: An Experimental Study in Canines", AMERICAN JOURNAL OF NEURORADIOLOGY, vol. 30, May 2009 (2009-05-01), pages 917 - 922 *

Also Published As

Publication number Publication date
JP6282853B2 (ja) 2018-02-21
JP2014128648A (ja) 2014-07-10
US20150339809A1 (en) 2015-11-26
US9460500B2 (en) 2016-10-04

Similar Documents

Publication Publication Date Title
JP6282853B2 (ja) 画像処理装置及び画像処理方法
JP5305821B2 (ja) 医用画像処理装置及び医用画像診断装置
JP6456002B2 (ja) ラジオグラム画像の画質を決定する装置及び方法
US10692198B2 (en) Image processing apparatus, image processing method, image processing system, and non-transitory computer-readable storage medium for presenting three-dimensional images
US11676277B2 (en) Medical image processing apparatus and method
US20180204339A1 (en) Blood vessel image processing apparatus, blood vessel image processing program, and blood vessel image processing method
KR101472558B1 (ko) 흉부 단층영상에서 폐, 기관지 및 폐혈관 영상을 분할하기 위한 시스템 및 그 방법
US10558263B2 (en) Image diagnosis assistance apparatus, control method thereof, and program
JP2007275318A (ja) 画像表示装置、画像表示方法およびそのプログラム
CN110490835A (zh) 自动检查叠合图像的方法,计算单元和医学成像设备
KR20160010544A (ko) 기준 마커를 이용한 수술중 이미지 촬영 방법
US20130057569A1 (en) 2d-2d fusion for interventional guidance in trans-catheter aortic valve implantation
CN111524200A (zh) 在投影图像中分割金属对象的方法、设备、程序和介质
JP2007152105A (ja) 脳出血部位体積計算方法および装置
WO2014136415A1 (ja) 体動検出装置および方法
EP3665643B1 (en) X-ray image processing method and system and computer storage medium
JP6326555B2 (ja) 縮小角度範囲を用いる回転c−アームコンピュータ断層撮影のための適応セグメンテーションを行う医用イメージングシステム又は方法
KR20170032818A (ko) 단층 촬영 장치 및 단층 촬영 장치의 제어 방법
JP2011110357A (ja) 画像処理方法、画像処理装置及びプログラム
JP6852545B2 (ja) 画像表示システム及び画像処理装置
KR102354701B1 (ko) 이미지 처리 장치 및 이에 의한 가상의 엑스선 이미지 생성 방법
JP5514397B2 (ja) 画像表示装置およびx線断層撮影装置
JP2006043200A (ja) 脳内出血/くも膜下出血診断支援システム
JP2007175194A (ja) Ct投影データの差分画像再構成方法及び装置
US20190251691A1 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13858010

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13858010

Country of ref document: EP

Kind code of ref document: A1