WO2017043150A1 - マッピング画像表示制御装置および方法並びにプログラム - Google Patents

マッピング画像表示制御装置および方法並びにプログラム Download PDF

Info

Publication number
WO2017043150A1
WO2017043150A1 PCT/JP2016/068562 JP2016068562W WO2017043150A1 WO 2017043150 A1 WO2017043150 A1 WO 2017043150A1 JP 2016068562 W JP2016068562 W JP 2016068562W WO 2017043150 A1 WO2017043150 A1 WO 2017043150A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
branch
position information
lung
mapping image
Prior art date
Application number
PCT/JP2016/068562
Other languages
English (en)
French (fr)
Inventor
健太 山田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to DE112016003634.5T priority Critical patent/DE112016003634T5/de
Priority to JP2017538890A priority patent/JP6396597B2/ja
Publication of WO2017043150A1 publication Critical patent/WO2017043150A1/ja
Priority to US15/909,377 priority patent/US10568705B2/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/481Diagnostic techniques involving the use of contrast agents
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • A61B2034/104Modelling the effect of the tool, e.g. the effect of an implanted prosthesis or for predicting the effect of ablation or burring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Definitions

  • the present invention simulates the position of the lung surface where the dye oozes out when the dye is sprayed on the periphery of the bronchi, and generates and displays a mapping image in which the position is mapped on the lung surface. It is about.
  • a VAL-MAP (Virtual Assisted Lung Mapping) method has been proposed as a method for marking a lung resection area (see Non-Patent Document 1).
  • a bronchus around the tumor is arbitrarily selected, and a bronchoscopic procedure is performed on the bronchus.
  • the catheter is then advanced to the periphery of the bronchus, and the lung surface is stained by spraying the periphery with the dye.
  • the location of the tumor can be predicted with high accuracy using the stained region as a landmark during thoracotomy or thoracoscopic procedures.
  • the bronchial region When performing such a simulation, the bronchial region usually does not exist until it touches the lung surface, so it is conceivable to extend the bronchial region to the lung surface.
  • a method of extending the bronchial region to the lung surface for example, a method of extracting the route of the bronchial region as a graph structure and extending the end of the graph structure to the lung surface can be considered.
  • the bronchial route when the extraction accuracy of the bronchial route by image processing is low, the bronchial route is erroneously recognized, and as a result, the end of the graph structure may be bent in an unnatural direction. In that case, the extension direction of the end of the graph structure also becomes an unnatural direction, which is different from the original extension direction of the bronchial region, so that the stained position on the lung surface cannot be simulated with high accuracy. .
  • the present invention can accurately simulate the position of the lung surface where the dye oozes out when the dye is sprayed on the periphery of the bronchi, and generates a mapping image that maps the position.
  • An object of the present invention is to provide a mapping image display control apparatus, method, and program that can be executed.
  • a mapping image display control device of the present invention includes a lung region extraction unit that extracts a lung region included in a three-dimensional image, a bronchial region extraction unit that extracts a bronchial region included in the lung region, and a branch position of the bronchial region.
  • a branch position information acquisition unit that acquires information, and an arrival position information estimation unit that estimates arrival position information where an extension of a branch included in the bronchial region reaches the surface of the lung region based on the information of the branch position;
  • a display control unit that generates a mapping image obtained by mapping the arrival position information on the surface of the lung region and displays the mapping image on the display unit.
  • the arrival position information estimation unit can estimate a straight line set based on the branch position information and the branch end as an extension line of the branch.
  • the arrival position information estimation unit uses a straight line set based on the end of the branch and information on the branch position of the first eye from the end as an extension of the branch. Can be estimated.
  • the arrival position information estimation unit uses a point on the branch and a point specified based on information on the first branch position from the end of the branch. Spline interpolation is performed, and a curve obtained by the spline interpolation can be estimated as an extension line of the branch.
  • the arrival position information estimation unit identifies a branch based on the branch position information, identifies a dominant region of the identified branch in the lung region, and A straight line connecting the center of gravity and the end of the branch can be estimated as an extension line of the branch.
  • the arrival position information estimation unit identifies a branch based on the branch position information, identifies a dominant region of the identified branch in the lung region, and The center of gravity of the region of the surface that becomes the surface of the lung region can be estimated as arrival position information.
  • the mapping image display control apparatus of the present invention can further include a blood vessel region extracting unit that extracts a blood vessel region included in the lung region, and the arrival position information estimating unit can be used to obtain information on the blood vessel region and the branch position. Based on this, an extension of the branch can be estimated.
  • the blood vessel region extraction unit can extract at least one of a pulmonary vein region and a pulmonary artery region as a blood vessel region.
  • the display control unit sets an area including the arrival position specified by the arrival position information, and generates and displays a mapping image in which the area is mapped to the surface of the lung area. Can be displayed.
  • the mapping image display control method of the present invention extracts a lung region included in a three-dimensional image, extracts a bronchial region included in the lung region, acquires information on a branch position of the bronchial region, and uses the information on the branch position. Based on this, the arrival position information at which the branch extension line included in the bronchial region reaches the surface of the lung region is estimated, and a mapping image in which the arrival position information is mapped to the surface of the lung region is generated and displayed on the display unit. It is characterized by that.
  • the mapping image display control program of the present invention includes a computer that extracts a lung region included in a three-dimensional image, a bronchial region extraction unit that extracts a bronchial region included in the lung region, Branch position information acquisition unit for acquiring branch position information, and arrival position information estimation for estimating arrival position information at which the branch extension line included in the bronchial region reaches the surface of the lung region based on the branch position information And a display control unit that generates a mapping image obtained by mapping the arrival position information on the surface of the lung region and displays the mapping image on the display unit.
  • a lung region included in a three-dimensional image is extracted, a bronchial region included in the lung region is extracted, and information on a branch position of the bronchial region is acquired. . Then, based on the information on the branch position, the arrival position information at which the branch extension line included in the bronchial region reaches the surface of the lung region is estimated, so that the dye arrives in the VAL-MAP method described above.
  • the position to be performed can be simulated with high accuracy. That is, as described above, since the extraction accuracy of the bronchial route is low and the end of the bronchial route is bent in an unnatural direction, the arrival position information is estimated based on the branch position information. Can be simulated with high accuracy. A method for estimating the arrival position information based on the branch position information will be described in detail later.
  • mapping image obtained by mapping the arrival position information simulated with high accuracy on the surface of the lung region.
  • FIG. 1 is a block diagram showing a schematic configuration of a medical image diagnosis support system using an embodiment of a mapping image display control apparatus and method and a program according to the present invention.
  • FIG. 1 is a block diagram showing a schematic configuration of the medical image diagnosis support system of the present embodiment.
  • the medical image diagnosis support system of the present embodiment provides support when performing the above-described VAL-MAP method. Specifically, when a dye is sprayed on the periphery of the bronchi, the lung from which the dye exudes A surface position is simulated, and a mapping image in which the position is mapped on the lung surface is generated and displayed. By observing this mapping image, the doctor can know where the dye oozes out on the lung surface when the bronchus is selected and its periphery is sprayed, so before surgery, The bronchi to be sprayed with dye can be selected appropriately.
  • the medical image diagnosis support system is a mapping image display control device 1, a medical image storage server 2, and a display device 3 (corresponding to a display unit). ) And an input device 4.
  • the mapping image display control device 1 is obtained by installing the mapping image display control program of this embodiment on a computer.
  • the mapping image display control device 1 includes a central processing unit (CPU (central processing unit)), a semiconductor memory, and a storage device such as a hard disk or SSD (Solid state drive).
  • the mapping image display control program of this embodiment is installed in the storage device, and this mapping image display control program is executed by the central processing unit, whereby the medical image acquisition unit 10 shown in FIG.
  • the unit 11, the bronchial region extraction unit 12, the branch position information acquisition unit 13, the arrival position information estimation unit 14, and the display control unit 15 operate.
  • mapping image display control program is recorded and distributed on a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory), and is installed on the computer from the recording medium.
  • a recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory)
  • the mapping image display control program is stored in a state where it can be accessed from the outside with respect to the storage device or network storage of the server computer connected to the network, and is downloaded to the computer and installed upon request.
  • the medical image acquisition unit 10 acquires a three-dimensional image 6 of a patient's chest imaged in advance.
  • the three-dimensional image 6 is an image of a patient's chest taken by a CT (Computed Tomography) apparatus, an MRI (Magnetic Resonance Imaging) apparatus, or the like.
  • the three-dimensional image 6 is stored in advance together with the patient identification information in the medical image storage server 2, and the medical image acquisition unit 10 is based on the patient identification information input by the user using the input device 4 or the like.
  • the three-dimensional image 6 having the identification information is read from the medical image storage server 2 and temporarily stored.
  • the lung region extraction unit 11 performs processing for extracting a lung region from the three-dimensional image 6 of the chest acquired by the medical image acquisition unit 10.
  • a method of extracting the lung region since the lung field is a region where air exists, a method of extracting the lung region by thresholding the signal value of each pixel position of the three-dimensional image 6
  • a known method such as a region expansion method based on a seed point representing a lung region can be used.
  • the bronchial region extraction unit 12 performs a process of extracting a bronchial region included in the lung region of the three-dimensional image 6 of the chest.
  • the bronchus included in the three-dimensional image 6 appears as an area showing a low pixel value because the pixels inside the bronchi correspond to the air area, but the bronchial wall is a cylindrical or linear structure showing a relatively high pixel value. It is believed that there is. Therefore, bronchi are extracted by performing structural analysis of the shape based on the distribution of pixel values for each pixel.
  • a bronchial region and a graph structure obtained by thinning the bronchial region can be extracted by performing a Hessian analysis based on the pixel value of each pixel as in the method described in Japanese Patent Application Laid-Open No. 2012-200403. Note that other known methods may be used as a method for extracting the bronchial region.
  • the branch position information acquisition unit 13 acquires information on the branch position of the bronchial region extracted by the bronchial region extraction unit 12. Specifically, the branch position information acquisition unit 13 classifies the graph structure of the bronchial region extracted by the bronchial region extraction unit 12 into a start point, an end point, a branch point, and an edge. This is acquired as information on the branch position of the region.
  • the arrival position information estimation unit 14 estimates arrival position information at which the branch extension line included in the bronchial region reaches the surface of the lung region based on the branch position information acquired by the branch position information acquisition unit 13. Is.
  • the VAL-MAP method when a dye is sprayed on the periphery of the bronchus, the dye passes through the lung tissue and reaches the lung surface where it exudes. It can be estimated that the position reaches the surface.
  • the graph structure of the bronchial region is extracted from the three-dimensional image, and a straight line connecting the end of the branch included in the graph structure and a point on the edge near the end (for example, the point immediately before the end) is divided. It is considered that a branch extension line is assumed, and a position where the extension line reaches the surface of the lung region is estimated as a position where the dye reaches (exudes).
  • the shape of the end of the branch may be an irregular shape.
  • FIG. 2 shows a case where the shape of the end of the branch of the graph structure becomes an irregular shape as described above.
  • FIG. 2 shows volume rendering images of the lung region and bronchial region, the graph structure of the bronchial region is indicated by a black thin line, the extension line of the branch of the graph structure is indicated by a thick gray line, and the branch of the graph structure is shown. The location where the extension line reaches the surface of the lung region is indicated by a sphere or hemisphere. The vicinity of the end of the graph structure in the black line circle shown in FIG.
  • the arrival position information estimation unit 14 of the present embodiment is based on the branch position information acquired by the branch position information acquisition unit 13 and the end of the branch of the graph structure in order to solve the above-described problem.
  • the set straight line is estimated as an extension line of the branch of the bronchial region.
  • the arrival position information at which the extension line reaches the surface of the lung region is estimated as the position at which the dye reaches the lung surface.
  • the arrival position information estimation unit 14 sets a straight line connecting the branch end T of the graph structure of the bronchial region and the first branch point S from the end T to the bronchus. Estimated as an extension line L1 of the branch of the region. And the intersection of the extension line L1 and the lung region surface is acquired as arrival position information.
  • the first branch point from the end T is the first branch point in the direction from the end of the bronchial region toward the upstream side of the trachea.
  • the first branch point from the terminal T is used.
  • the present invention is not limited to this, and the second branch point, the third branch point, etc. from the terminal T are used. May be.
  • the branch end T of the graph structure of the bronchial region is connected to the first branch point S from the end T.
  • the branch point S is not necessarily used.
  • a point near the branch point S may be used as long as a substantially equivalent result can be obtained. That is, the straight line set based on the branch position information and the branch end of the graph structure includes a straight line set by connecting the branch end T and a point in the vicinity of the branch point S.
  • the arrival position information estimation unit 14 of the present embodiment acquires the intersection point between the branch line extension of the bronchial region and the lung region surface as the arrival position information, but the arrival position information is not necessarily a coordinate of one point.
  • the two-dimensional or three-dimensional range including the intersection may be acquired as the arrival position information.
  • the display control unit 15 generates a volume rendering image of the lung region and the bronchial region based on the lung region extracted by the lung region extracting unit 11 and the bronchial region extracted by the bronchial region extracting unit 12.
  • the opacity of the volume rendering image of the lung region is set so that the bronchial region in the lung region can be visually recognized, and the colors of the lung region and bronchial region are set to different colors.
  • the display control unit 15 displays the graph structure acquired by thinning the bronchial region, the extension line of the branch of the bronchial region set by the arrival position information estimation unit 14 and the arrival position information, the lung region and the bronchial region.
  • the mapping image superimposed on the volume rendering image of the area is displayed on the display device 3.
  • FIG. 4 is a diagram illustrating an example of a mapping image displayed on the display device 3.
  • the graph structure of the bronchial region is displayed as a thin black line
  • the branch extension of the bronchial region is displayed as a thick gray line
  • the arrival position information is displayed as a sphere or hemisphere.
  • the vicinity of the end of the graph structure in the black line circle is a shape bent to the right side of the drawing rather than the original shape, but the extension line of the bronchial region is a branch of the bronchial region It is set in the same direction as the stretching direction, and it can be seen that the position where the dye reaches the lung surface is estimated with high accuracy.
  • the sphere or hemisphere representing the arrival position information corresponds to a region including the arrival position specified by the arrival position information in the present invention.
  • the size of the sphere or hemisphere representing the arrival position information displayed in the mapping image can be arbitrarily set by the user using the input device 4.
  • the sphere or hemisphere representing the arrival position information may be switchable between display and non-display, or may be blinked.
  • the extension line of the bronchial region does not necessarily have to be displayed, and may be switched between display and non-display by the user.
  • the display device 3 includes a display device such as a liquid crystal display, and displays the volume rendering image described above.
  • the input device 4 receives various setting inputs by the user, and includes input devices such as a keyboard and a mouse.
  • the input device 4 receives, for example, patient identification information setting input, volume rendering image opacity and color setting input, arrival position information display shape and size setting input, and the like.
  • the display device 3 and the input device 4 may be shared by using a touch panel.
  • the medical image acquisition unit 10 reads and acquires the three-dimensional image 6 from the medical image storage server 2 (S10).
  • the 3D image 6 acquired by the medical image acquisition unit 10 is input to the lung region extraction unit 11 and the bronchial region extraction unit 12.
  • the lung region extraction unit 11 extracts a lung region from the input 3D image 6 (S12), and the bronchial region extraction unit 12 extracts the bronchial region from the input 3D image 6, and further extracts the bronchial region.
  • a thinned graph structure is acquired (S14).
  • the graph structure acquired by the bronchial region extraction unit 12 is input to the branch position information acquisition unit 13, and the branch position information acquisition unit 13 acquires information on the branch position of the bronchial region based on the input graph structure. (S16).
  • the branch position information acquired by the branch position information acquisition unit 13 is input to the arrival position information estimation unit 14, and the arrival position information estimation unit 14 branches the bronchial region based on the input branch position information.
  • the extension line is set, and information on the intersection between the extension line and the lung region surface is acquired as arrival position information (S18).
  • the lung region extracted by the lung region extraction unit 11 and the bronchial region extracted by the bronchial region extraction unit 12 are input to the display control unit 15, and the display control unit 15 performs the input based on the input lung region and bronchial region.
  • the volume rendering image is generated.
  • the graph structure acquired by thinning the bronchial region, the extension line of the branch of the bronchial region set in the arrival position information estimation unit 14 and the arrival position information are input to the display control unit 15, and the display control unit 15 generates a mapping image in which the inputted graph structure, branch extension line, and arrival position information are superimposed on the volume rendering image of the lung region and bronchial region (S20), and the mapping image is displayed on the display device 3; (S22).
  • a lung region included in a three-dimensional image is extracted, a bronchial region included in the lung region is extracted, and information on a branch position of the bronchial region is acquired. Then, based on the information on the branch position, the arrival position information at which the branch extension line included in the bronchial region reaches the surface of the lung region is estimated, so that the dye arrives in the VAL-MAP method described above.
  • the position to be performed can be simulated with high accuracy. That is, as described above, even when the graph structure extraction accuracy is low and the end of the graph structure is bent in an unnatural direction, the arrival position information is estimated based on the branch position information. Can be simulated with high accuracy.
  • mapping image obtained by mapping the arrival position information simulated with high accuracy on the surface of the lung region.
  • the straight line connecting the end T and the first branch point S from the end T is estimated as the branch extension line L1 of the bronchial region.
  • the extension line L1 can be estimated.
  • the straight line connecting the end of the graph structure and the branch point is estimated as an extension line of the branch of the bronchial region.
  • a method of setting the extension line of the branch of the bronchial region Not limited to. For example, as shown in FIG. 6, a curve obtained by performing spline interpolation using two points P1 and P2 on the branch and the first branch point S from the branch end T and obtained by the spline interpolation. You may make it estimate L2 as an extension line of the branch of a bronchial region.
  • the extension line of the branch can be estimated with higher accuracy.
  • branch point S does not necessarily have to be used, and the branch point S can be used as long as a substantially equivalent result can be obtained.
  • a point in the vicinity of may be used.
  • spline interpolation is performed using the branch point S and the two points P1 and P2 on the branch. However, for points other than the branch point S, three or more points are set. It may be. Further, instead of setting two points on the branch as shown in FIG. 6, at least one point P1, branch point S, and branch point S on the branch as shown in FIG.
  • the curve L3 may be estimated by performing spline interpolation using the upstream point P3.
  • the point P3 is preferably set between the branch point S and the branch point immediately preceding the branch point S upstream of the trachea.
  • the points P1 to P3 used for the spline interpolation may be arbitrarily set by the user using the input device 4, or the distance from the branch point S is set in advance and automatically set. It may be.
  • a branch is specified, a control region of the specified branch in the lung region is specified, and the center of gravity and the branch of the control region are specified.
  • a straight line connecting the ends may be estimated as an extension line of the branch of the bronchial region.
  • the branch B is specified based on the branch point S acquired by the branch position information acquisition unit 13, the dominant region R of the branch B in the lung region is specified, A straight line L4 connecting the center of gravity G1 of the dominating region R and the end T of the branch B may be estimated as an extension line of the branch of the bronchial region.
  • the dominant region of the branch of the bronchial region is preset for each branch from an anatomical point of view, and the center of gravity G1 here is the three-dimensional shape of the dominant region which is a three-dimensional shape. It is the center of gravity in space.
  • the straight line L4 connecting the center of gravity G1 of the dominant region R and the end T of the branch B is estimated as an extension line of the branch of the bronchial region, it is higher based on an anatomical viewpoint.
  • the branch extension line can be estimated with high accuracy.
  • the branch position acquired by the branch position information acquisition unit 13 Based on the information, the branch is specified, the control region of the specified branch in the lung region is specified, and the center of gravity of the region that is the surface of the lung region among the surfaces of the control region is estimated as arrival position information You may do it.
  • the branch B is specified based on the branch point S acquired by the branch position information acquisition unit 13, the dominant region R of the branch B in the lung region is specified, You may make it estimate the gravity center G2 of the area
  • the center of gravity G2 here is the center of gravity of the region A represented as a surface in a three-dimensional space.
  • the position where the extension line of the branch of the bronchial region reaches the lung surface may be estimated based on the information on the pulmonary artery and the extending direction of the pulmonary artery.
  • a blood vessel region extraction unit 16 is further provided for the mapping image display control device 1.
  • the blood vessel region extraction unit 16 extracts a blood vessel region included in the lung region from the three-dimensional image 6.
  • the blood vessel region extraction unit 16 extracts a pulmonary artery region and a pulmonary vein region.
  • a known method for extracting the pulmonary artery region and the pulmonary vein region a known method such as a region expansion method can be used.
  • the arrival position information estimation unit 14 specifies the pulmonary artery region and the pulmonary vein region that extend along the branch of the bronchial region based on the branch position information acquired by the branch position information acquisition unit 13, and the specified pulmonary artery Based on the region and the pulmonary vein region, the branch extension of the bronchial region is estimated. Specifically, as shown in FIG. 11, the position v1 of the pulmonary artery region closest to the branch point S acquired by the branch position information acquisition unit 13 and the position a1 of the pulmonary vein region closest to the branch point S are detected. Further, the position v2 on the pulmonary artery region closest to the terminal T of the branch of the graph structure and the position a2 on the pulmonary vein region closest to the terminal T are detected.
  • the branch point S is the first branch point from the branch end T of the graph structure toward the upstream side of the trachea.
  • the position v1 on the pulmonary artery region closest to the branch point S is the position on the pulmonary artery region where the distance to the branch point S is the shortest.
  • the position a1 on the pulmonary vein region closest to the branch point S is This is the position on the pulmonary vein region where the distance from the branch point S is the shortest.
  • the position v2 on the pulmonary artery region closest to the terminal T is the position on the pulmonary artery region having the shortest distance from the terminal T, and the position a2 on the pulmonary vein region closest to the terminal T is the terminal T and It is the position on the pulmonary vein region with the shortest distance.
  • the direction from the position v1 on the pulmonary artery region to the position v2 is estimated as the extending direction of the pulmonary artery region, a first vector is set, and the direction from the position a1 on the pulmonary vein region to the position a2 is set on the pulmonary vein region.
  • a second vector is set, and the average of the first vector and the second vector is calculated.
  • the straight line L5 obtained by extending the average vector is estimated as an extension line of the branch of the bronchial region, and a position where the extension line reaches the lung surface is acquired.
  • the first vector is set using the position v1 and position v2 on the pulmonary artery region
  • the second vector is set using the position a1 and position a2 on the pulmonary vein region.
  • the first curve is set by performing spline interpolation using the position v1 and position v2 on the pulmonary artery region and the points between these positions, and the positions a1 and a2 on the pulmonary vein region are between these positions.
  • the second curve may be set by performing spline interpolation using these points, and a curve obtained by averaging the first curve and the second curve may be estimated as an extension line of the branch of the bronchial region.
  • the branch extension line is estimated using both the pulmonary vein region and the pulmonary artery region. However, only one of them may be used to estimate the branch extension line. Good.
  • a branch extension line may be estimated from a straight line that is parallel to the first vector set based on the pulmonary artery region and passes through the branch end T.
  • the branch extension line may be estimated from a straight line that is parallel to the second vector set based on the pulmonary vein region and passes through the branch end T.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Physiology (AREA)
  • Geometry (AREA)
  • Dentistry (AREA)
  • Quality & Reliability (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Architecture (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Data Mining & Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Abstract

気管支の末梢に染料を吹き付けた場合にその染料が滲み出す肺表面の位置を高精度にシミュレーションすることができ、その位置をマッピングしたマッピング画像を生成し、表示することができるマッピング画像表示制御装置および方法並びにプログラムを提供する。3次元画像に含まれる肺領域を抽出する肺領域抽出部11と、肺領域内に含まれる気管支領域を抽出する気管支領域抽出部12と、気管支領域の分岐位置の情報を取得する分岐位置情報取得部13と、分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部14と、到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示装置3に表示させる表示制御部15とを備える。

Description

マッピング画像表示制御装置および方法並びにプログラム
 本発明は、気管支の末梢に染料を吹き付けた場合に、その染料が滲み出す肺表面の位置をシミュレーションし、その位置を肺表面上にマッピングしたマッピング画像を生成して表示させる装置および方法並びにプログラムに関するものである。
 近年、肺の切除領域をマーキングする方法としてVAL-MAP(Virtual Assisted Lung Mapping)法が提案されている(非特許文献1参照)。このVAL-MAP法では、腫瘍の周辺にある気管支を任意に選択し、その気管支に対して気管支鏡の手技を実施する。そして、カテーテルを気管支の末梢まで進ませ、その末梢に染料を吹きかけることによって肺表面を染色する。
 このように肺表面を染色することによって、開胸あるいは胸腔鏡の手技時には染色された領域をランドマークとして、腫瘍の存在位置を高精度に予測できる。
Masaaki Sato、外8名、"Thoracoscopic wedge lung resection using virtual-assisted lung mapping"、[online]、2014年6月12日、Asian Cardiovascular and Thoracic Annals、〈URL:http://aan.sagepub.com/content/early/2014/06/12/0218492314539332〉
 ここで、上述したVAL-MAP法を実施する際、どの気管支を選択して染料を吹き付けると肺表面のどの辺りが染色されるかを術前にシミュレーションによって確認したい場合がある。そこで、画像処理により抽出された気管支領域に基づいて、肺表面に染色できる位置をシミュレーションする方法が考えられる。
 このようなシミュレーションを行う場合、通常、気管支領域は、肺表面に触れるところまでは存在しないので、気管支領域を肺表面まで引き延ばすことが考えられる。気管支領域を肺表面まで引き延ばす方法としては、たとえば気管支領域の経路をグラフ構造として抽出し、そのグラフ構造の末端を肺表面まで延長させる方法が考えられる。
 しかしながら、画像処理による気管支経路の抽出精度が低い場合には、気管支経路が誤認識され、その結果、グラフ構造の末端が不自然な方向に曲がる場合がある。その場合、グラフ構造の末端の延長方向も不自然な方向となり、本来の気管支領域の延伸方向とは異なる方向となってしまうため、肺表面における染色される位置を高精度にシミュレーションすることができない。
 本発明は、上記事情に鑑み、気管支の末梢に染料を吹き付けた場合にその染料が滲み出す肺表面の位置を高精度にシミュレーションすることができ、その位置をマッピングしたマッピング画像を生成し、表示させることができるマッピング画像表示制御装置および方法並びにプログラムを提供することを目的とするものである。
 本発明のマッピング画像表示制御装置は、3次元画像に含まれる肺領域を抽出する肺領域抽出部と、肺領域内に含まれる気管支領域を抽出する気管支領域抽出部と、気管支領域の分岐位置の情報を取得する分岐位置情報取得部と、分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部と、到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる表示制御部とを備えたことを特徴とする。
 また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分岐位置の情報と分枝の末端とに基づいて設定された直線を分枝の延長線として推定することができる。
 また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分枝の末端とその末端から1つの目の分岐位置の情報とに基づいて設定された直線を分枝の延長線として推定することができる。
 また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分枝上の点とその分枝の末端から1つの目の分岐位置の情報に基づいて特定された点とを用いてスプライン補間し、そのスプライン補間によって求められた曲線を分枝の延長線として推定することができる。
 また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分岐位置の情報に基づいて分枝を特定し、肺領域における特定した分枝の支配領域を特定し、その支配領域の重心と分枝の末端とを結んだ直線を分枝の延長線として推定することができる。
 また、本発明のマッピング画像表示制御装置において、到達位置情報推定部は、分岐位置の情報に基づいて分枝を特定し、肺領域における特定した分枝の支配領域を特定し、その支配領域の表面のうちの肺領域の表面となる領域の重心を到達位置情報として推定することができる。
 また、上記本発明のマッピング画像表示制御装置においては、肺領域内に含まれる血管領域を抽出する血管領域抽出部を備えることができ、到達位置情報推定部は、血管領域および分岐位置の情報に基づいて、分枝の延長線を推定することができる。
 また、上記本発明のマッピング画像表示制御装置において、血管領域抽出部は、血管領域として、肺静脈領域および肺動脈領域のうちの少なくとも一方を抽出することができる。
 また、本発明のマッピング画像表示制御装置は、表示制御部は、到達位置情報によって特定される到達位置を含む領域を設定し、その領域を肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させることができる。
 本発明のマッピング画像表示制御方法は、3次元画像に含まれる肺領域を抽出し、肺領域内に含まれる気管支領域を抽出し、気管支領域の分岐位置の情報を取得し、分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定し、到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させることを特徴とする。
 本発明のマッピング画像表示制御プログラムは、コンピュータを、3次元画像に含まれる肺領域を抽出する肺領域抽出部と、肺領域内に含まれる気管支領域を抽出する気管支領域抽出部と、気管支領域の分岐位置の情報を取得する分岐位置情報取得部と、分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部と、到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる表示制御部として機能させることを特徴とする。
 本発明のマッピング画像表示制御装置および方法並びにプログラムによれば、3次元画像に含まれる肺領域を抽出し、肺領域内に含まれる気管支領域を抽出し、気管支領域の分岐位置の情報を取得する。そして、その分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定するようにしたので、上述したVAL-MAP法において染料が到達する位置を高精度にシミュレーションすることができる。すなわち、上述したように気管支経路の抽出精度が低く、気管支経路の末端が不自然な方向に曲がっている場合においても、分岐位置の情報に基づいて到達位置情報を推定するようにしたので、染料が到達する位置を高精度にシミュレーションすることができる。なお、分岐位置の情報に基づいて到達位置情報を推定する方法については、後で詳述する。
 そして、その高精度にシミュレーションされた到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示させることができる。
本発明のマッピング画像表示制御装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムの概略構成を示すブロック図 気管支領域から取得されたグラフ構造の末端の形状がいびつな形状となった場合を示す図 気管支領域のグラフ構造の分枝の末端とその末端から1つの目の分岐点とを結んだ直線を気管支領域の分枝の延長線として推定する場合を説明するための図 本発明のマッピング画像表示制御装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムによって生成されたマッピング画像の一例を示す図 本発明のマッピング画像表示制御装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムの作用を説明するためのフローチャート 分枝上の2つの点と分岐点とを用いてスプライン補間した曲線を気管支領域の分枝の延長線として推定する場合を説明するための図 スプライン補間によって気管支領域の分枝の延長線を推定する場合のその他の例を説明するための図 分枝の支配領域の重心と分枝の末端とを結んだ直線を気管支領域の分枝の延長線として推定する場合を説明するための図 支配領域の表面のうちの肺領域の表面となる領域の重心を到達位置情報として推定する場合を説明するための図 血管領域抽出部をさらに備えた医用画像診断支援システムの概略構成を示すブロック図 血管領域および分岐位置の情報に基づいて、気管支領域の分枝の延長線が肺表面に到達する位置を推定する場合を説明するための図
 以下、本発明のマッピング画像表示制御装置および方法並びにプログラムの一実施形態を用いた医用画像診断支援システムについて、図面を参照しながら詳細に説明する。図1は、本実施形態の医用画像診断支援システムの概略構成を示すブロック図である。
 本実施形態の医用画像診断支援システムは、上述したVAL-MAP法を行う際の支援を行うものであり、具体的には、気管支の末梢に染料を吹き付けた場合に、その染料が滲み出す肺表面の位置をシミュレーションし、その位置を肺表面上にマッピングしたマッピング画像を生成して表示させるものである。医者は、このマッピング画像を観察することによって、気管支を選択してその末梢に染料を吹き付けた場合に、肺表面のどの位置に染料が滲み出すかを把握することができるので、術前に、染料を吹き付ける気管支を適切に選択することができる。
 本実施形態の医用画像診断支援システムは、具体的には、図1に示すように、マッピング画像表示制御装置1と、医用画像保管サーバ2と、表示装置3(表示部に相当するものである)と、入力装置4とを備えている。
 マッピング画像表示制御装置1は、コンピュータに本実施形態のマッピング画像表示制御プログラムをインストールしたものである。 
 マッピング画像表示制御装置1は、中央処理装置(CPU(central processing unit))、半導体メモリ、およびハードディスクやSSD(Solid State Drive)等のストレージデバイスを備えている。ストレージデバイスには、本実施形態のマッピング画像表示制御プログラムがインストールされており、このマッピング画像表示制御プログラムが中央処理装置によって実行されることによって、図1に示す医用画像取得部10、肺領域抽出部11、気管支領域抽出部12、分岐位置情報取得部13、到達位置情報推定部14および表示制御部15が動作する。
 マッピング画像表示制御プログラムは、DVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)などの記録媒体に記録されて配布され、その記録媒体からコンピュータにインストールされる。または、マッピング画像表示制御プログラムは、ネットワークに接続されたサーバコンピュータの記憶装置もしくはネットワークストレージに対して外部からアクセス可能な状態で記憶され、要求に応じてコンピュータにダウンロードされ、インストールされる。
 医用画像取得部10は、予め撮影された患者の胸部の3次元画像6を取得するものである。3次元画像6は、たとえばCT(Computed Tomography)装置やMRI(Magnetic Resonance Imaging)装置などによって患者の胸部を撮影したものである。
 3次元画像6は、医用画像保管サーバ2に患者の識別情報とともに予め保管されており、医用画像取得部10は、入力装置4などを用いてユーザによって入力された患者の識別情報に基づいて、その識別情報を有する3次元画像6を医用画像保管サーバ2から読み出して一時記憶するものである。
 肺領域抽出部11は、医用画像取得部10によって取得された胸部の3次元画像6から肺領域を抽出する処理を行うものである。肺領域を抽出する方法としては、肺野は空気が存在する領域であるため、3次元画像6の各画素位置の信号値をヒストグラム化し、肺領域をしきい値処理することにより抽出する方法や、肺領域を表すシード点に基づく領域拡張法などの公知の手法を用いることができる。
 気管支領域抽出部12は、胸部の3次元画像6の肺領域内に含まれる気管支領域を抽出する処理を行うものである。3次元画像6に含まれる気管支は、気管支の内部の画素は空気領域に相当するため低い画素値を示す領域として表れるが、気管支壁は比較的高い画素値を示す円柱あるいは線状の構造物であると考えられる。そこで、画素毎に画素値の分布に基づく形状の構造解析を行なって気管支を抽出する。たとえば特開2012-200403号公報に記載の方法のように、各画素の画素値に基づいてヘッセ解析を行うことによって気管支領域および気管支領域を細線化したグラフ構造を抽出することができる。なお、気管支領域を抽出方法としては、その他の公知の手法を用いるようにしてもよい。
 分岐位置情報取得部13は、気管支領域抽出部12によって抽出された気管支領域の分岐位置の情報を取得するものである。具体的には、分岐位置情報取得部13は、気管支領域抽出部12において抽出された気管支領域のグラフ構造を、開始点、端点、分岐点、エッジに分類し、その分岐点の位置情報を気管支領域の分岐位置の情報として取得するものである。
 到達位置情報推定部14は、分岐位置情報取得部13によって取得された分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定するものである。
 ここで、VAL-MAP法において気管支の末梢に染料を吹き付けた場合に、その染料が肺の組織内を通過し、肺表面に到達して滲み出す位置は、気管支の分枝の延長線が肺表面に到達する位置と推定することができる。
 そこで、3次元画像から気管支領域のグラフ構造を抽出し、そのグラフ構造に含まれる分枝の末端とその末端近傍のエッジ上の点(たとえば末端から一つ手前の点)とを結ぶ直線を分枝の延長線とし、その延長線が肺領域の表面に到達する位置を染料が到達する(滲み出す)位置として推定することが考えられる。
 しかしながら、グラフ構造の抽出精度によっては、分枝の末端の形状がいびつな形状となる場合があり、その場合、上述したように分枝の末端とその末端近傍のエッジ上の点とを結ぶ直線を分枝の延長線とすると、その延長線の延伸方向と本来の気管支領域の分枝の延伸方向とが全く異なる場合があり、その結果、染料が到達する位置の推定精度が著しく低下する場合がある。
 図2は、上述したようにグラフ構造の分枝の末端の形状がいびつな形状となった場合を示すものである。図2では、肺領域および気管支領域のボリュームレンダリング画像を示すとともに、気管支領域のグラフ構造を黒の細線により示し、グラフ構造の分枝の延長線をグレーの太線により示し、グラフ構造の分枝の延長線が肺領域の表面に到達する位置を球体または半球体により示している。図2に示す黒線の丸印内のグラフ構造の末端近傍は、実際の形状よりも図面右側に曲がった形状として抽出されており、その結果、染料が到達すると推定される位置が、実際に到達する位置よりも図面右方向(白い矢印方向)にずれた位置となっている。
 そこで、本実施形態の到達位置情報推定部14は、上述したような問題を解決するため、分岐位置情報取得部13によって取得された分岐位置の情報とグラフ構造の分枝の末端とに基づいて設定された直線を気管支領域の分枝の延長線として推定する。そして、その延長線が肺領域の表面に到達する到達位置情報を染料が肺表面に到達する位置として推定するものである。
 具体的には、到達位置情報推定部14は、図3に示すように、気管支領域のグラフ構造の分枝の末端Tとその末端Tから1つの目の分岐点Sとを結んだ直線を気管支領域の分枝の延長線L1として推定する。そして、その延長線L1と肺領域表面との交点を到達位置情報として取得する。末端Tから1つ目の分岐点とは、気管支領域の末端から気管上流側に向かう方向について1つの目の分岐である。
 なお、本実施形態においては、末端Tから1つ目の分岐点を用いるようにしたが、これに限らず、末端Tから2つ目の分岐点や3つ目の分岐点などを用いるようにしてもよい。
 また、本実施形態においては、気管支領域のグラフ構造の分枝の末端Tとその末端Tから1つの目の分岐点Sとを結ぶようにしたが、必ずしも分岐点Sを用いなくてもよく、実質的に同等の結果が得られるような点であれば、分岐点Sの近傍の点を用いてもよい。すなわち、分岐位置の情報とグラフ構造の分枝の末端とに基づいて設定された直線とは、分枝の末端Tと分岐点Sの近傍の点とを結んで設定された直線も含むものとする。
 また、本実施形態の到達位置情報推定部14は、気管支領域の分枝の延長線と肺領域表面との交点を到達位置情報として取得するようにしたが、到達位置情報は必ずしも1点の座標でなくてもよく、その交点を含む2次元的または3次元的な範囲を到達位置情報として取得するようにしてもよい。到達位置情報推定部14によって取得される到達位置情報が、気管支の末梢に染料を吹き付けた場合に、その染料が肺の組織内を通過し、肺表面に到達する到達点または到達範囲を表す情報である。
 表示制御部15は、肺領域抽出部11によって抽出された肺領域および気管支領域抽出部12によって抽出された気管支領域に基づいて、肺領域および気管支領域のボリュームレンダリング画像を生成するものである。肺領域のボリュームレンダリング画像の不透明度については、肺領域内の気管支領域が視認できる程度に設定され、肺領域と気管支領域の色はそれぞれ異なる色に設定される。
 また、表示制御部15は、気管支領域を細線化することによって取得されたグラフ構造、到達位置情報推定部14において設定された気管支領域の分枝の延長線および到達位置情報を、肺領域および気管支領域のボリュームレンダリング画像に重ね合わせたマッピング画像を表示装置3に表示させるものである。
 図4は、表示装置3に表示させるマッピング画像の一例を示す図である。図4に示されるように、気管支領域のグラフ構造は黒の細線で表示され、気管支領域の分枝の延長線はグレーの太線により表示され、到達位置情報は球体または半球体により表示される。図4に示すように、黒線の丸印内のグラフ構造の末端近傍は、本来の形状よりも図面右側に曲がった形状となっているが、気管支領域の延長線は気管支領域の分枝の延伸方向と同じ方向に設定されており、染料の肺表面への到達位置が高精度に推定されていることがわかる。なお、到達位置情報を表す球体または半球体が、本発明における到達位置情報によって特定される到達位置を含む領域に相当するものである。
 また、マッピング画像内に表示される到達位置情報を表す球体または半球体の大きさは、ユーザによって入力装置4を用いて任意に設定可能である。また、到達位置情報を表す球体または半球体は、表示および非表示を切り替え可能にしてもよく、また、点滅表示させるようにしてもよい。また、気管支領域の延長線は必ずしも表示しなくてもよく、ユーザによって表示と非表示を切り替え可能としてもよい。
 表示装置3は、液晶ディスプレイなどの表示デバイスを備えたものであり、上述したボリュームレンダリング画像などを表示するものである。
 入力装置4は、ユーザによる種々の設定入力を受け付けるものであり、キーボードやマウスなどの入力デバイスを備えたものである。入力装置4は、たとえば患者の識別情報の設定入力、ボリュームレンダリング画像の不透明度および色の設定入力、並びに到達位置情報の表示形状および大きさの設定入力などを受け付けるものである。なお、タッチパネルを用いることによって表示装置3と入力装置4と兼用するようにしてもよい。
 次に、本実施形態の医用画像診断支援システムの作用について、図5に示すフローチャートを参照しながら説明する。
 まず、ユーザによる患者の識別情報などの入力に基づいて、医用画像取得部10によって医用画像保管サーバ2から3次元画像6が読み出されて取得される(S10)。
 医用画像取得部10によって取得された3次元画像6は、肺領域抽出部11および気管支領域抽出部12に入力される。肺領域抽出部11は、入力された3次元画像6から肺領域を抽出し(S12)、気管支領域抽出部12は、入力された3次元画像6から気管支領域を抽出し、さらにその気管支領域を細線化したグラフ構造を取得する(S14)。
 気管支領域抽出部12によって取得されたグラフ構造は、分岐位置情報取得部13に入力され、分岐位置情報取得部13は、入力されたグラフ構造に基づいて、気管支領域の分岐位置の情報を取得する(S16)。
 分岐位置情報取得部13によって取得された分岐位置の情報は、到達位置情報推定部14に入力され、到達位置情報推定部14は、入力された分岐位置の情報に基づいて、気管支領域の分枝の延長線を設定し、その延長線と肺領域表面との交点の情報を到達位置情報として取得する(S18)。
 肺領域抽出部11によって抽出された肺領域および気管支領域抽出部12によって抽出された気管支領域が表示制御部15に入力され、表示制御部15は、入力された肺領域および気管支領域に基づいて、そのボリュームレンダリング画像を生成する。さらに、気管支領域を細線化することによって取得されたグラフ構造、到達位置情報推定部14において設定された気管支領域の分枝の延長線および到達位置情報が表示制御部15に入力され、表示制御部15は、入力されたグラフ構造、分枝の延長線および到達位置情報を肺領域および気管支領域のボリュームレンダリング画像に重ね合わせたマッピング画像を生成し(S20)、そのマッピング画像を表示装置3に表示させる(S22)。
 上記実施形態の医用画像診断支援システムによれば、3次元画像に含まれる肺領域を抽出し、肺領域内に含まれる気管支領域を抽出し、気管支領域の分岐位置の情報を取得する。そして、その分岐位置の情報に基づいて、気管支領域に含まれる分枝の延長線が肺領域の表面に到達する到達位置情報を推定するようにしたので、上述したVAL-MAP法において染料が到達する位置を高精度にシミュレーションすることができる。すなわち、上述したようにグラフ構造の抽出精度が低く、グラフ構造の末端が不自然な方向に曲がっている場合においても、分岐位置の情報に基づいて到達位置情報を推定するようにしたので、染料が到達する位置を高精度にシミュレーションすることができる。
 そして、その高精度にシミュレーションされた到達位置情報を肺領域の表面にマッピングしたマッピング画像を生成して表示させることができる。
 また、上記実施形態においては、末端Tとその末端Tから1つの目の分岐点Sとを結んだ直線を気管支領域の分枝の延長線L1として推定するようにしたので、簡易な演算処理によって延長線L1を推定することができる。
 なお、上記実施形態においては、グラフ構造の末端と分岐点とを結ぶ直線を気管支領域の分枝の延長線として推定するようにしたが、気管支領域の分枝の延長線の設定方法としてはこれに限らない。たとえば、図6に示すように、分枝上の2つの点P1および点P2と分枝の末端Tから1つの目の分岐点Sとを用いてスプライン補間し、そのスプライン補間によって求められた曲線L2を気管支領域の分枝の延長線として推定するようにしてもよい。
 このようにスプライン補間によって求められた曲線L2を気管支領域の分枝の延長線として推定するようにした場合には、より高精度に分枝の延長線を推定することができる。
 なお、このようにスプライン補間によって分枝の延長線を推定する場合においても、必ずしも分岐点Sを用いなくてもよく、実質的に同等の結果が得られるような点であれば、分岐点Sの近傍の点を用いてもよい。
 また、上記説明では、分岐点Sと分枝上の2つの点P1,P2を用いてスプライン補間を行うようにしたが、分岐点S以外の点については、3つ以上の点を設定するようにしてもよい。また、図6に示すように分枝上の2点を設定するのではなく、図7に示すように、分枝上の少なくとも1つ以上の点P1と分岐点Sと分岐点Sよりも気管上流側の点P3とを用いてスプライン補間して曲線L3を推定するようにしてもよい。点P3は、分岐点Sと分岐点Sから気管上流側に1つ前の分岐点との間に設定することが望ましい。なお、スプライン補間に用いる点P1~P3は、ユーザが入力装置4を用いて任意に設定するようにしてもよいし、分岐点Sからの距離を予め設定しておき、自動的に設定するようにしてもよい。
 また、分岐位置情報取得部13によって取得された分岐位置の情報に基づいて、分枝を特定し、肺領域におけるその特定した分枝の支配領域を特定し、その支配領域の重心と分枝の末端とを結んだ直線を気管支領域の分枝の延長線として推定するようにしてもよい。
 具体的には、図8に示すように、分岐位置情報取得部13によって取得された分岐点Sに基づいて分枝Bを特定し、肺領域における分枝Bの支配領域Rを特定し、その支配領域Rの重心G1と分枝Bの末端Tとを結んだ直線L4を気管支領域の分枝の延長線として推定するようにしてもよい。なお、気管支領域の分枝の支配領域については、解剖学的な見地から分枝毎に予め設定されるものであり、ここでいう重心G1は、3次元的な形状である支配領域の3次元空間上の重心である。
 このように、支配領域Rの重心G1と分枝Bの末端Tとを結んだ直線L4を気管支領域の分枝の延長線として推定した場合には、解剖学的な見地に基づいて、より高精度に分枝の延長線を推定することができる。
 また、上述したように気管支領域の分枝の支配領域を用いて分枝の延長線の肺表面における到達位置を推定するその他の方法として、たとえば分岐位置情報取得部13によって取得された分岐位置の情報に基づいて、分枝を特定し、肺領域におけるその特定した分枝の支配領域を特定し、その支配領域の表面のうちの肺領域の表面となる領域の重心を到達位置情報として推定するようにしてもよい。
 具体的には、図9に示すように、分岐位置情報取得部13によって取得された分岐点Sに基づいて分枝Bを特定し、肺領域における分枝Bの支配領域Rを特定し、その支配領域Rの表面のうちの肺領域の表面となる領域Aの重心G2を到達位置情報として推定するようにしてもよい。なお、ここでいう重心G2は、3次元空間上の面として表される領域Aの重心である。
 また、気管支の周辺には肺動脈および肺静脈があり、気管支の延伸方向と肺動脈および肺静脈の延伸方向とは類似していることが知られている。そこで、肺動脈や肺動脈の延伸方向の情報に基づいて、気管支領域の分枝の延長線が肺表面に到達する位置を推定するようにしてもよい。
 具体的には、図10に示すように、マッピング画像表示制御装置1に対してさらに血管領域抽出部16を設ける。血管領域抽出部16は、3次元画像6から肺領域内に含まれる血管領域を抽出するものである。具体的には、血管領域抽出部16は、肺動脈領域および肺静脈領域を抽出する。肺動脈領域および肺静脈領域の抽出方法としては、たとえば領域拡張法などの公知な手法を用いることができる。
 そして、到達位置情報推定部14は、分岐位置情報取得部13によって取得された分岐位置の情報に基づいて気管支領域の分枝に沿って延びる肺動脈領域および肺静脈領域を特定し、その特定した肺動脈領域および肺静脈領域に基づいて、気管支領域の分枝の延長線を推定する。具体的には、図11に示すように、分岐位置情報取得部13によって取得された分岐点Sに最も近い肺動脈領域の位置v1と分岐点Sに最も近い肺静脈領域の位置a1とを検出し、さらに、グラフ構造の分枝の末端Tに最も近い肺動脈領域上の位置v2と末端Tに最も近い肺静脈領域上の位置a2とを検出する。
 なお、分岐点Sは、グラフ構造の分枝の末端Tから気管上流側に向かって一つ目の分岐点である。また、分岐点Sに最も近い肺動脈領域上の位置v1とは、分岐点Sとの距離が最も短い肺動脈領域上の位置であり、分岐点Sに最も近い肺静脈領域上の位置a1とは、分岐点Sとの距離が最も短い肺静脈領域上の位置である。また、末端Tに最も近い肺動脈領域上の位置v2とは、末端Tとの距離が最も短い肺動脈領域上の位置であり、末端Tに最も近い肺静脈領域上の位置a2とは、末端Tと距離が最も短い肺静脈領域上の位置である。
 そして、肺動脈領域上の位置v1から位置v2へ向かう方向を肺動脈領域の延伸方向として推定して第1のベクトルを設定し、肺静脈領域上の位置a1から位置a2へ向かう方向を肺静脈領域の延伸方向として推定して第2のベクトルを設定し、第1のベクトルと第2のベクトルの平均を算出する。そして、その平均のベクトルを伸ばした直線L5を気管支領域の分枝の延長線として推定し、この延長線が肺表面に到達する位置を取得する。
 このように肺静脈領域および肺動脈領域を用いて分枝の延長線を推定することによって、解剖学的な見地に基づいて、より高精度に分枝の延長線を推定することができる。
 なお、上記説明では、肺動脈領域上の位置v1と位置v2を用いて第1のベクトルを設定し、肺静脈領域上の位置a1と位置a2を用いて第2のベクトルを設定するようにしたが、たとえば肺動脈領域上の位置v1と位置v2とこれらの位置の間の点を用いてスプライン補間して第1の曲線を設定し、肺静脈領域上の位置a1と位置a2とこれらの位置の間の点を用いてスプライン補間して第2の曲線を設定し、第1の曲線と第2の曲線を平均化した曲線を気管支領域の分枝の延長線として推定するようにしてもよい。
 また、上記説明では、肺静脈領域と肺動脈領域の両方を使用して分枝の延長線を推定するようにしたが、いずれか一方のみを用いて分枝の延長線を推定するようにしてもよい。たとえば、肺動脈領域に基づいて設定された第1のベクトルに平行であり、かつ分枝の末端Tを通る直線を分枝の延長線を推定するようにしてもよい。また、肺静脈領域に基づいて設定された第2のベクトルに平行であり、かつ分枝の末端Tを通る直線を分枝の延長線を推定するようにしてもよい。
1   マッピング画像表示制御装置
2   医用画像保管サーバ
3   表示装置
4   入力装置
10  医用画像取得部
11  肺領域抽出部
12  気管支領域抽出部
13  分岐位置情報取得部
14  到達位置情報推定部
15  表示制御部
16  血管領域抽出部

Claims (11)

  1.  3次元画像に含まれる肺領域を抽出する肺領域抽出部と、
     前記肺領域内に含まれる気管支領域を抽出する気管支領域抽出部と、
     前記気管支領域の分岐位置の情報を取得する分岐位置情報取得部と、
     前記分岐位置の情報に基づいて、前記気管支領域に含まれる分枝の延長線が前記肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部と、
     前記到達位置情報を前記肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる表示制御部とを備えたことを特徴とするマッピング画像表示制御装置。
  2.  前記到達位置情報推定部が、前記分岐位置の情報と前記分枝の末端とに基づいて設定された直線を前記分枝の延長線として推定する請求項1記載のマッピング画像表示制御装置。
  3.  前記到達位置情報推定部が、前記分枝の末端と該末端から1つの目の分岐位置の情報とに基づいて設定された直線を前記分枝の延長線として推定する請求項2記載のマッピング画像表示制御装置。
  4.  前記到達位置情報推定部が、前記分枝上の点と該分枝の末端から1つの目の分岐位置の情報に基づいて特定された点とを用いてスプライン補間し、該スプライン補間によって求められた曲線を前記分枝の延長線として推定する請求項1記載のマッピング画像表示制御装置。
  5.  前記到達位置情報推定部が、前記分岐位置の情報に基づいて前記分枝を特定し、前記肺領域における前記特定した分枝の支配領域を特定し、該支配領域の重心と前記分枝の末端とを結んだ直線を前記分枝の延長線として推定する請求項1記載のマッピング画像表示制御装置。
  6.  前記到達位置情報推定部が、前記分岐位置の情報に基づいて前記分枝を特定し、前記肺領域における前記特定した分枝の支配領域を特定し、該支配領域の表面のうちの前記肺領域の表面となる領域の重心を前記到達位置情報として推定する請求項1記載のマッピング画像表示制御装置。
  7.  前記肺領域内に含まれる血管領域を抽出する血管領域抽出部を備え、
     前記到達位置情報推定部が、前記血管領域および前記分岐位置の情報に基づいて、前記分枝の延長線を推定する請求項1記載のマッピング画像表示制御装置。
  8.  前記血管領域抽出部が、前記血管領域として、肺静脈領域および肺動脈領域のうちの少なくとも一方を抽出する請求項7記載のマッピング画像表示制御装置。
  9.  前記表示制御部が、前記到達位置情報によって特定される到達位置を含む領域を設定し、該領域を前記肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる請求項1から8いずれか1項記載のマッピング画像表示制御装置。
  10.  3次元画像に含まれる肺領域を抽出し、
     前記肺領域内に含まれる気管支領域を抽出し、
     前記気管支領域の分岐位置の情報を取得し、
     前記分岐位置の情報に基づいて、前記気管支領域に含まれる分枝の延長線が前記肺領域の表面に到達する到達位置情報を推定し、
     前記到達位置情報を前記肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させることを特徴とするマッピング画像表示制御方法。
  11.  コンピュータを、3次元画像に含まれる肺領域を抽出する肺領域抽出部と、
     前記肺領域内に含まれる気管支領域を抽出する気管支領域抽出部と、
     前記気管支領域の分岐位置の情報を取得する分岐位置情報取得部と、
     前記分岐位置の情報に基づいて、前記気管支領域に含まれる分枝の延長線が前記肺領域の表面に到達する到達位置情報を推定する到達位置情報推定部と、
     前記到達位置情報を前記肺領域の表面にマッピングしたマッピング画像を生成して表示部に表示させる表示制御部として機能させることを特徴とするマッピング画像表示制御プログラム。
PCT/JP2016/068562 2015-09-09 2016-06-22 マッピング画像表示制御装置および方法並びにプログラム WO2017043150A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112016003634.5T DE112016003634T5 (de) 2015-09-09 2016-06-22 Zuordnungsbild-anzeigesteuervorrichtung, -verfahren und -programm
JP2017538890A JP6396597B2 (ja) 2015-09-09 2016-06-22 マッピング画像表示制御装置および方法並びにプログラム
US15/909,377 US10568705B2 (en) 2015-09-09 2018-03-01 Mapping image display control device, method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-177523 2015-09-09
JP2015177523 2015-09-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/909,377 Continuation US10568705B2 (en) 2015-09-09 2018-03-01 Mapping image display control device, method, and program

Publications (1)

Publication Number Publication Date
WO2017043150A1 true WO2017043150A1 (ja) 2017-03-16

Family

ID=58239539

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/068562 WO2017043150A1 (ja) 2015-09-09 2016-06-22 マッピング画像表示制御装置および方法並びにプログラム

Country Status (4)

Country Link
US (1) US10568705B2 (ja)
JP (1) JP6396597B2 (ja)
DE (1) DE112016003634T5 (ja)
WO (1) WO2017043150A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020066132A1 (ja) * 2018-09-27 2021-04-30 富士フイルム株式会社 医用画像診断支援装置、方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081906A (ja) * 2004-09-13 2006-03-30 Siemens Corporate Res Inc 器官内の塞栓症により冒されている領域を分析するための自動化された方法および装置ならびに器官内の塞栓症により冒されている領域を分析するためのコンピュータプログラムコードが記憶されているコンピュータ読み取り可能媒体
JP2010517633A (ja) * 2007-01-31 2010-05-27 ザ ペン ステイト リサーチ ファンデーション 中空臓器を通る3d経路計画のためのシステム
WO2010086909A1 (ja) * 2009-01-27 2010-08-05 財団法人仙台市医療センター 術具挿入支援システム
WO2014045539A1 (ja) * 2012-09-20 2014-03-27 富士フイルム株式会社 画像処理装置および方法ならびにプログラム
JP2014223311A (ja) * 2013-05-14 2014-12-04 株式会社東芝 画像処理装置、画像処理方法及び医用画像診断装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003216295A1 (en) * 2002-02-15 2003-09-09 The Regents Of The University Of Michigan Lung nodule detection and classification
JP5279291B2 (ja) * 2008-02-19 2013-09-04 株式会社東芝 医用画像表示装置および画像表示方法
AU2010231365A1 (en) * 2009-03-31 2010-10-07 Fujifilm Corporation Image processing apparatus and method and program
JP5723541B2 (ja) * 2010-03-31 2015-05-27 富士フイルム株式会社 医用画像診断支援装置およびその作動方法、並びにプログラム
JP4931027B2 (ja) * 2010-03-29 2012-05-16 富士フイルム株式会社 医用画像診断支援装置および方法、並びにプログラム
JP5597429B2 (ja) * 2010-03-31 2014-10-01 富士フイルム株式会社 医用画像処理装置および方法、並びにプログラム
JP5584006B2 (ja) * 2010-03-31 2014-09-03 富士フイルム株式会社 投影画像生成装置、投影画像生成プログラムおよび投影画像生成方法
JP5748520B2 (ja) 2011-03-25 2015-07-15 富士フイルム株式会社 内視鏡挿入支援装置およびその作動方法、並びに内視鏡挿入支援プログラム
JP5814853B2 (ja) * 2012-04-18 2015-11-17 富士フイルム株式会社 立体モデルデータ生成装置および方法並びにプログラム
JP6080249B2 (ja) * 2012-09-13 2017-02-15 富士フイルム株式会社 3次元画像表示装置および方法並びにプログラム
JP5777070B2 (ja) * 2012-09-14 2015-09-09 富士フイルム株式会社 領域抽出装置、領域抽出方法および領域抽出プログラム
JP5992853B2 (ja) * 2013-03-27 2016-09-14 富士フイルム株式会社 手術支援装置、方法およびプログラム
WO2017043194A1 (ja) * 2015-09-09 2017-03-16 富士フイルム株式会社 マッピング画像表示制御装置および方法並びにプログラム
US20180140359A1 (en) * 2016-11-21 2018-05-24 Covidien Lp Electromagnetic navigation registration using ultrasound
CN108470331B (zh) * 2017-02-23 2021-12-21 富士通株式会社 图像处理装置和图像处理方法
JP6702902B2 (ja) * 2017-02-24 2020-06-03 富士フイルム株式会社 マッピング画像表示制御装置および方法並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006081906A (ja) * 2004-09-13 2006-03-30 Siemens Corporate Res Inc 器官内の塞栓症により冒されている領域を分析するための自動化された方法および装置ならびに器官内の塞栓症により冒されている領域を分析するためのコンピュータプログラムコードが記憶されているコンピュータ読み取り可能媒体
JP2010517633A (ja) * 2007-01-31 2010-05-27 ザ ペン ステイト リサーチ ファンデーション 中空臓器を通る3d経路計画のためのシステム
WO2010086909A1 (ja) * 2009-01-27 2010-08-05 財団法人仙台市医療センター 術具挿入支援システム
WO2014045539A1 (ja) * 2012-09-20 2014-03-27 富士フイルム株式会社 画像処理装置および方法ならびにプログラム
JP2014223311A (ja) * 2013-05-14 2014-12-04 株式会社東芝 画像処理装置、画像処理方法及び医用画像診断装置

Also Published As

Publication number Publication date
JPWO2017043150A1 (ja) 2018-03-08
JP6396597B2 (ja) 2018-09-26
US10568705B2 (en) 2020-02-25
US20180185101A1 (en) 2018-07-05
DE112016003634T5 (de) 2018-04-26

Similar Documents

Publication Publication Date Title
US10198875B2 (en) Mapping image display control device, method, and program
CN110010249B (zh) 基于视频叠加的增强现实手术导航方法、***及电子设备
US9563978B2 (en) Image generation apparatus, method, and medium with image generation program recorded thereon
JP2022527360A (ja) 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション
JP2004534584A5 (ja)
KR20130109988A (ko) 최소 침습 수술 훈련을 위한 자동 툴 포지션 결정 방법 및 시스템
Loukas et al. An integrated approach to endoscopic instrument tracking for augmented reality applications in surgical simulation training
EP2901935B1 (en) Method and device for generating virtual endoscope image, and program
US20150190038A1 (en) Virtual endoscopic image generation device, method, and medium containing program
US11304762B2 (en) Mapping image display control device, method, and program
KR102433473B1 (ko) 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
Collins et al. A system for augmented reality guided laparoscopic tumour resection with quantitative ex-vivo user evaluation
Wang et al. Visualization techniques for augmented reality in endoscopic surgery
JP6396597B2 (ja) マッピング画像表示制御装置および方法並びにプログラム
CN112331311B (zh) 一种腹腔镜手术中视频与术前模型融合显示的方法及装置
CN117100393A (zh) 一种用于视频辅助外科手术靶标定位的方法、***和装置
Stoyanov et al. Intra-operative visualizations: Perceptual fidelity and human factors
CN110189407A (zh) 一种基于hololens的人体三维重建模型***
Vagvolgyi et al. Video to CT registration for image overlay on solid organs
Singh et al. A novel enhanced hybrid recursive algorithm: image processing based augmented reality for gallbladder and uterus visualisation
JP2020520759A (ja) ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法
US10062184B2 (en) Medical image display control device, method of operation for same, and medical image display control program
Wang et al. Stereoscopic augmented reality for single camera endoscopy: a virtual study
US20220392173A1 (en) Virtual enhancement of a camera image
Cotin et al. Augmented Reality for Computer-Guided Interventions

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16844016

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017538890

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 112016003634

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16844016

Country of ref document: EP

Kind code of ref document: A1