WO2020185048A2 - C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법 - Google Patents

C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법 Download PDF

Info

Publication number
WO2020185048A2
WO2020185048A2 PCT/KR2020/003564 KR2020003564W WO2020185048A2 WO 2020185048 A2 WO2020185048 A2 WO 2020185048A2 KR 2020003564 W KR2020003564 W KR 2020003564W WO 2020185048 A2 WO2020185048 A2 WO 2020185048A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
plate
arm
ray
source
Prior art date
Application number
PCT/KR2020/003564
Other languages
English (en)
French (fr)
Other versions
WO2020185048A3 (ko
Inventor
최진혁
Original Assignee
큐렉소 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 큐렉소 주식회사 filed Critical 큐렉소 주식회사
Priority to CN202080020961.2A priority Critical patent/CN113556977B/zh
Priority to EP20770949.4A priority patent/EP3939509A4/en
Priority to JP2021553134A priority patent/JP7213413B2/ja
Priority to US17/437,608 priority patent/US11337763B2/en
Publication of WO2020185048A2 publication Critical patent/WO2020185048A2/ko
Publication of WO2020185048A3 publication Critical patent/WO2020185048A3/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/08Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Definitions

  • the present invention relates to a C-arm-based medical imaging system and a method for matching a 2D image and a 3D space, and more particularly, a matching relationship between a C-arm image pixel and a corresponding 3D space coordinate and/or an arbitrary
  • the present invention relates to a medical imaging system and method for generating a matching relationship between 3D coordinates and corresponding C-arm image pixels.
  • the C-arm-based medical imaging system has greatly contributed to improving the accuracy of treatment by allowing doctors to check the treatment situation in real time.
  • doctors perform the procedure by visually checking the C-arm image while inserting a catheter and an injection into the lesion around the spinal nerve.
  • the mobile C-arm X-ray apparatus generally moves the X-ray source 100, the detector 200 facing it, the C-shaped frame 300, and the frame 300. It is configured to include a driving unit 400.
  • the operator controls the driving unit 400 to rotate or translate the frame 300 to position the source 100 and the detector 200 at a desired photographing position, and then irradiate an X-ray to obtain an image.
  • the operator may obtain multiple X-ray images of the subject 500 while changing the positions of the source 100 and the detector 200, and may reconstruct a 3D voxel through so-called'back-projection'.
  • the geometry of the C-arm device does not provide accurate location information, it is not possible to reconstruct an accurate voxel and provide the location information.
  • the C-arm X-ray source 100 is very heavy, and there are many cases of sagging. Even if the source 100 and the detector 200 are rotated along the circumferential orbit of the frame 300, the C-arm The geometry is not kept constant, so it is difficult to reconstruct an accurate voxel by'back-projection'.
  • the location of the detector planes 202 and d cannot be known except for the manufacturer, and the source devices 102 and S are also inside the case 100 Since it is located at, the exact position of the light source cannot be known, so the actual position of the synthesized 3D model cannot be specified with the C-arm image.
  • the present invention has been devised to solve the problems of the prior art described above, and provides a medical imaging system and a matching method capable of matching a desired C-arm image pixel and a medical spatial coordinate corresponding thereto without forming a 3D voxel.
  • the purpose is to provide a medical imaging system and a matching method capable of matching arbitrary medical spatial coordinates to one pixel on a given C-arm image.
  • the above object is a medical imaging system according to an aspect of the present invention, comprising: a C-type fluoroscopy apparatus (hereinafter referred to as'C-arm') having an X-ray source and a detector; A first plate installed in an X-ray path between the X-ray source and the detector and having a first transmission surface provided with a plurality of first ball markers having X-ray opacity and a first optical marker; A second plate installed in an X-ray path between the X-Sir source and the detector and having a second transmission surface and a second optical marker on which a plurality of second ball markers having X-ray opacity are provided; A reference optical marker for providing a three-dimensional reference coordinate system; An optical tracking device for recognizing positions of the first and second optical markers and the reference optical marker; And obtaining a first photographed image and a second photographed image for the subject at a first position and a second position where the detectors are different from each other, and positions of the first and second ball markers on the first
  • the matching unit may include a position of the first ball marker on the first and second photographed images; Projecting the first and second photographed images onto the first plate along the X-ray path based on the correspondence between the positions of the first ball markers on the first plate calculated through the first optical marker
  • the first and second projection images can be obtained, and the position of the second ball marker on the first and second projection images
  • the matching unit is a projection path of the first X-ray irradiated from the first source position from the positional relationship of the first source position and the first projection image, the second source position and the position of the second projection image From the relationship, it is possible to calculate a 3D contrast space in which the projection paths of the second X-rays irradiated from the second source position overlap.
  • the medical imaging system includes a display for displaying the first and second photographed images; And a user interface for receiving arbitrary location information on the first and second photographed images from the operator, wherein the matching unit matches the spatial coordinates on the reference coordinate system corresponding to the location information input from the operator. I can.
  • the medical imaging system further includes a medical tool having a third optical marker, and the matching unit acquires the position coordinates of the medical tool obtained by the optical tracking device through the third optical marker, and the conversion relationship On the basis of the first and second photographed images, the location information of the medical tool may be calculated.
  • the first plate may include a fixing member for fixing the first transmission surface to the C-arm so that the first transmission surface is positioned on the front portion of the detector, and the second plate includes the first plate and the X- It can be installed between the ray detectors.
  • the above object is a method of matching a C-arm 2D image and a 3D space according to another aspect of the present invention, comprising: obtaining a first photographed image by a C-arm detector at a first position; Obtaining a first projection image by back-projecting the first photographed image onto a first plate along a first X-ray path corresponding to the first position, wherein the first plate comprises the first X-ray path Having a first optical marker provided on the image and capable of identifying a location in a medical space coordinate system (hereinafter, referred to as “reference coordinate system”); C- corresponding to the first position based on the correspondence between the position of the ball marker of the second plate on the first X-ray path in the reference coordinate system and the position of the ball marker of the second plate on the first projection image.
  • reference coordinate system hereinafter, referred to as “reference coordinate system”
  • calculating a first source position that is a position of an arm source Acquiring, by the C-arm detector, a second photographed image at a second position; Obtaining a second projection image by back-projecting the second photographed image onto a first plate provided on the second X-ray path along a second X-ray path corresponding to the second position; Corresponding to the second position based on the correspondence between the position of the ball marker of the second plate on the second X-ray path in the reference coordinate system and the position of the ball marker of the second plate on the first projection image Calculating a second source position that is the position of the C-arm source; And a first line connecting the first source position and a first pixel on the first projection image, and a second line connecting the second calculated position and a second pixel on the second projection image. It can be achieved by a method of matching the C-arm 2D image and 3D space, comprising the step of.
  • the above object is a method of matching a C-arm 2D image and a 3D space according to another aspect of the present invention, comprising: obtaining a first photographed image by a C-arm detector at a first position; Obtaining a first projection image by back-projecting the first photographed image onto a first plate along a first X-ray path corresponding to the first position, wherein the first plate comprises the first X-ray path Having a first optical marker provided on the image and capable of identifying a location in a reference coordinate system; C- corresponding to the first position based on the correspondence between the position of the ball marker of the second plate on the first X-ray path in the reference coordinate system and the position of the ball marker of the second plate on the first projection image.
  • calculating a first source position that is a position of an arm source Acquiring, by the C-arm detector, a second photographed image at a second position; Obtaining a second projection image by back-projecting the second photographed image onto a first plate provided on the second X-ray path along a second X-ray path corresponding to the second position; Corresponding to the second position based on the correspondence between the position in the reference coordinate system of the ball marker of the second plate provided on the second X-ray path and the position of the ball marker of the second plate on the first projection image Calculating a second source position that is the position of the C-arm source; And calculating a first pixel in which an arbitrary spatial coordinate is projected onto the first projection image along the first X-ray path, and the arbitrary spatial coordinate is the second projection image along the second X-ray path. It can be achieved by a method of matching the C-arm 2D image and the 3D space, comprising the step of calculating a second pixel to be projected onto.
  • the step of obtaining the first projection image of the first photographed image onto the first plate includes a position on the first photographed image corresponding to a ball marker of the first plate and a position on the reference coordinate system. It may include calculating the first projection image by warping the first photographed image.
  • the step of obtaining a second projection image of the second photographed image onto the first plate includes a position on the second photographed image corresponding to a ball marker of the first plate and a position on the reference coordinate system. It may include the calculation of the second projection image by warping the second photographed image.
  • the present invention can derive a matching relationship between image pixel-spatial coordinates from the interrelationship of the minimum number of C-arm images, that is, C-arm images acquired at at least two arbitrary positions, without forming 3D voxels. It is possible to implement spatial coordinate-based planning and navigation functions of surgery plans by using the minimum number of C-arm images with no position limit.
  • 1 is a schematic configuration diagram of a conventional C-arm device
  • FIG. 2 is a schematic schematic diagram of a C-arm-based medical imaging system according to an embodiment of the present invention
  • 3 is a flow chart showing a matching method between 2D image pixels and 3D spatial coordinates according to an embodiment of the present invention.
  • 4 to 8 are schematic diagrams for explaining a matching process according to an embodiment of the present invention.
  • FIG. 2 is a schematic schematic diagram of a C-arm-based medical imaging system according to an embodiment of the present invention.
  • the C-arm-based medical imaging system includes a C-arm 10, a first plate 20, a second plate 30, a reference optical marker 40, It includes an optical tracking device 50, a display 60, a user interface unit 70, and a matching unit 80.
  • the C-arm (10) is installed so that the X-ray source (14) and the detector (16) face each other at both ends of the frame (12), and comprises a driving unit (18) for rotating or translating the frame (12). do.
  • the first plate 20 has a first transmission surface 21 and a first optical marker 22 in which a plurality of first ball markers are formed while drawing a first pattern.
  • the first transmission surface 21 is installed to cross the X-ray path between the X-ray source 14 and the detector 16 of the C-arm 10, and the first ball marker is an X-ray light. It is composed of a permeable material.
  • the first optical marker 22 defines a coordinate system of the first plate 20 and is provided to be detected by an external optical tracking device.
  • the first plate 20 is located on the first X-ray path when the C-arm source 14 and the detector 16 are photographed at the first position, and the positions of the source 14 and the detector 16 are second. When the position is changed and photographed, it may be fixedly installed on the C-arm 10 so as to be located on the second X-ray path.
  • the first plate 20 may include a fixing member (not shown) so as to be fixedly attached to the front surface of the detector 16.
  • the second plate 30 has a second transmission surface 31 and a second optical marker 32 in which a plurality of second ball markers are formed while drawing a second pattern.
  • the second transmission surface 31 is installed to cross the X-ray path between the X-ray source 14 and the detector 16 of the C-arm 10, and the second ball marker is made of an X-ray opaque material. Is composed.
  • the second optical marker 32 defines the coordinate system of the second plate 30 and is provided to be detected by an external optical tracking device.
  • the second plate 30 may be fixed or semi-fixed to intersect on the first X-ray path and the second X-ray path, respectively, corresponding to the first and second positions. .
  • the reference optical marker 40 is for providing a reference for defining a coordinate system of a medical space in which the C-arm 10 is operated, and is provided to be detected by an external optical tracking device.
  • the optical tracking device 50 is for recognizing optical markers, such as the first and second optical markers 22 and 32 and the reference optical marker 40, and may be implemented as an OTS (Optical Tracking System). Since the commercialized medical OTS (Optical Tracking System) provides a conversion function between optical marker coordinate systems in addition to the distance, azimuth, and height to the optical marker, the optical tracking device 50 can be implemented with a commercialized medical OTS.
  • OTS Optical Tracking System
  • the display 60 is for providing an X-ray image captured by the detector 16 to a practitioner, and is for receiving location information input by the practitioner through the user interface unit 70, for example, a touch screen, a mouse, etc.
  • the input location information may be superimposed on the X-ray image through the display 60.
  • the matching unit 80 is based on the coordinate system of the first and second optical markers 22 and 32 obtained from the optical tracking device 50, the reference coordinate system of the reference optical marker 40, and the image captured by the detector 16. , Calculate the matching relationship between the image pixel and the 3D space coordinates.
  • the matching unit 80 may be implemented through a processor, a memory, and software for performing an image processing process based on a coordinate system.
  • FIG. 3 is a flowchart illustrating a matching method between a 2D image pixel and 3D spatial coordinates according to an embodiment of the present invention
  • FIGS. 4 to 8 are schematic diagrams for explaining step-by-step a matching method according to an embodiment of the present invention.
  • the source 14 irradiates an X-ray to the affected area of the patient, and the detector 16 acquires a first photographed image ( S1).
  • the first position may be selected by the operator as an arbitrary position, but since an anterior-posterior (AP) image and a lateral-lateral (LL) image are used in the surgical process, in this embodiment, an AP image can be obtained. Choose by location.
  • the first position is a position where a similar image close to the AP image can be obtained, and an image captured here is also collectively referred to as an AP image.
  • the X-rays irradiated from the X-ray source 14 in the form of a point circle are incident on the detector 16 by projecting the subject along the first X-ray path, and the detector 16 An AP image, which is a first photographed image, is acquired. Since the operator does not need to take multiple images to match the exact AP location, convenience in use is greatly improved.
  • the matching unit 80 obtains a first projection image by projecting the first photographed image back onto the first plate 20 along the X-ray irradiation path (S2).
  • the first projection image may be obtained by matching the first ball marker on the first photographed image with the first ball marker on the first plate 20 as a'reference point'.
  • the first X-ray path irradiated from the point source type X-ray source 14 is spread in a conical shape, a known image warping algorithm is applied to the first photographed image to form a first projection image with a nonlinear transformation relationship.
  • a known image warping algorithm is applied to the first photographed image to form a first projection image with a nonlinear transformation relationship.
  • the position of the first ball marker on the first plate 20 on the same plane as the first projection image and the position of the first ball marker formed on the first photographed image are mapped as a reference point, and other pixels on the first photographed image are linear or
  • the first projection image can be obtained through nonlinear interpolation.
  • An arbitrary pixel of the first photographed image is converted into a pixel of the first projection image through a transformation matrix defining a conversion relationship between the first photographed image and the first projected image, and the pixel of the first projected image is a first plate (
  • the coordinates on the medical space reference coordinate system may be converted into coordinates through the first optical marker 22 of 20).
  • the matching unit 80 is the position of the C-arm source 14 with respect to the first photographed image through the relationship between the second ball marker located on the first projection image and the second ball marker on the second plate 30. (Hereinafter,'first source location') is obtained (S3).
  • the first projection image that can know the 3D location coordinates through the first optical marker 22 is used as a reference.
  • the first source location (S AP ) can be obtained from the intersection of the lines. Since the location information of the first projection image and the location information of the second plate 30 are acquired by the optical tracking device 50, the first source location S AP can be calculated.
  • the source 14 irradiates an X-ray to the patient's affected area, and the detector 16 acquires a second photographed image ( S4).
  • the second position may be selected by the operator as an arbitrary position, but in this embodiment, it is selected as a position where an LL image can be obtained.
  • the second position is a position where an image similar to the LL image can be obtained, and the image taken here is also collectively referred to as an LL image.
  • the matching unit 80 obtains a second projection image by back-projecting the second photographed image onto the first plate 20 along the second X-ray path (S5).
  • a second projection image can be obtained by matching the plurality of first ball markers on the second photographed image with the first ball markers on the first plate 20 as a'reference point'. It can be implemented by applying an image warping algorithm.
  • the matching unit 80 is the position of the C-arm source 14 corresponding to the second position through the positional relationship between the second ball marker located on the second projection image and the second ball marker on the second plate 30 (hereinafter ,'Second source location') is obtained (S6).
  • FIG. 6 shows a first X-ray that starts from a first source position (S AP ) and spreads in a conical shape to the first plate 20, and starts from a second source position (S LL ) to the first plate 20. It shows that a space where the second X-rays diffused in a cone shape overlap.
  • This overlapped space conceptually represents a space in which a pixel of interest on the first and second projection images is located or a three-dimensional contrast space in which a subject is located.
  • the matching unit 80 matches the coordinates in the contrast space with the pixels on the photographed image (S7).
  • one coordinate (P) in the contrast space is projected on the first projection image by the first X-ray and the second projection is obtained by the first pixel (P APVD ) and the second X-ray.
  • the first and second pixels ((P APVD , P LLVD )) on the first and second projection images are matched to the second pixel (P LLVD ) obtained by projecting onto the image, and the inverse warping matrix (T APwarp -1) ) To the pixels P APimg and P LLimg on the first and second captured images and displayed on the display 60.
  • one pixel in the contrast space may indicate, for example, the position of the tip of the surgical instrument.
  • the optical tracking device 50 can recognize the third optical marker of the surgical tool to obtain coordinates, which is the position information of the tip, and the matching unit 80 is based on the coordinates of the tip.
  • the position may be calculated and displayed through the display 60. Accordingly, the operator can display the position of the surgical tool in real time on two given 2D images in real time, and thus can be used together with a tracking function and a navigation function.
  • Figure 8 is a first interested pixel (P APimg) and a corresponding second recording second interested pixel (P LLimg) the first and after the warping to the second projected image back-projected on the image on the first recorded image It shows that it is matched to one coordinate (P) in the contrast space as it forms an intersection (P) in the contrast space.
  • the first line (P in2 -P in1 ) is matched from the contrast space to the (P in4 -P in3 ) line on the second projected image, and then reverse warped (T LLwarp -1 ) is matched to the second photographed image (P
  • the LLimg1 -P LLimg2 ) line may be expressed, and a second pixel of interest (P LLimg3 ) of the pixels of the line (P LLimg1 -P LLimg2 ) matched on the second photographed image selected by the operator may be selected.
  • the second pixel of interest (P LLimg3 ) is warped to match one pixel (P LLVD ) on the second projected image, and as a result, the intersection of the second pixel of interest (P LLimg3 ) and the first pixel of interest (P APimg ) ( One coordinate in the contrast space corresponding to P) is calculated as a matched coordinate.
  • the first pixel of interest P APimg and the second pixel of interest P LLimg3 may be selected as points identified by the operator as the same feature point of the subject. Accordingly, the operator can select a desired point for the first and second photographed images as the first pixel of interest (P APimg ) and the second pixel of interest (P LLimg3 ) through the user interface unit 70, which is a spatial coordinate It can be seen that it can be converted to and provided as surgical planning information to medical robots.
  • the fixed installation positions of the first plate 20 and the second plate 30 can be changed within a range intersecting the X-ray path, and the markers on the first and second plates 20 and 30 Shapes and patterns can be chosen within the range of achieving the same function and purpose.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Gynecology & Obstetrics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은 C-arm 기반의 의료영상 시스템 및 2D 이미지와 3D 공간의 정합방법에 관한 것이다. 본 발명의 의료영상 시스템은 X-레이 소스 및 디텍터를 갖는 C-arm; 상기 X-레이 소스 및 상기 디텍터 사이의 X-레이 경로에 설치되고, X-레이 불투과성의 복수의 제1 볼마커가 마련된 제1 투과면 및 제1 광학마커를 갖는 제1 플레이트; 상기 엑스서 소스 및 상기 디텍터 사이의 X-레이 경로에 설치되고, X-레이 불투과성의 복수의 제2 볼마커가 마련된 제2 투과면 및 제2 광학마커를 갖는 제2 플레이트; 3차원 기준 좌표계를 제공하기 위한 기준광학마커; 상기 제1 및 제2 광학마커 및 상기 기준광학마커의 위치를 인식하는 광학추적장치; 및 상기 디텍터가 서로 다른 제1 위치 및 제2 위치에서 피검체에 대해 제1 촬영이미지 및 제2 촬영이미지를 각각 획득하고, 상기 제1 및 제2 촬영이미지 상의 상기 제1 및 제2 볼마커의 위치와 상기 광학추적장치로부터 얻은 위치정보를 기초로 3차원 기준 좌표계 상의 좌표와 상기 제1 및 제2 촬영이미지 상의 위치 사이의 정합관계를 산출하는 정합부를 포함한다. 본 발명은 최소 개수의 C-arm 이미지 즉, 최소 2개의 임의의 위치에서 획득한 C-arm 이미지들의 상호 관계로부터 이미지 픽셀 - 공간 좌표간 정합 관계를 도출할 수 있어, 3D 복셀을 형성하지 않으면서도 위치에 제한없는 최소 개수의 C-arm 이미지를 이용하여 공간 좌표기반의 수술계획의 플래닝, 네비게이션 기능을 구현할 수 있다.

Description

C-ARM 기반의 의료영상 시스템 및 2D 이미지와 3D 공간의 정합방법
본 발명은 C-arm 기반의 의료영상 시스템 및 2D 이미지와 3D 공간의 정합방법에 관한 것으로서, 더욱 상세하게는, C-arm 이미지 픽셀 및 이에 대응하는 3D 공간 좌표 사이의 정합관계 및/또는 임의의 3D 좌표 및 이에 대응하는 C-arm 이미지 픽셀 사이의 정합관계를 생성하는 의료영상 시스템 및 방법에 관한 것이다.
C-arm 기반의 의료영상 시스템은 의사가 치료 상황을 실시간으로 확인할 수 있도록 함으로써 치료의 정확성을 높이는데 크게 기여해 왔다. 예컨대, 척추 디스크 치료법으로 알려진 경막외주사, 신경차단술, 신경성형술, 고주파열치료술 등을 시술할 때, 의사는 척추 신경 주위의 병변에 주사, 카테트를 삽입하면서 C-arm 이미지를 육안으로 확인함으로써 시술의 안전성과 정확성을 담보한다.
의사의 시술을 보조하기 위한 의료로봇, 플래닝 시스템, 네비게이션 시스템 등이 개발됨에 따라, 의료로봇, 플래닝 시스템 등에 요구되는 고도화된 기능 예컨대, C-arm 스캔 객체의 3D 재구성, 피검 객체의 3차원 공간위치 정보 등이 요구되고 있지만, 보편적인 C-arm 은 이러한 기능을 제공하지 못하고 있다.
도1에 개시된 바와 같이, 모바일 C-arm X-레이 장치는 일반적으로 X-레이 소스(100), 이에 대향하는 디텍터(200), C 모양의 프레임(300), 및 프레임(300)을 이동시키는 구동부(400)를 포함하여 구성된다. 시술자는 구동부(400)를 제어하여 프레임(300)을 회전 또는 병진 운동시키면서 원하는 촬영위치에 소스(100) 및 디텍터(200)를 위치시킨 후, X-레이를 조사하여 이미지를 획득한다. 시술자는 소스(100) 및 디텍터(200)의 위치를 변경하면서 피검체(500)에 대한 다수의 X-레이 이미지를 얻을 수 있고, 이른바 'back-projection'을 통해 3D 복셀을 재구성할 수 있다.
그러나 C-arm 장치의 기하 구조는 정확한 위치 정보를 제공하지 못하기 때문에, 정확한 복셀을 재구성할 수 없을 뿐만 아니라 그 위치정보를 제공할 수도 없다. C-arm X-레이 소스(100)는 매우 무겁고, 이에 처짐 현상이 발생하는 경우가 많아 프레임(300)의 원주 궤도를 따라 소스(100)와 디텍터(200)를 회전 이동시키더라도 C-arm의 기하구조가 일정하게 유지되지 않으며, 따라서'back-projection'에 의해서 정확한 복셀을 재구성하기 어렵다. 또한, 디텍터 평면(202, d)이 C-arm 케이스 내측(200)에 위치하여 디텍터 평면(202, d)의 위치를 제조사 외에는 알 수 없고, 소스 장치(102, S)도 케이스 내측(100)에 위치하고 있어 정확한 광원의 위치를 알 수 없으므로, C-arm 이미지로는 합성된 3D 모델의 실제 위치를 특정할 수가 없다.
그러므로 주어진 C-arm 기하 구조에 관한 정보만을 활용하더라도 이미지와 공간 사이의 정합이 가능한 새로운 의료영상 시스템에 관한 기술이 요구되고 있다.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위해 안출된 것으로서 3D 복셀을 형성하지 않고 원하는 C-arm 이미지 픽셀과 이에 대응하는 의료공간 좌표를 정합할 수 있는 의료영상 시스템 및 정합 방법을 제공하는 것을 목적으로 한다. 또한, 본 발명은 임의의 의료공간 좌표를 주어진 C-arm 이미지 상의 일 픽셀에 정합할 수 있는 의료영상 시스템 및 정합 방법을 제공하는 것을 목적으로 한다.
상기 목적은 본 발명의 일 양태에 따른 의료영상 시스템에 있어서, X-레이 소스 및 디텍터를 갖는 C형 투시조영장비(이하, 'C-arm'이라 함); 상기 X-레이 소스 및 상기 디텍터 사이의 X-레이 경로에 설치되고, X-레이 불투과성의 복수의 제1 볼마커가 마련된 제1 투과면 및 제1 광학마커를 갖는 제1 플레이트; 상기 엑스서 소스 및 상기 디텍터 사이의 X-레이 경로에 설치되고, X-레이 불투과성의 복수의 제2 볼마커가 마련된 제2 투과면 및 제2 광학마커를 갖는 제2 플레이트; 3차원 기준 좌표계를 제공하기 위한 기준광학마커; 상기 제1 및 제2 광학마커 및 상기 기준광학마커의 위치를 인식하는 광학추적장치; 및 상기 디텍터가 서로 다른 제1 위치 및 제2 위치에서 피검체에 대해 제1 촬영이미지 및 제2 촬영이미지를 각각 획득하고, 상기 제1 및 제2 촬영이미지 상의 상기 제1 및 제2 볼마커의 위치와 상기 광학추적장치로부터 얻은 위치정보를 기초로 3차원 기준 좌표계 상의 좌표와 상기 제1 및 제2 촬영이미지 상의 위치 사이의 정합관계를 산출하는 정합부를 포함하는 것을 특징으로 하는 의료영상 시스템에 의해 달성될 수 있다.
여기에서, 상기 정합부는, 상기 제1 및 제2 촬영이미지상 상기 제1 볼마커의 위치와; 상기 제1 광학마커를 매개로 산출되는 상기 제1 플레이트상의 제1 볼마커의 위치간 대응관계를 기초로 상기 제1 및 제2 촬영이미지를 상기 X-레이 경로를 따라 상기 제1 플레이트상에 각각 투영하여 제1 및 제2 투영이미지를 구할 수 있고, 상기 제1 및 제2 투영이미지상 상기 제2 볼마커의 위치와; 상기 제2 광학마커를 매개로 산출되는 상기 제2 플레이트상의 제2 볼마커의 위치간 대응관계를 기초로 상기 제1 및 제2 촬영이미지에 각각 대응하는 상기 X-레이 소스의 제1 및 제2 소스위치를 구하도록 할 수 있다. 그리고, 상기 정합부는 상기 제1 소스위치 및 상기 제1 투영이미지의 위치 관계로부터 상기 제1 소스위치에서 조사되는 제1 X-레이의 투영 경로 및 상기 제2 소스위치 및 상기 제2 투영이미지의 위치 관계로부터 상기 제2 소스위치에서 조사되는 제2 X-레이의 투영 경로가 중첩되는 3차원 조영공간을 산출할 수 있다.
상기 의료영상 시스템은 상기 제1 및 제2 촬영이미지를 표시하기 위한 디스플레이; 및 시술자로부터 상기 제1 및 제2 촬영이미지 상에 임의의 위치정보를 입력받기 위한 사용자 인터페이스를 더 포함하고, 상기 정합부는 상기 시술자로부터 입력된 위치정보에 대응하는 상기 기준 좌표계 상의 공간좌표를 정합할 수 있다.
상기 의료영상 시스템은 제3 광학마커를 가지는 의료도구를 더 포함하고, 상기 정합부는 상기 광학추적장치가 상기 제3 광학마커를 매개로 획득한 상기 의료도구의 위치 좌표를 획득하고, 상기 전환관계를 기초로 상기 제1 및 제2 촬영이미지 상에서 상기 의료도구의 위치정보를 산출하도록 할 수 있다.
그리고, 상기 제1 플레이트는 상기 제1 투과면이 상기 디텍터의 전면부에 위치하도록 상기 C-arm 에 고정하기 위한 고정부재를 포함할 수 있으며, 상기 제2 플레이트는 상기 제1 플레이트와 상기 X-레이 디텍터 사이에 설치되도록 할 수 있다.
또한, 상기 목적은 본 발명의 또다른 양태에 따른 C-arm 2D 이미지와 3D 공간의 정합 방법에 있어서, 제1 위치에서 C-arm 디텍터가 제1 촬영이미지를 획득하는 단계; 상기 제1 촬영이미지를 상기 제1 위치에 대응하는 제1 X-레이 경로를 따라 제1 플레이트상으로 역투영하여 제1 투영이미지를 구하는 단계로서, 상기 제1 플레이트는 상기 제1 X-레이 경로상에 마련되고 의료공간 좌표계(이하, '기준 좌표계')에서 위치 식별이 가능한 제1 광학마커를 가지는 단계; 상기 제1 X-레이 경로상에 마련된 제2 플레이트의 볼마커의 상기 기준 좌표계상 위치와 상기 제1 투영이미지상의 제2 플레이트의 볼마커의 위치의 대응관계를 기초로 상기 제1 위치에 대응하는 C-arm 소스의 위치인 제1 소스위치를 산출하는 단계; 제2 위치에서 C-arm 디텍터가 제2 촬영이미지를 획득하는 단계; 상기 제2 촬영이미지를 상기 제2 위치에 대응하는 제2 X-레이 경로를 따라 상기 제2 X-레이 경로상에 마련된 제1 플레이트상으로 역투영하여 제2 투영이미지를 구하는 단계; 상기 제2 X-레이 경로상에 마련된 상기 제2 플레이트의 볼마커의 상기 기준 좌표계상 위치와 상기 제1 투영이미지상의 상기 제2 플레이트의 볼마커의 위치의 대응관계를 기초로 상기 제2 위치에 대응하는 상기 C-arm 소스의 위치인 제2 소스위치를 산출하는 단계; 및 상기 제1 소스위치와 상기 제1 투영이미지상의 제1 픽셀을 연결하는 제1 라인과, 상기 제2 산출위치와 상기 제2 투영이미지 상의 제2 픽셀을 연결하는 제2 라인의 교차점 좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 C-arm 2D 이미지와 3D 공간의 정합 방법에 의해 달성될 수 있다.
또한, 상기 목적은 본 발명의 또다른 양태에 따른 C-arm 2D 이미지와 3D 공간의 정합 방법에 있어서, 제1 위치에서 C-arm 디텍터가 제1 촬영이미지를 획득하는 단계; 상기 제1 촬영이미지를 상기 제1 위치에 대응하는 제1 X-레이 경로를 따라 제1 플레이트상으로 역투영하여 제1 투영이미지를 구하는 단계로서, 상기 제1 플레이트는 상기 제1 X-레이 경로상에 마련되고 기준 좌표계에서 위치 식별이 가능한 제1 광학마커를 가지는 단계; 상기 제1 X-레이 경로상에 마련된 제2 플레이트의 볼마커의 상기 기준 좌표계상 위치와 상기 제1 투영이미지상의 제2 플레이트의 볼마커의 위치의 대응관계를 기초로 상기 제1 위치에 대응하는 C-arm 소스의 위치인 제1 소스위치를 산출하는 단계; 제2 위치에서 C-arm 디텍터가 제2 촬영이미지를 획득하는 단계; 상기 제2 촬영이미지를 상기 제2 위치에 대응하는 제2 X-레이 경로를 따라 상기 제2 X-레이 경로상에 마련된 제1 플레이트상으로 역투영하여 제2 투영이미지를 구하는 단계; 상기 제2 X-레이 경로상에 마련된 상기 제2 플레이트의 볼마커의 상기 기준 좌표계상 위치와 상기 제1 투영이미지상의 상기 제2 플레이트의 볼마커의 위치의 대응관계를 기초로 상기 제2 위치에 대응하는 상기 C-arm 소스의 위치인 제2 소스위치를 산출하는 단계; 및 임의의 공간 좌표가 상기 제1 X-레이 경로를 따라 상기 제1 투영이미지에 투영되는 제1 픽셀을 산출하고, 상기 임의의 공간 좌표가 상기 제2 X-레이 경로를 따라 상기 제2 투영이미지에 투영되는 제2 픽셀을 산출하는 단계를 포함하는 것을 특징으로 하는 C-arm 2D 이미지와 3D 공간의 정합 방법에 의해 달성될 수 있다.
여기에서, 상기 제1 플레이트 상으로 상기 제1 촬영이미지의 제1 투영이미지를 구하는 단계는, 상기 제1 플레이트의 볼마커에 대응하는 상기 제1 촬영이미지상에서의 위치 및 상기 기준 좌표계상의 위치를 기준으로 상기 제1 촬영이미지를 와핑하여 상기 제1 투영이미지를 산출하는 것을 포함할 수 있다. 또는, 상기 제1 플레이트 상으로 상기 제2 촬영이미지의 제2 투영이미지를 구하는 단계는, 상기 제1 플레이트의 볼마커에 대응하는 상기 제2 촬영이미지상에서의 위치 및 상기 기준 좌표계상의 위치를 기준으로 상기 제2 촬영이미지를 와핑하여 상기 제2 투영이미지를 산출하는 것을 포함하도록 할 수 있다.
본 발명은 최소 개수의 C-arm 이미지 즉, 최소 2개의 임의의 위치에서 획득한 C-arm 이미지들의 상호 관계로부터 이미지 픽셀 - 공간 좌표간 정합 관계를 도출할 수 있어, 3D 복셀을 형성하지 않으면서도 위치에 제한없는 최소 개수의 C-arm 이미지를 이용하여 공간 좌표기반의 수술계획의 플래닝, 네비게이션 기능을 구현할 수 있다.
도1은 종래 C-arm 장치의 개략적인 구성도;
도2는 본 발명의 실시예에 따른 C-arm 기반의 의료영상 시스템의 개략적인 모식도;
도3은 본 발명의 실시예에 따른 2D 이미지 픽셀과 3D 공간 좌표 사이의 정합방법을 나타내는 순서도; 및
도4 내지 도8은 본 발명의 실시예에 따른 정합 과정을 설명하기 위한 모식도이다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예를 설명하도록 한다.
도2는 본 발명의 실시예에 따른 C-arm 기반의 의료영상 시스템의 개략적인 모식도이다.
도2를 참조하면, 본 발명의 실시예에 따른 C-arm 기반의 의료영상 시스템은 C-arm(10), 제1 플레이트(20), 제2 플레이트(30), 기준광학마커(40), 광학추적장치(50), 디스플레이(60), 사용자 인터페이스부(70), 및 정합부(80)를 포함하여 구성된다.
C-arm(10) 은 프레임(12)의 양단에 X-레이 소스(14) 및 디텍터(16)가 대향하도록 설치되고, 프레임(12)을 회전 또는 병진 시키기 위한 구동부(18)를 포함하여 구성된다.
제1 플레이트(20)는 다수의 제1 볼마커가 제1 패턴을 그리며 형성된 제1 투과면(21)과 제1 광학마커(22)를 가진다. 여기에서, 제1 투과면(21)은 C-arm(10)의 X-레이 소스(14) 및 디텍터(16) 사이의 X-레이 경로와 교차하도록 설치되고, 제1 볼마커는 X-레이 불투과성 물질로 구성된다. 제1 광학마커(22)는 제1 플레이트(20)의 좌표계를 정의하고, 또한 외부의 광학식 추적 장치에 의해 검출되도록 마련된다.
제1 플레이트(20)는 C-arm 소스(14) 및 디텍터(16)가 제1 위치에서 촬영할 때에 제1 X-레이 경로상에 위치하고, 소스(14) 및 디텍터(16)의 위치가 제2 위치로 변경되어 촬영할 때에는 제2 X-레이 경로상에 위치하도록 C-arm(10)에 고정 설치될 수 있다. 예컨대, 제1 플레이트(20)는 디텍터(16)의 전면에 고정 부착되도록 고정부재(미도시)를 포함할 수 있다.
제2 플레이트(30)는 다수의 제2 볼마커가 제2 패턴을 그리며 형성된 제2 투과면(31)과 제2 광학마커(32)를 가진다. 제2 투과면(31)은 C-arm(10)의 X-레이 소스(14) 및 디텍터(16) 사이의 X-레이 경로와 교차하도록 설치되고, 제2 볼마커는 X-레이 불투과성 물질로 구성된다. 제2 광학마커(32)는 제2 플레이트(30)의 좌표계를 정의하고, 또한 외부의 광학식 추적 장치에 의해 검출되도록 마련된다.
제2 플레이트(30)는 제1 플레이트(20)와 같이 제1 및 제2 위치에 대응하여 제1 X-레이 경로 및 제2 X-레이 경로상에 각각 교차하도록 고정 또는 반고정 설치될 수 있다.
기준광학마커(40)는 C-arm(10)이 운영되는 의료공간의 좌표계를 정의하기 위한 기준을 제공하기 위한 것으로, 외부의 광학식 추적장치에 검출되도록 마련된다.
광학추적장치(50)는 제1 및 제2 광학마커(22, 32), 기준광학마커(40)와 같이 광학식 마커를 인식하기 위한 것으로 OTS(Optical Tracking System)으로 구현될 수 있다. 상용화된 의료용 OTS(Optical Tracking System)는 광학마커까지의 거리, 방위, 높이 외에도 광학마커 좌표계 사이의 변환 기능도 제공하고 있으므로 상용화된 의료용 OTS로 광학추적장치(50)를 구현할 수 있다.
디스플레이(60)는 디텍터(16)에서 촬영한 X-레이 이미지를 시술자에게 제공하기 위한 것으로, 사용자 인터페이스부(70) 예컨대, 터치스크린, 마우스 등을 통해 시술자가 입력하는 위치정보를 받기 위한 것으로, 입력된 위치정보가 디스플레이(60)를 통해 X-레이 이미지에 중첩 표시되도록 할 수 있다.
정합부(80)는 광학추적장치(50)에서 얻은 제1 및 제2 광학마커(22, 32)의 좌표계, 기준광학마커(40)의 기준 좌표계 및 디텍터(16)에서 촬영한 이미지를 기초로, 이미지 픽셀과 3D 공간 좌표 사이의 정합관계를 산출한다. 정합부(80)는 좌표계를 기초로 이미지 프로세싱 프로세스를 수행하기 위한 프로세서, 메모리, 및 소프트웨어를 통해 구현될 수 있다.
도3은 본 발명의 실시예에 따른 2D 이미지 픽셀과 3D 공간 좌표 사이의 정합방법을 나타내는 순서도이고, 도4 내지 도8은 본 발명의 실시예에 따른 정합방법을 단계별로 설명하기 위한 모식도이다.
도3 내지 도8를 참조하여, 도2에 개시된 의료영상 시스템 및 정합부(80)의 동작을 구체적으로 설명하도록 한다.
먼저, C-arm 소스(14)와 디텍터(16)가 제1 위치에 놓인 상태에서 소스(14)가 X-레이를 환자의 환부에 조사하여 디텍터(16)가 제1 촬영이미지를 획득한다(S1). 여기에서, 제1 위치는 임의의 위치로 시술자에 의해 선택될 수 있지만, 수술 프로세스상 AP(Anterior-Posterior) 이미지와 LL(Lateral-Lateral) 이미지를 사용하므로 본 실시예에서는 AP 이미지를 얻을 수 있는 위치로 선택하도록 한다. 다만, 본 발명은 정확한 AP 이미지를 요하지 않으므로, 제1 위치는 AP 이미지와 근접한 유사 이미지를 얻을 수 있는 위치로 하고, 여기에서 촬영한 이미지도 통칭하여 AP 이미지로 부르기로 한다. 제1 위치에 대응하여, 점원 형태의 X-레이 소스(14)로부터 조사된 X-레이가 제1 X-레이 경로를 따라 피검체를 투사하여 디텍터(16)로 입사되고, 디텍터(16)가 제1 촬영이미지인 AP 이미지를 획득한다. 시술자는 정확한 AP 위치를 맞추기 위해 다수의 이미지를 촬영할 필요가 없으므로 사용상 편의성이 크게 향상된다.
정합부(80)는 제1 촬영이미지를 X-레이 조사 경로를 따라 제1 플레이트(20) 상으로 역투영하여 제1 투영이미지를 구한다(S2). 여기에서, 제1 촬영이미지 상에 위치하는 제1 볼마커와 제1 플레이트(20) 상의 제1 볼마커를 '기준점'으로 매칭함으로써 제1 투영이미지를 구할 수 있다.
점원 형태의 X-레이 소스(14)로부터 조사된 제1 X-레이 경로는 원추형으로 확산되므로, 주지의 이미지 와핑(warping) 알고리즘을 제1 촬영이미지에 적용하여 비선형적인 변환관계의 제1 투영이미지를 구현할 수 있다. 여기에서, 제1 투영이미지와 같은 평면의 제1 플레이트(20)상 제1 볼마커 위치와 제1 촬영이미지상에 맺힌 제1 볼마커 위치를 기준점으로 대응시키고, 제1 촬영이미지상의 다른 픽셀들은 선형 또는 비선형 보간을 통해 제1 투영이미지를 구할 수 있다.
예컨대, 도4에 개시된 바와 같이, 제1 플레이트(20)의 제1 볼마커를 기준으로 rigid body landmark transform(Jounal of the Optical Society of America A. 4:629~642 에 수록된 Berthold K. P. Horn 저서의 "Closed-form solution of absolute orientation using unit quaternions" 참조)을 적용하여 변환 행렬을 구하고, 'thin plate spline transform' (J. Duchon 저서의 "Splines minimizing rotation invariant semi-norms in Sobolev spaces" - consturtive therory of functions of several variables, oberwolfach 1976 참조)을 적용하여 spline 곡선을 기반으로 데이터 보간 및 스무딩(smoothing)함으로써, 제1 촬영이미지인 AP 이미지를 제1 투영이미지로 변환할 수 있다.
제1 촬영이미지와 제1 투영이미지 사이의 변환관계를 규정하는 변환행렬을 통해 제1 촬영이미지의 임의의 픽셀이 제1 투영이미지의 픽셀로 변환되고, 제1 투영이미지의 픽셀은 제1 플레이트(20)의 제1 광학마커(22)를 매개로 하여 의료공간 기준 좌표계 상의 좌표로 변환될 수 있다.
다음, 정합부(80)는 제1 투영이미지에 위치한 제2 볼마커와, 제2 플레이트(30) 상의 제2 볼마커 사이의 관계를 통해 상기 제1 촬영이미지에 대한 C-arm 소스(14)의 위치(이하, '제1 소스위치')를 구한다(S3). 여기에서, 위치 정보를 알 수 없는 제1 촬영이미지를 대신하여, 제1 광학마커(22)를 통해 3D 위치 좌표를 알 수 있는 제1 투영이미지를 기준한다.
도5를 참조하면, 제1 촬영이미지 상의 제2 볼마커가 제1 투영이미지 상으로 와핑된 후, 제1 투영이미지 상의 제2 볼마커와 제2 플레이트(30) 상의 제2 볼마커 위치를 연결함으로써, 연장된 선들의 교점에서 제1 소스위치(SAP)를 구할 수 있다. 제1 투영이미지의 위치 정보 및 제2 플레이트(30)의 위치 정보가 광학추적장치(50)에 의해 획득되므로 제1 소스위치(SAP)를 산출할 수 있다.
다음, C-arm 소스(14)와 디텍터(16)가 제2 위치에 놓인 상태에서 소스(14)가 X-레이를 환자의 환부에 조사하여 디텍터(16)가 제2 촬영이미지를 획득한다(S4). 여기에서, 제2 위치는 임의의 위치로 시술자에 의해 선택될 수 있지만, 본 실시예에서는 LL 이미지를 얻을 수 있는 위치로 선택하도록 한다. 다만, 본 발명은 정확한 LL 이미지를 요하지 않으므로, 제2 위치는 LL 이미지와 유사한 이미지를 얻을 수 있는 위치로 하고, 여기에서 촬영한 이미지도 통칭하여 LL 이미지로 부르기로 한다.
정합부(80)는 제2 촬영이미지를 제2 X-레이 경로를 따라 제1 플레이트(20) 상으로 역투영하여 제2 투영이미지를 구한다(S5). S2 단계에서와 같은 방식으로, 제2 촬영이미지 상에 위치하는 복수의 제1 볼마커와 제1 플레이트(20) 상의 제1 볼마커를 '기준점'으로 매칭함으로써 제2 투영이미지를 구할 수 있으며, 주지의 이미지 와핑(warping) 알고리즘을 적용하여 구현할 수 있다.
정합부(80)는 제2 투영이미지에 위치한 제2 볼마커와, 제2 플레이트(30) 상의 제2 볼마커 사이의 위치 관계를 통해 제2 위치에 대응하는 C-arm 소스(14)의 위치(이하, '제2 소스위치')를 구한다(S6).
도6은 제1 소스위치(SAP)에서 시작되어 제1 플레이트(20)까지 원추형으로 확산되는 제1 X-레이와, 제2 소스위치(SLL)에서 시작되어 제1 플레이트(20)까지 원추형으로 확산되는 제2 X-레이가 중첩되는 공간이 형성되는 것을 보여준다. 이 중첩된 공간(이하, '조영공간')은 제1 및 제2 투영이미지상의 관심 픽셀이 위치하는 공간 또는 피검체가 위치하게 되는 3차원의 조영공간을 개념적으로 나타낸다.
다음, 정합부(80)는 조영공간 내의 좌표와 촬영이미지상의 픽셀을 정합한다(S7).
도7에 개시된 바와 같이, 조영공간내의 일 좌표(P)는 제1 X-레이에 의해 제1 투영이미지에 투영되어져 구해지는 제1 픽셀(PAPVD)과 제2 X-레이에 의해 제2 투영이미지에 투영되어져 구해지는 제2 픽셀(PLLVD)로 정합되고, 다시 제1 및 제2 투영이미지상의 제1 및 제2 픽셀((PAPVD, PLLVD))은 역와핑 행렬(TAPwarp -1)에 의해 제1 및 제2 촬영이미지 상의 픽셀(PAPimg, PLLimg)로 정합되어 디스플레이(60)에 표시될 수 있다.
여기에서, 조영공간내의 일 픽셀은 예컨대, 수술도구의 팁의 위치를 나타낼 수 있다. 광학추적장치(50)는 수술도구의 제3 광학마커를 인식하여 팁의 위치 정보인 좌표를 얻을 수 있으며, 정합부(80)는 팁의 좌표를 기초로 제1 및 제2 촬영이미지상의 팁의 위치 산출하여 디스플레이(60)를 통해 표시되도록 할 수 있다. 이에 따라, 시술자는 수술도구의 위치를 실시간으로 주어진 2개의 2D 이미지에 실시간으로 표시할 수 있어, 추적 기능과 네비게이션 기능과 함께 사용할 수 있다.
한편, 도8은 제1 촬영이미지상의 제1 관심 픽셀(PAPimg)과 이에 대응하는 제2 촬영이미지 상의 제2 관심 픽셀(PLLimg)이 제1 및 제2 투영이미지상으로 와핑된 후 역투영되어 조영공간 내에서 교차점(P)을 형성함에 따라 조영공간 내의 일 좌표(P)로 정합되는 것을 보여준다.
구체적으로 살펴보면, 제1 촬영이미지 상의 제1 관심 픽셀(PAPimg)에 대응하는 제1 투영이미지상의 제1 픽셀(PAPVD)로부터 소스(14)를 향해 제1 X-레이 경로를 따라 역투영됨에 따라 조영공간과 교차하는 제1 라인(Pin2-Pin1)이 형성된다. 제1 라인(Pin2-Pin1)은 조영공간으로부터 제2 투영이미지상의 (Pin4-Pin3) 라인으로 정합되고,다시 역와핑(TLLwarp -1)제2 촬영이미지상으로 정합되어 (PLLimg1-PLLimg2) 라인으로 표현될 수 있으며, 시술자가 선택하는 제2 촬영이미지상에 정합된 (PLLimg1-PLLimg2) 라인의 픽셀 중 제2 관심 픽셀(PLLimg3)을 선택할 수 있다. 제2 관심 픽셀(PLLimg3)은 와핑되어 제2 투영이미지상의 일 픽셀(PLLVD)에 정합되고, 이에 따라 결과적으로 제2 관심 픽셀(PLLimg3)과 제1 관심 픽셀(PAPimg)의 교차점(P)에 대응하는 조영공간 내의 일 좌표가 정합된 좌표로 산출된다.
제1 관심 픽셀(PAPimg)과 제2 관심 픽셀(PLLimg3)은 시술자에 의해 피검체의 동일한 특징점으로 확인된 점으로 선택될 수 있다. 따라서, 시술자는 사용자 인터페이스부(70)를 통해 제1 촬영이미지 및 제2 촬영이미지에 원하는 점을 제1 관심 픽셀(PAPimg) 및 제2 관심 픽셀(PLLimg3)로 선택할 수 있고, 이는 공간좌표로 전환되어 의료로봇 등에 수술 플래닝 정보로서 제공될 수 있음을 알 수 있다.
지금까지 본 발명의 실시예를 설명하였으나, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 안에서 본 발명의 실시예를 변형하거나 치환하는 것이 가능한 것을 이해할 수 있을 것이다.
예를 들어, 제1 플레이트(20)와 제2 플레이트(30)의 고정 설치 위치는 X-레이 경로와 교차하는 범위 안에서 변경이 가능하고, 제1 및 제2 플레이트(20, 30) 상의 마커의 형태와 패턴은 동일한 기능과 목적을 달성하는 범위 안에서 취사선택될 수 있다.
또한, 도3에 개시된 순서도의 정합 단계는 논리적으로 선후 관계가 성립하는 경우를 제외하고 그 선후 관계를 변경하는 것이 가능하며, 본 실시예에서는 2개의 이미지를 이용하고 있지만 더 많은 이미지를 기초로 정합을 할 수 있으며
따라서 전술한 본 발명의 실시예는 예시적인 것으로 이해되어야 하며, 본 발명의 보호범위는 특허청구범위에 기재된 기술적 사상과 그 균등물에 미치는 것으로 보아야 할 것이다.

Claims (12)

  1. 의료영상 시스템에 있어서,
    X-레이 소스 및 디텍터를 갖는 C형 투시조영장비(이하, 'C-arm'이라 함);
    상기 X-레이 소스 및 상기 디텍터 사이의 X-레이 경로에 설치되고, X-레이 불투과성의 복수의 제1 볼마커가 마련된 제1 투과면 및 제1 광학마커를 갖는 제1 플레이트;
    상기 X-레이 소스 및 상기 디텍터 사이의 X-레이 경로에 설치되고, X-레이 불투과성의 복수의 제2 볼마커가 마련된 제2 투과면 및 제2 광학마커를 갖는 제2 플레이트;
    3차원 기준 좌표계를 제공하기 위한 기준광학마커;
    상기 제1 및 제2 광학마커 및 상기 기준광학마커의 위치를 인식하는 광학추적장치; 및
    상기 디텍터가 서로 다른 제1 위치 및 제2 위치에서 피검체에 대해 제1 촬영이미지 및 제2 촬영이미지를 각각 획득하고, 상기 제1 및 제2 촬영이미지 상의 상기 제1 및 제2 볼마커의 위치와 상기 광학추적장치로부터 얻은 위치정보를 기초로 3차원 기준 좌표계 상의 좌표와 상기 제1 및 제2 촬영이미지 상의 위치 사이의 정합관계를 산출하는 정합부를 포함하는 것을 특징으로 하는 의료영상 시스템.
  2. 제1항에 있어서,
    상기 정합부는,
    상기 제1 및 제2 촬영이미지상 상기 제1 볼마커의 위치와; 상기 제1 광학마커를 매개로 산출되는 상기 제1 플레이트상의 제1 볼마커의 위치간 대응관계를 기초로 상기 제1 및 제2 촬영이미지를 상기 X-레이 경로를 따라 상기 제1 플레이트상에 각각 투영하여 제1 및 제2 투영이미지를 구하는 것을 특징으로 하는 의료영상 시스템.
  3. 제2항에 있어서,
    상기 정합부는,
    상기 제1 및 제2 투영이미지상 상기 제2 볼마커의 위치와; 상기 제2 광학마커를 매개로 산출되는 상기 제2 플레이트상의 제2 볼마커의 위치간 대응관계를 기초로 상기 제1 및 제2 촬영이미지에 각각 대응하는 상기 X-레이 소스의 제1 및 제2 소스위치를 구하는 것을 특징으로 하는 의료영상 시스템.
  4. 제3항에 있어서,
    상기 정합부는 상기 제1 소스위치 및 상기 제1 투영이미지의 위치 관계로부터 상기 제1 소스위치에서 조사되는 제1 X-레이의 투영 경로 및 상기 제2 소스위치 및 상기 제2 투영이미지의 위치 관계로부터 상기 제2 소스위치에서 조사되는 제2 X-레이의 투영 경로가 중첩되는 3차원 조영공간을 산출하는 것을 특징으로 하는 의료영상 시스템.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제1 및 제2 촬영이미지를 표시하기 위한 디스플레이; 및
    시술자로부터 상기 제1 및 제2 촬영이미지 상에 임의의 위치정보를 입력받기 위한 사용자 인터페이스를 포함하고,
    상기 정합부는 상기 시술자로부터 입력된 위치정보에 대응하는 상기 기준 좌표계 상의 공간좌표를 산출하는 것을 특징으로 하는 의료영상 시스템.
  6. 제1항 내지 제4항 중 어느 한 항에 있어서,
    제3 광학마커를 가지는 의료도구를 더 포함하고,
    상기 정합부는 상기 광학추적장치가 상기 제3 광학마커를 매개로 획득한 상기 의료도구의 위치 좌표를 획득하고, 상기 전환관계를 기초로 상기 제1 및 제2 촬영이미지 상에서 상기 의료도구의 위치정보를 산출하는 것을 특징으로 하는 의료영상 시스템.
  7. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제1 플레이트는 상기 제1 투과면이 상기 디텍터의 전면부에 위치하도록 상기 C-arm 에 고정하기 위한 고정부재를 포함하는 것을 특징으로 하는 의료영상 시스템.
  8. 제1항 내지 제4항 중 어느 한 항에 있어서,
    상기 제2 플레이트는 상기 제1 플레이트와 상기 X-레이 디텍터 사이에 설치되는 것을 특징으로 하는 의료영상 시스템.
  9. C-arm 2D 이미지와 3D 공간의 정합 방법에 있어서,
    제1 위치에서 C-arm 디텍터가 제1 촬영이미지를 획득하는 단계;
    상기 제1 촬영이미지를 상기 제1 위치에 대응하는 제1 X-레이 경로를 따라 제1 플레이트상으로 역투영하여 제1 투영이미지를 구하는 단계로서, 상기 제1 플레이트는 상기 제1 X-레이 경로상에 마련되고 의료공간 좌표계(이하, '기준 좌표계')에서 위치 식별이 가능한 제1 광학마커를 가지는 단계;
    상기 제1 X-레이 경로상에 마련된 제2 플레이트의 볼마커의 상기 기준 좌표계상 위치와 상기 제1 투영이미지상의 제2 플레이트의 볼마커의 위치의 대응관계를 기초로 상기 제1 위치에 대응하는 C-arm 소스의 위치인 제1 소스위치를 산출하는 단계;
    제2 위치에서 C-arm 디텍터가 제2 촬영이미지를 획득하는 단계;
    상기 제2 촬영이미지를 상기 제2 위치에 대응하는 제2 X-레이 경로를 따라 상기 제2 X-레이 경로상에 마련된 제1 플레이트상으로 역투영하여 제2 투영이미지를 구하는 단계;
    상기 제2 X-레이 경로상에 마련된 상기 제2 플레이트의 볼마커의 상기 기준 좌표계상 위치와 상기 제1 투영이미지상의 상기 제2 플레이트의 볼마커의 위치의 대응관계를 기초로 상기 제2 위치에 대응하는 상기 C-arm 소스의 위치인 제2 소스위치를 산출하는 단계; 및
    상기 제1 소스위치와 상기 제1 투영이미지상의 제1 픽셀을 연결하는 제1 라인과, 상기 제2 산출위치와 상기 제2 투영이미지 상의 제2 픽셀을 연결하는 제2 라인의 교차점 좌표를 산출하는 단계를 포함하는 것을 특징으로 하는 C-arm 2D 이미지와 3D 공간의 정합 방법.
  10. C-arm 2D 이미지와 3D 공간의 정합 방법에 있어서,
    제1 위치에서 C-arm 디텍터가 제1 촬영이미지를 획득하는 단계;
    상기 제1 촬영이미지를 상기 제1 위치에 대응하는 제1 X-레이 경로를 따라 제1 플레이트상으로 역투영하여 제1 투영이미지를 구하는 단계로서, 상기 제1 플레이트는 상기 제1 X-레이 경로상에 마련되고 기준 좌표계에서 위치 식별이 가능한 제1 광학마커를 가지는 단계;
    상기 제1 X-레이 경로상에 마련된 제2 플레이트의 볼마커의 상기 기준 좌표계상 위치와 상기 제1 투영이미지상의 제2 플레이트의 볼마커의 위치의 대응관계를 기초로 상기 제1 위치에 대응하는 C-arm 소스의 위치인 제1 소스위치를 산출하는 단계;
    제2 위치에서 C-arm 디텍터가 제2 촬영이미지를 획득하는 단계;
    상기 제2 촬영이미지를 상기 제2 위치에 대응하는 제2 X-레이 경로를 따라 상기 제2 X-레이 경로상에 마련된 제1 플레이트상으로 역투영하여 제2 투영이미지를 구하는 단계;
    상기 제2 X-레이 경로상에 마련된 상기 제2 플레이트의 볼마커의 상기 기준 좌표계상 위치와 상기 제1 투영이미지상의 상기 제2 플레이트의 볼마커의 위치의 대응관계를 기초로 상기 제2 위치에 대응하는 상기 C-arm 소스의 위치인 제2 소스위치를 산출하는 단계; 및
    임의의 공간 좌표가 상기 제1 X-레이 경로를 따라 상기 제1 투영이미지에 투영되는 제1 픽셀을 산출하고, 상기 임의의 공간 좌표가 상기 제2 X-레이 경로를 따라 상기 제2 투영이미지에 투영되는 제2 픽셀을 산출하는 단계를 포함하는 것을 특징으로 하는 C-arm 2D 이미지와 3D 공간의 정합 방법.
  11. 제9항 또는 제10항에 있어서,
    상기 제1 플레이트 상으로 상기 제1 촬영이미지의 제1 투영이미지를 구하는 단계는, 상기 제1 플레이트의 볼마커에 대응하는 상기 제1 촬영이미지상에서의 위치 및 상기 기준 좌표계상의 위치를 기준으로 상기 제1 촬영이미지를 와핑하여 상기 제1 투영이미지를 산출하는 것을 포함하는 것을 특징으로 하는 C-arm 2D 이미지와 3D 공간의 정합 방법.
  12. 제9항 또는 제10항에 있어서,
    상기 제1 플레이트 상으로 상기 제2 촬영이미지의 제2 투영이미지를 구하는 단계는, 상기 제1 플레이트의 볼마커에 대응하는 상기 제2 촬영이미지상에서의 위치 및 상기 기준 좌표계상의 위치를 기준으로 상기 제2 촬영이미지를 와핑하여 상기 제2 투영이미지를 산출하는 것을 포함하는 것을 특징으로 하는 C-arm 2D 이미지와 3D 공간의 정합 방법.
PCT/KR2020/003564 2019-03-13 2020-03-13 C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법 WO2020185048A2 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202080020961.2A CN113556977B (zh) 2019-03-13 2020-03-13 基于c臂的医学成像***及匹配2d图像与3d空间的方法
EP20770949.4A EP3939509A4 (en) 2019-03-13 2020-03-13 C-ARM BASED MEDICAL IMAGING SYSTEM AND METHOD FOR MATCHING 2D IMAGE AND 3D SPACE
JP2021553134A JP7213413B2 (ja) 2019-03-13 2020-03-13 C-armベースの医用画像システム及び2D画像と3D空間の整合方法
US17/437,608 US11337763B2 (en) 2019-03-13 2020-03-13 C-arm-based medical imaging system, and method for matching 2D image and 3D space

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190028592A KR102203544B1 (ko) 2019-03-13 2019-03-13 C-arm 기반의 의료영상 시스템 및 2D 이미지와 3D 공간의 정합방법
KR10-2019-0028592 2019-03-13

Publications (2)

Publication Number Publication Date
WO2020185048A2 true WO2020185048A2 (ko) 2020-09-17
WO2020185048A3 WO2020185048A3 (ko) 2020-10-29

Family

ID=72426434

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/003564 WO2020185048A2 (ko) 2019-03-13 2020-03-13 C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법

Country Status (6)

Country Link
US (1) US11337763B2 (ko)
EP (1) EP3939509A4 (ko)
JP (1) JP7213413B2 (ko)
KR (1) KR102203544B1 (ko)
CN (1) CN113556977B (ko)
WO (1) WO2020185048A2 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022218388A1 (zh) * 2021-04-17 2022-10-20 诺创智能医疗科技(杭州)有限公司 通过x光影像定位的方法、装置、x光机及可读存储介质
US11890129B2 (en) 2019-02-15 2024-02-06 Koninklijke Philips N.V. X-ray ripple markers for x-ray calibration
US11918406B2 (en) 2019-02-15 2024-03-05 Koninklijke Philips N.V. Marker registration correction by virtual model manipulation
US11931198B2 (en) 2019-02-15 2024-03-19 Koninklijke Philips N.V. X-ray calibration for display overlays onto X-ray images

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US11596369B2 (en) * 2016-05-03 2023-03-07 Daegu Gyeongbuk Institute Of Science And Technology Navigation system for vascular intervention and method for generating virtual x-ray image
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
KR102166149B1 (ko) 2019-03-13 2020-10-15 큐렉소 주식회사 페디클 스크류 고정 플래닝 시스템 및 방법
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
KR102394901B1 (ko) 2020-04-06 2022-05-09 큐렉소 주식회사 2차원 의료영상 기반 척추 수술 플래닝 장치 및 방법
KR102615255B1 (ko) 2020-11-30 2023-12-19 동의대학교 산학협력단 의료용 이미지의 3차원 메쉬 생성을 위한 장치 및 방법
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US11911115B2 (en) * 2021-12-20 2024-02-27 Globus Medical Inc. Flat panel registration fixture and method of using same
KR102443809B1 (ko) 2021-12-28 2022-09-19 주식회사 뉴비전네트웍스 2개 이상의 영상 이미지를 정합하는 영상처리 시스템 제공방법
KR102612603B1 (ko) 2022-11-02 2023-12-12 큐렉소 주식회사 2d-3d 이미지 정합 방법 및 이를 수행하는 수술용 로봇 시스템
CN115869072B (zh) * 2023-02-27 2023-05-30 武汉市第四医院 一种骨折复位机器人***及其控制方法

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2640394B1 (fr) * 1988-12-14 1991-02-15 Schlumberger Etienne Procede pour coordonner plusieurs images d'un meme objet et dispositif pour sa mise en oeuvre
US5963612A (en) 1997-12-31 1999-10-05 Siemens Corporation Research, Inc. Apparatus for C-arm calibration for 3D reconstruction in an imaging system utilizing planar transformation
US6379041B1 (en) * 1998-11-02 2002-04-30 Siemens Aktiengesellschaft X-ray apparatus for producing a 3D image from a set of 2D projections
US6206566B1 (en) * 1998-11-02 2001-03-27 Siemens Aktiengesellschaft X-ray apparatus for producing a 3D image from a set of 2D projections
CA2334495A1 (en) * 2001-02-06 2002-08-06 Surgical Navigation Specialists, Inc. Computer-aided positioning method and system
DE10156445A1 (de) * 2001-11-16 2003-05-28 Philips Corp Intellectual Pty Verfahren und Vorrichtung zur Kalibrierung von und zur Bilderzeugung mit einer schwerkraftempfindlichen Bildaufnahmeeinrichtung
US7065393B2 (en) * 2002-07-11 2006-06-20 Cedara Software Corp. Apparatus, system and method of calibrating medical imaging systems
KR100726022B1 (ko) * 2005-10-26 2007-06-12 한양대학교 산학협력단 복수의 2차원 영상을 이용한 3차원 수술공간 계측 시스템및 그 방법
DE102008025538B4 (de) * 2008-05-28 2017-08-17 Siemens Healthcare Gmbh Verfahren zur Kalibrierung eines Mehrebenen-Röntgengeräts, Kalibrierungseinheit und Mehrebenen-Röntgengerät
EP2245986B1 (de) * 2008-08-22 2013-10-16 BrainLAB AG Pyramidenförmige Röntgenmarkervorrichtung
TW201116259A (en) * 2009-11-04 2011-05-16 Accumis Inc Image calibration device integrated with optical locater
DE102010020781B4 (de) * 2010-05-18 2019-03-28 Siemens Healthcare Gmbh Bestimmung und Überprüfung der Koordinatentransformation zwischen einem Röntgensystem und einem Operationsnavigationssystem
EP2593922A1 (en) * 2010-07-14 2013-05-22 BrainLAB AG Method and system for determining an imaging direction and calibration of an imaging apparatus
US10842461B2 (en) * 2012-06-21 2020-11-24 Globus Medical, Inc. Systems and methods of checking registrations for surgical systems
EP3175791B1 (en) * 2013-11-04 2021-09-08 Ecential Robotics Method for reconstructing a 3d image from 2d x-ray images
KR20150099375A (ko) * 2014-02-21 2015-08-31 삼성전자주식회사 컴퓨터 단층 촬영 장치 및 그에 따른 ct 영상 복원 방법
US9959631B2 (en) 2014-02-21 2018-05-01 Samsung Electronics Co., Ltd. Tomography apparatus and method for reconstructing tomography image thereof
KR102214637B1 (ko) * 2014-03-12 2021-02-10 주식회사바텍 의료용 영상 시스템 및 이의 구동 방법
KR101638477B1 (ko) * 2014-09-19 2016-07-11 주식회사 고영테크놀러지 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 좌표계 정합 방법
CN105769233A (zh) * 2016-02-29 2016-07-20 江苏美伦影像***有限公司 一种几何校正方法
KR101954868B1 (ko) * 2016-05-03 2019-03-08 재단법인대구경북과학기술원 혈관 중재 시술을 위한 내비게이션 시스템 및 가상의 엑스선 이미지 생성 방법
US11596369B2 (en) * 2016-05-03 2023-03-07 Daegu Gyeongbuk Institute Of Science And Technology Navigation system for vascular intervention and method for generating virtual x-ray image
CN106890031B (zh) * 2017-04-11 2020-05-05 东北大学 一种标记物识别及标记点定位方法及手术导航***
KR102285337B1 (ko) * 2017-04-25 2021-08-02 재단법인대구경북과학기술원 엑스선 장치의 캘리브레이션 방법 및 장치
CN107049488B (zh) * 2017-05-27 2022-01-07 北京航空航天大学 一种单平面手术定位方法及模型

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BERTHOLD K. P: "Closed-form solution of absolute orientation using unit quaternions", JOURNAL OF THE OPTICAL SOCIETY OF AMERICA A, vol. 4, pages 629 - 642, XP007905139, DOI: 10.1364/JOSAA.4.000629
J. DUCHON, SPLINES MINIMIZING ROTATION INVARIANT SEMI-NORMS IN SOBOLEV SPACES, 1976
See also references of EP3939509A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11890129B2 (en) 2019-02-15 2024-02-06 Koninklijke Philips N.V. X-ray ripple markers for x-ray calibration
US11918406B2 (en) 2019-02-15 2024-03-05 Koninklijke Philips N.V. Marker registration correction by virtual model manipulation
US11931198B2 (en) 2019-02-15 2024-03-19 Koninklijke Philips N.V. X-ray calibration for display overlays onto X-ray images
WO2022218388A1 (zh) * 2021-04-17 2022-10-20 诺创智能医疗科技(杭州)有限公司 通过x光影像定位的方法、装置、x光机及可读存储介质

Also Published As

Publication number Publication date
CN113556977B (zh) 2024-07-05
US20220039874A1 (en) 2022-02-10
JP2022523587A (ja) 2022-04-25
EP3939509A4 (en) 2022-12-07
US11337763B2 (en) 2022-05-24
WO2020185048A3 (ko) 2020-10-29
KR20200109489A (ko) 2020-09-23
EP3939509A2 (en) 2022-01-19
KR102203544B1 (ko) 2021-01-18
JP7213413B2 (ja) 2023-01-27
CN113556977A (zh) 2021-10-26

Similar Documents

Publication Publication Date Title
WO2020185048A2 (ko) C-arm 기반의 의료영상 시스템 및 2d 이미지와 3d 공간의 정합방법
US7343189B2 (en) Method and device for placing a patient repeatedly into the same relative position
CN101141929B (zh) 用于为介入设备生成空间路线图的方法、***和用于保护其空间精度的质量控制***
US5297037A (en) X-ray simulating method and system for radiotherapy plan
CN107753106A (zh) 定位手术用手术机器人及其控制方法
EP0480035B1 (en) Radiotherapeutic system
CN107753105A (zh) 定位手术用手术机器人***及其控制方法
EP3131629B1 (en) Method and system for calibration
JP7170705B2 (ja) 医療処置中のエフェクタの画像定位のためのシステム及び方法
WO2020209568A1 (ko) 방사선 진단 및 치료 장치의 모션 평가 시스템 및 방법
US20090086912A1 (en) Image display apparatus and x-ray diagnostic apparatus
Albiol et al. Geometrical calibration of x-ray imaging with rgb cameras for 3d reconstruction
JP2022009850A (ja) 校正の方法及びシステム
CN116744875A (zh) 导航支持
Navab et al. Camera-augmented mobile C-arm (CAMC) application: 3D reconstruction using a low-cost mobile C-arm
CN106175931A (zh) 荧光镜视场的标记
CN115868999A (zh) 射线成像***的定位方法、定位装置和可读存储介质
CN109907833B (zh) 医学成像中的标记描绘
Chen et al. Video-guided calibration of an augmented reality mobile C-arm
Zhang et al. Catheter localization for vascular interventional robot with conventional single C-arm
WO2014163317A1 (ko) 방사선 불투과성 반구형 입체 표지를 기반으로 하는 x-선 혈관 조영 영상과 ct 혈관 조영 영상 간의 정합 시스템 및 ct 혈관 조영 영상과 x-선 혈관 조영 영상을 정합하여 심혈관 시술을 수행하는 방법
JP3225139U (ja) 校正のシステム
Camps et al. Evaluation of optical localization in the visible band for ultrasound guidance in radiotherapy using a robotic arm
JP2022521615A (ja) 介入装置追跡
JP2020185337A (ja) 位置決め装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20770949

Country of ref document: EP

Kind code of ref document: A2

ENP Entry into the national phase

Ref document number: 2021553134

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020770949

Country of ref document: EP

Effective date: 20211013