KR20180104763A - 영상 안내 수술에서 투시 영상화 시스템의 자세 추정 및 보정 시스템 및 방법 - Google Patents

영상 안내 수술에서 투시 영상화 시스템의 자세 추정 및 보정 시스템 및 방법 Download PDF

Info

Publication number
KR20180104763A
KR20180104763A KR1020187026110A KR20187026110A KR20180104763A KR 20180104763 A KR20180104763 A KR 20180104763A KR 1020187026110 A KR1020187026110 A KR 1020187026110A KR 20187026110 A KR20187026110 A KR 20187026110A KR 20180104763 A KR20180104763 A KR 20180104763A
Authority
KR
South Korea
Prior art keywords
fluoroscopic
imager
image data
fiducial markers
fluoroscopic imager
Prior art date
Application number
KR1020187026110A
Other languages
English (en)
Inventor
티모시 디 소퍼
페데리코 바바글리
케이틀린 큐 도나위
빈센트 두인담
마이클 디 패리스
올리버 와그너
타오 자오
Original Assignee
인튜어티브 서지컬 오퍼레이션즈 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 filed Critical 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드
Publication of KR20180104763A publication Critical patent/KR20180104763A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/582Calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00725Calibration or performance testing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00809Lung operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2059Mechanical position encoders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2061Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • A61B2034/207Divots for calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • A61B2090/3735Optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4429Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
    • A61B6/4435Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
    • A61B6/4441Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10121Fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Robotics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pulmonology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)

Abstract

컴퓨팅 시스템에 의해 수행되는 방법은 제1 파라미터 세트를 갖는 형광투시 영상기로부터 수술 좌표 공간 내의 제1 기준 마커의 제1 형광투시 영상 데이터를 수신하는 단계를 포함한다. 이 방법은 수술 좌표 공간 내의 제1 기준 마커의 구성을 수신하는 단계를 포함한다. 이 방법은 제1 형광투시 영상 데이터 및 제1 기준 마커의 구성에 기반하여 수술 좌표 공간 내의 형광투시 영상기의 제2 파라미터 세트를 결정하는 단계를 포함한다. 일부 실시예에서, 제2 파라미터 세트를 결정하는 단계는 제1 형광투시 영상 데이터 및 제1 기준 마커의 구성으로부터 수술 좌표 공간 내에서 기준 마커의 보정된 모델을 발생시키는 단계를 포함한다.

Description

영상 안내 수술에서 투시 영상화 시스템의 자세 추정 및 보정 시스템 및 방법
관련 출원
본 특허 출원은 발명의 명칭을 "영상 안내 수술에서 투시 영상화 시스템의 자세 추정 및 보정 시스템 및 방법"으로 하여 2016년 2월 12일 자로 출원된 미국 가특허 출원 번호 62/294,845 및 발명의 명칭을 "영상 안내 수술에서 투시 영상화 시스템의 자세 추정 및 보정 시스템 및 방법"으로 하여 2016년 2월 12일 자로 출원된 미국 가특허 출원 번호 62/294,857의 우선권 및 이익을 주장하며, 이들 모두는 그 전문이 본원에 참조로 포함된다.
본 개시내용은 영상 안내 시술을 수행하기 위한 시스템 및 방법에 관한 것이며, 더 구체적으로는, 영상 안내 시술 중 도구 내비게이션의 정확성을 향상시키기 위해 투시 영상화 시스템의 자세 추정 및 보정을 위한 시스템 및 방법, 및 실시간 단층영상합성에 관한 것이다.
최소 침습 의료 기술은 의료 시술 중에 손상되는 조직의 양을 감소시키도록 의도되고, 이에 의해 환자의 회복 시간, 불편함 및 해로운 부작용을 감소시킨다. 이러한 최소 침습 기술은 환자 해부구조 내의 자연적인 구멍을 통해서 또는 하나 이상의 수술 절개부를 통해서 수행될 수 있다. 이들 자연적인 구멍 또는 절개부를 통해서, 임상의는 표적 조직 위치에 도달하기 위해 최소 침습 의료 기구(수술, 진단, 치료 또는 생검 기구를 포함)를 삽입할 수 있다. 표적 조직 위치에의 도달을 보조하기 위해서, 의료 기구의 위치 및 이동은 환자 해부구조의 수술전 또는 수술중 영상과 정합될 수 있다. 영상-안내 기구가 영상에 정합됨에 따라, 기구는 폐, 결장, 장, 신장, 심장, 순환 계통 등과 같은 해부학적 계통 내의 자연적 또는 수술적으로 생성된 통로를 내비게이팅할 수 있다. 일부 영상-안내 기구는 세장형 가요성 기구의 형상 및 기구의 원위 단부의 자세에 대한 정보를 제공하는 광섬유 형상 센서를 포함할 수 있다. 일부 실시예에서, 투시 영상화 시스템은 시술 중에 표적 및/또는 기구의 국소화를 보조하기 위해 수술중에 사용될 수 있다. 의료 기구의 정확한 국소화를 보조하도록 데이터를 영상화하기 위해, 영상화 시스템은 수술 환경의 좌표계에 정확하게 정합되어야 한다. 수술 환경 내에서의 의료 기구의 국소화 및 내비게이션을 더욱 신뢰성 있게 하기 위해서 자세 추정 및 수술 환경에 대한 영상화 시스템의 보정과 연관된 오류를 최소화하기 위한 시스템 및 기술이 필요하다.
본 발명의 실시예는 상세한 설명 이후의 청구항에 의해 요약된다.
일 실시예에서, 컴퓨팅 시스템에 의해 수행되는 방법은 제1 파라미터 세트를 갖는 형광투시 영상기로부터 수술 좌표 공간 내의 제1 기준 마커의 제1 형광투시 영상 데이터를 수신하는 단계를 포함한다. 이 방법은 또한 수술 좌표 공간 내의 제1 기준 마커의 구성을 수신하는 단계를 포함한다. 이 방법은 또한 제1 형광투시 영상 데이터 및 제1 기준 마커의 구성에 기반하여 수술 좌표 공간 내의 형광투시 영상기의 제2 파라미터 세트를 결정하는 단계를 포함한다. 일 양태에서, 제2 파라미터 세트를 결정하는 단계는 제1 형광투시 영상 데이터 및 제1 기준 마커의 구성으로부터 수술 좌표 공간 내에서 기준 마커의 보정된 모델을 전개시키는 단계를 포함한다.
다른 실시예에서, 컴퓨터-보조 의료 시스템은 하나 이상의 프로세서 및 수술 좌표 공간 내의 공지된 구성 내에 위치된 제1 기준 마커를 포함한다. 제1 기준 마커는 형상 센서를 포함한다. 하나 이상의 프로세서는 형광투시 영상기로부터 수술 좌표 공간 내의 공지된 구성 내에 위치된 제1 기준 마커의 제1 형광투시 영상 데이터를 수신하는 단계 및 형상 센서로부터 형상 정보를 수신하는 단계를 포함하는 방법을 수행한다. 이 방법은 또한 형상 정보로부터 수술 좌표 공간 내의 제1 기준 마커의 공지된 구성을 결정하는 단계 및 제1 형광투시 영상 데이터로부터 수술 좌표 공간 내의 기준 마커의 보정된 모델을 결정하는 단계를 포함한다. 이 방법은 제1 형광투시 영상 데이터를 기반으로 수술 좌표 공간 내의 형광투시 영상기의 자세를 결정하는 단계를 추가로 포함한다.
다른 실시예에서, 컴퓨터-보조 의료 시스템은 수술 좌표 공간의 전체 스캔 범위를 갖는 형광투시 영상기, 및 하나 이상의 프로세서를 포함하고, 하나 이상의 프로세서는 일 방법을 수행하도록 구성된다. 일 양태에서, 이 방법은 형광투시 영상기로부터 환자 해부구조의 제1 형광투시 영상 데이터 세트를 수신하는 단계, 및 전체 스캔 범위보다 실질적으로 작은 제약된 범위에서 조작되는 형광투시 영상기로부터 환자 해부구조의 적어도 하나의 추가적인 형광투시 영상 데이터 세트를 수신하는 단계를 포함한다. 이 방법은 또한 제1 형광투시 영상 데이터 세트 및 적어도 하나의 추가적인 형광투시 영상 데이터 세트로부터 제1 평면 단층촬영 영상을 구축하는 단계를 포함한다.
다른 실시예에서, 국소 단층영상합성(localized tomosynthesis) 방법은 환자 해부구조의 제1 형광투시 영상 데이터 세트를 수신하는 단계를 포함하며, 제1 형광투시 영상 데이터 세트는 형광투시 영상기의 전체 스캔 범위로부터 획득된다. 이 방법은 또한 전체 스캔 범위보다 실질적으로 작은 제약된 범위에서 조작되는 형광투시 영상기로부터 환자 해부구조의 적어도 하나의 추가적인 형광투시 영상 데이터 세트를 수신하는 단계를 포함한다. 이 방법은 또한 제1 형광투시 영상 데이터 세트 및 적어도 하나의 추가적인 형광투시 영상 데이터 세트로부터 제1 평면 단층촬영 영상을 구축하는 단계를 포함한다. 일 양태에서, 이 방법은 또한 제1 평면 단층촬영 영상에 기반하여 전체 스캔 범위보다 실질적으로 작은 제2 제약된 구역 내에서 형광투시 영상기를 조작하는 단계를 포함한다. 일 양태에서, 이 방법은 또한 형광투시 영상기가 제2 제약된 구역 내에 있는 동안 수신된 형광투시 영상 데이터 세트로부터 제2 평면 단층촬영 영상을 구축하는 단계를 포함한다.
다른 실시예에서, 국소 단층영상합성 방법은 제약된 범위 내의 제1 위치로 형광투시 영상기를 이동시키는 단계를 포함하며, 형광투시 영상기는 전체 스캔 범위를 갖고, 제약된 범위는 전체 스캔 범위보다 실질적으로 작다. 이 방법은 또한 제1 위치로부터 환자의 해부구조의 제1 형광투시 영상을 획득하는 단계, 제약된 범위 내의 복수의 추가적인 위치로 형광투시 영상기를 이동시키는 단계, 복수의 추가적인 위치 각각으로부터 형광투시 영상을 획득하는 단계, 제1 형광투시 영상 및 복수의 추가적인 위치 각각으로부터 획득되는 형광투시 영상으로부터 제1 평면 단층촬영 영상을 구축하는 단계를 포함한다.
전술한 개괄적인 설명 및 다음의 상세한 설명 모두는 본질적으로 예시적이고 설명적인 것이며 본 개시내용의 범위를 제한하지 않으면서 본 개시내용의 이해를 제공하려는 의도된 것임을 이해하여야 한다. 이와 관련하여, 본 개시내용의 추가적인 양태, 구성 및 장점은 다음의 상세한 설명으로부터 관련 기술분야에서 통상의 기술자에게 명백해질 것이다.
본 개시내용의 양태들은 첨부된 도면과 함께 읽을 때 다음의 상세한 설명으로부터 가장 잘 이해된다. 업계의 표준 관행에 따라, 다양한 구성이 일정한 비율로 작성되지 않았다는 것이 강조된다. 실제로, 다양한 구성의 치수들은 논의의 명료성을 위해 임의로 늘리거나 줄일 수 있다. 또한, 본 개시내용은 다양한 예에서 참조 번호 및/또는 문자를 반복할 수 있다. 이러한 반복은 간략화 및 명료화의 목적이지, 설명되는 다양한 실시예 및/또는 구성 사이의 관계를 그 자체로 적시하는 것은 아니다.
도 1은 본 개시내용의 실시예에 따른 원격조작 의료 시스템이다.
도 2a는 본 개시내용의 양태를 이용하는 의료 기구 시스템을 도시한다.
도 2b는 본 개시내용의 실시예에 따른, 연장된 의료 도구를 갖춘 도 2a의 의료 기구 시스템의 원위 단부를 도시한다.
도 3은 인간 폐 내에 위치된 도 2a의 의료 기구 시스템의 원위 단부를 도시한다.
도 4는 본 개시내용의 실시예에 따른 영상-안내 외과 시술에서 안내를 제공하기 위해 사용되는 방법을 도시하는 흐름도이다.
도 5는 본 개시내용의 실시예에 따른 삽입 조립체 및 광학 추적 시스템에 장착되는 의료 기구를 포함하는 환자 좌표 공간의 측면도이다.
도 6a는 본 개시내용의 실시예에 따른 환자에 대한 제1 위치에 위치된 형광투시 영상화 시스템의 C-아암 및 외부 추적 시스템을 포함하는 도 5에 도시된 환자 좌표 공간의 상이한 측면도이다.
도 6b는 본 개시내용의 실시예에 따른 환자에 대한 제2 위치에 위치된 형광투시 영상화 시스템의 C-아암 및 외부 추적 시스템을 포함하는 도 6a에 도시된 환자 좌표 공간의 측면도이다.
도 7a 내지 도 7c는 본 개시내용의 다양한 실시예에 따른 다양한 예시적인 기준 마커를 도시한다. 도 7a는 독특한 마커 요소의 세트를 포함하는 예시적인 기준 마커를 도시한다. 도 7b는 그리드 패턴을 포함하는 기준 마커를 도시한다. 도 7c는 체커판 패턴을 포함하는 기준 마커를 도시한다.
도 8a 내지 도 8e는 본 개시내용의 다양한 실시예에 따른 여러 예시적인 식별가능한 기준 마커를 도시한다.
도 9a 및 도 9b는 본 개시내용의 실시예에 따른 불규일한 선형 패턴으로 배열된 마커 요소를 갖는 기준 마커를 도시한다.
도 10은 교차비 및 투시 불변 원리를 도시하는 도면이다.
도 11은 투시 영상기가 2개의 상이한 위치로부터 정지된 기준 마커를 영상화하는 영상-안내 외과 시술에서 투시 불변의 원리를 도시하는 도면이다.
도 12는 정지된 투시 영상기가 2개의 상이한 위치에 자리한 기준 마커를 영상화하는 영상-안내 외과 시술에서 투시 불변의 원리를 도시하는 도면이다.
도 13은 본 개시내용의 실시예에 따른 영상-안내 의료 시술의 일 부분의 흐름도를 도시한다.
도 14는 수술 환경의 평면으로부터 보여지는 환자 해부구조 및 단층영상합성 배열을 도시한다.
도 15는 직교 평면으로부터 보여지는 도 14의 환자 해부구조 및 단층영상합성 배열을 도시한다.
도 16은 본 개시내용의 실시예에 따른 영상 안내 의료 시술의 흐름도를 도시한다.
본 발명의 양태들에 관한 다음의 상세한 설명에서, 개시된 실시예들의 완전한 이해를 제공하기 위해 많은 특정 세부 사항이 제시된다. 그러나, 관련 기술분야에서 통상의 기술자에게는 본 개시내용의 실시예들이 이러한 특정 세부 사항 없이 실시될 수 있음이 명백할 것이다. 본 발명의 실시예들의 양태들을 불필요하게 모호하게 하지 않도록 하기 위해 다른 예시에서 잘 알려진 방법, 시술, 구성요소 및 회로는 상세하게 설명되지 않았다. 그리고, 불필요한 설명적 반복을 피하기 위해, 가능한 경우, 하나의 예시적 실시예에 따라서 설명된 하나 이상의 구성요소 또는 작용은 다른 예시적 실시예에서 사용될 수 있거나 그로부터 생략될 수 있다.
이하의 실시예는 다양한 기구 및 기구의 부분을 3차원 공간 내에서의 그들의 상태와 관련하여 설명할 것이다. 본 명세서에서 사용될 때, 용어 "위치"는 3차원 공간(예를 들어, 데카르트 X, Y, Z 좌표를 따른 3개의 병진 자유도)에서 대상물 또는 대상물의 일 부분의 위치를 지칭한다. 본 명세서에서 사용될 때, 용어 "배향"은 대상물 또는 대상물의 일 부분의 회전적 배치(3개 회전 자유도 - 예를 들어, 롤, 피치 및 요)를 지칭한다. 본 명세서에서 사용될 때, 용어 "자세"는 적어도 1 병진 자유도에서의 대상물 또는 대상물의 일 부분의 위치 및 적어도 1 회전 자유도에서의 대상물 또는 대상물의 일 부분의 배향을 지칭한다(최대 총 6 자유도). 본 명세서에서 사용될 때, 용어 "형상"은 대상물을 따라 측정된 자세, 위치 또는 배향의 세트를 지칭한다.
도면 중 도 1을 참고하면, 예를 들어 수술, 진단, 치료 또는 생검 시술에서의 사용을 위한 원격조작 의료 시스템이 일반적으로 원격조작 의료 시스템(100)으로 표시된다. 도 1에 도시된 바와 같이, 원격조작 시스템(100)은 일반적으로 환자(P)에 대한 다양한 시술을 수행함에 있어서 의료 기구 시스템(104)을 조작하기 위한 원격조작 조종기 조립체(102)를 포함한다. 원격조작 조종기 조립체(102)는 또한 "원격조작 조립체(102)" 또는 "조종기 조립체(102)"로 지칭된다. 의료 기구 시스템(104)은 또한 "의료 기구(104)"로 지칭된다. 조립체(102)는 수술 테이블(O)에 장착되거나 그 근처에 있다. 조작자 입력 시스템(106)(또한 "마스터 조립체(106)"로 불림)은 임상의 또는 외과의사(S)가 중재 부위를 보고 조종기 조립체(102)를 제어하는 것을 허용한다.
조작자 입력 시스템(106)은 통상적으로 수술 테이블(O)과 동일한 방 안에 위치되는 외과의사의 콘솔에 위치될 수 있다. 그러나, 외과의사(S)는 환자(P)로부터 다른 방 또는 완전히 다른 건물에 위치될 수도 있다는 것을 이해해야 한다. 조작자 입력 시스템(106)은 일반적으로 조종기 조립체(102)를 제어하기 위한 하나 이상의 제어 장치를 포함한다. 제어 장치는 조이스틱, 트랙볼, 데이터 글러브, 트리거-건, 수조작식 제어기, 음성 인식 장치, 신체 움직임 또는 존재 센서 등과 같은 임의의 수의 다양한 입력 장치를 포함할 수 있다. 일부 실시예에서, 외과의사가 직접적으로 기구(104)를 제어하는 강한 느낌이 들도록 제어 장치가 기구(104)와 일체라는 인식 또는 원격현존감(telepresence)을 외과의사에게 제공하기 위해 제어 장치에는 연관된 의료 기구(104)와 동일한 자유도가 제공될 것이다. 다른 실시예에서, 제어 장치는 연관된 의료 기구(104)보다 많거나 적은 자유도를 가지면서 여전히 외과의사에게 원격현존감을 제공할 수 있다. 일부 실시예에서, 제어 장치는 6개의 자유도로 이동하고, 그리고 또한 기구를 작동시키기 위한(예를 들어, 파지 조(grasping jaws)를 폐쇄하고, 전위를 전극에 인가하고, 의료적 치료법을 전달하는 등을 위한) 작동가능 핸들을 포함할 수 있는 수동 입력 장치이다.
원격조작 조립체(102)는 의료 기구 시스템(104)을 지지하며, 하나 이상의 비-서보 제어형 링크(예를 들어, 일반적으로 셋업 구조물로 지칭되고, 수동으로 위치되어 제 위치에 로킹될 수 있는 하나 이상의 링크)의 운동학적 구조물 및 원격조작 조종기를 포함할 수 있다. 원격조작 조립체(102)는 제어 시스템(예를 들어, 제어 시스템(112))으로부터의 명령에 응답하여 의료 기구 시스템(104)에 대한 입력을 구동하는 복수의 액추에이터 또는 모터를 포함한다. 모터는, 의료 기구 시스템(104)에 결합될 때 의료 기구를 자연적 또는 수술적으로 생성된 해부학적 구멍 내로 전진시킬 수 있는 구동 시스템을 포함한다. 다른 모터식(motorized) 구동 시스템이, 3개의 선형 운동도(degree of linear motion)(예를 들어, X, Y, Z 데카르트 축을 따른 선형 움직임)를 포함할 수 있는 다중 자유도 및 3개의 회전 운동도(예를 들어, X, Y, Z 데카르트 축 주위의 회전)로 의료 기구의 원위 단부를 이동시킬 수 있다. 추가적으로, 모터는 생검 장치 등의 조 내에 조직을 파지하기 위한 기구의 관절식 말단 실행기(articulable end effector)를 작동시키도록 사용될 수 있다. 리졸버, 인코더, 전위차계 및 다른 메커니즘과 같은 모터 위치 센서가 모터 샤프트의 회전 및 배향을 설명하는 원격조작 조립체에 센서 데이터를 제공할 수 있다. 이러한 위치 센서 데이터는 모터에 의해 조종되는 대상물의 움직임을 결정하기 위해 사용될 수 있다.
원격조작 의료 시스템(100)은 또한 원격조작 조립체의 기구에 대한 정보를 수신하기 위해 하나 이상의 하위시스템을 갖춘 센서 시스템(108)을 포함한다. 이러한 하위시스템은 위치설정/위치 센서 시스템(예를 들어, 전자기(EM) 센서 시스템), 의료 기구 시스템(104)의 가요성 본체를 따르는 하나 이상의 세그먼트 및/또는 카테터 팁의 위치, 배향, 속력, 속도, 자세 및/또는 형상을 결정하기 위한 형상 센서 시스템, 및/또는 카테터 시스템의 원위 단부로부터 영상을 포착하기 위한 시각화 시스템을 포함할 수 있다.
시각화 시스템(예를 들어, 도 2a의 시각화 시스템(231))은 수술 부위의 동시 또는 실시간 영상을 기록하고 그 영상을 임상의 또는 외과의사(S)에게 제공하는 관찰경 조립체를 포함할 수 있다. 동시 영상(concurrent image)은, 예를 들어, 수술 부위 외측에 위치되는 투시 영상화 시스템에 의해 포착되는 2차원 또는 3차원 영상일 수 있다. 일부 실시예에서, 투시 영상화 시스템은, 비제한적 예시의 방법으로써, 형광투시 또는 X-선 영상기 또는 광학 카메라와 같은 2차원 영상을 생성하는 영상기를 포함한다. 추가적으로 또는 대안적으로, 동시 영상은, 예를 들어, 수술 부위 내에 위치되는 내시경에 의해 포착되는 2차원 또는 3차원 영상일 수 있다. 본 실시예에서, 시각화 시스템은 의료 기구(104)에 일체로 또는 제거가능하게 결합될 수 있는 내시경 구성요소를 포함한다. 그러나, 대안적인 실시예에서, 개별적인 조종기 조립체에 부착되는 개별적인 내시경이 수술 부위를 영상화하기 위해 의료 기구와 함께 사용될 수 있다. 시각화 시스템은 제어 시스템(112)(이하에서 설명됨)의 프로세서를 포함할 수 있는 하나 이상의 컴퓨터 프로세서와 상호작용하거나 그에 의해 다른 방식으로 실행되는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다. 제어 시스템(112)의 프로세서는 본원에 개시된 프로세스에 대응하는 명령어를 포함하는 명령어를 실행할 수 있다.
원격조작 의료 시스템(100)은 또한 수술 부위의 영상 또는 표현을 표시하기 위한 표시 시스템(110), 및 센서 시스템(108)의 하위시스템에 의해 생성된 의료 기구 시스템(들)(104)을 포함할 수 있다. 표시 시스템(110) 및 조작자 입력 시스템(106)은 조작자가 원격현존감을 인식하면서 조작자 입력 시스템(106) 및 의료 기구 시스템(104)을 제어할 수 있도록 배향될 수 있다.
표시 시스템(110)은 또한 시각화 시스템에 의해 포착된 수술 부위 및 의료 기구의 영상을 표시할 수 있다. 표시 시스템(110) 및 제어 장치는, 조작자가 마치 실질적으로 실존하는 작업공간을 관찰하는 것처럼 의료 기구(104) 및 손 제어를 조종할 수 있도록, 스코프 조립체 및 의료 기구 내의 영상화 장치의 상대 위치가 외과의사의 눈 및 손의 상대 위치와 유사하도록 배향될 수 있다. 실존은, 영상의 제시가 기구(104)를 물리적으로 조종하고 있는 조작자의 관점을 모사하는 실제 투시 영상인 것을 의미한다.
대안적으로 또는 추가적으로, 표시 시스템(110)은 컴퓨터 단층촬영(CT), 자기 공명 영상화(MRI), 형광투시, 열조영, 초음파, 광 간섭 단층촬영(OCT), 열 영상화, 임피던스 영상화, 레이저 영상화 또는 나노튜브 X-선 영상화 같은 영상화 기술로부터의 영상 데이터를 수술전 또는 수술중에 사용하여 기록된 수술 부위의 영상을 제시할 수 있다. 수술전 또는 수술중 영상 데이터는 2차원, 3차원 또는 4차원(예를 들어, 시간 기반 또는 속도 기반 정보 포함) 영상으로서, 또는 수술전 또는 수술중 영상 데이터 세트로부터 생성되는 모델로부터의 영상으로서 제시될 수 있다.
대개 영상화 안내식 외과 시술을 목적으로 하는 일부 실시예에서, 표시 시스템(110)은, 기구(104)의 팁의 위치의 관점으로부터 내부 수술 부위의 가상 영상을 임상의 또는 외과의사(S)에게 제시하기 위해 의료 기구(104)의 실제 위치가 수술전 또는 동시적 영상/모델과 정합되는(즉, 동적으로 참조되는) 가상 내비게이션 영상을 표시할 수 있다. 기구(104)의 팁의 영상, 또는 다른 그래픽 또는 영숫자(alphanumeric) 지표가 의료 기구를 제어하는 외과의사를 보조하기 위해 가상 영상 상에 중첩될 수 있다. 대안적으로, 기구(104)는 가상 영상에서 보이지 않을 수 있다.
다른 실시예에서, 표시 시스템(110)은 임상의 또는 외과의사(S)에게 외부 관점으로부터 수술 부위 내의 의료 기구의 가상 영상을 제시하기 위해 의료 기구의 실제 위치가 수술전 또는 동시적 영상과 정합되는 가상 내비게이션 영상을 표시할 수 있다. 의료 기구의 일 부분의 영상, 또는 다른 그래픽 또는 영숫자 지표가 기구(104)를 제어하는 외과의사를 보조하기 위해 가상 영상 상에 중첩될 수 있다.
원격조작 의료 시스템(100)은 또한 제어 시스템(112)을 포함한다. 제어 시스템(112)은 의료 기구 시스템(104), 조작자 입력 시스템(106), 센서 시스템(108) 및 표시 시스템(110) 사이의 제어를 실행하기 위해 적어도 하나의 메모리 및 적어도 하나의 컴퓨터 프로세서(도시되지 않음), 그리고 통상적으로는 복수의 프로세서를 포함한다. 제어 시스템(112)은 또한 표시 시스템(110)에 병리학적 정보를 제공하기 위한 명령어를 포함하는, 본원에 개시된 양태에 따라 설명된 방법 중 일부 또는 모두를 구현하기 위해 프로그래밍된 명령어(예를 들어, 명령어를 저장하는 컴퓨터 판독가능 매체)를 포함한다. 제어 시스템(112)은 도 1의 단순화된 개요에서 단일 블록으로 도시되었지만, 시스템은 둘 이상의 데이터 처리 회로를 포함할 수 있는데, 여기에서 이러한 처리의 일 부분이 선택적으로 원격조작 조립체(102) 상에서 또는 그에 인접하여 수행되고, 처리의 다른 부분이 조작자 입력 시스템(106)에서 수행된다. 매우 다양한 중앙집중형 또는 분산형 데이터 처리 아키텍처 중 임의의 것이 채용될 수 있다. 유사하게, 프로그래밍된 명령어는 다수의 개별 프로그램 또는 하위구조로서 구현될 수 있거나, 또는 이들은 본원에서 설명된 원격조작 시스템의 다수의 다른 양태 내로 통합될 수 있다. 일 실시예에서, 제어 시스템(112)은 블루투스, IrDA, HomeRF, IEEE 802.11, DECT 및 무선 원격측정(Wireless Telemetry)과 같은 무선 통신 프로토콜을 지원한다.
일부 실시예에서, 제어 시스템(112)은 의료 기구 시스템(104)으로부터 힘 및/또는 토크 피드백을 수신하는 하나 이상의 서보 제어기를 포함할 수 있다. 피드백에 응답하여, 서보 제어기는 조작자 입력 시스템(106)으로 신호를 송신한다. 서보 제어기(들)는 또한 환자 신체 내의 개구부를 통해서 환자 신체 내의 내부 수술 부위 내로 연장되는 의료 기구 시스템(들)(104)을 이동시키기 위해 원격조작 조립체(102)에 명령하는 신호를 송신할 수 있다. 임의의 적합한 종래의 또는 특화된 서보 제어기가 사용될 수 있다. 서보 제어기는 원격조작 조립체(102)로부터 분리되거나, 또는 그와 통합될 수 있다. 일부 실시예에서, 서보 제어기 및 원격조작 조립체는 환자의 신체에 인접하여 배치되는 원격조작 아암 카트(teleoperational arm cart)의 일부로서 제공된다.
제어 시스템(112)은, 영상-안내 외과 시술에서 사용될 때 의료 기구 시스템(들)(104)에 내비게이션 보조를 제공하기 위해 가상 시각화 시스템을 추가로 포함할 수 있다. 가상 시각화 시스템을 사용하는 가상 내비게이션은 해부학적 통로의 취득된 수술전 또는 수술중 데이터세트에 대한 참조에 기반한다. 더 구체적으로, 가상 시각화 시스템은 컴퓨터처리 단층촬영(CT), 자기 공명 영상화(MRI), 형광투시, 열조영, 초음파, 광 간섭 단층촬영(OCT), 열 영상화, 임피던스 영상화, 레이저 영상화, 나노튜브 X-선 영상화 등과 같은 영상화 기술을 사용하여 영상화된 수술 부위의 영상을 처리한다. 기록된 영상을 부분적 또는 전체적 해부학적 장기 또는 해부학적 구역의 세그먼트화된 2차원 또는 3차원 복합 표현으로 변환하기 위해 소프트웨어가 단독으로 또는 수동 입력과 조합되어 사용된다. 영상 데이터 세트는 복합 표현과 연관된다. 복합 표현 및 영상 데이터 세트는 통로의 다양한 위치 및 형상, 그리고 그들의 연결성을 설명한다. 복합 표현을 생성하기 위해 사용되는 영상은 임상 시술 동안 수술전 또는 수술중에 기록될 수 있다. 대안적인 실시예에서, 가상 시각화 시스템은 표준 표현(즉, 환자에 특정되지 않음) 또는 표준 표현과 환자 특정 데이터의 혼합을 사용할 수 있다. 복합 표현 및 복합 표현에 의해 생성된 임의의 가상 영상은 하나 이상의 운동 단계 동안(예를 들어, 폐의 흡기/호기 주기 동안) 변형가능한 해부학적 구역의 정적 자세를 표현할 수 있다.
가상 내비게이션 시술 동안, 센서 시스템(108)은 환자 해부구조에 대한 기구의 근사 위치를 연산하기 위해 사용될 수 있다. 이 위치는 환자 해부구조의 거시-수준 (외부) 추적 영상과 환자 해부구조의 가상 내부 영상 양자 모두를 생성하기 위해 사용될 수 있다. 가상 시각화 시스템으로부터의 영상들 같은 수술전 기록된 수술 영상과 함께 의료 기구를 정합 및 표시하기 위해 전자기(EM) 센서, 광섬유 센서 또는 다른 센서를 사용하기 위한 다양한 시스템이 공지되어 있다. 예를 들어, 미국 특허 출원 번호 13/107,562(2011년 5월 13일 출원)("영상-안내 수술을 위한 해부학적 구조물의 모델의 동적 정합을 제공하는 의료 시스템"을 개시)이 한 가지 이러한 시스템을 개시하고 있으며, 그 전문이 본 명세서에 참조로 통합된다.
원격조작 의료 시스템(100)은 조명 시스템, 조향 제어 시스템, 관류(irrigation) 시스템 및/또는 흡입 시스템과 같은 선택적인 조작 및 지원 시스템(도시되지 않음)을 추가로 포함할 수 있다. 대안적 실시예에서, 원격조작 시스템은 하나 초과의 원격조작 조립체 및/또는 하나 초과의 조작자 입력 시스템을 포함할 수 있다. 조종기 조립체의 정확한 수는 다른 요인들 중 외과 시술 및 수술실 내의 공간 제약에 의존할 것이다. 조작자 입력 시스템들은 함께 위치될 수 있거나, 또는 별도의 위치에 위치될 수 있다. 다중 조작자 입력 시스템은 1명 초과의 조작자가 1개 이상의 조종기 조립체를 다양한 조합으로 제어할 수 있게 한다.
도 2a는 원격조작 의료 시스템(100)으로 수행되는 영상-안내 의료 시술에서 의료 기구 시스템(104)으로 사용될 수 있는 의료 기구 시스템(200)을 도시한다. 대안적으로, 의료 기구 시스템(200)은 비-원격조작 탐사 시술에 또는 내시경과 같은 전형적인 수동 조작식 의료 기구를 수반하는 시술에 사용될 수도 있다. 추가적으로 또는 대안적으로, 의료 기구 시스템(200)은 환자 해부학적 통로에 있어서의 위치에 대응하는 데이터 지점의 세트를 수집(즉, 측정)하기 위해 사용될 수 있다.
기구 시스템(200)은 기구 하우징(204)에 결합되는 카테터 시스템(202)을 포함한다. 카테터 시스템(202)은 근위 단부(217) 및 원위 단부(218)(또한 "팁 부분(218)"으로 불림)를 갖는 세장형 가요성 카테터 본체(216)를 포함한다. 일 실시예에서, 가요성 본체(216)는 대략 3mm의 외부 직경을 갖는다. 다른 가요성 본체 외부 직경은 더 크거나 더 작을 수도 있다. 카테터 시스템(202)은 원위 단부(218)에 있는 카테터 팁 및/또는 본체(216)를 따르는 하나 이상의 세그먼트(224)의 위치, 배향, 속력, 속도, 자세 및/또는 형상을 결정하기 위한 형상 센서 시스템(222)(또한 "형상 센서(222)"로 불림)을 선택적으로 포함할 수 있다. 원위 단부(218)와 근위 단부(217) 사이의 본체(216)의 전체 길이는 세그먼트(224)로 효과적으로 분할될 수 있다. 기구 시스템(200)이 원격조작 의료 시스템(100)의 의료 기구 시스템(104)인 경우, 형상 센서(222)는 센서 시스템(108)의 구성요소일 수 있다. 기구 시스템(200)이 수동적으로 조작되거나 다른 방식으로 비-원격조작 시술을 위해 사용되는 경우, 형상 센서(222)는 형상 센서에 질의하고 수신된 형상 데이터를 처리하는 추적 시스템(230)에 결합될 수 있다.
형상 센서(222)는 가요성 카테터 본체(216)와 정렬된 (예를 들어, 내측 채널(도시되지 않음) 내에 제공되거나 또는 외부에 장착된) 광섬유를 포함할 수 있다. 일 실시예에서, 광섬유는 대략 200㎛의 직경을 갖는다. 다른 실시예에서, 치수는 더 크거나 더 작을 수 있다. 형상 센서 시스템(222)의 광섬유는 카테터 시스템(202)의 형상을 결정하기 위한 광섬유 굴곡 센서를 형성한다. 일 대체예에서, FBGs(Fiber Bragg Gratings)를 포함하는 광섬유가 하나 이상의 차원으로 구조의 변형 측정을 제공하기 위해 사용된다. 3차원에서 광섬유의 형상 및 상대 위치를 감시하기 위한 다양한 시스템 및 방법이 미국 특허 출원 번호 11/180,389(2005년 7월 13일 출원)("광섬유 위치 및 형상 감지 장치 및 그에 관련된 방법"을 개시), 미국 특허 출원 번호 12/047,056(2004년 7월 16일 출원)("광섬유 형상 및 상대 위치 감지"를 개시), 및 미국 특허 번호 6,389,187(1998년 6월 17일 출원)("광섬유 굴곡 센서")에서 설명되며, 그 전문이 본 명세서에 참조로 통합된다. 대안적인 실시예에서의 센서는 레일리 산란(Rayleigh scattering), 라만 산란(Raman scattering), 브릴루앙 산란(Brillouin scattering) 및 형광 산란(Fluorescence scattering)과 같은 다른 적합한 변형 감지 기술을 채용할 수 있다. 다른 대안적 실시예에서, 카테터의 형상은 다른 기술을 사용하여 결정될 수 있다. 예를 들어, 카테터의 원위 팁 자세의 이력이 시간 간격에 걸쳐 장치의 형상을 재구성하기 위해 사용될 수 있다. 다른 예로서, 호흡과 같은 교번적인 운동의 주기를 따르는 기구 시스템의 공지된 지점에 대한 이력 자세, 위치 또는 배향 데이터가 저장될 수 있다. 이 저장된 데이터는 카테터에 대한 형상 정보를 제작하기 위해 사용될 수 있다. 대안적으로, 카테터를 따라 위치되는 전자기(EM) 센서 같은 일련의 위치 센서가 형상 감지를 위해 사용될 수 있다. 대안적으로, 시술 동안의 기구 시스템 상의 EM 센서 같은 위치 센서로부터의 데이터의 이력이, 특히 해부학적 통로가 일반적으로 정적인 경우에, 기구의 형상을 표현하기 위해 사용될 수 있다. 대안적으로, 외부 자기장에 의해 제어되는 위치 또는 배향을 갖는 무선 장치가 형상 감지를 위해 사용될 수 있다. 무선 장치의 위치의 이력은 내비게이션되는 통로에 대한 형상을 결정하기 위해 사용될 수 있다.
의료 기구 시스템은 위치 센서 시스템(220)을 선택적으로 포함할 수 있다. 위치 센서 시스템(220)은 외부에서 생성된 전자기장에 노출될 수 있는 하나 이상의 전도성 코일을 포함하는 센서 시스템(220)을 갖춘 EM 센서 시스템의 구성요소일 수 있다. 이러한 실시예에서, 위치 센서 시스템(220)을 포함하는 EM 센서 시스템의 각 코일은 외부에서 생성된 전자기장에 대한 코일의 위치 및 배향에 의존하는 특성을 갖는 유도 전기 신호를 생성한다. 일 실시예에서, EM 센서 시스템은 6 자유도, 예를 들어 3개의 위치 좌표(X, Y, Z) 및 기부 지점의 피치, 요, 및 롤을 지시하는 3개의 배향 각도 또는 5개의 자유도, 예를 들어 3개의 위치 좌표(X, Y, Z) 및 기부 지점의 피치 및 요를 지시하는 2개의 배향 각도를 측정하도록 구성 및 위치될 수 있다. EM 센서 시스템의 추가적인 설명이 미국 특허 번호 6,380,732(1999년 8월 11일 출원)("추적되는 대상에 대한 수동 트랜스폰더를 갖는 6-자유도 추적 시스템"을 개시)에 제공되어 있으며, 그 전문이 본원에 참조로 통합된다. 일부 실시예에서, 형상 센서는 또한, 센서의 형상이 (환자의 고정된 좌표계에서의) 형상 센서의 기부의 위치에 대한 정보와 함께 원위 팁을 포함하는 형상 센서를 따르는 다양한 지점의 위치가 계산되는 것을 허용하기 때문에, 위치 센서로서도 기능할 수 있다.
추적 시스템(230)은 기구 시스템(200)을 따르는 1개 이상의 세그먼트(224) 및 원위 단부(218)의 위치, 배향, 속력, 자세 및/또는 형상을 결정하기 위한 위치 센서 시스템(220) 및 형상 센서 시스템(222)을 포함할 수 있다. 추적 시스템(230)은 제어 시스템(116)의 프로세서를 포함할 수 있는 1개 이상의 컴퓨터 프로세서와 상호작용하거나 또는 그에 의해 다른 방식으로 실행되는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있다.
가요성 카테터 본체(216)는 의료 기구(226)를 수용하도록 크기 및 형상이 설정되는 채널(221)을 포함한다. 의료 기구는, 예를 들어, 영상 포착 프로브, 생검 기구, 레이저 절제 섬유, 또는 다른 수술, 진단 또는 치료 도구를 포함할 수 있다. 의료 도구는 스칼펠(scalpel), 무딘 블레이드, 광섬유 또는 전극 같은 단일 작업 부재를 갖는 말단 실행기를 포함할 수 있다. 다른 말단 실행기는, 예를 들어, 겸자, 파지기, 가위 또는 클립 적용기를 포함할 수도 있다. 전기 작동식 말단 실행기의 예는 전기 수술용 전극, 변환기, 센서 등을 포함한다. 다양한 실시예에서, 의료 기구(226)는, 표시를 위해 시각화 시스템(231)에 의해 처리되는 영상(비디오 영상을 포함)을 포착하기 위한 가요성 카테터 본체(216)의 원위 단부(218)에서 또는 그 근처에서 스테레오스코픽(stereoscopic) 또는 모노스코픽(monoscopic) 카메라를 갖춘 원위 부분을 포함하는 영상 포착 프로브일 수 있다. 영상 포착 프로브는 포착된 영상 데이터를 송신하기 위한 카메라에 결합된 케이블을 포함할 수 있다. 대안적으로, 영상 포착 기구는 시각화 시스템에 결합되는 파이버스코프와 같은 광섬유 다발일 수 있다. 영상 포착 기구는, 예를 들어, 가시적, 적외선 또는 자외선 스펙트럼 중 하나 이상에서 영상 데이터를 포착하는 단일 또는 다중 스펙트럼식일 수 있다.
의료 기구(226)는 기구의 원위 단부를 제어가능하게 굴곡시키기 위해 기구의 근위 단부와 원위 단부 사이에서 연장되는 케이블, 연동구 또는 다른 작동 제어부(도시되지 않음)를 수납할 수 있다. 조향가능한 기구는 미국 특허 번호 7,316,681(2005년 10월 4일 출원) ("향상된 민첩성과 감도로 최소 침습 수술을 수행하기 위한 관절 수술 기구"를 개시) 및 미국 특허 출원 번호 12/286,644(2008년 9월 30일 출원) ("수술 기구 용 수동 프리로드 및 캡스턴 구동"을 개시)에 상세히 기재되고, 그 전문이 본 명세서에 참조로 통합된다.
가요성 카테터 본체(216)는 또한, 예를 들어, 원위 단부의 파선 묘사(219)에 의해 도시된 바와 같이 원위 단부(218)를 제어가능하게 굴곡시키기 위해 하우징(204)과 원위 단부(218) 사이에서 연장되는 케이블, 연동구 또는 다른 조향 제어부(도시되지 않음)를 수납할 수 있다. 조향가능한 카테터는 미국 특허 출원 번호 13/274,208(2011년 10월 14일 출원) ("제거가능한 시력 프로브를 갖춘 카테터"를 개시)에 상세히 기재되고, 그 전문이 본 명세서에 참조로 통합된다. 기구 시스템(200)이 원격조작 조립체에 의해 작동되는 실시예에서, 하우징(204)은, 원격조작 조립체의 모터식 구동 요소에 제거가능하게 결합되고 그로부터 동력을 수용하는 구동 입력부를 포함할 수 있다. 기구 시스템(200)이 수동으로 조작되는 실시예에서, 하우징(204)은 기구 시스템의 운동을 수동으로 제어하기 위해 파지 특징부, 수동 액추에이터 또는 다른 구성요소를 포함할 수 있다. 카테터 시스템은 조향가능 하거나, 또는 대안적으로 카테터 시스템은 기구 굴곡의 조작자 제어를 위한 통합된 메커니즘이 없는 상태로 조향불가능할 수도 있다. 추가적으로 또는 대안적으로, 의료 기구가 이 루멘을 통해 전개되어 표적 수술 위치에서 사용될 수 있는 하나 이상의 루멘이 가요성 본체(216)의 벽 내에 형성된다.
다양한 실시예에서, 의료 기구 시스템(200)은 폐의 진찰, 진단, 생검 또는 치료에서의 사용을 위한 기관지경 또는 기관지 카테터와 같은 가요성 기관지 기구를 포함할 수 있다. 시스템(200)은 또한 결장, 장, 신장, 뇌, 심장, 순환 계통 등을 포함하는 임의의 다양한 해부학적 계통 중에 자연적 또는 수술적으로 생성된 연결 통로를 통한 다른 조직의 내비게이션 및 치료에 적합하다.
추적 시스템(230)으로부터의 정보는, 기구 시스템(200)의 제어에서 사용하기 위해 표시 시스템(110) 상에 외과의사 또는 다른 조작자에게 실시간 위치 정보를 제공하도록 시각화 시스템(231)으로부터의 정보 및/또는 수술전 획득 모델과 조합되는, 내비게이션 시스템(232)에 발송될 수 있다. 제어 시스템(116)은 기구 시스템(200)의 위치설정을 위한 피드백으로 위치 정보를 이용할 수 있다. 수술 기구를 수술 영상과 정합하고 표시하기 위해 광섬유 센서를 사용하는 다양한 시스템이 "영상-안내 수술을 위한 해부학적 구조의 모델의 동적 정합을 제공하는 의료 시스템"을 개시하는 2011년 5월 13일에 출원된 미국 특허 출원 번호 13/107,562에 제공되며, 그 전문이 본원에 참조로 통합된다.
광섬유 형상 센서는, 그들이 영역 내의 금속 대상물에 대해 민감하지 않거나 방해적인 영상화 장비를 필요로 하지 않으면서 원위 팁의 자세를 포함하는 기구의 전체 형상에 대한 데이터를 제공하기 때문에 국소화 센서로서 특히 유용하다. 그러나, 광섬유 형상 센서를 이용할 때, 광섬유의 근위 단부에서의 작은 위치 및 배향 오류가 센서의 길이(예를 들어, 약 1m)로 인해 센서의 원위 단부에 대해 크게 축적된 위치 및 배향 오류를 생성할 수 있다. 이들 오류를 감소시키기 위한 시스템 및 방법이 아래에 설명되며, 광섬유의 더욱 정확한 정합, 결과적으로 시술 중에 수술 좌표계 및 해부학적 모델에 대한 의료 기구의 더욱 정확한 정합을 생성하기 위해 사용될 수 있다.
도 2a의 실시예에서, 기구 시스템(200)은 원격조작 의료 시스템(100)에서 원격조작된다. 대안적 실시예에서, 원격조작 조립체(102)는 직접적 조작자 제어로 대체될 수 있다. 직접적 조작 대체예에는, 다양한 핸들과 조작자 인터페이스가 기구의 휴대식(hand-held) 조작을 위해 포함될 수 있다.
대안적 실시예에서, 원격조작 시스템은 1개 초과의 종속 조종기 조립체 및/또는 1개 초과의 마스터 조립체를 포함할 수 있다. 조종기 조립체의 정확한 수는 다른 요인들 중 의료 시술 및 수술실 내의 공간 제약에 의존할 것이다. 마스터 조립체는 함께 위치될 수 있거나, 또는 개별 위치에 위치될 수 있다. 다중 마스터 조립체는 1명 초과의 조작자가 1개 이상의 종속 조종기 조립체를 다양한 조합으로 제어할 수 있게 한다.
도 2b에 더욱 상세하게 도시된 바와 같이, 수술, 생검, 절제, 조명, 관류, 또는 흡입과 같은 시술을 위한 의료 도구(들)(228)가 가요성 본체(216)의 채널(221)을 통해 전개될 수 있고 해부구조 내의 표적 위치에서 사용될 수 있다. 예를 들어, 도구(228)가 생검 기구인 경우, 표적 해부학적 위치로부터의 샘플 조직의 제거 또는 세포의 샘플링을 위해 사용될 수 있다. 의료 도구(228)는 또한 가요성 본체(216) 내의 영상 포착 프로브와 함께 사용될 수 있다. 대안적으로, 도구(228)는 그 자체가 영상 포착 프로브일 수 있다. 도구(228)는 시술을 수행하기 위해 채널(221)의 개구로부터 전진될 수 있고 그 후 시술이 완료되면 채널 내로 후퇴될 수 있다. 의료 도구(228)는 카테터 가요성 본체의 근위 단부(217)로부터 또는 가요성 본체에 따른 다른 선택적인 기구 포트(도시되지 않음)로부터 제거될 수 있다.
도 3은 환자 해부구조의 해부학적 통로 내에 위치된 카테터 시스템(202)을 도시한다. 본 실시예에서, 해부학적 통로는 인간 폐(201)의 기도이다. 대안적 실시예에서, 카테터 시스템(202)은 해부구조의 다른 통로에서 사용될 수 있다.
도 4는 영상-안내 외과 시술에서 사용하기 위한 일반적인 방법(300)을 도시하는 흐름도이다. 프로세스(302)에서, 수술전 또는 수술중 영상 데이터가 포함되는 사전 영상 데이터가 컴퓨터 단층촬영(CT), 자기 공명 영상화(MRI), 형광투시, 열조영, 초음파, 광 간섭 단층촬영(OCT), 열 영상화, 임피던스 영상화, 레이저 영상화 또는 나노튜브 X-선 영상화 같은 영상화 기술로부터 획득된다. 수술전 또는 수술중 영상 데이터는 2차원, 3차원 또는 4차원(예를 들어, 시간 기반 또는 속도 기반 정보 포함) 영상에 대응할 수 있다. 예를 들어, 영상 데이터는 도 3의 인간 폐(201)를 표현할 수 있다.
프로세스(304)에서, 컴퓨터 소프트웨어가 단독으로 또는 수동 입력과 조합되어 기록된 영상을 부분적 또는 전체적 해부학적 장기 또는 해부학적 구역의 세그먼트화된 2차원 또는 3차원 복합 표현 또는 모델로 변환하기 위해 사용된다. 복합 표현 및 영상 데이터 세트는 통로의 다양한 위치 및 형상, 그리고 그들의 연결성을 설명한다. 더 구체적으로는, 세그먼트화 프로세스 동안, 영상은 색, 밀도, 강도, 및 질감 같은 소정의 특징 또는 계산된 특성을 공유하는 세그먼트 또는 요소(예를 들어, 픽셀 또는 복셀)로 구획된다. 이러한 세그먼트화 프로세스는 획득된 영상에 기반하여 표적 해부구조의 모델을 형성하는 2차원 또는 3차원 재구성이 이루어진다. 모델을 표현하기 위해서, 세그먼트화 프로세스는 표적 해부구조를 표현하는 복셀의 세트를 표현할 수 있고 그 후 복셀을 에워싸는 3D 표면을 생성하기 위해 마칭 큐브 기능과 같은 기능을 적용할 수 있다. 모델은 메시, 체적 또는 복셀 지도에 의해 제작될 수 있다. 추가적으로 또는 대안적으로, 모델은 모델화된 통로의 중심을 통해 연장되는 상호연결된 선 세그먼트 또는 지점의 세트를 포함하는 중심선 모델을 포함할 수 있다. 모델이 상호연결된 선 세그먼트의 세트를 포함하는 중심선 모델을 포함하는 경우, 이들 선 세그먼트는 클라우드 또는 지점의 세트로 변환될 수 있다. 선 세그먼트를 변환함으로써, 상호연결된 선 세그먼트에 대응하는 지점의 요구되는 양이 수동적 또는 자동적으로 선택될 수 있다.
프로세스(306)에서, 의료 시술을 수행하기 위해 사용되는 해부학적 모델 데이터, 의료 기구(예를 들어, 기구 시스템(200)) 및 환자 해부구조는 환자에 대한 영상-안내 외과 시술의 과정 전 및/또는 그 동안에 공통 기준 프레임 내에서 상호정합된다. 공통 기준 프레임은, 예를 들어, 수술 환경 기준 프레임 또는 환자 기준 프레임일 수 있다. 프로세스(306)는 환자에 대해 의료 기구의 위치를 설정하는 단계를 포함한다. 프로세스(306)는 또한 환자에 대해 해부학적 모델을 정합하는 단계를 포함한다. 일반적으로, 정합은 강체 및/또는 비강체 변환의 사용을 통한 모델의 지점에 대한 측정된 지점의 매칭을 수반한다. 측정된 지점은 해부구조 내의 랜드마크, 시술 동안 스캐닝되고 추적되는 전자기 코일, 또는 형상 센서 시스템을 사용하여 생성될 수 있다. 측정된 지점은 반복적 최근접 지점(ICP) 기술에서 사용되기 위해 생성될 수 있다. ICP 및 다른 정합 기술은 양자 모두 2015년 8월 14일 자로 출원된 미국 가특허 출원 번호 62/205,440 및 미국 가특허 출원 번호 62/205,433에서 설명되며, 그 전문이 본 명세서에 참조로 통합된다. 프로세스(308)에서, 의료 시술은 의료 기구의 이동을 안내하도록 해부학적 모델 데이터를 사용함으로써 수행될 수 있다.
예를 들어 CT를 사용하여, 취득된 사전 영상 데이터는 대개 많은 시술에 적합한 해부학적 세부사항을 제공하기 위해 영상 안내 외과 시술에 사용된다. 그러나, 사전 영상 데이터는 정합 오류가 발생하고 주기적 또는 비주기적 해부학적 운동으로 인한 임의의 변형, 의료 기구로 인한 조직 변형 및 그 존재, 또는 사전 영상 데이터가 획득된 후에 발생하였을 수 있는 환자 해부구조에 대한 다른 변경사항을 포함하는 해부구조의 실시간 구성을 도시할 수 없다.
영상-안내 수술에서의 사용을 위한 전통적인 정합 방법은 대개 전자기 또는 임피던스 감지에 기반한 기술의 사용을 수반한다. 일부 예시에서, 수술 환경에서 사용되는 금속 물체 또는 일부 전자 장치는 감지된 데이터의 품질을 손상시키는 방해를 생성할 수 있다. 추가적으로 또는 대안적으로, 형광투시 영상화 시스템 및/또는 광학 추적 시스템과 같은 투시 영상화 시스템을 사용하여 정합이 수행될 수 있다. 본원에 설명된 일부 실시예에서, 형광투시 영상화 시스템 및/또는 광학 추적 시스템은 수술 환경의 좌표계 내의 의료 기구 및 환자 해부구조의 위치 및 배향을 결정하기 위해 사용될 수 있다. 다양하게 제공된 예시가 해부구조 내에서 수행되는 시술의 사용을 설명하지만, 대안적 실시예에서, 본 개시내용의 장치 및 방법은 해부구조 내에서 사용될 필요가 없으며, 오히려 환자 해부구조의 외측에서 사용될 수 있다.
형광투시는, X-선을 사용하는 영상화 분야 내에서 환자 해부구조, 의료 기구 및 임의의 방사선 불투과성 기준 마커의 실시간 동영상을 획득하는 영상화 양식이다. 본 설명에서, 기준 마커는 또한 기준 요소 또는 기준으로 지칭될 수 있다. 종래의 방사선 사진은 환자의 일 부분을 X-선 검출기 앞에 위치시킨 다음 짧은 X-선 펄스로 이를 조명하여 획득한 X-선 영상이다. 유사한 방식으로, 형광투시는 환자의 내측의 실시간 동영상을 획득하기 위해, 방사선 불투과성 의료 기구, 방사선 불투과성 염료 및/또는 수술 환경 내의 방사선 불투과성 기준 마커를 포함하여 X-선을 사용한다. 형광투시 시스템은 위치적 가요성을 제공하고 수동 또는 자동 제어를 통해 궤도적, 수평적 및/또는 수직적 이동을 가능하게 하는 C-아암 시스템을 포함할 수 있다. 비-C-아암 시스템은 고정되어서 이동에 대한 비교적 적은 가요성을 제공한다. 형광투시 시스템은 일반적으로 영상 증배기 또는 평면-패널 검출기 중 하나를 사용하여 환자 해부구조의 2차원 실시간 영상을 생성한다. 양면 형광투시 시스템은 각각 상이한(대개 직교인) 관점에서 2개의 형광투시 영상을 동시에 포착한다. X-선 영상의 품질과 유용성은 영상화된 조직의 유형에 따라 다를 수 있다. 뼈 및 금속과 같은 밀도가 높은 물질은 일반적으로 공기가 채워진 폐의 연조직보다 X-선 영상에서 더 잘 보인다. 폐에 대한 시술을 위해, 사전-영상 CT 데이터는 형광투시 영상에서 식별하기 어려울 수 있는 기도 및 종양의 해부학적 세부사항을 제공하지만, 형광투시 영상은 의료 기구 및 밀도 높은 해부학적 조직의 실시간 시각화를 제공한다.
광학 추적 시스템은 원격조작 조립체, 의료 기구 및/또는 환자에 부착된 적외선-발광 또는 역반사 마커를 검출하기 위해 위치 센서를 사용한다. 위치 센서는 위치 센서가 이들 마커로부터 수신한 정보에 기반하여 원격조작 조립체, 의료 기구 및/또는 환자의 위치 및 배향을 계산한다. 더욱 구체적으로는, 광학 추적 시스템은 영상 센서로부터 포착된 데이터를 사용하여, 중첩된 투영을 제공하기 위해 보정된 카메라들 사이에서 원격조작 조립체, 의료 기구 및/또는 환자의 3차원 위치를 삼각측량한다.
따라서, 정합된 형광투시, 사전-영상 데이터 및/또는 광학 추적 데이터는, 임상의가 폐와 같은 해부구조의 일정 부분을 내비게이팅하는 것을 보조하기 위해 의료 기구의 더욱 정확한 자세 추정 및 국소화를 제공함으로써 단독으로 또는 운동학적 데이터 및 형상 센서 데이터와의 조합으로 사용될 수 있다. 특히, 수술 좌표계 및/또는 형상 특성 내의 공지된 위치를 갖는 기준 마커의 형광투시 데이터를 획득하여, 기준 마커의 위치 또는 형상 데이터 중 하나와 형광투시 데이터를 조합함으로써, 원격조작 시스템은 형광투시 영상화 시스템을 수술 좌표계에 더욱 정확하게 정합할 수 있어서, 그에 의해 외과 시술 동안에 기구 내비게이션의 신뢰성을 향상시킨다.
도 5는, 환자(P)가 플랫폼(352) 상에 위치되어 있는 수술 좌표계(XS, YS, ZS)를 갖춘 일부 실시예에 따른 예시적인 수술 환경(350)을 도시한다. 환자(P)는 총체적 환자 이동이 진정, 구속 또는 다른 수단에 의해 제한되는 의미로 수술 환경에서 정지 상태일 수 있다. 환자가 일시적으로 호흡 운동을 중지하지 않는 한, 환자(P)의 호흡 및 심장의 움직임을 포함하는 주기적 해부학적 움직임이 계속될 수 있다. 수술 환경(350) 내에서, 의료 기구(354)가 기구 캐리지(356)에 결합된다. 기구 캐리지(356)는 수술 환경(350) 내에서 고정되거나 이동가능한 삽입 스테이지(358)에 장착된다. 기구 캐리지(356)는 삽입 움직임(즉, XS 방향의 움직임) 및 선택적으로 요, 피치 및 롤을 포함하는 다중 방향에서 기구의 원위 단부의 움직임을 제어하기 위해 기구(354)에 결합되는 원격조작 조종기 조립체(예를 들어, 조립체(102))의 구성요소일 수 있다. 기구 캐리지(356) 또는 삽입 스테이지(358)는 삽입 스테이지를 따르는 기구 캐리지의 움직임을 제어하는 서보모터(도시되지 않음)를 포함할 수 있다.
의료 기구(354)는 근위 강성 기구 본체(362)에 결합된 가요성 카테터(360)를 포함할 수 있다. 강성 기구 본체(362)는 기구 캐리지(356)에 대해 결합 및 고정된다. 광섬유 형상 센서(364)는 기구(354)를 따라 연장되고 고정 또는 공지된 지점(366)으로부터 카테터(360)의 원위 단부 부분(368)과 같은 다른 지점까지의 형상을 측정하도록 조작될 수 있다. 의료 기구(354)는 의료 기구 시스템(200)과 실질적으로 유사할 수 있다.
형광투시 영상화 시스템(370)은 카테터(360)가 환자 내로 연장되는 동안 환자의 형광투시 영상을 획득하기 위해 환자(P)의 근처에 배열된다. 시스템(370)은, 예를 들어 도 6a 및 도 6b에 도시된 바와 같이, 이동식 C-아암 형광투시 영상화 시스템일 수 있다. 일부 실시예에서, 시스템(370)은 워싱턴 D.C.의 지멘스사(Siemens Corporation)의 다중-축 아티스 지고(Artis Zeego) 형광투시 영상화 시스템일 수 있다.
도 6a 및 도 6b는 도 5에 도시된 예시적 수술 환경(350)의 다른 시야(view)를 도시한다. 도 6a는 환자(P) 및 외부 추적 시스템(382)에 대해 제1 위치에 위치되는 이동식 C-아암(380)을 포함하는 형광투시 영상화 시스템(370)을 도시한다. 도시된 실시예에서, C-아암(380)은 X-선 소스(384) 및 X-선 검출기(386)(또한 "X-선 영상기(386"))를 포함한다. X-선 검출기(386)는 수신된 X-선의 강도(intensity)를 표현하는 영상을 생성한다. 전통적으로, X-선 검출기(386)는 X-선을 가시 광으로 변환시키는 영상 증배기, 및 가시 광을 디지털 영상으로 변환시키는 CCD(charge coupled device) 비디오 카메라를 포함한다. 조작 중에, 환자(P)는 X-선 소스(384)와 X-선 검출기(386) 사이에 위치된다. 조작자 또는 원격조작 시스템의 명령 입력에 응답해서, X-선 소스(384)로부터 나오는 X-선이 환자(P)를 통과하여 환자의 2차원 영상을 생성하는 X-선 검출기(386)로 전달된다.
X-선 검출기(386)에 의해 생성되는 미가공 영상은 다수의 인자에 의해 야기되는, 영상 증배기 및 외부 전자기 영역에서의 고유한 영상 왜곡을 포함하는 바람직하지 않은 왜곡(예를 들어, "배럴 왜곡" 및/또는 "S-왜곡")을 겪는 경향이 있다. 수신된 영상에서 영상 왜곡을 수정하는 단계 및 영상기의 투영 기하구조에서 학습하는 단계의 프로세스인 내인성 보정은 X-선의 경로에 기준 마커(400)(또한 보정 마커로 공지됨)를 위치시키는 단계를 수반하며, 기준 마커는 X-선에 불투명한 물체이다. 기준 마커(400)는 X-선의 경로 내의 하나 이상의 평면에 미리 결정된 패턴으로 견고하게 배열되며 기록된 영상에서 가시적이다. 수술 환경에서의 기준 마커(400)의 실제 상대 위치(즉, 왜곡되지 않은 위치)가 공지되기 때문에, 제어 시스템(112)은 결과 영상 내의 각각의 픽셀(픽셀은 영상 내의 단일 지점)에서 왜곡의 양을 계산할 수 있다. 따라서, 제어 시스템(112)은 원본 영상에서의 왜곡을 디지털식으로 보상하고 왜곡이 없는 또는 적어도 왜곡이 개선된 디지털 영상을 생성할 수 있다. 기준 마커(400)의 실제 상대 위치의 정확성을 향상시키는 것은 형광투시 영상화 시스템(370)의 향상된 자세 추정을 가능하게 하여, 이에 따라 외과 시술 중에 기구 자세 결정 및 내비게이션의 정확성을 증가시킬 수 있다.
형광투시 영상화 시스템(370)에 의해 취해진 각각의 개별 영상은 2차원 영상이지만, 다른 관점으로부터 취해진 다수의 2차원 영상이 수술 부위 내의 해부학적 투영 또는 의료 기구의 3차원 위치를 추론하는데 사용될 수 있다. 영상 관점을 변화시키기 위해, 예를 들어 도 6b에 도시된 바와 같이, C-아암(380)은 회전될 수 있다. C-아암(380)은 다른 각도로부터 형광투시 영상화 시스템(370)의 시야 내에 위치된 환자(P) 및 기준 마커(400)의 X-선 영상을 취하기 위해 피봇될 수 있다. 도 6b는 형광투시 영상화 시스템(370)의 C-아암(380)이 환자(P) 및 외부 추적 시스템(382)에 대해 제2 위치에 위치된 상태의, 도 6a에 도시된 수술 환경(350)을 도시한다. 다른 투영 각도 또는 관점으로부터 생성된 2차원 투영 영상으로부터 3차원 단층촬영 영상이 생성될 수 있다. 환자(P) 및 기준 마커(400)의 다수의 2차원 영상을 다른 관점에서 취함으로써, 시야 내의 다양한 지점(예를 들어, 기준 마커(400) 상의 다양한 지점)의 3차원 위치가 결정될 수 있다.
위에 설명한 바와 같이, 기준 마커(400)는 형광투시 영상화 시스템(370)의 시야 내에 위치되는, 수술 환경에서 공지된 구성을 갖는 방사선 불투과성 대상물을 포함한다. 기준 마커(400)는 기준 혹은 측정의 지점으로 사용하기 위해 형광투시 영상 내에 나타난다. 도시된 실시예에서, 기준 마커(400)는 3차원 대상물을 포함한다. 다른 실시예에서, 기준 마커는 실질적으로 1차원 또는 2차원인 대상물을 포함할 수 있다. 기준 마커(400)는, X-선 검출기(386)에 의해 생성된 원본 영상으로부터 왜곡을 제거하는 영상 변환을 획득하거나 영상기의 투영 기하구조 학습(즉, 영상 내의 픽셀이 3차원 공간으로 어떻게 투영되는지 식별 또는 기준 마커의 2차원 영상을 공지된 3차원 모델에 매핑)하기 위해, X-선 영상화 경로에서 미리 결정된 고정 위치에 위치될 수 있다. 기준 마커(400)는 2차원 대상물로서 영상에 나타나는 3차원 형상일 수 있지만, 기준 마커(400)는 또한 본질적으로 2차원인 필름을 사용하여 구축될 수 있다. 비제한적 예로서 원, 정사각형, 삼각형, 직사각형, 타원형, 큐브, 구 및 원통형 막대와 같은 많은 가능한 형상이 기준 마커를 설계하는데 사용될 수 있다. 구는 2차원 영상에서 원으로 나타나고 원통형 막대는 선으로 나타난다. 다양한 유형의 기준 마커의 설계가 발명의 명칭을 "영상에 수술 기구를 위치시키기 위한 기준 마커 설계 및 검출"로 하여, 2009년 4월 23일 출원된 미국 특허 출원 번호 2010/0168562에서 설명되며, 그 개시내용 전체가 본원에 참조로 통합된다.
도 7a 내지 9b는 다양한 예시적인 기준 마커를 도시한다. 일부 실시예에서, 도 7a에 도시된 바와 같이, 기준 마커(400)는 각 마커 요소(401a-f)가 다른 마커 및 배경 구성과 차별화될 수 있도록 독특한 마커 요소(401)의 세트를 포함할 수 있다. 도시된 실시예에서, 각 마커 요소(401a-f)는 상이한 형상이다. 추가적으로 또는 대안적으로, 도 7b 및 도 7c에 도시된 바와 같이, 기준 마커(400)는 유사하거나 유사하지 않은 다른 마커 요소들의 고유하게 식별가능한 패턴을 포함할 수 있다. 예를 들어, 도 7b에서, 기준 마커(402)는 동일한 기준 요소(404)로 구성된 그리드 패턴을 포함하며, 그들 각각은 어두운 테두리로 둘러싸인 하얀 사각형이다. 각각의 기준 요소가 다른 기준으로부터 식별가능하지 않을 수 있지만, 기준 마커(402)의 그리드 레이아웃은 마커가 수술 좌표계 내에서 고유하게 식별되게 한다. 대조적으로, 도 7c에서, 기준 마커(410)는 2개의 상이한 기준 요소(교번식의 어두운 사각형(412)과 밝은 사각형(414))로 구성되는 체커판 그리드 패턴을 포함한다. 각각의 기준 요소는 고유하지 않을 수 있지만, 기준 마커(410)의 체커판 레이아웃은 마커가 수술 좌표계 내에서 고유하게 식별되고 위치되게 한다. 그리드 및 체커판 패턴에서, 각각의 사각형은 수술 환경에서 고정된 길이와 폭을 갖는다.
일부 실시예에서, 기준 마커(400)는 문자 및/또는 하나 이상의 부호를 포함하는 식별가능한 마커를 포함할 수 있다. 도 8a 내지 도 8e는 일부 예시적인 식별가능한 기준 마커를 도시하며, 각각의 기준 마커(422, 426, 432, 438 및 444)는 뚜렷한 기준 요소의 모음을 포함하고, 각각의 기준 요소는 뚜렷한 알파벳 글자를 포함한다. 예를 들어, 기준 마커(422 및 444)는 "직관적 수술(intuitive Surgical)"로 쓰인 뚜렷한 글자 또는 기준 요소(예를 들어, 글자"E"로 구성된 기준 요소(424))의 모음에 의해 형성된다. 유사하게, 기준 마커(426)는 기준 요소(428 및 430)에 의해 형성되고, 기준 마커(432)는 기준 요소(434 및 436)에 의해 형성되고, 기준 마커(438)는 기준 요소(440 및 442)에 의해 형성된다. 기준 마커(434, 436 및 444) 각각은 더욱 세밀한 국소화를 허용하기 위해 뚜렷한 설계 패턴으로 구성된다. 기준 마커(422, 426, 432, 438 및 444) 각각은 도 7c에 도시된 기준 마커(410)에 대해 위에 설명한 체커판 마커 설계의 변형예를 채용한다. 각각의 기준 요소는 고유하지 않을 수 있지만, 기준 마커(422, 426, 432, 438 및 444)의 전체적인 형상 및 체커판 레이아웃은 마커가 수술 좌표계 내에서 고유하게 식별되고 위치되게 한다.
일부 실시예에서, 기준 마커(400)는 불균일한 선형 패턴으로 배열된 일련의 유사한 기준 요소를 포함할 수 있다. 예를 들어, 도 9a 및 도 9b에 도시된 바와 같이, 기준 마커(450 및 460)는 불균일한 간격으로 직선으로 배열된 일련의 동일한 기준 마커(452 및 462)를 각각 포함한다. 이들 실시예에서, 기준 마커 (452, 462)의 불균일한 간격은 기준 마커(452 및 462)를 각각 영상화할 때 고유하게 식별가능한 코드를 형성한다. 일부 실시예에서, 이러한 코드는 전통적인(1차원) 또는 매트릭스(2차원) 바코드와 유사하다.
도시된 실시예에서, 기준 마커(400)는 환자(P) 상에 위치된 것으로 도시된다. 다른 실시예에서, 기준 마커(400)는 환자(P)의 위, 옆 또는 아래에(예를 들어, 플랫폼(352) 상에) 위치될 수 있다. 일 실시예에서, 예를 들어, 도 7c에 도시된 체커판 기준 마커(410)는 환자(P)와 플랫폼(352) 사이에 위치될 수 있다. 또 다른 실시예에서, 기준 마커(400)는 환자(P)의 신체 내에 내부적으로 확인되거나 위치될 수 있다. 예를 들어, 일부 실시예에서, 기준 마커(400)는 카테터(360) 또는 형상 센서(364) 그 자체를 포함할 수 있다. 이러한 실시예에서, 카테터(360) 및/또는 형상 센서(364)는 적어도 부분적으로 방사선 불투과성이다. 일부 실시예에서, 카테터(360) 및/또는 형상 센서(364)는 위에 설명한 바와 같이 하나 이상의 방사선 불투과성 기준 요소를 포함한다. 다른 실시예에서, 카테터(360) 및/또는 형상 센서(364)는 적어도 이들의 원위 부분(예를 들어, 형광투시 영상화 시스템(370)에 의해 영상화될 수 있는 원위 길이)을 따라 연속적으로 방사선 불투과성이다. 추가적으로 또는 대안적으로, 기준 마커(400)는 환자(P)의 해부학적 랜드마크(예를 들어, 하나 이상의 특정 늑골)를 포함할 수 있다. 다른 예시에서, 기준 랜드마크(400)는 환자(P) 내에 섭취되거나 주입된 방사선 불투과성 콘트라스트(contrast)에 의해 형성될 수 있다. 형상 센서를 보유한 가요성 장치의 공지된 길이에 따른 형광투시 영상 상의 다수의 식별가능 위치가 또한 기준 마커 지점으로 제공될 수 있다. 추가적으로, 공통 접지 지점을 갖춘 다중 형상에서 장치의 영상은 모호성을 감소시키기 위해 및/또는 보정 및/또는 자세 추정의 정확성을 향상시키기 위해 3차원에서 더 많은 공간을 커버하는 더 많은 기준 마커를 생성하도록 조합될 수 있다. 다른 실시예에서, 장치 상의 특정 식별가능 위치가 아니라 전체 장치가 방사선 불투과성일 수 있다. 자세 추정은 형광투시 영상에서 관측된 2차원 곡선에 대한 장치의 형상의 3차원 곡선의 역 투영 오류(back projection error)를 최소화함으로써 수행될 수 있다. 동일한 방식으로, 다수의 상이한 형상의 다수의 영상이 모호성을 감소시키기 위해 및/또는 보정 및/또는 자세 추정의 정확성을 향상시키기 위해 사용될 수 있다.
위에 언급한 바와 같이, 다른 관점으로부터 공지된 3차원 특성(예를 들어, 기준 마커(400))을 갖는 대상물의 다수의 2차원 영상을 획득하는 것은 수술 좌표 공간에 대한 형광투시 영상화 시스템(370)의 더욱 정확한 정합을 허용한다(즉, C-아암(380)의 자세를 더욱 정밀하게 추정함으로써 결과적으로 2차원 영상의 투시를 더욱 정확하게 결정). 다른 영상화 관점에서 기준 마커(400)의 식별 및 형광투시 영상화 시스템(370)의 내인성 보정은 투영 불변으로 교차비를 사용함으로써 행해질 수 있다. 도 10을 참조하면, 교차비는 4개의 동일 선상의 지점, 특히 투영 선 상의 지점의 리스트와 연관된 숫자이다. 선 상에 주어진 4개의 지점(A, B, C 및 D), 그들의 교차비는 다음과 같이 형성된다.
(A,B;C,D) = (AC x BD)/(BC x AD)
여기서 선의 배향은 각 거리의 부호를 결정하고 거리는 유클리드 공간으로 투영된 것으로 측정된다. 도 10은 이러한 교차비 원리를 도시하고, 지점(A, B, C, D 및 A ', B', C ', D')이 투영 변환에 의해 관련되어 그들의 교차비, (A, B; C, D) 및 (A', B'; C', D')가 같음을 입증한다.
도 11 및 도 12는 교차비 원리를 사용하여 형광투시 영상화 시스템(370)의 내인성 보정의 2개의 상이한 방법을 도시한다. 도 11에서, 형광투시 영상화 시스템(370)은 초기에 제1 위치(P1)에서 X-선 영상기(386)와 함께 2차원 형광투시 영상(평면 투영)을 투영하여, A' 및 B'에서 기준 마커(A 및 B)의 위치를 획득한다. 이어서, 형광투시 영상화 시스템(370)은 제2 위치(P2)에서 X-선 영상기(386)와 함께 다른 2차원 형광투시 영상(평면 투영)을 투영하여, A" 및 B"에서 기준 마커(A 및 B)의 위치를 획득한다. 기준 마커(400)가 평면 보정 영상인 경우, 영상기(386)가 상이한 각도로부터 기준 마커(400)를 검사하는 도 11에 묘사된 방법이 특히 유용하다.
도 12에서, 형광투시 영상화 시스템(370)의 X-선 영상기(386)는 정지 상태로 유지되고, 제1 위치(P3)에서 기준 마커(A 및 B)와 함께 제1 2차원 형광투시 영상(평면 투영)을 투영하여, A' 및 B'에서 기준 마커(A 및 B)의 위치를 획득한다. 이어서, 형광투시 영상화 시스템(370)은 제2 위치(P4)에서 기준 마커(A 및 B)와 함께 다른 2차원 형광투시 영상(평면 투영)을 투영하여, A" 및 B"에서 기준 마커(A 및 B)의 위치를 획득한다. 두 시나리오 모두에서 획득된 4개의 지점(A', B', A" 및 B")은 형광투시 영상화 시스템(370)을 내재적으로 보정하는데 사용될 수 있다.
도 13은 일반적으로 수술 환경에서 의료 기구(예를 들어, 원격조작 제어 기구 시스템(200))의 동시적 국소화/추적 및 형광투시 영상화 시스템(370)의 보정을 수반하는 수술 환경(350)에서 영상 안내 수술을 수행하는 방법(490)을 도시하는 흐름도이다. 방법(490)을 포함하는 본 상세한 설명의 방법은 블록, 단계, 조작 또는 프로세스의 세트로서 도 13에 도시된다. 도시된 모두가 그러한 것은 아니지만, 열거된 조작은 방법(490)의 모든 실시예에서 수행될 수 있다. 추가적으로, 이 방법에 분명하게 도시되지 않은 일부 추가적인 조작이 열거된 프로세스들 전, 후, 그 사이, 또는 그 일부로서 포함될 수 있다. 본 설명의 방법의 일부 실시예는 메모리에 저장되는 바와 같은 방법의 프로세스에 대응되는 명령어를 포함한다. 이들 명령어는 제어 시스템(112)의 프로세서 같은 프로세서에 의해 실행될 수 있다.
위에 설명한 바와 같이, 수술 좌표 공간 내의 형광투시 영상화 시스템(370)의 자세(예를 들어, C-아암(380)의 위치)는 2차원 형광투시 영상의 관점을 정확하게 결정하기 위해 사용된다. 2차원 형광투시 영상을 정확하게 해석하는 단계는 또한 영상 왜곡을 인식하고 수정하는 단계를 포함할 수 있다. 프로세스(500)는, 수술 환경에서 공지된 3차원 위치, 형상 및 크기 특징을 갖는 기준 마커를 영상화함으로써 형광투시 영상화 시스템의 자세를 동시적으로 결정하면서 왜곡을 수정하기 위해 형광투시 영상화 시스템(370)을 보정하는 예시적인 방법을 설명한다. 보정 프로세스 및 보정 모델의 생성은 기구 자세의 재구성 전에 수행될 수 있다. 마커는 다수의 다른 관점으로부터 형광투시 영상화 시스템(370)에 의해 영상화될 수 있다. 프로세스(502)에서, 형광투시 영상화 시스템(370)은, 다수의 관점으로부터 또는 다수의 자세에서(도 11 및 도 12에 대해 위에 설명한 바와 같이) 수술 환경 내의 공지된 구성(예를 들어, 크기, 형상, 위치)을 갖는 기준 마커(400)의 형광투시 영상 데이터를 포착한다. 아래에 추가로 설명하는 바와 같이, 기준 마커는 수술 환경에서의 가요성 기준에 대한 형상 및 자세 정보를 제공하는 형상 센서를 포함할 수 있다.
프로세스(504)에서, 제어 시스템(112)은 형광투시 영상 데이터를 사용하여 형광투시 영상화 시스템(370)의 내인성 및 외인성 파라미터의 세트를 추정한다. 예를 들어, 영상화 시스템(370)의 내인성 파라미터는 초점 길이, 투영 중심 및 픽셀 비율과 같은 영상기의 보정 파라미터를 포함한다. 영상화 시스템(370)의 외인성 파라미터는 형광투시 영상화 시스템(370)과 보정 패턴 또는 기준 마커(400) 사이의 회전 및 병진 및 강체 변환과 같은 영상기의 위치 파라미터를 포함한다. 프로세스(506)에서, 제어 시스템(112)은 수술 환경(350)에 관해 형광투시 영상화 시스템(370)의 추정된 3D 모델을 생성하기 위해 (예를 들어, 도 10 내지 도 12에 도시된 바와 같은 교차비 및 투영 불변성을 사용하여) 알고리즘을 푼다.
(예를 들어, 프로세스(502, 504 및 506)를 통해 주기적으로) 다른 관점으로부터 기준 마커(400)(및 가능하다면 다른 기준 마커)를 반복적으로 영상화한 후에, 추정된 모델은 프로세스(508)에서 수술 환경 내의 마커(들)의 최종 모델로 정제된다. 보정된 모델은, S-왜곡을 포함하는 왜곡을 수정하거나 적어도 최소화하고, 수술 환경에서 영상화 시스템에 대한 추정된 자세를 제공하는 형광투시 영상화 시스템(370)에 대한 최적의 내인성 및 외인성 파라미터 세트에 기초한다. 프로세스(500)는 다수의 형광투시 영상 내의 기준의 2차원 위치를 기준의 공지된 3차원 위치 추정치와 함께 내인성 및 외인성 파라미터를 재구성하도록 조합한다. 삼각측량, 다발 조정, 또는 동시적 위치 파악 및 매핑(SLAM)과 같은 컴퓨터 비젼의 방법을 사용하여 재구성할 수 있다. 프로세스(510)에서, 보정된 모델은 형광투시 영상 기준 프레임을 수술 좌표 프레임에 정합하여 형광투시 기준 프레임에 영상화된 마커의 자세가 보정된 모델로부터 수술 기준 프레임에서 결정될 수 있다. 수술 기준 프레임 및 해부학적 모델 기준 프레임과의 형광투시 기준 프레임의 정합은 참조로 통합된 미국 가특허 출원 번호 62/205,440 및 No. 62/205,433에서 설명된다. 선택적으로, 보정 프로세스(500)는 하나 이상의 다양한 다른 프로세스들로 보충된다. 예를 들어, 프로세스(512)는 수술 환경에서 영상화 시스템(370)의 자세의 추정을 보충하기 위해 형광투시 영상화 시스템(370)의 위치 및 배향을 외부적으로 추적하는 단계를 포함한다. 도 6a 및 도 6b를 참조하면, 수술 환경(350)은 또한 외부 추적 시스템(382)을 포함한다. 일반적으로, 외부 추적 시스템(382)은 수술 좌표계에 대해 형광투시 영상화 시스템(370) 및/또는 기준 마커(400)의 자세를 추정하는 외부 수단을 포함한다. 외부 추적 시스템(382)은 형광투시 영상화 시스템 (370)으로부터 이격되어 묘사되었지만, 일부 실시예에서 외부 추적 시스템(382)은 형광투시 영상화 시스템(370) 상에 배치될 수 있다. 예를 들어, 다양한 실시예에서, 외부 추적 시스템(382)은 도 6a 및 도 6b의 점선(470)으로 표시된 바와 같이 C-아암(380)의 조인트 상에 하나 이상의 인코더를 포함할 수 있다. 대안적으로 또는 추가적으로, 외부 추적 시스템(382)은 도 6a 및 도 6b의 점선(472)으로 표시된 바와 같이 C-아암(380) 상에 장착된 하나 이상의 경사계(예를 들어, 관심 회전 자유도 당 하나의 경사계)를 포함할 수 있다.
대안적으로 또는 추가적으로, 외부 추적 시스템(382)은 광학 추적 시스템을 포함할 수 있다. 도시된 실시예에서, 광학 추적 시스템(382)은 기준 어레이 상에 위치된 특수한 반사기를 포함하는 적어도 하나의 광학 마커에 의해 반사된 적외선을 방출 및 수신할 수 있는 한 쌍의 카메라를 포함하는 센서(480)를 포함한다. 일부 실시예에서, 센서(480)는 C-아암(380) 상에 배치된 광학 마커의 위치를 추적할 수 있다. 추가적으로 또는 대안적으로, 센서(480)는 환자(P) 및/또는 의료 기구(예를 들어 카테터(360)) 상에 배치된 광학 마커의 위치를 추적할 수 있다. 일부 실시예에서, 기준 마커(400)는 광학 마커뿐만 아니라 방사선 불투과성 마커도 포함한다. 일부 실시예에서, 광학 마커는 센서(480) 상의 조명기에 의해 방출된 적외선 광을 반사하는 구형의 역반사 마커를 포함하는 수동적 마커일 수 있다. 일부 실시예에서, 기준 마커는 전기 신호에 의해 활성화되는 능동적 적외선 발광 마커일 수 있다. 광학 추적 시스템의 추가 설명은, 예를 들어, 발명의 명칭을 "하나 이상의 대상물의 공간적 위치 및/또는 배향을 결정하는 시스템"으로 하여, 1999년 10월 28일 자로 출원된 미국 가특허 출원 번호 6,288,783 및 발명의 명칭을 "영상-안내 수술에서 광학 추적을 사용하는 시스템 및 방법"으로 하여, 2015년 9월 10일 자로 출원된 미국 특허 출원 번호 62/216,494에서 제공되며, 그 전문이 본원에 참조로 통합된다. 일부 실시예에서, 도 6a에 도시된 바와 같이, 광학 추적 센서(480)는 기구 본체가 가요성 카테터(360)를 환자의 해부구조의 내외로 이동시킬 때, 기준 마커(400) 및/또는 의료 기구에 부착된 광학적 기준 마커 세트를 추적한다. 다른 실시예에서, 외부 추적 시스템(382)은 (기준 마커(400)에서 획득되는 2차원 형광투시 영상에 의존하는) 프로세스(500)에 관해 위에 설명한 내인성 보정 프로세스에 독립적으로 형광투시 영상화 시스템(370)의 자세를 추정하는데 사용될 수 있다.
위에 설명한 바와 같이, 형광투시 영상화 시스템이 보정되고 마커가 수술 환경에서 국소화된 후에, 새로운 형광투시 영상이 수술 기준 프레임에 정합될 수 있다. 프로세스(514)에서, 의료 시술 중에, 형광투시 기준 프레임에서, 기준 마커(400) 및 카테터(360)를 포함하는 형광투시 영상이 포착된다. 프로세스(516)에서, 형광투시 영상으로부터, 수술 기준 프레임 내의 카테터(예를 들어, 원위 팁 부분)의 하나 이상의 부분의 위치 및 배향이 형광투시 기준 프레임에 대한 수술 기준 프레임의 정합으로부터 결정된다. 더욱 구체적으로는, 동일한 프레임에서 기준 마커 및 카테터의 원위 팁을 포함하는 형광투시 영상이 수신되면, 형광투시 시스템의 선택적 보충 자세 추적과 함께 보정된 모델이 왜곡을 수정하고 형광투시 영상기의 추정된 자세를 제공한다. 보정된 모델로부터, 수술 기준 프레임 내의 카테터의 원위 팁의 자세가 결정될 수 있다.
도 4에서 앞서 설명한 바와 같이, 영상-안내 외과 시술에서 사용하기 위한 방법(300)은 수술 환경에서 환자에 대해 의료 기구를 국소화하는 단계를 포함한다. 따라서, 방법(490)의 일부 실시예는 CT, MRI, 열조영, 초음파, OCT, 열 영상화, 임피던스 영상화, 레이저 영상화, 또는 나노튜브 X-선 영상화와 같은 영상화 기술로부터 수술전 또는 수술중 영상 데이터를 포함하는 사전 영상 데이터를 획득하는 프로세스(492)를 포함할 수 있다. 사전 영상 데이터는 2차원, 3차원 또는 4차원(예를 들어, 시간 기반 또는 속도 기반 정보 포함) 영상에 대응할 수 있다. 위에 설명한 바와 같이, 해부학적 모델은 사전 영상 데이터로부터 생성된다. 프로세스(494)에서, 수술 기준 프레임(XS, YS, ZS)은 기구 센서 기준 프레임(XI, YI, ZI)에 정합된다. 모델과 기구 기준 프레임 사이의 이러한 정합은, 예를 들어, 참조로 통합된 미국 가특허 출원 번호 62/205,440 및 62/205,433에 설명된 지점-기반 ICP 기술을 사용하여 달성될 수 있고, 그 전문이 본원에 참조로 통합된다. 추가적으로 또는 대안적으로, 모델 및 센서 기준 프레임은 다른 공통 기준 프레임에 정합될 수 있다. 공통 기준 프레임은, 예를 들어, 수술 환경 기준 프레임(XS, YS, ZS) 또는 환자 기준 프레임일 수 있다. 예를 들어, 기구 센서의 기준 부분은 수술 환경에서 고정, 공지 또는 추적될 수 있다.
프로세스(518)에서, 사용자 또는 원격 조작 시스템은 둘 모두가 수술 기준 프레임 또는 다른 공통 기준 프레임에 정합되기 때문에 안내를 위해 3차원 모델 및/또는 형광투시 영상 데이터를 사용하여 의료 기구로 의료 시술을 수행할 수 있다. 프로세스(514 내지 516)는 해부구조 및 해부학적 모델에 대한 기구의 현재의 국소화를 제공하기 위해 의료 기구가 환자 해부구조 내에 삽입되거나 다른 방식으로 이동되면서 의료 시술 동안 반복될 수 있다.
선택적으로, 형상 센서(364)로부터의 형상 센서 데이터는 프로세스(500)에 의해 표현된 형광투시 데이터 및 내인성 보정 프로세스를 보완하도록 사용될 수 있다. 형상 센서 데이터는 강성 기구 본체 상의 공지된 기준 지점(366)과 가요성 카테터(360)의 원위 단부 사이에서 연장되는 센서의 형상을 설명한다. 일부 실시예에서, 위에 설명한 바와 같이, 형상 센서 데이터가 원위 팁의 자세를 포함하는 수술 기준 프레임에 대한 센서(및 그것을 통해 연장되는 카테터)의 형상 특성을 제공하기 때문에 형상 센서(364) 그 자체가 기준 마커(400)로서 작용할 수 있다. 공지된 3차원 형상을 갖는, 형상 센서(364)와 같은 기준 마커(400)에 대한 2차원 영상화 데이터를 획득하는 단계는 제어 시스템(112)이 기준 마커(400)를 수술 환경(350) 내에 더욱 정확하게 국소화하게 한다. 형상 센서가 기준 마커로서 사용될 때, 그것은 단독 기준 마커로서 사용될 수 있거나, 또는 수술 환경에 존재하는 복수의 1차원, 2차원 및 3 차원 기준 마커에 포함될 수 있다. 일부 실시예에서, 의료 기구 또는 카테터(360) 그 자체의 형상은 적어도 부분적으로 방사선 불투과성이며 기준 마커(400)로서 작용한다. 더욱 구체적으로는, 운동학적으로 및/또는 광학 추적 센서(480)에 의해 추적되는 수술 환경에서의 기준 지점(366)의 위치와 조합된 형상 정보는 가요성 카테터(360)의 원위 팁 및 다른 수술 환경에서의 카테터에 따른 지점의 위치 및 배향을 제공한다. 환자가 또한 광학 추적 센서(480)에 의해 추적되는 경우, 환자(P)의 위치 및 배향은 또한 수술 환경에서 공지된다. 따라서, 가요성 카테터(360)의 위치 및 배향은 수술 환경 기준 프레임에서 환자의 해부구조에 대해 공지된다.
수술 환경에서 다수의 관점으로부터의(즉, 다수의 위치 사이에서 이동된 형광투시 영상기로) 형광투시 영상 데이터는 2차원 또는 3차원 단층촬영 영상을 생성하도록 편집될 수 있다. 디지털 검출기(예를 들어, 평면 패널 검출기)를 포함하는 형광투시 영상기 시스템을 사용할 때, 생성되고 편집된 형광투시 영상 데이터는 단층영상합성 영상화 기술에 따라 평행한 평면에서 평면 영상의 구획화(sectioning)를 허용한다. 전통적인 형광투시 영상기 이동은 평면 이동(예를 들어, 선 또는 곡선)으로 제한된다. 예를 들어, 형광투시 영상기는 선형 트랙을 따라 선형으로 이동하도록 제약될 수 있거나 C-아암에 의해 형성된 궤도 이동으로 제약될 수 있다. 본 개시내용의 실시예에 따라, 수술 환경에서 형광투시 영상기의 2차원 또는 3차원 이동은 형광투시 영상기에 의해 생성된 평면 움직임으로 제약되는 영상 데이터에 비해 환자 해부구조에서 관심 영역에 대해 더욱 상세한 내용을 제공하는 형광투시 영상 데이터를 생성한다. 임의의 앞서 설명한 방법에 따라 추적되는 형광투시 영상기의 자세에 따라, 형광투시 영상기는 3차원 수술 공간 내에서 이동하여 환자 해부구조 내의 관심 구역의 최적 영상을 생성하기 위해 단층촬영과 조합되는 영상 데이터를 포착할 수 있다.
수술 환경 내의 제약(예를 들어, 공간, 시간 및 비용)으로 인해, 형광투시 영상기의 전체 범위보다 실질적으로 작은 범위로부터 복합 영상을 사용하는 단층촬영 영상화 기술이 단층촬영 영상을 준비하도록 사용될 수 있다. 예를 들어, C-아암 형광투시 영상기의 움직임의 전체 스캔 범위가 자동화된 스캔에 대해 약 200°인 경우, 원격조작 시스템의 존재로 인한 수술 환경 내의 공간 제한은 영상기가 완전히 200°이동하는 것을 제한할 수 있다. 그러나, 유용한 단층촬영 영상은 200° 범위보다 실질적으로 작은 제약된 범위(제약된 스캔 구역을 형성)에서 영상기를 수동으로 움직여서(wobbling) 구축될 수 있다. 제약된 범위를 사용하는 일 실시예에서, 영상기는 움직여지거나 그렇지 않으면 약 30°범위 내에서 C-아암의 평면 내의 궤적 및 선택적으로는 C-아암의 궤적의 통상적 평면 밖으로의 위치 모두를 포함하는 하나 이상의 위치로 이동된다.
도 14는 수술 환경의 평면(XSYS)에서 환자 해부구조 및 단층영상합성 배열(550)을 도시한다. 도 15는 수술 환경의 직교 평면(YSZS)에서 도 14의 환자 해부구조 및 단층영상합성 배열(550)을 도시한다. X-선 영상기는 환자에 대한 움직임(R)의 전체 스캔 범위를 갖는다. 도 14에 도시된 바와 같이, 환자(P)는 제약된 범위 내에서 전체 스캔 범위(R)보다 실질적으로 작은 위치(C1, C2, C3, C4 및 C5)로 이동된 X-선 소스로 영상화된다. 본 실시예에서, (평면(XSYS) 에서)제약된 범위는 약 30°또는 전체 스캔 범위의 20% 이하이다. 환자(P)는 위치(C1)에서 영상 평면(I1)에 영상화된다. X-선 소스는 환자(P)를 영상 평면(I2)에 영상화하기 위해 평면(XSYS)(예를 들어, 제1 이동 평면)에서 위치(C2)로 회전되거나, 움직여지고(wobbled), 그렇지 않으면 수동으로 이동된다. X-선 소스는 환자(P)를 영상 평면(I3)에 영상화하기 위해 평면(XSYS)에서 위치(C3)로 추가로 회전되거나, 움직여지고, 그렇지 않으면 수동으로 이동된다. 영상은(I1, I2, I3) 영상 그 자체를 사용하거나 또는 필터링 후에 X-선 소스의 추정된 자세 및 보정된 내인성 파라미터에 의해 고유하게 형성되는 평면-투영 변환(즉, 호모그라피(homography))을 사용하여 단일 단층촬영 평면(T1)에 매핑되고 축적될 수 있다. 평면(T1)에서 슬라이스 영상을 생성하기 위해 사용되는 영상 재구성 알고리즘은 평면(T1) 밖의 구성을 흐리게하거나 그렇지 않으면 최소화한다. 단층촬영 평면(T1)은 해부학적 관심 구역의 위치 또는 의료 기구의 위치에 기반하여 선택될 수 있다. 영상(I1, I2, I3)에 대한 동일한 영상 데이터는 추가적으로 또는 대안적으로 평면(T2) 또는 평면(T3)와 같은 다중 단층촬영 평면에서 슬라이스 영상을 생성하기 위해 매핑될 수 있다. 본 실시예에서, 영상기의 이동은 수동으로 수행될 수 있지만, 다른 실시예에서는 이동이 프로그래밍되거나 그렇지 않으면 컴퓨터로 제어될 수 있다. 도 15에 더욱 명확하게 도시된 바와 같이, 제약된 범위 내에서 X-선 소스는 또한 평면(XSYS)에서 다른 이동 평면으로 이동될 수 있다. X-선 소스가 위치(C4)로 이동된 상태에서, 환자는 영상 평면(I4)에 영상화된다. X-선 소스가 위치(C5)로 이동된 상태에서, 환자는 영상 평면(I5)에 영상화된다. 영상(I1, I2, I3, I4, I5)에 대한 임의의 또는 모든 영상 데이터는 단일 단층촬영 평면(T4) 또는 단일 단층촬영 평면(T5)에 매핑될 수 있다. 평면(T4, T5)은 서로에게 그리고 평면(T1)에 대해 왜곡될 수 있다. 대안적인 실시예에서, 위치(C4 및 C5)에서의 X-선 영상기는 단층촬영 영상를 컴퓨팅하기 위해 각도의 범위에 걸쳐 다수의 영상을 획득하도록 회전될 수 있다. 영상은 개별 위치에서 획득될 수 있지만, 선택적으로 연속적인 형광투시 비디오로부터의 프레임이 재구성을 위해 사용될 수 있다.
도 16은 수술 환경에서 형광투시 시스템의 다수의 3차원 관점으로부터 획득된 영상으로부터 단층영상합성 영상 재구성을 사용하는 영상 안내 의료 개입의 방법(580)을 도시한다. 앞서 설명한 바와 같이, 수술 환경에서의 형광투시 시스템의 자세 및 위치는 형광투시 영상에서의 형광투시 마커 및/또는 광학 추적 시스템 또는 형광투시 시스템의 조인트에 대한 조인트 추적기(예를 들어, 인코더)와 같은 외부 추적기를 사용하여 추적될 수 있다. 따라서, 수술 환경에서의 형광투시 영상기의 현재의 또는 요구되는 자세가 공지 또는 명시될 수 있다. 방법(580)을 포함하는 본 설명의 방법은 블록, 단계, 조작 또는 프로세스의 세트로 도 16에 도시된다. 도시된 모두가 그러한 것은 아니지만, 열거된 조작은 방법(580)의 모든 실시예에서 수행될 수 있다. 추가적으로, 이 방법에 명시적으로 도시되지 않은 일부 추가적인 조작이 열거된 프로세스들 전, 후, 그 사이, 또는 그 일부로서 포함될 수 있다. 본 설명의 방법의 일부 실시예는 메모리에 저장되는 바와 같은 방법의 프로세스에 대응되는 명령어를 포함한다. 이들 명령어는 제어 시스템(112)의 프로세서 같은 프로세서에 의해 실행될 수 있다.
프로세스(582)에서, 환자의 해부구조의 형광투시 영상 데이터는 수술 좌표 공간 내의 위치(C1, C2, C3)에 위치된 형광투시 영상기(예를 들어, 영상화 시스템(370))로부터 수신된다. 프로세스(584)에서, 단층촬영 영상(T1)은 형광투시 영상 데이터로부터 구축된다. 영상은 환자(P)에 대한 의료 시술 중에 실시간으로 임상의에게 표시될 수 있다. 영상에 관심 영역에 대한 세부사항이 충분하지 않은 경우, 추가적인 단층영상합성 평면 영상이 유용할 수 있다. 예를 들어, 임상의는 터치 스크린, 마우스 또는 트랙볼과 같은 조작자 입력 장치를 사용하여 영상의 구역을 선택함으로써 관심 구역(예를 들어, 종양이 위치하는 구역)을 식별할 수 있다. 대안적으로, 추가적 평면 단층영상합성 영상을 생성하기 위한 관심 구역은 수술 환경에 정합된 수술전 CT에서 관심 구역을 식별함으로써 선택될 수 있다. 대안적으로, 추가적 평면 단층영상합성 영상을 생성하기 위한 관심 구역은 정합된 수술 환경 및 그로부터 연장된 기구(예를 들어, 생검 바늘)의 궤적에서 원위 팁과 같은 의료 기구의 일 부분의 위치를 결정함으로써 선택될 수 있다.
식별된 관심 구역에 기반하여 프로세스(586)에서, 3차원 수술 좌표 공간에서 다른 자세, 자세의 세트 또는 영상화 각도의 범위로 형광투시 영상기를 이동시키기위한 명령어가 생성될 수 있다. 이동 후 또는 이동 중에, 형광투시 영상기의 자세는, 앞서 설명한 바와 같이, 형광투시 영상 및/또는 광학 추적 시스템 또는 형광투시 시스템의 조인트에 대한 조인트 추적기(예를 들어, 인코더)와 같은 외부 추적기 내의 형광투시 마커를 사용하여 추적될 수 있다. 형광투시 영상기는 단일 평면에서의 이동으로 제한되지 않는다. 오히려, 형광투시 영상기의 이동은 제약적이지 않아서, 영상기가 최적 영상화 데이터를 제공하는 구성으로 배치될 수 있게 한다. 이러한 명령어는 형광투시 영상기의 제어 시스템이 형광투시 영상기를 수술 좌표계에서 특정 자세로 이동시키도록 지시하는 제어 신호일 수 있다. 대안적으로, 명령어는 조작자가 형광투시 영상기를 수술 좌표계에서 특정 자세로 수동으로 이동시키도록 표시되거나 그렇지 않으면 통신될 수 있다. 형광투시 영상기는 수술 좌표계에 대해 자유롭게 이동가능할 수 있고 단일 평면에서 선형 또는 궤도 운동에 제약되지 않는다. 대안적으로, 이동 명령은 영상화 시스템(370)을 재배치하고, 재배치된 위치로부터 단일 평면에서 다중 형광투시 영상을 획득하기 위한 명령어를 포함할 수 있다. 예를 들어, C-아암은 명령어에 기반하여 새로운 위치로 이동될 수 있고, C-아암은 회전 평면으로부터 복수의 영상을 생성하도록 회전될 수 있다.
프로세스(588)에서, 환자 해부구조의 추가적인 형광투시 영상 데이터는 수술 좌표 공간 내의 특정 자세 또는 자세의 세트에 위치된 형광투시 영상기로부터 수신될 수 있다. 예를 들어, 관심 구역은 평면(T4)에 있을 수 있어서, 영상기는 추가적인 형광투시 영상 데이터를 생성하기 위해 위치(C4)로 이동될 수 있다. 프로세스(590)에서, 제2 평면 단층촬영 영상이 제2 형광투시 영상 데이터로부터 구축될 수 있다. 제2 형광투시 영상 데이터는 단일 영상으로부터 또는 복수의 영상으로부터 생성될 수 있다. 다양한 실시예에서, 제2 평면 단층촬영 영상은 제1 형광투시 영상 데이터와 조합된 제2 형광투시 영상 데이터로부터 구축될 수 있다. 요구되는 구조의 재구성은 새로운 영상이 추가되고 축적되는 반복적이고 연속적인 프로세스에 의해 달성될 수 있다. 따라서, 종양, 카테터 또는 흉막 경계와 같은 요구되는 구조를 포함하는 단층영상합성 영상이 초래될 때까지, 586, 588, 590과 유사한 프로세스 단계가 반복될 수 있다. 형광투시 영상기의 자세 이력이 추적되고 사용자에게 표시 또는 다른 사용자 인터페이스를 통해 제공될 수 있어서, 사용자가 수술 환경에서 어떤 자세 및/또는 각도의 범위가 커버되었는지 안다.
본 개시내용의 시스템 및 방법은 폐의 연결된 기관지 통로에서의 사용을 위해 설명되었지만, 시스템 및 방법은 또한, 결장, 장, 신장, 뇌, 심장, 순환 계통 등을 포함하는 임의의 다양한 해부학적 계통의 자연적 또는 수술적으로 생성된 연결 통로를 통한 다른 조직의 내비게이션 및 치료에도 적합하다.
또한, 본 개시내용은 원격조작 시스템에 대한 다양한 시스템 및 방법을 설명하지만, 조종기 조립체 및 기구가 직접 제어되는 비-원격조작 시스템에서의 사용 또한 고려된다. 다양하게 제공된 예시가 해부구조 내에서 수행되는 시술의 사용을 설명하지만, 대안적 실시예에서, 본 개시내용의 장치 및 방법은 해부구조 내에서 사용될 필요가 없으며, 오히려 환자 해부구조의 외측에서 사용될 수 있다.
본 발명의 실시예의 하나 이상의 요소가 제어 시스템(112)과 같은 컴퓨터 시스템의 프로세서를 실행하기 위한 소프트웨어로 구현될 수 있다. 소프트웨어로 구현될 때, 본 발명의 실시예의 요소가 본질적으로 필요 과업을 수행하기 위한 코드 세그먼트이다. 전송 매체 또는 통신 링크를 통해서 반송파로 구현된 컴퓨터 데이터 신호의 방식으로 다운로드될 수 있는 프로그램 또는 코드 세그먼트가 프로세서 판독가능 저장 매체 또는 장치에 저장될 수 있다. 프로세서 판독가능 저장 장치는 광학 매체, 반도체 매체 및 자기 매체를 포함하는, 정보를 저장할 수 있는 임의의 매체를 포함할 수 있다. 프로세서 판독가능 저장 장치 예는 전자 회로; 반도체 장치, 반도체 메모리 장치, 리드 온리 메모리(ROM), 플래시 메모리, 소거할 수 있는 프로그램가능 리드 온리 메모리(EPROM); 플로피 디스켓, CD-ROM, 광학 디스크, 하드 디스크 또는 다른 저장 장치를 포함하며, 코드 세그먼트는 인터넷, 인트라넷 등의 컴퓨터 네트워크를 통해 다운로드될 수 있다.
제시되는 프로세스 및 표시부는 본질적으로 임의의 특별한 컴퓨터 또는 다른 장치와 관련되지 않을 수 있다는 점에 주의한다. 다양한 이들 시스템을 위한 요구된 구조는 청구항 내의 요소로서 나타날 것이다. 또한, 임의의 특별한 프로그래밍 언어를 참조하여 본 발명의 실시예를 설명하지 않았다. 본 명세서에 기술된 본 발명의 교시를 구현하기 위해 다양한 프로그래밍 언어가 이용될 수 있다는 것이 이해될 것이다.
본 발명의 특정의 예시적 실시예를 설명하고 첨부 도면에서 도시하였지만, 다양한 다른 변형이 통상의 기술자에게 보여질 수 있기 때문에, 이러한 실시예는 단지 예시적인 것이고 본 발명의 범위를 제한하지 않으며, 본 발명의 실시예는 도시되고 설명된 구체적인 구성 및 배열로 제한되지 않는다는 것을 이해해야 한다.

Claims (61)

  1. 컴퓨팅 시스템에 의해 수행되는 방법이며,
    제1 파라미터 세트를 갖는 형광투시 영상기로부터, 수술 좌표 공간 내의 기준 마커의 제1 형광투시 영상 데이터를 수신하는 단계;
    수술 좌표 공간 내의 기준 마커의 구성을 수신하는 단계; 및
    제1 형광투시 영상 데이터 및 기준 마커의 구성에 기반하여 수술 좌표 공간 내의 형광투시 영상기의 제2 파라미터 세트를 결정하는 단계를 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  2. 제1항에 있어서, 제2 파라미터 세트를 결정하는 단계는 제1 형광투시 영상 데이터 및 기준 마커의 구성으로부터 수술 좌표 공간 내의 기준 마커의 보정된 모델을 전개시키는 단계를 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  3. 제2항에 있어서, 보정된 모델을 전개시키는 단계는 형광투시 영상기에 대한 내인성 파라미터 및 외인성 파라미터를 결정하는 단계를 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  4. 제2항에 있어서,
    형광투시 영상기로부터, 기준 마커 및 의료 기구의 일 부분의 제2 형광투시 영상 데이터를 수신하는 단계;
    보정된 모델을 사용하여 제2 형광투시 영상 데이터에서 왜곡을 수정하는 단계; 및
    형광투시 영상기의 제2 파라미터 세트에 기반하여, 수술 좌표 공간에 대해, 수술 좌표 공간 내의 의료 기구의 상기 부분을 국소화하는 단계를 추가로 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  5. 제2항에 있어서,
    수술 좌표 공간 내의 기준 마커의 구성을 결정하기 위해 기준 마커 내에 포함된 형상 센서로부터 형상 정보를 수신하는 단계를 추가로 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  6. 제5항에 있어서, 형상 센서는 광섬유 센서인, 컴퓨팅 시스템에 의해 수행되는 방법.
  7. 제5항에 있어서, 기준 마커는 형상 센서가 연장된 가요성 카테터를 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  8. 제1항에 있어서, 제1 형광투시 영상 데이터는 형광투시 영상기로부터 수신된 복수의 형광투시 영상을 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  9. 제1항에 있어서, 제1 형광투시 영상 데이터는 복수의 기준 마커의 영상을 포함하고, 복수의 기준 마커는 상기 기준 마커를 포함하고, 복수의 기준 마커는 수술 좌표 공간 내에 공지된 구성을 갖는, 컴퓨팅 시스템에 의해 수행되는 방법.
  10. 제9항에 있어서, 복수의 기준 마커는 바코드를 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  11. 제9항에 있어서, 복수의 기준 마커는 그리드 패턴을 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  12. 제1항에 있어서, 기준 마커는 의료 기구 내에 포함되고, 의료 기구는 세장형 가요성 본체를 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  13. 제1항에 있어서, 형광투시 영상기의 제2 파라미터 세트를 결정하는 단계는 형광투시 영상기에 대한 외부 추적 데이터를 수신하는 단계를 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  14. 제13항에 있어서, 형광투시 영상기는 이동식 C-아암을 포함하는, 컴퓨팅 시스템에 의해 수행되는 방법.
  15. 제14항에 있어서, 외부 추적 데이터는 이동식 C-아암 상에 위치된 인코더로부터 수신되는, 컴퓨팅 시스템에 의해 수행되는 방법.
  16. 제14항에 있어서, 외부 추적 데이터 이동식 C-아암 상에 위치된 경사계로부터 수신되는, 컴퓨팅 시스템에 의해 수행되는 방법.
  17. 제13항에 있어서, 외부 추적 데이터는 형광투시 영상기 상에 위치된 광학 기준의 위치를 추적하기 위해 구성된 광학 추적 센서로부터 수신되는, 컴퓨팅 시스템에 의해 수행되는 방법.
  18. 컴퓨터-보조 의료 시스템이며,
    하나 이상의 프로세서; 및
    수술 좌표 공간 내에서 공지된 구성에 위치되고 형상 센서를 포함하는 기준 마커를 포함하고,
    상기 하나 이상의 프로세서는,
    제1 파라미터 세트를 갖는 형광투시 영상기로부터, 기준 마커의 제1 형광투시 영상 데이터를 수신하는 단계;
    형상 센서로부터 형상 정보를 수신하는 단계;
    형상 정보로부터 수술 좌표 공간에서 기준 마커의 공지된 구성을 유도하는 단계;
    제1 형광투시 영상 데이터 및 형상 정보로부터 유도된 기준 마커의 공지된 구성으로부터 수술 좌표 공간 내의 기준 마커의 보정된 모델을 전개시키는 단계; 및
    보정된 모델에 기반하여 수술 좌표 공간에서 형광투시 영상기의 제2 파라미터 세트를 결정하는 단계를 포함하는, 방법을 수행하도록 구성되는, 컴퓨터-보조 의료 시스템.
  19. 제18항에 있어서, 보정된 모델을 발생시키는 단계는 형광투시 영상기에 대한 내인성 파라미터 및 외인성 파라미터를 결정하는 단계를 포함하는, 컴퓨터-보조 의료 시스템.
  20. 제18항에 있어서, 상기 하나 이상의 프로세서에 의해 수행되는 방법은,
    형광투시 영상기로부터, 기준 마커 및 의료 기구의 일 부분의 제2 형광투시 영상 데이터를 수신하는 단계;
    보정된 모델을 사용하여 제2 형광투시 영상 데이터에서 왜곡을 수정하는 단계; 및
    형광투시 영상기의 제2 파라미터 세트에 기반하여, 수술 좌표 공간에 대해, 수술 좌표 공간 내의 의료 기구의 상기 부분을 국소화하는 단계를 추가로 포함하는, 컴퓨터-보조 의료 시스템.
  21. 제18항에 있어서, 형상 센서는 광섬유 센서인, 컴퓨터-보조 의료 시스템.
  22. 제18항에 있어서, 제1 형광투시 영상 데이터는 복수의 기준 마커의 영상을 포함하고, 복수의 기준 마커는 상기 기준 마커를 포함하고, 복수의 기준 마커는 수술 좌표 공간 내에 공지된 구성을 갖는, 컴퓨터-보조 의료 시스템.
  23. 제22항에 있어서, 복수의 기준 마커는 바코드를 포함하는, 컴퓨터-보조 의료 시스템.
  24. 제22항에 있어서, 복수의 기준 마커는 그리드 패턴을 포함하는, 컴퓨터-보조 의료 시스템.
  25. 제18항에 있어서, 기준 마커는 의료 기구 내에 포함되고, 의료 기구는 세장형 가요성 본체를 포함하는, 컴퓨터-보조 의료 시스템.
  26. 컴퓨터-보조 의료 시스템이며,
    수술 좌표 공간에서 전체 스캔 범위를 갖는 형광투시 영상기; 및
    하나 이상의 프로세서를 포함하고,
    상기 하나 이상의 프로세서는,
    환자 해부구조의 제1 형광투시 영상 데이터 세트를 수신하는 단계로서, 제1 형광투시 영상 데이터 세트는 형광투시 영상기의 전체 스캔 범위로부터 획득되는, 단계;
    전체 스캔 범위보다 실질적으로 작은 제약된 범위에서 조작되는 형광투시 영상기로부터 환자 해부구조의 적어도 하나의 추가적인 형광투시 영상 데이터 세트를 수신하는 단계; 및
    제1 형광투시 영상 데이터 세트 및 적어도 하나의 추가적인 형광투시 영상 데이터 세트로부터 제1 평면 단층촬영 영상을 구축하는 단계를 포함하는, 방법을 수행하는, 컴퓨터-보조 의료 시스템.
  27. 제26항에 있어서, 형광투시 영상기는 수술 좌표 공간에서 3차원으로 이동가능한, 컴퓨터-보조 의료 시스템.
  28. 제26항에 있어서, 형광투시 영상기는 제1 스캐닝 위치로부터 제약된 범위 내의 제2 스캐닝 위치로 이동가능한, 컴퓨터-보조 의료 시스템.
  29. 제28항에 있어서, 제1 형광투시 영상 데이터는 제1 스캐닝 위치에서 형광투시 영상기로부터 획득되고, 상기 적어도 하나의 추가적인 형광투시 영상 데이터 세트는 제2 스캐닝 위치에서 형광투시 영상기로부터 획득되는, 컴퓨터-보조 의료 시스템.
  30. 제25항에 있어서, 제약된 범위는 형광투시 영상기의 제1 이동 평면의 외측으로 연장되는, 컴퓨터-보조 의료 시스템.
  31. 국소 단층영상합성 방법이며,
    환자 해부구조의 제1 형광투시 영상 데이터 세트를 수신하는 단계로서, 제1 형광투시 영상 데이터 세트는 형광투시 영상기의 전체 스캔 범위로부터 획득되는, 단계;
    전체 스캔 범위보다 실질적으로 작은 제약된 범위에서 조작되는 형광투시 영상기로부터 환자 해부구조의 적어도 하나의 추가적인 형광투시 영상 데이터 세트를 수신하는 단계; 및
    제1 형광투시 영상 데이터 세트 및 적어도 하나의 추가적인 형광투시 영상 데이터 세트로부터 제1 평면 단층촬영 영상을 구축하는 단계를 포함하는, 국소 단층영상합성 방법.
  32. 제31항에 있어서, 제약된 범위는 형광투시 영상기의 제1 이동 평면의 외측으로 연장되는, 국소 단층영상합성 방법.
  33. 제31항에 있어서, 제약된 범위는 제1 이동 평면에 따른 전체 스캔 범위의 20% 미만인, 국소 단층영상합성 방법.
  34. 제31항에 있어서, 상기 적어도 하나의 추가적인 형광투시 영상 데이터 세트는, 형광투시 영상기가 조작자에 의해 손으로(freehand) 이동된 후에 수신되는, 국소 단층영상합성 방법.
  35. 제34항에 있어서, 형광투시 영상기는 제1 이동 평면의 외측으로 손으로 이동되는, 국소 단층영상합성 방법.
  36. 제31항에 있어서, 제약된 범위는 환자 해부구조에 인접하게 위치된 원격조작 시스템에 의해 적어도 부분적으로 제한되는, 국소 단층영상합성 방법.
  37. 제31항에 있어서, 전체 스캔 범위는 제1 이동 평면 내의 곡선형 경로와 연관되는, 국소 단층영상합성 방법.
  38. 제31항에 있어서, 전체 스캔 범위는 제1 이동 평면 내의 선형 경로와 연관되는, 국소 단층영상합성 방법.
  39. 제31항에 있어서,
    제1 평면 단층촬영 영상에 기반하여, 전체 스캔 범위보다 실질적으로 작은 제2 제약된 범위 내에서 형광투시 영상기를 조작하는 단계; 및
    형광투시 영상기가 제2 제약된 범위 내에 있는 동안 수신된 형광투시 영상 데이터 세트로부터 제2 평면 단층촬영 영상을 구축하는 단계를 추가로 포함하는, 국소 단층영상합성 방법.
  40. 제39항에 있어서, 제2 평면 단층촬영 영상은 상기 적어도 하나의 추가적인 형광투시 영상 데이터 세트로부터 추가로 구축되는, 국소 단층영상합성 방법.
  41. 제31항에 있어서, 형광투시 영상기는 평면 패널 검출기를 포함하는, 국소 단층영상합성 방법.
  42. 제31항에 있어서, 각각의 형광투시 영상 데이터 세트와 연관된 형광투시 영상기의 자세를 결정하는 단계를 추가로 포함하는, 국소 단층영상합성 방법.
  43. 제42항에 있어서, 자세는 적어도 하나의 방사선 불투과성 마커로부터 결정되는, 국소 단층영상합성 방법.
  44. 제42항에 있어서, 형광투시 영상기는 복수의 조인트를 포함하며, 형광투시 영상기의 자세는 복수의 조인트 중 적어도 하나의 조인트에 대한 조인트 구성 센서로부터 결정되는, 국소 단층영상합성 방법.
  45. 제42항에 있어서, 형광투시 영상기의 자세는 광학 추적 시스템으로부터 결정되는, 국소 단층영상합성 방법.
  46. 국소 단층영상합성 방법이며,
    제약된 범위 내의 제1 위치로 형광투시 영상기를 이동시키는 단계로서, 형광투시 영상기는 전체 스캔 범위를 갖고, 제약된 범위는 전체 스캔 범위보다 실질적으로 작은, 단계;
    제1 위치로부터 환자 해부구조의 제1 형광투시 영상을 획득하는 단계;
    형광투시 영상기를 제약된 범위 내의 복수의 추가적인 위치로 이동시키는 단계;
    복수의 추가적인 위치 각각으로부터 형광투시 영상을 획득하는 단계; 및
    제1 형광투시 영상으로부터 제1 평면 단층촬영 영상을 구축하는 단계로서, 상기 형광투시 영상은 복수의 추가적인 위치 각각으로부터 획득되는, 단계를 포함하는, 국소 단층영상합성 방법.
  47. 제46항에 있어서, 제약된 범위는 제1 이동 평면의 외측으로 연장되는, 국소 단층영상합성 방법.
  48. 제46항에 있어서, 제약된 범위는 제1 이동 평면을 따라 전체 스캔 범위의 20% 미만인, 국소 단층영상합성 방법.
  49. 제46항에 있어서, 형광투시 영상기를 복수의 추가적인 위치로 이동시키는 단계는 형광투시 영상기를 제1 이동 평면 외측의 적어도 하나의 위치로 이동시키는 단계를 포함하는, 국소 단층영상합성 방법.
  50. 제49항에 있어서, 형광투시 영상기를 제1 이동 평면 외측의 적어도 하나의 위치로 이동시키는 단계는 형광투시 영상기를 제1 이동 평면 외측의 상기 적어도 하나의 위치에 수동으로 유지시키는 단계를 포함하는, 국소 단층영상합성 방법.
  51. 제46항에 있어서, 형광투시 영상기를 제약된 범위 내의 복수의 추가적인 위치로 이동시키는 단계는 형광투시 영상기를 복수의 추가적인 위치에 수동으로 유지시키는 단계를 포함하는, 국소 단층영상합성 방법.
  52. 제46항에 있어서, 제약된 범위는 환자 해부구조에 인접하게 위치된 원격조작 시스템에 의해 적어도 부분적으로 제한되는, 국소 단층영상합성 방법.
  53. 제46항에 있어서, 전체 스캔 범위는 제1 이동 평면 내의 곡선형 경로와 연관되는, 국소 단층영상합성 방법.
  54. 제46항에 있어서, 전체 스캔 범위는 제1 이동 평면 내의 선형 경로와 연관되는, 국소 단층영상합성 방법.
  55. 제46항에 있어서,
    제1 평면 단층촬영 영상에 기반하여, 형광투시 영상기를 제약된 범위 내의 제2 복수의 위치로 이동시키는 단계; 및
    제약된 범위 내의 제2 복수의 위치 각각으로부터 획득된 형광투시 영상으로부터 제2 평면 단층촬영 영상을 구축하는 단계를 추가로 포함하는, 국소 단층영상합성 방법.
  56. 제55항에 있어서, 제2 평면 단층촬영 영상은 제1 형광투시 영상 그리고 복수의 추가적인 위치 각각으로부터 획득되는 형광투시 영상으로부터 추가로 구축되는, 국소 단층영상합성 방법.
  57. 제46항에 있어서, 형광투시 영상기는 평면 패널 검출기를 포함하는, 국소 단층영상합성 방법.
  58. 제46항에 있어서, 각각의 형광투시 영상 데이터 세트와 연관된 형광투시 영상기의 자세를 결정하는 단계를 추가로 포함하는, 국소 단층영상합성 방법.
  59. 제58항에 있어서, 상기 자세는 적어도 하나의 방사선 불투과성 마커로부터 결정되는, 국소 단층영상합성 방법.
  60. 제58항에 있어서, 형광투시 영상기는 복수의 조인트를 포함하며, 형광투시 영상기의 자세는 복수의 조인트 중 적어도 하나의 조인트에 대한 조인트 구성 센서로부터 결정되는, 국소 단층영상합성 방법.
  61. 제58항에 있어서, 형광투시 영상기의 자세는 광학 추적 시스템으로부터 결정되는, 국소 단층영상합성 방법.
KR1020187026110A 2016-02-12 2017-02-10 영상 안내 수술에서 투시 영상화 시스템의 자세 추정 및 보정 시스템 및 방법 KR20180104763A (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201662294845P 2016-02-12 2016-02-12
US201662294857P 2016-02-12 2016-02-12
US62/294,857 2016-02-12
US62/294,845 2016-02-12
PCT/US2017/017391 WO2017139591A1 (en) 2016-02-12 2017-02-10 Systems and methods of pose estimation and calibration of perspective imaging system in image guided surgery

Publications (1)

Publication Number Publication Date
KR20180104763A true KR20180104763A (ko) 2018-09-21

Family

ID=59564046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020187026110A KR20180104763A (ko) 2016-02-12 2017-02-10 영상 안내 수술에서 투시 영상화 시스템의 자세 추정 및 보정 시스템 및 방법

Country Status (6)

Country Link
US (2) US11399895B2 (ko)
EP (2) EP4375934A3 (ko)
JP (1) JP6828047B2 (ko)
KR (1) KR20180104763A (ko)
CN (2) CN114652441A (ko)
WO (1) WO2017139591A1 (ko)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9974525B2 (en) 2014-10-31 2018-05-22 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10448910B2 (en) * 2016-02-03 2019-10-22 Globus Medical, Inc. Portable medical imaging system
US10478143B2 (en) * 2016-08-02 2019-11-19 Covidien Lp System and method of generating and updatng a three dimensional model of a luminal network
WO2018064566A1 (en) * 2016-09-30 2018-04-05 Intuitive Surgical Operations, Inc. Systems and methods for entry point localization
WO2018078445A2 (en) * 2016-10-31 2018-05-03 Dorian Averbuch Jigs for use in medical imaging and methods for using thereof
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
CN111278384A (zh) * 2017-09-08 2020-06-12 柯惠Lp公司 利用跟踪辅助摄像机对手术部位进行功能成像
EP3694412A4 (en) * 2017-10-10 2021-08-18 Covidien LP SYSTEM AND METHOD FOR IDENTIFYING AND MARKING A TARGET IN A THREE-DIMENSIONAL FLUOROSCOPIC RECONSTRUCTION
US11103314B2 (en) * 2017-11-24 2021-08-31 Synaptive Medical Inc. Methods and devices for tracking objects by surgical navigation systems
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US10893842B2 (en) * 2018-02-08 2021-01-19 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
EP3761872B1 (en) * 2018-03-09 2024-03-27 The University of Hong Kong Mri tracking device design, fabrication, and methods of use for mri-guided robotic system
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
CN111989022A (zh) 2018-06-19 2020-11-24 直观外科手术操作公司 用于将柔性细长装置保持在姿势中的***和方法
US11678788B2 (en) 2018-07-25 2023-06-20 Intuitive Surgical Operations, Inc. Systems and methods for use of a variable stiffness flexible elongate device
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
DE102019134142A1 (de) * 2018-12-12 2020-06-18 Analog Devices, Inc. Eingebaute kalibrierung von laufzeittiefenbildgebungssystemen
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11172184B2 (en) * 2018-12-13 2021-11-09 Covidien Lp Systems and methods for imaging a patient
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US20220054199A1 (en) * 2018-12-19 2022-02-24 INDIAN INSTITUTE OF TECHNOLOGY MADRAS (IIT Madras) Robotic surgery systems and surgical guidance methods thereof
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US10867375B2 (en) * 2019-01-30 2020-12-15 Siemens Healthcare Gmbh Forecasting images for image processing
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
US20200297292A1 (en) * 2019-03-21 2020-09-24 Covidien Lp Catheter tip detection in fluoroscopic video using deep learning
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
FR3094889B1 (fr) * 2019-04-12 2022-08-19 Quantum Surgical Dispositif et procédé de contrôle de la respiration d’un patient pour un robot médical
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US11864935B2 (en) * 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
TWI708217B (zh) * 2019-10-30 2020-10-21 行政院原子能委員會核能研究所 用於雙軸數位斷層合成造影系統的幾何校正方法及其系統
US11710249B2 (en) * 2019-12-20 2023-07-25 Unify Medical, Inc. Generation of three-dimensional scans for intraoperative imaging
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US11847730B2 (en) * 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
CN112075994B (zh) * 2020-04-13 2021-08-31 上海复拓知达医疗科技有限公司 用于定位医疗器械的光学标识物和医疗器械组件
KR102307919B1 (ko) * 2020-04-22 2021-10-05 한국과학기술연구원 단방향 x선 영상을 이용한 굽힘 가능한 중재의료 기구의 포즈 추정 방법
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
US11357461B2 (en) 2020-07-31 2022-06-14 Medtronic Navigation, Inc. G-shaped arm imaging devices, systems, and methods
CN111956329B (zh) * 2020-08-12 2022-04-26 中国科学院深圳先进技术研究院 一种双臂机器人标定方法、***、终端以及存储介质
US20220076451A1 (en) * 2020-09-08 2022-03-10 Weta Digital Limited Motion capture calibration using a three-dimensional assembly
US20220076452A1 (en) * 2020-09-08 2022-03-10 Weta Digital Limited Motion capture calibration using a wand
GB202103514D0 (en) * 2021-03-14 2021-04-28 Tendomend Ltd Systems methods and computer readable storage media for a set of proximity markers disposed on opposite ends of a gap dense regular connective tissue
WO2022217291A1 (en) * 2021-04-09 2022-10-13 Pulmera, Inc. Medical imaging systems and associated devices and methods
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
WO2023004303A1 (en) * 2021-07-20 2023-01-26 Pulmera, Inc. Image guidance for medical procedures
IL311621A (en) 2021-09-22 2024-05-01 Qapel Medical Inc Methods and devices for catheters, adjustable tips for catheters, including for suction catheters, and suction catheters with adjustable tips
CN114012736A (zh) * 2021-12-08 2022-02-08 北京云迹科技有限公司 一种辅助环境定位用定位物及机器人***
CN115153782A (zh) * 2022-08-12 2022-10-11 哈尔滨理工大学 一种超声引导下的穿刺机器人空间注册方法
WO2024075122A1 (en) * 2022-10-03 2024-04-11 Magnisity Ltd. Distortion modeling and compensation in a curve-tracked detector array
US20240216072A1 (en) * 2023-01-03 2024-07-04 Nuvasive, Inc. Calibration for surgical navigation
US11857381B1 (en) 2023-04-25 2024-01-02 Danylo Kihiczak Anatomical localization device and method of use

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2567149B1 (fr) 1984-07-06 1986-12-05 Solvay Procede pour l'extraction de poly-beta-hydroxybutyrates au moyen d'un solvant a partir d'une suspension aqueuse de micro-organismes
DE3441593A1 (de) 1984-11-14 1986-05-22 Ferd. Rüesch AG, St. Gallen Verfahren und vorrichtung zum herstellen von siebdruckgeweben fuer siebdruckzylinder
JP3356356B2 (ja) 1994-07-15 2002-12-16 株式会社日立メディコ X線撮影装置
US5792135A (en) 1996-05-20 1998-08-11 Intuitive Surgical, Inc. Articulated surgical instrument for performing minimally invasive surgery with enhanced dexterity and sensitivity
US6288783B1 (en) 1996-10-15 2001-09-11 Renner Herrmann S.A. Fluid analysis system and method, for analyzing characteristic properties of a fluid
US6380732B1 (en) 1997-02-13 2002-04-30 Super Dimension Ltd. Six-degree of freedom tracking system having a passive transponder on the object being tracked
GB9713018D0 (en) 1997-06-20 1997-08-27 Secr Defence Optical fibre bend sensor
US6470207B1 (en) * 1999-03-23 2002-10-22 Surgical Navigation Technologies, Inc. Navigational guidance via computer-assisted fluoroscopic imaging
ATE280541T1 (de) 1999-04-22 2004-11-15 Medtronic Surgical Navigation Vorrichtung und verfahren für bildgesteuerte chirurgie
US8004229B2 (en) 2005-05-19 2011-08-23 Intuitive Surgical Operations, Inc. Software center and highly configurable robotic systems for surgery and other uses
US6484049B1 (en) 2000-04-28 2002-11-19 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6714810B2 (en) 2000-09-07 2004-03-30 Cbyon, Inc. Fluoroscopic registration system and method
US7599730B2 (en) * 2002-11-19 2009-10-06 Medtronic Navigation, Inc. Navigation system for cardiac therapies
WO2005015125A1 (en) 2003-08-08 2005-02-17 University Health Network Method and system for calibrating a source and detector instrument
US7097357B2 (en) 2004-06-02 2006-08-29 General Electric Company Method and system for improved correction of registration error in a fluoroscopic image
US7772541B2 (en) 2004-07-16 2010-08-10 Luna Innnovations Incorporated Fiber optic position and/or shape sensing based on rayleigh scatter
US20060013523A1 (en) 2004-07-16 2006-01-19 Luna Innovations Incorporated Fiber optic position and shape sensing device and method relating thereto
US9526587B2 (en) 2008-12-31 2016-12-27 Intuitive Surgical Operations, Inc. Fiducial marker design and detection for locating surgical instrument in images
US20080132757A1 (en) 2006-12-01 2008-06-05 General Electric Company System and Method for Performing Minimally Invasive Surgery Using a Multi-Channel Catheter
EP2124705B1 (en) 2007-01-29 2019-05-08 Intuitive Surgical Operations, Inc. System for controlling an instrument using shape sensors
US7957582B2 (en) 2007-06-21 2011-06-07 General Electric Company Method and system for correction of fluoroscope image distortion
WO2009023801A1 (en) * 2007-08-14 2009-02-19 Hansen Medical, Inc. Robotic instrument systems and methods utilizing optical fiber sensor
US9259274B2 (en) 2008-09-30 2016-02-16 Intuitive Surgical Operations, Inc. Passive preload and capstan drive for surgical instruments
US20100305427A1 (en) 2009-06-01 2010-12-02 General Electric Company Long-range planar sensor array for use in a surgical navigation system
EP2624780B1 (en) 2010-10-08 2024-02-14 Koninklijke Philips N.V. Flexible tether with integrated sensors for dynamic instrument tracking
WO2012052929A2 (en) * 2010-10-18 2012-04-26 Activiews Ltd. System and method for facilitating navigation of a tool using a fluoroscope
US8900131B2 (en) * 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
WO2013016286A2 (en) 2011-07-23 2013-01-31 Broncus Medical Inc. System and method for automatically determining calibration parameters of a fluoroscope
US9452276B2 (en) 2011-10-14 2016-09-27 Intuitive Surgical Operations, Inc. Catheter with removable vision probe
EP2660776A1 (en) * 2012-05-01 2013-11-06 Universität Bern Image distortion correction and robust phantom detection
RU2686954C2 (ru) 2012-06-28 2019-05-06 Конинклейке Филипс Н.В. Навигация с помощью оптоволоконного датчика для визуализации и мониторинга сосудов
EP2919699A4 (en) 2012-11-14 2016-06-15 Intuitive Surgical Operations INTELLIGENT COVERS FOR COLLISION AVOIDANCE
US9014851B2 (en) * 2013-03-15 2015-04-21 Hansen Medical, Inc. Systems and methods for tracking robotically controlled medical instruments
CN108784702B (zh) * 2013-03-15 2021-11-12 直观外科手术操作公司 用于跟踪介入器械的形状传感器***以及使用方法
JP6511050B2 (ja) 2013-07-23 2019-05-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. イメージング装置を追跡装置と位置合わせする位置合わせシステム、イメージングシステム、介入システム、位置合わせ方法、イメージングシステムの作動方法、位置合わせコンピュータプログラム、及びイメージングコンピュータプログラム
CN106068451B (zh) * 2014-01-06 2020-04-10 博迪维仁医疗有限公司 手术装置及其使用方法
KR20170038012A (ko) * 2014-07-28 2017-04-05 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 수술중 세그먼트화를 위한 시스템 및 방법
WO2017030913A2 (en) 2015-08-14 2017-02-23 Intuitive Surgical Operations, Inc. Systems and methods of registration for image-guided surgery
EP3334325A4 (en) 2015-08-14 2019-05-01 Intuitive Surgical Operations Inc. SYSTEMS AND METHODS FOR RECORDING FOR IMAGE-GUIDED SURGERY
WO2018076109A1 (en) * 2016-10-24 2018-05-03 Torus Biomedical Solutions Inc. Systems and methods for producing real-time calibrated stereo long radiographic views of a patient on a surgical table

Also Published As

Publication number Publication date
US20220346886A1 (en) 2022-11-03
JP6828047B2 (ja) 2021-02-10
CN109069217A (zh) 2018-12-21
EP3413829A1 (en) 2018-12-19
EP4375934A3 (en) 2024-07-31
WO2017139591A1 (en) 2017-08-17
CN109069217B (zh) 2022-05-06
EP3413829B1 (en) 2024-05-22
JP2019504714A (ja) 2019-02-21
EP4375934A2 (en) 2024-05-29
EP3413829A4 (en) 2019-10-09
CN114652441A (zh) 2022-06-24
US11399895B2 (en) 2022-08-02
US20190038365A1 (en) 2019-02-07

Similar Documents

Publication Publication Date Title
US20220346886A1 (en) Systems and methods of pose estimation and calibration of perspective imaging system in image guided surgery
JP7503603B2 (ja) 画像誘導手術において位置合わせされた蛍光透視画像を使用するためのシステム及び方法
US20240041531A1 (en) Systems and methods for registering elongate devices to three-dimensional images in image-guided procedures
KR102503033B1 (ko) 화상 안내식 시술을 위한 정치 시스템 및 방법
CN110325138B (zh) 用于智能种子配准的***和方法
JP7229155B2 (ja) 画像誘導手術のための連続的な位置合せのシステム及び方法
KR102557820B1 (ko) 영상 안내 수술에서의 상관 보상의 시스템 및 방법
KR102542190B1 (ko) 영상 안내 수술에서의 정합 보상의 시스템 및 방법
US11514591B2 (en) Systems and methods related to registration for image guided surgery
US20210169583A1 (en) Method for maintaining localization of distal catheter tip to target during ventilation and/or cardiac cycles

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal