KR20170034393A - 부비동성형술을 위한 가이드와이어 조종 - Google Patents

부비동성형술을 위한 가이드와이어 조종 Download PDF

Info

Publication number
KR20170034393A
KR20170034393A KR1020177003227A KR20177003227A KR20170034393A KR 20170034393 A KR20170034393 A KR 20170034393A KR 1020177003227 A KR1020177003227 A KR 1020177003227A KR 20177003227 A KR20177003227 A KR 20177003227A KR 20170034393 A KR20170034393 A KR 20170034393A
Authority
KR
South Korea
Prior art keywords
image
patient
surgical
data
receiving
Prior art date
Application number
KR1020177003227A
Other languages
English (en)
Inventor
랜디 제이. 케스텐
로힛 기로트라
Original Assignee
아클라런트, 인코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아클라런트, 인코포레이션 filed Critical 아클라런트, 인코포레이션
Publication of KR20170034393A publication Critical patent/KR20170034393A/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/07Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements using light-conductive means, e.g. optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/233Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the nose, i.e. nasoscopes, e.g. testing of patency of Eustachian tubes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/24Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/062Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using magnetic field
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6814Head
    • A61B5/6819Nose
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6846Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive
    • A61B5/6847Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be brought in contact with an internal body part, i.e. invasive mounted on an invasive device
    • A61B5/6851Guide wires
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • A61B2090/306Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using optical fibres
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/05Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves 
    • A61B5/055Detecting, measuring or recording for diagnosis by means of electric currents or magnetic fields; Measuring using microwaves or radio waves  involving electronic [EMR] or nuclear [NMR] magnetic resonance, e.g. magnetic resonance imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7435Displaying user selection data, e.g. icons in a graphical user interface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/501Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the head, e.g. neuroimaging or craniography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Otolaryngology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pulmonology (AREA)
  • Robotics (AREA)
  • Dentistry (AREA)
  • Human Computer Interaction (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Neurosurgery (AREA)
  • Theoretical Computer Science (AREA)
  • Neurology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Surgical Instruments (AREA)
  • Endoscopes (AREA)

Abstract

방법은 이미지 데이터를 수신하는 단계, 외과 시술 데이터를 수신하는 단계, 및 수술 계획을 생성하는 단계를 포함한다. 이미지 데이터는 환자의 비강 내의 해부학적 구조물과 관련된다. 이미지 데이터와 외과 시술 데이터는 컴퓨팅 시스템을 통해 수신된다. 수술 계획을 생성하는 행위는 이미지 데이터에 따라 그리고 외과 시술 데이터에 따라 외과 기구를 위한 경로를 식별하는 단계를 포함한다. 수술 계획을 생성하는 행위는 컴퓨팅 시스템을 통해 수행된다. 수술 계획을 생성하는 행위는 환자의 비강 내의 해부학적 구조물의 묘사에서 외과 기구를 위한 식별된 경로를 묘사하는 하나 이상의 교수 이미지를 생성하는 단계를 추가로 포함한다.

Description

부비동성형술을 위한 가이드와이어 조종{GUIDEWIRE NAVIGATION FOR SINUPLASTY}
우선권
본 출원은 2014년 7월 9일자로 출원되고 발명의 명칭이 "부비동성형술을 위한 가이드와이어 조종(Guidewire Navigation for Sinuplasty)"인 미국 가특허 출원 제62/022,607호에 대한 우선권을 주장하며, 그것의 개시내용은 본 명세서에 참고로 포함된다.
본 출원은 또한 2014년 9월 18일자로 출원되고 발명의 명칭이 "부비동성형술을 위한 가이드와이어 조종(Guidewire Navigation for Sinuplasty)"인 미국 가특허 출원 제62/052,391호에 대한 우선권을 주장하며, 그것의 개시내용은 본 명세서에 참고로 포함된다.
공동 연구 진술
청구되는 발명의 유효 출원일에 또는 그 전에 시행된 공동 연구 협정에 대한 하나 이상의 당사자에 의해 또는 그들을 대표하여, 본 출원에 개시되는 주제가 개발되었고 청구되는 발명이 이루어졌다. 청구되는 발명은 공동 연구 협정의 범위 내에서 착수된 활동의 결과로서 이루어졌다. 공동 연구 협정에 대한 당사자들은 바이오센스 웹스터 (이스라엘) 엘티디.(Biosense Webster (Israel) Ltd.) 및 어클래런트, 인크(Acclarent, Inc)를 포함한다.
이미지-유도 수술(image-guided surgery, IGS)은 컴퓨터가 한 세트의 수술 전에 획득된 이미지(예컨대, CT 또는 MRI 스캔, 3차원 맵 등)에 대한, 환자의 신체 내로 삽입된 기구의 위치의 실시간 상관관계를 획득하여 기구의 현재 위치를 수술 전에 획득된 이미지에 중첩하는 데 사용되는 기법이다. 몇몇 IGS 시술에서, 수술 영역의 디지털 단층촬영 스캔(예컨대, CT 또는 MRI, 3차원 맵 등)이 수술 전에 획득된다. 이어서, 특별히 프로그래밍된 컴퓨터가 디지털 단층촬영 스캔 데이터를 디지털 맵 또는 모델로 변환시키는 데 사용된다. 수술 중에, 센서(예컨대, 전자기장을 방출하고/하거나 외부에서 생성된 전자기장에 응답하는 전자기 코일)가 그것 상에 장착된 기구가 시술을 수행하는 데 사용됨과 동시에 센서가 각각의 외과 기구의 현재 위치를 지시하는 데이터를 컴퓨터에 송신한다. 컴퓨터는 그것이 기구-장착형 센서로부터 수신한 데이터를, 수술 전 단층촬영 스캔으로부터 생성된 디지털 맵 또는 모델과 상관시킨다. 단층촬영 스캔 이미지는 스캔 이미지에 나타난 해부학적 구조물에 대한 각각의 외과 기구의 실시간 위치를 보여주는 지시기(indicator)(예컨대, 십자선(cross hair) 또는 조명된 점 등)와 함께 비디오 모니터 상에 표시된다. 이러한 방식으로, 외과의가 기구 그것 자체를 신체 내의 그것의 현재 위치에서 직접 시각화할 수 없을지라도, 외과의는 비디오 모니터를 관찰함으로써 각각의 센서-장착형 기구의 정확한 위치를 알 수 있다.
ENT 및 부비동 수술에 사용될 수 있는 전자기 IGS 시스템 및 관련 기구의 예는 미국 유타주 솔트 레이크 시티 소재의 지이 메디컬 시스템즈(GE Medical Systems)로부터 입수가능한 인스타트랙(InstaTrak) ENT™ 시스템을 포함한다. 본 개시에 따라 사용하기 위해 변경될 수 있는 전자기 이미지 유도 시스템의 다른 예는 미국 캘리포니아주 다이아몬드 바 소재의 바이오센스-웹스터, 인크.(Biosense-Webster, Inc.)에 의한 카르토(CARTO)(등록상표) 3 시스템; 미국 콜로라도주 루이빌 소재의 서지컬 내비게이션 테크놀로지스, 인크.(Surgical Navigation Technologies, Inc.)로부터 입수가능한 시스템; 및 미국 워싱턴주 시애틀 소재의 칼립소 메디컬 테크놀로지스, 인크.(Calypso Medical Technologies, Inc.)로부터 입수가능한 시스템을 포함하지만, 이로 제한되지 않는다.
본 명세서의 교시에 따라 사용하기 위해 변경될 수 있는 IGS 관련 방법, 장치, 및/또는 시스템의 다른 예는, 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "이미지 유도 시술을 수행하기 위한 가이드와이어(Guidewires for Performing Image Guided Procedures)"이고 2014년 4월 22일자로 허여된 미국 특허 제8,702,626호; 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "3-D 이미지 및 표면 매핑으로부터의 해부학적 모델링(Anatomical Modeling from a 3-D Image and a Surface Mapping)"이고 2012년 11월 27일자로 허여된 미국 특허 제8,320,711호; 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "전자기 이미지 유도 구성요소를 의료 장치에 부착하기 위한 어댑터(Adapter for Attaching Electromagnetic Image Guidance Components to a Medical Device)"이고 2012년 5월 29일자로 허여된 미국 특허 제8,190,389호; 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "귀, 코 및 인후의 장애를 치료하기 위한 장치, 시스템 및 방법(Devices, Systems and Methods for Treating Disorders of the Ear, Nose and Throat)"이고 2012년 2월 28일자로 허여된 미국 특허 제8,123,722호; 및 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "귀, 코, 인후 및 부비동 내에 시술을 수행하기 위한 방법 및 장치(Methods and Devices for Performing Procedures within the Ear, Nose, Throat and Paranasal Sinuses)"이고 2010년 5월 18일자로 허여된 미국 특허 제7,720,521호에 개시된 것을 포함하지만, 이로 제한되지 않는다.
본 명세서의 교시에 따라 사용하기 위해 변경될 수 있는 IGS 관련 방법, 장치, 및/또는 시스템의 또 추가의 예는, 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "귀, 코, 인후 및 부비동 내에 이미지 유도 시술을 수행하기 위한 시스템 및 방법(Systems and Methods for Performing Image Guided Procedures within the Ear, Nose, Throat and Paranasal Sinuses)"이고 2014년 12월 11일자로 공개된 미국 특허 공개 제2014/0364725호; 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "이미지 유도 시술을 수행하기 위한 가이드와이어(Guidewires for Performing Image Guided Procedures)"이고 2014년 7월 17일자로 공개된 미국 특허 공개 제2014/0200444호; 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "전자기 이미지 유도 구성요소를 의료 장치에 부착하기 위한 어댑터(Adapter for Attaching Electromagnetic Image Guidance Components to a Medical Device)"이고 2012년 9월 27일자로 공개된 미국 특허 공개 제2012/0245456호; 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "귀, 코, 인후 및 부비동 내에 이미지 유도 시술을 수행하기 위한 시스템 및 방법(Systems and Methods for Performing Image Guided Procedures within the Ear, Nose, Throat and Paranasal Sinuses)"이고 2011년 3월 10일자로 공개된 미국 특허 공개 제2011/0060214호; 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "귀, 코 및 인후의 장애를 치료하기 위한 방법 및 장치(Methods and Apparatus for Treating Disorders of the Ear Nose and Throat)"이고 2008년 11월 13일자로 공개된 미국 특허 공개 제2008/0281156호; 및 그것의 개시내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "귀, 코, 인후 및 부비동 내에 이미지 유도 시술을 수행하기 위한 시스템 및 방법(Systems and Methods for Performing Image Guided Procedures within the Ear, Nose, Throat and Paranasal Sinuses)"이고 2007년 9월 6일자로 공개된 미국 특허 공개 제2007/0208252호에 개시된 것을 포함하지만, 이로 제한되지 않는다.
몇몇 경우에, 환자 내의 해부학적 통로를 확장시킬 때 IGS 유도를 사용하는 것이 바람직할 수 있다. 이는 부비동의 소공(ostium)의 확장(예컨대, 부비동염을 치료하기 위해), 후두의 확장, 유스타키오관의 확장, 귀, 코, 또는 인후 내의 다른 통로의 확장 등을 포함할 수 있다. 그러한 시술을 수행하는 데 사용될 수 있는 시스템이, 발명의 명칭이 "귀, 코 또는 인후 내의 통로의 경비 확장을 위한 시스템 및 방법(Systems and Methods for Transnasal Dilation of Passageways in the Ear, Nose or Throat)"이고 2011년 1월 6일자로 공개된 미국 공개 제2011/0004057호의 교시에 따라 제공될 수 있으며, 그것의 개시내용은 본 명세서에 참고로 포함된다. 그러한 시스템의 예는 미국 캘리포니아주 멘로 파크 소재의 어클래런트, 인크.에 의한 릴리바(Relieva)(등록상표) 스핀 벌룬 사이너플래스티(Spin Balloon Sinuplasty)™ 시스템이다.
벌룬을 원하는 위치에 위치시키기 위해 해부학적 통로(예컨대, 귀, 코, 인후, 부비동 등) 내의 적어도 어느 정도의 직접적인 가시화를 제공하도록 확장 시술 중에 IGS 시스템과 함께 가변 방향 관찰 내시경이 사용될 수 있다. 가변 방향 관찰 내시경은 해부학적 통로 내에서 내시경의 샤프트를 구부려야 함이 없이 다양한 횡방향 관찰 각도를 따른 관찰을 가능하게 할 수 있다. 그러한 내시경은 발명의 명칭이 "스윙 프리즘 내시경(Swing Prism Endoscope)"이고 2010년 2월 4일자로 공개된 미국 공개 제2010/0030031호의 교시에 따라 제공될 수 있으며, 그것의 개시내용은 본 명세서에 참고로 포함된다. 그러한 내시경의 예는 미국 캘리포니아주 멘로 파크 소재의 어클래런트, 인크.에 의한 어클래런트 사이클롭스(Acclarent Cyclops)™ 멀티-앵글 내시경(Multi-Angle Endoscope)이다.
가변 방향 관찰 내시경 및 IGS 시스템이 해부학적 통로 내의 가시화를 제공하는 데 사용될 수 있지만, 벌룬을 팽창시키기 전에 벌룬의 적절한 위치설정의 추가의 시각적 확인을 제공하는 것이 또한 바람직할 수 있다. 이는 조명 가이드와이어를 사용하여 행해질 수 있다. 그러한 가이드와이어는 목표 영역 내에 위치된 다음에, 가이드와이어의 원위 단부(distal end)로부터 투사되는 광으로 조명될 수 있다. 이러한 광은 인접 조직(예컨대, 피하 조직, 진피하 조직 등)을 조명할 수 있으며 이에 따라 경피 조명을 통해 환자 외부로부터 육안으로 볼 수 있다. 그러한 조명 가이드와이어는 발명의 명칭이 "부비동 조명 광와이어 장치(Sinus Illumination Lightwire Device)"이고 2012년 3월 29일자로 공개된 미국 공개 제2012/0078118호의 교시에 따라 제공될 수 있으며, 그것의 개시내용은 본 명세서에 참고로 포함된다. 그러한 조명 가이드와이어의 예는 미국 캘리포니아주 멘로 파크 소재의 어클래런트, 인크.에 의한 릴리바 루마 센트리(Relieva Luma Sentry)™ 부비동 조명 시스템이다.
기능적 내시경 부비동 수술(functional endoscopic sinus surgery, FESS), 벌룬 부비동성형술, 및/또는 다른 ENT 시술에 적용될 때, IGS의 사용은 외과의가 내시경만을 통해 관찰함으로써 달성될 수 있는 외과 기구의 더 정확한 이동과 위치설정을 달성하도록 허용한다. 이는 전형적인 내시경 이미지가 공간적으로 제한된, 2차원, 시선 뷰(line-of-sight view)이기 때문에 그러하다. IGS의 사용은 공간적으로 제한된, 2차원, 직접 시선 내시경 뷰(direct line-of-sight endoscopic view)에서 실제로 볼 수 있는 것만이 아니라, 수술 영역 주위의 해부학적 구조물 모두의 실시간, 3차원 뷰를 제공한다. 그 결과, 특히 통상의 해부학적 랜드마크가 존재하지 않거나 내시경으로 시각화하기 어려운 경우에, IGS가 FESS, 벌룬 부비동성형술, 및/또는 다른 ENT 시술의 수행 중에 특히 유용할 수 있다.
단지 환자 내의 기구의 위치를 지시하는 시각적 피드백을 외과의에게 제공하는 것에 더하여, IGS 시스템의 장비 및 소프트웨어를 사용하여 외과의에게 상세한 지시를 제공하는 것이 바람직할 수 있다. 그러한 상세한 지시는 IGS 시스템에 의해 매핑되거나 모델링된 바와 같은, 특정 환자의 특유의 해부학적 구조에 기초할 수 있다.
여러 가지 시스템과 방법이 ENT 관련 외과 시술을 수행하기 위해 만들어졌고 사용되었지만, 본 발명자 이전의 어느 누구도 첨부된 청구범위에 기술된 본 발명을 만들거나 사용하지 않았던 것으로 여겨진다.
본 명세서는 본 발명을 구체적으로 지적하고 명확하게 청구하는 청구범위로 끝맺고 있지만, 본 발명은 동일한 도면 부호가 동일한 요소를 지시하는 첨부 도면과 관련하여 취해진 소정 예의 하기의 설명으로부터 더 잘 이해될 것으로 여겨진다.
도 1은 예시적인 부비동 수술 시스템의 개략도.
도 2는 도 1의 부비동 수술 시스템의 구성요소를 갖는, 환자의 두부의 사시도.
도 3a는 도 1의 부비동 수술 시스템과 함께 사용될 수 있는 예시적인 가이드와이어의 측단면도.
도 3b는 도 3a의 선 IIIB-IIIB를 따라 취해진, 도 3a의 가이드와이어의 단부 단면도.
도 4a는 도 1의 부비동 수술 시스템과 함께 사용될 수 있는 다른 예시적인 가이드와이어의 측단면도.
도 4b는 도 4a의 선 IVB-IVB를 따라 취해진, 도 4a의 가이드와이어의 단부 단면도.
도 5a는 도 1의 부비동 수술 시스템과 함께 사용될 수 있는 다른 예시적인 가이드와이어의 측단면도.
도 5b는 도 5a의 선 VB-VB를 따라 취해진, 도 5a의 가이드와이어의 단부 단면도.
도 6은 도 1의 부비동 수술 시스템을 사용하여 수행될 수 있는 예시적인 과정의 단계를 보여주는 순서도.
도 7은 외과 시술을 위한 수술 계획을 생성하는 데 사용될 수 있는 예시적인 과정의 단계를 보여주는 순서도.
도 8은 외과 시술을 위한 수술 계획을 생성하는 데 사용될 수 있는 다른 예시적인 과정의 단계를 보여주는 순서도.
도 9는 의사에게 외과 시술을 위한 수술 계획을 렌더링하는 데 사용될 수 있는 예시적인 과정의 단계를 보여주는 순서도.
도 10은 외과 시술을 위한 수술 계획에 교수 이미지(instructional image)로서 렌더링될 수 있는, 부비동 구조물을 보여주는, 인간 두부의 일부분의 상부 축방향 단면도.
도 11은 외과 시술을 위한 수술 계획에 교수 이미지로서 렌더링될 수 있는, 가이드 카테터(guide catheter) 및 가이드와이어의 표현을 갖는, 인간 두부의 중비도의 가상 내시경 뷰.
도 12는 외과 시술을 위한 수술 계획에 교수 이미지로서 렌더링될 수 있는, 3차원 화살표를 갖는, 인간 두부의 중비도의 가상 내시경 뷰.
도 13a는 외과 시술을 위한 수술 계획에 교수 이미지로서 렌더링될 수 있는, 애니메이션화된 연속물의 제1 화살표를 갖는, 인간 두부의 중비도의 가상 내시경 뷰.
도 13b는 외과 시술을 위한 수술 계획에 교수 이미지로서 렌더링될 수 있는, 애니메이션화된 연속물의 제2 화살표를 갖는, 인간 두부의 중비도의 가상 내시경 뷰.
도 13c는 외과 시술을 위한 수술 계획에 교수 이미지로서 렌더링될 수 있는, 애니메이션화된 연속물의 제3 화살표를 갖는, 인간 두부의 중비도의 가상 내시경 뷰.
도 14는 도 7 내지 도 9의 과정의 적어도 일부를 제공하는 데 사용될 수 있는 예시적인 시스템의 개략도.
도면은 어떤 식으로든 제한하는 것으로 의도되지 않으며, 본 발명의 다양한 실시예가 반드시 도면에 도시되지는 않은 것들을 포함한, 다양한 다른 방식으로 실시될 수 있음이 고려된다. 본 명세서에 포함되고 본 명세서의 일부를 이루는 첨부 도면은 본 발명의 몇몇 태양을 예시하고, 상세한 설명과 함께 본 발명의 원리를 설명하는 역할을 하지만, 본 발명은 도시된 정확한 배열로 제한되지 않음이 이해된다.
본 발명의 소정 예의 하기의 설명은 본 발명의 범주를 제한하는 데 사용되어서는 안된다. 본 발명의 다른 예, 특징, 태양, 실시예, 및 이점이, 예시로서, 본 발명을 수행하기 위해 고려되는 최상의 모드들 중 하나인 하기의 설명으로부터 당업자에게 명백하게 될 것이다. 실현될 바와 같이, 본 발명은, 모두 본 발명으로부터 벗어남이 없이, 다른 상이한 그리고 명백한 태양들이 가능하다. 따라서, 도면 및 설명은 본질적으로 제한적이 아닌 예시적인 것으로 간주되어야 한다.
용어 "근위(proximal)"및 "원위(distal)"는 핸드피스 조립체(handpiece assembly)를 파지하는 임상의와 관련하여 본 명세서에서 사용된다는 것이 인식될 것이다. 따라서, 엔드 이펙터(end effector)는 더 근위에 있는 핸드피스 조립체에 대해 원위에 있다. 편의 및 명료함을 위해, "상부" 및 "저부"와 같은 공간 용어가 또한 핸드피스 조립체를 파지하는 임상의와 관련하여 본 명세서에서 사용된다는 것이 또한 인식될 것이다. 그러나, 외과 기구는 많은 배향 및 위치로 사용되며, 이들 용어는 제한하는 그리고 절대적인 것으로 의도되지 않는다.
본 명세서에 기술된 교시, 표현, 버전, 예 등 중 임의의 하나 이상이 본 명세서에 기술된 다른 교시, 표현, 버전, 예 등 중 임의의 하나 이상과 조합될 수 있다는 것이 또한 이해된다. 따라서, 하기에 기술되는 교시, 표현, 버전, 예 등은 서로에 대해 별개로 고려되어서는 안된다. 본 명세서의 교시들이 조합될 수 있는 다양한 적합한 방식을, 본 명세서의 교시를 고려하여 당업자가 손쉽게 알 수 있을 것이다. 그러한 변형 및 변경은 청구범위의 범주 내에 포함되는 것으로 의도된다.
I. 예시적인 이미지 유도 수술 시스템
도 1은 예시적인 부비동 수술 시스템(20)을 도시하는 반면, 도 2는 시스템(20)으로 수술을 받는 환자(22)의 두부를 도시한다. 본 예에서, 시스템(20)이 환자(22)에 대한 부비동성형술 시술 중에 사용되지만, 시스템(20)이 다양한 다른 종류의 시술에 쉽게 사용될 수 있는 것이 이해되어야 한다. 본 예에서, 부비동성형술 시술이 시작되기 전에, 한 세트의 자기장 발생기(24)가 환자(22)의 두부에 고정된다. 자기장 발생기(24)는 환자(22)의 두부에 클램핑된 프레임(26)에 통합된다. 아래에서 설명되는 바와 같이, 자기장 발생기(24)는 환자(22)의 부비동 내로 삽입된 가이드와이어(28)의 위치의 추적을 가능하게 한다. 본 예에서 자기장 발생기(24)가 환자(22)의 두부에 고정되지만, 자기장 발생기(24)가 대신에 다양한 다른 적합한 위치에 그리고 다양한 다른 적합한 구조물 상에 위치될 수 있는 것이 이해되어야 한다. 단지 예로서, 자기장 발생기(24)는 환자(22)가 그것 상에 위치되는 테이블 또는 의자에 고정된 독립 구조물 상에, 환자(22)의 두부에 대해 위치가 로킹된 바닥-장착형 스탠드 상에, 그리고/또는 임의의 다른 적합한 위치(들)에 그리고/또는 임의의 다른 적합한 구조물(들) 상에 장착될 수 있다.
자기장 발생기(24)를 비롯한 시스템(20)의 요소는 본 예에서 시스템 프로세서(40)에 의해 제어된다. 프로세서(40)는 하나 이상의 메모리와 통신하는 처리 유닛을 포함한다. 본 예의 프로세서(40)는 키패드 및/또는 포인팅 디바이스(pointing device), 예를 들어 마우스 또는 트랙볼을 포함하는 동작 제어 장치(51)를 포함하는 콘솔(console)(50) 내에 장착된다. 콘솔(50)은 또한 가이드와이어(28)의 근위 단부(proximal end)(52)와 같은 시스템(20)의 다른 요소에 연결된다. 의사(54)는 시술을 수행하면서 동작 제어 장치를 사용하여 프로세서(40)와 상호작용한다. 또한 시술 중에, 프로세서(40)는 시스템(20)에 의해 생성된 결과를 스크린(56) 상에 제시한다.
프로세서(40)는 시스템(20)을 동작시키기 위해 프로세서의 메모리에 저장된 소프트웨어를 사용한다. 소프트웨어는, 예를 들어 네트워크를 통해, 프로세서(40)에 전자 형태로 다운로드될 수 있거나, 그것은, 대안적으로 또는 추가적으로, 자기, 광학, 또는 전자 메모리와 같은 비일시적 유형 매체(non-transitory tangible media)에 제공되고/되거나 저장될 수 있다. 프로세서(40)는 이러한 소프트웨어를, 특히 자기장 발생기(24)를 동작시키고 보정하는 데 사용한다. 자기장 발생기(24)는 상이한 주파수의 교번 자기장을 프레임(26)에 근접한 영역으로 전달하도록 동작된다. 환자(22) 상에 배치되기 전에, 프레임(26) 내의 자기장 발생기(24)는 프레임(26)에 대해 알려진 위치와 배향에 있는 영역에 코일(도시되지 않음)을 위치시킴으로써 보정될 수 있다. 교번 자기장에 의해 보정 코일 내에 신호가 유도되고, 프로세서(40)는 이러한 신호를 획득하고 기록한다. 프로세서(40)는 이어서 보정 코일의 위치 및 배향과, 이들 위치 및 배향에 대한 기록된 신호 사이의 보정 관계를 공식화한다.
일단 보정 관계가 공식화되었으면, 프레임(26)이 환자(22)의 두부 상에 배치될 수 있다. 대안적으로, 위에 언급된 바와 같이, 몇몇 버전은 프레임(26) 이외의 구조물 상에 자기장 발생기(24)를 제공할 수 있다. 그러나, 본 예에서, 프레임(26)이 환자(22)의 두부 상에 배치된 후에, 프레임(26)은 제 위치에 고정되고, 예를 들어 부착된 프레임(26)을 갖는 환자(22)의 두부를 다수의 상이한 각도로부터 이미지 형성함으로써 환자(22)의 두부의 외부 특징부와 정합된다. 프레임(26) 정합은 또한 자기장 발생기(26)를 환자(22)의 외부 특징부와 정합시킨다. 대안적으로 또는 추가적으로, 정합은 코일을 환자(22)의 외부 특징부에 대해서뿐만 아니라 프레임(26)에 관하여 하나 이상의 알려진 위치와 배향으로 배치하는 것을 포함할 수 있다. 미국 캘리포니아주 다이아몬드 바 소재의 바이오센스-웹스터 인크.에 의한 카르토(등록상표) 3 시스템은 자기장에 의해 조사되는 영역에서 코일의 위치와 배향을 찾아내기 위해 본 명세서에 기술된 것과 유사한 시스템을 사용한다.
환자(22)의 외부 특징부와의 정합에 더하여, 본 예의 정합은 환자(22)의 부비동의 이미지와의 정합을 추가로 포함한다. 몇몇 경우에, 환자(22)의 부비동의 이러한 이미지는 기획된 부비동성형술 시술 전에 획득되었다. 환자(22)의 부비동의 기존 이미지는 CT(컴퓨터 단층촬영) 이미지, MRI(자기 공명 영상) 이미지, 초음파 이미지, 그러한 이미지들의 조합, 및/또는 임의의 다른 적합한 영상 기법(imaging modality)을 사용하여 포착된 하나 이상의 이미지를 포함할 수 있다. 환자(22)의 부비동의 이미지가 어떻게 획득되었는지에 상관없이, 본 예에서 프레임(26)이 환자(22)의 부비동 및 환자(22)의 외부 특징부 둘 모두와 정합되는 것이 이해되어야 한다.
도 3a와 도 3b는 본 예의 가이드와이어(28)를 더 상세히 도시한다. 가이드와이어(28)는 내부 루멘(lumen)(82)을 갖춘 외측 코일(80)을 포함한다. 단지 예로서, 코일(80)은 비-강자성 재료, 예를 들어 316 스테인레스강, 티타늄, 코발트-크롬, 니티놀, MP35N 강철 합금, 및/또는 임의의 다른 적합한 재료로부터 형성될 수 있다. 몇몇 버전에서, 코일(80)의 공칭 외경 및 내경은 각각 0.9 mm 및 0.6 mm이다. 가이드와이어(28)는 원위 단부(30)와 근위 단부(32)를 구비한다.
테이퍼 형성된(tapered) 니티놀 코어-와이어(84)가 루멘(82)의 길이를 횡단한다. 코어-와이어(84)는 코어-와이어(84)의 근위 단부(88)의 외경보다 작은 외경을 갖는 원위 단부(86)를 구비한다. 코어-와이어(84)의 테이퍼는 센터리스 그라인딩(centerless grinding) 및/또는 임의의 다른 적합한 기술(들)에 의해 형성될 수 있다. 몇몇 버전에서, 근위 단부(32)의 외경은 0.25 mm 내지 0.35 mm의 범위인 반면; 원위 단부(86)의 외경은 0.01 mm 내지 0.015 mm이다. 또한 몇몇 버전에서, 코어-와이어(84)는 대략 10 cm의 길이를 갖는다. 코어-와이어(84)는 적어도 두 위치에서 외측 코일(80)에 부착됨으로써(예컨대, 솔더링(soldering) 등에 의해) 가이드와이어(28)의 형상에 안정성을 제공한다. 코어-와이어(84)가 외측 코일(80)에 부착된 상태에서, 코어-와이어(84)는 특히 조작자가 근위 단부(52)를 회전시킬 때 가이드와이어(28)가 "와인딩 업(winding up)"하는 것을 방지하는 휨 및 비틀림 특성을 가이드와이어(28)에 제공한다. 니티놀의 초탄성(superelasticity)은 가이드와이어(28)가 상당한 굽힘을 받으면서 여전히 그것의 구부러지지 않은 상태로 복귀할 수 있도록 허용한다.
코어-와이어(84)에 더하여, 광섬유(90)가 루멘(82)의 길이를 횡단하도록 루멘(82) 내로 삽입된다. 광섬유(90)의 원위 단부(92)는 외측 코일(80)에 연결되는 그리고 그것을 위한 원위 종단부(distal termination)로서의 역할을 하는 투명 렌즈(96)에 근접하도록 구성된다. 램프(도시되지 않음) 또는 다른 광원이 광섬유(90)의 근위 단부(98)에 결합되고, 가시 광으로 렌즈(96)를 조명하도록 프로세서(40)에 의해 작동된다. 광섬유(90)는 섬유의 단일 스트랜드(strand); 또는 광섬유의 2개 이상의 스트랜드를 포함할 수 있다. 단지 예로서, 광섬유(90)는 플라스틱 또는 유리로 형성될 수 있다. 몇몇 버전에서, 광섬유(90)는 250 마이크로미터의 직경을 각각 갖는 2개의 플라스틱 스트랜드를 포함한다. 몇몇 다른 버전에서, 광섬유(90)는 150 마이크로미터 또는 200 마이크로미터의 직경을 갖는 단일 유리 스트랜드를 포함한다.
루멘(82) 내로의 광섬유(90)의 삽입 전에, 자기장 감지 코일(100)이 광섬유(90)의 원위 단부(92) 주위에 권취되어서, 루멘(82) 내로의 삽입 후에, 감지 코일(100)이 가이드와이어(28)의 원위 단부(30)에 위치된다. 따라서, 감지 코일(100)은 광섬유(90)의 외경에 대응하는 내경을 갖는다. 몇몇 버전에서, 감지 코일(100)의 내부 원주와 광섬유(90)의 외부 원주 사이에 작은 간극(gap)(예컨대, 대략 25 마이크로미터)이 있다. 몇몇 버전에서, 감지 코일(100)은 0.45 mm의 외경을 갖지만, 다른 버전은 0.45 mm보다 크거나 작은 코일 외경을 가질 수 있다. 본 예에서, 감지 코일(100)의 두 단부는 루멘(82)의 길이를 횡단하는 전도 와이어(104)에 의해 연결된다. 전도 와이어(104)는 프로세서(40)가 감지 코일(100)의 두 단부에 의해 생성되는 신호 레벨을 측정하고 기록할 수 있게 하도록 구성된, 콘솔(50) 내의 회로에 연결된다. 대안적으로, 신호 레벨은 적어도 부분적으로 콘솔(50) 내의 회로에 무선으로 전달될 수 있다.
도 4a와 도 4b는 예시적인 대안적인 가이드와이어(128)를 도시한다. 가이드와이어(128)는 원위 단부(130)와 근위 단부(132)를 구비한다. 후술되는 차이를 제외하고, 가이드와이어(128)의 작동은 가이드와이어(28)(도 3a와 도 3b)의 작동과 대체로 유사하고, 양쪽 가이드와이어(28, 128)에서 동일한 도면 부호에 의해 지시되는 요소는 구성과 작동에 있어서 대체로 유사하다. 따라서, 가이드와이어(128)가 가이드와이어(28) 대신에 시스템(20)에 사용될 수 있다.
가이드와이어(28)와는 대조적으로, 가이드와이어(128) 내의 감지 코일(100)은 광섬유(90) 주위에 권취되지 않는다. 감지 코일(100)은 여전히 가이드와이어(128)의 원위 단부(130)에서 루멘(82) 내에 위치된다. 그러나, 감지 코일(100)은 본 예에서 코어-와이어(84) 및 광섬유(90) 둘 모두로부터 분리된다. 감지 코일(100)로부터의 신호 레벨이, 프로세서(40)가 신호 레벨을 측정하고 기록할 수 있게 하는, 도 3a와 도 3b에 관하여 전술된, 회로에 전달된다. 또한 전술된 바와 같이, 전달은 와이어(104)를 통해 또는 무선으로 이루어질 수 있다.
가이드와이어(128)가 또한 루멘(82)의 길이를 따라 연장되는 테이퍼 형성된 코어-와이어(84)를 포함한다. 가이드와이어(28)에서와 같이, 코어-와이어(84)는 가이드와이어(128)를 안정시키는 역할을 한다.
도 5a와 도 5b는 다른 예시적인 대안적인 가이드와이어(228)를 도시한다. 가이드와이어(228)는 원위 단부(230)와 근위 단부(232)를 구비한다. 후술되는 차이를 제외하고, 가이드와이어(228)의 작동은 가이드와이어(28)(도 3a와 도 3b)의 작동과 대체로 유사하고, 양쪽 가이드와이어(28, 228)에서 동일한 도면 부호에 의해 지시되는 요소는 구성과 작동에 있어서 대체로 유사하다. 따라서, 가이드와이어(228)가 가이드와이어(28) 대신에 시스템(20)에 사용될 수 있다.
가이드와이어(228)에서, 감지 코일(100)은 코어-와이어(84)의 원위 단부(86)를 둘러싸도록 구성된다. 감지 코일(100)의 내경은 코어-와이어(84)의 외경보다 크다. 감지 코일(100)은 에폭시 시멘트 등과 같은 임의의 편리한 수단을 사용하여 코어-와이어(84)에 확고하게 고정될 수 있다. 감지 코일(100)에 의해 생성되는 신호 레벨은, 실질적으로 가이드와이어(28, 128)에 대해 전술된 바와 같이, 프로세서(40)에 전달된다. 가이드와이어(228)의 몇몇 버전은, 기능성과 특성이 광섬유(90)와 유사하고, 루멘(82) 내에 위치되고 그것의 길이를 따라 횡단하는 광섬유를 포함한다. 대안적으로, 도 5a와 도 5b에 예시된 바와 같이, 가이드와이어(228)는 간단히 광섬유(90)가 없을 수 있다.
예시적인 부비동성형술 시술에서, 가이드와이어(28, 128, 228)와 같은 가이드와이어가 부비동 내로 삽입된다. 자기장 발생기(24)가 그것의 자기장을 전송하고 있는 동안에, 감지 코일(100)에 결합된 회로가 감지 코일(100)로부터 신호를 획득한다. 프로세서(40)가 위에 언급된 보정 관계를 신호에 적용하고, 또한 위에 기술된 정합과 함께 감지 코일(100)의 위치와 배향을 찾아낸다. 감지 코일(100)의, 즉 가이드와이어(28, 128, 228)의 원위 단부(30)의 위치와 배향의 지시가 환자(22)의 부비동의 정합된 기존 이미지 상에 오버레잉될 수 있다. 환자(22)의 부비동 및 가이드와이어(28, 128, 228)의 원위 단부(30)의 합성 이미지가 의사(54)에게 스크린(56)(도 1) 상에 표시될 수 있다. 실시간 수술에서의 가이드와이어(28, 128, 228)의 그러한 사용의 더 상세한 설명이 아래에서 도 6의 순서도에 관하여 제공된다.
도 6은 이미지 유도 부비동 수술을 수행하기 위한 시스템(20)을 사용하여 취해질 수 있는 예시적인 단계의 순서도를 도시한다. 본 예에서, 수술은 주변 부비동의 소공 및 유출로(outflow tract)에 대해 수행되는 것으로 가정되지만, 당업자는 이러한 설명을, 필요한 변경을 가하여, 다른 다양한 유형의 부비동 수술에 맞게 맞출 수 있을 것이다. 도 6의 순서도의 단계는 가이드와이어(28, 128, 228)의 원위 단부(30)가 전술된 자기 추적 시스템에 의해 수술 과정 중에 실시간으로 추적되는 것으로 가정한다. 명료함을 위해, 이하의 순서도 설명에서, 가이드와이어(28)가 사용되는 것으로 가정되고, 당업자는 이러한 설명을 가이드와이어(128, 228)와 같은 다른 가이드와이어의 사용에 맞게 변경할 수 있을 것이다.
수술 중에 사용되는 다른 기구의 원위 팁, 예를 들어 내시경의 원위 팁, 가이드 카테터의 원위 팁, 확장 카테터의 원위 팁, 및/또는 그러한 기구 및/또는 다른 종류의 기구의 다른 부분이 또한 당업계에 알려진 바와 같이 각자의 코일을 가요성 또는 강성 기구를 위한 기구 원위 팁에 통합함으로써 자기 추적 시스템에 의해 추적될 수 있다. 전형적으로 기능적 내시경 부비동 수술(FESS)과 벌룬-지원 FESS, 즉 벌룬 부비동성형술을 비롯한 비과 수술(rhinological surgery)에 사용될 수 있는 그러한 기구가 구매가능하다.
따라서, 가이드와이어(28, 128, 228)는 단지 감지 코일(100)을 포함할 수 있는 기구의 예시적인 예인 것이 이해되어야 한다. ENT 시술에 사용되고 감지 코일(100)을 쉽게 포함할 수 있는 다양한 다른 종류의 기구가 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다. 강성 기구에 대해, 자기 추적 시스템이 감지 코일(100)로부터 수신된 신호를 변환시키는 데 필요한 공간적인 조절을 행하도록 프로그래밍되었으면, 감지 코일(100)이 대안적으로 기구의 근위 부분에 위치될 수 있는 것이 또한 이해되어야 한다. 그러한 추적 방법이 또한 당업계에 알려져 있다.
준비 단계(300)에서, 수술될 해부학적 구조물의 "원(raw)" 이미지가 획득된다. 원 이미지는 두개골의 CT 이미지, MRI 이미지, 또는 US 이미지를 포함할 수 있다. 몇몇 경우에, 하나 초과의 그러한 이미지가 조합되고, 생성된 합성 이미지가, 조합된 이미지의 정합 후에, 원 이미지로서 사용된다. 이미지는 전형적으로 의료용 디지털 영상 및 통신(Digital Imaging and Communications in Medicine, DICOM) 포맷이다. 물론, 임의의 다른 적합한 포맷이 사용될 수 있다. 다양한 적합한 영상 기법, 이미지 형성 시스템, 및 이미지 포맷이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
제1 분석 단계(302)에서, 원 이미지가 분석되어 이미지에서 부비동-비강(sino-nasal) 구조물을 격리시킨다. 분석은 이미지로부터 도출된 점군(point cloud)에 인식 알고리즘을 적용하여 상이한 구조물을 생성한다. 알고리즘은 이미지를 세그먼트화하는 데, 그리고 세그먼트화된 섹션을 3차원(3D) 구조물로 형성하는 데 사용된다.
단지 예로서, 분석 단계(302) 중에 사용되는 알고리즘은, 본 명세서에 참고로 포함되는, 논문["Comparison of 3D Segmentation Algorithms for Medical Imaging," by Hakan et al., published in the Twentieth IEEE International Symposium on Computer-Based Medical Systems, 2007, CBMS '07]에 기술된 것과 같은 "시드 영역 성장(seeded region growing)" 알고리즘에 기초할 수 있다. 대안적으로 또는 추가적으로, 본 명세서에서 언급되는 인식은 스위스 제네바주 베흐넥쓰 소재의 픽스메오(Pixmeo)에 의해 제작된 오시릭스(OsiriX) 6.5 이미지 처리 소프트웨어, 또는 벨기에 루벤 소재의 머티리얼라이즈 인크.(Materialise Inc.)에 의해 제작된 미믹스(Mimics) 소프트웨어와 같은, 구매가능한 소프트웨어를 사용하여 구현될 수 있다. 사용될 수 있는 다른 적합한 알고리즘이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
제1 분석 단계(302)에서 생성된 3차원 구조물 내의 점은 임의의 주어진 구조물이 변환될 수 있게 하는 좌표를 갖는다. 예를 들어, 주어진 구조물이 병진 또는 회전될 수 있거나, 다른 유형의 변환이 구조물에 적용될 수 있다.
이미지 조작 단계(304)에서, 단계(302)에서 생성된 3차원 구조물이 의사(54)에게, 본 명세서에서 예로서 스크린(56)인 것으로 가정되는 스크린 상에 제시된다. 의사(54)는 수술될 영역이 명확히 보이도록 동작 제어 장치(51)를 사용하여 이미지를 조작한다. 이를 위해, 의사(54)는 이미지를 회전, 패닝(panning) 및/또는 주밍(zooming)하고/하거나 이미지의 하나 이상의 단면을 생성할 수 있다. 또한, 의사(54)는 상이한 구조물의 투명도 및/또는 색을 변경할 수 있다. 조작은 수술될 영역을 포함하는 영역의 강조를 포함할 수 있다. 여기에서 고려되는 유출로에 대해, 그러한 강조는 편리하게는 부비동 유출로 인식 알고리즘을 조작된 이미지에 적용함으로써 달성될 수 있다. 인식은 단계(302)에서 위에 언급된 것과 유사한 알고리즘을 사용할 수 있고/있거나, 또한 위에 언급된 시판되는 소프트웨어를 사용하여 구현될 수 있다.
단계(304)에서 생성될 수 있는 다른 이미지는 후술되는 바와 같은 계획된 수술 단계, 후술되는 바와 같은 기구에 의해 취해질 경로, 및 유출로에 근접한 구조물의 표시를 포함한다.
단계(304)는 부비동 수술의 수행 전에 구현되는 이미지 준비 단계를 마친다. 순서도의 하기의 단계는 수술 중에 취해질 수 있는 조치를 기술한다.
기구 준비 단계(306)에서, 수술 중에 사용될 기구가 그것이 수술 중에 추적될 수 있도록 준비된다. 기구는 감지 코일(100)을 사용하여 시스템(20)에 의해 추적될 수 있는, 위에 기술된 바와 같은, 가이드와이어(28)를 포함한다. 기구는 또한 내시경, 하나 이상의 가요성 기구, 하나 이상의 카테터, 및/또는 다음의 것 중 임의의 하나 이상을 포함할 수 있다: 파지용 겸자(grasping forceps), 브래커슬리 겸자(Blakesly forceps) 및 브래커슬리 스루커팅 겸자(Blakesly throughcutting forceps)를 비롯한 커팅 겸자(cutting forceps), 세척 캐뉼러(irrigation cannula), 프레지어(Frazier) 및 양카우어(Yankauer) 흡입 캐뉼러(suction cannula)를 비롯한 흡입 캐뉼러, 볼팁형 프로브(balltipped probe), 부비동 탐색기(sinus seeker), 프리어 거상기(Freer elevator), 코들 거상기(Coddle elevator), 다른 거상기, J-큐렛(curette) 또는 다른 큐렛, 버섯형 펀치(mushroom punch)를 비롯한 펀치, 주사 바늘, 바늘 구동기(needle driver), 단극성 또는 양극성 전기소작 프로브, RF 어블레이션 프로브(ablation probe), 레이저-에너지 전달 프로브, 동력식 또는 수동식 마이크로디브라이더(microdebrider), 셰이버(shaver), 드릴, 또는 버(burr). 다른 적합한 기구가 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
위에 언급된 바와 같이, 임의의 그러한 기구는 기구의 위치설정의 추적을 가능하게 하기 위해 감지 코일(100)을 포함할 수 있다. 그러한 감지 코일(100)은 감지 코일(100)에 추적 신호를 유도하기 위한 자기장 발생기(24)로부터의 자기장을 사용하여, 시스템(20)에 의해 추적되도록 구성될 수 있다. 대안적으로, 기구는 홀 효과(Hall effect)를 사용하여 추적 신호를 생성하도록 구성된 센서를 포함할 수 있다. 강성 기구의 경우에, 센서는 기구 원위 부분과 알려진 고정된 공간 관계로 기구의 근위 부분 상에 장착될 수 있다. 단지 예로서, 감지 코일(100) 또는 다른 센서가 기구의 원위 부분 상에 또는 그것 내에 장착될 수 있다(예컨대, 특히 기구가 가요성인 경우에). 추가적으로 또는 대안적으로, 감지 코일(100) 또는 다른 센서가 기구의 근위 부분 상에 또는 그것 내에 장착될 수 있다(예컨대, 특히 기구가 강성인 경우에).
감지 코일(100) 또는 다른 센서가 위치되는 곳에 상관없이, 감지 코일(100) 또는 다른 센서가 제조 시에 기구 내에 내장될 수 있다. 다른 경우에, 하나 이상의 감지 코일(100) 또는 다른 센서를 기구에, 그 기구를 수술 중에 사용하기 전에, 부착하는 것이 바람직할 수 있다. 그러한 부착을 수행하기 위한 방법이, 그것의 개시 내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "전자기 이미지 유도 구성요소를 의료 장치에 부착하기 위한 어댑터(Adapter for Attaching Electromagnetic Image Guidance Components to a Medical Device)"이고 2012년 5월 29일자로 허여된 미국 특허 제8,190,389호; 및 그것의 개시 내용이 본 명세서에 참고로 포함되는, 발명의 명칭이 "전자기 이미지 유도 구성요소를 의료 장치에 부착하기 위한 어댑터(Adapter for Attaching Electromagnetic Image Guidance Components to a Medical Device)"이고 2012년 9월 27일자로 공개된 미국 공개 제2012/0245456호에 기술된다.
최종 실시간 시술 단계(308)에서, 의사(54)가 자기장 발생기(24)를 활성화시켜 기구 추적 과정을 시작한다. 의사(54)는 또한 하나 이상의 이미지, 몇몇 경우에 다수의 이미지 패널을 스크린(56) 상에 표시한다. 표시되는 이미지는 시술에 사용된 내시경에 의해 형성된 실시간 이미지뿐만 아니라, 단계(304)에서 준비되고 생성된 이미지를 포함할 수 있다. 따라서, 다수의 이미지 패널을 스크린(56) 상에 제시하는 것은 의사(54)가 수개의 이미지를 상이한 소스로부터 동시에 관찰하는 것을 가능하게 할 수 있다는 것이 이해되어야 한다.
내시경 원위 단부의 위치와 배향의 지시가 단계(304)에서 생성된 유출로 이미지 상에, 정합되어, 오버레잉될 수 있다. 유사하게, 가이드와이어(28)의 원위 단부(30)의 위치와 배향의 지시가 또한 유출로 이미지와, 정합되어, 오버레잉될 수 있다. 다른 기구가 환자 내로 삽입될 때, 그것의 위치와 배향이 또한 유출로 이미지 상에 오버레잉될 수 있다.
위에 언급된 내시경 이미지 상에, 이미지 조작 단계(304)에서 생성된 유출로의 이미지뿐만 아니라, 이미지 조작 단계(304)에서 생성되었을 수 있는 다른 구조물의 하나 이상의 이미지가 중첩될 수 있다.
몇몇 버전에서, 스크린(56) 상에 표시된 이미지는 이미지의 원하는 부분의 가시성을 개선하도록, 그리고 제시된 이미지 내의 "노이즈(noise)"를 감소시키도록 의사(54)에 의해 조작될 수 있다. 그러한 조작은 가이드와이어(28)를 비롯한 사용되는 기구의 원위 팁의 지시를 포함한 이미지의 내측 섹션이 더 잘 보이도록 의사가 이미지의 섹션(예컨대, 외측 섹션)을 적어도 부분적으로 투명하게 할 수 있는 것을 포함할 수 있다. 대안적으로 또는 추가적으로, 조작은 의사가 단계(302)에서 세그먼트화되었던 특정 해부학적 구조물을 표현하는 이미지의 섹션에 "거짓(false)" 색을 적용하는 것을 포함할 수 있다. 몇몇 버전에서, 의사(54)는 제어 장치(51)를 사용하여 스크린(56) 상의 이미지를 조작하거나 조정한다. 추가적으로 또는 대안적으로, 시스템(20)은 의사(54)가 음성 활성화 및/또는 다른 비-촉각 활성화 방법을 사용하여 스크린(56) 상의 이미지를 조작하거나 조정할 수 있게 하도록 구성될 수 있다.
가이드와이어(28)의 원위 단부(30)의 위치와 배향이 실시간으로 알려지기 때문에, 가이드와이어(28)의 원위 단부(30)에 근접한 해부학적 구조물의 단면 또는 슬라이스(slice)가 시스템(20)에 의해 생성되고 스크린(56) 상에 표시될 수 있다. 예를 들어, 가이드와이어(28)의 원위 단부(30) 앞에 있는 해부학적 구조물의 단면이 표시될 수 있다. 스크린(56) 상에 제시될 수 있는 다른 이미지는 계획된 수술 단계, 기구에 의해 취해질 경로, 및 수술되는 구조물에 근접한 구조물의 표시를 포함한다. 위에 언급된 바와 같이, 그러한 이미지는 전형적으로 이미지 조작 단계(304)에서 생성된다. 그러한 이미지가 생성되고 제시될 수 있는 방법의 추가의 예가 아래에서 더 상세히 기술될 것이다.
II. 예시적인 이미지 유도 수술 지침
몇몇 경우에, 환자(22)에 대해 ENT 시술(예컨대, 부비동성형술 등)을 어떻게 수행할지에 관한 수술 계획 또는 지시를 의사(54)에게 제공하는 것이 바람직할 수 있으며, 이때 그러한 지시는 그 특정 환자(22)의 특유의 해부학적 구조물에 기초하여 맞춤화된다. 도 6에 도시된 조작 단계(304)에 관하여 위에 언급된 바와 같이, 프로세서(40)는 그러한 지시를 환자(22)의 특유의 해부학적 구조물을 도시하는 이미지 상에 제공하도록 환자(22)와 관련된 이미지 데이터를 조작하는 것이 가능할 수 있다. 또한, 프로세서(40)는 환자의 특유의 해부학적 구조물에 기초하여 선택된 시술을 환자(22)에 대해 어떻게 가장 잘 수행할지를 결정할 수 있고, 그러한 맞춤화된 지시를 조작 단계(304) 중에 생성된 이미지를 통해 제공할 수 있다. 추가적으로 또는 대안적으로, 의사(54)는 조작 단계(304) 중에 생성된 이미지를 통해 맞춤화된 지시를 생성하는 데 사용되는 추가의 입력을 제공할 수 있다.
교수 이미지가 자동으로 생성되는지 그리고/또는 의사(54)로부터의 입력에 기초하여 생성되는지에 상관없이, 그러한 교수 이미지는 일련의 정지 이미지(still image), 비디오 "플라이 스루(fly through)"의 형태로, 그리고/또는 임의의 다른 적합한 형태로 제공될 수 있다. 약칭(shorthand) 목적을 위해, 출력은 본 명세서에서 "교수 이미지"로 지칭될 것이며, 이때 그러한 이미지가 정지 이미지, 동영상(예컨대, 비디오, 애니메이션 등), 이들의 조합, 및/또는 임의의 다른 적합한 유형의 이미지를 포함할 수 있는 것이 이해된다. 교수 이미지가 2차원, 3차원, 및/또는 이들의 조합일 수 있는 것이 또한 이해되어야 한다.
그러한 교수 이미지는 하나 이상의 이미지 패널을 통해 스크린(56) 상에 렌더링될 수 있다. 또한, 그러한 교수 이미지는 의사(54)가 시술을 수행할 때 자동으로 업데이트될 수 있다. 예를 들어, 시스템(20)은 의사(54)에 의해 사용되는 기구의 이동을 연속적으로 추적하고, 그러한 추적된 이동에 기초하여 시술의 단계를 결정하고, 시술의 현재 단계에 기초하여 교수 이미지를 업데이트할 수 있다. 추가적으로 또는 대안적으로, 의사(54)는 ENT 시술의 현재 단계를 시스템(20)에 알리기 위해 제어 장치(51), 음성 활성화, 및/또는 어떤 다른 수단을 통해 입력을 제공할 수 있다. 교수 이미지가 제공될 수 있는 방법의 구체적인 예가 더 상세히 후술될 것이다. 하기의 예는 단지 예시적인 것임이 이해되어야 한다. 추가의 예와 변형이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
A. 맞춤화된 수술 계획을 자동으로 생성하기 위한 예시적인 과정
도 7은 시스템(20) 및/또는 다른 소스로부터의 데이터를 사용하여, 의사(54)에게 수술 계획을 제공하는 데 사용될 수 있는 예시적인 과정을 도시한다. 도 7의 과정이 도 6의 과정에 통합될 수 있는 것이 이해되어야 한다. 예를 들어, 도 7의 과정은 도 6에 도시된 조작 단계(304) 내의 서브루틴(subroutine)으로서 수행될 수 있다. 대안적으로, 도 7의 과정은 어떤 다른 보다 큰 과정에 통합될 수 있거나, 독립형 과정으로서 수행될 수 있다. 도 7의 과정이 아래에서 시스템(20)에 의해 수행되는 것으로 논의될 것이지만, 도 7의 과정이 임의의 다른 적합한 구성의 임의의 다른 적합한 구성요소를 갖춘 임의의 다른 적합한 시스템에 의해 수행될 수 있는 것이 이해되어야 한다. 단지 추가의 예로서, 도 7의 과정의 적어도 일부가 후술되는 바와 같은 도 14의 시스템(1000)을 통해 수행될 수 있다. 도 7의 과정의 일부가 하나의 시스템 상에서 수행될 수 있는 반면, 도 7의 과정의 다른 부분이 다른 시스템 상에서 수행되는 것이 또한 이해되어야 한다.
초기 단계(400)에서, 환자(22)의 두개골 이미지(또는 이미지들)가 획득된다. 이것이 ENT 외과 시술이 수행될 동일한 환자(22)의 두개골 이미지인 것이 이해되어야 한다. 이러한 두개골 이미지(또는 이미지들)는 MRI, CT, 및/또는 임의의 다른 적합한 영상 기법 또는 기법들을 사용하여 획득될 수 있다. 적어도 일부 이미지 데이터가 시스템(20)을 사용하여 수행되는 매핑 과정을 통해 제공되는 데이터에 의해 생성되거나 보완될 수 있으며, 여기서 감지 코일(100)을 갖춘 프로브가 환자(22)의 비강 내의 해부학적 구조물의 기하학적 구조를 확립하기 위해 환자(22)의 비강을 통해 조종된다. 추가적으로 또는 대안적으로, 이미지 데이터는 다른 소스로부터(예컨대, 과거에 어떤 다른 시간에 그리고/또는 어떤 다른 시설 등에서 수행된 스캐닝으로부터) 제공될 수 있다.
몇몇 경우에, 단계(400)에서 2개 이상의 이미지가 제공된다. 단지 예로서, 이미지는 DICOM(의료용 디지털 영상 및 통신) 파일로서 제공되고 프로세서(40) 내로 임포팅될 수 있다. 프로세서(40)는 이미지에 기초하여 비강 통로(nasal passage) 및 부비동의 해부학적 구조의 레이아웃을 평가하도록 전문화된 소프트웨어를 포함할 수 있다. 몇몇 예에서, 이미지는 그래픽 사용자 인터페이스를 사용하여 조작가능한 3차원 이미지를 포함할 수 있다. 3차원 이미지는 세그먼트화된 3차원 모델을 준비함으로써 획득될 수 있다. 3차원 모델의 사용을 채용하는 버전에서, 3차원 모델은 기존의 것일 수 있으며 이에 따라 3차원 모델로서 프로세서(40) 내로 임포팅될 수 있다. 대안적으로, 프로세서(40)는 프로세서(40) 내로 임포팅되는 2차원 이미지 데이터에 기초하여 3차원 모델을 생성할 수 있다. 물론, 임의의 다른 적합한 기법이 3차원 모델을 생성하는 데 사용될 수 있다. 몇몇 버전이 반드시 완전한 3차원 모델의 생성을 필요로 하지는 않을 수 있는 것이 또한 이해되어야 한다.
도 7에 도시된 과정의 다음 단계(402)에서, 프로세서(40)는 의사(54)가 환자(22)에 대해 수행하기를 원하는 특정 유형의 시술을 지시하는 입력을 의사(54)로부터 수신한다. 예를 들어, 의사(54)는 이러한 입력을 동작 제어 장치(51)를 사용하여, 음성 명령을 사용하여, 그리고/또는 임의의 다른 적합한 형태의 입력을 사용하여 제공할 수 있다. 시스템(20)은 의사(54)가 전두와의 확장, 상악동 소공의 확장, 접형동 소공의 확장, 유스타키오관의 확장, 사골포 내에의 개구의 형성, 및/또는 다양한 다른 ENT 시술을 포함하지만 이로 제한되지 않는, 다양한 ENT 시술의 광범위한 목록으로부터 선택하는 것을 가능하게 할 수 있다. 몇몇 변형에서, 프로세서(40)는 단지 부비동성형술 시술을 위한 수술 계획을 제공하도록 구성되어, 의사(54)가 간단히 어느 통로(예컨대, 전두와, 상악동 소공, 접형동 소공 등)에서 부비동성형술 시술이 수행될지를 선택한다.
일단 시스템(20)이 가까이에 있는 환자(22) 특유의 필요한 이미지(들)(단계(400))뿐만 아니라, 의사(54)가 환자(22)에 대해 수행하기를 원하는 특정 유형의 시술을 지시하는 의사(54)로부터의 입력(단계(402))을 수신하였으면, 시스템(20)은 이어서 분석 단계(404)를 수행할 수 있다. 이러한 분석 단계(404) 중에, 소프트웨어(예컨대, 프로세서(40)를 통해 실행되는 바와 같은)가 단계(402)에서 선택된 의료 시술과 관련된 데이터에 관하여 단계(400)의 일부로서 임포팅되었던 두개골 이미지(들)에 기초하여 환자(22)의 비강 통로와 부비동의 해부학적 구조의 레이아웃을 평가한다. 단계(402) 중에 선택에 이용가능한 다양한 의료 시술과 관련된 데이터가 시스템(20) 내에 국소적으로 저장될 수 있고/있거나, 하나 이상의 원격 서버 등 상에 원격으로 저장될 수 있다는 것이 이해되어야 한다. 그러한 데이터가 어디에 저장되는지에 상관없이, 프로세서(40)는 단계(402)에서 선택된 의료 시술과 관련된 데이터에 접근하고 그것을 처리하며, 단계(400)의 일부로서 임포팅되었던 두개골 이미지(들)에 의해 표현되는 바와 같은 환자(22)의 특유의 해부학적 구조물에 대해 그 시술을 어떻게 가장 잘 구현할지를 결정할 수 있다. 이러한 처리는 단계(400)의 일부로서 임포팅되었던 이미지(들)를 참조하여 일련의 병진 및 회전 좌표를 확립하는 것을 포함할 수 있다.
일단 프로세서(40)가 분석 단계(404)를 완료하였으면, 프로세서(40)는 의사(54)에게 출력을 생성하여서 특정 환자(22)에 맞추어진 수술 계획을 표시할 수 있다(단계(406)). 단계(406)에서 출력되는 수술 계획은 선택된 ENT 시술을 어떻게 수행할지에 관한 "로드맵(roadmap)" 또는 단계별 지시를 의사(54)에게 제공할 수 있다. 단지 예로서, 선택된 ENT 시술이 부비동 배액 통로 확장 시술을 포함할 때, 단계(406)에서 출력되는 수술 계획은 환자(22)에 대해 하기의 행위 중 적어도 일부(전부는 아니더라도)를 수행하기 위한 로드맵을 포함할 수 있다: (i) 가이드 부재(예컨대, 가이드 카테터, 가이드 레일, 가이드 프로브 등)를 환자의 비강 내에 위치시키는 것, (ii) 가이드와이어를 가이드 부재에 대해 전진시켜 가이드와이어를 부비동 배액 통로(예컨대, 부비동 소공, 전두와 등)를 통해 삽입하는 것, (iii) 확장기를 가이드와이어를 따라 전진시켜 확장기를 부비동 배액 통로 내에 위치시키는 것, 및 (iv) 확장기를 확대시켜 배액 통로를 확장시켜서, 통기 및 배액을 가능하게 하고 점액섬모 수송(mucociliary transport)의 자연적인 방향에 기초하여 점액의 정상 유출을 회복하는 것. 물론, 이는 단계(406)에서 출력되는 수술 계획의 대상일 수 있는 ENT 시술의 단지 하나의 그저 예시적인 예이다. 단계(406)에서 출력되는 수술 계획의 대상일 수 있는 다양한 다른 종류의 ENT 시술이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
수술 계획이 시각적으로 표시될 수 있는(단계(406)) 방법의 다양한 예가 도 9 내지 도 13c를 참조하여 더 상세히 후술될 것이다. 다른 예가 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
B. 맞춤화된 수술 계획을 수동으로 생성하기 위한 예시적인 과정
도 8은 시스템(20) 및/또는 다른 소스로부터의 데이터를 사용하여, 의사(54)에게 수술 계획을 제공하는 데 사용될 수 있는 다른 예시적인 과정을 도시한다. 도 8의 과정이 도 6의 과정에 통합될 수 있는 것이 이해되어야 한다. 예를 들어, 도 8의 과정은 도 6에 도시된 조작 단계(304) 내의 서브루틴으로서 수행될 수 있다. 대안적으로, 도 8의 과정은 어떤 다른 보다 큰 과정에 통합될 수 있거나, 독립형 과정으로서 수행될 수 있다. 도 8의 과정이 아래에서 시스템(20)에 의해 수행되는 것으로 논의될 것이지만, 도 8의 과정이 임의의 다른 적합한 구성의 임의의 다른 적합한 구성요소를 갖춘 임의의 다른 적합한 시스템에 의해 수행될 수 있는 것이 이해되어야 한다. 단지 추가의 예로서, 도 8의 과정의 적어도 일부가 후술되는 바와 같은 도 14의 시스템(1000)을 통해 수행될 수 있다. 도 8의 과정의 일부가 하나의 시스템 상에서 수행될 수 있는 반면, 도 8의 과정의 다른 부분이 다른 시스템 상에서 수행되는 것이 또한 이해되어야 한다.
도 7의 분석 단계(404)에 관하여 위에 언급된 바와 같이, 시스템(20, 510)은 단계(400)의 일부로서 임포팅되었던 이미지(들)와 조합하여 참조될 수 있는 저장된 ENT 의료 시술의 데이터베이스를 포함할 수 있다. 도 8의 과정에서, 그러한 저장된 ENT 의료 시술은 초기에 생성될 수 있다. 바꾸어 말하면, 도 8에 도시된 과정은 반드시 저장된 ENT 의료 시술의 기존 데이터베이스를 갖지 않고서도 수행될 수 있다. 도 8의 과정은 의사(54)에 의해, 동일한 의사(54)가 환자(22)에 대해 ENT 의료 시술을 수행하기 전에 수행될 수 있다. 다른 단지 예시적인 예로서, 도 8의 과정은 의사 교육의 일부로서 수행될 수 있으며, 이때 교육하는 의사(54)는 도 8의 과정을 수행하는 반면, 교육받는 의사(54)는 도 8의 과정 중에 교육하는 의사(54)에 의해 제공되었던 입력에 기초하여 생성되는 수술 계획 또는 지시(단계(406))를 수행한다.
초기 단계(500)에서, 환자(22)의 두개골 이미지(또는 이미지들)가 획득된다. 이것이 ENT 외과 시술이 수행될 동일한 환자(22)의 두개골 이미지인 것이 이해되어야 한다. 이러한 두개골 이미지(또는 이미지들)는 MRI, CT, 및/또는 임의의 다른 적합한 영상 기법 또는 기법들을 사용하여 획득될 수 있다. 적어도 일부 이미지 데이터가 시스템(20)을 사용하여 수행되는 매핑 과정을 통해 제공되는 데이터에 의해 생성되거나 보완될 수 있으며, 여기서 감지 코일(100)을 갖춘 프로브가 환자(22)의 비강 내의 해부학적 구조물의 기하학적 구조를 확립하기 위해 환자(22)의 비강을 통해 조종된다. 추가적으로 또는 대안적으로, 이미지 데이터는 다른 소스로부터(예컨대, 과거에 어떤 다른 시간에 그리고/또는 어떤 다른 시설 등에서 수행된 스캐닝으로부터) 제공될 수 있다.
몇몇 경우에, 단계(500)에서 2개 이상의 이미지가 제공된다. 단지 예로서, 이미지는 DICOM(의료용 디지털 영상 및 통신) 파일로서 제공되고 프로세서(40) 내로 임포팅될 수 있다. 프로세서(40)는 이미지에 기초하여 비강 통로(nasal passage) 및 부비동의 해부학적 구조의 레이아웃을 평가하도록 전문화된 소프트웨어를 포함할 수 있다. 본 예에서, 소프트웨어는 점군을 세그먼트화된 3차원 모델로 변환시킨다(단계(502)). 이러한 과정의 일부로서, 소프트웨어는 프로세서(40)를 통해 부비동-비강 구조 인식 알고리즘(sino-nasal structure recognition algorithm)을 적용한다(단계(504)). 소프트웨어는 궁극적으로 조작가능한 3차원 이미지의 형태로 출력을 생성한다(단계(506)). 소프트웨어가 전술된 단계(502, 504, 506)를 수행하도록 구성될 수 있는 다양한 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
이어서 의사(54)에게는 3차원 이미지를 조작하기 위한 그래픽 사용자 인터페이스(GUI)가 제시된다(단계(508)). 단지 예로서, 이러한 GUI는 의사(54)가 원하는 대로 각각의 해부학적 구조물에 대한 투명도 및/또는 색을 한정하는 것을 가능하게 할 수 있다(단계(510)). 하나의 단지 예시적인 예로서, 3차원 이미지가 상악동 소공을 확장시키기 위한 수술 계획을 제공하도록 준비되고 있는 경우에, 의사는 구상 돌기의 그래픽 표현을 대략 50% 투명한 것으로 설정하고; 그리고 상악동 소공의 색을 적색으로 설정할 수 있다. GUI는 또한 의사(54)가 다양한 종류의 마킹 및/또는 주석(annotation)을 3차원 이미지 내에 제공하는 것을 가능하게 할 수 있다. 3차원 이미지의 탐색과 마킹을 용이하게 하기 위해, GUI는 또한 의사(54)가 3차원 이미지의 2차원 뷰를 회전시키거나, 주밍하거나, 패닝하거나, 틸팅(tilting)하거나, 단면을 취하거나, 달리 변경하는 것을 가능하게 할 수 있다(단계(512)).
본 예의 소프트웨어는 또한 부비동의 유출로의 시각적 강조를 제공한다(단계(514)). 본 예에서, 이러한 과정은 부비동 유출로 인식 알고리즘의 적용을 통해 자동화된다(단계(516)). 소프트웨어가 전술된 단계(508, 510, 512, 514, 516)를 수행하도록 구성될 수 있는 다양한 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
일단 단계(514)가 완료되었으면, 프로세서(40)가 의사(54)에게 출력을 생성하여서 수술 계획을 표시할 수 있다(단계(406)). 위에 언급된 바와 같이, 단계(406)에서 출력되는 수술 계획은 선택된 ENT 시술을 어떻게 수행할지에 관한 "로드맵" 또는 단계별 지시를 의사(54)에게 제공할 수 있다. 단지 예로서, 선택된 ENT 시술이 부비동 배액 통로 확장 시술을 포함할 때, 단계(406)에서 출력되는 수술 계획은 환자(22)에 대해 하기의 행위 중 적어도 일부(전부는 아니더라도)를 수행하기 위한 로드맵을 포함할 수 있다: (i) 가이드 부재(예컨대, 가이드 카테터, 가이드 레일, 가이드 프로브 등)를 환자의 비강 내에 위치시키는 것, (ii) 가이드와이어를 가이드 부재에 대해 전진시켜 가이드와이어를 부비동 배액 통로(예컨대, 부비동 소공, 전두와 등)를 통해 삽입하는 것, (iii) 확장기를 가이드와이어를 따라 전진시켜 확장기를 부비동 배액 통로 내에 위치시키는 것, 및 (iv) 확장기를 확대시켜 배액 통로를 확장시켜서, 통기 및 배액을 가능하게 하고 점액섬모 수송의 자연적인 방향에 기초하여 점액의 정상 유출을 회복하는 것. 물론, 이는 단계(406)에서 출력되는 수술 계획의 대상일 수 있는 ENT 시술의 단지 하나의 그저 예시적인 예이다. 단계(406)에서 출력되는 수술 계획의 대상일 수 있는 다양한 다른 종류의 ENT 시술이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
도 8에 도시되지 않지만, 소프트웨어가 또한 의사(54)가 단계(506)에서 생성되었던 3차원 이미지를 사용하여 ENT 시술을 가상으로 수행하는 것을 가능하게 할 수 있는 것이 이해되어야 한다. 예를 들어, 소프트웨어는 의사(54)에게 ENT 시술에 사용될 수 있는 기구의 그래픽 표현을 제시할 수 있으며, 이때 기구의 그러한 그래픽 표현은 3차원 이미지와 오버레잉되거나 달리 통합된다. 의사(54)는 임의의 적합한 입력 장치 또는 입력 장치들의 조합(예컨대, 마우스, 트랙패드(trackpad), 키보드, 조이스틱, 터치스크린 등)을 사용하여 기구의 그래픽 표현을 조작할 수 있다. 의사(54)가 ENT 시술을 가상으로 수행하도록 허용함으로써, 소프트웨어는 의사가(54)가 가장 적절한 기법을 찾아내는 데 도움을 주기 위해 의사(54)가 원하는 만큼 많은 연습 실행을 수행할 수 있게 한다.
또한, 가상 ENT 시술 중에 수집되는 데이터가 단계(406)에서 출력되는 수술 계획을 개발하는 데 사용될 수 있다. 특히, 의사(54)가 가상 ENT 시술의 하나 이상의 단계를 성공적으로 완료했을 때, 시스템은 가상 ENT 시술 중에 의사(54)에 의해 조작된 바와 같은 가상 기구의 이동 및 배향을 저장하고, 가상 기구의 저장된 성공적인 이동 및 배향을 단계(406)에서 출력되는 수술 계획에 통합시킬 수 있다. 바꾸어 말하면, 의사(54)는 우선 환자의 해부학적 구조물의 3차원 모델에 대해 ENT 시술을 가상으로 완벽하게 수행한 다음에, 단계(406)에서 출력되는 수술 계획에 의존하여 의사(54)가 실제 기구를 사용하여 환자(22)에 대해 실제 ENT 시술을 수행할 때 가상 ENT 시술에서 성공적이었던 가상 기구의 이동 및 배향을 재연할 수 있다. 소프트웨어가 가상 ENT 시술의 결과를 허용, 포획, 및 사용할 수 있는 다양한 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
C. 맞춤화된 수술 계획을 렌더링하기 위한 예시적인 과정
위에 언급된 바와 같이, 도 7에 도시된 과정과 도 8에 도시된 과정은 각각 의사(54)에게 출력을 생성하여서, 특정 환자(22)에게 맞추어진 수술 계획을 표시할 수 있다(단계(406)). 본 예에서, 수술 계획은 하나 이상의 교수 이미지의 형태로 제공된다. 단계(406)에서 표시되는 교수 이미지는 하나 이상의 이미지 패널을 통해 스크린(56) 상에 렌더링될 수 있다. 도 9는 의사(54)에게 제시되는 수술 계획(단계(406))과 함께 제공될 수 있는 예시적인 단계를 도시한다. 표시될 수 있는 교수 이미지의 종류의 예가 도 9의 블록(606, 608, 610, 612, 614)을 참조하여 그리고 또한 도 10 내지 도 13c를 참조하여 더 상세히 후술된다.
몇몇 경우에, ENT 시술은 단계(600)에 나타난 바와 같이 내시경으로부터 제공되는 실제 시각적 유도로 수행될 수 있다. 내시경으로부터의 비디오 뷰는 단계(406)에서 표시되는 교수 이미지 중 하나 이상과 조합될 수 있어서, 내시경 뷰가 하나 이상의 이미지 패널을 통해 스크린(56) 상에 렌더링될 수 있다. 내시경은 감지 코일(100) 또는 다른 센서를 추가로 포함할 수 있어서, 내시경의 위치가 시스템(20)에 의해 추적될 수 있다. 감지 코일(100) 또는 다른 센서로부터의 위치설정 데이터는 또한 단계(406)에서 표시되는 교수 이미지 중 하나 이상에 통합될 수 있다. 예를 들어, 내시경의 그래픽 표현이 하나 이상의 이미지 패널을 통해 스크린(56) 상에 렌더링된 바와 같은 환자의 부비동-비강 해부학적 구조물의 하나 이상의 가상 뷰에 중첩되거나 달리 통합될 수 있다. 이는 의사(54)에게 내시경의 실시간 위치가 비강 내에 어디에 있는지의 더 우수한 감각을 제공하여서, 내시경 그것 자체에 의해 제공되고 있는 내시경 뷰에 대한 더 우수한 맥락을 제공할 수 있다. 몇몇 다른 버전에서, 내시경은 감지 코일(100) 또는 다른 센서가 없어서, 교수 이미지를 제시하는 소프트웨어가 내시경의 실시간 위치설정을 묘사하거나 달리 고려하지 않는다.
유사하게, ENT 시술은 전술된 바와 같이 감지 코일(100) 또는 다른 센서를 포함하는 하나 이상의 기구를 사용하여 수행될 수 있다. 그러한 경우에, 감지 코일(100) 또는 다른 센서로부터의 위치설정 데이터가 단계(602)에 나타난 바와 같이 수술 계획과 함께 처리될 수 있다. 감지 코일(100) 또는 다른 센서로부터의 위치설정 데이터는 또한 단계(406)에서 표시되는 교수 이미지 중 하나 이상에 통합될 수 있다. 예를 들어, ENT 기구의 그래픽 표현이 하나 이상의 이미지 패널을 통해 스크린(56) 상에 렌더링된 바와 같은 환자의 부비동-비강 해부학적 구조물의 하나 이상의 가상 뷰에 중첩되거나 달리 통합될 수 있다. 이는 의사(54)에게 ENT 기구의 실시간 위치가 비강 내에 어디에 있는지의 더 우수한 감각을 제공하여서, ENT 기구의 실제 내시경 뷰를 보완할 수 있다. 몇몇 다른 버전에서, ENT 시술은 감지 코일(100) 또는 다른 센서를 갖춘 임의의 ENT 기구 없이 수행되어, 교수 이미지를 제시하는 소프트웨어가 ENT 기구의 실시간 위치설정을 묘사하거나 달리 고려하지 않는다.
몇몇 버전은 의사(54)가 외과 시술 전에 그리고/또는 중에 교수 이미지를 조작하는 것을 가능하게 할 수 있다. 예를 들어, 소프트웨어는 의사(54)가 교수 이미지를 회전시키고, 패닝하고, 틸팅하고, 주밍하고, 분해하고, 단면을 취하고/취하거나 교수 이미지의 다른 조작을 수행하는 것을 가능하게 할 수 있다. 이는 의사(54)가 의료 시술의 주어진 단계에서 기구에 대한 정확한 위치설정, 배향, 및 이동 방향의 더 우수한 감각을 얻는 것을 가능하게 할 수 있다. 단지 예로서, 의사(54)는 마우스, 트랙패드, 키보드, 조이스틱, 터치스크린 등과 같은 다양한 종류의 입력 장치를 사용하여 교수 이미지를 조작할 수 있다. 추가적으로 또는 대안적으로, 몇몇 버전은 의사(54)가 음성 입력 장치를 사용하여 교수 이미지를 조작하는 것을 가능하게 할 수 있다(단계(604)). 이는 의사의 양손을 전체 ENT 시술 중에 내시경 및 다른 ENT 기구를 파지하고 조작하기에 자유롭게 유지할 수 있다. 음성 명령 능력이 통합될 수 있는 다양한 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
단계(600, 602, 604)로부터의 데이터/명령이 교수 이미지에 영향을 미치는 데 사용되는지 여부 및 사용되는 방법에 상관없이, 교수 이미지가 다수의 상이한 형태를 취할 수 있는 것이 이해되어야 한다. 위에 언급된 바와 같이, 단계(406)에서 표시되는 교수 이미지는 하나 이상의 이미지 패널을 통해 스크린(56) 상에 렌더링될 수 있다. 바꾸어 말하면, 수개의 교수 이미지가 의사(54)에게 동시에 제시될 수 있다. 수개의 교수 이미지가 의사(54)에게 동시에 제시될 때, 그들 수개의 교수 이미지는 서로 상이한 뷰를 제공할 수 있다. 교수 이미지가 취할 수 있는 형태의 다양한 예가 도 9의 블록(606, 608, 610, 612, 614)을 참조하여 그리고 또한 도 10 내지 도 13c를 참조하여 더 상세히 후술된다. 도 9의 블록(606, 608, 610, 612, 614)을 참조하여 그리고 또한 도 10 내지 도 13c를 참조하여 후술되는 뷰 중 임의의 것 또는 모두가 의사(54)에게 동시에 제시될 수 있다. 하기의 예는 단지 예시적인 것임이 이해되어야 한다. 추가의 예와 변형이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
단지 예로서, ENT 기구 중 하나가 감지 코일(100) 또는 다른 센서를 포함하는 버전에서, 교수 이미지 중 하나 이상이 블록(606)에 나타난 바와 같이 ENT 기구의 팁의 위치의 실시간 3평면(triplanar) CT 슬라이스의 뷰를 제공할 수 있다. 교수 이미지가 감지 코일(100) 또는 다른 센서를 구비하는 기구의 실시간 위치설정을 묘사할 수 있는 다양한 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
또한 도 9에 나타난 바와 같이, 교수 이미지 중 하나가 계획된 ENT 시술 단계, 기구 경로 및 배향, 및 해부학적 구조물의 표시를 포함할 수 있다(블록(608)). 그러한 뷰의 추가의 예가 도 10 내지 도 13c를 참조하여 더 상세히 후술될 것이다.
또한, 위에 언급된 바와 같이, 스크린(56) 상의 이미지 패널 중 하나가 실제 내시경으로부터 비강의 실제 내시경 뷰를 제공할 수 있으며(블록(610)), 이때 내시경 뷰는 하나 이상의 교수 이미지에 인접하게 제공된다.
다른 단지 예시적인 예로서, ENT 기구 중 하나가 감지 코일(100) 또는 다른 센서를 포함하는 버전에서, 교수 이미지 중 하나 이상이 블록(612)에 나타난 바와 같이 ENT 기구의 팁의 위치를 보여주는 실시간 3차원 모델 렌더링을 제공할 수 있다. 몇몇 그러한 버전에서, 해부학적 구조물의 시각적 표현은 해부학적 구조물의 시각적 표현이 ENT 기구의 시각적 표현의 뷰를 불명료하게 하는 것을 방지하기 위해 반투명하게 나타내어진다. 이러한 뷰는 색-식별 해부학적 구조물 세그먼트화 및/또는 상이한 해부학적 구조물들 사이의 구별을 용이하게 하는 다른 시각적 특징부를 추가로 포함할 수 있다.
실제 내시경으로부터 비강의 실제 내시경 뷰를 제공하는 버전에서, 그러한 실제 내시경 뷰는 실제 내시경 뷰에 중첩되거나 달리 통합되는 소프트웨어 생성 시각적 특징부를 추가로 포함할 수 있다. 예를 들어, 소프트웨어는 뷰의 내시경 시야 내에 있는 부비동 유출로(및/또는 다른 눈에 띄는 해부학적 구조물)의 강조를 중첩할 수 있다(블록(614)). 그러한 향상된 내시경 뷰(블록(614))는 비-향상된 내시경 뷰(블록(610))와 조합되어 또는 그것 대신에 제공될 수 있다.
도 10은 단계(406)에서 표시될 수 있는 교수 이미지 중 하나의 예를 도시한다. 특히, 도 10은 환자(22)의 비강 내의 해부학적 구조물의 상부 축방향 단면도를 도시한다. 특히, 도 10은 비중격(NS), 중비갑개(MT), 구상 돌기(UP), 및 사골포(EB)를 도시한다. 이러한 도면이 도 7에 나타난 과정의 단계(400) 또는 도 8에 나타난 과정의 단계(500)에서 획득되었던 두개골 이미지(들)로부터 생성되었을 것이 이해되어야 한다. 도 10의 도면은 또한 기구를 상악동 소공(MSO) 내로 삽입하기 위한 경로를 지시하는 한 세트의 화살표(700)를 포함한다. 몇몇 버전에서, 화살표(700)는 모두 동시에 그리고 정적으로 제시된다. 몇몇 다른 버전에서, 화살표(700)는 상악동 소공(MSO)으로의 경로의 방향을 강조하기 위해 애니메이션화된다. 또 다른 버전에서, 단일 화살표(700)가 사용되며, 이때 단일 화살표의 스템(stem)이 상악동 소공(MSO)으로의 구불구불한 경로를 따라 구부러진다. 단면도가 상악동 소공(MSO) 또는 비강과 관련된 다른 해부학적 구조물을 향한 경로를 묘사할 수 있는 다른 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다. 기구 경로가 어떻게 3차원을 횡단하는지의 더 우수한 감각을 의사(54)에게 제공하기 위해 수개의 상이한 단면도(예컨대, 상이한 평면을 따른)가 동시에 제시될 수 있는 것이 또한 이해되어야 한다.
도 11은 단계(406)에서 표시될 수 있는 교수 이미지 중 다른 교수 이미지의 예를 도시한다. 특히, 도 11은 그것의 시선이 환자(22)의 중비도를 향해 배향되는 내시경의 관점에서 가이드 카테터의 그래픽 표현(800)과 가이드와이어의 그래픽 표현(810)을 보여주는 가상 내시경 뷰를 제시한다. 따라서, 이러한 뷰는 비중격(NS), 중비갑개(MT), 사골포(EB), 및 구상 돌기(UP)의 그래픽 표현에 관하여 그래픽 표현(800)의 위치와 배향을 보여준다. 이러한 뷰에는 그래픽 표현(800)에 의해 표현되는 가이드 카테터가 어떻게 해부학적 구조물에 대해 위치되어야 하는지의 더 우수한 감각을 의사에게 제공하기 위해 3차원 관점이 제공된다.
도 11에 도시된 예에서, 교수 이미지는 가이드와이어를 상악동 소공 내로 삽입하는 방법을 보여주고 있다. 동일한 기구와 해부학적 구조물의 실제 내시경 뷰에서, 가이드와이어와 가이드 카테터의 원위 단부는 구상 돌기(UP)에 의해 시각적으로 가려질 것이다. 따라서, 교수 이미지는 그래픽 표현(810)과 그래픽 표현(800)의 원위 단부(804)를 반투명한 형태로 묘사함과 동시에; 그래픽 표현(800)의 근위 단부(902)를 불투명한 형태로 묘사한다. 구상 돌기(UP)는 본 예에서 불투명한 형태로 묘사된다. 다른 예시적인 변형에서, 구상 돌기(UP)는 반투명한 형태로 묘사된다. 그러한 버전에서, 그래픽 표현(810)과 그래픽 표현(800)의 원위 단부(804)는 불투명한 형태로 묘사될 수 있다. 교수 이미지가 해부학적 구조물에 의한 기구의 가려짐을 처리할 수 있는 다른 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
몇몇 버전에서, 도 11의 교수 이미지는 간단히 정지 이미지로서 제시된다. 몇몇 다른 버전에서, 도 11의 교수 이미지는 애니메이션으로서 제공된다. 예를 들어, 교수 이미지는 간단히 해부학적 구조물을 보여줌으로써 시작될 수 있다. 교수 이미지는 이어서 도 11에 도시된 위치로 이동되는 그래픽 표현(800)의 애니메이션을 보여줄 수 있다. 교수 이미지는 이어서 도 11에 도시된 위치로 이동되는 그래픽 표현(810)의 애니메이션을 보여줄 수 있다. 도 11의 교수 이미지가 애니메이션화될 수 있는 다른 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
몇몇 버전에서, 도 11의 가상 내시경 뷰는 동일한 해부학적 구조물의 실제 내시경 뷰에 인접하게 나타나서, 의사(54)가 양쪽 이미지를 함께 관찰하고 실제 내시경 뷰가 가상 내시경 뷰와 정합하는 방식으로 실제 가이드 카테터를 이동시킬 수 있다. 내시경이 감지 코일(100) 또는 다른 센서를 포함하는 버전에서, 가상 내시경 뷰는 가상 내시경 뷰에 대한 시선이 실제 내시경 뷰에 대한 시선과 정합함(또는 적어도 근사함)을 보장하기 위해 실시간으로 업데이트될 수 있다.
가이드 카테터 및/또는 가이드와이어가 감지 코일(100) 또는 다른 센서를 포함하는 버전에서, 도 11의 가상 내시경 뷰는 실제 가이드 카테터 및/또는 실제 가이드와이어의 중첩된 그래픽 표현을 추가로 포함할 수 있다. 이들 중첩된 그래픽 표현은 실시간으로 업데이트될 수 있다. 이는 의사(54)가 실제 가이드 카테터의 실제 위치설정을 그래픽 표현(800)과; 그리고 실제 가이드와이어의 실제 위치설정을 그래픽 표현(810)과 직접 상관시키는 것을 가능하게 할 수 있다. 따라서, 의사(54)는 실제 가이드 카테터와 가이드와이어의 중첩된 표현이 대응하는 그래픽 표현(800, 810)과 중첩할 때까지 실제 가이드 카테터와 가이드와이어를 이동시킬 수 있다. 몇몇 그러한 버전에서, 실제 가이드 카테터와 실제 가이드와이어의 중첩된 그래픽 표현은 반투명한 형태로 제공되는 반면; 그래픽 표현(800, 810)은 불투명한 형태로 제공된다. 몇몇 다른 버전에서, 실제 가이드 카테터와 실제 가이드와이어의 중첩된 그래픽 표현은 불투명한 형태로 제공되는 반면; 그래픽 표현(800, 810)은 반투명한 형태로 제공된다. 하나 이상의 기구의 실제 위치설정이 하나 이상의 기구의 의도된 위치설정과 동일한 도면에 실시간으로 표시될 수 있는 다른 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다. 시스템(20)이 외과 시술 중에 기구 중 하나 이상의 위치설정과 이동을 추적하고 있는 몇몇 버전에서, 시스템(20)은 의사(54)가 수술 계획 또는 지시로부터 허용할 수 없게 벗어났을 때를 지시하기 위해 가청 경고 및/또는 시각적 경고를 의사(54)에게 제공할 수 있다. 시스템(20)은 또한 의사(54)가 수술 계획으로 정상으로 돌아가기 위해 무엇을 해야 하는지에 관한 추가의 지시를 제공할 수 있다.
도 11에 도시된 뷰의 다른 단지 예시적인 변형으로서, 이러한 뷰는 향상된 실제 내시경 이미지로서 제공될 수 있다. 예를 들어, 뷰는 가이드 카테터의 실제 묘사를 포함할 수 있지만, 가이드 카테터가 어떻게 배향되고 이동되어야 하는지를 의사(54)에게 지시하기 위해 하나 이상의 화살표 및/또는 다른 방향 지시기를 가이드 카테터의 실제 묘사 상에 또는 그것 부근에 중첩시킬 수 있다.
도 12는 단계(406)에서 표시될 수 있는 교수 이미지 중 다른 교수 이미지의 예를 도시한다. 특히, 도 12는 그것의 시선이 환자(22)의 중비도를 향해 배향되는 내시경의 관점에서 3차원 안내 화살표(900)를 보여주는 가상 내시경 뷰를 제시한다. 따라서, 이러한 뷰는 비중격(NS), 중비갑개(MT), 사골포(EB), 및 구상 돌기(UP)의 그래픽 표현에 관하여 안내 화살표(900)의 위치와 배향을 보여준다.
안내 화살표(900)의 3차원 구성은 구상 돌기(UP)를 우회하여서 상악동 소공(MSO)에 도달하기 위해 가이드 카테터와 가이드와이어의 경로가 어떻게 중비도의 3차원 공간을 횡단하여야 하는지의 감각을 의사에게 제공한다. 특히, 안내 화살표(900)는 근위 면(proximal face)(904)을 제시하는 근위 부분(902); 및 원추형 팁(908)을 제시하는 원위 부분(906)을 포함한다. 면(904)과 팁(908)의 포함과 구성은 화살표(900)가 기구 경로를, 2차원 화살표가 할 수 있을 것보다 더 효과적으로 3차원 공간을 통해 시각적으로 전달할 수 있게 한다. 또한, 안내 화살표(900)가 구상 돌기(UP)에 대해 바깥쪽에 있는 공간을 횡단하기 때문에, 교수 이미지는 안내 화살표(906)의 원위 단부(906)를 반투명한 형태로 묘사함과 동시에; 안내 화살표(906)의 근위 단부(902)를 불투명한 형태로 묘사한다. 구상 돌기(UP)는 본 예에서 불투명한 형태로 묘사된다. 다른 예시적인 변형에서, 구상 돌기(UP)는 반투명한 형태로 묘사된다. 그러한 버전에서, 안내 화살표(900)의 원위 단부(906)는 불투명한 형태로 묘사될 수 있다. 교수 이미지가 해부학적 구조물에 의한 기구 경로의 가려짐을 처리할 수 있는 다른 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
도 13a 내지 도 13c는 단계(406)에서 표시될 수 있는 교수 이미지 중 다른 교수 이미지를 통해 묘사될 수 있는 연속물을 도시한다. 특히, 도 13a 내지 도 13c는 그것의 시선이 환자(22)의 중비도를 향해 배향되는 내시경의 관점에서 애니메이션화된 안내 화살표(950)를 보여주는 가상 내시경 뷰를 제시한다. 따라서, 이러한 뷰는 비중격(NS), 중비갑개(MT), 사골포(EB), 및 구상 돌기(UP)의 그래픽 표현에 관하여 기구에 의해 횡단될 경로의 이동 표현을 보여준다. 의사(54)가 기구에 대한 적절한 경로를 결정하기 위해 안내 화살표(950)의 이동을 관찰할 수 있도록, 교수 이미지가 도 13a의 뷰, 이어서 도 13b의 뷰, 이어서 도 13c의 뷰의 시퀀스를 통해 반복하여 순환할 수 있는 것이 이해되어야 한다. 도 13a에 도시된 바와 같이, 안내 화살표(950)는 중실형(solid)이다. 그러나, 도 13b와 도 13c에서, 안내 화살표(950)는 중실형이 아니다. 중실형으로부터 비-중실형으로의 이러한 전이는 경로가 구상 돌기(UP)를 우회하여 상악동 소공(MSO)에 도달함을 지시한다. 해부학적 구조물 뒤에서의 애니메이션화된 안내 화살표(950)의 이동이 묘사될 수 있는 다른 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
전술한 것에 더하여 또는 그것에 대해 대안적으로, 교수 이미지는 기구가 어떻게 이동되거나 달리 조작되어야 하는지를 지시하는 텍스트 주석을 포함할 수 있다. 추가적으로 또는 대안적으로, 교수 이미지는 시술의 다양한 단계에서 기구를 보여주는 인접 패널들의 시퀀스를 포함할 수 있어서, 의사(54)가 이미지 패널을 연속하여 관찰함으로써 기구에 대한 적절한 경로를 결정할 수 있다. 추가적으로 또는 대안적으로, 교수 이미지는 기구가 어떻게 이동되거나 달리 조작되어야 하는지를 보여주기 위해 기구의 애니메이션을 포함할 수 있다. 또 다른 단지 예시적인 예로서, 스크린(56)이 교수 이미지 옆에 텍스트 지시의 목록을 표시할 수 있으며, 이때 텍스트 지시는 기구를 환자(22) 내에서 조작할 곳과 방법에 관한 단계별 지시를 의사(54)에게 제공한다. 교수 이미지가 기구가 따를 경로를 지시할 수 있는 또 다른 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다. 시각적 지시가 저장된 오디오 파일로부터 생성되는 자동화된 음성 지시로 대체되거나 보완될 수 있으며, 이때 오디오가 스피커, 이어피스(earpiece), 또는 의사가(54)가 들을 수 있는 어떤 다른 장치를 통해 재생되는 것이 또한 이해되어야 한다.
사용되는 기구에 대한 원하는 위치설정, 배향, 및 이동 방향을 지시하는 것에 더하여, 교수 이미지가 의사(54)에게 공간적인 맥락을 제공하는 데 도움을 줄 수 있는 소정의 해부학적 랜드마크를 호출할 수 있는 것이 또한 이해되어야 한다. 예를 들어, 교수 이미지는 중비갑개(MT)의 위치를 지시하기 위한 텍스트와 화살표, 구상 돌기(UP)를 지시하기 위한 텍스트와 화살표, 부비동 소공 또는 다른 통로를 지시하기 위한 텍스트와 화살표 등을 포함할 수 있다. 교수 이미지가 하나 이상의 해부학적 랜드마크를 시각적으로 지시할 수 있는 다양한 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다. 유사하게, 교수 이미지에서 지시하는 데 유용할 수 있는 다양한 해부학적 랜드마크가 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
몇몇 버전에서, 교수 계획은 선택된 ENT 시술의 수개의 시술 이정표(procedural milestone)를 식별하고 교수 이미지를 업데이트하기 위해 그들 이정표의 완료에 의존할 수 있다. 예를 들어, 부비동성형술 시술에 대해, 프로세서(40)는 우선 환자(22)의 비강 내의 가이드 카테터의 적절한 배치를 묘사하는 하나 이상의 교수 이미지를 제공할 수 있다. 가이드 카테터의 적절한 배치는 제1 이정표의 완료를 나타낼 수 있어서, 프로세서(40)가 이어서 가이드 카테터가 적절히 배치된 후에 가이드와이어의 적절한 배치를 묘사하는 교수 이미지의 다음 세트를 제공할 수 있다. 가이드와이어의 적절한 배치는 제2 이정표의 완료를 나타낼 수 있어서, 프로세서(40)가 이어서 가이드와이어가 적절히 배치된 후에 확장 카테터의 적절한 배치를 묘사하는 교수 이미지의 다음 세트를 제공할 수 있다. 확장 카테터의 적절한 배치는 제3 이정표의 완료를 나타낼 수 있어서, 프로세서(40)가 이어서 확장 카테터가 적절히 배치된 후에 확장 카테터 상의 확장기의 확대를 묘사하는 교수 이미지의 다음 세트를 제공할 수 있다. 부비동성형술 시술에 대한 후속 및 다른 이정표가 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다. 유사하게, 프로세서(40)가 주어진 외과 시술 내에서 시술 이정표의 완료에 반응할 수 있는 다른 적합한 방식이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다. 프로세서(40)는 감지 코일(100)로부터의 위치설정 데이터에 기초하여, 의사(54)로부터의 입력에 기초하여, 그리고/또는 임의의 다른 적합한 입력(들)에 기초하여 이정표가 완료되었다고 결정할 수 있다.
전술한 예 중 몇몇이 (예컨대, 하나 이상의 감지 코일(100)을 사용한) 기구의 위치설정의 실시간 추적을 포함하지만, 그러한 추적이 모든 버전에서 요구되지는 않는 것이 이해되어야 한다. 몇몇 버전은 간단히 기구 위치 또는 이동의 임의의 종류의 추적을 수행함이 없이 교수 이미지를 제공할 수 있다. 그러한 버전에서, 프로세서(40)는 의사(54)로부터의 입력에 응답하여 교수 이미지의 시퀀스를 통해 진행할 수 있다(예컨대, 이정표의 완료를 지시함 등). 또한, 일단 수술 계획이 생성되었으면(예컨대, 도 7 내지 도 9의 단계(406)에 따라), ENT 시술은 시스템(20)이 심지어 존재하지 않고서도 수행될 수 있다. 예를 들어, 교수 이미지는 간단히 종래의 PC 또는 다른 컴퓨팅 장치를 사용하여 종래의 모니터 또는 스크린을 통해 제시될 수 있다.
상기한 바로부터, 전술된 바와 같은 교수 이미지의 사용이 의사(54)가 ENT 시술을 더 안전하게 그리고 더 효율적으로 수행하는 것을 가능하게 할 수 있는 것이 이해되어야 한다. 특히, 교수 이미지는 ENT 시술의 시작 시에 환자(22)의 부비동-비강 해부학적 구조물을 와이어 또는 다른 프로빙(probing) 기구로 프로빙할 필요를 없애거나 최소화할 수 있다. 이러한 프로빙할 필요를 없애거나 최소화하는 것은 환자(22)의 비강 내의 해부학적 구조물에 대한 불필요한 외상을 방지하고 더 신속한 수술을 제공할 수 있다.
D. 예시적인 시스템 배열
도 14는 전술된 바와 같은 수술 계획을 생성하고 일련의 교수 이미지를 사전설정하는 데 사용될 수 있는 예시적인 시스템(1000)의 구성요소를 도시한다. 시스템(1000)이 도 1에 도시된 콘솔(100)에 통합될 수 있는 것이 이해되어야 한다. 대안적으로, 시스템(1000)은 별개의 하드웨어를 통해 제공될 수 있다. 도시된 바와 같이, 본 예의 시스템(1000)은 중앙 처리 장치(CPU)(1012), 메모리(514), 운영 체제(516) 및 통신 인터페이스(I/O)(518)를 포함한다. CPU(512)는 종래의 하나 이상의 단일 또는 다중 코어 CPU를 포함할 수 있다. 하나 이상의 드라이버(520)가 장치(도시되지 않음)와, 그 장치가 연결되는 버스(522) 또는 통신 서브시스템을 통해 통신한다. 그러한 드라이버는 사용자 모드 또는 커널 모드(kernel mode)로 실행될 수 있다. CPU(512)는 외부 하드웨어 장치와 조정하기 위해 운영 체제(516), 애플리케이션(524), 및 드라이버(520)를 수반하여, 제어 로직을 실행한다.
메모리(514)는 시스템(510)의 다른 구성요소에 명령을 송신하기 위해 CPU(512)에 의해 사용되는 명령 버퍼(command buffer)(526)를 포함할 수 있다. 본 예의 메모리(514)는 프로세스 목록(528) 및 다른 프로세스 정보, 예를 들어 프로세스 제어 블록(530)을 포함한다. 메모리(514)에의 접근은 메모리(514)에 결합된 메모리 컨트롤러(532)에 의해 관리될 수 있다. 예를 들어, 메모리 컨트롤러(532)는 메모리(514)에의 접근을 위한 CPU(512) 및/또는 다른 장치로부터의 요청을 관리할 수 있다.
본 예의 시스템(510)은 메모리 관리가 요구되는 다른 장치 및 기능과 함께 커널의 맥락에서 또는 커널 밖에서 동작할 수 있는 메모리 관리 장치(MMU)(534)를 추가로 포함한다. MMU(1034)는 그러한 동작을 메모리 페이지 액세스(memory page access)를 위한 가상-물리 주소 변환(virtual-to-physical address translation)으로서 수행하기 위한 로직을 포함한다. 변환 색인 버퍼(TLB)(536)가 메모리 변환을 가속화하기 위해 제공될 수 있다. MMU(534) 및 시스템(510)의 다른 구성요소의 동작은 인터럽트 컨트롤러(interrupt controller)(538)에 의해 생성되는 인터럽트를 생성할 수 있다. 그러한 인터럽트는 인터럽트 핸들러(interrupt handler)에 의해 처리될 수 있는데, 예를 들어 운영 체제(516)에 의해 또는 소프트웨어 스케줄러(SWS)(540)에 의해 중재될 수 있다. 물론, 시스템(1000)의 전술한 구성요소 및 배열은 단지 그저 예시적인 예이다. 시스템(1000)을 형성하는 데 사용될 수 있는 다른 적합한 구성요소 및 배열이 본 명세서의 교시를 고려하여 당업자에게 명백할 것이다.
III. 예시적인 조합
하기의 예는 본 명세서의 교시들이 조합되거나 적용될 수 있는 다양한 비-포괄적인 방식에 관련된다. 하기의 예는 본 출원에서 또는 본 출원의 후속 출원에서 언제라도 제시될 수 있는 임의의 청구항의 범위(coverage)를 제한하도록 의도되지 않는다는 것이 이해되어야 한다. 권리 포기(disclaimer)가 의도되지 않는다. 하기의 예는 단지 예시적인 것에 불과한 목적으로 제공되고 있다. 본 명세서의 다양한 교시가 다수의 다른 방식으로 배열되고 적용될 수 있다는 것이 고려된다. 몇몇 변형은 하기의 예에 언급되는 소정의 특징을 생략할 수 있다는 것이 또한 고려된다. 따라서, 하기에 언급되는 태양들 또는 특징들 중 어느 것도, 본 발명자에 의해 또는 본 발명자와 이해관계에 있는 계승자에 의해 나중에 불가결한 것으로 달리 명시적으로 지시되지 않는 한, 불가결한 것으로 간주되어서는 안된다. 하기에 언급되는 것을 넘어서는 추가의 특징을 포함하는 임의의 청구항이 본 출원에서 또는 본 출원에 관련된 후속 출원에서 제시되는 경우, 그 추가의 특징은 특허성에 관한 임의의 이유로 추가되었다고 간주되지 않아야 한다.
예 1
(a) 이미지 데이터를 수신하는 단계로서, 이미지 데이터는 환자의 비강 내의 해부학적 구조물들과 관련되고, 이미지 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 이미지 데이터 수신 단계; (b) 외과 시술 데이터를 수신하는 단계로서, 외과 시술 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 외과 시술 데이터 수신 단계; 및
(c) 수술 계획을 생성하는 단계로서, 수술 계획을 생성하는 행위는 컴퓨팅 시스템을 통해 수행되고, 수술 계획을 생성하는 행위는, (i) 이미지 데이터에 따라 그리고 외과 시술 데이터에 따라 외과 기구를 위한 경로를 식별하는 단계, 및 (ii) 환자의 비강 내의 해부학적 구조물들의 묘사에서 외과 기구를 위한 식별된 경로를 묘사하는 하나 이상의 교수 이미지들을 생성하는 단계를 포함하는, 상기 수술 계획 생성 단계를 포함하는, 방법.
예 2
예 1에 있어서, 이미지 데이터는 복수의 CT 이미지들로부터의 데이터를 포함하는, 방법.
예 3
예 1 및 예 2 중 임의의 하나 이상에 있어서, 환자의 비강 내의 해부학적 구조물들의 3차원 이미지를 생성하도록 이미지 데이터를 처리하는 단계를 추가로 포함하는, 방법.
예 4
예 1 내지 예 3 중 임의의 하나 이상에 있어서, 하나 이상의 교수 이미지들은 환자의 비강 내의 해부학적 구조물들의 3차원 이미지를 포함하는, 방법.
예 5
예 4에 있어서, 하나 이상의 교수 이미지들은 환자의 비강 내의 해부학적 구조물들의 3차원 이미지에서 식별된 외과 기구 경로를 지시하는 3차원 화살표를 추가로 포함하는, 방법.
예 6
예 1 내지 예 5 중 임의의 하나 이상에 있어서, 외과 시술 데이터를 수신하는 행위는 외과 시술의 선택을 지시하는 입력을 수신하는 단계를 포함하는, 방법.
예 7
예 6에 있어서, 외과 시술 데이터를 수신하는 행위는 외과 시술의 선택을 지시하는 수신된 입력에 따라 데이터베이스에서 외과 데이터를 검색하는 단계를 추가로 포함하는, 방법.
예 8
예 1 내지 예 7 중 임의의 하나 이상에 있어서, 외과 시술 데이터를 수신하는 행위는 하나 이상의 교수 이미지들 중 적어도 하나에서 환자의 비강 내의 하나 이상의 해부학적 구조물들에 대한 투명도 수준의 선택을 수신하는 단계를 포함하는, 방법.
예 9
예 1 내지 예 8 중 임의의 하나 이상에 있어서, 외과 시술 데이터를 수신하는 행위는 하나 이상의 교수 이미지들 중 적어도 하나에 묘사될 시야의 선택을 수신하는 단계를 포함하는, 방법.
예 10
예 1 내지 예 8 중 임의의 하나 이상에 있어서, 외과 시술 데이터를 수신하는 행위는 환자의 비강 내의 하나 이상의 해부학적 구조물들에 대한 외과 기구를 위한 경로를 지시하는 입력을 수신하는 단계를 포함하는, 방법.
예 11
예 1 내지 예 10 중 임의의 하나 이상에 있어서, 수신된 이미지 데이터에 부비동-비강 구조 인식 알고리즘을 적용하는 단계를 추가로 포함하는, 방법.
예 12
예 1 내지 예 11 중 임의의 하나 이상에 있어서, 환자의 적어도 하나의 부비동과 관련된 유출로를 강조하도록 이미지 데이터를 조작하는 단계를 추가로 포함하는, 방법.
예 13
예 1 내지 예 12 중 임의의 하나 이상에 있어서, (a) 환자의 비강 내로 삽입된 내시경으로부터 내시경 비디오 이미지를 수신하는 단계; 및 (b) 내시경 비디오 이미지를 제시함과 동시에 하나 이상의 교수 이미지들을 제시하는 단계를 추가로 포함하는, 방법.
예 14
예 13에 있어서, 하나 이상의 교수 이미지들과 내시경 비디오 이미지는 단일 디스플레이 스크린을 통해 동시에 제시되는, 방법.
예 15
예 14에 있어서, 하나 이상의 교수 이미지들과 내시경 비디오 이미지는 동일 디스플레이 스크린의 별개의 이미지 패널들을 통해 동시에 제시되는, 방법.
예 16
예 13에 있어서, 내시경 비디오 이미지를 제시함과 동시에 하나 이상의 교수 이미지들을 제시하는 행위는, 내시경 비디오 이미지 상에 기구 경로 지시기(instrument path indicator)를 중첩시키는 단계를 포함하는, 방법.
예 17
예 1 내지 예 16 중 임의의 하나 이상에 있어서, (a) 외과 기구의 위치 센서로부터 위치 데이터를 수신하는 단계; 및 (b) 외과 기구의 계획된 위치설정에 관하여 외과 기구의 실제 위치설정을 묘사하기 위해 위치 데이터를 하나 이상의 교수 이미지들에 통합하는 단계로서, 외과 기구의 계획된 위치설정은 식별된 경로에 기초하는, 상기 통합 단계를 추가로 포함하는, 방법.
예 18
예 1 내지 예 17 중 임의의 하나 이상에 있어서, 하나 이상의 교수 이미지들 중 적어도 하나는 비디오 이미지를 포함하는, 방법.
예 19
(a) 이미지 데이터를 수신하는 단계로서, 이미지 데이터는 환자의 비강 내의 해부학적 구조물들과 관련되고, 이미지 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 이미지 데이터 수신 단계; (b) 외과 시술 데이터를 수신하는 단계로서, 외과 시술 데이터는 컴퓨팅 시스템을 통해 수신되는, 외과 시술 데이터 수신 단계; 및 (c) 이미지 데이터에 따라 그리고 외과 시술 데이터에 따라 외과 기구를 위한 경로를 식별하는 적어도 하나의 교수 이미지를 생성하는 단계로서, 적어도 하나의 교수 이미지를 생성하는 행위는 컴퓨팅 시스템을 통해 수행되는, 상기 적어도 하나의 교수 이미지 생성 단계를 포함하며, 적어도 하나의 교수 이미지는 환자의 비강 내의 해부학적 구조물들의 묘사에서 식별된 경로에 따라 위치되고 배향된 외과 기구의 표현을 포함하는, 방법.
예 20
(a) 이미지 데이터를 수신하는 단계로서, 이미지 데이터는 환자의 비강 내의 해부학적 구조물들과 관련되고, 이미지 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 이미지 데이터 수신 단계; (b) 외과 시술 데이터를 수신하는 단계로서, 외과 시술 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 외과 시술 데이터 수신 단계; 및 (c) 이미지 데이터에 따라 그리고 외과 시술 데이터에 따라 외과 기구를 위한 경로를 식별하는 적어도 하나의 교수 이미지를 생성하는 단계로서, 적어도 하나의 교수 이미지를 생성하는 행위는 컴퓨팅 시스템을 통해 수행되는, 상기 적어도 하나의 교수 이미지 생성 단계를 포함하며, 적어도 하나의 교수 이미지는 환자의 비강 내의 해부학적 구조물들의 묘사에서 식별된 경로를 따른 외과 기구의 이동 표현을 보여주는, 방법.
IV. 기타
본 명세서에 기술된 예들 중 임의의 것이 상기에 기술된 특징들에 더하여 또는 그 대신에 다양한 다른 특징을 포함할 수 있음이 이해되어야 한다. 단지 예로서, 본 명세서에 기술된 예들 중 임의의 것이 또한 본 명세서에 참고로 포함되는 다양한 참고 문헌들 중 임의의 것에 개시된 다양한 특징들 중 하나 이상을 포함할 수 있다.
본 명세서에 기술된 교시, 표현, 실시예, 예 등 중 임의의 하나 이상이 본 명세서에 기술된 다른 교시, 표현, 실시예, 예 등 중 임의의 하나 이상과 조합될 수 있다는 것이 이해되어야 한다. 따라서, 전술된 교시, 표현, 실시예, 예 등은 서로에 대해 별개로 고려되어서는 안된다. 본 명세서의 교시들이 조합될 수 있는 다양한 적합한 방식을, 본 명세서의 교시를 고려하여 당업자가 손쉽게 알 수 있을 것이다. 그러한 변형 및 변경은 청구범위의 범주 내에 포함되는 것으로 의도된다.
전체적으로 또는 부분적으로, 본 명세서에 참고로 포함되는 것으로 언급된 임의의 특허, 간행물, 또는 다른 개시 자료가, 포함되는 자료가 본 개시에 기재된 기존의 정의, 서술, 또는 다른 개시 자료와 상충되지 않는 범위에서만, 본 명세서에 포함된다는 것이 인식되어야 한다. 그렇기 때문에, 그리고 필요한 범위에서, 본 명세서에 명시적으로 기재된 바와 같은 개시 내용은 본 명세서에 참고로 포함되는 임의의 상충되는 자료를 대체한다. 본 명세서에 참고로 포함되는 것으로 언급되지만 본 명세서에 기재된 기존의 정의, 서술, 또는 다른 개시 자료와 상충하는 임의의 자료 또는 그것의 부분은 포함되는 자료와 기존의 개시 자료 사이에 충돌이 일어나지 않는 범위에서만 포함될 것이다.
본 명세서에 개시된 장치의 버전은 일회 사용 후에 폐기되도록 설계될 수 있거나, 그것은 다수회 사용되도록 설계될 수 있다. 버전은, 어느 한 경우에 또는 둘 모두의 경우에, 적어도 일회 사용 후에 재사용을 위해 원상회복될 수 있다. 원상회복은 장치의 분해 단계에 이은 특정 피스의 세정 또는 교체 단계와 후속 재조립 단계의 임의의 조합을 포함할 수 있다. 특히, 장치의 버전은 분해될 수 있고, 장치의 임의의 개수의 특정 피스 또는 부품이 임의의 조합으로 선택적으로 교체되거나 제거될 수 있다. 특정 부품의 세정 및/또는 교체 시에, 장치의 버전은 원상회복 설비에서, 또는 외과 시술 직전에 수술 팀에 의해 후속 사용을 위해 재조립될 수 있다. 당업자는 장치의 원상회복이 분해, 세정/교체, 및 재조립을 위한 다양한 기술을 이용할 수 있음을 인식할 것이다. 그러한 기술의 사용, 및 얻어진 원상회복된 장치는 모두 본 출원의 범주 내에 있다.
단지 예로서, 본 명세서에 기술된 버전은 수술 전에 처리될 수 있다. 먼저, 새로운 또는 사용된 기구가 입수되고 필요할 경우 세정될 수 있다. 기구는 이어서 소독될 수 있다. 하나의 소독 기술에서, 기구는 폐쇄 및 밀봉된 용기, 예를 들어 플라스틱 또는 타이벡(TYVEK) 백 내에 놓인다. 이어서, 용기 및 기구가 감마 방사선, x-선, 또는 고-에너지 전자와 같은, 용기에 침투할 수 있는 방사선의 영역 내에 놓일 수 있다. 방사선은 기구 상의 그리고 용기 내의 세균을 죽일 수 있다. 소독된 기구는 이어서 소독 용기 내에 보관될 수 있다. 밀봉된 용기는 그것이 외과 설비에서 개봉될 때까지 기구를 소독된 상태로 유지할 수 있다. 장치는 또한 베타 또는 감마 방사선, 에틸렌 옥사이드, 또는 증기를 포함하지만 이로 제한되지 않는, 당업계에 알려진 임의의 다른 기술을 사용하여 소독될 수 있다.
본 발명의 다양한 버전을 도시하고 기술하였지만, 본 명세서에 기술된 방법 및 시스템의 추가의 개조가 본 발명의 범주로부터 벗어남이 없이 당업자에 의한 적절한 변경에 의해 성취될 수 있다. 그러한 잠재적인 변경들 중 몇몇이 언급되었고, 그 밖의 것들이 당업자에게 명백할 것이다. 예를 들어, 상기에 논의된 예, 버전, 기하학적 구조, 재료, 치수, 비(ratio), 단계 등은 예시적인 것이며, 필수적인 것이 아니다. 따라서, 본 발명의 범주는 하기의 청구범위의 관점에서 고려되어야 하며, 명세서 및 도면에 도시 및 기술된 구조 및 동작의 상세사항으로 제한되지 않는 것으로 이해된다.

Claims (20)

  1. (a) 이미지 데이터를 수신하는 단계로서, 상기 이미지 데이터는 환자의 비강 내의 해부학적 구조물들과 관련되고, 상기 이미지 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 이미지 데이터 수신 단계;
    (b) 외과 시술 데이터를 수신하는 단계로서, 상기 외과 시술 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 외과 시술 데이터 수신 단계; 및
    (c) 수술 계획을 생성하는 단계로서, 상기 수술 계획을 생성하는 행위는 컴퓨팅 시스템을 통해 수행되고, 상기 수술 계획을 생성하는 행위는,
    (i) 상기 이미지 데이터에 따라 그리고 상기 외과 시술 데이터에 따라 외과 기구를 위한 경로를 식별하는 단계, 및
    (ii) 상기 환자의 상기 비강 내의 해부학적 구조물들의 묘사에서 상기 외과 기구를 위한 상기 식별된 경로를 묘사하는 하나 이상의 교수 이미지(instructional image)들을 생성하는 단계를 포함하는, 상기 수술 계획 생성 단계
    를 포함하는, 방법.
  2. 제1항에 있어서, 상기 이미지 데이터는 복수의 CT 이미지들로부터의 데이터를 포함하는, 방법.
  3. 제1항에 있어서, 상기 환자의 상기 비강 내의 해부학적 구조물들의 3차원 이미지를 생성하도록 상기 이미지 데이터를 처리하는 단계를 추가로 포함하는, 방법.
  4. 제1항에 있어서, 상기 하나 이상의 교수 이미지들은 상기 환자의 상기 비강 내의 해부학적 구조물들의 3차원 이미지를 포함하는, 방법.
  5. 제4항에 있어서, 상기 하나 이상의 교수 이미지들은 상기 환자의 상기 비강 내의 해부학적 구조물들의 상기 3차원 이미지에서 상기 식별된 외과 기구 경로를 지시하는 3차원 화살표를 추가로 포함하는, 방법.
  6. 제1항에 있어서, 상기 외과 시술 데이터를 수신하는 행위는 외과 시술의 선택을 지시하는 입력을 수신하는 단계를 포함하는, 방법.
  7. 제6항에 있어서, 상기 외과 시술 데이터를 수신하는 행위는 외과 시술의 선택을 지시하는 상기 수신된 입력에 따라 데이터베이스에서 외과 데이터를 검색하는 단계를 추가로 포함하는, 방법.
  8. 제1항에 있어서, 상기 외과 시술 데이터를 수신하는 행위는 상기 하나 이상의 교수 이미지들 중 적어도 하나에서 상기 환자의 상기 비강 내의 하나 이상의 해부학적 구조물들에 대한 투명도 수준의 선택을 수신하는 단계를 포함하는, 방법.
  9. 제1항에 있어서, 상기 외과 시술 데이터를 수신하는 행위는 상기 하나 이상의 교수 이미지들 중 적어도 하나에 묘사될 시야의 선택을 수신하는 단계를 포함하는, 방법.
  10. 제1항에 있어서, 상기 외과 시술 데이터를 수신하는 행위는 상기 환자의 상기 비강 내의 하나 이상의 해부학적 구조물들에 대한 외과 기구를 위한 경로를 지시하는 입력을 수신하는 단계를 포함하는, 방법.
  11. 제1항에 있어서, 상기 수신된 이미지 데이터에 부비동-비강 구조 인식 알고리즘(sino-nasal structure recognition algorithm)을 적용하는 단계를 추가로 포함하는, 방법.
  12. 제1항에 있어서, 상기 환자의 적어도 하나의 부비동과 관련된 유출로(outflow tract)를 강조하도록 상기 이미지 데이터를 조작하는 단계를 추가로 포함하는, 방법.
  13. 제1항에 있어서,
    (a) 상기 환자의 상기 비강 내로 삽입된 내시경으로부터 내시경 비디오 이미지를 수신하는 단계; 및
    (b) 상기 내시경 비디오 이미지를 제시함과 동시에 상기 하나 이상의 교수 이미지들을 제시하는 단계
    를 추가로 포함하는, 방법.
  14. 제13항에 있어서, 상기 하나 이상의 교수 이미지들과 상기 내시경 비디오 이미지는 단일 디스플레이 스크린을 통해 동시에 제시되는, 방법.
  15. 제14항에 있어서, 상기 하나 이상의 교수 이미지들과 상기 내시경 비디오 이미지는 동일 디스플레이 스크린의 별개의 이미지 패널들을 통해 동시에 제시되는, 방법.
  16. 제13항에 있어서, 상기 내시경 비디오 이미지를 제시함과 동시에 상기 하나 이상의 교수 이미지들을 제시하는 행위는, 상기 내시경 비디오 이미지 상에 기구 경로 지시기(instrument path indicator)를 중첩시키는 단계를 포함하는, 방법.
  17. 제1항에 있어서,
    (a) 외과 기구의 위치 센서로부터 위치 데이터를 수신하는 단계; 및
    (b) 상기 외과 기구의 계획된 위치설정에 관하여 상기 외과 기구의 실제 위치설정을 묘사하기 위해 상기 위치 데이터를 상기 하나 이상의 교수 이미지들에 통합하는 단계로서, 상기 외과 기구의 상기 계획된 위치설정은 상기 식별된 경로에 기초하는, 상기 통합 단계
    를 추가로 포함하는, 방법.
  18. 제1항에 있어서, 상기 하나 이상의 교수 이미지들 중 적어도 하나는 비디오 이미지를 포함하는, 방법.
  19. (a) 이미지 데이터를 수신하는 단계로서, 상기 이미지 데이터는 환자의 비강 내의 해부학적 구조물들과 관련되고, 상기 이미지 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 이미지 데이터 수신 단계;
    (b) 외과 시술 데이터를 수신하는 단계로서, 상기 외과 시술 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 외과 시술 데이터 수신 단계; 및
    (c) 상기 이미지 데이터에 따라 그리고 상기 외과 시술 데이터에 따라 외과 기구를 위한 경로를 식별하는 적어도 하나의 교수 이미지를 생성하는 단계로서, 상기 적어도 하나의 교수 이미지를 생성하는 행위는 컴퓨팅 시스템을 통해 수행되는, 상기 적어도 하나의 교수 이미지 생성 단계
    를 포함하며,
    상기 적어도 하나의 교수 이미지는 상기 환자의 상기 비강 내의 해부학적 구조물들의 묘사에서 상기 식별된 경로에 따라 위치되고 배향된 외과 기구의 표현을 포함하는, 방법.
  20. (a) 이미지 데이터를 수신하는 단계로서, 상기 이미지 데이터는 환자의 비강 내의 해부학적 구조물들과 관련되고, 상기 이미지 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 이미지 데이터 수신 단계;
    (b) 외과 시술 데이터를 수신하는 단계로서, 상기 외과 시술 데이터는 컴퓨팅 시스템을 통해 수신되는, 상기 외과 시술 데이터 수신 단계; 및
    (c) 상기 이미지 데이터에 따라 그리고 상기 외과 시술 데이터에 따라 외과 기구를 위한 경로를 식별하는 적어도 하나의 교수 이미지를 생성하는 단계로서, 상기 적어도 하나의 교수 이미지를 생성하는 행위는 컴퓨팅 시스템을 통해 수행되는, 상기 적어도 하나의 교수 이미지 생성 단계
    를 포함하며,
    상기 적어도 하나의 교수 이미지는 상기 환자의 상기 비강 내의 해부학적 구조물들의 묘사에서 상기 식별된 경로를 따른 외과 기구의 이동 표현을 보여주는, 방법.
KR1020177003227A 2014-07-09 2015-07-08 부비동성형술을 위한 가이드와이어 조종 KR20170034393A (ko)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201462022607P 2014-07-09 2014-07-09
US62/022,607 2014-07-09
US201462052391P 2014-09-18 2014-09-18
US62/052,391 2014-09-18
US14/792,839 2015-07-07
US14/792,839 US10463242B2 (en) 2014-07-09 2015-07-07 Guidewire navigation for sinuplasty
PCT/US2015/039506 WO2016007595A1 (en) 2014-07-09 2015-07-08 Guidewire navigation for sinuplasty

Publications (1)

Publication Number Publication Date
KR20170034393A true KR20170034393A (ko) 2017-03-28

Family

ID=53783918

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020177003227A KR20170034393A (ko) 2014-07-09 2015-07-08 부비동성형술을 위한 가이드와이어 조종

Country Status (9)

Country Link
US (1) US10463242B2 (ko)
EP (1) EP3166679A1 (ko)
JP (2) JP2017529116A (ko)
KR (1) KR20170034393A (ko)
CN (1) CN106535745B (ko)
AU (1) AU2015287961B2 (ko)
CA (1) CA2954342A1 (ko)
IL (1) IL249785B (ko)
WO (1) WO2016007595A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3646810A1 (en) * 2018-11-02 2020-05-06 Biosense Webster (Israel) Ltd. Magnetic transmitters for a magnetic tracking system

Families Citing this family (112)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011078212B4 (de) 2011-06-28 2017-06-29 Scopis Gmbh Verfahren und Vorrichtung zum Darstellen eines Objektes
US20160022171A1 (en) * 2012-03-03 2016-01-28 China Medical University Image guiding device for brain surgery
DE102013001181A1 (de) * 2013-01-24 2014-07-24 Dräger Medical GmbH Gasanalyse-, Beatmungs- oder Anästhesiegerät mit Bedienungsführung
DE102013211055B3 (de) 2013-06-13 2014-09-18 Scopis Gmbh Adapter zur Aufnahme eines medizintechnischen Geräts sowie eines Lageerfassungssystems
US11260208B2 (en) 2018-06-08 2022-03-01 Acclarent, Inc. Dilation catheter with removable bulb tip
GB2524955A (en) * 2014-04-01 2015-10-14 Scopis Gmbh Method for cell envelope segmentation and visualisation
US10463242B2 (en) * 2014-07-09 2019-11-05 Acclarent, Inc. Guidewire navigation for sinuplasty
GB201501157D0 (en) * 2015-01-23 2015-03-11 Scopis Gmbh Instrument guidance system for sinus surgery
US10322269B1 (en) 2015-01-19 2019-06-18 Dalent, LLC Dilator device
US10779891B2 (en) 2015-10-30 2020-09-22 Acclarent, Inc. System and method for navigation of surgical instruments
AU2017221893A1 (en) * 2016-09-08 2018-03-22 Biosense Webster (Israel) Ltd. Ent image registration
US11986252B2 (en) 2017-08-10 2024-05-21 Biosense Webster (Israel) Ltd. ENT image registration
US11058446B2 (en) * 2016-09-14 2021-07-13 Biosense Webster (Israel) Ltd. ENT tool antenna
US20180085174A1 (en) 2016-09-23 2018-03-29 Acclarent, Inc. Suction device for use in image-guided sinus medical procedure
US20180098816A1 (en) * 2016-10-06 2018-04-12 Biosense Webster (Israel) Ltd. Pre-Operative Registration of Anatomical Images with a Position-Tracking System Using Ultrasound
US10485609B2 (en) 2016-10-18 2019-11-26 Acclarent, Inc. Dilation balloon with RF energy delivery feature
US10631935B2 (en) * 2016-10-25 2020-04-28 Biosense Webster (Israel) Ltd. Head registration using a personalized gripper
US20180140361A1 (en) * 2016-11-23 2018-05-24 Pradeep K. Sinha Navigation system for sinuplasty device
US11653853B2 (en) * 2016-11-29 2023-05-23 Biosense Webster (Israel) Ltd. Visualization of distances to walls of anatomical cavities
US10510171B2 (en) 2016-11-29 2019-12-17 Biosense Webster (Israel) Ltd. Visualization of anatomical cavities
US10610308B2 (en) 2017-02-01 2020-04-07 Acclarent, Inc. Navigation guidewire with interlocked coils
US20180214217A1 (en) 2017-02-01 2018-08-02 Jephrey S. Rodriguez Surgical instrument with navigation wire interface features
US20180264237A1 (en) 2017-03-20 2018-09-20 Acclarent, Inc. Navigation guidewire with shielded sensor coil
US20180280046A1 (en) * 2017-03-30 2018-10-04 Acclarent, Inc. Guidewire with optics tube containing core wire
US10799256B2 (en) * 2017-04-24 2020-10-13 Biosense Webster (Israel) Ltd. Mapping of nasal passages before and after a procedure
US11026747B2 (en) * 2017-04-25 2021-06-08 Biosense Webster (Israel) Ltd. Endoscopic view of invasive procedures in narrow passages
US10561370B2 (en) 2017-04-26 2020-02-18 Accalrent, Inc. Apparatus to secure field generating device to chair
US11612437B2 (en) * 2017-05-10 2023-03-28 Biosense Webster (Israel) Ltd. Location pad with improved immunity to interference
US11253677B2 (en) 2017-05-31 2022-02-22 Acclarent, Inc. Navigable suction instrument with coaxial annular sensor
US11027105B2 (en) 2017-07-13 2021-06-08 Biosense Webster (Israel) Ltd. Adjustable instrument for dilation of anatomical passageway
US10898272B2 (en) 2017-08-08 2021-01-26 Biosense Webster (Israel) Ltd. Visualizing navigation of a medical device in a patient organ using a dummy device and a physical 3D model
US20190060618A1 (en) 2017-08-25 2019-02-28 Acclarent, Inc. Core wire assembly for guidewire
US10835327B2 (en) 2017-09-05 2020-11-17 Acclarent, Inc. Sensor guided instrument with penetrating feature
US10973603B2 (en) 2017-09-08 2021-04-13 Acclarent, Inc. Dilation system with illuminating orientation indicator features
US11278706B2 (en) 2017-09-08 2022-03-22 Acclarent, Inc. Guidewire assembly with intertwined core wire
US10736647B2 (en) 2017-10-30 2020-08-11 Acclarent, Inc. Dilation catheter with navigation sensor and vent passageway in tip
US10857333B2 (en) 2017-11-27 2020-12-08 Acclarent, Inc. Guidewire with integral expandable dilator
US10639105B2 (en) * 2017-11-29 2020-05-05 Canon Medical Systems Corporation Navigation apparatus and method
US10864046B2 (en) 2017-12-04 2020-12-15 Acclarent, Inc. Dilation instrument with navigation and distally located force sensor
US20190167151A1 (en) * 2017-12-05 2019-06-06 Acclarent, Inc. System and method for tracking patient movement during guided medical procedure
US10959785B2 (en) 2017-12-12 2021-03-30 Acclarent, Inc. Tissue shaving instrument with navigation sensor
US20190184142A1 (en) 2017-12-14 2019-06-20 Acclarent, Inc. Guidewire assembly with offset core wires
US10888382B2 (en) 2017-12-14 2021-01-12 Acclarent, Inc. Mounted patient tracking component for surgical navigation system
US10786311B2 (en) 2017-12-22 2020-09-29 Acclarent, Inc. Apparatus and method for registering facial landmarks for surgical navigation system
US20190192176A1 (en) 2017-12-22 2019-06-27 Acclarent, Inc. Dilation instrument with guide catheter type sensor
US20190192177A1 (en) 2017-12-22 2019-06-27 Acclarent, Inc. Reusable navigation guidewire
US11058497B2 (en) * 2017-12-26 2021-07-13 Biosense Webster (Israel) Ltd. Use of augmented reality to assist navigation during medical procedures
US11116420B2 (en) * 2017-12-26 2021-09-14 Biosense Webster (Israel) Ltd. Monitoring distance to selected anatomical structures during a procedure
US11103266B2 (en) 2017-12-28 2021-08-31 Acclarent, Inc. Medical instrument with integral navigation control features
US20190262512A1 (en) 2018-02-27 2019-08-29 Acclarent, Inc. Medical Instrument with Self-Collapsing Channel
US11272946B2 (en) 2018-03-09 2022-03-15 Acclarent, Inc. Fluid fitting for dilation instrument
US20190282306A1 (en) 2018-03-16 2019-09-19 Acclarent, Inc. Navigation instrument with obliquely oriented sensing coil
US20190282305A1 (en) 2018-03-16 2019-09-19 Acclarent, Inc. Navigation sleeve for medical instrument
US11462319B2 (en) * 2018-03-20 2022-10-04 3M Innovative Properties Company Sterilization process management
US11832890B2 (en) 2018-04-17 2023-12-05 Acclarent, Inc. Curette with navigation sensor
US11103256B2 (en) 2018-05-21 2021-08-31 Acclarent, Inc. Shaver with blood vessel and nerve monitoring features
US20190374129A1 (en) 2018-06-07 2019-12-12 Acclarent, Inc. Endoscope with integral navigation sensor
US11622805B2 (en) 2018-06-08 2023-04-11 Acclarent, Inc. Apparatus and method for performing vidian neurectomy procedure
US11147629B2 (en) 2018-06-08 2021-10-19 Acclarent, Inc. Surgical navigation system with automatically driven endoscope
US20190388117A1 (en) 2018-06-20 2019-12-26 Acclarent, Inc. Surgical shaver with feature to detect window state
US20190388157A1 (en) 2018-06-21 2019-12-26 Acclarent, Inc. Surgical navigation system with pattern recognition for fail-safe tissue removal
US11033721B2 (en) * 2018-06-22 2021-06-15 Acclarent, Inc. Guidewire for dilating eustachian tube via middle ear
US20200054243A1 (en) 2018-08-17 2020-02-20 Acclarent, Inc. Endoscope with anatomy elevation assembly
US11457981B2 (en) 2018-10-04 2022-10-04 Acclarent, Inc. Computerized tomography (CT) image correction using position and direction (P andD) tracking assisted optical visualization
US11883618B2 (en) 2018-10-05 2024-01-30 Acclarent, Inc. Dilation catheter tip removal instrument
US20200107726A1 (en) 2018-10-05 2020-04-09 Acclarent, Inc. Suction instrument with dissecting tip and axially offset sensors
US11602619B2 (en) 2018-10-05 2023-03-14 Biosense Webster (Israel) Ltd. Coupling assembly for variable diameter surgical instrument
WO2020070628A1 (en) 2018-10-05 2020-04-09 Acclarent, Inc. Hollow tube surgical instrument with single axis sensor
US11839729B2 (en) 2018-10-05 2023-12-12 Acclarent, Inc. Dilation instrument with malleable guide and dilation catheter with integral position sensor
US11204677B2 (en) 2018-10-22 2021-12-21 Acclarent, Inc. Method for real time update of fly-through camera placement
US11686043B2 (en) 2018-11-05 2023-06-27 Acclarent, Inc. Pull wire with coated fibers
US11484366B2 (en) 2018-11-29 2022-11-01 Acclarent, Inc. Adapter assembly to enable navigation for ENT instruments
US20200170659A1 (en) 2018-12-04 2020-06-04 Acclarent, Inc. Bi-directional articulating surgical shaver
US11583393B2 (en) 2018-12-05 2023-02-21 Acclarent, Inc. Apparatus and method to maintain patency of dilated anatomical opening
US11481909B2 (en) * 2018-12-06 2022-10-25 Biosense Webster (Israel) Ltd. Method and apparatus for performing facial registration
US11998284B2 (en) 2018-12-07 2024-06-04 Acclarent, Inc. Articulating guide with integral position sensor
US11826068B2 (en) 2018-12-10 2023-11-28 Acclarent, Inc. Method of forming suction instrument end and shaver instrument end
US11439420B2 (en) 2018-12-11 2022-09-13 Acclarent, Inc. Nasal suction instrument with interchangeable tip insert
US11395906B2 (en) 2018-12-12 2022-07-26 Acclarent, Inc. Combined sinuplasty and seeker instrument with navigation and illumination modalities
US11419623B2 (en) 2018-12-12 2022-08-23 Acclarent, Inc. Sinuplasty instrument with moveable navigation sensor
US11744646B2 (en) 2018-12-12 2023-09-05 Acclarent, Inc. Registration probe for image guided surgery system
US11514576B2 (en) 2018-12-14 2022-11-29 Acclarent, Inc. Surgical system with combination of sensor-based navigation and endoscopy
US11576662B2 (en) 2018-12-14 2023-02-14 Acclarent, Inc. Posterior nasal packing with integrated sensor as patient tracker
US11547493B2 (en) 2018-12-17 2023-01-10 Acclarent, Inc. Connector to couple surgical instrument with navigation system
US11633083B2 (en) 2018-12-20 2023-04-25 Acclarent, Inc. 3D scanning of nasal tract with deflectable endoscope
US10955657B2 (en) 2018-12-20 2021-03-23 Acclarent, Inc. Endoscope with dual image sensors
US11273293B2 (en) 2018-12-21 2022-03-15 Acclarent, Inc. Sinuplasty instrument with deflectable guide rail
CN113613576A (zh) * 2019-01-31 2021-11-05 直观外科手术操作公司 用于促进外科手术器械***到外科手术空间中的***和方法
US12011213B2 (en) 2019-03-29 2024-06-18 Acclarent, Inc. System and method for treating epistaxis
US11712548B2 (en) 2019-03-29 2023-08-01 Acclarent, Inc. Eustachian tube dilation catheter with depth indicia
US20200305982A1 (en) 2019-03-29 2020-10-01 Acclarent, Inc. Apparatus and method for measuring depth of bit in ent drill
US10867436B2 (en) * 2019-04-18 2020-12-15 Zebra Medical Vision Ltd. Systems and methods for reconstruction of 3D anatomical images from 2D anatomical images
US20210121238A1 (en) 2019-10-24 2021-04-29 Acclarent, Inc. Visualization system and method for ent procedures
US20210177523A1 (en) 2019-12-16 2021-06-17 Acclarent, Inc. Low profile ent probe with distal shaft length and rigidity adjustment
US11944758B2 (en) 2019-12-16 2024-04-02 Acclarent, Inc. Atraumatic tip assembly for guidewire
US20210275255A1 (en) * 2020-03-09 2021-09-09 Biosense Webster (Israel) Ltd. Finding roll angle of distal end of deflectable or non-deflectable invasive medical instrument
US20210315636A1 (en) 2020-04-09 2021-10-14 Acclarent, Inc. User interface for image guided surgery system
WO2021229363A1 (en) 2020-05-12 2021-11-18 Acclarent, Inc. Malleable suction instrument with offset position sensor
CN111729178B (zh) * 2020-07-02 2022-04-29 南通市第一人民医院 一种乳腺术后固定装置
US12016612B2 (en) 2020-08-19 2024-06-25 Acclarent, Inc. ENT ablation instrument with electrode loop
US20220061922A1 (en) 2020-08-25 2022-03-03 Acclarent, Inc. Apparatus and method for posterior nasal nerve ablation
US20220087739A1 (en) 2020-09-18 2022-03-24 Acclarent, Inc. Ent instrument with expandable ablation feature
US11999065B2 (en) 2020-10-30 2024-06-04 Mako Surgical Corp. Robotic surgical system with motorized movement to a starting pose for a registration or calibration routine
IL305163A (en) 2021-02-18 2023-10-01 Biosense Webster Israel Ltd Assembling a flexible sensor for an AEG tool.
WO2022214953A1 (en) 2021-04-06 2022-10-13 Acclarent, Inc. Ent instrument with rf electrodes on wire frame
US20220370143A1 (en) 2021-05-20 2022-11-24 Acclarent, Inc. Registration probe for enhanced information capture
WO2023119022A1 (en) 2021-12-21 2023-06-29 Acclarent, Inc. Ent instrument with deformable guide having translatable imaging feature
WO2023131878A1 (en) * 2022-01-05 2023-07-13 Libra Science Ltd. Automatic guiding for human performance of a medical procedure
WO2023144668A1 (en) 2022-01-27 2023-08-03 Acclarent, Inc. Customized patient tracker for image guided surgery
WO2023187511A2 (en) 2022-03-31 2023-10-05 Acclarent, Inc. Ent guide shaft with deflectable tip and distal endoscope cap
WO2023194970A1 (en) 2022-04-08 2023-10-12 Acclarent, Inc. Intranasal balloon compression for treatment of chronic rhinitis
WO2024150063A1 (en) 2023-01-12 2024-07-18 Acclarent, Inc. Apparatus and method to determine endoscope roll orientation based on image analysis

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5829444A (en) * 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US6151404A (en) * 1995-06-01 2000-11-21 Medical Media Systems Anatomical visualization system
US6167296A (en) * 1996-06-28 2000-12-26 The Board Of Trustees Of The Leland Stanford Junior University Method for volumetric image navigation
US6016439A (en) * 1996-10-15 2000-01-18 Biosense, Inc. Method and apparatus for synthetic viewpoint imaging
US6346940B1 (en) * 1997-02-27 2002-02-12 Kabushiki Kaisha Toshiba Virtualized endoscope system
DE69805209T2 (de) * 1998-02-23 2002-11-28 Algotec Systems Ltd., Raanana System und methode zur automatischen wegplanung
EP1095628A3 (en) 1999-10-29 2001-05-16 Marconi Medical Systems, Inc. Planning minimally invasive procedures for in - vivo placement of objects
US7072501B2 (en) * 2000-11-22 2006-07-04 R2 Technology, Inc. Graphical user interface for display of anatomical information
US7822461B2 (en) * 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
US20070208252A1 (en) 2004-04-21 2007-09-06 Acclarent, Inc. Systems and methods for performing image guided procedures within the ear, nose, throat and paranasal sinuses
US8894614B2 (en) * 2004-04-21 2014-11-25 Acclarent, Inc. Devices, systems and methods useable for treating frontal sinusitis
US9554691B2 (en) 2004-04-21 2017-01-31 Acclarent, Inc. Endoscopic methods and devices for transnasal procedures
US20060063973A1 (en) 2004-04-21 2006-03-23 Acclarent, Inc. Methods and apparatus for treating disorders of the ear, nose and throat
US20110004057A1 (en) 2004-04-21 2011-01-06 Acclarent, Inc. Systems and methods for transnasal dilation of passageways in the ear, nose or throat
US7462175B2 (en) 2004-04-21 2008-12-09 Acclarent, Inc. Devices, systems and methods for treating disorders of the ear, nose and throat
US8702626B1 (en) 2004-04-21 2014-04-22 Acclarent, Inc. Guidewires for performing image guided procedures
US7720521B2 (en) * 2004-04-21 2010-05-18 Acclarent, Inc. Methods and devices for performing procedures within the ear, nose, throat and paranasal sinuses
JP4836122B2 (ja) * 2006-02-09 2011-12-14 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
US8190389B2 (en) 2006-05-17 2012-05-29 Acclarent, Inc. Adapter for attaching electromagnetic image guidance components to a medical device
US20080123910A1 (en) 2006-09-19 2008-05-29 Bracco Imaging Spa Method and system for providing accuracy evaluation of image guided surgery
US9037215B2 (en) * 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
EP2117436A4 (en) 2007-03-12 2011-03-02 David Tolkowsky DEVICES AND METHODS FOR PERFORMING MEDICAL OPERATIONS IN ARBORESCENT LUMINUM STRUCTURES
US8239003B2 (en) 2007-04-16 2012-08-07 General Electric Company System and method of integrating electromagnetic microsensors in guidewires
US8320711B2 (en) 2007-12-05 2012-11-27 Biosense Webster, Inc. Anatomical modeling from a 3-D image and a surface mapping
US8663120B2 (en) * 2008-04-18 2014-03-04 Regents Of The University Of Minnesota Method and apparatus for mapping a structure
US20100030031A1 (en) * 2008-07-30 2010-02-04 Acclarent, Inc. Swing prism endoscope
CA2732769A1 (en) * 2008-07-30 2010-02-04 Acclarent, Inc. Paranasal ostium finder devices and methods
EP2348954A1 (en) 2008-10-20 2011-08-03 Koninklijke Philips Electronics N.V. Image-based localization method and system
US20100241155A1 (en) * 2009-03-20 2010-09-23 Acclarent, Inc. Guide system with suction
US20120063644A1 (en) * 2009-06-01 2012-03-15 Koninklijke Philips Electronics N.V. Distance-based position tracking method and system
JP5727474B2 (ja) * 2009-07-15 2015-06-03 コーニンクレッカ フィリップス エヌ ヴェ 手術軌道の可視化
US20110160740A1 (en) * 2009-12-28 2011-06-30 Acclarent, Inc. Tissue Removal in The Paranasal Sinus and Nasal Cavity
US9155492B2 (en) 2010-09-24 2015-10-13 Acclarent, Inc. Sinus illumination lightwire device
US8768029B2 (en) * 2010-10-20 2014-07-01 Medtronic Navigation, Inc. Selected image acquisition technique to optimize patient model construction
US8764683B2 (en) 2010-12-29 2014-07-01 Mediguide Ltd. Medical device guidewire with a position sensor
US9186081B2 (en) * 2010-12-30 2015-11-17 St. Jude Medical, Atrial Fibrillation Division, Inc. System and method for diagnosing arrhythmias and directing catheter therapies
WO2012131660A1 (en) * 2011-04-01 2012-10-04 Ecole Polytechnique Federale De Lausanne (Epfl) Robotic system for spinal and other surgeries
US10416624B2 (en) 2012-12-13 2019-09-17 University Of Washington Through Its Center For Commercialization Methods and systems for selecting surgical approaches
US11800991B2 (en) * 2013-08-15 2023-10-31 Intuitive Surgical Operations, Inc. Graphical user interface for catheter positioning and insertion
US10463242B2 (en) * 2014-07-09 2019-11-05 Acclarent, Inc. Guidewire navigation for sinuplasty
US10772489B2 (en) 2014-07-09 2020-09-15 Acclarent, Inc. Guidewire navigation for sinuplasty

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3646810A1 (en) * 2018-11-02 2020-05-06 Biosense Webster (Israel) Ltd. Magnetic transmitters for a magnetic tracking system
US10928465B2 (en) 2018-11-02 2021-02-23 Biosense Webster (Israel) Ltd. Magnetic transmitters for a magnetic tracking system

Also Published As

Publication number Publication date
AU2015287961B2 (en) 2019-07-18
IL249785A0 (en) 2017-02-28
AU2015287961A1 (en) 2017-01-19
CN106535745A (zh) 2017-03-22
IL249785B (en) 2020-05-31
CA2954342A1 (en) 2016-01-14
JP2021112588A (ja) 2021-08-05
US20160008083A1 (en) 2016-01-14
US10463242B2 (en) 2019-11-05
JP2017529116A (ja) 2017-10-05
CN106535745B (zh) 2021-09-21
EP3166679A1 (en) 2017-05-17
WO2016007595A1 (en) 2016-01-14

Similar Documents

Publication Publication Date Title
JP2021112588A (ja) 副鼻腔手術用のガイドワイヤ操縦法
CN113423358B (zh) 利用基于传感器的导航和内窥镜检查的组合的外科***
US11793389B2 (en) Intelligent display
US11800970B2 (en) Computerized tomography (CT) image correction using position and direction (P and D) tracking assisted optical visualization
JP6588076B2 (ja) 副鼻腔形成術(Sinuplasty)向けのガイドワイヤナビゲーション
CN112292062A (zh) 具有一体式导航传感器的内窥镜
US20230259248A1 (en) Method for real time update of fly-through camera placement
JP7439072B2 (ja) 可鍛性ガイド及び一体型位置センサを有する拡開カテーテルを備える拡開器具