KR101821520B1 - 수술 부위 내 프로브 위치를 판단하는 방법 및 시스템 - Google Patents

수술 부위 내 프로브 위치를 판단하는 방법 및 시스템 Download PDF

Info

Publication number
KR101821520B1
KR101821520B1 KR1020167036770A KR20167036770A KR101821520B1 KR 101821520 B1 KR101821520 B1 KR 101821520B1 KR 1020167036770 A KR1020167036770 A KR 1020167036770A KR 20167036770 A KR20167036770 A KR 20167036770A KR 101821520 B1 KR101821520 B1 KR 101821520B1
Authority
KR
South Korea
Prior art keywords
dimensional image
probe
correlation
surgical site
image
Prior art date
Application number
KR1020167036770A
Other languages
English (en)
Other versions
KR20170032238A (ko
Inventor
치 시아오 첸
쿠안 주 왕
Original Assignee
치 시아오 첸
쿠안 주 왕
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 치 시아오 첸, 쿠안 주 왕 filed Critical 치 시아오 첸
Publication of KR20170032238A publication Critical patent/KR20170032238A/ko
Application granted granted Critical
Publication of KR101821520B1 publication Critical patent/KR101821520B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3784Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument both receiver and transmitter being in the instrument or receiver being also transmitter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Abstract

복수의 기준 구조로 수술 부위 내 프로브의 위치를 판단하는 방법의 일 예는상기 프로브가 상기 수술 부위에 진입하기 전에 생성된 상기 수술 부위의 3차원 이미지를 수신하는 단계, 및 상기 수술 부위 내 위치에서 상기 프로브에 의해 생성된 제1의 2차원 이미지를 수신하는 단계를 포함할 수 있다. 상기 3차원 이미지는 제1 좌표계와 관련되고, 상기 제1의 2차원 이미지는 제2 좌표계와 관련된다. 상기 방법은 또한 허용 가능한 프로브 포즈 파라미터 세트를 얻기 위해 상기 제1의 2차원 이미지를 바탕으로 상기 복수의 기준 구조에 대한 등록을 획득하는 단계; 상기 허용 가능한 프로브 포즈 파라미터 세트를 바탕으로 상기 3차원 이미지에서 제2의 2차원 이미지를 추출하는 단계; 및 상기 제2 좌표계가 나타내는 상기 프로브의 위치를 상기 3차원 이미지에 대한 상기 제1 좌표계가 나타내는 위치에 매핑하기 위해 상기 제1의 2차원 이미지와 상기 추출된 제2의 2차원 이미지 간의 상관관계를 산출하는 단계를 포함한다.

Description

수술 부위 내 프로브 위치를 판단하는 방법 및 시스템{METHOD AND SYSTEM OF DETERMINING PROBE POSITION IN SURGICAL SITE}
본 발명은 안내 및 위치 추적(positioning) 시스템에 관한 것으로, 더 구체적으로는 외과 수술 중에 수술 부위 내 프로브(probe)의 위치를 판단하는 방법 및 시스템에 관한 것이다.
뇌종양, 파키슨 병 및 간질과 같은 흔한 뇌 질환은 환자의 삶의 질에 악영향을 줄 뿐만 아니라 때론 환자의 죽음에 직접적으로 기여할 수 있다. 외과적 수술 과정은 환자의 증상 완화에 실패한 약물 또는 물리 치료 등의 보존 요법(conservative treatment) 이후에 보통 이루어진다. 이러한 수술에서는, 뇌의 해부학적 구조 때문에, 외과의가 수술 도구를 조종하는 공간이 제한적이다.
오늘날 외과의는 뇌 수술을 수행하기 전의 수술 전 데이터에만 의존할 수 있는데, 외과 수술 중 뇌의 작은 움직임이나 입체정위 위치 추적 시스템(stereostactic positioning system)의 부적절한 조작 때문에 수술 부위의 위치 데이터가 종종 부정확해진다.
또한, 수술 전 데이터를 기반으로 수술 전에 계획된 경로는 환자의 위치 이동, 환자 상태의 변화 또는 수술 프로브 자체의 삽입 등과 같은 수 많은 요인 때문에 바뀔 수 있다. 수술 전에 계획된 경로로부터의 이러한 이탈은 종종 추가적인 합병증 또는 사망률의 증가로 이어진다.
본 발명의 일 실시 예에 따르면, 복수의 기준 구조로 수술 부위 내 프로브의 위치를 판단하는 방법이 제공된다. 이 방법은 상기 프로브가 수술 부위에 진입하기 전에 생성된 수술 부위의 3차원 이미지를 수신하는 단계, 및 수술 부위 내 위치에서 상기 프로브에 의해 생성된 제1의 2차원 이미지를 수신하는 단계를 포함한다. 상기 3차원 이미지는 제1 좌표계와 관련되고, 상기 제1의 2차원 이미지는 제2 좌표계와 관련된다. 상기 방법은 또한 허용 가능한 프로브 포즈 파라미터(probe pose parameters) 세트를 얻기 위해 상기 제1의 2차원 이미지를 바탕으로 상기 복수의 기준 구조에 대한 등록을 획득하는 단계; 상기 허용 가능한 프로브 포즈 파라미터 세트를 바탕으로 상기 3차원 이미지에서 제2의 2차원 이미지를 추출하는 단계; 및 상기 제2 좌표계가 나타내는 상기 프로브의 위치를 상기 3차원 이미지에 대한 상기 제1 좌표계가 나타내는 위치에 매핑하기 위해 상기 제1의 2차원 이미지와 상기 추출된 제2의 2차원 이미지 간의 상관관계를 산출하는 단계를 포함한다.
본 발명의 일 실시 예에 따르면, 컴퓨팅 장치에 의한 실행에 응답하여, 상기 컴퓨팅 장치로 하여금 수술 부위 내 프로브의 위치를 판단하도록 하는 명령어 세트를 포함하는 기계 독출 가능 매체가 제공된다. 이 방법은 상기 프로브가 수술 부위에 진입하기 전에 생성된 수술 부위의 3차원 이미지를 수신하는 단계, 및 수술 부위 내 위치에서 상기 프로브에 의해 생성된 제1의 2차원 이미지를 수신하는 단계를 포함한다. 상기 3차원 이미지는 제1 좌표계와 관련되고, 상기 제1의 2차원 이미지는 제2 좌표계와 관련된다. 상기 방법은 또한 허용 가능한 프로브 포즈 파라미터 세트를 얻기 위해 상기 제1의 2차원 이미지를 바탕으로 상기 복수의 기준 구조에 대한 등록을 획득하는 단계; 상기 허용 가능한 프로브 포즈 파라미터 세트를 바탕으로 상기 3차원 이미지에서 제2의 2차원 이미지를 추출하는 단계; 및 상기 제2 좌표계가 나타내는 상기 프로브의 위치를 상기 3차원 이미지에 대한 상기 제1 좌표계가 나타내는 위치에 매핑하기 위해 상기 제1의 2차원 이미지와 상기 추출된 제2의 2차원 이미지 간의 상관관계를 산출하는 단계를 포함한다.
본 발명의 일 실시 예에 따르면, 복수의 기준 구조로 수술 부위 내 프로브의 위치를 판단하도록 구성된 시스템이 제공된다. 이 시스템은 프로세서, 제1 표 및 제2 표, 및 메모리를 포함한다. 상기 메모리는 실행 가능한 명령어 세트를 포함하는데, 상기 실행 가능한 명령어 세트는, 상기 프로세서에 의한 실행에 응답하여, 상기 프로세서로 하여금, 허용 가능한 프로브 포즈 파라미터 세트를 얻기 위해 외과 수술 중에 상기 수술 부위 내 위치에서 상기 프로브에 의해 생성된 제1의 2차원 이미지, 및 상기 외과 수술 전에 상기 수술 부위의 3차원 이미지를 바탕으로 상기 복수의 기준 구조에 대한 등록을 획득하도록 하고, 여기서 상기 3차원 이미지는 제1 좌표계와 관련되고, 상기 제1의 2차원 이미지는 제2 좌표계와 관련되고, 상기 허용 가능한 파라미터 세트를 바탕으로 상기 3차원 이미지에서 제2의 2차원 이미지를 추출하도록 하고, 상기 제1 표를 사용해 상기 제1의 2차원 이미지에서 제1 세트의 픽셀을 선택하도록 하고, 상기 제1 표와 상기 제2 표를 사용해 상기 허용 가능한 프로브 포즈 파라미터 세트 중 하나를 바탕으로 상기 추출된 제2의 2차원 이미지에서 제2 세트의 픽셀을 선택하도록 하고, 상기 제2 좌표계가 나타내는 상기 프로브의 위치를 상기 3차원 이미지에 대한 상기 제1 좌표계가 나타내는 위치에 매핑하기 위해 상기 제1 세트의 픽셀과 상기 제2 세트의 픽셀 간의 상관관계를 산출하도록 한다.
앞서 요약된 내용은 단지 도시의 목적을 가지며, 한정의 목적을 갖지 않는다. 앞서 기술한 도시적 양상, 실시 예, 및 특징들을 비롯하여, 추가적인 양상, 실시 예, 및 특징들은 첨부된 도면 및 상세한 설명을 참조로 분명하게 이해될 것이다.
도 1은 수술 안내 및 위치 추적 시스템의 구성을 도시한 블록도이다.
도 2는 프로브상의 하나 이상의 센서의 배치 예를 개략적으로 보여주는 도면이다.
도 3은 외과 수술 수행 전의 환자의 머리의 3차원 이미지의 일 예를 보여준다.
도 4는 볼륨 이미지에서 2차원 이미지를 추출하는 것을 간략하게 도시한 블록도이다.
도 5는 외과 수술 중에 프로브의 위치를 판단하는 프로세스의 일 예를 도시한 흐름도이다.
도 6은 기준 구조에 대한 등록 획득 방법(600)의 일 예를 도시한 흐름도이다.
도 7은 CT 볼륨 이미지에서 추출된 슬라이스 이미지(slice image)상에, 초음파 이미지를 중첩하여 표시한 일 예를 보여준다.
도 8은 처리된 CT 볼륨 이미지에서 추출된 슬라이스 이미지상에, 필터링된 초음파 이미지를 중첩하여 표시한 일 예를 보여준다.
도 9는 다차원적 상관관계 평면(multi-dimensional correlation surface)을 산출하도록 구성된 표-기반 시스템의 일 예를 도시한 블록도이다.
도 10은 수술 부위에서 프로브의 위치를 판단하는 방법을 실행하는 컴퓨터 프로그램 제품을 본 발명에 기재된 적어도 일부 실시 예에 따라 배치한 것을 도시한 블록도이다.
이어지는 상세한 설명은 본 발명의 일부를 형성하는 첨부된 도면을 참조로 한다. 일반적으로 문맥 상 달리 지시하지 않는 한, 첨부된 도면에서의 유사한 도면 부호는 유사한 구성 요소를 나타낸다. 상세한 설명, 도면 및 청구항에 기재된 도시적 실시 예들은 한정적 목적을 갖지 않는다. 기타 실시 예들은 본 발명에 제시된 대상 물질의 사상 또는 범위 내에서 활용 및 변경될 수 있다. 본 발명에 기술되고 도면에 도시된 본 발명의 양상들은 다양한 다른 구성들로 배치, 대체, 조합, 및 설계될 수 있음을 쉽게 이해할 것이며, 이들 모두 본 발명에서 명시적으로 고려된다.
본 발명은 특히, 외과 수술 중에 수술 부위에서 프로브의 위치를 판단하는 것과 관련된 방법, 장치, 시스템들에 관한 것이다. 본 발명에서, "3차원 이미지" 및 "볼륨(volume) 이미지" 등의 용어는 상호 호환 가능하게 사용된다.
도 1은 본 발명의 일 실시 예에 따른, 수술 안내 및 위치 추적 시스템(100)의 구성을 도시한 블록도이다. 수술 안내(guiding) 및 위치 추적 시스템(100)은 글로벌 정보 장치(102), 국부 정보 장치(104), 컴퓨팅 장치(106), 모니터링 장치(108), 및 작동 장치(110)를 포함한다.
글로벌 정보 장치(102)는 외과 수술이 시작되기 전에, 뇌와 같은 수술 부위의 전반적인 정보를 수집할 수 있다. 일부 실시 예에 따르면, 이러한 전반적인 정보는 컴퓨터 단층촬영(CT), 자기 공명 영상 장치(MRI), 평면 스캔(surface scan), 엑스선 스캔, 초음파 스캔 등을 통해 얻을 수 있다. 외과의는, 수술 부위의 전반적인 정보(예를 들어, 두개내 해부학 구조, 표적 또는 병변 위치, 또는 평면 육안 표지)를 이용하여 외과 수술이 시작되기 전에 외과 수술 경로를 계획할 수 있다.
국부 정보 장치(104)의 일 실시 예는 프로브(112) 및 상기 프로브(112)상에 직접 배치된 적어도 하나의 센서(114)를 포함한다.
외과의는 또한 작동 장치(108)를 통해 프로브(112)를 제어할 수 있다. 작동 장치(108)의 일 실시 예는 외과의가 프로브(112)를 제어할 수 있도록 하는 로봇 암(116)을 포함할 수 있다.
외과 수술 중에, 프로브(112)상에 배치된 하나 이상의 센서(114)는 프로브(112) 자체 근처의 국부 데이터를 획득하도록 구성된다. 이렇게 해서 수집된 국부 데이터는, 글로벌 정보 장치(102)로부터의 글로벌 데이터와 함께, 컴퓨팅 장치(106)에 의해 처리될 수 있다.
일 실시 예에 따르면, 컴퓨팅 장치(106)는 수술 부위 내 프로브(112)의 위치 데이터를 글로벌 데이터와 관련하여 판단할 수 있다. 글로벌 데이터는 외과 수술이 시작되기 전에 획득되고, 국부 데이터는 외과 수술 중에 획득된다. 추가적인 세부 사항은 아래 단락들에서 제공된다.
모니터링 장치(110)의 일 실시 예는 디스플레이 장치(118)와 경고 장치(120)를 포함한다. 디스플레이 장치(118)는 외과 수술이 시작되기 전에 글로벌 정보 장치(102)로부터의 전술한 전반적인 정보를 바탕으로 3D 이미지를 디스플레이할 수 있다. 외과 수술 중에, 디스플레이 장치(118)는 컴퓨팅 장치(106)에 의해 계산된 위치 데이터를 바탕으로 3D 이미지상에 중첩한 프로브(112)의 실시간 위치를 디스플레이할 수 있다. 본 실시 예에 따르면, 외과의는 3D 이미지에 대한 프로브(112)의 실시간 위치를 학습하고, 이에 따라 외과 수술을 조정할 수 있다.
경고 장치(120)의 일 실시 예는 혈관이나 중요 부위가 근처에 있거나, 프로브(112)가 표적 위치 또는 위험 위치에 있거나, 프로브(112)가 계획된 수술 경로에서 이탈하는 경우 외과의에게 실시간 경고를 보낼 수 있다.
도 2는 본 발명의 일 실시 예에 따른, 도 1의 프로브(112) 등과 같은 프로브상에 배치한 하나 이상의 센서의 일 예를 개략적으로 보여준다. 프로브(112)의 일 실시 예는 수술 장치(202)를 감싸는 칼집(sheath)으로 구성될 수 있고, 수술 장치(202)는 그 내부에서 움직일 수 있다. 수술 장치(202)의 일부 예로는, 생검 바늘, 생검용 집게, 클램프, 레이저 섬유, 뇌압 모니터 카테터 등이 포함된다.
프로브(112)는 하나 이상의 센서(204)를 포함한다. 센서(204)의 일 예로 다양한 검출 범위를 갖는 초음파 변환기가 있다. 일 실시 예에 따르면, 프로브(112)는 프로브(112)의 둘레를 따라 45도씩 이격된 8개의 센서(204)를 포함할 수 있다. 각각의 센서(204)는 프로브(112)(예를 들어, w 축)를 포함하는 평면에 2차원(2D) 이미지(206)를 수집하고 생성하도록 구성될 수 있다. 일 실시 예에 따르면, 프로브(112)가 수집하고 생성하는 데이터는, 하나의 좌표계와 관련 있다(예를 들어, u, v, w, 여기서 w축은 프로브(112)의 축과 정렬됨).
일 실시 예에 따르면, 초음파 변환기는 변환기의 초음파 범위 내에 있는 조직 및/또는 해부학 부위로 초음파의 진동을 전송하도록 구성된다. 초음파는 조직 및/또는 해부학 부위로부터 반향(echo)을 일으킬 수 있고, 이때 조직 및 해부학 부위는 각각 다양한 수준의 소리를 반영한다. 반향(echo)은 2D 이미지(206)로 기록 및 표시된다. 뼈(bone)와 관련된 신호 강도는 연질의 뇌 조직과 관련된 신호 강도보다 일반적으로 강하기 때문에, 뼈 신호가 조직 신호를 압도하는 것을 방지하기 위해, 초음파 범위는, 생성된 초음파 이미지가 연질 뇌 조직과 관련된 정보를 더 많이 보여주도록 조정될 수 있다. 여기서, 연질 뇌 조직은 수술 부위 내 표적 조직 및 기타 중요 조직을 포함할 수 있다.
도 3은 외과 수술 수행 전에 환자의 머리의 3차원(3D) 이미지(300)의 일 예를 도시한 것이다. 도시의 편의를 위해, 3D 이미지(300)가 CT 이미지라고 가정한다. 외과의는 수술 전에, 먼저 뇌 속의 기타 조직 또는 구조에 대한 표적 부위의 위치를 평가하고 수술 경로를 계획할 수 있도록 3D 이미지(300)에 대한 오더를 내릴 수 있다. 3D 이미지(300)는, 3D 공간에서 그리드상의 값을 각각 나타내는 복셀(voxel)을 포함한다. 여기서, 복셀은 원점(origin, 302)과 함께 인지 가능한 입방체에 배열되는 것으로 도시된다.
일 실시 예에 따르면, 3D 이미지(300)는 하나의 좌표계(예를 들어, x, y, z)와 관련된다. 가령, 원점(302)이 좌표 (0, 0, 0) 인 상태에서, 동일 좌표계에서 3D 이미지(300) 내 복셀(304)의 좌표(예를 들어, X1, Y1, Z1)를 획득할 수 있다.
도 1과 도 2의 프로브(112)에 의해 하나의 좌표계(예를 들어, u, v, w) 내에 캡처 및 생성된 2D 이미지 데이터를 또 다른 좌표계(예를 들어, x, y, z) 내의 도 3에 도시된 3D 이미지 데이터의 어느 곳에 적절하게 배치할 수 있을지 판단하기 위한 접근 방법으로, 3D 이미지 데이터에서 2D 이미지 데이터를 추출하고, 추출된 2D 이미지를 프로브(112)에서 얻은 2D 이미지와 비교하는 방법이 있다. 도 4는 본 발명의 일 실시 예에 따른, 볼륨 이미지에서 2D 이미지를 추출하는 것을 개략적으로 도시한 블록도이다. 원점(402)을 포함한 2D 이미지(400)는 도 2의 2D 이미지(206)에 해당될 수 있다. 원점(406)을 포함한 볼륨 이미지(404)는 각각 도 3의 원점(302) 및 3D 이미지(300)에 해당될 수 있다.
앞서 논의된 바와 같이, 2D 이미지(400)는, 외과 수술 중에 수술 부위(예를 들어, 뇌)에서 도 1과 도 2의 프로브(112)가 특정 위치 및 배향에서 캡처 및 생성한 2D 이미지에 해당되고, 볼륨 이미지(404)는, 동일한 수술 부위의 외과 수술이 시작되기 전 3D 이미지에 해당되기 때문에, 2D 이미지(400)가 수집 및 생성된 프로브(112)의 위치 및 배향은 2D 이미지(408)를 추출할 수 있는 볼륨 이미지(404) 내 적절한 지점을 식별하는 것과 관련 있다. 간략한 설명을 위해, 원점(402)이 볼륨 이미지(404) 내 원점(410)에 매핑되도록 결정된 것으로 가정한다. 일 실시 예에 따르면, 도 4에 도시된 바와 같이, 2D 이미지(400)의 크기 및/또는 래스터 스캔 시퀀스(raster scan sequence)는 2D 이미지(408)를 추출하는데 사용될 수 있다. 가령, 볼륨 이미지(404) 내 복셀 위치들은, 2D 이미지(400)의 래스터 스캔에 대응되도록 위치될 수 있다. 일부 다른 실시 예에 따르면, 추출된 2D 이미지(408)의 픽셀이 대체로 볼륨 이미지(404)의 복셀과 정확히 정렬되지 않을 수 있기 때문에, 복셀로 표시된 데이터 지점들 사이에서 중간 지점들로의 보간(interpolating)을 통해 정정이 이루어질 수 있다.
추출된 2D 이미지(408)를 이용하여, 2D 이미지(400)와 2D 이미지(408)를 비교하여, 이 두 개의 이미지 사이에 높은 상관관계가 있는지 판단할 수 있다. 상관관계가 높으면, 2D 이미지(400)와 2D 이미지(408) 사이의 매핑이 충분히 정확하다는 높은 신뢰도를 갖게 된다. 매핑이 충분히 정확하면, 외과의는 프로브(112) 근처의 데이터를 평가할 수 있게 되는데, 이 데이터는 외과 수술이 수행됨에 따라 볼륨 이미지(404)에 비추어 본 계획된 수술 경로상의 데이터일 가능성이 높다. 따라서, 수술 부위 내 병진(translational) 및 회전 움직임을 비롯한 국부적 변형 및 조직 내 전단 왜곡(shear distortion) 등이 외과 수술 중에 추정 및 고려될 수 있다.
비록 2D 이미지(400)와 추출된 2D 이미지(408)가 정사각형과 같은 형태로 도시되어 있지만, 당업자라면 이러한 이미지가 실제로 실행 가능한 (도 2에 도시된 부채꼴 조각과 같은) 임의의 형태일 수 있음을 이해할 것이다.
도 5는 본 발명의 일 실시 예에 따른, 외과 수술 중에 프로브의 위치를 판단하는 방법(500)의 일 예를 도시한 흐름도이다. 이 프로세스(500)는 하드웨어, 소프트웨어 및/또는 펌웨어에 의해 수행될 수 있고 블록(510, 520, 530, 540, 550, 및/또는 560)으로 표시된 하나 이상의 동작, 기능, 또는 행동을 포함할 수 있다. 이러한 다양한 블록들은 기재된 실시 예들을 한정할 목적을 갖지 않는다. 가령, 발명에 기재된 프로세스 및 기타 프로세스 및 방법들에 있어서, 이러한 프로세스 및 방법들에서 수행된 기능이 다양한 순서로 실행될 수 있음을 당업자는 이해할 것이다. 또한, 여기서 개략적으로 기술된 단계 및 동작들은 단지 일 예로서 제공된 것으로, 기재된 실시 예의 본질에서 벗어나지 않는 범위 내에서 일부 단계 및 동작들은 선택적이고, 더 작은 수의 단계 및 동작들로 조합되거나, 부가적인 단계 및 동작들로 확장될 수도 있다. 비록 블록들이 순차적인 순서로 도시되었으나, 병렬적으로 수행될 수도 있고, 및/또는 본 발명에 기술된 것과는 다른 순서로 수행될 수도 있다.
상기 방법에 대한 프로세스(500)는 "외과 수술 전에 수술 부위의 3차원 이미지를 수신"하는 블록 510에서 시작될 수 있다. 가령, 외과 수술 전에, 일부 의료 영상 기술을 사용하여 환자의 상태에 대한 스냅 샷을 캡처하여 수술 계획을 세울 수 있다. 수술 부위가 환자의 뇌라고 가정한다. 외과의는 뇌의 CT 스캔을 오더 할 수 있다. 도 1 및 도 2를 참조로, 컴퓨팅 장치(106)는 글로벌 정보 장치(102)(예를 들어, CT 스캐너)로부터 환자의 뇌의 3D 볼륨 이미지를 수신할 수 있다. 3D 볼륨 이미지는, 연질 뇌 조직을 비롯해, 환자의 두개골 또는 두개골에 결합된 베이스 플레이트(base plate) 등의 기준 구조를 나타내는 복셀을 포함할 수 있으나, 이에 제한되지 않는다.
블록 510 다음에는 "외과 수술 중에 프로브에 의해 생성된 제1의 2차원 이미지를 수신"하는 블록 520이 이어질 수 있다. 여기서, 외과 수술이 시작된 후, 컴퓨팅 장치(106)는 프로브(112)에 의해 생성된 제1의 2D 이미지를 수신하도록 구성될 수 있다. 전술한 바와 같이, 일 실시 예에 따르면, 프로브(112)상에 배치된 센서 또는 초음파 변환기들은 두뇌 내 프로브(112)의 위치 및 배향으로부터 2D 이미지를 캡처하고 생성하도록 구성될 수 있다.
블록 520 다음에는 "기준 구조에 대한 등록 획득"을 하는 블록 530이 이어질 수 있다. 여기서, 등록의 획득이라 함은 광범위하게는 하나의 좌표계 내의 좌표 세트와 또 다른 좌표계 내의 세트 간의 일대일 매핑 판단을 통해, 동일한 해부학 부위에 해당되는 이 두 개의 좌표계 내 데이터가 서로 매핑되도록 하는 것을 의미한다. 이러한 기준 구조의 일부 예로는 뼈 조직과 특정 연질 조직이 포함되나, 이에 제한되지 않는다. 이러한 기준 구조에 대한 등록 획득은, 프로브(112)의 다양한 포즈 파라미터(예를 들어, x, y, z, 피치(pitch), 요(yaw), 롤(roll)) 세트 및 다양한 검색 파라미터(예를 들어, 초음파 범위) 세트를 바탕으로 다양한 종류의 검색이 수행되는 반복 과정을 포함할 수 있다. 일 실시 예에 따르면, 등록 획득 동작의 한 출력 값은 3D 볼륨 이미지의 좌표계 내의 하나 이상의 허용 가능한 포즈 파라미터 세트가 된다. 즉, 기준 구조에 대한 등록 획득이 이루어진 후에는, 두뇌 내 프로브(112)의 위치에 매핑될 수 있는 3D 볼륨 이미지의 좌표계 내 가능한 좌표 세트가 더 명확해진다. 아래 단락들에서 이러한 등록 획득 프로세스에 대해 더 자세히 설명한다.
블록 530 다음에는 "허용 가능한 프로브 포즈 파라미터 세트를 바탕으로 3차원 이미지에서 제2의 2차원 이미지를 추출"하는 블록 540이 이어진다. 앞서 논의된 바와 같이, 도 4를 참조로, 볼륨 이미지의 좌표계 내의 좌표를 이용해, 2D 이미지(408)와 같은 제2의 2D 이미지가 추출될 수 있다.
블록 540 다음에는 "제1 및 제2의 2차원 이미지 간의 상관관계를 산출"하는 블록 550이 이어진다. 이 두 이미지 간에 상관관계가 높으면, 프로브(112)에 대해 선택한 포즈 파라미터의 결과로 나타난 두 좌표계 간의 매핑이 상당히 정확하다는 것을 의미하며, 외과의는 추출된 2D 이미지에 대한 신뢰감을 갖고 수술을 평가할 수 있다.
블록 550 다음에는 "상관관계 이력 데이터와 비교하여 프로브 위치를 판단"하는 블록 560이 이어진다. 여기서, 일 실시 예에 따르면, 최고의 상관관계의 점수에 의해 이전에 산출된 상관관계 점수들이 대체되고, 프로브의 관련 포즈 파라미터들이 유지된다. 새롭게 산출된 상관관계 점수가 더 높으면 (예를 들어, 두 이미지 간의 상관관계가 심지어 더 높으면), 이 새롭게 산출된 상관관계 점수 및 관련 포즈 파라미터들이 유지된다.
일 실시 예에 따르면, 최고의 상관관계 점수 산출 획득을 위해, 모든 허용 가능한 프로브 포즈 파라미터 세트를 사용해 다양한 2D 이미지를 획득하고 다양한 상관관계 점수를 산출할 수 있다. 또한, 프로브(112)상에 배치된 센서 각각에 대해, 다양한 2D 이미지의 캡처 및 다양한 배향으로의 생성이 가능하다. 이 모든 다양한 2D 이미지들은 그에 해당되는 추출된 2D 이미지들과 비교되고, 상관관계 점수들이 누적될 수 있다. 게다가, 일관성 제약이 주어질 수 있다. 한 가지 제약으로, 프로브가 대체로 선형인 경로를 따라 지속적으로 이동하도록 하는 것이 있을 수 있다. 또 다른 제약으로는 프로브가 그 축을 중심으로 회전하도록 하는 것이 있다.
도 6은 본 발명의 일 실시 예에 따른, 기준 구조에 대한 등록 획득 방법(600)의 일 예를 도시한 흐름도이다. 이 프로세스(600)는 하드웨어, 소프트웨어 및/또는 펌웨어에 의해 수행될 수 있고 블록(610, 620, 630 및/또는 640)으로 도시된 하나 이상의 동작, 기능, 또는 행동을 포함할 수 있다. 이러한 다양한 블록들은 기술된 실시 예들을 한정할 목적을 갖지 않는다. 가령, 발명에 기재된 프로세스 및 다른 프로세스 및 방법들에 있어서, 이러한 프로세스 및 방법들에서 수행된 기능들이 다른 순서로 실행될 수 있다는 것을 당업자는 이해할 것이다. 또한, 본 발명에 개략적으로 기술된 단계 및 동작들은 단지 예로서 제공된 것으로, 기재된 실시 예들의 본질에서 벗어나지 않는 범위 내에서 일부 단계 및 동작들은 선택될 수 있고, 더 작은 수의 단계 및 동작들로 조합되거나, 부가적인 단계 및 동작들로 확장될 수 있다. 여기서는 비록 블록들이 순차적인 순서로 도시되었으나, 병렬적으로 수행될 수도 있고, 및/또는 본 발명에 기술된 것과는 다른 순서로 수행될 수도 있다.
상기 방법에 대한 프로세스(600)는 "프로브 포즈 파라미터를 설정하고 파라미터를 검색"하는 블록 610에서 시작될 수 있다. 일 실시 예에 따르면, 초기 프로브 포즈 파라미터 세트는 수술 선계획 및/또는 기계적 제약(예를 들어, 환자의 두개골에 결합된 베이스 플레이트 관련)을 바탕으로 설정될 수 있다. 초기 프로브 검색 파라미터 세트는 검색 간격, 각각의 포즈 파라미터에 대한 증가량, 초음파 범위 한계 등을 포함할 수 있으나, 이에 제한되지 않는다.
블록 610 다음에는 "제1의 2차원 이미지에서 기준 구조(들)를 검색"하는 블록 620이 이어질 수 있다. 일 실시 예에 따르면, 기준 구조(들) 식별을 위한 좀 더 철저한 제1의 2D 이미지(도 4의 2D 이미지(400) 등 프로브가 캡처/생성한 2D 이미지) 내 검색이 수행될 수 있도록 초기 초음파 범위 한계가 더 크게 설정된다.
블록 620 다음에는 "프로브 포즈 파라미터에 의한 식별된 기준 구조(들)의 획득 여부 판단" 블록 630이 이어질 수 있다. 즉, 프로브 포즈 파라미터가 특정 값으로 설정된 상태에서, 제1의 2D 이미지에서 식별된 기준 구조(들)과 볼륨 이미지 내 대응 기준 구조(들) 간의 일치(agreement)가 이루어질 수 있는지 판단하는 방법(600)이 반복된다. 일치가 이루어질 수 있는 경우, 기준 구조(들)의 등록으로 이어지는 프로브 포즈 파라미터의 세트가 유지된다. 일치가 이루어지지 않는 경우, 프로브 포즈 파라미터들은 다른 값들로 설정될 수 있고, 블록 630을 다시 수행하여 합의 여부를 판단하게 된다.
이하, 블록 630에서, 뼈 등의 하나의 기준 구조에 대한 등록이 획득된 것으로 가정한다. 블록 630 다음에는 "검색 파라미터를 변경"하는 블록 640이 이어진다. 일 실시 예에 따르면, 프로브(112) 근처의 연질 조직이 고려될 수 있도록, 검색 파라미터의 하나로서, 초음파 범위 한계가 감축된다. 프로브(112)로부터 다양한거리 측정이 가능하도록 다양한 초음파 범위 한계도 활용 가능하다.
일 실시 예에 따르면, 도 1의 컴퓨팅 장치(106)는 방법 500 및 방법 600을 수행하도록 구성될 수 있다. 좀 더 유의미한 결과 달성을 위해, 그리고 전술한 동작 중 일부가 수행되기 전에, 컴퓨팅 장치(106)는 3D 볼륨 이미지, 제1의 2D 이미지, 및/또는 추출된 제2의 2D 이미지를 처리하도록 구성될 수 있다.
뼈는, CT 이미지 및 초음파 이미지 모두에서, 연질의 두뇌 조직보다 강력한 신호와 관련 있다. 일 실시 예에 따르면, 컴퓨팅 장치(106)는 뼈와 연질 두뇌 조직 간의 이러한 신호 강도의 차이를 활용하여 제1의 2D 이미지와 추출된 제2의 2D 이미지에서 두개골을 나타내는 픽셀과 연질 두뇌 조직을 나타내는 픽셀을 구분할 수 있다. 이 두 2D 이미지에서 연질 두뇌 조직을 나타내는 픽셀들 간의 상관관계만을 산출하면 좀 더 유의미한 비교 결과를 도출할 수 있다.
더 구체적으로, 일 실시 예에 따르면, 뼈를 나타내는 볼륨 이미지에서 추출한 2D 이미지 내 픽셀에는 제1 값이 할당될 수 있고, 동일 추출 이미지에서 두개골을 제외한 부위를 나타내는 픽셀에는 제2 값이 할당될 수 있다. 픽셀 값이 제2 값보다 제1 값에 근접한 경우, 해당 픽셀은 두개골에 대해서는 부분적으로 근접하나 연질 두뇌 조직에 대해서는 이격된 것을 나타낼 가능성이 높다. 또한, 한계 값 미만의 값이 할당된 픽셀을 선택하여 두개골과 관련된 강력한 신호를 억제하기 위해, 추출된 2D 이미지에 마스크(mask)가 적용될 수 있다.
일 실시 예에 따르면, 컴퓨팅 장치(106)는, 제1의 2D 이미지와 제2의 추출 2D 이미지 간의 상관관계가 산출(예를 들어, 도 5의 블록 550)되기 전에 더 미세하고 더 성긴 질감을 억제하기 위해, 가우스의 라플라스(Laplacian of Gaussian, LOG) 콘볼루션(convolution) 등과 같은 공간 통과 주파수 대역 필터(spatial bandpass filter)를 제1의 2D 이미지에 적용할 수 있다. 필터링된 2D 이미지는 실질적으로 영(0)의 평균 및 양의 선회와 음의 선회 모두 가질 수 있다. LOG 필터링된 이미지에서 양의 영역과 음의 영역 사이의 경계는 원본 이미지에서 전이가 발생하는 위치에서 발생한다. 또한, 양의 영역과 음의 영역의 중심은 전이 영역들 사이에 있고, 대체로 안정적일 수 있다. 이러한 영역들은, 초음파 이미지와 CT 볼륨 이미지 또는 초음파 이미지와 MRI 볼륨 이미지의 경우에서처럼 이미지 캡처/생성 메커니즘이 상당한 차이를 보일 때에도 동일한 대상 물질의 이미지 간에 등록을 획득하는데 사용될 수 있다.
일 실시 예에 따르면, 제2의 추출 2D 이미지에 LOG 콘볼루션이 적용될 수 있다. 또는, 볼륨 이미지에서 제2의 2D 이미지가 추출되기 전의 볼륨 이미지에도 LOG 콘볼루션이 적용될 수 있다. LOG-처리된 볼륨 이미지에서 추출된 2차원 이미지는 LOG-처리된 제2의 추출 2D 이미지와 유사할 수 있다.
일 실시 예에 따르면, 하운스필드 단위 재매핑 접근법(Hounsfield Units remapping approach)이 제2의 추출 2D 이미지에 적용될 수 있다. 하운스필드 단위 재매핑 접근법은 조직 임피던스(impedance)를 향상시키기 위해 다양한 값 범위에 하운스필드 단위를 매핑하는 것을 포함한다. 가령, 뇌 회백질과 관련된 하운스필드 단위 범위는 뇌 백색 물질과 관련된 하운스필드 단위 범위보다 큰 값의 범위에 할당될 수 있다.
초음파 이미지는 일반적으로 작은 반점 인공물(speckle artifact)을 상당히 함유하고 있기 때문에, 일 실시 예에 따르면, 후속 처리 전에 초음파 이미지에서 작은 반점 인공물이 필터링된다. 필터의 일 예로, 초음파 이미지의 주파수와 비례하는 방사 주파수에서 영(0)의 진폭을 갖는 필터가 있다. 또 다른 일 실시 예에 따르면, 상기 필터는 주파수-도메인(frequency-domain) 필터이다. 또 다른 일 실시 예에 따르면, 상기 필터는 아래의 방사 주파수 좌표의 싱크 함수이다:
Figure 112016128637996-pct00001
또 다른 일 실시 예에 따르면, 원하는 방사 주파수에서 영(0)의 진폭이 주어지도록 스케일 주파수 f s 가 선택된다.
다시 도 5를 참조로, 블록 560에서 프로브 위치가 판단된 상태에서, 일 실시 예에 따르면, 제1의 2D 이미지(예를 들어, 도 4의 2D 이미지(400))와 제2의 추출 2D 이미지(예를 들어, 추출된 2D 이미지(408))가 디스플레이 장치(118)상에 디스플레이될 수 있다. 도 7에서는 본 발명의 일 실시 예에 따른, CT 볼륨 이미지에서 추출된 슬라이스 이미지(700)상에, 초음파 이미지(710 및 720)를 중첩하여 표시한 일 예를 보여준다. 여기서, 초음파 이미지(710 및 720)는 CT 볼륨 이미지와 관련된 좌표계에서의 좌표 세트(예를 들어, 좌표(X0, Y0, Z0))에 해당하는, 두뇌 내 프로브의 특정 위치에서 캡처 및 생성된다. 이 좌표(X0, Y0, Z0)에 따라, CT 볼륨 이미지에서 슬라이스 이미지(700)가 추출된다.
슬라이스 이미지(700)에서는 두개골(703)(밝은 명암 영역)로 둘러싸인 연질 조직(701)(짙은 명암 영역), 베이스 플레이트(705)(수직 바), 및 상기 슬라이스 이미지에 대한 프로브 축(707)(중심을 통과하는 흰색 선)을 보여준다. 영역 725 및 730은 슬라이스 이미지(700)에서 두개골(703)을 나타내는 픽셀이 제공하는 이미지는 초음파 이미지(710)에서 두개골(703)을 나타내는 픽셀이 제공하는 이미지와 실질적으로 유사함을 나타낸다. 이렇듯 실질적으로 유사하다는 것은 슬라이스 이미지(700)에서 두개골(703)을 나타내는 픽셀과 초음파 이미지(710)에서 두개골(703)을 나타내는 픽셀이 두개골(703)의 동일한 부위에 해당한다는 것을 의미한다. 이러한 두개골의 해부학적 매칭을 통해, 두개골(703)에 대한 좌표(X0, Y0, Z0)의 위치가 결정될 수 있다.
도 8에서는 본 발명의 일 실시 예에 따른, 처리된 CT 볼륨 이미지에서 추출된 슬라이스 이미지(800)상에, 필터링된 초음파 이미지(810 및 820)를 중첩하여 표시한 일 예를 보여준다. 필터링된 초음파 이미지(810 및 820)는 도 7의 동일 좌표(X0, Y0, Z0)에서 추출한 것이지만, 필터링된 초음파 이미지(810 및 820)의 범위는, 초음파 이미지(810 및 820)가 두개골을 포함하지 않고 도 7에 도시된 영역 725 및 730도 갖지 않도록, 초음파 이미지(710 및 720)의 범위보다 제한된 것이다. 또한, 이 도면에서, CT 볼륨 이미지의 복셀 값은 뼈 경계를 가림으로써(masking) 연질 두뇌 조직이 강조되도록 변경되었다. 그 결과, 슬라이스 이미지(800)는 연질 두뇌 조직을 나타내는 픽셀만을 포함하며, 두개골을 나타내는 픽셀은 포함하지 않는다. 슬라이스 이미지(800)에서 연질 두뇌 조직을 나타내는 픽셀은 초음파 이미지(810 및 820)에서 연질 두뇌 조직을 나타내는 픽셀에 비교될 수 있다. 또한, 슬라이스 이미지(800)에서 연질 두뇌 조직을 나타내는 픽셀이 제공하는 이미지와 초음파 이미지(810 및 820)에서 연질 두뇌 조직을 나타내는 픽셀이 제공하는 이미지 간의 상관관계가 산출될 수 있다. 슬라이스 이미지(800)와 초음파 이미지(810 및 820) 간의 상관관계가 높다는 가정하에, 슬라이스 이미지(800)와 초음파 이미지(810 및 820) 간의 차이는 연질 두뇌 조직의 움직임에 해당될 것이다. 외과의는 이러한 판단에 따른 높은 신뢰감을 바탕으로, 외과 수술에서 표적 조직 또는 기타 중요 조직의 이동 여부를 판단할 수 있으며 수술 중에 적합한 조치를 취할 수 있다.
도 9는 본 발명의 일 실시 예에 따른, 다차원적 상관관계 평면을 산출하도록 구성된 표-기반 시스템(900)의 일 예에 대한 블록도이다.
값 N은 상관관계를 갖게 될 총 픽셀 수를 나타낸다. N은 일반적으로 초음파 이미지 내 픽셀 수보다 작다. 이는 초음파 프로브에서 설정된 범위 밖의 픽셀은 사용되지 않기 때문이며, 마찬가지로 주어진 범위보다 근접한 픽셀도 무시된다.
US 마스크 표(The US mask table)는 상관관계에 사용될 픽셀의(초음파 이미지의 시작부터 오프셋된) 메모리 주소의 길이 N 리스트를 포함하고 있다. 이 리스트는 래스터 스캔 순서를 따른다. 이렇듯 오프셋된 출력 값은 또한 볼륨 이미지에서 관련 복셀 주소를 선택하기 위한 팬 오프셋 표(fan offset table)로 공급된다.
팬 오프셋 표는 k = k1*k2*k3 팬 슬라이스 오프셋 표의 모음으로,
k1은 롤(roll) 배향의 수 (1/2도 분해능의 경우 일반적으로 720),
k2는 헤드 플레이트(head plate)에 수직 방향인 공칭 프로브에 대한 요(yaw) 배향 수 (1/2도 분해능을 갖는 ±10도 범위에 대해 일반적으로 40),
k3은 헤드 플레이트에 수직 방향인 공칭 프로브에 대한 피치(pitch) 배향 수 (1/2도 분해능을 갖는 ±10도 범위에 대해 일반적으로 40)이다.
각각의 k 팬 슬라이스 표는 3차원 이미지 볼륨에서 팬 슬라이스 평면상에 래스터 패턴(raster pattern)을 스캔하는 오프셋 주소 리스트를 갖는다. 이 래스터 스캔은 초음파 이미지와 차원이 같다. 따라서 작동 시, 팬 선택(Fan select) 및 프로브 축 요, 피치 및 롤(Probe axis yaw, patch and roll) 박스들은 팬 오프셋 표 박스에 입력 값을 제공해 k 팬 오프셋 표 중 하나를 선택한다. 이렇게 해서 선택된 표는 US 마스크 표에서 입력 값을 수신하고 3차원 볼륨 이미지에 대한 오프셋 주소를 출력한다.
이러한 오프셋 주소는 프로브 축 xyz 위치 인덱스 오프셋(Probe axis xyz position index offset) 박스로부터의 고정 오프셋 주소와 합산된다(+). 이 고정 오프셋은 이미지 볼륨 내 팬 슬라이스를 병진시킨다. 그 다음, 가산기의 출력 값은 볼륨 이미지 메모리로 공급되고, 이곳에서 값이 엑세스 되어 상관관계 배율기(correlation multiplier)(×)로 출력된다.
상관관계 배율기는 초음파 이미지와 볼륨 이미지에서 픽셀 값을 수신한다. 상관관계 배율기는 이 값들을 곱한 후 그 결과를 누적기로 공급한다.
이러한 전체 프로세스는 좌측 상부의 계수기 모듈(counter module)이 영(0)에서부터 N-1까지 카운트함에 따라 N 번 반복된다. 이러한 카운트의 마지막 지점에서, 최우측의 누적기는 팬 인덱스, 롤, 피치, 요, x, y, z의 6개의 입력 파라미터에 대한 상관관계 합산치를 포함하게 된다. 8개 팬 슬라이스 전체에 대한 상관관계 조합은 그 범위 내에서 팬 선택 레지스터(Fan select register)를 증분함으로써 산출된다.
이 메커니즘은, 최고의 상관관계를 찾기 위해 6개의 파라미터를 가변함으로써, 기-기록된 볼륨 이미지와 실시간 초음파 이미지 간의 최고의 합의를 제공하는 이미지 볼륨에서 프로브의 포즈를 찾는데 사용될 수 있다.
시스템(900)은, 상관관계 계산에서 뼈 영역이 배제될 수 있도록, 뼈 마스크 볼륨 이미지를 선택적으로 포함할 수 있다. 일 실시 예에 따르면, 뼈 마스크 볼륨 이미지는 CT/MRI LOG 볼륨 내 해당 복셀이 연질 조직과 뼈 중에서 어느 건인지 나타내는 복셀을 포함한다. 이러한 뼈 마스크 볼륨은 LOG 볼륨과 병행하게 엑세스되어, 엑세스된 LOG 복셀의 상관관계 합계에 대한 기여를 허용할지 여부를 결정하게 된다. 일 실시 예에 따르면, 마스크 볼륨 이미지는 뼈 복셀을 식별하기 위해 양상 적합 기술(modality appropriate technique)을 사용해 CT/MRI 볼륨 이미지 원본에서 도출된다. 이러한 복셀 값은 1.0로 설정되고 뼈가 아닌 복셀은 0.0로 설정된다. 그 다음, 뼈에 근접한 연질 조직으로 표시된 위치가 영(0)보다는 크고 1보다는 작은 값을 갖도록 필터 수단이 1과 영으로 표시된 볼륨에 적용된다. 또한, 뼈에 더 근접한 위치는 1에 근접한 값을 갖게 된다. 이로써, 최근접한 뼈 복셀에서 적어도 특정 거리에 있는 복셀을 선택하는데 있어 한계 값을 사용할 수 있게 된다.
도 10은 본 발명의 일 실시 예에 따른, 수술 부위 내 프로브의 위치를 판단하는 방법을 실행하는 컴퓨터 프로그램 제품(1000)을 도시한 블록도이다. 컴퓨터 프로그램 제품(1000)은 신호 함유 매체(signal bearing medium, 1002)를 포함할 수 있다. 신호 함유 매체(1002)는 저장된 하나 이상의 실행 가능한 명령어(1004) 세트를 포함할 수 있고, 이러한 명령어 세트는, 가령 도 1의 컴퓨팅 장치(106)의 실행에 응답하여, 전술한 특징 및 동작들을 제공할 수 있다.
일부 구현 예에서, 신호 함유 매체(1002)는 비일시적 컴퓨터 독출 가능 매체(1008)를 포함할 수 있다. 이러한 비일시적 컴퓨터 독출 가능 매체(1008)는 하드 디스크 드라이브, 콤팩트 디스크(CD), 디지털 다용도 디스크(DVD), 디지털 테이프, 및 메모리 등을 포함하나, 이에 제한되지 않는다. 일부 구현 예에서, 신호 함유 매체(1002)는 기록 가능한 매체(1010)를 포함할 수 있다. 이러한 기록 가능한 매체(1010)는 메모리, 독출/작성 (R/W) CD, R/W DVD 등을 포함하나, 이에 제한되지 않는다.
앞서 상세히 기술한 내용에서는 블록도, 흐름도 및/또는 예시들의 사용을 통한 장치 및/또는 프로세서들의 다양한 실시 예들이 제시되었다. 이러한 블록도, 흐름도 및/또는 예시가 하나 이상의 기능 및/또는 동작을 포함하는 한, 당업자는 그러한 블록도, 흐름도, 또는 예시 내 각각의 기능 및/또는 동작이 매우 다양한 종류의 하드웨어, 소프트웨어, 펌웨어, 또는 그것의 사실상 가능한 모든 조합에 의해 개별적으로 및/또는 함께 실행될 수 있음을 이해할 것이다. 일부 실시 예에 따르면, 본 발명에 기술된 대상 물질의 일부는 주문형 집적회로(application specific integrated circuits, ASICs), 필드 프로그램 가능 데이터 어레이(Field Programmable Gate Arrays, FPGAs), 디지털 신호 처리 장치(digital signal processors, DSPs), 또는 기타 집적 형태에 의해 실행될 수 있다. 그러나, 당업자는 본 발명에 기재된 실시 예의 일부 양상의 전체 또는 일부가, 하나 이상의 컴퓨터상에서 운영되는 하나 이상의 컴퓨터 프로그램(예를 들어, 하나 이상의 컴퓨터 시스템상에서 운영되는 하나 이상의 프로그램), 하나 이상의 프로세서상에서 운영되는 하나 이상의 프로그램(예를 들어, 하나 이상의 마이크로프로세서상에서 운영되는 하나 이상의 프로그램), 펌웨어, 또는 사실상 그 모든 조합으로서 집적 회로에 등가적으로 구현될 수 있으며, 소프트웨어 및/또는 펌웨어에 대한 회로를 설계 및/또는 코드를 작성하는 것이 본 발명에 비추어 당업자의 기술 범위 내에 있다는 것을 인식할 것이다. 또한, 당업자는 본 발명에 기재된 대상 물질의 메커니즘이 다양한 형태로 프로그램 제품으로 유통될 수 있고, 본 발명에 기재된 대상 물질의 도시적 실시 예가 실제 유통 실시에 사용되는 신호 함유 매체의 유형과 상관 없이 적용된다는 것을 이해할 것이다. 신호 함유 매체의 예로는 플로피 디스크, 하드 디스크 드라이브, 콤팩트 디스크(CD), 디지털 다용도 디스크(DVD), 디지털 테이프, 컴퓨터 메모리 등의 기록 가능한 형태의 매체를 포함하나, 이에 제한되지 않는다.
전술한 설명으로부터, 본 발명의 다양한 실시 예가 도시의 목적으로 기재된 것이며, 본 발명의 범위와 사상에서 벗어나지 않는 범위 내에서 다양한 변형이 가능함을 이해할 것이다. 이에 따라, 본 발명에 기재된 다양한 실시 예는 제한의 목적을 갖지 않으며, 진정한 범위와 사상은 첨부된 청구항에 의해 나타난다.

Claims (24)

  1. 복수의 기준 구조로 수술 부위 내 프로브의 위치를 판단하는 방법으로서,
    상기 프로브가 상기 수술 부위에 진입하기 전에 생성된 상기 수술 부위의 3차원 이미지를 수신하는 단계, 상기 3차원 이미지는 제1 좌표계와 관련되고;
    제2 좌표계와 관련되고, 상기 수술 부위 내 위치에서 상기 프로브에 의해 생성된 제1의 2차원 이미지를 수신하는 단계, 상기 제1의 2차원 이미지는 제2 좌표계와 관련되고;
    허용 가능한 프로브 포즈 파라미터 세트를 얻기 위해 상기 제1의 2차원 이미지를 바탕으로 상기 복수의 기준 구조에 대한 등록을 획득하는 단계;
    상기 허용 가능한 프로브 포즈 파라미터 세트를 바탕으로 상기 3차원 이미지에서 제2의 2차원 이미지를 추출하는 단계; 및
    상기 제2 좌표계가 나타내는 상기 프로브의 위치를 상기 3차원 이미지에 대한 상기 제1 좌표계가 나타내는 위치에 매핑하기 위해 상기 제1의 2차원 이미지와 상기 추출된 제2의 2차원 이미지 간의 상관관계를 산출하는 단계;
    를 포함하는 방법.
  2. 제1항에 있어서,
    상기 등록을 획득하는 단계는,
    제1 세트의 프로브 포즈 파라미터와 제1 세트의 검색 파라미터를 설정하는 단계;
    상기 제1 세트의 프로브 포즈 파라미터와 상기 제1 세트의 검색 파라미터를 바탕으로 상기 제1의 2차원 이미지 내 상기 복수의 기준 구조 중 첫번째를 검색하는 단계; 및
    상기 제1 세트의 프로브 포즈 파라미터의 결과가 상기 제1의 2차원 이미지 내 나타난 상기 복수의 기준 구조 중 첫번째와 상기 3차원 이미지 내 나타난 상기 복수의 기준 구조의 첫번째 간의 합의를 찾는 것인지를 판단하는 단계를 포함하는, 방법.
  3. 제2항에 있어서,
    상기 제1의 2차원 이미지 내 상기 복수의 기준 구조 중 두번째를 검색하기 위한 제2 세트의 검색 파라미터를 설정하는 단계를 더 포함하는, 방법.
  4. 제1항에 있어서,
    상기 상관관계를 산출하는 단계는,
    상기 제1의 2차원 이미지에서 조직을 나타내는 제1 세트의 픽셀을 선택하는 단계;
    상기 추출된 제2의 2차원 이미지에서 조직을 나타내는 제2 세트의 픽셀을 선택하는 단계; 및
    상기 제1 세트의 픽셀과 제2 세트의 픽셀을 바탕으로 상기 상관관계를 산출하는 단계를 포함하는, 방법.
  5. 제1항에 있어서,
    상기 상관관계의 산출 전에 상기 제1의 2차원 이미지에 공간 통과 주파수 대역 필터(spatial bandpass filter)를 적용하는 단계를 더 포함하는, 방법.
  6. 제1항에 있어서,
    상기 상관관계의 산출 전에 상기 추출된 제2의 2차원 이미지에 공간 통과 주파수 대역 필터(spatial bandpass filter)를 적용하는 단계를 더 포함하는, 방법.
  7. 제1항에 있어서,
    상기 제2의 2차원 이미지의 추출 전에 상기 3차원 이미지에 공간 통과 주파수 대역 필터(spatial bandpass)를 적용하는 단계를 더 포함하는, 방법.
  8. 제1항에 있어서,
    상기 상관관계의 산출 전에 상기 제1의 2차원 이미지 내 작은 반점 인공물(speckle artifact)을 필터링 하는 단계를 더 포함하는, 방법.
  9. 제1항에 있어서,
    상기 프로브는 상기 수술 부위에서 선형 이동하도록 제한된, 방법.
  10. 제1항에 있어서,
    상기 프로브는 상기 수술 부위에서 그 축을 중심으로 회전하도록 제한된, 방법.
  11. 복수의 기준 구조로 수술 부위 내 프로브의 위치를 판단하는 방법을 위한 실행 가능한 명령어 세트를 포함하는 비일시적 기계 독출 가능 매체로서,
    컴퓨팅 장치에 의한 실행에 응답하여, 상기 컴퓨팅 장치로 하여금,
    상기 프로브가 상기 수술 부위에 진입하기 전에 생성된 상기 수술 부위의 3차원 이미지를 수신하는 단계, 상기 3차원 이미지는 제1 좌표계와 관련되고;
    상기 수술 부위 내 위치에서 상기 프로브에 의해 생성된 제1의 2차원 이미지를 수신하는 단계, 상기 제1의 2차원 이미지는 제2 좌표계와 관련되고;
    허용 가능한 프로브 포즈 파라미터 세트를 얻기 위해 상기 제1의 2차원 이미지를 바탕으로 상기 복수의 기준 구조에 대한 등록을 획득하는 단계;
    상기 허용 가능한 프로브 포즈 파라미터 세트를 바탕으로 상기 3차원 이미지에서 제2의 2차원 이미지를 추출하는 단계; 및
    상기 제2 좌표계가 나타내는 상기 프로브의 위치를 상기 3차원 이미지에 대한 상기 제1 좌표계가 나타내는 위치에 매핑하기 위해 상기 제1의 2차원 이미지와 상기 추출된 제2의 2차원 이미지 간의 상관관계를 산출하는 단계;
    를 실행하도록 하는, 비일시적 기계 독출 가능 매체.
  12. 제11항에 있어서,
    상기 등록을 획득하는 단계는,
    제1 세트의 프로브 포즈 파라미터와 제1 세트의 검색 파라미터를 설정하는 단계;
    상기 제1 세트의 프로브 포즈 파라미터와 상기 제1 세트의 검색 파라미터를 바탕으로 상기 제1의 2차원 이미지 내 상기 복수의 기준 구조 중 첫번째를 검색하는 단계; 및
    상기 제1 세트의 프로브 포즈 파라미터에 의해 상기 제1의 2차원 이미지 내 나타난 상기 복수의 기준 구조 중 첫번째와 상기 3차원 이미지 내 나타난 상기 복수의 기준 구조의 첫번째 간의 일치가 찾아졌는지를 판단하는 단계를 포함하는, 비일시적 기계 독출 가능 매체.
  13. 제12항에 있어서,
    상기 컴퓨팅 장치에 의한 실행에 응답하여, 상기 컴퓨팅 장치로 하여금 상기 제1의 2차원 이미지 내 상기 복수의 기준 구조 중 두번째를 검색하기 위한 제2 세트의 검색 파라미터를 설정하도록 하는 실행 가능한 명령어 세트를 더 포함하는, 비일시적 기계 독출 가능 매체.
  14. 제11항에 있어서,
    상기 상관관계를 산출하는 단계는,
    상기 제1의 2차원 이미지에서 조직을 나타내는 제1 세트의 픽셀을 선택하는 단계;
    상기 추출된 제2의 2차원 이미지에서 조직을 나타내는 제2 세트의 픽셀을 선택하는 단계; 및
    상기 제1 세트의 픽셀과 상기 제2 세트의 픽셀을 바탕으로 상기 상관관계를 산출하는 단계를 포함하는, 비일시적 기계 독출 가능 매체.
  15. 제11항에 있어서,
    상기 컴퓨팅 장치에 의한 실행에 응답하여, 상기 컴퓨팅 장치로 하여금, 상기 상관관계를 산출하는 단계 전에 상기 제1의 2차원 이미지에 공간 통과 주파수 대역 필터(spatial bandpass filter)를 적용하도록 하는 실행 가능한 명령어 세트를 더 포함하는, 비일시적 기계 독출 가능 매체.
  16. 제11항에 있어서,
    상기 컴퓨팅 장치에 의한 실행에 응답하여, 상기 컴퓨팅 장치로 하여금, 상기 상관관계를 산출하는 단계 전에 상기 상기 추출된 제2의 2차원 이미지에 공간 통과 주파수 대역 필터(spatial bandpass filter)를 적용하도록 하는 실행 가능한 명령어 세트를 더 포함하는, 비일시적 기계 독출 가능 매체.
  17. 제11항에 있어서,
    상기 컴퓨팅 장치에 의한 실행에 응답하여, 상기 컴퓨팅 장치로 하여금, 상기 상관관계를 산출하는 단계 전에 상기 3차원 이미지에 공간 통과 주파수 대역 필터(spatial bandpass filter)를 적용하도록 하는 실행 가능한 명령어 세트를 더 포함하는, 비일시적 기계 독출 가능 매체.
  18. 제11항에 있어서,
    상기 컴퓨팅 장치에 의한 실행에 응답하여, 상기 컴퓨팅 장치로 하여금, 상기 상관관계를 산출하는 단계 전에 상기 제1의 2차원 이미지 내 작은 반점 인공물(speckle artifact)을 필터링 하도록 하는 실행 가능한 명령어 세트를 더 포함하는, 비일시적 기계 독출 가능 매체.
  19. 제11항에 있어서,
    상기 프로브는 상기 수술 부위에서 선형 이동하도록 제한된, 비일시적 기계 독출 가능 매체.
  20. 제11항에 있어서,
    상기 프로브는 상기 수술 부위에서 그 축을 중심으로 회전하도록 제한된, 비일시적 기계 독출 가능 매체.
  21. 복수의 기준 구조로 수술 부위 내 프로브의 위치를 판단하도록 구성된 시스템으로서,
    프로세서;
    제1 표 및 제2 표; 및
    실행 가능한 명령어 세트를 포함하는 메모리;
    를 포함하고, 상기 실행 가능한 명령어 세트는, 상기 프로세서에 의한 실행에 응답하여, 상기 프로세서로 하여금,
    허용 가능한 프로브 포즈 파라미터 세트를 얻기 위해 외과 수술 중에 상기 수술 부위 내 위치에서 상기 프로브에 의해 생성된 제1의 2차원 이미지, 및 상기 외과 수술 전에 상기 수술 부위의 3차원 이미지를 바탕으로 상기 복수의 기준 구조에 대한 등록을 획득하도록 하고, 상기 3차원 이미지는 제1 좌표계와 관련되고, 상기 제1의 2차원 이미지는 제2 좌표계와 관련되고,
    상기 허용 가능한 파라미터 세트를 바탕으로 상기 3차원 이미지에서 제2의 2차원 이미지를 추출하도록 하고,
    상기 제1 표를 사용해 상기 제1의 2차원 이미지에서 제1 세트의 픽셀을 선택하도록 하고,
    상기 제1 표와 상기 제2 표를 사용해 상기 허용 가능한 프로브 포즈 파라미터 세트 중 하나를 바탕으로 상기 추출된 제2의 2차원 이미지에서 제2 세트의 픽셀을 선택하도록 하고,
    상기 제2 좌표계가 나타내는 상기 프로브의 위치를 상기 3차원 이미지에 대한 상기 제1 좌표계가 나타내는 위치에 매핑하기 위해 상기 제1 세트의 픽셀과 상기 제2 세트의 픽셀 간의 상관관계를 산출하도록 하는, 시스템.
  22. 제21항에 있어서,
    추가적인 실행 가능한 명령어를 구현하는 상기 메모리는, 상기 프로세서에 의한 실행에 응답하여, 상기 프로세서로 하여금 상기 상관관계의 산출 전에 상기 제2 세트의 픽셀에서 뼈를 나타내는 픽셀을 배제하도록 하는, 시스템.
  23. 제21항에 있어서,
    상기 제1 표는 상기 제1 세트의 픽셀의 메모리 주소 리스트를 포함하고, 상기 리스트는 래스터 스캔 순서(raster scan order)를 따르는, 시스템.
  24. 제21항에 있어서,
    상기 허용 가능한 프로브 포즈 파라미터 세트의 적어도 일부는 상기 제2 표에 대한 입력 값인, 시스템.




KR1020167036770A 2014-08-19 2015-08-19 수술 부위 내 프로브 위치를 판단하는 방법 및 시스템 KR101821520B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462039412P 2014-08-19 2014-08-19
US62/039,412 2014-08-19
PCT/CN2015/087500 WO2016026437A1 (en) 2014-08-19 2015-08-19 Method and system of determining probe position in surgical site

Publications (2)

Publication Number Publication Date
KR20170032238A KR20170032238A (ko) 2017-03-22
KR101821520B1 true KR101821520B1 (ko) 2018-01-24

Family

ID=55350201

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167036770A KR101821520B1 (ko) 2014-08-19 2015-08-19 수술 부위 내 프로브 위치를 판단하는 방법 및 시스템

Country Status (10)

Country Link
US (1) US9757202B2 (ko)
EP (1) EP3145431B1 (ko)
JP (1) JP6301005B2 (ko)
KR (1) KR101821520B1 (ko)
CN (1) CN106794051B (ko)
CA (1) CA2949264C (ko)
DK (1) DK3145431T3 (ko)
HR (1) HRP20201201T1 (ko)
TW (1) TWI605795B (ko)
WO (1) WO2016026437A1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3188662A4 (en) * 2014-09-05 2018-05-23 Procept Biorobotics Corporation Physician controlled tissue resection integrated with treatment mapping of target organ images
CN106794044B (zh) * 2015-06-05 2019-09-27 钛隼生物科技股份有限公司 术中追踪方法
EP3306572A1 (en) * 2016-10-07 2018-04-11 Schneider Electric Industries SAS Method for 3d mapping of 2d point of interest
US11497478B2 (en) * 2018-05-21 2022-11-15 Siemens Medical Solutions Usa, Inc. Tuned medical ultrasound imaging
KR102146719B1 (ko) * 2018-12-27 2020-08-24 주식회사 홀로웍스 가상현실 기반의 정형외과 시뮬레이터의 수술 평가 시스템
KR102143784B1 (ko) * 2018-12-27 2020-08-12 가톨릭대학교 산학협력단 가상현실 기반 이비인후과 및 신경외과 시뮬레이터의 수술 평가 시스템
TWI766253B (zh) * 2019-03-19 2022-06-01 鈦隼生物科技股份有限公司 基於影像匹配決定手術路徑之方法與系統
TWI683286B (zh) * 2019-03-21 2020-01-21 上銀科技股份有限公司 醫療影像對位方法
CN112206063A (zh) * 2020-09-01 2021-01-12 广东工业大学 一种多模态多角度牙科种植体配准方法
TWI784754B (zh) * 2021-04-16 2022-11-21 威盛電子股份有限公司 電子裝置以及物件偵測方法
TWI785645B (zh) * 2021-06-11 2022-12-01 承鋆生醫股份有限公司 基於擴增實境的手術輔助方法
CN114041828B (zh) * 2022-01-13 2022-04-29 深圳瀚维智能医疗科技有限公司 超声扫查控制方法、机器人及存储介质
CN116725679A (zh) * 2022-08-12 2023-09-12 北京和华瑞博医疗科技有限公司 配准点确定以及配准方法、装置、设备、介质和程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006305361A (ja) 2005-04-26 2006-11-09 Biosense Webster Inc 超音波システム用のビーム方向を用いたカテーテル先端部の表示
JP2006305357A (ja) 2005-04-26 2006-11-09 Biosense Webster Inc 超音波データと事前取得イメージの重ね合わせ
JP2009095371A (ja) 2007-10-12 2009-05-07 Hitachi Medical Corp 超音波内視鏡、超音波診断装置、及び超音波内視鏡における位置センサ固定方法
JP2014113421A (ja) 2012-12-12 2014-06-26 Toshiba Corp 超音波診断装置及び画像処理プログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167295A (en) 1991-01-28 2000-12-26 Radionics, Inc. Optical and computer graphic stereotactic localizer
JP4088104B2 (ja) * 2002-06-12 2008-05-21 株式会社東芝 超音波診断装置
US7570791B2 (en) * 2003-04-25 2009-08-04 Medtronic Navigation, Inc. Method and apparatus for performing 2D to 3D registration
WO2004098414A1 (ja) * 2003-05-08 2004-11-18 Hitachi Medical Corporation 超音波診断におけるリファレンス像表示方法及び超音波診断装置
JP2007531553A (ja) 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ 術中ターゲティングのシステムおよび方法
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8126239B2 (en) * 2006-10-20 2012-02-28 Siemens Aktiengesellschaft Registering 2D and 3D data using 3D ultrasound data
US8150494B2 (en) 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
EP2152183B1 (en) * 2007-04-23 2014-06-11 Medtronic Navigation, Inc. Apparatus for electromagnetic navigation of a magnetic stimulation probe
JP4934513B2 (ja) * 2007-06-08 2012-05-16 株式会社日立メディコ 超音波撮像装置
JP5486182B2 (ja) * 2008-12-05 2014-05-07 キヤノン株式会社 情報処理装置および情報処理方法
IT1400684B1 (it) * 2010-07-07 2013-06-28 Esaote Spa Metodo e dispositivo di imaging per il monitoraggio di un corpo in esame.
US8744211B2 (en) * 2011-08-31 2014-06-03 Analogic Corporation Multi-modality image acquisition
CA2851659A1 (en) * 2011-10-09 2013-04-18 Clear Guide Medical, Llc Interventional in-situ image guidance by fusing ultrasound and video
JP2013135738A (ja) * 2011-12-28 2013-07-11 Hitachi Medical Corp 手術支援システム
TWI463964B (zh) * 2012-03-03 2014-12-11 Univ China Medical 手術影像導引定位裝置及其系統
US9375196B2 (en) * 2012-07-12 2016-06-28 Covidien Lp System and method for detecting critical structures using ultrasound
JP2014054362A (ja) * 2012-09-12 2014-03-27 Toshiba Corp 超音波診断装置、画像処理装置及びプログラム
CN103040525B (zh) * 2012-12-27 2016-08-03 深圳先进技术研究院 一种多模医学影像手术导航方法及***
CN103230304B (zh) 2013-05-17 2015-05-13 深圳先进技术研究院 手术导航***及其方法
JP5706933B2 (ja) * 2013-07-31 2015-04-22 キヤノン株式会社 処理装置および処理方法、プログラム
WO2016019347A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006305361A (ja) 2005-04-26 2006-11-09 Biosense Webster Inc 超音波システム用のビーム方向を用いたカテーテル先端部の表示
JP2006305357A (ja) 2005-04-26 2006-11-09 Biosense Webster Inc 超音波データと事前取得イメージの重ね合わせ
JP2009095371A (ja) 2007-10-12 2009-05-07 Hitachi Medical Corp 超音波内視鏡、超音波診断装置、及び超音波内視鏡における位置センサ固定方法
JP2014113421A (ja) 2012-12-12 2014-06-26 Toshiba Corp 超音波診断装置及び画像処理プログラム

Also Published As

Publication number Publication date
TWI605795B (zh) 2017-11-21
WO2016026437A1 (en) 2016-02-25
HRP20201201T1 (hr) 2020-11-13
US9757202B2 (en) 2017-09-12
EP3145431B1 (en) 2020-05-27
KR20170032238A (ko) 2017-03-22
JP2017524464A (ja) 2017-08-31
CA2949264C (en) 2018-10-09
CA2949264A1 (en) 2016-02-25
EP3145431A1 (en) 2017-03-29
CN106794051B (zh) 2019-04-26
TW201622660A (zh) 2016-07-01
US20160296291A1 (en) 2016-10-13
EP3145431A4 (en) 2018-06-06
JP6301005B2 (ja) 2018-04-11
CN106794051A (zh) 2017-05-31
DK3145431T3 (da) 2020-08-17

Similar Documents

Publication Publication Date Title
KR101821520B1 (ko) 수술 부위 내 프로브 위치를 판단하는 방법 및 시스템
JP6453857B2 (ja) 超音波画像の3d取得のためのシステムおよび方法
JP6395995B2 (ja) 医療映像処理方法及び装置
CN103371870B (zh) 一种基于多模影像的外科手术导航***
US10055848B2 (en) Three-dimensional image segmentation based on a two-dimensional image information
US20090093702A1 (en) Determining and identifying changes in the position of parts of a body structure
US11547488B2 (en) Systems and methods for performing intraoperative image registration
US9443161B2 (en) Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
JP2014161734A (ja) 医療画像を整合する方法及びその装置
JP2012526623A (ja) 画像ガイド下前立腺癌針生検のためのシステムおよび方法
JP2016523167A (ja) エラストグラフィ測定システム及びその方法
Nagelhus Hernes et al. Computer‐assisted 3D ultrasound‐guided neurosurgery: technological contributions, including multimodal registration and advanced display, demonstrating future perspectives
Hartov et al. Adaptive spatial calibration of a 3D ultrasound system
JP6538280B2 (ja) 被験者の組織を特徴付ける装置及び方法
KR101501517B1 (ko) 초음파 영상 상에 의료용 기구를 표시하는 방법 및 장치
US20200305837A1 (en) System and method for guided ultrasound imaging
EP3682811A1 (en) Apparatus and method for detecting bone fracture
JP2021525143A (ja) 熱アブレーションのレベルを推定するための装置及び方法
US20220096047A1 (en) Apparatus and method for detecting bone fracture
Juszczyk et al. Time Regarded Method of 3D Ultrasound Reconstruction
Pheiffer et al. Geometric reconstruction using tracked ultrasound strain imaging

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant