KR101294649B1 - 수술영상의 정합에 대한 검증방법 및 보상방법 - Google Patents

수술영상의 정합에 대한 검증방법 및 보상방법 Download PDF

Info

Publication number
KR101294649B1
KR101294649B1 KR1020120045349A KR20120045349A KR101294649B1 KR 101294649 B1 KR101294649 B1 KR 101294649B1 KR 1020120045349 A KR1020120045349 A KR 1020120045349A KR 20120045349 A KR20120045349 A KR 20120045349A KR 101294649 B1 KR101294649 B1 KR 101294649B1
Authority
KR
South Korea
Prior art keywords
image
model
target
reference body
dimensional
Prior art date
Application number
KR1020120045349A
Other languages
English (en)
Inventor
이현기
김민영
정재헌
Original Assignee
경북대학교 산학협력단
주식회사 고영테크놀러지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단, 주식회사 고영테크놀러지 filed Critical 경북대학교 산학협력단
Priority to KR1020120045349A priority Critical patent/KR101294649B1/ko
Priority to PCT/KR2013/003379 priority patent/WO2013165111A1/ko
Priority to US14/344,812 priority patent/US9717480B2/en
Application granted granted Critical
Publication of KR101294649B1 publication Critical patent/KR101294649B1/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Computational Mathematics (AREA)
  • Algebra (AREA)
  • Surgery (AREA)
  • Medicinal Chemistry (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

수술영상의 정합이 정확한지 여부를 검증하기 위하여, 먼저 검증대상이 되는 모형을 제작한다. 이어서, 모형에 기준체를 설치한다. 다음으로, 기준체가 설치된 모형에 대하여 3차원 기준데이터를 획득한다. 이어서, 기준체가 설치된 모형에 격자패턴광을 조사하여 격자패턴광에 따른 기준체가 설치된 모형에 대한 반사이미지를 획득한다. 다음으로, 획득된 기준체가 설치된 모형에 대한 반사이미지에 버킷 알고리즘을 적용하여 3차원 형상을 측정하고, 3차원 형상으로부터 측정영상을 획득한다. 이어서, 획득된 측정영상 및 기 획득된 3차원 기준데이터를 모형의 표면을 기초로 서로 정합한다. 다음으로, 3차원 기준데이터에 나타나는 타겟의 기준위치 및 측정영상에 나타나는 기준체에 의하여 예측되는 타겟의 예측위치를 비교한다. 이에 따라, 수술영상의 정합을 검증할 수 있다.

Description

수술영상의 정합에 대한 검증방법 및 보상방법{VERIFICATION METHOD AND COMPENSATION METHOD FOR REGISTRATION OF IMAGES FOR SURGERY}
본 발명은 수술영상의 정합에 대한 검증방법 및 보상방법에 관한 것으로, 더욱 상세하게는 짧은 시간에 적은 비용으로 정확한 정합 결과를 획득할 수 있는 수술영상의 정합에 대하여 검증할 수 있는 수술영상의 정합에 대한 검증방법 및 정합 오차를 보상할 수 있는 수술영상의 정합에 대한 보상방법을 제공하는 것이다.
최근 환자의 환부를 치료하는 수술에 있어서 기 촬영된 영상을 이용한 수술이 많이 활용되고 있다. 특히, 이비인후과 수술의 경우, 환자 신체내의 중요한 신경과 주요 장기들을 회피하면서 수술을 진행하여야 하므로, 기 촬영된 영상을 기반으로 하여 높은 정확도를 갖는 수술을 진행할 것이 요구된다.
일반적으로, 기 촬영된 영상은 MRI 촬영, CT 촬영 등의 3차원 영상을 포함하며, 이러한 3차원 영상과 수술시 실시간으로 촬영되는 환자의 3차원 영상을 서로 정확히 정합(registration)할 수 있도록, 다양한 정합 방법들, 예를 들면, 피부 표면에 마커(marker)를 장착하는 방법, 템플릿(template)을 이용하는 방법, 스탬프(STAMP, Surface Template-Assisted Marker Position) 방법 등이 연구되어 왔다.
그러나, 상기와 같은 종래의 방법들은, 마커를 피부에 부착함으로 야기되는 피부 변화에 따른 오차, 수술 전에 스탬프를 제작하여야 하는 번거로움과 제작에 소요되는 많은 비용, 정합을 위한 많은 시간 소요 등과 같은 여러 가지 문제점이 있었다.
따라서, 종래와는 다르게, 보다 짧은 시간에 적은 비용으로 정확한 정합 결과를 획득할 수 있는 정합 방법의 개발이 요청되며, 정합에 대한 검증방법 및 보상방법의 개발이 요청된다.
따라서, 본 발명이 해결하고자 하는 과제는 짧은 시간에 적은 비용으로 정확한 정합 결과를 획득할 수 있는 수술영상의 정합에 대하여 검증할 수 있는 수술영상의 정합에 대한 검증방법을 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는 상기한 수술영상의 정합의 정합 오차를 보상할 수 있는 수술영상의 정합에 대한 보상방법을 제공하는 것이다.
본 발명의 예시적인 일 실시예에 따라 수술영상의 정합이 정확한지 여부를 검증하기 위하여, 먼저 검증대상이 되는 모형을 제작한다. 이어서, 상기 모형에 기준체를 설치한다. 다음으로, 상기 기준체가 설치된 모형에 대하여 3차원 기준데이터를 획득한다. 이어서, 상기 기준체가 설치된 모형에 격자패턴광을 조사하여 상기 격자패턴광에 따른 상기 기준체가 설치된 모형에 대한 반사이미지를 획득한다. 다음으로, 획득된 상기 기준체가 설치된 모형에 대한 반사이미지에 버킷 알고리즘(bucket algorithm)을 적용하여 3차원 형상을 측정하고, 상기 3차원 형상으로부터 측정영상을 획득한다. 이어서, 상기 획득된 측정영상 및 상기 기 획득된 3차원 기준데이터를 상기 모형의 표면을 기초로 서로 정합(registration)한다. 다음으로, 상기 3차원 기준데이터에 나타나는 타겟의 기준위치 및 상기 측정영상에 나타나는 상기 기준체에 의하여 예측되는 상기 타겟의 예측위치를 비교한다.
예를 들면, 상기 기준체는 봉 형상을 가질 수 있고, 상기 기준체는 적어도 3개 이상일 수 있다.
일 실시예로, 상기 3차원 기준데이터는 상기 모형 및 상기 기준체에 대한 캐드(CAD) 정보 및 정밀측정 정보 중 적어도 하나로부터 획득될 수 있다.
일 실시예로, 상기 3차원 기준데이터에 나타나는 타겟의 기준위치 및 상기 기준체에 의하여 예측되는 상기 타겟의 예측위치를 비교한 이후에, 상기 타겟의 기준위치 및 상기 타겟의 예측위치 사이의 위치차이를 산출하고, 이어서 상기 위치차이가 기준값 이내에 존재하는지 여부를 체크할 수 있다.
본 발명의 예시적인 일 실시예에 따라 수술영상의 정합을 보상하기 위하여, 먼저 검증대상이 되는 모형을 제작한다. 이어서, 상기 모형에 기준체를 설치한다. 다음으로, 상기 기준체가 설치된 모형에 대하여 3차원 기준데이터를 획득한다. 이어서, 상기 기준체가 설치된 모형에 격자패턴광을 조사하여 상기 격자패턴광에 따른 상기 기준체가 설치된 모형에 대한 반사이미지를 획득한다. 다음으로, 획득된 상기 기준체가 설치된 모형에 대한 반사이미지에 버킷 알고리즘을 적용하여 3차원 형상을 측정하고, 상기 3차원 형상으로부터 측정영상을 획득한다. 이어서, 상기 획득된 측정영상 및 상기 기 획득된 3차원 기준데이터를 상기 모형의 표면을 기초로 서로 정합한다. 다음으로, 상기 3차원 기준데이터에 나타나는 타겟의 기준위치 및 상기 측정영상에 나타나는 상기 기준체에 의하여 예측되는 상기 타겟의 예측위치를 비교한다. 이어서, 상기 타겟의 기준위치 및 상기 타겟의 예측위치 사이의 위치차이를 산출한다. 다음으로, 상기 위치차이를 보상하는 보상관계식을 획득한다. 이어서, 상기 보상관계식을 이용하여 실제 수술영상의 정합을 보정한다.
본 발명에 따르면, 수술 전에 환자의 수술부위에 대하여 CT와 같은 3차원 기준영상을 미리 획득한 후, 격자패턴광에 따른 패턴영상을 이용한 버킷 알고리즘을 적용하여 수술부위의 3차원 형상을 측정한 후, 측정된 영상을 3차원 기준영상과 정합한다. 이때, 수술부위의 절개 전에 측정된 측정영상을 이용하여 사전 정합을, 수술부위의 절개 후에 측정된 측정영상을 이용하여 정밀 정합을 할 수 있고, 이와는 다르게 수술부위의 절개 후에 측정된 측정영상을 이용하되, 작업자로부터 정합을 수동으로 입력받아 사전 정합을, ICP 알고리즘을 이용하여 정밀 정합을 할 수 있다.
이에 대하여, 검증 대상이 되는 모형을 제작하고 상기 모형에 기준체를 설치한 후, 기준데이터와 측정영상을 획득하여 정합하고 이에 따른 타겟의 위치 변화를 분석함으로써, 앞선 정합의 정확성을 검증할 수 있고, 보상할 수 있다.
또한, 상기 기준체를 적어도 3개 이상의 봉 형상의 물체로 채용하는 경우, 측정영상으로부터 예측되는 타겟의 위치가 보다 정확할 수 있으므로, 상기 검증 및 보상 또한 정확하게 이루어질 수 있다.
도 1은 본 발명의 일 실시예에 따른 수술영상의 정합 방법을 나타낸 흐름도이다.
도 2는 도 1에서 환자의 수술부위를 촬영하여 측정영상을 획득하는 과정을 설명하기 위한 3차원 형상 측정장치의 개념도이다.
도 3은 도 1에서 사전 정합하는 과정을 설명하기 위한 개념도이다.
도 4는 도 1에서 정밀 정합하는 과정을 설명하기 위한 개념도이다.
도 5는 도 1에서 정밀 정합을 검증하는 과정을 설명하기 위한 개념도이다.
도 6은 본 발명의 다른 실시예에 따른 수술영상의 정합 방법을 나타낸 흐름도이다.
도 7은 도 6에서 사전 정합하는 과정을 설명하기 위한 개념도이다.
도 8은 본 발명의 일 실시예에 따른 수술영상의 정합에 대한 검증방법을 나타낸 흐름도이다.
도 9는 도 8의 검증방법에서 활용되는 모형의 일 예를 도시한 사시도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 개시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.
본 출원에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 수술영상의 정합 방법을 나타낸 흐름도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따라 수술영상의 정합을 하기 위하여, 먼저 수술 전 3차원 기준영상을 획득한다(S110).
구체적으로, 수술 전에 미리 환자의 수술부위, 예를 들면, 환자의 귀 부위에 대하여 3차원 기준영상을 획득한다. 상기 3차원 기준영상은 진단 및 치료를 위하여 병원에서 일반적으로 획득하는 CT(컴퓨터 단층촬영, computed tomography) 영상을 포함할 수 있다. 이와는 다르게, 상기 3차원 기준영상은 MRI(자기공명영상, magnetic resonance imaging) 등과 같은 다른 3차원 영상을 포함할 수 있다.
이어서, 상기 수술부위에 격자패턴광을 조사하여 제1 측정영상을 획득한다(S120).
구체적으로, 상기 수술부위에 격자패턴광을 조사하고, 상기 격자패턴광에 따른 상기 수술부위에 대한 제1 반사이미지를 획득한 후, 상기 획득된 수술부위에 대한 제1 반사이미지에 버킷 알고리즘(bucket algorithm)을 적용하여 3차원 형상을 측정하고, 상기 3차원 형상으로부터 제1 측정영상을 획득한다.
도 2는 도 1에서 환자의 수술부위를 촬영하여 측정영상을 획득하는 과정을 설명하기 위한 3차원 형상 측정장치의 개념도이다.
도 2를 참조하면, 상기 수술부위에 격자패턴광을 조사하여 제1 측정영상을 획득하기 위한 3차원 형상 측정장치(100)는 투영부(110), 영상 촬영부(120) 및 중앙 제어부(도시되지 않음)를 포함할 수 있다.
상기 투영부(110)는 상기 수술부위(10)에 대하여 경사지게 배치될 수 있으며, 상기 수술부위(10)에 격자패턴광을 조사한다. 일 실시예로, 상기 투영부(110)는 상기 격자패턴광을 조사하기 위하여, 광원유닛, 격자유닛, 격자이송유닛 및 집광렌즈를 포함할 수 있다. 상기 광원유닛은 광을 발생시킨다. 상기 격자유닛은 상기 광원으로부터 발생된 광을 격자패턴을 갖는 상기 격자패턴광으로 변경시킨다. 상기 격자이송유닛은 상기 격자유닛과 연결되어 상기 격자유닛을 이송시키고, 일례로 PZT(Piezoelectric) 이송유닛이나 미세직선 이송유닛 중 어느 하나를 채용할 수 있다. 상기 집광렌즈는 상기 격자유닛의 하부에 배치되어 상기 격자유닛을 통과한 상기 격자패턴광을 상기 수술부위(10)로 집광시킨다.
일 실시예로, 상기 투영부(110)는 상기 격자이송유닛이 상기 격자유닛을 N번 순차적으로 이동하면서 상기 수술부위(10)로 N개의 격자패턴광들을 조사할 때, 후술될 상기 영상 촬영부(120)는 상기 수술부위(10)에서 반사된 상기 N개의 격자패턴광들을 순차적으로 인가받아 N개의 패턴영상들을 촬영할 수 있다. 상기 N은 자연수로, 일 예로 3 또는 4일 수 있다.
상기 투영부(110)는 상기와 같이 PZT 이송유닛을 이용한 아날로그 패턴 주사 장치를 채용할 수도 있으며, 이와는 다르게, DMD(digital micromirror device)를 이용한 디지털 패턴 주사 장치를 채용할 수도 있다.
상기 투영부(110)는 복수일 수 있다. 이 경우, 상기 수술부위(10)로 조사되는 격자패턴광이 다양한 방향에서 조사되어, 다양한 종류의 패턴영상들이 촬영될 수 있으며, 상기 수술부위(10)의 형상에 의하여 어둡게 발생하는 그림자 영역이나 밝게 빛나는 포화 영역에 의한 오류를 방지할 수 있다. 예를 들어, 3개의 투영부(110)들이 상기 영상 촬영부(120)를 중심으로 정삼각형 형태로 배치될 경우, 3개의 격자패턴광들이 서로 다른 방향에서 상기 수술부위(10)로 인가될 수 있고, 4개의 투영부(110)들이 상기 영상 촬영부(120)를 중심으로 정사각형 형태로 배치될 경우, 4개의 격자패턴광들이 서로 다른 방향에서 상기 수술부위(10)로 인가될 수 있다.
이와는 다르게, 상기 투영부(110)는 하나일 수 있다. 이 경우, 상기 수술부위(10)로 조사되는 격자패턴광은 일 방향에서 조사되므로, 그림자 영역이나 포화 영역에 의하여 일부분에서 오류가 발생할 수 있지만, 후술하는 정합을 위하여 필요한 만큼을 훼손할 정도의 오류는 발생하지 않을 수 있다.
상기 영상 촬영부(120)는 상기 수술부위(10)의 상부에 배치되어, 상기 수술부위(10)로부터 반사된 광을 인가받아 상기 수술부위(10)에 대한 영상을 촬영한다. 즉, 상기 영상 촬영부(120)는 상기 투영부(110)에서 출사되어 상기 수술부위(10)에서 반사된 광을 인가받아, 상기 수술부위(10)의 평면영상을 촬영한다.
일 실시예로, 상기 영상 촬영부(120)는 카메라, 결상렌즈 및 필터를 포함할 수 있다. 상기 카메라는 상기 수술부위(10)로부터 반사되는 광을 인가받아 상기 수술부위(10)의 평면영상을 촬영하며, 일례로 CCD 카메라나 CMOS 카메라 중 어느 하나가 채용될 수 있다. 상기 결상렌즈는 상기 카메라의 하부에 배치되어, 상기 수술부위(10)에서 반사되는 광을 상기 카메라에서 결상시킨다. 상기 필터는 상기 결상렌즈의 하부에 배치되어, 상기 수술부위(10)에서 반사되는 광을 여과시켜 상기 결상렌즈로 제공하고, 일례로 주파수 필터, 컬러필터 및 광세기 조절필터 중 어느 하나를 포함할 수 있다.
상기 제어부는 상기 투영부(110) 및 상기 영상 촬영부(120)와 연결되어 상기 투영부(110) 및 상기 영상 촬영부(120)의 동작을 제어하며, 상기 영상 촬영부(120)로부터 촬영된 패턴영상을 이용하여 상기 수술부위(10)의 3차원 형상을 측정, 산출한다.
한편, 도시되지 않았지만, 상기 3차원 형상 측정장치(100)는 상기한 구성을 고정하기 위한 지그부를 더 포함할 수 있다.
또한, 상기 3차원 형상 측정장치(100)는 정확한 초점을 맞추기 위하여, 아날로그 패턴 주사 장치를 채용하는 경우 오프셋 레이저(offset-axis laser)를 사용하여 레이저의 스팟(spot)이 카메라의 중심에 오도록 조정할 수 있으며, 디지털 패턴 주사 장치를 채용하는 경우 상기 투영부(110)에서 직접 스팟을 주사하여 상기 스팟이 카메라의 중심에 오도록 조정할 수 있다.
다시 도 1을 참조하면, 다음으로, 제1 측정영상 및 3차원 기준영상을 사전 정합(preliminary registration)한다(S130).
구체적으로, 상기 수술부위(10)에 격자패턴광을 조사하여 제1 측정영상을 획득 하는 단계(S120)에서 획득된 상기 제1 측정영상과 상기 수술 전 3차원 기준영상을 획득하는 단계(S110)에서 획득된 상기 3차원 기준영상을 1차적으로 정합한다. 이러한 1차적인 정합은 후술될 정밀 정합 이전에 수행되는 사전 정합으로서, 대략적인 매칭(coarse matching)에 해당한다.
도 3은 도 1에서 사전 정합하는 과정을 설명하기 위한 개념도이다.
도 3을 참조하면, 일 예로 상기 수술부위(10)가 귀 부위인 경우, 상기 귀 부위에 격자패턴광을 조사하여 획득한 상기 귀 부위에 대한 제1 측정영상(10a)과 수술 전 획득한 CT 영상인 상기 귀 부위에 대한 3차원 기준영상(15a)을 사전 정합한다.
다시 도 1을 참조하면, 이어서, 뼈에 격자패턴광을 조사하여 제2 측정영상 획득한다(S140).
구체적으로, 수술을 위하여 상기 수술부위(10)가 절개된 후, 상기 수술부위(10)에 대응하는 뼈에 격자패턴광을 조사하고, 상기 격자패턴광에 따른 상기 수술부위에 대응하는 뼈에 대한 제2 반사이미지를 획득한 후, 상기 획득된 수술부위에 대응하는 뼈에 대한 제2 반사이미지에 버킷 알고리즘을 적용하여 3차원 형상을 측정하고, 상기 3차원 형상으로부터 제2 측정영상을 획득한다.
상기 제2 측정영상을 획득하는 과정은, 측정대상이 상기 수술부위(10)가 절개된 후 상기 수술부위(10)에 대응하는 뼈인 점을 제외하면, 도 2에서 설명된 제1 측정영상을 획득하는 과정과 실질적으로 동일하므로, 중복되는 상세한 설명은 생략한다.
다시 도 1을 참조하면, 다음으로, 제2 측정영상 및 3차원 기준영상을 사전 정합 결과를 기초로 정밀 정합(fine registration)한다(S150).
구체적으로, 상기 수술부위(10)에 대응하는 뼈에 격자패턴광을 조사하여 제2 측정영상을 획득 하는 단계(S140)에서 획득된 상기 제2 측정영상과 상기 수술 전 3차원 기준영상을 획득하는 단계(S110)에서 획득된 상기 3차원 기준영상을 2차적으로 정합한다. 이러한 2차적인 정합은 정밀한 매칭(fine matching)에 해당한다.
도 4는 도 1에서 정밀 정합하는 과정을 설명하기 위한 개념도이다.
도 4를 참조하면, 일 예로 상기 수술부위(10)가 귀 부위인 경우, 상기 귀 부위를 절개한 후 격자패턴광을 조사하여 획득한 상기 귀 부위에 대응하는 뼈에 대한 제2 측정영상(10b)과 수술 전 획득한 CT 영상인 상기 귀 부위에 대응하는 뼈에 대한 3차원 기준영상(15b)을 정밀 정합한다.
다시 도 1을 참조하면, 선택적으로 상기 정밀 정합에 따른 정합 결과를 검증할 수 있다(S160).
구체적으로, 상기 수술부위(10)에 대응하는 뼈에 검증툴(tool)을 접촉시킨 후, 상기 정밀 정합에 의해 생성된 가상 화면에서 상기 검증툴이 접촉되어 있는지 체크(check)할 수 있다. 이때, 상기 가상 화면에서 상기 검증툴이 정상적으로 접촉된 것으로 나타나면, 상기 정합이 유효한 것으로 판단할 수 있다.
도 5는 도 1에서 정밀 정합을 검증하는 과정을 설명하기 위한 개념도이다.
도 5를 참조하면, 일 예로 상기 수술부위(10)가 귀 부위인 경우, 상기 귀 부위에 대응하는 뼈에 검증툴(20)을 접촉시킨 후(10c), 수술 전 획득한 CT 영상인 상기 귀 부위에 대응하는 뼈에 대한 3차원 기준영상(15b)에 검증툴(20)이 정상적으로 접촉되어 나타나는지(15c) 검증한다.
도 6은 본 발명의 다른 실시예에 따른 수술영상의 정합 방법을 나타낸 흐름도이다.
도 6을 참조하면, 본 발명의 다른 실시예에 따라 수술영상의 정합을 하기 위하여, 먼저 수술 전 3차원 기준영상을 획득한다(S210).
본 단계는 도 1에서 설명된 수술 전 3차원 기준영상을 획득하는 단계(S110)와 실질적으로 동일하므로 중복되는 상세한 설명은 생략한다.
이어서, 뼈에 격자패턴광을 조사하여 측정영상을 획득한다(S220).
본 단계는 도 1에서 설명된 제2 측정영상을 획득하는 단계(S140)와 실질적으로 동일하므로 중복되는 상세한 설명은 생략한다.
다음으로, 측정영상 및 3차원 기준영상을 사전 정합한다(S230).
구체적으로, 상기 수술부위(10)에 대응하는 뼈에 격자패턴광을 조사하여 상기 측정영상을 획득 하는 단계(S220)에서 획득된 상기 측정영상과 상기 수술 전 3차원 기준영상을 획득하는 단계(S210)에서 획득된 상기 3차원 기준영상을 1차적으로 정합하되, 상기 정합을 작업자로부터 입력받는다. 이러한 1차적인 정합은 대략적인 매칭에 해당한다.
도 7은 도 6에서 사전 정합하는 과정을 설명하기 위한 개념도이다.
도 7을 참조하면, 일 예로 상기 수술부위(10)가 귀 부위인 경우, 상기 귀 부위를 절개한 후 격자패턴광을 조사하여 획득한 상기 귀 부위에 대응하는 뼈에 대한 측정영상(10b)과 수술 전 획득한 CT 영상인 상기 귀 부위에 대응하는 뼈에 대한 3차원 기준영상(15b)을 사전 정합하되, 상기 정합을 작업자로부터 입력받는다.
다시 도 6을 참조하면, 이어서, 측정영상 및 3차원 기준영상을 사전 정합 결과를 기초로 ICP(iterative closest points) 알고리즘을 이용하여 정밀 정합한다(S240).
상기 ICP 알고리즘은 3차원 장면의 정합을 위한 알고리즘으로 여러 응용분야에서 활용되는 것으로 공지의 알고리즘이므로, 구체적인 설명은 생략한다.
다음으로, 선택적으로 상기 정밀 정합에 따른 정합 결과를 검증할 수 있다(S250).
본 단계는 도 1에서 설명된 정밀 정합에 따른 정합 결과를 검증하는 단계(S160)와 실질적으로 동일하므로 중복되는 상세한 설명은 생략한다.
앞서 설명한 본 발명에 따른 수술영상의 정합은 다음과 같은 방법에 의하여도 검증될 수 있고, 보상될 수 있다.
도 8은 본 발명의 일 실시예에 따른 수술영상의 정합에 대한 검증방법을 나타낸 흐름도이고, 도 9는 도 8의 검증방법에서 활용되는 모형의 일 예를 도시한 사시도이다.
도 8 및 도 9를 참조하면, 본 발명의 일 실시예에 따라 수술영상의 정합이 정확한지 여부를 검증하기 위하여, 먼저 검증대상이 되는 모형(200)을 제작한다(S310).
상기 모형(200)은 환자의 수술부위를 포함하는 부분의 모형으로서, 예를 들면, 환자의 귀 부위를 모사하여 제작될 수 있으며, 도 1 및 도 4에서 설명된 귀 부위를 절개한 후 대응하는 뼈에 대한 부분을 모사하여 제작될 수 있다.
이어서, 상기 모형(200)에 기준체(210)를 설치한다(S320).
상기 기준체(210)는 후술되는 타겟(target)의 상대적 위치를 계산하기 위한 기준이 되는 물체이다. 예를 들면, 도 9에 도시된 바와 같이, 상기 기준체(210)는 봉 형상을 가질 수 있다. 상기 기준체(210)는 타겟의 상대적 위치를 정확히 예측하기 위하여 적어도 3개 이상일 수 있다.
다음으로, 상기 기준체(210)가 설치된 모형(200)에 대하여 3차원 기준데이터를 획득한다(S330). 상기 3차원 기준데이터는, 일 예로, 3차원 기준영상을 포함할 수 있다.
일 실시예로, 상기 3차원 기준데이터는 상기 모형(200) 및 상기 기준체(210)에 대한 형상을 기록한 캐드(CAD) 정보로부터 획득될 수 있다. 상기 캐드 정보는 상기 모형(200) 및 상기 기준체(210)의 설계 기준정보를 포함한다. 이와는 다르게, 상기 3차원 기준데이터는 정밀측정장치를 이용하여 측정된 상기 모형(200) 및 상기 기준체(210)의 정밀형상 정보로부터 획득될 수 있다.
이어서, 상기 기준체(210)가 설치된 모형(200)에 격자패턴광을 조사하여 측정영상을 획득한다(S340).
구체적으로, 상기 기준체(210)가 설치된 모형(200)에 격자패턴광을 조사하여 상기 격자패턴광에 따른 상기 기준체(210)가 설치된 모형(220)에 대한 반사이미지를 획득하고, 획득된 상기 기준체(210)가 설치된 모형(220)에 대한 반사이미지에 버킷 알고리즘을 적용하여 3차원 형상을 측정하고, 상기 3차원 형상으로부터 측정영상을 획득한다. 이 과정은 앞서 도 1 및 도 2에서 설명한 3차원 형상 측정장치(100)를 이용한 측정 과정에 대응되며, 중복되는 상세한 설명은 생략한다.
이어서, 상기 획득된 측정영상 및 상기 기 획득된 3차원 기준데이터를 상기 모형(200)의 표면을 기초로 서로 정합(registration)한다(S350).
상기 정합은 앞서 도 1 및 도 4에서 설명된 정밀 정합하는 과정(S150)에 대응될 수 있다.
다음으로, 상기 3차원 기준데이터에 나타나는 타겟의 기준위치 및 상기 측정영상에 나타나는 상기 기준체(210)에 의하여 예측되는 상기 타겟의 예측위치(EL)를 비교한다(S360).
상기 타겟은 수술부위일 수 있다. 상기 타겟의 기준위치는 CT 영상 등에 의해 얻어진 수술부위의 위치를 캐드 정보 등의 3차원 기준데이터에 적용하여 획득될 수 있으며, 타겟이 이론적으로 존재하는 위치일 수 있다. 상기 타겟의 예측위치(EL)는 상기 측정영상에 나타난 상기 기준체(210)로부터 상대적으로 위치할 것으로 예상되는 위치일 수 있다. 도 9가 상기 측정영상에 대응할 때, 도 9에 도시된 바와 같이, 상기 기준체(210)가 봉 형상을 갖는 경우, 상기 기준체(210)의 끝점(EP)이나, 상기 기준체(210)가 상기 모형(200)의 표면과 만나는 접점(CP) 등을 기준으로, 상기 타겟의 예측위치(EL)를 획득할 수 있다.
이와 같이 측정된 상기 기준위치와 상기 예측위치의 차이가 적을수록 앞서 설명한 정합 방법의 오차가 적다고 판단할 수 있다.
일 실시예로, 상기 3차원 기준데이터에 나타나는 타겟의 기준위치 및 상기 기준체에 의하여 예측되는 상기 타겟의 예측위치를 비교한 이후에, 상기 타겟의 기준위치 및 상기 타겟의 예측위치 사이의 위치차이를 산출하고, 이어서 상기 위치차이가 기준값 이내에 존재하는지 여부를 체크할 수 있다. 상기 위치차이가 기준값 이내에 존재하면 상기 정합 방법은 양(good)으로 판단될 수 있고, 상기 위치차이가 기준값 이내에 존재하지 않으면 상기 정합 방법은 부(bad)로 판단될 수 있다.
한편, 이와 같은 검증방법에 따라 나타난 상기 위치차이를 이용하여 앞서 설명된 정합 방법의 오차를 보정할 수도 있다.
즉, 상기 타겟의 기준위치 및 상기 타겟의 예측위치 사이의 위치차이를 산출한 후, 상기 위치차이를 보상하는 보상관계식을 획득하고, 상기 보상관계식을 이용하여 실제 수술영상의 정합을 보정할 수 있다. 한편, 상기 보상관계식을 획득하기 위하여, 상기 기준체(210)의 위치를 변화시키고 이에 따른 앞선 과정을 반복적으로 적용하여 다양한 기초 데이터를 확보할 수 있다.
상기와 같은 본 발명에 따르면, 수술 전에 환자의 수술부위에 대하여 CT와 같은 3차원 기준영상을 미리 획득한 후, 격자패턴광에 따른 패턴영상을 이용한 버킷 알고리즘을 적용하여 수술부위의 3차원 형상을 측정한 후, 측정된 영상을 3차원 기준영상과 정합한다. 이때, 수술부위의 절개 전에 측정된 측정영상을 이용하여 사전 정합을, 수술부위의 절개 후에 측정된 측정영상을 이용하여 정밀 정합을 할 수 있고, 이와는 다르게 수술부위의 절개 후에 측정된 측정영상을 이용하되, 작업자로부터 정합을 수동으로 입력받아 사전 정합을, ICP 알고리즘을 이용하여 정밀 정합을 할 수 있다.
이에 대하여, 검증 대상이 되는 모형을 제작하고 상기 모형에 기준체를 설치한 후, 기준데이터와 측정영상을 획득하여 정합하고 이에 따른 타겟의 위치 변화를 분석함으로써, 앞선 정합의 정확성을 검증할 수 있고, 보상할 수 있다.
또한, 상기 기준체를 적어도 3개 이상의 봉 형상의 물체로 채용하는 경우, 측정영상으로부터 예측되는 타겟의 위치가 보다 정확할 수 있으므로, 상기 검증 및 보상 또한 정확하게 이루어질 수 있다.
앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이다.  따라서, 전술한 설명 및 아래의 도면은 본 발명의 기술사상을 한정하는 것이 아닌 본 발명을 예시하는 것으로 해석되어야 한다.
10 : 수술부위 100 : 3차원 형상 측정장치
110 : 투영부 120 : 영상 촬영부
200 : 모형 210 : 기준체
EP : 끝점 CP : 접점
EL : 예측위치

Claims (6)

  1. 검증대상이 되는 모형을 제작하는 단계;
    상기 모형에 기준체를 설치하는 단계;
    상기 기준체가 설치된 모형에 대하여 3차원 기준데이터를 획득하는 단계;
    상기 기준체가 설치된 모형에 격자패턴광을 조사하여 상기 격자패턴광에 따른 상기 기준체가 설치된 모형에 대한 반사이미지를 획득하는 단계;
    획득된 상기 기준체가 설치된 모형에 대한 반사이미지에 버킷 알고리즘(bucket algorithm)을 적용하여 3차원 형상을 측정하고, 상기 3차원 형상으로부터 측정영상을 획득하는 단계;
    상기 획득된 측정영상 및 상기 기 획득된 3차원 기준데이터를 상기 모형의 표면을 기초로 서로 정합(registration)하는 단계; 및
    상기 3차원 기준데이터에 나타나는 타겟의 기준위치 및 상기 측정영상에 나타나는 상기 기준체에 의하여 예측되는 상기 타겟의 예측위치를 비교하는 단계를 포함하는 수술영상의 정합에 대한 검증방법.
  2. 제1항에 있어서,
    상기 기준체는 봉 형상을 갖는 것을 특징으로 하는 수술영상의 정합에 대한 검증방법.
  3. 제1항에 있어서,
    상기 기준체는 적어도 3개 이상인 것을 특징으로 하는 수술영상의 정합에 대한 검증방법.
  4. 제1항에 있어서,
    상기 3차원 기준데이터는 상기 모형 및 상기 기준체에 대한 캐드(CAD) 정보 및 정밀측정 정보 중 적어도 하나로부터 획득되는 것을 특징으로 하는 수술영상의 정합에 대한 검증방법.
  5. 제1항에 있어서,
    상기 3차원 기준데이터에 나타나는 타겟의 기준위치 및 상기 기준체에 의하여 예측되는 상기 타겟의 예측위치를 비교하는 단계 이후에,
    상기 타겟의 기준위치 및 상기 타겟의 예측위치 사이의 위치차이를 산출하는 단계; 및
    상기 위치차이가 기준값 이내에 존재하는지 여부를 체크하는 단계를 포함하는 수술영상의 정합에 대한 검증방법.
  6. 검증대상이 되는 모형을 제작하는 단계;
    상기 모형에 기준체를 설치하는 단계;
    상기 기준체가 설치된 모형에 대하여 3차원 기준데이터를 획득하는 단계;
    상기 기준체가 설치된 모형에 격자패턴광을 조사하여 상기 격자패턴광에 따른 상기 기준체가 설치된 모형에 대한 반사이미지를 획득하는 단계;
    획득된 상기 기준체가 설치된 모형에 대한 반사이미지에 버킷 알고리즘을 적용하여 3차원 형상을 측정하고, 상기 3차원 형상으로부터 측정영상을 획득하는 단계;
    상기 획득된 측정영상 및 상기 기 획득된 3차원 기준데이터를 상기 모형의 표면을 기초로 서로 정합하는 단계;
    상기 3차원 기준데이터에 나타나는 타겟의 기준위치 및 상기 측정영상에 나타나는 상기 기준체에 의하여 예측되는 상기 타겟의 예측위치를 비교하는 단계;
    상기 타겟의 기준위치 및 상기 타겟의 예측위치 사이의 위치차이를 산출하는 단계;
    상기 위치차이를 보상하는 보상관계식을 획득하는 단계; 및
    상기 보상관계식을 이용하여 실제 수술영상의 정합을 보정하는 단계를 포함하는 수술영상의 정합에 대한 보상방법.
KR1020120045349A 2012-04-30 2012-04-30 수술영상의 정합에 대한 검증방법 및 보상방법 KR101294649B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020120045349A KR101294649B1 (ko) 2012-04-30 2012-04-30 수술영상의 정합에 대한 검증방법 및 보상방법
PCT/KR2013/003379 WO2013165111A1 (ko) 2012-04-30 2013-04-22 수술영상의 정합에 대한 검증방법 및 보상방법
US14/344,812 US9717480B2 (en) 2012-04-30 2013-04-22 Method of verifying a surgical operation image matching and method of compensating a surgical operation image matching

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120045349A KR101294649B1 (ko) 2012-04-30 2012-04-30 수술영상의 정합에 대한 검증방법 및 보상방법

Publications (1)

Publication Number Publication Date
KR101294649B1 true KR101294649B1 (ko) 2013-08-16

Family

ID=49220142

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120045349A KR101294649B1 (ko) 2012-04-30 2012-04-30 수술영상의 정합에 대한 검증방법 및 보상방법

Country Status (3)

Country Link
US (1) US9717480B2 (ko)
KR (1) KR101294649B1 (ko)
WO (1) WO2013165111A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101570856B1 (ko) 2014-05-16 2015-11-24 큐렉소 주식회사 조직 위치 검출 방법 및 이를 이용하는 장치

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9285666B2 (en) * 2014-04-16 2016-03-15 Eue Medical Technology Co., Ltd. Object guide system
KR20160028273A (ko) * 2014-09-03 2016-03-11 삼성전자주식회사 병변 검출 보간 장치 및 방법
FI20155784A (fi) * 2015-11-02 2017-05-03 Cryotech Nordic Oü Automatisoitu järjestelmä laser-avusteiseen dermatologiseen hoitoon ja ohjausmenetelmä
WO2021070188A1 (en) 2019-10-11 2021-04-15 Beyeonics Surgical Ltd. System and method for improved electronic assisted medical procedures

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004275334A (ja) * 2003-03-14 2004-10-07 Hitachi Medical Corp X線ctによる骨密度評価器具とそれを用いた骨密度評価システム
KR100517889B1 (ko) * 2003-05-09 2005-09-30 주라형 영상정합 정확성 평가용 팬텀
KR100942160B1 (ko) * 2008-01-02 2010-02-12 가톨릭대학교 산학협력단 영상정합 평가를 위한 인체모사 팬텀

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5823958A (en) * 1990-11-26 1998-10-20 Truppe; Michael System and method for displaying a structural data image in real-time correlation with moveable body
US7559895B2 (en) * 2000-07-07 2009-07-14 University Of Pittsburgh-Of The Commonwealth System Of Higher Education Combining tomographic images in situ with direct vision using a holographic optical element
EP2008576B1 (en) * 2001-03-15 2011-05-11 AMO WaveFront Sciences, LLC Topographic wavefront analysis system and method of mapping an optical system
JP2005205184A (ja) * 2003-12-22 2005-08-04 Pentax Corp 診断支援装置
US7967742B2 (en) * 2005-02-14 2011-06-28 Karl Storz Imaging, Inc. Method for using variable direction of view endoscopy in conjunction with image guided surgical systems
WO2008052006A2 (en) * 2006-10-23 2008-05-02 Xenogen Corporation Apparatus and methods for fluorescence guided surgery
US8358818B2 (en) * 2006-11-16 2013-01-22 Vanderbilt University Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same
WO2009009081A2 (en) * 2007-07-10 2009-01-15 Massachusetts Institute Of Technology Tomographic phase microscopy
WO2009042644A2 (en) * 2007-09-25 2009-04-02 Perception Raisonnement Action En Medecine Methods and apparatus for assisting cartilage diagnostic and therapeutic procedures

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004275334A (ja) * 2003-03-14 2004-10-07 Hitachi Medical Corp X線ctによる骨密度評価器具とそれを用いた骨密度評価システム
KR100517889B1 (ko) * 2003-05-09 2005-09-30 주라형 영상정합 정확성 평가용 팬텀
KR100942160B1 (ko) * 2008-01-02 2010-02-12 가톨릭대학교 산학협력단 영상정합 평가를 위한 인체모사 팬텀

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101570856B1 (ko) 2014-05-16 2015-11-24 큐렉소 주식회사 조직 위치 검출 방법 및 이를 이용하는 장치

Also Published As

Publication number Publication date
US20150051725A1 (en) 2015-02-19
US9717480B2 (en) 2017-08-01
WO2013165111A1 (ko) 2013-11-07

Similar Documents

Publication Publication Date Title
KR101307944B1 (ko) 수술영상의 정합 방법
US11690682B2 (en) Alignment precision
KR101294649B1 (ko) 수술영상의 정합에 대한 검증방법 및 보상방법
US9724049B2 (en) Radiotherapy system
CN107875524B (zh) 放射治疗***、模体以及等中心校准方法
JP4651591B2 (ja) 位置決め装置
CN112446856A (zh) 摄像机参数检查方法及相应患者监控***和计算机
US8121380B2 (en) Computerized imaging method for a three-dimensional reconstruction from two-dimensional radiological images; implementation device
US11257241B2 (en) System and method for component positioning by registering a 3D patient model to an intra-operative image
US11602397B2 (en) System and method to conduct bone surgery
KR20180093939A (ko) X-선 이미지를 보정하는 방법
JP2019532728A (ja) 磁気共鳴イメージングのための知的モデルベースの患者ポジショニングシステム
CN113349734B (zh) 眼底相机及其工作距离校准方法
US20050192495A1 (en) Medical examination apparatus having means for performing correction of settings
WO2014096835A1 (en) Improvements in and relating to ophthalmoscopes
RU2762146C1 (ru) Устройство для обработки медицинских изображений, способ обработки медицинских изображений и носитель данных
JP5411866B2 (ja) パターン計測装置及びパターン計測方法
Falih et al. Efficiency of+ IDonBlender photogrammetric tool in facial prosthetics rehabilitation–an evaluation study
WO2020126058A1 (en) Method to correct a dental digital model
CN117679060B (zh) 基于薄圆盘模体的球管机械位置校正方法及***
US20230020760A1 (en) Registration and/or tracking of a patient's bone employing a patient specific bone jig
CN110992406A (zh) 一种基于感兴趣区的放疗患者摆位刚体配准算法
JP2023518089A (ja) 患者固有の骨用ジグを用いた患者の骨のレジストレーションおよび/またはトラッキング
KR20220127005A (ko) 방사선 차폐 블록의 제작 정확도 검증 방법 및 그 시스템
CN110975173A (zh) 一种基于在线影像的放疗患者摆位质量保证软件

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160608

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170621

Year of fee payment: 5