KR20210131685A - 구강 영상 정합 장치 및 방법 - Google Patents

구강 영상 정합 장치 및 방법 Download PDF

Info

Publication number
KR20210131685A
KR20210131685A KR1020200050086A KR20200050086A KR20210131685A KR 20210131685 A KR20210131685 A KR 20210131685A KR 1020200050086 A KR1020200050086 A KR 1020200050086A KR 20200050086 A KR20200050086 A KR 20200050086A KR 20210131685 A KR20210131685 A KR 20210131685A
Authority
KR
South Korea
Prior art keywords
image
marker
oral
registration
oral scan
Prior art date
Application number
KR1020200050086A
Other languages
English (en)
Other versions
KR102383546B1 (ko
KR102383546B9 (ko
Inventor
김진철
김진백
Original Assignee
주식회사 디오
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 디오 filed Critical 주식회사 디오
Priority to KR1020200050086A priority Critical patent/KR102383546B1/ko
Priority to PCT/KR2021/005095 priority patent/WO2021215843A1/ko
Priority to EP21792744.1A priority patent/EP4140411A4/en
Priority to US17/996,009 priority patent/US20230215027A1/en
Priority to CN202180025038.2A priority patent/CN115379800A/zh
Publication of KR20210131685A publication Critical patent/KR20210131685A/ko
Application granted granted Critical
Publication of KR102383546B1 publication Critical patent/KR102383546B1/ko
Publication of KR102383546B9 publication Critical patent/KR102383546B9/ko

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B6/14
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C8/00Means to be fixed to the jaw-bone for consolidating natural teeth or for fixing dental prostheses thereon; Dental implants; Implanting tools
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/102Modelling of surgical devices, implants or prosthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physiology (AREA)
  • Robotics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

본 발명은, 오랄 스캔 영상 및 CT 영상을 정합하는 방법으로서, 오랄 스캔 영상에서 제1 마커 및 제1 치아 영역을 각각 분할하는 단계와, 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 단계와, CT 영상에서 제2 마커 및 제2 치아 영역을 분할하는 단계와, 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 단계와, 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합하는 단계를 포함하는 구강 영상 정합 방법을 제공한다.

Description

구강 영상 정합 장치 및 방법{APPARATUS AND METHOD FOR ORAL IMAGE REGISTRATION}
본 발명은 구강 영상 정합 장치 및 방법에 관한 것이다.
컴퓨터 비전에서 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 서로 다른 좌표계에 따른 영상이 얻어지게 된다. 영상 정합은 이와 같은 서로 다른 영상을 변형하여 하나의 좌표계에 나타내기 위한 처리를 의미한다.
이와 같은 영상 정합을 통하여 서로 다른 측정 방식을 통해 얻은 영상의 대응 관계를 확인할 수 있다.
치과용 수술 가이드(surgical guide) 소프트웨어에서는 임플란트(dental implant) 시술 계획 단계로 진입하기 전에 일반적으로 CT(Computed Tomography) 영상과 오랄 스캔(Oral Scan) 영상 간의 영상 정합 과정을 거치게 된다.
이러한 영상 정합 과정을 거쳐 정합된 영상은 골조직과 신경관 위치 등을 파악하여 안전하고 최적의 임플란트 식립 위치를 결정하는 임플란트 계획 작업의 기초가 되므로 영상 정합의 정확성은 그 이후 절차 진행에 있어 매우 중요한 의미를 가진다.
종래의 의료용 소프트웨어에서 제공하는 영상 정합 방법은 시술자가 영상 정합의 기준이 되는 포인트를 수동으로 입력하고, 이를 기초로 영상 정합이 이루어지게 된다.
이와 같은 종래의 영상 정합 방법에 따르면, 시술자가 눈으로 대략 판단하여 기준 포인트를 선택하므로 그 결과가 매우 부정확하여 영상 정합 후 시술자의 수동 조작 과정이 필연적으로 따르게 된다. 즉, 시술자는 포인트의 위치를 변경하거나 포인트를 재선택하여 정합 결과를 수정하게 된다. 이와 같이, 종래 기술에 따르면 정합 및 수정의 계속되는 반복 과정으로 인하여 영상 정합에 시술자가 많은 시간을 소비하게 되며, 소비된 시간만큼 만족하는 결과를 얻을 수 없는 문제점이 있었다.
또 다른 종래의 방법으로서, 구강 내 정합 기준으로 활용하기 위한 마커가 포함된 영상을 획득하고, 영상 내의 마커를 기준으로 이종 영상 촬영 장치로부터 획득된 영상을 정합하는 방법을 들 수 있다.
도 1은 영상 정합을 위해 구강 내부에 부착된 마커를 도시한 도면이다.
도 1을 참조하면, 마커(1)는 접착제(예컨대, 레진)를 이용해 피시술자의 구강 내의 정해진 위치에 복수 개로 부착된다. 이 후, 일정 시간이 경과하면 마커(1)와 잇몸 사이에 접착층(2)이 형성된다. 이 때, 마커(1)의 부착 위치 마다 접착제의 양과 형태가 달라 접착층(2)의 형태가 불균일하게 된다.
한편, 영상 정합을 위해 구강 영상에서 마커(1)를 검출함에 있어, 마커(1)와 접착층(2)은 일체로 형성되기 때문에, 마커(1)와 접착층(2)이 함께 검출될 수 있다. 그러나, 이러한 불균일한 접착층(2)은 영상 정합 시 정합에 방해가 요소가 되어, 영상 정합 시 정합 정확도를 떨어지게 하는 문제점을 야기한다.
본 발명은, 구강 영상에서 마커 및 치아 영역을 분할하되 마커에서 정합에 방해되는 요소를 제거하고, 분할된 마커를 이용해 높은 정확도로 영상 정합을 자동으로 수행하는 구강 영상 정합 장치 및 방법을 제공하는 것을 목적으로 한다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
전술한 과제를 해결하기 위해, 본 발명은, 오랄 스캔 영상 및 CT 영상을 정합하는 방법으로서, 오랄 스캔 영상에서 제1 마커 및 제1 치아 영역을 각각 분할하는 단계와, 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 단계와, CT 영상에서 제2 마커 및 제2 치아 영역을 분할하는 단계와, 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 단계와, 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합하는 단계를 포함하는 구강 영상 정합 방법을 제공한다.
여기서, 오랄 스캔 영상에서 제1 마커를 분할하는 단계는, 오랄 스캔 영상을 수평면 방향으로 정렬하는 단계와, 정렬된 오랄 스캔 영상에서 마커 후보 영역을 추정하고, 마커 후보 영역에서 미분할 마커를 검출하는 단계와, 미분할 마커를 분할하여 미분할 마커에서 제1 마커를 추정하되, 미분할 마커의 상부면에서 하부 방향으로 일정 깊이까지의 영역을 제1 마커로 추정하는 단계를 포함하는 구강 영상 정합 방법을 제공한다.
또한, 오랄 스캔 영상에서 제1 마커를 분할하는 단계는, 제1 마커가 부착된 다수의 제1 학습 영상을 학습하여 제1 학습 모델을 생성하는 단계와, 제1 학습 모델에 오랄 스캔 영상을 입력하는 단계와, 제1 학습 영상을 기반으로 오랄 스캔 영상에서 미분할 마커를 검출하는 단계를 포함한다.
또한, 오랄 스캔 영상에서 제1 치아 영역을 분할하는 단계는, 상기 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하는 단계와, 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상에서 제1 치아 영역 및 잇몸 영역의 경계를 산출하는 단계와, 제1 치아 영역 및 잇몸 영역의 경계를 기초로 오랄 스캔 영상에서 제1 치아 영역을 분할하는 단계를 포함한다.
또한, CT 영상에서 상기 제2 마커를 분할하는 단계는, 제2 마커의 부피 정보를 이용하여 CT 영상에서 상기 제2 마커를 검출하는 단계이다.
또한, CT 영상에서 제2 마커를 분할하는 단계는, 제2 마커의 부피 정보를 이용하여 제2 마커에 대응하는 형상으로 마스크를 생성하는 단계와, 마스크를 이용하여 CT 영상에서 상기 제2 마커를 탐색하는 단계를 포함한다.
또한, CT 영상에서 제2 치아 영역을 분할하는 단계는, CT 영상에 포함되는 복수의 복셀의 HU(hounsfield unit)값을 기초로 제2 학습 영상을 학습하여 제2 학습 모델을 생성하는 단계와, 제2 학습 모델에 상기 CT 영상을 입력하는 단계와, 제2 학습 영상을 기반으로 CT 영상에서 제2 치아 영역을 분할하는 단계를 포함한다.
또한, 본 발명은, 오랄 스캔 영상 및 CT 영상을 정합하는 장치로서, 오랄 스캔 영상에서 제1 마커를 분할하는 제1 마커 분할부와, 오랄 스캔 영상에서 제1 치아 영역을 분할하는 제1 치아 영역 분할부와, 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 제1 정합 기준점 생성부와, CT 영상에서 제2 마커를 분할하는 제2 마커 분할부와, CT 영상에서 제2 치아 영역을 분할하는 제2 치아 영역 분할부와, 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 제2 정합 기준점 생성부와, 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합하는 영상 정합부를 포함하는 구강 영상 정합 장치를 제공한다.
본 발명에 따르면, 구강 영상에서 마커 및 치아 영역을 분할하되 마커에서 정합에 방해되는 요소를 제거하고, 분할된 마커 및 치아 영역을 이용해 높은 정확도로 영상 정합을 자동으로 수행하여 사용자의 편의성을 증진시키고, 이에 수반하여 임플란트 계획에 소요되는 시간 단축 및 임플란트 계획의 정확성을 제고할 수 있는 효과가 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 영상 정합을 위해 구강 내부에 부착된 마커를 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 구강 영상 정합 장치의 개략적인 블록도이다.
도 3은 도 2의 제어부의 구체적인 블록도이다.
도 4는 본 발명의 실시예에 따른 구강 영상 정합 방법의 순서도이다.
도 5는 마커가 부착된 구강을 촬영하여 생성된 오랄 스캔 영상을 도시한 도면이다.
도 6은 미분할 마커를 확대한 도면이다.
도 7은 도 6의 미분할 마커에서 분할한 마커를 도시한 도면이다.
도 8은 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하는 방법을 설명하기 위한 도면이다.
도 9는 도 8에서 산출한 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상에서 분할된 치아 영역을 도시한 도면이다.
도 10은 오랄 스캔 영상에 제1 정합 기준점을 도시한 도면이다.
도 11은 마커가 부착된 구강을 촬영하여 생성된 CT 영상을 도시한 도면이다.
도 12는 도 11의 CT 영상에서 검출한 마커를 도시한 도면이다.
도 13은 CT 영상에서 분할된 치아 영역을 도시한 도면이다.
도 14는 CT 영상에 제2 정합 기준점을 도시한 도면이다.
도 15는 본 발명의 실시예에 따른 구강 영상 정합 방법으로 오랄 스캔 영상과 CT 영상을 정합한 도면이다.
본 발명의 상기 목적과 수단 및 그에 따른 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
본 명세서에서, “또는”, “적어도 하나” 등의 용어는 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, “또는 B”“및 B 중 적어도 하나”는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.
본 명세서에서, '제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 해당 구성요소는 위 용어에 의해 한정되어서는 안 된다. 또한, 위 용어는 각 구성요소의 순서를 한정하기 위한 것으로 해석되어서는 안되며, 하나의 구성요소와 다른 구성요소를 구별하는 목적으로 사용될 수 있다. 예를 들어, '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하도록 한다.
도 2는 본 발명의 실시예에 따른 구강 영상 정합 장치의 개략적인 블록도이고, 도 3은 도 2의 제어부의 구체적인 블록도이다.
본 발명의 실시예에 따른 구강 영상 정합 장치(100)는, 컴퓨터 프로그램에 의해 실행 가능한 전자 장치로서, 마커 및 치아 영역을 정합 기준점으로 이용하여 피시술자의 오랄 스캔 영상과 CT 영상을 정합하는 장치이다. 여기서, 치아 영역은 하나의 개별 치아이거나 인접한 복수의 개별 치아가 합쳐진 형태일 수 있으며, 마커는 적어도 하나 이상일 수 있으나 이에 한정되는 것은 아니다. 또한, 마커는 결손 치아 영역에 부착될 수 있다.
오랄 스캔 영상은, 3차원 영상으로서 외부로 드러난 치아의 치관 부분의 형상과 치아 주변의 잇몸 형상에 대한 정보를 제공할 수 있다. 이때, 오랄 스캔 영상은 오랄 스캐너(oral scanner) 등을 통해 피시술자의 구강 내부를 직접 스캔하여 획득되거나 피시술자의 구강 내부를 음각으로 본뜬 인상 모델이나 인상 모델의 양각을 통해 생성한 석고 모델을 스캔하여 획득될 수 있으며, 인상 모델의 스캔 이미지는 반전되어 오랄 스캔 영상으로 사용될 수 있다.
CT 영상은, 3차원 영상으로서 치관뿐만 아니라 치근과, 치조골의 형상 및 치관, 치근 및 치조골의 골밀도에 대한 정보를 제공할 수 있다. 이 때, CT 영상은 피시술자의 구강 내부를 CT 촬영하여 획득될 수 있다.
오랄 스캔 영상과 CT 영상이 정합된 정합 영상은, 피시술자의 골조직과 신경관 위치 등을 파악하여 안전하고 최적의 임플란트 식립 위치를 결정하는 임플란트 계획 작업의 기초 영상이 된다.
도 2를 참조하면, 본 발명의 실시예에 따른 구강 영상 정합 장치(100)는, 통신부(110), 입력부(120), 표시부(130), 저장부(140) 및 제어부(150)를 포함할 수 있다.
통신부(110)는 영상 획득 장치(미도시) 및 서버(미도시) 등의 외부 장치와의 통신을 수행하는 구성으로서, 영상 데이터를 수신할 수 있다. 예를 들어, 통신부(110)는 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), 블루투스, BLE(bluetooth low energe), NFC(near field communication) 등의 무선 통신을 수행할 수 있고, 케이블 통신 등의 유선 통신을 수행할 수 있다. 이때, 영상 데이터는 오랄 스캔 영상 데이터 및 CT 영상 데이터를 포함할 수 있다.
입력부(120)는 사용자의 입력에 대응하여, 입력 데이터를 생성하며, 적어도 하나의 입력 수단을 포함할 수 있다. 예를 들어, 입력부(120)는 키보드(key board), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key), 마우스(mouse), 메뉴 버튼(menu button) 등을 포함할 수 있다.
표시부(130)는 구강 영상 정합 장치(100)의 동작에 따른 표시 데이터를 표시한다. 이러한 표시 데이터에는 영상 데이터가 포함될 수 있다. 예를 들어, 표시부(130)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이 및 전자 종이(electronic paper) 디스플레이를 포함할 수 있다. 또한, 표시부(130)는 입력부(120)와 결합되어 터치 스크린(touch screen)으로 구현될 수 있다.
저장부(140)는 구강 영상 정합 장치(100)의 동작에 필요한 각종 정보와 프로그램들을 저장한다. 예를 들어, 저장부(140)는 영상 획득 장치 등으로부터 수신된 영상 데이터와, 후술할 본 발명의 실시예에 따른 영상 정렬, 마커 및 치아 영역 검출 및 영상 정합 방법에 관련된 알고리즘 등을 저장할 수 있다. 또한, 저장부(140)는 마커 및 치아 영역을 검출하기 위해, 딥러닝(deep learning) 방법으로 다수의 학습 영상을 학습한 학습 모델을 저장할 수 있다.
제어부(150)는, 영상 획득 장치 또는 서버 등으로부터 수신되거나 저장부(140)에 기 저장된 구강 영상 데이터에서 마커 및 치아 영역을 검출하고 검출된 마커 및 치아 영역을 기준점으로 하여 구강 영상 데이터들을 정합하는 동작을 수행한다. 이를 위해, 제어부(150)는 영상 획득 장치 또는 서버 등으로부터 구강 영상 데이터를 수신하여 저장부(140)에 저장할 수 있다. 또한, 제어부(150)는 통신부(110), 입력부(120), 표시부(130) 및 저장부(140)의 동작을 제어할 수 있다.
도 3을 참조하면, 제어부(150)는, 제1 마커 분할부(151), 제1 치아 영역 분할부(152), 제1 정합 기준점 생성부(153), 제2 마커 분할부(154), 제2 치아 영역 분할부(155), 제2 정합 기준점 생성부(156) 및 영상 정합부(157)를 포함할 수 있다.
먼저, 영상 획득 장치는 마커가 부착된 구강 내부를 촬영하여 오랄 스캔 영상 및 CT 영상을 각각 획득한다. 이때, 획득된 오랄 스캔 영상 및 CT 영상은, 영상 정렬부(151)에 직접 전송되거나, 저장부(140)에 저장된 후 영상 정렬부(151)로 전송될 수 있다.
제1 마커 분할부(151)는 오랄 스캔 영상에서 제1 마커를 분할한다. 구체적으로, 제1 마커 분할부(151)는 오랄 스캔 영상을 수평면 방향으로 정렬하고, 정렬된 오랄 스캔 영상에서 마커 후보 영역을 추정하고, 마커 후보 영역에서 미분할 마커를 검출한다. 그리고, 미분할 마커를 분할하여 미분할 마커에서 제1 마커를 추정하되, 미분할 마커의 상부면에서 하부 방향으로 일정 깊이까지의 영역을 제1 마커로 추정한다.
제1 치아 영역 분할부(152)는 오랄 스캔 영상에서 제1 치아 영역을 분할한다. 구체적으로, 제1 치아 영역 분할부(152)는, 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하고, 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상에서 제1 치아 영역 및 잇몸 영역의 경계를 산출한다. 그리고, 제1 치아 영역 및 잇몸 영역의 경계를 기초로 오랄 스캔 영상에서 상기 제1 치아 영역을 분할한다.
제1 정합 기준점 생성부(153)는 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성한다.
제2 마커 분할부(154)는 CT 영상에서 제2 마커를 분할한다. 구체적으로, 제2 마커 분할부(154)는 제2 마커의 부피 정보를 이용하여 제2 마커에 대응하는 형상으로 마스크를 생성하고, 마스크를 이용하여 CT 영상에서 제2 마커를 탐색하여 제2 마커를 분할한다.
제2 치아 영역 분할부(155)는 CT 영상에서 제2 치아 영역을 분할한다. 구체적으로, 제2 치아 영역 분할부(155)는, CT 영상에 포함되는 복수의 복셀의 HU(hounsfield unit)값을 기초로 제2 학습 영상을 학습하여 제2 학습 모델을 생성하고, 제2 학습 모델에 상기 오랄 스캔 영상을 입력하여, 제2 학습 영상을 기반으로 CT 영상에서 제2 치아 영역을 분할한다.
제2 정합 기준점 생성부(156)는 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성한다. 그리고, 영상 정합부(157)는 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합한다.
이와 같이, 본 발명의 구강 영상 정합 장치(100)에 따르면, 구강 영상에서 마커 및 치아 영역을 분할하되 마커에서 정합에 방해되는 요소를 제거하고, 분할된 마커 및 치아 영역을 이용해 높은 정확도로 영상 정합을 자동으로 수행하여 사용자의 편의성을 증진시키고, 이에 수반하여 임플란트 계획에 소요되는 시간 단축 및 임플란트 계획의 정확성을 제고할 수 있는 효과가 있다.
이하, 제어부(150)에 의해 제어 동작되는 본 발명의 실시예에 따른 구강 영상의 구강 영상 정합 방법에 대하여 설명하도록 한다.
본 발명의 실시예에 따른 구강 영상 정합 방법은, 피시술자의 잇몸에 마커를 부착한 상태에서 구강 영상을 촬영하고, 이 마커와 치아 영역을 기준점으로 하여 구강 영상을 정합한다.
도 4는 본 발명의 실시예에 따른 구강 영상 정합 방법의 순서도이다.
먼저, 피시술자의 구강 내 복수의 위치(예컨대, 잇몸) 특히, 결손 치아 영역에 마커를 레진 등의 접착제를 이용해 부착한다. 이 때, 일정 시간이 경과하면 마커와 잇몸 사이에 접착층이 형성된다. 이후, 마커가 부착된 구강 내부를 이종의 영상 획득 장치가 촬영하여 오랄 스캔 영상 및 CT 영상을 각각 획득한다.
도 4를 참조하면, 본 발명의 실시예에 따른 구강 영상 정합 방법은, 마커 및 치아 영역을 이용하여 오랄 스캔 영상 및 CT 영상을 정합하는 방법으로서, 오랄 스캔 영상에서 제1 마커 및 제1 치아 영역을 분할하는 단계(S10)와, 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 단계(S20)와, CT 영상에서 제2 마커 및 제2 치아 영역을 분할하는 단계(S30)와, 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 단계(S40)와, 제1 및 제2 정합 기준점을 기초로 오랄 스캔 영상 및 CT 영상을 정합하는 단계(S50)를 포함할 수 있다.
도 5는 마커가 부착된 구강을 촬영하여 생성된 오랄 스캔 영상을 도시한 도면이고, 도 6은 미분할 마커를 확대한 도면이고, 도 7은 도 6의 미분할 마커에서 분할한 마커를 도시한 도면이다.
이하 도 5 내지 도 7을 참조하여 오랄 스캔 영상(10)에서 제1 마커(11a)를 분할하는 방법을 설명하겠다. 이하에서는 제1 마커(11a) 및 접착층(12)을 통칭하여 미분할 마커라고 하겠다.
도 5 내지 도 7을 참조하면, 오랄 스캔 영상(10)에서 마커(11a)가 위를 향하도록 오랄 스캔 영상(10)을 수평면 방향으로 정렬한다. 그리고, 정렬된 오랄 스캔 영상(10)에서 마커 후보 영역을 추정하고, 마커 후보 영역에서 미분할 마커를 검출한다.
미분할 마커는 학습 모델을 이용하여 검출될 수 있다. 즉, 딥러닝(deep learning) 방법(예컨대, YOLO(You Only Look Once) 알고리즘)을 이용하여, 제1 마커(11a)가 부착된 다수의 학습 영상을 학습하여 제1 학습 모델을 생성하고, 생성된 제1 학습 모델에 피시술자의 오랄 스캔 영상(10)을 입력하여 오랄 스캔 영상(10)에서 미분할 마커를 검출할 수 있다. 여기서, 미분할 마커의 개수, 크기 및 좌표 정보가 획득될 수 있다.
미분할 마커는, 제1 마커(11a) 뿐만 아니라 불균일한 접착층(12)을 포함하기 때문에, 즉, 제1 마커(11)와 접착층(12)이 일체로 형성되기 때문에, 그 형태가 불균일하다. 이에 따라, 정합 정확도를 향상시키기 위해, 미분할 마커에서 제1 마커(11a)를 분할할 필요가 있다.
도 6를 참조하면, 미분할 마커의 상부면에서 하부 방향으로 일정 깊이(d1)까지의 영역을 제1 마커(11a)로 추정한다. 그리고, 미분할 마커에서 상기 일정 깊이(d1)(예컨대, 5mm)를 초과하는 영역을 제1 마커(11a) 및 잇몸 사이에 개재되는 접착층(12)으로 추정한다. 즉, 미분할 마커의 하부면에서 상부 방향으로 일정 높이(d2)까지의 영역을 접착층(12)으로 추정한다. 이에 따라, 미분할 마커(11b)에서 마커(11)를 분할할 수 있다(S10).
한편, 도면과 달리, 오랄 스캔 영상(10)에서 제1 마커(11a)가 아래를 향하도록 오랄 스캔 영상(10)을 수평면 방향으로 정렬하여, 미분할 마커를 검출하고 미분할 마커에서 제1 마커(11a)를 분할할 수도 있다. 이 때, 미분할 마커의 하부면에서 상부 방향으로 일정 높이(d1)까지의 영역을 제1 마커(11a)로 추정하고, 미분할 마커에서 상기 일정 높이(d1)(예컨대, 5mm)를 초과하는 영역을 제1 마커(11a) 및 잇몸 사이에 개재되는 접착층(12)으로 추정한다.
도 8은 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하는 방법을 설명하기 위한 도면이고, 도 9는 도 8에서 산출한 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상에서 분할된 치아 영역을 도시한 도면이다.
이하 도 8 및 도 9를 참조하여 오랄 스캔 영상에서 제1 치아 영역을 분할하는 방법을 설명하겠다.
오랄 스캔 영상(10)에 포함되는 복수의 메쉬의 곡률을 산출하고, 복수의 메쉬의 곡률을 기초로 오랄 스캔 영상(10)에서 제1 치아 영역(13a) 및 잇몸 영역의 경계를 산출한다.
구체적으로, 인접 메쉬들이 공유하는 버텍스에서 그 법선(normal vector)을 포함하며 메쉬 곡면과 교차하는 평면을 그린 뒤 그 평면을 법선을 기준으로 돌려가며 메쉬 곡면과 계속하여 교차시킨다. 이 경우 메쉬 곡면 위에서 그 버텍스를 중심으로 하는 수많은 곡선을 얻을 수 있고 이 곡선들과 버텍스의 접평면(tangent plane) 사이의 각을 이용해 곡률을 각각 산출할 수 있다. 그리고, 이들 곡률 중 가장 큰 값을 최대 곡률로 정의하고 가장 작은 값을 최소 곡률로 정의할 수 있다. 한편, 산출된 곡률들 중 그 버텍스에서 가장 큰 최대 곡률과 가장 작은 최소 곡률을 가진 두 곡선을 포함하는 평면을 주곡률 평면(plane of principal curvatures)으로 정의할 수 있다.
여기서, 가우시안 곡률은 최대 곡률 및 최소 곡률의 곱으로 정의되고, 평균 곡률은 최대 곡률 및 최소 곡률의 평균으로 정의된다.
이와 같은 방식으로 산출된 가우시안 곡률 및 평균 곡률 중 적어도 어느 하나가 기준 곡률 이상인 메쉬들을 선택하고, 선택된 메쉬들이 공유하는 버텍스를 경계 포인트로 결정한다.
그리고, 모폴로지 연산 알고리즘을 이용해 경계 포인트들을 순차적으로 확장(Dilation) 및 축소(Erosion)하여 인접한 경계 포인트들을 연결한다. 여기서, 모폴로지 연산 알고리즘은 영역을 확장 및 축소하기 위한 알고리즘으로 일반적으로 근접한 점들을 연결시키거나 끊기 위한 용도로 사용된다.
이와 같이, 경계 포인트들에 대해 확장하고 난 이후 축소 과정을 거치게 되면 기존 경계 포인트 성분의 두께는 유지하면서 인접 경계 포인트들 간 연결만 시켜주기 때문에 치아 및 잇몸 영역 간 경계성을 더욱더 향상시킬 수 있다.
이에 따라, 제1 치아 영역(13a) 및 잇몸 영역의 경계를 기초로 오랄 스캔 영상(10)에서 제1 치아 영역(13a)을 분할할 수 있다(S10).
도 10은 오랄 스캔 영상에 제1 정합 기준점을 도시한 도면이다.
도 10에 도시한 바와 같이, 오랄 스캔 영상(10)에서 각각 분할한 제1 마커(11a) 및 제1 치아 영역(13a)을 통합하여 오랄 스캔 영상(10)과 CT 영상을 정합하는데 기준이 되는 제1 정합 기준점을 생성한다(S20).
도 11은 마커가 부착된 구강을 촬영하여 생성된 CT 영상을 도시한 도면이고, 도 12는 도 11의 CT 영상에서 검출한 마커를 도시한 도면이다.
도 10 및 도 11을 참조하면, 제2 마커(11b)는 일정 부피를 갖는 3차원 형상(예컨대, 직육면체)일 수 있다. 여기서, 직육면체의 부피는 가로, 세로 및 높이의 곱(예컨대, 4mm×5mm×5mm)으로 정의될 수 있다. 또한, 제2 마커(11b)는 구강(예컨대, 잇몸) 내의 일정 위치에 적어도 1개 이상 부착될 수 있으나 이에 한정되는 것은 아니다.
한편, 도 11을 참조하면, 제2 마커(11b)는 방사선 불투과성 재질(예컨대, 알루미나)로 이루어지고, 접착층(12)은 방사선 투과성 소재로 이루어질 수 있다. 이에 따라, CT 영상(20)에서 치관, 치근, 치조골을 포함하여 제2 마커(11b)는 표시되지만, 접착층(12)은 표시되지 않는다. 따라서, CT 영상(20)에서는 오랄 스캔 영상(10)과 같이 제2 마커(11b)와 접착층(12)을 분할할 필요가 없다. 다만, 치관, 치근 및 치조골과 제2 마커(11b) 간 구별이 용이하지 않아 제2 마커(11b)를 정확히 검출하기 어렵다.
이와 같이 CT 영상(20)에서 제2 마커(11b)를 정확히 검출하기 위해, 제2 마커(11b)의 부피 정보를 이용하여 CT 영상(20)에서 제2 마커(11b)를 검출하여 분할한다(S30). 구체적으로, 제2 마커(11b)의 부피 정보를 이용하여 제2 마커(11b)에 대응하는 형상으로 마스크를 생성한다. 그리고, 마스크를 이용하여 CT 영상(20)에서 제2 마커(11b)를 탐색하여, 마스크에 대응하는 형상인 제2 마커(11b)를 검출하여 분할한다. 여기서, 제2 마커(11b)의 개수, 크기 및 좌표 정보가 획득될 수 있다.
도 13은 CT 영상에서 분할된 치아 영역을 도시한 도면이다.
도 13을 참조하면, CT 영상(20)에서 제2 치아 영역(13b)은 학습 모델을 이용하여 검출될 수 있다. 즉, 딥러닝(deep learning) 방법을 이용하여, CT 영상(20)에 포함되는 복수의 복셀의 HU(hounsfield unit)값을 기초로 제2 학습 영상을 학습하여 제2 학습 모델을 생성하고, 제2 학습 모델에 CT 영상(20)을 입력하여, 제2 학습 영상을 기반으로 CT 영상(20)에서 제2 치아 영역(11b)을 검출한다.
도 14는 CT 영상에 제2 정합 기준점을 도시한 도면이다.
도 14에 도시한 바와 같이, CT 영상(10)에서 각각 분할한 제2 마커(11b) 및 제2 치아 영역(13b)을 통합하여 오랄 스캔 영상(10)과 CT 영상(20)을 정합하는데 기준이 되는 제2 정합 기준점을 생성한다(S40).
도 15는 본 발명의 실시예에 따른 구강 영상 정합 방법으로 오랄 스캔 영상과 CT 영상을 정합한 도면이다.
도 15를 참조하면, 오랄 스캔 영상(10)에서 분할한 제1 마크(11a) 및 제1 치아 영역과 CT 영상(20)에서 분할한 제2 마커(11b) 및 제2 치아 영역을 각각 정합 기준점으로 하여 오랄 스캔 영상(10) 및 CT 영상(20)을 자동으로 정합한다(S50).
이와 같이, 본 발명의 구강 영상 정합 방법에 따르면, 구강 영상에서 마커 및 치아 영역을 분할하되 마커에서 정합에 방해되는 요소를 제거하고, 분할된 마커 및 치아 영역을 이용해 높은 정확도로 영상 정합을 자동으로 수행하여 사용자의 편의성을 증진시키고, 이에 수반하여 임플란트 계획에 소요되는 시간 단축 및 임플란트 계획의 정확성을 제고할 수 있는 효과가 있다.
본 발명의 상세한 설명에서는 구체적인 실시 예에 관하여 설명하였으나 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술되는 청구범위 및 이 청구범위와 균등한 것들에 의해 정해져야 한다.
100: 구강 영상 정합 장치
150: 제어부
151, 154: 제1 및 제2 마커 분할부
152, 155: 제1 및 제2 치아 영역 분할부
153, 156: 제1 및 제2 정합 기준점 생성부
157: 영상 정합부

Claims (8)

  1. 오랄 스캔 영상 및 CT 영상을 정합하는 방법으로서,
    상기 오랄 스캔 영상에서 제1 마커 및 제1 치아 영역을 각각 분할하는 단계;
    상기 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 단계;
    상기 CT 영상에서 제2 마커 및 제2 치아 영역을 분할하는 단계;
    상기 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 단계; 및
    상기 제1 및 제2 정합 기준점을 기초로 상기 오랄 스캔 영상 및 CT 영상을 정합하는 단계
    를 포함하는 구강 영상 정합 방법.
  2. 제 1 항에 있어서,
    상기 오랄 스캔 영상에서 제1 마커를 분할하는 단계는
    상기 오랄 스캔 영상을 수평면 방향으로 정렬하는 단계;
    정렬된 상기 오랄 스캔 영상에서 마커 후보 영역을 추정하고, 상기 마커 후보 영역에서 미분할 마커를 검출하는 단계; 및
    상기 미분할 마커를 분할하여 상기 미분할 마커에서 상기 제1 마커를 추정하되, 상기 미분할 마커의 상부면에서 하부 방향으로 일정 깊이까지의 영역을 상기 제1 마커로 추정하는 단계
    를 포함하는 구강 영상 정합 방법.
  3. 제 1 항에 있어서,
    상기 오랄 스캔 영상에서 상기 제1 마커를 분할하는 단계는
    상기 제1 마커가 부착된 다수의 제1 학습 영상을 학습하여 제1 학습 모델을 생성하는 단계;
    상기 제1 학습 모델에 상기 오랄 스캔 영상을 입력하는 단계; 및
    상기 제1 학습 영상을 기반으로 상기 오랄 스캔 영상에서 상기 미분할 마커를 검출하는 단계
    를 포함하는 구강 영상 정합 방법.
  4. 제 1 항에 있어서,
    상기 오랄 스캔 영상에서 상기 제1 치아 영역을 분할하는 단계는
    상기 오랄 스캔 영상에 포함되는 복수의 메쉬의 곡률을 산출하는 단계; 및
    상기 복수의 메쉬의 곡률을 기초로 상기 오랄 스캔 영상에서 상기 제1 치아 영역 및 잇몸 영역의 경계를 산출하는 단계; 및
    상기 제1 치아 영역 및 잇몸 영역의 경계를 기초로 상기 오랄 스캔 영상에서 상기 제1 치아 영역을 분할하는 단계
    를 포함하는 구강 영상 정합 방법.
  5. 제 1 항에 있어서,
    상기 CT 영상에서 상기 제2 마커를 분할하는 단계는
    상기 제2 마커의 부피 정보를 이용하여 상기 CT 영상에서 상기 제2 마커를 검출하는 단계인
    구강 영상 정합 방법.
  6. 제 1 항에 있어서,
    상기 CT 영상에서 상기 제2 마커를 분할하는 단계는
    상기 제2 마커의 부피 정보를 이용하여 상기 제2 마커에 대응하는 형상으로 마스크를 생성하는 단계; 및
    상기 마스크를 이용하여 상기 CT 영상에서 상기 제2 마커를 탐색하는 단계
    를 포함하는 구강 영상 정합 방법.
  7. 제 1 항에 있어서,
    상기 CT 영상에서 상기 제2 치아 영역을 분할하는 단계는
    상기 CT 영상에 포함되는 복수의 복셀의 HU(hounsfield unit)값을 기초로 제2 학습 영상을 학습하여 제2 학습 모델을 생성하는 단계;
    상기 제2 학습 모델에 상기 CT 영상을 입력하는 단계; 및
    상기 제2 학습 영상을 기반으로 상기 CT 영상에서 상기 제2 치아 영역을 분할하는 단계
    를 포함하는 구강 영상 정합 방법
  8. 오랄 스캔 영상 및 CT 영상을 정합하는 장치로서,
    상기 오랄 스캔 영상에서 제1 마커를 분할하는 제1 마커 분할부;
    상기 오랄 스캔 영상에서 제1 치아 영역을 분할하는 제1 치아 영역 분할부;
    상기 제1 마커 및 제1 치아 영역을 통합하여 제1 정합 기준점을 생성하는 제1 정합 기준점 생성부;
    상기 CT 영상에서 제2 마커를 분할하는 제2 마커 분할부;
    상기 CT 영상에서 제2 치아 영역을 분할하는 제2 치아 영역 분할부;
    상기 제2 마커 및 제2 치아 영역을 통합하여 제2 정합 기준점을 생성하는 제2 정합 기준점 생성부; 및
    상기 제1 및 제2 정합 기준점을 기초로 상기 오랄 스캔 영상 및 CT 영상을 정합하는 영상 정합부
    를 포함하는 구강 영상 정합 장치.
KR1020200050086A 2020-04-24 2020-04-24 구강 영상 정합 장치 및 방법 KR102383546B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020200050086A KR102383546B1 (ko) 2020-04-24 2020-04-24 구강 영상 정합 장치 및 방법
PCT/KR2021/005095 WO2021215843A1 (ko) 2020-04-24 2021-04-22 구강 영상의 마커 검출 방법 및 이를 이용한 구강 영상 정합 장치 및 방법
EP21792744.1A EP4140411A4 (en) 2020-04-24 2021-04-22 METHOD FOR DETECTING ORAL IMAGE MARKER, AND ORAL IMAGE ADAPTATION DEVICE AND METHOD USING SAME
US17/996,009 US20230215027A1 (en) 2020-04-24 2021-04-22 Oral image marker detection method, and oral image matching device and method using same
CN202180025038.2A CN115379800A (zh) 2020-04-24 2021-04-22 口腔图像的标记检测方法和利用该方法的口腔图像配准装置及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200050086A KR102383546B1 (ko) 2020-04-24 2020-04-24 구강 영상 정합 장치 및 방법

Publications (3)

Publication Number Publication Date
KR20210131685A true KR20210131685A (ko) 2021-11-03
KR102383546B1 KR102383546B1 (ko) 2022-04-06
KR102383546B9 KR102383546B9 (ko) 2023-04-12

Family

ID=78505326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200050086A KR102383546B1 (ko) 2020-04-24 2020-04-24 구강 영상 정합 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102383546B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554157B1 (ko) * 2014-05-09 2015-09-21 주식회사 디오 구강 내부 부착용 레퍼런스 마커 및 그를 이용한 임플란트 시술용 가이드 스탠트 제조방법
KR20160004864A (ko) * 2014-07-04 2016-01-13 주식회사 인스바이오 치과 시술 시뮬레이션을 위한 치아모델 생성 방법
KR20190024360A (ko) * 2017-08-31 2019-03-08 주식회사 디오 이종의 구강 이미지 정합방법
KR20190140990A (ko) * 2017-04-21 2019-12-20 앤드류 에스. 마츠 치과 기구의 제조

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101554157B1 (ko) * 2014-05-09 2015-09-21 주식회사 디오 구강 내부 부착용 레퍼런스 마커 및 그를 이용한 임플란트 시술용 가이드 스탠트 제조방법
KR20160004864A (ko) * 2014-07-04 2016-01-13 주식회사 인스바이오 치과 시술 시뮬레이션을 위한 치아모델 생성 방법
KR20190140990A (ko) * 2017-04-21 2019-12-20 앤드류 에스. 마츠 치과 기구의 제조
KR20190024360A (ko) * 2017-08-31 2019-03-08 주식회사 디오 이종의 구강 이미지 정합방법

Also Published As

Publication number Publication date
KR102383546B1 (ko) 2022-04-06
KR102383546B9 (ko) 2023-04-12

Similar Documents

Publication Publication Date Title
KR102267488B1 (ko) 치아 영상 정합 장치 및 방법
CN103829966B (zh) 用于自动确定侦测图像中的定位线的方法和***
US10582992B2 (en) Method for determining a mapping of the contacts and/or distances between the maxillary and mandibular arches of a patient
KR102322634B1 (ko) 치아 오브젝트를 이용한 영상 정합 방법 및 장치
US20230215027A1 (en) Oral image marker detection method, and oral image matching device and method using same
KR102383544B1 (ko) 구강 영상의 마커 검출 방법 및 이를 이용한 구강 영상 정합 장치 및 방법
KR102383546B1 (ko) 구강 영상 정합 장치 및 방법
KR102193942B1 (ko) 영상데이터에서 치조골을 검출하는 방법 및 장치
KR102205427B1 (ko) 신경 위치 보정 방법 및 장치
US11978203B2 (en) Dental object detection method, and image matching method and device using dental object
US20220240852A1 (en) Nerve detection method and device
US20220198686A1 (en) Apparatus for preprocessing image data
KR102383955B1 (ko) 구강 영상의 결손 치아 검출 방법 및 장치와, 이를 이용한 구강 영상의 크라운 배치 방법
CN110573079B (zh) 要被成像的体积的计算机断层扫描和定位
KR102277022B1 (ko) 구강 ct 영상 및 구강 스캔 영상의 정합 방법 및 장치
KR20200134512A (ko) 신경 검출 방법 및 장치
TW202036468A (zh) 牙齒影像整合裝置及方法
KR102277021B1 (ko) 3차원 구강 ct 영상의 상하악 분리 방법 및 장치
KR102267449B1 (ko) 치아 영상 정합 장치 및 방법
EP4193960A1 (en) Method for selecting margin line point, and dental cad device therefor
EP3326537B1 (en) Visualization of distances to walls of anatomical cavities
KR20210024356A (ko) 의료영상 정합 방법 및 그 장치

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]