CN113873947A - 神经检测方法及装置 - Google Patents

神经检测方法及装置 Download PDF

Info

Publication number
CN113873947A
CN113873947A CN202080036341.8A CN202080036341A CN113873947A CN 113873947 A CN113873947 A CN 113873947A CN 202080036341 A CN202080036341 A CN 202080036341A CN 113873947 A CN113873947 A CN 113873947A
Authority
CN
China
Prior art keywords
nerve
image
learning
detecting
chin
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080036341.8A
Other languages
English (en)
Inventor
金镇喆
金镇柏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dio Corp
Original Assignee
Dio Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020190060042A external-priority patent/KR102236973B1/ko
Priority claimed from KR1020190076079A external-priority patent/KR102205427B1/ko
Application filed by Dio Corp filed Critical Dio Corp
Publication of CN113873947A publication Critical patent/CN113873947A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4887Locating particular structures in or on the body
    • A61B5/4893Nerves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/506Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of nerves
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5223Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data generating planar views from image data, e.g. extracting a coronal view from a 3D image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Neurology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Physiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Abstract

本发明涉及神经检测方法及装置,本发明的神经检测方法包括:获取学习影像的步骤,上述学习影像包括沿着冠状面方向排列的多个切片;生成学习数据和学习模型的步骤,通过学习上述学习数据来生成学习模型,上述学习数据通过在上述学习影像中设定神经和作为检测上述神经的基准的下巴颏结节及下颌角中的至少一个而成;向学习模型输入对象影像的步骤;以及在对象影像中检测神经的步骤,其以学习数据为基础,本发明还可通过其他实施例来实现。

Description

神经检测方法及装置
技术领域
本发明涉及神经检测方法及装置,更详细地,涉及以神经分布的解剖学特性为基础的神经检测方法及装置。
背景技术
通常,植牙意味着丧失原本的人体组织时能够代***组织的替代物,尤其,在牙科中意味着将利用包括人工牙根(fixture)、基台(abutment)及牙冠(crown)在内的假体的人工牙齿移植于实际牙齿位置。
在牙科中,植牙手术是指在牙槽骨形成穿孔,并向穿孔植入人工牙根,随着人工牙根熔敷于齿槽骨,在人工牙根上安装基台及牙冠的手术。
为了防止发生神经损伤等问题,这种植牙手术在进行植牙手术之前以锥形束投照计算机重建断层影像设备(CBCT,cone beam computed tomography)影像为基础,通过决定植牙的植入位置、角度、深度等来确认牙齿及牙槽骨等的骨组织和神经管位置等。
尤其,当进行植牙手术时,由于每个患者具有多种神经路径及状态且必须维持人工牙根与下齿槽神经之间的安全距离,因此用于在牙槽骨进行穿孔的钻孔工作存在诸多困难。并且,虽然以往通过断层拍摄图像的全景影像来检测下齿槽神经,但由于全景影像中存在不透明且不明确的下齿槽神经,因此,当进行植牙手术时,存在有可能造成神经损伤的隐患。
发明内容
技术问题
为了解决上述问题,本发明的目的在于,提供一种神经检测方法及装置,即,以神经分布的解剖学特性为基础进行神经检测,能够更快、更准确地自动检测神经,并通过准确掌握每个患者不同的神经管的位置及状态来安全地进行植牙手术。
并且,本发明的另一目的在于,提供一种神经位置校正方法及装置,即,通过多种神经位置检测技术来对所检测的神经位置进行方便、更准确的校正。
本发明所要解决的技术问题并不限于上述提到的多个技术问题,本发明所属技术领域的普通技术人员可从下述记载中明确理解未提及的其他多个技术问题。
技术方案
为了解决上述问题,本发明的神经检测方法包括:获取学习影像的步骤,学习影像包括沿着冠状面方向排列的多个切片;生成学习数据和学习模型的步骤,通过学习学习数据来生成学习模型,学习数据通过在学习影像中设定神经和作为检测上述神经的基准的下巴颏结节及下颌角中的至少一个而成;向学习模型输入对象影像的步骤;以及在对象影像中检测神经的步骤,其以学习数据为基础。
其中,在对象影像中检测神经的步骤可包括:在对象影像中检测下巴颏结节及下颌角的步骤;将所检测的下巴颏结节与下颌角之间的区间设定为神经有效区间的步骤;以及通过探索神经有效区间来检测神经的步骤。
并且,生成学习数据的步骤为生成在学习影像中设定牙槽骨、下巴颏神经及下齿槽神经中的至少一个的学习数据的步骤。
并且,在对象影像中检测神经的步骤为在对象影像中检测牙槽骨、下巴颏神经及下齿槽神经的步骤。
并且,检测下齿槽神经的步骤为通过所检测的牙槽骨来检测下齿槽神经的步骤。
并且,在对象影像中检测下巴颏结节的步骤为检测下巴颏结节的步骤,以学习影像的统计值为基础,设定第一探索起点,并从第一探索起点沿着对象影像的外侧方向进行探索。
并且,在对象影像中检测下颌角的步骤为检测下颌角的步骤,以学习影像的统计值为基础,设定第二探索起点,并从第二探索起点沿着对象影像的外侧方向进行探索。
并且,在对象影像中检测神经的步骤可包括:在对象影像中设定对象区域的步骤,对象区域包括作为检测对象的下巴颏结节、下颌角及神经;计算对象区域的位置及大小信息的步骤;以及计算对象区域中包括检测对象的概率值的步骤。
并且,在对象影像中检测神经的步骤还可包括将概率值达到基准值以上的对象区域检测成包括检测对象的检测区域的步骤。
并且,在对象影像中检测神经的步骤还可包括:在检测区域中抽取包括神经的区域的坐标的步骤;以及以坐标为基础来检测神经的步骤。
并且,本发明的神经检测方法还可包括:以神经位置为基础来获取曲面重建(CPR,Curved Planar Reformation)影像的步骤;在曲面重建影像分别显示神经位置与基线的步骤;以及以基线为基础来在上述曲面重建影像上校正神经位置的步骤。
其中,基线的坐标值可包括神经位置的多个坐标值中的至少一个。
并且,基线可以为经过显示于曲面重建影像的神经区域的一部分的线。
并且,本发明提供的神经检测装置包括:影像获取部,获取学习影像,学习影像包括沿着冠状面方向排列的多个切片;学习部,生成学习数据和学习模型,通过学习学习数据来生成学习模型,上述学习数据通过在学习影像中设定神经和作为检测上述神经的基准的下巴颏结节及下颌角中的至少一个而成;以及神经检测部,以学习数据为基础,通过向学习模型输入对象影像来在对象影像中检测神经。
并且,本发明的神经检测装置还可包括校正部,以神经位置为基础,获取曲面重建影像(CPR,Curved Planar Reformation),在曲面重建影像中显示基线,以上述基线为基础,校正神经位置。
发明的效果
本发明具有如下效果,即,以神经分布的解剖学特性为基础进行神经检测,能够更快、更准确地自动检测神经,并通过准确掌握每个患者不同的神经管的位置及状态来安全地进行植牙手术。
并且,本发明具有如下效果,即,通过多种神经位置检测技术来对所检测的神经位置进行方便、更准确的校正。
本发明的效果并不限于以上提到的多个效果,本发明所属技术领域的普通技术人员可从下述记载中明确理解到未提及的其他多个效果。
附图说明
图1为本发明实施例的在对象影像中检测神经的电子装置的简要框图。
图2为图1中的控制部的具体框图。
图3为本发明实施例的在对象影像中检测神经的方法的流程图。
图4为根据患者的头部形状方向变化的牙齿断面影像的图。
图5为分别在冠状面方向的牙齿断面影像中示出检测对象的图。
图6为用于说明本发明实施例的学习数据生成方法的图。
图7为图6中的在对象影像中检测神经的步骤的流程图。
图8为用于说明图6中的在对象影像中检测神经的步骤的图。
图9为图7中的在对象影像中检测神经的步骤的具体流程图。
图10为本发明一实施例的神经位置校正方法的流程图。
图11为示出显示神经位置的三维影像的一例示的图。
图12为示出从图11中获取的曲面重建影像的一例示的图。
图13为示出获取曲面重建影像的过程的图。
图14为示出在图12中的曲面重建影像中显示神经位置的一例的图。
图15为示出在图12中的曲面重建影像中一同显示神经位置和基线的一例的图。
图16为示出通过基线来对在图12中的曲面重建影像中显示的神经位置进行校正的一例的图。
图17为示出以图16所示的方式进行校正后的曲面重建影像的一例的图。
图18至图21为示出显示曲面重建影像的用户界面(UI,User Interface)的多种例的图。
图22为示出多种范围的曲面重建影像的图。
图23为对以往校正方法与本发明一实施例的神经位置校正方法进行比较的图。
具体实施方式
以下,参照附图详细说明本发明的优选实施例。以下,与附图一同公开的详细说明仅示例性地说明了本发明的实施形态,并不表示能够实施本发明的唯一实施形态。为了明确说明本发明,可在附图中省略与说明无关的部分,在说明书全文中,可对相同或类似的结构要素使用相同的附图标记。
本发明一实施例中的“或”、“至少一个”等表达形式可表示一同排列的多个单词中的一个或两个以上的组合。例如,“A或B”、“A及B中的至少一个”可仅包括A或B中的一个,也可同时包括A和B。
图1为本发明实施例的在对象影像中检测神经的电子装置的简要框图,图2为图1中的控制部的具体框图。
参照图1,本发明的电子装置100可包括通信部110、输入部120、显示部130、存储器140及控制器150。
通信部110与影像获取装置(未图标)及服务器(未图标)等的外部装置进行通信。为此,通信部110不仅可进行如第五代移动通信技术(5G,5th generation communication)、先进的长期演进技术(LTE-A,long term evolution-advanced)、长期演进(LTE,long termevolution)、蓝牙、低功耗蓝牙(BLE,bluetooth low energy)、近场通信(NFC,near fieldcommunication)等的无线通信,而且还可进行电缆通信等的有线通信。
输入部120根据电子装置100使用人员的输入来产生输入数据。输入部120包括至少一个输入单元。输入部120可包括键盘(key board)、小键盘(key pad)、圆顶开关(domeswitch)、触控面板(touch panel)、触控键(touch key)、鼠标(mouse)、菜单按钮(menubutton)等。
显示部130根据电子装置100的动作显示显示数据。显示部130包括液晶显示器(LCD,liquid crystal display)、发光二级管(LED,light emitting diode)显示器、有机发光二极管(OLED,organic LED)显示器、微电子机械***(MEMS,micro electromechanical systems)显示器及电子纸(electronic paper)显示器。显示部130可通过与输入部120相结合来形成触摸屏(touch screen)。
存储器140用于存储电子装置100的多个动作程序。并且,存储器140可存储基于卷积神经网络的图像分割网络(U-Net)、区域卷积神经网络(RCNN,Region CNN)等的与卷积神经网络(CNN,convolutional neural network)相关的算法。存储器140可存储从影像获取装置等接收的多个学习影像。
控制部150通过学习学习影像来生成学习数据,并以学习数据为基础,在对象影像中检测神经。尤其,控制部150以位于下巴颏结节与下颌角之间的解剖学特性为基础,优先检测下巴颏结节及下颌角,之后检测位于下巴颏结节与下颌角之间的神经,具有能够更快、更准确地检测神经的优点。
参照图2,控制部150可包括影像获取部151、学习部152及神经检测部153。
这种控制部150的特征在于,能够清楚地显示下巴颏结节(mental tubercle)、下巴颏神经(Mental Nerve)、下齿槽神经(Inferior Alveolar Nerve)、牙槽骨(AlveolarBone)以及下颌角(Mandibular Angle)等解剖部位,并通过以能够明确显示出其区分的冠状面方向的牙齿断面影像为基础生成的学习数据来检测神经。
影像获取部151将从外部的影像获取装置接收的三维影像变换为沿着冠状面方向排列的多个二维断面影像(以下称为切片)。即,影像获取部151获取包括沿着冠状面方向排列的多个切片的学习影像。
学习部152生成对通过影像获取部151获取的多个学习影像设定神经(下巴颏神经及下齿槽神经)和作为检测上述神经的基准的下巴颏结节及下颌角、有助于检测下齿槽神经的牙槽骨中的至少一个的学习数据,并通过学习上述学习数据来生成学习模型。其中,学习部152可通过存储于存储器140的基于卷积神经网络的图像分割网络(U-Net)、区域卷积神经网络(RCNN,Region CNN)等的与卷积神经网络(CNN,convolutional neural network)相关的算法来学习学习影像。
向通过学习部152生成的学习模型输入对象影像并由神经检测部153以学习数据为基础来在对象影像中检测神经。其中,对象影像可以为包括沿着患者的冠状面方向排列的多个切片(二维断面影像)的三维影像。
具体地,神经检测部153以学习数据为基础来在对象影像中检测下巴颏结节及下颌角,将所检测的下巴颏结节与下颌角之间的区间设定为神经有效区间,并通过探索设定的神经有效区间来检测神经(下巴颏神经及下齿槽神经)。其中,神经检测部153可通过检测牙槽骨来检测下齿槽神经。即,因为下齿槽神经位于牙槽骨内部,所以优先检测牙槽骨,之后通过在所检测的牙槽骨中检测下齿槽神经,从而可提高检测的准确性。
另一方面,神经检测部153检测下巴颏结节、下颌角、牙槽骨及神经可以解释为检测包括这些检测对象的切片。
神经检测部153以多个学习影像的统计值为基础来设定第一探索起点,并从所设定的第一探索起点沿着对象影像的外侧方向进行探索,从而可检测下巴颏结节。
与此相同,神经检测部153以多个学习影像的统计值为基础来设定第二探索起点,并从所设定的第二探索起点沿着对象影像的外侧方向进行探索,从而可检测下颌角。
其中,由于各个影像获取装置所拍摄的影像的分辨率不同,多个学习影像的统计值为对各个影像包含的解剖学部位位置进行正规化的值(例如,0~1)。据统计,在第一探索起点(例如,0.323)以上几乎不可能发现下巴颏结节,在第二探索起点(例如,0.715)以下也几乎不可能发现下颌角。因此,若以第一探索起点及第二探索起点为基准来探索下巴颏结节及下颌角,则能够更快、更准确地探索下巴颏结节及下颌角。
神经检测部153在对象影像中设定作为检测对象的下巴颏结节、下颌角及神经有可能包括在内的对象区域。而且,计算对象区域的位置及大小信息,计算在对象区域中包括上述检测对象的概率值。而且,将所计算的概率值达到基准值以上的对象区域检测成包括检测对象的检测区域,并以在包括相应区域的切片显示检测对象的方式进行标记。
神经检测部153在检测区域中抽取包括神经的区域的坐标(例如,中心坐标),并以所抽取的坐标(例如,中心坐标)为基础来检测神经。即,可通过收集多个切片中的包括神经的区域的多个坐标(例如,多个中心坐标),来最终抽取神经管。
图3为本发明实施例的在对象影像中检测神经的方法的流程图。
参照图3,本发明实施例的神经检测方法可包括获取学习影像的步骤S100、生成学习数据和学习模型的步骤S200、向学习模型输入对象影像的步骤S300以及在对象影像中检测神经的步骤S400。
在获取学习影像的步骤S100中,从外部的影像获取装置接收三维影像,并将其变换为沿着冠状面方向排列的多个二维断面影像(以下称为切片)。即,获取包括沿着冠状面方向排列的多个切片的学习影像。
图4为根据患者的头部形状方向变化的牙齿断面影像的图,图5为分别在冠状面方向的牙齿断面影像中示出检测对象的图。
参照图4,患者的头部形状方向可区分为水平面方向a(axial)、冠状面方向b(coronal)及矢状面方向c(sagittal),从中可确认到沿着头部形状方向来在牙齿断面影像(切片)中显示的牙齿的解剖学部位均各不相同。
参照图4及图5,根据本发明实施例的神经检测方法,其特征在于,能够清楚地显示下巴颏结节(mental tubercle)、下巴颏神经(Mental Nerve)、下齿槽神经(InferiorAlveolar Nerve)、牙槽骨(Alveolar Bone)及下颌角(Mandibular Angle)等的解剖学部位,并以明确显示出其区分的冠状面方向b的牙齿断面影像为基础来生成学习数据,并以此为基础来检测神经。
作为参考,参照图5,可确认到下齿槽神经位于牙槽骨内部,而下巴颏神经并不位于牙槽骨内部,呈向外侧穿透的形态。
在生成学习数据和学习模型的步骤S200中,生成对所获取的多个学习影像设定神经(下巴颏神经及下齿槽神经)和作为检测上述神经的基准的下巴颏结节及下颌角、有助于检测下齿槽神经的牙槽骨中的至少一个的学习数据,并通过学习上述学习数据来生成学习模型。
其中,可通过存储于存储器140的基于卷积神经网络的图像分割网络(U-Net)、区域卷积神经网络(RCNN,Region CNN)等的与卷积神经网络(CNN,convolutional neuralnetwork)相关的算法来学习学习影像,从而生成学习模型。
图6为用于说明本发明实施例的学习数据生成方法的图。
参照图6,学习数据可按学习影像中所包括的多个切片来设定下巴颏结节、下颌角、牙槽骨及神经(学习对象)区域(例如,箱(Box))的位置及大小信息。具体地,以学习影像的左侧上端为原点,将箱的左侧上端的x轴及y轴位置设定为箱的位置坐标,并以所设定的位置坐标为基准来设定箱的宽度(Width)和高度(Height)。
另一方面,如上所述的在学习影像中设定学习对象的位置及大小信息的方式可直接适用于后述的在对象影像中设定检测对象的位置及大小信息的方式。
在对象影像中检测神经的步骤S400中,在向学习模型输入对象影像S300之后,以学习数据为基础,在对象影像中检测神经。其中,对象影像可以为包括沿着患者的冠状面方向排列的多个切片(二维断面影像)的三维影像。
图7为图6中的在对象影像中检测神经的步骤的流程图,图8为用于说明图6中的在对象影像中检测神经的步骤的图。
参照图7,在对象影像中检测神经的步骤S400可包括:步骤S410,以学习数据为基础来在对象影像中检测下巴颏结节及下颌角;步骤S420,将所检测的下巴颏结节与下颌角之间的区间设定为神经有效区间;以及步骤430,通过探索所设定的神经有效区间来检测神经(下巴颏神经及下齿槽神经)。
其中,所检测的牙槽骨可用于检测下齿槽神经。即,因为下齿槽神经位于牙槽骨内部,所以优先检测牙槽骨,之后通过在所检测的牙槽骨中检测下齿槽神经,从而可提高检测的准确性。
另一方面,检测下巴颏结节、下颌角、牙槽骨及神经可以解释为检测包括这些检测对象的切片。
参照图8,在对象影像中检测神经的步骤S400以多个学习影像的统计值为基础来设定第一探索起点S1,并从所设定的第一探索起点S1沿着对象影像的外侧方向进行探索,从而可检测下巴颏结节(MT)。
同样,以多个学习影像的统计值为基础,设定第二起点S2,并从所设定的第二探索起点S2沿着对象影像的外侧方向进行探索,从而可检测下颌角(MA)。
其中,将所检测的下巴颏结节(MT)与下颌角(MA)之间的区间设定为神经有效区间,并可通过探索所设定的神经有效区间来检测神经(下巴颏神经及下齿槽神经)。
其中,由于各个影像获取装置所拍摄的影像的分辨率不同,多个学习影像的统计值为对各个影像包含的解剖学部位位置进行正规化的值(例如,0~1)。据统计,在第一探索起点(例如,0.323)以上几乎不可能发现下巴颏结节,在第二探索起点(例如,0.715)以下也几乎不可能发现下颌角。因此,若以第一探索起点及第二探索起点为基准来探索下巴颏结节及下颌角,则能够更快、更准确地探索下巴颏结节及下颌角。
图9为图7中的在对象影像中检测神经的步骤的具体流程图。
参照图9,在对象影像中检测神经的步骤S400以学习数据为基础来在对象影像中设定作为检测对象的下巴颏结节、下颌角及神经有可能包括在内的对象区域(步骤S431)。而且,计算对象区域的位置及大小信息(步骤S432),计算在对象区域中包括上述检测对象的概率值(步骤S433)。而且,将所计算的概率值达到基准值以上的对象区域检测成包括检测对象的检测区域(步骤S434),并以在包括相应区域的切片显示检测对象的方式进行标记。
而且,抽取检测区域中包括神经的区域的坐标(例如,中心坐标)(步骤S435),并以所抽取的坐标(例如,中心坐标)为基础来检测神经(步骤S436)。即,可通过收集多个切片中的包括神经的区域的多个坐标(例如,多个中心坐标),来最终抽取神经管。
像这样,本发明实施例的神经检测方法以神经分布的解剖学特性为基础进行神经检测,能够更快、更准确地自动检测神经,并通过准确掌握每个患者的不同神经管的位置及状态来安全地进行植牙手术。
参照图2,本发明实施例的神经检测装置还可包括校正部154。
以下,对通过校正部154执行的本发明一实施例的神经位置校正方法进行说明。
图10为本发明一实施例的神经位置校正方法的流程图。
参照图10,本发明一实施例的神经位置校正方法为在三维影像中校正预先检测的神经位置的方法,可包括步骤S500至步骤S700。以下,为了便于说明,三维影像为有关牙齿及其周围骨架结构的影像,虽然将从中预先检测的神经假设为齿槽神经(尤其,下齿槽神经)来在附图中示出及说明,但本发明并不限于此。
步骤S500作为获取影像的步骤,以预先检测的神经位置为基础,获取曲面重建(CPR,Curved Planar Reformation)影像。
图11为示出显示神经位置的三维影像的一例示的图,并且,图12为示出从图11中获取的曲面重建影像的一例示的图。
参照图11,可在三维影像中用不同的颜色来表示齿槽神经C的神经位置的区域。如图12所示,以这种神经位置为基础,可通过后述曲面重建影像获取步骤来获取曲面重建影像。
图13示出获取曲面重建影像的过程。以下,参照图13详细说明获取曲面重建影像的过程。
首先,在牙齿及其周围骨架结构的三维影像中,齿槽神经C的神经位置可包括对于C的N个中心坐标值Ci(其中,i=0,1,…,N-1)(参照图13的(a)部分)。即,Ci作为构成C的坐标值,是对其中心曲线的多个点的N个坐标值。由此,C可通过从各个Ci相连接的中心线扩张规定长度R的空间区域来组成。即,可以为C={Ci∈R3|i=0,1,…,N-1}。
在这种情况下,可导出各个Ci中的多个法线矢量ni与垂直于各个ni的多个平面Pi(参照图13的(b)部分)。即,ni为显示各个Ci中的切线方向的多个矢量,具有ni=<nx,ny,nz>的坐标值,可通过Ci+1-Ci的计算导出。
并且,可导出根据各个Ci中的基准矢量r的正射影矢量
Figure BDA0003356498220000121
(参照图5的(c)部分)。即,
Figure BDA0003356498220000122
为r投影于Pi的矢量。并且,可导出在Pi的垂直平面上以Ci为中心点并具有半径为
Figure BDA0003356498220000123
的区域的平面(以下称为“正射影平面”)。在这种情况下,r作为用于计算曲面重建影像的范围参数值,可预先设定或输入。
若集合这种正射影平面,则可获取作为用于曲面重建影像的曲面区域的样品区域S(参照图13的(f)部分)。在这种情况下,可在S中沿着各个Pi的断面方向θ最终获取曲面重建(CPR)影像(参照图13的(d)部分以及图13的(e)部分)。即,θ作为曲面重建(CPR)角度的参数值,可预先设定或输入。
即,曲面重建(CPR)影像由构成C的曲线形态的平面组成,并可通过Ci、r及θ来获取。尤其,ni·vi=0,
Figure BDA0003356498220000124
由此,构成曲面重建(CPR)的多个坐标值为Ci+kVi。在这种情况下,k为y轴范围指定纯量值(实数K∈R3)。由此,曲面重建(CPR)影像的分辨率(Sampling数)可通过Ci的数量(N值)和k值来决定。
图14示出在图12中的曲面重建影像中显示神经位置的一例,图15示出在图12中的曲面重建影像中一同显示神经位置和基线的一例。
接着,如图12所示,步骤S600作为显示步骤,是显示从步骤S500中获取的曲面重建(CPR)影像的步骤。尤其,如图14及图15所示,在步骤S600中,可在曲面重建(CPR)影像中一同显示神经位置(菱形)和基线(虚线)。在这种情况下,神经位置可通过表示Ci的多个点来显示。
尤其,基线为用于校正神经位置的引导线。即,曲面重建(CPR)影像中显示的校正前的齿槽神经区域Cd1(位于上下白色区域之间的黑色区域)与其神经位置的线(连接多个菱形的线)因其齿槽神经的特性而应以直线形态来显示。但,参照图14,Cd1与其神经位置的线显示为“~”形态的弯曲形态。这说明,预先设定的神经位置已被设定。
因此,基线在曲面重建(CPR)影像上提供用于对以如上所述的方式错误设定的神经位置为基础来在曲面重建(CPR)影像中显示的校正前的齿槽神经区域Cd1进行校正的基准。即,显示于曲面重建(CPR)的基线可根据对象神经的种类及形态来使其形态变得不同,可以为直线或曲线形态。尤其,在对象神经为齿槽神经的情况下,基线可反应齿槽神经的形态来以直线形态显示于曲面重建(CPR)影像。
但在大部分的情况下,仅校正神经位置的一部分,优选地,基线的坐标值可包括神经位置的多个坐标值中的至少一个。即,基线可以为经过显示于曲面重建(CPR)影像的神经区域的一部分的线。因为这种基线存储有多种形态,因而可通过输入部120来被使用人员选择,也可提出以默认值(default)方式指定的形态。
另一方面,为了区分神经位置和基线,能够以不同种类的线、形状、粗细程度、颜色等来显示于曲面重建(CPR)影像。
图16示出通过基线来对在图12中的曲面重建影像中显示的神经位置进行校正的一例。
接着,步骤S700为校正步骤,以显示于曲面重建(CPR)影像的基线为基础,在曲面重建(CPR)影像上对显示于曲面重建(CPR)影像的神经位置进行校正。即,能够以使显示于曲面重建(CPR)影像的神经位置的点或线与基线相对应的方式在曲面重建(CPR)影像上进行变更(在图16中以箭头表示变更的部分)。由此,可通过将经过变更的部分的神经位置的坐标值实时变更为相应部分的坐标值来进行校正。在这种情况下,可通过输入部120来接收使用人员对在显示于曲面重建(CPR)影像的神经位置中需变更的部分进行的选择和其变更程度并根据所输入的数据来执行变更,或可通过机器学习(machine learning)等的多种算法来执行变更。
图17示出以图16所示的方式进行校正后的曲面重建影像的一例。
根据步骤S700,若以基线为基础来在曲面重建(CPR)影像上对显示于曲面重建(CPR)影像的神经位置进行校正,则如图17所示,显示于曲面重建(CPR)影像的进行校正后的齿槽神经区域Cd2(位于上下白色区域之间的黑色区域)显示得几乎接近于直线形态。其作为符合作为对象神经的齿槽神经的Cd2,表示Cd1校正得当。
另一方面,可反复进行步骤S500至步骤S700。在这种情况下,将预先检测的神经位置更新为在之前的步骤S700中校正的神经位置,并以此为基础,可反复进行步骤S500至步骤S700。即,若将步骤S500至步骤S700作为之前步骤来对神经位置进行校正,则当再次进行步骤S500至步骤S700时,能够以在之前步骤中校正的神经位置为基础来执行步骤S500至步骤S700。可像这样反复执行步骤来更准确地校正神经位置。
尤其,当反复执行步骤时,可在步骤S500中获取角度θ2与之前获取的曲面重建(CPR)影像的角度θ1不同的曲面重建(CPR)影像。但这种对于θ2的选择可由使用人员通过输入部120在规定范围(例如,90°至-90°)内进行输入并接收输入数据来实现,或可通过预设的规定角度变更值来进行选择。
图18至图21示出显示曲面重建影像的用户界面(UI,User Interface)的多种例。
参照图18至图21,为了给使用人员提供便利,曲面重建(CPR)影像可以与基准影像一同显示。在这种情况下,基准影像是指导出曲面重建(CPR)影像的三维影像或对相应的三维影像进行加工的影像。尤其,当提供这种用户界面(UI)时,可同时显示曲面重建(CPR)影像和基准影像,可在基准影像中显示神经位置区域。
并且,当提供上述用户界面(UI)时,在步骤S500中,通过输入部120来接收基准影像中对于多个神经中的特定神经的选择,并以所输入的神经位置为基础来获取曲面重建(CPR)影像。例如,可通过输入部120输入对下齿槽神经中的左侧或右侧的选择,根据所输入的输入数据进行步骤S500,并可获取以相应的神经位置(左侧下齿槽神经位置或右侧下齿槽神经位置)为基础的曲面重建(CPR)影像。
图22示出多种范围的曲面重建影像。
并且,在步骤S500中,除了获取对曲面重建(CPR)影像的角度θ之外,可通过接收对于曲面重建(CPR)影像的范围,来获取反映其范围的曲面重建(CPR)影像。在这种情况下,曲面重建(CPR)影像的范围可以为使用人员通过输入部120输入的值或r值等。最终,如图22所示,可获取多种范围的曲面重建(CPR)影像。接着,可在步骤S600中实时显示反映相应范围及角度θ的曲面重建(CPR)影像。
另一方面,当提供上述用户界面(UI)时,可通过输入部120选择曲面重建(CPR)影像的角度θ或范围。例如,角度θ或范围可通过鼠标的滚***作、鼠标的拖拽输入、键盘的箭头键输入、提供显示部130上的滚动条的键盘的值输入等来选择。尤其,随着鼠标的滚***作或键盘的箭头键输入(与键盘的其他按键一同输入),曲面重建(CPR)影像的角度θ或范围可变大或变小。这种输入手段具有可在上述用户界面(UI)上向使用人员提供更大便利的优点。
图23为对以往校正方法与本发明一实施例的神经位置校正方法进行比较的图。
另一方面,如图23的(a)部分所示,在以往的校正方法中,将圆筒形断面影像作为对象来进行断面影像移动及矫正。相反,如图23的(b)部分所示,本发明一实施例的神经位置校正方法中,将曲面重建(CPR)影像作为对象,以其圆筒中心点为基准来进行断面旋转及校正。
本说明书和附图中公开的本发明的多个实施例仅为了便于说明本发明的技术内容、有助于理解本发明而提出特定实施例,并不用于限定本发明的范围。因此,应当解释为,在本发明的范围方面,除了上述实施例之外,以本发明的技术思想为基础导出的所有变更或变形的实施方式属于本发明的范围。
产业上的可利用性
本发明的神经检测方法及装置可用于植牙手术等多种牙齿治疗领域。

Claims (15)

1.一种神经检测方法,其特征在于,包括:
获取学习影像的步骤,上述学习影像包括沿着冠状面方向排列的多个切片;
生成学习数据和学习模型的步骤,通过学习上述学习数据来生成学习模型,上述学习数据通过在上述学习影像中设定神经和作为检测上述神经的基准的下巴颏结节及下颌角中的至少一个而成;
向上述学习模型输入对象影像的步骤;以及
在上述对象影像中检测神经的步骤,其以上述学习数据为基础。
2.根据权利要求1所述的神经检测方法,其特征在于,在上述对象影像中检测神经的步骤包括:
在上述对象影像中检测下巴颏结节及下颌角的步骤;
将所检测的上述下巴颏结节与下颌角之间的区间设定为神经有效区间的步骤;以及
通过探索上述神经有效区间来检测上述神经的步骤。
3.根据权利要求1所述的神经检测方法,其特征在于,生成上述学习数据的步骤为生成在上述学习影像中设定牙槽骨、下巴颏神经及下齿槽神经中的至少一个的上述学习数据的步骤。
4.根据权利要求3所述的神经检测方法,其特征在于,在上述对象影像中检测上述神经的步骤为在上述对象影像中检测牙槽骨、下巴颏神经及下齿槽神经的步骤。
5.根据权利要求4所述的神经检测方法,其特征在于,检测上述下齿槽神经的步骤为通过所检测的上述牙槽骨来检测上述下齿槽神经的步骤。
6.根据权利要求2所述的神经检测方法,其特征在于,在上述对象影像中检测上述下巴颏结节的步骤为检测上述下巴颏结节的步骤,以上述学习影像的统计值为基础,设定第一探索起点,并从上述第一探索起点沿着上述对象影像的外侧方向进行探索。
7.根据权利要求2所述的神经检测方法,其特征在于,在上述对象影像中检测下颌角的步骤为检测上述下颌角的步骤,以上述学习影像的统计值为基础,设定第二探索起点,并从上述第二探索起点沿着上述对象影像的外侧方向进行探索。
8.根据权利要求1所述的神经检测方法,其特征在于,在上述对象影像中检测神经的步骤包括:
在上述对象影像中设定对象区域的步骤,上述对象区域包括作为检测对象的上述下巴颏结节、下颌角及神经;
计算上述对象区域的位置及大小信息的步骤;以及
计算上述对象区域中包括上述检测对象的概率值的步骤。
9.根据权利要求8所述的神经检测方法,其特征在于,在上述对象影像中检测神经的步骤还包括将上述概率值达到基准值以上的上述对象区域检测成包括上述检测对象的检测区域的步骤。
10.根据权利要求9所述的神经检测方法,其特征在于,在上述对象影像中检测神经的步骤还包括:
在上述检测区域中抽取包括上述神经的区域的坐标的步骤;以及
以上述坐标为基础来检测上述神经的步骤。
11.根据权利要求1所述的神经检测方法,其特征在于,还包括:
以上述神经位置为基础来获取曲面重建影像的步骤;
在上述曲面重建影像分别显示神经位置与基线的步骤;以及
以上述基线为基础来在上述曲面重建影像上校正上述神经位置的步骤。
12.根据权利要求11所述的神经检测方法,其特征在于,上述基线的坐标值包括上述神经位置的多个坐标值中的至少一个。
13.根据权利要求11所述的神经检测方法,其特征在于,上述基线为经过显示于上述曲面重建影像的神经区域的一部分的线。
14.一种神经检测装置,其特征在于,包括:
影像获取部,获取学习影像,上述学习影像包括沿着冠状面方向排列的多个切片;
学习部,生成学习数据和学习模型,通过学习上述学习数据来生成学习模型,上述学习数据通过在上述学习影像中设定神经和作为检测上述神经的基准的下巴颏结节及下颌角中的至少一个而成;以及
神经检测部,以上述学习数据为基础,通过向上述学习模型输入对象影像来在上述对象影像中检测神经。
15.根据权利要求14所述的神经检测装置,其特征在于,还包括校正部,以上述神经位置为基础,获取曲面重建影像,在上述曲面重建影像中显示基线,以上述基线为基础,校正上述神经位置。
CN202080036341.8A 2019-05-22 2020-02-26 神经检测方法及装置 Pending CN113873947A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR1020190060042A KR102236973B1 (ko) 2019-05-22 2019-05-22 신경 검출 방법 및 장치
KR10-2019-0060042 2019-05-22
KR1020190076079A KR102205427B1 (ko) 2019-06-26 2019-06-26 신경 위치 보정 방법 및 장치
KR10-2019-0076079 2019-06-26
PCT/KR2020/002757 WO2020235784A1 (ko) 2019-05-22 2020-02-26 신경 검출 방법 및 장치

Publications (1)

Publication Number Publication Date
CN113873947A true CN113873947A (zh) 2021-12-31

Family

ID=73458523

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080036341.8A Pending CN113873947A (zh) 2019-05-22 2020-02-26 神经检测方法及装置

Country Status (5)

Country Link
US (1) US20220240852A1 (zh)
EP (1) EP3973878A4 (zh)
CN (1) CN113873947A (zh)
TW (1) TWI754259B (zh)
WO (1) WO2020235784A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115187596B (zh) * 2022-09-09 2023-02-10 中国医学科学院北京协和医院 用于腹腔镜结直肠癌手术的神经智能辅助识别***

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6704439B1 (en) * 1999-09-14 2004-03-09 10Dr Co. Ltd. Method for identification of alveolar nerve region in mandible image
CN106037874A (zh) * 2016-05-18 2016-10-26 四川大学 基于下颌骨囊性病变刮治的下牙槽神经保护导板制备方法
KR20170091847A (ko) * 2016-02-02 2017-08-10 김도현 임플란트 수술 가이드 방법
KR101839789B1 (ko) * 2017-08-01 2018-03-19 주식회사 뷰노 치과 영상의 판독 데이터 생성 시스템
CN108470375A (zh) * 2018-04-26 2018-08-31 重庆市劢齐医疗科技有限责任公司 基于深度学习的神经导管自动检测算法
KR101908963B1 (ko) * 2017-07-19 2018-12-10 주식회사 디오 구강 내부 부착용 레퍼런스 마커를 이용한 이미지 처리방법
WO2019002631A1 (en) * 2017-06-30 2019-01-03 Promaton Holding B.V. 3D CLASSIFICATION AND MODELING OF 3D DENTO-MAXILLO-FACIAL STRUCTURES THROUGH DEEP LEARNING PROCESSES
CN109493328A (zh) * 2018-08-31 2019-03-19 上海联影智能医疗科技有限公司 医学图像显示方法、查看设备以及计算机设备
KR101974636B1 (ko) * 2018-04-18 2019-05-03 오스템임플란트 주식회사 치과용 임플란트 플래닝 방법, 이를 위한 장치, 및 이를 기록한 기록매체
WO2019094504A1 (en) * 2017-11-07 2019-05-16 Align Technology, Inc. Deep learning for tooth detection and evaluation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWM562104U (zh) * 2018-02-02 2018-06-21 Qiu Wen Xin 具數位顏面影像顯影之口腔齒顎咬合定位裝置
CN109875683B (zh) * 2019-04-16 2020-06-12 北京大学第三医院(北京大学第三临床医学院) 一种下颌角截骨术中建立截骨面预测模型的方法
KR102236973B1 (ko) * 2019-05-22 2021-04-07 주식회사 디오 신경 검출 방법 및 장치
KR102205427B1 (ko) * 2019-06-26 2021-01-20 주식회사 디오 신경 위치 보정 방법 및 장치

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6704439B1 (en) * 1999-09-14 2004-03-09 10Dr Co. Ltd. Method for identification of alveolar nerve region in mandible image
KR20170091847A (ko) * 2016-02-02 2017-08-10 김도현 임플란트 수술 가이드 방법
CN106037874A (zh) * 2016-05-18 2016-10-26 四川大学 基于下颌骨囊性病变刮治的下牙槽神经保护导板制备方法
WO2019002631A1 (en) * 2017-06-30 2019-01-03 Promaton Holding B.V. 3D CLASSIFICATION AND MODELING OF 3D DENTO-MAXILLO-FACIAL STRUCTURES THROUGH DEEP LEARNING PROCESSES
KR101908963B1 (ko) * 2017-07-19 2018-12-10 주식회사 디오 구강 내부 부착용 레퍼런스 마커를 이용한 이미지 처리방법
KR101839789B1 (ko) * 2017-08-01 2018-03-19 주식회사 뷰노 치과 영상의 판독 데이터 생성 시스템
WO2019094504A1 (en) * 2017-11-07 2019-05-16 Align Technology, Inc. Deep learning for tooth detection and evaluation
KR101974636B1 (ko) * 2018-04-18 2019-05-03 오스템임플란트 주식회사 치과용 임플란트 플래닝 방법, 이를 위한 장치, 및 이를 기록한 기록매체
CN108470375A (zh) * 2018-04-26 2018-08-31 重庆市劢齐医疗科技有限责任公司 基于深度学习的神经导管自动检测算法
CN109493328A (zh) * 2018-08-31 2019-03-19 上海联影智能医疗科技有限公司 医学图像显示方法、查看设备以及计算机设备

Also Published As

Publication number Publication date
US20220240852A1 (en) 2022-08-04
EP3973878A4 (en) 2023-05-31
TW202046240A (zh) 2020-12-16
WO2020235784A1 (ko) 2020-11-26
TWI754259B (zh) 2022-02-01
EP3973878A1 (en) 2022-03-30

Similar Documents

Publication Publication Date Title
US11302005B2 (en) Bone cutting support system, information processing apparatus, image processing method, and image processing program
CN107430634B (zh) 牙种植计划方法、装置及其记录介质
EP3524139B1 (en) Mobile apparatus-linked implant evaluation system
KR101315032B1 (ko) 임플란트 영상 생성방법 및 임플란트 영상 생성 시스템
US11883249B2 (en) Tooth separation systems and methods
KR102013667B1 (ko) 치과용 서지컬 가이드 설계 방법, 이를 위한 장치, 및 이를 기록한 기록매체
CN113873947A (zh) 神经检测方法及装置
KR102205427B1 (ko) 신경 위치 보정 방법 및 장치
CN106992985B (zh) 一种协议组生成方法及装置
KR102263110B1 (ko) 악궁 궤적 검출 장치
KR102236973B1 (ko) 신경 검출 방법 및 장치
US20230215027A1 (en) Oral image marker detection method, and oral image matching device and method using same
EP4159161A1 (en) Method and apparatus for predicting missing tooth in oral image
CN110573079B (zh) 要被成像的体积的计算机断层扫描和定位
KR20210131683A (ko) 구강 영상의 결손 치아 검출 방법 및 장치와, 이를 이용한 구강 영상의 크라운 배치 방법
KR20210131684A (ko) 구강 영상의 마커 검출 방법 및 이를 이용한 구강 영상 정합 장치 및 방법
EP4193960A1 (en) Method for selecting margin line point, and dental cad device therefor
KR102383546B1 (ko) 구강 영상 정합 장치 및 방법
KR102413696B1 (ko) 지대치 모델 마진라인 디자인 방법 및 그 장치
JP2015083082A (ja) X線診断装置
KR102401298B1 (ko) 구강의 교정 정보 표시 시스템
KR102277021B1 (ko) 3차원 구강 ct 영상의 상하악 분리 방법 및 장치
KR20220087874A (ko) 의료영상 정합 방법 및 그 장치
CN113645902A (zh) 牙齿目标检测方法及利用牙齿目标的影像整合方法及装置
KR20230135196A (ko) 구강 영상의 치아 디자인 장치 및 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination