KR20210066170A - Method and apparatus for superimposition of medical images - Google Patents

Method and apparatus for superimposition of medical images Download PDF

Info

Publication number
KR20210066170A
KR20210066170A KR1020190155084A KR20190155084A KR20210066170A KR 20210066170 A KR20210066170 A KR 20210066170A KR 1020190155084 A KR1020190155084 A KR 1020190155084A KR 20190155084 A KR20190155084 A KR 20190155084A KR 20210066170 A KR20210066170 A KR 20210066170A
Authority
KR
South Korea
Prior art keywords
data
matching
cross
registration
occlusal
Prior art date
Application number
KR1020190155084A
Other languages
Korean (ko)
Other versions
KR102314890B1 (en
Inventor
최규옥
조상형
김효정
김진웅
김종문
김아름
Original Assignee
오스템임플란트 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오스템임플란트 주식회사 filed Critical 오스템임플란트 주식회사
Priority to KR1020190155084A priority Critical patent/KR102314890B1/en
Publication of KR20210066170A publication Critical patent/KR20210066170A/en
Application granted granted Critical
Publication of KR102314890B1 publication Critical patent/KR102314890B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • A61B6/14
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Pulmonology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

A medical image matching method and a device thereof are disclosed. According to an embodiment, the medical image matching method and the device thereof match between two image data by using a matching point, which is a main feature between the two image data, and matching image shape information additionally obtained from a matching surface, thereby increasing matching accuracy.

Description

의료영상 정합 방법 및 그 장치 {Method and apparatus for superimposition of medical images}Medical image registration method and apparatus {Method and apparatus for superimposition of medical images}

본 발명은 의료영상 처리 기술에 관한 것으로, 보다 상세하게는 두 의료영상을 정합하는 기술에 관한 것이다.The present invention relates to a medical image processing technology, and more particularly, to a technology for matching two medical images.

컴퓨터 비전에서 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 서로 다른 좌표계에 따른 영상이 얻어지게 된다. 영상 정합은 이와 같은 서로 다른 두 개 이상의 영상을 동일한 좌표계에 표시하기 위한 과정을 의미한다. 영상 정합을 통하여 서로 다른 방식으로 획득한 영상의 대응 관계를 확인할 수 있다.In computer vision, when a scene or an object is photographed from a different time or point of view, images according to different coordinate systems are obtained. Image registration refers to a process for displaying two or more different images in the same coordinate system. Through image registration, it is possible to check the correspondence between images acquired in different ways.

영상 정합의 예로, CT 데이터와 스캔 데이터를 정합할 수 있다. 상용화된 영상 소프트웨어에서의 CT 데이터와 스캔 데이터 정합 방식은, 3차원 형태의 CT 데이터와 스캔 데이터에서 각각 정합 포인트들을 사용자가 선택하고 선택된 정합 포인트들을 이용하여 기준이 되는 데이터에 다른 하나의 데이터를 이동 및 회전하여 좌표정보를 변경하는 방식으로 이루어진다. 그런데, 몇 개의 정합 포인트의 정보만을 이용하는 경우 정합결과의 정확성이 낮아질 우려가 있다.As an example of image registration, CT data and scan data may be matched. In the CT data and scan data matching method in commercialized imaging software, a user selects matching points from 3D CT data and scan data, respectively, and uses the selected matching points to move the other data to the reference data. and rotating to change the coordinate information. However, when only information of a few matching points is used, the accuracy of the matching result may be lowered.

일 실시 예에 따라, 두 영상 데이터 간 정합결과의 정확성을 높이기 위한 의료영상 정합 방법 및 그 장치를 제안한다.According to an embodiment, a medical image registration method and apparatus for increasing the accuracy of a registration result between two image data are proposed.

일 실시 예에 따른 의료영상 정합 방법은, 정합 대상이 되는 제1 영상 데이터 및 제2 영상 데이터를 획득하는 단계와, 획득된 각 영상 데이터에서 사용자에 의해 선택된 적어도 하나의 정합 포인트를 이용하여 데이터 간 1차 정합을 수행하는 단계와, 교합면에서 추가로 획득되는 교합영역 형상정보를 이용하여 데이터 간 2차 정합을 수행하는 단계를 포함한다.A medical image registration method according to an embodiment includes: acquiring first image data and second image data to be matched; and using at least one matching point selected by a user from each acquired image data between data It includes performing primary registration and performing secondary registration between data using occlusal region shape information additionally acquired from the occlusal surface.

데이터 간 2차 정합을 수행하는 단계는, 각 영상 데이터 별로 선택된 치아의 정합 포인트들을 이용하여 두 단면을 생성하는 단계와, 두 단면 사이에 형성되는 교합영역 형상을 획득하는 단계와, 생성된 각 단면 상에서 교합영역 형상의 마진 라인을 획득하는 단계와, 각 영상 데이터에서 획득된 마진 라인을 비교하여 일치시키는 단계를 포함할 수 있다.The step of performing secondary registration between data includes generating two cross sections using matching points of teeth selected for each image data, obtaining a shape of an occlusal region formed between the two cross sections, and generating each cross section. It may include obtaining a margin line of the shape of the occlusal region on the image, and comparing and matching the margin line obtained from each image data.

두 단면을 생성하는 단계는, 정합 포인트 별로 정합 포인트가 선택된 치아의 교합면 방향으로 치아의 최하방 포인트 또는 최상방 포인트를 결정하는 단계와, 결정된 최하방 포인트들 또는 최상방 포인트들을 포함하는 제1 단면을 생성하는 단계와, 제1 단면을 미리 설정된 값만큼 교합면 반대 방향으로 이동시킨 제2 단면을 생성하는 단계를 포함할 수 있다.The step of generating the two cross-sections includes the steps of determining the lowest point or the highest point of the tooth in the occlusal direction of the tooth whose matching point is selected for each matching point, and a first cross-section including the determined lowest points or uppermost points. It may include the steps of generating and generating a second cross-section in which the first cross-section is moved in a direction opposite to the occlusal surface by a preset value.

제2 단면을 생성하는 단계에서, 제1 단면을 기준으로 치열 내 치아의 치관 길이 내에서 제2 단면이 생성되도록 제2 단면의 깊이를 결정할 수 있다.In the step of generating the second cross-section, the depth of the second cross-section may be determined such that the second cross-section is generated within the length of the crown of the tooth in the tooth based on the first cross-section.

교합영역 형상을 획득하는 단계에서, 미리 설정된 값을 가지는 두 단면 사이의 거리에 따라 교합영역 형상의 크기를 결정할 수 있고, 미리 설정된 값은 사용자에 의해 설정 가능하다.In the step of acquiring the shape of the occlusal region, the size of the shape of the occlusal region may be determined according to the distance between the two cross-sections having a preset value, and the preset value may be set by the user.

교합영역 형상의 마진 라인을 획득하는 단계는, 각 단면 상에서 2차원으로 표현되는 교합영역 형상을 추출하는 단계와, 추출된 2차원의 교합영역 형상의 외곽을 이루는 마진 라인을 추출하는 단계를 포함할 수 있다. 2차원으로 표현되는 교합영역 형상을 추출하는 단계에서, 각 단면과 3차원의 교합영역 형상이 접하는 면을 구성하는 형상정보를 추출할 수 있다.The step of obtaining the margin line of the shape of the occlusal region may include extracting the shape of the occlusal region expressed in two dimensions on each cross section, and extracting the margin line forming the outline of the extracted two-dimensional shape of the occlusal region. can In the step of extracting the shape of the occlusal region expressed in two dimensions, shape information constituting a surface in which each cross-section and the shape of the three-dimensional occlusal region are in contact may be extracted.

치아가 없는 무치악 또는 레진 마커가 필요한 부분 무치악의 경우, 데이터 간 1차 정합을 수행하는 단계에서, 레진 마커에 생성된 정합 포인트를 이용하여 데이터 간 1차 정합을 수행할 수 있고, 데이터 간 2차 정합을 수행하는 단계에서, 레진 마커의 형상정보를 이용하여 데이터 간 2차 정합을 수행할 수 있다.In the case of edentulous jaws without teeth or partially edentulous jaws that require a resin marker, in the step of performing the primary registration between data, the primary registration between data can be performed using the registration point created in the resin marker, and the secondary between data In the matching step, secondary matching between data may be performed using the shape information of the resin marker.

교합영역 형상정보는 사용자 설정에 의해 화면 표시 여부가 결정될 수 있다.Whether to display the occlusal region shape information on the screen may be determined by a user setting.

다른 실시 예에 따른 의료영상 처리장치는, 정합 대상이 되는 제1 영상 데이터 및 제2 영상 데이터를 획득하는 데이터 획득부와, 사용자로부터 1차 정합을 위한 정합 포인트를 선택 입력 받는 입력부와, 획득된 각 데이터에서 입력부를 통해 사용자에 의해 선택된 적어도 하나의 정합 포인트를 이용하여 데이터 간 1차 정합을 수행하는 제1 정합부와, 교합면에서 추가로 획득되는 교합영역 형상정보를 이용하여 데이터 간 2차 정합을 수행하는 제2 정합부와, 각 정합결과를 화면에 표시하는 출력부를 포함한다.A medical image processing apparatus according to another embodiment includes a data acquisition unit for acquiring first image data and second image data to be matched, an input unit for receiving a selection input of a matching point for primary registration from a user; A first registration unit that performs primary registration between data using at least one matching point selected by a user through an input unit in each data, and a secondary data between data using occlusal area shape information additionally obtained from the occlusal surface It includes a second matching unit that performs matching, and an output unit that displays each matching result on a screen.

제2 정합부는, 각 영상 데이터 별로 선택된 치아의 정합 포인트들을 이용하여 두 단면을 생성하는 단면정보 생성부와, 두 단면 사이에 형성되는 교합영역 형상을 획득하는 교합영역 형상정보 획득부와, 생성된 각 단면 상에서 교합영역 형상의 마진 라인을 획득하는 마진정보 획득부와, 각 영상 데이터에서 획득된 마진 라인을 비교하여 일치시키는 정보 비교부를 포함할 수 있다.The second registration unit includes a cross-section information generation unit for generating two cross sections using matching points of teeth selected for each image data, an occlusal region shape information obtaining unit for obtaining an occlusal region shape formed between the two cross-sections, and the generated It may include a margin information acquisition unit for obtaining a margin line of the shape of the occlusal region on each cross-section, and an information comparison unit for comparing and matching the margin line obtained from each image data.

단면정보 생성부는 정합 포인트 별로 정합 포인트가 선택된 치아의 교합면 방향으로 치아의 최하방 포인트 또는 최상방 포인트를 결정하고, 결정된 최하방 포인트들 또는 최상방 포인트들을 포함하는 제1 단면을 생성하며, 제1 단면을 미리 설정된 값만큼 교합면 반대 방향으로 이동시킨 제2 단면을 생성할 수 있다.The section information generating unit determines the lowest point or the highest point of the tooth in the occlusal surface direction of the tooth whose matching point is selected for each matching point, and generates a first section including the determined lowest point or uppermost point, the first section It is possible to create a second cross-section in which is moved in the opposite direction to the occlusal surface by a preset value.

교합영역 형상정보 획득부는 미리 설정된 값을 가지는 두 단면 사이의 거리에 따라 교합영역 형상의 크기를 결정할 수 있고, 미리 설정된 값은 사용자에 의해 설정 가능하다.The occlusal region shape information obtaining unit may determine the size of the occlusal region shape according to a distance between two cross-sections having a preset value, and the preset value may be set by a user.

치아가 없는 무치악 또는 레진 마커가 필요한 부분 무치악의 경우, 제1 정합부가 레진 마커에 생성된 정합 포인트를 이용하여 데이터 간 1차 정합을 수행할 수 있고, 제2 정합부가 레진 마커의 형상정보를 이용하여 데이터 간 2차 정합을 수행할 수 있다.In the case of an edentulous jaw without teeth or a partially edentulous jaw requiring a resin marker, the first registration unit can perform primary registration between data using the registration point created on the resin marker, and the second registration unit uses the shape information of the resin marker Thus, secondary matching between data can be performed.

일 실시 예에 따른 의료영상 정합 방법 및 그 장치에 따르면, 두 영상 데이터 간 정합 정확성을 향상시킬 수 있다. 정합 포인트들을 이용한 1차 정합 이후, 1차 정합의 오류를 줄이기 위해 소프트웨어에서 자동으로 2차 정합을 진행함에 따라 정합 오차를 최소화할 수 있고 자동 정합에 의해 사용자 작업을 줄여 사용의 편의성을 높일 수 있다.According to a medical image registration method and apparatus according to an embodiment, it is possible to improve registration accuracy between two image data. After the primary registration using the matching points, the software automatically performs secondary registration in order to reduce the errors of the primary registration, thereby minimizing the registration error and reducing user work by automatic registration to increase the convenience of use. .

또한, 두 영상 데이터 간 특징이 되는 교합면에서 추가로 획득한 교합영역 형상정보를 이용하여 두 영상 데이터 간을 정합함에 따라 정합 정확성을 높일 수 있다. 교합면 주변의 교합영역 형상은 정합을 위한 특징점을 다수 획득할 수 있는 형상으로, 교합영역 형상을 특징영역으로 결정하고 교합영역 형상정보를 이용하면 오차를 최소화 하는 정합 결과를 획득할 수 있다.Also, by using the occlusal region shape information additionally acquired from the occlusal surface, which is a characteristic between the two image data, the matching accuracy can be improved by matching between the two image data. The shape of the occlusal region around the occlusal surface is a shape that can acquire a large number of characteristic points for registration. If the shape of the occlusal region is determined as a characteristic region and the occlusal region shape information is used, a registration result that minimizes errors can be obtained.

치과 임플란트 수술용 가이드 디자인의 경우, 오차를 최소하는 정합 결과를 이용하여 임플란트 식립 계획 수립의 효율성을 높일 수 있다.In the case of a guide design for dental implant surgery, it is possible to increase the efficiency of establishing an implant placement plan by using the matching result that minimizes the error.

도 1은 본 발명의 일 실시 예에 따른 의료영상 처리장치의 구성을 도시한 도면,
도 2는 본 발명의 일 실시 예에 따른 도 1의 제2 정합부의 세부 구성을 도시한 도면,
도 3은 본 발명의 일 실시 예에 따른 데이터 간 1차 정합을 위해 CT 데이터와 스캔 데이터에서 정합 포인트를 선택하는 예를 도시한 도면,
도 4는 본 발명의 일 실시 예에 따른 2차 정합을 위한 교합영역 형상정보가 표현되는 CT 데이터를 도시한 도면,
도 5는 본 발명의 일 실시 예에 따른 2차 정합을 위한 교합영역 형상정보가 표현되는 스캔 데이터를 도시한 도면,
도 6은 본 발명의 일 실시 예에 따른 제1 단면이 생성되는 CT 데이터를 도시한 도면,
도 7은 본 발명의 일 실시 예에 따른 제2 단면이 생성되는 CT 데이터를 도시한 도면,
도 8은 본 발명의 일 실시 예에 따른 CT 데이터와 스캔 데이터의 레진 마커에 정합 포인트를 선택하는 예를 도시한 도면,
도 9는 본 발명의 일 실시 예에 따른 CT 데이터 및 스캔 데이터 간 1차 정합 화면을 도시한 도면,
도 10은 본 발명의 일 실시 예에 따른 CT 데이터 및 스캔 데이터 간 2차 정합 화면을 도시한 도면,
도 11은 본 발명의 일 실시 예에 따른 의료영상 정합 방법의 흐름을 도시한 도면이다.
1 is a diagram showing the configuration of a medical image processing apparatus according to an embodiment of the present invention;
2 is a view showing a detailed configuration of the second matching part of FIG. 1 according to an embodiment of the present invention;
3 is a diagram illustrating an example of selecting a matching point from CT data and scan data for primary matching between data according to an embodiment of the present invention;
4 is a view showing CT data in which occlusal region shape information for secondary registration is expressed according to an embodiment of the present invention;
5 is a view showing scan data representing occlusal region shape information for secondary registration according to an embodiment of the present invention;
6 is a view showing CT data in which a first cross-section is generated according to an embodiment of the present invention;
7 is a view showing CT data in which a second cross-section is generated according to an embodiment of the present invention;
8 is a diagram illustrating an example of selecting a matching point for a resin marker of CT data and scan data according to an embodiment of the present invention;
9 is a view showing a first matching screen between CT data and scan data according to an embodiment of the present invention;
10 is a diagram illustrating a secondary matching screen between CT data and scan data according to an embodiment of the present invention;
11 is a diagram illustrating a flow of a medical image registration method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform the possessor of the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이며, 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted, and the terms to be described later are used in the embodiment of the present invention. These terms are defined in consideration of the function of the user, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the content throughout this specification.

첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램인스트럭션들(실행 엔진)에 의해 수행될 수도 있으며, 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다.Each block in the accompanying block diagram and combinations of steps in the flowchart may be executed by computer program instructions (execution engine), which are executed by the processor of a general-purpose computer, special-purpose computer, or other programmable data processing device. It may be mounted so that its instructions, which are executed by the processor of a computer or other programmable data processing device, create means for performing the functions described in each block of the block diagram or in each step of the flowchart.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 지향할 수 있는 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may also be stored in a computer-usable or computer-readable memory that may direct a computer or other programmable data processing device to implement a function in a particular manner, and thus the computer-usable or computer-readable memory. It is also possible for the instructions stored in the block diagram to produce an article of manufacture containing instruction means for performing the functions described in each block of the block diagram or each step of the flowchart.

그리고 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장치를 수행하는 인스트럭션들은 블록도의 각 블록 및 흐름도의 각 단계에서 설명되는 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.And since the computer program instructions may be mounted on a computer or other programmable data processing device, a series of operational steps is performed on the computer or other programmable data processing device to create a computer-executed process to create a computer or other programmable data processing device. It is also possible that the instructions for performing the data processing apparatus provide steps for executing the functions described in each block of the block diagram and each step of the flowchart.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능들을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있으며, 몇 가지 대체 실시 예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하며, 또한 그 블록들 또는 단계들이 필요에 따라 해당하는 기능의 역순으로 수행되는 것도 가능하다.In addition, each block or step may represent a module, segment, or portion of code comprising one or more executable instructions for executing specified logical functions, and in some alternative embodiments the blocks or steps referred to in the block or steps. It should be noted that it is also possible for functions to occur out of sequence. For example, it is possible that two blocks or steps shown one after another may be performed substantially simultaneously, and also the blocks or steps may be performed in the reverse order of the corresponding functions, if necessary.

이하, 첨부 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. 그러나 다음에 예시하는 본 발명의 실시 예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시 예에 한정되는 것은 아니다. 본 발명의 실시 예는 이 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공된다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention illustrated below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to more completely explain the present invention to those of ordinary skill in the art to which the present invention pertains.

도 1은 본 발명의 일 실시 예에 따른 의료영상 처리장치의 구성을 도시한 도면이다.1 is a diagram showing the configuration of a medical image processing apparatus according to an embodiment of the present invention.

의료영상 처리장치(1)는 의료영상 처리 프로그램을 실행 가능한 전자장치이다. 전자장치는 컴퓨터, 노트북 컴퓨터, 랩탑 컴퓨터, 태블릿(Tablet) PC, 스마트폰, 휴대폰, PMP(Personal Media Player), PDA(Personal Digital Assistants) 등이 있다. 의료영상 처리 프로그램은 가이드 디자인 프로그램, 스캔 프로그램, CAD 프로그램 등이 있다. 또한, 치과 임플란트 수술용 이외에 다른 일반적인 의료영상 처리를 위한 프로그램에 적용될 수 있다. 이하, 설명의 편의를 위해 치과 임플란트 수술용 가이드 디자인 프로그램을 예로 들어 설명하고자 하나, 영상처리가 가능하면 다른 프로그램에도 동일하게 적용 가능함은 물론이다.The medical image processing apparatus 1 is an electronic device capable of executing a medical image processing program. The electronic device includes a computer, a notebook computer, a laptop computer, a tablet PC, a smart phone, a mobile phone, a personal media player (PMP), and personal digital assistants (PDA). Medical image processing programs include guide design programs, scan programs, and CAD programs. In addition, it can be applied to programs for general medical image processing other than for dental implant surgery. Hereinafter, for convenience of explanation, a guide design program for dental implant surgery will be described as an example, but if image processing is possible, it is of course applicable to other programs as well.

의료영상 처리 프로그램을 이용한 영상처리 과정은 상용화된 제품별로 차이는 있지만, 수술 환자 등록, 등록된 환자의 CT 데이터 및 스캔 데이터 획득, CT 데이터 및 스캔 데이터의 정합, 정합된 영상 데이터에서 악궁 라인 생성 및 악궁 라인을 이용한 파노라믹 영상(Panoramic image) 생성, CT 데이터에서 픽스쳐를 포함한 임플란트 구조물의 식립 위치 결정, 스캔 데이터에서 크라운 모델의 위치 결정 및 가이드 생성 영역 결정, 최종 가이드 출력을 포함한 과정으로 구성된다.Although the image processing process using a medical image processing program is different for each commercialized product, it is possible to register a surgical patient, acquire CT data and scan data of a registered patient, match CT data and scan data, create an arch line from the registered image data, and It consists of a process including creation of a panoramic image using the arch line, determination of the placement position of the implant structure including fixtures from CT data, determination of the position of the crown model from scan data, determination of the guide generation area, and final guide output. .

본 발명은 위 과정 중에서 CT 데이터와 스캔 데이터 정합 과정에 관한 기술에 관한 것이다. 환자의 CT 데이터는 픽스쳐를 포함한 임플란트 구조물의 식립 위치를 결정하여 수술 계획을 수립하는 용도로 사용된다. 스캔 데이터는 크라운의 위치 결정 및 가이드의 생성영역을 결정하는 용도로 사용된다. 가이드 형상을 디자인하는 과정에서 스캔 데이터 상에 생성되는 드릴링 홀은 픽스쳐의 위치를 기준으로 홀의 위치와 방향이 결정되기 때문에, CT 데이터와 스캔 데이터를 정합하여 두 데이터의 좌표정보를 동일하게 맞추고 가이드 수술계획 수립과 디자인을 진행한다.The present invention relates to a technology related to the CT data and scan data matching process among the above processes. The patient's CT data is used to establish a surgical plan by determining the placement position of the implant structure including the fixture. The scan data is used to determine the position of the crown and the area where the guide is created. Since the location and direction of the drilling hole created on the scan data in the process of designing the guide shape is determined based on the location of the fixture, the coordinate information of the two data is matched by matching the CT data and the scan data, and the guide operation is performed. Develop planning and design.

본 발명에서는 CT 데이터와 스캔 데이터의 정합 과정을 예로 들어 설명하고 있으나, 두 영상 데이터를 정합하는 다른 기술에 동일하게 적용 가능하다. 예를 들어, 스캔 데이터-스캔 데이터, 자기공명영상(MRI) 데이터-CT 데이터 등과 같이 2차원-2차원 영상, 2차원-3차원 영상, 3차원-3차원 영상의 다양한 조합에 대해서도 본 발명에 따른 영상 정합 방법에 의해서 정합이 이루어질 수 있음은 물론이다.In the present invention, a process of matching CT data and scan data is described as an example, but it is equally applicable to other techniques for matching two image data. For example, the present invention also relates to various combinations of 2D-2D images, 2D-3D images, and 3D-3D images, such as scan data-scan data, magnetic resonance imaging (MRI) data-CT data, etc. It goes without saying that registration may be achieved by an image matching method according to the present invention.

도 1을 참조하면, 일 실시 예에 따른 의료영상 처리장치(1)는 데이터 획득부(10), 저장부(12), 제어부(14), 입력부(16) 및 출력부(18)를 포함한다.Referring to FIG. 1 , a medical image processing apparatus 1 according to an embodiment includes a data acquisition unit 10 , a storage unit 12 , a control unit 14 , an input unit 16 , and an output unit 18 . .

데이터 획득부(10)는 정합 대상이 되는 영상 데이터를 획득한다. 예를 들어, 환자의 손상된 대상 치아를 포함하는 치아들로부터 CT 데이터와 스캔 데이터를 획득한다. 영상 데이터는 2차원, 3차원 형태일 수 있다. 데이터 획득부(10)는 환자의 CT 데이터와 스캔 데이터를 정합하기 위해 CT 데이터와 스캔 데이터를 프로그램에서 실행하거나 웹 페이지 및 서버에 저장된 데이터를 로딩한다.The data acquisition unit 10 acquires image data to be matched. For example, CT data and scan data are acquired from teeth including a damaged target tooth of a patient. The image data may be in a two-dimensional or three-dimensional form. The data acquisition unit 10 executes the CT data and the scan data in a program or loads the data stored in a web page and a server in order to match the patient's CT data and the scan data.

스캔 데이터는 손상된 치아를 포함한 실제 치아들의 정보를 가진 데이터이다. 스캔 데이터는 환자의 구강을 본떠 생성한 석고 모형을 3D 스캐너(3D Scanner)로 스캐닝하여 획득하는 치아 모델 스캔 데이터일 수 있다. 다른 예로서, 구강 내 3D 스캐너(3D Intra-oral scanner)를 이용하여 환자의 구강 내부를 스캐닝하여 획득하는 구강 스캔 데이터일 수 있다. 획득된 스캔 데이터는 저장부(12)에 저장될 수 있다.The scan data is data having information on actual teeth including damaged teeth. The scan data may be dental model scan data obtained by scanning a plaster model created by imitating a patient's oral cavity with a 3D scanner. As another example, it may be oral scan data obtained by scanning the inside of the patient's oral cavity using a 3D intra-oral scanner. The acquired scan data may be stored in the storage unit 12 .

CT 데이터는 CT(Computed Tomography, 컴퓨터 단층 촬영)를 사용하여 환자의 두부 단층 이미지들을 생성하고, 각각의 단층 이미지에서 치아 부분의 경계를 분할(Segmentation)한 후 하나로 취합함에 따라 획득될 수 있다. 이러한 스캔 데이터와 CT 데이터는 환자가 입을 벌린 상태에서 상악 치아 아래에서 상악 치아를 촬영하여 얻은 영상, 입을 벌린 상태에서 하악 치아 위에서 하악 치아를 촬영하여 얻은 영상, 입을 다문 상태에서 국소부위를 촬영하여 얻은 영상, 구강 방사선 사진 등을 포함한다. 획득된 CT 데이터는 저장부(12)에 저장될 수 있다.CT data may be obtained by generating tomographic images of the patient's head using computed tomography (CT), segmenting the tooth boundaries in each tomography image, and combining them into one. These scan data and CT data are images obtained by imaging the maxillary teeth under the maxillary teeth with the patient’s mouth open, images obtained by imaging the mandibular teeth above the mandibular teeth with the patient’s mouth open, and local area imaging with the mouth closed. images, oral radiographs, etc. The acquired CT data may be stored in the storage unit 12 .

저장부(12)에는 의료영상 처리장치(1)의 동작 수행을 위해 필요한 정보와 동작 수행에 따라 생성되는 정보 등의 각종 데이터가 저장된다. 일 실시 예에 따른 저장부(12)에는 개별 환자의 스캔 데이터와 CT 데이터가 저장되고, 치과 치료 시뮬레이션 시 전체 스캔 데이터들 및 CT 데이터들 중에서 특정 환자의 스캔 데이터 및 CT 데이터를 사용자 요청에 따라 제어부(14)에 제공할 수 있다. 이때, 저장부(12)에는 개별 환자의 상측 치열의 영상 및 하측 치열의 영상이 저장되어 있고, 특정 환자의 스캔 데이터 및 CT 데이터에 매칭되는 상측 치열의 영상 및 하측 치열의 영상을 사용자 요청에 따라 제어부(14)에 제공할 수 있다.The storage unit 12 stores various data such as information necessary for performing the operation of the medical image processing apparatus 1 and information generated according to the operation. The storage unit 12 according to an embodiment stores scan data and CT data of an individual patient, and controls the scan data and CT data of a specific patient from among all scan data and CT data during dental treatment simulation according to a user's request. (14) can be provided. At this time, the storage unit 12 stores the image of the upper and lower teeth of an individual patient, and the image of the upper and lower teeth matched with the scan data and CT data of a specific patient are displayed according to the user's request. It may be provided to the control unit 14 .

입력부(16)는 사용자 조작신호를 입력 받는다. 출력부(18)는 화면에 각종 정보를 표시한다. 이때, 출력부(18)는 데이터 정합결과를 화면에 표시할 수 있다.The input unit 16 receives a user manipulation signal. The output unit 18 displays various information on the screen. In this case, the output unit 18 may display the data matching result on the screen.

제어부(14)는 컴퓨터 프로그램에 의한 제어를 통하여 각 구성요소를 제어한다. 제어부(14)는 출력부(18)를 통해 화면에 보이는 화면정보를 관리하고, 치과 영상에 가상의 픽스쳐 객체를 식립하는 시뮬레이션을 수행할 수 있다. 가상의 픽스쳐 객체가 식립되는 치과 영상은 임플란트 시술 계획 수립을 위해 생성된 환자의 치아 배열이 나타난 2차원, 3차원 등의 다차원 영상을 의미한다. 임플란트 시술 계획에는 X-ray, CT, MRI, 파노라믹 영상, 구강 스캔 영상, 재구성을 통해 생성된 영상, 복수의 영상을 정합한 영상 등 다양한 종류의 영상이 활용될 수 있다.The control unit 14 controls each component through control by a computer program. The controller 14 may manage screen information displayed on the screen through the output unit 18 and perform a simulation of implanting a virtual fixture object in a dental image. A dental image in which a virtual fixture object is placed means a two-dimensional, three-dimensional, or the like, multidimensional image in which a patient's tooth arrangement is generated for establishing an implant treatment plan. Various types of images, such as X-ray, CT, MRI, panoramic image, oral scan image, image generated through reconstruction, and image obtained by matching multiple images, can be used for implant treatment planning.

일 실시 예에 따른 제어부(14)는 임플란트 식립 계획 수립을 위해 환자의 CT 데이터 및 스캔 데이터를 정합한다. 이때, 두 영상 데이터 간 정합결과를 출력부(18)에 전송하여 출력되도록 제어한다.The control unit 14 according to an embodiment matches the patient's CT data and scan data to establish an implant placement plan. At this time, the matching result between the two image data is transmitted to the output unit 18 and controlled to be output.

일 실시 예에 따른 제어부(14)는 제1 정합부(141) 및 제2 정합부(142)를 포함한다.The control unit 14 according to an embodiment includes a first matching unit 141 and a second matching unit 142 .

제1 정합부(141)는 입력부(16)를 통해 사용자에 의해 선택된 적어도 하나의 정합 포인트를 이용하여 환자의 CT 데이터 및 스캔 데이터 간 1차 정합을 수행한다. 정합 포인트는 CT 데이터 및 스캔 데이터 별로 선택한다. 이때, 선택되는 정합 포인트의 수는 한정되지는 않지만, 예를 들어, 1개의 포인트를 이용(1 포인트 정합)할 수 있고, 최소 3개(3 포인트 정합)를 이용할 수도 있다. 정합 포인트의 수가 적을수록 연산속도가 빨라지고, 정합 포인트의 수가 많을수록 연산 정확도가 높아진다.The first matching unit 141 performs primary registration between the patient's CT data and the scan data using at least one matching point selected by the user through the input unit 16 . The matching point is selected for each CT data and scan data. In this case, the number of selected matching points is not limited, but, for example, one point may be used (one-point matching) or a minimum of three (three-point matching) may be used. The smaller the number of matching points, the faster the calculation speed, and the larger the number of matching points, the higher the calculation accuracy.

제2 정합부(142)는 제1 정합부(141)의 1차 정합결과를 조정하는 2차 정합을 수행한다. 2차 정합은 1차 정합결과의 오차를 줄이기 위한 미세 정합으로, 소프트웨어에서 자동으로 진행한다. 제2 정합부(142)는 교합면에서 추가로 획득되는 교합영역 형상정보를 이용하여 데이터 간 2차 정합을 수행한다.The second matching unit 142 performs secondary matching for adjusting the primary matching result of the first matching unit 141 . The secondary registration is a fine registration to reduce the error of the primary registration result, and is performed automatically by the software. The second registration unit 142 performs secondary registration between data using the occlusal region shape information additionally acquired from the occlusal surface.

소프트웨어에서 자동으로 진행되는 2차 정합에 의해 데이터 정합결과의 정확성을 향상시키면서 사용자 작업을 줄일 수 있다. 정합 포인트만을 이용하여 정합하거나, 정합 포인트 주변으로 생성되는 추가 포인트 및 영역을 이용하여 정합하는 경우 정합의 정확도가 떨어진다. 그러나 일 실시 예에 따른 제2 정합부(142)는 교합면 주변의 교합영역 형상을 특징정보를 획득하기 위한 추가 포인트 및 영역으로 결정한다. 교합영역 형상은 정합을 위한 특징정보를 다수 획득할 수 있는 형상으로, 교합영역 형상정보를 이용하면 오차를 최소화 하는 정합 결과를 획득할 수 있다. 교합영역 형상정보는 출력부(18)를 통해 화면에 표시될 수 있는데, 입력부(16)를 통해 교합영역 형상정보 화면 표시 여부를 설정 받을 수 있다.Secondary matching performed automatically in the software improves the accuracy of data matching results and reduces user work. When matching is performed using only the matching point or using additional points and regions generated around the matching point, the accuracy of matching is lowered. However, the second matching unit 142 according to an embodiment determines the shape of the occlusal region around the occlusal surface as an additional point and region for acquiring characteristic information. The shape of the occlusal region is a shape that can acquire a lot of characteristic information for registration, and if the shape information of the occlusal region is used, a matching result that minimizes an error can be obtained. The occlusal region shape information may be displayed on the screen through the output unit 18 , and whether to display the occlusal region shape information screen may be set through the input unit 16 .

제1 정합부(141) 및 제2 정합부(142)는 CT 데이터를 기준으로 스캔 데이터를 맞출 수 있고, 스캔 데이터를 기준으로 CT 데이터를 맞출 수도 있다. 1차 정합은 수동으로 이루어지고, 2차 정합은 자동으로 이루어진다는 점에서, 해당 정합 방식은 반자동이라 할 수 있다.The first matching unit 141 and the second matching unit 142 may match the scan data based on the CT data, or may match the CT data based on the scan data. Since the first registration is performed manually and the second registration is performed automatically, the corresponding registration method can be said to be semi-automatic.

치아가 없는 무치악 또는 레진 마커가 필요한 부분 무치악의 경우, 제1 정합부(141)는 레진 마커에 생성된 정합 포인트를 이용하여 데이터 간 1차 정합을 수행한다. 이어서, 제2 정합부(142)는 레진 마커의 형상정보를 이용하여 데이터 간 2차 정합을 수행한다.In the case of an edentulous jaw without teeth or a partially edentulous jaw requiring a resin marker, the first registration unit 141 performs primary registration between data using the registration point generated in the resin marker. Next, the second matching unit 142 performs secondary matching between the data by using the shape information of the resin marker.

도 2는 본 발명의 일 실시 예에 따른 도 1의 제2 정합부의 세부 구성을 도시한 도면이다.2 is a diagram illustrating a detailed configuration of the second matching unit of FIG. 1 according to an embodiment of the present invention.

도 2를 참조하면, 제2 정합부(142)는 단면정보 생성부(1420), 교합영역 형상정보 획득부(1422), 마진정보 획득부(1424) 및 정보 비교부(1426)를 포함한다.Referring to FIG. 2 , the second matching unit 142 includes a section information generating unit 1420 , an occlusal region shape information obtaining unit 1422 , a margin information obtaining unit 1424 , and an information comparing unit 1426 .

단면정보 생성부(1420)는 정합을 위한 두 영상 데이터 별로 선택된 치아의 정합 포인트들을 이용하여 두 단면을 생성한다. 일 실시 예에 따른 단면정보 생성부(1420)는 정합 포인트 별로 정합 포인트가 선택된 치아의 교합면 방향으로 치아의 최하방 포인트 또는 최상방 포인트를 결정한다. 이어서, 결정된 최하방 포인트들 또는 최상방 포인트들을 포함하는 제1 단면을 생성한다. 또한, 제1 단면을 미리 설정된 값만큼 교합면 반대 방향으로 이동시킨 제2 단면을 생성한다. 이때, 제1 단면을 기준으로 치열 내 치아의 치관 길이 내에서 제2 단면이 형성되도록 제2 단면의 깊이를 결정할 수 있다. 깊이는 CT 데이터의 좌표정보를 기준으로 z축 상에 치아 높이 방향으로 형성된다.The cross-section information generator 1420 generates two cross-sections using matching points of teeth selected for each two image data for registration. The section information generating unit 1420 according to an embodiment determines the lowest point or the uppermost point of the tooth in the direction of the occlusal surface of the tooth in which the matching point is selected for each matching point. Then, a first cross-section comprising the determined lowest points or uppermost points is generated. In addition, a second cross-section in which the first cross-section is moved in the opposite direction to the occlusal surface by a preset value is generated. In this case, the depth of the second cross-section may be determined such that the second cross-section is formed within the length of the crown of the tooth in the tooth based on the first cross-section. The depth is formed in the tooth height direction on the z-axis based on the coordinate information of the CT data.

교합영역 형상정보 획득부(1422)는 두 단면 사이에 형성되는 교합영역 형상을 획득한다. 교합영역 형상정보는 2차 정합을 위해 교합면에서 추가로 획득되는 소정 크기의 표면영역을 가진다. 교합영역 형상정보 획득부(1422)는 미리 설정된 값을 가지는 두 단면 사이의 거리에 따라 교합영역 형상의 크기를 결정할 수 있다. 미리 설정된 값은 사용자에 의해 설정 가능하다.The occlusal region shape information acquisition unit 1422 acquires the occlusal region shape formed between the two cross-sections. The occlusal area shape information has a surface area of a predetermined size additionally acquired from the occlusal surface for secondary registration. The occlusal region shape information obtaining unit 1422 may determine the size of the occlusal region shape according to a distance between two cross-sections having a preset value. The preset value can be set by the user.

정합을 위한 특징정보가 되는 교합영역 형상의 크기에 따라 교합영역 형상의 크기가 너무 작으면 특징을 추출할 수 있는 데이터가 작아 위치 정합의 정확도가 떨어진다. 이에 비해, 교합영역 형상의 크기가 너무 많으면 비교할 모수 데이터가 많이 발생하여 연산속도가 저하된다. 따라서, 제1 단면에서 제2 단면까지의 거리를 적절하게 설정하여 최적의 교합영역 형상의 크기를 결정하는 것이 중요하다.Depending on the size of the shape of the occlusal region, which is the feature information for registration, if the size of the shape of the occlusal region is too small, the data from which the feature can be extracted is small, and the accuracy of position registration decreases. On the other hand, if the size of the shape of the occlusal region is too large, a lot of parameter data to be compared is generated and the calculation speed is reduced. Therefore, it is important to determine the optimal size of the shape of the occlusal region by appropriately setting the distance from the first section to the second section.

마진정보 획득부(1424)는 단면정보 생성부(1420)를 통해 생성된 각 단면 상에서 교합영역 형상의 마진 라인을 획득한다. 이때, 마진정보 획득부(1424)는 각 단면 상에서 2차원으로 표현되는 교합영역 형상을 추출한 후, 추출된 2차원의 교합영역 형상의 외곽을 이루는 마진 라인을 추출할 수 있다.The margin information acquisition unit 1424 acquires a margin line of the shape of the occlusal region on each cross-section generated by the cross-section information generation unit 1420 . In this case, the margin information obtaining unit 1424 may extract the shape of the occlusal region expressed in two dimensions on each cross-section, and then extract a margin line forming the outline of the extracted shape of the two-dimensional occlusal region.

정보 비교부(1426)는 각 영상 데이터에서 획득된 마진 라인을 비교하여 일치시킨다.The information comparison unit 1426 compares and matches the margin lines obtained from each image data.

도 3은 본 발명의 일 실시 예에 따른 데이터 간 1차 정합을 위해 CT 데이터와 스캔 데이터에서 정합 포인트를 선택하는 예를 도시한 도면이다.3 is a diagram illustrating an example of selecting a matching point from CT data and scan data for primary matching between data according to an embodiment of the present invention.

도 3을 참조하면, 좌표정보가 서로 상이한 CT 데이터(2)와 스캔 데이터(3)의 1차 정합을 위해, CT 데이터(2)와 스캔 데이터(3) 별로 정합 포인트(200, 300)를 선택한다. CT 데이터(2)와 스캔 데이터(3)는 도 3에 도시된 바와 같이 3D 영상 데이터이며, CT 데이터(2)의 정합 포인트(200)와 스캔 데이터(3)의 정합 포인트(300)는 각각 최소 3개 이상일 수 있다. 예를 들어, 두 영상 데이터(2, 3)의 정면, 좌측, 우측에 각각 정합 포인트(200, 300)를 선택할 수 있다. 정합 포인트(200, 300)는 다수의 방향에서 각각 정합의 기준이 되는 특징점이다. 정합 포인트(200, 300) 선택은 사용자에 의해 수동으로 이루어질 수 있다.Referring to FIG. 3 , for the primary matching of CT data 2 and scan data 3 having different coordinate information, matching points 200 and 300 are selected for each CT data 2 and scan data 3 . do. The CT data 2 and the scan data 3 are 3D image data as shown in FIG. 3 , and the matching point 200 of the CT data 2 and the matching point 300 of the scan data 3 are the minimum There may be three or more. For example, matching points 200 and 300 may be selected on the front, left, and right sides of the two image data 2 and 3 , respectively. The matching points 200 and 300 are feature points serving as reference points for matching in a plurality of directions, respectively. The selection of the registration points 200 and 300 may be made manually by the user.

도 4는 본 발명의 일 실시 예에 따른 2차 정합을 위한 교합영역 형상정보가 표현되는 CT 데이터를 도시한 도면이다.4 is a view showing CT data in which occlusal region shape information for secondary registration is expressed according to an embodiment of the present invention.

도 4를 참조하면, 데이터 정합의 정확도를 향상시키기 위해, 두 데이터에서 선택된 정합 포인트들만을 이용하여 1차 정합하는 것에서 그치는 것이 아니라, 두 데이터의 주요특징이 될 수 있는 정합 영역을 추가로 획득하고 추가로 획득된 정합 영역을 이용하여 2차 정합을 수행한다. 본 발명에서는 추가로 획득하는 정합 영역으로 교합면 주변의 교합영역을 사용하고자 한다.Referring to FIG. 4 , in order to improve the accuracy of data matching, it does not stop at first matching using only matching points selected from two data, but additionally acquires a matching area that can be a main feature of the two data, Secondary registration is performed using the additionally acquired registration area. The present invention intends to use the occlusal area around the occlusal surface as the additionally acquired registration area.

CT 데이터(2)를 대상으로 1차 정합을 위해 사용자에 의해 선택된 치아의 정합 포인트들(200)이 CT 데이터(2)에 표시되며, 도 4에 도시된 바와 같이 2차 정합을 위해 선택된 치아의 교합영역 형상정보(210)가 추가로 표시된다. 교합영역 형상정보(210)는 2차 정합을 위해 CT 데이터(2)의 교합면에서 정합 포인트들을 기준으로 추가로 획득되는 소정 크기의 표면영역을 가지는 것이다. 교합영역 형상정보(210)는 사용자에 의해 선택된 정합 포인트들(200)을 이용하여 생성될 수 있다. 교합영역 형상정보(210)의 화면 표시 여부는 화면의 사용자 인터페이스를 통한 사용자 설정에 의해 이루어질 수 있다.With respect to the CT data 2, the registration points 200 of the teeth selected by the user for the primary registration are displayed in the CT data 2, and as shown in FIG. 4, the teeth selected for the secondary registration are shown in FIG. Occlusal region shape information 210 is additionally displayed. The occlusal area shape information 210 has a surface area of a predetermined size that is additionally acquired based on the registration points on the occlusal surface of the CT data 2 for secondary registration. The occlusal region shape information 210 may be generated using the matching points 200 selected by the user. Whether to display the screen of the occlusal region shape information 210 may be made by a user setting through a user interface of the screen.

도 5는 본 발명의 일 실시 예에 따른 2차 정합을 위한 교합영역 형상정보가 표현되는 스캔 데이터를 도시한 도면이다.5 is a diagram illustrating scan data representing occlusal region shape information for secondary registration according to an embodiment of the present invention.

도 5를 참조하면, 스캔 데이터(3)를 대상으로 1차 정합을 위해 사용자에 의해 선택된 치아의 정합 포인트들(300)이 스캔 데이터(3)에 표시되며, 도 5에 도시된 바와 같이 선택된 치아의 교합영역 형상정보(310)가 추가로 표시된다. 교합영역 형상정보(310)는 2차 정합을 위해 스캔 데이터(3)의 교합면에서 추가로 획득되는 소정 크기의 표면영역을 가진다. 교합영역 형상정보(310)는 사용자에 의해 선택된 정합 포인트들(300)을 이용하여 생성될 수 있다. 교합영역 형상정보(310)의 화면 표시 여부는 화면의 사용자 인터페이스를 통한 사용자 설정에 의해 이루어질 수 있다.Referring to FIG. 5 , registration points 300 of a tooth selected by a user for primary registration with respect to the scan data 3 are displayed in the scan data 3 , and as shown in FIG. 5 , the selected tooth The occlusal region shape information 310 is additionally displayed. The occlusal area shape information 310 has a surface area of a predetermined size additionally acquired from the occlusal surface of the scan data 3 for secondary registration. The occlusal region shape information 310 may be generated using the matching points 300 selected by the user. Whether to display the screen of the occlusal region shape information 310 may be made by a user setting through a user interface of the screen.

도 6은 본 발명의 일 실시 예에 따른 제1 단면이 생성되는 CT 데이터를 도시한 도면이다.6 is a diagram illustrating CT data in which a first cross-section is generated according to an embodiment of the present invention.

도 6을 참조하면, 상악의 경우, 사용자에 의해 최소 3개의 정합 포인트(200)가 선택되면, 정합 포인트(200)가 선택된 치아의 교합면 방향으로 치아의 최하방 포인트(220)를 결정하고, 최하방 포인트(220)를 포함하는 하나의 제1 단면(241)을 생성한다.6, in the case of the upper jaw, when at least three registration points 200 are selected by the user, the lowermost point 220 of the teeth is determined in the occlusal direction of the teeth where the registration points 200 are selected, One first cross-section 241 including the lowest point 220 is created.

도 7은 본 발명의 일 실시 예에 따른 제2 단면이 생성되는 CT 데이터를 도시한 도면이다.7 is a diagram illustrating CT data in which a second cross-section is generated according to an embodiment of the present invention.

도 7을 참조하면, 정합 포인트 별 최하방 포인트를 포함하는 제1 단면(241)을 미리 설정된 값만큼 교합면 반대 방향으로 이동하여 가상의 제2 단면(242)을 생성한다. 그리고 두 단면(241, 242) 사이에 형성되는 교합영역 형상정보(210)를 획득한다. 예를 들어, 미리 설정된 값이 1mm 인 경우, 2차 정합을 위해 추가로 획득되는 교합영역 형상정보(210)는 상기 1mm 내에 포함된다. 미리 설정된 값은 사용자가 설정하여 조정할 수 있다.Referring to FIG. 7 , the first cross-section 241 including the lowest point for each matching point is moved in the opposite direction to the occlusal surface by a preset value to create a virtual second cross-section 242 . Then, the occlusal region shape information 210 formed between the two end surfaces 241 and 242 is acquired. For example, when the preset value is 1 mm, the occlusal region shape information 210 additionally obtained for secondary registration is included within 1 mm. The preset value can be set and adjusted by the user.

하악의 경우, 사용자에 의해 최소 3개의 정합 포인트가 선택되면, 정합 포인트가 선택된 치아의 교합면 방향으로 치아의 최상방 포인트를 결정하고 최상방 포인트를 포함하는 하나의 제1 단면을 생성한다. 그리고 생성된 제1 단면을 미리 설정된 값만큼 교합면 반대 방향으로 이동하여 가상의 제2 단면을 생성한다. 그리고 두 단면 사이에 형성되는 교합영역 형상정보를 획득한다. 미리 설정된 값은 사용자가 설정하여 조정할 수 있다.In the case of the mandible, when at least three registration points are selected by the user, the registration points determine the uppermost point of the teeth in the direction of the occlusal surface of the selected teeth and generate one first cross section including the uppermost points. Then, the generated first cross-section is moved in the opposite direction to the occlusal surface by a preset value to create a second virtual cross-section. And the shape information of the occlusal region formed between the two cross sections is acquired. The preset value can be set and adjusted by the user.

도 6 및 도 7을 참조로 하여 CT 데이터에서 단면들을 생성하는 예를 설명하였으나, 스캔 데이터를 대상으로도 동일한 작업이 소프트웨어에서 자동으로 수행된다.Although an example of generating cross-sections from CT data has been described with reference to FIGS. 6 and 7 , the same operation is automatically performed in software for scan data as well.

도 8은 본 발명의 일 실시 예에 따른 CT 데이터와 스캔 데이터의 레진 마커에 정합 포인트를 선택하는 예를 도시한 도면이다.8 is a diagram illustrating an example of selecting a matching point for a resin marker of CT data and scan data according to an embodiment of the present invention.

도 8을 참조하면, 치아가 없는 무치악 또는 레진 마커가 필요한 부분 무치악의 경우에는, CT 데이터(2)와 스캔 데이터(3)에서 정합을 위해 생성된 레진 마커에 정합 포인트(200, 300)를 생성하며, 생성된 정합 포인트(200, 300)를 이용하여 도 6 및 도 7을 참조로 하여 전술한 내용과 동일하게 상악 및 하악에 따라 레진 마커의 교합영역 형상정보를 획득한다.Referring to FIG. 8 , in the case of an edentulous jaw without teeth or a partially edentulous jaw requiring a resin marker, registration points 200 and 300 are generated on the resin markers generated for registration from the CT data 2 and the scan data 3 . And, using the generated matching points 200 and 300, the shape information of the occlusal area of the resin marker is acquired according to the maxilla and the mandible in the same manner as described above with reference to FIGS. 6 and 7 .

도 9는 본 발명의 일 실시 예에 따른 CT 데이터 및 스캔 데이터 간 1차 정합 화면을 도시한 도면이다.9 is a diagram illustrating a first matching screen between CT data and scan data according to an embodiment of the present invention.

도 1 및 도 9를 참조하면, 의료영상 처리장치(1)는 사용자로부터 선택된 정합 포인트들을 이용하여 CT 데이터(2)와 스캔 데이터(3)가 유사한 위치가 되도록 1차 정합을 진행한다. 이때, CT 데이터(2)를 기준으로 정합 포인트들을 이용하여 스캔 데이터(3)를 이동 및 회전하여 좌표정보를 변경하는 방식으로 1차 정합을 진행한다. 도 9에서는 CT 데이터(2)를 기준으로 하였으나, 스캔 데이터(3)를 기준으로 하여 CT 데이터(2)를 맞출 수도 있다.Referring to FIGS. 1 and 9 , the medical image processing apparatus 1 performs primary registration so that the CT data 2 and the scan data 3 are at similar positions by using the matching points selected by the user. At this time, the primary registration is performed in such a way that coordinate information is changed by moving and rotating the scan data 3 using matching points based on the CT data 2 . Although the CT data 2 is used as a reference in FIG. 9 , the CT data 2 may be aligned with the scan data 3 as a reference.

사용자로부터 두 영상 데이터(2, 3)의 다수의 정합 포인트 선택 입력을 위해 두 영상 데이터(2, 3)의 방향 전환이 요구되는데, 방향 전환은 자동 또는 수동으로 수행될 수 있다. 자동 방향 전환의 경우, 소정의 방향에서 두 영상 데이터(2, 3)의 정합 포인트 입력이 완료되면, 다음 정합 포인트 입력을 위한 사용자 조작 없이 두 영상 데이터(2, 3)의 방향이 자동으로 전환된다. 예를 들어, CT 데이터(2)의 방향정보를 이용하여 CT 데이터(2)의 방향을 좌측으로 회전하고, CT 데이터(2)의 방향 정보를 기준으로 스캔 데이터(3)의 방향을 CT 데이터(2)의 방향과 동일한 방향으로 회전시켜 방향을 맞춘다. 수동 방향 전환은 사용자가 수동으로 두 영상 데이터(2, 3)의 방향을 전환하는 방식이다.The direction change of the two image data 2 and 3 is required for a plurality of matching point selection input of the two image data 2 and 3 from the user, and the direction change may be performed automatically or manually. In the case of automatic direction change, when the input of the matching point of the two image data 2 and 3 in a predetermined direction is completed, the direction of the two image data 2 and 3 is automatically switched without a user operation for inputting the next matching point. . For example, the direction of the CT data 2 is rotated to the left using the direction information of the CT data 2, and the direction of the scan data 3 based on the direction information of the CT data 2 is changed to the CT data ( Adjust the direction by rotating it in the same direction as in 2). The manual direction change is a method in which the user manually switches the direction of the two image data 2 and 3 .

두 영상 데이터(2, 3)의 정합 포인트 입력이 모두 완료된 후, 의료영상 처리장치(1)는 각 방향에서 입력된 정합 포인트들을 기준으로 두 영상 데이터(2, 3)의 위치를 일치시켜 1차 정합하고 정합 결과를 화면에 표시한다.After the input of the matching points of the two image data 2 and 3 is completed, the medical image processing apparatus 1 matches the positions of the two image data 2 and 3 based on the matching points input in each direction to make the first Match and display the match result on the screen.

도 10은 본 발명의 일 실시 예에 따른 CT 데이터 및 스캔 데이터 간 2차 정합 화면을 도시한 도면이다.10 is a diagram illustrating a secondary matching screen between CT data and scan data according to an embodiment of the present invention.

도 1 및 도 10을 참조하면, 의료영상 처리장치(1)는 추가 획득한 교합영역 형상정보를 이용하여 CT 데이터와 스캔 데이터 간 동일한 형상을 찾아 소프트웨어에서 2차 정합을 진행한다.Referring to FIGS. 1 and 10 , the medical image processing apparatus 1 searches for the same shape between the CT data and the scan data using the additionally acquired occlusal area shape information and performs secondary registration in software.

예를 들어, 도 10에 도시된 바와 같이 CT 데이터를 대상으로 상악에서 정합 포인트 별 최하방 포인트를 포함하는 제1 단면(241) 상에서 2차 정합을 위해 추가 획득한 교합영역 형상(210)의 CT 데이터 제1 마진 라인(251)을 추출한다. 이때, 제1 단면(241) 상에서 2차원으로 표현되는 교합영역 형상(210)을 추출하고, 추출된 2차원의 교합영역 형상(210)의 외곽을 이루는 CT 데이터 제1 마진 라인(251)을 추출하게 된다. 2차원의 교합영역 형상(210)은 제1 단면(241)과 3차원의 교합영역 형상(210)이 접하는 면을 구성하는 형상정보이다.For example, as shown in FIG. 10, CT of the occlusal region shape 210 additionally acquired for secondary registration on the first cross-section 241 including the lowest point for each registration point in the maxilla for CT data. The data first margin line 251 is extracted. At this time, the occlusal region shape 210 expressed in two dimensions on the first cross-section 241 is extracted, and the CT data first margin line 251 forming the outline of the extracted two-dimensional occlusal region shape 210 is extracted. will do The two-dimensional shape of the occlusal region 210 is shape information constituting a surface where the first cross-section 241 and the three-dimensional shape of the occlusal region 210 contact each other.

또한, 정합 포인트 별 최하방 포인트를 포함하는 제1 단면(241)을 사용자가 미리 설정된 값만큼 교합면 반대 방향으로 이동하여 생성된 제2 단면(242) 상에서 2차 정합을 위해 추가 획득한 교합영역 형상(210)의 CT 데이터 제2 마진 라인(252)을 추출한다. 이때, 제2 단면(242) 상에서 2차원으로 표현되는 교합영역 형상(210)을 추출하고, 추출된 2차원의 교합영역 형상(210)의 외곽을 이루는 CT 데이터 제2 마진 라인(252)을 추출하게 된다. 2차원의 교합영역 형상(210)은 제2 단면(242)과 3차원의 교합영역 형상(210)이 접하는 면을 구성하는 형상정보이다.In addition, the occlusal area additionally acquired for secondary registration on the second cross-section 242 generated by the user moving the first cross-section 241 including the lowest point for each registration point in the opposite direction to the occlusal surface by a preset value. The CT data second margin line 252 of the shape 210 is extracted. At this time, the occlusal region shape 210 expressed in two dimensions on the second cross-section 242 is extracted, and the CT data second margin line 252 forming the outline of the extracted two-dimensional occlusal region shape 210 is extracted. will do The two-dimensional occlusal region shape 210 is shape information constituting a surface in which the second cross-section 242 and the three-dimensional occlusal region shape 210 contact each other.

마진 라인 추출은 스캔 데이터에서도 동일하게 이루어져, 스캔 데이터 제1 마진 라인(351) 및 스캔 데이터 제2 마진 라인(352)을 각각 추출한다.The margin line extraction is also performed in the scan data, and the scan data first margin line 351 and the scan data second margin line 352 are respectively extracted.

이어서, CT 데이터의 제1 마진 라인(251)과 스캔 데이터의 제1 마진 라인(351)을 비교하여 서로 일치되도록 맞추는 동작을 수행하여 데이터 간 2차 정합을 수행한다. 마찬가지로 CT 데이터의 제2 마진 라인(252)과 스캔 데이터의 제2 마진 라인(352)을 비교하여 서로 일치되도록 맞추는 동작을 수행하여 데이터 간 2차 정합을 수행한다. 도 10에 각 데이터의 제1 마진 라인(251, 351)을 이용하여 데이터 정합한 결과와, 각 데이터의 제2 마진 라인(252, 352)을 이용하여 데이터 정합한 결과를 도시하고 있다.Next, the second data matching is performed by comparing the first margin line 251 of the CT data and the first margin line 351 of the scan data to match each other. Similarly, the second margin line 252 of the CT data and the second margin line 352 of the scan data are compared and matched to match each other, thereby performing secondary matching between data. FIG. 10 shows a data matching result using the first margin lines 251 and 351 of each data and a data matching result using the second margin lines 252 and 352 of each data.

도 11은 본 발명의 일 실시 예에 따른 의료영상 정합 방법의 흐름을 도시한 도면이다.11 is a diagram illustrating a flow of a medical image registration method according to an embodiment of the present invention.

도 1 및 도 11을 참조하면, 의료영상 처리장치(1)는 정합 대상이 되는 제1 영상 데이터 및 제2 영상 데이터를 획득한다(S1110).1 and 11 , the medical image processing apparatus 1 acquires first image data and second image data to be matched ( S1110 ).

이어서, 의료영상 처리장치(1)는 획득된 각 영상 데이터에서 사용자에 의해 선택된 정합 포인트들을 이용하여 데이터 간 1차 정합을 수행한다(S1120).Next, the medical image processing apparatus 1 performs primary matching between the data using matching points selected by the user in each of the acquired image data ( S1120 ).

이어서, 의료영상 처리장치(1)는 교합면에서 추가로 획득되는 교합영역 형상정보를 이용하여 데이터 간 2차 정합을 수행한다(S1130). 교합영역 형상정보는 2차 정합을 위해 교합면에서 추가로 획득되는 소정 크기의 표면영역을 가진다.Next, the medical image processing apparatus 1 performs secondary registration between the data using the occlusal region shape information additionally acquired from the occlusal surface (S1130). The occlusal area shape information has a surface area of a predetermined size additionally acquired from the occlusal surface for secondary registration.

2차 정합 수행 단계(S1130)에서, 일 실시 예에 따른 의료영상 처리장치(1)는 각 영상 데이터 별로 선택된 치아의 정합 포인트들을 이용하여 두 단면을 생성한 후, 두 단면 사이에 형성되는 교합영역 형상을 획득한다. 이어서, 생성된 각 단면 상에서 교합영역 형상의 마진 라인을 획득하고, 각 영상 데이터에서 획득된 마진 라인을 비교하여 일치시킨다.In the second registration performing step (S1130), the medical image processing apparatus 1 according to an embodiment generates two cross-sections using matching points of teeth selected for each image data, and then, an occlusal area formed between the two cross-sections. get the shape Then, a margin line of the shape of the occlusal region is obtained on each generated cross section, and the margin line obtained from each image data is compared and matched.

두 단면 생성 단계에서, 의료영상 처리장치(1)는 정합 포인트 별로 정합 포인트가 선택된 치아의 교합면 방향으로 치아의 최하방 포인트 또는 최상방 포인트를 결정한 후, 결정된 최하방 포인트들 또는 최상방 포인트들을 포함하는 제1 단면을 생성할 수 있다. 그리고 제1 단면을 미리 설정된 값만큼 교합면 반대 방향으로 이동시킨 제2 단면을 생성할 수 있다. 제2 단면을 생성하는 단계에서, 제1 단면을 기준으로 치열 내 치아의 치관 길이 내에서 제2 단면의 깊이를 결정할 수 있다. 치아의 최하방 포인트를 이용하는 경우는 상악에 해당하고, 치아의 최상방 포인트를 이용하는 경우는 상악에 해당한다.In the two section generation steps, the medical image processing apparatus 1 determines the lowest point or the highest point of the tooth in the occlusal direction of the tooth whose matching point is selected for each matching point, and then includes the determined lowest points or uppermost points. A first cross-section may be created. In addition, a second cross-section in which the first cross-section is moved in the opposite direction to the occlusal surface by a preset value may be generated. In the step of generating the second cross-section, the depth of the second cross-section may be determined within the length of the crown of the tooth in the tooth based on the first cross-section. The case of using the lowest point of the tooth corresponds to the maxilla, and the case of using the uppermost point of the tooth corresponds to the maxilla.

교합영역 형상 획득 단계에서, 의료영상 처리장치(1)는 미리 설정된 값을 가지는 두 단면 사이의 거리에 따라 교합영역 형상의 크기를 결정할 수 있다. 미리 설정된 값은 사용자에 의해 설정 가능하다. 교합영역 형상정보는 사용자 설정에 의해 화면 표시 여부가 결정될 수 있다.In the step of obtaining the shape of the occlusal region, the medical image processing apparatus 1 may determine the size of the shape of the occlusal region according to a distance between two cross-sections having a preset value. The preset value can be set by the user. Whether to display the occlusal region shape information on the screen may be determined by a user setting.

교합영역 형상의 마진 라인 획득 단계에서, 의료영상 처리장치(1)는 각 단면 상에서 2차원으로 표현되는 교합영역 형상을 추출한 후, 추출된 2차원의 교합영역 형상의 외곽을 이루는 마진 라인을 추출할 수 있다. 2차원으로 표현되는 교합영역 형상 추출 단계에서, 각 단면과 3차원의 교합영역 형상이 접하는 면을 구성하는 형상정보를 추출할 수 있다. In the step of obtaining the margin line of the shape of the occlusal region, the medical image processing apparatus 1 extracts the shape of the occlusal region expressed in two dimensions on each cross-section, and then extracts the margin line forming the outer shape of the extracted 2-dimensional shape of the occlusal region. can In the step of extracting the shape of the occlusal region expressed in two dimensions, shape information constituting the surface in which each cross-section and the shape of the three-dimensional occlusal region contact may be extracted.

치아가 없는 무치악 또는 레진 마커가 필요한 부분 무치악의 경우는 1차 정합 단계(S1120)에서 레진 마커에 생성된 정합 포인트를 이용하여 데이터 간 1차 정합을 수행할 수 있다. 그리고 2차 정합 단계(S1130)에서 레진 마커의 형상정보를 이용하여 데이터 간 2차 정합을 수행할 수 있다.In the case of an edentulous jaw without teeth or a partially edentulous jaw requiring a resin marker, primary registration between data may be performed using the registration point generated in the resin marker in the primary registration step ( S1120 ). In addition, in the secondary matching step (S1130), secondary matching between data may be performed using the shape information of the resin marker.

이제까지 본 발명에 대하여 그 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시 예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at focusing on the embodiments thereof. Those of ordinary skill in the art to which the present invention pertains will understand that the present invention can be implemented in modified forms without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

Claims (15)

정합 대상이 되는 제1 영상 데이터 및 제2 영상 데이터를 획득하는 단계;
획득된 각 영상 데이터에서 사용자에 의해 선택된 적어도 하나의 정합 포인트를 이용하여 데이터 간 1차 정합을 수행하는 단계; 및
교합면에서 추가로 획득되는 교합영역 형상정보를 이용하여 데이터 간 2차 정합을 수행하는 단계;
를 포함하는 것을 특징으로 하는 의료영상 정합 방법.
acquiring first image data and second image data to be matched;
performing primary matching between data using at least one matching point selected by a user in each of the acquired image data; and
performing secondary registration between data using the occlusal region shape information additionally acquired from the occlusal surface;
Medical image registration method comprising a.
제 1 항에 있어서, 데이터 간 2차 정합을 수행하는 단계는
각 영상 데이터 별로 선택된 치아의 정합 포인트들을 이용하여 두 단면을 생성하는 단계;
두 단면 사이에 형성되는 교합영역 형상을 획득하는 단계; 및
생성된 각 단면 상에서 교합영역 형상의 마진 라인을 획득하는 단계; 및
각 영상 데이터에서 획득된 마진 라인을 비교하여 일치시키는 단계;
를 포함하는 것을 특징으로 하는 의료영상 정합 방법.
The method of claim 1, wherein performing secondary matching between data comprises:
generating two cross sections using matching points of teeth selected for each image data;
obtaining the shape of the occlusal region formed between the two cross-sections; and
obtaining a margin line of the shape of the occlusal region on each generated cross-section; and
comparing and matching margin lines obtained from each image data;
Medical image registration method comprising a.
제 2 항에 있어서, 두 단면을 생성하는 단계는
정합 포인트 별로 정합 포인트가 선택된 치아의 교합면 방향으로 치아의 최하방 포인트 또는 최상방 포인트를 결정하는 단계;
결정된 최하방 포인트들 또는 최상방 포인트들을 포함하는 제1 단면을 생성하는 단계; 및
제1 단면을 미리 설정된 값만큼 교합면 반대 방향으로 이동시킨 제2 단면을 생성하는 단계;
를 포함하는 것을 특징으로 하는 의료영상 정합 방법.
The method of claim 2, wherein the step of creating two cross sections comprises:
Determining a lowermost point or an uppermost point of the tooth in the direction of the occlusal surface of the tooth in which the matching point is selected for each matching point;
generating a first cross-section comprising the determined lowermost points or uppermost points; and
generating a second cross-section in which the first cross-section is moved in a direction opposite to the occlusal surface by a preset value;
Medical image registration method comprising a.
제 3 항에 있어서, 제2 단면을 생성하는 단계는
제1 단면을 기준으로 치열 내 치아의 치관 길이 내에서 제2 단면이 생성되도록 제2 단면의 깊이를 결정하는 것을 특징으로 하는 의료영상 정합 방법.
4. The method of claim 3, wherein generating the second cross-section comprises:
A medical image registration method, characterized in that the depth of the second cross-section is determined so that the second cross-section is generated within the length of the crown of the tooth in the tooth based on the first cross-section.
제 2 항에 있어서, 교합영역 형상을 획득하는 단계는
미리 설정된 값을 가지는 두 단면 사이의 거리에 따라 교합영역 형상의 크기를 결정하고, 미리 설정된 값은 사용자에 의해 설정 가능한 것을 특징으로 하는 의료영상 정합 방법.
The method of claim 2, wherein obtaining the shape of the occlusal region comprises:
A medical image registration method, characterized in that the size of the shape of the occlusal region is determined according to the distance between two cross-sections having a preset value, and the preset value can be set by a user.
제 2 항에 있어서, 교합영역 형상의 마진 라인을 획득하는 단계는
각 단면 상에서 2차원으로 표현되는 교합영역 형상을 추출하는 단계; 및
추출된 2차원의 교합영역 형상의 외곽을 이루는 마진 라인을 추출하는 단계;
를 포함하는 것을 특징으로 하는 의료영상 정합 방법.
According to claim 2, wherein the step of obtaining a margin line of the shape of the occlusal region
extracting the shape of the occlusal region expressed in two dimensions on each cross section; and
extracting a margin line forming an outer shape of the extracted two-dimensional occlusal region;
Medical image registration method comprising a.
제 6 항에 있어서, 2차원으로 표현되는 교합영역 형상을 추출하는 단계는
각 단면과 3차원의 교합영역 형상이 접하는 면을 구성하는 형상정보를 추출하는 것을 특징으로 하는 의료영상 정합 방법.
The method of claim 6, wherein extracting the shape of the occlusal region expressed in two dimensions comprises:
A medical image registration method comprising extracting shape information constituting a surface where each cross-section and the shape of a three-dimensional occlusal region are in contact.
제 1 항에 있어서, 데이터 간 1차 정합을 수행하는 단계는
치아가 없는 무치악 또는 레진 마커가 필요한 부분 무치악의 경우 레진 마커에 생성된 정합 포인트를 이용하여 데이터 간 1차 정합을 수행하는 것을 특징으로 하는 의료영상 정합 방법.
The method of claim 1 , wherein performing primary matching between data comprises:
In the case of an edentulous jaw without teeth or a partially edentulous jaw requiring a resin marker, a medical image registration method, characterized in that the primary registration is performed between data using the registration point created in the resin marker.
제 1 항에 있어서, 데이터 간 2차 정합을 수행하는 단계는
치아가 없는 무치악 또는 레진 마커가 필요한 부분 무치악의 경우 레진 마커의 형상정보를 이용하여 데이터 간 2차 정합을 수행하는 것을 특징으로 하는 의료영상 정합 방법.
The method of claim 1, wherein performing secondary matching between data comprises:
In the case of an edentulous jaw without teeth or a partially edentulous jaw requiring a resin marker, a medical image registration method comprising performing secondary registration between data using shape information of a resin marker.
제 1 항에 있어서, 교합영역 형상정보는
사용자 설정에 의해 화면 표시 여부가 결정되는 것을 특징으로 하는 의료영상 정합 방법.
The method of claim 1, wherein the occlusal region shape information
Medical image registration method, characterized in that the screen display is determined by the user setting.
정합 대상이 되는 제1 영상 데이터 및 제2 영상 데이터를 획득하는 데이터 획득부;
사용자로부터 1차 정합을 위한 정합 포인트를 선택 입력 받는 입력부;
획득된 각 데이터에서 입력부를 통해 사용자에 의해 선택된 적어도 하나의 정합 포인트를 이용하여 데이터 간 1차 정합을 수행하는 제1 정합부;
교합면에서 추가로 획득되는 교합영역 형상정보를 이용하여 데이터 간 2차 정합을 수행하는 제2 정합부; 및
각 정합결과를 화면에 표시하는 출력부;
를 포함하는 것을 특징으로 하는 의료영상 처리장치.
a data acquisition unit configured to acquire first image data and second image data to be matched;
an input unit for receiving a selection input of a matching point for primary matching from a user;
a first matching unit configured to perform primary matching between data using at least one matching point selected by a user through an input unit in each acquired data;
a second matching unit that performs secondary registration between data using the occlusal region shape information additionally acquired from the occlusal surface; and
an output unit for displaying each matching result on the screen;
Medical image processing apparatus comprising a.
제 11 항에 있어서, 제2 정합부는
각 영상 데이터 별로 선택된 치아의 정합 포인트들을 이용하여 두 단면을 생성하는 단면정보 생성부;
두 단면 사이에 형성되는 교합영역 형상을 획득하는 교합영역 형상정보 획득부;
생성된 각 단면 상에서 교합영역 형상의 마진 라인을 획득하는 마진정보 획득부; 및
각 영상 데이터에서 획득된 마진 라인을 비교하여 일치시키는 정보 비교부;
를 포함하는 것을 특징으로 하는 의료영상 처리장치.
12. The method of claim 11, wherein the second mating portion
a section information generator for generating two sections using matching points of teeth selected for each image data;
an occlusal region shape information acquisition unit for acquiring an occlusal region shape formed between the two cross-sections;
a margin information acquisition unit that acquires a margin line of the shape of the occlusal region on each of the generated cross-sections; and
an information comparison unit that compares and matches margin lines obtained from each image data;
Medical image processing apparatus comprising a.
제 12 항에 있어서, 단면정보 생성부는
정합 포인트 별로 정합 포인트가 선택된 치아의 교합면 방향으로 치아의 최하방 포인트 또는 최상방 포인트를 결정하고,
결정된 최하방 포인트들 또는 최상방 포인트들을 포함하는 제1 단면을 생성하며,
제1 단면을 미리 설정된 값만큼 교합면 반대 방향으로 이동시킨 제2 단면을 생성하는 것을 특징으로 하는 의료영상 처리장치.
13. The method of claim 12, wherein the section information generating unit
For each registration point, the lowest point or the highest point of the tooth is determined in the direction of the occlusal surface of the tooth where the registration point is selected,
create a first cross-section comprising the determined lowest points or uppermost points;
A medical image processing apparatus for generating a second cross-section in which the first cross-section is moved in the opposite direction to the occlusal surface by a preset value.
제 11 항에 있어서, 교합영역 형상정보 획득부는
미리 설정된 값을 가지는 두 단면 사이의 거리에 따라 교합영역 형상의 크기를 결정하고, 미리 설정된 값은 사용자에 의해 설정 가능한 것을 특징으로 하는 의료영상 처리장치.
The method of claim 11, wherein the occlusal region shape information obtaining unit
A medical image processing apparatus, characterized in that the size of the shape of the occlusal region is determined according to a distance between two cross-sections having a preset value, and the preset value can be set by a user.
제 11 항에 있어서,
치아가 없는 무치악 또는 레진 마커가 필요한 부분 무치악의 경우, 제1 정합부는 레진 마커에 생성된 정합 포인트를 이용하여 데이터 간 1차 정합을 수행하고,
제2 정합부는 레진 마커의 형상정보를 이용하여 데이터 간 2차 정합을 수행하는 것을 특징으로 하는 의료영상 처리장치.
12. The method of claim 11,
In the case of an edentulous jaw without teeth or a partially edentulous jaw requiring a resin marker, the first registration unit performs primary registration between data using the registration point created in the resin marker,
A medical image processing apparatus, characterized in that the second matching unit performs secondary matching between data by using the shape information of the resin marker.
KR1020190155084A 2019-11-28 2019-11-28 Method and apparatus for superimposition of medical images KR102314890B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190155084A KR102314890B1 (en) 2019-11-28 2019-11-28 Method and apparatus for superimposition of medical images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190155084A KR102314890B1 (en) 2019-11-28 2019-11-28 Method and apparatus for superimposition of medical images

Publications (2)

Publication Number Publication Date
KR20210066170A true KR20210066170A (en) 2021-06-07
KR102314890B1 KR102314890B1 (en) 2021-10-19

Family

ID=76374156

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190155084A KR102314890B1 (en) 2019-11-28 2019-11-28 Method and apparatus for superimposition of medical images

Country Status (1)

Country Link
KR (1) KR102314890B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230018730A (en) * 2021-07-30 2023-02-07 오스템임플란트 주식회사 Method and apparatus for matching of medical images, computer-readable storage medium and computer program
WO2023063671A1 (en) * 2021-10-14 2023-04-20 주식회사 메디트 Method and device for arranging scan images from 3d scanner, and recording medium having commands recorded thereon
WO2024144064A1 (en) * 2022-12-28 2024-07-04 (주)서울로보틱스 Electronic device and method for calibrating point cloud for three-dimensional space

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024014912A1 (en) * 2022-07-13 2024-01-18 주식회사 메디트 Image processing method, electronic device, and computer-readable storage medium
WO2024014909A1 (en) * 2022-07-13 2024-01-18 주식회사 메디트 Method for processing image, electronic apparatus, and computer-readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160027433A (en) * 2014-08-29 2016-03-10 주식회사 디오 method for manufacturing surgical guide and crown, abutment using reference marker attached in mouth for dental implant of edentulous patient
KR101613159B1 (en) * 2014-12-31 2016-04-20 오스템임플란트 주식회사 Automatic dental image registration method, apparatus, and recording medium thereof
KR20180106451A (en) * 2017-03-20 2018-10-01 오스템임플란트 주식회사 Method and device for dental image registration
JP2019051206A (en) * 2017-09-19 2019-04-04 浩明 清水 Method for manufacturing ct tomography reference marker and ct matching template and for matching three dimensional ct tomography image with three dimensional intraoral surface shape image, and system thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160027433A (en) * 2014-08-29 2016-03-10 주식회사 디오 method for manufacturing surgical guide and crown, abutment using reference marker attached in mouth for dental implant of edentulous patient
KR101613159B1 (en) * 2014-12-31 2016-04-20 오스템임플란트 주식회사 Automatic dental image registration method, apparatus, and recording medium thereof
KR20180106451A (en) * 2017-03-20 2018-10-01 오스템임플란트 주식회사 Method and device for dental image registration
JP2019051206A (en) * 2017-09-19 2019-04-04 浩明 清水 Method for manufacturing ct tomography reference marker and ct matching template and for matching three dimensional ct tomography image with three dimensional intraoral surface shape image, and system thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230018730A (en) * 2021-07-30 2023-02-07 오스템임플란트 주식회사 Method and apparatus for matching of medical images, computer-readable storage medium and computer program
WO2023063671A1 (en) * 2021-10-14 2023-04-20 주식회사 메디트 Method and device for arranging scan images from 3d scanner, and recording medium having commands recorded thereon
KR20230053738A (en) * 2021-10-14 2023-04-24 주식회사 메디트 Method, apparatus and recording medium storing commands for aligning scanned images of 3d scanner
WO2024144064A1 (en) * 2022-12-28 2024-07-04 (주)서울로보틱스 Electronic device and method for calibrating point cloud for three-dimensional space

Also Published As

Publication number Publication date
KR102314890B1 (en) 2021-10-19

Similar Documents

Publication Publication Date Title
KR102314890B1 (en) Method and apparatus for superimposition of medical images
KR101744080B1 (en) Teeth-model generation method for Dental procedure simulation
KR102236359B1 (en) Method for selecting tooth number using panoramic image and medical image processing apparatus for the same
US20220246269A1 (en) Implant surgery planning method using automatic placement of implant structure, user interface providing method therefor, and teeth image processing device therefor
KR102339827B1 (en) Method for creating nerve tube line and dental implant surgery planning device therefor
KR102566541B1 (en) Method for establishing orthodontic treatment plan and apparatus thereof
KR102314891B1 (en) Implant surgery guide design device and method for providing screen using the same
KR20210100248A (en) Method for establishing diagnosis and treatment plan and 3D dental image providing device therefor
KR102239358B1 (en) Method for planning implant surgery using implant center line and dental image processing device for the same
KR102350098B1 (en) Method for generating arch line and dental image processing apparatus therefor
KR102234425B1 (en) Method and apparatus for matching medical images
KR20200084982A (en) Method and apparatus for dental implant planning capable of automatic fixture replacement considering a risk factor
KR102231215B1 (en) Automatic generation method of neural tube line and medical image processing apparatus therefor
KR102415903B1 (en) Method for drilling implant surgery guide and apparatus thereof
KR102304435B1 (en) Method for anchor pin placement and guide design apparatus for implant surgery
KR102292873B1 (en) Method for segmenting sinus area and dental image processing apparatus therefor
KR102237711B1 (en) Neural tube line generation method and medical image processing apparatus therefor
KR102378382B1 (en) Method and apparatus for matching medical images
KR102456703B1 (en) Method for creating nerve tube line and dental implant surgery planning device therefor
KR20200084981A (en) A guide design method and apparatus for dental implant surgery using fixture invasion area segmentation for maxillary sinus lifting
KR102292875B1 (en) Method for designing dental guide and apparatus thereof
KR20220087874A (en) Method and apparatus for superimposition of medical images
KR102474298B1 (en) Method for designing prosthetic model and apparatus thereof
KR102389747B1 (en) Method for guide design for implant surgery and apparatus thereof
KR102416168B1 (en) Method for sinus bone graft simulation and apparatus thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant