KR100553390B1 - Method and system for manufacturing implant - Google Patents

Method and system for manufacturing implant Download PDF

Info

Publication number
KR100553390B1
KR100553390B1 KR1020040034917A KR20040034917A KR100553390B1 KR 100553390 B1 KR100553390 B1 KR 100553390B1 KR 1020040034917 A KR1020040034917 A KR 1020040034917A KR 20040034917 A KR20040034917 A KR 20040034917A KR 100553390 B1 KR100553390 B1 KR 100553390B1
Authority
KR
South Korea
Prior art keywords
image
class
representative
implant
matching
Prior art date
Application number
KR1020040034917A
Other languages
Korean (ko)
Other versions
KR20050110095A (en
Inventor
이상호
강호영
유승화
최권영
Original Assignee
(주)우리들척추건강
이상호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)우리들척추건강, 이상호 filed Critical (주)우리들척추건강
Priority to KR1020040034917A priority Critical patent/KR100553390B1/en
Publication of KR20050110095A publication Critical patent/KR20050110095A/en
Application granted granted Critical
Publication of KR100553390B1 publication Critical patent/KR100553390B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/30Joints
    • A61F2/44Joints for the spine, e.g. vertebrae, spinal discs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Tourism & Hospitality (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Cardiology (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Neurology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Primary Health Care (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Transplantation (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Vascular Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Analysis (AREA)

Abstract

임플란트 제작방법 및 시스템이 제공된다. 임플란트 제작방법 및 시스템은 임플란트가 위치할 관심영역을 입력받아, 관심영역에 부합하는 후보 임플란트의 영상를 제공하고, 후보 임플란트 중에서 대표 임플란트를 입력받은 후, 대표 임플란트와 관심영역이 매칭된 결과를 출력한다.An implant manufacturing method and system are provided. The implant manufacturing method and system receives a region of interest in which the implant is to be located, provides an image of a candidate implant corresponding to the region of interest, receives a representative implant among candidate implants, and outputs a result of matching the representative implant with the region of interest. .

임플란트, 매칭Implants, Matching

Description

임플란트 제작방법 및 시스템{Method and system for manufacturing implant}Implant manufacturing method and system {Method and system for manufacturing implant}

도 1는 본 발명의 일 실시예에 따른 임플란트 제작시스템의 블록도이다.1 is a block diagram of an implant manufacturing system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따라 임플란트의 제작과정에 대한 흐름도이다.2 is a flowchart illustrating a manufacturing process of an implant according to an embodiment of the present invention.

도 3a 내지 도3b는 본 발명의 일 실시예에 따른 임플란트가 위치할 요추의 슬라이스(slice)를 선택하기 위한 사용자 인터페이스이다.3A-3B are user interfaces for selecting a slice of the lumbar spine where an implant is to be placed in accordance with one embodiment of the present invention.

도 4a 내지 도 4b는 본 발명의 일 실시예에 따라 임플란트의 상부영역과 하부영역을 선택하기 위한 사용자 인터페이스이다.4A through 4B are user interfaces for selecting an upper region and a lower region of an implant according to an embodiment of the present invention.

도 5는 본 발명의 일 실시예에 따른 임플란트가 요추에 매칭된 결과를 나타낸 사시도이다.5 is a perspective view showing a result of matching the implant to the lumbar spine according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따라 척추영상을 클러스터링 하기 위한 처리과정에 대한 흐름도이다.6 is a flowchart illustrating a process for clustering spine images according to an embodiment of the present invention.

도 7은 본 발명의 일 실시예에 따른 준비단계(S610)에 대한 세부 흐름도이다.7 is a detailed flowchart of the preparation step (S610) according to an embodiment of the present invention.

도8는 제공된 256 명암의 척추영상과 사용자의 관심영역 선택을 나타낸 단면도이다.FIG. 8 is a cross-sectional view showing the selected 256-level spine image and a region of interest of the user.

도 9a 내지 도 9b는 사용자가 선택한 관심영역을 256명암으로 나타낸 단면도와 2진화 과정을 통해 2진화 영상으로 만든 단면도이다.9A to 9B are cross-sectional views showing areas of interest selected by a user in 256 shades and a binarized image through a binarization process.

도 10은 본 발명의 일 실시예에 따른 클러스터링 단계(S620)에 대한 세부 흐름도이다.10 is a detailed flowchart of the clustering step S620 according to an embodiment of the present invention.

도 11은 본 발명의 일 실시예에 따른 대표영상 매칭 단계(S670)에 대한 세부 흐름도이다.11 is a detailed flowchart of a representative image matching step S670 according to an embodiment of the present invention.

도 12은 본 발명의 일 실시예에 따른 대표영상 매칭 단계에 대한 예시도이다.12 is an exemplary view of a representative image matching step according to an embodiment of the present invention.

도 13a 내지 도13c는 본 발명의 일 실시예에 따라 케이스 영상과 매칭 템플릿의 관심영역에 명암값을 할당하고, 서로 매칭시킨 단면도이다13A to 13C are cross-sectional views of assigning contrast values to regions of interest of a case image and a matching template and matching each other according to an embodiment of the present invention.

도 14은 본 발명의 일 실시예에 따라 케이스 안에서 매칭템플릿이 변이공간을 스캔할 수 있는 영역을 나타낸 사시도이다.14 is a perspective view illustrating an area in which a matching template can scan a transition space in a case according to an embodiment of the present invention.

(도면의 주요부분에 대한 부호의 설명)(Explanation of symbols for the main parts of the drawing)

110 : 사용자 인터페이스 120 : 클래스 할당 제어 모듈110: user interface 120: class assignment control module

130 : 제어 모듈 135 : 임플란트 매칭 모듈130: control module 135: implant matching module

140 : 영상원본 데이터베이스 140: video source database

150 : 클래스별 대표영상 데이터베이스150: Representative video database by class

160 : 2진화 영상 데이터베이스 170 : 영상수집 모듈160: Binary image database 170: Image acquisition module

180 : 관심영역 추출 모듈 180: region of interest extraction module

190 : 관심영역의 2진화 제어 모듈 190: binarization control module of the region of interest

본 발명은 임플란트 제작방법 및 시스템에 관한 것으로서, 특히 몇 개의 대표적인 임플란트의 상부영역(upper), 하부영역(lower)을 제시하고, 사용자로 하여금 가장 적합한 상부영역과 하부영역을 선택하게 하고 이를 이용하여 임플란트를 제작함으로써, 부적합의 위험성을 줄이고 수술 시간도 줄일 수 있는 임플란트 제작방법 및 시스템에 관한 것이다.The present invention relates to an implant manufacturing method and system, and in particular, to present the upper region (lower) and the lower region (lower) of a few representative implants, allowing the user to select the most suitable upper region and the lower region, By manufacturing an implant, the present invention relates to an implant manufacturing method and system that can reduce the risk of incompatibility and also reduce the operation time.

척추 고정 장치(Spinal fixation device)는 눌린 척수와 신경근을 감압하고, 흰 척추를 바르게 교정하고 척추의 지지 기능을 복원하는 데 사용하는 장치이다. 여기에는 일반적으로 생체용 금속 제품인 임플란트(Implant)가 사용되고 주로 L3-L5의 위치에 모션 세그먼트(motion segment) 디스크 공간에 고정된다. 임플란트가 주입됨으로써 디스크 내부의 압력이 감소되며, 디스크 공간이 좁아지는 것이 방지된다.Spinal fixation device is a device used to depress the depressed spinal cord and nerve roots, correct the white spine and restore the support function of the spine. Implants, which are generally biocompatible metal products, are used here and are usually fixed in the motion segment disk space at the location of L3-L5. Implants reduce the pressure inside the disk and prevent disk space from narrowing.

임플란트의 재질로서 강체 고정체(fixation), 보철물(prosthetic replacement)뿐만 아니라 안정성과 연관된 동작을 견고화할 수 있는 부드러운 추간 임플란트(interspinous Implant)도 사용된다. 이러한 실리콘의 직경은 추간 거리(interspinous space)의 크기로 결정되며, 최소수술 방법으로 배치되어 척추의 안정성에 기여하는 것으로 나타났다. 그러나 위와 같은 임플란트들의 치수는 스탠다드 타입(standard type)으로 결정된 것은 아니다. 즉, CT영상에서 z축 방향으로 해당 슬라이스(slice)를 선택하여 관찰하고, 여기에서 추간돌기(interspinous process) 길이, 척추 돌기(spinous process)의 최대 폭, 환자의 키, 몸무게 등의 정보를 토대로 커스텀(custom) 방식의 몇 가지 후보 임플란트를 제작하였다. 실제로 커스텀 방식의 임플란트는 제작상의 시간이 많이 요구되고, 과도한 비용이 소요된다.As the material of the implant, soft interspinous implants, which can solidify the stability-related operation as well as rigid fixation and prosthetic replacement, are also used. The diameter of the silicon is determined by the size of the interspinous space, and it has been shown to contribute to the stability of the spine by being placed in the least surgical method. However, the dimensions of these implants are not determined to be of standard type. In other words, in the CT image, the slice is selected and observed in the z-axis direction, and based on information such as the length of the interspinous process, the maximum width of the spinous process, the height of the patient, and the weight of the spine. Several candidate implants in a custom fashion were made. In fact, custom implants are time consuming and expensive.

따라서, 유한한 개수의 형태로 분류된 스탠다드 타입(standard type) 방식의 임플란트 제작이 필요하게 되었다. 그러나, 거대한 척추 영상 데이터베이스는 척추 돌기(spinous process)의 3차원적인 다양한 형태가, 길이, 각도의 정보를 포함하여 2차원 영상에서 명암값의 정보로 구성되어 있어, 직접적으로 이러한 데이터베이스로부터 의미있는 기준을 이끌어 내기 어렵다. 본 발명에서는 이러한 문제를 해결하기 위해 자동 클러스터링 분석(Automatic Cluster Detection)을 도입하였다. 세부집단에 대한 사전지식의 부재로 인하여, 주어진 개수로 집단을 세분화할 수 없을 때에는 군집으로 구분하는 것이 좋은 해결방법이 될 수 있다.일반적으로 클러스터링 분석은 데이터량을 감소시키고 유사한 데이터를 카테고리화 하기 위해 사용될 수 있다. 이러한 클러스터링 과정은 정보처리 과정에서 널리 퍼져 있으며 클러스터링 알고리즘의 사용에 관한 목적 중 하나는 카테고리들이나 분류들을 정하거나 도움을 주기 위한 자동화된 툴을 제공하는 것이다. 클러스터링에서는 독립변수와 종속변수 사이의 구별이나 이미 분류된 데이터 셋(set)이 필요없는 대신에 유사한 레코드들(records)이 유사하게 행동하리라는 기대 하에서 서로 유사한 그룹을 찾고자 한다.Therefore, it is necessary to manufacture implants of a standard type method which is classified into a finite number of forms. However, the huge spine image database consists of three-dimensional, various forms of spinous processes, including information on length and angle, including information on contrast values in two-dimensional images, and thus directly refers to meaningful criteria from these databases. It is difficult to elicit. In order to solve this problem, the present invention introduces Automatic Cluster Detection. Because of the lack of prior knowledge of subgroups, it is often a good idea to divide them into clusters when it is not possible to subdivide them into a given number. In general, clustering analysis can reduce the amount of data and categorize similar data. Can be used for This clustering process is widespread in information processing and one of the objectives of using clustering algorithms is to provide an automated tool for defining or helping categories or classifications. Clustering tries to find similar groups in the hope that similar records will behave similarly, instead of requiring no distinction between independent and dependent variables or already categorized data sets.

따라서, 데이터를 비교하거나 통합하는데 가장 우선적으로 적용되어야 하는 것은 데이터의 핵심적인 특성을 잃지 않으면서 데이터 셋의 크기를 줄이는 것이다. Therefore, the first thing that should be applied to comparing or integrating data is to reduce the size of the data set without losing the core characteristics of the data.

계산적으로 효율성이 있고, 원래의 데이터를 대표할 수 있는 데이터 셋을 찾아내는 방법이 가장 중요하다. 데이터 셋을 찾는 기준으로는 일반적으로 관찰치의 평균이 제시된다. 본 발명에서는 척추 돌기들의 형태 분포를 감지하기 위한 방법으로 기존의 k-means 클러스터링 방식을 개선한 알고리즘을 제시한다.The most important way is to find a data set that is computationally efficient and can represent the original data. The basis for finding the data set is usually the average of the observations. The present invention proposes an algorithm that improves the existing k-means clustering method as a method for detecting the shape distribution of spinal processes.

기존의 k-means 클러스터링에서 사용된 클러스터링 분석의 기준으로 관찰치 사이의 유클리드 거리를 사용하였지만, 유클리드 거리는 영상 사이의 유사성을 정의하는 기준으로 사용하기에는 한계가 있다.Although the Euclidean distance between observations was used as a criterion for clustering analysis used in the existing k-means clustering, the Euclidean distance is limited to use as a criterion for defining similarity between images.

또한, 기존에는 클러스터 개수인 k값은 주로 시행착오와 주관적 관점에 의해 결정하는 것이 일반적이었다. 군집의 형태에 따른 k의 선택이 결과에 결정적인 영향을 미칠 수 있는데, 만일 이것이 입력데이터의 구조에 적합하지 못하다면 좋지 않은 결과를 낳을 수 있다.In addition, in the past, the number k of clusters was generally determined by trial and error and subjective viewpoint. The choice of k depending on the type of cluster can have a decisive effect on the results, which can lead to poor results if it does not fit the structure of the input data.

전통적인 k-means 클러스터링 방법은 주로 k개의 사용자가 지정한다. 즉 k개의 중심들을 파일로부터 읽거나 다른 어플리케이션으로부터 중심을 지정하는 방법을 사용한다. 그러나, 이러한 임의로 결정하는 중심들이 만일 초기 중심이 데이터 분포에서 멀리 떨어져 있다면, 결과는 왜곡될 수 있다.The traditional k-means clustering method is usually specified by k users. That is, read k centers from a file or specify a center from another application. However, these arbitrarily determining centers may distort the result if the initial center is far from the data distribution.

또한, 일반적으로 관찰치의 셋이 커지면 관찰치들과 클러스터의 대표값들 사이에서 계산된 유클리드 거리값에서 무의미한 진동이 발생하여 수렴하지 못할 수 있다. 따라서, 반복과정이 완전한 클러스터 중심으로 이동하는 것이 실패하면 어떤 중심에서 중심에 가까운 임계치에 도달하면 과정이 종료되는 수렴기준을 택하고 있다. 그러나, 이러한 특별 정지규칙은 전체의 최적 클러스터링 과정을 방해할 수도 있다.Also, in general, a larger set of observations may result in insignificant vibrations at the Euclidean distance value calculated between the observations and the representative values of the clusters and thus may not converge. Therefore, if the iterative process fails to move to the complete cluster center, the convergence criterion is selected, in which the process is terminated when the threshold is reached from the center to the center. However, these special stop rules may hinder the overall optimal clustering process.

또한, 준비된 후보 임플란트들이 많을 경우, 수술 전에 환자의 수술에 필요한 돌기(process)의 폭과 길이, 각도 및 추간 돌기(interspinous process) 간격 등의 치수를 재어 후보패턴을 결정해야 하고, 수술 중에 패턴을 번갈아 끼워 보아야 했다. 이러한 과정 중에서 돌기(process)의 손상이 우려되는 등의 위험성이 존재한다.In addition, if there are many candidate implants prepared, the candidate pattern should be determined by measuring the width and length of the process, the angle, and the interspinous process interval required for the patient's operation before surgery. I had to take turns. In such a process, there is a risk that the process may be damaged.

수술 후에는 결과를 X-ray로만 판단하므로 3차원적인 각도나 숨겨진 오차공간에 대한 매칭 여부도 판단하기 어렵다.After surgery, the results are judged only by X-rays, so it is difficult to determine whether they match three-dimensional angles or hidden error spaces.

본 발명이 이루고자 하는 기술적 과제는, 임플란트 제작 방법을 제공 하는 것이다. The technical problem to be achieved by the present invention is to provide an implant manufacturing method.

본 발명이 이루고자 하는 다른 기술적 과제는, 임플란트 제작시스템을 제공하는 것이다.Another technical problem to be achieved by the present invention is to provide an implant manufacturing system.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다. The technical problems of the present invention are not limited to the above-mentioned technical problems, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 임플란트 제 작방법은 (a) 임플란트가 위치할 관심영역을 입력받는 단계, (b) 상기 관심영역에 부합하는 후보 임플란트의 영상를 제공하는 단계, (c) 상기 후보 임플란트 중에서 대표 임플란트를 입력받는 단계 및 (d) 상기 대표 임플란트와 상기 관심영역이 매칭된 결과를 출력하는 단계를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of manufacturing an implant, the method comprising: (a) receiving an ROI in which an implant is to be located, and (b) providing an image of a candidate implant corresponding to the ROI. (c) receiving a representative implant from among the candidate implants, and (d) outputting a result of matching the representative implant with the region of interest.

상기 다른 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 상기 척추 영상 클러스터링 시스템은, 입력된 영상을 저장하는 제1저장부, 클래스별 대표영상을 저장하는 제2저장부, 상기 입력영상과 상기 클래스별 대표영상의 관심영역을 2진화한 영상을 저장하는 제3저장부, 새로운 케이스가 클래스에 포함될 경우 해당 클래스의 대표영상을 개정하고, 할당된 클래스의 개수가 지정된 한정개수 미만일 경우 일치율을 변경하는 제어 모듈, 상기 제어 모듈에 의해 결정된 일치율에 따라 케이스를 배당하거나, 새로운 클래스를 생성하는 클래스할당 제어 모듈 및 상기 클래스 할당 모듈에 의해 생성된 클래스에 적합한 임플란트를 기초로 하여 새로운 케이스에 적합한 임플란트를 매칭시키는 임플란트 매칭 모듈을 포함한다.The spine image clustering system according to an embodiment of the present invention for achieving the another technical problem, the first storage unit for storing the input image, the second storage unit for storing the representative image for each class, the input image and A third storage unit for storing the binarized image of the region of interest of the representative image of each class, if a new case is included in the class, the representative image of the corresponding class is revised, and if the number of allocated classes is less than the specified limit, the matching rate An implant suitable for a new case based on a control module to be changed, a class assignment control module for allocating a case according to the match rate determined by the control module, or for creating a new class and an implant suitable for the class generated by the class assignment module It includes an implant matching module for matching the.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명 세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

먼저 도 1은 본 발명의 일 실시예에 따른 임플란트 제작 시스템에 대한 개략적인 블록도로서, 사용자 인터페이스(110), 클래스할당 제어모듈(120), 제어모듈(130), 임플란트 매칭 모듈(135), 영상원본 데이터베이스(140), 클래스별 대표영상 데이터베이스(150), 2진화영상 데이터베이스(160), 영상수집 모듈(170), 관심영역 추출 모듈(180), 관심영역의 2진화 제어 모듈(190)으로 구성된다.First, Figure 1 is a schematic block diagram of an implant manufacturing system according to an embodiment of the present invention, a user interface 110, class assignment control module 120, control module 130, implant matching module 135, Image source database 140, representative image database by class 150, binarized image database 160, image acquisition module 170, region of interest extraction module 180, the binarization control module 190 of the region of interest It is composed.

상기 사용자 인터페이스(110)는 전체 척추 영상 중 사용자의 관심 부분을 받아들이거나, 영상 수집을 위해 입출력을 관리한다.The user interface 110 accepts a user's interest portion of the entire spine image or manages input / output for image collection.

상기 클래스 할당 제어 모듈(120)은 학습모듈에 의해 결정된 일치율에 따라 케이스를 할당하거나, 새로운 클래스를 생성하는 역할을 한다.The class assignment control module 120 assigns a case or creates a new class according to the matching rate determined by the learning module.

다만, 본 실시예에서 사용되는 "모듈"이라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. However, the term "module" used in the present embodiment refers to software or a hardware component such as an FPGA or an ASIC, and a module plays a role.

그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 돌기들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. However, modules are not meant to be limited to software or hardware. The module may be configured to be in an addressable storage medium and may be configured to play one or more processors. Thus, as an example, a module may include components such as software components, object-oriented software components, class components, and task components, as well as protrusions, functions, properties, procedures, and subroutines. , Segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays, and variables.

구성요소들과 모듈들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 모듈들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.The functionality provided within the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules. In addition, the components and modules may be implemented to play one or more CPUs in a device or secure multimedia card.

상기 제어모듈(130)은 주로 새로운 케이스가 클래스에 포함될 경우 대표 영상을 개정한다. 또한, 컨버젼스를 위해서 이전 라운드의 대표영상과 현재 라운드의 대표영상을 비교하기도 하고, 재클러스터링 여부를 결정하여 할당된 클래스의 개수가 지정된 한정개수 미만인 경우 일치율을 높인다.The control module 130 mainly revises the representative image when a new case is included in the class. In addition, for convergence, the representative image of the previous round and the representative image of the current round may be compared, and re-clustering may be determined to increase the matching rate when the number of allocated classes is less than the specified limit.

상기 임플란트 매칭 모듈(135)은 상기 클래스 할당 모듈에 의해 생성된 클래스에 적합한 임플란트를 기초로 하여 새로운 케이스에 적합한 임플란트를 매칭시킨다. 주로 새로운 케이스에 대해서 상부영역(upper)와 하부영역(lower)의 후보 임플란트 패턴을 따로 제시하고, (100-대표오차율)%를 추가적으로 제시함으로써 사용자의 선택을 돕게 된다.The implant matching module 135 matches the implant suitable for the new case based on the implant suitable for the class created by the class assignment module. Primarily for new cases, the candidate implant patterns of the upper and lower regions are presented separately, and the (100-representative error rate)% is further suggested to help the user's selection.

상기 영상 원본 데이터베이스(140)는 영상수집 모듈(170)에 의해 수집된 영상을 수정없이 저장하며, 2진화영상을 만들거나 클래스별 대표 영상을 수정할 때 영상 원본을 제공한다.The image source database 140 stores the image collected by the image collection module 170 without modification, and provides an image source when making a binarized image or modifying a representative image for each class.

상기 클래스별 대표 영상 데이터베이스(150)은 각 클래스의 특징을 반영하는 대표영상을 저장하며, 대표영상은 클래스에 속하는 영상원본을 평균을 내어 제공한다.The representative image database 150 for each class stores a representative image reflecting characteristics of each class, and the representative image provides an average of an image source belonging to a class.

상기 2진화 영상 데이터베이스(160)은 케이스의 원본 영상의 관심부분을 추출하여, 상기 관심영역을 2진 형식으로 변형한 영상을 저장한다. 또한, 클래스별 대표영상의 2진화 영상도 저장한다. 이는 각 케이스를 클래스에 할당하려 할 때, 케이스의 2진화 영상과 대표영상의 2진화 영상을 비교할 때 이용한다.The binary image database 160 extracts a region of interest of the original image of the case and stores the image obtained by transforming the region of interest into a binary format. In addition, it stores the binarized image of the representative image of each class. This is used to compare the binarized image of the case and the binarized image of the representative image when assigning each case to a class.

상기 영상수집 모듈(170)은 원본 영상을 외부로부터 받아들이고, 영상원본 데이터베이스(140)에 저장하거나, 관심영역 추출모듈(150)에 이를 제공한다.The image acquisition module 170 receives the original image from the outside and stores it in the image source database 140 or provides it to the ROI extraction module 150.

상기 관심영역 추출 모듈(180)은 영상수집 모듈(170)로부터 원본 영상을 받아들이고, 사용자가 관심영역을 추출하면 이를 관심영역의 2진화 제어모듈(190)에 제공한다.The ROI extraction module 180 receives the original image from the image acquisition module 170 and provides the binarization control module 190 of the ROI when the user extracts the ROI.

상기 관심영역 2진화 제어 모듈(190)은 관심영역 추출 모듈(170)로부터 관심영역을 받아들여 소정의 기준에 따라 영상을 이진화하고. 이를 2진화 영상 데이터베이스(160)에 제공한다. The region of interest binarization control module 190 receives the region of interest from the region of interest extraction module 170 and binarizes the image according to a predetermined criterion. This is provided to the binarized video database 160.

본 발명의 임플란트 선택 시스템에 의해 자동으로 새로운 케이스에 알맞은 임플란트를 제시하는 방법은 도2 내지 도5를 참조하여 설명하면 다음과 같다.A method for automatically presenting an implant suitable for a new case by the implant selection system of the present invention will be described below with reference to FIGS. 2 to 5.

도 2는 본 발명의 일 실시예에 따라 임플란트의 선택을 자동으로 케이스에 적합한 임플란트를 제시하기 위한 과정의 흐름도로서, 우선, 임플란트가 위치할 관심영역을 입력받는다.(S110)2 is a flowchart of a process for automatically presenting an implant suitable for a case in which the selection of the implant is automatically performed according to an embodiment of the present invention. First, an area of interest in which the implant is to be located is received.

도 3a는 척추 영상을 나타내며, 사용자가 이를 통해서 임플란트가 위치할 부분을 선택할 수 있는 사용자 인터페이스이다. 이 때, 사용자는 임플란트의 상부영역(upper)과 하부영역(lower)를 위한 슬라이스(slice) 선택을 위해 적절한 위치를 클릭하고, 또한 추간(interspace)을 드래그(drag)함으로써 추간 거리를 측정하여 적합한 임플란트가 선택되어 질 수 있도록 한다. 도 3b는 지정된 선택된 척추 부분 을 x, y, z방향으로 구분하여(slice) 나타낸 사용자 인터페이스이다. 사용자는 일정한 크기의 관심영역(ROI) 위치를 클릭함으로써 지정할 수 있고, 크기가 미리 고정되어 있으므로 적합한 위치에 대한 두 번의 클릭으로 간단히 해결할 수 있다. 3A illustrates a spine image, through which a user may select a portion where an implant is to be placed. At this time, the user clicks on an appropriate position to select slices for the upper and lower regions of the implant and also measures the intervertebral distance by dragging the interspace. Allow the implant to be selected. FIG. 3B is a user interface showing a specified selected spinal part sliced in x, y, and z directions. The user can specify the ROI location by clicking a certain size, and since the size is fixed in advance, the user can easily solve the problem with two clicks on a suitable location.

임플란트가 위치할 관심영역을 입력받는 단계가 지나면, 후보 임플란트의 영상을 제공하는 단계를 수행한다.(S120) 새로운 케이스에 대한 임플란트의 완성 형태로 제공할 수도 있으며, 임플란트의 상부패턴(upper)와 하부패턴(lower)의 형태를 구분하여 제공할 수도 있다. 척추돌기(spinous process)의 상부영역과 하부영역의 형태나 크기, 모양은 개인에 따라 많은 차이를 보인다. 따라서, 상부영역과 하부영역의 형태를 구분하여 제공하는 경우, 전체 임플란트의 개수는 임플란트의 상부 패턴의 개수와 하부패턴의 개수의 곱으로 결정된다. 도 4a에서는 임플란트의 상부패턴과 하부패턴을 선택하기 위한 사용자 인터페이스를 제공한다. A는 케이스의 척추영상을 제공하고, B는 하부영역의 후보패턴 4가지를 제시하고 있고, C는 상부영역의 후보패턴 5가지를 제시한다. 마우스에 가까이 있는 상부패턴 또는 하부패턴의 영상을 표현한다. 후보패턴의 개수는 사용자의 필요에 따라 정할 수 있는 부분이며, 본 예시에 제한되지 않는다.After the step of receiving the region of interest in which the implant is to be input, the step of providing an image of the candidate implant is performed. (S120) It may be provided as a completed form of the implant for a new case, and the upper pattern of the implant and The shape of the lower pattern (lower) may be provided separately. The shape, size, and shape of the upper and lower regions of the spinous process vary widely among individuals. Therefore, in the case of providing the upper region and the lower region separately, the total number of implants is determined by the product of the number of upper patterns and the lower pattern of the implant. 4A provides a user interface for selecting an upper pattern and a lower pattern of an implant. A provides spine images of the case, B presents four candidate patterns in the lower region, and C presents five candidate patterns in the upper region. The image of the upper pattern or the lower pattern near the mouse is represented. The number of candidate patterns is a part that can be determined according to a user's needs, and is not limited to this example.

도 4b는 임플란트의 상부패턴과 하부패턴을 선택하기 위한 사용자 인터페이스를 제공하며, 여기에서는 선택의 용이성을 위해서 상, 하부영역의 대표오차값, 대표오차율 또는 (100-대표오차율)% 중 어느 하나를 B', C'에 제공할 수 있다. 따라서, 사용자는 제시된 척도를 보고 좀 더 적합한 임플란트를 선택할 수 있다. 척도로써 제시될 수 있는 것은 사용자의 필요에 따라 프로그램할 수 있는 부분이며, 본 예시에 제한되지 않는다.FIG. 4B provides a user interface for selecting an upper pattern and a lower pattern of an implant, in which one of the representative error value, representative error rate, or (100-representative error rate)% of the upper and lower regions is selected for ease of selection. It can provide to B 'and C'. Thus, the user can select a more suitable implant based on the presented scale. What can be presented as a measure is that which can be programmed according to the needs of the user, and is not limited to this example.

그 후 후보 임플란트 중에서 사용자는 대표 임플란트를 입력한다(S130). 후보 상부패턴과 후보 하부패턴을 구분하여 제공했을 때는 하나씩 대표 패턴을 입력해야 한다. 다만, 본 발명에서는 디폴트(default)로 최대 일치율을 갖는 후보 상부 패턴과 후보 하부패턴이 제공된다. 사용자 지정으로 최대 일치율을 갖는 후보 임플란트 패턴을 선택하면 본 단계(S130)을 생략하고 바로 다음 단계를 수행할 수 있다. Thereafter, among the candidate implants, the user inputs a representative implant (S130). When the candidate upper pattern and the candidate lower pattern are provided separately, representative patterns should be input one by one. However, in the present invention, a candidate upper pattern and a candidate lower pattern having a maximum match ratio are provided as defaults. If the candidate implant pattern having the maximum matching rate is selected by the user specification, the step S130 may be omitted and the next step may be immediately performed.

도 5에서와 같이 결정된 대표 임플란트와 척추 영상의 관심영역이 매칭된 결과를 출력한다.(S140) 매칭된 결과를 나타내면서, 부가적으로 임플란트와 척추영상이 완전히 매칭되지 않는 부분을 나타내거나, 오차율을 계산해서 표시할 수도 있다. 또한, 대표 임플란트와 척추 영상의 관심영역을 분리하여 착탈해 볼 수 있고, 방향을 전환하여 관찰하거나 확대 및 축소하여 관찰할 수도 있다. As shown in FIG. 5, the result of matching the representative implant and the ROI of the spine image determined as shown in FIG. 5 is output. (S140) While the matching result is displayed, an additional portion of the implant and the spine image is not completely matched. It can also be calculated and displayed. In addition, the region of interest of the representative implant and the spine image may be detached and detached, and the observation may be performed by switching directions or by magnifying and reducing the region of interest.

그 후 다른 임플란트와 케이스를 매치하고 싶으면 다시 후보 임플란트에서 대표 임플란트(S130)으로 돌아갈 수 있다.(S150) 그렇지 않은 경우에는 마지막 단계인 보정단계를 수행한다(S160)Thereafter, if it is desired to match the case with other implants, the candidate implant can be returned to the representative implant (S130). (S150) Otherwise, the final stage of correction is performed (S160).

보정단계에서는 각 척추 등뼈를 따로 인식하여(segment 분리과정), 각도와 위치를 보정한다. 디스크 함몰에 따른 돌기 간격을 조정한다든지, 상, 하, 좌, 우로 각도를 수정하면서 적합의 정도를 판단할 수 있다. 굴곡(flection)과 연장(extension)에 대한 시물레이션을 하고, X-ray 영상과 맞추어 봄으로써 옳바른 적합인지 여부를 판단한다.In the correction step, each spine spine is recognized separately (segment separation process), and the angle and position are corrected. The degree of fit can be determined by adjusting the projection spacing according to the disc depression or by modifying the angles up, down, left and right. Simulation of bending and extension, and matching with the X-ray image to determine the correct fit.

따라서, 이러한 경우 가장 문제가 되는 것은 어떻게 임플란트에 대한 후보 패턴을 제시할 수 있는가이다. 본 발명에서는 종래의 k-means 클러스터링 방법을 개선하여 적용하고 있으며,기존의 케이스들을 클러스터링하여 클래스를 형성하고, 형성된 클래스의 대표영상에 부합하는 임플란트의 후보패턴을 제공하고 있다. 더 나아가 상기 형성된 클래스의 대표영상에 부합하는 가상의 임플란트를 이용하여 기존의 케이스를 다시 매칭시켜 봄으로써 대표 패턴의 숫자를 줄이거나 일치율을 높일 수 있다.Therefore, the most problematic case in this case is how to present a candidate pattern for the implant. The present invention improves and applies the conventional k-means clustering method, forms a class by clustering existing cases, and provides a candidate pattern of an implant matching the representative image of the formed class. Furthermore, by matching the existing case again using a virtual implant corresponding to the representative image of the formed class, the number of representative patterns can be reduced or the matching rate can be increased.

상기 2가지 후보패턴 제시 방법은 각각의 장점이 있으며, 전자는 세분화된 여러가지의 임플란트의 종류를 제시할 수 있고, 후자의 경우에는 일반적인 소수의 임플란트를 제시할 수 있어 대량생산이 필요한 경우 유용하다 할 것이다.Each of the two candidate pattern presentation methods has advantages, and the former can present various types of implants, and the latter can present a general number of implants, which is useful when mass production is required. will be.

상기 제시한 후보패턴 제시하는 구체적인 방법을 도6 내지 도14을 참조하여 설명하면 다음과 같다.A detailed method of presenting the candidate pattern presented above will be described with reference to FIGS. 6 to 14.

도 6는 본 발명의 일 실시예에 따라 척추 영상을 클러스터링 하기 위한 과정에 대한 흐름도로서, 우선, 클러스터링 단계에 들어가기 전 관심영역을 추출하여, 상기 추출된 관심영역을 2진화하는 준비단계를 수행한다. 그리고, 첫번째 케이스를 첫번째 클래스(이하, 클래스 A라 한다.)에 할당한다. (S610)6 is a flowchart illustrating a process for clustering a spine image according to an embodiment of the present invention. First, a region of interest is extracted before entering the clustering stage, and a preparation step of binarizing the extracted region of interest is performed. . The first case is then assigned to the first class (hereafter referred to as class A). (S610)

두번째 케이스의 2진화 관심영역 영상을 클래스A의 2진화 대표영상과 매칭시킨다. 매칭이 되면 케이스를 클래스A에 포함시켜 대표영상을 개정하게 되고, 매칭이 되지 않으면 클래스 B를 만들어 할당한다. 이와 같은 과정을 모든 케이스에 대해 반복한다. 즉, n번째 케이스의 2진화 관심영역 영상을 존재하는 클래스 A부터 클래스 P까지 비교하여 매칭되는 클래스에 할당하고, 매칭되는 2진화 대표영상이 존재하지 않으면 새로운 클래스 P+1을 만들어 할당한다. (S620)The binarized ROI image of the second case is matched with the binarized representative image of Class A. If there is a match, the case is included in class A, and the representative image is revised. If it is not matched, class B is created and assigned. Repeat this process for all cases. That is, the binarized ROI image of the nth case is compared with the existing class A to class P, and assigned to the matching class. If there is no matching binarized representative image, a new class P + 1 is created and assigned. (S620)

또한, 마지막 케이스에 대한 할당을 마치면 포함된 클러스터의 케이스가 전체 케이스의 소정 비율 이하, 예를 들어 2% 미만인 클래스를 제거한다. 이러한 과정은 예외적이고 다른 형상의 케이스를 따로 추출하고자 하는 목적에 따라 선택적으로 이루어질 수 있다.(S630)In addition, upon completion of the assignment for the last case, the classes of the clusters included will remove classes that are below a certain percentage of the total cases, for example less than 2%. This process is exceptional and may be selectively performed according to the purpose of extracting the case of a different shape separately (S630).

예외적인 클래스를 제거하고 난 후, 각 클래스의 대표영상이 개정이 있었는지 조사한다. 대표영상의 개정이 있었으면 다시 클러스터링 단계, 클래스 제거 단계를 반복하고, 수렴할 경우 클래스의 개수를 확인한다. 이와 같은 컨버젼스 과정은 더 이상 대표영상의 개정이 없을 때까지 반복한다.(S640)After removing the exceptional classes, check whether the representative image of each class has been revised. If there is a revision of the representative image, repeat the clustering step and class removal step again. If convergence, check the number of classes. This convergence process is repeated until there is no further revision of the representative image (S640).

컨버젼스 단계를 거친 클래스의 오차도를 검사하고(S647), 일치율에 의해 결정된 클래스의 개수가 사용자가 최대로 허용하는 클래스의 개수보다 작은 경우 일치율을 높여 다시 클러스터링 단계, 클래스 제거 단계, 컨버젼스 단계를 반복하게 된다.(S650)Check the error degree of the class that has undergone the convergence step (S647), and if the number of classes determined by the matching rate is smaller than the maximum number of classes allowed by the user, increase the matching rate and repeat the clustering step, class removing step, and convergence step again. (S650)

부가적으로 위 단계를 거쳐 완성된 대표 영상의 매칭 템플릿과 케이스를 매칭하여 좀 더 일반적인 대표영상만을 고를 수 있다.(S660)Additionally, by matching the matching template and the case of the representative image completed through the above steps, only a more general representative image may be selected.

이하에서 각 단계를 도면을 참조하여 자세히 설명하기로 한다.Hereinafter, each step will be described in detail with reference to the accompanying drawings.

도 7은 본 발명의 일 실시예에 따른 준비단계(S610)을 자세히 설명한 흐름도이다.7 is a flowchart illustrating the preparation step (S610) in detail according to an embodiment of the present invention.

여기에는 전체 척추 영상에서 임플란트가 위치할 부분에 대한 관심영역(VOI, Volume of interest)를 결정하는 부분과 영상에 대한 2진화 작업을 포함한다.This includes determining a region of interest (VOI) for the portion of the entire spine image where the implant is to be placed, and binarizing the image.

도8와 같이 256 명암값의 전체 척추영상이 제공되면(S611), 도면에서와 같이 사각형 형태로 사용자가 관심영역을 추출한다(S612). 본 실시예에서 입체상의 관심영역(VOI) 지점은 x, y, z, 축으로 3차원적인 육면체의 형태로 결정된다. 먼저 임플란트가 위치할 부분에 해당하는 슬라이스(slice)를 선택하고 슬라이스 내에서 평면 상의 관심영역을 결정하는 방식으로 진행된다. 관심영역(VOI)은 임플란트가 위치할 부분에 여유분을 추가한 것으로, z 방향의 슬라이스 개수는 윗부분(upper)과 아랫부분(lower)에 대해 각 여러장을 선택하고, 평면에서는 일정 지점에 위치하는 픽셀(pixel)들로 모든 영상에 대해 동일한 크기로 결정한다. 예를 들어, 10장의 z방향 슬라이스를 선택하고, 평면에서는 64 * 64 픽셀로 모든 영상을 결정할 수 있다. 또한 하나의 케이스 내에서 모든 슬라이스에서 동일한 위치에 관심영역이 위치하도록 처리한다. 이렇게 처리된 각 케이스를 {S1, S2,...,SN}라 하겠다. As shown in FIG. 8, when the entire spine image having 256 contrast values is provided (S611), the user extracts an ROI in a quadrangular shape as shown in the figure (S612). In the present embodiment, the three-dimensional point of interest (VOI) point is determined in the form of a three-dimensional hexahedron with x, y, z, and axes. First, a slice corresponding to a portion where an implant is to be located is selected, and a method of determining a region of interest on a plane within the slice is performed. The region of interest (VOI) adds a margin to the part where the implant is to be placed, and the number of slices in the z direction selects several sheets for the upper part and the lower part, and is located at a certain point in the plane. The pixels are the same size for all images. For example, you can select 10 z-direction slices and determine all images with 64 * 64 pixels in the plane. It also processes the region of interest to be located at the same location on all slices in one case. We will call each of these cases {S 1 , S 2 , ..., S N }.

그 후, 수학식1에 의해 2진화 작업을 수행한다.(S613) 이하에서 전체 케이스들이 k개의 cluster { Pt j, 1≤j≤k}로 나뉘어지고, 케이스가 cluster Pj에 속할 때 대표값 벡터{cμt j (j=1,...,k)} 로 분류된다. t는 라운드(round), c는 j에서의 갱신 횟수를 가리킨다. 또한, B(cμt j(x,y,z)) 는 대표영상 벡터의 (x,y,z) 위치의 복셀의 명암값을 2진화로 하는 함수이다.After that, the binarization operation is performed according to Equation 1. (S613) In the following, all cases are divided into k clusters {P t j , 1≤j≤k}, and a representative case is included in cluster P j . Value vector { c μ t j (j = 1, ..., k)}. t denotes a round and c denotes the number of updates in j. In addition, B ( c μ t j (x, y, z)) Is a function that binarizes the intensity of the voxel at the position (x, y, z) of the representative image vector.

Figure 112004020713348-pat00001
Figure 112004020713348-pat00001

척추에 대한 이진화를 위한 임계값으로는 190내지 240의 값 중 어떠한 값을 선택하여도 비슷한 결과를 얻을 수 있으나 노이즈를 최소화하고 척추 밀도를 고려하여 230이 바람직하다. 또한, 골밀도가 낮은 사람의 경우에는 200을 선택할 수 있다. 임계값은 상기 실시예에 한정되지 않는다. 도 9a는 64*64의 평면상의 관심영역(Region of Interest, ROI)을 나타내고, 도 9b는 64*64 관심영역 영상을 2진화한 결과를 나타낸 것이다.As a threshold value for the binarization of the spine, a similar result can be obtained by selecting any value from 190 to 240, but 230 is preferable in consideration of noise reduction and spine density. In addition, in the case of low bone density person, 200 can be selected. The threshold is not limited to the above embodiment. FIG. 9A illustrates a region of interest (ROI) of a 64 * 64 plane, and FIG. 9B illustrates a result of binarizing a 64 * 64 region of interest image.

그 후, 첫번째 케이스를 클래스 A에 할당함으로써(S614), 준비단계를 마친다.After that, by assigning the first case to class A (S614), the preparation step is completed.

도 10은 본 발명의 일 실시예에 따른 클러스터링 단계(S620)을 자세히 설명한 흐름도이다.10 is a detailed flowchart illustrating the clustering step S620 according to an embodiment of the present invention.

먼저 t=0 일 때, 클러스터 할당을 위해 먼저, 초기일치율(Ths=Thstart)을 결정한다(S621). 초기 일치율을 결정하는 방법은 사용자가 직접 지정하거나, 일정한 범위내에서 랜덤하게 결정할 수 있다. 예를 들면 70 내지 100% 범위안에서 선택 가능하며, 실시예로는 76%로 초기일치율을 선택하였다. 다만, 초기일치율은 클러스터링 결과에 큰 영향을 미치지 않으므로 적정 범위의 값을 선택해도 무방하다.First, when t = 0, the initial matching ratio Th s = Th start is determined for cluster allocation (S621). The method of determining the initial matching rate may be directly designated by the user or randomly determined within a predetermined range. For example, it is selectable within the range of 70 to 100%, and in the example, the initial matching ratio was selected as 76%. However, the initial matching rate does not significantly affect the clustering result, so it is acceptable to select an appropriate range of values.

그 후, n번째 케이스를 P번째 클래스에 할당하는 과정을 수행한다(S622). 수 학식 2에서와 같이 처리하고자 하는 케이스의 이진화된 명암값과 클래스의 대표값 영상의 이진화된 명암값을 지정된 복셀(voxel)의 위치에서 비교하여, 일치되는 명암값의 비율을 구한다.(S622) 즉, 케이스의 명암값과 클래스 대표 영상의 명암값이 일치하는 화소의 누적값을 백분율로 환산한 것이다. 수학식 2에서 Acase 는 VOI의 화소수를 의미하고, ROI의 화소수 * slice 수로 환산된다. 본 실시예에서 Acase 는 64*64*10 이 된다. 또한, Con[Si, cμt j] 은 케이스의 2진화 영상과 클래스의 대표영상의 2진화 영상을 Acase 만큼 반복 비교하여, 같이 명암값을 가지는 비율을 의미하는 함수이다.Thereafter, a process of assigning an nth case to a Pth class is performed (S622). As shown in Equation 2, the binarized contrast value of the case to be processed and the binarized contrast value of the representative value image of the class are compared at the positions of the designated voxels to obtain a ratio of matching contrast values. That is, the cumulative value of the pixels in which the contrast value of the case and the contrast value of the class representative image match is converted into a percentage. In Equation 2, A case means the number of pixels of the VOI, and is converted into the number of pixels * slice of the ROI. In this embodiment, A case is 64 * 64 * 10. In addition, Con [S i , c μ t j ] is a function that repeatedly compares the binarized image of the case and the binarized image of the representative image of the class by A case , and represents the ratio having the same contrast value.

Figure 112004020713348-pat00002
Figure 112004020713348-pat00002

위와 같은 일치율 비교방법은 명암값과 위치정보를 함께 비교하는 방법으로서, 해당 voxel의 명암값을 서로 비교하여 전체 volume에서의 비율을 구할 수 있는 특징이 있다.The method of comparing the matching rates as described above is a method of comparing the contrast value and the position information together, and has a characteristic of obtaining a ratio in the total volume by comparing the contrast values of the corresponding voxels.

매칭을 하고 난 후, Con[Si, cμt j] 의 값을 앞에서 결정한 초기일치율과 비교하여, 초기일치율 미만의 값을 가지면 새로운 클래스를 만들어, 상기 매칭과정에서 사용한 케이스를 할당한다.(S623) 초기일치율 이상이 되면, 대표영상을 개정하게 된다.(S624) After the matching, the value of Con [S i , c μ t j ] is compared with the initial matching rate determined previously, and if the value is less than the initial matching rate, a new class is created and the case used in the matching process is allocated. If the initial matching ratio is greater than S623, the representative video is revised. (S624)

클래스 할당 과정을 자세히 설명하면, 첫 번째 케이스 S1을 클래스 1로 할당한다. 두 번째 케이스 S2의 경우에는 클러스터 1로 할당된 클러스터 1의 대표 영상과 케이스의 해당 복셀(voxel)에서의 명암값을 비교한다. 여기에서 일치율이 초기일치율보다 작으면 케이스 S2를 클러스터 2로 할당하고, 초기일치율보다 크면 케이스 S2를 클러스터 1로 할당하고 클러스터 1의 대표값 영상을 개정한다. 두 번째 케이스 S2이상부터는 수학식 3에서와 같이, 이미 만들어진 클래스 Pj (j=1, ... , k) 모두의 2진 대표영상과 일치율을 비교하게 되며, 비교된 일치율 중 가장 큰 일치율을 보이는 Pj 에 케이스 Si를 할당한다. 케이스 Si 가 할당된 Pj 에서는 대표영상 개정이 요구된다. Explaining the class assignment process in detail, assign the first case S1 to class 1. In the case of the second case S2, the representative image of the cluster 1 allocated to the cluster 1 is compared with the contrast value of the corresponding voxel of the case. Here, if the match rate is smaller than the initial match rate, case S2 is assigned to cluster 2, and if the match rate is greater than the initial match rate, case S2 is assigned to cluster 1 and the representative value image of cluster 1 is revised. From the second case S2 and above, as shown in Equation 3, the match rate is compared with the binary representative image of all the made classes P j (j = 1, ..., k), and the largest match rate is compared. Assign case S i to the visible P j . Representative image revision is required in P j to which case S i is assigned.

Figure 112004020713348-pat00003
Figure 112004020713348-pat00003

대표영상을 개정하는 방법(S624)에서는 이진영상 대신 256의 명암값을 이용하여 화소의 명암값을 개정한다. 현재 클래스 Pj에 속하는 케이스의 개수가 c 개 일 때, 새로운 대표영상은 수학식4와 같다. 이하, 수학식 4를 이용하여 대표영상을 변경시키는 과정은 학습과정으로, 새로 개정된 c+1μt j 와 이전의 c μt j 의 비율은 학습율이라고 정의한다.In the method of correcting the representative image (S624), the contrast value of the pixel is corrected using 256 contrast values instead of the binary image. When the number of cases belonging to the current class P j is c, the new representative image is shown in Equation 4. Hereinafter, the process of changing the representative image using Equation 4 is a learning process, and the ratio of the newly revised c + 1 μ t j and the previous c μ t j is defined as the learning rate.

Figure 112004020713348-pat00004
Figure 112004020713348-pat00004

수학식 4는 기존에 있던 케이스들과 새로 할당된 케이스의 평균을 내는 방식이다. 위와 같은 방법으로 대표 영상을 결정하는 방법은 같은 클래스에 속한 케이스들의 단순 평균값을 대표값 벡터로 결정하는 것보다 새로운 케이스의 할당에 의해 유동적인 대표값을 만듬으로써, 정확한 클러스터링과 대표영상를 획득할 수 있다.Equation 4 is an average of existing cases and newly allocated cases. The method of determining the representative image in the above method can obtain accurate clustering and the representative image by creating a flexible representative value by assigning a new case rather than determining a simple mean value of cases belonging to the same class as a representative value vector. have.

학습율은 해당 클러스터에 할당된 케이스들의 개수에 반비례한다. 하나의 학습 케이스를 처리할 때, 해당 대표값에는 기존의 c 개의 케이스들에 의해 결정된 값이 사전에 할당되어 있으므로 단일 케이스에 의한 학습율은 대표영상을 형성하는 기존의 케이스들의 개수가 많을수록 떨어지게 된다. The learning rate is inversely proportional to the number of cases assigned to that cluster. When processing one learning case, since the value determined by the existing c cases is previously assigned to the representative value, the learning rate by the single case decreases as the number of existing cases forming the representative image increases.

학습율이 감소하는 이유는 해당 클래스로 할당된 모든 케이스들의 누적계산값을 통해 대표영상을 결정하기 때문이고, 각 클래스의 대표영상들은 클래스로 할당된 모든 케이스들의 대표영상으로 만든다. 따라서 각각의 클래스들은 오직 이러한 대표영상으로 결정되고, 모든 케이스들은 자신과 가장 가까운 대표영상의 클래스에 속하게 된다. The reason why the learning rate decreases is because the representative image is determined by the cumulative calculation value of all the cases assigned to the class, and the representative images of each class are made the representative images of all the cases assigned to the class. Therefore, each class is determined only by this representative image, and all cases belong to the class of the representative image closest to itself.

대표영상이 개정된 후에는 현재 클러스터링 단계에 들어온 케이스들이 모두 할당된 때까지, 즉 SN이 될 때까지 위 과정을 반복한다.(S625) After the representative image is revised, the above process is repeated until all cases entering the current clustering stage are allocated, that is, S N (S625).

마지막 케이스에 대한 할당이 끝나면 수학식 5를 이용하여, 포함된 클래스의 케이스가 전체 케이스의 2% 미만인 클래스를 클래스 리스트에서 제거한다(S630). After the allocation of the last case is completed, using Equation 5, the class of the included class is less than 2% of the total case is removed from the class list (S630).

예외적인 클래스를 제거함으로써 의미있는 클래스 만으로 k개의 클래스를 구성할 수 있으며, k 값과 예외치에 민감한 알고리즘의 단점이 보완된다. 따라서, 이러한 과정은 예외적이고 구별되는 형상의 케이스를 따로 추출하는 것으로 이해될 수 있다.By eliminating exceptional classes, k classes can be composed of only meaningful classes, and the disadvantages of algorithms sensitive to k values and exception values are compensated for. Thus, this process can be understood as extracting cases of exceptional and distinctive shapes separately.

Figure 112004020713348-pat00005
Figure 112004020713348-pat00005

표1은 100개의 케이스를 이용하여 클래스 제거 과정을 거친 결과를 보여주고 있다. 첫 행을 살펴보면, 일치율 76%를 기준으로 L34_upper를 분석하면 4개의 클래스가 생성되고, 2개 이하의 케이스로 구성된 클래스는 제거되어 총 4개의 케이스가 탈락되었음을 나타내고 있다.Table 1 shows the result of class removal using 100 cases. Looking at the first row, analyzing L34_upper based on 76% match rate, four classes were created, and the class consisting of two or less cases was removed, indicating that four cases were dropped.

구 분division L34_upperL34_upper L34_lowerL34_lower 일치율Match rate k 개수k number 탈락된 케이스수Number of cases dropped K 개수K count 탈락된 케이스수Number of cases dropped 7676 44 44 22 22 7777 44 33 22 33 7878 44 44 22 66 7979 44 44 22 66 8080 55 55 22 66 8181 66 33 33 66

클래스 제거 과정을 마치면, 각 클래스의 안정화를 위한 컨버젼스(Convergence) 단계로 넘어간다.(S640)When the class removal process is finished, the process proceeds to the convergence step for stabilization of each class (S640).

컨버젼스 단계는 각 클래스의 대표영상에 대해 개정이 있었는지 조사하여 대표영상이 수렴할 때까지 라운드(round)를 반복한다. 이어서 라운드는 다시 클러스 터링 단계 및 클래스제거 단계를 거치는 것을 의미한다. 따라서, 3라운드를 반복한 것은 클러스터링 단계 및 클래스 제거 단계를 3회 반복하는 것을 의미한다.The convergence step checks whether there is a revision on the representative image of each class and repeats the round until the representative image converges. Rounding then means going through the clustering step and the class removing step again. Therefore, repeating three rounds means repeating the clustering step and class removing step three times.

수학식 6에서와 같이 이전 라운드의 각 클래스의 대표영상과 새로 형성된 클래스의 대표영상의 일치율이 일정% 이상이 될 때까지 라운드를 반복한다. 라운드 반복 기준이 되는 값은 사용자가 지정할 수 있으며, 예를 들어 100%로 지정하여 완전 일치를 요구할 수도 있다.As shown in Equation 6, the round is repeated until the matching ratio between the representative image of each class of the previous round and the representative image of the newly formed class becomes equal to or more than a predetermined percentage. The value used as the round repetition criterion may be designated by the user. For example, 100% may be required for a perfect match.

Figure 112004020713348-pat00006
Figure 112004020713348-pat00006

일정 %이상이 되지 않는다면 컨버젼스가 이루어지지 않은 것으로 판단하고, 이때는 케이스를 처음부터 다시 할당해야 하므로 케이스 번호를 1로 초기화 하고(S645), 라운드를 반복한다. 컨버젼스가 이루어 진다면 오차값 계산 단계(S647)로 넘어간다.If it does not reach a certain percentage or more, it is determined that the convergence is not made. In this case, since the case must be reassigned from the beginning, the case number is initialized to 1 (S645), and the round is repeated. If convergence is made, the process proceeds to the error value calculating step (S647).

오차도 계산 단계(S647)은 컨버젼스된 클래스들의 오차도을 계산하는 단계이다. 오차도의 계산은 수학식7 에서와 같이 케이스들과 각 케이스가 속한 대표영상 사이의 거리 제곱들의 합으로 계산된다. 상기 거리는 개념적인 표현이며, 실제로는 상기의 식에서 에러 관찰치의 경우, 대표영상과의 비일치도를 100%로 간주하여 계산하였다. 대표영상과의 거리도 계산 후 재클러스터링 요구 단계(S650)로 넘어간다.The error degree calculation step S647 is a step of calculating the error degree of the converged classes. The error degree is calculated as the sum of squares of distances between the cases and the representative image to which each case belongs, as shown in Equation (7). The distance is a conceptual expression, and in the case of the error observation value in the above equation, it was calculated considering the non-matching degree with the representative image as 100%. After the distance from the representative image is also calculated, the process goes to the reclustering request step S650.

Figure 112004020713348-pat00007
Figure 112004020713348-pat00007

재클러스터링 요구 단계(S650)는 더 이상의 대표영상의 개정이 없고 해당 클래스의 개수가 클래스 제한 개수(r) 값보다 작으면 수학식 8을 이용하여 일치율을 높이는 것(S655)을 의미한다. 재클러스터링이 요구되면 일치율을 올려서(S655) 클러스터링 단계로 돌아가고, 그렇지 않은 경우에는 일치율 및 k값 결정단계(S660)으로 넘어간다. 초기에 결정된 일치율(Thstart)이 대략적인 값이므로 이에 따라 결정되는 k값 또한 주어진 케이스의 할당에 완전히 적합한 것이 아니기 때문이다. 따라서, 이와 같은 과정을 통해서 제한된 클래스 개수(r) 범주 내에서 최대의 일치율(Ths)을 만들 수 있다. 예를 들어, 해당 클래스의 개수가 클래스 제한 개수보다 작은 경우 일치율을 1%씩 높인 후 클러스터링 단계(S620)으로 돌아가 모든 케이스에 대한 클래스 분배를 반복한다. The reclustering request step (S650) means that if there is no further revision of the representative image and the number of the corresponding classes is smaller than the class limit number r, the matching rate is increased by using Equation 8 (S655). If reclustering is required, the matching rate is raised (S655) and the process returns to the clustering step. If not, the process returns to the matching rate and the k value determination step (S660). This is because the initially determined coincidence rate Th start is an approximate value, and thus the k value determined accordingly is not completely suitable for a given case assignment. Therefore, through this process, it is possible to create the maximum match rate Th s within the limited class number (r) category. For example, if the number of the corresponding class is smaller than the class limit number, after increasing the matching rate by 1%, the process returns to the clustering step S620 and repeats class distribution for all cases.

Figure 112004020713348-pat00008
Figure 112004020713348-pat00008

일치율 및 k값 결정단계(S660)에서는 일치율의 상승에 따른 계산된 오차도 중 가장 작은 오차도에 해당하는 일치율 및 k값을 가장 적합한 것으로 결정하게 된다. 표2를 보면, 일치율에 따른 거리제곱값이 계산되고, 클래스 제거 단계에서 제거된 케이스를 제외하고 계산된 오차도가 있음을 알 수 있다. 여기서, 일치율 82% 인 경우 오차값이 67414로 가장 작음을 알 수 있다. 따라서, 82%가 케이스의 초기일치율이 가장 적합한 것으로 계산된다.In the determination of the matching rate and the k value (S660), the matching rate and the k value corresponding to the smallest error degree among the calculated error degrees according to the increase of the matching rate are determined as the most suitable. From Table 2, it can be seen that the distance squared value according to the coincidence rate is calculated and the calculated error degree is excluded except for the case removed in the class elimination step. Here, it can be seen that the error value is the smallest as 67414 when the agreement rate is 82%. Therefore, 82% is calculated to be the best match for the initial match of the cases.

Figure 112004020713348-pat00009
Figure 112004020713348-pat00009

일치율 및 k 값 결정단계 이후, 대표 영상 매칭단계(S670)가 선택적으로 수행될 수 있다. 클래스의 대표 영상에 적합한 임플란트를 이용하여 모든 케이스를 스캔함으로써 클래스의 개수를 줄이고 일반적인 대표영상을 만들 수 있다. 스캔을 하는 과정에서 특정지점에서 임플란트가 돌기에 맞지 않으면 중단하고 해당 위치에서 다른 지점으로 위치를 이동하여 다시 비교하는 과정을 반복한다. After the matching rate and the k value determination step, the representative image matching step S670 may be selectively performed. By scanning all cases using an implant suitable for the representative image of the class, the number of classes can be reduced and a general representative image can be made. In the process of scanning, if the implant does not fit into the protrusion at a certain point, it stops and the position is moved to another point at that point and repeated comparison.

비교를 계속하다가 가장 오차가 적은 지점 즉 오차공간이 최소인 지점을 찾아서 기억해 둔다. 이러한 매칭 과정은 케이스(671')와 임플란트 입체를 형상화 한 템플릿(673')에 대한 복셀(voxel)당 비교를 통해 이루어지며, 예를 들면 케이스의 입체는 가로*세로*슬라이스(64*64*10)이고 템플릿(48*48*4)의 크기를 가져 템플릿 이 케이스의 입체에 대해 1복셀씩 이동하면서 전체구간을 비교하게 된다. 이 경우 변이구간은 (x, y, z)=(17, 17, 5)이다.Continue the comparison and find and remember the point with the least error, that is, the point with the least error space. This matching process is achieved by a per-voxel comparison of the template 671 'and the template 673' shaped with the implant geometry, for example, the dimensions of the case are horizontal * vertical * slice (64 * 64 *). 10) and the size of the template (48 * 48 * 4), the template compares the entire section by moving one voxel with respect to the three-dimensional case. In this case, the variation interval is (x, y, z) = (17, 17, 5).

도 11은 본 발명의 일 실시예에 따른 구체적인 대표영상 매칭 과정의 흐름도이고, 도 12은 상기 대표영상 매칭 과정에 대한 예시도이다. 대표영상 매칭 과정은, 임플란트를 만들 때 가장 많은 케이스에 적합한 일반적인 임플란트를 만드는 과정에도 유용하게 사용될 수 있다. 11 is a flowchart illustrating a specific representative image matching process according to an embodiment of the present invention, and FIG. 12 is an exemplary diagram of the representative image matching process. The representative image matching process may be usefully used to make a general implant suitable for the most cases when making an implant.

뿐만 아니라, 매칭과정이 시도되는 목적은 두 가지로 나누어 볼 수 있다. 첫 번째로 임플란트는 기하학적 곡면으로 구성되므로 대표영상의 3 차원적 형태와는 차이가 발생할 수 있다. 매칭과정은 임플란트와 케이스 간의 이러한 오차공간에 대한 정량적 계측을 통하여 임플란트의 개수를 줄이고 형태를 보다 적합하게 개선하는 과정이다. 두 번째로 대표영상은 단일 케이스와는 일치율만큼의 오차가 존재하므로 임플란트의 제작시에는 이러한 오차를 감안하여 약간 큰 치수로 제작하게 되는데 이러한 확장 치수에 대한 검증과정으로 매칭과정이 요구된다.In addition, the purpose of the matching process can be divided into two. First, since the implant is composed of geometric curved surfaces, it may be different from the three-dimensional shape of the representative image. The matching process is a process of reducing the number of implants and improving the shape more appropriately through quantitative measurement of such error space between the implant and the case. Secondly, since the representative image has the same error rate as that of the single case, the implant is manufactured with a slightly larger dimension in consideration of such an error, and a matching process is required as a verification process for such an extended dimension.

일치율 및 k값을 결정하고 난 후 케이스가 제공된다(S671). 케이스는 비교가능한 형태로 제공되는데, 본 실시예는 64*64*10의 입체 형상으로 준비된다.After determining the matching rate and the k value, a case is provided (S671). The case is provided in a comparable form, this embodiment being prepared in three-dimensional form of 64 * 64 * 10.

그 후 상기 대표영상에 적합한 임플란트의 2차원 영상을 제공하는 단계(S672)가 진행된다. 우선, 대표영상에서 척추 돌기의 폭(width), 추간돌기 사이의 거리(interspinous space), 척추 돌기 하단의 각도, 척추돌기의 길이(depth) 등의 치수를 측정하고, 대표영상과의 관계에서 다소 여유있게 여유분을 추가하여 임플란트를 제작한다. 이하, 이러한 임플란트를 대표패턴이라 한다. 또한, 여유분 을 얼만큼 감안했는가에 따라 다수의 대표패턴이 만들어 질 수 있고, 이들의 적합성 여부는 매칭과정을 통해서 판단하게 된다.Thereafter, a step (S672) of providing a 2D image of an implant suitable for the representative image is performed. First, in the representative image, measure the dimensions of the width of the spine, the interspinous space, the angle of the bottom of the spine, and the depth of the spine. Create an implant with extra margin. Hereinafter, such an implant is referred to as a representative pattern. In addition, depending on how much margin is taken into consideration, a number of representative patterns can be made, and their suitability is determined through a matching process.

제공되는 임플란트의 2차원 영상은 매칭 템플릿 및 관심영역을 추출할 수 있는 형태로 제공되는데, 케이스와 같은 형태로 제공되거나, 바람직하게는 64*64*10의 입체형상으로 제공된다. The provided two-dimensional image of the implant is provided in a form that can extract the matching template and the region of interest, it is provided in the form of a case, or preferably provided in a three-dimensional shape of 64 * 64 * 10.

이어서, 상기 2차원 영상에 적합한 매칭 템플릿(matching template)을 제공하는 단계(S673)가 이루어진다. 상기 매칭 템플릿은 대표 패턴의 하단 중심점을 기준으로, 척추 돌기(process)의 존재를 180도에 걸쳐서 템플리트의 바깥영역에서도 템플리트 자체의 영역과 마찬가지로 감지될 수 있도록 하기 위한 과정이다. 그 영역은 48*48*4의 크기를 가진다. 도 12에서와 같이 매칭템플릿(673')은 케이스 영상과의 매칭을 위해서 대표패턴의 2차원 영상에 비해서 좀 더 확장된다. Subsequently, in operation S673, a matching template suitable for the 2D image is provided. The matching template is a process for allowing the presence of a spine process to be detected in the outer region of the template like the region of the template itself over 180 degrees based on the lower center point of the representative pattern. The area has a size of 48 * 48 * 4. As shown in FIG. 12, the matching template 673 ′ is more expanded than the 2D image of the representative pattern for matching with the case image.

그 후 상기 매칭템플릿에서 관심영역(ROI, Region of Interest)을 추출한다(S674). 도 8에서 보면, 매칭템플릿의 일부를 관심영역(674')으로 선택하게 된다. 예를 들어, 매칭 템플릿이 64*64인 경우, 관심영역은 48*48로 결정된다. Thereafter, a region of interest (ROI) is extracted from the matching template (S674). Referring to FIG. 8, a portion of the matching template is selected as the region of interest 674 ′. For example, if the matching template is 64 * 64, the ROI is determined to be 48 * 48.

이는 케이스 영역(64*64)을 관심영역(48*48)이 변이공간(17*17)을 따라 스캔(scan)하도록 하기 위함이다. 관심영역이 결정되면, 비교대상인 케이스 영상과의 구분을 위해서 케이스 영상과 상기 매칭 템플릿의 관심영역에 명암값을 할당한다(S675). 도 13a 및 도 13b를 참고하면 케이스 영상에서 돌기(A)를 0으로, 배경(B)을 255로 나타낸 반면, 매칭 템플릿의 관심영역은 배경(C)을 100으로, 매칭 템플릿(D)을 255로 나타내어 분리하여 처리한다. 다만, 명암값 할당은 구분가능한 다른 명암으로도 가능하므로 실시예에 한정되는 것은 아니며, 처리과정에서 4개의 영역을 구분하기 위해서 사용한다.This is to scan the case region 64 * 64 along the region of interest 48 * 48 along the transition space 17 * 17. When the ROI is determined, a contrast value is allocated to the ROI of the case image and the matching template in order to distinguish it from the case image to be compared (S675). Referring to FIGS. 13A and 13B, the projection A is represented by 0 and the background B is represented by 255 in the case image, whereas the ROI of the matching template has the background C of 100 and the matching template D of 255. Treated separately. However, the contrast value allocation is not limited to the embodiment because it is possible to use other contrasts that can be distinguished, and is used to distinguish four areas in the process.

명암값을 준 상기 매칭 템플릿의 관심영역과 케이스를 매칭하여 오차값을 계산한다(S676). 도 13c을 참고하여 매칭에 대한 결과를 분석하면 다음과 같다. An error value is calculated by matching a region of interest and a case of the matching template given a contrast value (S676). Referring to FIG. 13C, the result of the matching is analyzed as follows.

영역은 크게 4개의 영역으로 분리하였다. 1번 영역은 템플릿만이 존재하는 경우로, 명암값은 (255+255)/2으로 나타나며 처리과정에서는 생략(skip)한다. 2번 영역은 케이스에 템플릿이 겹쳐지는 부분이고 명암값이 (0+255)/2로 나타난다. 이것은 케이스의 돌기가 임플란트보다 커서 템플리트 밖으로 돌출된 부분이므로, 처리과정에서 voxel이 감지되면, 해당 입체는 부적합한 것으로 판단한다. 3번 영역은 케이스의 돌기 부분만 존재하는 영역으로서 명암값은 (0+100)/2로 나타난다. 따라서 이 부분도 처리과정에 영향을 미치지 않으므로 1번 영역과 마찬가지로 생략(skip) 하도록 처리한다. 4번 영역은 두 영상의 배경만이 존재하는 영역으로서 템플릿과 케이스 사이의 오차 공간을 의미한다. 명암값은 (255+100)/2으로 나타나고 오차공간으로 간주되어 voxel의 개수가 누적 처리된다. 4번 영역의 누적값은 오차값으로 계산되어 일치율을 계산하기 위해 사용되었다. 표3은 이를 정리한 결과이다.The area was largely divided into four areas. In area 1, only the template exists. The contrast value is represented as (255 + 255) / 2 and is skipped in the process. Area 2 is where the template overlaps the case and the contrast value is (0 + 255) / 2. This is because the protrusion of the case is larger than the implant and protrudes out of the template, so if the voxel is detected during the process, the stereo is considered inappropriate. Area 3 is the area where only the protruding part of the case exists, and the contrast value is expressed as (0 + 100) / 2. Therefore, this part does not affect the processing, so it is skipped like the first area. Area 4 is an area where only the backgrounds of the two images exist, which means the error space between the template and the case. The intensity value is represented as (255 + 100) / 2 and is considered as an error space so that the number of voxels is accumulated. The cumulative value in area 4 is calculated as an error value and used to calculate the coincidence rate. Table 3 summarizes these results.

구분division 영역domain 케이스case 템플릿template 명암값분포Contrast distribution 처리process 1One 템플릿template -- oo (255+255)/2(255 + 255) / 2 생략skip 22 돌기 +템플릿Protrusion + Template oo oo (0+255)/2(0 + 255) / 2 부적합처리Nonconforming 33 돌기spin oo -- (0+100)/2(0 + 100) / 2 생략skip 44 배경background -- -- (255+100)/2(255 + 100) / 2 오차값 계산Error value calculation

우선 영역의 오차값은 돌기와 임플란트가 맞지 않는 영역으로, 오차값이 클 수록 임플란트와 돌기의 간격이 큰 것을 의미한다. 따라서, 오차값을 줄이는 것이 중요하며, 매칭템플릿을 전체 케이스에 대해서 변이공간에 대해서 스캔(scan)하면서, 모든 오차값을 계산하여 누적오차값을 계산한다. 즉, 하나의 매칭 템플릿은 48*48*4이며, 슬라이스(slice) 4 개의 매칭이 이루어지면, 각 슬라이스의 오차값이 계산되고 이를 누적하여 누적오차값을 계산한다. First, the error value of the region is a region where the protrusion and the implant do not match, and the larger the error value, the larger the gap between the implant and the protrusion. Therefore, it is important to reduce the error value, and the cumulative error value is calculated by calculating all the error values while scanning the matching template with respect to the variation space for the whole case. That is, one matching template is 48 * 48 * 4, and when four slices are matched, an error value of each slice is calculated and accumulated to calculate a cumulative error value.

다음, 도14를 참고하여 설명하면 케이스(1410) 안에서 매칭 템플릿(1420)이 x, y, z 방향으로 변이공간(17*17*5)를 스캔하면서 각 변이공간 상의 위치에서 누적오차값을 구하게 된다. 가로, 세로 및 높이에서 매칭 템플릿과 케이스의 영상이 정확하게 일치(registration)되어 있지 않아도, 매칭 템플릿이 위치할 곳을 감지할 수 있고, 각도가 다른 경우에도 감지할 수 있도록 하기 위해서이다. Next, referring to FIG. 14, in the case 1410, the matching template 1420 scans the displacement space 17 * 17 * 5 in the x, y, and z directions to obtain the cumulative error value at each position of the variation space. do. Even if the images of the matching template and the case are not exactly registered in the horizontal, vertical, and height, the matching template may be detected where the matching template is located and may be detected even when the angle is different.

이와 같은 매칭 과정 및 오차값 계산 과정을 예를 들어 Visual C++로 구현하면 다음과 같다.If the matching process and the error value calculation process are implemented in Visual C ++, for example, they are as follows.

For(Z_range){For (Z_range) {

For(X_range){For (X_range) {

For(Y_range){ For (Y_range) {

if(region_①)if (region_①)

;;

else if(region_②)else if (region_②)

loop exit ;loop exit;

else if(region_③) else if (region_③)

;;

elseelse

error_rate++;error_rate ++;

}}

}}

}}

If(error_rate > threshold)If (error_rate> threshold)

exit;exit;

처음의 for문에 의해 x_range, y_range, z_range만큼의 반복하며, 각각의 영역에 대해 1,3영역인 경우에는 처리를 생략하고, 2영역인 경우에는 루프를 빠져나가게 하며, 4영역인 경우에만 오차값을 누적 계산한다.Repeat for x_range, y_range, z_range by the first for statement, skip processing for 1 and 3 areas for each area, exit the loop for 2 areas, and error only for 4 areas. Accumulate the values.

이런 과정을 통해서 17*17*5개의 누적 오차값이 계산되면, 상기 누적오차값 중에서 최소인 누적오차값을, 상기 대표영상의 임플란트에 대한 상기 케이스의 대표오차값으로 결정한다.When 17 * 17 * 5 cumulative error values are calculated through this process, the cumulative error value which is the minimum among the cumulative error values is determined as the representative error value of the case with respect to the implant of the representative image.

이러한 스캔 과정 및 대표오차값 결정 과정을 각각의 대표영상 및 케이스에 대해서도 반복해야 하며, 되풀이 되는 스캔의 양은 수학식 9에 의해 계산되어 질 수 있다.This scanning process and the representative error value determination process should be repeated for each representative image and case, and the amount of repetitive scans can be calculated by Equation (9).

Figure 112004020713348-pat00010
Figure 112004020713348-pat00010

x_range, y_range, z_range 는 각각 상기 변이공간의 x, y, z 값이고, k는 상기 결정된 클래스의 수 또는 대표영상의 수이며, case는 케이스의 수가 된다. 위와 같은 공식에 의하면, 변이공간이 17*17*5인 하나의 케이스(case)에 대한 하나의 대표영상에 대한 반복 횟수는 17*17*5*1*1=1445회이다. 또한 40개의 대표영상에 대한 100개의 케이스를 처리하기 위해서는 17*17*5*40*100=5,780,000 번의 반복을 하게 된다. x_range, y_range, and z_range are x, y, and z values of the disparity space, respectively, k is the number of the determined class or the number of representative images, and case is the number of cases. According to the above formula, the number of repetitions for one representative image of one case having a variation space of 17 * 17 * 5 is 17 * 17 * 5 * 1 * 1 = 1445 times. In addition, in order to process 100 cases of 40 representative images, 17 * 17 * 5 * 40 * 100 = 5,780,000 repetitions are performed.

반복을 통해서 각각의 클래스의 대표영상에 부합하는 임플란트에 대한 상기 케이스의 대표오차값이 계산되면, 가장 작은 대표오차값을 가지는 클래스에 케이스를 할당한다(S677). 표 4를 보면 케이스 1은 클래스 B에서의 대표오차값이 가장 작기 때문에 클래스 B에 할당되고 있음을 보여주고 있다. 클래스에 할당하는 방법은 상기와 같이 대표오차값을 사용할 수도 있고, 전체 대표오차값에 대한 각 대표오차값의 비율을 통해 대표오차율을 구해서 가장 작은 대표오차율에 배당할 수도 있다. When the representative error value of the case for the implant corresponding to the representative image of each class is calculated through repetition, the case is assigned to the class having the smallest representative error value (S677). Table 4 shows that case 1 is assigned to class B because the representative error value in class B is the smallest. The method of allocating a class may use a representative error value as described above, or obtain a representative error rate through a ratio of each representative error value to the total representative error value and allocate the same to the smallest representative error rate.

(100-대표오차율)% 을 구해서 가장 큰 값에 할당할 수도 있으며, 할당방법에 있어서 파라미터에 제한을 받는 것은 아니다.It is also possible to obtain (100-representative error rate)% and assign it to the largest value, and the assignment method is not limited by parameters.

케이스case 대표영상에 부합하는 임플란트Implant that matches the representative image 대표오차값Representative Error Value 할 당Assignment 케이스1Case 1 클래스 AClass A 6930069300 클래스 BClass B 클래스 BClass B 6780067800 클래스 CClass C 맞지않음Does not fit ...... ...... 클래스 JClass J 7666676666

임플란트를 제작할 때에는 삽입될 추간에 정확하게 맞도록 제작하지 않고 여유분을 감안하게 된다. 따라서, 다른 클래스의 대표영상이라 할지라도 동일한 임플 란트를 사용할 수 있다. 또한, 높은 k값과 일치율 때문에 세부적인 영상의 차이로 다른 클래스로 할당될 가능성도 있다. 따라서, 좀 더 일반적인 임플란트 생산이 필요한 경우에는 대표 영상 매칭을 할 필요가 있고, 사용자의 선택에 따라서 세부적이고 다양한 종류의 임플란트를 생산하고자 할 때에는 대표 영상 매칭 단계를 생략할 수 있다.When making an implant, it is not made to fit exactly into the intervertebral to be inserted, but the allowance is taken into account. Therefore, the same implant can be used even for representative images of different classes. In addition, due to the high k value and the matching rate, there is a possibility to be allocated to another class due to the difference of the detailed image. Therefore, when more general implant production is required, it is necessary to perform representative image matching, and in order to produce detailed and various kinds of implants according to a user's selection, the representative image matching step may be omitted.

표 5는 각 케이스와 클래스의 (100-대표오차율)%를 보여주고 있다. 물론 전술한 바와 같이 대표오차값이나 대표오차율을 통해서 표현할 수 있다. 각 케이스를 각 클래스의 대표영상에 부합하는 임플란트와 매칭하여 나온 결과를 기재한 것으로, 대략적인 일치 빈도를 알 수 있고 거의 일치되지 않는 클래스를 걸러낼 수 있으므로 1차적인 평가항목으로 사용할 수 있다.Table 5 shows the (100-representative error rate)% of each case and class. As described above, it can be expressed through the representative error value or the representative error rate. The results obtained by matching each case with the implant corresponding to the representative image of each class are described. The approximate frequency of matching can be found and the class that can hardly match can be filtered and used as the primary evaluation item.

구 분division 클래스AClass A 클래스BClass B 클래스DClass D 클래스FClass F 클래스HClass H 케이스1Case 1 86.486.4 81.281.2 72.772.7 80.680.6 69.769.7 케이스2Case 2 00 81.981.9 79.479.4 00 82.182.1 케이스3Case 3 00 00 79.979.9 00 77.677.6 케이스4Case 4 00 00 79.579.5 00 77.277.2 케이스5Case 5 00 76.976.9 72.872.8 81.181.1 66.966.9 케이스6Case 6 00 88.188.1 76.776.7 00 78.878.8 케이스7Case 7 88.588.5 9090 82.982.9 00 78.578.5 케이스8Case 8 00 9090 82.982.9 00 78.578.5 케이스9Case 9 77.277.2 61.561.5 51.951.9 59.959.9 47.547.5 케이스10Case 10 00 92.892.8 85.985.9 00 82.582.5 케이스11Case 11 00 8484 73.673.6 00 71.371.3 케이스12Case 12 00 89.389.3 83.183.1 00 77.977.9 케이스13Case 13 8383 78.578.5 68.468.4 00 65.465.4 케이스14Case 14 00 81.581.5 66.266.2 00 68.768.7 케이스15Case 15 00 83.883.8 68.868.8 00 73.473.4 케이스16Case 16 00 00 77.777.7 00 71.771.7 케이스17Case 17 00 93.193.1 87.187.1 00 86.986.9 ...... ...... ...... ...... ...... ...... 케이스95Case 95 00 88.288.2 76.576.5 00 80.680.6

표 6을 참고하면, 클래스별 평균, 할당된 케이스의 수, 최적 결정율을 타내 고 있다. 평균일치율은 상기 표5의 (100-대표오차율)%들의 평균을 구한 것이고, 케이스 수는 각 클래스로 배당된 케이스의 수를 나타낸 것이며, 최적 결정율은 전체 케이스에 대한 케이스 수의 비율을 %로 나타낸 것이다. 예를 들어 클래스 A의 경우 (19/95)*100=20%로 산출된 값이다.Referring to Table 6, the average for each class, the number of assigned cases, and the optimal decision rate are shown. The average match rate is the average of the (100-representative error rate)% of Table 5, the number of cases represents the number of cases allocated to each class, and the optimal decision rate is the ratio of the number of cases to the total cases in%. It is shown. For example, for class A, this is calculated as (19/95) * 100 = 20%.

구 분division 클래스 AClass A 클래스 BClass B 클래스 DClass D 클래스 FClass F 클래스 HClass H 클래스별평균(%)Average by class (%) 13.9413.94 75.9975.99 72.7972.79 12.5112.51 74.8474.84 케이스 수Number of cases 1919 6060 44 1One 1111 최적결정율(%)Optimal Decision Rate (%) 2020 6363 44 1One 1212

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

상기한 바와 같은 척추 영상 클러스터링 방법 및 시스템에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다. According to the spine image clustering method and system as described above has one or more of the following effects.

첫째, 수술 시 부적합의 위험성을 줄일 수 있다.First, the risk of incompatibility during surgery can be reduced.

둘째, 후보 임플란트 중 적합한 임플란트 선택에 따른 수술 시간 지연을 방지할 수 있다.Second, it is possible to prevent surgery time delay due to the selection of a suitable implant among candidate implants.

셋째, 스탠다드 타입을 사용함으로써 생길 수 밖에 없는 오차율을 미리 예측 가능한다. Third, it is possible to predict the error rate inevitably caused by using the standard type.                     

넷째, 보정이 필요한 환자의 경우에도 미리 시물레이션 과정을 통해서 정상상태를 예측하고 수술계획을 수립하는 데 유리하다.Fourth, even for patients who need correction, it is advantageous to predict the steady state and establish the surgical plan through the simulation process in advance.

다섯째, X-ray만으로 판단할 수 없는 3차원적 각도나 오차 공간에 대해서 수술 결과에 대한 판단을 용이하게 해준다.Fifth, it makes it easy to judge the surgical results for three-dimensional angles or error spaces that cannot be determined by X-rays alone.

Claims (8)

(a) 임플란트가 위치할 관심영역을 입력받는 단계;(a) receiving an area of interest in which an implant is to be located; (b) 상기 관심영역에 부합하는 후보 임플란트의 영상을 제공하는 단계;(b) providing an image of a candidate implant corresponding to the ROI; (c) 상기 후보 임플란트 중에서 대표 임플란트를 입력받는 단계; 및(c) receiving a representative implant from among the candidate implants; And (d) 상기 대표 임플란트와 상기 관심영역이 매칭된 결과를 출력하는 단계를 포함하는 임플란트 제작 방법.and (d) outputting a result of matching the representative implant with the region of interest. 제 1항에 있어서, 상기 제 (b)단계는 상부영역 및 하부영역 각각에 대한 후보 패턴 영상을 제공하는 임플란트 제작 방법.The implant manufacturing method of claim 1, wherein the step (b) provides a candidate pattern image for each of the upper region and the lower region. 제 2항에 있어서, 후보 패턴 영상은 우선 순위별로 제공되는 임플란트 제작 방법.The method of claim 2, wherein the candidate pattern image is provided for each priority. 제 3항에 있어서, 후보 패턴 영상은 대표오차값, 대표오차율 및 (100-대표오차율)% 중 적어도 어느 하나와 함께 제공되는 임플란트 제작 방법.The method of claim 3, wherein the candidate pattern image is provided with at least one of a representative error value, a representative error rate, and a (100-representative error rate)%. 제 3항에 있어서, 우선 순위 결정은 대표 오차값, 대표 오차율 및 (100-대표오차율)% 중 적어도 어느 하나를 기준으로 결정되는 임플란트 제작 방법.4. The method of claim 3, wherein prioritization is determined based on at least one of a representative error value, a representative error rate, and (100-representative error rate)%. 제 3항에 있어서, 후보 패턴 영상은The method of claim 3, wherein the candidate pattern image is (b1) 관심 척추 영상을 2진화하여 제공하는 단계;(b1) binarizing and providing a spine image of interest; (b2) 상기 2진화 영상과 대표영상의 2진화 영상의 일치율을 기준으로 클래스에 할당하는 단계;(b2) assigning a class to a class based on a matching ratio between the binarized image and the binarized image of the representative image; (b3) 상기 클래스 중 불필요한 클래스를 제거하는 단계; 및(b3) removing unnecessary classes of the classes; And (b4) 상기 클래스의 대표 영상을 결정하는 단계를 포함하고,(b4) determining a representative image of the class; (b5) 상기 대표영상이 결정된 클래스의 개수를 검토하여 (b2),(b3) 및 (b4)단계를 반복적으로 수행하는 척추 영상 클러스터링 방법을 통해서 결정되는 임플란트 제작 방법.(b5) An implant manufacturing method that is determined through a spine image clustering method of repeatedly performing steps (b2), (b3), and (b4) by examining the number of classes for which the representative image is determined. 제 6항에 있어서, 상기 척추 영상 클러스터링 방법은 상기 대표영상을 매칭 템플릿과 매칭하는 단계를 더 포함하는 임플란트 제작 방법.The method of claim 6, wherein the spine image clustering method further comprises matching the representative image with a matching template. 입력된 영상을 저장하는 제1저장부;A first storage unit which stores an input image; 클래스별 대표영상을 저장하는 제2저장부;A second storage unit which stores a representative image for each class; 상기 입력영상과 상기 클래스별 대표영상의 관심영역을 2진화한 영상을 저장하는 제3저장부;A third storage unit storing the binarized image of the ROI of the input image and the representative image of each class; 새로운 케이스가 클래스에 포함될 경우 해당 클래스의 대표영상을 개정하고, 할당된 클래스의 개수가 지정된 한정개수 미만일 경우 일치율을 변경하는 제어 모듈;A control module for revising the representative image of the corresponding class when the new case is included in the class, and changing the matching rate when the number of allocated classes is less than the specified limit number; 상기 제어 모듈에 의해 결정된 일치율에 따라 케이스를 배당하거나, 새로운 클래스를 생성하는 클래스할당 제어 모듈; 및A class assignment control module for allocating a case or generating a new class according to the matching rate determined by the control module; And 상기 클래스 할당 모듈에 의해 생성된 클래스에 적합한 임플란트를 기초로 하여 새로운 케이스에 적합한 임플란트를 매칭시키는 임플란트 매칭 모듈을 포함하는 임플란트 제작 시스템.And an implant matching module for matching implants suitable for new cases based on implants suitable for classes created by the class assignment module.
KR1020040034917A 2004-05-17 2004-05-17 Method and system for manufacturing implant KR100553390B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040034917A KR100553390B1 (en) 2004-05-17 2004-05-17 Method and system for manufacturing implant

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040034917A KR100553390B1 (en) 2004-05-17 2004-05-17 Method and system for manufacturing implant

Publications (2)

Publication Number Publication Date
KR20050110095A KR20050110095A (en) 2005-11-22
KR100553390B1 true KR100553390B1 (en) 2006-02-20

Family

ID=37285663

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040034917A KR100553390B1 (en) 2004-05-17 2004-05-17 Method and system for manufacturing implant

Country Status (1)

Country Link
KR (1) KR100553390B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101137023B1 (en) * 2010-08-12 2012-04-19 곽지영 Dental proshesis simulation system and method
CN112807110B (en) * 2021-01-28 2022-06-07 广东威力铭科技有限公司 Traceable planting base station based on Internet of things and matched processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030079961A (en) * 2001-02-07 2003-10-10 신테스 아게 츄어 Method for establishing a three-dimensional representation of bone x-ray images
WO2004016182A1 (en) 2002-08-19 2004-02-26 Orthosoft Inc. Graphical user interface for control of implant devices

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030079961A (en) * 2001-02-07 2003-10-10 신테스 아게 츄어 Method for establishing a three-dimensional representation of bone x-ray images
WO2004016182A1 (en) 2002-08-19 2004-02-26 Orthosoft Inc. Graphical user interface for control of implant devices

Also Published As

Publication number Publication date
KR20050110095A (en) 2005-11-22

Similar Documents

Publication Publication Date Title
JP4382092B2 (en) Intervertebral insert
US7756316B2 (en) Method and system for automatic lung segmentation
JP6257092B2 (en) Image processing apparatus and spinal canal evaluation method
US7792339B2 (en) Method and apparatus for intracerebral hemorrhage lesion segmentation
CN112184617B (en) Spine MRI image key point detection method based on deep learning
RU2449371C2 (en) Error adaptive functional imaging
JP2003520658A (en) Method and system for extracting spinal geometric data
US20110002523A1 (en) Method and System of Segmenting CT Scan Data
US20100049035A1 (en) Brain image segmentation from ct data
CN101517614A (en) Advanced computer-aided diagnosis of lung nodules
JP6837376B2 (en) Image processing equipment and methods and programs
Maitra et al. Automated digital mammogram segmentation for detection of abnormal masses using binary homogeneity enhancement algorithm
JPH11312234A (en) Image processing method including segmentation processing of multidimensional image and medical video apparatus
WO2007047059A2 (en) Image processing method for boundary extraction between at least two tissues, the boundary being found as the cost minimum path connecting a start point and an end point using the fast marching algorithm with the cost function decreases the more likely a pixel is not on the boudary
KR101586276B1 (en) Automated Mammographic Density Estimation and Display Method Using Prior Probability Information, System for the Method and Media Storing the Computer Program for the Method
CN111833321B (en) Intracranial hemorrhage detection model with window adjusting optimization enhancement and construction method thereof
US7366334B2 (en) Method of extraction of region of interest, image processing apparatus, and computer product
KR100545060B1 (en) Method and system for clustering bone images
Bräuer et al. Virtual study of the endocranial morphology of the matrix‐filled cranium from Eliye Springs, Kenya
KR100553390B1 (en) Method and system for manufacturing implant
JP5640280B2 (en) Osteoporosis diagnosis support device and osteoporosis diagnosis support program
CN112529918B (en) Method, device and equipment for segmenting brain room area in brain CT image
JP2020181250A (en) Diffuse case image determination program, system, and method
Ilyasova et al. Development of the technique for automatic highlighting ranges of interest in lungs x-ray images
CN114638774B (en) Image data processing method and device and nonvolatile storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130212

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140210

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150202

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee