KR102394321B1 - 뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법 - Google Patents

뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법 Download PDF

Info

Publication number
KR102394321B1
KR102394321B1 KR1020207001130A KR20207001130A KR102394321B1 KR 102394321 B1 KR102394321 B1 KR 102394321B1 KR 1020207001130 A KR1020207001130 A KR 1020207001130A KR 20207001130 A KR20207001130 A KR 20207001130A KR 102394321 B1 KR102394321 B1 KR 102394321B1
Authority
KR
South Korea
Prior art keywords
image
artificial
rib
seed
landmarks
Prior art date
Application number
KR1020207001130A
Other languages
English (en)
Other versions
KR20200019198A (ko
Inventor
피트 카스크
제프 메강크
Original Assignee
퍼킨엘머 셀룰러 테크놀로지스 저머니 게엠베하
퍼킨엘머 헬스 사이언시즈, 아이엔씨.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 퍼킨엘머 셀룰러 테크놀로지스 저머니 게엠베하, 퍼킨엘머 헬스 사이언시즈, 아이엔씨. filed Critical 퍼킨엘머 셀룰러 테크놀로지스 저머니 게엠베하
Publication of KR20200019198A publication Critical patent/KR20200019198A/ko
Application granted granted Critical
Publication of KR102394321B1 publication Critical patent/KR102394321B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • G06T2207/30012Spine; Backbone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

본원에서는, 인공 랜드마크들의 자동화된 생성에 기초하여 하나 이상의 피검체들의 하나 이상의 영상들을 정합하기 위한 시스템들 및 방법들이 제시된다. 인공 랜드마크는 이미징된 영역의 특정 물리적 위치와 연관되는 영상 내의 지점이다. 인공 랜드마크들은 영상 내에 (예컨대, 그래픽적으로) 표현되는, 피검체의 골격의 뼈들을 따라 자동화되고 강인한 방식으로 생성된다. 자동으로 생성된 인공 랜드마크들은 단일 영상의 왜곡을 정정하거나, 일련의 (예컨대, 서로 다른 시점들에서 기록된) 영상들 중 다수의 영상들의 왜곡을 정정하고/하거나 상호-정합하는 데에 사용된다. 본원에 설명된 인공 랜드마크 생성 접근법은 예를 들어, 폐 질환과 같은 질병의 진행을 모니터링하기 위해 사용되는 영상의 분석을 용이하게 한다.

Description

뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법
관련 출원에 대한 교차 참조
본 출원은 "뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법(SYSTEMS AND METHODS FOR AUTOMATED DISTORTION CORRECTION AND/OR CO-REGISTRATION OF THREE-DIMENSIONAL IMAGES USING ARTIFICIAL LANDMARKS ALONG BONES)"라는 발명의 명칭으로 2017년 6월 16일자로 출원된 미국 특허 가출원 제62/520,926호의 우선권을 주장하며, 그 전문이 본원에 참고로 인용된다.
기술분야
본 발명은 일반적으로 영상 분석 방법 및 시스템에 관한 것이다. 보다 구체적으로, 특정 실시예에서, 본 발명은 예를 들어, 컴퓨터 단층촬영(computed tomography, CT) 스캐너로 포착된 하나 이상의 피검체 영상들(예컨대, 피검체의 축상 골격의 부분들을 포함하는 하나 이상의 영상들)의 자동화된 왜곡 정정 및/또는 정합(registration)/상호-정합(co-registration)에 관한 것이다.
작은 포유동물의 생체 내 이미징은 예를 들어 종양학, 감염성 질병, 및 약물 발견 등 다양한 분야에서 검사자들의 대규모 커뮤니티에 의해 수행된다.
포유동물의 생체 내 이미징에 관하여, 예를 들어, 생체발광(bioluminescence), 형광, 단층촬영, 및 다중모드(multimodal) 이미징 기술 등의 광범위한 기술들이 존재한다.
생체 내 이미징은 종종 살아있는 동물 내부의 구조 및/또는 생물학적 현상의 비침습적 시공간적 시각화를 위해, 형광 프로브, 방사선 핵종 등과 같은 마커의 사용을 포함한다. 예를 들어, 형광 분자 단층촬영(fluorescence molecular tomography, FMT)은 투여된 프로브 및/또는 내인성 프로브의 정량적 분석을 위한 포유동물의 생체 내 이미징을 포함한다. 생체 내 마이크로 컴퓨터 단층 촬영(마이크로 CT) 이미징은 고해상도로 조직, 기관, 및 비-유기 구조의 영상을 스캔 및 생성하는 엑스레이 기반 기술이다. 마이크로 CT는, 다중모드 적용을 용이하게 하고 종방향 실험 모델을 가능하게 하기 위해, 저용량 스캐닝 및 빠른 이미징 프로토콜만이 필요할 정도로, 신속하게 발전해왔다. 다중모드 이미징은 예를 들어 FMT, 양전자 단층촬영(positron emission tomography, PET), 자기 공명 영상(magnetic resonance imaging, MRI), CT, 마이크로 CT, 및/또는 단일 광자 단층 촬영(single photon emission computed tomography, SPECT) 영상 데이터를 조합함으로써, 서로 다른 방식으로 얻어진 영상들의 융합을 포함한다.
마이크로 CT 영상들과 같은 영상들의 분석은 종종, 영상들 내의 관심 영역들(예컨대, 특정 뼈들, 조직 타입, 기관들에 대응하는 영역들)을 식별하기 위해 자동화된 영상 처리(예컨대, 다양한 영상 분석 소프트웨어에 의해 수행됨)를 포함한다. 피검체의 단일 영상 내에서 비정상적인 특징들(예컨대, 조직 형태, 종양과 같은 덩어리)의 식별, 및/또는 서로 다른 시간에 기록된 피검체의 여러 영상의 비교에 의한 변화의 식별을 용이하게 하기 위해, 다른 영상 처리가 또한 사용될 수 있다. 특정한 경우에, 서로 다른 피검체들의 영상들의 비교는 또한 비정상적인 특징들의 식별에 유용하고, 영상 처리를 사용하여 용이하게 수행될 수 있다.
서로 다른 시점에 기록된 다수의 영상의 비교를 용이하게 하는 영상 분석 방법은 피검체(예컨대, 마우스(mouse), 랫트(rat), 기니아 피그 또는 토끼와 같은 작은 포유동물)에서 질병 진행을 모니터링하는 것과 특히 관련이 있다. 예를 들어, 종양 성장, 부종 및 섬유증을 포함하는 조직 형태의 변화는 일정 기간에 걸쳐 수집된 다수의 영상들의 분석을 통해 추론될 수 있다. 이러한 방식으로 질병 진행을 모니터링하는 것은 피검체 상태를 진단하고, 치료 효과를 측정하며, 서로 다른 질병의 일반적인 측면을 조사하는 것과 관련된다. 이에 따라 영상 분석을 통한 질병 모니터링은 상태의 진단, 적절한 치료의 적용 및 새로운 치료 절차의 개발에 관한 새로운 통찰력을 제공할 수 있다.
이는 특히, 폐 질환과 같은 진행성 질병의 경우에 사실이다. 폐 질환은 폐에 영향을 주고, 천식과 같은 질병, 인플루엔자 및 폐렴과 같은 감염, 및 폐암을 포함한다. 폐 질환의 진행을 모니터링하는 것은 시간이 지남에 따른 폐의 특성(예컨대, 종양 성장, 부종, 섬유증, 피검체의 흉곽에 대한 폐의 하향 확장)의 변화를 기록하는 것을 포함한다. 컴퓨터 단층촬영(예컨대, 마이크로 CT)과 같은 이미징 기술은 서로 다른 시간에 피검체의 폐를 포함한 피검체의 일 영역의 영상들을 기록하는 데에 사용된다. 이러한 영상을 서로 다른 시점에서 비교하는 것은, 시간에 따라 피검체의 폐의 변화가 관찰될 수 있게 한다.
그러나, 다른 시점에 얻어진 서로 다른 영상들을 비교하는 것은 매우 어렵다. 특히, 하나의 영상으로부터 다음 영상으로의 피검체의 자세 및 위치의 변화는 서로 다른 시점에 기록된 영상들 사이의 변화를 생성한다. 예를 들어, 피검체의 서로 다른 영상 내의 조직(예컨대, 폐 조직, 연결 조직, 뼈)의 그래픽 표현은 주어진 영상의 기록 과정 동안의 피검체의 자세 및 위치에 따라, 영상들 간에 서로 다르게 왜곡, 위치 및/또는 회전될 수 있다. 예를 들어, 도 1은 마우스의 축상 골격의 일련의 그래픽 표현을 도시한다. 이들은 각각의 픽셀의 강도가 제3 차원을 따른 마스크 복셀(voxel)의 평균 강도인, 3D 마스크의 투영도들이다. 각각의 투영도는, 마우스의 위치가 조정되고, 영상이 서로 다른 시간에 기록되기 때문에, 마우스의 특정 영역에 대한 서로 다른 3차원 표현에 대응한다. 도 1에서 명백한 바와 같이, 영상들 사이의 피검체의 자세 및 위치가 모두 변한 결과로서, 이미징된 골격의 왜곡 및 위치는 영상들 간에 서로 다르다. 일정 기간에 걸쳐 기록된 일련의 다수의 영상들의 의미있는 분석 및 비교가 가능하기 위해서는 이러한 변형이 제거되어야 한다.
따라서, 피검체의 다수의 영상들 또는 서로 다른 피검체들의 영상들 간의 왜곡 및 방향 변화의 정정을 포함하는, 정합을 제공하는 시스템 및 방법이 필요하다. 이러한 요구를 다루는 시스템들 및 방법들은, 서로 다른 시점들에 기록되는 피검체의 다수의 영상들의 분석뿐만 아니라, 서로 다른 피검체들의 영상들 간의 비교들도 용이하게 할 것이다. 이러한 분석은 많은 응용, 예를 들어 질병 진행을 모니터링하는 것(예컨대, 폐 질환에 대한 관련성의 모니터링)에 관한 것이다.
본원에서는, 인공 랜드마크들(artificial landmarks)의 자동화된 생성에 기초하여 하나 이상의 피검체들의 하나 이상의 영상들을 정합하기 위한 시스템들 및 방법들이 제시된다. 인공 랜드마크는 이미징된 영역의 특정 물리적 위치와 연관되는 영상 내의 지점이다. 인공 랜드마크들은 영상 내에 표현되는(예컨대, 그래픽적으로), 피검체의 골격의 뼈들을 따라 자동화되고 강인한 방식으로 생성된다. 자동으로 생성된 인공 랜드마크들은 단일 영상의 왜곡을 정정하거나, 일련의 영상들(예컨대, 서로 다른 시점들에서 기록된) 중 다수의 영상들의 왜곡을 정정하고/하거나 상호-정합하는 데에 사용된다. 본원에 설명된 인공 랜드마크 생성 접근법은 예를 들어, 폐 질환과 같은 질병의 진행을 모니터링하기 위해 사용되는 영상의 분석을 용이하게 한다.
예를 들어, 인공적으로 생성된 뼈 랜드마크로부터 유래된 변환은 연조직(예컨대, 폐, 심장 등)을 나타내는 영상의 영역들의 왜곡을 정정하고/하거나 이들을 함께 정합하는 데에 사용될 수 있다. 본원에서 사용되는 바와 같이, "영상 정합(image registration)"은 하나 이상의 영상들의 왜곡 정정 및/또는 다수의 영상들의 상호-정합을 지칭한다. 정합되는 연조직의 그래픽 표현은 골 정합이 수행되는 동일한 영상(들) 내에 있을 수 있거나, 또는 연조직은 (예컨대, 다중-모드 이미징 시스템을 통해) 골 정합에 사용되는 영상들과 동시에 획득되는, 또는 그렇지 않으면, 피검체가 대응하는 골 정합 영상들에서와 동일한 자세로 있는, 서로 다른 영상들 내에 있을 수 있다.
정합(예컨대, 왜곡 정정 및/또는 상호-정합)을 위해 피검체의 뼈를 따른 랜드마크를 사용하는 것은, 연조직(예컨대, 폐, 심장 등)의 형태가 질병에 반응하여 변할 수 있는 반면 피검체의 골격 뼈의 구성은 시간이 지남에 따라 실질적으로 일정하게 유지되기 때문에, 진행성 질병을 모니터링하는 데에 유리하다.
특정 실시예에서, 본원에 설명된 정합을 위한 시스템 및 방법은 피검체의 폐를 포함하는 피검체의 영역을 나타내는 영상들의 분석을 용이하게 하기 위해 적용된다. 이러한 영상은 늑골, 척추 및 흉골과 같은, 피검체의 축상 골격 뼈의 그래픽 표현을 포함한다. 특정 실시예에서, 인공 랜드마크는 영상 내에 표시된 복수의 늑골들의 각각을 따라 자동적으로 생성된다. 특정 실시예에서, 인공 랜드마크는 영상 내에 표시된 흉골을 따라 또한 자동적으로 생성된다.
특정 실시예에서, 단일 영상 내에 표시된 늑골들 및/또는 흉골들을 따른 인공 랜드마크들은, 영상이 기록되었던 동안에 피검체가 위치했던 특정 자세로부터 초래되는(예컨대, 반영되는) 영상에 존재하는 왜곡들을 정정하는 데에 사용된다. 특히, 영상 내의 인공 랜드마크들은 변환[예를 들어, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동, 예컨대, 회전), 아핀 변환, 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예를 들어, 비선형 변환(예컨대, 왜곡 필드의 정규화 또는 평활 외삽, 예컨대, 박막 스플라인, 예컨대, 외삽 연산 및/또는 평활 연산을 포함한 변환); 예를 들어, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하는 데에 사용될 수 있고, 이는 영상에 적용될 때, 피검체의 영역의 대칭적인 표현을 생성한다. 이러한 대칭적이고 표준화된 영상들은 피검체의 자세의 변화를 고려할 필요없이 직접적인 방식으로, 바로 분석되고, 해석되며, 그리고/또는 다른 영상들(예컨대, 이전에 기록된 영상들, 예컨대, 왜곡이 유사하게 정정되었던 이전에 기록된 영상들)과 비교될 수 있다.
특정 실시예에서, 인공 랜드마크들은 일련의 영상들(예컨대, 서로 다른 시점에 기록된 영상들) 중 다수의 영상을 피검체의 일 영역에 대해 상호-정합하는 데에 사용된다. 특히, 특정 실시예에서, 이미징된 영역의 특정 물리적 위치들과의 연관 덕분에, 영상들을 동시에 정합하는 변환을 결정하는 데에 서로 다른 영상들의 인공 랜드마크들이 사용될 수 있다(예컨대, 복수의 영상들을 서로 정렬시킴) 특정 실시예에서, 다른 영상들이 정렬될 기준이 되는, 영상들의 세트의 기준 영상이 선택된다(예컨대, n개의 영상들에 대해, 각각의 n-1개의 영상들은 상기 n개의 영상들의 선택된 기준 영상과 상호-정합되도록 변환될 수 있다) 특정 실시예에서, 영상들의 세트의 각각의 영상이 정렬되는 기준 영상은, 영상들의 세트로부터 선택되지 않으며, 대신에 예를 들어, 미리 정의된 표준 기준 영상이다.
특정 실시예에서, 인공 랜드마크는 피검체의 일 영역의 일련의 영상들 중 다수의 영상들을 정정하고 상호-정합하는 데에 사용된다. 특히, 일련의 영상들의 각각의 영상에 대해, 영상의 인공 랜드마크들은 (i) (예컨대, 피검체의 자세 변형들에 기인하는) 영상의 왜곡을 정정하고, 그리고 (ii) 해당 영상을 상기 일련의 영상들의 나머지 영상들과 정렬하는, 변환을 결정하는 데에 사용된다. 따라서, 각각의 영상에 대해, 결정된 변환의 적용은 일련의 영상들의 나머지 영상들과 상호-정합되는 대칭 영상을 산출한다.
특히, 특정 실시예에서, 영상 정합(예컨대, 하나 이상의 영상들에서의 왜곡을 정정하는 것, 및/또는 다수의 영상들을 상호-정합하는 것)은, 하나 이상의 영상들의 각각의 영상에 대해, 해당 영상에 적용될 때, 목표 랜드마크들의 세트를 이용하여 영상 내의 인공 랜드마크들의 세트의 정렬을 실질적으로 최적화하는 변환을 결정함으로써 달성된다.
목표 랜드마크의 위치에 따라, 목표 랜드마크와 함께 영상 내의 인공 랜드마크를 정렬하는 상기 결정된 변환은 영상에서의 왜곡을 정정할 수 있고(예컨대, 영상의 대칭을 산출함) 그리고/또는 영상을 하나 이상의 서로 다른 영상과 상호-정합할 수 있다.
예를 들어, 특정 실시예에서는, 대칭인 목표 랜드마크가 영상 정합에 사용된다. 주어진 영상을 정합하기 위해, 변환은 영상 내의 인공 랜드마크 및 목표 랜드마크들의 대칭 세트를 사용하여 결정된다. 결정된 변환은 영상에 적용되어, 영상의 대칭을 생성할 수 있고, 이에 의해 왜곡을 정정할 수 있다. 특정 실시예에서, 다수의 영상들의 정합을 위해 목표 랜드마크들의 단일 세트가 사용되고, 이에 의해 영상들의 상호-정합을 제공한다. 이러한 정합은 단일 피검체의 다수의 영상들(예컨대, 서로 다른 시점에서 수집됨) 또는 다수의 피검체들의 다수의 영상들에 대해 수행될 수 있다. 다수의 영상들의 정합에 사용되는 목표 랜드마크들의 단일 세트가 대칭인 경우, 왜곡 정정 및 상호-정합이 모두 달성된다.
특정 실시예에서, 특정 영상의 정합에 사용되는 목표 랜드마크는 특정 영상 내의 인공 랜드마크로부터 도출된다. 예를 들어, 단일 영상에서 왜곡을 정정하는 단계는, 영상 내의 인공 랜드마크로부터 목표 랜드마크들의 대칭 세트를 결정하는 단계, 및 목표 랜드마크들의 세트를 이용하여 영상 내의 인공 랜드마크들의 세트의 정렬을 최적화하는 변환을 결정하는 단계를 포함한다. 결정된 변환은 영상에 적용되어, 대칭 영상을 생성한다.
특정 실시예에서, 제2 영상을 정합하는 데에 사용되는 목표 랜드마크는 제1 영상의 인공 랜드마크로부터 획득된다. 예를 들어, 제2 영상을 제1 영상과 상호-정합하기 위해, 제1 영상의 인공 랜드마크가 제2 영상의 정합을 위한 목표 랜드마크로서 사용될 수 있다. 따라서, 제2 영상 내의 인공 랜드마크를 목표 랜드마크(제1 영상의 인공 랜드마크)와 정렬하는 변환을 결정하는 것과, 제2 영상에 상기 변환을 적용하는 것은 제2 영상을 제1 영상에 상호-정합시킨다.
특정 실시예에서, 전술한 바와 같이, 제1 영상의 왜곡 정정(예컨대, 대칭화)을 제공하기 위해 목표 랜드마크들이 제1 영상으로부터 결정된다. 목표 랜드마크들의 세트는 하나 이상의 다른 영상들의 왜곡 정정 및 정합뿐만 아니라, 제1 영상의 왜곡 정정 및 정합에 사용될 수 있다.
특정 실시예에서, 본원에 설명된 접근법들은 단일 피검체의 다수의 영상들의 왜곡 정정 및/또는 상호-정합을 위해 사용된다. 특정 실시예에서, 본원에 설명된 접근법들은 서로 다른 피검체들의 영상들의 왜곡 정정 및/또는 상호-정합을 위해 사용된다.
본원에 설명된 인공 랜드마크 생성 접근법의 이점은, 영상들 내의 특정한 뼈들의 표현의 (예컨대, 분할을 이용한) 자동 식별의 오류들 및 영상 품질의 변형들로부터 초래되는 결함들(artifacts)과 같은, 결함들에 대해 강인하다(robust)는 점이다. 특히, 특정 실시예에서, 인공 랜드마크는, 영상들(예컨대, 거리 구간 마스크들, 예컨대, 논리적 AND 연산들의 생성)에 자동으로 적용되는 형태학적 및 논리적 영상 처리 연산들에 의해서, 뼈들을 따라 생성된 인공 객체들(예컨대, 각각의 인공 객체는 대응하는 인공 객체의 질량 중심으로 결정됨)로부터 결정된다. 따라서, 특정한 뼈, 관절 등과 같은 자연적으로 발생하는 객체들과는 대조적으로, 인공 객체들은 일련의 특정한 형태학적 및 논리적 영상 처리 연산들을 통해 영상 내에 가상으로 생성된 실제 뼈들의 부분들에 대응한다.
놀라운 결과는, 본원에서 설명되는 바와 같은 인공 객체들의 생성이 자연적인 객체들의 식별보다 영상 품질의 변화에 대해 더 강인하고 내성이 있다는 점이다. 자동화된 분할을 통한 영상 내의 특정한 뼈, 관절 등의 식별은, 보다 낮은 품질의 영상과 같은 특정 영상에서 분할 오류가 발생하기 쉽다. 분할 오류 정정은 사용자의 도움과 같은 상호작용으로 수행될 수 있지만, 이는 매우 지루한 과정이고, 시계열 내의 여러 영상들 중 각각의 영상에 대해 수십 개의 분할 오류가 존재하는 경우, 특히 매우 지루할 수 있다.
특정 실시예에서, 본원에 설명된 방법 및 시스템을 통한 인공 객체들의 생성은 광범위한 영상 분할에 대한 필요성을 제거한다. 예를 들어, 보다 어렵고 오류가 발생하기 쉬운, 개별 늑골들의 별도의 식별이 필요없이, 본원에 설명된 접근법을 통해 영상 내의 늑골을 따라 인공 객체가 생성될 수 있다. 따라서, 인공 객체들(및 그 뒤, 인공 객체들로부터 생성된 인공 랜드마크들)은 사용자 상호작용 없이 완전히 자동화된 방식으로 생성된다. 인공 객체와, 그로부터, 영상 정합에 사용하기 위한 인공 랜드마크를 생성하는 프로세스는 특정한 뼈들의 자동화된 식별에 있어서의 오류들, 영상 결함들에 대해 강인하고, 그리고 자연적인 객체들의 정확한 식별을 필요로 하는 접근법들보다 더 낮은 품질의 영상들과 함께 사용될 수 있다.
부가적으로, 예를 들어, 특정 관절들 및 모든 뼈들과 같은 자연적인 객체들과 달리, 인공 객체들의 개수 및 밀도와, 그에 따라, 그들로부터 파생된 랜드마크들은 자유롭게 선택될 수 있다. 영상에서 인공 객체들의 개수 및 밀도를 제어하는 능력은 영상 정합을 위한 변환을 결정하는 데에 유리하다.
특정 실시예에서, 영상들의 정확한 정합을 보장하기 위해, 본원에 설명된 시스템들 및 방법들은, 생성된 인공 랜드마크들(및/또는 인공 객체들)이 정확하게 식별되는 것(예컨대, 주어진 인공 랜드마크(또는 인공 객체)와 특정한 물리적 위치 사이의 대응이 정확하게 식별되는 것(예컨대, 인덱스 값들의 할당을 통해))을 보장하기 위한 단계들을 포함한다. 예를 들어, 특정 경우에, 인공 랜드마크들(및/또는 인공 객체들)의 정확한 식별은, 생성된 시드(seed) 인공 객체들 중에 원치 않는 결함들이 존재하지 않음을 보장하고, 유사하게는, 시드 인공 객체(seed artificial object)로부터 생성된 후속 인공 객체들 중에 원치 않는 결함들이 존재하지 않는다는 것을 보장한다. 부가적으로, 인공 랜드마크들 및/또는 인공 객체들의 정확한 식별은, 왜곡 정정을 위한 대칭적 목표 랜드마크들의 세트를 결정할 때, 반대되는 늑골 파트너 랜드마크들의 쌍들이 적절하게 식별되는 것을 보장한다. 마지막으로, 인공 랜드마크들 및/또는 인공 객체들의 정확한 식별은, 인공 랜드마크들이 영상 정합 변환들을 결정하기 위한 파트너 목표 랜드마크들과 정확하게 매치되는 것을 보장한다.
따라서, 특정 실시예에서, 인공 랜드마크들(및/또는 인공 객체들)은 생성 프로세스 동안에 (예컨대, 다양한 인덱스 값들의 할당을 통해) 식별되고, 인공 랜드마크가 영상 정합을 위해 사용될 때 후속 단계들에서 식별의 정확도가 체크될 수 있다. 예를 들어, 영상 내의 인공 랜드마크를 영상 정합을 위한 목표 랜드마크들에 매칭할 때뿐만 아니라, 목표 랜드마크의 생성을 위한, 반대되는 늑골 인공 랜드마크들의 쌍들을 결정할 때, 식별의 정확도가 체크될 수 있다. 특정 실시예에서, 식별 오류들이 발견되면, 잘못 식별된 인공 랜드마크들(및/또는 인공 객체들)은 영상 내의 인공 객체들(및/또는 인공 랜드마크들)의 세트로부터 제거되고, 영상 정합에 사용되지 않는다.
특정 실시예에서, 인공 랜드마크들이 인공 객체들로부터 생성되는 정확도 및 강인함은, 특정 기준을 따르지 않는 인공 객체들(및/또는 그러한 인공 객체들로부터 결정되는 인공 랜드마크들)을 제거하는 데에 적용되는 아웃라이어(outlier) 필터링 단계를 통해 더 개선된다. 예를 들어, 인공 객체들은, 예컨대, 영상 내의 노이즈 및 작은 결함들로부터 기인하는 매우 작은 인공 객체들을 제거하기 위해 부피에 기초하여 필터링될 수 있다. 특정 실시예에서, 아웃라이어 필터링에 사용되는 기준은 피검체의 흉곽이 실질적으로 대칭인 사실과 같이, 이미징되는 피검체의 영역에 대한 물리적 직관에 기초한다. 이러한 아웃라이어 필터링 접근법들은 인공 랜드마크들이 생성 프로세스 동안 최소의 사용자 상호작용으로(예컨대, 어떠한 사용자 상호작용도 없이) 정확하게 생성될 수 있게 한다.
따라서, 본원에 설명된 시스템 및 방법은, 인공 랜드마크들의 자동화된 생성에 기초하여 피검체 또는 피검체들의 3D 영상들의 정합(예컨대, 왜곡 정정 및/또는 상호-정합)을 위한 접근법을 제공함으로써, 피검체의 단층촬영 영상들의 비교를 통한 피검체의 질병 진행의 분석을 용이하게 한다. 본원에 설명된 접근법은 흉곽, 척추 및 흉골을 포함하는, 피검체의 축상 골격의 뼈들을 특징으로 하는 영상들에 관련된다. 본원에 설명된 시스템 및 방법은, 왜곡 정정 및 영상 상호-정합을 위한 강인하고 자동화된 접근법을 제공함으로써, 특히 폐 질환에 관련된 질병 진행을 모니터링하기 위한 능력을 개선시킨다.
일 측면에서, 본 발명은 피검체의 하나 이상의 3D 영상들의 정합을 위한 방법에 관한 것이고, 상기 방법은, (a) 컴퓨팅 장치의 프로세서에 의해, 늑골들 및 척추의 그래픽 표현을 포함하는 피검체의 3D 영상(예컨대, 단층촬영 영상, 예컨대, CT, 마이크로-CT, SPECT, 엑스레이, MRI, 초음파, 및/또는 이들의 임의의 조합을 통해 획득된 영상)을 수신하는 단계; (b) 상기 프로세서에 의해, 상기 그래픽 표현에서, [{예컨대, 골 마스크가 결정되고, 이에 후속하여, 식별된 골 조직이, 식별된 척추에 대응하는 제1 부분 및 식별된 늑골들에 대응하는 제2 부분으로 구분되는 것에 의해}, {예컨대, 골 마스크가 결정되고, 이에 후속하여, 식별된 골 조직이, 식별된 척추에 대응하는 제1 부분 및 식별된 흉곽 뼈들(예컨대, 늑골들 및 흉골을 함께 포함)에 대응하는 제2 부분으로 구분되는 것에 의해, 선택적으로는, 이에 후속하여, 식별된 흉곽 뼈들이, 식별된 흉골 및 나머지 뼈들(즉, 늑골들)에 대응하는 부분으로 구분되는 것에 의해}] (i) 척추와, (ii) 늑골들을 포함한 흉곽 뼈들을 식별[예를 들어, (예컨대, 분할을 통해) 자동으로; 예를 들어, 사용자 상호작용을 통해, 예를 들어, 그래픽적으로 구분]하는 단계; (c) 상기 프로세서에 의해, 각각의 시드 늑골 인공 객체가 상기 그래픽 표현의 상기 척추로부터의 제1 거리 구간 내에 있고(예컨대, (i) 상기 시드 늑골 인공 객체의 각각의 지점에 대해, 상기 지점으로부터 상기 식별된 척추의 일 표면까지의 최단 거리가 상기 제1 거리 구간 내에 있음; 예컨대, (ii) 상기 시드 늑골 인공 객체의 각각의 지점에 대해, 상기 지점으로부터 상기 식별된 척추의 중심선까지의 최단 거리가 상기 제1 거리 구간 내에 있음) 상기 그래픽 표현의 어느 늑골의 일 영역에 대응하는(예컨대, 각각의 시드 늑골 인공 객체에는 좌측-우측 인덱스 및 늑골 번호 인덱스가 할당됨), 복수의 시드 늑골 인공 객체들을 자동으로 생성하는 단계; (d) 상기 프로세서에 의해, 각각의 자동으로 생성된 시드 늑골 인공 객체에 대해, 연관된 복수의 후속 늑골 인공 객체들을 자동으로 생성하여, 영상 내에 인공 객체들의 세트를 생성하는 단계(예컨대, 상기 세트는 상기 시드 및 후속 늑골 인공 객체들을 포함함); (e) 상기 프로세서에 의해, 상기 영상 내의 상기 인공 객체들의 세트를 이용하여(예컨대, 각각의 랜드마크가 상기 영상 내의 대응하는 인공 객체에 기초하여 결정되는, 인공 랜드마크들의 세트를 이용하여, 예컨대, 상기 인공 랜드마크들의 세트의 각각의 인공 랜드마크는 상기 인공 객체들의 세트의 각각의 인공 객체의 질량 중심으로서 계산됨) 상기 피검체의 하나 이상의 영상들의 정합을 자동으로 수행하는 단계를 포함한다.
특정 실시예에서, 척추 및 늑골들을 식별하는 단계는 그래픽 표현에서 특정한 뼈들을 식별하기 위해 하나 이상의 골 마스크들의 세트를 결정하는 단계를 포함한다. 예를 들어, 골 마스크들의 세트를 결정하는 단계는 예를 들어, 그래픽 표현 내의 모든 뼈들을 식별하는 제1 단계, 척추를 식별하는 제2 단계, 및 늑골들을 포함하는 (미식별된) 흉곽 뼈들을 식별하는 제3 단계를 포함하는, 여러 단계들로 수행될 수 있다. 특정 실시예에서, 식별된 흉곽 뼈들은 흉골과 함께 늑골들을 포함한다. 특정 실시예에서, 식별된 흉곽 뼈들을 (i) 식별된 흉골과 (ii) 식별된 늑골들에 대응하는 나머지 뼈들로 구분하는 제4 단계가 수행된다. 특정 실시예에서, 흉골 및 늑골들을 개별적으로 식별할 필요는 없으며, 식별된 흉곽 뼈들은 흉골과 함께 늑골들의 미식별된 집합에 대응한다. 특정 실시예에서, 흉골 및 늑골들은 개별적으로 식별되고, 식별된 흉곽 골들 상에서 그리고/또는 식별된 흉곽 골들에 대응하는 마스크 상에서 수행되는 것과 같은 본원에 설명된 연산들은, 식별된 늑골들 상에서 그리고/또는 식별된 늑골들에 대응하는 마스크 상에서 수행된다. 특정 실시예에서, 개개의 늑골들을 개별적으로 식별할 필요는 없지만(비록 다른 실시예에서는 이렇게 수행될 수 있음에도 불구하고), 오히려, 늑골들의 미식별된 집합이 식별된다.
특정 실시예에서, 복수의 시드 늑골 인공 객체들을 자동으로 생성하는 단계는, 3차원의 복수의 지점들 각각에서의 강도(예컨대, 숫자) 값들을 포함하는 척추 거리 맵을 결정하는 단계 - 척추 거리 맵의 강도 값들 각각은 3D 공간의 주어진 지점으로부터 그래픽 표현의 식별된 척추까지의 거리(예컨대, (i) 주어진 지점으로부터 식별된 척추의 특정 지점까지의 최단 거리; 예컨대, (ii) 주어진 지점으로부터 식별된 척추의 중심선까지의 최단 거리)에 대응함 - ; 상기 프로세서에 의해, 식별된 척추로부터 제1 거리 구간 내에 있는 영상의 영역들에 대응하는 척추 거리 구간 마스크를 척추 거리 맵으로부터 생성하는 단계(예컨대, 거리 구간 마스크는 이진 마스크이고, 식별된 척추까지 어느 거리 구간 내의 거리를 갖는 지점들에는 제1 값(예컨대, 숫자 1, 예컨대, 부울(Boolean) 참)이 할당되고, 다른 지점들에는 제2 값(예컨대, 숫자 0, 예컨대, 부울 거짓)이 할당됨); 그리고, 상기 프로세서에 의해, 척추 거리 구간 마스크와 식별된 흉곽 뼈들에 대응하는 마스크(예컨대, 식별된 늑골들; 예컨대, 흉곽 뼈들 마스크, 예컨대, 늑골들 마스크) 사이에 AND 연산(예컨대, 지점별 AND 연산)을 적용하고, 그에 의해 식별된 척추로부터 제1 거리 구간 내에 있는 식별된 흉곽 뼈들의 복수의 영역들을 식별하는 단계를 포함한다.
특정 실시예에서, 단계 (c)는 복수의 시드 늑골 인공 객체들 각각에 대해, 시드 늑골 인공 객체를 (i) 좌측-우측 인덱스(예컨대, 시드 늑골 인공 객체의 하나 이상의 지점으로부터 결정된 x-좌표에 기초함) 및 (ii) 늑골 번호 인덱스(예컨대, 시드 늑골 인공 객체의 하나 이상의 지점으로부터 결정된 z-좌표에 기초함)와 연관시키는 단계를 포함한다.
특정 실시예들에서, 시드 늑골 인공 객체를 좌측-우측 인덱스와 연관시키는 단계는, 예비적 단계로서 예비적 회전 및 병진이동 변환을 적용하는 단계; 및 그 뒤, 상기 좌측-우측 인덱스를 결정(예컨대, 시드 늑골 인공 객체의 하나 이상의 지점들로부터 결정된 x-좌표에 기초함)하는 단계를 포함한다. 특정 실시예에서, 예비적 회전 및 병진이동 변환은 그래픽 표현에서 식별된 척추의 주요 축들 및/또는 식별된 흉골의 주요 축들을 사용하여 결정된다.
특정 실시예에서, 자동으로 생성된 각각의 시드 늑골 인공 객체에 대하여, 연관되는 복수의 후속하는 늑골 인공 객체들은 늑골 인공 객체들의 등거리 사슬(chain)을 포함한다.
특정 실시예에서, 3D 영상은 늑골들, 척추 및 흉골의 그래픽 표현을 포함하고, 각각의 늑골 인공 객체는 그래픽 표현의 식별된 흉골로부터 적어도 하나의 미리 정의된 제1 임계 거리에 있다(예컨대, 각각의 늑골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 식별된 흉골까지의 최단 거리가 적어도 제1 임계 거리임, 예컨대, 각각의 늑골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 식별된 흉골의 중심선까지의 최단 거리가 적어도 제1 임계 거리임)
특정 실시예에서, 상기 방법은, 그래픽 표현의 제1 및 제2 늑골 사이의 거리가 미리 정의된 제2 임계 거리 미만인 영역들에 대응하는, 영상의 하나 이상의 위험 영역들을, 상기 프로세서에 의해, 자동으로 식별하는 단계(예컨대, 하나 이상의 형태학적 연산(예컨대, 형태학적 폐쇄 연산을 포함) 및 하나 이상의 논리 연산을 식별된 흉곽 뼈들에 대응하는 마스크에 적용함으로써, 영상의 하나 이상의 위험 영역들을 자동으로 식별함)를 포함하고, 상기 방법은, 각각의 생성된 늑골 인공 객체가 영상 내의 임의의 식별된 위험 영역들로부터 충분히 멀리 있음(예컨대, 가장 가까운 식별된 위험 영역으로부터 적어도 미리 정의된 제3 임계 거리에 있음, 예컨대, 각각의 늑골 인공 객체의 각각의 지점에 대해 해당 지점으로부터 식별된 위험 영역까지의 최단 거리가 적어도 제3 임계 거리에 있음)을 보장하는 단계를 포함한다.
특정 실시예에서, 각각의 시드 늑골 인공 객체와 연관된 복수의 후속하는 늑골 인공 객체들을 상기 프로세서에 의해 자동으로 생성하는 단계는, 각각의 시드 늑골 인공 객체로부터 시작하여 단계적 방식으로, 새로운 후속된 늑골 인공 객체들을 생성함 - 각각의 새로 생성된 늑골 인공 객체는 늑골을 따라, 식별된 척추로부터 멀리 외측으로(이전에 생성된 늑골 인공 객체로부터 미리 정의된 거리로) 진행함 - 으로써, 늑골을 따르는 늑골 인공 객체들의 사슬을 생성하는 단계를 포함한다.
특정 실시예에서, 3D 영상은 복수의 늑골들, 척추, 및 흉골의 그래픽 표현을 포함하고, 각각의 시드 늑골 인공 객체와 관련된 인공 늑골의 사슬을 생성하는 단계는, 늑골 인공 객체들의 사슬 중 적어도 하나의 새로 생성된 늑골 인공 객체에 대해, 새로 생성된 늑골 인공 객체가 그래픽 표현의 식별된 흉골로부터 미리 결정된 제1 임계 거리 내에 있는지를 판단하는 단계; 및 새로 생성된 늑골 인공 객체가 식별된 흉골로부터 미리 결정된 제1 임계 거리 내에 있다고 판단하는 것에 응답하여, 각각의 시드 늑골 인공 객체와 연관된 후속의 인공 객체들의 생성을 종료시키는 단계를 포함한다.
특정 실시예에서, 상기 방법은, 그래픽 표현 내의 제1 및 제2 늑골 사이의 거리가 미리 정의된 제2 임계 거리 미만인 영역들에 대응하는 영상의 하나 이상의 위험 영역들을 상기 프로세서에 의해 식별하는 단계를 포함하고, 각각의 시드 늑골 인공 객체와 연관된 늑골 인공 객체들의 사슬을 생성하는 단계는, 늑골 인공 객체들의 사슬의 적어도 하나의 새로 생성된 늑골 인공 객체에 대해, 새로 생성된 늑골 인공 객체가 영상의 식별된 위험 영역으로부터 미리 결정된 제3 임계 거리 내에 있는지 판단하는 단계; 및 새로 생성된 늑골 인공 객체가 영상의 식별된 위험 영역으로부터 미리 결정된 제3 임계 거리 내에 있다고 판단하는 것에 응답하여, 각각의 시드 늑골 인공 객체와 관련된 후속하는 늑골 인공 객체들의 생성을 종료시키는 단계를 포함한다.
특정 실시예에서, 하나 이상의 위험 영역들을 자동으로 식별하는 단계는, 식별된 흉곽 뼈들에 대응하는 마스크에 대해 하나 이상의 형태학적 폐쇄 연산을 적용하는 단계를 포함한다.
특정 실시예에서, 3D 영상은 피검체의 흉골의 적어도 일 부분의 그래픽 표현을 포함하는데, 상기 일 부분은 흉골의 하단부(예컨대, 꼬리뼈 쪽 단부)를 포함하고, 상기 방법은, 다음의 단계들에 의해 흉골을 따르는 일련의 인공 객체들을 상기 프로세서에 의해 자동으로 생성하는 단계를 포함한다: (f) 상기 프로세서에 의해, 그래픽 표현에서 흉골[{예컨대, 골 마스크를 결정하고, 이어서, 식별된 골들을 척추, 흉골 및 나머지 뼈들(즉, 늑골들)로 구분함으로써}, {예컨대, 골 마스크를 결정하고, 이어서, 식별된 골 조직을 식별된 척추에 대응하는 제1 부분 및 식별된 흉곽 뼈들(흉골과 함께 늑골들을 포함)에 대응하는 제2 부분으로 구분하며, 이어서, 식별된 흉곽 뼈들을 식별된 흉골 및 나머지 뼈들(즉, 늑골들)에 대응하는 부분으로 구분함으로써}] 및 흉골의 하단부(예컨대, 상기 식별된 흉골에 대응하는 흉골 마스크의 최소 z-좌표를 판단함으로써)를 식별[예를 들어 (예컨대, 분할을 통해) 자동으로, 예를 들어 사용자 상호작용을 통해, 그래픽적으로 구분]하는 단계; (g) 흉골의 하단부로부터 제2 거리 구간 내에 있는 식별된 흉골의 일 영역에 대응하는 시드 흉골 인공 객체를 상기 프로세서에 의해 자동으로 생성하는 단계(예컨대, (i) 시드 흉골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 흉골의 식별된 하단부의 어느 표면까지의 최단 거리는 제2 거리 구간 내에 있음; 예컨대, (ii) 시드 흉골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 흉골의 식별된 하단부에 대응하는 지점까지의 거리(예컨대, 유클리드 거리, 예컨대, 특정 좌표(예컨대, z-좌표)를 따른 거리)는 상기 제2 거리 구간 내에 있음); 및 (h) 시드 흉골 인공 객체로 시작하여, 식별된 흉골을 따른 복수의 연관된 흉골 인공 객체들을 상기 프로세서에 의해 자동으로 생성하는 단계 - 복수의 흉골 인공 객체들은 영상 내의 인공 객체들의 세트 안에 포함됨(예컨대, 그에 의해, 인공 객체들의 세트의 생성은 생성된 흉골 인공 객체들을 더 포함함) -.
특정 실시예에서, 상기 프로세서에 의해 시드 흉골 인공 객체를 자동으로 생성하는 단계는, 3차원의 복수의 지점들 각각에서의 강도(예컨대, 숫자) 값들을 포함한 흉골 하단부 거리 맵을 결정하는 단계 - 흉골 하단부 거리 맵의 강도 값들 각각은 3차원 공간의 임의의 주어진 지점으로부터 그래픽 표현의 식별된 흉골의 하단부까지의 거리[예컨대, (i) 주어진 지점으로부터 식별된 흉골의 하단부의 어느 표면까지의 최단 거리; 예컨대, (ii) 주어진 지점으로부터 식별된 흉골의 하단부에 대응하는 지점까지의 거리(예컨대, 유클리드 거리, 예컨대 특정 좌표(예컨대, z-좌표)를 따르는 거리)]에 대응함 - ; 상기 프로세서에 의해, 흉골 하단부 거리 맵으로부터 흉골 하단부 거리 구간 마스크를 생성하는 단계 - 흉골 하단부 거리 구간 마스크는 흉골의 하단부로부터 제2 거리 구간 내에 있는 영상의 영역들에 대응함(예컨대, 흉골 하단부 거리 구간 마스크는 이진 마스크이고, 미리 정의된 거리 구간(예컨대, 제2 거리 구간) 내에서 흉골의 하단부까지의 거리를 갖는 지점들에는 제1 값(예컨대, 숫자 1, 예컨대, 부울 참)이 할당되고, 나머지 지점들에는 제2 값(에컨대, 숫자 0, 예컨대, 부울 거짓)이 할당됨) - ; 및 상기 프로세서에 의해, 흉골 하단부 거리 구간 마스크와 식별된 흉골에 대응하는 마스크 사이에 AND 연산을 적용하고, 이에 의해, 흉골의 하단부로부터 제2 거리 구간 내에 있는 식별된 흉골의 영역을 식별하는 단계를 포함한다.
특정 실시예에서, 복수의 흉골 인공 객체들은 흉골을 따르는 흉골 인공 객체들의 등거리 사슬을 포함한다.
특정 실시예에서, 복수의 흉골 인공 객체들을 자동으로 생성하는 단계는, 시드 흉골 인공 객체로부터 시작하여 단계적 방식으로, 후속하는 새로운 흉골 인공 객체들을 생성함 - 각각의 새로 생성된 흉골 인공 객체는 식별된 흉골의 하단부로부터 멀어지게 위쪽으로(예컨대, 이전에 생성된 흉골 인공 객체로부터 미리 정의된 거리로) 진행함 - 으로써, 흉골 인공 객체의 사슬을 생성하는 단계를 포함한다.
특정 실시예에서, 그래픽 표현 내의 흉골의 상기 부분은 흉골의 상단부를 포함하고, 상기 방법은, 상기 프로세서에 의해, 그래픽 표현에서 흉골의 상단부를 식별하는 단계; 및 다음의 단계들을 포함하는 흉골 인공 객체들의 사슬을 생성하는 단계 - 적어도 하나의 새로 생성된 흉골 인공 객체에 대해: 새로 생성된 흉골 인공 객체가 식별된 흉골의 상단부로부터 미리 결정된 임계 거리에 도달하거나 또는 그 안에 있는지 판단하는 단계; 및 새로 생성된 흉골 인공 객체가 식별된 흉골의 상단부로부터 미리 결정된 임계 거리에 도달하거나 또는 그 안에 있는지 판단하는 것에 응답하여, 후속하는 흉골 인공 객체들의 생성을 종료시키는 단계를 포함한다.
특정 실시예에서, 상기 영상 내의 인공 객체들의 세트의 각각의 자동으로 생성된 인공 객체(예컨대, 각각의 늑골 인공 객체 및/또는 각각의 흉골 인공 객체)는 적어도 미리 정의된 임계 부피를 갖는 것으로 확인(confirm)된다.
특정 실시예에서, 복수의 시드 늑골 인공 객체들을 자동으로 생성하는 단계는, 그래픽 표현에서 척추로부터 특정 거리 구간 내에 있는 그래픽 표현에서의 늑골들의 복수의 영역에 대응하는 예상 시드 늑골 인공 객체들의 세트를 프로세서에 의해 생성하는 단계; 예상 시드 늑골 인공 객체들의 세트에 대해 프로세서에 의해 부피 필터를 적용하는 단계 - 부피 필터의 적용은, 상기 프로세서에 의해 미리 정의된 임계 부피 미만의 부피를 표현하는 것으로 판단된 인공 객체들을 상기 세트로부터 제거함 - ; 및 부피 필터의 적용 이후에 프로세서에 의해, 예상 시드 늑골 인공 객체들의 세트로부터 각각의 시드 늑골 인공 객체를 선택하는 단계를 포함한다.
특정 실시예에서, 그래픽 표현 내의 늑골들은 복수의[피검체의 주어진 측면 상의 늑골들의 개수(예컨대, 늑골들의 공지된 개수)에 대응하여] 반대되는 늑골들의 쌍들(예컨대, 반대되는 늑골들의 각각의 쌍은 우측 늑골 및 대응하는 좌측 늑골을 포함함)을 포함하고, 복수의 늑골 인공 객체들의 일 부분의 각각의 늑골 인공 객체는 늑골 인공 객체들의 복수의 쌍들 중 하나에 속하며, 각각의 쌍은 반대되는 늑골들의 한 쌍의 제1 늑골(예컨대, 우측 늑골)에 관련된(예컨대, 늑골 인공 객체의 연관된 좌측-우측 인덱스에 기초하는) 제1 늑골 인공 객체 및 반대되는 늑골들의 상기 쌍의 제2 늑골(예컨대, 좌측 늑골)에 관련된(예컨대, 늑골 인공 객체의 연관된 좌측-우측 인덱스에 기초하는) 제2 늑골 인공 객체를 포함하고, 늑골 인공 객체들의 각각의 쌍에 대해, (i) 상기 쌍의 제1 객체에 의해 표현되는 부피와 상기 쌍의 제2 객체에 의해 표현되는 부피의 차이가 미리 정의된 임계 부피 차이 미만이고, 그리고/또는 (ii) 상기 쌍의 제1 객체의 높이[예컨대, 객체의 z-방향 두께; 예컨대, 객체의 척추를 따르는 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)] 및 상기 쌍의 제2 객체의 높이의 차이가 미리 정의된 임계 높이 차이 미만이다.
특정 실시예에서, 그래픽 표현 내의 복수의 늑골들은 반대되는 늑골들의 하나 이상의 쌍을 포함(예컨대, 반대되는 늑골들의 각각의 쌍은 우측 늑골 및 대응하는 좌측 늑골을 포함함)하고, 복수의 시드 늑골 인공 객체를 자동으로 생성하는 단계는, 척추로부터 제1 거리 구간 내에 있는 그래픽 표현 내의 늑골들의 복수의 영역들에 대응하는 예상 시드 늑골 인공 객체들의 세트를 프로세서에 의해 생성하는 단계; 예상 시드 늑골 인공 객체들의 하나 이상의 쌍들을 프로세서에 의해 자동으로 식별(예컨대, 각각의 시드 늑골 인공 객체의 z-좌표에 기초하여; 예컨대, 각각의 시드 늑골 인공 객체의 연관된 늑골 번호 인텍스에 기초하여; 예컨대, 각각의 시드 늑골 인공 객체의 연관된 좌측-우측 인덱스에 기초하여)하는 단계 - 각각의 쌍은, 늑골들의 상기 쌍 중 제1 늑골의 제1 시드 늑골 인공 객체 및 반대되는 늑골의 대응하는 제2 시드 늑골 인공 객체를 포함함 - ; 프로세서에 의해, 쌍 비교 필터를 예상 시드 늑골 인공 객체들의 세트에 적용하는 단계 - 쌍 비교 필터의 적용은, 상기 세트로부터, (i) 상기 쌍의 제1 객체에 의해 표현되는 부피와 상기 쌍의 제2 객체에 의해 표현되는 부피의 차이가 미리 정의된 임계 부피 차이를 초과하는, 그리고/또는 (ii) 상기 쌍의 제1 객체의 높이[예컨대, 객체의 z-방향 두께; 예컨대, 객체의 척추를 따른 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)] 및 상기 쌍의 제2 객체의 높이[예컨대, 객체의 z-방향 두께; 예컨대, 객체의 척추를 따른 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)]의 차이가 미리 정의된 임계 높이 차이를 초과하는, 인공 객체들의 쌍들을 제거함 - ; 및 쌍 비교 필터의 적용 이후, 프로세서에 의해, 예상 시드 늑골 인공 객체들의 상기 세트로부터 각각의 시드 늑골 인공 객체를 선택하는 단계를 포함한다.
특정 실시예에서, 상기 방법은, 연속되는 시드 늑골 인공 객체들(예컨대, 제1 및 제2 시드 늑골 인공 객체들이 연속되는 늑골 번호 인덱스들을 갖는, 시드 늑골 인공 객체들의 쌍들) 사이의 거리(예컨대, 유클리드 거리; 예컨대, 특정 좌표(예컨대, z 좌표)를 따른 거리)가 일정한지(예컨대, 쌍들마다 실질적으로 동일한지, 예컨대, 주어진 허용오차 내에서) 검증하는 단계를 포함한다.
특정 실시예에서, 상기 방법은, 프로세서에 의해 피검체의 제1 영상 및 피검체의 제2 영상을 수신하는 단계; 인공 객체들의 각각의 교차-영상 쌍이 제1 영상의 인공 객체들의 제1 세트 중 제1 인공 객체와 제2 영상의 인공 객체들의 제2 세트 중 대응하는 제2 인공 객체를 포함하는, 인공 객체들의 복수의 교차-영상 쌍들을 프로세서에 의해 식별하는 단계; 인공 객체들의 각각의 교차-영상 쌍에 대해, 제1 인공 객체의 부피와 제2 인공 객체의 부피 사이의 차이를 프로세서에 의해 판단하는 단계; 및 판단된 부피 차이가 미리 정의된 임계 차이를 초과하는 교차-영상 쌍들의 인공 객체들을, 프로세서에 의해, 각각의 개별 영상의 인공 객체들의 각각의 세트로부터 제거하는 단계를 포함한다.
특정 실시예에서, 상기 방법은, 영상 내의 인공 객체들의 세트에 기초하여, 프로세서에 의해, 영상 정합 변환[예컨대, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동; 예컨대, 회전); 예컨대, 아핀 변환; 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예컨대, 비선형 변환(예컨대, 왜곡 필드의 정규화 또는 평활 외삽; 예컨대, 박막 스플라인; 예컨대, 외삽 연산 및/또는 평활 연산을 포함하는 변환); 예컨대, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하는 단계; 및 프로세서에 의해 상기 영상 정합 변환을 3D 영상의 일 영역에 적용하고, 이에 의해 3D 영상을 정합(예컨대, 영상의 왜곡 정정 및/또는 상기 3D 영상을 피검체의 하나 이상의 상이한 3D 영상들에 상호-정합)하는 단계를 포함한다.
특정 실시예에서, 영상 정합 변환은 3D 영상의 대칭을 산출하고, 이에 의해 영상에서의 왜곡을 정정한다.
특정 실시예에서, 수신된 영상은 제1 영상에 대응하고, 영상 정합 변환은 제1 영상을 피검체의 제2 영상과 정렬하여, 그에 의해 제1 영상을 제2 영상과 상호-정합시킨다.
특정 실시예에서, 영상 정합 변환을 결정하는 단계는, 프로세서에 의해, 영상 내의 인공 객체들의 세트로부터, 영상 내의 인공 랜드마크들의 세트를 결정하는 단계 - 각각의 인공 랜드마크는 대응하는 인공 객체로부터 결정된 지점에 대응함 - ; 및 영상 내의 인공 랜드마크들의 세트 및 목표 랜드마크들의 세트를 사용하여, 프로세서에 의해 영상 정합 변환[예컨대, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동; 예컨대, 회전); 예컨대, 아핀 변환; 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예컨대, 비선형 변환(예컨대, 왜곡 필드의 정규화 또는 평활 외삽; 예컨대, 박막 스플라인; 예컨대, 외삽 연산 및/또는 평활 연산을 포함하는 변환); 예컨대, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하는 단계를 포함하고, 영상 정합 변환은 영상 내의 인공 랜드마크들에 대응하는 지점들에 적용될 때, 인공 랜드마크들의 세트의 목표 랜드마크들의 세트와의 정렬을 실질적으로 최적화하도록 결정된다.
특정 실시예에서, 목표 랜드마크들의 세트는 대칭적이다[예컨대, 목표 랜드마크들의 세트는, 피검체의 하나 이상의 우측 늑골들과 연관된 복수의 우측 목표 랜드마크들과, 각각의 우측 목표 랜드마크에 대해, 매칭되는 좌측 늑골에 연관된 매층되는 좌측 목표 랜드마크를 포함하며, 이때, 각각의 우측 목표 랜드마크에 대해, 우측 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서 매칭되는 좌측 목표 랜드마크의 위치에 맵핑되고, 각각의 좌측 목표 랜드마크에 대해, 좌측 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서 매칭되는 우측 목표 랜드마크의 위치에 맵핑됨; 예컨대, 목표 랜드마크들의 세트는 복수의 흉골 목표 랜드마크들을 포함하고, 각각의 흉골 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서 실질적으로 불변임]
특정 실시예에서, 상기 방법은, 프로세서에 의해, 영상 내의 인공 랜드마크들의 세트를 이용하여 목표 랜드마크들의 세트를 결정하는 단계를 포함한다.
특정 실시예에서, 목표 랜드마크들의 세트는 미리 결정된 목표 랜드마크들(예컨대, 수신된 영상과는 상이한, 피검체의 하나 이상의 3D 영상들로부터 결정됨; 예컨대, 서로 다른 피검체들의 하나 이상의 3D 영상들을 포함하는 복수의 3D 영상들로부터 결정됨)의 세트이다.
특정 실시예에서, 수신된 3D 영상은 연조직(예컨대, 폐, 심장 등)의 그래픽 표현에 대응하는 하나 이상의 영역을 포함하고, 상기 방법은, 연조직(예컨대, 폐, 심장 등)의 그래픽 표현에 대응하는 영상의 하나 이상의 영역에 대해 프로세서에 의해, 영상 정합 변환을 적용하고, 이에 의해 연조직 영역들을 정합(예컨대, 연조직 영역들에서의 왜곡을 정정 및/또는 연조직 영역들을 피검체의 하나 이상의 서로 다른 3D 영상과 상호-정합)하는 단계를 더 포함한다.
특정 실시예에서, 복수의 늑골들 및 척추의 그래픽 표현을 포함하는 피검체의 수신된 3D 영상은 제1 모드(예컨대, 마이크로 CT)를 통해 기록된 제1 영상에 대응하고, 상기 방법은, 제2 모드(예컨대, 제1 모드와는 상이함; 예컨대, PET; 예컨대, 광 이미징 모드(예컨대, FMT))를 통해 기록된 제2 영상을 프로세서에 의해 수신하는 단계; 영상 내의 인공 객체들의 세트에 기초하여 프로세서에 의해, 제1 영상 정합 변환을 결정하는 단계; 제1 영상 정합 변환에 기초하여, 프로세서에 의해 제2 영상 정합 변환을 결정하는 단계; 및 제2 영상 정합 변환을 프로세서에 의해 제2 영상의 일 영역에 적용하는 단계를 포함한다.
특정 실시예에서, 제2 영상은 피검체가 실질적으로 유사한 자세 및/또는 위치에 있으며, 제1 영상과 실질적으로 동시에 기록된다(예컨대, 피검체는 제1 및 제2 영상의 기록 동안 고정된 자세 및/또는 위치에 있음; 예컨대, 제1 및 제2 영상들은 다중모드 이미징 시스템을 사용하여 기록됨)
특정 실시예에서, 제2 영상 정합 변환은 제1 영상 정합 변환과 동일하다.
특정 실시예에서, 제1 영상의 복수의 지점들의 좌표들은 기지의 기능적 관계를 통해(예컨대, 제1 및 제2 이미징 모드들 사이의 기지의 공간 관계에 기초하여) 제2 영상의 복수의 지점들의 좌표들과 관련된다.
일 측면에서, 본 발명은 피검체의 하나 이상의 3D 영상들의 정합을 위한 방법에 관한 것이고, 상기 방법은, (a) 컴퓨팅 장치의 프로세서에 의해, 피검체의 3D 영상(예컨대, 단층촬영 영상, 예컨대, CT, 마이크로-CT, SPECT, 엑스레이, MRI, 초음파, 및/또는 이들의 임의의 조합을 통해 획득된 영상)을 수신하는 단계 - 3D 영상은 하나 이상의 관심 뼈들(예컨대, 피검체의 축상 골격 뼈들; 예컨대, 복수의 늑골들 및/또는 척추; 예컨대, 흉골)의 그래픽 표현을 포함함 - ; (b) 상기 프로세서에 의해, 그래픽 표현에서, 하나 이상의 관심 뼈들(예컨대, 복수의 늑골들; 예컨대, 흉골) 및 기준 객체(예컨대, 척추; 예컨대, 흉골의 하단부)를 식별[예를 들어, (예컨대, 분할을 통해) 자동으로; 예를 들어, 사용자 상호작용을 통해, 예를 들어, 그래픽적으로 구분]하는 단계; (c) 상기 프로세서에 의해, 각각의 시드 인공 객체가 기준 객체로부터 제1 거리 구간 내에 있고(예컨대, (i) 시드 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 기준 객체의 일 표면까지의 최단 거리가 상기 제1 거리 구간 내에 있음; 예컨대, (ii) 시드 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 기준 객체의 중심선까지의 최단 거리가 제1 거리 구간 내에 있음) 상기 그래픽 표현의 어느 관심 뼈의 일 영역에 대응하는, 하나 이상의 시드 인공 객체를 자동으로 생성하는 단계; (d) 상기 프로세서에 의해, 각각의 자동으로 생성된 시드 인공 객체에 대해, 연관된 복수의 후속 인공 객체들을 자동으로 생성하여, 영상 내에 인공 객체들의 세트를 생성하는 단계(예컨대, 상기 세트는 상기 시드 및 후속 늑골 인공 객체들을 포함함); (e) 상기 프로세서에 의해, 영상 내의 인공 객체들의 세트를 이용하여(예컨대, 각각의 랜드마크가 영상 내의 대응하는 인공 객체에 기초하여 결정되는, 인공 랜드마크들의 세트를 이용하여, 예컨대, 인공 랜드마크들의 세트의 각각의 인공 랜드마크는 인공 객체들의 세트의 각각의 인공 객체의 질량 중심으로서 계산됨) 피검체의 하나 이상의 영상들의 정합을 자동으로 수행하는 단계를 포함한다.
특정 실시예에서, 하나 이상의 시드 인공 객체들을 자동으로 생성하는 단계는, 3차원에서 복수의 지점들 각각에서의 강도(예컨대, 숫자) 값들을 포함하는 거리 맵을 결정하는 단계 - 거리 맵의 강도 값들 각각은 3D 공간의 주어진 지점으로부터 기준 객체까지의 거리(예컨대, (i) 주어진 지점으로부터 식별된 기준 객체의 어느 표면까지의 최단 거리; 예컨대, (ii) 주어진 지점으로부터 식별된 기준 객체의 중심선까지의 최단 거리)에 대응함 - ; 상기 프로세서에 의해, 거리 맵으로부터 거리 구간 마스크를 생성하는 단계(예컨대, 거리 구간 마스크는 이진 마스크이고, 기준 객체까지 어느 거리 구간(예컨대, 제1 거리 구간) 내의 거리를 갖는 지점들에는 제1 값(예컨대, 숫자 1, 예컨대, 부울(Boolean) 참)이 할당되고, 다른 지점들에는 제2 값(예컨대, 숫자 0, 예컨대, 부울 거짓)이 할당됨); 및 상기 프로세서에 의해, 거리 구간 마스크와 식별된 하나 이상의 관심 뼈들에 대응하는 마스크 사이에 AND 연산(예컨대, 지점별 AND 연산)을 적용하고, 그에 의해 기준 객체로부터 제1 거리 구간 내에 있는 식별된 관심 뼈들의 복수의 영역들을 식별하는 단계를 포함한다.
특정 실시예에서, 각각의 자동으로 생성된 시드 인공 객체에 대하여, 연관된 복수의 후속 인공 객체들은 인공 객체들의 등거리 사슬을 포함한다.
특정 실시예에서, 각각의 인공 객체는 그래픽 표현 내에서 식별된 부가적인 뼈(예컨대, 흉골)로부터의 미리 정의된 임계 거리(예컨대, 표면으로부터의 거리; 예컨대, 중심선으로부터의 거리)에 있다.
특정 실시예에서, 상기 방법은, 그래픽 표현의 제1 및 제2 관심 뼈 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는, 영상의 하나 이상의 위험 영역들을, 상기 프로세서에 의해, 식별하는 단계(예컨대, 하나 이상의 형태학적 연산(예컨대, 형태학적 폐쇄 연산을 포함) 및 하나 이상의 논리 연산을 식별된 관심 뼈들에 대응하는 마스크에 적용함으로써, 영상의 하나 이상의 위험 영역들을 자동으로 식별함)를 포함하고, 상기 방법은, 각각의 자동으로 생성된 인공 객체가 영상 내의 임의의 식별된 위험 영역으로부터 충분히 멀리 있음(예컨대, 가장 가까운 식별된 위험 영역으로부터 적어도 미리 정의된 제3 임계 거리에 있음, 예컨대, 각각의 인공 객체의 각각의 지점에 대해 해당 지점으로부터 식별된 위험 영역까지의 최단 거리가 적어도 상기 제3 임계 거리에 있음)을 보장하는 단계를 포함한다.
특정 실시예에서, 각각의 시드 인공 객체와 연관된 복수의 후속하는 인공 객체들을 상기 프로세서에 의해 자동으로 생성하는 단계는, 시드 인공 객체로부터 시작하여 단계적 방식으로, 새로운 후속된 인공 객체들을 생성함 - 각각의 새로 생성된 인공 객체는 식별된 기준 객체로부터 멀리 외측으로(이전에 생성된 인공 객체로부터 미리 정의된 거리로) 진행함 - 으로써, 관심 뼈를 따르는 인공 객체들의 사슬을 생성하는 단계를 포함한다.
특정 실시예에서, 각각의 시드 인공 객체와 연관된 인공 객체들의 사슬을 생성하는 단계는, 인공 객체들의 사슬의 적어도 하나의 새로 생성된 인공 객체에 대해, 새로 생성된 인공 객체가 그래픽 표현 내의 식별된 부가적인 뼈(예컨대, 흉골)로부터 미리 결정된 임계 거리 내에 있는지 판단하는 단계; 및 새로 생성된 인공 객체가 영상의 식별된 부가적인 뼈(예컨대, 흉골)로부터 미리 결정된 임계 거리 내에 있다고 판단하는 것에 응답하여, 각각의 시드 인공 객체와 관련된 후속하는 인공 객체들의 생성을 종료시키는 단계를 포함한다.
특정 실시예에서, 상기 방법은, 그래픽 표현 내의 제1 및 제2 관심 뼈 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는 영상의 하나 이상의 위험 영역들을 상기 프로세서에 의해 식별하는 단계, 및 다음의 단계들을 포함하는 각각의 시드 인공 객체와 연관된 인공 객체들의 사슬을 생성하는 단계를 포함한다 - 인공 객체들의 사슬의 적어도 하나의 새로 생성된 인공 객체에 대해: 새로 생성된 인공 객체가 영상의 식별된 위험 영역으로부터 미리 결정된 임계 거리 내에 있는지 판단하는 단계; 및 새로 생성된 인공 객체가 영상의 식별된 위험 영역으로부터 미리 결정된 임계 거리 내에 있다고 판단하는 것에 응답하여, 각각의 시드 인공 객체와 관련된 후속하는 인공 객체들의 생성을 종료시키는 단계.
특정 실시예에서, 영상 내의 인공 객체들의 세트의 각각의 인공 객체(예컨대, 각각의 늑골 인공 객체 및/또는 각각의 흉골 인공 객체)는 적어도 미리 정의된 임계 부피를 갖는 것으로 확인된다.
특정 실시예에서, 하나 이상의 시드 인공 객체들을 자동으로 생성하는 단계는, 기준 객체로부터 제1 거리 구간 내에 있는 하나 이상의 관심 뼈들의 복수의 영역들에 대응하는 예상 시드 인공 객체들의 세트를 프로세서에 의해 생성하는 단계; 예상 시드 인공 객체들의 세트에 대해 프로세서에 의해 부피 필터를 적용하는 단계 - 부피 필터의 적용은, 프로세서에 의해 미리 정의된 임계 부피 미만의 부피를 표현하는 것으로 판단된 인공 객체들을 상기 세트로부터 제거함 - ; 및 부피 필터의 적용 이후에 프로세서에 의해, 예상 시드 인공 객체들의 세트로부터 각각의 시드 인공 객체를 선택하는 단계를 포함한다.
특정 실시예에서, 상기 방법은, 프로세서에 의해 피검체의 제1 영상 및 피검체의 제2 영상을 수신하는 단계; 인공 객체들의 각각의 교차-영상 쌍이 제1 영상의 인공 객체들의 제1 세트 중 제1 인공 객체와 제2 영상의 인공 객체들의 제2 세트 중 대응하는 제2 인공 객체를 포함하는, 인공 객체들의 복수의 교차-영상 쌍들을 프로세서에 의해 식별하는 단계; 인공 객체들의 각각의 교차-영상 쌍에 대해, 제1 인공 객체의 부피와 제2 인공 객체의 부피 사이의 차이를 프로세서에 의해 판단하는 단계; 및 판단된 부피 차이가 미리 정의된 임계 차이를 초과하는 교차-영상 쌍들의 인공 객체들을 프로세서에 의해, 각각의 개별 영상의 인공 객체들의 각각의 세트로부터 제거하는 단계를 포함한다.
특정 실시예에서, 상기 방법은, 영상 내의 인공 객체들의 세트에 기초하여, 프로세서에 의해, 영상 정합 변환[예를 들어, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동; 예컨대, 회전); 아핀 변환; 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예를 들어, 비선형 변환(왜곡 필드의 정규화 또는 평활 외삽; 예컨대, 박막 스플라인; 예컨대, 외삽 연산 및/또는 평활 연산을 포함하는 변환); 예를 들어, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하는 단계; 및 프로세서에 의해 영상 정합 변환을 3D 영상의 일 영역에 적용하고, 이에 의해 3D 영상을 정합(예컨대, 영상의 왜곡 정정 및/또는 3D 영상을 피검체의 하나 이상의 상이한 3D 영상들에 상호-정합)하는 단계를 포함한다.
특정 실시예에서, 영상 정합 변환은 3D 영상의 대칭을 산출하고, 이에 의해 영상에서의 왜곡을 정정한다.
특정 실시예에서, 수신된 영상은 제1 영상에 대응하고, 영상 정합 변환은 제1 영상을 피검체의 제2 영상과 정렬하여, 그에 의해 제1 영상을 제2 영상과 상호-정합시킨다.
특정 실시예에서, 영상 정합 변환을 결정하는 단계는, 프로세서에 의해, 영상 내의 인공 객체들의 세트로부터, 영상 내의 인공 랜드마크들의 세트를 결정하는 단계 - 각각의 랜드마크는 대응하는 인공 객체로부터 결정된 지점에 대응함 - ; 및 영상 내의 인공 랜드마크들의 세트 및 목표 랜드마크들의 세트를 사용하여, 프로세서에 의해 영상 정합 변환[예를 들어, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동; 예컨대, 회전); 아핀 변환; 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예를 들어, 비선형 변환(왜곡 필드의 정규화 또는 평활 외삽; 예컨대, 박막 스플라인; 예컨대, 외삽 연산 및/또는 평활 연산을 포함하는 변환); 예를 들어, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하는 단계를 포함하고, 영상 정합 변환은 영상 내의 인공 랜드마크들에 대응하는 지점들에 적용될 때, 인공 랜드마크들의 세트의 목표 랜드마크들의 세트와의 정렬을 실질적으로 최적화하도록 결정된다.
특정 실시예에서, 목표 랜드마크들의 세트는 대칭적이다[예를 들어, 목표 랜드마크들의 세트는, 피검체의 우측의 하나 이상의 관심 뼈들과 연관된 복수의 우측 목표 랜드마크들과, 각각의 우측 목표 랜드마크에 대해, 피검체의 좌측의 매칭되는 관심 뼈와 연관된 매칭되는 좌측 목표 랜드마크를 포함하며, 이때, 각각의 우측 목표 랜드마크에 대해, 우측 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서, 매칭되는 좌측 목표 랜드마크의 위치에 맵핑되고, 각각의 좌측 목표 랜드마크에 대해, 좌측 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서, 매칭되는 우측 목표 랜드마크의 위치에 맵핑됨]
특정 실시예에서, 상기 방법은, 프로세서에 의해, 영상 내의 인공 랜드마크들의 세트를 이용하여 목표 랜드마크들의 세트를 결정하는 단계를 포함한다.
특정 실시예에서, 목표 랜드마크들의 세트는 (예컨대, 수신된 영상과는 상이한, 피검체의 하나 이상의 3D 영상들로부터 결정되는; 예컨대, 서로 다른 피검체들의 하나 이상의 3D 영상들을 포함하는 복수의 3D 영상들로부터 결정되는) 미리 결정된 목표 랜드마크들의 세트이다.
특정 실시예에서, 수신된 3D 영상은 연조직(예컨대, 폐, 심장 등)의 그래픽 표현에 대응하는 하나 이상의 영역을 포함하고, 상기 방법은, 연조직(예컨대, 폐, 심장 등)의 그래픽 표현에 대응하는 영상의 하나 이상의 영역에 대해 프로세서에 의해, 영상 정합 변환을 적용하고, 이에 의해 연조직 영역들을 정합(예컨대, 연조직 영역들에서의 왜곡을 정정 및/또는 연조직 영역들을 피검체의 하나 이상의 서로 다른 3D 영상과 상호-정합)하는 단계를 더 포함한다.
특정 실시예에서, 피검체의 수신된 3D 영상은 제1 모드(예컨대, 마이크로 CT)를 통해 기록된 제1 영상에 대응하고, 상기 방법은, 제2 모드(예컨대, 제1 모드와는 상이함; 예컨대, PET; 예컨대, 광 이미징 모드(예컨대, FMT))를 통해 기록된 제2 영상을 프로세서에 의해 수신하는 단계; 영상 내의 인공 객체들의 세트에 기초하여 프로세서에 의해, 제1 영상 정합 변환을 결정하는 단계; 제1 영상 정합 변환에 기초하여, 프로세서에 의해 제2 영상 정합 변환을 결정하는 단계; 및 제2 영상 정합 변환을 프로세서에 의해, 제2 영상의 일 영역에 적용하는 단계를 포함한다.
특정 실시예에서, 제2 영상은 피검체가 실질적으로 유사한 자세 및/또는 위치에 있으며, 제1 영상과 실질적으로 동시에 기록된다(예컨대, 피검체는 제1 및 제2 영상의 기록 동안 고정된 자세 및/또는 위치에 있음; 예컨대, 제1 및 제2 영상들은 다중모드 이미징 시스템을 사용하여 기록됨)
특정 실시예에서, 제2 영상 정합 변환은 제1 영상 정합 변환과 동일하다.
특정 실시예에서, 제1 영상의 복수의 지점들의 좌표들은 기지의 기능적 관계를 통해(예컨대, 제1 및 제2 이미징 모드들 사이의 기지의 공간 관계에 기초하여) 제2 영상의 복수의 지점들의 좌표들과 관련된다.
특정 실시예에서, 3D 영상은 복수의 늑골들 및 척추의 그래픽 표현을 포함하고, 식별된 하나 이상의 관심 뼈들은 복수의 늑골들을 포함하며, 식별된 기준 객체는 피검체의 척추이다.
특정 실시예에서, 복수의 늑골들은 하나 이상의 반대되는 늑골들의 쌍들(예컨대, 반대되는 늑골들의 각각의 쌍은 우측 늑골 및 대응하는 좌측 늑골을 포함함)을 포함하고, 복수의 늑골 인공 객체들의 일 부분의 각각의 늑골 인공 객체는 늑골 인공 객체들의 복수의 쌍들 중 하나에 속하며, 각각의 쌍은 반대되는 늑골들의 한 쌍의 제1 늑골(예컨대, 우측 늑골)에 관련된 제1 늑골 인공 객체 및 반대되는 늑골들의 상기 쌍의 제2 늑골(예컨대, 좌측 늑골)에 관련된 제2 늑골 인공 객체를 포함하고, 늑골 인공 객체들의 각각의 쌍에 대해, (i) 상기 쌍의 제1 객체에 의해 표현되는 부피와 상기 쌍의 제2 객체에 의해 표현되는 부피의 차이가 미리 정의된 임계 부피 차이 미만이고, 그리고/또는 (ii) 상기 쌍의 제1 객체의 높이[예컨대, 객체의 z-방향 두께; 예컨대, 객체의 척추를 따르는 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)] 및 상기 쌍의 제2 객체의 높이[예컨대, 객체의 z-방향 두께; 예컨대, 객체의 척추를 따르는 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)]의 차이가 미리 정의된 임계 높이 차이 미만이다.
특정 실시예에서, 그래픽 표현 내의 복수의 늑골들은 반대되는 늑골들의 하나 이상의 쌍을 포함(예컨대, 반대되는 늑골들의 각각의 쌍은 우측 늑골 및 대응하는 좌측 늑골을 포함함)하고, 복수의 시드 늑골 인공 객체를 자동으로 생성하는 단계는, 척추로부터 어느 거리 구간 내에 있는 식별된 늑골들의 복수의 영역들에 대응하는 예상 시드 늑골 인공 객체들의 세트를 프로세서에 의해 생성하는 단계; 예상 시드 늑골 인공 객체들의 하나 이상의 쌍들을 프로세서에 의해 자동으로 식별하는 단계 - 각각의 쌍은, 늑골들의 상기 쌍 중 제1 늑골의 제1 시드 늑골 인공 객체 및 상기 반대되는 늑골의 대응하는 제2 시드 늑골 인공 객체를 포함함 - ; 프로세서에 의해, 쌍 비교 필터를 상기 예상 시드 늑골 인공 객체들의 세트에 적용하는 단계 - 쌍 비교 필터의 적용은, 상기 세트로부터, (i) 상기 쌍의 제1 객체에 의해 표현되는 부피와 상기 쌍의 제2 객체에 의해 표현되는 부피의 차이가 미리 정의된 임계 부피 차이를 초과하는, 그리고/또는 (ii) 상기 쌍의 제1 객체의 높이[예컨대, 객체의 z-방향 두께, 예컨대, 객체의 척추를 따른 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)] 및 상기 쌍의 제2 객체의 높이[예컨대, 객체의 z-방향 두께, 예컨대, 객체의 척추를 따른 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)]의 차이가 미리 정의된 임계 높이 차이를 초과하는, 인공 객체들의 쌍들을 제거함 - ; 및 쌍 비교 필터의 적용 이후, 프로세서에 의해, 예상 시드 늑골 인공 객체들의 상기 세트로부터 각각의 시드 늑골 인공 객체를 선택하는 단계를 포함한다.
특정 실시예에서, 3D 영상은 피검체의 흉골 및 흉골의 하단부의 그래픽 표현을 포함한다.
특정 실시예에서, 하나 이상의 관심 뼈들은 그래픽 표현에서 흉골을 포함하고, 기준 객체는 흉골의 하단부를 포함한다.
다른 측면에서, 본 발명은 피검체의 하나 이상의 3D 영상들의 정합을 위한 시스템에 관한 것이고, 상기 시스템은, 프로세서; 및 자신에 저장된 명령들을 갖는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 (a) 피검체의 3D 영상(예컨대, 단층촬영 영상; 예컨대, CT, 마이크로-CT, SPECT, 엑스레이, MRI, 초음파, 및/또는 이들의 임의의 조합을 통해 획득된 영상)을 수신하게 하되, 상기 3D 영상은 늑골들 및 척추의 그래픽 표현을 포함하며; (b) 상기 그래픽 표현에서, [예컨대, 골 마스크가 결정되고, 이에 후속하여, 식별된 골 조직이, 식별된 척추에 대응하는 제1 부분 및 식별된 늑골들에 대응하는 제2 부분으로 구분되는 것에 의해, {예컨대, 골 마스크가 결정되고, 이에 후속하여, 식별된 골 조직이, 식별된 척추에 대응하는 제1 부분 및 식별된 늑골들에 대응하는 제2 부분(예컨대, 및 선택적으로, 식별된 흉골에 대응하는 제3 부분)으로 구분되는 것에 의해} {예컨대, 골 마스크가 결정되고, 이에 후속하여, 식별된 골 조직이 식별된 척추에 대응하는 제1 부분 및 식별된 흉곽 뼈들(예컨대, 흉골과 함께 늑골들을 포함함)에 대응하는 제2 부분으로 구분되고, 선택적으로 후속하여, 식별된 흉곽 뼈들이 식별된 흉골 및 나머지 뼈들(즉, 늑골들)에 대응하는 부분으로 구분되는 것에 의해}] (i) 척추와, (ii) 늑골들을 포함한 흉곽 뼈들을 식별[예를 들어, (예컨대, 분할을 통해) 자동으로; 예를 들어, 사용자 상호작용을 통해, 예를 들어, 그래픽적으로 구분]하게 하며; (c) 각각의 시드 늑골 인공 객체가 상기 그래픽 표현의 상기 척추로부터의 제1 거리 구간 내에 있고(예컨대, (i) 상기 시드 늑골 인공 객체의 각각의 지점에 대해, 상기 지점으로부터 상기 식별된 척추의 일 표면까지의 최단 거리가 상기 제1 거리 구간 내에 있음; 예컨대, (ii) 상기 시드 늑골 인공 객체의 각각의 지점에 대해, 상기 지점으로부터 상기 식별된 척추의 중심선까지의 최단 거리가 상기 제1 거리 구간 내에 있음) 상기 그래픽 표현의 어느 늑골의 일 영역에 대응하는(예컨대, 각각의 시드 늑골 인공 객체에는 좌측-우측 인덱스 및 늑골 번호 인덱스가 할당됨), 복수의 시드 늑골 인공 객체들을 자동으로 생성하게 하고; (d) 각각의 자동으로 생성된 시드 늑골 인공 객체에 대해, 연관된 복수의 후속 늑골 인공 객체들을 자동으로 생성하여, 영상 내에 인공 객체들의 세트를 생성하게 하며(예컨대, 상기 세트는 상기 시드 및 후속 늑골 인공 객체들을 포함함); (e) 상기 영상 내의 상기 인공 객체들의 세트를 이용하여(예컨대, 각각의 랜드마크가 상기 영상 내의 대응하는 인공 객체에 기초하여 결정되는, 인공 랜드마크들의 세트를 이용하여; 예컨대, 상기 인공 랜드마크들의 세트의 각각의 인공 랜드마크는 상기 인공 객체들의 세트의 각각의 인공 객체의 질량 중심으로서 계산됨) 상기 피검체의 하나 이상의 영상들의 정합을 자동으로 수행하게 한다.
특정 실시예에서, 척추 및 늑골들을 식별하는 단계는 그래픽 표현에서 특정한 뼈들을 식별하기 위해 하나 이상의 골 마스크들의 세트를 결정하는 단계를 포함한다. 예를 들어, 골 마스크들의 세트를 결정하는 단계는 예를 들어, 그래픽 표현 내의 모든 뼈들을 식별하는 제1 단계, 척추를 식별하는 제2 단계, 및 늑골들을 포함하는 (미식별된) 흉곽 뼈들을 식별하는 제3 단계를 포함하는, 여러 단계들로 수행될 수 있다. 특정 실시예에서, 식별된 흉곽 뼈들은 흉골과 함께 늑골들을 포함한다. 특정 실시예에서, 식별된 흉곽 뼈들을 (i) 식별된 흉골과 (ii) 식별된 늑골들에 대응하는 나머지 뼈들로 구분하는 제4 단계가 수행된다. 특정 실시예에서, 흉골 및 늑골들을 개별적으로 식별할 필요는 없으며, 식별된 흉곽 뼈들은 흉골과 함께 늑골들의 미식별된 집합에 대응한다. 특정 실시예에서, 흉골 및 늑골들은 개별적으로 식별되고, 식별된 흉곽 골들 상에서 그리고/또는 식별된 흉곽 골들에 대응하는 마스크 상에서 수행되는 것과 같은 본원에 설명된 연산들은, 식별된 늑골들 상에서 그리고/또는 식별된 늑골들에 대응하는 마스크 상에서 수행된다. 특정 실시예에서, 개개의 늑골들을 개별적으로 식별할 필요는 없지만(비록 다른 실시예에서는 이렇게 수행될 수 있음에도 불구하고), 오히려, 늑골들의 미식별된 집합이 식별된다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금, 다음의 단계들에 의해 복수의 시드 늑골 인공 객체들을 자동으로 생성하게 한다: 3차원의 복수의 지점들 각각에서의 강도(예컨대, 숫자, 예컨대, 음수가 아닌 숫자) 값들을 포함하는 척추 거리 맵을 결정하는 단계 - 척추 거리 맵의 강도 값들 각각은 3D 공간의 주어진 지점으로부터 그래픽 표현의 식별된 척추까지의 거리(예컨대, (i) 주어진 지점으로부터 식별된 척추까지의 최단 거리; 예컨대, (ii) 주어진 지점으로부터 식별된 척추의 중심선까지의 최단 거리)에 대응함 - ; 식별된 척추로부터 제1 거리 구간 내에 있는 영상의 영역들에 대응하는 척추 거리 구간 마스크를 척추 거리 맵으로부터 생성하는 단계(예컨대, 거리 구간 마스크는 이진 마스크이고, 식별된 척추까지 어느 거리 구간(예컨대, 상기 제1 거리 구간) 내의 거리를 갖는 지점들에는 제1 값(예컨대, 숫자 1, 예컨대, 부울(Boolean) 참)이 할당되고, 다른 지점들에는 제2 값(예컨대, 숫자 0, 예컨대, 부울 거짓)이 할당됨); 및 척추 거리 구간 마스크와 식별된 흉곽 뼈들에 대응하는 마스크(예컨대, 상기 식별된 늑골들; 예컨대, 흉곽 뼈들 마스크, 예컨대, 늑골들 마스크) 사이에 AND 연산(예컨대, 지점별 AND 연산)을 적용하고, 그에 의해 식별된 척추로부터 제1 거리 구간 내에 있는 식별된 흉곽 뼈들의 복수의 영역들을 식별하는 단계.
특정 실시예에서, 단계 (c)에서, 상기 명령들은 프로세서로 하여금, 복수의 시드 늑골 인공 객체들 각각에 대해, 시드 늑골 인공 객체를 (i) 좌측-우측 인덱스(예컨대, 상기 시드 늑골 인공 객체의 하나 이상의 지점으로부터 결정된 x-좌표에 기초함) 및 (ii) 늑골 번호 인덱스(예컨대, 상기 시드 늑골 인공 객체의 하나 이상의 지점으로부터 결정된 z-좌표에 기초함)와 연관시키게 한다.
특정 실시예들에서, 시드 늑골 인공 객체를 좌측-우측 인덱스와 연관시키는 단계는, 예비적 단계로서 예비적 회전 및 병진이동 변환을 적용하는 단계; 및 그 뒤, 상기 좌측-우측 인덱스를 결정(예컨대, 시드 늑골 인공 객체의 하나 이상의 지점들로부터 결정된 x-좌표에 기초함)하는 단계를 포함한다. 특정 실시예에서, 예비적 회전 및 병진이동 변환은 그래픽 표현에서 식별된 척추의 주요 축들 및/또는 식별된 흉골의 주요 축들을 사용하여 결정된다.
특정 실시예에서, 자동으로 생성된 각각의 시드 늑골 인공 객체에 대하여, 연관되는 복수의 후속하는 늑골 인공 객체들은 늑골 인공 객체들의 등거리 사슬(chain)을 포함한다.
특정 실시예에서, 3D 영상은 늑골들, 척추 및 흉골의 그래픽 표현을 포함하고, 각각의 늑골 인공 객체는 그래픽 표현의 식별된 흉골로부터 적어도 하나의 미리 정의된 제1 임계 거리에 있다(예컨대, 각각의 늑골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 식별된 흉골까지의 최단 거리가 적어도 상기 제1 임계 거리임; 예컨대, 각각의 늑골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 식별된 흉골의 중심선까지의 최단 거리가 적어도 제1 임계 거리임)
특정 실시예에서, 상기 명령들은 상기 프로세서로 하여금, 그래픽 표현의 제1 및 제2 늑골 사이의 거리가 미리 정의된 제2 임계 거리 미만인 영역들에 대응하는, 영상의 하나 이상의 위험 영역들을, 자동으로 식별하게 하고[예를 들어, 하나 이상의 형태학적 연산(예컨대, 형태학적 폐쇄 연산을 포함) 및 하나 이상의 논리 연산을 상기 식별된 흉곽 뼈들에 대응하는 마스크에 적용함으로써, 영상의 하나 이상의 위험 영역들을 자동으로 식별함], 영상 내의 임의의 식별된 위험 영역으로부터 충분히 멀리 있도록 각각의 늑골 인공 객체를 생성하게 한다(예컨대, 가장 가까운 식별된 위험 영역으로부터 적어도 미리 정의된 제3 임계 거리에 있음; 예컨대, 각각의 늑골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 식별된 위험 영역까지의 최단 거리가 적어도 상기 제3 임계 거리에 있음)
특정 실시예에서, 상기 명령들은 상기 프로세서로 하여금, 각각의 시드 늑골 인공 객체로부터 시작하여 단계적 방식으로, 후속하는 새로운 늑골 인공 객체들을 생성하게 함 - 각각의 새로 생성된 늑골 인공 객체는 늑골을 따라, 식별된 척추로부터 멀어지게 바깥쪽으로(예컨대, 이전에 생성된 늑골 인공 객체로부터 미리 정의된 거리로) 진행함 - 으로써 늑골을 따라 늑골 인공 객체들의 사슬을 생성하는 것에 의해, 각각의 시드 늑골 인공 객체와 연관된 복수의 후속하는 늑골 인공 객체들을 자동으로 생성하게 한다.
특정 실시예에서, 3D 영상은 늑골들, 척추 및 흉골의 그래픽 표현을 포함하고, 상기 명령들은 상기 프로세서로 하여금, 다음의 단계들에 의해 각각의 시드 늑골 인공 객체와 연관된 인공 늑골 객체들의 사슬을 생성하게 한다 - 늑골 인공 객체들의 사슬 중 적어도 하나의 새로 생성된 늑골 인공 객체에 대해: 새로 생성된 늑골 인공 객체가 그래픽 표현의 식별된 흉골로부터 미리 결정된 제1 임계 거리 내에 있는지 판단하는 단계; 및 새로 생성된 늑골 인공 객체가 식별된 흉골로부터 미리 결정된 제1 임계 거리 내에 있다고 판단하는 것에 응답하여, 각각의 시드 늑골 인공 객체와 관련된 후속하는 늑골 인공 객체들의 생성을 종료시키는 단계.
특정 실시예에서, 상기 명령들은 상기 프로세서로 하여금, 그래픽 표현 내의 제1 및 제2 늑골 사이의 거리가 미리 정의된 제2 임계 거리 미만인 영역들에 대응하는 영상의 하나 이상의 위험 영역들을 식별하게 하고, 다음의 단계들에 의해 상기 각각의 시드 늑골 인공 객체와 연관된 늑골 인공 객체들의 사슬을 생성하게 한다 - 늑골 인공 객체들의 사슬 중 적어도 하나의 새로 생성된 늑골 인공 객체에 대해: 새로 생성된 늑골 인공 객체가 영상의 식별된 위험 영역으로부터 미리 결정된 제3 임계 거리 내에 있는지 판단하는 단계; 및 새로 생성된 늑골 인공 객체가 영상의 식별된 위험 영역으로부터 미리 결정된 제3 임계 거리 내에 있다고 판단하는 것에 응답하여, 각각의 시드 늑골 인공 객체와 관련된 후속하는 늑골 인공 객체들의 생성을 종료시키는 단계.
특정 실시예에서, 상기 명령들은 상기 프로세서로 하여금, 식별된 흉곽 뼈들에 대응하는 마스크에 하나 이상의 형태학적 폐쇄 연산들을 적용함으로써 하나 이상의 위험 영역들을 자동적으로 식별하게 한다.
특정 실시예에서, 3D 영상은 피검체의 흉골의 적어도 일 부분의 그래픽 표현을 포함하는데, 상기 일 부분은 흉골의 하단부(예컨대, 꼬리뼈 쪽 단부)를 포함하고, 상기 명령들은 프로세서로 하여금 다음의 단계들에 의해 흉골을 따르는 일련의 인공 객체들을 자동으로 생성하게 한다: (f) 그래픽 표현에서 흉골[{예컨대, 골 마스크를 결정하고, 이어서, 식별된 골 조직을 척추, 흉골 및 나머지 뼈들(즉, 늑골들)로 구분함으로써}, {예컨대, 골 마스크를 결정하고, 이어서, 식별된 골 조직을 식별된 척추에 대응하는 제1 부분 및 식별된 흉곽 뼈들(흉골과 함께 늑골들을 포함)에 대응하는 제2 부분으로 구분하며, 이어서, 식별된 흉곽 뼈들을 식별된 흉골 및 나머지 뼈들(즉, 늑골들)에 대응하는 부분으로 구분함으로써}] 및 흉골의 하단부(예컨대, 상기 식별된 흉골에 대응하는 흉골 마스크의 최소 z-좌표를 판단함으로써)를 식별[예를 들어 (예컨대, 분할을 통해) 자동으로, 예를 들어 사용자 상호작용을 통해, 예를 들어, 그래픽적으로 구분]하는 단계; (g) 흉골의 하단부로부터 제2 거리 구간 내에 있는 식별된 흉골의 일 영역에 대응하는 시드 흉골 인공 객체를 자동으로 생성하는 단계[예컨대, (i) 시드 흉골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 흉골의 식별된 하단부의 어느 표면까지의 최단 거리는 제2 거리 구간 내에 있음; 예컨대, (ii) 시드 흉골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 흉골의 상기 식별된 하단부에 대응하는 지점까지의 거리(예컨대, 유클리드 거리, 예컨대, 특정 좌표(예컨대, z-좌표)를 따른 거리)는 제2 거리 구간 내에 있음]; 및 (h) 시드 흉골 인공 객체로 시작하여, 식별된 흉골을 따른 복수의 연관된 흉골 인공 객체들을 자동으로 생성하는 단계 - 복수의 흉골 인공 객체들은 영상 내의 인공 객체들의 세트 안에 포함됨(예컨대, 그에 의해, 인공 객체들의 세트의 생성은 생성된 흉골 인공 객체들을 더 포함함) -
특정 실시예에서, 상기 명령들은, 상기 프로세서로 하여금, 다음의 단계들에 의해 시드 흉골 인공 객체를 자동으로 생성하게 한다: 3차원의 복수의 지점들 각각에서의 강도(예컨대, 숫자) 값들을 포함한 흉골 하단부 거리 맵을 결정하는 단계 - 흉골 하단부 거리 맵의 강도 값들 각각은 3차원 공간의 임의의 주어진 지점으로부터 그래픽 표현의 식별된 흉골의 하단부까지의 거리[예를 들어, (i) 주어진 지점으로부터 식별된 흉골의 하단부의 어느 표면까지의 최단 거리; 예를 들어, (ii) 주어진 지점으로부터 식별된 흉골의 하단부에 대응하는 지점까지의 거리(예컨대, 유클리드 거리, 예컨대 특정 좌표(예컨대, z-좌표)를 따르는 거리)]에 대응함 - ; 흉골 하단부 거리 맵으로부터 흉골 하단부 거리 구간 마스크를 생성하는 단계 - 흉골 하단부 거리 구간 마스크는 흉골의 하단부로부터 제2 거리 구간 내에 있는 영상의 영역들에 대응함[예를 들어, 흉골 하단부 거리 구간 마스크는 이진 마스크이고, 미리 정의된 거리 구간(예컨대, 제2 거리 구간) 내에서 흉골의 하단부까지의 거리를 갖는 지점들에는 제1 값(예컨대, 숫자 1, 예컨대, 부울 참)이 할당되고, 나머지 지점들에는 제2 값(에컨대, 숫자 0, 예컨대, 부울 거짓)이 할당됨] - ; 및 흉골 하단부 거리 구간 마스크와 식별된 흉골에 대응하는 마스크 사이에 AND 연산을 적용하고, 이에 의해, 흉골의 하단부로부터 제2 거리 구간 내에 있는 식별된 흉골의 영역을 식별하는 단계.
특정 실시예에서, 복수의 흉골 인공 객체들은 흉골을 따르는 흉골 인공 객체들의 등거리 사슬을 포함한다.
특정 실시예에서, 상기 명령들은 상기 프로세서로 하여금, 시드 흉골 인공 객체로부터 시작하여 단계적 방식으로, 후속하는 새로운 흉골 인공 객체들을 생성하게 함 - 각각의 새로 생성된 흉골 인공 객체는 식별된 흉골의 하단부로부터 멀어지게 위쪽으로(예컨대, 이전에 생성된 흉골 인공 객체로부터 미리 정의된 거리로) 진행함 - 으로써 흉골 인공 객체의 사슬을 생성하는 것에 의해, 복수의 후속하는 흉골 인공 객체들을 자동으로 생성하게 한다.
특정 실시예에서, 상기 그래픽 표현 내의 흉골의 상기 부분은 흉골의 상단부를 포함하고, 상기 명령들은 프로세서로 하여금, 상기 그래픽 표현에서 상기 흉골의 상단부를 식별하게 하고; 그리고, 다음의 단계들에 의해 흉골 인공 객체들의 사슬을 생성하게 한다 - 적어도 하나의 새로 생성된 흉골 인공 객체에 대해: 새로 생성된 흉골 인공 객체가 식별된 흉골의 상단부로부터 미리 결정된 임계 거리에 도달하거나 또는 그 안에 있는지 판단하는 단계; 및 새로 생성된 흉골 인공 객체가 식별된 흉골의 상단부로부터 미리 결정된 임계 거리에 도달하거나 또는 그 안에 있는지를 판단하는 것에 응답하여, 후속하는 흉골 인공 객체들의 생성을 종료시키는 단계.
특정 실시예에서, 영상 내의 인공 객체들의 세트 중 각각의 자동으로 생성된 인공 객체(예컨대, 각각의 늑골 인공 객체 및/또는 각각의 흉골 인공 객체)는 적어도 하나의 미리 정의된 임계 부피를 갖는 것으로 확인된다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금 다음의 단계들에 의해 복수의 시드 늑골 인공 객체들을 자동으로 생성하게 한다: 그래픽 표현에서 척추로부터 특정 거리 구간 내에 있는 그래픽 표현에서의 늑골들의 복수의 영역들에 대응하는 예상 시드 늑골 인공 객체들의 세트를 생성하는 단계; 예상 시드 늑골 인공 객체들의 세트에 대해 부피 필터를 적용하는 단계 - 부피 필터의 적용은, 프로세서에 의해 미리 정의된 임계 부피 미만의 부피를 표현하는 것으로 판단된 인공 객체들을 상기 세트로부터 제거함 - ; 및 부피 필터의 적용 이후에, 예상 시드 늑골 인공 객체들의 세트로부터 각각의 시드 늑골 인공 객체를 선택하는 단계.
특정 실시예에서, 그래픽 표현 내의 늑골들은 복수의[피검체의 주어진 측면 상의 늑골들의 개수(예컨대, 늑골들의 공지된 개수)에 대응하여] 반대되는 늑골들의 쌍들(예컨대, 반대되는 늑골들의 각각의 쌍은 우측 늑골 및 대응하는 좌측 늑골을 포함함)을 포함하고, 복수의 늑골 인공 객체들의 일 부분의 각각의 늑골 인공 객체는 늑골 인공 객체들의 복수의 쌍들 중 하나에 속하며, 각각의 쌍은 반대되는 늑골들의 한 쌍의 제1 늑골(예컨대, 우측 늑골)에 관련된(예컨대, 늑골 인공 객체의 연관된 좌측-우측 인덱스에 기초하는) 제1 늑골 인공 객체 및 반대되는 늑골들의 상기 쌍의 제2 늑골(예컨대, 좌측 늑골)에 관련된(예컨대, 늑골 인공 객체의 연관된 좌측-우측 인덱스에 기초하는) 제2 늑골 인공 객체를 포함하고, 늑골 인공 객체들의 각각의 쌍에 대해, (i) 상기 쌍의 제1 객체로 표현되는 부피와 상기 쌍의 제2 객체로 표현되는 부피의 차이가 미리 정의된 임계 부피 차이 미만이고, 그리고/또는 (ii) 상기 쌍의 제1 객체의 높이[예컨대, 객체의 z-방향 두께; 예컨대, 객체의 척추를 따르는 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)] 및 상기 쌍의 제2 객체의 높이[예컨대, 객체의 z-방향 두께; 예컨대, 객체의 척추를 따르는 거리(예컨대, 객체의 평균적인 z-좌표로서 결정됨)]의 차이가 미리 정의된 임계 높이 차이 미만이다.
특정 실시예에서, 그래픽 표현 내의 늑골들은 반대되는 늑골들의 하나 이상의 쌍을 포함(예컨대, 반대되는 늑골들의 각각의 쌍은 우측 늑골 및 대응하는 좌측 늑골을 포함함)하고, 상기 명령들은 프로세서로 하여금, 다음의 단계들에 의해 복수의 시드 늑골 인공 객체들을 자동으로 생성하게 한다: 척추로부터 제1 거리 구간 내에 있는 그래픽 표현 내의 늑골들의 복수의 영역들에 대응하는 예상 시드 늑골 인공 객체들의 세트를 생성하는 단계; 예상 시드 늑골 인공 객체들의 하나 이상의 쌍들을 자동으로 식별하는 단계(예컨대, 각각의 시드 늑골 인공 객체의 z-좌표에 기초함; 예컨대, 각각의 시드 늑골 인공 객체의 연관된 늑골 번호 인텍스에 기초함; 예컨대, 각각의 시드 늑골 인공 객체의 연관된 좌측-우측 인덱스에 기초함) - 각각의 쌍은, 늑골들의 상기 쌍 중 제1 늑골의 제1 시드 늑골 인공 객체 및 상기 반대되는 늑골의 대응하는 제2 시드 늑골 인공 객체를 포함함 - ; 쌍 비교 필터를 예상 시드 늑골 인공 객체들의 세트에 적용하는 단계 - 쌍 비교 필터의 적용은, 상기 세트로부터, (i) 상기 쌍의 제1 객체에 의해 표현되는 부피와 상기 쌍의 제2 객체에 의해 표현되는 부피의 차이가 미리 정의된 임계 부피 차이를 초과하는, 그리고/또는 (ii) 상기 쌍의 제1 객체의 높이와 상기 쌍의 제2 객체의 높이의 차이가 미리 정의된 임계 높이 차이를 초과하는, 인공 객체들의 쌍들을 제거함 - ; 및 쌍 비교 필터의 적용 이후, 예상 시드 늑골 인공 객체들의 상기 세트로부터 각각의 시드 늑골 인공 객체를 선택하는 단계.
특정 실시예에서, 상기 명령들은 프로세서로 하여금, 연속되는 시드 늑골 인공 객체들(예컨대, 제1 및 제2 시드 늑골 인공 객체들이 연속되는 늑골 번호 인덱스들을 갖는, 시드 늑골 인공 객체들의 쌍들; 예컨대, 제1 및 제2 시드 늑골 인공 객체들이 연관된 z-좌표들의 측면에서 가장 가까운 이웃들에 대응하는, 시드 늑골 인공 객체들의 쌍들) 사이의 거리(예컨대, 유클리드 거리; 예컨대, 특정 좌표(예컨대, z 좌표)를 따른 거리)가 일정한지(예컨대, 쌍들마다 실질적으로 동일한지, 예컨대, 주어진 허용오차 내에서) 검증하게 한다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금: 피검체의 제1 영상 및 피검체의 제2 영상을 수신하게 하고; 인공 객체들의 각각의 교차-영상 쌍이 제1 영상의 인공 객체들의 제1 세트 중 제1 인공 객체와 제2 영상의 인공 객체들의 제2 세트 중 대응하는 제2 인공 객체를 포함하는, 인공 객체들의 복수의 교차-영상 쌍들을 식별하게 하며; 인공 객체들의 각각의 교차-영상 쌍에 대해, 제1 인공 객체의 부피와 제2 인공 객체의 부피 사이의 차이를 판단하게 하고; 그리고, 판단된 부피 차이가 미리 정의된 임계 차이를 초과하는 교차-영상 쌍들의 인공 객체들을 각각의 개별 영상의 인공 객체들의 각각의 세트로부터 제거하게 한다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금: 상기 영상 내의 인공 객체들의 세트에 기초하여, 영상 정합 변환[예를 들어, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동; 예컨대, 회전); 예컨대, 아핀 변환; 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예를 들어, 비선형 변환(예컨대, 왜곡 필드의 정규화 또는 평활 외삽; 예컨대, 박막 스플라인 변환; 예컨대, 외삽 연산 및/또는 평활 연산을 포함하는 변환); 예를 들어, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하게 하고; 그리고, 영상 정합 변환을 3D 영상의 일 영역에 적용하며, 이에 의해 3D 영상을 정합(예컨대, 영상의 왜곡 정정 및/또는 3D 영상을 피검체의 하나 이상의 상이한 3D 영상들에 상호-정합)하게 한다.
특정 실시예에서, 영상 정합 변환은 3D 영상의 대칭을 산출하고, 이에 의해 영상에서의 왜곡을 정정한다.
특정 실시예에서, 수신된 영상은 제1 영상에 대응하고, 영상 정합 변환은 제1 영상을 피검체의 제2 영상과 정렬하여, 그에 의해 제1 영상을 제2 영상과 상호-정합시킨다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금 다음의 단계들에 의해 영상 정합 변환을 결정하게 한다: 영상 내의 인공 객체들의 세트로부터, 영상 내의 인공 랜드마크들의 세트를 결정하는 단계 - 각각의 인공 랜드마크는 대응하는 인공 객체로부터 결정된 지점에 대응함 - ; 및 영상 내의 인공 랜드마크들의 세트 및 목표 랜드마크들의 세트를 사용하여, 영상 정합 변환[예를 들어, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동; 예컨대, 회전); 예컨대, 아핀 변환; 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예를 들어, 비선형 변환(예컨대, 왜곡 필드의 정규화 또는 평활 외삽; 예컨대, 박막 스플라인; 예컨대, 외삽 연산 및/또는 평활 연산을 포함하는 변환); 예를 들어, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하는 단계 - 영상 정합 변환은 영상 내의 인공 랜드마크들에 대응하는 지점들에 적용될 때, 인공 랜드마크들의 세트의 목표 랜드마크들의 세트와의 정렬을 실질적으로 최적화하도록 결정됨 -
특정 실시예에서, 목표 랜드마크들의 세트는 대칭적이다[예를 들어, 목표 랜드마크들의 세트는, 피검체의 하나 이상의 우측 늑골들과 연관된 복수의 우측 목표 랜드마크들과, 각각의 우측 목표 랜드마크에 대해, 매칭되는 좌측 늑골과 연관된 매칭되는 좌측 목표 랜드마크를 포함하며, 이때, 각각의 우측 목표 랜드마크에 대해, 우측 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서 매칭되는 좌측 목표 랜드마크의 위치에 맵핑되고, 각각의 좌측 목표 랜드마크에 대해, 좌측 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서 매칭되는 우측 목표 랜드마크의 위치에 맵핑됨; 예를 들어, 목표 랜드마크들의 세트는 복수의 흉골 목표 랜드마크들을 포함하고, 각각의 흉골 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서 실질적으로 불변임]
특정 실시예에서, 상기 명령들은 프로세서로 하여금 영상 내의 인공 랜드마크들의 세트를 이용하여 목표 랜드마크들의 세트를 결정하게 한다.
특정 실시예에서, 목표 랜드마크들의 세트는 미리 결정된 목표 랜드마크들(예컨대, 수신된 영상과는 상이한, 피검체의 하나 이상의 3D 영상들로부터 결정됨; 예컨대, 서로 다른 피검체들의 하나 이상의 3D 영상들을 포함하는 복수의 3D 영상들로부터 결정됨)의 세트이다.
특정 실시예에서, 수신된 3D 영상은 연조직(예컨대, 폐, 심장 등)의 그래픽 표현에 대응하는 하나 이상의 영역을 포함하고, 상기 명령들은 프로세서로 하여금, 연조직(예컨대, 폐, 심장 등)의 그래픽 표현에 대응하는 영상의 하나 이상의 영역에 대해 영상 정합 변환을 적용하게 하고, 이에 의해 연조직 영역들을 정합(예컨대, 연조직 영역들에서의 왜곡을 정정 및/또는 연조직 영역들을 피검체의 하나 이상의 서로 다른 3D 영상과 상호-정합)하게 한다.
특정 실시예에서, 늑골들 및 척추의 그래픽 표현을 포함하는 피검체의 수신된 3D 영상은 제1 모드(예컨대, 마이크로 CT)를 통해 기록된 제1 영상에 대응하고, 상기 명령들은 프로세서로 하여금, 제2 모드(예컨대, 제1 모드와는 상이함; 예컨대, PET; 예컨대, 광 이미징 모드(예컨대, FMT))를 통해 기록된 제2 영상을 수신하게 하고; 영상 내의 인공 객체들의 세트에 기초하여 제1 영상 정합 변환을 결정하게 하며; 제1 영상 정합 변환에 기초하여, 제2 영상 정합 변환을 결정하게 하고; 그리고, 제2 영상 정합 변환을 제2 영상의 일 영역에 적용하게 한다.
특정 실시예에서, 제2 영상은 피검체가 실질적으로 유사한 자세 및/또는 위치에 있으며, 제1 영상과 실질적으로 동시에 기록된다(예컨대, 피검체는 제1 및 제2 영상의 기록 동안 고정된 자세 및/또는 위치에 있음; 예컨대, 제1 및 제2 영상들은 다중모드 이미징 시스템을 사용하여 기록됨)
특정 실시예에서, 제2 영상 정합 변환은 제1 영상 정합 변환과 동일하다.
특정 실시예에서, 제1 영상의 복수의 지점들의 좌표들은 기지의 기능적 관계를 통해(예컨대, 제1 및 제2 이미징 모드들 사이의 기지의 공간 관계에 기초하여) 제2 영상의 복수의 지점들의 좌표들과 관련된다.
다른 측면에서, 본 발명은 피검체의 하나 이상의 3D 영상들의 정합을 위한 시스템에 관한 것이고, 상기 시스템은, 프로세서; 및 자신에 저장된 명령들을 갖는 메모리를 포함하고, 상기 명령들은 상기 프로세서에 의해 실행될 때, 상기 프로세서로 하여금 (a) 피검체의 3D 영상(예컨대, 단층촬영 영상; 예컨대, CT, 마이크로-CT, SPECT, 엑스레이, MRI, 초음파, 및/또는 이들의 임의의 조합을 통해 획득된 영상)을 수신하게 하되, 상기 3D 영상은 하나 이상의 관심 뼈들(예컨대, 피검체의 축상 골격 뼈들; 예컨대, 늑골들 및/또는 척추, 예컨대, 흉골)의 그래픽 표현을 포함하며; (b) 상기 그래픽 표현에서, 하나 이상의 관심 뼈들(예컨대, 흉곽 뼈들(흉골 및 늑골들을 함께); 예컨대, 늑골들; 예컨대, 흉골) 및 기준 객체(예컨대, 척추; 예컨대, 흉골의 하단부)를 식별[예를 들어, (예컨대, 분할을 통해) 자동으로; 예를 들어, 사용자 상호작용을 통해, 예를 들어, 그래픽적으로 구분]하게 하며; (c) 각각의 시드 인공 객체가 상기 기준 객체로부터의 제1 거리 구간 내에 있고(예컨대, (i) 상기 시드 인공 객체의 각각의 지점에 대해, 상기 지점으로부터 상기 기준 객체의 일 표면까지의 최단 거리가 상기 제1 거리 구간 내에 있음; 예컨대, (ii) 상기 시드 인공 객체의 각각의 지점에 대해, 상기 지점으로부터 상기 기준 객체의 중심선까지의 최단 거리가 상기 제1 거리 구간 내에 있음) 상기 그래픽 표현의 어느 관심 뼈의 일 영역에 대응하는, 하나 이상의 시드 인공 객체들을 자동으로 생성하게 하고; (d) 각각의 자동으로 생성된 시드 인공 객체에 대해, 연관된 복수의 후속 인공 객체들을 자동으로 생성하여, 영상 내에 인공 객체들의 세트를 생성하게 하며(예컨대, 상기 세트는 상기 시드 및 후속 인공 객체들을 포함함); (e) 상기 영상 내의 상기 인공 객체들의 세트를 이용하여[예를 들어, 각각의 랜드마크가 상기 영상 내의 대응하는 인공 객체들에 기초하여 결정되는, 인공 랜드마크들의 세트를 이용하여(예컨대, 상기 인공 랜드마크들의 세트의 각각의 인공 랜드마크는 상기 인공 객체들의 세트의 각각의 인공 객체의 질량 중심으로서 계산됨)] 상기 피검체의 하나 이상의 영상들의 정합을 자동으로 수행하게 한다.
특정 실시예에서, 상기 명령들은, 상기 프로세서로 하여금, 다음의 단계들에 의해 하나 이상의 시드 인공 객체들을 자동으로 생성하게 한다: 3차원의 복수의 지점들 각각에서의 강도(예컨대, 숫자, 예컨대, 음수가 아닌 숫자) 값들을 포함하는 거리 맵을 결정하는 단계 - 거리 맵의 강도 값들 각각은 3D 공간의 주어진 지점으로부터 기준 객체까지의 거리(예컨대, (i) 주어진 지점으로부터 식별된 기준 객체의 어느 표면까지의 최단 거리; 예컨대, (ii) 주어진 지점으로부터 식별된 기준 객체의 중심선까지의 최단 거리)에 대응함 - ; 거리 맵으로부터 거리 구간 마스크를 생성하는 단계[예를 들어, 거리 구간 마스크는 이진 마스크이고, 기준 객체까지 어느 거리 구간(예컨대, 제1 거리 구간) 내의 거리를 갖는 지점들에는 제1 값(예컨대, 숫자 1, 예컨대, 부울(Boolean) 참)이 할당되고, 다른 지점들에는 제2 값(예컨대, 숫자 0, 예컨대, 부울 거짓)이 할당됨]; 및 거리 구간 마스크와 식별된 하나 이상의 관심 뼈들에 대응하는 마스크 사이에 AND 연산(예컨대, 지점별 AND 연산)을 적용하고, 그에 의해 기준 객체로부터 제1 거리 구간 내에 있는 식별된 관심 뼈들의 복수의 영역들을 식별하는 단계.
특정 실시예에서, 각각의 자동으로 생성된 시드 인공 객체에 대하여, 연관된 복수의 후속 인공 객체들은 인공 객체들의 등거리 사슬을 포함한다.
특정 실시예에서, 각각의 인공 객체는 그래픽 표현 내에서 식별된 부가적인 뼈(예컨대, 흉골)로부터의 미리 정의된 임계 거리(예컨대, 표면으로부터의 거리; 예컨대, 중심선으로부터의 거리)에 있다.
특정 실시예에서, 상기 명령들은 상기 프로세서로 하여금, 그래픽 표현의 제1 및 제2 관심 뼈 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는, 영상의 하나 이상의 위험 영역들을 식별하게 하고(예컨대, 하나 이상의 형태학적 연산(예컨대, 형태학적 폐쇄 연산을 포함) 및 하나 이상의 논리 연산을 상기 식별된 관심 뼈들에 대응하는 마스크에 적용함으로써, 영상의 하나 이상의 위험 영역들을 자동으로 식별함), 영상 내의 임의의 식별된 위험 영역으로부터 충분히 멀리 있도록 각각의 인공 객체를 생성하게 한다(예컨대, 가장 가까운 식별된 위험 영역으로부터 적어도 미리 정의된 제3 임계 거리에 있음; 예컨대, 각각의 인공 객체의 각각의 지점에 대해, 해당 지점으로부터 식별된 위험 영역까지의 최단 거리가 적어도 제3 임계 거리에 있음)
특정 실시예에서, 상기 명령들은 상기 프로세서로 하여금, 시드 인공 객체로부터 시작하여 단계적 방식으로, 후속하는 새로운 인공 객체들을 생성하게 함 - 각각의 새로 생성된 인공 객체는 관심 뼈를 따라, 식별된 기준 객체로부터 멀어지게 바깥쪽으로(예컨대, 이전에 생성된 인공 객체로부터 미리 정의된 거리로) 진행함 - 으로써 관심 뼈를 따라 인공 객체들의 사슬을 생성하는 것에 의해, 각각의 시드 인공 객체와 연관된 복수의 후속하는 인공 객체들을 자동으로 생성하게 한다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금, 다음의 단계들에 의해 각각의 시드 인공 객체와 연관된 인공 객체들의 사슬을 생성하게 한다 - 인공 객체들의 사슬의 적어도 하나의 새로 생성된 인공 객체에 대해: 새로 생성된 인공 객체가 그래픽 표현 내의 식별된 부가적인 뼈(예컨대, 흉골)로부터 미리 결정된 임계 거리 내에 있는지 판단하는 단계; 및 새로 생성된 인공 객체가 영상의 식별된 부가적인 뼈(예컨대, 흉골)로부터 미리 결정된 임계 거리 내에 있다고 판단하는 것에 응답하여, 각각의 시드 인공 객체와 관련된 후속하는 인공 객체들의 생성을 종료시키는 단계.
특정 실시예에서, 상기 명령들은 프로세서로 하여금: 그래픽 표현 내의 제1 및 제2 관심 뼈 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는 영상의 하나 이상의 위험 영역들을 식별하게 하고, 그리고, 다음의 단계들에 의해 각각의 시드 인공 객체와 연관된 인공 객체들의 사슬을 생성하게 한다 - 인공 객체들의 사슬의 적어도 하나의 새로 생성된 인공 객체에 대해: 새로 생성된 인공 객체가 상기 영상의 식별된 위험 영역으로부터 미리 결정된 임계 거리 내에 있는지 판단하는 단계; 및 새로 생성된 인공 객체가 영상의 식별된 위험 영역으로부터 미리 결정된 임계 거리 내에 있다고 판단하는 것에 응답하여, 각각의 시드 인공 객체와 관련된 후속하는 인공 객체들의 생성을 종료시키는 단계.
특정 실시예에서, 상기 영상 내의 인공 객체들의 세트 중 각각의 인공 객체(예컨대, 각각의 늑골 인공 객체 및/또는 각각의 흉골 인공 객체)는 적어도 하나의 미리 정의된 임계 부피를 갖는 것으로 확인된다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금 다음의 단계들에 의해 하나 이상의 시드 인공 객체들을 자동으로 생성하게 한다: 기준 객체로부터 제1 거리 구간 내에 있는 하나 이상의 관심 뼈들의 복수의 영역들에 대응하는 예상 시드 인공 객체들의 세트를 생성하는 단계; 예상 시드 인공 객체들의 세트에 대해 부피 필터를 적용하는 단계 - 부피 필터의 적용은, 미리 정의된 임계 부피 미만의 부피를 표현하는 것으로 판단된 인공 객체들을 상기 세트로부터 제거함 - ; 및 부피 필터의 적용 이후에, 예상 시드 인공 객체들의 세트로부터 시드 인공 객체를 선택하는 단계.
특정 실시예에서, 상기 명령들은 프로세서로 하여금: 피검체의 제1 영상 및 피검체의 제2 영상을 수신하게 하고; 인공 객체들의 각각의 교차-영상 쌍이 제1 영상의 인공 객체들의 제1 세트 중 제1 인공 객체와 제2 영상의 인공 객체들의 제2 세트 중 대응하는 제2 인공 객체를 포함하는, 인공 객체들의 복수의 교차-영상 쌍들을 식별하게 하며; 인공 객체들의 각각의 교차-영상 쌍에 대해, 제1 인공 객체의 부피와 제2 인공 객체의 부피 사이의 차이를 판단하게 하고; 그리고, 판단된 부피 차이가 미리 정의된 임계 차이를 초과하는 교차-영상 쌍들의 인공 객체들을 각각의 개별 영상의 인공 객체들의 각각의 세트로부터 제거하게 한다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금: 상기 영상 내의 인공 객체들의 세트에 기초하여, 영상 정합 변환[예를 들어, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동; 예컨대, 회전); 예컨대, 아핀 변환; 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예를 들어, 비선형 변환(예컨대, 왜곡 필드의 정규화 또는 평활 외삽; 예컨대, 박막 스플라인; 예컨대, 외삽 연산 및/또는 평활 연산을 포함하는 변환); 예를 들어, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하게 하고; 그리고, 영상 정합 변환을 3D 영상의 일 영역에 적용하며, 이에 의해 3D 영상을 정합(예컨대, 영상의 왜곡 정정 및/또는 상기 3D 영상을 피검체의 하나 이상의 상이한 3D 영상들에 상호-정합)하게 한다.
특정 실시예에서, 영상 정합 변환은 3D 영상의 대칭을 산출하고, 이에 의해 영상에서의 왜곡을 정정한다.
특정 실시예에서, 수신된 영상은 제1 영상에 대응하고, 영상 정합 변환은 제1 영상을 피검체의 제2 영상과 정렬하여, 그에 의해 제1 영상을 제2 영상과 상호-정합시킨다.
특정 실시예에서, 상기 명령들은 프로세서로 하여금 다음의 단계들에 의해 영상 정합 변환을 결정하게 한다: 영상 내의 인공 객체들의 세트로부터, 영상 내의 인공 랜드마크들의 세트를 결정하는 단계 - 각각의 랜드마크는 대응하는 인공 객체로부터 결정된 지점에 대응함 - ; 및 영상 내의 인공 랜드마크들의 세트 및 목표 랜드마크들의 세트를 사용하여, 영상 정합 변환[예를 들어, 선형 변환(예컨대, 강체 변환(예컨대, 병진이동; 예컨대, 회전); 아핀 변환; 예컨대, 하나 이상의 강체 변환 및/또는 아핀 변환의 임의의 조합); 예를 들어, 비선형 변환(왜곡 필드의 정규화 또는 평활 외삽; 예컨대, 박막 스플라인; 예컨대, 외삽 연산 및/또는 평활 연산을 포함하는 변환); 예를 들어, 하나 이상의 선형 변환 및 하나 이상의 비선형 변환의 조합]을 결정하는 단계 - 영상 정합 변환은 영상 내의 인공 랜드마크들에 대응하는 지점들에 적용될 때, 인공 랜드마크들의 세트의 목표 랜드마크들의 세트와의 정렬을 실질적으로 최적화하도록 결정됨 -
특정 실시예에서, 목표 랜드마크들의 세트는 대칭적이다[예를 들어, 목표 랜드마크들의 세트는, 피검체의 우측의 하나 이상의 관심 뼈들과 연관된 복수의 우측 목표 랜드마크들과, 각각의 우측 목표 랜드마크에 대해, 피검체의 좌측의 매칭되는 관심 뼈와 연관된 매칭되는 좌측 목표 랜드마크를 포함하며, 이때, 각각의 우측 목표 랜드마크에 대해, 우측 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서, 매칭되는 좌측 목표 랜드마크의 위치에 맵핑되고, 각각의 좌측 목표 랜드마크에 대해, 좌측 목표 랜드마크의 위치는 영상에 적용되는 거울 연산(예컨대, y-z 평면 주위로 거울 대칭) 하에서, 매칭되는 우측 목표 랜드마크의 위치에 맵핑됨]
특정 실시예에서, 상기 명령들은 프로세서로 하여금 영상 내의 인공 랜드마크들의 세트를 이용하여 목표 랜드마크들의 세트를 결정하게 한다.
특정 실시예에서, 목표 랜드마크들의 세트는 미리 결정된 목표 랜드마크들(예컨대, 수신된 영상과는 상이한, 피검체의 하나 이상의 3D 영상들로부터 결정됨; 예컨대, 서로 다른 피검체들의 하나 이상의 3D 영상들을 포함하는 복수의 3D 영상들로부터 결정됨)의 세트이다.
특정 실시예에서, 수신된 3D 영상은 연조직(예컨대, 폐, 심장 등)의 그래픽 표현에 대응하는 하나 이상의 영역을 포함하고, 상기 명령들은 프로세서로 하여금, 연조직(예컨대, 폐, 심장 등)의 그래픽 표현에 대응하는 영상의 하나 이상의 영역에 대해 영상 정합 변환을 적용하게 하고, 이에 의해 연조직 영역들을 정합(예컨대, 연조직 영역들에서의 왜곡을 정정 및/또는 연조직 영역들을 피검체의 하나 이상의 서로 다른 3D 영상과 상호-정합)하게 한다.
특정 실시예에서, 피검체의 수신된 3D 영상은 제1 모드(예컨대, 마이크로 CT)를 통해 기록된 제1 영상에 대응하고, 상기 명령들은 프로세서로 하여금, 제2 모드(예컨대, 제1 모드와는 상이함; 예컨대, PET; 예컨대, 광 이미징 모드(예컨대, FMT))를 통해 기록된 제2 영상을 수신하게 하고; 영상 내의 인공 객체들의 세트에 기초하여 제1 영상 정합 변환을 결정하게 하며; 제1 영상 정합 변환에 기초하여, 제2 영상 정합 변환을 결정하게 하고; 그리고, 제2 영상 정합 변환을 제2 영상의 일 영역에 적용하게 한다.
특정 실시예에서, 제2 영상은 피검체가 실질적으로 유사한 자세 및/또는 위치에 있으며, 제1 영상과 실질적으로 동시에 기록된다(예컨대, 피검체는 제1 및 제2 영상의 기록 동안 고정된 자세 및/또는 위치에 있음; 예컨대, 제1 및 제2 영상들은 다중모드 이미징 시스템을 사용하여 기록됨)
특정 실시예에서, 제2 영상 정합 변환은 제1 영상 정합 변환과 동일하다.
특정 실시예에서, 제1 영상의 복수의 지점들의 좌표들은 기지의 기능적 관계를 통해(예컨대, 제1 및 제2 이미징 모드들 사이의 기지의 공간 관계에 기초하여) 제2 영상의 복수의 지점들의 좌표들과 관련된다.
특정 실시예에서, 3D 영상은 늑골들 및 척추의 그래픽 표현을 포함하고, 식별된 하나 이상의 관심 뼈들은 늑골들을 포함하며, 식별된 기준 객체는 피검체의 척추이다.
특정 실시예에서, 늑골의 그래픽 표현은 복수의 반대되는 늑골들의 쌍들(예컨대, 반대되는 늑골들의 각각의 쌍은 우측 늑골 및 대응하는 좌측 늑골을 포함함)을 포함하고, 복수의 늑골 인공 객체들의 일 부분의 각각의 늑골 인공 객체는 늑골 인공 객체들의 복수의 쌍들 중 하나에 속하며, 각각의 쌍은 반대되는 늑골들의 한 쌍의 제1 늑골(예컨대, 우측 늑골)에 관련된 제1 늑골 인공 객체 및 반대되는 늑골들의 상기 쌍의 제2 늑골(예컨대, 좌측 늑골)에 관련된 제2 늑골 인공 객체를 포함하고, 늑골 인공 객체들의 각각의 쌍에 대해, (i) 상기 쌍의 제1 객체에 의해 표현되는 부피와 상기 쌍의 제2 객체에 의해 표현되는 부피의 차이가 미리 정의된 임계 부피 차이 미만이고, 그리고/또는 (ii) 상기 쌍의 제1 객체의 높이와 상기 쌍의 제2 객체의 높이의 차이가 미리 정의된 임계 높이 차이 미만이다.
특정 실시예에서, 그래픽 표현 내의 늑골들은 반대되는 늑골들의 하나 이상의 쌍을 포함(예컨대, 반대되는 늑골들의 각각의 쌍은 우측 늑골 및 대응하는 좌측 늑골을 포함함)하고, 상기 명령들은 프로세서로 하여금 다음의 단계들에 의해 복수의 시드 늑골 인공 객체들을 자동으로 생성하게 한다: 척추로부터 어느 거리 구간 내에 있는 늑골들의 복수의 영역들에 대응하는 예상 시드 늑골 인공 객체들의 세트를 식별하는 단계; 예상 시드 늑골 인공 객체들의 하나 이상의 쌍들을 자동으로 식별하는 단계 - 각각의 쌍은, 늑골들의 상기 쌍 중 제1 늑골의 제1 시드 늑골 인공 객체 및 상기 반대되는 늑골의 대응하는 제2 시드 늑골 인공 객체를 포함함 - ; 쌍 비교 필터를 예상 시드 늑골 인공 객체들의 세트에 적용하는 단계 - 쌍 비교 필터의 적용은, 상기 세트로부터, (i) 상기 쌍의 제1 객체에 의해 표현되는 부피와 상기 쌍의 제2 객체에 의해 표현되는 부피의 차이가 미리 정의된 임계 부피 차이를 초과하는, 그리고/또는 (ii) 상기 쌍의 제1 객체의 높이와 상기 쌍의 제2 객체의 높이의 차이가 미리 정의된 임계 높이 차이를 초과하는, 인공 객체들의 쌍들을 제거함 - ; 및 쌍 비교 필터의 적용 이후, 예상 시드 늑골 인공 객체들의 상기 세트로부터 각각의 시드 늑골 인공 객체를 선택하는 단계.
특정 실시예에서, 3D 영상은 피검체의 흉골 및 흉골의 하단부의 그래픽 표현을 포함한다.
특정 실시예에서, 하나 이상의 관심 뼈들은 그래픽 표현에서 흉골을 포함하고, 기준 객체는 흉골의 하단부를 포함한다.
본 개시의 전술한 그리고 다른 목적들, 측면들, 특징들 및 이점들은 첨부된 도면과 관련한 다음의 설명을 참조함으로써 보다 명백해지고 더 잘 이해될 것이다.
도 1은 예시적인 실시예에 따른, 서로 다른 시점에 기록된 마우스의 서로 다른 3D 영상 내에서 식별된 흉곽 뼈들의 그래픽 표현의 투영을 각각 나타내는, 마우스의 흉곽 뼈들의 그래픽 표현을 포함하는 일련의 영상들이다.
도 2는 예시적인 실시예에 따른, 왜곡 정정의 결과를 도시하는, 마우스의 흉곽 뼈들의 그래픽 표현을 포함하는 2개의 영상들의 세트이다.
도 3은 예시적인 실시예에 따른, 기록된 영상들에 왜곡 정정 및 상호-정합이 적용된, 서로 다른 시간에 기록된 일련의 영상들이다.
도 4는 예시적인 실시예에 따른, 회전에 대응하는 선형 변환의 적용의 결과 및 왜곡 필드 정정에 대응하는 비선형 변환의 적용의 결과를 나타내는 영상들의 세트이다.
도 5는 예시적인 실시예에 따른, 영상들에서 표현되는 흉골, 좌측 늑골들, 및 우측 늑골들을 따라 일련의 자동으로 생성된 일련의 인공 랜드마크들을 나타내는 영상들의 세트이다.
도 6은 예시적인 실시예에 따른, 왜곡 필드의 x-성분을 나타내는, 영상 좌표들의 함수로서, 결정된 왜곡 정정 함수를 나타내는 강도 맵이다.
도 7은 예시적인 실시예에 따른, 복수의 인공 랜드마크들의 위치들에서 왜곡 필드의 x-성분을 나타내는 왜곡 정정 함수의 측정 및 외삽된 값들을 도시하는 그래프이다.
도 8은 예시적인 실시예에 따른, 좌측 및 우측 늑골을 따라 생성된 인공 객체들을 나타내는 영상이다.
도 9는 예시적인 실시예에 따른, 피검체의 늑골들을 따라 인공 랜드마크들을 이용하여 단일 영상의 왜곡을 정정하거나 다수의 영상들을 왜곡 정정 및/또는 상호-정합하기 위한 프로세스의 블록 흐름도이다.
도 10은 예시적인 실시예에 따른, 피검체의 뼈들을 따르는 인공 랜드마크들을 이용하여 단일 영상의 왜곡을 장정하거나 다수의 영상들을 왜곡 정정 및/또는 상호-정합하기 위한 프로세스의 블록 흐름도이다.
도 11은 예시적인 실시예에 따른, 이웃하는 늑골들이 서로 근접하는, 영상의 자동으로 검출된 위험 영역들을 나타내는 영상이다.
도 12는 예시적인 실시예에 따른, 부피 필터의 적용 전후에 영상 내의 복수의 늑골들을 따라 생성된 인공 객체들을 나타내는 2개의 영상들의 세트이다.
도 13은 예시적인 실시예에 따른, 본원에 설명된 방법 및 시스템에서 사용하기 위한 예시적인 네트워크 환경의 블록도이다.
도 14는 본 발명의 예시적인 실시예에서 사용하기 위한 예시적인 컴퓨팅 장치 및 예시적인 모바일 컴퓨팅 장치의 블록도이다.
도 15는 예시적인 실시예에 따른, 기록된 영상들에 어떠한 정합(예컨대, 왜곡 정정, 상호-정합)도 적용되지 않은, 서로 다른 시간에 기록된 일련의 영상들이다.
도 16은 예시적인 실시예에 따른, 병진이동 연산에 대응하는 변환이 각각의 이미지에 적용된, 서로 다른 시간에 기록된 일련의 영상들이다.
도 17은 예시적인 실시예에 따른, 선형 변환이 각각의 영상에 적용된, 서로 다른 시간에 기록된 일련의 영상들이다.
도 18은 예시적인 실시예에 따른, 선형 연산에 후속하는 비선형 연산을 포함하는 변환이 각각의 영상에 적용된, 서로 다른 시간에 기록된 일련의 영상들이다.
도 19는 예시적인 실시예에 따른, 영상들의 비선형 정합 이후의 피검체의 뼈들 및 폐의 통기된(aerated) 영역들의 그래픽 표현들을 나타내는 일련의 영상들이다.
본 개시의 특징들 및 이점들은 도면들과 함께 아래에 제시된 상세한 설명으로부터 더욱 명백해질 것이며, 도면들에서, 유사한 참조 문자들은 전체에 걸쳐, 대응하는 구성요소들을 나타낸다. 도면에서, 유사한 도면 부호는 일반적으로 동일하거나, 기능적으로 유사한, 및/또는 구조적으로 유사한 구성요소를 나타낸다.
정의
대략: 본원에 사용되는 바와 같이, 하나 이상의 관심 값에 적용되는 용어 "대략" 또는 "약"은, 언급된 기준값과 유사한 값을 지칭한다. 특정 실시예에서, 용어 "대략" 또는 "약" 은, 달리 언급되지 않거나 문맥으로부터 다르게 명시되지 않으면, 그리고, 그러한 수가 가능한 값의 100%를 초과하는 경우를 제외하고는, 언급된 기준값의 어느 방향이든지(더 크거나 또는 더 작게) 25%, 20%, 19%, 18%, 17%, 16%, 15%, 14%, 13%, 12%, 11%, 10%, 9%, 8%, 7%, 6%, 5%, 4%, 3%, 2%, 1%, 또는 그 미만에 속할 수 있는 값들의 범위를 지칭한다.
영상: 본원에 사용된 바와 같이, 예를 들어, 포유류의 3D 영상과 같은 "영상"은 사진, 비디오 프레임, 또는 스트리밍 비디오의 임의의 전자적, 디지털 또는 수학적 아날로그와 같은, 사진, 비디오 프레임, 스트리밍 비디오 등의 임의의 시각적 표현을 포함한다. 특정 실시예에서, 본원에 설명된 임의의 장치는, 프로세서에 의해 생성된 영상 또는 임의의 다른 결과를 표시하기 위한 디스플레이를 포함한다. 특정 실시예에서, 본원에 설명된 임의의 방법은 해당 방법을 통해 생성된 영상 또는 임의의 다른 결과를 표시하는 단계를 포함한다.
3D, 3차원: 본원에서 사용되는 바와 같이, "3D" 또는 "3차원"의 "영상"은 3차원에 대한 정보를 전달하는 것을 의미한다. 3D 영상은 3차원에서의 데이터 집합으로서 렌더링될 수 있고/있거나, 2차원 표현의 세트로서 또는 3차원 표현으로서 표시될 수 있다. 특정 실시예에서, 3D 영상은 복셀(voxel)(예컨대, 체적 픽셀) 데이터로서 표현된다. 본원에서 사용되는 바와 같이, "영상의 지점(point)"이라는 문구는 영상의 복셀(voxel)을 지칭한다.
다양한 의료 영상 장치 및 다른 3D 영상 장치(예컨대, 컴퓨터 단층촬영 스캐너(CT 스캐너), 마이크로CT 스캐너 등)는 복셀(voxel)을 포함하는 3D 영상을 출력하거나, 분석을 위해 복셀을 포함하는 3D 영상으로 변환된 출력을 가진다. 특정 실시예에서, 복셀은 3D 영상(예컨대, 3D 어레이)에서의 고유한 좌표에 대응한다. 특정 실시예에서, 각각의 복셀은 채워진 상태 또는 채워지지 않은 상태(예컨대, 2진 ON 또는 OFF) 중 어느 하나로 존재한다.
영상의 영역: 본원에서 사용되는 바와 같이, "영상의 영역"에서 사용되는 용어 "영역"은 영상 내의 지점들의 집합(collection)을 지칭한다. 영상의 영역은 영상의 기준 객체로부터 특정 거리 구간 내에 있는 영역으로서 식별될 수 있다. 특정 실시예에서, 기준 객체는 영상 내의 특정한 단일 지점이고, 식별된 영역은 지점들의 집합이며, 영역의 각각의 지점에 대해, 주어진 지점으로부터 기준 지점까지의 거리는 특정 거리 구간 내에 있다. 특정 실시예에서, 기준 객체는 1차원(1D) 선이고, 식별된 영역은 지점들의 집합이며, 영역의 각각의 지점에 대해, 주어진 지점으로부터 상기 1D 기준 선의 지점까지의 최단 거리는 특정 거리 구간 내에 있다. 특정 실시예에서, 기준 객체는 2차원(2D) 면이고, 식별된 영역은 지점들의 집합이며, 영역의 각각의 지점에 대해, 주어진 지점으로부터 2D 면의 지점까지의 최단 거리는 특정 거리 구간 내에 있다. 특정 실시예에서, 기준 객체는 영상의 3차원 영역이고, 식별된 영역은 지점들의 집합이며, 영역의 각각의 지점에 대해, 주어진 지점으로부터 기준 객체의 표면까지의 최단 거리는 특정 거리 구간 내에 있다. 특정 실시예에서, 기준 객체는 영상의 3차원 영역이고, 식별된 영역은 지점들의 집합이며, 영역의 각각의 지점에 대하여, 주어진 지점으로부터 기준 객체의 중심선까지의 최단 거리는 특정 거리 구간 내에 있다.
마스크: 본원에 사용되는 바와 같이, "마스크"는 2D 또는 3D 영역을 식별하는 그래픽 패턴이고, 영상 또는 다른 그래픽 패턴의 부분들의 제거 또는 유지를 제어하는 데에 사용된다. 특정 실시예에서, 마스크는 2진 2D 또는 3D 영상으로서 표현되고, 여기서, 2D 영상의 각각의 픽셀 또는 3D 영상의 각각의 복셀은 2진 세트의 값들의 2개의 값들 중 하나로 할당된다(예컨대, 각각의 픽셀 또는 복셀에는 1 또는 0이 할당될 수 있고, 예컨대, 각각의 픽셀 또는 복셀은 부울 "참" 또는 "거짓" 값으로 할당될 수 있다)
정합: 본원에 사용된 바와 같이, 하나 이상의 영상의 정합 또는 하나 이상의 영상을 정합하는 것에서와 같은, 용어 "정합(registration)" 및 "정합(registering)"은 표준화된 뷰를 갖는 대응하는 영상 또는 대응하는 영상들을 생성하기 위해 영상 또는 영상들을 변환하는 것을 지칭한다. 특정 실시예에서, 영상의 정합은 영상의 대칭화된 버전을 생성하기 위해 영상의 왜곡을 정정하는 것을 포함한다. 특정 실시예에서, 영상의 정합은 영상을 하나 이상의 다른 영상들과 상호-정합하는 것을 포함한다.
제공: 본원에 사용된 바와 같이, "데이터를 제공하는"에서와 같은, 용어 "제공하다"는 서로 다른 소프트웨어 어플리케이션, 모듈, 시스템, 및/또는 데이터베이스 사이에서의 데이터를 전달하는 프로세스를 말한다. 특정 실시예에서, 데이터의 제공은 소프트웨어 어플리케이션들 사이에서, 또는 동일한 소프트웨어 어플리케이션의 서로 다른 모듈들 사이에서 데이터를 전달하는, 프로세스에 의한 명령들의 실행을 포함한다. 특정 실시예에서, 소프트웨어 어플리케이션은 파일의 형태로 다른 어플리케이션에 데이터를 제공할 수 있다. 특정 실시예에서, 어플리케이션은 동일 프로세서 상의 다른 어플리케이션에 데이터를 제공할 수 있다. 특정 실시예에서, 서로 다른 자원들 상의 어플리케이션들에 데이터를 제공하기 위해 표준 프로토콜들이 사용될 수 있다. 특정 실시예에서, 소프트웨어 어플리케이션 내의 모듈은 다른 모듈에 인자들을 전달함으로써 해당 모듈에 데이터를 제공할 수 있다.
청구되는 발명의 시스템, 아키텍처, 장치, 방법 및 프로세스는 본원에 설명된 실시예로부터의 정보를 이용하여 개발된 변형들 및 적응들을 포함하는 것으로 고려된다. 본원에서 고려되는 바와 같이, 본원에 설명된 시스템, 아키텍처, 장치, 방법, 및 프로세스의 적응 및/또는 수정이 수행될 수 있다.
물건(article), 장치, 시스템, 및 아키텍처가 특정 구성요소들을 갖거나, 포함하거나(including), 포함하는(comprising) 것으로 설명되는, 또는 프로세스 및 방법이 특정 단계들을 갖거나, 포함하거나(including), 포함하는(comprising) 것으로 설명되는 상세한 설명을 통틀어서, 인용된 구성요소들로 본질적으로 구성되거나(consist essentially of), 구성되는(consist of), 본 발명의 물건, 장치, 시스템, 및 아키텍처가 부가적으로 존재하고, 그리고, 인용된 처리 단계들로 실질적으로 구성되거나, 구성되는 본 발명에 따른 프로세스 및 방법이 부가적으로 존재한다는 것이 고려되어야 한다.
본 발명이 동작가능하게 유지되는 한, 특정 동작을 수행하기 위한 순서 또는 단계들의 순서는 중요하지 않음을 이해해야 한다. 또한, 2개 이상의 단계 또는 동작이 동시에 수행될 수 있다.
예를 들어, 배경기술에서의 임의의 공개문헌의 언급은, 해당 공개문헌이 본원에 제시된 임의의 청구항에 관하여 종래 기술로서의 역할을 하는 것임을 인정하는 것이 아니다. 배경기술은 명확화를 위해 제공되고, 임의의 청구항에 대한 종래 기술의 설명으로서 의도되지 않는다.
문헌들은 언급된 바와 같이 본원에 참고로서 포함된다. 특정 용어의 의미에 불일치가 있는 경우, 이상의 정의에서 제공된 의미가 적용된다.
헤더는 판독기의 편의를 위해 제공되며, 헤더의 존재 및/또는 배치는 본원에 설명된 주제의 범위를 제한하는 것으로 의도되지 않는다.
3D 영상들 내에 도시된 뼈들을 따른 인공 랜드마크들의 자동화된 생성을 통해 3D 영상들의 왜곡 정정 및/또는 상호-정합을 위한 시스템들 및 방법들이 개시된다.
특정 실시예에서, 여기에 설명된 접근법은 서로 다른 시점들에서 기록되는 피검체의 어느 영역의 3D 영상들의 비교를 용이하게 한다. 각각의 영상이 서로 다른 시점에서 기록되는 다수의 3D 영상들을 비교하는 것은 폐 질환과 같은 질병의 진행을 모니터링하는 것과 관련된다. 특정 실시예에서, 질병 진행의 모니터링은 3D 영상에서의 데이터 기록에 기초하여, 시간에 따른 종양 성장, 섬유증, 부종 및 이들의 조합을 측정하는 단계를 포함한다. 특정 실시예에서, 폐 조직 및 주변 결합 조직의 형태학적 변화는 폐 질환의 진행에 대한 생리학적 반응으로서 발생하고, 따라서, 시간에 따라 모니터링된다. 예를 들어, 종양 부피의 변화에 부가하여, 연구자 또는 임상의는 피검체의 늑골들과 관련하여 피검체의 폐의 하향 확장을 모니터링하기를 원할 수 있고, 이러한 폐 형태에서의 변화는 피검체의 폐의 영역들의 부피 및/또는 기능의 감소에 대한 보상을 나타낼 수 있다.
각각의 영상에 대해, 피검체(예컨대, 마우스, 예컨대, 인간 피검체)는 종종 서로 다른 자세 및 위치에 있기 때문에, 이런 식으로, 서로 다른 시점에 기록된 서로 다른 영상들을 비교함으로써 3D 영상을 분석하는 것은 어려운 작업이다. 따라서, 피검체의 조직 형태(예컨대, 폐 조직)의 변화를 나타내는 의미있는 변화와는 별개로, 서로 다른 시점에 기록된 영상들은 또한, 각각의 영상이 기록되는 동안 피검체의 자세 및 위치의 차이로부터 기인하는 왜곡들 및 위치 차이들에 대응하는, 서로에 대한 변화들을 포함한다.
도 1은 마우스의 축상 골격 뼈들의 그래픽 표현을 나타내는 일련의 4개의 투영(102, 104, 106, 108)을 도시한다. 각각의 투영은 3D 영상에서 축상 골격 뼈들을 식별하는 3D 마스크의 투영이다. 각각의 투영에서, 각각의 픽셀의 강도는 3차원을 따른 마스크 복셀들의 평균 강도이다. 각각의 투영은 각각의 영상이 서로 다른 시점에 기록된, 마우스의 특정 영역의 서로 다른 3D 영상에 대응한다. 표시된 투영들이 대응하는 4개의 영상들 각각은 이전 영상으로부터 약 1주일 이후에 기록되었다(예컨대, 투영(102)은 제1 영상에 대응하고, 투영(104)은 제1 영상으로부터 약 1주일 이후에 기록된 제2의 3D 영상에 대응하며, 투영(106)은 제2 영상으로부터 약 1주일 이후에 기록된 제3 영상에 대응하고, 투영(108)은 제3 영상으로부터 약 1주일 이후에 기록된 제4 영상에 대응한다) 각각의 투영에 도시된 마우스의 뼈들의 형상 및 방향의 차이는 각각의 영상이 기록되는 동안 마우스가 있었던 다소 임의의 자세 및/또는 위치를 예시한다.
도 2를 참조하면, 특정 실시예에서, 피검체의 하나 이상의 영상들에 대해 왜곡 정정(distortion correction)이 적용되고, 그에 의해, 주어진 영상이 기록된 시점에서 피검체의 자세의 차이들이 정정된다. 도 2는 마우스의 흉곽(예컨대, 복수의 늑골들)뿐만 아니라 척추를 포함하는 마우스의 특정 영역의 3D 영상에서, 축상 골격 뼈들을 식별시키는 마스크들의 2개의 투영들의 세트(200)를 도시한다. 좌측 투영(210)은 왜곡 정정 전의, 마우스의 흉곽 뼈들을 나타내고, 우측 투영(250)은 왜곡 정정 후의, 동일한 3D 영상의 마우스의 흉곽 뼈들을 나타낸다. 투영(210)에 도시된 마우스의 골격의 부분은 3D 영상이 기록되었을 때 마우스의 특정 자세를 반영하는 비대칭 형상을 갖는다. 왜곡 정정 동작은 3D 영상에 적용될 때, 마우스의 골격이 대칭 형상을 갖도록 영상을 변환하여, 투영(250)이 대응하는 정정된 3D 영상을 산출한다. 특히, (투영(250)이 대응하는) 왜곡 정정된 영상의 각각의 좌표는 이하 설명되는 변환(예컨대, 왜곡 필드 정정)을 통해 (투영(210)이 대응하는) 원래의 영상의 대응하는 좌표와 관련된다. 따라서, 주어진 영상의 왜곡 정정은 영상에 적용될 때, 대칭화된 버전을 생성하는 적절한 변환을 결정하는 것을 포함한다.
도 3을 참조하면, 특정 실시예에서, 일련의 영상들(예컨대, 서로 다른 시점에 기록된 각각의 영상)에 상호-정합(co-registration)이 적용된다. 상호-정합은 동일한 물리적 위치가 각각의 영상 내의 한 세트의 좌표들에 의해 표현되도록 다수의 영상들을 정렬한다. 즉, 예를 들어, 피검체의 폐 안의 특정한 물리적 위치에 대응하는 주어진 지점(P)은, 예를 들어 제1 영상에서는 제1 좌표들의 세트(x1, y1, z1)로 표현되고 제2 영상에서는 제2 좌표들의 세트(x2, y2, z2)로 표현되는 것과는 달리, 각각의 영상에서 좌표들의 단일한 세트(x0, y0, z0)로 표현된다.
x-좌표, y-좌표, 및 z-좌표와 같은 좌표 값들이 전문에 걸쳐 사용되지만, 본원에 사용되는 특정 좌표들(예컨대, "x, y, z")은 그 자체로 특별한 의미를 갖지는 않고, 영상 내의 특정한 방향들 및 특정 위치들을 참조하는 데에 편의상 사용되며, 본원에 설명된 시스템 및 방법에 사용하기 위한, 영상 내의 거리들을 측정하기 위한 좌표계 또는 접근법의 임의의 특정한 요구사항을 나타내지 않음을 이해해야 한다. 예를 들어, 영상 내의 특정 지점의 위치를 설명하는 데에 카테시안 좌표계가 사용될 필요는 없고, 구면 좌표계 또는 원통 좌표계와 같은 다른 좌표계가 사용될 수 있다.
특정 실시예에서, 좌표 축들은 주어진 3D 영상을 기록하기 위해 사용되는 영상 획득 장비의 축들에 기초하여 정의된다. 특정 실시예에서, x-좌표, y-좌표, 및 z-좌표 축들은 피검체의 신체에 대한 특정 방향과의 정렬에 기초하여 선택된다.
예를 들어, 특정 실시예에서, x-좌표 축은 피검체의 좌측으로부터 피검체의 우측까지 피검체의 신체를 실질적으로 가로지르는 방향으로, 또는 그 반대로(예컨대, 반대 방향으로) 가장 근접하게 정렬되는 좌표 축으로서 선택된다. 따라서, 특정 실시예에서, x-방향은 피검체의 좌측으로부터 피검체의 우측까지 피검체의 신체를 실질적으로 가로질러 진행하는 방향에, 또는 그 반대에(예컨대, 반대 방향에) 대응한다.
특정 실시예에서, y-좌표 축은 실질적으로 피검체의 앞쪽(예컨대, 가슴)으로부터 피검체의 뒤쪽(예컨대, 척추)까지의 방향, 또는 그 반대(예컨대, 반대 방향)와, 가장 근접하게 정렬되는 좌표 축으로서 선택된다. 따라서, 특정 실시예에서, y-방향은 앞쪽(예컨대, 가슴)으로부터 피검체의 뒤쪽(예컨대, 척추)까지 진행하는 방향에, 또는 그 반대에(예컨대, 반대 방향에) 대응한다.
특정 실시예에서, z-좌표 축은 실질적으로 피검체의 머리에서부터 꼬리까지의 방향, 또는 그 반대(예컨대, 반대 방향)와 가장 근접하게 정렬되는 좌표 축으로서 선택된다. 따라서, 특정 실시예에서, z-방향은 실질적으로 피검체의 머리로부터 꼬리까지 실질적으로 진행되는 방향에, 또는 그 반대(예컨대, 반대 방향)에 대응한다.
특정 실시예에서, 전술한 바와 같이, 피검체를 따른 특정 방향들과 좌표 축들을 정렬하기 위해, 예비적 변환(예컨대, 그래픽 표현에서 식별된 척추의 주 축들 및 또는 식별된 흉골의 주 축들을 사용하여 결정된 예비적 회전 및/또는 병진이동 변환) 단계가 수행된다. 특정 실시예에서, 전술한 바와 같이, 본원에 설명된 인공 랜드마크들을 사용하여 결정된 변환들은 피검체를 따라 특정 방향들로 좌표 축들을 정렬시킨다.
도 3은 서로 다른 시점들에서 수집된 일련의 3D 영상들의 단면들(300)을 도시하며, 여기서, 상기 서로 다른 시점들에 기록된 서로 다른 3D 영상들에 왜곡 정정 및 상호-정합이 적용되었다. xz 평면의 4개의 단면들(예컨대, xz 평면에서의 슬라이스)(304a, 306a, 308a, 및 310a)이 xy 평면의 단면들(304b, 306b, 308b, 및 310b)과 함께 도시되었다. zy 평면의 단면(302) 또한 참조로서 도시되어 있다. 단면들(304a 및 304b)은 제1 시점(t1)에 기록된 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(306a및 306b)은 제2 시점(t2)에 기록된 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(308a및 308b)은 제3 시점(t3)에 기록된 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(310a및 310b)은 제4 시점(t4)에 기록된 영상의 xz 및 xy 평면에 각각 대응한다. 도 3에 도시된 바와 같이, 영상들의 왜곡 정정 및 상호-정합은 시간에 따른 질병 진행(예컨대, 종양 성장, 섬유증, 부종)의 시각화를 용이하게 한다.
A 인공 랜드마크를 통한 영상의 정합
도 4를 참조하면, 특정 실시예에서, 일련의 영상들의 하나 이상의 영상에 하나 이상의 선형 및/또는 비선형 연산들을 포함하는 변환을 적용함으로써 왜곡 정정과 함께 상호-정합이 달성된다. 특정 실시예에서, 변환은 병진이동(translation) 및 회전을 포함하는 선형 변환에 대응한다. 선형 변환은 영상들 내에서 측정되는 바와 같은 객체들의 형상을 유지하지만, 영상들의 임의의 위치 및 회전을 서로에 대하여 정정한다. 특정 실시예에서, 다른 선형 변환들은 강체 변환(예컨대, 병진 이동, 예컨대, 회전), 아핀 변환(affine transformation), 및 이들의 임의의 조합을 포함할 수 있다.
특정 실시예에서, 변환은 왜곡 필드(distortion field)의 정규화 또는 평활(smoothed) 외삽, 박막 스플라인(thin-plate spline), 또는 외삽 연산 및/또는 평활 연산을 포함하는 임의의 변환과 같은, 비선형 변환에 대응한다. 특정 실시예에서, 비선형 변환은 왜곡 필드 정정을 포함한다.특정 실시예에서, 비선형 변환은 (예컨대, 영상들 간의 자세 차이로 인한) 왜곡을 정정된다. 특정 실시예에서, 비선형 변환은 또한, 일련의 영상들의 정교한 상호-정합을 제공한다.
특정 실시예에서, 왜곡 정정을 위해 선형 변환도 사용될 수 있다. 특정 실시예에서, 영상의 정합은 비선형 변환의 결정을 용이하게 하는 예비적 단계로서 선형 변환을 결정하고 적용하는 단계를 포함한다.
도 4는 마우스의 3D 영상에서 식별된 마우스의 흉곽 뼈들의 표현을 보여주는 투영들의 세트(400)이다. 투영들의 세트(400)는 예시적인 실시예에 따라, 회전을 포함하는 제1의, 선형 변환과, 왜곡 필드에 대응하는 제2의, 비선형 변환의 적용을 예시한다. 도 4에서, 제1 투영(402)은 처음에 기록된 바와 같은 3D 영상으로부터 식별된 마우스의 흉곽 뼈들을 나타낸다. 제2 투영(404)은 3D 영상에 대한 회전을 포함하는 선형 변환의 적용 결과를 나타낸다. 따라서, 제2 투영(404)에 도시된 바와 같은 피검체의 흉곽은 제1 투영(402)에 대해 회전된다. 마지막으로, 왜곡 정정을 위한 비선형 변환의 적용 결과가 제3 투영(406)에 도시되어 있다.
따라서, 특정 실시예에서, 영상 내의 왜곡을 정정하고/하거나 영상을 다른 영상과 상호-정합하기 위해, 선형 및/또는 비선형 연산들에 대응하는 하나 이상의 변환이 결정되고 영상에 적용된다. 본원에 설명된 시스템 및 방법은 영상 내의 뼈들의 그래픽 표현으로부터 인공 랜드마크의 결정을 제공한다.
본원에 설명된 실시예에서, 영상들의 정합(예컨대, 왜곡 정정 및/또는 상호-정합을 포함함)은 영상들 내에 인공적으로 생성된 랜드마크들을 사용하여 달성된다. 일반적으로, 랜드마크(landmark)(마커, 태그 또는 제어점이라고도 지칭됨)는 이미징되는 피검체의 특정 물리적 위치에 대응하는 것으로 식별되는 영상 내의 특정 지점에 대응한다. 랜드마크들과 특정 물리적 위치들 간의 대응은, 단일 영상의 왜곡 정정뿐만 아니라, 다수의 영상들의 왜곡 정정 및/또는 상호-정합을 위한 적절한 변환들을 결정하기 위해 이용될 수 있다.
본원에 설명된 인공 랜드마크 기반 정합 접근법은, 2개의 영상들 사이의 상호 정보를 최대화하는 상호-상관을 수행함으로써 상호-정합을 달성하는 이전의 접근법(예컨대, Maes et al, "Multimodality image registration by maximization of mutual information", IEEE Transactions on Medical Imaging 1997, 16(2): 187-198을 참조하라)과는 구분된다. 그러한 상호-상관 기반 접근법들은 어떠한 종류의 랜드마크들도 사용하지 않으며, 영상들의 콘텐츠 내의 변화들이 존재하지 않거나 적은 경우에 가장 잘 동작한다.
특수한 개개의 늑골들, 특수 관절, 척추뼈 등과 같이 자연적으로 발생하는, 기지의 식별가능한 객체들에 대응하는 "자연적인" 랜드마크들과 달리, 인공 랜드마크들은 인공 객체들로부터 결정된다(예컨대, 주어진 인공 랜드마크는 대응하는 인공 객체의 질량 중심으로서 결정될 수 있음) 인공 객체들은, 이하에서 설명되는 바와 같이, 영상들 내의 뼈들의 그래픽 표현들에 적용되는 일련의 형태학적 및 논리적 연산들을 통해, 가상 환경에서 생성되는 실제 뼈들의 부분들에 대응한다. 특히, 영상 내의 자연 객체들의 식별은 특수한 개개의 뼈들을 식별하는 데에 사용되는 영상 처리 방법(예컨대, 분할)에서의 오류들에 민감하지만, 인공 객체들의 생성은 영상 분할 오류들 및 영상 품질 변형들에 대해 강인(robust)하다. 또한, 일련의 형태학적 및 논리적 연산들을 통해 인공 객체들이 생성되기 때문에, 이러한 객체들의 밀도는 자유롭게 변화될 수 있으며, 이는 영상 정합 변환들을 결정하는 데에 유리하다. 따라서, 인공 객체들로부터 결정된 인공 랜드마크들은 영상 정합을 용이하게 한다.
특정 실시예에서, 인공 랜드마크들은 2-단계 프로세스를 통해, 영상 정합에 사용되는 변환을 결정하는 데에 사용된다.
특정 실시예에서, 제1 단계는 영상 정합 변환을 결정하기 위해 영상 내의 인공 랜드마크들과 함께 사용될 목표 랜드마크들의 세트를 획득(예컨대, 결정 또는 수신)하는 단계를 포함한다. 각각의 목표 랜드마크는 영상의 매칭된 인공 랜드마크와 연관되고, 매칭되는 인공 랜드마크의 원하는 위치를 나타내는 목표 좌표들의 세트를 포함한다. 목표 랜드마크들의 세트는 목표 좌표들과 인공 랜드마크들의 정렬이 인공 랜드마크들의 원하는 거동을 산출하도록, 특정 기준을 만족시킨다. 예를 들어, 이하 설명되는 바와 같이, 인공 랜드마크들이 목표 랜드마크들에 정렬됨에 따라, 인공 랜드마크들 자체가 대칭적이 되도록, 목표 랜드마크들의 세트는 대칭적일 수 있다(예컨대, 거울 연산 하에서 실질적으로 불변함)
특정 실시예에서, 제2 단계에서, 영상 정합 변환은 주어진 영상 내의 목표 랜드마크들 및 인공 랜드마크들을 사용하여 결정된다. 특히, 영상 정합 변환은 주어진 영상 내의 인공 랜드마크들의 좌표들에 적용될 때, 인공 랜드마크를 목표 랜드마크들과 정렬하는 변환이다. 특정 실시예에서, 영상 정합 변환을 결정하기 위해, 영상 내의 각각의 그리고 모든 인공 랜드마크에 대한 목표 랜드마크를 획득할 필요는 없고, 영상 정합 변환은 영상의 인공 랜드마크들 및 매칭되는 목표 랜드마크들의 서브세트를 이용하여 결정될 수 있다.
일단 결정되면, 영상 정합 변환은 영상의 다른 지점들(예컨대, 인공 랜드마크에 대응하는 지점들뿐만 아니라)에 적용되어, 영상을 정합할 수 있다. 영상 정합 변환을 결정하는 데에 사용되는 목표 랜드마크에 따라, 영상 정합 변환은 주어진 영상에서 왜곡을 정정하고/하거나, 주어진 영상을 하나 이상의 다른 영상들과 상호-정합할 수 있다.
예를 들어, 주어진 영상의 지점들에 적용될 때, 대칭인 목표 랜드마크들의 세트를 이용하여 결정된 영상 정합 변환은 주어진 영상의 대칭화된 버전을 생성할 것이며, 이에 의해 영상들에서의 왜곡들을 정정할 것이다.
특정 실시예에서, 다수의 영상들을 정합하는 데에 목표 랜드마크들의 하나의 세트가 사용된다. 다수의 영상들을 동일한 세트의 목표 랜드마크들에 정합하는 것은 해당 영상들을 상호-정합시킨다. 목표 랜드마크들의 세트가 대칭인 경우, 목표 랜드마크들을 이용한 각각의 영상의 정합은 각각의 영상의 왜곡을 정정할 뿐 아니라(예컨대, 이에 의해, 각각의 영상의 대칭화된 버전들을 생성함), 해당 영상들을 상호-정합시킨다.
A i 목표 랜드마크의 획득
목표 랜드마크는 다수의 접근법을 통해 획득될 수 있다. 예를 들어, 특정 실시예에서, 이미 존재하는 목표 랜드마크들의 세트가 획득되고(예컨대, 프로세서에 의해 메모리로부터 액세스되거나 검색되고), 하나 이상의 영상들의 정합을 위해 사용된다.
특정 실시예에서, 목표 랜드마크들의 세트는 주어진 영상 내의 인공 랜드마크들을 사용하여 획득된다. 예를 들어, 주어진 영상 내의 인공 랜드마크를 사용하여, 하나 이상의 영상에서 왜곡을 정정하는 데에 사용될 수 있는, 대칭인 목표 랜드마크들의 세트가 결정될 수 있다. 대칭인 목표 랜드마크들의 세트를 결정하기 위해, 주어진 영상 내의 인공 랜드마크들의 세트에 대해 (예컨대, 미리 결정된 특정한 평면(예컨대, yz-평면)에 대해) 거울 연산이 적용되고, 거울 연산 전/후의 인공 랜드마크들의 위치들이 비교된다(예컨대, 원래의 인공 랜드마크들의 위치들이, 거울 연산된 인공 랜드마크들의 위치들과 비교된다) 목표 랜드마크들의 세트(각각의 인공 랜드마크에 대해 결정된 목표 랜드마크를 포함함)가 대칭이 되도록, 인공 랜드마크들 중 적어도 일 부분의 각각의 인공 랜드마크에 대해, 목표 좌표들의 세트(예컨대, 목표 랜드마크)를 결정하는 데에 원래의 인공 랜드마크들의 위치와 거울 대칭된 인공 랜드마크들의 위치의 비교가 사용된다.
예를 들어, 도 5는 (영상(502)에 도시된 바와 같은) 흉골, 피검체(예컨대, 마우스)의 좌측 늑골들(영상(504)에 도시된 바와 같음), 및 우측 늑골들(영상(506)에 도시된 바와 같음)을 따라 생성된, 서로 다른 인공 랜드마크들을 식별하는 마우스의 흉곽 영역의 영상의 일련의 2D 투영들(500)을 나타낸다. 특정 실시예에서, 좌측 늑골들 및 우측 늑골들을 따른 인공 랜드마크들의 위치들은 좌측 늑골들 및 우측 늑골들을 따른 랜드마크들의 거울 대칭된 위치들과 비교된다. 왜곡 정정된(예컨대, 대칭화된) 영상에서의 원하는 거동은 각각의 늑골 상의 각각의 인공 랜드마크에 대해, 인공 랜드마크의 위치가, 매칭되는 반대쪽 늑골 상의 매칭되는 반대쪽 늑골 파트너 랜드마크의 거울 대칭된 위치와 대략적으로 동일한 것이다.
특히, 도 5에 도시된 실시예에서, 피검체의 각각의 늑골을 따라 인공 랜드마크들의 사슬이 생성된다. 따라서, 각각의 늑골 인공 랜드마크는 파검자의 특정 측면(예컨대, 우측 또는 좌측) 상에서 특정 번호의 늑골(예컨대, 제1, 제2, 제3, 등의 늑골) 상에 있는 특정한 물리적 위치에 대응하고, 해당 특정 늑골을 따른 특정 거리(예컨대, 피검체의 척추로부터 멀리 떨어지게, 해당 늑골을 따라 바깥쪽으로 진행함)에 있다. 따라서, 주어진 늑골 인공 랜드마크는 그것이 생성되는 특정 늑골의 번호 및 측면과, 및 해당 특정 늑골을 따르는 거리의 표시(예컨대, 거리에 대응하는 값; 예컨대, 해당 늑골을 따라 사슬 내에서 그의 위치를 식별시키는 인덱스 값)에 의해 식별될 수 있다. 주어진 늑골 인공 랜드마크에 대해, 이와 매칭되는 반대쪽 늑골 파트너는 동일 번호의 늑골을 따라 대략적으로 동일한 거리에 있는, 그러나 피검체의 반대쪽 측면에 있는, 것으로 결정되는 인공 랜드마크다. 인덱스 값과 같은 부가적인 정보는 생성될 때 인공 랜드마크에 연관(예컨대, 할당)될 수 있고, 인공 랜드마크를 반대쪽의 늑골 파트너에 매칭시키는 과정을 용이하게 하는 데에 사용될 수 있다.
늑골 인공 랜드마크를 반대쪽 늑골 파트너 랜드마크에 매칭시킴으로써, 반대되는 늑골 인공 랜드마크들의 복수의 쌍들이 식별되며, 각각의 쌍은 늑골 인공 랜드마크 및 그 반대쪽의 늑골 파트너 랜드마크를 포함한다. 반대쪽 늑골 인공 랜드마크의 식별된 쌍들은 대칭 목표 랜드마크들의 좌표를 결정하는 데에 사용될 수 있다. 예를 들어, 특정 실시예에서, 각각의 인공 랜드마크에 대해, 그의 목표 랜드마크의 좌표들은, 인공 랜드마크의 좌표들 및 그 반대쪽의 늑골 파트너 랜드마크의 거울 대칭된 좌표들의 산술평균으로서 결정된다. 특히, 좌표들(x1, y1, z1)과, 거울 대칭된 좌표들(x2, y2, z2)을 갖는 매칭된 반대쪽 늑골 파트너 랜드마크를 갖는 주어진 인공 랜드마크에 대해, 좌표들의 산술 평균은 ((x1+x2)/2, (y1+y2)/2, (z1+z2)/2)로 결정된다. 각각의 인공 랜드마크에 대해, 이런 식으로 목표 랜드마크들의 좌표들을 결정하는 것은 왜곡 정정에 사용될 수 있는 대칭 목표 랜드마크들의 세트를 생성한다. 특정 실시예에서, 전술한 바와 같은 산술 평균의 계산 이전에, 회전 및 병진이동 변환이 예비 단계로서 적용된다. 특정 실시예에서, 예비적 회전 및 병진이동 변환은 식별된 척추의 주 축들 및/또는 식별된 흉골의 주 축들을 사용하여 결정된다. 특정 실시예에서, 영상 내의 모든 늑골 인공 랜드마크에 대해 목표 랜드마크가 생성될 필요는 없다. 특히, 특정 실시예에서, 주어진 인공 랜드마크에 대해, 매칭되는 반대쪽 늑골 파트너 랜드마크를 식별하는 것이 불가능할 수 있다. 특정 실시예에서, 주어진 인공 랜드마크에 대하여, 매칭되는 반대쪽의 늑골 파트너 랜드마크가 식별되지 않을 때, 주어진 인공 랜드마크는 인공 랜드마크들의 세트로부터 폐기되고, 정합에 사용되지 않는다.
특정 실시예에서, 목표 랜드마크는 또한 흉골을 따른 인공 랜드마크들의 각각(또는 적어도 일부)에 대해 결정된다. 특히, 흉골 랜드마크들은 영상의 거울 대칭에 대해 일정하게 유지되는 것이 바람직하다. 따라서, 각각의 흉골 인공 랜드마크에 대해, 대응하는 목표 랜드마크는 랜드마크 좌표들 및 그의 거울 대칭된 좌표들의 산술 평균으로서 계산된다. 예비적 변환 및 회전 연산이 늑골 인공 랜드마크들과 관련하여 전술한 바와 같이 결정되고 적용되는 특정 실시예에서, 예비적 변환은 또한 흉골 인공 랜드마크들(예컨대, 늑골 상의 인공 랜드마크들에 대해서뿐만 아니라)에 적용된다.
A ii 영상 정합 변환의 결정
하나 이상의 영상들의 정합에 사용하기 위한 목표 랜드마크들의 세트가 획득되면, (i) 목표 랜드마크들의 세트 및 (ii) 하나 이상의 영상들 각각의 랜드마크들(예컨대, 인공 랜드마크들)을 사용하여 하나 이상의 영상들 각각에 대해 영상 정합 변환이 결정된다. 주어진 영상에 대해, 영상 정합 변환은 목표 랜드마크들의 세트를 이용하여 영상의 인공 랜드마크들의 세트의 정렬을 실질적으로 최적화하도록 결정된다.
특정 실시예에서, 주어진 영상의 랜드마크들(예컨대, 인공 랜드마크들)의 세트를 목표 랜드마크들의 세트와 정렬하는 변환을 결정하기 위해, 주어진 랜드마크가 정렬되어야 하는, 특정 목표 랜드마크를 식별하는 작업이 존재한다. 이하 설명되는 바와 같이, 인공 랜드마크를 그 적절한 목표 랜드마크에 매칭하는 것은, 인공 랜드마크들 및 목표 랜드마크들과 연관된(예컨대, 할당된) 인덱스 값들의 비교, 및/또는 인공 및 목표 랜드마크들의 좌표들의 비교에 기초하여, 달성될 수 있다.
랜드마크들(예컨대, 인공 랜드마크들)이 목표 랜드마크들에 매칭되면, 랜드마크들의 목표 랜드마크들과의 정렬을 최적화하는 변환이 결정된다.
예를 들어, 특정 실시예에서, 변환은 영상 내의 각각의 인공 랜드마크에 대해 측정된 변위를 결정함으로써 결정된다. 주어진 인공 랜드마크에 대한 측정된 변위는 그 주어진 랜드마크의 원래 위치 및 대응하는 목표 랜드마크의 좌표들을 나타내는 좌표들 간의 차이로서 결정된다. 따라서, 이러한 방식으로 결정된 변환은 각각이 영상 좌표들(x, y 및 z)의 평활 함수인 3개의 성분들(x-성분, y-성분, 및 z-성분)의 왜곡 필드(distortion field)의 형태를 취한다. 특정 실시예에서, 왜곡 필드는 외삽 및 평활화 연산을 통해 인공 랜드마크들과 이들의 파트너 목표 랜드마크들 사이에서 측정된 변위들로부터 결정된다. 도 6은 영상 좌표들의 함수로서 왜곡 필드의 예시적인 x-성분을 도시한다.
특정 실시예에서, 평활화 연산의 사용으로 인해, 하나 이상의 특정 인공 랜드마크들의 위치들에서의 왜곡 필드의 값은 특정 랜드마크들 각각에 대해 결정된 상기 측정된 변위들과는 상이하다. 도 7은 영상의 각각의 인공 랜드마크에 대해, x 좌표에서의 측정된 변위뿐만 아니라, 랜드마크의 위치에서의 결정된 왜곡 필드의 x-성분 모두를 나타내는 그래프이다. 특정 실시예에서, 상호-정합의 정확도(의 하한)를 추정하기 위해, 외삽되고 측정된 변위들 사이의 차이들이 사용된다.
특정 실시예에서, 일단 결정되면, 그 후, 영상 정합 변환은 영상의 특정 영역 내의 지점들(예컨대, 인공 랜드마크들에 대응하는 지점들뿐만이 아님)에 적용되어, 왜곡이 정정되고(예컨대, 대칭화된 영상) 그리고/또는 다른 영상들과 상호-정합된, 변환된 영상을 생성할 수 있다. 따라서, 변환은 뼈 랜드마크들을 통해 결정되는 한편, 연조직의 표현들을 포함하는 영상의 영역들에 걸쳐서도 왜곡 정정 및/또는 상호-정합을 제공하며, 이에 의해 피검체의 예컨대, 폐 및 다른 연조직의, 왜곡 없는 대칭 영상들의 생성을 제공한다. 이런 식의 왜곡 정정 및/또는 영상들의 상호-정합은 피검체의 자세 및/또는 위치의 변동을 고려할 필요 없이, 직접적인 방식으로, 쉽게 분석되고 해석되며/되거나 다른 영상들(예컨대, 이전에 기록된 영상들, 예컨대, 이전에 기록된, 유사하게 왜곡이 정정된 영상들, 예컨대, 상호-정합된 영상들)과 비교될 수 있는, 대칭적인, 표준화된 이미지들을 제공한다.
특정 실시예에서, 서로 다른 모드(예컨대, 광학 이미징 모드(예컨대, FMT), 예컨대, PET)를 사용하여 기록된 제2 영상에서의 왜곡 정정을 위해, 제1 이미징 모드(예컨대, 마이크로 CT)를 통해 기록된 제1 영상 내의 인공 뼈 랜드마크들을 통해 결정된 변형이 사용된다. 특정 실시예에서, 제1 및 제2 영상은 다중 모드 이미징 시스템(예컨대, 마이크로 CT 및 PET 이미징 시스템을 결합한 다중 모드 이미징 시스템, 예컨대, 마이크로 CT 및 FMT 이미징을 결합한 다중 모드 이미징 시스템)을 통해, 피검체가 실질적으로 동일한 자세 및 위치에 있으면서, 실질적으로 동일한 시간에 기록된다. 특정 실시예에서, 제1 영상 내의 인공 뼈 랜드마크들로부터 결정된 변환은 제2 영상에 적용된다. 특정 실시예에서, 제1 및 제2 영상 사이에는(예컨대, 제1 및 제2 영상들을 기록하기 위해 사용되는 검출기들 및/또는 소스들의 알려져 있는 서로 다른 구성으로 인해) 알려져 있는 공간적 관계가 존재하며, 수정된 제2 변환은 제1 영상 내의 인공 랜드마크들을 통해 결정된 변환으로부터 결정된다. 이후, 제2 변환은 제2 영상을 정합(예컨대, 제2 영상에서의 왜곡 정정 및/또는 제2 이미징 모드를 통해 기록된 다른 영상과의 제2 영상의 상호-정합)하기 위해 제2 영상에 적용된다.
B 인공 랜드마크들의 자동화된 생성
Bi 늑골들 및 흉골을 따른 인공 랜드마크
특정 실시예에서, 본원에 설명된 시스템들 및 방법들은 상술한 방식으로 왜곡 정정 및/또는 상호-정합에 사용되는 인공 랜드마크들의 자동화된 생성을 제공한다. 본원에 설명된 접근법들을 통해 생성된 인공 랜드마크들은 영상 내의 특정 뼈들의 식별을 위한 자동화된 분할에 있어서의 오류에 대해 강인하고, 아웃라이어 필터링 접근법들을 통해 정교해질 수 있다.
특정 실시예에서, 주어진 영상 내의 인공 랜드마크들의 세트는 영상 내에 생성된 인공 객체들의 세트에 기초하여 결정된다. 특정 실시예에서, 피검체의 영상은 피검체의 복수의 늑골들을 포함하고, 인공 객체들은 복수의 늑골들의 각각의 늑골을 따라 생성된다.
도 9는 다수의 영상들의 왜곡 정정 및/또는 상호-정합을 위한 피검체의 영역의 3D 영상 내의 늑골들을 따라 인공 랜드마크들을 생성하기 위한 예시적인 프로세스(900)를 도시하는 블록 흐름도이다. 특정 실시예에서, 프로세스(900)는 피검체(910)의 일 영역의 3D 영상을 수신하는 단계로 시작하는데, 여기서, 수신된 3D 영상은 복수의 늑골들(예컨대, 피검체의 흉곽의 각각의 늑골, 예컨대, 피검체의 늑골들의 일부분)뿐만 아니라, 피검체의 척추의 적어도 일부의, 그래픽 표현을 포함한다. 3D 영상의 수신 이후, 다음 단계(920)에서, 영상 내의 늑골들 및 척추가 식별된다(920) 뼈들은 완전히 자동화된 방식으로(예컨대, 분할을 통해) 식별될 수 있거나, 특정 실시예에서, 뼈들의 식별은 사용자 상호작용을 포함할 수 있다. 예를 들어, 특정 실시예에서, 영상 내의 뼈들은 국부 경계(local threshold) 접근법을 통해 자동으로 식별되며, 그 후 흉곽이 자동으로 식별되고(예컨대, 미국 특허 제9,192,348호(Ollikainen and Kask, "Method and system for automated detection of tissue interior to mammalian ribcage from an in vivo image")를 참조하라), 이어서 척추가 식별된다. 특정 실시예에서, 상기 3D 영상은 또한 흉골을 포함하며, 이 또한 식별된다.
피검체의 늑골들과 척추가 3D 영상 내에서 확인된 후에, 프로세스(900)의 다른 단계(930)에서, 복수의 시드(seed) 늑골 인공 객체가 생성되는데, 각각의 시드 늑골 인공 객체는 그래픽 표현의 척추로부터 제1 거리 구간 내에 있고, 그래픽 표현의 하나의 늑골의 일 영역에 대응한다.
특정 실시예에서, 시드 늑골 인공 객체들은 3차원에서의 복수의 지점들 각각에서의 강도(예컨대, 숫자) 값들을 포함하는 척추 거리 맵을 결정함으로써 생성되는데, 척추 거리 맵의 강도 값들 각각은 주어진 지점으로부터 영상에서 검출된 척추의 가장 가까운 지점까지의 3D 공간에서의 거리에 대응한다. 척추 거리 구간 마스크는 척추까지의 거리가 제1 거리 구간 내에 있는 영상 내의 지점들을 식별하기 위해 척추 거리 맵으로부터 생성된다(예컨대, 거리 구간 마스크는 이진 마스크이고, 제1 거리 구간 내의 척추까지의 거리를 갖는 지점들에는 제1 값(예컨대, 숫자 1, 예컨대, 부울 참)이 할당되고, 다른 지점들에는 제2 값(예컨대, 숫자 0, 예컨대, 부울 거짓)이 할당된다) 척추 거리 구간 마스크의 생성 이후에, 척추 거리 구간 마스크와 식별된 늑골들에 대응하는 마스크 사이에 논리 AND 연산이 적용되어, 척추로부터 제1 거리 구간 내에 있는 식별된 늑골들의 복수의 영역들이 식별된다.
도 8은 예시적인 실시예에 따라, 전술된 방식으로 좌측 및 우측 늑골들을 따라 생성된 인공 객체들을 나타내는 영상이다. 이 영상은 피검체의 좌측 늑골들을 따라 생성된 13개의 시드 늑골 인공 객체들(840a, 840b, 840c, 840d, 840e, 840f, 840g, 840h, 840i, 840j, 840k, 840l, 840m; 집합적으로 840)과, 피검체의 우측 늑골들을 따라 생성된 13개의 시드 늑골 인공 객체들(820a, 820b, 820c, 820d, 820e, 820f, 820g, 820h, 820i, 820j, 820k, 820l, 820m; 집합적으로 820)을 나타낸다.
특정 실시예에서, 시드 늑골 인공 객체들을 생성하기 위해 개개의 늑골들을 개별적으로 식별할 필요는 없다. 대신에, 특정 실시예에서, 흉곽 부근에 있는 복수의 뼈들에 대응하는 골 마스크가 결정되고, 이로부터 척추 및, 선택적으로, 흉골이 식별되고 분리된다(예컨대, 흉골 마스크와 척추 마스크의 결정을 초래함) 식별된 흉곽의 남은 뼈들은 늑골들에 주로 대응하지만, 각각의 개별 늑골이 구별될 필요는 없다. 놀랍게도, 시드 늑골 객체들의 생성은 개개의 늑골들의 구분 및 식별보다 더 쉽다.
특정 실시예에서, 시드 늑골 인공 객체들(930)의 생성 이후, 프로세스(900)는 영상 내의 늑골들을 따른 후속 늑골 인공 객체들의 생성(940)으로 계속된다. 특히, 각각의 자동으로 생성된 시드 늑골 인공 객체에 대해, 복수의 연관된 후속 늑골 인공 객체들이 생성된다. 특정 실시예들에서, 각각의 시드 늑골 인공 객체 및 복수의 후속하는 늑골 인공 객체는 각각의 늑골(예컨대, 시드 늑골 인공 객체들 및 후속하여 생성된 늑골 인공 객체들을 포함하는 늑골 인공 객체들의 사슬)을 따른 늑골 인공 객체들의 사슬을 형성한다.
주어진 시드 늑골 인공 객체에 대한 특정 실시예에서, 늑골 인공 객체들의 사슬은 단계적 방식으로 생성된다. 특히, 시드 늑골 인공 객체로 시작하여, 제1 후속 늑골 인공 객체는, 식별된 척추로부터 멀어지는 방향으로, 시드 늑골 인공 객체로부터 미리 정의된 거리(예컨대, 식별된 늑골들에 대응하는 마스크를 따르는, 예컨대, 유클리드 거리, 예컨대, 측지 거리)로 멀리 생성된다. 이후, 제2 후속 늑골 인공 객체는, 식별된 척추로부터 멀어지는 방향으로, 제1 후속 늑골 인공 객체로부터 미리 정의된 거리(예컨대, 식별된 늑골들에 대응하는 마스크를 따르는, 예컨대, 유클리드 거리, 예컨대, 측지 거리)로 멀리 생성된다. 이러한 방식으로, 새로운 늑골 인공 객체들은 단계적으로 생성되고, 각각의 새로 생성된 늑골 인공 객체는 식별된 척추로부터 멀어지게 바깥쪽으로 진행된다. 각각의 시드 늑골 인공 객체로부터 후속하는 늑골 인공 객체의 생성을 위해, 시드 늑골 인공 객체의 생성에 사용되는 것과 유사한 형태학적 및 논리적 연산들(예컨대, 거리 맵의 결정, 경계 연산, 확장 연산, 논리 연산들(예컨대, AND, NOT) 및 이들의 조합)이 사용될 수 있다.
특정 실시예에서, 주어진 시드 늑골 인공 객체와 관련된 인공 객체들의 등거리 사슬이(예컨대, 주어진 늑골을 따라) 형성되도록, 주어진 시드 늑골 인공 객체와 관련된(예컨대, 주어진 늑골을 따르는) 각각의 늑골 인공 객체를 분리하는 거리는 모두 동일하다.
특정 실시예에서, 이러한 방식으로 새로운 후속 늑골 인공 객체들을 생성하는 프로세스는 새로 생성된 늑골 인공 객체가 영상 내의 식별된 흉골로부터 미리 정의된 임계 거리 내에 있는 것으로 결정될 때까지 진행된다.
특정 실시예에서, 주어진 시드 늑골 인공 객체와 관련된 후속하는 늑골 인공 객체들이 생성될 때, 늑골 인공 객체들이 다른 늑골들(예컨대, 시드 늑골 인공 객체 및 근처의 늑골에 대응하는 늑골)을 따라 우발적으로 생성되지 않음을 보장하기 위해 프로세스(900)의 부가적 단계들이 적용된다. 이것은, 예를 들어, 영상의 특정 영역들에서 하나 이상의 서로 다른 늑골들이 서로 가까이 근접하는 경우에 발생할 수 있다. 이러한 문제를 해결하기 위해, 특정 실시예에서, 프로세스(900)는 그래픽 표현의 제1 및 제2 늑골 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는 하나 이상의 위험 영역을, 영상을 사용하여 자동으로 식별하는 단계를 포함한다. 특정 실시예에서, 그러한 위험 영역들은, 예를 들어, 그래픽 표현에서 복수의 늑골들을 식별하는 뼈 마스크에 적용되는 형태학적 폐쇄 연산의 사용을 통해, 개개의 늑골들을 개별적으로 식별(예컨대, 서로 다른 늑골들을 구별)할 필요 없이 식별될 수 있다. 몇몇 식별된 위험 영역들(1110a, 1110b, 1110c, 1110d)을 나타내는 예시적인 영상(1100)이 도 11에 도시되어 있다.
주어진 시드 늑골 인공 객체와 관련된 새로운 후속 늑골 인공 객체가 늑골을 따라 생성될 때마다, 프로세스는 새로 생성된 인공 객체가 하나 이상의 이전에 식별된 위험 영역으로부터 미리 정의된 임계 거리 내에 있는지 여부를 판단한다. 프로세스가 새로 생성된 늑골 인공 객체가 이전에 식별된 위험 영역으로부터 미리 정의된 임계 거리 내에 있다고 판단하면, 주어진 시드 늑골 인공 객체와 관련된 후속하는 늑골 인공 객체의 생성이 종료된다.
특정 실시예에서, 영상 내의 늑골들을 따른 인공 객체들의 생성에 부가하여, 인공 객체들은 영상의 그래픽 표현 내에서 피검체의 식별된 흉골을 따라 자동으로 생성된다.
특히, 특정 실시예에서, 상기 그래픽 표현은 상기 피검체의 흉골의 적어도 일 부분을 포함하며, 상기 부분은 상기 흉골의 단부(예컨대, 꼬리 쪽 단부)를 포함한다. 흉골 인공 객체를 생성하기 위해 흉골이 그래픽 표현 내에서 식별된다. 흉골의 하단부가 또한 그래픽 표현 내에서 식별된다. 다음으로, 시드 흉골 인공 객체가 자동으로 생성되며, 이는 흉골의 식별된 하단부로부터 제2 거리 구간 내에 있는, 식별된 흉골의 영역에 대응한다.
특정 실시예에서, 시드 흉골 인공 객체는 늑골 시드 인공 객체들의 생성에 대한 접근법과 유사한 방식으로, 형태학적 및 논리적 연산들의 세트를 통해 생성된다. 특히, 특정 실시예에서, 그래픽 표현에서 흉골의 하단부는 그래픽 표현에서 식별된 흉골의 최소 z-좌표에 대응하는 지점으로 식별된다. 그 후, 흉골 시드 인공 객체는 식별된 흉골의 하단부에 대응하는 지점으로부터 미리 정의된 최대 거리 내에 있는 식별된 흉골의 영역을 식별하는 형태학적 및 논리적 연산들(예컨대, 흉골 거리 구간 마스크의 결정 및 이후의 AND 연산)을 통해 생성된다(예컨대, 시드 흉골 인공 객체의 각각의 지점에 대해, 해당 지점으로부터. 식별된 흉골의 하단부에 대응하는 지점까지의 거리(예컨대, 유클리드 거리, 예컨대, 특정 좌표(예컨대, z-좌표)를 따른 거리)는 제2 거리 구간 내에 있음)
특정 실시예에서, 시드 흉골 인공 객체와 연관된 후속하는 흉골 인공 객체들의 사슬은 시드 흉골 인공 객체로부터 시작하여 단계적으로, 새로운 후속하는 흉골 인공 객체들을 생성함으로써 생성되고, 각각의 새로 생성된 흉골 인공 객체는 흉골의 하단부로부터 멀어지게, 위쪽으로(예컨대, 이전에 생성된 흉골 인공 객체로부터 미리 정의된 거리로) 진행된다.
특정 실시예에서, 후속 흉골 인공 객체들은 새로 생성된 흉골 인공 객체가 영상의 경계를 지날 ‹š까지, 또는 식별된 흉골의 다른 말단에 도달할 때까지, 생성되고, 이 시점에서 후속하는 흉골 인공 객체들의 생성이 종결된다. 특정 실시예에서, 흉골 인공 객체들의 미리 정해진 개수가 지정되고, 후속 흉골 인공 객체들의 생성은 일단 미리 정해진 개수의 흉골 인공 객체들이 생성되면 종료된다.
따라서, 특정 실시예에서, 영상 내의 인공 객체들의 세트는 자동화된 방식으로 생성될 수 있다. 특정 실시예에서, 주어진 영상 내의 인공 객체들의 세트는 영상 내의 늑골들의 그래픽 표현을 따라 생성된 복수의 인공 객체들을 포함한다. 특정 실시예에서, 상기 세트는 또한, 상기 영상 내에 식별된 흉골을 따라 생성된 복수의 인공 객체들을 포함한다. 특정 실시예에서, 위에서 설명된 방식으로 다수의 영상들의 왜곡 정정 및/또는 상호-정합을 제공하기 위해, 인공 랜드마크는 해당 세트의 각각의 인공 객체로부터 결정된다. 특정 실시예에서, 각각의 인공 랜드마크는 대응하는 인공 객체의 질량 중심으로서 결정된다.
특정 실시예에서, 인공 객체들의 세트가 주어진 영상에 대해 결정되면, 목표 랜드마크들이 획득되고(945), 인공 객체들의 세트는 이전에 설명된 바와 같이 영상의 왜곡 정합(예컨대, 왜곡 정정 및/또는 상호-정합)을 위해 사용될 수 있다(950)
특정 실시예에서, 부가적인 정보는 인공 랜드마크들 및/또는 그로부터 결정되는 인공 랜드마크들과 연관된다. 예를 들어, 주어진 시드 늑골 인공 객체는 그것이 좌측 또는 우측 늑골(예컨대, 좌측-우측 인덱스)에 대응하는지뿐만 아니라, 그것이 대응하는 주어진 늑골의 번호(예컨대, 늑골 번호 인덱스)를 나타내는 일련의 인덱스들과 관련될 수 있다.
예를 들어, 특정 실시예에서, 좌측-우측 인덱스는 시드 늑골 인공 객체로부터 결정된 x-좌표에 기초한 시드 늑골 인공 객체와 연관된다. x-좌표는 시드 늑골 인공 객체의 지점들의 평균 x-좌표일 수 있다. 특정 실시예에서, 좌측-우측 인덱스 값을 인공 객체와 연관시키기 위하여 시드 늑골 인공 객체로부터 x-좌표를 결정하기 전에, 예비 단계로서 회전 및 병진이동 변환이 적용된다. 특정 실시예에서, 예비 회전 및 병진이동 변환은 모든 좌측 늑골들이 영상의 좌측에 위치하고, 모든 우측 늑골들이 영상의 우측에 위치하는 것을 보장하기 위해 적용된다. 특정 실시예에서, 예비 회전 및 병진이동 변환은 그래픽 표현에서 식별된 척추의 주 축 및/또는 그래픽 표현에서 식별된 흉골의 주 축을 사용하여 결정된다.
후속하는 늑골 인공 객체들은 또한, 좌측-우측 인덱스, 시드 인덱스, 및 시퀀스 인덱스를 포함하는 인덱스들과 연관될 수 있다. 시드 늑골 인공 객체들과 마찬가지로, 주어진 후속 늑골 인공 객체와 관련된 좌측-우측 인덱스는, 주어진 후속 늑골 인공 객체가 좌측 또는 우측 늑골에 대응하는지 여부를 식별한다. 주어진 후속 늑골 인공 객체와 연관된 시드 인덱스는 이를 생성하는 시드 늑골 인공 객체를 나타낸다. 특정 실시예에서, 후속하는 늑골 인공 객체들은 전술한 바와 같이 단계적인 방식으로, 순서정렬된 사슬로서 시드 늑골 인공 객체로부터 생성되고, 시퀀스 인덱스는 후속 늑골 인공 객체가 생성된 순서를 나타낸다.
시드 늑골 인공 객체들 및 후속하는 늑골 인공 객체들의 인덱싱은 생성 프로세스 동안에 적용될 수 있다. 특정 실시예에서, 아웃라이어들에 대응하는 인공 객체들의 제거를 반영하기 위해, 이하 설명되는 바와 같은 하나 이상의 아웃라이어 필터링 단계들에 이어서, 인공 객체들의 인덱스들이 업데이트된다.
특정 실시예에서, 인공 객체들로부터 결정된 인공 랜드마크들은 유사한 방식으로 인덱스들과 연관된다. 대응하는 인공 객체로부터 결정된, 주어진 인공 랜드마크는 그것이 결정되는 인공 객체와 동일한 인덱스로 연관(예컨대, 할당)될 수 있다. 특정 실시예에서, 인공 객체로부터 결정된 인공 랜드마크는 인공 랜드마크가 결정된 인공 객체를 특징짓는 부가 정보와 연관된다. 예를 들어, 대응하는 인공 객체로부터 결정된, 주어진 인공 랜드마크는 인공 랜드마크가 결정된 인공 객체의, 결정된 부피에 대응하는 값과 연관된다.
특정 실시예에서, 이상에서 설명된 바와 같이, 인공 랜드마크들과 관련된 인덱스 및 부가 정보는 랜드마크들의 매칭을 용이하게 하기 위해, 예를 들어, 반대쪽의 늑골 파트너들 또는 목표 랜드마크들을 식별하는 것을 용이하게 하기 위해 사용된다.
특히, 특정 실시예에서, 늑골 인공 랜드마크들은 목표 랜드마크의 대칭 세트를 생성하도록, 반대쪽의 골 파트너 랜드마크에 매치된다. 대응하는 반대쪽의 늑골 파트너 랜드마크와 인공 랜드마크들을 매칭시키는 것은 먼저, 매칭되는 시드 늑골 인공 랜드마크들을 대응하는 반대쪽의 늑골 파트너 시드 랜드마크들과 매칭시킴으로써 달성될 수 있다. 주어진 시드 랜드마크는 시드 늑골 인공 랜드마크들에 할당되는 좌측-우측 인덱스 및 늑골 번호 인덱스와 같은 인덱스 값들을 이용하여 반대되는 늑골 상의 파트너 시드 랜드마크와 매칭될 수 있다. 예를 들어, 반대쪽의 늑골 파트너에 제1 시드 인공 랜드마크를 매칭시키기 위해, 서로 다른 좌측-우측 인덱스를 갖지만 동일한 늑골 번호 인덱스를 갖는 시드 늑골 인공 랜드마크가 식별된다.
특정 실시예에서, 일단, 시드 늑골 인공 랜드마크들이 반대쪽 늑골들 상의 대응하는 반대쪽 늑골 파트너 시드 랜드마크들과 매칭되면, 후속하는 늑골 인공 객체들은 그들이 생성된 특정 시드 늑골 인공 객체와의 연관성에 기초하여(예컨대, 연관된 시드 인덱스 및 관련된 좌측-우측 인덱스에 기초하여), 그리고, 그들이 생성된 시퀀스의 순서에 기초하여(예컨대, 연관된 시퀀스 인덱스에 기초하여), 대응하는 반대쪽의 늑골 파트너 랜드마크들과 매치된다.
다른 예에서, 주어진 영상의 인공 랜드마크들의 세트를 목표 랜드마크들의 세트로 정렬하는 영상 정합 변환을 결정하기 위해, 주어진 영상의 각각의 인공 랜드마크는 파트너 목표 랜드마크에 매칭된다.
특히, 특정 실시예에서, 목표 랜드마크들의 세트는 제1 영상의 인공 랜드마크들을 사용하여 결정되고, 서로 다른 제2 영상의 정합을 위해 사용된다. 제2 영상을 정합하기 위해, 제2 영상 내의 인공 랜드마크들의 각각의 적어도 일부는 그의 목표 랜드마크에 매칭된다. 특정 실시예에서, 인공 랜드마크들과 유사하게, 목표 랜드마크들은 인덱스 값들과 연관되며, 이는 인공 랜드마크들과 이들의 파트너 목표 랜드마크들 사이의 매칭을 용이하게 하는 데에 사용될 수 있다. 주어진 목표 랜드마크에는 그것이 결정되는 인공 랜드마크의 인덱스 값들이 할당될 수 있다. 예를 들어, 각각의 목표 랜드마크가 제1 영상의 특정한 인공 랜드마크로부터 결정될 때, 각각의 목표 랜드마크에는 자신이 생성되었던 특정한 인공 랜드마크의 인덱스 값들이 할당된다. 유사하게, 특정 실시예에서, 특정한 인공 랜드마크로부터 결정된 목표 랜드마크는 또한, 그것이 결정된 특정한 인공 랜드마크와 연관되는 부가 정보와 연관될 수도 있다. 이러한 부가 정보는 특정 인공 랜드마크가 결정된 인공 객체의 부피를 포함할 수 있다. 따라서, 제2 영상의 인공 랜드마크들은 (i) 인덱스 값, (ii) 부가 정보뿐만 아니라, (iii) 제2 영상의 인공 랜드마크의 좌표 및 목표 랜드마크의 좌표를, 단독으로 또는 조합하여, 이용하여 파트너 목표 랜드마크에 정합될 수 있다.
특정 실시예에서, 제2 영상의 인공 랜드마크들은 제1 영상의 시드 늑골 인공 랜드마크들로부터 결정되었던 목표 랜드마크들에 대해 시드 늑골 인공 랜드마크들을 먼저 매칭함으로써 목표 랜드마크들에 매치된다. 제2 영상 내의 시드 늑골 인공 랜드마크들은 (i) 제2 영상 내의 인공 랜드마크들 및 목표 랜드마크들의 z-좌표 및/또는 (ii) 제2 영상 내의 인공 랜드마크들의 인덱스(예컨대, 좌측-우측 인덱스, 예컨대, 늑골 번호 인덱스) 및 목표 랜드마크들의 인덱스를 사용하여 목표 랜드마크들에 정합될 수 있다. 시드 인공 랜드마크를 이들의 목표 랜드마크와 매칭시킨 후, 후속하는 늑골 인공 랜드마크들은 이들이 생성된 특정 시드 늑골 인공 랜드마크에 기초하여(예컨대, 관련된 시드 인덱스, 예컨대, 연관된 시드 인덱스 및 연관된 좌측-우측 인덱스에 기초하여), 그리고, 이들이 생성된 시퀀스에서 그들의 순서를 기초로 하여(예컨대, 연관된 시퀀스 인덱스에 기초하여), 대응하는 목표 랜드마크들과 매치된다.
Bii 늑골 및 흉골 인공 객체들에 대한 아웃라이어 필터링
특정 실시예에서, 인공 객체(예컨대, 늑골 인공 객체, 예컨대 흉골 인공 객체)의 생성은 자동으로 생성된 인공 객체들이 서로 다른 기준의 세트를 만족하는 것을 보장하기 위해, 필터링 단계에 대응하는 부가적인 처리 단계를 포함한다.
예를 들어, 특정 실시예에서, 부피 필터는 미리 정의된 임계 부피 미만의 부피를 나타내는 것으로 결정된 영역들에 대응하는 하나 이상의 인공 객체들을 제거하는 데에 적용된다. 이러한 접근법은, 예를 들어 도 12에서 도시된 바와 같이 인공 객체들의 생성 동안 결함들(artifacts)을 제거하는 데에 적용될 수 있다.
도 12의 제1 영상(1210)은 예를 들어, 도 9와 관련하여 설명된 프로세스(900)에 의해 생성되는 시드 늑골 인공 객체들의 예상 세트와 함께, 복수의 늑골들 및 척추의 그래픽 표현을 표시한다. 영상에서 명백한 바와 같이, 특정 실시예에서, 유사한 부피를 갖는 일련의 인공 객체들은 눈에 띄게 작은 부피를 갖는 몇 개의 인공 객체들과 함께 생성된다. 이러한 작은 부피의 인공 객체들은 결함들(예컨대, 영상 내의 잡음으로부터 초래됨, 예컨대, 분할 오류로부터 초래됨, 예컨대, 모래의 입자들과 같은 물리적인, 뼈가 아닌 객체들의 존재로부터 기인함)에 대응한다.
따라서, 이러한 결함들을 제거하기 위해, 그리고, 적절한 시드 늑골 인공 객체들이 생성되는 것을 보장하기 위해, 예상 시드 늑골 인공 객체들의 세트를 생성한 후에, 상기 예상 시드 늑골 인공 객체들의 세트에 부피 필터가 적용된다. 부피 필터의 적용은 상기 세트로부터, 미리 정의된 임계값 미만의 부피를 표현하도록 결정된 인공 객체들을 제거한다. 부피 필터의 적용 후에, 시드 늑골 인공 객체들이 예상 시드 늑골 인공 객체들의 세트로부터 선택된다. 도 12의 제2 영상(1250)은 제1 영상(1210)에 도시된 예상 시드 늑골 인공 객체들의 세트에 부피 필터를 적용한 결과를 도시한다. 제2 영상(1250) 내의 인공 객체들의 세트는 제1 영상(1210)으로부터의 결함들에 대응하는 인공 객체들을 더 이상 포함하지 않는다.
특정 실시예에서, 부피 필터는 다른 인공 객체들(예컨대, 시드 늑골 인공 객체들뿐만 아니라 임의의 인공 객체들)의 생성 동안에 생성되는 결함들을 제거하기 위해 적용된다.
특정 실시예에서, 부가적인 필터링 기준이 늑골을 따라 생성된 인공 객체들에 적용된다.
예를 들어, 특정 실시예에서, 영상 촬영되는 피검체가 갖는 늑골들의 개수는 공지되어 있다. 따라서, 특정 실시예에서, 생성된 시드 늑골 인공 객체들의 개수가 결정되고, 영상 촬영되는 피검체가 갖는 것으로 공지된(예상되는) 늑골들의 개수와 비교된다. 예를 들어, 마우스는 양쪽에 13개의 늑골들을 - 13개의 좌측 늑골과 13개의 우측 늑골 - 따라서, 총 26개의 늑골들을 갖고 있다. 따라서, 마우스의 영상에 대하여, 13개의 좌측 시드 늑골 인공 객체들 및 13개의 우측 시드 늑골 인공 객체들이 생성될 것으로 예상된다. 따라서, 생성된 시드 늑골 인공 객체들의 개수를 피검체가 갖고 있는 공지된(예상) 늑골들의 개수와 비교함으로써, 결함들에 대응하는 잘못 생성된 인공 객체들이 식별되고 제거될 수 있다.
특정 실시예에서, 결함들을 필터링하기 위한 기준들은 물리적 흉곽의 대칭성에 기초하여 설정되고, 늑골 인공 객체들의 세트에 적용된다. 특히, 특정 실시예에서, 물리적 흉곽의 대칭성을 활용하는 필터링 접근법들을 적용하기 위해, 늑골 인공 객체들은 좌측 및 우측 늑골 인공 객체들로 분할되고, 대응하는 좌측 및 우측 늑골 인공 객체들의 쌍으로서 그룹화된다. 인공 객체들의 쌍은, 왜곡 정정을 위해 인공 랜드마크를 반대쪽의 늑골 파트너 랜드마크와 일치시키기 위해, 앞서 설명된 프로세스와 유사한 매칭 프로세스를 통해 결정될 수 있다. 특히, 반대쪽 늑골 상의 대응하는 인공 객체들의 쌍은 인공 객체들(예컨대, 좌측-우측 인덱스, 예컨대, 늑골 번호 인덱스, 예컨대, 시퀀스 인덱스)과 관련된 색인들을 사용하여 결정될 수 있다. 특정 실시예에서, 인공 객체들과 연관된 좌표들(예컨대, 각각의 인공 객체의 지점들의 평균 x-좌표, 예컨대, 각각의 인공 객체의 지점들의 평균 z-좌표)뿐만 아니라 예를 들어, 인공 객체들의 부피와 같은 부가 정보가, 반대쪽 늑골들 상의 인공 객체들의 쌍을 결정하는 것을 용이하게 하는데 사용된다.
따라서, 늑골 인공 객체들의 각각의 쌍은 반대쪽 늑골들의 쌍의 제1 늑골(예컨대, 우측 늑골)과 관련된 제1 늑골 인공 객체와, 반대쪽 늑골들의 쌍의 제2 늑골(예컨대, 좌측 늑골)과 관련된 제2 늑골 인공 객체를 포함한다. 늑골 인공 객체들의 각각의 쌍에 대해, 주어진 쌍의 제1 및 제2 늑골 인공 객체는 유사한 부피를 나타내고 유사한 높이를 갖는다. 인공 객체의 높이는 인공 객체의 z-방향에서의 두께로서, 또는 척추를 따른 거리로서 결정(예컨대, 인공 객체의 지점들의 z-좌표의 평균 값으로서 결정)될 수 있다. 따라서, 특정 실시예에서, 늑골 인공 객체들의 각각의 쌍에 대해, (i) 해당 쌍의 제1 객체에 의해 표현되는 부피와 해당 쌍의 제2 객체에 의해 표현되는 부피 사이의 차이 및/또는 (ii) 해당 쌍의 제1 객체의 높이와 해당 쌍의 제2 객체의 높이 사이의 차이가 미리 정의된 임계 높이 차이 미만임을 보장하는, 쌍-단위의(pair-wise) 비교 필터가 적용된다.
특정 실시예에서, 상기 쌍 비교 필터는 시드 늑골 인공 객체의 생성 동안 결함들을 제거하기 위해 적용된다. 예를 들어, 예상 시드 늑골 인공 객체들의 세트의 생성(예컨대, 도 9와 관련하여 전술된 프로세스(900)를 통해) 이후에, 예상 시드 늑골 인공 객체들의 하나 이상의 쌍이 자동으로 식별된다. 각각의 쌍은 해당 쌍의 늑골들의 제1 늑골의 제1 시드 늑골 인공 객체 및 반대쪽 늑골의 대응하는 제2 시드 늑골 인공 객체를 포함한다(예컨대, 제1 시드 늑골 인공 객체는 우측 늑골을 따라 있고, 제2 시드 늑골 인공 객체는 대응하는 좌측 늑골을 따라 있음)
그 뒤, 쌍 비교 필터가 예상 시드 늑골 인공 객체들의 세트에 적용되는데, 쌍 비교 필터의 적용은, 해당 세트로부터, (i) 해당 쌍의 제1 객체에 의해 표현되는 부피와 해당 쌍의 제2 객체에 의해 표현되는 부피 사이의 차이가 미리 정의된 임계 부피 차이를 초과하는, 그리고/또는 (ii) 해당 쌍의 제1 객체의 높이와 해당 쌍의 제2 객체의 높이 사이의 차이가 미리 정의된 임계 높이 차이를 초과하는, 인공 객체들의 쌍을 제거한다. 쌍 비교 필터의 적용 후에, 예상 시드 늑골 인공 객체들의 세트로부터 시드 늑골 인공 객체들이 선택된다.
특정 실시예에서, 쌍 비교 필터는 늑골들(예컨대, 시드 늑골 인공 객체들뿐만이 아닌, 후속하는 늑골 인공 객체들)을 따라 다른 인공 객체들이 생성되는 동안에 생성되는 결함들을 제거하기 위해 적용된다.
특정 실시예에서, 연속적인 시드 늑골 인공 객체들 사이의 거리가 (각각의 늑골/흉골을 따라) 일정한지 여부를 검증하는 단계를 포함하는, 다른 필터링 단계가 적용된다. 예를 들어, 시드 늑골 인공 객체들이 정확하게 생성되면, 주어진 시드 늑골 인공 객체 및 다음 시드 늑골 인공 객체(예컨대, 흉곽의 같은 측에서 바로 아래 및/또는 그 위에 있음) 사이의 거리(예컨대, z-방향으로)는 대략 일정하다(예컨대, 천천히 변화된다) 예를 들어, 시드 늑골 인공 객체가 실제 늑골 외부의 영역에서 생성되는 경우, 미리 정의된 임계값을 초과하는 인접한 시드 늑골 인공 객체들 사이의 거리의 변화가 식별되고, 아웃라이어를 필터링하는 데에 사용될 수 있다.
특정 실시예에서, 복수의 영상들 사이의 인공 객체들의 비교에 기초한 필터링 접근법이 적용된다. 특히, 특정 실시예에서, 제1 영상 내의 인공 객체들의 제1 세트의 인공 객체들이 제2 영상 내의 인공 객체들의 제2 세트의 인공 객체들과 비교된다.
특정 실시예에서, 복수의 영상들 사이의 인공 객체들의 비교에 기초한 필터링은 인공 객체들의 복수의 교차-영상(cross-image) 쌍들을 식별하는 단계를 포함하고, 각각의 교차-영상 쌍은 제1 영상의 인공 객체들의 제1 세트의 제1 인공 객체 및 제2 영상의 인공 객체들의 제2 세트의 대응하는 제2 인공 객체를 포함한다.
특정 실시예에서, 인공 객체들의 교차-영상 쌍들은, 서로 다른 제1 영상 내의 인공 랜드마크들로부터 결정된 목표 랜드마크들을 갖는 제2 영상 내의 인공 랜드마크들의 매칭과 관련하여 전술한 방식과 유사하게, 인덱스들(예컨대, 좌측-우측 인덱스들, 예컨대, 늑골 번호 인덱스들, 예컨대, 시드 인덱스들, 예컨대, 시퀀스 인덱스들)을 사용하여 자동으로 식별된다. 특정 실시예에서, 늑골 인공 객체들의 교차-영상 쌍의 식별은 제1 영상의 주어진 시드 늑골 인공 객체에 대해, 제2 영상의 대응하는 시드 늑골 인공 객체를 먼저 식별하는 단계를 포함한다. 특정 실시예에서, 시드 늑골 인공 객체들과 관련된 인덱스들(예컨대, 좌측-우측 인덱스들, 예컨대, 늑골 번호 인덱스들)이 사용된다. 특정 실시예에서, 대응하는 시드 늑골 인공 객체들은 z-좌표에서의 매칭(예컨대, 가장 근접한 매치를 검색함)에 의해 결정될 수 있다. 특정 실시예에서, z-좌표들을 매칭시키기 전에 결정되고 정정되는 제1 및 제2 영상 사이의 좌표들의 알려지지 않은 시프트(shift)가 존재한다. 좌표 시프트는 상관(correlation) 기술을 통해 결정될 수 있다. 예를 들어, (i) 제1 영상의 인공 객체들의 위치들을 식별하는 지점들의 제1 세트와, (ii) 제2 영상의 인공 객체들을 식별하는 지점들의 제2 세트 사이의 교차-상관관계가, 제1 및 제2 영상들 사이의 z-좌표들에서의 시프트를 결정하기 위해 사용될 수 있다. 그 뒤, 결정된 시프트는 z-좌표를 매칭할 때, 시프트를 정정하는 데에 사용될 수 있다.
일단 주어진 교차-영상 쌍의 시드 늑골 인공 객체들이 식별되면, 해당 교차-영상 쌍의 시드 늑골 인공 객체들의 각각의 시드 늑골 인공 객체들과 관련된 후속하는 늑골 인공 객체들이 매칭된다(예컨대, 후속 늑골 인공 객체들이 생성된 순서를 사용하여, 예컨대, 각각의 연관된 후속 늑골 인공 객체와 연관된 시퀀스 인덱스를 사용하여).
특정 실시예에서, 주어진 교차-영상 쌍의 대응하는 제1 및 제2 인공 객체들은 그들이 유사한 부피들을 나타내는지 여부를 판단하기 위해 비교된다. 제1 및 제2 인공 객체들이 상당히 다른 부피들을 나타내는 교차-영상 쌍들은 결함들에 대응하는 것으로 추정되고, 따라서 제거된다. 예를 들어, 특정 실시예에서, 각각의 교차-영상 쌍의 인공 객체들에 대해, 제1 인공 객체의 부피와 제2 인공 객체의 부피 사이의 차이가 결정된다. 각각의 교차-영상 쌍에 대해, 결정된 부피 차이는 임계 차이(예컨대, 미리 정의된 임계 차이)와 비교되고, 결정된 부피 차이가 임계 차이를 초과하는 교차-영상 쌍들의 인공 객체들은 각각의 개별 영상의 인공 객체들의 개별 세트로부터 제거된다.
특정 실시예에서, 주어진 교차 영상 쌍의 제1 및 제2 인공 객체 각각에 대해, 이웃한 인공 객체들에 대한 인공 객체들의 위치에 관한 정보(예컨대, 값)가 결정되고 비교된다. 예를 들어, 교차-영상 쌍의 제1 인공 객체에 대해, (i) 가장 가까운 이웃하는 인공 객체까지의 거리, (ii) 제1 인공 객체로부터 미리 결정된 임계 거리 내의 인공 객체의 평균 개수 등과 같은 값들이 결정될 수 있다. 동일한 값들이 제2 인공 객체에 대해 결정될 수 있고, 제1 인공 객체에 대해 결정된 대응하는 값들과 비교될 수 있다. 값들(예컨대, 특정한 다른 인공 객체까지의 거리) 사이의 차이가 설정된 임계값을 초과하면, 교차-영상 쌍의 인공 객체들이 제거된다.
특정 실시예에서, 전술한 필터링 접근법들 중 임의의 접근법들(예컨대, 부피 필터, 쌍 비교 필터, 연속적인 객체 분리 필터, 교차-영상 쌍 비교)이 조합하여, 그리고 다양한 순서로 적용된다. 예를 들어, 도 8의 영상(800)에 도시된 시드 늑골 인공 객체들의 생성을 위해, 부피 필터, 쌍 비교 필터, 및 연속적인 객체 분리 필터가 적용되었다. 특정 실시예에서, 전술한 필터링 접근법들 중 임의의 접근법들(예컨대, 부피 필터, 쌍 비교 필터, 연속적인 객체 분리 필터, 교차-영상 쌍 비교)은 서로 다른 필터링 접근법들과 함께, 조합되어, 그리고 다양한 순서들로 적용된다.
특정 실시예에서, 식별된 부피에 대해 수행되는 것으로 여기 설명되는 연산들 중 임의의 연산은 부피와 연관된 랜드마크(예컨대, 좌표)에 대해 수행되는 연산과 동일하다. 따라서, 인공 객체들과 관련된 인공 랜드마크들에 대해, 인공 객체들 상에서 수행되는 전술한 아웃라이어 필터링 연산들과 같은 연산들이 또한 수행될 수 있다.
인공 랜드마크들에 대해 아웃라이어 필터링과 같은 특정 연산들을 수행하는 것은, 계산 속도의 관점에서 유리할 수 있다. 특히, 객체는 3차원의 마스크로 표현되는 반면, 랜드마크들은 좌표로 표시되는 지점들에 대응한다. 특정 실시예에서, 각각의 랜드마크는 그것이 결정된 인공 객체와 연관된다. 특정 실시예에서, 부가적인 정보가 주어진 랜드마크와 연관된다. 주어진 랜드마크와 연관된 부가적인 정보는, 좌측-우측 인덱스, 늑골 번호 인덱스, 시퀀스 인덱스 등과 같은 인덱스들, 그것이 유도되는 객체의 부피와 같은 정보를 포함한다. 따라서, 각각의 인공 랜드마크는 인공 객체와는 달리, 랜드마크들에 대해 전술된 것과 동일한 아웃라이어 필터링 단계들을 수행하는 데에 사용될 수 있는 정보와 연관된다.
특정 실시예에서, 각각의 인공 랜드마크는 표에서 하나의 행으로 표시된다. 테이블의 열은 각각의 랜드마크의 속성들, 예를 들면, x-좌표, y-좌표, z-좌표, 뿐만 아니라, 랜드마크가 결정되는 인공 객체의 부피와 같은 부가적인 정보, 및 랜드마크와 연관된 다양한 인덱스들에 대응한다. 그러므로, 영상 내의 복셀들의 개수가 랜드마크들의 테이블 내의 항목들의 개수보다 훨씬 클 수 있기 때문에, 영상에 적용되는 임의의 연산에 비교하여, (각각이 테이블에서 행으로 표현되는) 랜드마크들에 대한 연산이 매우 빠르다.
Biii 인공 뼈를 따르는 인공 랜드마크
특정 실시예에서, 인공 객체들은 왜곡 정정 및/또는 상호-정합을 위해 다양한 서로 다른 뼈(예컨대, 피검체의 늑골들 및/또는 흉골뿐만 아니라)를 따라 생성된다.
도 10은 피검체의 일 영역의 3D 영상에 표시된 하나 이상의 관심 뼈를 따라 인공 객체들을 생성하기 위한 예시적인 프로세스(1000)의 일련의 단계들을 도시한다. 특정 실시예에서, 프로세스(1000)는 피검체의 일 영역의 3D 영상을 수신(1010)하는 단계로 시작하는데, 여기서 3D 영상은 하나 이상의 관심 뼈들의 그래픽 표현을 포함한다. 영상의 관심 뼈들은 늑골들, 흉골, 척추와 같은 피검체의 축상 골격의 뼈들뿐만 아니라, 피검체의 골격의 다른 부분들로부터의 다른 유형의 뼈들을 포함할 수 있다.
3D 영상의 수신 후에, 다음 단계(1020)에서, 하나 이상의 관심 뼈들이 영상 내에서 식별(예컨대, 자동으로(예컨대, 분할을 통해, 예컨대, 국부 경계 접근법을 통해), 예컨대, 사용자 상호작용을 통해) 식별된다. 또한, 영상 내의 기준 객체가 또한 식별된다(1020) 기준 객체는 영상의 단일 지점, 1D 선, 2D 표면, 또는 영상의 3D 영역일 수 있다. 예를 들어, 특정 실시예에서, 특정 뼈 또는 뼈의 일부의 중심선이 영상 내에서 식별되고 기준 객체로서 사용된다. 특정 실시예에서, 영상 내에서 식별된 뼈의 2D 표면은 기준 객체로서 사용된다.
영상 내에서 식별된 기준 객체는 각각의 관심 뼈들을 따라 시드 인공 객체들을 생성하기 위한 기초로서 사용된다. 특히, 특정 실시예에서, 단계(1030)에서 프로세스(1000)는, 기준 객체로부터 특정 거리 구간 내에 있는 식별된 관심 뼈들의 영역들에 대응하는 하나 이상의 시드 인공 객체들을 자동으로 생성한다.
특정 실시예에서, 시드 인공 객체들은, 먼저 3차원의 복수의 지점들 각각에서의 강도 값들(예컨대, 수치 값들)을 포함하는 거리 맵(map)을 결정함으로써 생성된다. 각각의 지점에서의 강도 값들 각각은 주어진 지점으로부터 기준 객체까지의 거리에 대응한다. 그 후, 거리 맵은 기준 객체로부터 특정 거리 구간 내에 있는 3D 공간의 지점들을 식별하는 거리 구간 마스크를 생성하는 데에 사용된다(예컨대, 거리 구간 마스크는 2진 마스크이고, 미리 정의된 거리 구간 내의 기준 객체까지의 거리를 갖는 지점들에는 제1 값(예컨대, 숫자 1, 예컨대, 부울 참)이 할당되고, 다른 지점들에는 제2 값(예컨대, 숫자 0, 예컨대, 부울 거짓)이 할당된다)
그 후, 거리 구간 마스크는 기준 객체로부터 특정 거리 내에 있는 하나 이상의 관심 뼈들의 영역들을 식별하는 데에 사용될 수 있다. 특정 실시예에서, 거리 구간 마스크는 하나 이상의 관심 뼈들을 식별하는 마스크와 조합하여 사용된다. 거리 구간 마스크와 식별된 하나 이상의 관심 뼈에 대응하는 마스크 사이의 논리적 AND 연산이 적용되고, 그에 의해 기준 객체로부터 거리 구간 내에 있는 관심 뼈들의 영역들이 자동으로 식별된다.
특정 실시예에서, 시드 인공 객체들의 생성(1030) 이후에, 프로세스(1000)는 각각의 시드 인공 객체와 연관된 후속의 인공 객체들의 생성(1040)을 계속한다. 특히, 관심 뼈의 일 영역에 대응하는 주어진 시드 인공 객체로 시작하여, 다수의 관련된 후속하는 늑골 인공 객체들이 관심 뼈를 따라 자동으로 생성된다. 특정 실시예에서, 관심 뼈(예컨대, 시드 인공 객체 및 후속 인공 객체들)를 따라 생성된 인공 객체는 관심 뼈를 따라 인공 객체들의 사슬을 형성한다.
특정 실시예에서, 주어진 시드 인공 객체에 대하여, 연관된 후속 인공 객체들은 단계적인 방식으로 생성된다. 예를 들어, 시드 인공 객체로 시작하여, 시드 인공 객체로부터 미리 정의된 거리로 멀리, 식별된 기준 객체로부터 멀어지는 방향으로 진행되게, 제1의 후속 인공 객체가 관심 뼈를 따라 생성된다. 이어서, 제2 후속 인공 객체가, 식별된 기준 객체로부터 멀어지는 방향으로 진행되게, 제1 후속 인공 객체로부터 미리 정의된 거리로 멀리, 관심 뼈를 따라 생성된다. 이러한 방식으로, 새로운 인공 객체들이 단계적인 방식으로 생성되고, 각각의 새로 생성된 인공 객체는 식별된 기준 객체로부터 바깥쪽으로 멀리, 그리고 관심 뼈를 따라 진행된다.
특정 실시예에서, 주어진 관심 뼈를 따라 각각의 인공 객체를 분리하는 거리는 모두 동일하여, 관심 뼈를 따라 인공 객체의 등거리 사슬이 형성된다.
특정 실시예에서, 각각의 관심 뼈를 따라 후속 인공 객체를 생성하는 데에 형태학적 및 논리적 연산들의 세트가 사용된다.
특정 실시예에서, 프로세스(1000)는 관심 뼈의 일 영역에 대응하는 특정 시드 인공 객체로부터 생성된 후속 인공 객체들이 관심 뼈를 따라 정확하게 생성되고, 영상에서 식별된 다른 뼈들을 따라 생성되지 않음(예컨대, 자동화된 프로세싱은 후속적인 인공 객체들이 다른 뼈로 점프하도록 야기하지 않음)을 보장하는 단계들을 포함한다. 따라서, 새로 생성된 인공 객체가 영상 내의 식별된 부가적인 뼈(예컨대, 하나 이상의 식별된 관심 뼈들 중 하나에 대응하지 않음)로부터 미리 정의된 임계 거리 내에 있는 것으로 결정될 때까지, 새로운 후속 인공 객체를 생성하는 프로세스가 진행될 수 있다. 새로 생성된 인공 객체가 부가적인 뼈의 임계 거리 내에 있는 것으로 결정되면, 해당 특정한 관심 뼈를 따른 인공 객체들의 생성이 종료된다.
특정 실시예에서, 주어진 시드 인공 객체와 연관된 후속 인공 객체들이 생성될 때, 인공 객체들이 다수의 서로 다른 관심 뼈들(예컨대, 시드 인공 객체가 생성되고 그 후 근처의 관심 뼈 상에 놓이는, 관심 뼈)을 따라 우발적으로 생성되지 않음을 보장하기 위해, 프로세스(1000)의 부가적 단계들이 사용된다. 이것은, 예를 들어, 영상의 특정 영역들에서 하나 이상의 서로 다른 관심 뼈들이 서로 근접하는 경우에 발생할 수 있다. 이러한 문제를 해결하기 위해, 특정 실시예에서, 프로세스(1000)는 제1 및 제2 관심 뼈 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는 하나 이상의 위험 영역들을 영상에서 자동으로 식별하는 단계를 포함한다.
주어진 시드 인공 객체와 연관된 새로운 후속 인공 객체가 생성될 때마다, 프로세스는 새로 생성된 인공 객체가 하나 이상의 이전에 식별된 위험 영역으로부터 미리 정의된 임계 거리 내에 있는지 여부를 판단한다. 새로 생성된 인공 객체가 이전에 식별된 위험 영역으로부터 미리 정의된 임계 거리 내에 있다고 프로세스가 판단하면, 주어진 시드 인공 객체와 연관된 후속의 인공 객체들의 생성이 종료된다.
따라서, 특정 실시예에서, 영상 내의 인공 객체들의 세트는 자동화된 방식으로 생성될 수 있다. 특정 실시예에서, 주어진 영상 내의 인공 객체들의 세트는 영상 내의 각각의 식별된 관심 뼈를 따라 생성되는 복수의 인공 객체들을 포함한다.
특정 실시예에서, 위에서 설명된 방식으로 다수의 영상들의 왜곡 정정 및/또는 상호-정합을 제공하기 위해, 인공 랜드마크는 해당 세트의 각각의 인공 객체로부터 결정된다. 특정 실시예에서, 각각의 인공 랜드마크는 대응하는 인공 객체의 질량 중심으로서 결정된다.
특정 실시예에서, 일단 인공 객체들의 세트가 주어진 영상에 대해 결정되면, 목표 랜드마크들이 획득되고(1045), 인공 객체들의 세트가 이전에 설명된 바와 같이 영상의 왜곡 정합(예컨대, 왜곡 정정 및/또는 상호-정합)을 위해 사용될 수 있다(1050)
Biv 임의의 관심 뼈를 따라 생성된 인공 객체들의 아웃라이어 필터링
특정 실시예에서, 피검체의 늑골들 및/또는 흉골을 따른 인공 객체들의 생성에 대해 설명된 접근법과 유사하게, 다양한 관심 뼈를 따른 인공 객체들의 생성은, 자동으로 생성된 인공 객체들이 서로 다른 세트의 기준을 만족하는 것을 보장하기 위해, 필터링 단계에 대응하는 부가적인 처리 단계를 포함한다.
예를 들어, 하나 이상의 인공 객체들(시드 인공 객체들, 및 후속 인공 객체들)이 생성될 때마다, 미리 정의된 임계 부피 미만의 부피를 나타내는 것으로 결정된 영역들에 대응하는 하나 이상의 인공 객체들을 제거하기 위해, 부피 필터가 일반적인 방식으로 적용될 수 있다. 부피 필터의 적용을 통해 식별되고 제거되는, 지나치게 작은 인공 객체들은, 종종 영상 분할 및/또는 잡음에서의 오류들의 결과로서의 결함들에 대응한다.
특정 실시예에서, 하나 이상의 인공 객체의 생성은 예상 인공 객체들의 제1 세트를 생성하는 제1 단계를 포함한다. 이러한 예상 인공 객체들은 본원에 설명된 접근법들 중 임의의 방법들을 통해(예컨대, 결정된 마스크들 사이의 논리적 AND 연산을 통해) 생성될 수 있다. 특정한 경우에, 이러한 예상 인공 객체들의 세트는, 잡음 및/또는 영상 분할 오류들로부터 발생하는 결함들에 대응하는 극히 작은 인공 객체들을 포함한다. 이러한 결함들을 제거하기 위해, 프로세서에 의해 부피 필터가 적용되어, 미리 정의된 임계 부피 미만의 부피를 나타내는 것으로 결정된 인공 객체들이 제거된다. 부피 필터의 적용 후에, 각각의 원하는 인공 객체(들)(예컨대, 각각의 시드 인공 객체, 예컨대, 주어진 시드 인공 객체와 관련된 새로 생성된 후속 인공 객체)가 해당 세트(그로부터, 부피 필터가 과도하게 작은 인공 객체를 제거한 세트)로부터 선택된다.
특정 실시예에서, 특정한 골격 영역들의 대칭성과 같은 물리적 직관을 레버리징하는 다른 필터들이 또한 적용될 수 있다. 특정 실시예에서, 연속적인 인공 객체들 간의 거리가 일정한지를 검증하는 단계를 포함하는 또 다른 필터링 단계가 적용된다.
특정 실시예에서, 복수의 영상들 간의 인공 객체들의 비교에 기초한 필터링 접근법이, 교차-영상 쌍들을 비교하는 것에 기초하여, 위에서 설명된 바와 같이 적용된다.
특정 실시예에서, 위에서 설명된 것들(예컨대, 부피 필터, 쌍 비교 필터, 연속적인 객체 분리 필터, 교차-영상 쌍 비교, 특정 골격 영역들의 대칭에 기반한 필터링 접근법들)을 포함하지만 이에 한정되지 않는 필터링 접근법들이, 조합되어, 그리고 다양한 순서로 적용된다.
C 실시예
도 15 내지 도 18은 본원에 설명된 인공 랜드마크 생성 접근법을 이용한 영상 정합의 예를 도시한다. 도 15는 정합 없이, 서로 다른 시점에서 수집된 마우스의 일련의 3D 영상들의 단면(1500)을 도시한다. 4개의 서로 다른 영상의 교차-단면(평면)이 도시되어 있으며, 이때 각각의 영상에 대하여 마우스(피검체)의 위치 및 자세가 상이하다. xz 평면(예컨대, xz 평면 내의 슬라이스)(1504a, 1506a, 1508a, 및 1510a) 내의 4개의 단면이 xy 평면(1504b, 1506b, 1508b, 및 1510b) 내의 단면과 함께 도시되어 있다. zy 평면의 교차-단면(1502)은 참조를 위해 도시되어 있다. 교차-단면들(1504a 및 1504b)은 각각 제1 시점에 기록된 제1 영상의 xz 및 xy 평면들을 통한 슬라이스에 대응한다. 교차-단면들(1506a 및 1506b)은 각각 제2 시점에 기록된 제2 영상의 xz 및 xy 평면들을 관통하여 슬라이스한다. 교차-단면들(1508a 및 1508b)은 각각 제3시점에 기록된 제3 영상의 xz 및 xy 평면들에 각각 대응한다. 교차-단면들(1510a 및 1510b)은 각각 제4시점에 기록된 제4 영상의 xz 및 xy 평면들에 대응한다. 도 15의 영상들은 왜곡 정정 또는 상호-정합이 적용되지 않은 원시 영상들에 대응한다. 도면의 2D 교차-단면에 도시된 바와 같이, 서로 다른 측정에서의 마우스의 자세 및 위치의 차이가 영상들에 반영된다.
도 16은 변환 연산들에 대응하는 변환들을 결정하는 단계, 및 3D 영상들에 해당 변환들을 적용하는 단계의 예를 도시한다. 변환을 결정하기 위해, 본원에 설명된 접근법을 사용하여 일련의 영상들의 각각의 영상에 대해 인공 랜드마크들이 생성되었다. 목표 랜드마크들의 세트는 영상들 중 하나의 인공 랜드마크를 사용하여 결정되었다. 목표 랜드마크는 yz-평면에 대해 거울 연산 하에서 대칭인 것으로 결정되었다. 상기 일련의 영상들의 각각의 영상에 대하여, 개별 영상 내의 인공 랜드마크들의 세트를 목표 랜드마크들의 세트와 정렬하도록 병진이동 연산에 대응하는 변환이 결정되었다.
결정된 병진이동 연산이 각각의 대응하는 영상에 적용되었고, 그 결과는 도 16에 도시된 단면들(1600)에 도시되어 있다. 도 15와 유사하게, 단면들(1604a 및 1604b)은 제1 시점에 기록된 제1 측정에 대응하는 제1 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1606a 및 1606b)은 제2 시점에 기록된 제2 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1608a 및 1608b)은 제3 시점에 기록된 제3 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1610a 및 1610b)은 제4 측정에 대응하는 제4 영상의 xz 및 xy 평면에 각각 대응한다. yz 평면의 단면(1602) 또한 도시된다. 상기 일련의 영상들의 각각의 영상에 대해, 결정된 병진이동 연산이 적용된 결과로서, 각각의 영상의 인공 랜드마크들의 평균(mean) 좌표는 4개의 모든 영상들에 대해 동일하다. 영상 획득 기기의 축들에 대하여 피검체의 회전에 대한 정정이 필요한 경우, 도 17 또는 도 18의 변환 접근법이 먼저 적용될 수 있다.
도 17은 4개의 일련의 영상들의 각각의 영상에 대해, 선형 변환에 대응하는 변환이 영상 내의 인공 랜드마크들을 사용하여 결정되고, 해당 영상에 적용되는 일 예를 도시한다. 인공 랜드마크들은 상기 일련의 영상들의 각각의 영상에 대해 생성되었고, 대칭적인 목표 랜드마크들은 전술된 바와 같이 해당 일련의 영상들 중 하나를 사용하여 결정되었다. 각각의 영상에 대하여, 대응하는 선형 변환은 개별 영상 내의 인공 랜드마크들 및 목표 랜드마크들을 사용하여 결정되었다(예컨대, 선형 변환은 주어진 영상의 인공 랜드마크들의 세트를 목표 랜드마크들의 세트에 정렬하는 것을 실질적으로 최적화하도록 결정되었음)
각각의 영상에 대해, 대응하는 결정된 선형 변환을 영상에 적용한 결과는, 도 17에 도시된 일련의 단면들(1700)에 도시되었다. 도 15 및 도 16과 유사하게, 단면들(1704a 및 1704b)은 제1 시점에 기록된 제1 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1706a 및 1706b)은 제2 시점에 기록된 제2 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1708a 및 1708b)은 제3 시점에 기록된 제3영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1710a 및 1710b)은 제4 측정에 대응하는 제4 영상의 xz 및 xy 평면에 각각 대응한다. yz 평면의 단면(1702) 또한 도시되었다.
도 18은 4개의 일련의 영상들의 각각의 영상에 대해, 선형 변환 및 후속되는 비선형 변환을 포함하는 변환이, 영상 내의 인공 랜드마크들을 사용하여 결정되고, 해당 영상에 적용된 일 예를 도시한다. 인공 랜드마크들은 상기 일련의 영상들의 각각의 영상에 대해 생성되었고, 대칭적인 목표 랜드마크들은 전술된 바와 같이 해당 일련의 영상들 중 하나를 사용하여 결정되었다. 각각의 영상에 대하여, 각각의 영상 내의 인공 랜드마크들 및 목표 랜드마크들을 사용하여 (선형 변환 및 후속하는 비선형 변환에 대응하는) 조합된 변환이 결정되었다(예컨대, 변환은 주어진 영상의 인공 랜드마크들 세트를 목표 랜드마크들의 세트와 정렬시키는 것을 실질적으로 최적화하도록 결정되었다).
각각의 영상에 대해, 대응하는 결정된 변환(선형 변환 및 후속하는 비선형 변환)이 영상에 적용된 결과는 도 18에 도시된 일련의 단면들(1800)에 도시되었다. 도 15 내지 도 17과 유사하게, 단면들(1804a 및 1804b)은 제1 시점에 기록된 제1 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1806a 및 1806b)은 제2 시점에 기록된 제2 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1808a 및 1808b)은 제3 시점에 기록된 제3 영상의 xz 및 xy 평면에 각각 대응한다. 단면들(1810a 및 1810b)은 제4 시점에 기록된 제4 영상의 xz 및 xy 평면에 각각 대응한다. yz 평면의 단면(1802) 또한 도시되어 있다.
도 19는 식별된 흉곽 골들(예컨대, 뼈 마스크) 및 식별된 통기된 폐(aerated lung)의 일련의 투영들(1910, 1920, 1930, 1940)을 도시하는데, 각각의 투영은, 서로 다른 시간에 기록된 마우스의 서로 다른 3D 영상 내에서 식별된 흉곽 뼈들 및 통기된 폐를 나타낸다. 서로 다른 3D 영상들은 상호-정합되었으며, 따라서, 피검체의 폐의 변화를 관찰하기 위해 쉽게 비교될 수 있다.
D 네트워크 환경 및 컴퓨팅 시스템
본원에 설명된 바와 같이 왜곡 정정 및/또는 영상들의 상호-정합을 위한 인공 랜드마크들의 생성을 위한 시스템, 방법, 및 아키텍처를 제공하는 데에 사용하기 위한 네트워크 환경(1300)의 구현예가 도 13에 도시되어 있다. 이제 도 13을 참조하면, 예시적인 클라우드 컴퓨팅 환경(1300)의 블록도가 개략적인 개요로 도시되고 설명된다. 클라우드 컴퓨팅 환경(1300)은 하나 이상의 자원 제공자들(1302a, 1302b, 1302c)(집합적으로, 1302)을 포함할 수 있다. 각각의 자원 제공자(1302)는 컴퓨팅 자원들을 포함할 수 있다. 일부 구현예에서, 컴퓨팅 자원들은 데이터를 처리하는 데에 사용되는 임의의 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 예를 들어, 컴퓨팅 자원들은 알고리즘, 컴퓨터 프로그램, 및/또는 컴퓨터 응용 프로그램을 실행할 수 있는 하드웨어 및/또는 소프트웨어를 포함할 수 있다. 일부 구현예에서, 예시적인 컴퓨팅 자원들은 저장 및 검색 기능들을 갖는 어플리케이션 서버들 및/또는 데이터베이스들을 포함할 수 있다. 각각의 자원 제공자(1302)는 클라우드 컴퓨팅 환경(1300)에서 임의의 다른 자원 제공자(1302)에 연결될 수 있다. 일부 구현예에서, 자원 제공자들(1302)은 컴퓨터 네트워크(1308)를 통해 접속될 수 있다. 각각의 자원 제공자(1302)는 컴퓨터 네트워크(1308)를 통해 하나 이상의 컴퓨팅 장치(1304a, 1304b, 1304c)(집합적으로, 1304)에 연결될 수 있다.
클라우드 컴퓨팅 환경(1300)은 자원 관리자(1306)를 포함할 수 있다. 자원 관리자(1306)는 컴퓨터 네트워크(1308)를 통해 자원 제공자들(1302) 및 컴퓨팅 장치(1304)에 연결될 수 있다. 일부 구현예에서, 자원 관리자(1306)는 하나 이상의 자원 제공자들(1302)에 의한 컴퓨팅 자원들을 하나 이상의 컴퓨팅 장치들(1304)에 제공하는 것을 용이하게 할 수 있다. 자원 관리자(1306)는 특정 컴퓨팅 장치(1304)로부터 컴퓨팅 자원에 대한 요청을 수신할 수 있다. 자원 관리자(1306)는 컴퓨팅 장치(1304)에 의해 요청된 컴퓨팅 자원을 제공할 수 있는 하나 이상의 자원 제공자들(1302)을 식별할 수 있다. 자원 관리자(1306)는 컴퓨팅 자원을 제공하기 위해 자원 제공자(1302)를 선택할 수 있다. 자원 관리자(1306)는 자원 제공자(1302)와 특정한 컴퓨팅 장치(1304) 간의 연결을 용이하게 할 수 있다. 일부 구현예에서, 자원 관리자(1306)는 특정 자원 제공자(1302)와 특정 컴퓨팅 장치(1304) 사이의 연결을 설정할 수 있다. 일부 구현예에서, 자원 관리자(1306)는 특정 컴퓨팅 장치(1304)를, 요청된 컴퓨팅 자원을 가진 특정 자원 제공자(1302)로 리디렉션(redirect)할 수 있다.
도 14는 본 개시에 설명된 기술들을 구현하는 데에 사용될 수 있는 컴퓨팅 장치(1400) 및 모바일 컴퓨팅 장치(1450)의 예를 도시한다. 컴퓨팅 장치(1400)는 노트북, 데스크탑, 워크스테이션, PDA, 서버, 블레이드 서버, 메인프레임 및 다른 적절한 컴퓨터들과 같은 다양한 형태의 디지털 컴퓨터들을 표현하도록 의도된다. 모바일 컴퓨팅 장치(1450)는 PDA, 핸드폰, 스마트폰, 및 다른 유사한 컴퓨팅 장치와 같은 다양한 형태의 모바일 장치를 표현하는 것으로 의도된다. 여기 도시된 구성요소들, 그들의 연결들 및 관계들, 및 그들의 기능들은 단지 예시적인 것이며, 제한하기 위한 것이 아니다.
컴퓨팅 장치(1400)는 프로세서(1402), 메모리(1404), 저장 장치(1406), 메모리(1404)와 다수의 고속 확장 포트들(1410)에 연결되는 고속 인터페이스(1408), 및 저속 확장 포트(1414)와 저장 장치(1406)에 연결되는 저속 인터페이스(1412)를 포함한다. 프로세서(1402), 메모리(1404), 저장 장치(1406), 고속 인터페이스(1408), 고속 확장 포트들(1410), 및 저속 인터페이스(1412) 각각은 다양한 버스들을 이용하여 상호접속되고, 공통의 마더보드 상에 또는 적절한 다른 방식들로 장착될 수 있다. 프로세서(1402)는, 고속 인터페이스(1408)에 연결된 디스플레이(1416)와 같은 외부 입력/출력 장치 상의 GUI에 대해 그래픽 정보를 표시하기 위한 메모리(1404) 또는 저장 장치(1406)에 저장된 명령들을 포함하는, 컴퓨팅 장치(1400) 내의 실행을 위한 명령들을 처리할 수 있다. 다른 구현예에서, 다수의 프로세서들 및/또는 다수의 버스들은 적절한 경우, 다수의 메모리들 및 다수의 유형들의 메모리와 함께, 사용될 수 있다. 또한, 다수의 컴퓨팅 장치들은 (예컨대, 서버 뱅크, 블레이드 서버들의 그룹, 또는 멀티-프로세서 시스템으로서) 필요한 동작들의 부분들을 제공하는 각각의 장치와 연결될 수 있다. 따라서, 본원에서 용어가 사용될 때, 복수의 기능이 "프로세서"에 의해 수행되는 것으로 기술되는 경우, 이는 복수의 기능이 임의의 개수의 컴퓨팅 장치(하나 이상)의 임의의 개수의 프로세서(하나 이상)에 의해 수행되는 실시예를 포함한다. 또한, 어느 기능이 "프로세서"에 의해 수행되는 것으로 기술되는 경우, 이는 해당 기능이 (예컨대, 분산 컴퓨팅 시스템에서) 임의의 개수의 컴퓨팅 장치들(하나 이상)의 임의의 개수의 프로세서들(하나 이상)에 의해 수행되는 실시예을 포함한다.
메모리(1404)는 컴퓨팅 장치(1400) 내에 정보를 저장한다. 일부 구현예에서, 메모리(1404)는 휘발성 메모리 유닛 또는 유닛들이다. 일부 구현예에서, 메모리(1404)는 비휘발성 메모리 유닛 또는 유닛들이다. 메모리(1404)는 또한, 자기 또는 광 디스크와 같은, 다른 형태의 컴퓨터 판독가능 매체일 수 있다.
저장 장치(1406)는 컴퓨팅 장치(1400)에 대용량 저장소를 제공할 수 있다. 일부 구현예에서, 저장 장치(1406)는, 플로피 디스크 장치, 하드 디스크 장치, 광디스크 장치, 또는 테이프 장치, 플래시 메모리나 다른 유사한 솔리드 스테이트(solid state) 메모리 장치, 또는 저장 영역 네트워크 또는 다른 구성들 내의 장치들을 포함하는 장치들의 어레이와 같은, 컴퓨터 판독가능 매체이거나 이를 포함할 수 있다. 명령들은 정보 운반자 내에 저장될 수 있다. 명령들은 하나 이상의 처리 장치들(예컨대, 프로세서(1402))에 의해 실행될 때, 전술된 것들과 같은 하나 이상의 방법들을 수행한다. 명령들은 또한, 컴퓨터-판독가능 또는 기계-판독가능 매체들(예컨대, 메모리(1404), 저장 장치(1406), 또는 프로세서(1402) 상의 메모리)과 같은 하나 이상의 저장 장치들에 의해 저장될 수 있다.
고속 인터페이스(1408)는 컴퓨팅 장치(1400)에 대한 대역폭-집중 동작들을 관리하는 한편, 저속 인터페이스(1412)는 낮은 대역폭-집중 동작들을 관리한다. 이러한 기능들의 할당은 예시일 뿐이다. 일부 구현예에서, 고속 인터페이스(1408)는 메모리(1404), 디스플레이(1416)(예컨대, 그래픽 프로세서 또는 가속기를 통해), 및 다양한 확장 카드들(도시되지 않음)을 수용할 수 있는 고속 확장 포트들(1410)에 연결된다. 상기 구현예에서, 저속 인터페이스(1412)는 저장 장치(1406) 및 저속 확장 포트(1414)에 연결된다. 다양한 통신 포트들(예컨대, USB, 블루투스, 이더넷, 무선 이더넷)을 포함할 수 있는 저속 확장 포트(1414)는 예를 들어, 네트워크 어댑터를 통해, 키보드, 포인팅 장치, 스캐너, 또는 스위치나 라우터와 같은 네트워킹 장치와 같은 하나 이상의 입력/출력 장치들에 연결될 수 있다.
컴퓨팅 장치(1400)는 도면에 도시된 바와 같이 다수의 서로 다른 형태로 구현될 수 있다. 예를 들어, 이는 표준 서버(1420)로서 구현될 수 있거나, 그러한 서버들의 그룹에서의 다수의 시간들로서 구현될 수 있다. 또한, 이는 노트북 컴퓨터(1422)와 같은 개인용 컴퓨터에서 구현될 수 있다. 랙 서버 시스템(1424)의 일부로서 구현될 수도 있다. 대안적으로, 컴퓨팅 장치(1400)로부터의 구성요소들은 모바일 컴퓨팅 장치(1450)와 같은 모바일 장치(도시되지 않음) 내의 다른 구성요소들과 조합될 수 있다. 이러한 장치들 각각은 하나 이상의 컴퓨팅 장치(1400) 및 모바일 컴퓨팅 장치(1450)를 포함할 수 있고, 전체 시스템은 서로 통신하는 다수의 컴퓨팅 장치들로 구성될 수 있다.
모바일 컴퓨팅 장치(1450)는 다른 구성요소들 중에서도, 프로세서(1452), 메모리(1464), 디스플레이(1454)와 같은 입력/출력 장치, 통신 인터페이스(1466), 및 트랜시버(1468)를 포함한다. 또한, 모바일 컴퓨팅 장치(1450)는 부가적인 저장을 제공하기 위해, 마이크로-드라이브 또는 다른 장치와 같은 저장 장치와 함께 제공될 수 있다. 프로세서(1452), 메모리(1464), 디스플레이(1454), 통신 인터페이스(1466) 및 트랜시버(1468) 각각은, 다양한 버스들을 사용하여 상호접속되고, 몇몇 구성요소들은 공통의 마더보드 상에 또는 적절한 다른 방식들로 장착될 수 있다.
프로세서(1452)는 메모리(1464)에 저장된 명령들을 포함하여, 모바일 컴퓨팅 장치(1450) 내의 명령들을 실행할 수 있다. 프로세서(1452)는 분리된 다수의 아날로그 및 디지털 프로세서들을 포함하는 칩들의 칩셋으로서 구현될 수도 있다. 프로세서(1452)는, 예를 들어, 사용자 인터페이스들의 제어, 모바일 컴퓨팅 장치(1450)에 의해 실행되는 어플리케이션들, 및 모바일 컴퓨팅 장치(1450)에 의한 무선 통신과 같은, 모바일 컴퓨팅 장치(1450)의 다른 구성요소들의 조정을 제공할 수 있다.
프로세서(1452)는 컨트롤 인터페이스(1458) 및 디스플레이(1454)에 연결된 디스플레이 인터페이스(1456)를 통해 사용자와 통신할 수 있다. 디스플레이(1454)는, 예를 들어, TFT(박막 트랜지스터 액정 디스플레이) 디스플레이 또는 OLED(유기발광 다이오드) 디스플레이, 또는 다른 적절한 디스플레이 기술일 수 있다. 디스플레이 인터페이스(1456)는 그래픽 및 다른 정보를 사용자에게 제공하기 위해 디스플레이(1454)를 구동하기 위한 적절한 회로를 포함할 수 있다. 컨트롤 인터페이스(1458)는 사용자로부터 명령을 수신하고 이들을 프로세서(1452)에 전송하기 위해 변환할 수 있다. 또한, 외부 인터페이스(1462)는 프로세서(1452)와의 통신을 제공하여, 모바일 컴퓨팅 장치(1450)와 다른 장치들의 근거리 통신을 가능하게 할 수 있다. 외부 인터페이스(1462)는, 예를 들어, 일부 구현예에서 유선 통신을, 또는 다른 구현예에서 무선 통신을 제공할 수 있고, 다수의 인터페이스들이 또한 사용될 수 있다.
메모리(1464)는 정보를 모바일 컴퓨팅 장치(1450)에 저장한다. 메모리(1464)는 하나 이상의 컴퓨터 판독가능 매체들 또는 매체, 휘발성 메모리 유닛들 또는 유닛, 또는 비휘발성 메모리 유닛들 또는 유닛으로서 구현될 수 있다. 확장 메모리(1474)는 또한 예를 들어, SIMM(Single In Line Memory Module) 카드 인터페이스를 포함할 수 있는 확장 인터페이스(1472)를 통해 모바일 컴퓨팅 장치(1450)에 제공되고 연결될 수 있다. 확장 메모리(1474)는 모바일 컴퓨팅 장치(1450)를 위한 여분의 저장 공간을 제공할 수 있거나, 또한 모바일 컴퓨팅 장치(1450)를 위한 어플리케이션 또는 다른 정보를 저장할 수 있다. 구체적으로, 확장 메모리(1474)는 위에서 설명된 프로세스들을 실행 또는 보완하기 위한 명령들을 포함할 수 있고, 또한 보안 정보를 포함할 수 있다. 따라서, 예를 들어, 확장 메모리(1474)는 모바일 컴퓨팅 장치(1450)를 위한 보안 모듈로서 제공될 수 있고, 모바일 컴퓨팅 장치(1450)의 보안 사용을 허용하는 명령들로 프로그래밍될 수 있다. 또한, 보안 어플리케이션은 SIMM 카드를 통해, 해킹될 수 없는 방식으로 SIMM 카드 상에 식별 정보를 위치시키는 것과 같이, 부가적인 정보와 함께 제공될 수 있다.
메모리는, 이하에서 설명되는 바와 같이, 예를 들어, 플래시 메모리 및/또는 NVRAM 메모리(비-휘발성 랜덤 액세스 메모리)를 포함할 수 있다. 일부 구현예에서, 명령들은 정보 운반자에 저장된다. 명령들은, 하나 이상의 처리 장치(예컨대, 프로세서(1452))에 의해 실행될 때, 전술한 바와 같은 하나 이상의 방법을 수행한다. 명령들은 또한, 하나 이상의 컴퓨터-판독가능 또는 기계-판독가능 매체들(예컨대, 메모리(1464), 확장 메모리(1474), 또는 프로세서(1452) 상의 메모리)과 같은 하나 이상의 저장 장치들에 의해 저장될 수 있다. 일부 구현예에서, 명령들은 예를 들어, 트랜시버(1468) 또는 외부 인터페이스(1462)를 통해 전파된 신호로 수신될 수 있다.
모바일 컴퓨팅 장치(1450)는 필요한 경우, 디지털 신호 처리 회로를 포함할 수 있는 통신 인터페이스(1466)를 통해 무선으로 통신할 수 있다. 통신 인터페이스(1466)는 GSM 음성 호(범 유럽 표준 이동통신 체계), SMS(단문 메시지 서비스), EMS(확장 메시지 서비스), 또는 MMS 메시징(멀티미디어 메시징 서비스),CDMA(코드분할 다중 접속), TDMA(시분할 다중 접속), PDC(개인 디지털 셀룰러), WCDMA(광대역 코드분할 다중 접속), CDMA2000, 또는 GPRS(일반 패킷 무선 시스템) 등과 같은 다양한 모드 또는 프로토콜 하에서의 통신을 제공할 수 있다. 이러한 통신은, 예를 들어, 무선 주파수를 사용하여 트랜시버(1468)를 통해 발생할 수 있다. 또한, 단거리 통신은 예를 들어, 블루투스, Wi-Fi, 또는 다른 이러한 트랜시버(도시되지 않음)를 이용하는 것과 같이 발생할 수 있다. 또한, GPS(Global Positioning System) 수신기 모듈(1470)은 부가적인 내비게이션-관련 및 위치-관련 무선 데이터를 모바일 컴퓨팅 장치(1450)에 제공할 수 있으며, 이는 모바일 컴퓨팅 장치(1450) 상에서 실행되는 어플리케이션들에 의해 적절하게 사용될 수 있다.
또한, 모바일 컴퓨팅 장치(1450)는 또한, 사용자로부터 음성 정보를 수신하고 이를 사용 가능한 디지털 정보로 변환할 수 있는 오디오 코덱(1460)을 사용하여 음성(audibly) 통신할 수 있다. 마찬가지로, 오디오 코덱(1460)은, 예를 들어, 모바일 컴퓨팅 장치(1450)의 핸드셋에서, 스피커를 통한 것과 같이, 사용자를 위한 가청 사운드를 생성할 수도 있다. 그러한 사운드는 음성 전화 호출들로부터의 사운드를 포함할 수 있고, 녹음된 사운드(예컨대, 음성 메시지들, 음악 파일들 등)를 포함할 수 있으며, 또한 모바일 컴퓨팅 장치(1450) 상에서 동작하는 어플리케이션들에 의해 생성된 사운드를 포함할 수도 있다.
모바일 컴퓨팅 장치(1450)는 도면에 도시된 바와 같이, 다수의 서로 다른 형태로 구현될 수 있다. 예를 들어, 이는 핸드폰(1480)으로서 구현될 수 있다. 또한, 스마트폰(1482), PDA, 또는 다른 유사한 모바일 장치의 일부로서 구현될 수도 있다.
여기에 설명된 시스템들 및 기술들의 다양한 구현예는 디지털 전자 회로, 집적 회로, 특수 설계 ASIC(application specific integrated circuit), 컴퓨터 하드웨어, 펌웨어, 소프트웨어, 및/또는 이들의 조합에서 구현될 수 있다. 이러한 다양한 구현예는, 저장장치, 적어도 하나의 입력 장치, 및 적어도 하나의 출력 장치로부터의 데이터 및 명령들을 수신하고, 이들에 대해 데이터 및 명령들을 전송하도록 연결되는, 특수 또는 범용일 수 있는 적어도 하나의 프로그램 가능한 프로세서를 포함하는 프로그램 가능한 시스템 상에서 실행 가능한 그리고/또는 해석 가능한, 하나 이상의 컴퓨터 프로그램에서의 구현을 포함할 수 있다.
이들 컴퓨터 프로그램들(프로그램, 소프트웨어, 소프트웨어 어플리케이션 또는 코드라고도 함)은 프로그램 가능 프로세서를 위한 기계 명령어를 포함하고, 고수준의 절차 지향 및/또는 객체 지향 프로그래밍 언어, 및/또는 어셈블리어/기계어로 구현될 수 있다. 본원에서 사용되는 바와 같이, 기계-판독가능 매체 및 컴퓨터-판독가능 매체는, 기계 명령들을 기계-판독가능 신호로서 수신하는 기계-판독가능 매체를 포함한 프로그램 가능한 프로세서에 대해 기계 명령들 및/또는 데이터를 제공하는 데에 사용되는, 임의의 컴퓨터 프로그램 제품, 장치 및/또는 디바이스(예컨대, 자기 디스크, 광 디스크, 메모리, 프로그램 가능 로직 디바이스(PLD))를 지칭한다. 기계-판독가능 신호는 기계 명령들 및/또는 데이터를 프로그램 가능 프로세서에 제공하는 데에 사용되는 임의의 신호를 지칭한다.
사용자와의 상호작용을 제공하기 위해, 여기에 설명된 시스템 및 기술들은, 사용자에게 정보를 표시하기 위한 디스플레이 장치(예컨대, CRT(음극선관) 또는 LCD(액정표시) 모니터)와, 사용자가 컴퓨터에 입력을 제공할 수 있는 키보드 및 포인팅 장치(예컨대, 마우스 또는 트랙볼)를 갖는, 컴퓨터 상에서 구현될 수 있다. 예를 들어, 사용자와의 상호작용을 제공하는 데에 다른 종류의 장치들이 사용될 수도 있는데, 예를 들어, 사용자에게 제공되는 피드백은 임의의 형태의 감각 피드백(예컨대, 시각 피드백, 청각 피드백, 또는 촉각 피드백)일 수 있고, 사용자로부터의 입력은 음향, 음성, 또는 촉각 입력을 포함하는 임의의 형태로 수신될 수 있다.
본원에 설명된 시스템들 및 기술들은 백엔드 구성요소(예컨대, 데이터 서버로서)를 포함하거나, 또는 미들웨어 구성요소(예컨대, 어플리케이션 서버)를 포함하거나, 또는 프론트엔드 구성요소(예컨대, 여기 설명된 시스템들 및 기술들의 구현을 사용하여 사용자가 상호작용할 수 있는 그래픽 사용자 인터페이스 또는 웹 브라우저를 갖는 클라이언트 컴퓨터), 또는 이러한 백엔드, 미들웨어, 또는 프런트엔드 구성요소들의 임의의 조합을 포함하는 컴퓨팅 시스템에서 구현될 수 있다. 시스템의 구성요소들은 디지털 데이터 통신(예컨대, 통신 네트워크)의 임의의 형태 또는 매체에 의해 상호연결될 수 있다. 통신 네트워크들의 예들은 LAN(근거리 통신망), WAN(광역 통신망), 및 인터넷을 포함한다.
컴퓨팅 시스템은 클라이언트 및 서버를 포함할 수 있다. 클라이언트 및 서버는 일반적으로 서로 멀리 떨어져 있으며 대개, 통신 네트워크를 통해 상호작용한다. 클라이언트와 서버의 관계는 각각의 컴퓨터에서 실행되고 서로에 대해 클라이언트-서버 관계를 갖는 컴퓨터 프로그램에 의해 발생한다.
본원에 설명된 서로 다른 구현들의 구성요소들은 위에서 설명되지 않은 다른 구현들을 형성하기 위해 조합될 수 있다. 구성요소들은 그들의 동작에 악영향을 주지 않고 본원에서 설명되는 프로세스들, 컴퓨터 프로그램들, 데이터베이스들 등으로부터 제외될 수 있다. 또한, 도면들에 도시된 논리 흐름들은 바람직한 결과들을 달성하는 데에, 도시된 특정 순서 또는 순차적인 순서를 필요로 하지 않는다. 다양한 개별 구성요소들이 본원에 설명된 기능들을 수행하기 위해 하나 이상의 개개의 구성요소들로 조합될 수 있다. 본원에 설명된 시스템 및 방법의 구조, 기능 및 장치의 측면에서 일부 구현예가 설명되었다.
상세한 설명 전반에 걸쳐, 장치 및 시스템이 특정한 구성요소를 포함하는 것으로 기술되어 있는 경우, 또는 프로세스 및 방법이 특정한 단계를 포함하는 것으로 기술되어 있는 경우, 언급된 구성요소로 본질적으로 구성(consist essentially of)되거나 구성(consist of)되는 본 발명의 장치 및 시스템이나, 언급된 처리 단계들로 본질적으로 구성되거나 구성되는 본 발명에 따른 방법 및 시스템이 부가적으로 존재하는 것으로 고려된다.
본 발명이 동작가능하게 유지되는 한, 특정 동작을 수행하기 위한 순서 또는 단계들의 순서는 중요하지 않음을 이해해야 한다. 또한, 2개 이상의 단계 또는 동작이 동시에 수행될 수 있다.
특정한 바람직한 실시예를 참조하여 장치, 시스템 및 방법이 특히 도시되고 기술되었지만, 통상의 기술자는 첨부된 청구범위에 의해 한정된 바와 같은 본 발명의 사상 및 범위를 벗어나지 않고 다양한 형태의 변경 및 상세한 변경이 이루어질 수 있음을 이해해야 한다.

Claims (27)

  1. 피검체의 하나 이상의 3D 영상들의 정합을 위한 시스템으로서,
    프로세서; 및
    명령들이 저장되는 메모리를 포함하고,
    상기 명령들은, 상기 프로세서에 의해 실행될 때, 상기 프로세서로 하여금:
    (a) 하나 이상의 관심 뼈들의 그래픽 표현을 포함하는, 상기 피검체의 3D 영상을 수신하게 하고;
    (b) 상기 그래픽 표현에서 하나 이상의 관심 뼈들 및 기준 객체를 식별하게 하며;
    (c) 하나 이상의 시드 인공 객체들(seed artificial object)을 자동으로 생성하게 하고 - 각각의 시드 인공 객체가 상기 기준 객체로부터 제1 거리 구간 내에 있고 상기 그래픽 표현의 하나의 관심 뼈의 일 영역에 대응함 - ;
    (d) 각각의 자동으로 생성된 시드 인공 객체에 대하여, 복수의 연관된 후속 인공 객체들을 자동으로 생성하여, 상기 영상 내에 인공 객체들의 세트를 생성하게 하며;
    (e) 상기 영상 내의 상기 인공 객체들의 세트를 이용하여 상기 피검체의 하나 이상의 영상들의 정합을 자동적으로 수행하고,
    상기 명령들은, 상기 프로세서로 하여금:
    상기 그래픽 표현의 제1 관심 뼈와 제2 관심 뼈 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는, 상기 영상의 하나 이상의 위험 영역들을 식별하게 하고; 그리고,
    상기 영상 내의 임의의 식별된 위험 영역으로부터 충분히 멀리 떨어져 있도록 각각의 인공 객체를 자동으로 생성하게 하는, 시스템.
  2. 제1항에 있어서, 상기 명령들은, 상기 프로세서로 하여금:
    3차원의 복수의 지점들 각각에서의 강도 값들을 포함하는 거리 맵을 결정하게 하고, - 상기 거리 맵의 강도 값들 각각은 3D 공간 내의 주어진 지점으로부터 상기 기준 객체까지의 거리에 대응함 - ;
    상기 거리 맵으로부터 거리 구간 마스크를 생성하게 하며; 그리고
    상기 거리 구간 마스크와 식별된 상기 하나 이상의 관심 뼈들에 대응하는 마스크 사이에 AND 연산을 적용하여, 상기 기준 객체로부터 상기 제1 거리 구간 내에 있는 상기 식별된 관심 뼈들의 복수의 영역들을 식별하게 함으로써,
    상기 하나 이상의 시드 인공 객체들을 자동으로 생성하게 하는, 시스템.
  3. 제1항에 있어서, 각각의 자동으로 생성된 시드 인공 객체에 대하여, 상기 복수의 연관된 후속 인공 객체들은 인공 객체들의 등거리 사슬을 포함하는, 시스템.
  4. 제1항에 있어서, 각각의 인공 객체는 상기 그래픽 표현 내에서 식별된 부가적인 뼈로부터 미리 정의된 임계 거리에 있는, 시스템.
  5. 삭제
  6. 제1항에 있어서, 상기 명령들은 상기 프로세서로 하여금, 상기 시드 인공 객체로 시작하여 단계적 방식으로 새로운 후속 인공 객체들을 생성함으로써 관심 뼈를 따르는 인공 객체들의 사슬을 생성하여, 각각의 시드 인공 객체와 연관된 상기 복수의 후속 인공 객체들을 자동적으로 생성하게 하되, 새로 생성된 인공 객체들 각각은 상기 관심 뼈를 따라, 상기 식별된 기준 객체로부터 멀어지게 바깥쪽으로 진행하는, 시스템.
  7. 제6항에 있어서, 상기 명령들은 상기 프로세서로 하여금, 상기 인공 객체들의 사슬의 적어도 하나의 새로 생성된 인공 객체에 대해:
    상기 새로 생성된 인공 객체가 상기 그래픽 표현 내에서 식별된 부가적인 뼈로부터 미리 결정된 임계 거리 내에 있는지를 판단하고; 그리고
    상기 새로 생성된 인공 객체가 상기 영상의 상기 식별된 부가적인 뼈로부터 상기 미리 결정된 임계 거리 내에 있다고 판단하는 것에 응답하여, 상기 각각의 시드 인공 객체와 연관된 후속 인공 객체들의 생성을 종료함으로써, 상기 각각의 시드 인공 객체와 연관된 상기 인공 객체들의 사슬을 생성하게 하는, 시스템.
  8. 제1항에 있어서, 상기 영상 내의 상기 인공 객체들의 세트 중 각각의 인공 객체는 적어도 미리 정의된 임계 부피를 갖도록 확인되는, 시스템.
  9. 제1항에 있어서, 상기 명령들은 상기 프로세서로 하여금:
    상기 영상 내의 상기 인공 객체들의 세트에 기초하여, 영상 정합 변환을 결정하게 하고; 그리고
    상기 영상 정합 변환을 상기 3D 영상의 영역에 적용하여, 상기 3D 영상을 정합하게 하는, 시스템.
  10. 제9항에 있어서, 상기 영상 정합 변환은 상기 3D 영상의 대칭을 산출하여, 상기 영상 내의 왜곡을 정정하는, 시스템.
  11. 제9항에 있어서, 수신된 상기 영상은 제1 영상에 대응하고, 상기 영상 정합 변환은 상기 제1 영상을 상기 피검체의 제2 영상과 정렬하여, 상기 제1 영상을 상기 제2 영상과 상호-정합하는, 시스템.
  12. 제9항에 있어서, 상기 명령들은 상기 프로세서로 하여금:
    상기 영상 내의 상기 인공 객체들의 세트로부터, 상기 영상 내의 인공 랜드마크들(landmark)의 세트를 결정하게 하고, - 각각의 랜드마크는 대응하는 인공 객체로부터 결정된 지점에 대응함 - ; 그리고
    상기 영상 내의 상기 인공 랜드마크들의 세트 및 목표 랜드마크들의 세트를 사용하여 상기 영상 정합 변환을 결정함으로써, 상기 영상 정합 변환을 결정하게 하되,
    상기 영상 정합 변환은, 상기 영상 내의 상기 인공 랜드마크들에 대응하는 지점들에 적용될 때, 상기 인공 랜드마크들의 세트의 상기 목표 랜드마크들의 세트와의 정렬을 실질적으로 최적화하도록 결정되는, 시스템.
  13. 제12항에 있어서, 상기 목표 랜드마크들의 세트는 대칭적인, 시스템.
  14. 제12항에 있어서, 상기 명령들은 상기 프로세서로 하여금, 상기 영상 내의 상기 인공 랜드마크들의 세트를 이용하여 상기 목표 랜드마크들의 세트를 결정하게 하는, 시스템.
  15. 제12항에 있어서, 상기 목표 랜드마크들의 세트는 미리 결정된 목표 랜드마크들의 세트인, 시스템.
  16. 제9항에 있어서, 수신된 상기 3D 영상은 연조직의 그래픽 표현에 대응하는 하나 이상의 영역들을 포함하고, 상기 명령들은 상기 프로세서로 하여금, 연조직의 그래픽 표현에 대응하는 상기 영상의 상기 하나 이상의 영역들에 대해 상기 영상 정합 변환을 적용하여, 상기 연조직 영역들을 정합하게 하는, 시스템.
  17. 제9항에 있어서, 상기 피검체의 상기 수신된 3D 영상은 제1 모드를 통해 기록된 제1 영상에 대응하고, 상기 명령들은 상기 프로세서로 하여금,
    제2 모드를 통해 기록된 제2 영상을 수신하게 하고;
    상기 영상 내의 상기 인공 객체들의 세트에 기초하여, 제1 영상 정합 변환을 결정하게 하며;
    상기 제1 영상 정합 변환에 기초하여, 제2 영상 정합 변환을 결정하게 하고; 그리고
    상기 제2 영상의 영역에 상기 제2 영상 정합 변환을 적용하게 하는, 시스템.
  18. 제17항에 있어서, 상기 제2 영상은 상기 제1 영상과 동일한 시간에 기록되고, 상기 피검체가 유사한 자세 및/또는 위치에 있는, 시스템.
  19. 제17항에 있어서, 상기 제2 영상 정합 변환은 상기 제1 영상 정합 변환과 동일한, 시스템.
  20. 제17항에 있어서, 상기 제1 영상의 복수의 지점들의 좌표들은 기지의 기능적 관계를 통해 상기 제2 영상의 복수의 지점들의 좌표들과 관련되는, 시스템.
  21. 제1항에 있어서,
    상기 3D 영상은 늑골들 및 척추의 그래픽 표현을 포함하고,
    식별된 상기 하나 이상의 관심 뼈들은 늑골들을 포함하며,
    식별된 상기 기준 객체는 상기 피검체의 척추인, 시스템.
  22. 제21항에 있어서,
    상기 늑골들의 그래픽 표현은 반대되는 늑골들의 복수의 쌍들을 포함하고,
    상기 복수의 늑골 인공 객체들 중 일부의 각각의 늑골 인공 객체는 늑골 인공 객체들의 복수의 쌍들 중 하나에 속하되, 각각의 쌍은, 한 쌍의 반대되는 늑골들 중 제1 늑골과 연관된 제1 늑골 인공 객체, 및 상기 쌍의 반대되는 늑골들 중 제2 늑골과 연관된 제2 늑골 인공 객체를 포함하며, 그리고
    늑골 인공 객체들의 각각의 쌍에 대해, (i) 상기 쌍의 상기 제 1 늑골 인공객체에 의해 표현되는 부피와 상기 쌍의 상기 제 2 늑골 인공 객체에 의해 표현되는 부피 사이의 차이가 미리 정의된 임계 부피 차이 미만이고/이거나, (ii) 상기 쌍의 상기 제 1 늑골 인공 객체의 높이와 상기 쌍의 상기 제 2 늑골 인공 객체의 높이 사이의 차이가 미리 정의된 임계 높이 차이 미만인, 시스템.
  23. 제21항에 있어서, 상기 그래픽 표현 내의 상기 늑골들은 반대되는 늑골들의 하나 이상의 쌍들을 포함하고, 상기 명령들은 상기 프로세서로 하여금:
    상기 척추로부터 거리 구간 내에 있는 상기 늑골들의 복수의 영역들에 대응하는 예상 시드 늑골 인공 객체들의 세트를 식별하게 하고;
    예상 시드 늑골 인공 객체들의 하나 이상의 쌍들을 자동으로 식별하게 하고, - 각각의 쌍은 상기 쌍의 늑골들 중 제1 늑골의 제1 시드 늑골 인공 객체 및 상기 반대되는 늑골의 대응하는 제2 시드 늑골 인공 객체를 포함함 - ;
    상기 예상 시드 늑골 인공 객체들의 세트에 대해 쌍 비교 필터를 적용하게 하고, - 상기 쌍 비교 필터의 적용은, (i) 상기 쌍의 상기 제1 시드 늑골 인공 객체에 의해 표현되는 부피와 상기 쌍의 상기 제2 시드 늑골 인공 객체에 의해 표현되는 부피 사이의 차이가 미리 정의된 임계 부피 차이를 초과하고/하거나 (ii) 상기 쌍의 상기 제1 시드 늑골 인공 객체의 높이와 상기 쌍의 상기 제2 시드 늑골 인공 객체의 높이 사이의 차이가 미리 정의된 임계 높이 차이를 초과하는 인공 객체들의 쌍들을, 상기 세트로부터 제거함 - ; 그리고
    상기 쌍 비교 필터의 적용 이후에, 상기 예상 시드 늑골 인공 객체들의 세트로부터 각각의 시드 늑골 인공 객체를 선택하게 함으로써, 상기 복수의 시드 늑골 인공 객체들을 자동으로 생성하게 하는, 시스템.
  24. 제1항에 있어서, 상기 3D 영상은 상기 피검체의 흉골 및 상기 흉골의 하단부의 그래픽 표현을 포함하는, 시스템.
  25. 제24항에 있어서, 상기 하나 이상의 관심 뼈들은 상기 그래픽 표현의 상기 흉골을 포함하고, 상기 기준 객체는 상기 흉골의 하단부를 포함하는, 시스템.
  26. 피검체의 하나 이상의 3D 영상들을 정합하기 위한 시스템으로서,
    프로세서; 및
    명령들이 저장되는 메모리를 포함하고,
    상기 명령들은 상기 프로세서에 의해 실행될 때, 상기 프로세서로 하여금:
    (a) 하나 이상의 관심 뼈들의 그래픽 표현을 포함하는, 상기 피검체의 3D 영상을 수신하게 하고;
    (b) 상기 그래픽 표현에서 하나 이상의 관심 뼈들 및 기준 객체를 식별하게 하며;
    (c) 하나 이상의 시드 인공 객체들을 자동으로 생성하게 하고, - 각각의 시드 인공 객체가 상기 기준 객체로부터 제1 거리 구간 내에 있고 상기 그래픽 표현의 하나의 관심 뼈의 일 영역에 대응함 - ;
    (d) 각각의 자동으로 생성된 시드 인공 객체에 대하여, 복수의 연관된 후속 인공 객체들을 자동으로 생성하여, 상기 영상 내에 인공 객체들의 세트를 생성하게 하며;
    (e) 상기 영상 내의 상기 인공 객체들의 세트를 이용하여 상기 피검체의 하나 이상의 영상들의 정합을 자동으로 수행하게 하고,
    (f) 상기 영상 내의 상기 인공 객체들의 세트에 기초하여:
    상기 영상 내의 상기 인공 객체들의 세트로부터, 상기 영상 내의 인공 랜드마크들의 세트를 결정하게 하고, - 각각의 랜드마크는 대응하는 인공 객체로부터 결정된 일 지점에 대응함 - ; 그리고
    상기 영상 내의 상기 인공 랜드마크들의 세트 및 대칭인 목표 랜드마크들의 세트를 이용하여 영상 정합 변환을 결정하게 하고, 상기 영상 정합 변환은 상기 영상 내의 상기 인공 랜드마크들에 대응하는 지점들에 적용될 때, 상기 인공 랜드마크들의 세트와 상기 대칭인 목표 랜드마크들의 세트와의 정렬을 실질적으로 최적화하도록 결정되는, 상기 결정하는 것에 의해, 영상 정합 변환을 결정하게 하고; 그리고
    (g) 상기 영상 정합 변환을 상기 3D 영상의 영역에 적용하여, 상기 3D 영상을 정합하게 하고,
    상기 명령들은, 상기 프로세서로 하여금:
    상기 그래픽 표현의 제1 관심 뼈와 제2 관심 뼈 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는, 상기 영상의 하나 이상의 위험 영역들을 식별하게 하고; 그리고,
    상기 영상 내의 임의의 식별된 위험 영역으로부터 충분히 멀리 떨어져 있도록 각각의 인공 객체를 자동으로 생성하게 하는, 시스템.
  27. 피검체의 하나 이상의 3D 영상들을 정합하기 위한 시스템으로서,
    프로세서; 및
    명령들이 저장되는 메모리를 포함하고,
    상기 명령들은 상기 프로세서에 의해 실행될 때, 상기 프로세서로 하여금:
    (a) 하나 이상의 관심 뼈들의 그래픽 표현을 포함하는, 상기 피검체의 3D 영상을 수신하게 하고;
    (b) 상기 그래픽 표현에서 하나 이상의 관심 뼈들 및 기준 객체를 식별하게 하며;
    (c) 하나 이상의 시드 인공 객체들을 자동으로 생성하게 하고, - 각각의 시드 인공 객체가 상기 기준 객체로부터 제1 거리 구간 내에 있고 상기 그래픽 표현의 하나의 관심 뼈의 일 영역에 대응함 - ;
    (d) 각각의 자동으로 생성된 시드 인공 객체에 대하여, 복수의 연관된 후속 인공 객체들을 자동으로 생성하여, 상기 영상 내에 인공 객체들의 세트를 생성하게 하며;
    (e) 상기 영상 내의 상기 인공 객체들의 세트를 이용하여 상기 피검체의 하나 이상의 영상들의 정합을 자동으로 수행하게 하고;
    (f) 상기 영상 내의 상기 인공 객체들의 세트에 기초하여, 영상 정합 변환을 결정하게 하며;
    (g) 상기 영상 정합 변환을 상기 3D 영상의 영역에 적용하여, 제1 모드를 통해 기록된 제1 영상에 대응하는 상기 3D 영상을 정합하게 하고;
    (h) 제2 모드를 통해 기록된 제2 영상을 수신하게 하며;
    (i) 상기 영상 내의 상기 인공 객체들의 세트에 기초하여, 제1 영상 정합 변환을 결정하게 하고;
    (j) 상기 제1 영상 정합 변환에 기초하여, 제2 영상 정합 변환을 결정하게 하며; 그리고
    (k) 상기 제2 영상의 영역에 상기 제2 영상 정합 변환을 적용하게 하되,
    상기 명령들은, 상기 프로세서로 하여금:
    상기 그래픽 표현의 제1 관심 뼈와 제2 관심 뼈 사이의 거리가 미리 정의된 임계 거리 미만인 영역들에 대응하는, 상기 영상의 하나 이상의 위험 영역들을 식별하게 하고; 그리고,
    상기 영상 내의 임의의 식별된 위험 영역으로부터 충분히 멀리 떨어져 있도록 각각의 인공 객체를 자동으로 생성하게 하고,
    상기 제2 영상은 상기 제1 영상과 동일한 시간에 기록되고, 상기 피검체가 유사한 자세 및/또는 위치에 있는, 시스템.
KR1020207001130A 2017-06-16 2018-06-15 뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법 KR102394321B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762520926P 2017-06-16 2017-06-16
US62/520,926 2017-06-16
PCT/US2018/037708 WO2018232210A1 (en) 2017-06-16 2018-06-15 Systems and methods for automated distortion correction and/or co-registration of three-dimensional images using artificial landmarks along bones

Publications (2)

Publication Number Publication Date
KR20200019198A KR20200019198A (ko) 2020-02-21
KR102394321B1 true KR102394321B1 (ko) 2022-05-06

Family

ID=62842263

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020207001130A KR102394321B1 (ko) 2017-06-16 2018-06-15 뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법

Country Status (6)

Country Link
US (1) US11182913B2 (ko)
EP (1) EP3639272A1 (ko)
JP (1) JP6915102B2 (ko)
KR (1) KR102394321B1 (ko)
CN (1) CN110709943B (ko)
WO (1) WO2018232210A1 (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111312373B (zh) * 2020-01-19 2023-08-18 浙江树人学院(浙江树人大学) 一种pet/ct图像融合自动标注方法
KR102363721B1 (ko) * 2020-03-05 2022-02-16 (주)헬스허브 불완전한 의료영상에 대한 신체부위의 추정을 통한 신체 사이즈 측정 장치 및 그 방법
CN113160248B (zh) * 2021-04-22 2023-03-14 浙江明峰智能医疗科技有限公司 一种图像处理方法、装置、设备及可读存储介质
CA3219070A1 (en) 2021-05-07 2022-11-10 Bayer Aktiengesellschaft Characterising lesions in the liver using dynamic contrast-enhanced magnetic resonance tomography
WO2024035957A1 (en) * 2022-08-12 2024-02-15 Neurosimplicity, Llc Method and system for automatic determination of registration accuracy
EP4336204A1 (de) 2022-09-07 2024-03-13 Bayer AG Beschleunigen von mrt-untersuchungen der leber
EP4375919A1 (de) 2022-11-25 2024-05-29 Bayer AG Erzeugen von kontrastverstärkten synthetischen radiologischen aufnahmen

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150023575A1 (en) * 2013-07-17 2015-01-22 Siemens Medical Solutions Usa, Inc. Anatomy Aware Articulated Registration for Image Segmentation
US20160302747A1 (en) 2014-01-06 2016-10-20 Body Vision Medical Ltd. Surgical devices and methods of use thereof

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689021B2 (en) * 2005-08-30 2010-03-30 University Of Maryland, Baltimore Segmentation of regions in measurements of a body based on a deformable model
US7876938B2 (en) 2005-10-06 2011-01-25 Siemens Medical Solutions Usa, Inc. System and method for whole body landmark detection, segmentation and change quantification in digital images
EP1780672A1 (en) * 2005-10-25 2007-05-02 Bracco Imaging, S.P.A. Method of registering images, algorithm for carrying out the method of registering images, a program for registering images using the said algorithm and a method of treating biomedical images to reduce imaging artefacts caused by object movement
WO2009019630A2 (en) * 2007-08-03 2009-02-12 Koninklijke Philips Electronics N.V. Anatomically constrained image registration
JP2010221015A (ja) * 2009-02-27 2010-10-07 Terumo Corp 3次元人体モデル生成装置、3次元人体モデル生成方法及び3次元人体モデル生成プログラム
BRPI1006340A2 (pt) * 2009-04-02 2017-01-10 Koninkl Philips Electronics Nv sistema que facilita o delineamento de caracteristicas anatômicas em imagens usadas para o planejamento de terapias guiadas por imagens, método de delineamento de características anatômicas em imagens usadas para o planejamento de terapias guiadas por imagens e meio que pode ser lido por computador
US20100329571A1 (en) * 2009-06-24 2010-12-30 General Electric Company Shape based registration
US8498459B2 (en) * 2009-10-08 2013-07-30 Siemens Aktiengesellschaft System and method for verifying registration accuracy in digital medical images
JP2011206148A (ja) * 2010-03-29 2011-10-20 Terumo Corp 三次元人体モデル生成装置、三次元人体モデル生成方法及び三次元人体モデル生成プログラム
US8879828B2 (en) * 2011-06-29 2014-11-04 Matterport, Inc. Capturing and aligning multiple 3-dimensional scenes
US9483678B2 (en) * 2011-09-16 2016-11-01 Gearbox, Llc Listing instances of a body-insertable device being proximate to target regions of interest
KR101404640B1 (ko) * 2012-12-11 2014-06-20 한국항공우주연구원 영상 매칭 방법 및 이를 수행하는 시스템
JP6048343B2 (ja) * 2013-08-12 2016-12-21 株式会社島津製作所 放射線断層撮影装置
US9192348B2 (en) 2014-01-23 2015-11-24 Perkinelmer Cellular Technologies Germany Gmbh Method and system for automated detection of tissue interior to a mammalian ribcage from an in vivo image
US10083506B2 (en) * 2014-11-07 2018-09-25 Antaros Medical Ab Whole body image registration method and method for analyzing images thereof
JP6363575B2 (ja) 2015-09-29 2018-07-25 富士フイルム株式会社 画像位置合わせ装置および方法並びにプログラム
US10813614B2 (en) * 2017-05-24 2020-10-27 Perkinelmer Health Sciences, Inc. Systems and methods for automated analysis of heterotopic ossification in 3D images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150023575A1 (en) * 2013-07-17 2015-01-22 Siemens Medical Solutions Usa, Inc. Anatomy Aware Articulated Registration for Image Segmentation
US20160302747A1 (en) 2014-01-06 2016-10-20 Body Vision Medical Ltd. Surgical devices and methods of use thereof

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jalda Dworzak 외, 3D reconstruction of the human rib cage from 2D projection images using a statistical shape model, International Journal of CARS, 2009.07.26., Vol.5, pp111-124.

Also Published As

Publication number Publication date
KR20200019198A (ko) 2020-02-21
CN110709943B (zh) 2023-11-28
US20200098117A1 (en) 2020-03-26
US11182913B2 (en) 2021-11-23
EP3639272A1 (en) 2020-04-22
JP2020523107A (ja) 2020-08-06
CN110709943A (zh) 2020-01-17
WO2018232210A1 (en) 2018-12-20
JP6915102B2 (ja) 2021-08-04

Similar Documents

Publication Publication Date Title
KR102394321B1 (ko) 뼈를 따르는 인공 랜드마크를 이용한 3차원 영상들의 자동화된 왜곡 정정 및/또는 상호-정합을 위한 시스템 및 방법
AU2021202716B2 (en) Systems and methods for automated segmentation of individual organs in 3D anatomical images
US9999400B2 (en) Systems and methods for automated segmentation of individual skeletal bones in 3D anatomical images
US20120020573A1 (en) Image analysis systems using non-linear data processing techniques and methods using same
Lotz et al. Patch-based nonlinear image registration for gigapixel whole slide images
CN108778134B (zh) 用于根据3d解剖图像表征骨骼的中心轴的***和方法
JP2007054636A (ja) イメージの対を位置合わせする方法およびコンピュータによって実行される命令からなるプログラムを具現化して該方法を実施するプログラム記憶装置
Savva et al. Geometry-based vs. intensity-based medical image registration: A comparative study on 3D CT data
Pycinski et al. Time-of-flight camera, optical tracker and computed tomography in pairwise data registration
Alam et al. Evaluation of medical image registration techniques based on nature and domain of the transformation
JP2019217243A (ja) 脊髄画像登録方法
Chicherova et al. Automatic deformable registration of histological slides to μCT volume data
Rangayyan et al. Method for the automatic detection and segmentation of the spinal canal in computed tomographic images
CN112529900A (zh) 匹配乳腺图像中roi的方法、装置、终端与存储介质
Alam et al. Quantitative evaluation of intrinsic registration methods for medical images
US20220207740A1 (en) Comparison of a region of interest along a time series of images
JP2019500114A (ja) 位置合わせ精度の決定
Ju et al. Multi-view stereophotogrammetry for post-mastectomy breast reconstruction
Alvén et al. Überatlas: Robust speed-up of feature-based registration and multi-atlas segmentation
JP6920376B2 (ja) 3d解剖画像における個々の骨格の骨の自動化されたセグメンテーションのためのシステムおよび方法
Chicherova et al. Automatic histology registration in application to X-ray modalities
Nolte et al. Current approaches for image fusion of histological data with computed tomography and magnetic resonance imaging
JP6970783B2 (ja) 3d解剖学的画像から骨の中心軸を特徴付けるためのシステム及び方法
Nikam et al. A Comprehensive Study of Medical Image Analysis
Rai et al. Enhanced image segmentation for cancer images using sparse based classification framework

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right