JP7261245B2 - 画像から歯髄領域をセグメント化するための方法、システム、及びコンピュータプログラム - Google Patents

画像から歯髄領域をセグメント化するための方法、システム、及びコンピュータプログラム Download PDF

Info

Publication number
JP7261245B2
JP7261245B2 JP2020565953A JP2020565953A JP7261245B2 JP 7261245 B2 JP7261245 B2 JP 7261245B2 JP 2020565953 A JP2020565953 A JP 2020565953A JP 2020565953 A JP2020565953 A JP 2020565953A JP 7261245 B2 JP7261245 B2 JP 7261245B2
Authority
JP
Japan
Prior art keywords
segmentation mask
region
image
image elements
curvature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020565953A
Other languages
English (en)
Other versions
JP2021525144A (ja
Inventor
バート ゴリス,
リームプット, ピーター ヴァン
ウォウター モルマンズ,
アン エレン,
Original Assignee
メディシム ナームロゼ ベンノートチャップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by メディシム ナームロゼ ベンノートチャップ filed Critical メディシム ナームロゼ ベンノートチャップ
Publication of JP2021525144A publication Critical patent/JP2021525144A/ja
Application granted granted Critical
Publication of JP7261245B2 publication Critical patent/JP7261245B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/40Arrangements for generating radiation specially adapted for radiation diagnosis
    • A61B6/4064Arrangements for generating radiation specially adapted for radiation diagnosis specially adapted for producing a particular type of beam
    • A61B6/4085Cone-beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/51Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for dentistry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • Pulmonology (AREA)
  • Image Processing (AREA)
  • Multimedia (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Dental Tools And Instruments Or Auxiliary Dental Instruments (AREA)

Description

本発明は、歯の歯髄領域を、該歯の2次元(2D)または3次元(3D)画像からセグメント化するための方法に関する。本発明はまた、そのような方法を実行するためのシステム、及びそのためのコンピュータプログラムに関する。本発明のいくつかの実施形態は、例えば、歯内治療を計画するために使用され得る。
歯は、神経と比較的小さな血管を含む柔らかい内部のコアを有する。このコアは歯髄領域と呼ばれ、歯冠から顎骨の歯根の先端まで伸びる。歯にひびが入る、または穴が深いと、細菌が歯髄に入り込み、深刻な感染症を引き起こす可能性がある。未治療の場合、そのような根管の感染は、歯髄の死、顎の骨の喪失、及び歯自体の喪失をもたらす可能性がある(参考文献[1]を参照。参考文献のリストは本説明の最後に設けられている)。これらの感染症は、根管を洗浄し、ガッタパーチャなどの不活性物質で充填することで治療できる。根管の治療は通常、歯内療法医または一般歯科医によって行われる。通常、損傷と感染の程度を検査するために、歯科用X線スキャンが最初に取得される。次に、歯髄腔にアクセスするために歯冠に開口部を作る。次に、小さなヤスリと水溶液を使用して、根管を洗浄し、歯の神経を除去し、場合によっては感染した歯髄も取り除く。治療の終わりに、洗浄された管はガッタパーチャで充填され、歯冠の入り口の穴は再び閉じられる(参考文献[1])。
根管治療中の困難は、すべての根管をその全長にわたって洗浄及び充填することである。不足している部分があると、その後感染症が発生する可能性がある。さらに、歯内治療医は、歯根の神経が付着している下顎神経の損傷を避けるために、管の長さを超えて洗浄すべきでない。これは、患者に重度の痛みや炎症を引き起こす可能性がある。一部の歯は、2Dまたは3D画像を使用して視覚化するのが難しい複雑な管の形状を持っている。このような3D視覚化は、3Dコーンビームコンピュータ断層撮影(CBCT)データを使用して得ることができる。
根管の3D調査用の既存の歯内治療計画ツール(参考文献[2])では、使用者は最初に各歯に存在する根管の数を判定する必要がある。根管ごとに、開始点と終了点の位置を3Dボリュームの2Dスライス視覚化で示す必要がある。さらに、一連の制御点をクリックして、根管の3D経路全体の輪郭を手動で描く必要がある。この手動の入力に基づいて、根管の中心線の形状の3D視覚化を取得できる。
Judら(参考文献[7])は、顎領域の3D CBCTデータセットから歯の形状をセグメント化する方法を開示している。最初のステップでは、この方法は、画像要素について、それらが歯のオブジェクトに属する確率を予測することを含む。その後、統計的な歯の形状モデルがこれらのオブジェクトの確率に適合され、形状のセグメント化が提供される。Judらの方法は、画像要素が歯髄領域内にある確率を予測することを可能にするが、著者らは、歯髄領域の形状の歯の間の高い変動性が、統計的歯髄形状モデルを構築し、そのようなモデルを歯髄物体の確率に登録することと一致しないことを示している。したがって、Judらの方法は、歯の歯髄領域のセグメント化には使用できない。
特に、従来技術の方法を、使用者にとってより時間がかからず、根管の特別な特徴を視覚化するのにより効果的であり、歯内治療を計画するのにより適したものにすることによって改善することが望ましい。
上記の目標を達成するか、または少なくとも部分的に達成するために、本発明による方法、システム、およびコンピュータプログラムは、独立請求項に定義されている。特定の実施形態は、従属請求項に定義されている。
一実施形態では、歯髄領域を該歯の2Dまたは3D画像からセグメント化するための方法が実行される、すなわち、コンピュータによって、またはコンピュータのセットによって実行される。該歯髄領域は、歯髄腔と、1つ以上の根管を含む。この方法は、以下の操作を含む。画像の平滑化されたバージョンを使用して、様々な空間スケールで曲率ベースの形状認識を実行する。点または領域の表示が受け取られ、これは、画像の画像化された歯髄腔内に位置していると想定され、画像の少なくとも1つの画像要素に対応し、少なくとも1つの画像要素は、以下「シード」と呼ばれる。次いで、少なくともシードを初期セグメンテーションマスクとして使用する。次に、以下「更新手順」と呼ばれる手順が繰り返し実行される。更新手順は、以下を含む。すなわち、(i)セグメンテーションマスクを更新するための候補画像要素を判定することと、但し判定することは、(i-1)少なくとも最初のn回(nは非ゼロの正の整数である)の更新プロシージャの反復において、現在のセグメンテーションマスクを基準としてグレースケール閾値処理(grayscale thresholding)を行ない、(i-2)少なくとも1回の更新プロシージャの反復で、曲率ベースの形状認識を考慮に入れることを含む、(ii)候補画像要素の中で、シードを含む、接続された候補画像要素の領域を保持することと、(iii)保持された領域を使用して、セグメンテーションマスクを更新すること、である。
これにより、歯髄腔内の(例えば使用者が選択した)シード点から開始して、2Dまたは3D画像データから歯髄領域を効率的かつ自動的にセグメンテーションできる。特に、反復プロセスにより、歯髄領域のセグメンテーションが可能になる。反復プロセスでは、グレースケール閾値処理(GT)は、画像要素の強度値に基づいて歯髄領域を検出することを目的としているが、画像要素に適用される曲率ベースの形状認識(CBSR)は、GTを補完および組み合わせて、管状およびシート状の形状などの根管の典型的な構造を検出し、根管を構成する可能性が低い部分を破棄する。さらに、この方法は、少なくともいくつかの実施形態において、分岐部および閉塞物を含む特定の根管の潜在的に複雑な形状の検出を可能にするのに非常に適しており、最終的に歯内治療の便利で正確な計画を可能にする。
本発明はさらに、一実施形態では、歯の歯髄領域を該歯の2Dまたは3D画像からセグメント化するためのシステムに関する。ここで、該歯髄領域は、上記のように、歯髄腔および1つまたは複数の根管を含む。このシステムは、上記の方法の動作を実行するように構成された処理ユニットを備える。
本発明はまた、コンピュータで実行されるときに、コンピュータに上記の方法を実行させるように、または説明されたようにシステムの機能を実装するように構成されたコンピュータ可読命令を含むコンピュータプログラム、コンピュータプログラム製品および記憶媒体に関する。
これより、本発明の実施形態を、添付の図と併せて説明する。
本発明の一実施形態における方法のフローチャートである。 本発明の一実施形態における方法のフローチャートであり、図1のフローチャートと比較して、拡張更新プロシージャを反復して実行することをさらに含む。 本発明の一実施形態における方法のフローチャートであり、図1のフローチャートと比較して、拡張更新プロシージャを反復して実行することをさらに含む。 本発明のいくつかの実施形態の文脈を理解するのを助けるために、根管形状の例を示している。図4aから図4cは、分岐(図4b)及び開尖(図4c)などの障害を含む可能な根管の3D視覚化を示し、図4dから図4fは、対応する3D CBCTボリュームを介した2Dスライスを示している。 本発明のいくつかの実施形態を理解するのを助けるために、以下の例を示す。すなわち、3DスカラーCBCTボリュームのスライス(図5a)、元のボリュームのグレーレベルの最大変化の方向を示す勾配ベクトル場を通るスライス(図5b)、及びエッジを示す勾配ベクトル場の大きさ(図5c)である。 本発明のいくつかの実施形態を理解するのを助けるために、以下の例を示す。すなわち、複数のオブジェクト特徴を含む3Dボリューム(図6a)、管状形状検出フィルタC(r)の出力(図6b)、及びシート状の形状検出フィルタP(r)の出力(図6c)である。 本発明のいくつかの実施形態を理解するのを助けるために、以下の例を示す。すなわち、元の3D CBCT画像のスライス(図7a)、管状形状検出フィルタC(r)の出力(図7b)、及びシート状の形状検出フィルタP(r)の出力(図7c)である。 本発明のいくつかの実施形態を理解するのを助けるために、特徴的な固有ベクトルの方向性がどのようにオブジェクト特徴フィルタに含まれ得るかの例を示す。 本発明のいくつかの実施形態を理解するのを助けるために、全域関数A(r)及び指向性関数D(r)を示す。 本発明のいくつかの実施形態を理解するのを助けるために、根管の幅の突然のジャンプの位置での特徴的な固有ベクトルの不連続性を示す。 本発明のいくつかの実施形態を理解するのを助けるために、特別な目的の歯内CT画像を用いたデータセット1号の根管セグメンテーションの結果を示す。 本発明のいくつかの実施形態を理解するのを助けるために、特徴感度係数(featureness sensitivity factor)f=2での追加の反復後の、データセット1号の2つの歯の根管セグメンテーションの結果を示す。ここで、図12(a)において、歯1.5の頂点近くの小さな分岐がキャプチャされるが、図12(b)では、歯1.2の場合、より高いf値を使用して、セグメンテーションが根管の外側に分岐する。 本発明のいくつかの実施形態を理解するのを助けるために、抜歯された歯を有するデータセット2号の2本の歯についての根管セグメンテーションの結果を示す。 本発明のいくつかの実施形態を理解するのを助けるために、抜歯された歯を有する(特別な目的ではない)歯内CT画像を用いたデータセット3号の2本の歯についての根管セグメンテーションの結果を示す。 本発明のいくつかの実施形態を理解するのを助けるために、玩具データの剪定距離マップを概略的に示しており、例示的な理由で、マンハッタン距離及びパラメータc=3が使用され、[dmax-c]より大きい値は[dmax-c]に選定され、dmaxは局所の最大値である。図15(a)は、2つの局所的な最大領域(星印)を有する初期の距離のマップを示している。図15(b)は、局所的な最大領域(円)を示す剪定距離値(下線付きの値)を示している。この領域内で、初期の距離関数の局所的な最大値が最終的な頂点候補(星)として選択されている。図15(b)は、局所的な最大領域(円)を示す剪定距離値(下線付きの値)を示している。この領域内で、初期距離関数の局所的な最大値が最終的な頂点候補(星)として選択されている。 本発明のいくつかの実施形態を理解するのを助けるために、実際のデータ上の頂点ボクセルの定義を概略的に示し、図16(a)は、開始ボクセルpstart(白い四角)までの距離マップDgの局所的な最大値(星)を示し(白四角)、図16(b)は、剪定された距離関数の最大領域(円)局所的な距離関数Dgの最大値と、これらの領域(星印と白い三角形)の元の距離関数Dgの局所的な最大値を示している。 本発明の一実施形態によるシステムの例示的な実装の概略図である。
これより、本発明の実施形態を、添付の図と併せて説明する。これらの特定の実施形態は、当業者により良い理解を提供するのに役立つが、添付の特許請求の範囲によって定義される本発明の範囲を決して制限することを意図するものではない。略語とその意味のリストが、詳細な説明の最後に記載されている。
図1は本発明の一実施形態における方法のフローチャートである。この方法はコンピュータで実行される。すなわち、本発明はそれに限定されないが、この方法は、コンピュータまたはコンピュータのセットによって実行され得る。この方法はまた、ハードウェア電子回路を使用して、コンピュータで実施される方法の形態として、例えば、フィールドプログラマブルゲートアレイ(FPGA)を使用するか、コンピュータ(複数可)とハードウェア電子回路の組み合わせを使用して実施され得る。
この方法は、歯の2Dまたは3D画像から歯髄領域をセグメント化することを目的としている。歯髄領域は、歯髄腔と、「根管(radicular canal)」とも呼ばれる1つ以上の根管(root canal)で構成される。歯髄領域、または歯髄領域は、歯髄を含む。「セグメント化」とは、ここでは、デジタル画像内の1つ以上のセグメントが識別、抽出、または言い換えれば描写される画像セグメンテーションの技法を指す。本発明の方法では、識別されるセグメント(複数可)は、歯髄腔及び1つ以上の根管を含む歯の歯髄領域である。
入力画像は、2Dまたは3D画像の場合がある。一実施形態では、画像は、例えば、コーンビームコンピュータ断層撮影(CBCT)によって生成された3D画像などのX線画像である。一実施形態では、画像は、3D画像のスライスまたは2D投影画像である。この方法を実行するコンピュータ(複数可)及び/または電子回路(複数可)は、画像データを取得するように構成された画像化装置の一部であり得るか、またはそこから分離され得る。画像データは、例えば有線または無線の転送を介するなどの任意の手段によって、コンピュータ(複数可)及び/または電子回路(複数可)に入力するか、または記憶媒体(例えば、取り外し可能なメモリカードまたは光ディスク)を画像化装置から手動で取り外し、それを、方法を実行するよう構成されるコンピュータ(複数可)及び/または電子回路(複数可)に差し込むことで、入力することができる。さらに、画像データは、例えば、DICOM規格などの任意のタイプのフォーマット及び/または標準に従って格納することができる。
図1に示す方法は、以下のステップを含む。図1で、フローチャートの一番上のボックスに到達する矢印は、方法の開始を表している。しかし、例えば、入力画像の取得及び/または前処理に関連するステップなど、図1に示されるステップの前に追加のステップを実行することができる(以下のセクション2.Aも参照)。
ステップ100において、曲率ベースの形状認識(CBSR)プロセスは、画像の平滑化されたバージョン(さらにセクション2.C説明されるように)を使用して、様々な空間スケールで(すなわち、以下のセクション2.Cでさらに説明されるように、マルチスケールアプローチに従って)実行される。CBSRプロセスは、形状がこれらの曲率方向によって完全に定義されることを考慮して、該画像要素のレベルで曲率の方向を判定することによって画像要素を含む形状を認識するための手順である。
一実施形態では、CBSRプロシージャは、各画像要素について、曲率の主な方向が様々な程度の画像平滑化で判定されるマルチスケールアプローチを含む。
いくつかの実施形態では、画像に適用されるCBSRプロセスは、根管を構成する可能性が低い部分を破棄しながら、管状及びシート状の形状などの根管の典型的な構造を検出することを特に目的とする。CBSR項の計算の形式については、以下のセクション2.Cでさらに説明する。さらに、CBSRを使用した管状及び板状の形状のそれぞれの検出は、それぞれ、医用画像における血管及び副鼻腔骨の検出に関する、参考文献[3]及び参考文献[4]からわかる。
ステップ200において、画像の点または領域の表示が受け取られる。点または領域は、画像の画像化された歯髄腔、すなわち、歯髄腔に対応する画像の部分に位置すると想定される。これは、ステップ200の前に、使用者が画像を(例えば、コンピュータディスプレイまたは容積測定ディスプレイデバイス上に)表示され得、使用者が、歯髄腔内にある点または領域を選択するように求められ得ることを意味する。次に、選択された点または領域の座標は、方法を実行するように構成されたコンピュータ(複数可)及び/または電子回路(複数可)によって取得または入力されるなどによって受け取られる。使用者は、点または領域を選択し、ディスプレイ上のポインター、または指またはスタイラスペンを制御するポインティングデバイス(コンピュータのマウス、タッチパッド、トラックボール、ジョイスティック、またはポインティングスティックなど)などの任意の技術的手段を使用して、タッチスクリーンベースのグラフィカルユーザインターフェイス(GUI)上の点を示すことができる。一実施形態では、使用者は、歯髄領域内の中央に位置する、すなわち歯髄領域の端から比較的遠い点または領域を選択するように求められる。
選択された点または領域は、画像の1つ以上の画像要素に対応し、該画像要素(複数可)は、以下、「シード」と呼ばれる。一実施形態では、画像要素はボクセルである。別の実施形態では、画像要素はピクセルである。シードは、使用者が選択した点に対応する単一のボクセルまたはピクセルにすることができる。あるいは、シードは、使用者によって選択された点の領域に対応する複数のボクセルまたはピクセルであり得る。シードはまた、使用者によって選択された点に対応するボクセルまたはピクセル、及びいくつかの隣接するボクセル(複数可)またはピクセル(複数可)を含み得る(以下のセクション2.Bも参照のこと)。
一実施形態では、画像の点または領域は、使用者によってではなく、自動的に(例えば、コンピュータまたはコンピュータプログラムによって)選択される。例えば、歯の咬合面の開始点から、コンピュータプログラムは、歯の頂端方向のピクセル/ボクセル強度を自動的に分析して、エナメルの高強度ピクセル/ボクセル、歯の中強度ピクセル/ボクセル、及び歯髄腔の低強度ピクセル/ボクセルをそれぞれ検出し、続いてシードとして歯髄腔の低強度ボクセル/ピクセルを選択するすることができる。一実施形態では、画像の点または領域の使用者の選択は、コンピュータ支援(computer-assisteまたはcomputer-aided)の選択である。
次に、ステップ300において、セグメンテーションマスクは、少なくともシードを含むものとして、すなわちシードとして、及び任意選択で、例えば前処理操作によって選択された追加の画像要素を含むものとして初期化される。セグメンテーションマスクは、ステップ400で使用され、次に更新される最初のセグメンテーションマスクである。セグメンテーションマスクは、元の画像からの画像要素のセットである。
ステップ400において、ここでは「更新プロシージャ」と呼ばれるプロシージャ410が、歯髄腔内に位置する(例えば、使用者指定の)シード点から開始して、すなわち、ステップ300からの最初のセグメンテーションマスクに基づいて開始して、反復して実行される。更新プロシージャ410の目標は、セグメンテーションマスクを更新することであり、反復プロセス400の目標は、最終的に歯髄領域のセグメンテーションを出力することである。更新プロシージャ410は、サブステップ411、412、及び413を含み、これらは、以下のように説明され得る。
サブステップ411において、候補画像要素は、セグメンテーションマスクを更新するために判定される。サブステップの判定すること411は、以下を含む。
(i-1)更新プロシージャ410の少なくとも最初のn回の反復(nは非ゼロの正の整数である)において、現在のセグメンテーションマスクを基準としてグレースケール閾値処理(GT)を行なうこと、及び、
(i-2)更新プロシージャ410の少なくとも1回の反復で、曲率ベースの形状認識(CBSR)を考慮に入れること(ステップ100で計算)。
ローカルグレーレベル推定である可能性があるグレースケール閾値処理(GT)は、セグメンテーション中の部分的なボリューム効果(PVE)を克服することを目的としている。グレースケール閾値処理(GT)プロセスは、グレースケール画像データを、閾値または複数の閾値に基づいて、好ましくはバイナリの画像データに変換することである(例えば、閾値は、局所的な画像特性に応じて局所的に適合され得る)。典型的には、本発明で使用される現在のセグメンテーションマスクを基準として取るGTは、検討中の画像要素の強度レベルと、平均された前景及び背景強度値それぞれとの間の差を判定することを含む。平均化された前景値は、現在のセグメンテーションマスクに含まれる画像要素の平均強度値として計算され、平均化された背景強度値は、現在のセグメンテーションマスク外の画像要素の平均強度値として計算される。好ましくは、平均化された背景及び前景強度値は、調査中の画像要素の近傍内の平均強度値を反映する局所値である。例えば、該平均化された前景及び/または背景強度値は、検討中の該画像要素を中心とする画像領域内の画像要素について計算され得る。あるいは、該局所的に平均化された前景及び/または背景値強度値は、加重平均として計算でき、画像要素の強度値の重み付けが、該画像要素と検討中の画像要素との間の距離の増加とともに減少する。そのような加重平均強度の背景値及び前景値は、好ましくは検討中の該画像要素を中心とする重み付けマスクを使用して計算することができる。そのような重み付けマスクは、検討中の画像要素を中心とするガウスステンシル、例えば、標準偏差が0.8mmのガウスステンシルであり得る。GTプロセスについては、以下のセクション2.Dで詳しく説明する。
各反復中、サブステップ411の判定は、GT、CBSR、またはGTとCBSRの組み合わせに依存する。
表1は、更新プロシージャ410の5回の反復が実行される実施形態において、1、2、3、4、及び5に等しいnの値について、サブステップ411を判定する構成の実施例を示す。
Figure 0007261245000001
表1
実施例1では、更新プロシージャ410の最初の反復中に、サブステップ411の判定はGTに依存するが、CBSRはオフに切り替えられる。次に、後続の4回の反復の中に、サブステップ411はCBSRに依存するが、GTはオフになる。
実施例2では、最初の反復中に、サブステップ411でGTとCBSRの両方がオンになる。次に、後続の4回反復の中に、CBSRにオンであるが、GTはオフになる。
実施例3では、最初の2回の反復で、GTがオンになり、CBSRがオフになる。次に、後続の3回反復の中に、CBSRにオンになるが、GTはオフになる。
当業者は、同様の方法で表1の実施例4から実施例17を理解するであろう。
他の実施形態では、更新プロシージャ410の反復回数は、5とは異なり、例えば、2、3、4、6、7、8、9、または10である。反復の総数は、所定の回数であり得るか、または実行時の条件に依存し得る。一実施形態では、反復の総数は、セグメンテーションマスクのサイズが1つの反復から次の反復へと変化する程度に依存する。例えば、セグメンテーションマスクのサイズが画像要素の閾値数を超えて変化していない場合、反復プロセス400を終了することができる。言い換えれば、反復プロセス400は、2つの連続する反復で得られたセグメンテーションマスク内の画像要素の数の差が閾値(例えば、5から20の間に含まれる値)よりも小さくなるまで継続することができる。
候補画像要素を判定するサブステップ411の一部としてGTが実行される反復の数nは、所定の数であり得、または実行時条件に依存し得る。一実施形態では、GTは、更新プロシージャ410のすべての反復で実行される。
各反復中に、サブステップ411は、接続された候補画像要素の1つ以上の領域を出力する。
サブステップ412において、シードを含む接続された候補画像要素の領域は、選択され、候補画像要素の間に保持する。第1の候補画像要素から第2の候補画像要素への候補画像要素の経路が存在する場合、第1の候補画像要素と第2の候補画像要素が接続される。
次いで、サブステップ413において、保持領域を使用して、セグメンテーションマスクを更新する。次に、その更新されたセグメンテーションマスクは、更新プロシージャ410の次の反復がもしあれば、その反復のための現在のセグメンテーションマスクとして使用される。
この方法では、ステップ100は、必ずしもステップ200の前に実行される必要はない。ステップ100は、代わりに、ステップ200の後またはそれと並行して、ステップ300の後またはそれと並行して、あるいは反復プロセス400がすでに進行中で繰り返される時点でさえ実行され得る。
したがって、この方法は、根管を含む歯髄領域の形状を検出する際の使用者の介入を可能な限り回避することを可能にする。つまり、この方法により、プロセスを可能な限り自動化できる。特に、根管の形状と中心線の両方をセグメント化するために、使用者が根管の始点と終点を指定する必要はない。歯髄腔内の単一の点のみを選択できるため、この方法は、参考文献[2]の方法よりも使用者に親切で信頼性が高くなる。一般に、すべての根管は、歯髄腔内の(例えば、使用者が指定した)シード点から始まる歯に見出せる。さらに、この方法は一般に、3Dデータの解像度が制限されているために発生する可能性のあるパーシャルボリューム効果(PVE)を補正することを可能にする。この効果は、3Dボリュームの同じボクセルに複数の組織タイプが存在する場合に発生し、個々の組織のグレー値の混合であるグレー値を生成する。この効果は、根管の狭い先端の点で特に顕著である。この方法で得られた3Dセグメント化ボリュームは、一般に、根管の形状と、それらの分岐(つまり、分割及び/またはマージ)動作を明確に示す。
この方法では、いくつかの特殊なケースの処理も可能になる。第1に、開いた頂点の場合は一般的にうまく処理できる。この事例は主に、歯がまだ完全に成長しておらず、歯の頂点で開いている根管を生じている7~14歳の小児に発生する。第2に、アピカルデルタの場合も一般的にうまく処理することができる。このようなアピカルデルタは、根管が根尖孔に近い直径約100μm(マイクロメートル)の様々な小さなチャネルに分かれていることを意味している。
一実施形態で、更新プロシージャ410の少なくとも1回の反復において、グレースケール閾値処理(GT)及び曲率ベースの形状認識(CBSR)の両方が実行される。表1に示される実施例2、4、5、7、8、及び10から17は、そのような実施形態の実施例である。そのような事例では、CBSRは、根管を構成する可能性が低い部分を破棄しながら、GTを補足し、GTと結びついて、管状及びシート状の形状などの根管の典型的な構造を検出することを可能とする。
一実施形態では、GT及びCBSRの両方が実行される少なくとも1回の反復において、検討中の画像要素について、GTと比較したCBSRの重要性または関連する重みは、シードからの画像要素の距離の増加とともに増加する。言い換えると、少なくとも1回の反復で、画像要素がセグメンテーションマスクを更新するための候補画像要素として適格であるかどうかを判定すること411は、GTとCBSRの両方に依存し、画像要素がシードから遠くに離れるほど、CBSRの相対的な重要性が、判定411において大きくなる。この特徴は、画像要素がシードから比較的遠くに離れている場合、画像要素が歯髄腔よりも根管に属する可能性が高いという事実を説明している。言い換えれば、シード点からの距離が増加するにつれて、判定ステップ411の基礎となるフィルタは、フィルタ内のCBSR構成要素の重みを増加させることによって、管の固有の形状をよりよく利用するようにいっそう調整される。画像フィルタは、画像のサイズ、強度、色、陰影、及び/または他の特性を変更する、例えば強化する技術である。
一実施形態では、CBSRが実行される少なくとも1回の反復において、候補画像要素を判定することは、該画像要素の近くのセグメンテーションマスクの一部の全体的な方向性と比較した、画像要素のレベルで認識された形状の方向性をさらに考慮に入れる。このプロセスについては、以下のセクション3.Eで詳しく説明する。
この実施形態は、根管の固有の方向性を考慮に入れるという利点を有する。特に、認識された形状の方向性を考慮に入れることにより、最初に、根管の狭い端部のより良好な識別が可能になる。第2に、歯髄領域に近い元の画像データにノイズが存在する場合、よりロバストなセグメンテーションが可能になる。第3に、それはまた、(前述のように)開放型の根管の場合にセグメンテーションの適切な終了を提供する。このような開放型の根管は小児には一般的であるが、成人にはまれである。
図2は、本発明の一実施形態における方法のフローチャートであり、本明細書で「拡張更新プロシージャ」と呼ばれるさらなるプロシージャ510を反復して実行すること500を含む。図2の上部の「操作400から」という言及に示されているように、更新プロシージャ410を反復して実行した400後、拡張更新プロシージャ510を反復して実行することを実行する。
拡張更新プロシージャ510は、以下のサブステップを含む。
サブステップ511において、セグメンテーションマスクを更新するための候補画像要素が判定される。拡張更新プロシージャ510の最初の反復で最初に使用されるセグメンテーションマスクは、更新プロシージャ410の最後の反復によって出力されるセグメンテーションマスクである。サブステップ511は、CBSR、及び該画像要素の近くのセグメンテーションマスクの一部の全体的な方向性と比較した、画像要素のレベルで認識された形状の方向性を考慮に入れることを含む。
サブステップ512において、接続された候補画像要素の、ここでは「第1の領域」と呼ばれる領域が、候補画像要素(サブステップ511で判定される)の間で保持される。第1の領域はシードを構成する。
サブステップ513において、保持された第1の領域を使用して、以下「中間セグメンテーションマスク」と呼ばれる新しいセグメンテーションマスクを形成する。
サブステップ514において、接続された候補画像要素の第2の領域が、候補画像要素の間で保持される(サブステップ511で判定される)。第2の領域は、中間セグメンテーションマスクに接続されておらず(サブステップ513で形成される)、中間セグメンテーションマスクよりも頂端の位置に、第2の領域に最も近い中間セグメンテーションマスクの頂端部分の方向性と一致する方向に(すなわち、歯根の先端に向けて)配置される。このサブステップは、現在の中間セグメンテーションマスクから分離されている接続された画像要素の領域のセグメンテーションマスクへの追加を可能にする。解剖学的観点から、分離は通常、根管の石灰化などの閉塞によって引き起こされる。言い換えれば、サブステップ514は、局所的に管を閉塞する石灰化によって引き起こされる小さな管閉塞を通過させることを可能にする。一実施形態では、セグメント化された根管の方向は、主成分分析(PCA)を使用して推定される。
次に、サブステップ515において、中間セグメンテーションマスク及び保持された第2の領域が一緒に使用されて、セグメンテーションマスクを更新する。
一実施形態では、サブステップ511は、GTが現在のセグメンテーションマスクを基準としてみなすことをさらに含む。さらに、1つの副次的な実施形態では、拡張更新プロシージャ510の少なくとも1回の反復において、検討中の画像要素について、GTと比較したCBSRの重要性または関連する重みは、シードからの画像要素の距離の増加とともに増加する。
図3は本発明の一実施形態における方法のフローチャートであり、ここでは「ネストされたサブプロシージャを伴う拡張更新プロシージャ」と呼ばれるさらなるプロシージ610を反復して実行すること600を含む。図3の上部の「操作400から」という言及に示されているように、拡張更新プロシージャ(ネストされたサブプロシージャ)610を反復して実行すること600は、更新プロシージャ410を反復して実行した400後、実行する。
拡張更新プロシージャ(ネストされたサブプロシージャ)610は、以下のサブステップを含む。
サブステップ611、612、及び613は、それぞれ、上記のサブステップ511、512、及び513(図2を参照して説明される)と同一であり、以下では再び説明されない。サブステップ513と同じ方法で、サブステップ613は、中間セグメンテーションマスクを形成することにつながる。
サブステップ614において、ここでは「ネストされたサブプロシージャ」と呼ばれるサブプロシージャ615が反復して実行される。ネストされたサブプロシージャは、2つのサブステップ、すなわちサブステップ616及び617を含む。サブステップ616において、接続された候補画像要素のさらなる領域が、候補画像要素の間で保持される(サブステップ611で判定される)。さらなる領域は、現在の中間セグメンテーションマスクに接続されておらず(サブステップ613またはネストされたサブプロシージャ615の前の反復のいずれかで形成される)、中間セグメンテーションマスクよりも頂端の位置に、さらなる領域に最も近い中間セグメンテーションマスクの頂端部分の方向性と一致する方向に配置される。このプロセスについては、以下のセクション4.Eで詳しく説明する。次に、サブステップ617において、さらなる領域が現在の中間セグメンテーションマスクに追加されて、新しい中間セグメンテーションマスクを形成する。
サブステップ614は、セグメンテーションマスクから分離されている接続された画像要素のさらなる領域のセグメンテーションマスクへの追加を可能にする。上記のように、そのような分離は、通常、根管の石灰化などの閉塞によって引き起こされる。
次に、サブステップ618において、セグメンテーションマスクを更新するために、中間セグメンテーションマスクを使用する。
一実施形態では、サブステップ611は、GTが現在のセグメンテーションマスクを基準としてみなすことをさらに含む。さらに、1つの副次的な実施形態では、ネストされたプロシージャ615の拡張更新プロシージャ610の少なくとも1回の反復において、検討中の画像要素について、GTと比較したCBSRの重要性または関連する重みは、シードからの画像要素の距離の増加とともに増加する。
図2及び図3を参照して説明した両方の実施形態では、セグメンテーションマスクに直接接続されていない画像領域でセグメンテーションマスクを拡張することを可能にし、したがって、根管内で石灰化を通過させることを可能にする。
一実施形態では、セグメンテーションマスクは、ある反復から次の反復まで画像要素を失う可能性がある。これは、更新プロシージャの反復において、前の反復からのセグメンテーションマスクに含まれる画像要素を、更新されたセグメンテーションマスクから破棄できることを意味する。これにより、特定の反復でセグメンテーションマスクに含まれるすべての情報に基づいて、セグメンテーションマスクの柔軟な自己再調整が可能になる。すなわち、反復iでセグメンテーションマスクに含まれる画像要素は、次の反復i+1で破棄され得る。1つの副次的実施形態では、セグメンテーションマスクは、ある反復から次の反復まで画像要素を失う可能性があり、GTがオンに切り替えられる(表1の実施例12から17に示されるように)。
別の実施形態では、セグメンテーションマスクは、ある反復から次の反復へと成長する、すなわち、成長することを強いられる。
一実施形態では、反復プロシージャ400、500、及び600のいずれか1つの少なくとも1回の反復において、現在のセグメンテーションマスクからの閾値距離よりも大きい距離にある画像要素は無視される。これにより、セグメンテーションマスクの漸進的な成長が可能になる。
一実施形態では、反復プロシージャ400、500、及び600のいずれか1つは、新しいセグメンテーションマスクが現在のセグメンテーションマスクと比較してm個の画像要素(mは非ゼロの正の整数である)分だけ少ない点で異なる場合に停止される。これにより、効果的な終了基準が提供される。
一実施形態では、CBSRは、管状構造の識別及び/またはシート状構造の識別など、根管またはそのセグメントの可能な形状に対応する形状構造の識別を含む。
一実施形態では、CBSRは、マルチスケールアプローチを使用して、3D画像の各ボクセルについて管状形状検出フィルタを計算することを含む。これは一般に、セグメンテーションマスクが歯の領域の外側に成長するのを防ぐ。この管状形状検出フィルタは、例えば、以下でさらに説明するように、ヘッセ行列の固有値の比から推定することができる。これらのヘッセ行列の最小の固有値は、根管の方向に対応するボリュームの主要なチャネルの方向を示す。これらの方向は、セグメント化されたマスクが根管の方向に成長することを可能にする追加の駆動力として使用される。この追加の力のおかげで、小規模の石灰化は、支配的なチャネルの方向を変えないので、成長プロシージャで通過する可能性がある。開いた頂点が存在する場合、この管状形状検出フィルタの駆動力はまた、周囲のグレーの値が根管のグレーの値に匹敵する(またはひときわ低い)場合でも、成長プロセスを停止する。
一実施形態では、方法はセグメント化された歯の歯髄領域の解剖学的構造を視覚的にレンダリングすることをさらに含む。これは、例えば、コンピュータディスプレイなどのユーザインターフェイスによって実行され得る。
一実施形態では、最終的なセグメント化ボリュームの正確な境界を視覚化するために、マーチングキューブが、典型的には1/2の閾値で、セグメンテーションマスク上で使用される。
一実施形態では、この方法は、セグメント化された歯の歯髄領域の解剖学的構造のパラメータを判定すること、例えば、セグメント化された歯の歯髄領域の少なくとも1つの根管に沿った幅、セグメント化された歯髄領域の少なくとも1つの根管の中心線、セグメント化された歯の歯髄領域の少なくとも1つの根管の長さ、の少なくとも1つを判定することをさらに含む。
この方法は、歯内治療を計画するために使用することができる。したがって、本発明はまた、いくつかの実施形態において、根管洗浄などの歯内治療を計画するための上記の方法のいずれかの使用に関する。例えば、この方法はまた、根管を洗浄するための適切な器具を提案するために使用され得る。根管の湾曲は、事前に計算し、ヤスリのタイプのリストにマップ化することができる。判定された根管の形状を歯の上部で使用して、ドリルとヤスリの入口の穴の適切な形状を提案することもできる。さらに、根管の判定された曲率及び形状を使用して、ヤスリを挿入するための最良の入口の点及び角度を提案することができ、その結果、ヤスリを洗浄中に必要に応じて曲げることができる。これにより、根管内で誤って角度を付けた穴あけの結果である、いわゆるレッジができてしまうことを回避できる。
一実施形態では、この方法は、元の画像データ(例えば、CBCTデータ)において明るい根管と暗い根管の両方を推定することをさらに含む。これは、例えば、すでに処理され、ガッタパーチャで充填された明るい根管をセグメント化するために使用できる。これにより、第1の歯内治療で見落とされた根管の検出が可能になる。このような治療中に、根管はガッタパーチャで満たされている可能性があるが、1つ以上の根管が見落とされている可能性がある。これらの根管は、第2の治療を計画するためにセグメント化することもできる。
本発明はさらに、いくつかの実施形態において、該歯の2Dまたは3D画像から歯髄領域をセグメント化するためのシステムに関する。該システムは、少なくともステップ100、200、300、及び400を含む、上記の方法のいずれかを実行するように構成された処理ユニットを含む。さらに、本発明は、該歯の2Dまたは3D画像から歯髄領域をセグメント化するためのシステムにさらに関し、該システムは、ステップ100を実行するための少なくとも曲率ベースの成形認識ユニット、ステップ200を実行するためのシード表示受け取りユニット、ステップ300を実行するための使用ユニット、及びステップ400を実行するための更新ユニットを含む。さらに、本発明は、コンピュータ上で実行されると、コンピュータに上記の方法のいずれかを実行させるように構成されたコンピュータ可読命令を含むコンピュータプログラムにさらに関する。
ここで、本発明のいくつかの実施形態に関するさらなる態様及び考慮事項、ならびに以下のセクション2、3、及び4で、各々の実施形態の第1、第2、及び第3の例示的なセットを含む、そのさらなる実施例及び実施形態について説明する。
いくつかの実施形態では、この方法は、歯髄腔内の単一の(例えば、使用者が選択した)シード点から開始して、CBCT画像データ内のすべての根管の完全なセグメンテーションを取得することを目的とする。一般に、このようなセグメンテーションを取得することは、いくつかの理由で簡単ではない。第1に、根管内の小規模な石灰化がそれを妨げる可能性がある。第2に、3Dデータの解像度が制限されているため、パーシャルボリューム効果(PVE)が存在する可能性がある。上記のように、PVEは、3Dボリュームの同じボクセルに複数の組織タイプが存在する場合に発生し、個々の組織のグレーの値の混合であるグレーの値を生成する。この効果は、根管の狭い先端で特に重要になる。第3に、特定の根管の潜在的に複雑な形状を検出する必要がある。一部の歯では、歯根よりも多くの根管がある(特に大臼歯に)。さらに、単一の管は2つの部分に分岐し、及び/または後で再び1つの管に合流する場合がある。管の形状と曲率はまた、治療中に使用されるヤスリの柔軟性と長さを決定する。さらに、歯がまだ完全に成長していない7~14歳の小児には、根管が歯の頂点で開いている場合がある。本発明のいくつかの実施形態は、そのような場合もセグメント化することができる解決策を提供する。3つの異なる臼歯について、根管のCBCTデータの3Dの視覚化を図4に示す。図4a~図4cは、可能性のある根管の3D視覚化を示し、図4d~図4fは、対応する3DCBCTボリュームの2Dスライスを示している。図4b及び図4eは、分岐が根管内に存在する場合を示している。図4c及び図4fは、開いた頂点の実施例を図1及び図2に示す。
対照的に、参考文献[2]のツールには限界がある。まず、参考文献[2]の根管の検出と基準のセグメント化は、手作業での使用者の操作、つまり手作業で施されるかなりの入力のために時間を要し、主観的であり、結果の再現性が制限される。第2に、分岐(つまり、分割またはマージ)やC字型の管などの効果を視覚化するのが難しい場合がある。この追加の情報は、処置の間に使用される器具と方法論に影響を与えるため、歯内治療中に望ましいものである。第3に、この方法では、最終的に中央の線または手動で示された線のみが生成され、それは次いで現実的なヤスリの軌跡を検索する代わりに、ヤスリの近似として直接使用される。
1.(CB)CTスキャンデータ分析の基礎となるいくつかの数学的概念
3DのCBCTスキャンの結果は、位置(x,y,z)の各ボクセルが、そのボクセル位置の組織によるX線減衰を表す特定の値を含む3Dスカラー画像ボリュームとみなすことができる。数学的には、これは3D強度関数I(x,y,z)で表すことができる。このような3Dボリュームの2Dスライスの例を図5aに示す。画像勾配▽Iは、グレーの値の最大変動が発生する方向を示すベクトル場として定義される(図5bに示すように)。グラデーションは通常、最大のグレー値密度の方向を指す。数学的には、次のように計算できる。
Figure 0007261245000002
Figure 0007261245000003
2.実施形態の第1の例示的なセット:グレースケール閾値処理(GT)及び曲率ベースの形状認識(CBSR)を使用する歯髄領域のセグメンテーション
A.画像ボリュームの前処理
本発明のいくつかの実施形態におけるセグメンテーション方法で使用するためのCTまたはCBCT画像データは、調査中の歯に関するデータを含む。画像データは、例えば、以下の前処理ステップに供され得る。
i.クロップ
歯髄領域は完全に歯に含まれているため、(CB)CTボリュームを対象領域(ROI)にクロップすることが一般的に望ましい。これは、調査中の歯全体を構成する領域である。
ii.ボクセルサイズのサイズ変更
歯内(CB)CTデータは、例えば、0.2mmに等しいボクセルサイズを備え得る。より小さなボクセルサイズの画像データが使用される場合、これはセグメンテーションプロセスの計算時間を大幅に増加させる可能性がある。したがって、一般に、グレー値を一辺が0.2mmの立方体に平均化することにより、このようなデータセットのサイズを0.2mmのボクセルサイズに変更することが望ましい。本発明のいくつかの実施形態の開発の一部として、0.2mmのボクセルサイズは、一般に、歯髄領域を研究するための十分な解像度を提供することが見出された。
iii.グレー値の再スケーリング
さらなる前処理のステップで、グレー値を[0,1]の範囲に再スケーリングすることが一般的に望ましい。数学的には、初期ボリュームIorigからグレー値を再スケーリングすると、次のものに対応する。
Figure 0007261245000004
式中、Inew(r)は所与のボクセルの再スケーリングされたグレー値に対応し、Iorig(r)は当該のボクセルの元のグレー値に対応する。IminとImaxは、元の画像ボリュームの最小及び最大強度レベルである。
B.セグメンテーションマスクの初期化
初期セグメンテーションマスクSoは、画像化された歯髄腔内に位置すると想定される点または領域の受け取られた指示に基づいて設定される(上記のステップ200、300)。この点または領域は、使用者によって示され得るか、またはコンピュータなどによって自動的に生成され得る。
いくつかの実施形態によるセグメント化プロシージャでは、セグメンテーションマスクは、選択された隣接するボクセルのものと一緒に初期シード点の位置に対応するボクセル(シードボクセルと呼ばれる)のセグメンテーションマスク値S(r)(例えば、5×5×5ボクセルの立方体領域になる)を1に、他のすべてのボクセルを0にする設定することによって初期化され得る。いくつかの実施形態では、初期セグメンテーションマスクがシード点ボクセルを囲む領域を含む場合、シード点は、望ましくは、歯髄腔の端部から最小距離に、例えば、最も近い歯髄腔の端部から少なくとも2、3または4ボクセルの距離に配置される。その後、第1のセグメンテーションマスクが繰り返し更新されて、歯髄領域がセグメント化される(ステップ400)。本説明全体を通して、初期セグメンテーションマスク及びそれぞれの更新されたセグメンテーションマスクは、単にセグメンテーションマスクとも呼ばれる。
C.曲率ベースの形状認識(CBSR)項(オブジェクト特徴検出項とも呼ばれる)の計算(ステップ100)
本発明のいくつかの実施形態の開発の一部として、歯髄領域の根管セグメントは、典型的には管状またはシート状の形状を有することが観察された(例えば、図4を参照のこと)。したがって、暗い管状またはシート状の形状のボクセルが存在することは、そのボクセルが根管内に位置していることを示している。したがって、前処理された画像データを使用して、各ボクセルについてCBSR項を計算することができる。より具体的には、管状形状検出フィルタ値C(r)及びシート状形状検出フィルタ値P(r)は、マルチスケールアプローチを使用して、例えば、可変のスケール係数σ(以下も参照されたい)を有する様々な3Dガウスステンシルを使用して、各ボクセルについて計算され得る。
C(r)とP(r)の値を計算するために、画像の平滑化バージョンの生成の例示的な形式として3Dガウスステンシルを使用して元のボリュームをぼかすことができる。次に、式(6)から(8)を使用してヘッセ行列を計算し、最近傍有限差分を使用してヘッセ行列の固定のステップサイズを計算できる。検出される形状が対応する主軸に沿って高い曲率を備えている場合、ヘッセ行列の対角要素が大きくなる。任意の方向に沿って配置されているオブジェクトの特徴を見つけるために、ヘッセ行列の固有値と固有ベクトルが計算される。λ、λ、及びλが対応する固有ベクトルv、v、及びvを有するヘッセ行列Hの固有値である場合、ヘッセ行列は固有値分解を使用して分解できる。
Figure 0007261245000005
ここで、Σは固有値を含む対角(3×3)行列であり、Vは対応する固有ベクトルを列として有する行列である。これらの固有ベクトルは、主曲率の方向に沿ってオブジェクトと整列する正規直交基底を形成する。直感的には、大きな固有値は、平滑化されたボリュームのプロファイルに大きな曲率が存在する固有ベクトル方向に対応し、小さな固有値は、ボリュームがほぼ一定のままである固有ベクトル方向に対応する。ヘッセ行列の固有値は、3Dボリューム内のボクセルごとに計算されることが望ましい。固有値が絶対値に基づいてソートされている場合|λ|<|λ|<|λ|、例えば表2に示すように、ヘッセ行列の固有値分析に基づいて、様々なオブジェクトの特徴を検出できる。
Figure 0007261245000006
表2:固有値の値に応じた3Dボリュームで可能なオブジェクトの特徴固有値は、|λ|<|λ|<|λ|となるように順序付けられる。(H=高値、L=低値、+及び-は固有値の符号を示す)。
Figure 0007261245000007
Figure 0007261245000008
CBSR項へのマルチスケールアプローチ:
式(13)及び(14)により、3Dボリューム内のすべてのボクセルについて、このボクセルがそれぞれ管状またはシート状の構造で存在する可能性を表す値を計算できる。ただし、これまでの計算は、元のボリュームを平滑化するために使用される3Dガウス関数によって判定される特定のスケールσに対して提示されていた。複数のスケールでオブジェクトの特徴を検出するために、Cσ(r)とPσ(r)の両方を複数のスケールσに対して計算できるマルチスケールアプローチが使用される。Cσ(r)とPσ(r)のそれぞれの最大値は、ボクセルごとに保持できる。
Figure 0007261245000009
例示的な実施形態では、σmin=0及びσmax=0.6mmであり、ステップサイズΔσ=0.1mmである。
様々な形状を含む3Dボリュームの例を図6に示す。元のボリュームを図6aに示し、管状形状検出フィルタC(r)の出力を図6bに示し、シート状形状検出フィルタP(r)を図6cに示す。この実施例の曲率ベースの形状認識(CBSR)項は、上で説明したマルチスケールアプローチを使用して計算された。マルチスケールアプローチの利点は、円錐形によって示される。円錐の寸法はその軸に沿って変化するが、管状形状検出フィルタは、円錐ベースの画像要素と、先端近くの画像要素の両方を管状形状に配置されているものとして検出する。
2つの根管を備えた歯の例を示す。1つはよりシート状(左の根管)で、もう1つはより管状(右の根管)である。図7aは、元の3Dボリュームのスライスを示しているが、図7b及び7cは、それぞれ、管状形状検出フィルタ及びシート状形状検出フィルタの結果を示している。図7は、歯髄領域の根管領域が、シート状形状検出フィルタまたは管状形状検出フィルタのいずれかによって検出できることを示している。図7に示されている例の曲率ベースの形状認識(CBSR)項は、根管の幅の変化を考慮した上記のマルチスケールアプローチを使用して判定された。
D.グレー値閾値処理またはグレースケール閾値処理(GT)(ステップ411の一部)
いくつかの実施形態では、グレー値I(r)を有するすべてのボクセルについて、暗さ寄与度G(r)は、所与の反復で利用可能な現在のセグメンテーションマスクS(r)を使用して以下のように計算される。
Figure 0007261245000010
ここで、c(r)とc(r)は、現在のセグメンテーションマスクに基づいてrの近傍で計算された、平均化された前景(セグメント化された根管)と背景(セグメント化されていない領域)の強度の値である。数学的には、これは例えば次のように書くことができる(参考文献[5]も参照)。
Figure 0007261245000011
ここで、B(r,r’)は、標準偏差(σ)が例えば0.8mmの正規化されたガウス関数であり、点rを中心とし、位置r’で評価される。いくつかの実施形態では、セグメンテーションマスク(以下のセクション2.Eも参照)の更新プロシージャ410の第1のn回(例えば、n=3、4、5、6または7)の反復の後、結果として生じるセグメンテーションマスクは、歯髄腔全体を網羅する。その後、c(r)の計算における標準偏差σは、任意選択で、例えば半分に下げることができる。これにより、関連するグレースケール閾値処理に対してc(r)値が低すぎることになる、歯の周囲の暗い領域と、根管の直接の背景にある明るいエナメル質との平均化を有利にも回避できる。
いくつかの実施形態では、式(18)及び(19)は、セグメンテーションマスクS(r)及びマスクされたボリュームI(r)S(r)の両方をフィルタリングするために使用される離散化ガウスステンシルによって計算される。
Figure 0007261245000012
グレー値閾値処理(GT)の平均の前景及び背景グレー値c(r)及びc(r)のローカル計算は、パーシャルボリューム効果(PVE)が存在する場合でも、歯髄領域のセグメンテーションに寄与する。式(17)を調べると、各ボクセルについて、強度レベルI(r)が、ローカル平均背景値c(r)よりもローカル平均化された前景値c1(r)に近い場合、暗さ項G(r)は正であることが分かる。
(r)またはc(r)のいずれかの分母がゼロに等しいボクセルの場合、ローカル平均の前景または背景の値は、例えば、無限大の近似値として106に置き換えることができる。これらのボクセルは、それぞれ前景または背景のボクセルから離れており、それぞれ前景または背景のボクセルとして分類することはできない。これは、それぞれc1(r)またはc2(r)の値を大きくすると実際に回避される。
あるいは、暗さ項G(r)は、式(17)の2乗推定量の代わりにm推定量を使用して計算できる。例えば、参考文献[6]に記載されているウェルシュ推定量(Welsch estimator)は次の場合に使用できる。
Figure 0007261245000013
ウェールズ推定量を使用する場合、暗さ項G(r)の式は次のようになる。
Figure 0007261245000014
パラメータkは経験的に判定された。本実施例では、パラメータkを0.3から0.8の間にある値、例えば0.5に設定して満足のいく結果が得られた。
E.項の組み合わせとセグメンテーションマスクの更新(ステップ400)
いくつかの実施形態では、暗さ項G(r)(GTプロセスの結果を表す)が所与の反復ですべてのボクセルについて計算された後、暗さ項G(r)は、ボクセル、つまり候補画像要素を識別するため、独立して、または曲率ベース形状認識(CBSR)項と組み合わせて、前の反復のセグメンテーションマスクを更新するため使用され得る。
本発明のいくつかの実施形態の開発の一部として、歯髄腔は、典型的には、主に暗さ項G(r)を使用して十分にセグメント化されていることが見出された。したがって、いくつかの実施形態では、より多くの重みが、歯髄腔内にあると想定されるボクセルの暗さ項G(r)に割り当てられ、一方、より多くの重みが、根管の1つにあると想定されるボクセルのCBSR項に割り当てられる。これは、初期のn回の反復で暗さ項G(r)のみまたはそれを主要に使用することによって達成できる。式中、nは、ここで、nは、例えば3~6、例として5の値など、1~8の値に設定できる。あるいは、またはさらに、重み係数w(r)を使用することができる。重み係数w(r)は、歯髄腔内にあると想定される元のシード点からの距離から導き出すことができる。最初に、このシード点に関して3D距離マップd(r)が計算される。次に、重み係数w(r)が、例えば3D距離マップのシグモイド関数として定義できる。
Figure 0007261245000015
例えば、aとbの値は、a=2mmとb=5mmのように設定できる。この重み係数w(r)を使用する場合、現在の反復の更新関数U(r)は、暗さ項G(r)と形状特徴項R(r)の加重和として定義でき、それはC(r)及びP(r)の値の最大値に対応する。
Figure 0007261245000016
所与の反復において式(26)を使用して更新値U(r)が計算された後、シードボクセルを含む正のU(r)値を有する接続されたボクセルの領域をその中に含めることによって(例えば、U(r)>10-4が、ノイズの影響を回避するために使用される)、セグメンテーションマスクを更新することができる(例えば、ステップ413)。正のU(r)値を有するボクセルは、ステップ411による候補画像要素の形態である。シードボクセルを含む正のU(r)値を有する接続されたボクセルの領域は、ステップ412に従って保持される領域の形態である。
F.セグメント化の終了(ステップ400による反復プロセスの終了)
反復プロセス400は、通常、更新プロシージャ410の約10回の反復後に収束することが見出されている。いくつかの実施形態では、プロセス400が収束したかどうかは、許容値vを使用することによって判定でき、セグメント化は、反復において、更新プロシージャ410の前の反復のいずれかと比較して、または代わりに、更新プロシージャ410の前の反復と比較して、v未満のボクセルがセグメンテーションマスクに追加またはセグメンテーションマスクから削除されるとき、収束したと見なされる。例として、許容値vは2から30の間に含まれる値または5から25の間に含まれる値など、1から100の間に含まれる値に設定され得る。いくつかの実施形態では、更新プロシージャ410の最後の反復のセグメンテーションマスクが最終的なセグメンテーションの結果として使用される。
いくつかの実施形態では、フェイルセーフとして、最大反復回数(kmax)を設定することができ、kmaxは、例えば35に設定することができる。次に、kmax 次数反復のセグメンテーションマスクを、最終的なセグメンテーションの結果として使用することができる。
いくつかの実施形態では、さらなるフェイルセーフとして、またまれに発生する過度の過剰セグメント化を回避するために、追加されたボクセルの数が突然大幅に増加した場合、セグメンテーションマスクの更新は拒否される。例えば、追加されたボクセルの数が更新プロシージャ410の前の反復で追加されたボクセルの数の10倍よりも大きい場合、セグメンテーションプロセス400は終了され得、その後、前の反復のセグメンテーションマスクは、セグメンテーションの結果として利用される。
実施形態の第1の例示的なセットの実施形態によるセグメンテーションプロセスは、以下のようにさらに説明することができる。
実施形態の第1の例示的なセットの実施形態における根管検出のためのセグメンテーションプロセス。
Figure 0007261245000017
3.実施形態の第2の例示的なセット:グレースケール閾値処理(GT)及び曲率ベースの形状認識(CBSR)を使用する歯髄領域のセグメンテーション。
A.画像ボリュームの前処理
例えば、セクション2.Aで説明されている通りである。
B.セグメンテーションマスクの初期化
例えば、セクション2.Bで説明されている通りである。
C.曲率ベースの形状認識(CBSR)項(オブジェクト特徴検出項とも呼ばれる)の計算(ステップ100)
例えば、セクション2.Cで説明されている通りである。
D.グレー値閾値処理(GT)(ステップ411の一部)
例えば、セクション2.Dで説明されている通りである。
E.セグメンテーションマスクの方向性に関連して認識された形状の方向性を特定する
いくつかの実施形態では、セグメンテーションプロセスは、セグメンテーションの間に根管の固有の方向性を利用する。この方向性は、現在のセグメンテーションマスクS(r)のボクセルに属する特徴的な固有ベクトルに反映される。
方向性を評価する場合、最初に、3Dボリューム内の各ボクセルについて、このボクセルの管状及びシート状の形状検出フィルタ値の出力を比較することにより、このボクセルが管状またはシート状の特性を備えているかどうかを判断する。C(r)≧P(r)の場合、ボクセルrの特性は管状であると見なされる。それ以外の場合、つまりC(r)<P(r)の場合、特性はシート状であると見なされる。特性はバイナリ3D行列Kchar(r)に要約され、値「1」は管状特性を表し、値「0」はシート状の特性を表す。管状の特性を持つボクセルの場合、最小の固有値に対応する固有ベクトルが最も特徴的であるが、シート状の特性を持つボクセルの場合、最大の固有値に対応する固有ベクトルが特徴的な固有ベクトルとして保持される。セグメンテーションの間に、画像のすべてのボクセルrの特徴的な固有ベクトルの方向が、rの近傍のセグメンテーションマスクの領域内のすべてのボクセルの特徴的な固有ベクトルの平均の方向と比較される。現在のボクセルrと同じ特性を持つセグメンテーションマスクのこの領域内の各ボクセルr’について、両方のボクセルの特徴的な固有ベクトル間の角度α(r,r’)はゼロに近くなるべきである。反対の特性を持つ各ボクセルr’について、角度α(r,r’)は90°に近くなるべきである。
固有ベクトル自体も角度α(r,r’)も平均化できない。これは、他のベクトルと逆平行(平行ベクトルであるが反対方向)である可能性があるためである。つまり、平均ベクトルはゼロになる可能性がある。これは、例として図8に示されている。この図では、根管内の一部の固有ベクトルが管方向に沿って下向きであるのに対し、他の固有ベクトルは管方向に沿って上向きであることがわかる。これを改善するために、角度α(r,r’)またはα(r,r’)-90°(それぞれ対応する特性または反対の特性に対する)の二乗余弦のr’の平均を計算することができ、平行ベクトルと逆平行ベクトルの両方に対し1に近くなるべきである。数学的には、次のように計算できる。
Figure 0007261245000018
この式の分母がゼロに等しい場合、平均値は値0に置き換えられる。この式の図解を図8に示す。この図で、細長いグレーの形状84は、セグメント化される歯髄領域(より広い上部:歯髄腔;より狭い下部:根管)を概略的に表している。すべてのボクセルで計算された固有ベクトルは矢印で表される。歯髄領域84を部分的に覆い、点rを中心とする灰色の円盤81は、ボクセル位置rの周りのガウスステンシルB(r,r’)を表す。現在のセグメンテーションマスクS(r’)は、点rの上に描かれ、実線の輪郭を有する逆さまの洋ナシ形の領域82であり、灰白色の領域83は、セグメンテーションマスク82で評価されたガウス関数を表す。すなわち、ガウスステンシル81と現在のセグメンテーションマスク82との積B(r,r’)S(r’)は、灰白色領域83によって表される。ボクセルrが管状特性を有する場合、関数A(r)及びA(r)(それぞれ対応する特性と反対の特性を備えるボクセルの場合)は、次のように組み合わせることができる。
Figure 0007261245000019
ボクセルrがシート状特性を有する場合、関数Ac(r)及びAo(r)は、次のように組み合わせることができる。
Figure 0007261245000020
したがって、最終的に、総合的な関数A(r)を次のように書くことができる。
Figure 0007261245000021
A(r)のプロファイルを図9にプロットする。このグラフを見ると、rに近いセグメンテーションマスクの領域内のボクセルの特性固有ベクトルの平均方向を備えるボクセルrの特性ベクトルの角度が0°または180°から比較的遠いときでさえ、依然大きく寄与していることがわかる。したがって、いわゆる指向性関数D(r)=A(r)を使用できる。図9に示すように、この指向性関数D(r)は、角度が0°または180°から外れると、はるかに速く減少する。これは、望ましい挙動である。
したがって、この例では、特徴的な固有値を考慮に入れるべく、管状及びシート状の測定値C(r)及びP(r)は、セグメンテーションマスクに基づいて計算される指向性関数D(r)を使用して、1回以上の反復で乗算される。
Figure 0007261245000022
Figure 0007261245000023
結果として得られる3D画像ボリュームは0と1の間で正規化できる。このオブジェクト特徴フィルタO(r)は、値が関連するオブジェクト特徴の存在を示すボリュームを生成する。
式(23)の暗さ項G(r)と同様に、オブジェクト特徴項F(r)を定義することができ、これは、該ボクセルに隣接するセグメンテーションマスクの領域の平均オブジェクト特徴に対してさらに対応するボクセル(前景)に対して正、及びセグメンテーションマスク外側(背景)の近傍領域の平均オブジェクト特徴に対してさらに対応するボクセルに対して負である。
Figure 0007261245000024
また、オブジェクトの特徴については、いくつかの実施形態では、式(22)で定義されるようなロバストなウェルシュ推定量などの二乗推定量の代わりに、よりロバストなm推定量を使用することが望ましい。
ここで、d(r)とd(r)は、現在のセグメンテーションマスクに基づいてrの近傍で計算され、次のように計算される、平均化された前景(セグメンテーションマスク内)と背景(セグメンテーションマスク外)のオブジェクトの特徴値である。
Figure 0007261245000025
(r)またはd(r)のいずれかの分母がゼロに等しいボクセルの場合、ローカルの前景または背景の値は、それぞれ10に置き換えられる。
式(43)の特徴感度係数fsは、必ずしもd)とd(r)の中間ではない、前景と背景との間のカットオフの設定を可能にする。例えば、特徴感度係数fは1に設定され得る。しかし、いくつかの実施形態では、特徴感度係数fは、1より大きい値、例えば、1.5または2に設定され得、根管のセグメンテーションであまり目立たない特徴を有するボクセルも含む。
F.項の結合とセグメンテーションマスクの更新
暗さ項G(r)とオブジェクト特徴項F(r)の両方が計算されると、それらを組み合わせて前のセグメンテーションマスクを更新できる。
オブジェクトの特徴項F(r)は、主に歯髄領域の根管セクション内で正であるが、歯髄腔はこの項では十分に示されていない。歯髄腔は通常、主に暗さ項G(r)を使用して十分にセグメント化されていることがわかっている。したがって、根管の1つにあると想定されるボクセルのオブジェクト特徴項F(r)により多くの重みを割り当てながら、歯髄腔にあると想定されるボクセルに対して暗さ項G(r)により多くの重みを与えることが有利である。これは、初期のn回の反復で暗さ項G(r)のみをまたは主にそれを使用することによって達成できる。ここで、nは、例えば3~6、例として5の値など、1~8の値に設定できる。あるいは、またはさらに、重み係数w(r)を使用することができる。重み係数w(r)は、歯髄腔内にて使用者に示される元のシード点からの距離から導き出すことができる。最初に、このシード点に関して3D距離マップd(r)が計算される。次に、重み係数w(r)は、例えば3D距離マップのシグモイド関数として定義できる。
Figure 0007261245000026
例えば、値a=2mm及びb=5mmを選択できる。この重み係数w(r)を使用する場合、現在の反復の更新関数U(r)は、暗さ項G(r)とオブジェクト特徴項F(r)の加重和として定義できる。
Figure 0007261245000027
所与の反復において式(46)を使用して更新値U(r)が計算された後、シードボクセルを構成する正のU(r)値を有する接続されたボクセルの領域をその中に含めることによって、セグメンテーションマスクを更新することができる(例えば、U(r)>10-4が、ノイズの影響を回避するために使用される)。正のU(r)値を有するボクセルは、ステップ411による候補画像要素の形態である。シードボクセルを含む正のU(r)値を有する接続されたボクセルの領域は、ステップ412に従って保持される領域の形態である。
G.セグメント化の終了
例としてセクション2.Fで説明されている通りであり得る。
実施形態の第2の例示的なセットの実施形態によるセグメンテーションプロセスは、以下のようにさらに説明することができる。
実施形態の第2の例示的なセットの実施形態における根管検出のためのセグメンテーションプロセス。
Figure 0007261245000028
4.実施形態の第3の例示的なセット:中間セグメンテーションマスクが、根管内にあると想定される接続されたボクセル領域で更新される、歯髄領域のセグメンテーション。
A.画像ボリュームの前処理
例としてセクション2.Aで説明されている通りであり得る。
B.セグメンテーションマスクの初期化
例としてセクション2.Bで説明されている通りであり得る。
C.曲率ベースの形状認識(CBSR)項(オブジェクト特徴検出項とも呼ばれる)の計算
例としてセクション2.Cで説明されている通りであり得る。
D.グレー値閾値処理(GT)
例としてセクション2.Dで説明されている通りであり得る。
E.セグメンテーションマスクの方向性に関連して認識された形状の方向性を特定する
例としてセクション3.Eで説明されている通りであり得る。
F.2フェーズセグメンテーションプロセス
実施形態の第3の例示的なセットでは、セグメンテーションプロセスは、第1のフェーズ及び第2のフェーズを含む少なくとも2つのフェーズを含む。第1のフェーズは、セクション2及び3で前述した通りであり得、更新プロシージャ410を含む、少なくとも上記のステップ100、200、300、及び400を含む(図1を参照)。第1のフェーズの終わりに、セグメンテーションマスクが最終的に出力され、これは、シードを構成する接続された画像要素の領域を含む。第2のフェーズは、少なくとも上記の、拡張更新プロシージャ510を含むステップ500(図2を参照)、またはネストされたサブプロシージャを伴う拡張更新プロシージャを含むステップ500(図3を参照)を含む。第2のフェーズは、特に、セグメンテーションマスク内に、シードを含む領域から石灰化によって分離されている歯髄領域の潜在的な部分(複数可)を組み込むことを目的としている。
第2のフェーズは、拡張された方向性プロシージャ(以下のセクション4.Iを参照)で構成される。これは、セグメンテーションマスクが歯髄腔(の一部)のみを含むとき初期の反復での使用が制限される。拡張された方向性プロシージャは、歯髄領域の根管セグメントで特に有用であるため、この手順は、根管の少なくとも一部がセグメント化に含まれる場合にのみ使用することが望ましい。
したがって、セグメンテーションマスク更新の第1のp回の反復の間(例えばpは1から10の間に含まれる値、例えばp=2、3、4、5、6、または7)、つまり第1のフェーズの間、セグメンテーションマスクの更新413は、接続された画像要素の領域に限定され、該領域はシードを含む。p回の反復後、セグメンテーションマスクが歯髄腔を超えて移動したと予想される。その後、第2のフェーズが開始される。
G.項の結合(第1のフェーズ)(ステップ400)
例としてセクション2.Eまたはセクション3.Fで説明されている通りであり得る。
H.項の結合(第2のフェーズ)
このプロセスは、例えば、セクション3.Fで説明したように実装できるが、ただし第2のフェーズで、所与の反復において式(46)を使用して更新値U(r)が計算された後、正のU(r)値(例えば、ノイズの影響を回避するためにU(r)>10-4が使用される)を有する接続されたボクセルの領域を一時的なセグメンテーションマスクT(r)(シードを含まないいずれかの領域を含む)に保持される点を除く。接続された画像要素(複数のボクセルなど)のこれらの領域は、接続された成分(CC)とも呼ばれる。
I.拡張された方向性:想定される根管経路内の接続された画像要素(ボクセルなど)の領域を保持する(第2のフェーズ)
反復ごとに取得される一時的なセグメンテーションマスクT(r)は、歯髄領域のセグメントを含むだけでなく、根管を囲む構造など、管状またはシート状の特性または低値のグレー値を有する可能性がある他の構造(の一部)を含むこともある。さらに、小さな石灰化、分岐、または断面の突然の変化のいずれかのある場所で、指向性関数D(r)(セクション3.Eで説明)は、特徴的な固有ベクトルがこれらの現象の1つによって局所的に乱れているため、不連続になる可能性がある(例えば、断面の突然の変化を示す図10を参照)。通常、歯髄領域の根管セグメントに存在するこれらの場所では、セグメンテーションが切断される可能性がある。
根管を表す接続された画像要素の領域を維持する一方で、一時的なセグメンテーションマスクT(r)の接続された画像要素の他の領域を最終的なセグメンテーションマスクS(r)から除外するが、中間セグメンテーションマスクM(r)は、シードボクセルを含む領域(そのような領域は主接続構成要素(CC)と呼ばれる)を含めることによって初期化される(ステップ513、613)。その後、中間セグメンテーションマスクM(r)の頂点を判定することができる。
Figure 0007261245000029
結果として得られる距離関数Dgには、a)多くの局所的な最大値があるが、b)根の頂点はすべて最大グローバル距離にあるわけではありない。図16aに示されている局所的な最大値は、最初に、それらと、dmax-cより大きい値の隣接するボクセルを、値dmax-cにすることによって剪定される。ここで、dmax-cは局所的な最大値であり、パラメータcは例えば4ボクセルに相等する。次に、この剪定された画像の局所的な最大領域が識別される。これらの各領域では、元の距離関数Dg(剪定前)の最大距離値を有するボクセルが頂点候補と見なされる。剪定は、検出される頂点の数について仮定することなく、頂点候補から局所的な最大値を効果的に除去する。剪定手順は、図15の玩具画像に概略的に示されている。説明のために、マンハッタン距離とパラメータc=3を使用し、代わりにユークリッド距離とc=4を使用することもできる。図15(a)は、開始ボクセルpstart(四角)までの距離の局所的な最大値(星印)を示している。図15(b)は、局所的な最大領域(円)を示す剪定距離関数(下線付きの値)と、最終的に見出した頂点候補を示すこの領域内の元の距離関数Dgの局所的な最大値(星印)を示す。
図16bに示されているように、これにより、歯髄腔の極値に位置する頂点候補が得られる可能性がある。これらの誤った頂点候補を削除するために、pstartから全体的に最大距離にある頂点候補が識別され、確実に頂点ボクセルであると見なされる。この頂点ボクセルと開始ボクセルの間の直線を使用して、他の候補頂点を評価できる。この目的のために、それらと開始ボクセルとの間の接続が、該定義された直線と70度を超える角度をなすすべての候補が排除される。これにより、いずれの方向性をも仮定することなく、歯髄腔内の候補ボクセルが排除される。これらの歯髄腔候補ボクセルを除去した後、残りの候補頂点ボクセルは、中間セグメンテーションマスクM(r)の頂点として保持される。
歯髄腔内の頂点候補(図16(b)の白い三角形)は、開始ボクセルpstartと最も遠い頂点候補に対してなす角度に基づいて削除される。星印は、最終的な頂点ボクセルを示す。
すべての頂点について、T(r)の連結成分CC(つまり、T(r)の連結画像要素の領域)が識別され、それに対して次の条件が満たされる。(i)シード点からの平均距離は頂点とシード点との間の距離よりも大きく、(ii)連結成分CC(すなわち、領域)は、部分的に、(例えば、半径を2×3=6ボクセルに設定できる)管状及びシート状のフィルタ値の計算に使用される、該最大σの(例えば)二倍に等しい半径を有する球形領域内にある。これらの各領域CCは、セグメンテーション拡張候補として保持され、根管の経路に対応すると想定される頂点に対して相対的な方向に配置されているかどうかがチェックされる。この目的のために、上記の球形領域内に含まれる中間セグメンテーションマスクM(r)の部分は、近傍の根管領域として定義される。この領域の中心は、領域CCの方向を示すものとして、領域CCのすべてのボクセルに接続されている。続いて、これらの各方向が、近傍の根管領域の特徴的な固有ベクトルと比較される。特徴的な固有ベクトルが最小の固有値に対応する該近傍の根管領域内のボクセル(すなわち、管状特性を有するボクセル)の場合、方向ベクトルと特徴的な固有ベクトルとの間の角度の二乗余弦は、近傍の根管の方向にある領域CCに対し1に近くなるべきである。特徴的な固有ベクトルが最大の固有値に対応する、該近傍の根管領域のボクセル(つまり、シート状特性を備えるボクセル)の場合、この角度の2乗正弦は、近傍の根管の方向にある領域CCに対して1に近くなるべきである。カットオフは、平均二乗余弦または正弦が0.8より大きく、平均角度26.5度に対応する場合にのみ、領域CCが中間セグメンテーションマスクM(r)に追加されるという意味で使用できる。
Figure 0007261245000030
Figure 0007261245000031
J.セグメンテーションの終了
終了は、例としてセクション2.Fで説明されているとおりにすることができる。さらに、実施形態の第3の例示的なセットにおいて、セグメンテーションプロシージャの収束のための終了基準は、p+1回の反復(pはセクション4.Fで定義される)以上の後にのみ評価され、その結果、根管セグメント化に関連する可能性のある「緩い」領域を捕捉するための拡張された方向性プロシージャ(拡張更新プロシージャ510、またはネストされたサブプロシージャを伴うプロシージャ610)が少なくとも1回適用される。
K.後処理:セグメント化された歯髄領域の部分を接続する
一実施形態では、セグメンテーションプロセス500または600の収束後、セグメント化された根管の非接続領域は、あまり離れていない18個の接続している成分を接続し、他を除去する後処理ステップによって一緒に結合される。シードボクセルを構成するメイン領域(CC)から開始する。主領域CCと近傍領域CCとを融合するための適切な手順は、例えば6ボクセル及び5ボクセルの半径で領域CCのバイナリマスクを別々に拡張し、両方の拡張画像を差し引いて領域CCの拡張「シェル」を保持することを含み得る。このシェルと領域CCの交差により、領域sが生成される。これは、領域CCと領域CCを交換して繰り返され、領域CCのシェル、そして最後に領域sを得ることができる。次に、領域sのすべてのボクセルは、領域sのすべてのボクセルと接続され得、接続線に沿って密にサンプリングし、したがって、接続を含めて、領域CCを領域CCで拡張する。領域CCが他の領域から離れすぎているか小さすぎる場合、領域siは空になり、接続が確立されず、領域CCが最終的なセグメンテーションマスクから削除される。
実施形態の第3の例示的なセットの実施形態によるセグメンテーションプロセスは、以下のようにさらに説明することができる。
実施形態の第3の例示的なセットの実施形態における根管検出のためのセグメンテーションプロセス。
Figure 0007261245000032
5.実験データ
セグメント化方法は、3つのデータセットでテストされた。第1のデータセット、つまりデータセット1号は、2人の異なる患者の特別な目的の歯内CT画像から得られた8つの異なる歯の画像で構成されていた。第2のデータセット、つまりデータセット2号は、アルコールまたは空の容器のいずれかで数年間保存され、ワックスに配置され、CBCTスキャナーを使用してスキャンされた16本の抜歯から得られた。第3のデータセット、つまりデータセット3号は、CBCT画像(特別な目的の歯内ではない)から得られた5つの歯の画像で構成されていた。すべての画像は等方性の0.2mmの解像度であるか、前処理段階でこの解像度にリサンプリングされた。すべての画像の歯髄領域は、実施形態の第3の例示的なセットのうちの実施形態(ネストされたサブプロシージャ610を用いた拡張更新プロシージャを含む)及び前述のパラメータによるプロセスを使用してセグメント化された。すべての場合のシード点は、歯髄腔の中央で手動で選択された。それぞれ特徴感度係数f=1及びf=2を使用して実行されたセグメント化(f=1でのセグメンテーション後、得られたセグメンテーションの結果はf=2でのセグメンテーション手順の初期セグメンテーションマスクとして使用された)を視覚的に評価した。表3を参照されたい。
Figure 0007261245000033
表3:3つのデータセットのセグメンテーション結果の概要。
図11は、fs=1の場合の3Dボリュームを介した2Dスライス上のデータセットNo.1のセグメンテーション結果を示している。これらの結果は、複数の管、分岐、合流領域、及び障害物がすべて適切に処理されていることを示している。図11(b)は、根管の先端で歯が開いている場合を示している。それにもかかわらず、セグメンテーションは歯の内部でうまく停止する。これは、突然の方向変化を検出するオブジェクト特徴項O(r)の方向性項D(r)によって説明され、したがって、セグメンテーションが根管自体の外側に成長することを回避する。
=1の値はほとんどの場合満足のいく結果をもたらすが、場合によっては、特徴感度係数fの値を2に増やし、f=1を使用して得られた結果からセグメンテーション手順を繰り返すことにより、セグメンテーションの結果がわずかに改善されることが観察された。図12(a)は、歯1.5の結果(表3のf=1の「失敗」の場合)を示している。この場合、f=1で頂点付近の小さな分岐が失われた(図11e))が、f=2で適切にキャプチャされた。一方、f=1で十分にセグメント化された歯1.2の場合(図11(b)、f=2を使用)明確なオーバーセグメンテーションが発生した(表3のf=2の「失敗した」事例)。他の6つの事例では、f=1またはf=2で得られたセグメンテーション結果の間に明確な違いはなかった。
図13は、データセット2号の2つの結果を示している。歯2.1の頂点付近の根管の高い曲率は、図13(a)でうまく捉えられている。図13(b)及び(c)は、歯の頂端側で合流する2つの分岐した根管を有する歯のセグメンテーションを示している。f=1を使用すると、管の合流位置の近くに不連続性が残る(表3、図13(b)のf=1の「失敗した」事例)が、この不連続性は、特徴感度係数fを2に上げると閉じられる(図13(c))。
図14は、データセット3号の2つの結果を示している。これらのCBCT画像は、歯内治療目的で特別に取得されたものではなく、ノイズが多く、データセット1及び2の画像よりも根管が視覚的に鮮明ではない。ノイズにより歯髄領域外でのセグメンテーションのリスクが増している。このリスクを考慮して、図14(a)の結果は、最初f=0.5を使用して取得され、注意深く制限されたセグメント化が取得された。その後、f=1でのさらなるセグメンテーションに使用された(f=0.5でのセグメンテーション後得られたセグメンテーションの結果は、f=1のセグメンテーション手順の初期セグメンテーションマスクとして使用される。)図14(b)に示す結果では、根管が合流する場所のすべてのギャップを埋めるために、特徴感度係数fが1から2に増加した。
6.さらなる実施形態及び考察
図17は、本発明の一実施形態にて使用され得るシステムの例示的な実装の概略図である。
図17に示すように、システム700は、バス755、処理ユニット753、メインメモリ757、ROM 758、及びストレージデバイス759、入力デバイス752、出力デバイス754、及び通信インターフェイス756を含み得る。バス755は、システム700の構成要素間の通信を可能にする経路を含み得る。
処理ユニット753は、命令を解釈及び実行することができるプロセッサ、マイクロプロセッサ、または処理ロジックを含み得る。メインメモリ757は、処理ユニット753によって実行するための情報及び命令を記憶し得るRAMまたは別のタイプの動的記憶装置を含み得る。ROM758は、処理ユニット753により使用するための静的情報及び命令を記憶し得るROM装置または別のタイプの静的記憶装置を含み得る。ストレージデバイス759は、磁気及び/または光記録媒体及びその対応するドライブを含み得る。
入力デバイス752は、キーパッド、キーボード、マウス、ペン、音声認識及び/または生体認証メカニズムなどのように、使用者がシステム700に情報を入力することを可能にするメカニズムを含み得る。出力デバイス754は、ディスプレイ、プリンタ、スピーカーなどを含む情報を使用者に出力するメカニズムを含み得る。通信インターフェイス756は、システム700が他のデバイス及び/またはシステム(例えば、上記のような画像化装置を用いて)と通信することを可能にする任意のトランシーバのようなメカニズム、または受信機及び送信機を含み得る。例えば、通信インターフェイス756は、電気通信ネットワークを介して別のデバイスまたはシステムと通信するためのメカニズムを含み得る。
システム700は、本明細書に記載の特定の操作またはプロセスを実行することができる。これらの動作は、メインメモリ757、ROM758、及び/またはストレージデバイス759などのコンピュータ可読媒体に含まれるソフトウェア命令を実行する処理ユニット753に応答して実行することができる。コンピュータ可読媒体は、物理的または論理メモリデバイスと定義され得る。例えば、論理メモリデバイスは、単一の物理メモリデバイス内に、または複数の物理メモリデバイスに分散されたメモリ空間を含み得る。メインメモリ757、ROM758、及びストレージデバイス759のそれぞれは、コンピュータ可読媒体を含み得る。ストレージデバイス759の磁気的及び/または光学的記録媒体(例えば、読み取り可能なCDまたはDVD)はまた、コンピュータ可読媒体を含み得る。ソフトウェア命令は、記憶デバイス759などの別のコンピュータ可読媒体から、または通信インターフェイス756を介して別のデバイスからメインメモリ757に読み込むことができる。
メインメモリ759に含まれるソフトウェア命令は、処理ユニット753に、上記のステップ100、200、300、及び400などの、本明細書に記載の動作またはプロセスを実行させることができる。あるいは、本明細書に記載のプロセス及び/または操作を実装するためのソフトウェア命令の代わりに、またはそれと組み合わせて、ハードワイヤード回路を使用することができる。したがって本明細書に記載の実装形態は、ハードウェア及びソフトウェアのいずれかの特定の組み合わせに限定されない。
上記の説明全体で「曲率ベースの形状認識ユニット」、「シード表示受け取りユニット」、「使用ユニット」、「更新ユニット」などの用語が使用されている場合、これらの要素にいかに分散があり得るかについて、及び以下に要素が収集されているかについて制限はない。すなわち、ユニット、機能、またはネットワークノードの構成要素は、意図された機能をもたらすために、様々なソフトウェアまたはハードウェア構成要素またはデバイスに分散され得る。意図された機能を提供するために、複数の別個の要素を収集することもできる。特に、サーバークライアントアーキテクチャなどでは、セグメンテーションプロセスの一部は、エンドユーザとの入力及び出力の相互作用を担当するクライアントコンピュータから離れて配置され、クライアントに通信可能に接続されたサーバーコンピュータ(またはクラウドコンピューティングの意味でのクラウド)で実行され得る。また、セグメンテーションプロセスの別の部分をクライアントコンピュータで実行することができる。
上記のユニットのいずれか1つは、ハードウェア、ソフトウェア、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、ファームウェアなどに実装され得る。
本発明のさらなる実施形態では、上記の曲率ベースの形状認識ユニット、シード表示受け取りユニット、使用ユニット、更新ユニットなどのいずれか1つが、曲率ベースの形状認識手段、シード表示受け取り手段、曲率ベースの形状認識ユニット、シード表示受け取りユニット、使用ユニット、更新手段など、または曲率ベースの形状認識モジュール、シード表示受け取りモジュール、使用モジュール、更新モジュールなどを各々、曲率ベースの形状認識ユニット、シード表示受け取りユニット、使用ユニット、更新ユニットなどの機能を実行するため置き換えられる。
本発明のさらなる実施形態では、上記の手順、ステップ、またはプロセスのいずれか1つは、コンピュータ実行可能命令を使用して、例えば、任意の種類のコンピュータ言語で、及び/またはファームウェアに埋め込まれたソフトウェア、集積回路などの形で、コンピュータ実行可能手順、方法などの形で実装され得る。
本発明は詳細な実施例に基づいて説明されてきたが、詳細な実施例は当業者に理解を深めるのに役立つだけであり、本発明の範囲を限定することを意図するものではない。本発明の範囲は、添付の特許請求の範囲によってむしろ定義される。
略号:
2D 2次元
3D 3次元
ASIC 特定用途向け集積回路
CBCT コンピュータ断層撮影法
CBSR 曲率ベースの形状認識
CC 連結成分
CT コンピュータ断層
DICOM 医学におけるデジタルイメージング及び通信
FPGA フィールドプログラマブルゲートアレイ
GT グレースケール閾値処理(別名:グレー値閾値処理)
GUI グラフィカルユーザインターフェイス
PCA 主成分分析
PVE パーシャルボリューム効果
RAM ランダムアクセスメモリ
ROI 関心領域
ROM 読み取り専用メモリ
参考文献
[1]C.Lost. Quality guidelines for endodontic treatment: consensus report of the European Society of Endodontology.International Endodontic Journal, 39:921-930, 2006.
[2]Dentsply Sirona. 3D EndoTM Software. https://www.3dendo.com/. Accessed: May 29, 2017.
[3]A.F. Frangi, W.J. Niessen, L. Vincken, and M.A. Viergever. Multiscale vessel enhancement filtering.Lecture Notes in Computer Science, 1496:130-137, 1998.
[4]M. Descoteaux, M. Audette, K. Chinzei, and K. Siddiqi. Bone enhancement filtering: Application to sinus bone segmentation and simulation of pituitary surgery.Computer aided surgery, 11(5):247-255, 2010.
[5]S. Lankton and A. Tannenbaum. Localizing region-based active contours.IEEE Transactions on Image Processing, 17(11):2029-2039, 2008.
[6]F. Peracchi. Robust m-estimators of regression.Giornale degli Economisti e Annali di Economia, 46(9):533-545, 1987.
[7]C. Jud and T. Vetter. Using object probabilities in deformable model fitting. 2014 22nd International Conference on Pattern Recognition. 3310-3314, 2014

Claims (25)

  1. 歯の歯髄領域を前記歯の2Dまたは3D画像からセグメント化するためのコンピュータ実装方法であって、前記歯髄領域は、歯髄腔及び1つ以上の根管を含み、前記方法は、
    前記画像の平滑化されたバージョンを使用して、様々な空間スケールで曲率ベースの形状認識を実行すること(100)と、
    前記画像の画像化された歯髄腔内に位置していると想定され、前記画像の少なくとも1つの画像要素に対応する点または領域の表示を受け取ること(200)と、但し前記少なくとも1つの画像要素は、以下「シード」と呼ばれる、
    少なくとも前記シードを初期セグメンテーションマスクとして使用すること(300)と、
    以下「更新プロシージャ」と呼ばれるプロシージャ(410)を反復して実行すること(400)と、
    を含み、
    前記更新プロシージャ(410)は、
    前記セグメンテーションマスクを更新するための候補画像要素を判定すること(411)と、但し前記判定すること(411)は、前記更新プロシージャ(410)の少なくとも最初のn回の反復(nは非ゼロの正の整数である)において、現在のセグメンテーションマスクを基準としてグレースケール閾値処理を行ない、前記更新プロシージャ(410)の少なくとも1回の反復で、前記曲率ベースの形状認識を考慮に入れることを含
    前記現在のセグメンテーションマスクを基準として前記グレースケール閾値処理を行なうことは、検討中の画像要素の強度レベルと、平均化された前景値及び平均化された背景強度値それぞれとの間の差を判定することを含み、前記平均化された前景値は、前記現在のセグメンテーションマスクに含まれる画像要素の平均強度値として計算され、前記平均化された背景強度値は、前記現在のセグメンテーションマスクの外側の画像要素の平均強度値として計算され、
    前記候補画像要素の中で、前記シードを含む、接続された候補画像要素の領域を保持すること(412)と、
    前記保持された領域を使用して、前記セグメンテーションマスクを更新すること(413)と、
    を含む、方法。
  2. 前記平均化された前景及び/または平均化された背景強度値は、検討中の前記画像要素を中心とする画像領域内の前記画像要素について計算される、請求項に記載の方法。
  3. 前記平均化された前景及び/または平均化された景強度値を計算することは、加重平均を計算することを含み、
    画像要素の前記強度値の重みが、前記画像要素と検討中の前記画像要素との間の距離の増加とともに減少する、請求項に記載の方法。
  4. 前記加重平均を計算することは、検討中の前記画像要素を中心とする重み付けマスクを使用することを含む、請求項に記載の方法。
  5. 前記更新プロシージャ(410)の少なくとも1回の反復において、前記グレースケール閾値処理及び前記曲率ベースの形状認識の両方が実行される、請求項1から請求項のいずれか一項に記載の方法。
  6. 前記グレースケール閾値処理及び前記曲率ベースの形状認識の両方が実行される少なくとも1回の反復において、検討中の画像要素について、前記グレースケール閾値処理と比較した前記曲率ベースの形状認識の重要性または関連する重みが、前記シードからの前記画像要素の距離の増加に伴って増加する、請求項に記載の方法。
  7. 前記曲率ベースの形状認識が実行される少なくとも1回の反復において、候補画像要素を判定すること(411)は、前記画像要素の近傍の前記セグメンテーションマスクの一部の全体的な方向性と比較した、画像要素の前記強度レベルで認識された形状の方向性をさらに考慮に入れる、請求項1から請求項のいずれか一項に記載の方法。
  8. 前記方法は、前記更新プロシージャ(410)を反復して実行した後(400)、以下「拡張更新プロシージャ」と呼ばれるさらなるプロシージャ(510)を反復して実行すること(500)をさらに含み、
    前記実行すること(500)は、
    前記セグメンテーションマスクを更新するために候補画像要素を判定すること(511)と、但し前記判定すること(511)は、前記曲率ベースの形状認識及び前記画像要素の近傍の前記セグメンテーションマスクの一部の全体的な方向性と比較した、画像要素の前記強度レベルにおいて認識された形状の方向性を考慮することを含む、
    前記候補画像要素の中で、接続された候補画像要素の第1の領域を保持すること(512)と、但し前記第1の領域は前記シードを含む、
    前記保持された第1の領域を使用して、以下「中間セグメンテーションマスク」と呼ばれる新しいセグメンテーションマスクを形成すること(513)と、
    前記候補画像要素の中で、接続された候補画像要素の第2の領域を保持すること(514)と、但し前記第2の領域は、前記中間セグメンテーションマスクに接続されておらず、前記中間セグメンテーションマスクよりも頂端の位置に、前記第2の領域に最も近い前記中間セグメンテーションマスクの頂端部分の方向性と一致する方向に配置される、
    前記中間セグメンテーションマスクと前記保持された第2の領域を使用して、前記セグメンテーションマスクを更新すること(515)と、
    を含む、請求項1から請求項のいずれか一項に記載の方法。
  9. 前記方法は、前記更新プロシージャ(400)を反復して実行した後(400)、以下「ネストされたサブプロシージャを伴う拡張更新プロシージャ」と呼ばれるさらなるプロシージャ(610)を反復して実行すること(600)をさらに含み、
    前記実行すること(600)は、
    前記セグメンテーションマスクを更新するために候補画像要素を判定すること(511)と、但し前記判定すること(511)は、前記曲率ベースの形状認識及び前記画像要素の近傍の前記セグメンテーションマスクの一部の全体的な方向性と比較した、画像要素の前記強度レベルにおいて認識された形状の方向性を考慮することを含む、
    前記候補画像要素の中で、接続された候補画像要素の第1の領域を保持すること(612)と、但し前記第1の領域は前記シードを含む、
    前記保持された第1の領域を使用して、以下「中間セグメンテーションマスク」と呼ばれる新しいセグメンテーションマスクを形成すること(613)と、
    以下「ネストされたサブプロシージャ」と呼ばれるサブプロシージャ(615)を反復して実行すること(614)と、
    前記中間セグメンテーションマスクを使用して、前記セグメンテーションマスクを更新すること(618)と、
    を含み、
    前記サブプロシージャ(615)は、
    前記候補画像要素の中で、接続された候補画像要素のさらなる領域を保持すること(616)と、但し前記さらなる領域は、前記中間セグメンテーションマスクに接続されておらず、前記中間セグメンテーションマスクよりも頂端の位置に、前記さらなる領域に最も近い前記中間セグメンテーションマスクの頂端部分の方向性と一致する方向に配置される、
    前記中間セグメンテーションマスクに前記さらなる領域を追加すること(617)と、
    を含む、請求項1から請求項のいずれか一項に記載の方法。
  10. 前記セグメンテーションマスクを更新するための候補画像要素を判定すること(411)は、前記現在のセグメンテーションマスクを基準としてグレースケール閾値処理を行なうことをさらに含む、請求項または請求項に記載の方法。
  11. 張更新プロシージャの少なくとも1回の反復において、検討中の画像要素について、前記グレースケール閾値処理と比較した前記曲率ベースの形状認識の重要性または関連する重みが、前記シードからの前記画像要素の距離の増加に伴って増加する、請求項に記載の方法。
  12. ネストされたサブプロシージャを伴う拡張更新プロシージャの少なくとも1回の反復において、検討中の画像要素について、前記グレースケール閾値処理と比較した前記曲率ベースの形状認識の重要性または関連する重みが、前記シードからの前記画像要素の距離の増加に伴って増加する、請求項9に記載の方法。
  13. 前記更新プロシージャが、複数回の反復を含み、前記更新プロシージャの反復において、以前の反復からの前記セグメンテーションマスクに含まれる画像要素が、前記更新されたセグメンテーションマスクから破棄され得る、請求項1から請求項12のいずれか一項に記載の方法。
  14. 前記セグメンテーションマスクが1つの反復から次の反復へと成長する、請求項1から請求項12のいずれか一項に記載の方法。
  15. 反復において、前記現在のセグメンテーションマスクからの閾値距離よりも大きい距離にある画像要素が破棄される、請求項1から請求項14のいずれか一項に記載の方法。
  16. 前記新しいセグメンテーションマスクが、前記現在のセグメンテーションマスクと比較してm個の画像要素(mは非ゼロの正の整数である)分だけ少ない点で異なる場合、反復(400、500、600)が停止される、請求項1から請求項15のいずれか一項に記載の方法。
  17. 前記画像がX線画像である、請求項1から請求項16のいずれか一項に記載の方法。
  18. 前記曲率ベースの形状認識が、根管またはそのセグメントの可能な形状に対応する形状構造を識別することを含む、請求項1から請求項17のいずれか一項に記載の方法。
  19. 前記曲率ベースの形状認識が、管状構造を識別すること、及びシート状構造を識別することのうちの少なくとも1つを含む、請求項18に記載の方法。
  20. 前記セグメント化された歯の歯髄領域の解剖学的構造を視覚的にレンダリングすることをさらに含む、請求項1から請求項19のいずれか一項に記載の方法。
  21. 前記セグメント化された歯の歯髄領域の解剖学的構造のパラメータを判定することをさらに含む、請求項1から請求項20のいずれか一項に記載の方法。
  22. 前記セグメント化された歯の歯髄領域の解剖学的構造のパラメータを判定することは、
    前記セグメント化された歯の歯髄領域の少なくとも1つの根管に沿った幅、
    前記セグメント化された歯の歯髄領域の少なくとも1つの根管の中心線、及び
    前記セグメント化された歯の歯髄領域の少なくとも1つの根管の長さ、
    のうちの少なくとも1つを判定することを含む、請求項21に記載の方法。
  23. 前記更新されたセグメンテーションマスクが、歯内処置のコンピュータベースの仮想計画で使用される、請求項1から請求項22のいずれかに記載の方法。
  24. 歯の歯髄領域を前記歯の2Dまたは3D画像からセグメント化するためのシステムであって、前記歯髄領域は、歯髄腔及び1つ以上の根管を含み、
    前記システムは、
    前記画像の平滑化されたバージョンを使用して、様々な空間スケールで曲率ベースの形状認識を実行すること(100)と、
    前記画像の画像化された歯髄腔内に位置していると想定され、前記画像の少なくとも1つの画像要素に対応する点または領域の表示を受け取ること(200)と、但し前記少なくとも1つの画像要素は、以下「シード」と呼ばれる、
    少なくとも前記シードを初期セグメンテーションマスクとして使用すること(300)と、
    以下「更新プロシージャ」と呼ばれるプロシージャ(410)を反復して実行すること(400)と、
    を行うように構成された処理ユニットを含み、
    前記更新プロシージャ(410)は、
    前記セグメンテーションマスクを更新するための候補画像要素を判定すること(411)と、
    前記候補画像要素の中で、前記シードを含む、接続された候補画像要素の領域を保持すること(412)と、
    前記保持された領域を使用して、前記セグメンテーションマスクを更新すること(413)と、
    を含み、
    前記判定すること(411)は、
    前記更新プロシージャ(410)の少なくとも最初のn回の反復(nは非ゼロの正の整数である)において、現在のセグメンテーションマスクを基準としてグレースケール閾値処理を行なうことと、
    前記更新プロシージャ(410)の少なくとも1回の反復で、前記曲率ベースの形状認識を考慮に入れることと、
    を含
    前記現在のセグメンテーションマスクを基準として前記グレースケール閾値処理を行なうことは、検討中の画像要素の強度レベルと、平均化された前景値及び平均化された背景強度値それぞれとの間の差を判定することを含み、前記平均化された前景値は、前記現在のセグメンテーションマスクに含まれる画像要素の平均強度値として計算され、前記平均化された背景強度値は、前記現在のセグメンテーションマスクの外側の画像要素の平均強度値として計算される、システム。
  25. コンピュータ上で実行されると、前記コンピュータに請求項1から請求項23のいずれか一項に記載の方法を実行させるように構成されたコンピュータ可読命令を含むコンピュータプログラム。
JP2020565953A 2018-05-29 2019-05-28 画像から歯髄領域をセグメント化するための方法、システム、及びコンピュータプログラム Active JP7261245B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP18174919.3 2018-05-29
EP18174919 2018-05-29
PCT/EP2019/063883 WO2019229092A1 (en) 2018-05-29 2019-05-28 Methods, systems, and computer programs for segmenting a tooth's pulp region from an image

Publications (2)

Publication Number Publication Date
JP2021525144A JP2021525144A (ja) 2021-09-24
JP7261245B2 true JP7261245B2 (ja) 2023-04-19

Family

ID=62486501

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020565953A Active JP7261245B2 (ja) 2018-05-29 2019-05-28 画像から歯髄領域をセグメント化するための方法、システム、及びコンピュータプログラム

Country Status (7)

Country Link
US (1) US11416999B2 (ja)
EP (1) EP3803788B1 (ja)
JP (1) JP7261245B2 (ja)
KR (1) KR20210041538A (ja)
CN (1) CN112136157B (ja)
CA (1) CA3099252A1 (ja)
WO (1) WO2019229092A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7374193B2 (ja) 2018-12-20 2023-11-06 メディシム ナームロゼ ベンノートチャップ 表面メッシュの自動トリミング
US11576631B1 (en) * 2020-02-15 2023-02-14 Medlab Media Group SL System and method for generating a virtual mathematical model of the dental (stomatognathic) system
WO2022092627A1 (ko) * 2020-10-28 2022-05-05 주식회사 메디트 3차원 모델로부터 대상체 영역을 결정하는 방법 및 3차원 모델 처리 장치
KR102493440B1 (ko) * 2020-10-28 2023-01-31 주식회사 메디트 3차원 모델로부터 대상체 영역을 결정하는 방법 및 3차원 모델 처리 장치
JP7113327B1 (ja) * 2021-07-12 2022-08-05 パナソニックIpマネジメント株式会社 撮像装置
CN117649391B (zh) * 2023-12-11 2024-05-10 东莞市中钢模具有限公司 基于图像处理的压铸模具缺陷检测方法及***
CN117974692B (zh) * 2024-03-29 2024-06-07 贵州毅丹恒瑞医药科技有限公司 一种基于区域生长的眼科医学影像处理方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080299511A1 (en) 2004-08-27 2008-12-04 Michael Thoms Method for Determining the Set Relative Position of a Patient in Dental Panorama X-Ray Apparatus or the Set Path on Which This Apparatus is Moved with Regard to a Patient , and a Device Suited Therefor
JP2017056364A (ja) 2017-01-06 2017-03-23 朝日レントゲン工業株式会社 X線撮影装置及びx線画像選択方法

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6409504B1 (en) * 1997-06-20 2002-06-25 Align Technology, Inc. Manipulating a digital dentition model to form models of individual dentition components
CN102573644B (zh) * 2009-07-31 2015-07-01 牙科成像技术公司 使用分割和主牙弓的全景牙科成像
GB201009725D0 (en) * 2010-06-11 2010-07-21 Univ Leuven Kath Method of quantifying local bone loss
US8311302B2 (en) * 2010-12-13 2012-11-13 Carestream Health, Inc. Method for identification of dental caries in polychromatic images
KR101911567B1 (ko) * 2011-03-21 2018-10-24 케어스트림 덴탈 테크놀로지 톱코 리미티드 치면 분류 방법
GB201115265D0 (en) * 2011-09-05 2011-10-19 Materialise Dental Nv A method and system for 3d root canal treatment planning
CN103186886B (zh) * 2011-12-31 2017-04-05 西门子(深圳)磁共振有限公司 磁共振成像的图像重建方法及图像重建装置
US8923581B2 (en) * 2012-03-16 2014-12-30 Carestream Health, Inc. Interactive 3-D examination of root fractures
KR20140097727A (ko) * 2013-01-29 2014-08-07 주식회사 오즈텍 치과용 3d 혈관 유속 촬영장치 및 그 방법
US9972083B2 (en) * 2013-04-22 2018-05-15 Carestream Dental Technology Topco Limited Detection of tooth fractures in CBCT image
EP3682807B1 (en) * 2014-09-16 2024-07-17 Sirona Dental, Inc. Methods, systems, apparatuses, and computer programs for processing tomographic images
CN104751516B (zh) * 2015-04-09 2018-01-09 范兵 开髓位置的参照点的获取装置
KR101718868B1 (ko) * 2015-09-21 2017-03-22 한국과학기술연구원 자동 의료영상 분할에 의한 3차원 악안면 모델 형성 방법, 이를 수행하는 자동 영상 분할과 모델 형성 서버 및 이를 저장하는 기록매체
CN105488849B (zh) * 2015-11-24 2018-01-12 嘉兴学院 一种基于混合水平集的三维牙齿建模方法
JP6658308B2 (ja) * 2016-05-30 2020-03-04 富士通株式会社 歯の種類判定プログラム、歯冠位置判定装置及びその方法
JP2018022261A (ja) * 2016-08-02 2018-02-08 株式会社オプテック 画像処理装置
CN106214175B (zh) * 2016-08-26 2020-06-16 中国科学院深圳先进技术研究院 一种估算三维牙轴的方法和装置
CN106446800B (zh) * 2016-08-31 2019-04-02 北京贝塔科技股份有限公司 牙齿识别方法、装置及***
US10282826B2 (en) * 2016-10-10 2019-05-07 Carestream Health, Inc. Despeckling method for radiographic images
CN106570859B (zh) 2016-10-11 2020-02-14 深圳大学 一种牙齿图像分析***
WO2018231588A1 (en) * 2017-06-15 2018-12-20 Levin Martin David Methods, systems, and computer program products for making customized root canal obturation cores
EP3462373A1 (en) * 2017-10-02 2019-04-03 Promaton Holding B.V. Automated classification and taxonomy of 3d teeth data using deep learning methods
CN107909630A (zh) * 2017-11-06 2018-04-13 南京齿贝犀科技有限公司 一种牙位图生成方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080299511A1 (en) 2004-08-27 2008-12-04 Michael Thoms Method for Determining the Set Relative Position of a Patient in Dental Panorama X-Ray Apparatus or the Set Path on Which This Apparatus is Moved with Regard to a Patient , and a Device Suited Therefor
JP2017056364A (ja) 2017-01-06 2017-03-23 朝日レントゲン工業株式会社 X線撮影装置及びx線画像選択方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Christoph Jud, Thomas Vetter,Using Object Probabilities in Deformable Model Fitting,2014 22nd International Conference on Pattern Recognition,2014年12月06日,P. 3310-3314

Also Published As

Publication number Publication date
CN112136157A (zh) 2020-12-25
US20210209764A1 (en) 2021-07-08
CA3099252A1 (en) 2019-12-05
CN112136157B (zh) 2024-04-26
JP2021525144A (ja) 2021-09-24
EP3803788B1 (en) 2022-07-27
EP3803788A1 (en) 2021-04-14
WO2019229092A1 (en) 2019-12-05
KR20210041538A (ko) 2021-04-15
US11416999B2 (en) 2022-08-16

Similar Documents

Publication Publication Date Title
JP7261245B2 (ja) 画像から歯髄領域をセグメント化するための方法、システム、及びコンピュータプログラム
JP7386215B2 (ja) 歯列メッシュ矯正具除去のための方法および装置
JP7254025B2 (ja) 動的歯列弓マップ
EP3547949B1 (en) Method and system for braces removal from dentition mesh
CN110189352B (zh) 一种基于口腔cbct图像的牙根提取方法
US8761493B2 (en) Method and system for tooth segmentation in dental images
Wu et al. Tooth segmentation on dental meshes using morphologic skeleton
JP5717942B2 (ja) 超音波画像におけるエッジ検出
KR20190044067A (ko) 하이브리드 메시 세분화를 위한 방법 및 시스템
JP5114044B2 (ja) 生物学的構造を有する画像を切り出す方法及びシステム
CN107680110B (zh) 基于统计形状模型的内耳三维水平集分割方法
US11704819B2 (en) Apparatus and method for aligning 3-dimensional data
US20220012888A1 (en) Methods and system for autonomous volumetric dental image segmentation
JP2022523272A (ja) 三次元(3d)超音波画像の処理
CN114757960A (zh) 一种基于cbct图像的牙齿分割与重建方法及存储介质
JP2022531989A (ja) 自動冠動脈血管造影分析
Yau et al. An adaptive region growing method to segment inferior alveolar nerve canal from 3D medical images for dental implant surgery
Pavaloiu et al. Automatic segmentation for 3D dental reconstruction
Abdolali et al. Mandibular canal segmentation using 3D Active Appearance Models and shape context registration
CN111798468B (zh) 图像处理方法及装置、存储介质及电子终端
CN106934785B (zh) 一种用于机器人虚拟训练***中肝脏模型的医学图像分割方法
Păvăloiu et al. 3D dental reconstruction from CBCT data
Todd et al. An analysis of medical image processing methods for segmentation of the inner ear
EP4216160A1 (en) Methods and systems for real-time image 3d segmentation regularization
Song et al. Confidence Surface-Based Fine Matching Between Dental Cone-Beam Computed Tomography Scan and Optical Surface Scan Data

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201119

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230407

R150 Certificate of patent or registration of utility model

Ref document number: 7261245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150