JP2022544229A - オブジェクト検出を用いて位置特定された医用画像の三次元オブジェクトセグメンテーション - Google Patents

オブジェクト検出を用いて位置特定された医用画像の三次元オブジェクトセグメンテーション Download PDF

Info

Publication number
JP2022544229A
JP2022544229A JP2022508485A JP2022508485A JP2022544229A JP 2022544229 A JP2022544229 A JP 2022544229A JP 2022508485 A JP2022508485 A JP 2022508485A JP 2022508485 A JP2022508485 A JP 2022508485A JP 2022544229 A JP2022544229 A JP 2022544229A
Authority
JP
Japan
Prior art keywords
image
interest
contrast
segmentation
medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022508485A
Other languages
English (en)
Other versions
JPWO2021030629A5 (ja
Inventor
ルーク シエ,
カイ ヘンリク バルック,
オミド バズギル,
Original Assignee
ジェネンテック, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジェネンテック, インコーポレイテッド filed Critical ジェネンテック, インコーポレイテッド
Publication of JP2022544229A publication Critical patent/JP2022544229A/ja
Publication of JPWO2021030629A5 publication Critical patent/JPWO2021030629A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Geometry (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Nuclear Medicine (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Analysis (AREA)

Abstract

本開示は、導出されたコントラスト機構に基づくオブジェクト検出によって位置特定された医用画像内のオブジェクトを、深層学習ネットワークを使用してセグメント化するための技術に関する。特に、態様は、第1の特性を有する第1の医用画像内の関心オブジェクトを位置特定し、第2の特性を有する第2の医用画像上に関心オブジェクトの境界ボックスまたはセグメンテーションマスクを投影して第2の医用画像の一部を画定し、第2の医用画像の一部をセグメント化し、関心オブジェクトの周りにセグメンテーション境界を生成することができる重み付き損失関数を使用して検出器として構成される深層学習モデルに第2の医用画像の一部を入力することに関する。セグメンテーション境界は、被験者の診断および/または予後を判定するために関心オブジェクトの体積を計算するために使用されることができる。【選択図】図4

Description

関連出願の相互参照
本出願は、2019年8月14日に出願された米国仮特許出願第62/886,844号の優先権および利益を主張し、その内容は、あらゆる目的のためにその全体が参照により本明細書に組み込まれる。
本開示は、医用画像の自動化されたオブジェクトセグメンテーションに関し、特に、導出されたコントラスト機構に基づくオブジェクト検出によって位置特定された医用画像内のオブジェクトを、深層学習ネットワークを使用してセグメント化するための技術に関する。
コンピュータビジョンは、デジタル画像およびビデオと協働して、これらの画像およびビデオ内のコンテンツの何らかの理解を推定することを含む。オブジェクト認識は、コンピュータビジョンと関連付けられ、画像フレーム内に存在するオブジェクトを識別することを含む関連するコンピュータビジョンタスクの集合を指す。タスクは、画像分類、オブジェクト位置特定、オブジェクト検出、およびオブジェクトセグメンテーションを含む。画像分類は、画像フレーム内の1つ以上のオブジェクトのクラスを予測することを含む。オブジェクト位置特定は、画像フレーム内の1つ以上のオブジェクトの位置を識別し、それらの範囲の周りに境界を描くことを指す。オブジェクト検出は、これら2つのタスクを組み合わせ、画像フレーム内の1つ以上のオブジェクトを位置特定および分類する。オブジェクトセグメンテーションは、粗い境界ボックスの代わりに、位置特定または検出されたオブジェクトの特定の画素を強調表示する(マスクを生成する)ことを含む。オブジェクト認識のための技術は、一般に、機械学習ベースの手法または深層学習ベースの手法のいずれかに分類される。オブジェクト位置特定および検出に対する機械学習ベースの手法では、Haar-like特徴、スケール不変特徴変換、または指向性勾配のヒストグラム(HOG)などの特徴記述子を使用して画像内の特徴が最初に定義され、次いで、特徴記述子に基づいてサポートベクターマシン(SVM)などの技術を使用して関心オブジェクトが検出される。一方、深層学習技術は、特徴を具体的に定義することなくエンドツーエンドのオブジェクト検出およびセグメンテーションを実行することができ、典型的には、領域ベースのネットワーク(R-CNN、高速なR-CNN、より高速なR-CNN、およびカスケードR-CNN)などの畳み込みニューラルネットワーク(CNN)に基づく。
いくつかの実施形態では、医用画像内のオブジェクトをセグメント化するためのコンピュータ実装方法が提供される。本方法は、被験者の医用画像を取得することであって、医用画像が、第1の特性を有する第1の画像および第2の特性を有する第2の画像を含み、医用画像が、1つ以上の医用イメージングモダリティを使用して生成される、取得することと、位置特定モデルを使用して、第1の画像内のオブジェクトを位置特定して複数のオブジェクトクラスに分類することであって、分類することが、第1の画像の画素またはボクセルのセットを複数のオブジェクトクラスのうちの1つ以上に割り当てる、位置特定および分類することと、位置特定モデルを使用して、複数のオブジェクトクラスのうちのオブジェクトクラスに割り当てられた画素またはボクセルのセットに基づいて、第1の画像内の関心オブジェクトのための境界ボックスまたはセグメンテーションマスクを判定することと、境界ボックスまたはセグメンテーションマスクを第2の画像上に転送して、関心オブジェクトを含む第2の画像の一部を画定することと、第2の画像の一部を、重み付き損失関数を使用して体積セグメンテーションのために構築された三次元ニューラルネットワークモデルに入力することと、三次元ニューラルネットワークモデルを使用して、関心オブジェクトの周りの推定されたセグメンテーション境界を生成することと、三次元ニューラルネットワークを使用して、関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部を出力することと、を含む。
いくつかの実施形態では、1つ以上の医用イメージングモダリティは、第1の医用イメージングモダリティおよび第1の医用イメージングモダリティとは異なる第2の医用イメージングモダリティを含み、第1の画像は、第1の医用イメージングモダリティから生成され、第2の画像は、第2の医用イメージングモダリティから生成される。
いくつかの実施形態では、1つ以上の医用イメージングモダリティは、第1の医用イメージングモダリティおよび第1の医用イメージングモダリティと同じである第2の医用イメージングモダリティを含み、第1の画像は、第1の医用イメージングモダリティから生成され、第2の画像は、第2の医用イメージングモダリティから生成される。
いくつかの実施形態では、第1の画像は、第1の種類の画像であり、第2の画像は、第2の種類の画像であり、第1の種類の画像は、第2の種類の画像とは異なる。
いくつかの実施形態では、第1の画像は、第1の種類の画像であり、第2の画像は、第2の種類の画像であり、第1の種類の画像は、第2の種類の画像と同じである。
いくつかの実施形態では、第1の特性は、第2の特性とは異なる。
いくつかの実施形態では、第1の特性は、第2の特性と同じである。
いくつかの実施形態では、第1の医用イメージングモダリティは、磁気共鳴イメージング、拡散テンソルイメージング、コンピュータ断層撮影、陽電子放出断層撮影、光音響断層撮影、X線、ソノグラフィ、またはそれらの組み合わせであり、第2の医用イメージングモダリティは、磁気共鳴イメージング、拡散テンソルイメージング、コンピュータ断層撮影、陽電子放出断層撮影、光音響断層撮影、X線、ソノグラフィ、またはそれらの組み合わせである。
いくつかの実施形態では、第1の種類の画像は、磁気共鳴画像、拡散テンソル画像もしくはマップ、コンピュータ断層撮影画像、陽電子放出断層撮影画像、光音響断層撮影画像、X線画像、ソノグラフィ画像、またはそれらの組み合わせであり、第2の種類の画像は、磁気共鳴画像、拡散テンソル画像もしくはマップ、コンピュータ断層撮影画像、陽電子放出断層撮影画像、光音響断層撮影画像、X線画像、ソノグラフィ画像、またはそれらの組み合わせである。
いくつかの実施形態では、第1の特性は、異方性比コントラスト、平均拡散性コントラスト、軸方向拡散性コントラスト、半径方向拡散性コントラスト、プロトン密度コントラスト、T1緩和時間コントラスト、T2緩和時間コントラスト、拡散係数コントラスト、低解像度、高解像度、薬剤コントラスト、放射性トレーサコントラスト、光吸収コントラスト、エコー距離コントラスト、またはそれらの組み合わせであり、第2の特性は、異方性比コントラスト、平均拡散性コントラスト、軸方向拡散性コントラスト、半径方向拡散性コントラスト、プロトン密度コントラスト、T1緩和時間コントラスト、T2緩和時間コントラスト、拡散係数コントラスト、低解像度、高解像度、薬剤コントラスト、放射性トレーサコントラスト、光吸収コントラスト、エコー距離コントラスト、またはそれらの組み合わせである。
いくつかの実施形態では、1つ以上の医用イメージングモダリティは、拡散テンソルイメージングであり、第1の画像は、部分異方性(FA)マップであり、第2の画像は、平均拡散性(MD)マップであり、第1の特性は、異方性比コントラストであり、第2の特性は、平均拡散性コントラストであり、関心オブジェクトは、関心腎臓である。
いくつかの実施形態では、第1の画像内のオブジェクトを位置特定および分類することは、第1の画像の複数の画素またはボクセルに1つ以上のクラスタリングアルゴリズムを適用することを含む。
いくつかの実施形態では、1つ以上のクラスタリングアルゴリズムは、複数のオブジェクトクラスに関連付けられたクラスタに観測値を割り当てるk平均アルゴリズムを含む。
いくつかの実施形態では、1つ以上のクラスタリングアルゴリズムは、1つ以上の確率分布に基づいてクラスタメンバーシップの確率を計算する期待値最大化アルゴリズムをさらに含み、k平均アルゴリズムは、複数のオブジェクトクラスの各オブジェクトクラスの初期パラメータを推定することによって期待値最大化アルゴリズムを初期化する。
いくつかの実施形態では、セグメンテーションマスクが判定され、セグメンテーションマスクを判定することは、オブジェクトクラスに割り当てられた画素またはボクセルのセットを使用して関心オブジェクトのシード位置を識別することと、セグメンテーションマスクの深さを表すz軸に向かってシード位置を投影することによってシード位置を成長させることと、投影されたシード位置に基づいてセグメンテーションマスクを判定することと、を含む。
いくつかの実施形態では、セグメンテーションマスクを判定することは、セグメンテーションマスクに対して形態学的閉鎖および充填を実行することをさらに含む。
いくつかの実施形態では、本方法は、第2の画像の一部を三次元ニューラルネットワークモデルに入力する前に、第2の画像の一部を生成するためにオブジェクトマスクおよびマージンに基づいて第2の画像を切り取ることをさらに含む。
いくつかの実施形態では、本方法は、第2の画像の一部を三次元ニューラルネットワークモデルに入力する前に、第2の画像の一部の解像度を高めるために、第2の画像を深層超解像ニューラルネットワークに入力することをさらに含む。
いくつかの実施形態では、三次元ニューラルネットワークモデルは、訓練データのセットを使用して識別された複数のモデルパラメータを含み、訓練データのセットは、関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の医用画像と、関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の追加の医用画像であって、複数の医用画像からの画像ヒストグラムを複数の参照マップからの画像ヒストグラムに一致させることによって人工的に生成される、複数の追加の医用画像と、を含み、複数のモデルパラメータは、重み付き損失関数を最小化することに基づいて訓練データのセットを使用して識別される。
いくつかの実施形態では、重み付き損失関数は、重み付きダイス損失関数である。
いくつかの実施形態では、三次元ニューラルネットワークモデルは、修正された3D U-Netモデルである。
いくつかの実施形態では、修正された3D U-Netモデルは、総数で5,000,000個から12,000,000個の学習可能パラメータを含む。
いくつかの実施形態では、修正された3D U-Netモデルは、総数で800個から1,700個のカーネルを含む。
いくつかの実施形態では、本方法は、関心オブジェクトの周囲の推定境界に基づいて、関心オブジェクトのサイズ、表面積、および/または体積を判定することと、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積を提供することと、をさらに含む。
いくつかの実施形態では、本方法は、ユーザによって、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積に基づいて、被験者の診断を判定することをさらに含む。
いくつかの実施形態では、本方法は、イメージングシステムを使用するユーザによって、被験者の医用画像を取得することであって、イメージングシステムが、1つ以上の医用イメージングモダリティを使用して医用画像を生成する、取得することと、関心オブジェクトの周囲の推定されたセグメンテーション境界に基づいて、関心オブジェクトのサイズ、表面積、および/または体積を判定することと、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積を提供することと、ユーザによって、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積を受信することと、ユーザによって、(i)関心オブジェクトの周囲の推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積に基づいて、被験者の診断を判定することと、をさらに含む。
いくつかの実施形態では、本方法は、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、(ii)関心オブジェクトのサイズ、表面積、および/もしくは体積、ならびに/または(iii)被験者の診断に基づく化合物による処置をユーザによって投与することをさらに含む。
いくつかの実施形態では、1つ以上のデータプロセッサと、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させる命令を含む非一時的コンピュータ可読記憶媒体と、を含む、システムが提供される。
いくつかの実施形態では、非一時的機械可読記憶媒体に有形に具現化され、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部を実行させるように構成された命令を含むコンピュータプログラム製品が提供される。
本開示のいくつかの実施形態は、1つ以上のデータプロセッサを含むシステムを含む。いくつかの実施形態では、システムは、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させる命令を含む非一時的コンピュータ可読記憶媒体を含む。本開示のいくつかの実施形態は、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させるように構成された命令を含む、非一時的機械可読記憶媒体において有形に具現化されたコンピュータプログラム製品を含む。
使用された用語および表現は、限定ではなく説明の用語として使用され、そのような用語および表現の使用において、示されて説明された特徴の均等物またはその一部を除外する意図はないが、特許請求の範囲に記載された発明の範囲内で様々な変更が可能であることが認識される。したがって、特許請求の範囲に記載された本発明は、実施形態および任意の特徴によって具体的に開示されているが、本明細書に開示された概念の変更および変形は、当業者によってあてにされてもよく、そのような変更および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあると見なされることを理解されたい。
本開示は、以下の添付の図面と併せて説明される:
様々な実施形態にかかる関心オブジェクトのインスタンスをセグメント化するための例示的なコンピューティング環境を示している。
様々な実施形態にかかる、他のコントラストをシミュレートし、訓練データセットの分散を増加させるために使用されるヒストグラムマッチングを示している。
様々な実施形態にかかる例示的なU-Netを示している。
様々な実施形態にかかる関心オブジェクトのインスタンスをセグメント化するためのプロセスを示している。
様々な実施形態にかかる拡散テンソル要素を示している。
様々な実施形態にかかる期待値最大化(EM)セグメンテーション(12クラス)およびオブジェクト検出ステップに使用される部分異方性画像を示している。
様々な実施形態にかかるスライス方向の超解像画像を示している。
様々な戦略を使用したセグメンテーション結果を示している。 様々な戦略を使用したセグメンテーション結果を示している。 様々な戦略を使用したセグメンテーション結果を示している。 様々な戦略を使用したセグメンテーション結果を示している。 様々な戦略を使用したセグメンテーション結果を示している。図6A:3D U-Net。図6B:連結成分前処理によって前景を検出する。図6C:EMセグメンテーション。図6D:EMセグメンテーションによる腎臓検出。図6E:超解像画像上のEMセグメンテーションによる腎臓検出。1行目は、磁気共鳴イメージング(MRI)にオーバーレイされたグラウンドトゥルース手動ラベルを示している。2行目は、グラウンドトゥルースおよびセグメンテーションマスクの透明表面レンダリングを示している。コロナルビューおよびアキシャルビューが対で示されている。3行目は、バイオリンプロットとして示されるダイス類似度係数(DSC)を示している。各セグメンテーション戦略の平均DSCに基づいて、例示的なデータセットが選択された。全てのセグメンテーション結果は、EMセグメンテーションのみであるCを除いて、3D U-Netベースである。破線のボックスは、オブジェクト検出のための領域を示している。スケールバー=4m。
添付の図面において、同様の構成要素および/または特徴は、同じ参照ラベルを有することができる。さらに、同じ種類の様々な構成要素は、参照ラベルの後に同様の構成要素を区別するダッシュおよび第2のラベルを続けることによって区別されることができる。本明細書において第1の参照ラベルのみが使用される場合、説明は、第2の参照ラベルに関係なく、同じ第1の参照ラベルを有する同様の構成要素のいずれかに適用可能である。
I.概要
本開示は、医用画像の自動オブジェクトセグメンテーションのための技術を説明する。より具体的には、本開示の実施形態は、導出されたコントラスト機構に基づくオブジェクト検出によって位置特定された深層学習ネットワークを使用して医用画像内のオブジェクトをセグメント化するための技術を提供する。
コンピュータ断層撮影(CT)またはMRI画像などの背景医用画像からオブジェクト(例えば、器官、病変または腫瘍)の画素を識別する医用画像セグメンテーションは、オブジェクトの形状、サイズ、および体積に関する情報を提供するための医用画像分析における基本的なタスクである。器官の大きさまたは体積の変化は、疾患過程の主な特徴または被験者の他の場所での病理の発現とすることができる。さらに、腫瘍または病変のサイズまたは体積は、癌腫を有する被験者における重要な独立した指標とすることができる(例えば、一次全身療法中の反復サイズ測定値は、最も有効な治療レジメンを選択し、被験者の予後を推定するために使用されることができる応答に関する詳細な情報を生成する)。腫瘍または器官のサイズおよび体積を推定するために、過去に様々な放射線技術および臨床技術が試みられてきたが、ほとんどは、サイズおよび体積の測定値に適した画像を得る際における、許容できない精度、不十分な再現性または困難のために、有用性が限られていた。最近になって、いくつかの定量的プロトコルが開発され、CTおよびMRIなどの様々なイメージングモダリティからの様々な器官、病変、または腫瘍のサイズおよび体積を測定するための有望な結果が実証された。この目的のためのサイズおよび体積データは、通常、時間のかかる手動セグメンテーション方法を使用して取得されている。しかしながら、深層学習技術の有望な能力は、これらの技術を画像セグメンテーション、特に医用画像セグメンテーションの主要な選択肢としており、定量的プロトコルのサイズおよび体積データを取得する実用性を大幅に改善している。
深層学習技術の使用は、オブジェクトセグメンテーションに有益であり、従来の手動および機械学習ベースの手法と比較して大幅な改善を達成するが、オブジェクトセグメンテーションは、MRIおよびCT画像などの医用画像において特に一般的である低コントラストおよび低解像度画像に関しては依然として困難である。この課題の主な理由は、以下に起因する:(i)器官、病変、または腫瘍などのオブジェクトの定義は、オブジェクトの真の輪郭を予測するために深層学習モデルを誤って導いてしまう、低コントラストおよび低解像度画像のぼやけた視覚的同一性および過剰なノイズによって強く影響を受ける、(ii)深層学習アーキテクチャにおける反復プール操作のために、低コントラストおよび低解像度画像では著しく欠けているオブジェクトの意味および画像構造情報を失うことは避けられず、したがって、深層学習モデルの結果は、典型的には、不正確な形状およびオブジェクトの不十分な位置特定を被る、(iii)オブジェクト境界の周囲の画素は、同様の受容野に中心付けられ、深層学習モデルは、画像画素のバイナリラベルを区別するだけであるため、境界知識を深層学習アルゴリズムが学習することは困難である、(iv)多くの医用画像は、エイリアシング効果を防止する大きな視野または背景を有するが、背景が画像の重要な部分を表す場合、深層学習は、関心のある前景オブジェクトをセグメント化するように最適に訓練されていない可能性がある(「背景効果」)、(v)背景には同様の外観のオブジェクトが存在する可能性があり(例えば、肝臓、心臓、腎臓が腫瘍のように見えることがある)、深層学習およびより単純な機械学習アルゴリズムは、これらの構造を区別するように最適に訓練されていない可能性がある。
これらの制限および問題に対処するために、本実施形態の自動化されたオブジェクトセグメンテーションのための技術は、深層学習モデルを使用して関心オブジェクトの位置を特定し、関心オブジェクトを分離し、続いて関心オブジェクトをセグメント化するための導出されたコントラスト機構として、異なる特性(コントラストまたは解像度など、オブジェクト(または画像もしくはディスプレイ内のその表現)を区別可能にする特性)を有する様々なイメージングモダリティおよび/または医用画像の種類を使用する。例えば、第1のイメージングモダリティによって得られたオブジェクトの第1の画像は、第1の画像がオブジェクト検出(オブジェクトおよび分類の周りに粗い粒界を提供する)に使用されることができるように、オブジェクトの一般的な輪郭を提供するために良好に機能する第1の特性(例えば、良好なコントラスト)を有することができる。しかしながら、この第1の画像は、深層学習ネットワークが正確なオブジェクトセグメンテーションのためにオブジェクトのエッジが正確にどこにあるかを正確に判定できないほど不鮮明であるかまたはぼやけている可能性がある。対照的に、第2のイメージングモダリティを使用して取得されたオブジェクトの第2の画像、または同じモダリティの画像特徴/コントラスト機構の第2の画像は、第2の画像がエッジ検出および精細なオブジェクトセグメンテーションに使用されることができるように、オブジェクトの明確に画定された境界を提供するように良好に機能する第2の特性(例えば、高解像度)を有することができる。オブジェクトが第1の画像内で検出されると、オブジェクトの粗い粒界が第2の画像上に投影されて、第2の画像内のオブジェクトを位置特定する。次いで、オブジェクトセグメンテーションの前に第2の画像を切り取るために、第2の画像上のオブジェクトの粗い粒界が使用される。第2の画像の位置特定および切り取りは、背景効果を緩和し、深層学習モデルをオブジェクトのエッジに集中させて、きめ細かいオブジェクトセグメンテーションのための境界知識を学習する。
本開示の例示的な一実施形態は、第1の特性を有する第1の医用画像内の器官、腫瘍、または病変などの関心オブジェクトを(例えば、期待値最大化などのアルゴリズムを使用して)最初に位置特定することと、第2の特性を有する第2の医用画像上に関心オブジェクトの境界ボックスまたはセグメンテーションマスクを投影して、関心オブジェクトを含む第2の医用画像の一部を画定することと、続いて、第2の医用画像の一部を、第2の医用画像の一部をセグメント化し、関心オブジェクトの周りにセグメンテーション境界を生成することができる重み付き損失関数を使用する検出器として構成された畳み込みニューラルネットワークモデルなどの深層学習モデルに入力することと、を含む、方法に関する。セグメンテーション境界は、診断および/または予後を判定するために関心オブジェクトの体積を計算するために使用されることができる。いくつかの例では、計算された体積は、時点にさらに関連付けられてもよい。処置の有効性を判定するために、時点からのオブジェクトの体積が以前の時点からのオブジェクトの体積と比較されることができる。時点分析は、経時的な器官または腫瘍の変化の状況を提供する。さらに、セグメンテーション境界によって画定されたオブジェクト内の特定の内容物は、変化、例えば、より壊死性の内容物または攻撃的な腫瘍タイプを有することができる。いくつかの例では、セグメンテーション境界および対応するセグメント化された領域または体積は、画像強度などの画像メトリックを定量化するために使用されることができる。例えば、PETでは標準化された取り込み値(SUV)があり、またはMRIでは、画像強度などの特定の画像メトリックと相関する拡散性、T2、T1などがあり、したがって、画像メトリックの定量化は、関心オブジェクトに固有のSUVなどの値/メトリックを判定するために使用されることができる。換言すれば、セグメンテーション境界内の体積自体が有用な測定値であり、セグメンテーション境界および対応するセグメント化された領域内の値または測定値も有用な測定値である。
有利には、これらの手法は、深層学習モデルを使用して関心オブジェクトをセグメント化しようとする前に、関心オブジェクトの一般的な領域を検出するために、様々な特性およびオブジェクト検出技術を有する複数の医用画像を利用する。これは、背景効果を低減し、入力データの複雑さを低減し、深層学習モデルをオブジェクトのエッジに集中させて、オブジェクトセグメンテーションのための境界知識を学習する。さらに、入力データの複雑さが低減されることから、深層学習モデルの複雑さが低減されることができる(例えば、畳み込み層あたりのカーネルの数を減らすことによって)。いくつかの例では、深層学習モデルは、セグメンテーション誤差を最小化し、訓練性能の最適化を改善し、オブジェクト検出技術によって判定されるいくつかの一般的な領域において依然として明らかであり得る背景効果をさらに低減する重み付き損失関数によって構築される。
II.定義
本明細書で使用される場合、動作が何かに「基づく」場合、これは、動作が何かの少なくとも一部に少なくとも部分的に基づくことを意味する。
本明細書で使用される場合、「実質的に(substantially)」、「およそ(approximately)」、および「約(about)」という用語は、当業者によって理解されるように、大部分が指定されるものであるが、必ずしも完全には指定されないもの(および完全に指定されるものを含む)として定義される。任意の開示された実施形態では、「実質的に」、「およそ」、または「約」という用語は、指定されたものの「[パーセンテージ]以内」で置き換えられることができ、パーセンテージは、0.1、1、5、および10%を含む。
本明細書で使用される場合、「マスク」は、検出されたオブジェクトの表面積を表す画像を指す。マスクは、1つ以上の関心領域(例えば、1つ以上の検出されたオブジェクト)を示す非ゼロ強度の画素と、背景を示すゼロ強度の画素とを含むことができる。
本明細書で使用される場合、「バイナリマスク」は、各画素値が2つの値(例えば、0または1)のうちの1つに設定されるマスクを指す。ゼロの強度値は、対応する画素が背景の一部であることを示すことができ、非ゼロの強度値(例えば、1の値)は、対応する画素が関心領域の一部であることを示すことができる。
本明細書で使用される「分類」は、入力(例えば、画像または画像の一部)を受け取り、クラス(例えば、「器官」または「腫瘍」)または入力が特定のクラスである確率を出力するプロセスを指す。これは、バイナリ分類(クラスのメンバであるか否か)、マルチクラス分類(1つ以上のクラスに割り当てる)、各クラスにおけるメンバーシップの確率の提供(例えば、この入力が器官である確率は90%である)、および同様の分類スキーマを含むことができる。
本明細書で使用される場合、「オブジェクト位置特定」または「オブジェクト検出」は、画像内の特定のクラスのオブジェクトのインスタンスを検出するプロセスを指す。
本明細書で使用される「境界ボックス」は、画像内の特定のクラスのオブジェクトの一般的な位置を表す長方形のボックスを指す。境界ボックスは、矩形の左上隅および/または右上隅のxおよびy軸座標と、右下隅および/または左下隅のxおよびy軸座標とによって定義されることができる。
本明細書で使用される場合、「セグメンテーション境界」は、画像内のオブジェクトの推定された周囲長を指す。セグメンテーション境界は、オブジェクトのエッジの位置を判定するために画像の特徴が分析されるセグメンテーションプロセス中に生成されることができる。セグメンテーション境界は、バイナリマスクなどのマスクによってさらに表されてもよい。
本明細書で使用される場合、「セグメンテーション」は、画像内のオブジェクトの位置および形状を判定することを指す。セグメンテーションは、画像内のオブジェクトの領域または周囲を描写する画素のセットを判定することを含むことができる。セグメンテーションは、オブジェクトのバイナリマスクなどのマスクを生成することを含むことができる。セグメンテーションは、オブジェクトの3Dマスクを生成するために、オブジェクトに対応する複数のマスクを処理することをさらに含むことができる。
III.導出されたコントラスト機構
被験者の解剖学的構造(例えば、器官または他のヒトもしくは哺乳動物組織)および生理学的プロセスのイメージング手順の目標は、良好な空間分解能を有する画像コントラストの生成である。医用イメージングの初期の発展は、従来のMRIの背後にある主要原理である信号コントラスト生成のための組織(プロトン)密度関数および組織緩和特性に焦点を当てた。MRIは、水分子のプロトンからの信号を検出するが、各画素が1つの整数値を含むグレースケール画像を提供することしかできない。2つの解剖学的領域AおよびBが異なる物理的または化学的特性を有する水分子を含有しない限り、これらの2つの領域は、MRIによって互いに区別されることができない。そうでなければ、画像の解像度がいくら高くても、領域Aは、領域Bと区別がつかない。水分子の物理的性質に基づいてMRコントラストを生成するために、プロトン密度(PD)、T1およびT2緩和時間、ならびに拡散係数(D)が広く使用されている。PDは、水分濃度を表す。T1およびT2は、励起後の信号緩和(減衰)時間であり、粘度および近くの高分子の存在などの環境要因に関連する。拡散項Dは、水分子の熱(またはブラウン)運動を表す。
組織(プロトン)密度関数および組織弛緩特性に最初に注目した後、研究者らは、水分子の他の特性を利用してコントラストを生成する他の方法を調査した。拡散イメージング(DI)は、これらの研究努力の結果であった。DIでは、画像取得中に補足MR勾配が適用される。これらの勾配の適用中のプロトンの動きは、画像内の信号に影響を及ぼし、それによって分子拡散に関する情報を提供する。DIは、拡散スペクトルイメージング(DSI)および拡散強調イメージング(DWI)を含むいくつかの技術を使用して実行されることができる。
DWIは、特殊なソフトウェアと組み合わせて既存のMRI技術を使用し、追加のハードウェア機器、造影剤、または化学トレーサを必要としない、組織の構造内の水拡散に対する感度を有する非侵襲的イメージング方法である。MRIを使用して拡散を測定するために、補足MR勾配を使用して、特定の方向の拡散に敏感な画像を作成する。DWIでは、各画像要素(ボクセル)の強度は、特定の方向における水拡散速度の最良の推定値を反映する。しかしながら、生体組織は、高度に異方性であり、これはそれらの拡散速度が全ての方向で同じではないことを意味する。ありふれたDWIの場合、組織の異方性は無視されることが多く、拡散は、見かけの拡散係数(ADC)である単一の平均値に低減されるが、これは、多くのユースケースにとって過度に単純である。代替方法は、拡散テンソルである、方向の各組み合わせにおける拡散速度に対応する数の[3×3]配列を使用して、複合材料における拡散をモデル化することである。3つの対角要素(Dxx,Dyy,Dzz)は、主要な(x-、y-およびz-)実験室軸のそれぞれに沿って測定された拡散係数を表す。6つの非対角項(Dxy、Dyxなど)は、主方向の各対の間のランダムな運動の相関を反映する。
拡散テンソルモデルの導入は、拡散テンソル画像化(DTI)を特徴付ける異方性度および構造配向の間接的な測定を可能にする。DTIの背後にある基本概念は、水分子がそのタイプ、完全性、構造、およびバリアの存在に応じて組織に沿って異なるように拡散し、その配向および定量的異方性に関する情報を与えることである。DTI分析により、各ボクセルにおいて、分子拡散速度(平均拡散率(MD)または見かけの拡散係数(ADC))、拡散の方向優先度(異方性比率(FA))、軸方向拡散率(AD)(拡散の主軸に沿った拡散速度)、および半径方向拡散率(RD)(横方向の拡散速度)などの特性を推測することが可能である。DTIは、通常、テンソルに含まれる情報を1つの数(スカラ)または4つの数(R、G、Bの色および色分数異方性として知られる輝度値を与える)に凝縮することによって表示される。拡散テンソルは、主要な固有ベクトルまたはテンソル全体の小さな三次元(3D)表現であるグリフを使用して見ることもできる。
MRIおよびDTIと同様に、CT、X線、陽電子放射断層撮影(PET)、光音響断層撮影(PAT)、ソノグラフィ、PET-CT、PET-MRなどのそれらの組み合わせなどの医用イメージングの他のモダリティは、画像コントラストおよび空間分解能を生成するために様々な測定値、アルゴリズム、および薬剤に依存する。例えば、CTおよびX線は、空気、軟組織、および骨などの高密度構造を区別するためにX線吸収を使用する。体内の高密度構造はX線を停止し、したがって容易にイメージングおよび視覚化されるが、軟組織はX線を停止する能力が異なり、したがって、イメージングして視覚化されることがかすかであるかまたは困難であり得る。X線またはCTスキャンにおける画像コントラストを高めるための1つの技術は、X線を停止させてX線またはCT画像上でより見えるようにする物質をより良好に含む造影剤を利用することであり、したがって、血管などの軟組織をより良好に視覚化するために使用されることができる。PETは、スキャンで検出および測定されることができる放射性トレーサと呼ばれる少量の放射性物質を使用する。放射性トレーサで蓄積または標識された領域と非蓄積または非標識領域との間の測定差は、コントラストを生成して被験者内の構造および機能を視覚化するために使用される。PATは、光音響(PA)効果に基づくイメージングモダリティである。短パルス光源は、典型的には、組織を照射するために使用され、広帯域PA波をもたらす。光の吸収に続いて、初期温度上昇は圧力上昇を誘発し、圧力上昇は光音響波として伝播し、超音波トランスデューサによって検出されて光吸収コントラストをイメージングする。超音波は、体内をイメージングするために使用される非侵襲的診断技術である。トランスデューサは、音波ビームを身体内に送出する。音波は、ビームの経路内の組織間の境界(例えば、流体と軟組織または組織と骨との間の境界)によってトランスデューサに反射される。これらのエコーがトランスデューサに当たると、エコーは超音波スキャナに送信される電気信号を生成する。音速および各エコーが戻る時間を使用して、スキャナは、トランスデューサから組織境界までの距離を計算する。次いで、これらの距離を使用してコントラストを生成し、組織および器官を視覚化する。
これらのイメージングモダリティの全ては、臨床分析、医学的介入、および/または医学的診断のための体内の表現、ならびにいくつかの器官または組織の機能の視覚的表現を視覚化するのに十分な空間分解能を有する画像コントラストを生成する。しかしながら、本明細書で説明するように、これらのイメージングモダリティのそれぞれによって個別に提供される画像コントラストおよび空間解像度は、深層学習ネットワークによって実行される正確なオブジェクトセグメンテーション、特にサイズおよび体積データを取得するために使用されるオブジェクトセグメンテーションには十分ではない。この制限および他の制限を克服するために、本明細書に記載の技術は、イメージングモダリティ、画像の種類、および/または様々な特性の組み合わせを使用して、深層学習モデルを使用して関心オブジェクトを位置特定し、関心オブジェクトを分離し、続いて関心オブジェクトをセグメント化する。具体的には、いくつかのイメージングモダリティ、画像の種類、および/または特性は、オブジェクトセグメンテーションと比較してオブジェクト検出によってより良好に機能することが発見されている。一方、他のイメージングモダリティ、画像の種類、および/または特性は、オブジェクトセグメンテーションによって良好に機能する。どのイメージングモダリティ、画像の種類、および/または特性がどのコンピュータビジョンタスク(例えば、オブジェクト検出またはオブジェクトセグメンテーション)により適しているかを識別することによって、これらの差を導出されたコントラスト機構として利用することが可能である。
導出されたコントラスト機構によって利用されることができる画像の特性は、輝度、コントラスト、および空間解像度を含む。輝度(または発光輝度)は、画像がデジタルカメラで取得された後、またはアナログ-デジタル変換器によってデジタル化された後の画素アレイにわたる相対強度値の尺度である。相対強度値が高いほど画素が明るくなり、一般的に画像がより白く見える。一方、相対強度値が低いほど画素が暗くなり、一般的に画像がより黒く見える。コントラストとは、アナログ画像とデジタル画像の双方における様々な画像特徴の間に存在する区別を指す。画像内の区別は、グレー、光強度、または色の異なる色調の形態とすることができる。より高いコントラストレベルを有する画像は、一般に、より低いコントラストの画像よりも大きな度合いのグレースケール、色、または強度変動を表示する。空間分解能は、デジタル画像の構築に利用される画素の数を指す。空間解像度が高い画像は、空間解像度が低い画像よりも多くの画素によって構成される。
導出されたコントラスト機構は、以下を備える:(i)関心オブジェクトを検出するために使用される特性(例えば、DTI-FA)を有する画像を取得することができる第1のイメージングモダリティと、(ii)関心オブジェクトをセグメント化するために使用される特性(例えば、DTI-MD)を有する画像を取得することができる第2のイメージングモダリティ。様々なイメージングモダリティ、画像の種類、および/または特性が組み合わせられて、各コンピュータビジョンタスク(例えば、オブジェクト検出またはオブジェクトセグメンテーション)を改善することができる。様々な実施形態では、導出されたコントラスト機構のイメージングモダリティは、MRIまたはDTIなどの同じものである。いくつかの実施形態では、第1の特性を有する第1の画像および第2の特性を有する第2の画像を取得するためにイメージングモダリティが使用され、第1の画像は第2の画像とは異なる。例えば、MRIを使用して、被験者の拡散テンソルパラメトリックマップを取得することができる。拡散テンソルパラメトリックマップは、FAマップなどの第1の測定マップと、MDマップなどの第2の測定マップとを含むことができる。いくつかの実施形態では、第1の特性を有する第1の画像および第2の特性を有する第2の画像を取得するためにイメージングモダリティが使用され、第1の特性は第2の特性とは異なる。例えば、被験者に対する複数のCTスキャンを取得するために、CTが使用されてもよい。CTスキャンは、低解像度CTスキャンなどの第1のCTスキャンと、高解像度CT(HRCT)スキャンなどの第2のCTスキャンとを含むことができる。あるいは、被験者の拡散テンソルパラメトリックマップを取得するために、MRIが使用されてもよい。拡散テンソルパラメトリックマップは、低解像度MDマップなどの第1のMDマップと、高解像度MDマップなどの第2のMDマップとを含むことができる。他の実施形態では、導出されたコントラスト機構のイメージングモダリティは、PATおよび超音波など異なる。PATは、第1の特性を有する第1の種類の画像を取得するために使用されてもよく、超音波は、第2の特性を有する第2の種類の画像を取得するために使用されてもよく、第1の種類の画像および第1の特性は、第2の種類の画像および第2の特性とは異なる。
異なる種類のイメージングモダリティ、画像の種類、および特性を使用して導出されたコントラスト機構の具体例は、以下を含む。
(A)MRI
腎臓のセグメンテーション:(i)オブジェクト検出のためのFA測定マップ(異方性比率によるコントラスト);(ii)オブジェクトセグメンテーションのためのMD測定マップ(平均拡散率によって生成されたコントラスト)またはT2強調解剖学的画像(励起後の信号緩和時間から生成されたコントラスト)。
多発性硬化症脳病変セグメンテーション:(i)オブジェクト検出のための単一エコーT2画像(励起後の信号緩和時間の単一ショットエコー平面イメージングから生成されたコントラスト);(ii)オブジェクトセグメンテーションのためのエコー強調またはT2強調解剖学的画像(励起後の信号緩和時間を強調するために使用される低いフリップ角、長いエコー時間、および長い繰り返し時間から生成されるコントラスト)。
肝臓のセグメンテーション:(i)オブジェクト検出のためのMD測定マップ(平均拡散率によって生成されたコントラスト)、および(ii)オブジェクトセグメンテーションのための高解像度MD測定マップ(高解像度および平均拡散率によって生成されたコントラスト)、T2強調解剖学的画像(励起後の信号緩和時間から生成されたコントラスト)またはPD(水濃度から生成されたコントラスト)。
(B)CT
肺および肝臓腫瘍のセグメンテーション:(i)肺または肝臓のオブジェクト検出のためのCTスキャン(低解像度)、および(ii)腫瘍のオブジェクトセグメンテーションのためのCTスキャン(HRCT)。
骨梁骨:(i)小柱腔(非皮質骨)のオブジェクト検出のためのCTスキャン(低解像度)、および(ii)小柱のオブジェクトセグメンテーションのためのCTスキャン(HRCT)。
(C)PET
腫瘍または器官の検出:(i)オブジェクト検出のためのPET高コントラスト/低解像度(放射性トレーサ測定値によって生成されたコントラスト)、および(ii)オブジェクトセグメンテーションのためのPET-CTまたはPET-MR高コントラスト/高解像度(放射性トレーサ測定値によって生成されたコントラスト)。
(D)光音響断層撮影(光超音波技術)
腫瘍または器官の検出:(i)オブジェクト検出のためのPAT(光吸収によって生成されたコントラスト)、および(ii)オブジェクトセグメンテーションのための超音波(トランスデューサと組織境界との間のエコー戻り距離から生成されたコントラスト)。
MRI、CT、PAT、PETなどに関する実施例および実施形態は、例示のみを目的として本明細書に記載されており、代替のイメージングモダリティ(例えば、蛍光透視法、磁気共鳴血管造影法(MRA)、およびマンモグラフィ)は、本開示の態様にかかる様々な導出されたコントラスト機構を実装するために当業者に提案されることを理解されたい。さらに、これらのイメージングモダリティのいずれかのパラメータは、身体の異なる構造または領域を捕捉するように(例えば、異なるトレーサ、角度構成、波長など)変更されることができ、これらのタイプの変更されたイメージング技術の1つ以上は、本開示の態様にかかる様々な導出されたコントラスト機構を実装するための1つ以上の他のイメージング技術と組み合わせられることができる。
IV.医用画像をセグメント化するための技術
MRI画像のセグメント化は、2つの部分に分割される。セグメント化の第1の部分は、第1の画像(例えば、拡散テンソルパラメトリックマップまたはCT画像)内のクラスの位置特定(オブジェクト検出)を実行するように構築された第1の視覚モデルに関する。これらのクラスは「意味的に解釈可能」であり、肝臓、腎臓、心臓などの現実世界のカテゴリに対応する。位置特定は、EMを使用して実行され、一度だけ見る(YOLO)または(YOLOv2)または(YOLOv3)、あるいは標準的なクラスタリング技術(例えば、k平均クラスタリング技術、Otsuの方法、Density-Based Spatial Clustering of Applications with Noise(DBSCAN)技術、ミニバッチK平均技術など)で発見的に初期化される同様のオブジェクト検出アルゴリズムを使用する。初期化は、各クラスの尤度モデルのパラメータの初期推定値を提供するために使用される。期待値最大化は、1つ以上の統計モデルにおけるパラメータの(局所的な)最尤または最大事後(MAP)推定値を見つけるための反復プロセスである。EM反復は、パラメータの現在の推定値を使用して評価された対数尤度の期待値の関数を形成する期待値(E)ステップと、Eステップで見つかった期待値対数尤度を最大化するパラメータを計算する最大化(M)ステップとを交互に実行する。次いで、次のEステップにおける潜在変数の分布を判定するために、これらのパラメータ推定値が使用される。位置特定の結果は、クラスごとの確率で各オブジェクトの周りの境界ボックスまたはセグメンテーションマスクである。関心オブジェクト(例えば、腎臓)の一般的な位置特定は、関心オブジェクトに関連付けられたクラスのうちの1つ以上を使用して分離される。
医用画像の背景効果を軽減するために、関心オブジェクトの境界ボックスまたはセグメンテーションマスクは、スライス方向(アキシャル、コロナル、およびサジタル)に第2の画像(例えば、拡散テンソルパラメトリックマップまたはCT画像)上に投影される。セグメンテーションマスクを判定するために位置特定が使用される場合、投影されたセグメンテーションマスクの境界は、関心オブジェクト(例えば、腎臓)の一般的な位置の周りの第2の画像内の境界ボックス(関心オブジェクトに関連付けられた画素単位のマスクの周りに完全に描写された長方形のボックス)を画定するために使用される。いくつかの例では、境界ボックス(位置特定によって判定されるか、または投影されたセグメンテーションマスクの境界に基づいて画定される)は、関心オブジェクトのカバレッジを保証するために、全ての側で所定数の画素だけ拡大される。次いで、境界ボックス内の領域は、第2の画像から切り取られて、関心オブジェクトを有する第2の画像の一部を取得し、第2の画像の一部は、関心オブジェクトをセグメント化するための第2の視覚モデルへの入力として使用される。セグメント化の第2の部分は、関心オブジェクトと背景との間の不均衡性を克服し、したがって関心オブジェクトのセグメント化を評価することに焦点を当てるために、重み付き損失関数(例えば、ダイス損失)によって構築された第2の視覚モデル(深層学習ニューラルネットワーク)に関する。さらに、第2の視覚モデルは、深層学習ニューラルネットワークが医用画像の限定されたセットで訓練されることができるように、拡張データセットを使用して訓練されることができる。訓練された第2の視覚モデルは、第2の画像の切り取られた部分を入力として取り込み、関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部を出力する。推定されたセグメンテーション境界は、関心オブジェクトの体積、表面積、アキシャル寸法、最大アキシャル寸法、または他のサイズ関連メトリックを計算するために使用されることができる。次いで、被験者の診断および/または予後を判定するために、これらのメトリックのいずれか1つ以上が単独で、または他の因子と組み合わせて使用されてもよい。
IV.A.例示的なコンピューティング環境
図1は、様々な実施形態にかかる、多段セグメンテーションネットワークを使用して画像内の関心オブジェクトのインスタンスをセグメント化するための例示的なコンピューティング環境100(すなわち、データ処理システム)を示している。図1に示すように、この例におけるコンピューティング環境100によって実行されるセグメント化は、いくつかの段階、すなわち、画像取得段階105、モデル訓練段階110、オブジェクト検出段階115、セグメンテーション段階120、および分析段階125を含む。
画像取得段階110は、被験者の様々な部分の画像135(例えば、MR画像)を取得するための1つ以上のイメージングシステム130(例えば、MRIイメージングシステム)を含む。イメージングシステム130は、画像135を取得するために、X線ラジオグラフィ、蛍光透視法、MRI、超音波、核医学機能的イメージング(例えば、PET)、サーモグラフィ、CT、マンモグラフィなどのような1つ以上の放射線イメージング技術を使用するように構成される。イメージングシステム130は、イメージングシステム130のそれぞれに関連する特性(例えば、輝度、コントラスト、および空間解像度)に基づいて被験者内の様々な構造および機能の間の差を判定し、一連の二次元画像を生成することができる。一連の二次元画像がスキャナのコンピュータによって収集されると、二次元画像は、被験者または被験者の一部の三次元画像を再構成するためにコンピュータ分析によって一緒にデジタル的に「積層」されることができる。二次元画像および/または再構成三次元画像135は、基本構造(例えば、器官)ならびに可能性のある腫瘍または異常のより容易な識別および位置特定を可能にする。各二次元画像および/または再構成三次元画像135は、セッション時間および被験者に対応し、被験者の内部領域を描写することができる。各二次元画像および/または再構成三次元画像135は、さらに、標準化されたサイズ、解像度、および/または倍率であってもよい。
いくつかの実施形態では、1つ以上のイメージングシステム130は、画像取得中に補足MR勾配を適用するように構成されたDIシステム(例えば、特別なソフトウェアを備えたMRIシステム)を含む。これらの勾配の適用中のプロトンの動きは、画像内の信号に影響を及ぼし、それによって分子拡散に関する情報を提供する。DTI行列は、様々な勾配方向の一連の拡散強調画像から得られる。3つの拡散性パラメータまたは固有値(λ1、λ2、λ3)は、行列対角化によって生成される。拡散度は、組織の幾何学的形状に関連する特定のボクセル(画像内の最小の体積要素)における水の拡散を表すスカラ指数である。様々な拡散イメージング技術を使用して、拡散テンソルパラメトリックマップおよび拡散度からの追加の画像コントラストを計算することができる。これらのマップによって表されるDTI特性または指数は、分子拡散速度(MDマップまたはADCマップ)、拡散の方向優先度(FAマップ)、ADマップ(拡散の主軸に沿った拡散速度)、およびRDマップ(横方向の拡散速度)を含むことができる(ただし、これらに限定されない)。DTI行列対角化によって得られた拡散性(λ1、λ2、λ3)は、組織に対して平行成分(λ1)および垂直成分(λ2およびλ3)に区切られることができる。拡散度の合計(λ1、λ2、λ3)はトレースと呼ばれ、その平均(=トレース/3)はMDまたはADCと呼ばれる。異方性比率(FA)は、ボクセル内の拡散非対称性の量の指標であり、その拡散性(λ1、λ2、λ3)に関して定義される。FAの値は、0と1との間で変化する。完全等方性拡散の場合、λ1=λ2=λ3であり、拡散楕円体は球であり、FA=0である。拡散異方性が進行すると、固有値が不均等になり、楕円体が細長くなり、FA→1となる。軸方向拡散性(AD)、λ|≡λ1>λ2、λ3は、関心ボクセル内の管路に平行に拡散する水分子の平均拡散係数を表す。同様に、半径方向拡散率(RD)λ┴≡(λ2+λ3)/2は、主固有ベクトルに垂直な水拡散の大きさとして定義されることができる。
画像135は、1つ以上の関心オブジェクトを描写する。関心オブジェクトは、領域(例えば、腹部)、器官(例えば、腎臓)、病変/腫瘍(例えば、悪性肝臓腫瘍または脳病変)、代謝機能(例えば、肝臓における血漿タンパク質の合成)などの被験者内の任意の「もの」とすることができる。いくつかの例では、複数の画像135は、複数の画像135のそれぞれが関心オブジェクトの仮想「スライス」に対応することができるように、関心オブジェクトを描写する。複数の画像135のそれぞれは、各画像135が、被験者および関心オブジェクトに対応する他の画像135に描写された他の平面に平行な平面を描くように、同じ視野角を有することができる。複数の画像135のそれぞれは、平面に対する垂直軸に沿った異なる距離にさらに対応することができる。いくつかの例では、関心オブジェクトを描写する複数の画像135は、各画像を位置合わせし、関心オブジェクトの三次元画像構造を生成するために前処理ステップを受ける。
いくつかの実施形態では、画像135は、被験者の1つ以上の関心オブジェクトを示す拡散テンソルパラメトリックマップを含む。特定の例では、少なくとも2つの拡散テンソルパラメトリックマップ(例えば、第1の拡散テンソルパラメトリックマップおよび第2の拡散テンソルパラメトリックマップ)が関心オブジェクトに対して生成される。拡散テンソルパラメトリックマップは、DTIシステムによって生成され、関心オブジェクトにさらなる状況を提供するために水分子の拡散の速度および/または方向を記述することができる。各拡散テンソルパラメトリックマップが異なる方向に対応するように、2つ以上の拡散テンソルパラメトリックマップが生成されることができる。例えば、拡散テンソルパラメトリックマップは、FAを表す画像、MDを表す画像、ADを表す画像、および/またはRDを表す画像を含むことができる。拡散テンソルパラメトリックマップのそれぞれは、対応するMR画像として同じ平面および平面の垂直軸に沿った同じ距離を描写する視野角をさらに有することができ、その結果、関心オブジェクトの仮想「スライス」を描写する各MR画像は、関心オブジェクトの同じ仮想「スライス」を描写する対応する拡散テンソル画像を有する。
モデル訓練段階110は、他の段階によって使用されるべき1つ以上のモデル140a~140n(「n」は任意の自然数を表す)(本明細書では個別にモデル140と呼ばれてもよく、まとめてモデル140と呼ばれてもよい)を構築して訓練する。モデル140は、例えば、初期ニューラルネットワークなどの畳み込みニューラルネットワーク(「CNN」)、残差ニューラルネットワーク(「Resnet」)、U-Net、V-Net、シングルショットマルチボックス検出器(「SSD」)ネットワーク、または例えば、長期短期記憶(「LSTM」)モデルもしくはゲーティッドリカレントユニット(「GRU」)モデルなどのリカレントニューラルネットワーク(「RNN」)、またはそれらの任意の組み合わせなどの機械学習(「ML」)モデルとすることができる。モデル140はまた、三次元CNN(「3DCNN」)、動的時間圧伸(「DTW」)技術、隠れマルコフモデル(「HMM」)など、またはそのような技術のうちの1つもしくは複数の組み合わせ、例えば、CNN-HMMもしくはMCNN(マルチスケール畳み込みニューラルネットワーク)など、画像からのオブジェクト検出および/またはセグメンテーションにおいて訓練された任意の他の適切なMLモデルとすることができる。コンピューティング環境100は、関心オブジェクトのインスタンスをセグメント化するために、同じタイプのモデルまたは異なるタイプのモデルを使用することができる。いくつかの例では、モデル140は、本明細書でさらに詳細に説明するように、大きな視野または背景と関心のある小さな前景オブジェクトとの間の各画像内の不均衡な性質を補償する重み付き損失関数で構成される。
この例でモデル140を訓練するために、サンプル145は、デジタル画像を取得し、画像を訓練用の画像のサブセット145a(例えば、90%)と検証用の画像のサブセット145b(例えば、10%)とに分割し、画像のサブセット145aと画像のサブセット145bとを前処理し、画像のサブセット145aを増補し、いくつかの例では画像のサブセット145aにラベル150で注釈を付けることによって生成される。画像のサブセット145aは、1つ以上のイメージングモダリティ(例えば、MRIおよびCT)から取得される。いくつかの例では、画像のサブセット145aは、1つ以上のイメージングモダリティに関連するデータベース、画像システム(例えば、1つ以上のイメージングシステム130)などのデータ記憶構造から取得される。各画像は、橈側領域、胸部領域、腹部領域、骨盤領域、脾臓、肝臓、腎臓、脳、腫瘍、病変などの1つ以上の関心オブジェクトを示す。
分割は、ランダムに(例えば、90/10%または70/30%)実行されてもよく、または、分割は、サンプリングバイアスおよびオーバーフィッティングを最小限に抑えるために、K-分割交差検証、一個抜き交差検証、一群抜き交差検証、入れ子交差検証などのより複雑な検証技術に従って実行されてもよい。前処理は、各画像が単一の関心オブジェクトのみを含むように画像を切り取ることを含むことができる。いくつかの例では、前処理は、全ての特徴を同じスケール(例えば、同じサイズスケールまたは同じカラースケールまたは彩度スケール)に置くための標準化または正規化をさらに含むことができる。特定の例では、画像は、所定の画素(例えば、2500画素)の最小サイズ(幅または高さ)または所定の画素(例えば、3000画素)の最大サイズ(幅または高さ)でサイズ変更され、元のアスペクト比を維持する。
増強を使用して、データセット内に画像の修正バージョンを作成することによって、画像のサブセット145aのサイズを人工的に拡大することができる。画像データ増強は、元の画像と同じクラスに属するデータセット内の画像の変換バージョンを作成することによって実行されることができる。変換は、シフト、フリップ、ズームなどの画像操作の分野からの動作の範囲を含む。いくつかの例では、動作は、モデル140が画像のサブセット145aから利用可能な状況外の状況下で実行することができることを保証するために、ランダム消去、シフト、輝度、回転、ガウスぼかし、および/または弾性変換を含む。
追加的または代替的に、増強を使用して、訓練中にモデル140が入力として取り込むことができるデータセット内の多数の画像を人工的に増強することができる。いくつかの例では、訓練データセット(すなわち、画像のサブセット145a)の少なくとも一部は、1人以上の被験者の領域に対応する第1の画像セットと、同じまたは異なる被験者の異なる領域に対応する第2の画像セットとを含むことができる。例えば、腹部領域に対応する画像の少なくとも第1のサブセットが腹部領域内の1つ以上の関心オブジェクトを検出するために使用される場合、頭部領域に対応する画像の第2のサブセットも訓練データセット内に含まれることができる。そのような場合、1人以上の被験者の領域に対応する第1の画像セットは、訓練データセット内の同じまたは異なる被験者の異なる領域に対応する第2の画像セットにヒストグラムマッチングされる。前の例に関して、橈側領域に対応する画像のヒストグラムは参照ヒストグラムとして処理されることができ、次いで、腹部領域に対応する画像のヒストグラムは参照ヒストグラムとマッチングされる。ヒストグラムマッチングは、ヒストグラムの処理がヒストグラムの画素強度、画素色、および/または画素輝度を参照ヒストグラムの画素強度、画素色、および/または画素輝度にマッチングすることを伴うように、画素強度、画素色、および/または画素輝度に基づくことができる。
注釈付けは、画像のサブセット145aの各画像内の1つ以上の関心オブジェクトの存在を確認し、例えば、注釈ソフトウェアを使用して、1つ以上の関心オブジェクトを含むように人間によって確認された領域の周りに境界ボックス(グラウンドトゥルース)またはセグメンテーション境界を描画するなど、1つ以上の関心オブジェクトにラベル150を提供する1人以上の人間(放射線科医または病理学者などの注釈者)によって手動で実行されることができる。特定の例では、境界ボックスまたはセグメンテーション境界は、関心オブジェクトである確率が50%を超える事例についてのみ描画されることができる。複数の注釈者によって注釈付けされる画像については、全ての注釈者からの境界ボックスまたはセグメンテーション境界が使用されてもよい。いくつかの例では、注釈データは、関心オブジェクトの種類をさらに示すことができる。例えば、関心オブジェクトが腫瘍または病変である場合、注釈データは、肝臓、肺、膵臓、および/または腎臓の腫瘍または病変などの腫瘍または病変の種類を示すことができる。
いくつかの例では、画像のサブセット145は、訓練データセット(すなわち、画像のサブセット145a)内に含まれるように注釈者デバイス155に送信されてもよい。入力は、(例えば)画像が関心オブジェクト(例えば、病変、器官など)を描写するか否か;画像内に描写された関心オブジェクトの数;および画像内の描写された各関心オブジェクトの周囲(境界ボックスまたはセグメンテーション境界)を示す(例えば)マウス、トラックパッド、スタイラスおよび/またはキーボードを使用して(例えば、放射線科医によって)注釈者デバイス155に提供されることができる。注釈者デバイス155は、提供された入力を使用して各画像のラベル150を生成するように構成されることができる。例えば、ラベル150は、画像内に描写されたオブジェクトの数;描写された関心オブジェクトごとのタイプ分類;特定の種類の描写された各オブジェクトの数;画像内の1つ以上の識別された関心オブジェクトの周囲および/またはマスクを含むことができる。いくつかの例では、ラベル150は、第1の種類の画像および第2の種類の画像に重ね合わされた、1つ以上の識別された関心オブジェクトの周囲および/またはマスクをさらに含むことができる。
モデル140の訓練プロセスは、モデル140のハイパーパラメータを選択することと、モデル140の損失または誤差関数を最小化するモデルパラメータ(例えば、重みおよび/またはバイアス)のセットを見つけるために、画像のサブセット145aからモデル140に画像を入力する反復動作を実行することとを含む。ハイパーパラメータは、モデル140の挙動を制御するために調整または最適化されることができる設定である。ほとんどのモデルは、メモリまたは実行コストなどのモデルの異なる態様を制御するハイパーパラメータを明示的に定義する。しかしながら、モデルを特定のシナリオに適合させるために、追加のハイパーパラメータが定義されることができる。例えば、ハイパーパラメータは、モデルの隠れユニットの数、モデルの学習率、畳み込みカーネル幅、またはモデルのカーネルの数を含むことができる。いくつかの例では、本明細書で詳細に説明するように、モデルパラメータの数は、畳み込み層および逆畳み込み層ごとに減少し、および/またはカーネルの数は、畳み込み層および逆畳み込み層ごとに、典型的なCNNと比較して半分だけ減少する。訓練の各反復は、モデルパラメータのセットを使用する損失または誤差関数の値が、前の反復におけるモデルパラメータの異なるセットを使用する損失または誤差関数の値よりも小さくなるように、(ハイパーパラメータの定義されたセットによって構成された)モデル140のモデルパラメータのセットを見つけることを含むことができる。損失または誤差関数は、モデル140を使用して推論された出力(いくつかの例では、関心オブジェクトの1つ以上のインスタンスの周りのセグメンテーション境界は、ダイス類似度係数を用いて測定される)と、ラベル150を使用して画像に注釈付けされたグラウンドトゥルースセグメンテーション境界との間の差を測定するように構築されることができる。
モデルパラメータのセットが識別されると、モデル140は、訓練されており、画像のサブセット145a(試験または検証データセット)を使用して検証されることができる。検証プロセスは、ハイパーパラメータを調整し、最終的に最適なハイパーパラメータのセットを見つけるために、K-分割交差検証、一個抜き交差検証、一群抜き交差検証、入れ子交差検証などの検証技術を使用して、画像のサブセット145bからモデル140に画像を入力する反復動作を含む。最適なハイパーパラメータのセットが得られると、画像のサブセット145bからの画像の予約されたテストセットがモデル145に入力されて出力(この例では、1つ以上の関心オブジェクトの周りのセグメンテーション境界)を取得し、Bland-Altman法およびスピアマンのランク相関係数などの相関技術を使用し、誤差、精度、適合率、再現率、受信機動作特性曲線(ROC)などの性能メトリックを計算して、出力がグラウンドトゥルースセグメンテーション境界に対して評価される。
理解されるべきであるように、他の訓練/検証機構が想定され、コンピューティング環境100内に実装されてもよい。例えば、モデルは、訓練されてもよく、ハイパーパラメータは、画像のサブセット145aからの画像上で調整されてもよく、画像のサブセット145bからの画像は、モデルの性能を試験および評価するためにのみ使用されてもよい。さらに、本明細書において説明される訓練機構は、新たなモデル140を訓練することに焦点を当てている。これらの訓練機構はまた、他のデータセットから訓練された既存のモデル140を微調整するために利用されることができる。例えば、いくつかの例では、モデル140は、他のオブジェクトもしくは生物学的構造の画像を使用して、または他の被験者もしくは研究(例えば、ヒト試験またはマウス実験)からの切片から事前訓練されていてもよい。それらの場合、モデル140は、転移学習に使用され、画像135を使用して再訓練/検証されることができる。
モデル訓練段階110は、1つ以上の訓練されたオブジェクト検出モデル160および1つ以上の訓練されたセグメンテーションモデル165を含む訓練されたモデルを出力する。第1の画像135は、オブジェクト検出段階115内の位置特定コントローラ170によって取得される。第1の画像135は、関心オブジェクトを描写する。いくつかの例では、第1の画像は、FAまたはMDコントラストなどの第1の特性を有する拡散テンソルパラメトリックマップである。他の例では、第1の画像は、単一エコーT2コントラストまたはT2強調解剖学的コントラストなどの第1の特性を有するMR画像である。他の例では、第1の画像135は、低解像度または高解像度などの第1の特性を有するCT画像である。他の例では、第1の画像135は、造影剤などの第1の特性を有するCT画像である。他の例では、第1の画像135は、放射性トレーサコントラストまたは低解像度などの第1の特性を有するPET画像である。他の例では、第1の画像135は、放射性トレーサコントラストまたは高解像度などの第1の特性を有するPET-CT画像である。他の例では、第1の画像135は、放射性トレーサコントラストまたは高解像度などの第1の特性を有するPET-MR画像である。他の例では、第1の画像135は、光吸収コントラストなどの第1の特性を有するPAT画像である。他の例では、第1の画像135は、組織境界距離までのエコーまたはトランスデューサなどの第1の特性を有する超音波画像である。
位置特定コントローラ170は、1つ以上のオブジェクト検出モデル160を使用して、画像135内の関心オブジェクトを位置特定するためのプロセスを含む。位置特定は、以下を含む:(i)オブジェクト検出モデル160を使用して、第1の特性を有する第1の画像内のオブジェクトを位置特定して複数のオブジェクトクラスに分類することであって、分類することが、第1の画像の画素またはボクセルのセットを複数のオブジェクトクラスのうちの1つ以上に割り当てる、位置特定および分類することと、(ii)オブジェクト検出モデル160を使用して、複数のオブジェクトクラスのオブジェクトクラスに割り当てられた画素またはボクセルのセットに基づいて、第1の画像内の関心オブジェクトの境界ボックスまたはセグメンテーションマスクを判定すること。オブジェクト検出モデル160は、第1の画像内のオブジェクトの位置を特定してラベル付けするために使用される統計的特徴を抽出し、関心オブジェクトの境界ボックスまたはセグメンテーションマスクを予測するために、1つ以上のオブジェクト検出アルゴリズムを利用する。
いくつかの例では、位置特定は、EM、YOLO、YOLOv2、YOLOv3、または標準的なクラスタリング技術(例えば、K平均またはOtsuの方法)でヒューリスティックに初期化される同様のオブジェクト検出アルゴリズムを使用して実行される。初期化は、各クラスの尤度モデルのパラメータの初期推定値を提供するために使用される。例えば、K平均クラスタリング技術でEMを使用する場合、固定数のk個のクラスタが与えられると、(全ての変数について)クラスタにわたる平均が可能な限り互いに異なるように、観測値がk個のクラスタに割り当てられる。次いで、EMクラスタリング技術は、各クラスタ(クラス)のパラメータの初期推定値でパラメータ化された1つ以上の事前確率分布に基づいて、クラスタのメンバーシップおよびクラスタ境界の事後確率を計算する。EMクラスタリング技術の目的は、(最終的な)クラスタを考慮して、データの全体的な確率または尤度を最大化することである。EMクラスタリング技術の結果は、K平均クラスタリング技術によって計算されたものとは異なる。K平均クラスタリング技術は、クラスタ間の距離を最大化するためにクラスタに観測値(画素またはボクセル、画素またはボクセル強度など)を割り当てる。EMクラスタリング技術は、クラスタへの観測の実際の割り当てを計算するのではなく、分類確率を計算する。換言すれば、各観測は、一定の確率で各クラスタに属する。その後、(最大の)分類確率に基づいて、位置特定コントローラ170によって観測値をクラスタに割り当てることができる。位置特定の結果は、クラスごとの確率を有する境界ボックスまたはセグメンテーションマスクである。関心オブジェクト(例えば、腎臓)の一般的な位置は、関心オブジェクトに関連付けられたオブジェクトクラスに割り当てられた画素またはボクセルのセットに基づいて分離される。
関心オブジェクトの境界ボックスまたはセグメンテーションマスクは、オブジェクト検出段階115内のマップ処理コントローラ175に利用される。第2の画像135は、オブジェクト検出段階115内のマップ処理コントローラ175によって取得される。第2の画像135は、第1の画像135に描写された同じ関心オブジェクトを描写する。いくつかの例では、第2の画像は、FAまたはMDコントラストなどの第2の特性を有する拡散テンソルパラメトリックマップである。他の例では、第2の画像は、単一エコーT2コントラストまたはT2強調解剖学的コントラストなどの第2の特性を有するMR画像である。他の例では、第2の画像135は、低解像度または高解像度などの第2の特性を有するCT画像である。他の例では、第2の画像135は、造影剤などの第2の特性を有するCT画像である。他の例では、第2の画像135は、放射性トレーサコントラストまたは低解像度などの第2の特性を有するPET画像である。他の例では、第2の画像135は、放射性トレーサコントラストまたは高解像度などの第2の特性を有するPET-CT画像である。他の例では、第2の画像135は、放射性トレーサコントラストまたは高解像度などの第2の特性を有するPET-MR画像である。他の例では、第2の画像135は、光吸収コントラストなどの第2特性を有するPAT画像である。他の例では、第2の画像135は、組織境界距離までのエコーまたはトランスデューサなどの第2の特性を有する超音波画像である。
マップ処理コントローラ170は、検出された関心オブジェクトに対応する境界ボックスまたはセグメンテーションマスクを、第1の画像から第2の画像に描写された関心オブジェクトの同じ上にオーバーレイするためのプロセスを含む。セグメンテーションマスクが判定される場合、セグメンテーションマスクは、セグメンテーションマスクの境界を使用して、第2の画像内の関心オブジェクトに対応する関心領域を囲む矩形境界ボックスを画定することができるように、第2の画像(例えば、第2の画像の二次元スライス)に投影される。いくつかの例では、境界ボックスは、関心領域の全体が確実に囲まれるように、セグメンテーションマスクの周囲の各エッジへの追加のパディング(例えば、5画素、10画素、15画素などのパディング)を含む。マップ処理コントローラ175は、境界ボックスに対応する切り取り部分180のみが示されるように第2の画像を切り取るように構成されたプロセスをさらに含む。2つ以上の境界ボックスが画定されている場合(例えば、複数の関心オブジェクトが画像内で検出される場合)、第2の画像の切り取られた部分が各境界ボックスに対して生成される。いくつかの例では、均一なサイズを維持するために、切り取られた各部分がさらにサイズ変更される(例えば、追加のパディングを用いて)。
第2の画像の切り取られた部分180は、セグメンテーション段階120内のセグメンテーションコントローラ185に送信される。セグメンテーションコントローラ185は、1つ以上のセグメンテーションモデル165を使用して、第2の画像の切り取られた部分180内の関心オブジェクトをセグメント化するためのプロセスを含む。セグメント化することは、1つ以上のセグメンテーションモデル165を使用して、関心オブジェクトの周りの推定セグメンテーション境界を生成することと、1つ以上のセグメンテーションモデル165を使用して、関心オブジェクトの周りの推定されたセグメンテーション境界190を有する第2の画像の切り取られた部分を出力することと、を含む。セグメント化することは、関心オブジェクトに対応するエッジおよび/または輪郭のセットを識別するために、切り取られた各部分の画素またはボクセル強度の変動を評価することを含むことができる。エッジおよび/または輪郭のセットを識別すると、1つ以上のセグメンテーションモデル165は、関心オブジェクトの推定セグメンテーション境界190を生成する。いくつかの実施形態では、推定されたセグメンテーション境界190は、関心オブジェクトの三次元表現に対応する。いくつかの例では、セグメント化することは、推定されたセグメンテーション境界190に存在する関心オブジェクトの確率スコアを判定することと、推定されたセグメンテーション境界190を有する確率スコアを出力することと、をさらに含む。
関心オブジェクトの周りの推定されたセグメンテーション境界190(および任意の確率スコア)を有する第2の画像の切り取られた部分は、分析段階125内の分析コントローラ195に送信されることができる。分析コントローラ195は、関心オブジェクトの周りの推定されたセグメンテーション境界190(および任意の確率スコア)を有する第2の画像の切り取られた部分を取得または受信し、関心オブジェクトの周りの推定されたセグメンテーション境界190(および任意の確率スコア)に基づいて分析結果197を判定するプロセスを含む。分析コントローラ195は、関心オブジェクトの周りの推定されたセグメンテーション境界190に基づいて、関心オブジェクトのサイズ、アキシャル寸法、表面積、および/または体積を判定するためのプロセスをさらに含むことができる。いくつかの例では、関心オブジェクトについての推定されたセグメンテーション境界190またはその導出(例えば、関心オブジェクトのサイズ、アキシャル寸法、体積など)は、被験者の診断および/または予後を判定するためにさらに使用される。さらなる例では、関心オブジェクトの推定されたセグメンテーション境界190は、被験者の処置有効性を判定するために、以前の時点でイメージングされた同じ関心オブジェクトの推定されたセグメンテーション境界190と比較される。例えば、標的オブジェクトが病変である場合、被験者の病変の推定されたセグメンテーション境界190は、癌の種類(例えば、病変の位置)、転移進行(例えば、被験者について病変の数が増加した場合、および/または病変の位置の数が増加した場合)、および薬効(例えば、病変の数、サイズ、および/または体積が増加または減少するかどうか)に関する情報を提供することができる。
明示的に示されていないが、コンピューティング環境100は、開発者に関連付けられた開発者デバイスをさらに含むことができることが理解されよう。開発者デバイスからコンピューティング環境100の構成要素への通信は、モデルに使用される入力画像の種類、使用されるモデルの数および種類、各モデルのハイパーパラメータ、例えば学習率および隠れ層の数、データ要求をフォーマットする方法、使用される訓練データ(例えば、および訓練データへのアクセス方法)および使用される検証技術、および/またはコントローラプロセスを構成する方法を示すことができる。
IV.B.モデル訓練のための例示的なデータ増強
セグメント化の第2の部分は、重み付き損失関数(例えば、ダイス損失)で構成された第2の視覚モデル(例えば、深層学習ニューラルネットワーク)に関する。深層学習ニューラルネットワークは、被験者からの1つ以上の関心オブジェクトの画像について訓練される。画像は、1つ以上の医用イメージングモダリティから生成される。しかしながら、いくつかの医用イメージングモダリティから生成された画像のデータセットは、疎とすることができる。これらの画像の疎性に対処するために、訓練データの画像は、データセット内の画像の数および種類を人為的に増加させるように増強される。より具体的には、増強は、ヒストグラムマッチングを実行して、同じまたは異なる被験者(例えば、関心オブジェクトが見つからない可能性がある被験者の領域)の他の領域内の他のコントラストをシミュレートし、訓練データセットの分散を増加させることによって実行されることができる。
一例として、訓練セットの各画像または訓練セットからの画像のサブセットは、1つ以上の参照画像とヒストグラムマッチングされて新たな画像のセットを生成し、オーバーフィッティングを低減するいわゆるデータ増強プロセスにおいて訓練データセットサイズを人工的に増加させることができる。図2に示すように、訓練セットの各画像(左画像)は、参照画像(中央画像)とヒストグラムマッチングされて、新たな画像セット(右画像)を生成することができる。したがって、画像の元の訓練セットまたはサブセットは、ヒストグラムマッチングによって2倍だけ数および多様性が本質的に増加する。ヒストグラムマッチングは、そのヒストグラムが参照ヒストグラムと一致するように元の画像を変換することである。ヒストグラムマッチングは、最初にヒストグラム等化(例えば、ヒストグラムを拡張してダイナミックレンジを埋め、同時にヒストグラムを均一に維持しようとする)を使用して元のヒストグラムと参照ヒストグラムの双方を等化し、次いで等化された画像および変換関数に基づいて元のヒストグラムから参照ヒストグラムにマッピングすることによって実行される。例えば、元の画像内の画素強度値20が等化画像内の35にマッピングされ、参照画像内の画素強度値55が等化画像内の35にマッピングされると仮定すると、元の画像内の画素強度値20は、参照画像内の画素強度値55にマッピングされるべきであると判定可能である。次いで、元の画像から参照画像へと等化されるようなマッピングを使用して、元の画像を新たな画像に変換することができる。いくつかの例では、回転および反転など(例えば、各画像を90°回転させる、左から右に反転させる、上から下に反転させるなど)の標準的な技術を使用して、一方または双方のデータセット(すなわち、元の画像のセットおよび新たな画像のセット)がさらに増強されて、訓練に利用可能な画像の数および種類をさらに増やすことができる。
ヒストグラムマッチングに基づくデータ増強を使用する利点は、以下のとおりである:(i)この技術は、同じ種/機器/画像強度などからの別のデータセットを利用する;(ii)ヒストグラム一致画像に対応するマスク(ラベル)は、訓練セット内の元の画像と全く同じである;(iii)訓練セット内の画像の数に、基準として使用される画像の数が乗算される;および(iv)訓練セットの分散が増加し、そのため、訓練セットの画像の構造が保存され、一方、画素の強度は変化しており、これにより、セグメンテーションフレームワークは画素強度から独立し、関心オブジェクトの画像および構造に依存する。
IV.C.例示的な三次元深層ニューラルネットワーク
図3に示す例示的な実施形態では、修正された3D U-Net300は、入力画像(例えば、第2の画像の切り取られた部分)から個別に特徴を抽出し、入力画像内の関心オブジェクトを検出し、関心オブジェクトの形状の周りに三次元セグメンテーションマスクを生成し、関心オブジェクトの形状の周りに三次元セグメンテーションマスクを用いて入力画像を出力する。3D U-Net300は、縮小経路305および拡張経路310を含み、これは、それにU字形アーキテクチャを与える。縮小経路305は、畳み込み(例えば、3×3×3の畳み込み(パッドなしの畳み込み))の繰り返し適用を含むCNNネットワークであり、それぞれの畳み込みの後に修正線形ユニット(ReLU)およびダウンサンプリングのための最大プーリング演算(例えば、各方向にストライド2を有する2×2×2の最大プーリング)が続く。畳み込み演算のための入力は、三次元ボリューム(すなわち、サイズがn×n×チャネルの入力画像であり、nは入力特徴の数である)、およびそれぞれサイズ(f×f×fチャネル、ここで、fは任意の数、例えば3または5である)の「k」個のフィルタのセット(カーネルまたは特徴抽出器とも呼ばれる)である。畳み込み演算の出力は、サイズ(m×m×k(式中、Mは出力特徴の数であり、kは畳み込みカーネルサイズである))の三次元ボリューム(出力画像や特徴マップとも呼ばれる)でもある。
縮小経路315の各ブロック315は、1つ以上の畳み込み層(灰色の水平矢印によって示される)を含み、特徴チャネルの数は、畳み込みプロセスが入力画像の深度を増加させるため、例えば1→64(例えば、チャネルの開始数に応じた第1のプロセスにおいて)から変化する。各ブロック315の間の下向きの灰色の矢印は、入力画像のサイズを半分にする最大プーリングプロセスである。各ダウンサンプリングステップまたはプーリング動作において、特徴チャネルの数は2倍にされることができる。縮小の間、画像データの空間情報は縮小され、特徴情報は増加される。したがって、プーリング前に、例えば572×572の画像に存在していた情報、プーリング後に(ほぼ)同じ情報が、例えば284×284の画像に存在する。ここで、畳み込み演算が後続のプロセスまたは層に再び適用されると、後続のプロセスまたは層のフィルタは、より大きなコンテキストを見ることができ、すなわち、入力画像がネットワーク内により深く進むにつれて、入力画像のサイズは減少するが、受容野は増加する(受容野(コンテキスト)は、任意の所与の時点でカーネルまたはフィルタがカバーする入力画像の領域である)。ブロック315が実行されると、ブロック320においてさらに2つの畳み込みが実行されるが、最大プーリングは行われない。ブロック320の後の画像は、例えば、28×28×1024にサイズ変更されている(このサイズは単なる例示であり、プロセス320の終わりのサイズは、入力画像の開始サイズに応じて異なることができる-サイズn×n×チャネル)。
拡張経路310は、縮小経路305からの特徴および空間情報を組み合わせるCNNネットワークである(縮小経路305からの特徴マップのアップサンプリング)。本明細書で説明されるように、三次元セグメンテーションの出力は、単にクラスラベルまたは境界ボックスパラメータではない。代わりに、出力(三次元セグメンテーションマスク)は、全てのボクセルが分類された完全な画像(例えば、高解像度画像)である。プーリング層および高密度層を有する通常の畳み込みネットワークが使用された場合、CNNネットワークは、「どこで」情報を失い、画像セグメンテーションに受け入れられない「何の」情報のみを保持する。画像セグメンテーションの場合、「何の」および「どこで」情報の双方が使用される。したがって、画像は、低解像度画像を高解像度画像に変換して「どこで」情報を復元するためにアップサンプリングされる。上向きの白矢印によって表される転置畳み込みは、特徴マップのアップサンプリングおよび画像のサイズの拡張のために拡張経路310で使用されることができる例示的なアップサンプリング技術である。
ブロック325における転置畳み込みの後、画像は、例えば、各次元において2×2×2のアップコンボリューション(アップサンプリング演算子)を介して28×28×1024→56×56×512から2つの刻み幅だけ拡大され、次いで、画像は、縮小経路からの対応する画像と連結され(縮小経路305からの水平グレーバー330を参照)、一緒になって例えばサイズ56×56×1024の画像を形成する。連結の理由は、より正確な予測を得るために、前の層からの情報を組み合わせるためである(すなわち、縮小経路305からの高解像度特徴は、拡大経路310からのアップサンプリングされた出力と組み合わされる)。このプロセスは、三次元セグメンテーションマスクとしてマルチチャネルセグメンテーションを生成するために、チャネルの数を半分にする一連のアップコンボリューション、縮小経路305からの対応して切り取られた特徴マップとの連結、それぞれが正規化線形ユニット(ReLU)が続く畳み込み(例えば、2つの3×3×3の畳み込み)の繰り返し適用、およびブロック335(例えば、1×1×1の畳み込み)の最終的な畳み込みとして続く。位置特定するために、U-Net300は、完全接続層なしで各畳み込みの有効部分を使用し、すなわち、セグメンテーションマップは、入力画像内で完全なコンテキストが利用可能なボクセルのみを含み、縮小ブロック中に学習されたコンテキスト特徴と拡張ブロックで学習された位置特定特徴とをリンクするスキップ接続を使用する。
3D U-Netアーキテクチャを有する従来のニューラルネットワークでは、出力およびグラウンドトゥルースラベルは、通常、クロスエントロピー損失を伴うソフトマックス関数を使用して比較される。これらのネットワークは、従来のCNNよりも改善されたセグメンテーション性能を示すが、医用イメージングデータセットにおいて小さな前景オブジェクト、小さなサンプルサイズ、および異方性解像度に直ちに変換されない。これらの問題および他の問題に対処するために、3D U-Net300は、従来の3D U-Net(合計2,784カーネルおよび19,069,955個の学習可能パラメータ-例えば、O.Cicek、A.Abdulkadir、S.S.Lienkamp、T.Brox、およびO.Ronneberger、「3D U-Net:learning dense volumetric segmentation from sparse annotation」、in International conference on medical image computing and computer-assisted intervention、2016:Springer、424-432ページを参照)と比較して削減された数のパラメータおよび/またはカーネルを含むように構成される。具体的には、ネットワークの複雑さを低減し、過パラメータ化の問題を回避するために、重みの数、層の数、および/またはネットワークの全幅が低減される。いくつかの例では、各畳み込み層および逆畳み込み層ごとのカーネルの数は、従来の3D U-Netと比較して半分になる。これは、その後、3D U-Net300の各畳み込み層および逆畳み込み層の学習可能パラメータの数を削減し、したがって、3D U-Net300は、19,069,955個の学習可能パラメータを有する従来の3D U-Netと比較して、9,534,978個の学習可能パラメータを有する。カーネルに関しては、カーネルの総数は、従来の3D U-Netの2,784から3D U-Net300の1,392カーネルに削減される。いくつかの例では、3D U-Net300の学習可能パラメータの総数は、5,000,000個から12,000,000個の間の学習可能パラメータに削減される。いくつかの例では、3D U-Net300のカーネルの総数は、800個から1,700個のカーネルの間に削減される。パラメータおよび/またはカーネルの削減は、モデルがより小さいサンプルサイズ(すなわち、第2のDTIパラメトリックマップの切り取られた部分)をより効率的に処理することを可能にするので有利である。
さらに、3D U-Net300は、重み付き損失関数を使用した体積セグメンテーションのために構築される。具体的には、セグメンテーション性能を評価するために使用されたメトリックは、ダイス類似度係数(DSC、式1)であった。したがって、DSCを最大化する目的で3D U-Net300を訓練するために、DSCを全ての画像について最小化した(式2)。また、立体画像における前景における背景および関心オブジェクトの不均衡な分布のために、重み付き損失関数が使用され、これは、本明細書ではダイス損失(式3)と呼ばれ、ここでは頻繁に見られる背景の重みが減少し、前景における関心オブジェクトの重みが増加して、損失に対する前景ボクセルおよび背景ボクセルのバランスのとれた影響に達する。
Figure 2022544229000002
ここで、Nは画像の数であり、pは予測マスクを表し、qは標的オブジェクトに対応するグラウンドトゥルースマスクを表す。
当業者にとって理解されるように、3D U-Net300は、本開示の態様にかかるオブジェクトセグメンテーションを実装するために、図1に関して説明したコンピューティング環境100全体に組み込まれる必要はない。その代わりに、医用画像のオブジェクトセグメンテーションのためにモデルのタイプが学習されることができる限り、オブジェクトセグメンテーション(例えば、CNN、Resnet、典型的なU-Net、V-Net、SSDネットワーク、またはリカレントニューラルネットワークRNNなど)のために様々なタイプのモデルが使用されることができる。
V.体積セグメンテーション技術
図4は、関心オブジェクトのインスタンスをセグメント化するために記載された多段セグメンテーションネットワークを使用するための例示的なプロセス400のフローチャートを示している。プロセス400は、図1~図3に関してセクションIVで説明したように、1つ以上のコンピューティングシステム、モデル、およびネットワークを使用して実行されることができる。
プロセス400はブロック405で開始し、そこで被験者の医用画像が取得される。医用画像は、被験者の頭部領域、胸部領域、腹部領域、骨盤領域、および/または手足に対応する領域を描写することができる。医用画像は、1つ以上の医用イメージングモダリティを使用して生成される。例えば、ユーザは、図1に関してセクションIVで説明したように、1つ以上の医用イメージングモダリティを使用して医用画像を生成する1つ以上のイメージングシステムを操作することができる。
ブロック410において、被験者の医用画像が取得される。例えば、ステップ405において取得された医用画像は、データ記憶デバイスまたは1つ以上の医用イメージングシステムから取得されることができる。医用画像は、第1の特徴を有する第1の画像と、第2の特徴を有する第2の画像とを含む。いくつかの実施形態では、画像は、第1の測定マップ(第1の特性を有する第1の画像)および第2の測定マップ(第2の特性を有する第2の画像)を含むDTIパラメトリックマップである。第1の測定マップは、第2の測定マップとは異なる。DTIパラメトリックマップは、MR画像の取得中に補足MR勾配を適用することによって生成される。例えば、ユーザは、1つ以上の拡散勾配のパラメータをイメージングシステムに入力することができ、DTIパラメトリックマップは、1つ以上の拡散勾配のパラメータに基づいてMR画像の取得中に補足MR勾配を適用することによって生成される(勾配の適用中のプロトンの動きは、画像内の信号に影響を及ぼす)。いくつかの例では、MR画像の取得中に2つ以上の方向に拡散勾配が適用される。いくつかの例では、第1の測定マップは、異方性部分マップであり、第2の測定マップは、平均拡散性マップである。
ブロック415において、第1の画像内のオブジェクトは、位置特定モデルを使用して位置特定および分類される。分類することは、第1の画像の画素またはボクセルのセットを複数のオブジェクトクラスのうちの1つ以上に割り当てる。オブジェクトクラスは、(例えば、関心オブジェクトの種類に応じて)関心オブジェクトに対応するクラス、異なる生物学的構造に対応する1つ以上のクラス、異なる器官に対応する1つ以上のクラス、および/または異なる組織に対応する1つ以上のクラスを含むことができる。例えば、関心オブジェクトが病変である場合、病変、血管、および/または器官を識別するためにオブジェクトクラスが定義されることができる。位置特定および分類することは、画素またはボクセルのセットを複数のオブジェクトクラスのうちの1つ以上のオブジェクトクラスに割り当てる1つ以上のクラスタリングアルゴリズムを使用して、位置特定モデルによって実行されることができる。いくつかの例では、1つ以上のクラスタリングアルゴリズムは、複数のオブジェクトクラスに関連付けられたクラスタに観測値を割り当てるk平均アルゴリズムを含む。いくつかの例では、1つ以上のクラスタリングアルゴリズムは、1つ以上の確率分布に基づいてクラスタメンバーシップの確率を計算する期待値最大化アルゴリズムをさらに含む。k平均アルゴリズムは、複数のオブジェクトクラスの各オブジェクトクラスの初期パラメータを推定することによって期待値最大化アルゴリズムを初期化するために使用されることができる。
ブロック420において、位置特定モデルを使用して、第1の画像内の関心オブジェクトに対して境界ボックスまたはセグメンテーションマスクが判定される。境界ボックスまたはセグメンテーションマスクは、複数のオブジェクトクラスのオブジェクトクラスに割り当てられた画素またはボクセルのセットに基づいて、関心オブジェクトに対して判定される。セグメンテーションマスクを判定するために、関心オブジェクトのシード位置は、関心オブジェクトに対応するオブジェクトクラスに割り当てられた画素のセットを使用して識別される。識別されたシード位置は、シード位置を成長させ、セグメンテーションマスクを判定するために、z軸に向かって投影される。z軸は深さを表し、シード位置は、第3の次元または最終次元のオブジェクトマスクの全体積を満たすように成長される。いくつかの例では、セグメンテーションマスクに対して形態学的閉鎖および充填がさらに実行される。
ブロック425において、境界ボックスまたはセグメンテーションマスクが第2の画像上に転写されて、関心オブジェクトを含む第2画像の一部を画定する。オブジェクトマスクを転送することは、境界ボックスまたはセグメンテーションマスクを画像の対応する領域(関心オブジェクトを含む第2の画像の一部)上にスライス方向に投影すること、および/または境界ボックスまたはセグメンテーションマスクを第2の画像の対応する領域(関心オブジェクトを含む第2の画像の一部)上にオーバーレイすることを含む。いくつかの例では、セグメンテーションマスクは、二次元空間内のセグメンテーションマスクの境界を使用して、検出された関心オブジェクトに対応する関心領域を囲む矩形境界ボックスを画定することができるように、第2の画像の二次元スライスに投影される。いくつかの例では、境界ボックスは、関心領域の全体が確実に囲まれるように、セグメンテーションマスクの周囲の各エッジへの追加のパディング(例えば、5画素、10画素、15画素などのパディング)を含む。いくつかの例では、第2の画像は、第2の画像の一部を生成するために、境界ボックスまたはセグメンテーションマスクにオプションのマージンを加えたものに基づいて切り取られる。切り取られた各部分は、均一なサイズを維持するためにさらにサイズ変更されてもよい(例えば、追加のパディングを用いて)。
いくつかの実施形態では、第2の画像の一部は、前処理のために深層超解像ニューラルネットワークに送信される。深層超解像ニューラルネットワークは、(例えば)畳み込みニューラルネットワーク、残差ニューラルネットワーク、アテンションベースのニューラルネットワーク、および/または再帰的畳み込みニューラルネットワークとすることができる。深層超解像ニューラルネットワークは、第2の画像の一部の画像空間解像度(例えば、画像詳細の拡大および/または精緻化)を改善するために、第2の画像の送信された部分を処理する。
ブロック430において、第2の画像の部分は、重み付き損失関数(例えば、修正された3D U-Netモデル)を使用して体積セグメンテーションのために構築された三次元ニューラルネットワークモデルに入力される。いくつかの例では、重み付き損失関数は、重み付きダイス損失関数である。三次元ニューラルネットワークモデルは、訓練データのセットを使用して訓練された複数のパラメータを含む。複数のモデルパラメータの数は、標準的な三次元U-Netアーキテクチャと比較して削減されることができる。訓練データのセットは、関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の画像と、関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の追加画像とを含むことができる。いくつかの例では、複数の追加画像は、複数の画像からの画像ヒストグラムを複数の基準マップ(例えば、被験者の他の領域から得られるマップ)からの画像ヒストグラムにマッチングさせることによって人工的に生成される。複数のモデルパラメータは、重み付き損失関数を最小化することに基づいて訓練データのセットを使用して識別される。三次元ニューラルネットワークモデルは、複数のカーネルをさらに備え、カーネルの数は、標準的な三次元U-Netアーキテクチャと比較して削減されることができる。
ブロック435において、三次元ニューラルネットワークモデルは、第2の画像の一部をセグメント化する。セグメント化することは、識別された特徴を使用して、関心オブジェクトの推定セグメンテーション境界を生成することを含む。例えば、セグメント化することは、関心オブジェクトに対応するエッジおよび/または輪郭のセットを識別するために、切り取られた各部分の画素強度の変動などの特徴を評価することと、識別されたエッジおよび/または輪郭のセットを使用して関心オブジェクトの推定セグメンテーション境界を生成することとを含むことができる。推定されたセグメンテーション境界は、関心オブジェクトの三次元周囲を表すことができる。いくつかの例では、三次元ニューラルネットワークモデルはまた、関心オブジェクトの分類を判定することもできる。例えば、病変に対応するオブジェクトは、肺病変、肝臓病変、および/または膵臓病変など、被験者内のその種類または位置に基づいて分類されることができる。別の例として、器官および/または組織に対応するオブジェクトは、健康、炎症、線維性、壊死、および/またはギプス充填として分類されることができる。
ブロック440において、関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部が出力される。いくつかの例では、第2の画像の一部が提供される。例えば、第2の画像の一部は、記憶デバイスに記憶されてもよく、および/またはユーザデバイスに表示されてもよい。
任意のブロック445において、関心オブジェクトの周りの推定されたセグメンテーション境界に基づいて動作が行われる。いくつかの例では、動作は、関心オブジェクトの周りの推定されたセグメンテーション境界に基づいて、関心オブジェクトのサイズ、表面積、および/または体積を判定することを含む。いくつかの例では、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積が提供される。例えば、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積は、記憶デバイスに記憶されてもよく、および/またはユーザデバイスに表示されてもよい。ユーザは、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積を受信または取得することができる。他の例では、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積は、画像強度などの画像メトリックを定量化するために使用される。例えば、PETでは標準化された取り込み値(SUV)があり、またはMRIでは、画像強度などの特定の画像メトリックと相関する拡散性、T2、T1などがあり、したがって、画像メトリックの定量化は、関心オブジェクトに固有のSUVなどの値/メトリックを判定するために使用されることができる。
いくつかの例では、動作は、以下を使用して被験者の診断を判定することを含む:(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、および/または(ii)関心オブジェクトのサイズ、表面積、および/または体積。いくつかの例では、動作は、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、(ii)関心オブジェクトのサイズ、表面積、および/もしくは体積、および/または(iii)被験者の診断に基づいて、(例えば、被験者に)化合物による処置をユーザによって投与することを含む。他の例では、動作は、関心オブジェクトのサイズ、表面積、および/もしくは体積に基づいて薬物の投与量が計算されることができるように、(i)関心オブジェクトの周りの推定されたセグメンテーション境界を有する第2の画像の一部、(ii)関心オブジェクトのサイズ、表面積、および/もしくは体積、および/または(iii)被験者の診断に基づいて処置計画を判定することを含む。いくつかの例では、動作は、第1の時点の関心オブジェクトに対応するサイズ、表面積、および/または体積と第2の時点の関心オブジェクトに対応するサイズ、表面積、および/または体積との比較に基づいて、処置が有効であるかどうか、または薬物の投与量を調整する必要があるかどうかを判定することを含む。
VI.実施例
様々な実施形態において実装されるシステムおよび方法は、以下の実施例を参照することによってよりよく理解されることができる。
VI.A.実施例1.-腎臓のセグメンテーション
期待値最大化によって位置特定された3D U-Netを使用した腎臓のセグメンテーション。
VI.A.i.背景
腎機能および活性は、多発性嚢胞腎、ループス腎炎、腎実質疾患、および腎移植拒絶などの様々な疾患における腎容積に非常に依存する。イメージングによる腎臓の自動評価を使用して、被験者の診断、予後、および/または処置計画を判定することができる。インビボイメージングモダリティは、固有の強度および限界を提供する。特に、MRIは、電離放射線を有さず、操作者に依存せず、腎臓のセグメンテーションおよび体積関連情報を可能にする良好な組織コントラストを有する。従来の方法は、手動の追跡、立体学、または一般的な画像処理など、腎臓をより局所的に評価するために使用されてきた。これらの方法は、労働集約的であるかまたは矛盾する可能性がある。これらの問題に対処するために、統合された深層学習モデルが利用されて腎臓をセグメント化した。
深層学習セグメンテーションネットワークは、大きな生物医学画像データセットのセマンティックセグメンテーションに使用されてきた。これらのネットワークは、最先端の性能を提供するが、それらの視野および深度を制限する高い計算コストおよびメモリ消費を被る。したがって、これらのネットワークは、MRI検査で通常見られる限られた画像内の小さなオブジェクトをセグメント化するのに特に問題となり得る。MRIは、エイリアシングアーチファクトを防止するために大きな視野または背景を含む傾向がある。背景が重要な部分を表すとき、ネットワークは、関心のある前景オブジェクトをセグメント化するように最適に訓練されない場合がある。したがって、大規模な3Dセグメンテーションネットワークのパラメータを低減し、過剰適合を回避し、ネットワーク性能を改善するための代替戦略が必要である。
第一に、背景効果の問題に対処するために、導出されたMRIコントラスト機構(DTIの使用)が学習されたセグメンテーションの前に位置特定ステップに組み込まれた。第2に、パラメータの数を減らすために3D U-Netが修正され、セグメンテーションのためのダイス損失関数が組み込まれた。第3に、訓練データセットの数を増やすために、増強およびMRIヒストグラムマッチングが組み込まれた。さらに、これらの技術は、いくつかの例では、データセットの超解像画像に適用されて、拡張画像がセグメンテーション性能を改善することができるかどうかを判定した。これらの技術は、ループス腎炎の動物モデルを使用して前臨床MRIで実施された。
VI.A.ii.動物モデルおよびデータ取得
15匹のフレンドウイルスB雌マウスをこの試験に使用し、8匹をループス腎炎(LN)疾患群に使用し、7匹を対照群に使用した。動物を、13週齢で開始する4つの時点について2週間ごとにイメージングした。各時点で、複数のMRIデータセットを各動物について取得した。この研究のために合計196枚の3D MR画像を取得した。全ての画像は、単一のユーザによって手動でセグメント化された。Amira(オレゴン州、ヒルズバロ、Thermo Fisher Scientific)を使用して、画像ボリューム全体についてスライスごとに腎臓の輪郭を示した。MRイメージング中、動物をイソフルラン下で麻酔し、自由に呼吸させ、37℃で維持した。MRIを、ボリューム送信および極低温表面受信コイルを備えたBruker 7T(マサチューセッツ州、ビレリカ)で実施した。脳および脊椎の確実な位置決めを提供するために、カスタムインビボホルダを3D印刷(Stratasys Dimension)で構築した。MRI拡散テンソルイメージングを、以下のパラメータを使用して個々の局所シムを用いて実施した(単一ショットEPI)。TR=4s、TE=42ms、BW=250kHz、拡散方向=12。FOV=22×22mm、符号化行列=110×110、スライス=15、画像解像度=200×200μm、スライス厚=1mm、取得時間=13分。以下を含む拡散テンソルパラメトリックマップを計算した:FA、MD、AD、およびRD。FAおよびMD画像を統合セマンティックセグメンテーションアルゴリズムに使用した。
VI.A.iii.段階1:EMによる位置特定
FA画像を位置特定ステップに使用した。FA画像を、K平均(12クラス)でヒューリスティックに初期化したEMを使用してセグメント化した。組織クラスの1つを使用して一般的な腎臓近傍を分離し、検出されたオブジェクトとして使用した。これらのパラメータをアルゴリズムに使用した:収束の反復回数=7およびマルコフランダム場平滑化係数=0.05。
VI.A.iv.データ増強
MD画像をマウス脳データセットとヒストグラムマッチングして、新たなデータセットを生成した(図2)。双方のデータセットを90°回転させ、左右に反転させ、上下に反転させた。ネットワークが完全に見えないデータで検証されることを確実にするために、データ増強は、訓練セットに対してのみ行われた。取得されたデータセットの総数は、n=196であった。増強により、訓練データセットは、n=180からn=1800に増加し、試験データセットは、n=16になった。訓練および試験の分割は、動物ごとに行われ、その都度、1匹の動物を試験のために残し、残りを訓練のために使用した。
VI.A.v.段階2:深層セマンティックセグメンテーション
セグメンテーション性能を評価するために使用されたメトリックは、ダイス類似度係数(DSC、式1)であった。したがって、DSCを最大化する目的で3D U-Netを訓練するために、DSCを全ての画像について最小化した(式2)。また、立体画像における背景および腎臓の不均衡な分布のため、加重損失関数を使用した(ダイス損失、式3)。背景効果を軽減するために、EMセグメンテーションマスクをスライス方向に投影した。各投影されたEMセグメンテーションマスクの境界を使用して、オブジェクト検出用の長方形のボックスを画定した。画定されたボックスを、腎臓の被覆を確実にするために、全ての面で5画素拡大した。3D U-Netは、検出された領域内のMD画像で訓練および試験された。同じ検出領域を超解像画像に使用した。切り取られたオブジェクトは、2D投影マスクに基づいて最初の二次元で任意のサイズを有していたため、全ての切り取られた画像は、元の解像度画像については64×64×16にサイズ変更され、超解像画像については64×64×64にサイズ変更された。
VI.A.vi.超解像
MD画像は、空間分解能を改善するために面貫通方向に超解像された。元の110×110×15の行列を5×分解し、110×110×75の行列を得た。画像を、深層超解像ニューラルネットワークを使用して拡張した。
VI.A.vii.結果
図5Aは、拡散テンソルの6つの要素を示している。変化する拡散コントラストは、内側および外側髄領域で最も顕著である。変化するコントラストは、対角要素(Dxx,Dyy,Dzz)および非対角要素(Dxy,Dxz,Dyz)において顕著である。その結果、コントラストは皮質で変化せず、したがって非常に低いFA(図5B)をもたらす。この低いFAは、腎臓を背景からセグメント化することを可能にした。MR画像は、図5Cに示すように、面貫通方向に超解像した。これらの改善は、サジタル方向およびコロナル方向において最も明白である。面内解像度は、軸方向スライス(図5C)に示すように、最小限の影響しか受けない。図6Aは、前処理なしでMD画像上で3D U-Netを訓練した結果を示している。DSCプロットは、平均0.49の均一な分布を示している。図6Bでは、腹部領域は、連結成分分析で前景として検出され、MD画像を使用して切り取られる。DSCプロットは、平均0.52の正規分布を示している。図6Cは、EMセグメンテーションのみを使用した結果を示している。0.65の平均DSCが達成された。図6Dは、統合戦略の結果を表す:最初にFA画像上のEMセグメンテーションを使用して腎臓を検出し、次に3D U-NetをMD画像から検出された腎臓領域で訓練した。このアプローチの平均DSCは、0.88であった。超解像MD画像(図6E)を用いたセマンティックセグメンテーションのDSCプロットは、元の解像度(図3D)でのセマンティックセグメンテーションにかなり類似している。ここで、平均DSCは、0.86であった。結果を、体積差(VD)および陽性予測値(PPV)などの追加の比較メトリックとともに表1に要約する。
表1.DSC、VDおよびPPVを用いたセグメンテーション結果の平均および標準偏差。各方法の最良値を太字で示している。
Figure 2022544229000003
VI.A.viii.考察および結論
この実施例は、腎臓セグメンテーションのためのEMベースの位置特定および3D U-Netの統合を実証する。位置特定ステップは、深層学習方法の結果を著しく改善した。また、EMセグメンテーションは深層学習の性能を向上させるが、EMセグメンテーション法のみでは性能が低いことが実証された。EMセグメンテーションは、中央切片において腎臓を分離したが、腎臓体積の関節表現を保存しなかった。したがって、中央スライスは、検出された長方形のオブジェクトとして、体積全体の全てのスライスに使用された。重み付きダイス損失は、誤差の最小化ならびにオブジェクトおよび背景のバランスにとって重要であり得る。しかしながら、位置特定ステップなしでは、加重ダイス損失を含めることによって性能が有意に増加しないことが見出された。その結果、背景は、3D U-Net単独では区別できない腎臓に似て見えるオブジェクトおよび器官を含んでいた。
この例で提示された手法は、背景効果を低減し、データの複雑さを低減した。したがって、畳み込み層あたりのカーネルの数を少なくとも半分だけ減らすことによって、ネットワークの複雑さが低減されることができる。本研究では、n=196の限られたMRIデータセットで0.88のDSCが達成された。
VII.さらなる考察
本開示のいくつかの実施形態は、1つ以上のデータプロセッサを含むシステムを含む。いくつかの実施形態では、システムは、1つ以上のデータプロセッサ上で実行されると、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させる命令を含む非一時的コンピュータ可読記憶媒体を含む。本開示のいくつかの実施形態は、1つ以上のデータプロセッサに、本明細書に開示された1つ以上の方法の一部または全部および/または1つ以上のプロセスの一部または全部を実行させるように構成された命令を含む、非一時的機械可読記憶媒体において有形に具現化されたコンピュータプログラム製品を含む。
使用された用語および表現は、限定ではなく説明の用語として使用され、そのような用語および表現の使用において、示されて説明された特徴の均等物またはその一部を除外する意図はないが、特許請求の範囲に記載された発明の範囲内で様々な変更が可能であることが認識される。したがって、特許請求の範囲に記載された本発明は、実施形態および任意の特徴によって具体的に開示されているが、本明細書に開示された概念の変更および変形は、当業者によってあてにされてもよく、そのような変更および変形は、添付の特許請求の範囲によって定義される本発明の範囲内にあると見なされることを理解されたい。
その後の説明は、好ましい例示的な実施形態のみを提供し、本開示の範囲、適用可能性または構成を限定することを意図しない。むしろ、好ましい例示的な実施形態のその後の説明は、様々な実施形態を実装するための可能な説明を当業者に提供する。添付の特許請求の範囲に記載の趣旨および範囲から逸脱することなく、要素の機能および配置に様々な変更を加えることができることが理解される。
実施形態の完全な理解を提供するために、以下の説明において具体的な詳細が与えられる。しかしながら、これらの具体的な詳細なしで実施形態が実施されることができることが理解されよう。例えば、回路、システム、ネットワーク、プロセス、および他の構成要素は、実施形態を不必要に詳細に不明瞭にしないために、ブロック図形式の構成要素として示されてもよい。他の例では、実施形態を不明瞭にすることを避けるために、周知の回路、プロセス、アルゴリズム、構造、および技術が不必要な詳細なしに示されてもよい。

Claims (81)

  1. 医用画像内のオブジェクトをセグメント化するための方法であって、
    被験者の医用画像を取得することであって、前記医用画像が、第1の特性を有する第1の画像および第2の特性を有する第2の画像を含み、前記医用画像が、1つ以上の医用イメージングモダリティを使用して生成される、取得することと、
    位置特定モデルを使用して、前記第1の画像内のオブジェクトを位置特定し、複数のオブジェクトクラスに分類することであって、前記分類することが、前記第1の画像の画素またはボクセルのセットを前記複数のオブジェクトクラスのうちの1つ以上に割り当てる、位置特定および分類することと、
    前記位置特定モデルを使用して、前記複数のオブジェクトクラスのうちのオブジェクトクラスに割り当てられた画素またはボクセルのセットに基づいて、前記第1の画像内の関心オブジェクトのための境界ボックスまたはセグメンテーションマスクを判定することと、
    前記境界ボックスまたは前記セグメンテーションマスクを前記第2の画像上に転送して、前記関心オブジェクトを含む前記第2の画像の一部を画定することと、
    前記第2の画像の前記一部を、重み付き損失関数を使用して体積セグメンテーションのために構築された三次元ニューラルネットワークモデルに入力することと、
    前記三次元ニューラルネットワークモデルを使用して、前記関心オブジェクトの周りの推定されたセグメンテーション境界を生成することと、
    前記三次元ニューラルネットワークを使用して、前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部を出力することと、を含む、方法。
  2. 前記1つ以上の医用イメージングモダリティが、第1の医用イメージングモダリティと、前記第1の医用イメージングモダリティとは異なる第2の医用イメージングモダリティとを含み、前記第1の画像が、前記第1の医用イメージングモダリティから生成され、前記第2の画像が、前記第2の医用イメージングモダリティから生成される、請求項1に記載の方法。
  3. 前記1つ以上の医用イメージングモダリティが、第1の医用イメージングモダリティと、前記第1の医用イメージングモダリティと同じである第2の医用イメージングモダリティとを含み、前記第1の画像が、前記第1の医用イメージングモダリティから生成され、前記第2の画像が、前記第2の医用イメージングモダリティから生成される、請求項1に記載の方法。
  4. 前記第1の画像が第1の種類の画像であり、前記第2の画像が第2の種類の画像であり、前記第1の種類の画像が前記第2の種類の画像とは異なる、請求項1または2に記載の方法。
  5. 前記第1の画像が第1の種類の画像であり、前記第2の画像が第2の種類の画像であり、前記第1の種類の画像が前記第2の種類の画像と同じである、請求項1または3に記載の方法。
  6. 前記第1の特性が前記第2の特性とは異なる、請求項1~5のいずれか一項に記載の方法。
  7. 前記第1の特性が前記第2の特性と同じである、請求項1~5のいずれか一項に記載の方法。
  8. 前記第1の医用イメージングモダリティが、磁気共鳴イメージング、拡散テンソルイメージング、コンピュータ断層撮影、陽電子放射断層撮影、光音響断層撮影、X線、超音波撮影、またはそれらの組み合わせであり、前記第2の医用イメージングモダリティが、磁気共鳴イメージング、拡散テンソルイメージング、コンピュータ断層撮影、陽電子放射断層撮影、光音響断層撮影、X線、超音波撮影、またはそれらの組み合わせである、請求項2または3に記載の方法。
  9. 前記第1の種類の画像が、磁気共鳴画像、拡散テンソル画像もしくはマップ、コンピュータ断層撮影画像、陽電子放射断層撮影画像、光音響断層撮影画像、X線画像、ソノグラフィ画像、またはそれらの組み合わせであり、前記第2の種類の画像が、磁気共鳴画像、拡散テンソル画像もしくはマップ、コンピュータ断層撮影画像、陽電子放射断層撮影画像、光音響断層撮影画像、X線画像、ソノグラフィ画像、またはそれらの組み合わせである、請求項4または5に記載の方法。
  10. 前記第1の特性が、異方性比コントラスト、平均拡散性コントラスト、軸方向拡散性コントラスト、半径方向拡散性コントラスト、プロトン密度コントラスト、T1緩和時間コントラスト、T2緩和時間コントラスト、拡散係数コントラスト、低解像度、高解像度、薬剤コントラスト、放射性トレーサコントラスト、光吸収コントラスト、エコー距離コントラスト、またはそれらの組み合わせであり、前記第2の特性が、異方性比コントラスト、平均拡散性コントラスト、前記軸方向拡散性コントラスト、半径方向拡散性コントラスト、プロトン密度コントラスト、T1緩和時間コントラスト、T2緩和時間コントラスト、拡散係数コントラスト、低解像度、高解像度、薬剤コントラスト、放射性トレーサコントラスト、光吸収コントラスト、エコー距離コントラスト、またはそれらの組み合わせである、請求項6または7に記載の方法。
  11. 前記1つ以上の医用イメージングモダリティが拡散テンソルイメージングであり、前記第1の画像が部分異方性(FA)マップであり、前記第2の画像が平均拡散性(MD)マップであり、前記第1の特性が異方性比コントラストであり、前記第2の特性が平均拡散性コントラストであり、前記関心オブジェクトが前記被験者の腎臓である、請求項1に記載の方法。
  12. 前記第1の画像内の前記オブジェクトを位置特定および分類することが、前記第1の画像の複数の画素またはボクセルに1つ以上のクラスタリングアルゴリズムを適用することを含む、請求項1~11のいずれか一項に記載の方法。
  13. 前記1つ以上のクラスタリングアルゴリズムが、前記複数のオブジェクトクラスに関連するクラスタに観測値を割り当てるk平均アルゴリズムを含む、請求項12に記載の方法。
  14. 前記1つ以上のクラスタリングアルゴリズムが、1つ以上の確率分布に基づいてクラスタメンバーシップの確率を計算する期待値最大化アルゴリズムをさらに含み、前記k平均アルゴリズムが、前記複数のオブジェクトクラスの各オブジェクトクラスの初期パラメータを推定することによって前記期待値最大化アルゴリズムを初期化する、請求項13に記載の方法。
  15. 前記セグメンテーションマスクが判定され、前記セグメンテーションマスクを判定することが、
    前記オブジェクトクラスに割り当てられた前記画素またはボクセルのセットを使用して、前記関心オブジェクトのシード位置を識別することと、
    前記セグメンテーションマスクの深さを表すz軸に向かって前記シード位置を投影することによって前記シード位置を成長させることと、
    投影された前記シード位置に基づいて前記セグメンテーションマスクを判定することと、を含む、請求項1~14のいずれか一項に記載の方法。
  16. 前記セグメンテーションマスクを判定することが、前記セグメンテーションマスクに対して形態学的閉鎖および充填を実行することをさらに含む、請求項15に記載の方法。
  17. 前記第2の画像の前記一部を前記三次元ニューラルネットワークモデルに入力する前に、前記第2の画像の前記一部を生成するためにオブジェクトマスクにマージンを加えたものに基づいて前記第2の画像を切り取ることをさらに含む、請求項15または16に記載の方法。
  18. 前記第2の画像の前記一部を前記三次元ニューラルネットワークモデルに入力する前に、前記第2の画像の前記一部の解像度を高めるために前記第2の画像を深層超解像ニューラルネットワークに入力することをさらに含む、請求項1~17のいずれか一項に記載の方法。
  19. 前記三次元ニューラルネットワークモデルが、訓練データのセットを使用して識別された複数のモデルパラメータを含み、前記訓練データのセットが、
    関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の医用画像と、
    関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の追加の医用画像であって、前記複数の追加の医用画像が、前記複数の医用画像からの画像ヒストグラムを複数の参照マップからの画像ヒストグラムにマッチングさせることによって人工的に生成される、複数の追加の医用画像と、を含み、
    前記複数のモデルパラメータが、前記重み付き損失関数を最小化することに基づいて前記訓練データのセットを使用して識別される、請求項1~18のいずれか一項に記載の方法。
  20. 前記重み付き損失関数が重み付きダイス損失関数である、請求項19に記載の方法。
  21. 前記三次元ニューラルネットワークモデルが、修正された3D U-Netモデルである、請求項1~20のいずれか一項に記載の方法。
  22. 前記修正された3D U-Netモデルが、総数で5,000,000個から12,000,000個の学習可能パラメータを含む、請求項21に記載の方法。
  23. 前記修正された3D U-Netモデルが、総数で800個から1,700個のカーネルを含む、請求項21または22に記載の方法。
  24. 前記関心オブジェクトの周囲の推定された境界に基づいて、前記関心オブジェクトのサイズ、表面積、および/または体積を判定することと、
    (i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を提供することと、
    をさらに含む、請求項1~23のいずれか一項に記載の方法。
  25. ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積に基づいて、前記被験者の診断を判定することをさらに含む、請求項24に記載の方法。
  26. イメージングシステムを使用するユーザによって、前記被験者の前記医用画像を取得することであって、前記イメージングシステムが、前記1つ以上の医用イメージングモダリティを使用して前記医用画像を生成する、取得することと、
    前記関心オブジェクトの周囲の前記推定されたセグメンテーション境界に基づいて、前記関心オブジェクトのサイズ、表面積、および/または体積を判定することと、
    (i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を提供することと、
    前記ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を受信することと、
    前記ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積に基づいて、前記被験者の診断を判定することと、
    をさらに含む、請求項1~23のいずれか一項に記載の方法。
  27. 前記ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、(ii)前記関心オブジェクトのサイズ、表面積、および/もしくは体積、および/または(iii)前記被験者の診断に基づく化合物による処置を投与することをさらに含む、請求項25または26に記載の方法。
  28. 医用画像内のオブジェクトをセグメント化するためのシステムであって、
    1つ以上のデータプロセッサと、
    前記1つ以上のデータプロセッサ上で実行されると、前記1つ以上のデータプロセッサに、動作を実行させる命令を含む非一時的コンピュータ可読記憶媒体と、を備え、前記動作が、
    被験者の医用画像を取得することであって、前記医用画像が、第1の特性を有する第1の画像および第2の特性を有する第2の画像を含み、前記医用画像が、1つ以上の医用イメージングモダリティを使用して生成される、取得することと、
    位置特定モデルを使用して、前記第1の画像内のオブジェクトを位置特定し、複数のオブジェクトクラスに分類することであって、前記分類することが、前記第1の画像の画素またはボクセルのセットを前記複数のオブジェクトクラスのうちの1つ以上に割り当てる、位置特定および分類することと、
    前記位置特定モデルを使用して、前記複数のオブジェクトクラスのうちのオブジェクトクラスに割り当てられた画素またはボクセルのセットに基づいて、前記第1の画像内の関心オブジェクトのための境界ボックスまたはセグメンテーションマスクを判定することと、
    前記境界ボックスまたは前記セグメンテーションマスクを前記第2の画像上に転送して、前記関心オブジェクトを含む前記第2の画像の一部を画定することと、
    前記第2の画像の前記一部を、重み付き損失関数を使用して体積セグメンテーションのために構築された三次元ニューラルネットワークモデルに入力することと、
    前記三次元ニューラルネットワークモデルを使用して、前記関心オブジェクトの周りの推定されたセグメンテーション境界を生成することと、
    前記三次元ニューラルネットワークを使用して、前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部を出力することと、を含む、システム。
  29. 前記1つ以上の医用イメージングモダリティが、第1の医用イメージングモダリティと、前記第1の医用イメージングモダリティとは異なる第2の医用イメージングモダリティとを含み、前記第1の画像が、前記第1の医用イメージングモダリティから生成され、前記第2の画像が、前記第2の医用イメージングモダリティから生成される、請求項28に記載のシステム。
  30. 前記1つ以上の医用イメージングモダリティが、第1の医用イメージングモダリティと、前記第1の医用イメージングモダリティと同じである第2の医用イメージングモダリティとを含み、前記第1の画像が、前記第1の医用イメージングモダリティから生成され、前記第2の画像が、前記第2の医用イメージングモダリティから生成される、請求項28に記載のシステム。
  31. 前記第1の画像が第1の種類の画像であり、前記第2の画像が第2の種類の画像であり、前記第1の種類の画像が前記第2の種類の画像とは異なる、請求項28または29に記載のシステム。
  32. 前記第1の画像が第1の種類の画像であり、前記第2の画像が第2の種類の画像であり、前記第1の種類の画像が前記第2の種類の画像と同じである、請求項28または31に記載のシステム。
  33. 前記第1の特性が前記第2の特性とは異なる、請求項28~32のいずれか一項に記載のシステム。
  34. 前記第1の特性が前記第2の特性と同じである、請求項28~32のいずれか一項に記載のシステム。
  35. 前記第1の医用イメージングモダリティが、磁気共鳴イメージング、拡散テンソルイメージング、コンピュータ断層撮影、陽電子放射断層撮影、光音響断層撮影、X線、超音波撮影、またはそれらの組み合わせであり、前記第2の医用イメージングモダリティが、磁気共鳴イメージング、拡散テンソルイメージング、コンピュータ断層撮影、陽電子放射断層撮影、光音響断層撮影、X線、超音波撮影、またはそれらの組み合わせである、請求項29または30に記載のシステム。
  36. 前記第1の種類の画像が、磁気共鳴画像、拡散テンソル画像もしくはマップ、コンピュータ断層撮影画像、陽電子放射断層撮影画像、光音響断層撮影画像、X線画像、ソノグラフィ画像、またはそれらの組み合わせであり、前記第2の種類の画像が、磁気共鳴画像、拡散テンソル画像もしくはマップ、コンピュータ断層撮影画像、陽電子放射断層撮影画像、光音響断層撮影画像、X線画像、ソノグラフィ画像、またはそれらの組み合わせである、請求項31または32に記載のシステム。
  37. 前記第1の特性が、異方性比コントラスト、平均拡散性コントラスト、軸方向拡散性コントラスト、半径方向拡散性コントラスト、プロトン密度コントラスト、T1緩和時間コントラスト、T2緩和時間コントラスト、拡散係数コントラスト、低解像度、高解像度、薬剤コントラスト、放射性トレーサコントラスト、光吸収コントラスト、エコー距離コントラスト、またはそれらの組み合わせであり、前記第2の特性が、異方性比コントラスト、平均拡散性コントラスト、軸方向拡散性コントラスト、半径方向拡散性コントラスト、プロトン密度コントラスト、T1緩和時間コントラスト、T2緩和時間コントラスト、拡散係数コントラスト、低解像度、高解像度、薬剤コントラスト、放射性トレーサコントラスト、光吸収コントラスト、エコー距離コントラスト、またはそれらの組み合わせである、請求項33または34に記載のシステム。
  38. 前記1つ以上の医用イメージングモダリティが拡散テンソルイメージングであり、前記第1の画像が部分異方性(FA)マップであり、前記第2の画像が平均拡散性(MD)マップであり、前記第1の特性が異方性比コントラストであり、前記第2の特性が平均拡散性コントラストであり、前記関心オブジェクトが前記被験者の腎臓である、請求項28に記載のシステム。
  39. 前記第1の画像内の前記オブジェクトを位置特定および分類することが、前記第1の画像の複数の画素またはボクセルに1つ以上のクラスタリングアルゴリズムを適用することを含む、請求項28~38のいずれか一項に記載のシステム。
  40. 前記1つ以上のクラスタリングアルゴリズムが、前記複数のオブジェクトクラスに関連するクラスタに観測値を割り当てるk平均アルゴリズムを含む、請求項39に記載のシステム。
  41. 前記1つ以上のクラスタリングアルゴリズムが、1つ以上の確率分布に基づいてクラスタメンバーシップの確率を計算する期待値最大化アルゴリズムをさらに含み、前記k平均アルゴリズムが、前記複数のオブジェクトクラスの各オブジェクトクラスの初期パラメータを推定することによって前記期待値最大化アルゴリズムを初期化する、請求項40に記載のシステム。
  42. 前記セグメンテーションマスクが判定され、前記セグメンテーションマスクを判定することが、
    前記オブジェクトクラスに割り当てられた前記画素またはボクセルのセットを使用して、前記関心オブジェクトのシード位置を識別することと、
    前記セグメンテーションマスクの深さを表すz軸に向かって前記シード位置を投影することによって前記シード位置を成長させることと、
    投影された前記シード位置に基づいて前記セグメンテーションマスクを判定することと、を含む、請求項28~41のいずれか一項に記載のシステム。
  43. 前記セグメンテーションマスクを判定することが、前記セグメンテーションマスクに対して形態学的閉鎖および充填を実行することをさらに含む、請求項42に記載のシステム。
  44. 前記動作が、前記第2の画像の前記一部を前記三次元ニューラルネットワークモデルに入力する前に、前記第2の画像の前記一部を生成するためにオブジェクトマスクにマージンを加えたものに基づいて前記第2の画像を切り取ることをさらに含む、請求項42または43に記載のシステム。
  45. 前記動作が、前記第2の画像の前記一部を前記三次元ニューラルネットワークモデルに入力する前に、前記第2の画像の前記一部の解像度を高めるために前記第2の画像を深層超解像ニューラルネットワークに入力することをさらに含む、請求項28~44のいずれか一項に記載のシステム。
  46. 前記三次元ニューラルネットワークモデルが、訓練データのセットを使用して識別された複数のモデルパラメータを含み、前記訓練データのセットが、
    関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の医用画像と、
    関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の追加の医用画像であって、前記複数の追加の医用画像が、前記複数の医用画像からの画像ヒストグラムを複数の参照マップからの画像ヒストグラムにマッチングさせることによって人工的に生成される、複数の追加の医用画像と、を含み、
    前記複数のモデルパラメータが、前記重み付き損失関数を最小化することに基づいて前記訓練データのセットを使用して識別される、請求項28~45のいずれか一項に記載のシステム。
  47. 前記重み付き損失関数が重み付きダイス損失関数である、請求項46に記載のシステム。
  48. 前記三次元ニューラルネットワークモデルが、修正された3D U-Netモデルである、請求項28~37のいずれか一項に記載のシステム。
  49. 前記修正された3D U-Netモデルが、総数で5,000,000個から12,000,000個の学習可能パラメータを含む、請求項48に記載のシステム。
  50. 前記修正された3D U-Netモデルが、総数で800個から1,700個のカーネルを含む、請求項48または49に記載のシステム。
  51. 前記動作が、
    前記関心オブジェクトの周囲の推定された境界に基づいて、前記関心オブジェクトのサイズ、表面積、および/または体積を判定することと、
    (i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を提供することと、をさらに含む、請求項28~50のいずれか一項に記載のシステム。
  52. 前記動作が、ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積に基づいて、前記被験者の診断を判定することをさらに含む、請求項51に記載のシステム。
  53. 前記動作が、
    イメージングシステムを使用するユーザによって、前記被験者の前記医用画像を取得することであって、前記イメージングシステムが、前記1つ以上の医用イメージングモダリティを使用して前記医用画像を生成する、取得することと、
    前記関心オブジェクトの周囲の前記推定されたセグメンテーション境界に基づいて、前記関心オブジェクトのサイズ、表面積、および/または体積を判定することと、
    (i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を提供することと、
    ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を受信することと、
    前記ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積に基づいて、前記被験者の診断を判定することと、
    をさらに含む、請求項28~52のいずれか一項に記載のシステム。
  54. 前記動作が、前記ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、(ii)前記関心オブジェクトのサイズ、表面積、および/もしくは体積、および/または(iii)前記被験者の診断に基づく化合物による処置を投与することをさらに含む、請求項52または53に記載のシステム。
  55. 1つ以上のデータプロセッサに、動作を実行させるように構成された命令を含む非一時的機械可読記憶媒体に有形に具現化されたコンピュータプログラム製品であって、前記動作が、
    被験者の医用画像を取得することであって、前記医用画像が、第1の特性を有する第1の画像および第2の特性を有する第2の画像を含み、前記医用画像が、1つ以上の医用イメージングモダリティを使用して生成される、取得することと、
    位置特定モデルを使用して、前記第1の画像内のオブジェクトを位置特定し、複数のオブジェクトクラスに分類することであって、前記分類することが、前記第1の画像の画素またはボクセルのセットを前記複数のオブジェクトクラスのうちの1つ以上に割り当てる、位置特定および分類することと、
    前記位置特定モデルを使用して、前記複数のオブジェクトクラスのうちのオブジェクトクラスに割り当てられた画素またはボクセルのセットに基づいて、前記第1の画像内の関心オブジェクトのための境界ボックスまたはセグメンテーションマスクを判定することと、
    前記境界ボックスまたは前記セグメンテーションマスクを前記第2の画像上に転送して、前記関心オブジェクトを含む前記第2の画像の一部を画定することと、
    前記第2の画像の前記一部を、重み付き損失関数を使用して体積セグメンテーションのために構築された三次元ニューラルネットワークモデルに入力することと、
    前記三次元ニューラルネットワークモデルを使用して、前記関心オブジェクトの周りの推定されたセグメンテーション境界を生成することと、
    前記三次元ニューラルネットワークを使用して、前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部を出力することと、を含む、コンピュータプログラム製品。
  56. 前記1つ以上の医用イメージングモダリティが、第1の医用イメージングモダリティと、前記第1の医用イメージングモダリティとは異なる第2の医用イメージングモダリティとを含み、前記第1の画像が、前記第1の医用イメージングモダリティから生成され、前記第2の画像が、前記第2の医用イメージングモダリティから生成される、請求項55に記載のコンピュータプログラム製品。
  57. 前記1つ以上の医用イメージングモダリティが、第1の医用イメージングモダリティと、前記第1の医用イメージングモダリティと同じである第2の医用イメージングモダリティとを含み、前記第1の画像が、前記第1の医用イメージングモダリティから生成され、前記第2の画像が、前記第2の医用イメージングモダリティから生成される、請求項55に記載のコンピュータプログラム製品。
  58. 前記第1の画像が第1の種類の画像であり、前記第2の画像が第2の種類の画像であり、前記第1の種類の画像が前記第2の種類の画像とは異なる、請求項55または56に記載のコンピュータプログラム製品。
  59. 前記第1の画像が第1の種類の画像であり、前記第2の画像が第2の種類の画像であり、前記第1の種類の画像が前記第2の種類の画像と同じである、請求項55または57に記載のコンピュータプログラム製品。
  60. 前記第1の特性が前記第2の特性とは異なる、請求項55~59のいずれか一項に記載のコンピュータプログラム製品。
  61. 前記第1の特性が前記第2の特性と同じである、請求項55~60のいずれか一項に記載のコンピュータプログラム製品。
  62. 前記第1の医用イメージングモダリティが、磁気共鳴イメージング、拡散テンソルイメージング、コンピュータ断層撮影、陽電子放射断層撮影、光音響断層撮影、X線、超音波撮影、またはそれらの組み合わせであり、前記第2の医用イメージングモダリティが、磁気共鳴イメージング、拡散テンソルイメージング、コンピュータ断層撮影、陽電子放射断層撮影、光音響断層撮影、X線、超音波撮影、またはそれらの組み合わせである、請求項56または57に記載のコンピュータプログラム製品。
  63. 前記第1の種類の画像が、磁気共鳴画像、拡散テンソル画像もしくはマップ、コンピュータ断層撮影画像、陽電子放射断層撮影画像、光音響断層撮影画像、X線画像、ソノグラフィ画像、またはそれらの組み合わせであり、前記第2の種類の画像が、磁気共鳴画像、拡散テンソル画像もしくはマップ、コンピュータ断層撮影画像、陽電子放射断層撮影画像、光音響断層撮影画像、X線画像、ソノグラフィ画像、またはそれらの組み合わせである、請求項58または59に記載のコンピュータプログラム製品。
  64. 前記第1の特性が、異方性比コントラスト、平均拡散性コントラスト、軸方向拡散性コントラスト、半径方向拡散性コントラスト、プロトン密度コントラスト、T1緩和時間コントラスト、T2緩和時間コントラスト、拡散係数コントラスト、低解像度、高解像度、薬剤コントラスト、放射性トレーサコントラスト、光吸収コントラスト、エコー距離コントラスト、またはそれらの組み合わせであり、前記第2の特性が、異方性比コントラスト、平均拡散性コントラスト、前記軸方向拡散性コントラスト、半径方向拡散性コントラスト、プロトン密度コントラスト、T1緩和時間コントラスト、T2緩和時間コントラスト、拡散係数コントラスト、低解像度、高解像度、薬剤コントラスト、放射性トレーサコントラスト、光吸収コントラスト、エコー距離コントラスト、またはそれらの組み合わせである、請求項60または61に記載のコンピュータプログラム製品。
  65. 前記1つ以上の医用イメージングモダリティが拡散テンソルイメージングであり、前記第1の画像が部分異方性(FA)マップであり、前記第2の画像が平均拡散性(MD)マップであり、前記第1の特性が異方性比コントラストであり、前記第2の特性が平均拡散性コントラストであり、前記関心オブジェクトが前記被験者の腎臓である、請求項55に記載のコンピュータプログラム製品。
  66. 前記第1の画像内の前記オブジェクトを位置特定および分類することが、前記第1の画像の複数の画素またはボクセルに1つ以上のクラスタリングアルゴリズムを適用することを含む、請求項55~65のいずれか一項に記載のコンピュータプログラム製品。
  67. 前記1つ以上のクラスタリングアルゴリズムが、前記複数のオブジェクトクラスに関連するクラスタに観測値を割り当てるk平均アルゴリズムを含む、請求項66に記載のコンピュータプログラム製品。
  68. 前記1つ以上のクラスタリングアルゴリズムが、1つ以上の確率分布に基づいてクラスタメンバーシップの確率を計算する期待値最大化アルゴリズムをさらに含み、前記k平均アルゴリズムが、前記複数のオブジェクトクラスの各オブジェクトクラスの初期パラメータを推定することによって前記期待値最大化アルゴリズムを初期化する、請求項67に記載のコンピュータプログラム製品。
  69. 前記セグメンテーションマスクが判定され、前記セグメンテーションマスクを判定することが、
    前記オブジェクトクラスに割り当てられた前記画素またはボクセルのセットを使用して、前記関心オブジェクトのシード位置を識別することと、
    前記セグメンテーションマスクの深さを表すz軸に向かって前記シード位置を投影することによって前記シード位置を成長させることと、
    投影された前記シード位置に基づいて前記セグメンテーションマスクを判定することと、を含む、請求項55~68のいずれか一項に記載のコンピュータプログラム製品。
  70. 前記セグメンテーションマスクを判定することが、前記セグメンテーションマスクに対して形態学的閉鎖および充填を実行することをさらに含む、請求項69に記載のコンピュータプログラム製品。
  71. 前記動作が、前記第2の画像の前記一部を前記三次元ニューラルネットワークモデルに入力する前に、前記第2の画像の前記一部を生成するためにオブジェクトマスクにマージンを加えたものに基づいて前記第2の画像を切り取ることをさらに含む、請求項69または70に記載のコンピュータプログラム製品。
  72. 前記動作が、前記第2の画像の前記一部を前記三次元ニューラルネットワークモデルに入力する前に、前記第2の画像の前記一部の解像度を高めるために前記第2の画像を深層超解像ニューラルネットワークに入力することをさらに含む、請求項55~71のいずれか一項に記載のコンピュータプログラム製品。
  73. 前記三次元ニューラルネットワークモデルが、訓練データのセットを使用して識別された複数のモデルパラメータを含み、前記訓練データのセットが、
    関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の医用画像と、
    関心オブジェクトの周りのセグメンテーション境界に関連付けられた注釈を有する複数の追加の医用画像であって、前記複数の追加の医用画像が、前記複数の医用画像からの画像ヒストグラムを複数の参照マップからの画像ヒストグラムにマッチングさせることによって人工的に生成される、複数の追加の医用画像と、を含み、
    前記複数のモデルパラメータが、前記重み付き損失関数を最小化することに基づいて前記訓練データのセットを使用して識別される、請求項55~72のいずれか一項に記載のコンピュータプログラム製品。
  74. 前記重み付き損失関数が重み付きダイス損失関数である、請求項73に記載のコンピュータプログラム製品。
  75. 前記三次元ニューラルネットワークモデルが、修正された3D U-Netモデルである、請求項55~74のいずれか一項に記載のコンピュータプログラム製品。
  76. 前記修正された3D U-Netモデルが、総数で5,000,000個から12,000,000個の学習可能パラメータを含む、請求項75に記載のコンピュータプログラム製品。
  77. 前記修正された3D U-Netモデルが、総数で800個から1,700個のカーネルを含む、請求項75または76に記載のコンピュータプログラム製品。
  78. 前記動作が、
    前記関心オブジェクトの周囲の前記推定された境界に基づいて、前記関心オブジェクトのサイズ、表面積、および/または体積を判定することと、
    (i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を提供することと、をさらに含む、請求項55~77のいずれか一項に記載のコンピュータプログラム製品。
  79. 前記動作が、ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積に基づいて、前記被験者の診断を判定することをさらに含む、請求項78に記載のコンピュータプログラム製品。
  80. 前記動作が、
    イメージングシステムを使用するユーザによって、前記被験者の前記医用画像を取得することであって、前記イメージングシステムが、前記1つ以上の医用イメージングモダリティを使用して前記医用画像を生成する、取得することと、
    前記関心オブジェクトの周囲の前記推定されたセグメンテーション境界に基づいて、前記関心オブジェクトのサイズ、表面積、および/または体積を判定することと、
    (i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を提供することと、
    ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積を受信することと、
    前記ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、および/または(ii)前記関心オブジェクトのサイズ、表面積、および/または体積に基づいて、前記被験者の診断を判定することと、をさらに含む、請求項55~79のいずれか一項に記載のコンピュータプログラム製品。
  81. 前記動作が、前記ユーザによって、(i)前記関心オブジェクトの周りの前記推定されたセグメンテーション境界を有する前記第2の画像の前記一部、(ii)前記関心オブジェクトのサイズ、表面積、および/もしくは体積、および/または(iii)前記被験者の診断に基づく化合物による処置を投与することをさらに含む、請求項79または80に記載のコンピュータプログラム製品。
JP2022508485A 2019-08-14 2020-08-13 オブジェクト検出を用いて位置特定された医用画像の三次元オブジェクトセグメンテーション Pending JP2022544229A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962886844P 2019-08-14 2019-08-14
US62/886,844 2019-08-14
PCT/US2020/046239 WO2021030629A1 (en) 2019-08-14 2020-08-13 Three dimensional object segmentation of medical images localized with object detection

Publications (2)

Publication Number Publication Date
JP2022544229A true JP2022544229A (ja) 2022-10-17
JPWO2021030629A5 JPWO2021030629A5 (ja) 2023-08-22

Family

ID=72243239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022508485A Pending JP2022544229A (ja) 2019-08-14 2020-08-13 オブジェクト検出を用いて位置特定された医用画像の三次元オブジェクトセグメンテーション

Country Status (5)

Country Link
US (1) US11967072B2 (ja)
EP (1) EP4014201A1 (ja)
JP (1) JP2022544229A (ja)
CN (1) CN114503159A (ja)
WO (1) WO2021030629A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116309A1 (ja) * 2022-11-30 2024-06-06 日本電気株式会社 画像生成装置、学習装置、画像生成方法、およびプログラム

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111050642A (zh) * 2017-07-07 2020-04-21 国立大学法人大阪大学 利用了趋势分析的疼痛判别、机器学习、经济性判别模型及应用了IoT的医疗装置、定制化机器学习、以及新型疼痛判别用脑波特征量
US11950953B1 (en) * 2018-02-23 2024-04-09 Robert Edwin Douglas Image processing via a modified segmented structure
US11544509B2 (en) * 2020-06-30 2023-01-03 Nielsen Consumer Llc Methods, systems, articles of manufacture, and apparatus to classify labels based on images using artificial intelligence
KR102490645B1 (ko) * 2020-07-16 2023-01-25 고려대학교 산학협력단 흡수에너지 기반 전기장 암치료 계획 시스템 및 방법
EP3975120B1 (en) 2020-09-24 2023-01-11 Stryker European Operations Limited Technique for guiding acquisition of one or more registration points on a patient's body
TWI790508B (zh) * 2020-11-30 2023-01-21 宏碁股份有限公司 血管偵測裝置及基於影像的血管偵測方法
CN112699937B (zh) * 2020-12-29 2022-06-21 江苏大学 基于特征引导网络的图像分类与分割的装置、方法、设备及介质
US11630882B2 (en) * 2021-04-23 2023-04-18 Hewlett-Packard Development Company, L.P. Adaptation of one shot machine learning model trained on other registered images of other content for usage to instead identify whether input image includes content of registered images
CN113297910B (zh) * 2021-04-25 2023-04-18 云南电网有限责任公司信息中心 一种配网现场作业安全带识别方法
WO2022236279A1 (en) * 2021-05-04 2022-11-10 The General Hospital Corporation Collaborative artificial intelligence annotation platform leveraging blockchain for medical imaging
CN113160947A (zh) * 2021-05-18 2021-07-23 上海商汤智能科技有限公司 医学图像的展示方法及装置、电子设备和存储介质
CN113450320B (zh) * 2021-06-17 2022-11-29 浙江德尚韵兴医疗科技有限公司 一种基于较深网络结构的超声结节分级与良恶性预测方法
CN113674254B (zh) * 2021-08-25 2024-05-14 上海联影医疗科技股份有限公司 医学图像异常点识别方法、设备、电子装置和存储介质
CN113935433B (zh) * 2021-11-02 2024-06-14 齐齐哈尔大学 基于深度光谱空间倒残差网络的高光谱图像分类方法
CN114220032A (zh) * 2021-12-21 2022-03-22 一拓通信集团股份有限公司 一种基于通道裁剪的无人机视频小目标检测方法
US11908174B2 (en) * 2021-12-30 2024-02-20 GE Precision Healthcare LLC Methods and systems for image selection
WO2023196474A1 (en) * 2022-04-06 2023-10-12 University Of Virginia Patent Foundation Automation of the blood input function computation pipeline for dynamic fdg pet for human brain using machine learning
CN114708973B (zh) * 2022-06-06 2022-09-13 首都医科大学附属北京友谊医院 一种用于对人体健康进行评估的设备和存储介质
CN115311135A (zh) * 2022-06-24 2022-11-08 西南交通大学 一种基于3dcnn的各向同性mri分辨率重建方法
CN115082529B (zh) * 2022-06-30 2023-04-14 华东师范大学 一种大体组织多维信息采集和分析***与方法
WO2024026255A1 (en) * 2022-07-25 2024-02-01 Memorial Sloan-Kettering Cancer Center Systems and methods for automated tumor segmentation in radiology imaging using data mined line annotations
CN115222746A (zh) * 2022-08-16 2022-10-21 浙江柏视医疗科技有限公司 一种基于时空融合的多任务心脏亚结构分割方法
CN115187950B (zh) * 2022-09-13 2022-11-22 安徽中科星驰自动驾驶技术有限责任公司 用于深度学***衡掩码二次采样方法
EP4345747A1 (en) * 2022-09-30 2024-04-03 Stryker European Operations Limited Medical image data processing technique
CN115359325B (zh) * 2022-10-19 2023-01-10 腾讯科技(深圳)有限公司 图像识别模型的训练方法、装置、设备和介质
CN115619799B (zh) * 2022-12-15 2023-04-18 北京科技大学 一种基于迁移学习的晶粒图像分割方法及***
CN115953413B (zh) * 2023-03-13 2023-06-02 同心智医科技(北京)有限公司 一种mra图像分割方法、装置及存储介质
CN116486196B (zh) * 2023-03-17 2024-01-23 哈尔滨工业大学(深圳) 病灶分割模型训练方法、病灶分割方法及装置
CN116030260B (zh) * 2023-03-27 2023-08-01 湖南大学 一种基于长条状卷积注意力的手术全场景语义分割方法
CN116416289B (zh) * 2023-06-12 2023-08-25 湖南大学 基于深度曲线学习的多模图像配准方法、***及介质
CN116758289B (zh) * 2023-08-14 2023-10-24 中国石油大学(华东) 一种自补偿学习的小样本图像分割方法
CN117788703A (zh) * 2023-12-26 2024-03-29 中数科技(青岛)有限公司 一种基于机器视觉的港口三维模型构建方法和电子设备
CN117893532B (zh) * 2024-03-14 2024-05-24 山东神力索具有限公司 基于图像处理的模锻索具用模具裂纹缺陷检测方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6909805B2 (en) * 2001-01-31 2005-06-21 Matsushita Electric Industrial Co., Ltd. Detecting and utilizing add-on information from a scanned document image
EP2948045B1 (en) * 2013-01-24 2022-04-13 Tylerton International Holdings Inc. Body structure imaging
US9996919B2 (en) * 2013-08-01 2018-06-12 Seoul National University R&Db Foundation Method for extracting airways and pulmonary lobes and apparatus therefor
US10980519B2 (en) * 2015-07-14 2021-04-20 Duke University Systems and methods for extracting prognostic image features
US9760807B2 (en) * 2016-01-08 2017-09-12 Siemens Healthcare Gmbh Deep image-to-image network learning for medical image analysis
WO2018081537A1 (en) * 2016-10-31 2018-05-03 Konica Minolta Laboratory U.S.A., Inc. Method and system for image segmentation using controlled feedback
CN111602174A (zh) * 2018-01-08 2020-08-28 普罗热尼奇制药公司 基于神经网络快速分割图像以及测定放射性药品吸收量的***和方法
US10885630B2 (en) * 2018-03-01 2021-01-05 Intuitive Surgical Operations, Inc Systems and methods for segmentation of anatomical structures for image-guided surgery

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024116309A1 (ja) * 2022-11-30 2024-06-06 日本電気株式会社 画像生成装置、学習装置、画像生成方法、およびプログラム

Also Published As

Publication number Publication date
WO2021030629A1 (en) 2021-02-18
US20220230310A1 (en) 2022-07-21
US11967072B2 (en) 2024-04-23
EP4014201A1 (en) 2022-06-22
CN114503159A (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
US11967072B2 (en) Three-dimensional object segmentation of medical images localized with object detection
US11610308B2 (en) Localization and classification of abnormalities in medical images
Prados et al. Spinal cord grey matter segmentation challenge
Roy et al. Robust skull stripping using multiple MR image contrasts insensitive to pathology
Zhao et al. A novel U-Net approach to segment the cardiac chamber in magnetic resonance images with ghost artifacts
JP2022525198A (ja) 陽電子放射断層撮影を用いた腫瘍セグメンテーションのための深層畳み込みニューラルネットワーク
US9218542B2 (en) Localization of anatomical structures using learning-based regression and efficient searching or deformation strategy
Lei et al. Deep learning in multi-organ segmentation
Oghli et al. Automatic fetal biometry prediction using a novel deep convolutional network architecture
EP3444781B1 (en) Image processing apparatus and image processing method
Vivanti et al. Patient-specific and global convolutional neural networks for robust automatic liver tumor delineation in follow-up CT studies
JP2023540910A (ja) 病変検出のための共同訓練を伴う接続機械学習モデル
Cano-Espinosa et al. Biomarker localization from deep learning regression networks
van Eijnatten et al. 3D deformable registration of longitudinal abdominopelvic CT images using unsupervised deep learning
Zhou et al. 3D segmentation guided style-based generative adversarial networks for pet synthesis
Arega et al. Leveraging uncertainty estimates to improve segmentation performance in cardiac MR
Wang et al. Pixel-wise body composition prediction with a multi-task conditional generative adversarial network
CN114926487A (zh) 多模态影像脑胶质瘤靶区分割方法、***及设备
Li et al. Clinical study of diffusion-weighted imaging in the diagnosis of liver focal lesion
Xiao et al. PET and CT image fusion of lung cancer with siamese pyramid fusion network
Chen et al. Research related to the diagnosis of prostate cancer based on machine learning medical images: A review
Garcia et al. Multimodal breast parenchymal patterns correlation using a patient-specific biomechanical model
US20240221162A1 (en) Three dimensional object segmentation of medical images localized with object detection
Meça Applications of Deep Learning to Magnetic Resonance Imaging (MRI)
Longuefosse et al. Lung CT Synthesis Using GANs with Conditional Normalization on Registered Ultrashort Echo-Time MRI

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230814

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230814

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240229

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240611