JP2023515367A - モデルへの入力インスタンスの分布外検出 - Google Patents

モデルへの入力インスタンスの分布外検出 Download PDF

Info

Publication number
JP2023515367A
JP2023515367A JP2022548651A JP2022548651A JP2023515367A JP 2023515367 A JP2023515367 A JP 2023515367A JP 2022548651 A JP2022548651 A JP 2022548651A JP 2022548651 A JP2022548651 A JP 2022548651A JP 2023515367 A JP2023515367 A JP 2023515367A
Authority
JP
Japan
Prior art keywords
model
distribution
input
main model
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022548651A
Other languages
English (en)
Other versions
JPWO2021165053A5 (ja
Inventor
ニコラ ペゾッティ
ディミトリオス マヴロエイディス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2023515367A publication Critical patent/JP2023515367A/ja
Publication of JPWO2021165053A5 publication Critical patent/JPWO2021165053A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2433Single-class perspective, e.g. one-against-all classification; Novelty detection; Outlier detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本発明は、メインモデルへの入力インスタンスの分布外(OOD)検出のためのシステム200に関する。メインモデルは、入力インスタンスから出力画像を生成する。分布外検出は、メインモデルと同じ訓練データセット上で訓練された複数の二次モデルを使用する。入力インスタンスの分布外検出を実行するために、入力インスタンスに対する個々の二次モデルの出力画像のピクセルごとの分布外スコアが算出される。ピクセルのピクセル分布外スコアは、各二次モデル出力画像におけるピクセルの各値のばらつきとして決定される。このばらつきは一般に、OOD(分布外)インスタンスよりも分布内ID(分布内)インスタンスの方が低く、従って、入力インスタンスが分布外であるか否かの尺度を提供する。決定されたピクセル分布外スコアは組み合わされて、訓練データセットに関して当該入力インスタンスが分布外であるかどうかを示す全体分布外スコアが生成される。

Description

本発明は、モデルへの入力インスタンスの分布外検出のためのシステム及び対応するコンピュータ実現方法に関する。本発明は更に、分布外検出を可能にするシステム及び対応するコンピュータ実現方法に関する。本発明は、コンピュータ可読媒体にも関する。
MRスキャナ及びCTスキャナなどの医用撮像装置から到来するデータの処理パイプラインは、様々な複雑な画像処理演算を伴う。例えば、スキャナから到来する生のデータは、臨床医によって検査されるべき画像に変換されることができ、これは、画像再構成として知られるタスクである。別の例として、特定の対象は、医用撮像装置によって生成された画像において認識され、強調表示されることができ、これはセマンティックセグメンテーションとして知られるタスクである。画像解析は例えば、病変部を特定するために使用されることもできる。一般に、そのような画像処理モデルは、入力インスタンス、例えば、入力画像、又はいわゆるk空間表現(MRスキャナの場合)もしくはサイノグラム(CTスキャナの場合)で表される生スキャナデータから、出力画像を生成する。
関与する様々な画像処理演算の複雑さを考慮すると、医用画像処理のために機械学習可能モデルを使用することがますます魅力的になってきている。そのような機械学習可能モデルは様々なタスクを実行し、手動で設計されたアルゴリズムよりも良好な結果を提供する見込みを保持するために、訓練データセット上で自動的に訓練されることができる。例えば、NPezzotti他による"Adaptive-CS-Net: FastMRI with Adaptive Intelligence"(https://arxiv.org/abs/1912.12259において入手可能であり、本明細書において参照により盛り込まれる)では、アンダーサンプリングされたk空間データからMR画像を再構成するための機械学習可能なモデルが提案されており、これは従来の方法よりも良好に機能することが示されている。別の用途は、低線量CTスキャンのノイズ除去である。更に、様々な他のアプリケーション領域、例えば、自律運転及び視覚監視において、セグメンテーションモデルなどの出力画像を提供する画像処理モデルは、品質が絶えず改善されており、現実にますます展開されている。
このような機械学習可能な画像処理モデルを実際の生活において、特に医用画像解析又は自律運転などの重要なアプリケーション領域において適用する場合、画像処理モデルによって提供される出力画像に頼ることができることが重要である。しかしながら、機械学習可能な画像処理モデルが訓練中に使用されるデータとはあまりに非類似の入力インスタンスに適用されるとき、それらは、一般に、正確な結果を提供することを保証されない。あまりに非類似の入力インスタンスは、一般に、「分布外(out-of-distribution)」(OOD、アウトオブディストリビューション)と呼ばれる。更に、何かが間違っていることが、モデルの出力画像から直接観察できないことがある。例えば、医用撮像では、ディープラーニングに基づくいくつかの画像処理モデルが、真の解剖学的構造とは異なる現実的で解剖学的に尤もらしい画像を生成し得ることが観察されている。アーチファクトは真の解剖学的構造のように見えるので、放射線科医はアーチファクトとしてそれらを識別することができない場合がある。これは、診断に影響を及ぼす誤った解釈、製品の価値/品質に対する信頼性の低下、及び/又は放射線科医の更なる負担につながる可能性がある。
残念ながら、様々な既知の分布外検出技術は、(例えば、分類ではなく)出力として画像を有する画像処理モデルには適用できない。従って、画像処理モデルへの入力インスタンスの分布外検出を行うことができることが望ましい。
様々な実施形態は、出力画像を生成するモデル、例えばディープニューラルネットワーク、によって処理される入力インスタンスが、トレーニングに使用されたデータセットに含まれたかどうか、従って、モデルが信頼できる結果を生成することが期待されることができるかどうかを推定することに関する。
本発明の第1の態様によれば、メインモデルへの入力インスタンスの分布外(OOD)検出のためのシステムが提案される。本発明の更なる態様によれば、メインモデルへの入力インスタンスの分布外検出のコンピュータ実現方法が提案される。メインモデルは、入力インスタンスから出力画像を生成するように構成されることができる。メインモデルは、訓練データセット上で訓練された、又は訓練されている機械学習可能モデルでありうる。分布外検出を実行するために、複数の二次モデルが使用されることができる。二次モデルは、メインモデルが訓練される同じ訓練データセット上で訓練されることができる。入力インスタンスが与えられると、個々の二次モデルがその入力インスタンスに適用されて、個々の二次モデル出力画像が取得されることができる。ピクセルごとに、ピクセル分布外スコアは、それぞれの二次モデル出力画像におけるピクセルのそれぞれの値の間のバリエーションとして決定されることができる。ピクセル分布外スコアを組み合わせて、訓練データセットに対して入力インスタンスが分布外であるかどうかを示す全体分布外スコアを生成することも可能である。全体分布外スコアに基づいて、入力インスタンスが分布外であるかどうかを示す出力信号が生成されることができる。
分布外検出を提供するために、様々な態様は、メインモデルと同じ訓練データセット上で訓練された複数の二次モデルを使用する。複数の二次モデルは総じて二次モデルの「アンサンブル」と呼ぶことができる。訓練データセットは、一般に、複数の訓練入力インスタンスと、対応する訓練出力画像とを含む。メインモデルは、訓練入力インスタンスが与えられると、対応する訓練出力画像を生成するように訓練されることができる。二次モデルは、同じ訓練入力インスタンスを与えられる場合に同じ訓練出力画像を生成するように、又は、例えば、ダウンスケーリング、チャネル低減、もしくは別の画像処理演算によって、出力及び入力が元の訓練出力及び入力に関連する状況でかかる入力から出力を生成するように、訓練されることができるという意味で、同じ訓練データセット上で訓練されることができる。二次モデルは、メインモデルと同じモデルアーキテクチャを使用することができ(任意にはメインモデルは二次モデルのうちの1つでありうる)、又はその変形、例えば、より少ない訓練可能なパラメータを有する単純化を使用することができる。例えば、それぞれの二次モデルは、そのパラメータの組のそれぞれのランダム初期化に基づいて同じ訓練可能モデルをトレーニングすることによって、訓練されることができる。
メインモデルと類似のデータで訓練されることにより及び/又はメインモデルと類似のアーキテクチャを使用することにより、二次モデルは、訓練データと類似の入力インスタンスに適用されたとき、メインモデルとほぼ同じ振る舞いを示すことが期待されうる。従って、少なくとも、訓練データに類似する入力インスタンスが二次モデルに入力される場合、又は言い換えれば、入力インスタンスが分布内(in distribution、ID)にある場合、それぞれの二次モデルは、概して、同様の結果を生成することができる。従って、それぞれの二次モデルの出力画像のピクセルごとの分散は、一般に低くなり得る。しかしながら、入力インスタンスが分布外(OOD)である場合、それぞれの二次モデルは、その入力インスタンスに対して同様の出力を提供するようには訓練されておらず、それらは別々に訓練されているので、一般に、それらの出力画像のピクセルごとのより高い分散を有し得る。従って、出力画像のピクセルのそれぞれの別個のピクセル分布外スコアは、入力インスタンスがOODか否かの計測値とみなすことができ、従って、入力インスタンスが分布外であるという総合評価は、1つ又は複数のピクセルのピクセル分布外スコアを組み合わせて総合分布外スコアを生成することによって、取得されることができる。
これにより、画像生成モデルに対する分布外検出を効率的かつ高精度に行うことができる。正確な総合分布外スコアを得るためには、比較的限られた数の二次モデルで十分であり、例えば、多くても20個、あるいは多くても10個、あるいは多くても5個で十分である。本発明者らは、既に5つの二次モデルで良好な結果を得ることができた。事実、ピクセル分布外スコアの各々は、それ自体が入力インスタンスが分布外であるかどうかの測定値とみなされるため、限られた数の二次モデルでも、入力インスタンスのOOD性を決定するのに十分なデータが利用可能でありうる。更に、より少ない訓練可能なパラメータ及び/又はより少ない入力及び/又はより少ない出力をもつ二次モデルを使用することによって、メインモデルを適用することに関する分布外スコアを計算するオーバーヘッドが制限されることができる。提供されるOOD技術の別の利点は、それらが大きくモデルにとらわれないこと、例えば、メインモデル及び/又は二次モデルの特定のモデルアーキテクチャに依存しないことである。
本発明の別の態様によれば、メインモデルへの入力の分布外(OOD)検出を可能にする装置が提案される。本発明の更なる態様によれば、対応するコンピュータ実現方法が提案される。システム及び方法では、複数の二次モデルが、メインモデルが訓練された同じ訓練データセット上で訓練されることができる。次いで、二次モデルは、分布外検出を可能にするためにメインモデルと関連付けられることができる。本発明の更なる態様によれば、本明細書に記載のコンピュータ実現方法を実行するための1又は複数の命令、又は本明細書に記載の分布外検出を可能にするためにメインモデルに関連付けられた二次モデルを表す一時的又は非一時的データを含むコンピュータ可読媒体が提案される。
様々な実施形態において、本明細書に記載される分布外検出技術は、医用画像処理に適用されることができる。医用画像処理のための様々なモデルはそれ自体当技術分野で知られており、提示された技法と組み合わせることができる。医用画像処理において、メインモデルの出力画像は、医用撮像装置、例えばCTスキャナ又はMRスキャナの入力データから決定されることもできる。興味深いことに、MRスキャナからのデータを使用する際に、入力インスタンスがメインモデルを適用するための既知の訓練例と十分に類似していない場合には、出力画像が分布外としてフラグ付けされることができるので、本明細書に記載されているように分布外検出ができることは、アンダーサンプルk空間データ(例えば、加速スキャニングによって得られる)を安全に使用することを可能にしうる。スキャナで取得する必要があるデータが少なくなるので、信頼性の高い結果を得ながら検査時間を短縮することができる。同様に、CTスキャナからのデータを使用する場合、分布外検出技術を使用することで、信頼性の高い結果で安全に低い線量を適用でき、結果として患者の被曝量を低減することができる。
一般に、医用撮像装置からの入力データを使用する場合、この入力データは、医用撮像装置によって生成された信号でありうる。例えば、MRスキャナの場合、信号は、k空間表現に逆フーリエ変換を適用することによって、k空間において、又は画像空間において表現されることができる。同様に、CTスキャナの場合、信号は、サイノグラム表現に逆ラドン変換を適用することによって、サイノグラムとして、又は画像空間において表現されることができる。このように生の信号が使用される場合、メインモデルは例えば、信号から入力画像を再構成するように構成された医用画像再構成モデルでありうる。そのような再構成モデルはまた、ノイズ除去モデルと呼ばれるか、又はノイズ除去モデルを含むことができる。例えば、CT画像はCT信号から再構成され、MR画像はMR信号から再構成されることができるが、例えば、MR信号からCT画像を、又はCT信号からMR画像を再構成するようにモデルを学習することも可能である。信号を入力として使用する代わりに、医用画像プロセッサモデルは、そのような信号から再構成された入力画像に対して動作することもできる。
メインモデルは、医用画像処理又は他のアプリケーションドメインで使用するためのセマンティックセグメンテーションモデルなどのセグメンテーションモデルでありうる。セグメンテーションモデルは特定の特性、例えば、画像内に位置することができる対象又は他のタイプのものを表す入力インスタンスの一部を示すように構成されることができる。例えば、特性は、入力インスタンス中の特定の位置に存在し得る任意の特定のタイプの対象(例えば、嚢胞、腫瘍、細胞核、リンパ球、壊死組織など)、又は入力インスタンス中に存在する対象が有し得る特定の特性(例えば、暗い、ノイズの多い、尖っているなど)であり得る。例えば、メインモデルは、画像ピクセルごとに、そのピクセルが特性に属するかどうかの標示を提供することができる。メインモデルはまた、入力インスタンスのそれぞれのピクセルについて、そのピクセル位置における特性(例えば、細胞又は核密度、組織内の潅流など)の存在のそれぞれの量又は程度を示すように構成されることができる。
メインモデルは、入力画像中の病変を特定する出力画像を決定するように構成された医用画像解析モデルでもよい。このようなモデルは、必要に応じて、再構成画像又は医用撮像装置の信号に対して動作することができる。例えば、メインモデルは、前立腺腫瘍もしくは卵巣腫瘍の腫瘍検出モデル、又は入力画像において同定された腫瘍の部分に異常値を割り当てるように構成された腫瘍グレーディングモデルでありうる。
当業者が理解するように、本明細書で提供される技法は、医用画像処理に限定されず、自律運転又はビデオ監視などの画像処理のための様々な他のアプリケーションドメインで使用されることもできる。
様々な態様において、入力インスタンスが分布外であるかどうかを示す出力信号が、全体分布外スコアに基づいて生成されることができる。そのような出力信号は様々な方法で、例えば、ユーザによって、又は更に自動化された処理の中で使用されることができる。
任意には、全体分布外スコアを使用して、メインモデルを入力インスタンスに適用するかどうかを判定することができる。このような場合、入力インスタンスが分布外であることを示さない場合にのみ、メインモデルを入力インスタンスに適用してメインモデル出力画像を得ることができ、かかるメインモデル出力画像は、例えば、感覚的に知覚できる方法でユーザに、又は更なる自動処理のためにデジタルで出力されることができる。しかし、分布外であると示された入力インスタンスに対してもメインモデルを適用することも可能であり、例えば、そのような場合、出力画像は、入力インスタンスが分布外であると判定されたという警告又はエラーと共に示されることもできる。
任意には、出力信号は更に、入力インスタンスが分布外であることに寄与する出力画像の1つ又は複数のピクセル、例えば、最も高いピクセル分布外スコアを有するピクセルのサブセットを示すことができる。例えば、示されるピクセルは、分布外スコアが閾値を超えるピクセルとすることができ、あるいは、最高の分布外スコアを有するピクセルの一定の割合又は数であってもよい。寄与するピクセルを示すことにより、入力インスタンスが分布外である判定された理由を理解し、それに応じて、例えば、寄与すると示された点で入力インスタンスに類似する追加の訓練データを訓練データセットに含めることによって、これをどのように改善することができるかを理解するのに役立つフィードバックを提供することができる。
一般に、入力インスタンスが分布外であることには様々な要因があり得、従って、分布外検出時に様々な救済が適用されることができる。ここで、別々に、又は組み合わせて使用することができるいくつかの原因及び対応策を考察する。
入力インスタンスが分布外である原因として、入力インスタンスが低品質であることが考えられる。例えば、入力インスタンスが訓練例と非常に類似している場合、その入力インスタンスは、メインモデルがなお信頼性をもってモデル出力を提供することができる「いつものケース(routine case)」を表している可能性がある。そのような場合、一般に、二次モデルも一貫して同様の出力画像を提供することができる。しかしながら、入力インスタンスが訓練データセットとあまり類似していない場合、二次モデルは発散する可能性があり、従って、メインモデル出力における信頼性が低くなる。従って、入力インスタンスは分布外であると決定されることができる。例えば、入力インスタンスは、スキャンされる特定の被検体の出力画像を信頼性をもって生成するには低すぎる線量で動作するCTスキャナ、又は高すぎる加速度で動作するMRスキャナからのデータであってよい従って、いくつかの実施形態において、入力インスタンスが分布外であると決定すると、より高い品質(例えば、より高い線量又はより低い加速度)での入力インスタンスの新しい測定(例えば、新しいCT又はMRスキャン)を得ることができ、それに対して再び総合分布外スコアが決定されることができる。新しい入力インスタンスが分布外でない場合、この入力インスタンスは、例えば、ユーザに提示されるか、又は自動的に処理されるなど、更に使用されるこいとができる。任意には、このプロセスは、複数の品質設定に対して繰り返されることもできる。
入力インスタンスが分布外である別の考えられる要因は、入力インスタンスにおける測定アーチファクトであり得る。例えば、医用撮像装置内でスキャンされている被検体の動きに起因する動きアーチファクト、又は金属アーチファクトなどが存在し得る。従って、より高い品質で新しい測定を実行する代わりに、又はそれに加えて、同じ品質で新しい測定を実行されることもできる。新しい入力インスタンスが分布外でない場合、それは更に使用されることができ、前の入力インスタンスはアーチファクトとして無視される。
入力インスタンスが分布外である別の考えられる要因は、入力インスタンスによって測定されている被検体が分布外であることである。例えば、スキャンされている被検体は、データセットにおいて十分に表現されていない病変を有している可能性がある。この原因は、同じ被検体を表す複数の入力インスタンスが分布外であるが、他の被検体の入力インスタンスは分布外でないと決定することによって認識されることができる。被検体が分布外であると判定された場合、例えば、その被検体は更なる分析のために、ユーザ、例えば臨床医に報告されることができる。任意に、被検体が分布外であることを検出すると、入力インスタンスに対する別の出力画像がフォールバックモデルを使用して決定されることができ、メインモデルの出力画像の代わりに別の出力画像が使用されることもできる。フォールバックモデルは例えば、トレーニング不可能なモデルであり得る。例えば、MRスキャンの場合、被検体が分布外であれば、それ自体知られているSENSEに基づく再構成がフォールバックとして使用されることができる。
入力インスタンスが分布外である別の可能な原因は、持続的な測定問題、例えば、測定装置の欠陥又は測定のための誤った環境条件でありうる。この要因は、複数の被検体を表す入力インスタンスが分布外であると決定することによって認識されることができる。そのような場合、永続的な測定問題が、修正のために報告されることができる。
上述の実施形態、実施、及び/又は任意の態様のうちの2つ以上が有益であると考えられる任意の方法で組み合わされることができることが、当業者によって理解される。
対応するシステムの記載された修正例及び変形例に対応する任意のコンピュータ実現方法及び/又は任意のコンピュータ可読媒体の修正例及び変形例(逆の場合も同様)は、本明細書に基づいて当業者によって実行されることができる。
本発明のこれら及び他の態様は以下の説明及び添付の図面を参照して例として説明される実施形態から明らかになり、それを参照して更に説明される。
メインモデルへの入力の分布外(OOD)検出を可能にするシステムを示す図。 メインモデルへの入力インスタンスの分布外(OOD)検出のためのシステムを示す図。 本明細書に記載の技術と共に使用されるモデルを示し、本実施形態においてU-Net型モデルの詳細な例を示す図。 入力インスタンスの全体分布外スコアを決定する全体の詳細な例を示す図。 メインモデルへの入力インスタンスの分布外(OOD)検出のコンピュータ実現方法を示す図。 メインモデルへの入力の分布外(OOD)検出を可能にするコンピュータ実現方法を示す図。 データを含むコンピュータ可読媒体を示す図。
図面は概略的なものにすぎず、縮尺通りに描かれていないことに留意されたい。図面において、既に説明された構成要素に対応する構成要素は、同じ参照番号を有しうる。
図1は、メインモデルへの入力の分布外(out-of-distribution、OOD)検出を可能にする装置100を示す。メインモデルは、入力インスタンスから出力画像を生成するように構成されることができる。メインモデルは、訓練データセット上で訓練されることができる。システム100は、データインタフェース120と、データ通信121を介して内部で通信することができるプロセッササブシステム140とを有することができる。データインタフェース120は、メインモデルが訓練される訓練データセットを表すデータ030にアクセスするためのものであってもよい。データインタフェース120はまた、以下でより詳細に論じられるように、メインモデル及び/又は複数の二次モデル040にアクセスするためのものであり得る。二次モデル040は例えば、図2のシステム200によって、本明細書に記載される方法による分布外検出のために使用されることができる。分布外検出の実現及び分布外検出自体は単一のシステム又は方法に組み合わされてもよく、例えば、システム100及び200は、単一のシステムに組み合わされることもできる。システム、例えば、そのプロセッササブシステムは、訓練データセット030上でメインモデルを訓練するように更に構成されることができる。
プロセッササブシステム140はシステム100の動作中に、データインタフェース120を使用して、データ030、040にアクセスするように構成されることができる。例えば、図1に示すように、データインタフェース120は、前記データ030、040を含むことができる外部データストレージ021へのアクセス122を提供することができる。あるいはデータ030、040はシステム100の一部である内部データストレージからアクセスされることもできる。代替的に、データ030、041は、別のエンティティからネットワークを介して受信されることができる。一般に、データインタフェース120はローカル又はワイドエリアネットワーク、例えば、インターネットへのネットワークインタフェース、内部又は外部データストレージへのストレージインタフェースなど、様々な形態をとることができる。データ記憶021は、任意の既知の適切な形態をとることができる。
プロセッササブシステム140はシステム100の動作中に、データインタフェース120を使用して、複数の二次モデル040を訓練するように構成されることができる。二次モデル040は、メインモデルが訓練される訓練データセット030上で訓練されることができる。二次モデル040は、分布外検出において使用される入力に対する二次モデル出力画像を算出するものでありうる。
プロセッササブシステム140は、分布外検出を可能にするために、複数の二次モデル040をメインモデルと関連付けるように更に構成されることができる。二次モデルは例えば、ファイルヘッダ、XML要素などとして、モデルデータ自体に二次モデルを含めることによって、又は二次モデルを別個のファイルとして、もしくは任意の他の方法で提供することによって、任意の適切な方法で、メインモデルに、又はより具体的にはメインモデルを表すデータに関連付けられ得る。例えば、二次モデル040はメインモデルと同じデータコンテナに、例えば同じファイルに格納されることができるが、メインモデルに関連する別個の二次モデルとして提供されることもできる。例えば、いくつかの実施形態において、メインモデルは例えば、二次モデル040がアクセス可能なURLを含むことによって、二次モデルにリンクすることができ、又は二次モデル040は、メインモデルにリンクされることもできる。様々な他の関連手段が等しく考えられ、当業者の範囲内である。
任意のコンポーネントとして、システム100は、センサからのセンサデータ、例えば、CTスキャナ又はMRスキャナなどの医用撮像装置によって生成された信号、を取得するための入力インタフェース(図示せず)を有することができる。訓練データセットの1つ又は複数の訓練入力インスタンスは、そのようなセンサデータに基づくことができる。入力インタフェースを介して入力インスタンスを取得することは図2に関してより詳細に論じられ、そこに記載されるオプションはシステム100にも同様に適用されることができる。例えばCTスキャナ又はMRスキャナのようなセンサデータを測定するよう構成されたセンサ自体が、システム100の一部であってもよい。
システム100の動作の様々な詳細及び態様は、その任意の態様を含む、図3及び図4を参照して更に説明される。
一般に、システム100は、例えばラップトップもしくはデスクトップベースのワークステーション又はサーバなどの単一のデバイス又は装置として、又はその中で具体化されることができる。デバイス又は装置は、適切なソフトウェアを実行する1つ又は複数のマイクロプロセッサを有することができる。例えば、プロセッササブシステムは、単一の中央処理ユニット(CPU)によって具体化されることができるが、そのようなCPU及び/又は他のタイプの処理ユニットの組み合わせ又はシステムによっても具体化されることができる。ソフトウェアは、対応するメモリ、例えば、RAMなどの揮発性メモリ、又はフラッシュなどの不揮発性メモリにダウンロード及び/又は記憶されていてもよい。代替として、例えばデータインタフェース及びプロセッササブシステムのようなシステムの機能ユニットは、プログラマブルロジックの形で、例えば、フィールドプログラマブルゲートアレイ(Field-Programmable Gate Array)及び/又はGPU(グラフィック処理ユニット)として、デバイス又は装置において実現されることができる。一般に、システムの各機能ユニットは、回路の形で実現されることができる。システム100は更に、例えば、クラウドコンピューティングの形の分散サーバなどの複数の異なるデバイス又は装置を含む、分散形式で実現されることができることに留意されたい。
図2は、メインモデルへの入力インスタンスの分布外(OOD)検知のためのシステム200を示す。メインモデルは、入力インスタンスから出力画像を生成するように構成されることができる。メインモデルは、訓練データセット上で訓練されたものでありうる。システム200は、データインタフェース220と、データ通信221を介して内部で通信することができるプロセッササブシステム240と、を有することができる。データインタフェース220は、分布外検出に使用するための複数の二次モデルを表すデータ040にアクセスするためのものでありうる。二次モデルは、メインモデルが訓練されるのと同じ訓練データセット上で訓練されることができる。データインタフェース220は更に、メインモデルにアクセスするためのものでありうる。二次モデルデータは、例えば図1のシステム100のような分布外検出を可能にするシステムから取得されることができ、又は本明細書に記載の分布外検出を可能にするためのメソッドを実行することによって取得されることもできる。
プロセッササブシステム240は、システム200の動作中に、データインタフェース220を使用して、データ040にアクセスするように構成されることができる。例えば、図2に示すように、データインタフェース220は、前記データ040を含みうる外部データストレージ022へのアクセス222を提供することができる。代替として、データ040は、システム200の一部である内部データストレージからアクセスされることができる。代替として、データ040は、ネットワークを介して別のエンティティから受信されることができる。一般に、データインタフェース220は、ローカル又はワイドエリアネットワーク、例えば、インターネットへのネットワークインタフェース、内部又は外部データストレージへのストレージインタフェースなど、様々な形態をとることができる。データストレージ022は、任意の既知の適切な形態をとることができる。
プロセッササブシステム240は、システム200の動作中に、データインタフェース220を使用して、入力インスタンスを取得するように構成されることができる。プロセッササブシステム240は更に、それぞれの複数の二次モデルを適用して、それぞれの二次モデル出力画像を取得するように構成されることができる。プロセッササブシステム240は更に、それぞれの二次モデル出力画像のピクセルのピクセル分布外スコアを決定するように構成されることができる。ピクセルのピクセル分布外スコアは、各二次モデル出力画像におけるピクセルの各値のばらつき(variability)として算出されることができる。プロセッササブシステム240は更に、算出されたピクセル分布外スコアを組み合わせて全体分布外スコアを生成することができる。全体分布外スコアは、訓練データセットに対して入力インスタンスが分布外であるかどうかを示すことができる。
プロセッササブシステム240は更に、全体分布外スコアに基づいて出力信号225を生成することができ、出力信号225は、入力インスタンスが分布外であるかどうかを示す。例えば、出力信号は、全体分布外スコア自体でありえ、又は入力インスタンスが分布外である場合に生成される警告でありうる。出力信号は更に、入力インスタンスに寄与する出力画像の1つ又は複数のピクセルが分布外であることを示し、入力インスタンスが分布外である理由の説明を提供することができ、かかる出力信号は、更なる自動化処理のために、レンダリング装置又は別のソフトウェアコンポーネントに出力されることができる。
任意には、少なくとも、分布外スコアが、当該入力インスタンスが分布外であることを示さない場合、プロセッササブシステム240は、メインモデルを入力インスタンスに適用して、メインモデル出力画像を取得するとともに、メインモデル出力画像を、例えば、以下で説明する出力インタフェースを介してユーザに、又は更なる自動的処理のための別のソフトウェアコンポーネントに、出力することができる。例えば、算出された分布外スコアがOOD性を示すか否かを判定するために、分布外スコアは、例えば固定のスコア又は二次モデルに関連するスコアのような閾値分布外(OOD)スコアと比較されることができる。入力インスタンスが分散している場合であっても、入力インスタンスにメインモデルを適用する必要はなく、例えば、いくつかの実施形態において、データセットの複数の入力インスタンスに対する分布外スコアを決定することにより、これらの入力インスタンスにメインモデルを必ずしも適用することなく、データセットと訓練データセットとの間の類似性を計算することが可能である。
任意のコンポーネントとして、システム200は、センサから、例えば、CTスキャナ又はMRスキャナなどの医用撮像装置によって生成された信号224から、センサデータ223を取得するための入力インタフェース260を有することができる。図2には、MRスキャナ072が示されている。例えば、信号は例えば、k空間(MRスキャナの場合)において又はサイノグラム(CTスキャナの場合)として表される、医用撮像装置からの生信号でありえ、すなわち、例えば逆フーリエ変換又は逆ラドン変換によって画像空間に変換されることができる。
例えば、MRスキャナは例えば、少なくとも2、少なくとも4、又は少なくとも6の加速係数で加速スキャンを実行するように構成されることができる。このような場合、適切な訓練済みモデルを用いて、MRデータの再構成又は分析を成功させることは可能であるが、訓練データセットにおいて十分に表現されていない入力については誤った結果が生じる危険性が高く、このことは分布外検出を特に重要なものにする。同様の考察が、低線量、例えば、最大で全線量の半分又は最大で全線量の4分の1で動作するCTスキャナの場合に当てはまる。
しかしながら、様々な他の種類のセンサ及び対応する信号224が可能であり、例えば、センサは、画像を生成するカメラ、ビデオを生成するビデオカメラなどであり得る。概して、入力インタフェース260は、様々なタイプのセンサ信号、例えば、ビデオ信号、レーダ/LiDAR信号、超音波信号などに関して構成されることができる。分布外検出が実行される入力インスタンスはセンサデータ223に基づくことができ、例えば、入力インスタンスは、センサデータ223に等しいものでありえ、又は任意の前処理工程が、センサデータに対して実行されることができる。例えばCTスキャナ又はMRスキャナ072のような信号224を測定するセンサ自体を、システム200の一部とすることもできる。
任意のコンポーネントとして、システム200は、表示出力インタフェース280、又は出力信号225をディスプレイ290などのレンダリング装置に出力するための任意の他のタイプの出力インタフェースを有することができる。例えば、表示出力インタフェース280は、ディスプレイ290のための表示データ282を生成することができ、それにより、ディスプレイ290に、例えば、オンスクリーン視覚化292として、感覚的に知覚可能な方法で出力信号をレンダリングさせる。例えば、入力インスタンスが分布外である場合、例えば、メインモデルのモデル出力と共に、エラーメッセージ又は警告メッセージが示されることもできる。入力インスタンスが分布外である場合、分布外である入力インスタンスに寄与する二次モデル出力画像の特定のピクセルが、例えばメインモデルの出力画像上で強調表示されるように、レンダリングされることができる。
システム200の動作の様々な詳細及び態様は、その任意の態様を含む、図3及び図4を参照して更に説明される。
一般に、システム200は、例えばラップトップもしくはデスクトップベースのワークステーション、又はサーバなどの単一のデバイス又は装置として、又はその中で具体化されることができる。デバイス又は装置は、適切なソフトウェアを実行する1つ又は複数のマイクロプロセッサを有することができる。例えば、プロセッササブシステムは、単一の中央処理ユニット(CPU)によって具体化されることができるが、そのようなCPU及び/又は他のタイプの処理ユニットの組み合わせ又はシステムによっても具体化されることができる。ソフトウェアは対応するメモリ、例えば、RAMなどの揮発性メモリ、又はフラッシュなどの不揮発性メモリにダウンロード及び/又は記憶されていてもよい。代替として、例えばデータインタフェース及びプロセッササブシステムのようなシステムの機能ユニットは、プログラマブルロジックの形で、例えばフィールドプログラマブルゲートアレイ(Field-Programmable Gate Array)及び/又はGPU(グラフィック処理ユニット)として、デバイス又は装置に実現されることができる。一般に、システムの各機能ユニットは、回路の形で実現されることができる。システム200は更に、例えば、クラウドコンピューティングの形態の分散サーバなどの異なるデバイス又は装置を含む、分散方式で実現されることができることに留意されたい。
図3は、本明細書に記載の技術で使用するためのモデルの非限定的な詳細例を示す。例えば、本明細書で説明する技法で使用するためのメインモデル及び/又は1つ又は複数の二次モデルは、この図で説明するモデルアーキテクチャに従って構築されることができる。この図に示される特定の例は、完全畳み込みニューラルネットワーク、より具体的にはU-Net型モデルである。このようなモデルは例えば、医用撮像装置からの画像の再構成を含む、画像から画像への様々な変換のために使用されることができる。
ここに示されるモデルは、入力インスタンスIIN330に対する出力画像OIM350を算出する。この例では入力インスタンスIINが、例えばM×N×cサイズの行列として表現される画像であり、チャネルの数cは、グレースケール画像の場合はc=1であり、RGB画像の場合はc=3とすることができる。チャネルの数は、異なる色に対応する必要はないが、その意味で、入力インスタンスIINは、より一般的には入力ボリュームと呼ばれることもある。この例における出力画像OIMは、例えば同じ幅及び高さを有する、入力インスタンスIINと同じ空間次元の画像である。出力画像OIMは、入力画像と同じチャンネル数を有することができるが、チャネルの数は異なるものでもよい。
ここでのモデルは、畳み込みニューラルネットワークとも呼ばれる畳み込みネットワークの例である。概して、畳み込みネットワークという用語は、少なくとも1つの畳み込み層を有する任意のニューラルネットワークを指すために使用されることができる。当技術分野で知られているように、畳み込み層は、畳み込み又はスライディングドット積演算を実行することによって動作する層である。従って、畳み込み層では、各入力ボリュームを畳み込むc'フィルタを使用して、m×n×cサイズの入力ボリュームをm'×n'×c'サイズの出力ボリュームに変換することができる。例えば、層におけるフィルタの数は、最大で又は少なくとも8、最大で又は少なくとも32、又は最大で又は少なくとも128とすることができる。層の出力の空間次元m'×n'は、その入力の空間次元m×nとは異なってもよいが、一般には入力IINとの空間対応が維持される。例えば、層の出力の空間次元は、その入力の空間次元よりも小さくすることができ、例えば、畳み込み層がダウンサンプリングを実行することができる。層の出力の空間次元は、入力の空間次元よりも大きくてもよく、例えば、層は、入力特徴マップのアップサンプリング、次いで畳み込みの適用によって実現される、いわゆる「アップコンボリューション」層であってもよい。畳み込みニューラルネットワークは、畳み込み層に加えて、様々な他のタイプの層、例えば、1つ又は複数のReLU層及び/又は1つ又は複数のプーリング層を有することができる。畳み込みネットワーク内の畳み込み層の数は例えば、少なくとも5、又は少なくとも10とすることができる。
より具体的には、この図に示されるモデルは、いわゆる完全畳み込みネットワークである。そのようなモデルは、入力インスタンスとの空間対応をそれぞれ維持する畳み込み層、プーリング層、ReLU層などの層の連続において、入力インスタンスIINを出力画像OIMに変換する。
この図のモデルは、エンコーダ-デコーダ(encoder-decoder)モデルである。一般に、そのようなモデルは、縮小部分CP(contracting part)310(「エンコーダ経路」としても知られる)と、拡張部分EP(expansive part)320(「デコーダ経路」としても知られる)とを有する。収縮部分CPは、入力インスタンスIINのための後続の活性化ボリュームを生成する1つ又は複数の層を有することができる。図には、活性化ボリュームAV1,341、AV2,342からAVk-1,343及びAVk,344まで示されている。活性化ボリュームは、361、362から363及び364までの矢印によって示されるように、モデルの1つ又は複数の層によって直前の活性化ボリュームから決定されることができ、一般には、最大プーリングの後に、関連するReLU処理を伴う1つ又は複数の畳み込み層が続く。図に示されるように、活性化ボリュームの空間次元は、一般には収縮部分CP全体にわたってサイズが減少し、例えば、活性化ボリュームAV2は、活性化ボリュームAV1よりも小さい空間次元を有することができ(チャネルの数は実際に増加し得るが)、図示される他の活性化ボリュームについても同様である。次いで、U-netモデルの収縮部分CPから生じる活性化ボリュームAVkは、拡張部分EPにおいて処理されることができる。また、拡張部分は、後続の活性化ボリューム、例えば、AVk+1,345からAV2k-2,346までの活性化ボリュームを生成し及び最終的に画像OIMを出力する1又は複数の層を有することができる。上記のように、活性化ボリュームは、矢印365から366及び367によって示されるように、モデルの1つ又は複数の層によって前の活性化ボリュームから決定されることができる。この場合、典型的な例では、アップコンボリューション(例えば、アップサンプリング及びそれに続くコンボリューション)が使用されることができ、その後、関連するReLU処理を伴う1つ又は複数の畳み込み層が続く。図に示されるように、拡張部分EPでは、活性化ボリュームの空間次元が、一般にはサイズが増大され、例えば、活性化ボリュームAVk-1は、活性化ボリュームAVkよりも大きい空間次元を有することができ(チャネルの数は減少し得るが)、図示される他の活性化ボリュームについても同様に増大されることができる。
興味深いことに、拡張部分EPは、収縮部分CPの活性化ボリュームAViが拡張部分EPの活性化ボリュームと連結されることができる、いわゆるスキップ接続を任意に有することができる。1つ又は複数のスキップ接続を有するエンコーダ-デコーダモデルは、U-Net型モデルと呼ばれることがある。例えば、アップコンボリューションの結果は、収縮部分CPの対応する活性化ボリュームと連結され得、その後、1つ又は複数のコンボリューションが適用されることができる。縮小部分の特徴マップは、境界ピクセルを考慮するためにクロッピングされることができる。例えば、矢印365'によって図に示されるように、活性化ボリュームAVk-1は、活性化ボリュームAVkのアップコンボリューションと連結されることができ、その結果から、活性化ボリュームAVk+1が決定されることができる。同様に、活性化ボリュームAV2k-2の決定は、活性化ボリュームAV2へのスキップ接続366'を使用することができ、活性化ボリュームOIMの決定は、活性化ボリュームAV1へのスキップ接続367'を使用することができる、などである。
U-netモデルの実例は、Ronneberger他による"U-Net: Convolutional Networks for Biomedical Image Segmentation"(https://arxiv.org/abs/1505.04597にて入手可能であり、本明細書に参考によって盛り込まれる)に提示されている。別の知られている例は、いわゆるResNet、すなわち残差ネットワーク(Residual Network)である。反復プロシージャにおいてU-net型アーキテクチャを使用し、本明細書で適用することができるMRデータ再構成のためのモデルの詳細な例は、NPezzotti他による"Adaptive-CS-Net: FastMRI with Adaptive Intelligence"に示されている。
図4は、メインモデルへの入力インスタンスの全体(overall)分布外(OOD)スコアを決定し、それによって入力インスタンスの分布外検出を実行する方法の詳細な非限定的な例を示す。
図において、分布外検出は、全体分布外スコアOODS485の計算の形で実行されることができる(485)。一実施形態において、入力IINが、いくつかの二次モデルSMi441-442に与えられることができる。次いで、出力SOi451-452を使用して、いわゆる分布外画像OODI475を作成することができる。また、分布外画像OODIのピクセル値は、モデルSMiの出力画像SOi内の対応するピクセルのばらつきを表すことができる。分布外の値OODSは、分布外画像OODIを低減することによって、例えば分布外画像を平均化することによって又は最大値若しくは最小値を取得することによって、取得されることができる。一旦取得されると、分布外スコアOODSは、モデルMMへの入力IINが訓練分布内にあるか、又は訓練分布外にあるかを評価するために使用されることができる。そのような評価は、アンサンブル及び/又はメインモデルMMにおけるモデルの結果として生じる品質の良好な指標であり得る。入力はまた、メインモデルMM440によって処理されることができ、メインモデルMM440は、メイン出力画像OI450(例えば、再構成されたMR画像、ノイズ除去されたCT画像など)を生成することができる。以下でより詳しく説明するように、いくつかの実施形態において、メインモデルMMは、例えばパラメータの個数に関して、二次モデルSMiよりも大きくてもよく、従って、分布外スコア計算OODSを制御下に保ちながら、より高品質のメイン出力OIを可能にする。
具体的には、分布外検出が実行される入力インスタンスIIN430が図示されている。図3に関しても説明したように、入力インスタンスIINは例えば、1つ、3つ、又は別の数のチャンネルを有する入力画像であり得る。画像はカメラによってキャプチャされることができるが、画像として表される、他のタイプのセンサデータ、例えば、オーディオデータ又は複数のセンサ測定値の時系列データを使用することも可能である。また、入力インスタンスIINが画像である必要もない。例えば、入力インスタンスIINは、メインモデルが特徴ベクトルから出力画像を生成する該特徴ベクトル、例えば、GAN(Generative Adversarial Network)のジェネレータ部分の隠れている表現、又はオートエンコーダ、例えば、VAE(Variational Autoencoder)のデコーダ部分であってもよい。後者の部分では、入力インスタンスIINは、合成出力画像が生成される合成データを表すことができるが、入力インスタンスIINは例えば、オートエンコーダのエンコーダ部分の出力として又はそれに基づいて決定されることによって、現実世界の入力を表すこともできる。
別の例として、入力インスタンスIINは例えば、医用画像再構成又は医用画像分析タスクにおいて使用するための、医用撮像装置によって生成される信号を表すことができる。例えば、MRスキャナの場合、入力インスタンスは、いわゆるk空間又はk空間データに逆フーリエ変換を適用することから生じる画像空間におけるスキャナ信号を表すことができる。同様に、CTスキャナの場合、入力インスタンスは、サイノグラムとして又は逆ラドン変換を適用することによる画像空間においてスキャナ信号を表すことができる。
いずれの場合も、様々な実施形態において、入力インスタンスIINは、センサ/画像データに加えて、追加の情報、例えば、より正確な出力を決定するのに役立つことができるログデータ又は患者固有の情報などのメタデータを含むことができる。
図には、メインモデルMM440も示されている。メインモデルは、画像処理モデルでありうる。一般に、ここでは、画像、例えば、幅、深さ、チャンネル数(1でも3でも他の数でもよい)をもつボリュームを出力とするモデル(ただし、画像を入力とする必要はない)を「画像処理モデル」と呼ぶことにする。メインモデルMMの出力画像は、OI450として図に示されている。出力画像OIMは、様々なセグメンテーションモデル、MR又はCT再構成モデルなどの場合のように単一チャネルを有することができ、あるいは、様々な生成モデル、画像間変換モデルなどの場合のように3チャネルを有することができ、あるいは、関心のあるアプリケーションに適した任意の他の数のチャネルを有することができる。出力画像は、例えば、マスクの場合のように離散的であっても、例えば、二値的であっても、あるいは、例えば、生成モデルの場合のように連続的であってもよい。入力インスタンスが画像である場合、出力画像は、多くの場合、入力と同じ空間次元を有し、場合によっては境界効果までを有する。
メインモデルMMは、訓練データセット(図示せず)上で訓練されたものであり、典型的には、複数の訓練入力インスタンス及び対応する所望の訓練出力画像(例えば、少なくとも1000乃至少なくとも1000000の訓練インスタンス)からなるラベル付きデータセット上で訓練されたものである。従って、メインモデルは、訓練可能なモデル(機械学習可能モデル又は機械学習モデルとしても知られる)である。そのような訓練可能なモデルは、一般に、訓練可能なパラメータの組に関する値を学習することによって訓練される。例えば、メインモデルのパラメータの数は、少なくとも1000、少なくとも100000、又は少なくとも1000万でありうる。勾配に基づく最適化が可能なモデル、例えばパラメータが連続又は微分可能なモデルを用いることが訓練効率の観点から有益である。
メインモデルMMとしては、各種のモデルを用いることができる。例えば、メインモデルは、Uネット型モデルであってもよく、より一般的には、図3に関して述べたように、任意のタイプのエンコーダデコーダモデル、完全畳み込みニューラルネットワーク、畳み込みニューラルネットワーク、又は他のタイプのニューラルネットワークであってもよい。このようなニューラルネットワークは、例えばN. Pezzotti他による"Adaptive-CS-Net: FastMRI with Adaptive Intelligence"において行われるような反復モデルの1又は複数の反復において、より大きなモデルの一部として使用されることもできる。上述のように、メインモデルは、生成モデル、例えば、GANの生成部分又はVAEのデコーダ部分であり得る。一般に、ニューラルネットワークは、人工ニューラルネットワークとしても知られている。ニューラルネットワークを使用するとき、パラメータの組は、ニューラルネットワークのノードの重みを含むことができる。例えば、モデルの層の数は少なくとも5又は少なくとも10であってもよく、ノード及び/又は重みの数は少なくとも1000又は少なくとも10000であってもよい。特定の用途に応じて、ニューラルネットワーク及び他のタイプの機械学習可能モデルのための様々な既知のアーキテクチャが使用されることができる。
メインモデルMMへの入力インスタンスIINの分布外検出を行うために、複数の二次モデルSMiが使用されることができる。図には、二次モデルSM1,441からSMm,442が示されている。例えば、多くとも又はすくなとも5、あるいは多くとも又は少なくとも10の二次モデルが用いられることができる。それぞれの二次モデルSMiを適用することにより、図に二次モデル出力画像SO1,451からSOm,452で例示するように、それぞれの二次モデル出力画像Smiが取得可能である。
一般に、二次モデルSMiは、メインモデルMMと同じ訓練データセット上で訓練されるモデルであり得る。従って、二次モデルSMiは、訓練データセットからの入力インスタンスIIN、又は訓練データセットからのインスタンスに類似する入力インスタンスIINに適用される場合、メインモデルと同様の挙動を示し、互いに同様であることが期待されることができる。従って、二次モデルの出力間の比較的低いピクセルごとのばらつきが予想されることができる。しかしながら、訓練データセットからの入力インスタンスIINでは、そのような保証はなく、従って、より高いピクセルごとの変動が予想されることができる。
上記の挙動を達成するために、二次モデルSMiがメインモデルMMと(又は互いに)正確に同じモデルアーキテクチャを使用することも、二次モデルが正確に同じ訓練入力及び出力上で訓練されることも必要とされないことに留意されたい。この観測は、訓練及び/又は使用するのにより効率的な二次モデルSMiを使用することによって、効率を改善するために活用することができる。例えば、2次モデルのうちの1つ、いくつか、又は全てが、ダウンスケーリングされた訓練入力インスタンス上で訓練されることができる。使用時に、そのような二次モデルは、入力インスタンスを最初にダウンスケーリングすることによって、入力インスタンスIINに適用されることができる。1つ、いくつか、又は全ての二次モデルが、代替的に又は付加的に、ダウンスケーリングされた訓練出力画像上で訓練されることができ、従って、使用中に、必要に応じて後にアップスケーリングされることができる、より小さい出力画像を生成する。例えば、入力及び/又は出力は、少なくとも係数2、又は少なくとも係数4だけダウンスケーリングされることができる。
一般に、より小さい入力及び/又は出力の使用は、より小さい二次モデルを使用することを可能にし、例えば、メインモデルよりも少ない訓練可能なパラメータを有することができ、これは、記憶及び計算要件の低減につながる。他の方法で、例えば、より少ない層を有するニューラルネットワークを使用することによって、あるいは、より少ない反復を有する反復モデルなどを使用すること等によって、訓練可能なパラメータの数を低減するように、二次モデルを単純化することも可能である。例えば、二次モデルは、メインモデルの訓練可能なパラメータの数の最大で1/2、最大で25%、又は最大で10%を有することができる。例えば、メインモデルが反復モデルである場合、二次モデルはまた、単一の反復において使用されるいくつかのパラメータを低減する代わりに、又は低減することに加えて、メインモデルの反復回数の最大で半分、最大で25%、又は最大で10%を有する反復モデルとすることができる。例えば、本発明者らは、3回の反復を伴う二次モデルを使用することによって、15回の反復を伴うメインモデルについて良好な結果を得た。
いくつかの実施形態において、二次モデルSMiが一般的なモデルアーキテクチャを有し、例えば、それらは一般的なモデルのパラメータのセットを初期化し、初期化に基づいてパラメータのセットを最適化するが、異なるランダム初期化を使用することによって、それぞれ訓練されることができる。この共通アーキテクチャは、メインモデルMMのアーキテクチャと同じであっても異なっていてもよい。この技法は一般的に適用可能であり、訓練及び二次モデルの使用の両方において、並列化に適しているという利点を有する。
メインモデルMMは、この図では二次モデルSMiとは別個に示されているが、メインモデルは例えば、メインモデル出力を決定するため、及び二次モデル出力を決定するための両方のために、二次モデルのうちの1つとして使用されることができる。メインモデルMMはまた、いくつか又は全ての二次モデルから構成されることができ、例えば、メインモデル出力は例えば、平均化又は別のタイプの組み合わせ演算によって、二次モデルSMiのうちの1つ又は複数の出力に基づいて決定されることができる。
処理PXS470において、二次モデル出力画像SOiを使用して、それぞれの二次モデル出力画像SOiのピクセルのピクセル分布外スコアを算出することができる。例えば、それぞれの画像の座標を有する左上ピクセルのピクセル分布外スコアが算出されることができ、他のピクセルについても同様である。いくつかの実施形態において、ピクセル分布外スコアは、各ピクセルについて算出されることができる。しかしながら、全てのピクセルについてピクセル分布外スコアを算出する必要はなく、代替的に、例えば、有効性の理由から、ピクセルのサンプルを得ることができる。ピクセルのいくつか又は全てについてのピクセル分布外スコアは、それ自体、入力インスタンスIINに対する「分布外画像」と称されることができる画像を形成するとみなされることができる。図には、分布外画像OODI475が示されている。
任意には、処理PXSは、二次モデル出力画像SOiを、それらのサイズに対応させる(例えば、画像をグレースケールに変換する)ために、サイズ変更(例えば、画像を最小サイズにダウンスケーリングする)及び/又はチャネル低減を含むことができる。
ピクセルのピクセル分布外スコアは、各二次モデル出力画像におけるピクセルの各値のばらつきとして算出されることもできる。例えば、ばらつきは、二次出力画像SOiについてのピクセル値、例えば、0と1との間のグレースケールピクセル値、離散化ピクセル値などを含むベクトルのばらつきの尺度として算出されることができる。任意の適切なばらつきの尺度、例えば、分散又は標準偏差、シャノンエントロピー等を採用することができる。マルチチャネル二次出力画像の場合、出力画像は、例えばグレースケールに変換するなど、単一チャネル画像に変換されることができる。チャネルごとのピクセル分布外スコアを算出することも可能であり、その場合、ピクセル分布外スコアは、チャネルごとのスコアを(例えば、最高、最低、又は平均として)組み合わせることによって、又はチャネルごとのスコアのベクトルをピクセル分布外スコアとみなすことによって、得られることができる。
二次モデル出力画像SOiのピクセルのピクセル分布外スコアOODIを算出した後、組み合わせ処理CMB480において、これらのスコアを組み合わせて、全体分布外スコアOODS485を生成することができる。全体分布外スコアOODSは、入力インスタンスが訓練データセットに対して分布外であるかどうかを示すことができる。
全体分布外スコアOODSの利用の様々な方法が考えられる。例えば、最大値、最小値、又は平均値が使用されることができ、又はより高いピクセル分布外スコアOODIについてのより高いスコアを一般に提供する任意の他の計算、例えば、ピクセル分布外スコアの各々の非減少又は増加の機能が使用されることもできる。異なるスコアタイプは、異なる状況において役立つ可能性があるOOD性の異なる指標を提供する。最大値は、二次モデルが発散する出力画像の部分が存在しないことを保証し、従って、メインモデルの出力画像の各部分が信頼できることを保証するための高い保証オプションとして使用されることができる。平均及び最小値は、メインモデル出力の信頼性のよりグローバルな尺度を得るために使用されることができる。異なる尺度は、入力インスタンスIINのOOD性についての異なる種類の情報を提供するので、また、複数分布外スコア値が出力されることができ、例えば、全体分布外スコアは、それぞれの構成要素分布外スコア値、例えば、最高点及び平均点を含むことができる。
全体分布外スコアOODSに基づいて、入力インスタンスが分布外か否かを判定するために、閾値分布外スコアが適用されることができる。いくつかの実施形態において、二次モデルを訓練することの一部として、閾値スコアは、メインモデルに対する多重入力インスタンスについて計算された分布外スコアに基づいて、自動的に算出されることもできる。例えば、閾値スコアは、分布内入力インスタンスの分布外スコアの統計的分布に属する全体分布外スコアの統計的検定の閾値として決定されることもできる。閾値スコアは例えば、訓練セット(分布内サンプルを含む)及びホールドアウトセット(分布外サンプルを含む)の最適閾値スコアとして計算されることができる。
当技術分野でそれ自体知られているように、様々な既知の手法を使用して、二次モデルを訓練することができる。任意には、メインモデルは、二次モデルと同じシステムによって訓練されるが、事前訓練されたメインモデルを取得し、二次モデルを訓練して、それに対する分布外検出を可能にすることもできる。典型的には、訓練は、確率的勾配降下法のような確率的手法を用いて、例えばKingma and Ba, "Adam: A Method for Stochastic Optimization" (https://arxiv.org/abs/1412.6980において入手可能であり、参照によって本願明細書に盛り込まれるものとする)に開示されるようなアダムオプティマイザを用いて、実行される。知られているように、そのような最適化方法は、発見的であり得、及び/又は局所最適に到達し得る。訓練はインスタンスごとに、又はバッチで、例えば、多くとも、又は少なくとも64、又は多くとも、又は少なくとも256のインスタンス上で、実行されることができる。
図5は、メインモデルへの入力インスタンスの分布外(OOD)検出のコンピュータ実現方法500のブロック図を示す。メインモデルは、入力インスタンスから出力画像を生成するように構成されることができる。メインモデルは、訓練データセット上で訓練されることもできる。方法500は、図2のシステム200の処理に対応し得る。しかしながら、これは限定ではなく、方法500は、別のシステム、装置、又はデバイスを使用して実行されることもできる。
方法500は、「二次モデルにアクセスする」と題する処理において、分布外検出に使用するための複数の二次モデルを表すデータにアクセスすること510を含むことができる。二次モデルは、メインモデルが訓練される同じ訓練データセット上で訓練されることができる。
方法500は、「入力インスタンスを取得する」と題する処理において、入力インスタンスを取得すること520を含むことができる。
方法500は、「二次モデルを適用する」と題する処理において、それぞれの複数の二次モデルを適用して、それぞれの二次モデル出力画像を取得すること530を含むことができる。
方法500は、「ピクセルの分布外スコアを決定する」と題する処理において、それぞれの二次モデル出力画像のピクセルのピクセル分布外スコアを算出すること540を含むことができる。ピクセルのピクセル分布外スコアは、各二次モデル出力画像におけるピクセルの各値のばらつきとして決定されることもできる。
方法500は、「組み合わせて全体分布外スコアを生成する」と題する処理において、算出されたピクセル分布外スコアを組み合わせて全体分布外スコアを生成すること550を含むことができる。全体分布外スコアは、訓練データセットに関して入力インスタンスが分布外であるかどうかを示すことができる。
方法500は、「出力信号を生成する」と題する処理において、全体分布外スコアに基づいて出力信号を生成すること560を含むことができ、出力信号は、入力インスタンスが分布外であるかどうかを示す。
図6は、メインモデルへの入力の分布外(OOD)検出を可能にするコンピュータ実現方法600のブロック図を示す。メインモデルは、入力インスタンスから出力画像を生成するように構成されることができる。メインモデルは、訓練データセット上で訓練されることもできる。方法600は、図1のシステム100の動作に対応し得る。しかしながら、これは限定ではなく、方法600は、別のシステム、装置、又はデバイスを使用して実行されることもできる。
方法600は、「訓練データセットにアクセスする」と題する処理において、メインモデルは、訓練された訓練データセットを表すデータにアクセスすること610を含むことができる。
方法600は、「二次モデルを訓練する」と題する処理において、複数の二次モデルをトレーニングすること620を含むことができる。二次モデルは、メインモデルが訓練される訓練データセット上で訓練されることができる。二次モデルは例えば、方法500に従って、分布外検出に使用するための入力の二次モデル出力画像を決定するためのものであってもよい。
方法600は、「モデルをメインモデルに関連付ける」と題する処理において、複数の二次モデルをメインモデルに関連付けて(630)、分布外検出を可能にすることを含むことができる。
図5の方法500及び図6の方法600の処理は、任意の適切な順序で、例えば、適用可能な場合、特定の順序が必要とされることを条件として、例えば、入力/出力関係によって、連続的に、同時に、又はそれらの組み合わせで実行されることができることが理解されよう。方法のいくつか又は全てを組み合わせることもでき、例えば、分布外検出を可能にする方法600を連続的に使用して、方法500を使用して分布外検出を実行することができる。
本方法は、コンピュータ上で、コンピュータ実現方法として、専用ハードウェアとして、又は両方の組み合わせとして実現されることができる。また、図7に示されるように、コンピュータのための命令、例えば、実行可能コードはコンピュータ可読媒体700上に、例えば、一連の機械可読物理的マーク710の形で、及び/又は異なる電気的、例えば、磁気的、もしくは光学的特性もしくは値を有する一連の要素として、記憶されることができる。実行可能コードは、一時的又は非一時的に記憶されることができる。コンピュータ可読媒体の例は、メモリ装置、光記憶装置、集積回路、サーバ、オンラインソフトウェアなどを含む。図7は、光ディスク700を示す。代替的に、コンピュータ可読媒体700は、複数の二次モデルを表す一時的又は非一時的データ710を有することができる。二次モデルは分布外検出を可能にするために、メインモデルに関連付けられることができる。メインモデルは、入力インスタンスから出力画像を生成するように構成されることができる。メインモデルは、訓練データセット上で訓練されることができる。二次モデルは、メインモデルが訓練される訓練データセット上で訓練されることができる。二次モデルは、分布外検出に使用するための入力のための二次モデル出力画像を決定するよう構成されることができる。二次モデルは、コンピュータ実現600に従って取得されることができる。二次モデルは、コンピュータ実現方法500において使用されるよう構成されることができる。
例、実施形態、又は任意選択の特徴は、非限定的であるか否かにかかわらず、請求項に記載の本発明を限定するものとして理解されるべきではない。
上述の実施形態は本発明を限定するのではなく例示するものであり、当業者は、添付の特許請求の範囲から逸脱することなく、多くの代替の実施形態を設計することができることに留意されたい。請求項において、括弧の間に置かれる如何なる参照記号もその請求項を限定すると解釈されるべきではない。動詞「有する、含む(comprise)」及びその活用形の使用は、請求項に記載されたもの以外の構成要素又はステップの存在を排除するものではない。構成要素に先行する冠詞「a」又は「an」は、複数のそのような構成要素の存在を除外しない。構成要素のリスト又はグループに先行する「のうちの少なくとも1つ」などの表現は、リスト又はグループからの構成要素の全て又は任意のサブセットの選択を表す。例えば、「A、B、及びCのうちの少なくとも1つ」という表現はAのみ、Bのみ、Cのみ、AとBの両方、AとCの両方、BとCの両方、又はA、B、及びCの全てを含むものとして理解されるべきである。本発明は、いくつかの別個の構成要素を有するハードウェアによって、及び適切にプログラムされたコンピュータによって実装されることができる。いくつかの手段を列挙する装置の請求項において、これらの手段のいくつかは、ハードウェアの1つの同じアイテムによって具体化されることもできる。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これらの手段の組み合わせが有利に使用されることができないことを示すものではない。

Claims (15)

  1. メインモデルへの入力インスタンスの分布外検出のためのシステムであって、前記メインモデルは訓練データセット上で訓練され、前記メインモデルは前記入力インスタンスから出力画像を生成するよう構成され、分布外は、入力インスタンスと訓練データセットとの間の非類似性を表し、前記非類似性は、予め規定されたた閾値スコアよりも高い全体的なピクセル分布外スコアによって表され、前記システムは、
    前記メインモデルの分布外検出に使用される複数の二次モデルを表すデータにアクセスするためのデータインタフェースであって、前記二次モデルは、前記メインモデルと同じ訓練データセット上で訓練される、データインタフェースと、
    プロセッササブシステムと、
    を有し、前記プロセッササブシステムが、
    前記メインモデルの入力インスタンスを取得するステップと、
    それぞれの前記複数の二次モデルを前記メインモデルの入力インスタンスに適用して、それぞれの二次モデル出力画像を得るステップと、
    それぞれの前記二次モデル出力画像のピクセルのピクセル分布外スコアを決定するステップであって、ピクセルのピクセル分布外スコアは、それぞれの前記二次モデル出力画像内のピクセルのそれぞれの数値間のばらつきとして算出される、ステップと、
    算出されたピクセル分布外スコアを組み合わせて全体分布外スコアを生成するステップであって、前記全体分布外スコアは、前記入力インスタンスが前記訓練データセットに対して分布外であるかどうかを示す、ステップと、
    前記全体分布外スコアに基づく出力信号を生成するステップであって、前記出力信号は、前記入力インスタンスが分布外であるかどうかを示す、ステップと、
    を実行するよう構成される、システム。
  2. 前記メインモデルは、医用撮像装置の入力データから、前記出力画像を決定するよう構成される、請求項1に記載のシステム。
  3. 前記メインモデルが、前記医用撮像装置によって生成された信号から前記出力画像を再構成するように構成される医用画像再構成モデルである、請求項2に記載のシステム。
  4. 前記メインモデルは、入力画像内の病変を位置特定する出力画像を決定するように構成される医用画像分析モデルである、請求項2に記載のシステム。
  5. 二次モデルが、前記訓練データセットのダウンスケーリングされた訓練入力インスタンス及び/又はダウンスケーリングされた訓練出力画像上で訓練される、請求項1乃至4のいずれか1項に記載のシステム。
  6. 二次モデルが、前記メインモデルよりも少ない訓練済みパラメータを有する、請求項1乃至5のいずれか1項に記載のシステム。
  7. 前記プロセッササブシステムは更に、少なくとも前記入力インスタンスが分布外であることを前記分布外スコアが示していない場合に、前記メインモデルを前記入力インスタンスに適用してメインモデル出力画像を取得し、前記メインモデル出力画像を出力するよう構成される、請求項1乃至6のいずれか1項に記載のシステム。
  8. 前記出力信号は更に、前入力インスタンスに寄与する前記二次モデル出力画像の1つ又は複数のピクセルが分布外であることを示す、請求項1乃至7のいずれか1項に記載のシステム。
  9. 前記出力信号をユーザに知覚可能な態様でレンダリングするレンダリング装置に、前記出力信号を出力する出力インタフェースを更に有する、請求項1乃至8のいずれか1項に記載のシステム。
  10. メインモデルへの入力インスタンスの分布外検出を可能にするシステムであって、前記メインモデルは、訓練データセット上で訓練され、前記メインモデルは、前記入力インスタンスから出力画像を生成するように構成され、分布外は、前記入力インスタンスと、前記訓練データセットとの間の非類似性を表し、前記非類似性は、予め定義された閾値スコアよりも高い総合ピクセル分布外スコアによって表され、前記システムは、
    前記メインモデルが訓練される訓練データセットを表すデータにアクセスするためのデータインタフェースと、
    プロセッササブシステムと、
    を有し、前記プロセッササブシステムが、
    複数の二次モデルを訓練するステップであって、二次モデルは、前記メインモデルと同じ訓練データセット上で訓練され、二次モデルは、前記分布外検出において使用される、入力インスタンスに対する二次モデル出力画像を決定するよう構成される、ステップと、
    前記分布外検出を可能にするよう前記複数の2次モデルを前記メインモデルと関連付けるステップと、
    を実行するよう構成される、システム。
  11. 前記システムは更に、前記分布外検出に関する閾値分布外スコアを決定し及び前記閾値分布外スコアを前記メインモデルに関連付けるように構成され、前記閾値分布外スコアは、前記メインモデルに対する複数の入力インスタンスの分布外スコアに基づいて決定され、前記入力インスタンスの分布外スコアが、
    それぞれの前記複数の二次モデルを適用してそれぞれの二次モデル出力画像を得るステップと、
    各二次モデル出力画像のピクセルのピクセル分布外スコアを算出するステップであって、ピクセルのピクセル分布外スコアは、各二次モデル出力画像内のピクセルの各値の間のばらつきとして算出される、ステップと、
    前記算出されたピクセル分布外スコアを組み合わせて全体分布外スコアを生成するステップであって、前記全体分布外スコアは、前記入力インスタンスが前記訓練データセットに対して分布外であるかどうかを示す、ステップと、
    を実行することによって決定される、請求項10に記載のシステム。
  12. 二次モデルが、訓練可能なモデルのパラメータの組を初期化すること及び前記初期化に基づいて前記パラメータの組を最適化することによって訓練され、それぞれの前記二次モデルが、それぞれのランダム初期化に基づいて同じ訓練可能なモデルを訓練することによって訓練される、請求項10又は11に記載のシステム。
  13. メインモデルへの入力インスタンスの分布外検出のコンピュータ実現方法であって、前記メインモデルは訓練データセット上で訓練され、前記メインモデルは前記入力インスタンスから出力画像を生成するように構成され、分布外は、前記入力インスタンスと前記訓練データセットとの間の非類似性を表し、前記非類似性は、予め定義された閾値スコアよりも高い全体的なピクセル分布外スコアによって表され、前記方法が、
    前記メインモデルの分布外検出に使用される複数の二次モデルを表すデータにアクセスするステップであって、二次モデルは、前記メインモデルと同じ訓練データセット上で訓練される、ステップと、
    前記メインモデルの入力インスタンスを取得するステップと、
    それぞれの前記複数の二次モデルを前記メインモデルの前記入力インスタンスに適用して、それぞれの二次モデル出力画像を取得するステップと、
    それぞれの前記二次モデル出力画像のピクセルのピクセル分布外スコアを算出するステップであって、ピクセルのピクセル分布外スコアは、それぞれの前記二次モデル出力画像内のピクセルのそれぞれの数値間のばらつきとして算出される、ステップと、
    前記算出されたピクセル分布外スコアを組み合わせて全体分布外スコアを生成するステップであって、前記全体分布外スコアは、前記入力インスタンスが前記訓練データセットに対して分布外であるかどうかを示す、ステップと、
    前記全体分布外スコアに基づいて出力信号を生成するステップであって、前記出力信号は前記入力インスタンスが分布外であるかどうかを示す、ステップと、
    を有する方法。
  14. メインモデルへの入力の分布外検出を可能にするコンピュータ実現方法であって、前記メインモデルは訓練データセット上で訓練され、前記メインモデルは、入力インスタンスから出力画像を生成するように構成され、分布外は、前記入力インスタンスと前記訓練データセットとの間の非類似性を表し、前記方法が、
    前記メインモデルが訓練される訓練データセットを表すデータにアクセスするステップと、
    複数の二次モデルを訓練するステップであって、二次モデルは、前記メインモデルが訓練される前記訓練データセット上で訓練され、二次モデルは、分布外検出に使用される入力インスタンスに対する二次モデル出力画像を決定するよう構成される、ステップと、
    前記分布外検出を可能にするよう前記複数の二次モデルを前記メインモデルと関連付けるステップと、
    を有する方法。
  15. プロセッサシステムによって実行される場合に、前記プロセッサシステムに、請求項13又は請求項14に記載のコンピュータ実現方法を実行させる命令と、
    複数の二次モデルと、
    のうち1つ又は複数を表す一時的又は非一時的データを有するコンピュータ可読媒体であって、前記二次モデルは、分布外検出を可能にするように前記メインモデルに関連付けられ、前記メインモデルは、訓練データセット上で訓練され、前記メインモデルは、入力インスタンスから出力画像を生成するよう構成され、前記二次モデルは、前記メインモデルが訓練される訓練データセット上で訓練され、前記二次モデルは、分布外検出において使用される入力インスタンスに対する二次モデル出力画像を決定するよう構成される、コンピュータ可読媒体。
JP2022548651A 2020-02-21 2021-02-05 モデルへの入力インスタンスの分布外検出 Pending JP2023515367A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20158708.6A EP3869401A1 (en) 2020-02-21 2020-02-21 Out-of-distribution detection of input instances to a model
EP20158708.6 2020-02-21
PCT/EP2021/052750 WO2021165053A1 (en) 2020-02-21 2021-02-05 Out-of-distribution detection of input instances to a model

Publications (2)

Publication Number Publication Date
JP2023515367A true JP2023515367A (ja) 2023-04-13
JPWO2021165053A5 JPWO2021165053A5 (ja) 2024-01-17

Family

ID=69723854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022548651A Pending JP2023515367A (ja) 2020-02-21 2021-02-05 モデルへの入力インスタンスの分布外検出

Country Status (5)

Country Link
US (1) US20230377314A1 (ja)
EP (2) EP3869401A1 (ja)
JP (1) JP2023515367A (ja)
CN (1) CN115136192A (ja)
WO (1) WO2021165053A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102567558B1 (ko) * 2021-09-16 2023-08-16 광주과학기술원 Ood 객체 탐지 방법 및 시스템
WO2023154573A1 (en) * 2022-02-14 2023-08-17 Bostongene Corporation Machine learning techniques for tertiary lymphoid structure (tls) detection
CN114565759A (zh) * 2022-02-22 2022-05-31 北京百度网讯科技有限公司 图像语义分割模型优化方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
WO2021165053A1 (en) 2021-08-26
EP3869401A1 (en) 2021-08-25
US20230377314A1 (en) 2023-11-23
CN115136192A (zh) 2022-09-30
EP4107662A1 (en) 2022-12-28

Similar Documents

Publication Publication Date Title
US10387765B2 (en) Image correction using a deep generative machine-learning model
US11568533B2 (en) Automated classification and taxonomy of 3D teeth data using deep learning methods
US10043088B2 (en) Image quality score using a deep generative machine-learning model
US10489907B2 (en) Artifact identification and/or correction for medical imaging
US11379975B2 (en) Classification and 3D modelling of 3D dento-maxillofacial structures using deep learning methods
JP2020064609A (ja) 患者固有の深層学習画像ノイズ除去方法およびシステム
US10991092B2 (en) Magnetic resonance imaging quality classification based on deep machine-learning to account for less training data
JP2023515367A (ja) モデルへの入力インスタンスの分布外検出
JP2020506742A (ja) 断層撮影再構成に使用するためのデータのディープラーニングに基づく推定
US20190385738A1 (en) Characterization of amount of training for an input to a machine-learned network
US12033247B2 (en) Three-dimensional shape reconstruction from a topogram in medical imaging
US20220058798A1 (en) System and method for providing stroke lesion segmentation using conditional generative adversarial networks
US20230079353A1 (en) Image correction using an invertable network
EP4343680A1 (en) De-noising data
US20220292673A1 (en) On-Site training of a machine-learning algorithm for generating synthetic imaging data
US20230360366A1 (en) Visual Explanation of Classification
van der Ham et al. Generating Artificial Artifacts for Motion Artifact Detection in Chest CT
KR20230121364A (ko) 희박 뷰 ct의 아티팩트를 제거하는 방법
CN117218135A (zh) 一种基于Transformer的高原肺水肿胸片病灶的分割方法及相关设备
Tsiaousis Generating Artificial Artifacts for Motion Artifact Detection in Chest CT
JP2024028152A (ja) 表示視野の違いに対する深層学習の頑健性
WO2024061664A1 (en) De-noising data
EP4384945A1 (en) System and method for medical image translation
CN118115743A (zh) 医学图像分割方法、装置、计算机设备和存储介质
CN117689744A (zh) 图像生成方法、计算机设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240109