JP2022529557A - 医用画像分割方法、医用画像分割装置、電子機器及びコンピュータプログラム - Google Patents

医用画像分割方法、医用画像分割装置、電子機器及びコンピュータプログラム Download PDF

Info

Publication number
JP2022529557A
JP2022529557A JP2021541593A JP2021541593A JP2022529557A JP 2022529557 A JP2022529557 A JP 2022529557A JP 2021541593 A JP2021541593 A JP 2021541593A JP 2021541593 A JP2021541593 A JP 2021541593A JP 2022529557 A JP2022529557 A JP 2022529557A
Authority
JP
Japan
Prior art keywords
slice
feature information
level feature
pair
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021541593A
Other languages
English (en)
Other versions
JP7180004B2 (ja
Inventor
ツァオ,シレイ
ワン,レンジェン
マ,カイ
ジィァン,イエファン
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022529557A publication Critical patent/JP2022529557A/ja
Application granted granted Critical
Publication of JP7180004B2 publication Critical patent/JP7180004B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【要約】本出願の実施例は、医用画像分割方法、装置、電子機器及び記憶媒体を開示しており、本出願の実施例では、スライスペアを取得した後に、異なる受容野を採用して当該スライスペアの各スライスに対してそれぞれ特徴抽出を行って、各スライスの高レベル特徴情報及び低レベル特徴情報を取得し、次に、一方で、スライスペアの各スライスについて、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得し、他方で、スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、各スライス間の関連情報を確定し、その後、各スライス間の関連情報、及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成することができ、このソリューションは、分割の精度を向上させることができる。

Description

本出願は、2019年04月22日に中国専利局に提出した、出願番号が2019103227838であって、発明の名称が「医用画像分割方法、装置、電子機器及び記憶媒体」である中国特許出願の優先権を主張し、その全ての内容が援用により本出願に組み込まれる。
本出願は、人工知能(Artificial Intelligence、AI)の技術分野に関し、具体的に、医用画像処理技術に関する。
AIは、その発展につれて、医療分野、特に医用画像分割分野において、ますます広く応用されている。例えば、肝臓の分割(セグメンテーション)を例すれば、肝臓画像を1枚ずつスライス分割する2次元(2Dimension、2D)畳み込みニューラルネットワークを予めトレーニングする。そして、分割(セグメンテーション)すべき3次元(3次元、3D)肝臓画像、例えば、肝臓のコンピュータ断層撮影(ComputedTomography、CT)に対してスライス処理を行って、スライスをトレーニング済みの2D畳み込みニューラルネットワークにそれぞれ導入して分割することにより、分割結果、例えば、肝臓領域などが得られる。
しかしながら、上記の2D畳み込みニューラルネットワークは、3D医用画像をスライスしてから、スライスごとに分割する必要があるので、走査中のスペクトル間の関連性が無視されてしまい、ターゲットオブジェクト(例えば、肝臓)の形状情報を正確に捕らえることが難しく、分割の精度が低下する。
本出願の実施例において、医用画像分割方法、装置及び記憶媒体を提供し、分割の精度を向上させることができる。
本出願の実施例では、電子機器が実行する医用画像分割方法を提供し、分割すべき医用画像からサンプリングされた2枚のスライスを含むスライスペアを取得するステップと、
異なる受容野を採用して前記スライスペアの各スライスに対して特徴抽出を行うことで、前記スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得するステップと、
前記スライスペアの各スライスに対して、当該スライスの前記低レベル特徴情報及び前記高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するステップと、
前記スライスペアの各スライスの前記低レベル特徴情報と前記高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、前記スライスペアの各スライス間の関連情報を確定するステップと、
前記関連情報、及び前記スライスペアの各スライスの初期分割結果に基づいて、前記スライスペアの分割結果を生成するステップとを含む。
対応的に、本出願の実施例では、さらに医用画像分割装置を提供する。当該医用画像分割装置は、
分割すべき医用画像から、サンプリングされた2枚のスライスを含むスライスペアを取得するための取得ユニットと、
異なる受容野を採用して前記スライスペアの各スライスに対して特徴抽出を行うことで、前記スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得するための抽出ユニットと、
前記スライスペアの各スライスに対して、当該スライスの前記低レベル特徴情報及び高レベル特徴情報に基づいて当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するための分割ユニットと、
前記スライスペアの各スライスの前記低レベル特徴情報と前記高レベル特徴情報とをフュージョンするためのフュージョンユニットと、
フュージョン後特徴情報に基づいて、前記スライスペアの各スライス間の関連情報を確定するための確定ユニットと、
前記関連情報、及び前記スライスペアの各スライスの初期分割結果に基づいて、前記スライスペアの分割結果を生成するするための生成ユニットとを含む。
対応的に、本出願では、さらに電子機器を提供する。当該電子機器は、メモリ及びプロセッサを含み、前記メモリには、アプリケーションが記憶されており、前記プロセッサは、本出願の実施例にかかる医用画像分割方法における操作を実行するように、前記メモリにおけるアプリケーションを実行するために用いられる。
また、本出願の実施例では、さらに記憶媒体を提供する。前記記憶媒体には複数の命令が記憶されており、前記命令は、プロセッサによってロードされると、本出願の実施例にかかる医用画像分割方法におけるステップを実行させるように構成されている。
また、本出願の実施例では、さらにコンピュータプログラムを提供する。コンピュータプログラムは、命令を含み、コンピュータ上で実行されると、コンピュータに本出願の実施例にかかる医用画像分割方法におけるステップを実行させるように構成されている。
本出願の実施例では、スライスペアを取得した後、異なる受容野を採用して当該スライスペアの各スライスに対してそれぞれ特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得してもよい。スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割して、当該スライスの初期分割結果を取得する一方、スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアの各スライス間の関連情報を確定する。そしてその後、スライスペアの各スライス間の関連情報、及びスライスペアの各スライスの初期分割結果に基づいて当該スライスペアの分割結果を生成する。3D医用画像のスライス間に関連性があることを考慮して、本出願の実施例にかかる方法では、2枚のスライス(スライスペア)を同時に分割し、スライス間の関連関係により分割結果をさらに調整することで、ターゲットオブジェクト(例えば、肝臓)の形状情報をより正確的に捕らえて、分割の精度をより向上させる。
本出願の実施例にかかる技術案をより明確にするために、以下に、実施例の記述に必要な図面を簡単に説明する。以下の説明における図面は、本発明のいくつかの実施例にすぎず、当業者にとって創造的な労働をせずに、これらの図面から他の図面を得ることは言うまでもない。
本出願の実施例にかかる医用画像分割方法のシナリオの模式図である。 本出願の実施例にかかる医用画像分割方法のフローチャートである。 本出願の実施例にかかる医用画像分割方法における受容野の模式図である。 本出願の実施例にかかる画像分割モデルにおける残差ネットワークの構成の模式図である。 本出願の実施例にかかる画像分割モデルの構成の模式図である。 本出願の実施例にかかる医用画像分割方法における信号成分の模式図である。 本出願の実施例にかかる画像分割モデルにおけるチャネルアテンションモジュールの構成の模式図である。 本出願の実施例にかかる画像分割モデルの他の構成の模式図である。 本出願の実施例にかかる医用画像分割方法における関連関係の模式図である。 本出願の実施例にかかる医用画像分割方法における関連関係の他の模式図である。 本出願の実施例にかかる医用画像分割方法の他のフローチャートである。 本出願の実施例で提供される医用画像分割方法における重畳ブロックの例示的な図である。 本出願の実施例にかかる医用画像分割装置の構成の模式図である。 本出願の実施例にかかる医用画像分割装置の他の構成の模式図である。 本出願の実施例にかかる電子機器の構成の模式図である。
以下、本出願の実施例の図面を参照して、本出願の実施例の技術案を明瞭かつ十分に説明する。記載された実施例は、本出願の実施例の全部ではなく、本出願の実施例の一部にすぎないことは言うまでもない。当業者が創造的な労働をせずに本発明の実施例に基づいて取得したすべての他の実施例は本出願の保護範囲に属する。
人工知能は、デジタルコンピュータまたはデジタルコンピュータによって制御されるマシンを使用して、人間の知能をシミュレート、延長、拡張し、環境を感知し、知識を獲得し、知識を使用して最適の結果を得る理論、方法、技術、およびアプリケーションシステムである。言い換えれば、人工知能は、計算機科学の総合的な技術であり、知能の本質を理解して人間の知能と同じように反応可能にした、新しいインテリジェントマシンを生み出そうとする。人工知能は、さまざまなインテリジェントマシンの設計原理と実現方法を研究して、マシンに感知、推論、決定の機能を持たせることである。
人工知能技術は総合的なテクノロジーであり、ハードウェア側面にかかる技術もあれば、ソフトウェア側面にかかる技術もある。人工知能の基本的な技術は、一般的に、センサー、AI専用チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理技術、オペレーティング/インタラクションシステム、メカトロニクスなどの技術を含む。人工知能のソフトウェア技術は、主に、コンピュータビジョン技術、音声処理技術、自然言語処理技術、機械学習/深層学習などを含む。
コンピュータビジョン技術(Computer Vision、CV)は、どのようにマシンを「見る」にするかを研究する科学である。さらに言えば、人間の目の代わりにカメラとコンピュータを使用して、ターゲットに対して識別、追跡、測定などのマシンビジョンを行い、グラフィックス処理をさらに行って、人間の目による観察又は伝送を介して検知器に検出されることに適した画像となるようにコンピュータに処理させる。科学テクノロジーとして、コンピュータビジョンは関連する理論と技術を研究し、画像や多次元データから情報を取得可能な人工知能システムを構築しようとする。コンピュータビジョン技術は、一般的に、画像分割、画像処理、画像認識、画像意味分析、画像検索、OCR、ビデオ処理、ビデオ意味分析、ビデオ内容/行為認識、3次元オブジェクト再構成、3D技術、仮想現実、拡張現実、同時測位と地図構築の技術を含み、よく見られている顔認識、指紋認識などの生体特徴認識技術をさらに含む。
機械学習(MachineLearning,ML)は、複数の分野にかかるテクノロジーであり、確率論、統計学、近似理論、凸解析、アルゴリズム複雑性理論などの複数のテクノロジーに係る。新しい知識やスキルを習得するためにコンピュータが人間の学習行動をどのようにシミュレートまたは実現するかについて専門に研究し、既存の知識構造を再組織して自身のパフォーマンスを継続的に改善する。機械学習は、人工知能のコアであり、コンピュータに知能を持たせる基本的な方法であり、その適用は人工知能のすべての分野をカバーする。機械学習及び深層学習は、一般、人工ニューラルネットワーク、信念ネットワーク、強化学習、転移学習、帰納学習、教示学習などの技術を含む。
本出願の実施例にかかる医用画像分割方法は、人工知能のコンピュータビジョン技術及び機械学習技術などに関し、具体的には、以下の実施例にてさらに説明する。
本出願の実施例は、医用画像分割方法、装置、電子機器及び記憶媒体を提供する。なお、当該医用画像分割装置は、電子機器に統合されてもよく、当該電子機器はサーバーであってもよいし、端末などの機器であってもよい。
画像分割(セグメンテーション)とは、画像をいくつかの特定された、特有の性質を有する領域に分割し、関心オブジェクトを提案する技術とプロセスを指す。本出願の実施例において、主に、3次元医用画像を分割し、必要なターゲットオブジェクトを抽出し、例えば、3D医用画像をz軸方向に沿って複数枚の単一フレームスライス(スライスと略称)に分割してから、スライスから肝臓領域などを分割し、3D医用画像の全てのスライスの分割結果を取得すると、これらの分割結果をz軸方向に沿って組み合わせることにより、当該3D医用画像に対応する3D分割結果、即ち、ターゲットオブジェクト、例えば、肝臓領域の3D形態を得ることができることを指す。さらなる操作が行われるように、当該分割されたターゲットオブジェクトが、医療従事者又は他の医療専門家に分析される。
例えば、図1を参照し、当該医用画像分割装置が電子機器に統合されることを例にして、当該電子機器はスライスペア(当該スライスペアは、分割すべき医用画像からサンプリングされた2枚のスライスを含む)を取得し、異なる受容野(receptive field)を採用して当該スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル(高層)特徴情報及び低レベル(低層)特徴情報を取得する。そして、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得する一方、当該スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアの各スライス間の関連情報を確定し、ひいては、当該関連情報及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成し得る。
以下に、それぞれ詳細に説明する。なお、以下の実施例における説明順序は、実施例の好ましい順序を限定することを意図するものではない。
本実施例では、医用画像分割装置の観点から記載され、当該医用画像分割装置は、具体的に電子機器に統合されてもよい。当該電子機器は、サーバーであってもよいし、端末などの装置であってもよい。当該端末は、タブレットコンピュータ、ノートコンピュータ、パーソナルコンピュータ(Personal Computer、PC)、医用画像収集装置、又は他の電子医療機器などを含んでもよい。
医用画像分割方法であって、分割すべき医用画像からサンプリングされた2枚のスライスを含むスライスペアを取得し、異なる受容野を採用して当該スライスペアの各スライスに対して特徴抽出を行うことで、当該スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得し、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得し、スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアの各スライス間の関連情報を確定し、当該関連情報及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成することを含む。
図2に示すように、当該医用画像分割方法の具体的なフローは以下の通りである。
101において、スライスペアを取得し、当該スライスペアは分割すべき医用画像からサンプリングされた2枚のスライスを含む。
例えば、分割すべき医用画像を取得し、当該分割すべき医用画像から2枚のスライスをサンプリングしてもよい。この2枚のスライスからなる集合はスライスペアと呼ばれる。
なお、当該分割すべき医用画像は、各医用画像収集装置が生体組織(例えば、心臓や肝臓など)に対して画像収集を行った後、当該医用画像分割装置に供給されてもよい。なお、当該医用画像収集装置は核磁気共鳴画像診断装置(Magnetic Resonance Imaging、MRI)やコンピュータ断層撮影装置、膣鏡、内視鏡などの電子機器を含んでもよい。
102において、異なる受容野を採用して当該スライスペアの各スライスに対して特徴抽出を行って、当該スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得する。
なお、畳み込みニューラルネットワークにおいては、受容野が、ある層の出力結果における1要素に対応する入力層の領域のサイズを決定する。つまり、受容野は、畳み込みニューラルネットワークおけるある層の出力結果(即ち、特徴マップ(feature map)であり、特徴情報とも呼ばれる)における要素点が入力画像にマッピングされたサイズであり、例えば、図3を参照する。一般的に、第1の畳み込み層(例えばC)の出力特徴画像画素の受容野のサイズは畳み込みカーネルのサイズ(フィルタサイズ、Filter size)に等しくなり、上位の畳み込み層(例えばCなど)の受容野のサイズは、その前の全ての層の畳み込みカーネルサイズ及びステップサイズに関係しているため、異なる受容野に基づいて異なるレベルの情報を捕らえることができ、ひいて、異なるスケールの特徴情報を抽出する目的を達成するようになる。つまり、異なる受容野を採用してスライスに対して特徴抽出を行った後、当該スライスの複数のスケールの高レベル特徴情報及び複数のスケールの低レベル特徴情報を取得ることができる。
なお、異なる受容野を採用して当該スライスに対して特徴抽出を行う方式は、例えば様々あり、例えば、残差ネットワークにより実現されてもよい。即ち、「異なる受容野を採用して当該スライスペアの各スライスに対して特徴抽出を行うことで、当該スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得する」ステップは、
トレーニング済み分割モデルにおける残差ネットワークにより当該スライスペアの各スライスに対して特徴抽出を行って、当該スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得するステップを含む。
例えば、図4に示すように、当該スライスペアは第1のスライス及び第2のスライスを含み、残差ネットワークは、並列かつ同じ構造を持つ第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐を含むことを例にすれば、この場合、当該残差ネットワークにおける第1の残差ネットワーク分岐を採用して第1のスライスに対して特徴抽出を行うことで、第1のスライスに対応する高レベル特徴情報及び異なるスケールの低レベル特徴情報を取得し、当該残差ネットワークにおける第2の残差ネットワーク分岐を採用して第2のスライスに対して特徴抽出を行うことで、第2のスライスに対応する高レベル特徴情報及び異なるスケールの低レベル特徴情報を取得してもよい。
なお、高レベル(高層)特徴情報とは、当該残差ネットワークが最終的に出力した特徴マップを指し、「高レベル特徴」とは、一般的に、種別や高レベルの抽象化などに関する情報を含んでもよい。低レベル(低層)特徴情報とは、残差ネットワークが分割すべき医用画像に対して特徴抽出を行う過程で得られた特徴マップを指し、「低レベル特徴」とは、一般的に、例えばエッジやテクスチャなどの画像詳細を含んでもよい。
例えば、当該1つの残差ネットワーク分岐(例えば、第1の残差ネットワーク分岐又は第2の残差ネットワーク分岐)に複数の直列接続された残差モジュールが含まれることを例にすれば、ここで、高レベル特徴情報とは、最後のブロック残差モジュールが出力した特徴マップを指し、低レベル特徴情報とは、一番目の残差モジュール及び最後のブロック残差モジュール以外の他の残差モジュールが出力した特徴マップを指す。
例えば、図4を参照し、残差ネットワーク分岐ごとに、残差モジュール1(Block1)、残差モジュール2(Block2)、残差モジュール3(Block3)、残差モジュール4(Block4)及び残差モジュール5(Block5)が含まれる場合、残差モジュール5が出力した特徴マップは高レベル特徴情報であり、残差モジュール2、残差モジュール3及び残差モジュール4が出力した特徴マップは低レベル特徴情報である。
なお、第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐のネットワーク構造は、具体的に、実際の適用ニーズに応じて定められてもよく、例えば、ResNet-18(残差ネットワーク)を採用してもよい。また、第1の残差ネットワーク分岐のパラメータと第2の残差ネットワーク分岐のパラメータとは共有することができ、具体的なパラメータ設定は、実際の適用ニーズに応じて定められてもよい。
オプションとして、より多いスケールの高レベル特徴情報を得るために、得られた高レベル特徴情報に対して空間ピラミッドプーリング(Spatial Pyramid Pooling、SPP)処理を行ってもよい。例えば、図5を参照し、第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐のそれぞれの後に、一つの空間ピラミッドプーリングモジュール(例えば、膨張畳み込み空間ピラミッドプーリング(Atrous Spatial Pyramid Pooling、ASPP)モジュール)を追加してもよい。ASPPは拡張畳み込み(Atrous Convolution)を使用したので、特徴の空間分解能を犠牲にすることなく、特徴の受信フィールドを拡張することができる。そのため、当然より多くのスケールの高レベルの特徴情報を抽出することができる。
なお、第1の残差ネットワーク分岐に接続されるASPPのパラメータと第2の残差ネットワーク分岐に接続されるASPPのパラメータとは共有しなくてもよく、その具体的なパラメータは実際の適用ニーズに応じて定められてもよいので、ここで重複な説明が省略される。
また、図5に示すように、本出願の実施例において、残差ネットワークという部分はトレーニング済み分割モデルにおける符号化モジュールと見なすことができる。
103において、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割して、当該スライスの初期分割結果を取得する。
例えば、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、トレーニング済み分割モデルにおける分割ネットワークにより当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するステップは、具体的に、以下の通りである。
即ち、スライスペアの各スライスに対して、トレーニング済み分割モデルにおける分割ネットワークにより、それぞれ当該スライスの低レベル特徴情報と高レベル特徴情報とに対して畳み込み(Conv)処理を行って、畳み込み処理された高レベル特徴情報を、畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリング(Upsample)した後、畳み込み処理された低レベル特徴情報と連結(Concat)して、連結後特徴情報を取得し、当該連結後特徴情報に基づいて当該スライスにおけるターゲットオブジェクトに属する画素点を選別することで、スライスの初期分割結果を取得する。
なお、当該分割ネットワークは、当該トレーニング済み分割モデルにおける復号化モジュールと見なすことができる。
例えば、依然として当該スライスペアが第1のスライス及び第2のスライスを含むことを例にして、当該分割ネットワークに、並列で同じ構造を持つ第1の分割ネットワーク分岐(復号化モジュールA)及び第2の分割ネットワーク分岐(復号化モジュールB)を含む場合、図5に示すように、具体的には、以下の通りである。
即ち、(1)第1の分割ネットワーク分岐により第1のスライスの低レベル特徴情報と第1のスライスの高レベル特徴情報とに対してそれぞれ畳み込み処理を行い、例えば、畳み込みカーネルが「1×1」である畳み込み処理を行い、畳み込み処理された高レベル特徴情報を、畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリングした後、畳み込み処理された低レベル特徴情報と連結することにより、第1のスライスの連結後特徴情報を取得する。そして、当該連結後特徴情報に基づいて第1のスライスにおけるターゲットオブジェクトに属する画素点を選別することで、第1のスライスの初期分割結果を取得し、例えば、具体的に、当該連結後特徴情報に対して畳み込みカーネルが「3×3」である畳み込み処理を行った後に、第1のスライスのサイズにアップサンプリングすることで、第1のスライスの初期分割結果を得ることができる。
(2)第2の分割ネットワーク分岐により第2のスライスの低レベル特徴情報と第2のスライスの高レベル特徴情報とに対してそれぞれ畳み込み処理を行って、例えば、畳み込みカーネルが「1×1」である畳み込み処理を行って、畳み込み処理された高レベル特徴情報を、畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリングした後に、畳み込み処理された低レベル特徴情報と連結することにより、第2のスライスの連結後特徴情報を取得する。そして、当該連結後特徴情報に基づいて第2のスライスにおけるターゲットオブジェクトに属する画素点を選別することで、第2のスライスの初期分割結果を取得し、例えば、具体的に、当該連結後特徴情報に対して畳み込みカーネルが「3×3」である畳み込み処理を行った後、第2のスライスのサイズにアップサンプリングすることで、第2のスライスの初期分割結果を得ることができる。
104において、当該スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンする。
例えば、トレーニング済み分割モデルにおけるフュージョンネットワークにより、当該スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンしてもよい。
なお、低レベル特徴情報と高レベル特徴情報とをフュージョンする方法は様々あり、例えば、「要素ごとに加算(Sum)」又はチャネルオーバーレイを採用してフュージョンしてもよい。「要素ごとに加算」を例にすると、「トレーニング済み分割モデルにおけるフュージョンネットワークにより、当該スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンする」ステップは、以下のことを含んでもよい。
(1)要素ごとに当該スライスペアの各スライスの低レベル特徴情報を加算することにより、フュージョン後低レベル特徴情報を取得する。
例えば、図5に示すように、スライスペアに第1のスライス及び第2のスライスが含まれることを例にすれば、要素ごとに第1のスライスの低レベル特徴情報と第2のスライスの低レベル特徴情報とを加算することにより、フュージョン後低レベル特徴情報を取得してもよい。
(2)要素ごとに当該スライスペアの各スライスの高レベル特徴情報を加算することにより、フュージョン後高レベル特徴情報を取得する。
例えば、図5に示すように、依然としてスライスペアに第1のスライス及び第2のスライスが含まれることを例にすると、要素ごとに第1のスライスの高レベル特徴情報と第2のスライスの高レベル特徴情報とを加算することにより、フュージョン後高レベル特徴情報を取得する。
(3)トレーニング済み分割モデルにおけるフュージョンネットワークにより、当該フュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とをフュージョンすることにより、フュージョン後特徴情報を取得する。例えば、具体的に、以下のいずれか一つの方式を採用してフュージョンしてもよい。
A、第一種の方式
トレーニング済み分割モデルにおけるフュージョンネットワークにより、要素ごとにフュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とを加算することにより、フュージョン後特徴情報を取得する。
オプションとして、特定のタスクにおける異なる特徴による作用が異なる重みを持つため、特徴がよく利用されて画像分割の正確性を向上するために、異なる特徴にそのあるべき重要性を効果的に付与するように、アテンションメカニズムを使用して、特徴情報によって異なる重みをネットワークに自律的に付与させて、ネットワークが特徴情報を選択的にフュージョンすることができる。
即ち、第一方式のほかに、第二方式を採用して当該フュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とをフュージョンしてもよい。以下の記載を参照してもよい。
B、第二種の方式
トレーニング済み分割モデルにおけるフュージョンネットワークのチャネルアテンションモジュールにより、フュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とに基づいてフュージョン後低レベル特徴情報に重みを付与することにより、重み付け後特徴情報を取得し、要素ごとに当該重み付け後処理特徴とフュージョン後低レベル特徴情報とを乗算することにより、処理後特徴情報を取得し、要素ごとに、処理後特徴情報とフュージョン後高レベル特徴情報とを加算することにより、フュージョン後特徴情報を取得する(図5参照)。
なお、チャネルアテンションモジュールとは、チャネルドメインのアテンションメカニズムを採用したネットワークモジュールを指す。畳み込みニューラルネットワークにおいて、各画像は最初に3つのチャネル(R,G,B)で表され、異なる畳み込みカーネルを通過した後、各チャネルが新しい信号を生成し、例えば、画像特徴の各チャネルに64カーネルの畳み込みを使用すると、64個の新しいチャネルの行列(H,W,64)を生成し、H及びWがそれぞれ画像特徴の高さ及び幅を示す。各チャネルの特徴は、実際に、異なる畳み込みカーネルにおける当該画像の成分を示し、時間周波数変換と類似し、ここで、畳み込みカーネルを使用する畳み込みは信号に対してフーリエ変換を行うことに類似し、これにより、この特徴の1チャネルの情報を64個の畳み込みカーネルにおける信号成分に分解でき、例えば、図6を参照する。いずれの信号も、64個の畳み込みカーネルにおける信号成分に分解でき(生成した64個のチャネルに相当する)、ただし、この新しい64個のチャネルは、キー情報への貢献が同じではなく、多いものもあれば、少ないものもあるので、チャネルごとに1つの重みを付与して、当該チャネルとキー情報(分割タスクにとってキーポイント情報である)との関連度を表し、その重みが大きいほど、関連度が高くなるようになる。チャネルの関連度が高いほど、注意を払うべきチャネルに該当する。そのため、このようなメカニズムは「チャネルドメインのアテンションメカニズム」と呼ばれる。
なお、当該チャネルアテンションモジュールの構成は、具体的に、実際の適用ニーズに応じて定められてもよく、例えば、図7に示すように、具体的に、トレーニング済み分割モデルにおけるフュージョンネットワークのチャネルアテンションモジュールにより、当該フュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とに基づいてフュージョン後低レベル特徴情報に重みを付与することで、重み付け後特徴情報を取得し、そして要素ごとに当該重み付け後特徴情報と当該フュージョン後低レベル特徴情報とを乗算(Mul)することで、処理後特徴情報を取得し、次に、要素ごとに処理後特徴情報とフュージョン後高レベル特徴情報とを加算することで、フュージョン後特徴情報を取得する。
なお、ステップ103及び104の実行は、順位付けなく、ここで重複説明を省略する。
105において、フュージョン後特徴情報に基づいて、当該スライスペアの各スライス間の関連情報を確定する。
例えば、トレーニング済み分割モデルにおけるフュージョンネットワークにより、フュージョン後特徴情報に基づいて、当該スライスペアの各スライス間の関連情報を確定してもよい。例えば、具体的に、フュージョン後特徴情報からターゲットオブジェクトに属する特徴を選別し、選別された特徴(即ち、ターゲットオブジェクトに属する特徴)に基づいて、当該スライスペアの各スライス間の関連情報を確定してもよい。
なお、ターゲットオブジェクトとは、スライスにおいて認識される必要のあるオブジェクト、例えば、肝臓画像から分割された「肝臓」、心臓画像から分割された「心臓」などを指す。
なお、フュージョン後特徴情報に基づいて、スライス間の関連情報を確定する形態は様々あり、例えば、以下の通りである。
(1)選別された特徴に基づいて、スライスペアの各スライスの背景領域及び前景領域を確定する。
例えば、ターゲットオブジェクトが具体的に肝臓であることを例にすると、選別された、肝臓に属する特徴の所在している領域がスライスの前景領域であり、スライスにおける残りの領域がスライスの背景領域であると確定することができる。
また、例えば、ターゲットオブジェクトが具体的に心臓であることを例にすると、選別された、心臓に属する特徴の所在している領域がスライスの前景領域であり、スライスにおける残りの領域がスライスの背景領域であると確定することができる。
(2)当該スライスペアの各スライス間の前景領域の差集合画素及び積集合画素を算出する。
例えば、具体的に、フュージョン後特徴情報の、スライスペアのいずれかのスライスの前景領域にのみ属する画素点を組み合わせることで差集合領域の画素集合(差集合画素と略称)を取得し、フュージョン後特徴情報の、スライスペアの両方のスライスの前景領域に同時に属する画素点を組み合わせることで、積集合領域の画素集合(積集合画素と略称)を取得してもよい。
なお、フュージョン後特徴情報は、「当該スライスペアにおける全てのスライスをオーバーレイ」した後、得られたオーバーレイスライスに対応する特徴情報と見なしてもよい。よって、当該オーバーレイスライスにおいて、前景領域(2つのスライスの前景領域)のオーバーレイのない領域における画素点を取得すれば、差集合画素が得れる。同様に、前景領域のオーバーレイ領域における画素点を取得すれば、積集合画素が得される。
(3)各スライスの背景領域、差集合画素及び積集合画素に基づいて当該スライス間の関連情報を生成する。
例えば、フュージョン後特徴情報(オーバーレイスライス)の、スライスペアの両方のスライスの背景領域に同時に属する画素を当該スライスペアの背景領域としてもよい。言い換えれば、全てのスライスの背景領域の積集合部分を当該スライスペアの背景領域として、当該スライスペアの背景領域、差集合画素及び積集合画素に対して画素タイプ標識を行うことで、当該スライス間の関連情報を取得する。
例えば、異なる画素値を採用してこれらの領域に対して画素タイプ標識を行ってもよく、例えば、スライスペアの背景領域の画素値を「0」、差集合画素の値を「1」、積集合画素の値を「2」に設定してもよく、又は、背景領域の画素値を「0」、差集合画素の値を「2」、積集合画素の値を「1」に設定してもよい。
オプションとして、異なる色を採用してこれらの領域に対して画素タイプ標識を行ってもよく、例えば、背景領域の色を「黒」、差集合画素の色を「赤」、積集合画素の色を「緑」に設定してもよく、又は、背景領域の色を「黒」、差集合画素の色を「緑」、積集合画素の色を「赤」などに設定してもよい。
106において、スライスペアの各スライス間の関連情報及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成する。
例えば、当該スライスペアに第1のスライス及び第2のスライスが含まれることを例にすると、「スライスペアの各スライス間の関連情報及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成する」ステップは、
(1)スライスペアの各スライス間の関連情報、及び第1のスライスの初期分割結果に基づいて第2のスライスの分割結果を予測することで、第2のスライスの予測分割結果を取得するステップを含む。
この場合、スライス間の関連情報とは、第1のスライスと第2のスライスとの間の関連情報を指すため、第1のスライスと第2のスライスとの間の差集合画素及び積集合画素などが体現される。従って、当該関連情報及び第1のスライスの初期分割結果に基づいて、第2のスライスの分割結果を予測することができる。
例えば、第1のスライス及び第2のスライスの差集合画素がA領域、積集合画素がB領域、第1のスライスの初期分割結果がC領域であるとして、第2のスライスの予測分割結果が「{(A∪B)\C}∪B」となり、その中、「∪」とは「積集合」を指し、「\」とは、差集合を指す。
(2)スライスペアの各スライス間の関連情報及び第2のスライスの初期分割結果に基づいて第1のスライスの分割結果を予測することで、第1のスライスの予測分割結果を取得する。
第2のスライスの予測分割結果と同様に、第1のスライス及び第2のスライスの差集合画素がA領域、積集合画素がB領域、第2のスライスの初期分割結果がD領域であるとして、第1のスライスの予測分割結果は「{(A∪B)\D}∪B」となる。
(3)第1のスライスの予測分割結果に基づいて第1のスライスの初期分割結果を調整することで、第1のスライスの調整後分割結果を取得するステップは、具体的に、
第1のスライスの予測分割結果及び第1のスライスの初期分割結果に対して平均化処理を行うことで、第1のスライスの調整後分割結果を取得する。
即ち、第1のスライスの予測分割結果における画素値と第1のスライスの初期分割結果における同一位置での画素値とを平均化し、当該画素平均値を第1のスライスの調整後分割結果における同一位置での画素値とする。
(4)第2のスライスの予測分割結果に基づいて第2のスライスの初期分割結果を調整することで、第2のスライスの調整後分割結果を取得するステップは、具体的に、
第2のスライスの予測分割結果及び第2のスライスの初期分割結果に対して平均化処理を行うことで、第2のスライスの調整後分割結果を取得する。
即ち、第2のスライスの予測分割結果における画素値と第2のスライスの初期分割結果における同一位置での画素値とを平均化し、当該画素平均値を第2のスライスの調整後分割結果における同一位置での画素値とする。
(5)第1のスライスの調整後分割結果と第2のスライスの調整後分割結果とをフュージョンすることで、当該スライスペアの分割結果を取得するステップは、具体的に、
第1のスライスの調整後分割結果及び第2のスライスの調整後分割結果に対して平均化処理を行い、平均化処理された結果に対して二値化処理を行うことで、当該スライスペアの分割結果を取得する。
即ち、第1のスライスの調整後分割結果における画素値と第2のスライスの調整後分割結果における同一位置での画素値作とを平均化し、当該画素平均値を当該スライスペアの分割結果における同一位置での画素値とする。
なお、二値化とは、画像での画素点の階調値を0又は255に設定することを指し、つまり、画像全体に白黒のみ有する、顕著な視覚効果が体現するようにしている。
前記した実施例における記載から分かるように、本出願の実施例におけるトレーニング済み分割モデルは残差ネットワークや分割ネットワーク、フュージョンネットワークなどを含んでもよい。なお、残差ネットワークは、並列にされた第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐を含んでもよく、分割ネットワークは、並列にされた第1の分割ネットワーク分岐及び第2の分割ネットワーク分岐を含んでもよい。なお、残差ネットワーク部分は、当該トレーニング済み画像分割モデルのエンコーダー(encoder)部分と見なしてもよく、符号化モジュールと呼ばれ、特徴情報抽出を行うために用いられ、分割ネットワークは当該トレーニング済み分割モデルのデコーダー(decoder)部分と見なしてもよく、復号化モジュールと呼ばれ、抽出された特徴情報に基づいて分類及び分割を行うために用いられる。
オプションとして、当該トレーニング済み分割モデルは、真の値がマーキングされたスライスペアサンプルを、複数ペア、トレーニングすることで得られてもよく、具体的に、運用保守担当者により事前に設定されてもよく、画像分割装置が自律的にトレーニングすることで得られてもよい。即ち、「トレーニング済み分割モデルにおける残差ネットワークにより当該スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得する」ステップの前に、当該医用画像分割方法は、以下のステップをさらに含んでもよい。
S1において、真の値がマーキングされたスライスペアサンプルを複数ペア採集し、当該スライスペアサンプルは、医用画像サンプルからサンプリングされた2枚のスライスサンプルを含む。
例えば、具体的に、複数枚の医用画像を元のデータセットとして採集してもよく、例えば、データベース又はネットワークなどから当該元のデータセットを取得してから、当該元のデータセットにおける医用画像を前処理することで、予め設定された分割モデルの入力基準を満足する画像を取得すれば、医用画像サンプルを得ることができる。得られた医用画像サンプルをスライスにスライスし(本出願の実施例において、スライスサンプルと呼ばれる)、各スライスサンプルに対してターゲットオブジェクトのマーキングを行い(真の値マーキングと呼ばれる)、二つずつ1つの集合を構成すれば、真の値がマーキングされたスライスペアサンプルを複数ペア得ることができる。
なお、前処理は、重複排除、トリミング、回転/反転などの操作を含んでもよい。例えば、予め設定された分割ネットワークの入力サイズが「128*128*32(幅*高*深)」であることを例にすれば、元のデータセットにおける画像を「128*128*32」サイズの画像にトリミングし、勿論、これらの画像に対して他の前処理操作を行ってもよい。
S2において、予め設定された分割モデルにおける残差ネットワークにより当該スライスペアサンプルの各スライスサンプルに対して特徴抽出を行うことで、各スライスサンプルの高レベル特徴情報及び低レベル特徴情報を取得する。
例えば、当該スライスペアサンプルに第1のスライスサンプル及び第2のスライスサンプルが含まれ、残差ネットワークは並列にされた第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐を含むことを例にすると、当該残差ネットワークにおける第1の残差ネットワーク分岐を採用して第1のスライスサンプルに対して特徴抽出を行うことで、第1のスライスサンプルに対応する異なるスケールの高レベル特徴情報、及び異なるスケールの低レベル特徴情報を取得し、当該残差ネットワークにおける第2の残差ネットワーク分岐を採用して第2のスライスサンプルに対して特徴抽出を行うことで、第2のスライスサンプルに対応する異なるスケールの高レベル特徴情報及び異なるスケールの低レベル特徴情報を取得してもよい。
S3において、スライスペアサンプルの各スライスサンプルに対して、当該スライスサンプルの低レベル特徴情報及び高レベル特徴情報に基づいて、予め設定された分割モデルにおける分割ネットワークにより当該スライスサンプルにおけるターゲットオブジェクトを分割することで、当該スライスサンプルの予測分割値(即ち、予測された確率図)を取得する。
例えば、当該スライスペアサンプルに第1のスライスサンプル及び第2のスライスサンプルが含まれることを例にすれば、残差ネットワークが並列にされた第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐を含む場合、以下の操作を実行してもよい。
A、第1の分割ネットワーク分岐により第1のスライスの低レベル特徴情報と第1のスライスの高レベル特徴情報とに対してそれぞれ畳み込み処理を行い、例えば、畳み込みカーネルが「1×1」である畳み込み処理を行って、畳み込み処理された高レベル特徴情報を、畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリングした後、畳み込み処理された低レベル特徴情報と連結することにより、第1のスライスの連結後特徴情報を取得し、その後、当該連結後特徴情報に基づいて第1のスライスにおけるターゲットオブジェクトに属する画素点を選別することで、第1のスライスの初期分割値を取得し、例えば、具体的に、当該連結後特徴情報に対して畳み込みカーネルが「3×3」である畳み込み処理を行った後、第1のスライスのサイズにアップサンプリングすることで、第1のスライスの初期分割結果を得ることができる。
B、第2の分割ネットワーク分岐により第2のスライスの低レベル特徴情報と第2のスライスの高レベル特徴情報とに対してそれぞれ畳み込み処理を行い、例えば、畳み込みカーネルが「1×1」である畳み込み処理を行って、畳み込み処理された高レベル特徴情報を、畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリングした後、畳み込み処理された低レベル特徴情報と連結することにより、第2のスライスの連結後特徴情報を取得し、その後、当該連結後特徴情報に基づいて第2のスライスにおけるターゲットオブジェクトに属する画素点を選別することで、第2のスライスの初期分割値を取得し、例えば、具体的に、当該連結後特徴情報に対して畳み込みカーネルが「3×3」である畳み込み処理を行った後、第2のスライスのサイズにアップサンプリングすることで、第2のスライスの初期分割結果を得ることができる。
S4において、予め設定された分割モデルにおけるフュージョンネットワークにより、スライスペアサンプルの各スライスサンプルの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて当該スライスペアサンプルの各スライスサンプル間の関連情報を予測する。
例えば、要素ごとに当該スライスペアサンプルの各スライスサンプルの低レベル特徴情報を加算することで、フュージョン後低レベル特徴情報を取得し、要素ごとに当該スライスペアサンプルの各スライスサンプルの高レベル特徴情報を加算して、フュージョン後高レベル特徴情報を取得し、その後、予め設定された分割モデルにおけるフュージョンネットワークにより、当該フュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とをフュージョンすることで、フュージョン後特徴情報を取得し、ひいては、フュージョン後特徴情報からターゲットオブジェクトに属する特徴を選別し、選別された特徴に基づいて、当該スライスペアサンプルの各スライスサンプル間の関連情報を確定することができる。
なお、当該フュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とをフュージョンする方式は、具体的に、前述した実施例を参照すればよいが、また、計算スライスペアサンプルの各スライスサンプル間の関連情報を算出する方式は、スライスペアの各スライス間の関連情報を算出する方式と同様であり、詳細について前述した実施例を参照することができ、ここで重複説明が省略される。
S5において、当該真の値、スライスペアサンプルの各スライスサンプルの予測分割値及び予測された関連情報に基づいて、当該予め設定された分割モデルを収束させることで、トレーニング済み分割モデルを取得する。
例えば、具体的に、損失関数、例えば、Dice損失関数により、当該真の値、予測分割値及び予測された関連情報に基づいて、当該予め設定された分割モデルを収束させることで、トレーニング済み分割モデルを取得してもよい。
なお、当該損失関数は、具体的に、実際適用のニーズに応じて設定されてもよく、例えば、スライスペアサンプルに第1のスライスサンプルx及び第2のスライスサンプルxが含まれることを例にすると、第1のスライスサンプルxのマーキングされた真の値がy、第2のスライスサンプルxのマーキングされたの真の値がyであるとして、第1の分割ネットワーク分岐のDice損失関数は、以下の通りである。
Figure 2022529557000002
第2の分割ネットワーク分岐のDice損失関数は以下の通りである。
Figure 2022529557000003
ただし、p及びpはそれぞれ第1の分割ネットワーク分岐及び第2の分割ネットワーク分岐の予測分割値であり、s及びtはそれぞれスライスにおける行及び列の位置インデックスであり、
Figure 2022529557000004
は第1のスライスサンプルにおける位置インデックスが(s,t)である画素点のマーキングされた真の値を示し、
Figure 2022529557000005
は第1のスライスサンプルにおける位置インデックスが(s,t)である画素点の予測分割値を示し、
Figure 2022529557000006
は第2のスライスサンプルにおける位置インデックスが(s,t)である画素点のマーキングされた真の値を示し、
Figure 2022529557000007
は第2のスライスサンプルにおける位置インデックスが(s,t)である画素点の予測分割値を示す。
フュージョンネットワークの出力したスライス間の関連情報に背景領域、積集合画素及び差集合画素の三つの関係タイプが含まれることを例にすると、前記二つのDice損失関数に基づいて、当該フュージョンネットワークのDice損失関数を
Figure 2022529557000008
として算出できる。
ただし、yijは当該第1のスライスサンプルxと第2のスライスサンプルxとの間の関連関係の真の値であり、当該関連関係の真の値は、第1のスライスサンプルxのマーキングされた真の値及び第2のスライスサンプルxのマーキングされた真の値に基づいて算出してもよい。例えば、第1のスライスサンプルxと第2のスライスサンプルxとがオーバーレイした画像の背景領域、及び第1のスライスサンプルxのマーキングされた真の値及び第2のスライスサンプルxのマーキングされた真の値との間の差集合及び積集合を確定してもよく、ここで得られた背景領域、差集合及び積集合は、第1のスライスサンプルxと第2のスライスサンプルxとがオーバーレイした「背景領域、差集合画素及び積集合画素」の真の値であって、本出願の実施例で言及された関連関係の真の値である。
ijはフュージョンネットワークの出力した第1のスライスサンプルxと第2のスライスサンプルxとの間の関連関係であり、s及びtはそれぞれスライスにおける行及び列の位置インデックスであり、
Figure 2022529557000009
はオーバーレイされたスライスサンプルにおける位置インデックスが(s,t)であるオーバーレイ画素点間の関連関係の真の値を示し、
Figure 2022529557000010
はオーバーレイされたスライスサンプルにおける位置インデックスが(s,t)であるオーバーレイ画素点間の関連関係の予測値(即ち、フュージョンネットワークが出力した関連関係)を示し、lは上記の3つの関係タイプ(即ち、背景領域、積集合画素及び差集合画素)の種別インデックスである。
第1の分割ネットワーク分岐のDice損失関数、第2の分割ネットワーク分岐のDice損失関数及びフュージョンネットワークのDice損失関数に基づいて、当該画像分割モデル全体損失関数L(y,p,y,p,yij,pij;θ)を、
Figure 2022529557000011
として算出できる。
ただし、λ、λ及びλは手動で設定されたハイパーパラメータであり、各部分損失の全体損失への貢献をバランスさせるために用いられる。
このように、本実施例では、スライスペアを取得した後、異なる受容野を採用して当該スライスペアの各スライスに対してそれぞれ特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得してもよい。その後、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得する一方、スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアの各スライス間の関連情報を確定し、最終的にスライスペアの各スライス間の関連情報、及びスライスペアの各スライスの初期分割結果に基づいて当該スライスペアの分割結果を生成することができる。本出願の実施例にかかる方法は、3D医用画像のスライス間に関連性があることを加味したので、2枚のスライス(スライスペア)を同時に分割し、スライス間の関連関係により分割結果をさらに調整するので、ターゲットオブジェクト(例えば、肝臓)の形状情報をより正確に捕らえることができ、分割の精度がより向上される。
以上の実施例で記載された方法によれば、以下例を挙げてより詳細に説明する。
本実施例において、当該画像分割装置が電子機器に統合され且つターゲットオブジェクトが肝臓であることを例にして説明する。
(一)画像分割モデルのトレーニング
図5及び図8に示すように、当該画像分割モデルは残差ネットワーク、分割ネットワーク及びフュージョンネットワークを含んでもよい。なお、残差ネットワークは並列で同じ構造を持つ2つの残差ネットワーク分岐、即ち、第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐を含んでもよい。オプションとして、各残差ネットワーク分岐の後に一つのASPP(膨張畳み込み空間ピラミッドプーリング)モジュールが接続されてもよく、当該残差ネットワークは、当該画像分割モデルの符号化モジュールとして、入力画像、例えば、スライスペアのスライス又はスライスペアサンプルのスライスサンプルに対して特徴情報抽出を行うために用いられてもよい。
同様に、分割ネットワークは、並列で同じ構造を持つ2つの分割ネットワーク分岐、即ち、第1の分割ネットワーク分岐及び第2の分割ネットワーク分岐を含んでもよく、当該分割ネットワークは、画像分割モデルの復号化モジュールとして、符号化モジュールにより抽出された特徴情報に基づいてターゲットオブジェクト、例えば、肝臓の分割を行うために用いられる。
一方、フュージョンネットワークは、符号化モジュールにより抽出された特徴情報に基づいてスライスペアの各スライス(又はスライスペアサンプルの各スライスサンプル)間の関連関係を予測するために用いられる。当該画像分割モデルの構成に基づいて、以下にそのトレーニング方式について詳細に説明する。
まず、電子機器は、肝臓構造を含む複数枚の3D医用画像を採集してもよく、例えば、データベース又はネットワークなどから肝臓構造を含む複数枚の3D医用画像を取得し、そしてこれらの3D医用画像に対して前処理(例えば、重複排除、トリミング、回転及び/又は反転などの操作)を行うことで、当該予め設定された分割モデルの入力基準を満足する画像を医用画像サンプルとして取得する。そして、医用画像サンプルをz軸(3D座標軸が{x,y,z})方向に沿って、一定の時間間隔でサンプリングして、複数のスライスサンプルを取得する。その後、各スライスサンプルに肝臓領域などの情報をマーキングし、二つずつで1つの集合を構成することにより、真の値がマーキングされた複数ペアのスライスペアサンプルを得るようになる。
なお、スライスサンプルをスライスペアサンプルに形成する場合、例えば、スライスサンプル1とスライスサンプル2とをスライスペアサンプル1に形成し、そしてスライスサンプル1とスライスサンプル3とをスライスペアサンプル2に形成するように、様々な組み合わせ方式を採用することができる。このように、異なる組み合わせ方式により、限られたスライスサンプルを利用して拡張してより多くのトレーニングデータ(即ち、データ拡張)を得ることができ、少量の手動マーキングデータを使用しても当該画像分割モデルのトレーニングを完了することができる。
次に、真の値がマーキングされた複数のペアのスライスペアサンプルを取得した後、電子機器は、スライスペアサンプルを予め設定された画像分割モデルに入力し、残差ネットワークによりスライスペアサンプルに対して特徴抽出を行ってもよく、例えば、具体的に、第1の残差ネットワーク分岐により当該スライスペアサンプルの第1のスライスサンプルに対して特徴抽出を行うことで、第1のスライスサンプルに対応する異なるスケールの高レベル特徴情報及び異なるスケールの低レベル特徴情報を取得し、第2の残差ネットワーク分岐により当該スライスペアサンプルの第2のスライスサンプルに対して特徴抽出を行うことで、第2のスライスサンプルに対応する異なるスケールの高レベル特徴情報及び異なるスケールの低レベル特徴情報を取得してもよい。
オプションとして、ASPPを利用して第1のスライスサンプルに対応する高レベル特徴情報及び第2のスライスサンプルに対応する高レベル特徴情報をさらに処理することで、より多くの異なるスケールの高レベル特徴情報を取得してもよい(図8を参照)。
また、第1のスライスサンプルに対応する高レベル特徴情報及び低レベル特徴情報、並びに第2のスライスサンプルに対応する高レベル特徴情報及び低レベル特徴情報を取得した後、電子機器は、これらの高レベル特徴情報及び低レベル特徴情報に基づいて、第1の分割ネットワーク分岐及び第2の分割ネットワーク分岐をそれぞれ利用して第1のスライスサンプル及び第2のスライスサンプルに対して肝臓の分割を行うことで、第1のスライスサンプルの予測分割値及び第2のスライスサンプルの予測分割値を取得することができる一方、フュージョンネットワークにより、第1のスライスサンプル及び第2のスライスサンプルの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、第1のスライスサンプルと第2のスライスサンプルとの間の関連情報を予測してもよく、例えば、以下の通りである。
図8を参照し、要素ごとに第1のスライスサンプルの低レベル特徴情報と第2のスライスサンプルの低レベル特徴情報とを加算して、フュージョン後低レベル特徴情報を取得し、要素ごとに第1のスライスサンプルの高レベル特徴情報と第2のスライスサンプルの高レベル特徴情報とを加算して、フュージョン後高レベル特徴情報を取得してよい。そして、チャネルアテンションモジュールにより当該フュージョン後低レベル特徴情報及びフュージョン後高レベル特徴情報に基づいて、フュージョン後低レベル特徴情報に重みを付与することで、重み付けされた特徴情報を取得し、ひいては、要素ごとに当該重み付けされた特徴情報と当該フュージョン後低レベル特徴情報とを乗算(Mul)して、処理後特徴情報を取得し、要素ごとに当該処理後特徴情報とフュージョン後高レベル特徴情報を加算して、フュージョン後特徴情報が得られる。その後、フュージョン後特徴情報から肝臓に属する特徴を選別し、選別された肝臓に属する特徴に基づいて、第1のスライスサンプルと第2のスライスサンプルとの間の関連情報を予測してもよく、例えば、第1のスライスサンプル及び第2のスライスサンプルの背景領域、第1のスライスサンプルと第2のスライスサンプルとの間の積集合画素及び差集合画素などを予測してもよい。
最後、スライスペアサンプルのマーキングされたの真の値、スライスペアサンプルの各スライスサンプルの予測分割値及び予測された関連情報を利用して、当該予め設定された画像分割モデルを収束させることで、トレーニング済み画像分割モデルが得られる。
なお、スライスペアサンプルのマーキングされた真の値は、第1のスライスサンプルのマーキングされた肝臓領域、及び第2のスライスサンプルのマーキングされた肝臓領域を含む。第1のスライスサンプルのマーキングされた肝臓領域及び第2のスライスサンプルのマーキングされた肝臓領域により、第1のスライスサンプルと第2のスライスサンプルとの間の実際の関連関係をさらに確定することができ、第1のスライスサンプルと第2のスライスサンプルとからなるスライスペアサンプルの背景領域、第1のスライスサンプルと第2のスライスサンプルとの間の実の差集合画素、及び第1のスライスサンプルと第2のスライスサンプルとの間の実の積集合画素などを含む。
また、第1のスライスサンプルと第2のスライスサンプルとからなるスライスペアサンプルの実の背景領域は、第1のスライスサンプルと第2のスライスサンプルとをオーバーレイした後、第1のスライスサンプルの背景領域と第2のスライスサンプルの背景領域との積集合部分を取得することで得られてもよい。第1のスライスサンプルと第2のスライスサンプルとの間の実の差集合画素、及び第1のスライスサンプルと第2のスライスサンプルとの間の実の積集合画素は、第1のスライスサンプルのマーキングされた肝臓領域と第2のスライスサンプルのマーキングされた肝臓領域との差集合を算出し、第1のスライスサンプルのマーキングされた肝臓領域と第2のスライスサンプルのマーキングされた肝臓領域との間の積集合を算出することで得られてもよい。
オプションとして、第1のスライスサンプルと第2のスライスサンプルとの間の実の関連関係を迅速かつ容易に認識するために、第1のスライスサンプルのマーキングされた肝臓領域と第2のスライスサンプルのマーキングされた肝臓領域とがオーバーレイした図において、異なるタイプの領域に異なる色又は画素値を標識してもよい。例えば、図9及び図10を参照し、スライスペアサンプルの背景領域の色を黒に、積集合画素の色を赤に(図9及び図10に白)、積集合画素の色を緑(図9及び図10にグレー)に標識してもよく、スライスペアサンプルの背景領域の画素値を0、積集合画素の画素値を1、積集合画素の画素値を2に設定してもよい。
なお、図9及び図10の中央の画像は第1のスライスサンプルのマーキングされた肝臓領域と第2のスライスサンプルのマーキングされた肝臓領域とがオーバーレイした図である。また、図9における第1のスライスサンプル及び第2のスライスサンプルは異なるCT画像からサンプリングしたものであり、図10における第1のスライスサンプル及び第2のスライスサンプルは同一のCT画像からサンプリングしたものである。
具体的に収束させる際、Dice損失関数により収束させ、当該Dice損失関数L(y,p,y,p,yij,pij;θ)は、具体的に、
Figure 2022529557000012
であってもよい。
ただし、λ、λ及びλは、手動で設定されたハイパーパラメータであり、各部分損失の全体損失への貢献をバランスさせるために用いられる。L(y,p)、L(y,p)、及び(yij,pij)は、具体的に、前述した実施例を参照すればよく、ここで重複説明が省略される。
当該Dice損失関数を採用して、当該予め設定された画像分割モデルを収束させると、1回のトレーニングが完了する。このように、複数回のトレーニングを行うと、トレーニング済み画像分割モデルを得ることができる。
トレーニングしているプロセスに、スライスサンプルの「肝臓」の実のマーキングを利用して分割予測値を検証する以外に、スライスサンプル間の関連関係の真の値を利用して二つの分割予測値の間の関係(即ち、予測された関連関係)を検証することもできる。よって、「監督」の役割を奏し得る。つまり、当該トレーニング済み画像分割モデルの分割の正確性をさらに向上することができる。
なお、当該画像分割モデルにおける「スライスサンプル間の関連関係を確定するための」部分は、トレーニング中に、スライスサンプル自体によるターゲットオブジェクトのマーキング情報を除く情報(即ち、スライスサンプル間の関連関係)を利用して当該画像分割モデルをトレーニングして、形状の事前知識(Prior knowledge、機械学習アルゴリズムによって利用される知識を指す)を学習することができるので、当該「スライスサンプル間の関連関係を確定するための」部分は代理監督(Proxy supervision)部分と呼ばれることがあり、ここで重複説明が省略される。
(二)当該トレーニング済み画像分割モデルにより、分割すべき医用画像を分割してもよい。
なお、当該トレーニング済み画像分割モデルは、残差ネットワーク、分割ネットワーク及びフュージョンネットワークを含み、残差ネットワークは第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐を含んでもよく、分割ネットワークは第1の分割ネットワーク分岐及び第2の分割ネットワーク分岐を含んでもよい。
図11に示すように、医用画像分割方法は、具体的な流れが以下の通りである。
201において、電子機器が分割すべき医用画像を取得する。
例えば、電子機器が、各医用画像収集装置、例えば、MRIやCT等のように、人体肝臓部位に対して画像採集を行った後に送信した医用画像を受信し、これらの医用画像を分割すべき医用画像としてもよい。
オプションとして、受信した医用画像に対して前処理、例えば、重複排除、トリミング、回転及び/又は反転などの操作を行ってもよい。
202において、電子機器が、分割すべき医用画像から2枚のスライスをサンプリングして、現在分割すべきスライスペアを取得する。
例えば、電子機器が、z軸方向に沿って、一定の時間間隔で2枚のスライスを連続的にサンプリングして、スライスペアを構成したり、z軸方向に沿って、一定の時間間隔で2枚のスライスをランダムにサンプリングして、スライスペアを構成したりしてもよい。
オプションとして、充分な受容野を提供するために、スライスをサンプリングする際、重複部分を有するパッチワイズ(patch-wise)を単位としてサンプリングしてもよい。
なお、パッチワイズ(patch-wise)は、画像の基本単位であり、画像の基本単位は、様々あり、patch-wiseのほかに、pixel-wise、image-wiseなどであってもよく、pixel-wiseは画素レベルであり、即ち、通常いわゆる「画素」であり,image-wiseは画像レベル(つまり、1枚の画像を単位とする)であり、patch-wiseとは、画素レベルと画像レベルとの間のものを指し、各patchは複数の画素からなる。
例えば、図12に示すように、スライスをサンプリングする際、パッチワイズ(patch-wise)を単位として、一つずつサンプリングしてもよく、なお、現在サンプリングされているパッチワイズはその直前パッチワイズに対して部分的な重複領域があり、例えば、パッチワイズ2はパッチワイズ1に対して重複領域があり、パッチワイズ3はパッチワイズ2に対して重複領域がある。なお、重複領域のサイズは、実際適用のニーズに応じて設定されてもよい。
また、なお、スライスペアからサンプリングした2枚のスライスが重複しなくてもよく、一部が重複してもよく、全部が重複してもよい(即ち、同一のスライスである)。当該トレーニング済み画像分割モデルにおいて、異なる分岐における同一ネットワーク構成のパラメータが異なる可能性があり(例えば、異なる分岐におけるASPPのパラメータが共有されない)ため、同じ入力に対しても、異なる分岐により出力された初期分割結果が異なる可能性がある。従って、入力された2枚のスライスは同じであっても、その意味があると理解されたい。
203において、電子機器は、トレーニング済み画像分割モデルにおける残差ネットワークにより当該スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得する。
例えば、図8に示すように、当該スライスペアが第1のスライス及び第2のスライスを含むことを例にすると、ステップ203は、具体的に、以下の通りである。
電子機器は、当該残差ネットワークにおける第1の残差ネットワーク分岐、例えば、ResNet-18を採用して、第1のスライスに対して特徴抽出を行うことで、第1のスライスに対応する高レベル特徴情報、及び異なるスケールの低レベル特徴情報を取得し、そして、ASPPを採用して第1のスライスに対応する高レベル特徴情報を処理することで、第1のスライスに対応する複数のスケールの高レベル特徴情報を取得する。
また、電子機器は、当該残差ネットワークにおける第2の残差ネットワーク分岐、例えば、別のResNet-18を採用して、第2のスライスに対して特徴抽出を行うことで、第2のスライスに対応する高レベル特徴情報、及び異なるスケールの低レベル特徴情報を取得し、そして別のASPPを採用して第2のスライスに対応する高レベル特徴情報を処理することで、第2のスライスに対応する複数のスケールの高レベル特徴情報を取得する。
なお、第1の残差ネットワーク分岐のパラメータと第2の残差ネットワーク分岐のパラメータとは共有(share)されてもよいが、二つの分岐が接続されたASPPのパラメータは共有されなくてもよく、その具体的なパラメータは、実際の適用ニーズに応じて定められてもよいが、ここで重複説明が省略される。
204において、電子機器は、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、トレーニング済み画像分割モデルにおける分割ネットワークにより当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得する。
例えば、依然として、当該スライスペアが第1のスライス及び第2のスライスを含むことを例にすると、図8に示すように、ステップ204は、具体的に、以下の通りである。
即ち、電子機器は、第1の分割ネットワーク分岐により第1のスライスの低レベル特徴情報及び高レベル特徴情報に対して畳み込みカーネルが「1×1」である畳み込み処理を行い、畳み込み処理された高レベル特徴情報を畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリングした後、畳み込み処理された低レベル特徴情報と連結することで、第1のスライスの連結後特徴情報を取得し、そして当該連結後特徴情報に対して畳み込みカーネルが「3×3」である畳み込み処理を行い、畳み込み処理された連結後特徴情報を、第1のスライスのサイズにアップサンプリングすることにより、第1のスライスの初期分割結果を得ることができる。
同様に、別の分岐も同じ操作を実行してもよい。即ち、電子機器は、第2の分割ネットワーク分岐により、第2のスライスの低レベル特徴情報及び第2のスライスの高レベル特徴情報に対して畳み込みカーネルが「1×1」である畳み込み処理を行い、畳み込み処理された高レベル特徴情報を畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリングした後、畳み込み処理された低レベル特徴情報と連結し、第2のスライスの連結後特徴情報を取得し、そして当該連結後特徴情報に対して畳み込みカーネルが「3×3」である畳み込み処理を行い、畳み込み処理された連結後特徴情報を第2のスライスのサイズにアップサンプリングすることにより、第2のスライスの初期分割結果を得ることができる。
205において、電子機器は、トレーニング済み画像分割モデルにおけるフュージョンネットワークにより、スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンする。例えば、図8に示すように、具体的に、以下の通りである。
即ち、要素ごとに第1のスライスの低レベル特徴情報と第2のスライスの低レベル特徴情報とを加算して、フュージョン後低レベル特徴情報を取得する一方、要素ごとに第1のスライスの高レベル特徴情報と第2のスライスの高レベル特徴情報とを加算して、フュージョン後高レベル特徴情報を取得し、そしてトレーニング済み分割モデルにおけるフュージョンネットワークのチャネルアテンションモジュールによりフュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とを処理して、処理後特徴情報を取得し、ひいては、要素ごとに処理後特徴情報とフュージョン後高レベル特徴情報とを加算することにより、フュージョン後特徴情報を得ることができる。
なお、ステップ204及び205の実行は順位付けされない。
206において、電子機器は、トレーニング済み画像分割モデルにおけるフュージョンネットワークにより、フュージョン後特徴情報に基づいて、当該スライスペアの各スライス間の関連情報を確定する。
例えば、電子機器は、具体的に、フュージョン後特徴情報から、肝臓領域に属する特徴を選別し、選別された特徴に基づいて、第1のスライスの前景領域(即ち、肝臓が所在している領域)、及び第2のスライスの前景領域(即ち、肝臓が所在している領域)をそれぞれ確定し、第1のスライスにおける、二つのスライスの前景領域の積集合を除いた領域をスライスペアの背景領域とし、そしてフュージョン後特徴情報における、2枚のスライスのいずれかのスライスの前景領域にのみ属する画素を当該スライスペアの差集合画素とし、フュージョン後特徴情報における、2枚のスライスに同時に属する画素を積集合画素とし、その後、当該スライスペアの背景領域、差集合画素及び積集合画素に対して画素タイプ標識を行って、例えば、異なる画素値を採用してこれらの領域を標識したり、異なる色を採用してこれらの領域を標識したりすることにより、第1のスライスと第2のスライスの関連情報を得ることができる。
オプションとして、当該フュージョン後特徴情報に基づいて、当該スライスペアの各スライス間の関連情報を確定する操作は、様々なネットワーク構成により実現されてもよく、例えば、図8に示すように、具体的に、畳み込みカーネルが3×3である畳み込み層を採用して当該フュージョン後特徴情報に対してそれぞれ畳み込み処理を行い、次に、畳み込み処理されたフュージョン後特徴情報を、入力されたスライス(第1のスライス及び第2のスライス)と同じサイズにアップサンプリングすることにより、第1のスライス及び第2のスライス間の関連情報、例えば、当該スライスペアの背景領域、第1のスライスと第2のスライスの積集合画素、及び第1のスライスと第2のスライスの差集合画素などを得ることができる。
207において、電子機器は、スライスペアの各スライス間の関連情報、及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成する。
例えば、また、スライスペアが第1のスライス及び第2のスライスを含むことを例にすれば、スライス間の関連情報及び第1のスライスの初期分割結果に基づいて第2のスライスの分割結果を予測することで、第2のスライスの予測分割結果を取得し、スライス間の関連情報及び第2のスライスの初期分割結果に基づいて第1のスライスの分割結果を予測することで、第1のスライスの予測分割結果を取得し、次に、第1のスライスの予測分割結果及び第1のスライスの初期分割結果に対して平均化処理を行って、第1のスライスの調整後分割結果を取得し、第2のスライスの予測分割結果及び第2のスライスの初期分割結果に対して平均化処理を行って、第2のスライスの調整後分割結果を取得し、さらに、第1のスライスの調整後分割結果と第2のスライスの調整後分割結果とをフュージョンし、例えば、平均化処理を行い、平均化処理された結果に対して二値化処理を行うことで、当該スライスペアの分割結果を得ることができる。
その後、電子機器は、ステップ202に返って実行し、分割すべき医用画像から他の2枚のスライスを、現在分割すべきスライスペアとしてサンプリングし、ステップ203~207に従って処理し、それに対応する分割結果を取得し、同様に、当該分割すべき医用画像における全てのスライスペアの分割結果を取得した後、これらのスライスペアの分割結果をスライスの順に従って組み合わせて、当該分割すべき医用画像の分割結果(即ち、3Dの分割結果)を得ることができる。
以上から分かるように、本実施例では、予めスライスペアサンプル、及びスライスペアサンプルのスライスサンプル間の関連関係(事前知識などの情報)を利用して一つの画像分割モデルをトレーニングし、次に、分割すべき医用画像を取得した後、当該画像分割モデルにより、異なる受容野を採用して当該分割すべき医用画像のスライスペアに対して特徴抽出を行うことで、スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得し、そしてスライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、スライスにおける肝臓領域を分割することで、当該スライスの初期分割結果を取得する一方、スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、各スライス間の関連情報を確定し、その後、得られた関連情報を利用してスライスペアの各スライスの初期分割結果を調整することで、最終的に、必要とされる分割結果を取得することができ、トレーニングしている際、単一のスライスにおけるマーキング情報を考慮することに加えて、他の事前知識、例えば、スライス間の関連関係などの情報も学習データの一つとして、スライス分割の正確性を監督するため、当該画像分割モデル分割の精度を向上させることができ、また、フュージョンネットワークの導入により、トレーニングサンプルが少ない場合、トレーニングサンプルにおける分割オブジェクトの形状変化によって引き起こされるモデルの過剰フッティングの発生を回避することもできる。
また、当該トレーニング済み画像分割モデルを使用する場合、3D医用画像のスライス間に関連性があることを考慮して、トレーニング済み画像分割モデルにより2枚のスライス(スライスペア)を同時に分割し、スライス間の関連関係により分割結果をさらに調整するので、ターゲットオブジェクト(例えば、肝臓)の形状情報をより正確に捕らえ、その分割の精度をより高くすることができる。
以上の方法をよく実施するために、本出願の実施例は、さらに、医用画像分割装置を提供し、当該医用画像分割装置は電子機器、例えば、サーバーや端末などの装置に統合されてもよく、当該端末は、タブレットコンピュータ、ノートコンピュータ、パーソナルコンピュータ、医用画像収集装置、又は他の電子医療機器などを含んでもよい。
例えば、図13に示すように、当該医用画像分割装置は、取得ユニット301、抽出ユニット302、分割ユニット303、フュージョンユニット304、確定ユニット305及び生成ユニット306などを含んでもよい。
(1)取得ユニット301
取得ユニット301は、分割すべき医用画像からサンプリングされた2枚のスライスを含むスライスペアを取得するために用いられる。
例えば、取得ユニット301は、具体的に、分割すべき医用画像を取得し、当該分割すべき医用画像から2枚のスライスをサンプリングし、スライスペアを構成するために用いられてもよい。
なお、当該分割すべき医用画像は、各医用画像収集装置、例えば、MRIやCTなどにより生体組織、例えば、心臓や肝臓などに対して画像採集を行った後、当該取得ユニット301に供給されてもよい。
(2)抽出ユニット302
抽出ユニット302は、異なる受容野を採用して、当該スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得するために用いられる。
なお、異なる受容野を採用して当該スライスに対して特徴抽出を行う方式は様々あり、例えば、残差ネットワークで実現されてもよい。即ち、
当該抽出ユニット302は、具体的に、トレーニング済み分割モデルにおける残差ネットワークにより当該スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得するために用いられてもよい。
例えば、当該スライスペアが第1のスライス及び第2のスライスを含み、残差ネットワークが並列で同じ構造を持つ第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐を含むことを例にすると、抽出ユニット302は、当該残差ネットワークにおける第1の残差ネットワーク分岐を採用して第1のスライスに対して特徴抽出を行うことで、第1のスライスに対応する異なるスケールの高レベル特徴情報及び異なるスケールの低レベル特徴情報を取得し、当該残差ネットワークにおける第2の残差ネットワーク分岐を採用して第2のスライスに対して特徴抽出を行うことで、第2のスライスに対応する異なるスケールの高レベル特徴情報及び異なるスケールの低レベル特徴情報を取得してもよい。
なお、第1の残差ネットワーク分岐及び第2の残差ネットワーク分岐のネットワーク構成は、具体的に実際の適用ニーズに基づいて定められてもよく、例えば、ResNet-18を採用してもよく、また、第1の残差ネットワーク分岐のパラメータと第2の残差ネットワーク分岐のパラメータとは共有してもよく、具体的なパラメータ設置は、実際の適用ニーズに基づいて定められてもよい。
オプションとして、より多くのスケールの高レベル特徴情報を得るために、得られた高レベル特徴情報に対して空間ピラミッドプーリング、例えば、ASPP処理を行うこともでき、詳細は、前記した方法実施例を参照すればよいので、ここで重複説明が省略される。
(3)分割ユニット303
分割ユニット303は、スライスペアの各スライスについて、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するために用いられる。
例えば、当該分割ユニット303は、具体的に、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、トレーニング済み分割モデルにおける分割ネットワークにより当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するために用いられてもよく、例えば、具体的に、以下の通りである。
スライスペアの各スライスに対して、トレーニング済み分割モデルにおける分割ネットワークにより当該スライスの低レベル特徴情報及び高レベル特徴情報に対してそれぞれ畳み込み処理を行って、畳み込み処理された高レベル特徴情報を畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリングした後、畳み込み処理された低レベル特徴情報と連結することで、連結後特徴情報を取得し、当該連結後特徴情報に基づいて当該スライスにおけるターゲットオブジェクトに属する画素点を選別することで、当該スライスの初期分割結果を取得し、詳細は、前記した方法実施例を参照すればよいので、ここで重複説明が省略される。
(4)フュージョンユニット304
フュージョンユニット304は、当該スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンするために用いられる。
例えば、当該フュージョンユニット304は、具体的に、トレーニング済み分割モデルにおけるフュージョンネットワークにより、当該スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンするために用いられてもよい。
なお、低レベル特徴情報と高レベル特徴情報とをフュージョンする方法は様々有り、例えば、「要素ごとに加算(Sum)」又はチャネルオーバーレイを採用してそれをフュージョンしてもよい。「要素ごとに加算」を例にすれば、当該フュージョンユニット304は、具体的に、
要素ごとに当該スライスペアの各スライスの低レベル特徴情報を加算して、フュージョン後低レベル特徴情報を取得し、要素ごとに当該スライスペアの各スライスの高レベル特徴情報を加算して、フュージョン後高レベル特徴情報を取得し、トレーニング済み分割モデルにおけるフュージョンネットワークにより、当該フュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とをフュージョンすることで、フュージョン後特徴情報を取得するために用いられてもよい。
オプションとして、当該フュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とをフュージョンする方式は様々あり、例えば、以下の通りである。
当該フュージョンユニット304は、具体的に、トレーニング済み分割モデルにおけるフュージョンネットワークにより、要素ごとにフュージョン後低レベル特徴情報とフュージョン後高レベル特徴情報とを加算して、フュージョン後特徴情報を取得するために用いられてもよい。
オプションとして、異なる特徴が特定のタスクでの作用がそれぞれであるため、特徴がよく利用されて、画像分割の正確性を向上するために、アテンションメカニズムを使用してネットワークが異なる特徴情報に対して異なる重みを自律的に付与してもよく、ネットワークは特徴情報を選択的にフュージョンすることができるようにする。
当該フュージョンユニット304は、具体的に、トレーニング済み分割モデルにおけるフュージョンネットワークのチャネルアテンションモジュールにより、当該フュージョン後低レベル特徴情報及びフュージョン後高レベル特徴情報によりフュージョン後低レベル特徴情報に重みを付与することで、重み付け後特徴情報を取得し、要素ごとに当該重み付け後特徴情報と当該フュージョン後低レベル特徴情報とを乗算して、処理後特徴情報を取得し、要素ごとに処理後特徴情報とフュージョン後高レベル特徴情報とを加算して、フュージョン後特徴情報を取得するために用いられてもよい。
なお、当該チャネルアテンションモジュールの構成は、具体的に、実際の適用ニーズに基づいて定められてもよく、ここで再度説明されない。
(5)確定ユニット305;
確定ユニット305は、フュージョン後特徴情報に基づいて、当該スライスペアの各スライス間の関連情報を確定するために用いられる。
なお、ターゲットオブジェクトとは、スライスで認識される必要のあるオブジェクト、例えば、肝臓画像から分割される「肝臓」、心臓画像から分割される「心臓」などを指す。
例えば、当該確定ユニット305は、選別サブユニット及び確定サブユニットを含み得る。
選別サブユニットは、フュージョン後特徴情報からターゲットオブジェクトに属する特徴を選別するために用いられてもよい。
確定サブユニットは、選別された特徴に基づいて、当該スライス間の関連情報を確定するために用いられてもよい。例えば、具体的に、以下の通りである。
当該確定サブユニットは、具体的に、選別された特徴に基づいて、スライスペアの各スライスの背景領域及び前景領域を確定し、当該スライス間の前景領域の差集合画素及び積集合画素を算出し、当該背景領域、差集合画素及び積集合画素に基づいて当該スライスペアの各スライス間の関連情報を生成するために用いられてもよい。
例えば、当該確定サブユニットは、具体的に、当該フュージョン後特徴情報の、スライスペアのいずれかのスライスの前景領域にのみ属する画素点を差集合画素とし、当該フュージョン後特徴情報のスライスペアにおける2枚のスライスの前景領域に同時に属する画素点を積集合画素とするために用いられてもよい。
また、例えば、当該確定サブユニットは、具体的に、当該背景領域、差集合画素及び積集合画素に対して画素タイプ標識を行って、当該スライス間の関連情報を取得するために用いられ、詳細は、前記した方法実施例を参照すればよいので、ここで重複説明が省略される。
生成ユニット306
生成ユニット306は、当該関連情報及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成するために用いられる。
例えば、当該スライスペアが第1のスライス及び第2のスライスを含むことを例にすると、当該生成ユニット306は、具体的に、
当該関連情報、及び第1のスライスの初期分割結果予測第2のスライスの分割結果に基づいて、第2のスライスの予測分割結果を取得し、当該関連情報、及び第2のスライスの初期分割結果に基づいて第1のスライスの分割結果を予測することで、第1のスライスの予測分割結果を取得し、第1のスライスの予測分割結果に基づいて第1のスライスの初期分割結果を調整することで、第1のスライスの調整後分割結果を取得し、第2のスライスの予測分割結果に基づいて第2のスライスの初期分割結果を調整することで、第2のスライスの調整後分割結果を取得し、第1のスライスの調整後分割結果と第2のスライスの調整後分割結果とをフュージョンして、当該スライスペアの分割結果を取得するために用いられてもよい。
例えば、当該生成ユニット306は、具体的に、第1のスライスの予測分割結果及び第1のスライスの初期分割結果に対して平均化処理を行って、第1のスライスの調整後分割結果を取得し、第2のスライスの予測分割結果及び第2のスライスの初期分割結果に対して平均化処理を行って、第2のスライスの調整後分割結果を取得するために用いられてもよい。
また、例えば、当該生成ユニット306は、具体的に、第1のスライスの調整後分割結果及び第2のスライスの調整後分割結果に対して平均化処理を行い、平均化処理された結果に対して二値化処理を行うことで、当該スライスペアの分割結果を取得するために用いられてもよい。
オプションとして、当該トレーニング済み分割モデルは、真の値がマーキングされた複数のペアのスライスペアサンプルをトレーニングすることで得られてもよく、具体的に、運用保守担当者により事前に設定されてもよいし、当該画像分割装置自体でトレーニングすることで得られてもよい。即ち、図14に示すように、当該画像分割装置は採集ユニット307及びトレーニングユニット308をさらに含む。
採集ユニット307は、真の値がマーキングされた複数のペアのスライスペアサンプルを採集するために用いられる。
なお、当該スライスペアサンプルは、医用画像サンプルからサンプリングされた2枚のスライスサンプルを含み、詳細は、前述した実施例を参照すればよいので、ここで重複説明が省略される。
トレーニングユニット308は、予め設定された分割モデルにおける残差ネットワークにより当該スライスペアサンプルの各スライスサンプルに対して特徴抽出を行うことで、各スライスサンプルの高レベル特徴情報及び低レベル特徴情報を取得し、スライスペアサンプルの各スライスサンプルに対して、当該スライスサンプルの低レベル特徴情報及び高レベル特徴情報に基づいて、予め設定された分割モデルにおける分割ネットワークにより当該スライスサンプルにおけるターゲットオブジェクトを分割することで、当該スライスサンプルの予測分割値を取得し、予め設定された分割モデルにおけるフュージョンネットワークにより、スライスペアサンプルの各スライスサンプルの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、当該スライスペアサンプルの各スライスサンプル間の関連情報を予測し、当該真の値、スライスペアサンプルの各スライスサンプルの予測分割値及び予測された関連情報に基づいて、当該予め設定された分割モデルを収束させることで、トレーニング済み分割モデルを取得するために用いられてもよい。
例えば、当該トレーニングユニット308は、具体的に、Dice損失関数により、当該真の値、スライスペアサンプルの各スライスサンプルの予測分割値及び予測された関連情報に基づいて、当該分割モデルを収束させることで、トレーニング済み分割モデルを取得するために用いられてもよい。
なお、当該Dice損失関数は、具体的に、前記した方法実施例を参照すればよいので、ここで再度説明されない。
具体的に実施する場合、上記の各ユニットは、独立したエンティティとして実現されてもよいし、任意の組み合わせによって、同一又は若干のエンティティとして実現されてもよい。上記の各ユニットの具体的な実施は、前述した方法の実施例を参照すればよいので、ここで重複説明が省略される。
以上から分かるように、本実施例では、スライスペアを取得した後、抽出ユニット302により異なる受容野を採用して当該スライスペア中の各スライスに対して特徴抽出をそれぞれ行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得し、そして分割ユニット303によりスライスペアの各スライスについて、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得する一方、フュージョンユニット304によりスライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、確定ユニット305によりフュージョン後特徴情報に基づいて、スライスペアの各スライス間の関連情報を確定し、さらに、生成ユニット306によりスライスペアの各スライス間の関連情報、及びスライスペアの各スライスの初期分割結果に基づいて当該スライスペアの分割結果を生成することができ、3D医用画像のスライス間に関連性があることを考慮して、本出願の実施例にかかる方法は、2枚のスライス(スライスペア)を同時に分割し、スライス間の関連関係により分割結果をさらに調整するため、ターゲットオブジェクト(例えば、肝臓)の形状情報をより正確に捕らえて、その分割の精度をより高くすることができる。
本出願の実施例は、さらに、電子機器を提供し、図15に示すように、本出願の実施例に係るの電子機器の構成の模式図を示し、具体的には、以下の通りである。
この電子機器は、1つ又は複数の処理コアを有するプロセッサ401、1つ又は複数のコンピュータ読取可能記憶媒体を有するメモリ402、電源403、及び入力ユニット404などの構成要素を含んでもよい。当業者であれば理解できるように、図15に示された電子機器の構成は、電子機器を限定するものでなく、図示よりも多く若しくは少ない構成要素を含んでもよく、又はいくらかの構成要素を組み合わせたものであってもよく、又は構成要素の異なる配置を有してもよい。
プロセッサ401は、当該電子機器の制御センターであり、各種のインタフェース及び線によって電子機器全体の各部分を接続し、メモリ402に記憶されたソフトウェアプログラム及び/又はモジュールを実行又は遂行して、メモリ402に記憶されたデータを呼び出すことにより、電子機器の各種の機能を実行してデータを処理し、電子機器を全体的に監視制御する。任意選択的に、プロセッサ401は、1つ又は複数の処理コアを含んでもよい。好ましくは、プロセッサ401には、アプリケーションプロセッサ及び変復調プロセッサが組み入れられてもよい。ここで、アプリケーションプロセッサは、主にオペレーティングシステム、ユーザインタフェース、及びアプリケーションなどを処理し、変復調プロセッサは、主に無線通信を処理する。理解できるように、上記変復調プロセッサは、プロセッサ401に組み入れられなくてもよい。
メモリ402は、ソフトウェアプログラム及びモジュールを記憶するために用いられてもよい。プロセッサ401は、メモリ402に記憶されたソフトウェアプログラム及びモジュールを実行することにより、各種の機能アプリケーション及びデータ処理を実行する。メモリ402は、主にプログラム記憶領域及びデータ記憶領域を含んでもよい。ここで、プログラム記憶領域には、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーション(例えば、音声再生機能、画像再生機能など)などを記憶してもよい。データ記憶領域には、電子機器の使用に基づいて作成されたデータなどを記憶してもよい。また、メモリ402は、高速ランダムアクセスメモリを含んでもよいし、不揮発性メモリを含んでもよく、例えば、少なくとも1つの磁気ディスク記憶デバイス、フラッシュメモリデバイス、又はその他の揮発性ソリッドステート記憶デバイスであってもよい。これに基づいて、メモリ402は、メモリコントローラをさらに含んでもよい。これにより、プロセッサ401によるメモリ402へのアクセスが提供される。
電子機器は、各構成要素に電力を供給する電源403をさらに含む。好ましくは、電源403は、電源管理システムを介して、プロセッサ401と論理的に接続されてもよい。これにより、電源管理システムによって、充電、放電、及び電力消費の管理などの機能を実現する。電源403は、1つ又は複数の直流又は交流電源、再充電システム、電源故障検出回路、電源コンバータ又はインバータ、電源状態指示器などの任意の構成要素を含んでもよい。
電子機器は、入力ユニット404をさらに含んでもよい。この入力ユニット404は、入力された数字や文字の情報を受信し、ユーザ設定及び機能制御に関するキーボード、マウス、ジョイスティック、光学又はトラックボールの信号入力を生成するために用いられてもよい。
図示されていないが、電子機器は、表示ユニットなどをさらに含んでもよい。ここで説明を省略する。具体的には、本実施例では、電子機器のプロセッサ401が、下記のような命令に従って、1つ又は複数のアプリケーションのプロセスに対応する実行可能ファイルをメモリ402にロードし、メモリ402に記憶されたアプリケーションをプロセッサ401が実行することにより、以下の各種の機能を実現する。即ち、
分割すべき医用画像からサンプリングされた2枚のスライスを含むスライスペアを取得し、
異なる受容野を採用してスライスペアの各スライスに対して特徴抽出を行うことで、スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得し、
スライスペアの各スライスについて、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得し、
スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアの各スライス間の関連情報を確定し、
関連情報、及びスライスペアの各スライスの初期分割結果に基づいて、スライスペアの分割結果を生成する。
例えば、具体的に、トレーニング済み分割モデルにおける残差ネットワークにより当該スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得し、次に、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該トレーニング済み分割モデルにおける分割ネットワークにより当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得し、当該トレーニング済み分割モデルにおけるフュージョンネットワークにより、当該スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、当該スライスペアの各スライス間の関連情報を確定し、その後、当該関連情報、及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成することができる。
オプションとして、当該トレーニング済み分割モデルは、真の値がマーキングされた複数のペアのスライスペアサンプルをトレーニングすることで得られてもよく、具体的に、運用保守担当者により事前に設定されてもよいし、当該画像分割装置自体でトレーニングすることで得られてもよい。即ち、プロセッサ401は、メモリ402に記憶されているアプリケーションを実行することで、以下の機能を実現させる。即ち、
真の値がマーキングされた複数のペアのスライスペアサンプルを採集し、
予め設定された分割モデルにおける残差ネットワークによりスライスペアサンプルの各スライスサンプルに対して特徴抽出を行うことで、各スライスサンプルの高レベル特徴情報及び低レベル特徴情報を取得し、
スライスペアサンプルの各スライスサンプルに対して、当該スライスサンプルの低レベル特徴情報及び高レベル特徴情報に基づいて、分割モデルにおける分割ネットワークにより当該スライスサンプルにおけるターゲットオブジェクトを分割することで、当該スライスサンプルの予測分割値を取得し、
分割モデルにおけるフュージョンネットワークにより、スライスペアサンプルの各スライスサンプルの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアサンプルの各スライスサンプル間の関連情報を予測し、
真の値、スライスペアサンプルの各スライスサンプルの予測分割値、及び予測された関連情報に基づいて、予め設定された分割モデルを収束させることで、トレーニング済み分割モデルを取得する。
以上の各操作は、具体的に、前述した実施例を参照すればよいので、ここで重複説明が省略される。
以上から分かるように、本実施例による電子機器は、スライスペアを取得した後、異なる受容野を採用して当該スライスペアの各スライスに対してそれぞれ特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得し、そして、スライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得する一方、スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアの各スライス間の関連情報を確定し、その後、スライスペアの各スライス間の関連情報、及びスライスペアの各スライスの初期分割結果に基づいて当該スライスペアの分割結果を生成することができ、3D医用画像のスライス間に関連性があることを考慮して、本出願の実施例にかかる方法は、2枚のスライス(スライスペア)を同時に分割し、スライス間の関連関係により分割結果をさらに調整するので、ターゲットオブジェクト(例えば、肝臓)の形状情報をより正確に捕らえて、その分割の精度をより高くすることができる。
当業者であれば理解できるように、上記実施例の各方法の手順の全部又は一部は、命令によって実行されたり、命令で関連するハードウェアを制御することにより実行されたりしてもよい。この命令は、コンピュータ読取可能記憶媒体に記憶され、プロセッサによってロード・実行されてもよい。
そのため、本出願の実施例では、複数の命令が記憶している記憶媒体を提供し、当該命令は、プロセッサによってロードされると、本出願の実施例にかかるいずれか一つの医用画像分割方法におけるステップを実行させる。例えば、当該命令は、以下のステップを実行させる。即ち、
分割すべき医用画像からサンプリングされた2枚のスライスを含むスライスペアを取得するステップと、
異なる受容野を採用してスライスペアの各スライスに対して特徴抽出を行うことで、スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得するステップと、
スライスペアの各スライスについて、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するステップと、
スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアの各スライス間の関連情報を確定し、
関連情報、及びスライスペアの各スライスの初期分割結果に基づいて、スライスペアの分割結果を生成するステップとを含む。
例えば、具体的に、トレーニング済み分割モデルにおける残差ネットワークにより当該スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得し、そしてスライスペアの各スライスに対して、当該スライスの低レベル特徴情報及び高レベル特徴情報に基づいて、当該トレーニング済み分割モデルにおける分割ネットワークにより当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得し、当該トレーニング済み分割モデルにおけるフュージョンネットワークにより、当該スライスペアの各スライスの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、当該スライスペアの各スライス間の関連情報を確定し、その後、当該関連情報、及びスライスペアの各スライスの初期分割結果に基づいて、当該スライスペアの分割結果を生成することができる。
オプションとして、当該トレーニング済み分割モデルは、真の値がマーキングされた複数のペアのスライスペアサンプルをトレーニングすることで得られてもよく、具体的、運用保守担当者により事前に設定されてもよいし、当該画像分割装置自体でトレーニングすることで得られてもよい。即ち、当該命令は、以下のステップを実行させる。即ち、
真の値がマーキングされた複数のペアのスライスペアサンプルを採集するステップと、
予め設定された分割モデルにおける残差ネットワークによりスライスペアサンプルの各スライスサンプルに対して特徴抽出を行うことで、各スライスサンプルの高レベル特徴情報及び低レベル特徴情報を取得するステップと、
スライスペアサンプルの各スライスサンプルについて、当該スライスサンプルの低レベル特徴情報及び高レベル特徴情報に基づいて、分割モデルにおける分割ネットワークにより当該スライスサンプルにおけるターゲットオブジェクトを分割することで、当該スライスサンプルの予測分割値を取得するステップと、
分割モデルにおけるフュージョンネットワークにより、スライスペアサンプルの各スライスサンプルの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、スライスペアサンプルの各スライスサンプル間の関連情報を予測し、
真の値、スライスペアサンプルの各スライスサンプルの予測分割値、及び予測された関連情報に基づいて、予め設定された分割モデルを収束させることで、トレーニング済み分割モデルを取得するステップとを含む。
以上の各操作の具体的な実施は、前の実施例を参照し、ここで重複説明が省略される。
なお、当該記憶媒体は、読み出し専用メモリ(ROM:Read Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク、又は光ディスクなどを含んでもよい。
当該記憶媒体に記憶された命令は、本願の実施例に係るいずれか1つの医用画像分割方法のステップを実行させることが可能であるため、本願の実施例に係るいずれか1つの医用画像分割方法が実現可能な有利な効果を実現できる。詳しくは、前述した実施例を参照すればよいので、ここで説明が省略される。
以上、本出願の実施例で提供される医用画像分割方法、装置、電子機器及び記憶媒体について詳細に説明したが、本明細書では、具体的な特定例を使用して、本発明の原理および実施形態を説明した。上記の実施例の説明は、本発明の方法および中心となる思想の理解を助けるためにすぎない。また、当業者にとっては、本発明の思想を踏まえると、具体的な実施形態及び適用範囲の両方に変更があり得る。要するに、本明細書の容は、本発明に対する制限として理解されるべきではない。

Claims (16)

  1. 電子機器が実行する医用画像分割方法であって、
    分割すべき医用画像からサンプリングされた2枚のスライスを含むスライスペアを取得するステップと、
    異なる受容野を採用して前記スライスペアの各スライスに対して特徴抽出を行うことで、前記スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得するステップと、
    前記スライスペアの各スライスに対して、当該スライスの前記低レベル特徴情報及び前記高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するステップと、
    前記スライスペアの各スライスの前記低レベル特徴情報と前記高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、前記スライスペアの各スライス間の関連情報を確定するステップと、
    前記関連情報、及び前記スライスペアの各スライスの初期分割結果に基づいて、前記スライスペアの分割結果を生成するステップとを含む方法。
  2. 前記フュージョン後特徴情報に基づいて、前記スライスペアの各スライス間の関連情報を確定するステップは、
    前記フュージョン後特徴情報から、ターゲットオブジェクトに属する特徴を選別するステップと、
    選別された特徴に基づいて、前記スライスペアの各スライス間の関連情報を確定するステップとを含む請求項1に記載の方法。
  3. 前記選別された特徴に基づいて、前記スライスペアの各スライス間の関連情報を確定するステップは、
    選別された特徴に基づいて、前記スライスペアの各スライスの背景領域及び前景領域を確定するステップと、
    前記スライスペアの各スライス間の前景領域の差集合画素及び積集合画素を算出するステップと、
    前記背景領域、前記差集合画素及び前記積集合画素に基づいて、前記スライスペアの各スライス間の関連情報を生成するステップとを含む請求項2に記載の方法。
  4. 前記スライスペアの各スライス間の前景領域の差集合画素及び積集合画素を算出するステップは、
    前記フュージョン後特徴情報のうち前記スライスペアのいずれかのスライスの前景領域にのみ属する画素点を前記差集合画素とするステップと、
    前記フュージョン後特徴情報のうち前記スライスペアの両方のスライスの前景領域に同時に属する画素点を前記積集合画素とするステップとを含む請求項3に記載の方法。
  5. 前記背景領域、前記差集合画素及び前記積集合画素に基づいて、前記スライスペアの各スライス間の関連情報を生成するステップは、
    前記背景領域、前記差集合画素及び前記積集合画素に対して画素タイプ標識を行うことにより、前記スライスペアの各スライス間の関連情報を取得するステップを含む請求項3又は4に記載の方法。
  6. 前記スライスペアに第1のスライス及び第2のスライスが含まれており、前記関連情報及び前記スライスペアの各スライスの初期分割結果に基づいて、前記スライスペアの分割結果を生成するステップは、
    前記関連情報及び前記第1のスライスの初期分割結果に基づいて、前記第2のスライスの分割結果を予測することで、前記第2のスライスの予測分割結果を取得するステップと、
    前記関連情報及び前記第2のスライスの初期分割結果に基づいて、前記第1のスライスの分割結果を予測することで、前記第1のスライスの予測分割結果を取得するステップと、
    前記第1のスライスの予測分割結果に基づいて前記第1のスライスの初期分割結果を調整することで、前記第1のスライスの調整後分割結果を取得するステップと、
    前記第2のスライスの予測分割結果に基づいて前記第2のスライスの初期分割結果を調整することで、前記第2のスライスの調整後分割結果を取得するステップと、
    前記第1のスライスの調整後分割結果と前記第2のスライスの調整後分割結果とをフュージョンして、前記スライスペアの分割結果を取得するステップとを含む請求項1~5のいずれか一項に記載の方法。
  7. 前記第1のスライスの予測分割結果に基づいて前記第1のスライスの初期分割結果を調整することで、前記第1のスライスの調整後分割結果を取得するステップは、
    前記第1のスライスの予測分割結果及び前記第1のスライスの初期分割結果に対して平均化処理を行うことで、前記第1のスライスの調整後分割結果を取得するステップを含み、
    前記第2のスライスの予測分割結果に基づいて前記第2のスライスの初期分割結果を調整することで、前記第2のスライスの調整後分割結果を取得するステップは、
    前記第2のスライスの予測分割結果及び前記第2のスライスの初期分割結果に対して平均化処理を行うことで、前記第2のスライスの調整後分割結果を取得するステップを含む請求項6に記載の方法。
  8. 前記第1のスライスの調整後分割結果と前記第2のスライスの調整後分割結果とをフュージョンすることにより、前記スライスペアの分割結果を取得するステップは、
    前記第1のスライスの調整後分割結果及び前記第2のスライスの調整後分割結果に対して平均化処理を行い、平均化処理された結果に対して二値化処理を行うことで、前記スライスペアの分割結果を取得するステップを含む請求項6又は7に記載の方法。
  9. 前記異なる受容野を採用して前記スライスペアの各スライスに対して特徴抽出を行うことで、前記スライスペアの各スライスの高レベル特徴情報及び低レベル特徴情報を取得するステップは、
    トレーニング済み分割モデルにおける残差ネットワークにより前記スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得するステップを含み、
    前記スライスペアの各スライスに対して、当該スライスの前記低レベル特徴情報及び前記高レベル特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するステップは、
    前記スライスペアの各スライスに対して、当該スライスの前記低レベル特徴情報及び前記高レベル特徴情報に基づいて、前記トレーニング済み分割モデルにおける分割ネットワークにより当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するステップを含み、
    前記スライスペアの各スライスの前記低レベル特徴情報と前記高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、前記スライスペアの各スライス間の関連情報を確定するステップは、
    前記トレーニング済み分割モデルにおけるフュージョンネットワークにより、前記スライスペアの各スライスの前記低レベル特徴情報と前記高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、前記スライスペアの各スライス間の関連情報を確定するステップを含む請求項1~8のいずれか一項に記載の方法。
  10. 前記トレーニング済み分割モデルにおけるフュージョンネットワークにより、前記スライスペアの各スライスの前記低レベル特徴情報と前記高レベル特徴情報とをフュージョンするステップは、
    要素ごとに前記スライスペアの各スライスの低レベル特徴情報を加算することで、フュージョン後低レベル特徴情報を取得するステップと、
    要素ごとに前記スライスペアの各スライスの高レベル特徴情報を加算することで、フュージョン後高レベル特徴情報を取得するステップと、
    前記トレーニング済み分割モデルにおけるフュージョンネットワークにより、前記フュージョン後低レベル特徴情報と前記フュージョン後高レベル特徴情報とをフュージョンすることで、前記フュージョン後特徴情報を取得するステップとを含む請求項9に記載の方法。
  11. 前記トレーニング済み分割モデルにおけるフュージョンネットワークにより、前記フュージョン後低レベル特徴情報と前記フュージョン後高レベル特徴情報とをフュージョンすることで、前記フュージョン後特徴情報を取得するステップは、
    前記トレーニング済み分割モデルにおけるフュージョンネットワークにより、要素ごとに前記フュージョン後低レベル特徴情報と前記フュージョン後高レベル特徴情報とを加算することで、前記フュージョン後特徴情報を取得するステップ、又は、
    前記トレーニング済み分割モデルにおけるフュージョンネットワークのチャネルアテンションモジュールにより、前記フュージョン後低レベル特徴情報及び前記フュージョン後高レベル特徴情報に基づいて前記フュージョン後低レベル特徴情報に重みを付与することで、重み付け後特徴情報を取得し、要素ごとに前記重み付け後特徴情報と前記フュージョン後低レベル特徴情報とを乗算することで、処理後特徴情報を取得し、要素ごとに前記処理後特徴情報と前記フュージョン後高レベル特徴情報とを加算することで、前記フュージョン後特徴情報を取得するステップを含む請求項10に記載の方法。
  12. 前記スライスペアの各スライスに対して、当該スライスの前記低レベル特徴情報及び前記高レベル特徴情報に基づいて、前記トレーニング済み分割モデルにおける分割ネットワークにより当該スライスにおけるターゲットオブジェクトを分割することで、当該スライスの初期分割結果を取得するステップは、
    前記スライスペアの各スライスに対して、前記トレーニング済み分割モデルにおける分割ネットワークにより、当該スライスの前記低レベル特徴情報及び前記高レベル特徴情報に対してそれぞれ畳み込み処理を行い、畳み込み処理された高レベル特徴情報を、畳み込み処理された低レベル特徴情報と同じサイズにアップサンプリングした後、畳み込み処理された低レベル特徴情報と連結して、連結後特徴情報を取得し、前記連結後特徴情報に基づいて、当該スライスにおけるターゲットオブジェクトに属する画素点を選別することで、当該スライスの初期分割結果を取得するステップを含む請求項9~11のいずれか一項に記載の方法。
  13. 前記トレーニング済み分割モデルにおける残差ネットワークにより前記スライスペアの各スライスに対して特徴抽出を行うことで、各スライスの高レベル特徴情報及び低レベル特徴情報を取得する前に、前記方法は、
    真の値がマーキングされたスライスペアサンプルを複数ペア採集するステップであって、前記スライスペアサンプルは医用画像サンプルからサンプリングされた2枚のスライスサンプルを含むステップと、
    予め設定された分割モデルにおける残差ネットワークにより前記スライスペアサンプルのうちの各スライスサンプルに対して特徴抽出を行うことで、各スライスサンプルの高レベル特徴情報及び低レベル特徴情報を取得するステップと、
    前記スライスペアサンプルのうちの各スライスサンプルに対して、当該スライスサンプルの低レベル特徴情報及び高レベル特徴情報に基づいて、前記予め設定された分割モデルにおける分割ネットワークにより当該スライスサンプルにおけるターゲットオブジェクトを分割することで、当該スライスサンプルの予測分割値を取得するステップと、
    前記予め設定された分割モデルにおけるフュージョンネットワークにより、前記スライスペアサンプルのうちの各スライスサンプルの低レベル特徴情報と高レベル特徴情報とをフュージョンし、フュージョン後特徴情報に基づいて、前記スライスペアサンプルの各スライスサンプル間の関連情報を予測するステップと、
    前記真の値、前記スライスペアサンプルのうちの各スライスサンプルの予測分割値及び予測された関連情報に基づいて、前記予め設定された分割モデルを収束することで、前記トレーニング済み分割モデルを取得するステップをさらに含む請求項9~12のいずれか一項に記載の方法。
  14. 命令を記憶したメモリと、
    プロセッサと、を含み、
    前記命令は、前記プロセッサによって実行されるときに、前記プロセッサに請求項1~13のいずれか一項に記載の医用画像分割方法を実行させる、
    医用画像分割装置。
  15. 請求項14に記載の医用画像分割装置を含む電子機器。
  16. 命令を含むコンピュータプログラムであって、
    コンピュータ上で実行されると、コンピュータに請求項1~13のいずれか一項に記載の医用画像分割方法におけるステップを実行させるコンピュータプログラム。
JP2021541593A 2019-04-22 2020-03-27 医用画像分割方法、医用画像分割装置、電子機器及びコンピュータプログラム Active JP7180004B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910322783.8 2019-04-22
CN201910322783.8A CN110110617B (zh) 2019-04-22 2019-04-22 医学影像分割方法、装置、电子设备和存储介质
PCT/CN2020/081660 WO2020215985A1 (zh) 2019-04-22 2020-03-27 医学影像分割方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2022529557A true JP2022529557A (ja) 2022-06-23
JP7180004B2 JP7180004B2 (ja) 2022-11-29

Family

ID=67486110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021541593A Active JP7180004B2 (ja) 2019-04-22 2020-03-27 医用画像分割方法、医用画像分割装置、電子機器及びコンピュータプログラム

Country Status (6)

Country Link
US (1) US11887311B2 (ja)
EP (1) EP3961484B1 (ja)
JP (1) JP7180004B2 (ja)
KR (1) KR102607800B1 (ja)
CN (1) CN110110617B (ja)
WO (1) WO2020215985A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110110617B (zh) 2019-04-22 2021-04-20 腾讯科技(深圳)有限公司 医学影像分割方法、装置、电子设备和存储介质
CN110490881A (zh) * 2019-08-19 2019-11-22 腾讯科技(深圳)有限公司 医学影像分割方法、装置、计算机设备及可读存储介质
CN110598714B (zh) * 2019-08-19 2022-05-17 中国科学院深圳先进技术研究院 一种软骨图像分割方法、装置、可读存储介质及终端设备
WO2021031066A1 (zh) * 2019-08-19 2021-02-25 中国科学院深圳先进技术研究院 一种软骨图像分割方法、装置、可读存储介质及终端设备
CN110516678B (zh) 2019-08-27 2022-05-06 北京百度网讯科技有限公司 图像处理方法和装置
CN110705381A (zh) * 2019-09-09 2020-01-17 北京工业大学 遥感影像道路提取方法及装置
CN110766643A (zh) * 2019-10-28 2020-02-07 电子科技大学 一种面向眼底图像的微动脉瘤检测方法
CN110852325B (zh) * 2019-10-31 2023-03-31 上海商汤智能科技有限公司 图像的分割方法及装置、电子设备和存储介质
CN111028246A (zh) * 2019-12-09 2020-04-17 北京推想科技有限公司 一种医学图像分割方法、装置、存储介质及电子设备
CN111091091A (zh) * 2019-12-16 2020-05-01 北京迈格威科技有限公司 目标对象重识别特征的提取方法、装置、设备及存储介质
EP3843038B1 (en) 2019-12-23 2023-09-20 HTC Corporation Image processing method and system
CN111260055B (zh) * 2020-01-13 2023-09-01 腾讯科技(深圳)有限公司 基于三维图像识别的模型训练方法、存储介质和设备
CN111461130B (zh) * 2020-04-10 2021-02-09 视研智能科技(广州)有限公司 一种高精度图像语义分割算法模型及分割方法
CN111583282B (zh) * 2020-05-18 2024-04-23 联想(北京)有限公司 图像分割方法、装置、设备及存储介质
CN113724181A (zh) * 2020-05-21 2021-11-30 国网智能科技股份有限公司 一种输电线路螺栓语义分割方法及***
CN111967538B (zh) * 2020-09-25 2024-03-15 北京康夫子健康技术有限公司 应用于小目标检测的特征融合方法、装置、设备以及存储介质
CN111968137A (zh) * 2020-10-22 2020-11-20 平安科技(深圳)有限公司 头部ct图像分割方法、装置、电子设备及存储介质
US11776128B2 (en) * 2020-12-11 2023-10-03 Siemens Healthcare Gmbh Automatic detection of lesions in medical images using 2D and 3D deep learning networks
US11715276B2 (en) * 2020-12-22 2023-08-01 Sixgill, LLC System and method of generating bounding polygons
CN112699950B (zh) * 2021-01-06 2023-03-24 腾讯科技(深圳)有限公司 医学图像分类方法、图像分类网络处理方法、装置和设备
CN112820412B (zh) * 2021-02-03 2024-03-08 东软集团股份有限公司 用户信息的处理方法、装置、存储介质和电子设备
CN113222012A (zh) * 2021-05-11 2021-08-06 北京知见生命科技有限公司 一种肺部数字病理图像自动定量分析方法及***
CN113223017A (zh) * 2021-05-18 2021-08-06 北京达佳互联信息技术有限公司 目标分割模型的训练方法、目标分割方法及设备
CN113822314B (zh) * 2021-06-10 2024-05-28 腾讯云计算(北京)有限责任公司 图像数据处理方法、装置、设备以及介质
CN113378855A (zh) * 2021-06-22 2021-09-10 北京百度网讯科技有限公司 用于处理多任务的方法、相关装置及计算机程序产品
CN115550943A (zh) * 2021-06-29 2022-12-30 华为技术有限公司 一种基于多任务网络模型的通信方法、装置及***
WO2023276750A1 (ja) * 2021-06-29 2023-01-05 富士フイルム株式会社 学習方法、画像処理方法、学習装置、画像処理装置、学習プログラム、及び画像処理プログラム
CN113470048B (zh) * 2021-07-06 2023-04-25 北京深睿博联科技有限责任公司 场景分割方法、装置、设备及计算机可读存储介质
CN113627292B (zh) * 2021-07-28 2024-04-30 广东海启星海洋科技有限公司 基于融合网络的遥感图像识别方法及装置
CN113793345B (zh) * 2021-09-07 2023-10-31 复旦大学附属华山医院 一种基于改进注意力模块的医疗影像分割方法及装置
CN114136274A (zh) * 2021-10-29 2022-03-04 杭州中科睿鉴科技有限公司 基于计算机视觉的站台限界测量方法
CN114119514A (zh) * 2021-11-12 2022-03-01 北京环境特性研究所 一种红外弱小目标的检测方法、装置、电子设备和存储介质
CN114067179A (zh) * 2021-11-18 2022-02-18 上海联影智能医疗科技有限公司 图像标注方法、标注模型的训练方法和装置
CN113936220B (zh) * 2021-12-14 2022-03-04 深圳致星科技有限公司 图像处理方法、存储介质、电子设备及图像处理装置
CN113989305B (zh) * 2021-12-27 2022-04-22 城云科技(中国)有限公司 目标语义分割方法及应用其的街道目标异常检测方法
CN113989498B (zh) * 2021-12-27 2022-07-12 北京文安智能技术股份有限公司 一种用于多类别垃圾场景识别的目标检测模型的训练方法
CN115830001B (zh) * 2022-12-22 2023-09-08 抖音视界有限公司 肠道图像处理方法、装置、存储介质及电子设备
CN116664953A (zh) * 2023-06-28 2023-08-29 北京大学第三医院(北京大学第三临床医学院) 2.5d肺炎医学ct影像分类装置及设备
CN116628457B (zh) * 2023-07-26 2023-09-29 武汉华康世纪医疗股份有限公司 一种磁共振设备运行中的有害气体检测方法及装置
CN117095447B (zh) * 2023-10-18 2024-01-12 杭州宇泛智能科技有限公司 一种跨域人脸识别方法、装置、计算机设备及存储介质
CN117456191B (zh) * 2023-12-15 2024-03-08 武汉纺织大学 一种基于三分支网络结构的复杂环境下语义分割方法
CN117635962B (zh) * 2024-01-25 2024-04-12 云南大学 基于多频率融合的通道注意力图像处理方法
CN117853858A (zh) * 2024-03-07 2024-04-09 烟台大学 基于全局和局部信息的磁共振图像合成方法、***和设备
CN118071774A (zh) * 2024-04-17 2024-05-24 中南大学 一种基于多重注意力的医学图像分割方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005245830A (ja) * 2004-03-05 2005-09-15 Jgs:Kk 腫瘍検出方法、腫瘍検出装置及びプログラム
JP2009219655A (ja) * 2008-03-17 2009-10-01 Fujifilm Corp 画像解析装置および方法並びにプログラム
JP2019504659A (ja) * 2015-11-29 2019-02-21 アーテリーズ インコーポレイテッド 自動化された心臓ボリュームセグメンテーション
JP2019045894A (ja) * 2017-08-29 2019-03-22 富士通株式会社 検索プログラム、検索方法、及び、検索プログラムが動作する情報処理装置
CN109598732A (zh) * 2018-12-11 2019-04-09 厦门大学 一种基于三维空间加权的医学图像分割方法
CN113506310A (zh) * 2021-07-16 2021-10-15 首都医科大学附属北京天坛医院 医学图像的处理方法、装置、电子设备和存储介质

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7379576B2 (en) * 2003-11-03 2008-05-27 Siemens Medical Solutions Usa, Inc. Method and system for patient identification in 3D digital medical images
CN101421745B (zh) * 2004-04-15 2016-05-11 美国医软科技公司 空间-时间肿瘤检测,分割和诊断信息提取***及方法
US8913830B2 (en) * 2005-01-18 2014-12-16 Siemens Aktiengesellschaft Multilevel image segmentation
DE102007028895B4 (de) * 2007-06-22 2010-07-15 Siemens Ag Verfahren zur Segmentierung von Strukturen in 3D-Bilddatensätzen
FR2919747B1 (fr) * 2007-08-02 2009-11-06 Gen Electric Procede et systeme d'affichage d'images de tomosynthese
WO2011046511A1 (en) * 2009-10-13 2011-04-21 Agency For Science, Technology And Research A method and system for segmenting a liver object in an image
US9196049B2 (en) * 2011-03-09 2015-11-24 Siemens Aktiengesellschaft Method and system for regression-based 4D mitral valve segmentation from 2D+t magnetic resonance imaging slices
JP6006307B2 (ja) * 2011-07-07 2016-10-12 ザ ボード オブ トラスティーズ オブ ザ レランド スタンフォード ジュニア ユニバーシティー ボリューム測定位相コントラストmriによる総合的心血管解析
RU2601212C2 (ru) * 2011-10-11 2016-10-27 Конинклейке Филипс Н.В. Процесс интерактивной сегментации долей легкого, проводимой с учетом неоднозначности
KR102204437B1 (ko) * 2013-10-24 2021-01-18 삼성전자주식회사 컴퓨터 보조 진단 방법 및 장치
WO2017019833A1 (en) * 2015-07-29 2017-02-02 Medivation Technologies, Inc. Compositions containing repair cells and cationic dyes
DE102015217948B4 (de) * 2015-09-18 2017-10-05 Ernst-Moritz-Arndt-Universität Greifswald Verfahren zur Segmentierung eines Organs und/oder Organbereiches in Volumendatensätzen der Magnetresonanztomographie
WO2017210690A1 (en) * 2016-06-03 2017-12-07 Lu Le Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans
US10667778B2 (en) * 2016-09-14 2020-06-02 University Of Louisville Research Foundation, Inc. Accurate detection and assessment of radiation induced lung injury based on a computational model and computed tomography imaging
US10580131B2 (en) * 2017-02-23 2020-03-03 Zebra Medical Vision Ltd. Convolutional neural network for segmentation of medical anatomical images
CN108229455B (zh) * 2017-02-23 2020-10-16 北京市商汤科技开发有限公司 物体检测方法、神经网络的训练方法、装置和电子设备
US20200085382A1 (en) * 2017-05-30 2020-03-19 Arterys Inc. Automated lesion detection, segmentation, and longitudinal identification
GB201709672D0 (en) * 2017-06-16 2017-08-02 Ucl Business Plc A system and computer-implemented method for segmenting an image
US9968257B1 (en) * 2017-07-06 2018-05-15 Halsa Labs, LLC Volumetric quantification of cardiovascular structures from medical imaging
CN109427052B (zh) * 2017-08-29 2020-10-02 ***通信有限公司研究院 基于深度学习处理眼底图像的相关方法及设备
US10783640B2 (en) * 2017-10-30 2020-09-22 Beijing Keya Medical Technology Co., Ltd. Systems and methods for image segmentation using a scalable and compact convolutional neural network
CN109377496B (zh) * 2017-10-30 2020-10-02 北京昆仑医云科技有限公司 用于分割医学图像的***和方法及介质
EP3714467A4 (en) * 2017-11-22 2021-09-15 Arterys Inc. CONTENT-BASED IMAGE RECOVERY FOR LESION ANALYSIS
CN108268870B (zh) * 2018-01-29 2020-10-09 重庆师范大学 基于对抗学习的多尺度特征融合超声图像语义分割方法
CN108447052A (zh) * 2018-03-15 2018-08-24 深圳市唯特视科技有限公司 一种基于神经网络的对称性脑肿瘤分割方法
US10902288B2 (en) * 2018-05-11 2021-01-26 Microsoft Technology Licensing, Llc Training set sufficiency for image analysis
US10964012B2 (en) * 2018-06-14 2021-03-30 Sony Corporation Automatic liver segmentation in CT
CN109191472A (zh) * 2018-08-28 2019-01-11 杭州电子科技大学 基于改进U-Net网络的胸腺细胞图像分割方法
CN110110617B (zh) * 2019-04-22 2021-04-20 腾讯科技(深圳)有限公司 医学影像分割方法、装置、电子设备和存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005245830A (ja) * 2004-03-05 2005-09-15 Jgs:Kk 腫瘍検出方法、腫瘍検出装置及びプログラム
JP2009219655A (ja) * 2008-03-17 2009-10-01 Fujifilm Corp 画像解析装置および方法並びにプログラム
JP2019504659A (ja) * 2015-11-29 2019-02-21 アーテリーズ インコーポレイテッド 自動化された心臓ボリュームセグメンテーション
JP2019045894A (ja) * 2017-08-29 2019-03-22 富士通株式会社 検索プログラム、検索方法、及び、検索プログラムが動作する情報処理装置
CN109598732A (zh) * 2018-12-11 2019-04-09 厦门大学 一种基于三维空间加权的医学图像分割方法
CN113506310A (zh) * 2021-07-16 2021-10-15 首都医科大学附属北京天坛医院 医学图像的处理方法、装置、电子设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SHAHAB ASLANI ET AL.: "Multi-branch Convolutional Neural Network for Multiple Sclerosis Lesion Segmentation", [ONLINE], JPN7022005184, 8 April 2019 (2019-04-08), pages 1 - 16, ISSN: 0004916180 *

Also Published As

Publication number Publication date
JP7180004B2 (ja) 2022-11-29
EP3961484A4 (en) 2022-08-03
EP3961484B1 (en) 2024-07-17
CN110110617A (zh) 2019-08-09
US20210365717A1 (en) 2021-11-25
KR20210097772A (ko) 2021-08-09
WO2020215985A1 (zh) 2020-10-29
KR102607800B1 (ko) 2023-11-29
EP3961484A1 (en) 2022-03-02
US11887311B2 (en) 2024-01-30
CN110110617B (zh) 2021-04-20

Similar Documents

Publication Publication Date Title
JP2022529557A (ja) 医用画像分割方法、医用画像分割装置、電子機器及びコンピュータプログラム
US20210241109A1 (en) Method for training image classification model, image processing method, and apparatuses
WO2020215984A1 (zh) 基于深度学习的医学图像检测方法及相关设备
Gao et al. Classification of CT brain images based on deep learning networks
US20220215548A1 (en) Method and device for identifying abnormal cell in to-be-detected sample, and storage medium
CN114445670B (zh) 图像处理模型的训练方法、装置、设备及存储介质
CN110033023A (zh) 一种基于绘本识别的图像数据处理方法及***
CN104484886B (zh) 一种mr图像的分割方法及装置
Iyer et al. Performance analysis of lightweight CNN models to segment infectious lung tissues of COVID-19 cases from tomographic images
CN111382807A (zh) 图像处理方法、装置、计算机设备和存储介质
CN109741351A (zh) 一种基于深度学习的类别敏感型边缘检测方法
CN113096080A (zh) 图像分析方法及***
CN117788810A (zh) 一种无监督语义分割的学习***
CN113705595A (zh) 异常细胞转移程度的预测方法、装置和存储介质
CN113724185A (zh) 用于图像分类的模型处理方法、装置及存储介质
CN117593762A (zh) 一种融合视觉和压力的人体姿态估计方法、设备及介质
CN112801940A (zh) 模型评测方法、装置、设备及介质
CN116597159A (zh) 特征提取方法、生物对象部位的状态识别方法及电子设备
CN113096079B (zh) 图像分析***及其构建方法
CN117036658A (zh) 一种图像处理方法及相关设备
Zhang et al. Multiple Objects Detection based on Improved Faster R-CNN
Kassim et al. A cell augmentation tool for blood smear analysis
Li Multi-view canonical pose 3D human body reconstruction based on volumetric TSDF
Wang et al. LWCCNET: Lightweight Remote Sensing Change Detection Network based on Composite Convolution Operator
CN113706449B (zh) 基于病理图像的细胞分析方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221116

R150 Certificate of patent or registration of utility model

Ref document number: 7180004

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150