JP7112519B2 - 画像処理方法、装置、コンピュータプログラム、並びにコンピュータ機器 - Google Patents

画像処理方法、装置、コンピュータプログラム、並びにコンピュータ機器 Download PDF

Info

Publication number
JP7112519B2
JP7112519B2 JP2020562214A JP2020562214A JP7112519B2 JP 7112519 B2 JP7112519 B2 JP 7112519B2 JP 2020562214 A JP2020562214 A JP 2020562214A JP 2020562214 A JP2020562214 A JP 2020562214A JP 7112519 B2 JP7112519 B2 JP 7112519B2
Authority
JP
Japan
Prior art keywords
image
neural network
image processing
group
model training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020562214A
Other languages
English (en)
Other versions
JP2021524083A (ja
Inventor
ヤン,ケジョウ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2021524083A publication Critical patent/JP2021524083A/ja
Application granted granted Critical
Publication of JP7112519B2 publication Critical patent/JP7112519B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Epidemiology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

(関連出願の相互参照)
本願は、2018年08月23日に中国特許庁に提出された、出願番号が201810967559.Xであり、発明の名称が「画像処理方法、装置、コンピュータ可読記憶媒体並びにコンピュータ機器」である中国特許出願の優先権を主張するものであり、その内容の全てが引用により本願に組み込まれている。
本願は、コンピュータ技術分野に関し、特に、画像処理方法、装置、コンピュータプログラム、並びにコンピュータ機器に関するものである。
目標対象を含む画像に対しては、画像を処理することにより、目標対象の関連イベントの状態属性を決定できる。例えば、マンモグラフィ画像を処理することにより、乳癌であるか否かを判別できる。
現在、主に人間が目標対象を含む画像を観察し、その後、人の経験に基づいて当該目標対象に対応する分類結果を判断する。当該分類結果は、目標対象の関連イベントの状態属性を表すために使用できる。例えば、医師は、マンモグラフィ画像を肉眼で観察し、その後、医療経験に基づいて***に対応する分類結果を判断することができ、当該分類結果は、乳癌であるか否かを表すために使用できる。ただし、人間による観察と判断は非常に主観的であるため、画像処理の効率と精度が比較的に低い。
本願実施例は、画像処理の効率と精度が比較的に低いという課題を解決する、画像処理方法、装置、コンピュータプログラム、並びにコンピュータ機器を開示する。
一態様によれば、コンピュータ機器が実行する画像処理方法を開示し、前記方法は、
少なくとも2枚の被処理画像を取得するステップであって、前記被処理画像は、同一の目標対象を異なる撮像角度で収集することによってそれぞれ形成される、ステップと、
画像処理モデルにおける、前記被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、前記特徴抽出ネットワークに対応する前記被処理画像のターゲット特徴をそれぞれ抽出するステップであって、前記特徴抽出ネットワークは、各撮像角度に対応する画像の特徴を抽出するために使用される、ステップと、
前記ターゲット特徴に従って、前記目標対象に対応する分類結果を決定するステップと、を含む。
別の態様によれば、コンピュータ機器に設置される画像処理装置を開示し、前記装置は、
少なくとも2枚の被処理画像を取得するように構成される被処理画像取得モジュールであって、前記被処理画像は、同一の目標対象を異なる撮像角度で収集することによってそれぞれ形成される、被処理画像取得モジュールと、
画像処理モデルにおける、前記被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、前記特徴抽出ネットワークに対応する前記被処理画像のターゲット特徴をそれぞれ抽出するように構成されるターゲット特徴取得モジュールであって、前記特徴抽出ネットワークは、各撮像角度に対応する画像の特徴を抽出するために使用される、ターゲット特徴取得モジュールと、
前記ターゲット特徴に従って、前記目標対象に対応する分類結果を決定するように構成される分類結果決定モジュールと、を備える。
別の態様によれば、コンピュータ機器が実行するモデルトレーニング方法を開示し、前記方法は、
少なくとも2つのグループの全体画像サンプルを取得するステップであって、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成される、ステップと、
各グループの全体画像サンプルに従って、第1トレーニングされるべきニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するステップと、
前記中間特徴抽出ネットワークに従って、第2トレーニングされるべきニューラルネットワークを構築するステップと、
各グループの全体画像サンプルに従って、前記第2トレーニングされるべきニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定するステップと、を含む。
別の態様によれば、コンピュータ機器に設置されるモデルトレーニング装置を開示し、前記装置は、
少なくとも2つのグループの全体画像サンプルを取得するように構成される全体サンプル取得モジュールであって、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成される、全体サンプル取得モジュールと、
各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するように構成される中間ネットワークトレーニングモジュールと、
前記中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築するように構成されるニューラルネットワーク構築モジュールと、
各グループの全体画像サンプルに従って、前記第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定するように構成される画像処理モデルトレーニングモジュールと、を備える。
別の態様によれば、コンピュータプログラムが記憶されたコンピュータ可読記憶媒体を開示し、前記コンピュータプログラムがプロセッサによって実行されると、上述の画像処理方法および/またはモデルトレーニング方法のステップを実現する。
別の態様によれば、メモリと、プロセッサとを備えるコンピュータ機器を開示し、コンピュータプログラムが前記メモリに記憶され、前記プロセッサが前記コンピュータプログラムを実行すると、上述の画像処理方法および/またはモデルトレーニング方法のステップを実現する。
本願の各実施例で開示される技術的解決策によれば、同一の目標対象を異なる撮像角度で収集することによってそれぞれ形成される少なくとも2枚の被処理画像を取得し、画像処理モデルにおける、被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、各特徴抽出ネットワークにそれぞれ対応する被処理画像のターゲット特徴をそれぞれ抽出し、さらに、各ターゲット特徴に従って目標対象に対応する分類結果を決定する。一方では、機械学習モデルによって被処理画像の特徴を自動的に学習することにより、人の関与を必要とせずに分類結果を取得できるため、処理効率と精度が向上する。他方では、同一の目標対象を異なる撮像角度で収集することによってそれぞれ形成される被処理画像を組み合わせて分類結果を共同で決定することにより、分類精度を効果的に向上させることができる。
本願実施例における技術的解決策をより明確にするために、下記において、本願実施例の説明に必要な図面を簡単に説明する。勿論、下記の図面は本願の一部の実施例に過ぎず、当業者は、創造的な労力を要することなく、これらの図面に基づいて他の図面を得ることもできる。
本願実施例に係る画像処理方法および/またはモデルトレーニング方法の応用環境を示す図である。 本願実施例に係る画像処理方法のフローチャートである。 本願実施例に係る画像処理モデルの構造ブロック図である。 本願実施例に係る画像処理モデルの構造ブロック図である。 本願実施例に係る画像処理モデルの構造ブロック図である。 本願実施例に係る第2被トレーニングニューラルネットワークを構築する原理の概略図である。 本願実施例に係る第1被トレーニングニューラルネットワークを構築する原理の概略図である。 本願実施例に係るモデルトレーニング方法のフローチャートである。 本願実施例に係る画像処理方法のフローチャートである。 本願実施例に係る画像処理装置の構造ブロック図である。 本願実施例に係る別のモデルトレーニング装置の構造ブロック図である。 本願実施例に係るコンピュータ機器の構造ブロック図である。 本願実施例に係る別のコンピュータ機器の構造ブロック図である。
本願の目的、技術的解決策および利点をより明確に説明するために、以下、添付の図面を参照してから、本願の実施例を詳細に説明する。ここで説明される特定の実施例は、本願を説明するためにのみ使用され、本願実施例を限定するものではないことを理解されたい。
本願実施例で使用される「第1」、「第2」などの用語は、命名により類似する対象を区別するために使用されるか、これらの対象自体は、これらの用語に限定されない。これらの用語は、適切な状況下で、本願実施例の範囲を逸脱せずに交換できることを理解されたい。例えば、「第1被トレーニングニューラルネットワーク」を「第2被トレーニングニューラルネットワーク」と表現でき、同様に「第2被トレーニングニューラルネットワーク」を「第1被トレーニングニューラルネットワーク」と表現できる。
また、本願実施例で使用される「含む」、「備える」、「有する」及びこれらの任意の変形の用語は、非排他的包含を網羅することを意図している。例えば、一連のステップ又はユニットを含むプロセス、方法、システム、製品又は機器は、これらステップ又はユニットに必ずしも限定されず、明確に列挙されない他のステップ又はユニット、又はこれらのプロセス、方法、製品又は機器に固有の他のステップ又はユニットを包含することができる。本願実施例で使用される「および/または」という用語は、1つまたは複数の関連する列挙されたアイテムの任意の、およびすべての組み合わせを含み得る。
本願の各実施例で開示される画像処理方法は、図1に示される応用環境に適用されることができる。当該応用環境は、端末110およびサーバ120を含むことができ、端末110とサーバ120は、有線ネットワークまたは無線ネットワークを介して接続されてもよい。
具体的には、本願実施例では、サーバ120でモデルトレーニングタスクを完了して、画像処理モデルを取得できる。端末110は、少なくとも2枚の被処理画像(被処理画像は、同一の目標対象を異なる撮像角度で収集することによって形成される)を取得した後、被処理画像をサーバ120に送信できる。その後、サーバ120は、画像処理モデルの被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、各特徴抽出ネットワークにそれぞれ対応する被処理画像のターゲット特徴をそれぞれ抽出し、次に、各ターゲット特徴に従って目標対象に対応する分類結果(以下、画像検出タスクと略称する)を決定できる。
また、端末110でモデルトレーニングタスクを完了して、画像処理モデルを取得することもできる。例えば、端末110は、サーバ120の関与を必要とせずに、モデルトレーニングタスクおよび画像検出タスクを単独で完了できる。
また、本願実施例では、画像処理モデルを端末110に搭載することもできる。この場合、端末110は、少なくとも2枚の被処理画像を取得した後、被処理画像各画像をサーバ120に送信することなく、ローカルに記憶された画像処理モデルを介して画像検出タスクを直接完了できる。
ここで、端末110は、スマートフォン、タブレットコンピュータ、ノートブックコンピュータ、デスクトップコンピュータ、携帯情報端末、ウェアラブルデバイス、および医用画像機器なとであってもよいが、これらに限定されるものではない。サーバ120は、独立した物理サーバであってもよいし、複数の物理サーバから構成されるサーバクラスタであってもよい。
本願の一実施例において、図2に示されるように、画像処理方法を開示する。一例として、当該方法がコンピュータ機器(上記の図1における端末110またはサーバ120など)に適用される場合について説明する。当該方法は、以下のステップS202~S206を含み得る。
ステップS202において、少なくとも2枚の被処理画像を取得する。
ここで、被処理画像は、それに含まれる目標対象に対応する分類結果を決定する必要がある画像である。本願実施例において、分類結果を一度決定するために少なくとも2枚の被処理画像を取得する必要がある。つまり、分類結果は、少なくとも2枚の被処理画像に従って共同で決定され、被処理画像は、同一の目標対象を異なる撮像角度で収集することによって形成される。これから、被処理画像が各撮像角度にそれぞれ対応することが分かる。例えば、2枚の被処理画像(それぞれ第1被処理画像と第2被処理画像と命名する)共同で分類結果を決定し、ここで、第1被処理画像は、第1撮像角度で目標対象を収集することによって形成され、第2被処理画像は、当該第1撮像角度とは異なる第2撮像角度で当該目標対象を収集することによって形成される。これから、第1被処理画像が第1撮像角度に対応し、第2被処理画像が第2撮像角度に対応することが分かる。被処理画像の具体的な枚数は、2枚以上であるという前提で、実際の需要に基づいて決定されてもよく、本願実施例では特にそれを限定しないことが理解できる。例えば、3枚の被処理画像に基づいて共同で分類結果を決定することもでき、この3枚の被処理画像は、それぞれ、同一の目標対象を異なる撮像角度で収集することによってそれぞれ形成されたものである。
撮像角度は、撮像機器の位置および撮像される対象の位置の変化に応じて変化できる。異なる撮像角度で同一の目標対象を収集することにより、複数枚の収集画像を形成でき、各収集画像は、異なる撮像角度下での当該目標対象を含み、つまり、異なる表示角度で表示された当該目標対象を含む。また、医用撮像分野では、撮像角度は、投影方向を指し得、例えば、マンモグラフィ画像を形成する場合、投影方向は、頭尾方向(CC:Craniocaudal)および内外斜位方向(MLO:Mediolateral Oblique)、外内方向(LM)、外内斜位方向(LMO)、腋尾方向(AT)などを含み得る。
その後、目標対象に対応する分類結果を決定する必要がある場合、先ず、収集画像に従って被処理画像を取得することができ、取得された被処理画像は、異なる撮像角度下での目標対象を含む。一実施例では、異なる撮像角度で同一の目標対象を収集することによって形成される少なくとも2枚の収集画像を取得してもよく、取得された各収集画像は被処理画像である。別の実施例では、異なる撮像角度で同一の目標対象を収集することによって形成される少なくとも2枚の収集画像を取得した後、各収集画像をそれぞれ前処理して、各収集画像にそれぞれ対応する被処理画像を取得してもよい。
ここで、収集画像の撮像プロセスでは、外部環境要因や撮像機器自体の動作中に発生するノイズの影響を受けることにより、生成された収集画像にノイズが含まれる可能性があり、ノイズを含む収集画像を被処理画像として直接使用すると、分類の精度が低下するため、前処理はノイズ除去処理を含み得る。また、収集画像の元の画像サイズが所定のサイズ条件を満たさない可能性があるため、前処理は、画像サイズ調整処理を含み得る。これにより、収集画像を所定のサイズ条件を満たすように調整して、被処理画像を取得することができる。前処理は、ノイズ除去処理と画像サイズ調整処理を同時に含んでもよいことが理解できる。
一実施例では、被処理画像は医用画像であってもよく、それに応じて、目標対象は、生物体または生物体の身体部位であってもよい。ここで、医用画像は、医療や医療研究のために、非侵襲的な方法で得られた、生物体または生物体の特定の身体部位の内部組織画像である。画像の撮像方式に応じて区別すると、医用画像は、超音波ビーム走査による反射信号を受信して処理することによって得られる超音波画像、コンピュータ断層撮影(CT:Computed Tomography)によって得られるCT画像、または磁気共鳴(MR:Magnetic Resonance)撮像によって得られるMR画像を含み得る。
被処理画像が医用画像である場合、画像に含まれる目標対象に応じて区別すると、被処理画像は、目標対象である***を含むマンモグラフィ画像であってもよく、この場合、目標対象に対応する分類結果は、乳癌の状態属性を反映できる。一実施例では、マンモグラフィ画像の撮像角度は、CC角度およびMLO角度を含んでもよく、それに応じて、取得された少なくとも2枚の被処理画像は、CC角度で***を撮影することによって形成されたマンモグラフィ画像、およびMLO角度で当該***を撮影することによって形成されたマンモグラフィ画像を含み得る。
実際の応用では、被処理画像はまた、目標対象である副鼻腔を含む副鼻腔画像であってもよく、この場合、目標対象に対応する分類結果は、副鼻腔炎の状態属性を反映できる。一実施例では、副鼻腔画像の撮像角度は、コールドウェル法(Caldwell角度)およびウォーターズ法を含んでもよく、それに応じて、取得された少なくとも2枚の被処理画像は、コールドウェル法で副鼻腔を撮影することによって得られた副鼻腔画像、およびウォーターズ法で副鼻腔を撮影することによって得られた副鼻腔画像を含むことができる。
他の実施例では、被処理画像また、人物の画像、動物の画像、植物の画像、および建物の画像など、様々な他のタイプの画像を含むことができる。
ステップS204において、画像処理モデルの被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、各特徴抽出ネットワークに対応する被処理画像のターゲット特徴をそれぞれ抽出する。
画像処理モデルは、画像認識機能を備えた機械学習モデルであってもよい。画像認識とは、画像内の特徴を抽出して、それに応じて画像分類を実行することであってもよい。機械学習モデルは、サンプルデータに基づくモデルトレーニングによって得られたものであってもよい。モデルトレーニングによって得られた画像処理モデルは、画像サンプルから、画像特徴と分類結果との間のマッピングルールを学習し、それに応じて、新しい画像の対応する分類結果を取得できる。一実施例では、画像処理モデルは、畳み込みニューラルネットワーク(CNN:Convolution Neural Network)を含んでもよい。
特徴抽出ネットワークは、画像処理モデルの構成要素であり、被処理画像に対して特徴抽出を実行して、被処理画像のターゲット特徴を取得できる。ターゲット特徴は、被処理画像に対応する特徴マップ(Feature Map)であってもよく、そのデータ形式はベクトルであってよい。
画像処理モデルは、取得された被処理画像にそれぞれ対応する特徴抽出ネットワークを含み、各特徴抽出ネットワークは、互いに独立しており、各撮像角度に対応する被処理画像のターゲット特徴を抽出できる。被処理画像は、各撮像角度にそれぞれ対応でき、各特徴抽出ネットワークも、各撮像角度にそれぞれ対応できるため、被処理画像が各特徴抽出ネットワークにそれぞれ対応できることが理解できる。例えば、撮像角度PO1で目標対象を収集することによって形成された被処理画像DP1、および撮像角度PO2で目標対象を収集することによって形成された被処理画像DP2を取得し、且つ画像処理モデルが、撮像角度PO1に対応する特徴抽出ネットワークFEN1、および撮像角度PO2に対応する特徴抽出ネットワークFEN2を含む場合、特徴抽出ネットワークFEN1は被処理画像DP1に対応し、特徴抽出ネットワークFEN2は被処理画像DP2に対応する。
特徴抽出ネットワークのネットワークフレームワークは、実際の需要に応じて自分でゼロから構築することも、特徴抽出機能を備えた既存のネットワークフレームワークを改造することによって取得することもできる。例えば、既存の畳み込みニューラルネットワークフレームワークは、通常、畳み込み層およびプーリング層を含む、特徴抽出を実行するために使用される特徴抽出部分と、全結合層およびSoftmax層を含む分類出力部分とを備え、当該既存の畳み込みニューラルネットワークフレームワークを改造するときに、その分類出力部分を削除でき、削除後の残りの特徴抽出部分を、特徴抽出ネットワークのネットワークフレームワークとして使用できる。
本実施例では、被処理画像を取得した後、被処理画像を画像処理モデルに入力し、画像処理モデル内で、互いに独立した特徴抽出ネットワークを介して、対応する被処理画像に対してぞれぞれ特徴抽出を実行して、被処理画像にそれぞれ対応するターゲット特徴を取得できる。
ステップS206において、各ターゲット特徴に従って、目標対象に対応する分類結果を決定する。
分類結果は、目標対象の関連イベントの状態属性を反映するために使用できる。一実施例では、分類結果は、目標対象が所定の分類クラスに属する確率を含んでもよい。ここで、所定の分類クラスのコンテンツは、関連イベントの状態属性に関連し、所定の分類クラスの数およびコンテンツは、実際の状況に従って事前設定できる。
被処理画像として医用画像を例にとると、当該分類結果は、病気と正常(即ち、疾患を患っていない)の2つの所定の分類クラスを含み得る。具体的には、被処理画像がマンモグラフィ画像である場合、目標対象に対応する分類結果は、乳癌を患っている確率および乳癌を患っていない確率を含み得る。また、異なる疾患状態を細分することにより、分類結果は、各細分枝にそれぞれ対応する所定の分類クラスを含み得る。依然として、被処理画像としてマンモグラフィ画像を例にとると、目標対象に対応する分類結果は、***が良性の腫瘤である確率、良性の石灰化である確率、悪性の腫瘤である確率、悪性の石灰化である確率、および正常な腺である確率を含み得る。
一実施例では、画像処理モデルを介して各ターゲット特徴を取得した後、続けて画像処理モデルを介して、各ターゲット特徴に従って目標対象に対応する分類結果を決定するステップを実装してもよい。一実施例では、画像処理モデルは、分類出力ネットワークを含んでもよく、当該分類出力ネットワークを介して、各ターゲット特徴に従って目標対象に対応する分類結果を決定するステップを実装してもよい。この場合、画像処理モデルは、本質的に深層ニューラルネットワークモデルであり、エンドツーエンドの処理を実現し、つまり、モデルの入力特徴を人工的に設計することなく、被処理画像をモデルに直接入力して、画像をモデルによって分類結果を直接出力することができる。
本願の各実施例で開示される画像処理方法を使用するソフトウェアプロダクトの場合、当該ソフトウェアプロダクトは、ソフトウェアインターフェース方式でサービスを提供することができる。マンモグラフィ画像を例にとると、当該ソフトウェアプロダクトの入力はそれぞれ、CC角度で撮影された***のマンモグラフィ画像と、MLO角度で撮影された***のマンモグラフィ画像であってもよく、当該ソフトウェアプロダクトの出力は、***が乳癌を有する確率であってもよい。
他の実施形態において、単一の撮像角度下での目標対象の被処理画像を取得し、当該単一の被処理画像を機械学習モデルに入力し、当該機械学習モデルを介して目標対象に対応する分類結果を出力してもよい。これに対して、当該機械学習モデルは、単一の撮像角度下での目標対象の画像サンプルに基づくモデルトレーニングによって得られたものであってもよい。
マンモグラフィ画像を例にとると、CC角度での***を含むマンモグラフィ画像を取得し、当該マンモグラフィ画像を機械学習モデルに入力し、当該機械学習モデルよって対応する分類結果を出力でき、これに対して、当該機械学習モデルは、CC角度での***を含むマンモグラフィ画像サンプルに基づくモデルトレーニングによって得られたものであってもよい。
しかしながら、単一の撮像角度の方式によれば、一方では、完全な目標対象を含む画像を直接使用してモデルトレーニングを実行することにより、モデルが、画像全体から異なる分類結果(乳癌の有無など)を区別する特徴を見つけることを学習するのが望まれる。この場合、モデルトレーニングには非常に多くの画像サンプルが必要であり、トレーニングはランダムであるため、モデルは、異なる分類結果を最も適切に区別できる主な特徴を学習できない可能性がある。他方では、単一の撮像角度下での目標対象を含む被処理画像により得られた分類結果は、分類根拠が単一であるため、分類結果の精度が比較的に低い。
本実施例で開示された画像処理方法によれば、異なる撮像角度で同じ目標対象を撮ることによってそれぞれ形成される少なくとも2枚の被処理画像を取得し、画像処理モデルの被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、各特徴抽出ネットワークにそれぞれ対応する被処理画像のターゲット特徴を抽出し、さらに、各ターゲット特徴に従って目標対象に対応する分類結果を決定する。一方では、機械学習モデルによって被処理画像の特徴を自動的に学習することにより、人の関与を必要とせずに分類結果を取得できるため、処理効率と精度が向上する。他方では、同一の目標対象を異なる撮像角度で収集することによって形成される被処理画像を組み合わせて分類結果を共同で決定することにより、分類精度を効果的に向上させることができる。
一実施例では、図3に示されるように、少なくとも2枚の被処理画像は、第1撮像角度で目標対象を収集することによって形成された第1被処理画像、および第1撮像角度とは異なる第2撮像角度で当該目標対象を収集することによって形成された第2被処理画像を含んでもよく、画像処理モデルの各特徴抽出ネットワークは、第1被処理画像に対応する第1特徴抽出ネットワーク、第2被処理画像に対応する第2特徴抽出ネットワークを含んでもよく。
これにより、画像処理モデルの被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、各特徴抽出ネットワークにそれぞれ対応する被処理画像のターゲット特徴を抽出するステップは、画像処理モデルの第1特徴抽出ネットワークを介して、第1被処理画像に対応する第1ターゲット特徴を抽出し、画像処理モデルの第2特徴抽出ネットワークを介して、第2被処理画像に対応する第2ターゲット特徴を抽出するステップを含んでもよい。また、各ターゲット特徴に従って目標対象に対応する分類結果を決定するステップは、第1ターゲット特徴および第2ターゲット特徴に従って、目標対象に対応する分類結果を決定するステップを含んでもよい。
本願実施例において、2枚の被処理画像に従って分類結果を決定する。被処理画像としてマンモグラフィ画像を例にとると、CC角度で***を撮影することによって形成された第1マンモグラフィ画像、およびMLO角度で***を撮影することによって形成された第2マンモグラフィ画像を取得し、第1マンモグラフィ画像および第2マンモグラフィ画像を画像処理モデルに入力し、画像処理モデルの第1マンモグラフィ画像に対応する第1特徴抽出ネットワークを介して、第1被処理画像に対応する第1ターゲット特徴を抽出し、画像処理モデルの第2マンモグラフィ画像に対応する第2特徴抽出ネットワークを介して、第2被処理画像に対応する第2ターゲット特徴を抽出できる。ここで、第1特徴抽出ネットワークおよび第2特徴抽出ネットワークは、互いに独立した特徴抽出ネットワークである。
一実施例では、各ターゲット特徴に従って、目標対象に対応する分類結果を決定するステップ、即ちステップS206は、画像処理モデルの全結合層を介して、各ターゲット特徴に従って分類して、目標対象に対応する分類結果を決定するステップを含んでもよい。
全結合層(Fully Connected Layer)は、特徴に従って分類するために使用できる。具体的には、全結合層は、分散特徴をサンプルラベルスペースにマッピングするために使用でき、理解しやすいように言えば、特徴マップを数値に統合するために使用できる。
本実施例において、画像処理モデルは、全結合層を含み、画像処理モデルの各特徴抽出ネットワークを介して被処理画像のターゲット特徴を抽出した後、画像処理モデルの全結合層を介して、各ターゲット特徴に従って続けて分類して、目標対象に対応する分類結果を決定できる。一実施例では、各特徴抽出ネットワークによって出力されたターゲット特徴を、全結合層に直接入力して分類してもよい。
一実施例では、画像処理モデルの全結合層を介して分類した後、全結合層の出力結果を目標対象に対応する分類結果として直接使用してもよい。別の実施例において、図4に示されるように(2つの特徴抽出ネットワークを例として図4に示す)、画像処理モデルは、全結合層の後に構成されるSoftmax層を含んでもよく、Softmax層は、全結合層の出力結果を(0,1)間隔である値にマッピングし、正規化処理を実行するために使用されてもよい。この場合、画像処理モデルの全結合層を介して分類した後、続けて画像処理モデルのSoftmax層を介して、全結合層の出力結果を(0,1)間隔である値にマッピングし、正規化処理を実行することもでき、その後、Softmax層の出力結果を目標対象に対応する分類結果として使用する。
一実施例では、画像処理モデルの全結合層を介して、各ターゲット特徴に従って分類して、目標対象に対応する分類結果を決定するステップの前に、前記画像処理方法は、各ターゲット特徴を、順次に、画像処理モデルの畳み込み層で畳み込んで、画像処理モデルのプーリング層でプーリングして、中間特徴を取得するステップをさらに含んでもよい。これにより、画像処理モデルの全結合層を介して、各ターゲット特徴に従って分類して、目標対象に対応する分類結果を決定するステップは、画像処理モデルの全結合層を介して、中間特徴に従って分類して、目標対象に対応する分類結果を決定するステップを含んでもよい。
本願実施例において、図5に示されるように、画像処理モデルは、全結合層の前に構成される畳み込み層とプーリング層を含んでもよい。畳み込み層は、畳み込みカーネルを介して特徴抽出を実行するために使用できる。プーリング層は、プーリングにより、畳み込み層によって出力される特徴の次元を低減するために使用でき、プーリングは、通常、平均プーリング(Mean Pooling)および最大プーリング(Max Pooling)の2つの形式を含む。
本願実施例において、画像処理モデル内では、各特徴抽出ネットワークを介して被処理画像のターゲット特徴を抽出した後、先ず、各ターゲット特徴を畳み込み層に入力して畳み込みを実行して、さらなる特徴を抽出し、次に、当該畳み込み層の出力結果をプーリング層に入力してプーリングして、特徴の次元を低減し、その後、プーリング層の出力結果(即ち、中間特徴)を全結合層に入力して分類する。ここで、実際の需要に応じて、全結合層の前に、複数の畳み込み処理と複数のプーリング処理を実行してもよい。
一実施例では、画像処理モデルを決定する方法は、少なくとも2つのグループの全体画像サンプルを取得するステップであって、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成されるステップと、各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するステップと、各中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築するステップと、各グループの全体画像サンプルに従って、第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定するステップとを含んでもよい。
全体画像サンプルは、完全なサンプル対象を含む画像サンプルである。一グループの全体画像サンプルは、同一の撮像角度で異なるサンプル対象を収集することによって形成される複数枚の全体画像サンプルを含む。マンモグラフィ画像サンプルを例にとると、一グループの全体画像サンプルは、3枚のマンモグラフィ画像サンプルを含み得、この3枚のマンモグラフィ画像サンプルは、CC角度で完全な***BR1を撮影すること、CC角度で完全な***BR2を撮影すること、およびCC角度で完全な***BR3を撮影することによってそれぞれ形成されたものである。
各グループの全体画像サンプルは、異なる撮像角度でサンプル対象を収集することによってそれぞれ形成され、各グループの全体画像サンプルは、一撮像角度に一意に対応する。例えば、3つのグループの全体画像サンプル(それぞれ全体画像サンプルグループG1、全体画像サンプルグループG2、および全体画像サンプルグループG3と命名する)が取得され、全体画像サンプルグループG1は撮像角度IA1に対応し、全体画像サンプルグループG2は撮像角度IA2に対応し、全体画像サンプルグループG3は撮像角度IA3に対応でき、ここで、撮像角度IA1、IA2、IA3は互いに異なる。
画像サンプルは、実際の分類結果が既知の画像であることが理解できる。具体的には、画像サンプルは、クラスラベルを有してもよい。クラスラベルは、画像サンプルの実際の分類結果を表す。マンモグラフィ画像サンプルを例にとると、マンモグラフィ画像サンプルMGS1は、当該マンモグラフィ画像サンプルMGS1における***が乳癌を有することを表すクラスラベルを有し、マンモグラフィ画像サンプルMGS2は、当該マンモグラフィ画像サンプルMGS2における***が乳癌を有しないことを表すクラスラベルを有することができる。一実施例では、クラスラベルで表される実際の分類結果は、人間による分析によって決定されてもよく、例えば、関連技術分野の専門家による分析によって決定されてもよい。
第1被トレーニングニューラルネットワークは、モデルトレーニングを必要とするニューラルネットワークであり、当該第1被トレーニングニューラルネットワークは、中間特徴抽出ネットワークのプロトタイプである。具体的には、第1被トレーニングニューラルネットワークは、事前トレーニングされていない初期ニューラルネットワークであってもよいし、初期ニューラルネットワークに対して事前トレーニングした後に得られた事前トレーニングニューラルネットワークであってもよい。第1被トレーニングニューラルネットワークは、本質的に畳み込みニューラルネットワークであってもよい。
モデルトレーニングは、モデルの各層のモデルパラメータを調整するプロセスである。具体的には、全体画像サンプルの任意のグループについて、第1被トレーニングニューラルネットワークを介して自分で、全体画像サンプルの当該グループ内の各全体画像サンプルの予測された分類結果を取得し、各全体画像サンプルの予測された分類結果とそのクラスラベルを比較して、損失パラメータ(即ち、Loss)を計算し、その後、損失パラメータに従って逆伝播を実行することにより、第1被トレーニングニューラルネットワークのモデルパラメータを調整して、全体画像サンプルの当該グループに対応する中間特徴抽出ネットワークを取得できる。
モデルトレーニングは、反復処理プロセスであり、トレーニング停止条件を満たすときにトレーニングを停止する。ここで、トレーニング停止条件は、モデルトレーニングの停止をトリガする条件である。トレーニング停止条件は、プリセットされた反復回数に達することであってもよいし、計算によって得られた損失パラメータがプリセット条件を満たすことであってもよい。当該プリセット条件は、例えば、損失パラメータがプリセットされた損失閾値未満であることであってもよいし、計算によって得られた損失パラメータがこれ以上低減されないことであってもよい。
中間特徴抽出ネットワークは、画像処理モデルの特徴抽出ネットワークのプロトタイプである。各中間特徴抽出ネットワークは、画像処理モデルの各特徴抽出ネットワークにそれぞれ対応し、さらに、各中間特徴抽出ネットワークは、各グループの全体画像サンプルにそれぞれ対応する。つまり、一グループの全体画像サンプルに従って第1トレーニングされるモデルに対してモデルトレーニングを実行して、全体画像サンプルの当該グループに対応する中間特徴抽出ネットワークを取得する。
例えば、全体画像サンプルは、2つのグループのマンモグラフィ画像サンプル(それぞれマンモグラフィ画像サンプルグループG-BR1と、マンモグラフィ画像サンプルグループG-BR2と命名する)を含み、マンモグラフィ画像サンプルグループG-BR1は、CC角度で異なる完全な***を撮影することによって形成された複数枚のマンモグラフィ画像サンプルを含み、マンモグラフィ画像サンプルグループG-BR2は、MLO角度で異なる完全な***を撮影することによって形成されたマンモグラフィ画像サンプルを含む(例E-1)。この場合、マンモグラフィ画像サンプルグループG-BR1内の各マンモグラフィ画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、マンモグラフィ画像サンプルグループG-BR1に対応する中間特徴抽出ネットワークIN1を取得し、当該中間特徴抽出ネットワークIN1はCC角度に対応し、マンモグラフィ画像サンプルグループG-BR2内の各マンモグラフィ画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、マンモグラフィ画像サンプルグループG-BR2に対応する中間特徴抽出ネットワークIN2を取得し、当該中間特徴抽出ネットワークIN2はMLO角度に対応する。
各中間特徴抽出ネットワークを取得した後、各中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを共同で構築できる。具体的には、中間特徴抽出ネットワークの分類出力部分をそれぞれ削除し(例えば、全結合層を削除し、Softmax層が完全接続の後に接続されている場合、全結合層とSoftmax層を一緒に削除できる)、削除後の各中間特徴抽出ネットワーク(以下、残りのネットワークと略称する)は並列状態であり、各残りのネットワークの後に、トレーニングされていない畳み込み層、トレーニングされていないプーリング層、およびトレーニングされていない全結合層を順次に接続して、第2被トレーニングニューラルネットワークを取得できる。また、上述した例E-1について、第2被トレーニングニューラルネットワークを取得する原理の概略図は、図6に示される通りであってもよい。
第2被トレーニングニューラルネットワークは、画像処理モデルのプロトタイプであり。第2被トレーニングニューラルネットワークは、2つ以上のグループの全体画像サンプルを入力として同時に受信できる。
一実施例では、各グループの全体画像サンプルに従って、第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行するプロセスにおいて、先ず、すべての残りのネットワークをフリーズし(つまり、残りの各ネットワークのモデルパラメータを変更しないままにする)、各グループの全体画像サンプルに従って、第2被トレーニングニューラルネットワークのフリーズされていない部分(トレーニングされていない畳み込み層、プーリング層、全結合層など)のモデルパラメータを調整し、第1トレーニング停止条件を満たす場合、すべての残りのネットワークに対するフリーズを解除し、各グループの全体画像サンプルに従って、第2トレーニング停止条件を満たすまで、第2被トレーニングニューラルネットワークのすべてのモデルパラメータを調整してもよく、トレーニング終了時の対応するモデルパラメータは、画像処理モデルのモデルパラメータであってもよい。
別の実施例において、各グループの全体画像サンプルに従って、第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行するプロセスにおいて、部分的に残りのネットワークの一部のみをフリーズしてもよく、この場合、フリーズされていない部分は、フリーズされていない残りのネットワーク、トレーニングされていない畳み込み層、トレーニングされていないプーリング層、およびトレーニングされていない全結合層を含む。
各グループの全体画像サンプルに従って、第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行する具体的な方式は、上記のすべての残りのネットワークをフリーズするトレーニング方式や残りのネットワークの一部をフリーズするトレーニング方式に限定されず、任意の可能なモデルトレーニング方式によって実現できることを留意されたい。
一実施例では、各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するステップの前に、前記画像処理方法は、第1初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第1初期パラメータを取得するステップと、第1初期パラメータに従って、第1被トレーニングニューラルネットワークを決定するステップとをさらに含んでもよい。
初期ニューラルネットワークは、モデルパラメータのないネットワークフレームワークである。初期ニューラルネットワークに対してパラメータ初期化処理を実行することは、具体的に、ランダムに決定されたパラメータ、または人間により設定されたパラメータを初期ニューラルネットワークの各層に割り当てることであってもよい。
本願実施例において、各グループの全体画像サンプルで、各中間特徴抽出ネットワークをゼロからトレーニングする。具体的には、第1初期ニューラルネットワークのモデルパラメータに対してランダム初期化を実行して、第1初期パラメータを取得し、第1初期パラメータを第1初期ニューラルネットワークに読み込んで、第1被トレーニングニューラルネットワークを取得でき、さらに、各グループの全体画像サンプルに従って、当該第1被トレーニングニューラルネットワークに対してそれぞれモデルトレーニングを実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを取得できる。
一実施例では、各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するステップの前に、前記画像処理方法は、サンプル対象を含む目標領域の局部画像サンプルを取得するステップと、第2初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第2初期パラメータを取得するステップと、局部画像サンプルおよび第2初期パラメータに従って、第2初期ニューラルネットワークに対してモデルトレーニングを実行して、第1被トレーニングニューラルネットワークを取得するステップとをさらに含んでもよい。
局部画像サンプルは、サンプル対象の目標領域の一部のみを含む画像サンプルである。局部画像サンプルは、全体画像サンプルの局部と見なしてもよく、具体的には、全体画像サンプルから目標領域を切り取って、局部画像サンプルを形成してもよい。画像サンプルとして医用画像を例にとると、目標領域は病変領域を含んでもよく、全体画像サンプルは、完全な生物体を含む画像サンプルであってもよく、局部画像サンプルは、当該生物体の病変領域を含む画像サンプルであってもよい。更に具体的には、画像サンプルとしてマンモグラフィ画像を例にとると、全体画像サンプルは、完全な***を含む画像サンプルであってもよく、局部画像サンプルは、***の腫瘍領域を含む画像サンプルであってもよい。
全体画像サンプルと同様に、局部画像サンプルもクラスラベルを有する。画像サンプルとしてマンモグラフィ画像を例にとると、取得された各局部画像サンプルは、***が良性の腫瘤であること、良性の石灰化であること、悪性の腫瘤であること、悪性の石灰化であること、および正常な腺であることを表すクラスラベルなどの5種類のクラスラベルを含んでもよい。
本願実施例において、先ず、局部画像サンプルに従って第2初期ニューラルネットワークに対してモデルトレーニングを実行して、第1被トレーニングニューラルネットワークを取得してもよく、当該第1被トレーニングニューラルネットワークは、初期ニューラルネットワークではなく、事前トレーニング済みのニューラルネットワークであり。次に、事前トレーニング済みの第1被トレーニングニューラルネットワークに基づいて転移学習を実行することにより、各グループの全体画像サンプルで各中間特徴抽出ネットワークをゼロからトレーニングすることなく、各中間特徴抽出ネットワークを取得できる。
具体的には、局部画像サンプルおよび第2初期パラメータに従って、第2初期ニューラルネットワークに対してモデルトレーニングを実行し、トレーニングが停止するときに、トレーニング済みの第2初期ニューラルネットワーク(以下、局部処理モデルと略称する)を取得し、さらに、局部処理モデルの後に、トレーニングされていない畳み込み層、トレーニングされていないプーリング層、およびトレーニングされていない全結合層を順次に接続して、再構築されたニューラルネットワークを取得し、当該再構築されたニューラルネットワークのトレーニングされていない畳み込み層、トレーニングされていないプーリング層、およびトレーニングされていない全結合層のパラメータに対してランダム初期化処理を実行して、第1被トレーニングニューラルネットワークを決定してもよい。また、局部画像サンプルとして局部病変画像サンプルを例にとると、第1被トレーニングニューラルネットワークを取得する原理の概略図は、図7に示される通りであってもよい。
本願実施例において、局部から全体へのトレーニング方式によって、モデルが先に局部領域の特徴を学習するようにガイドし、その後、局部領域の特徴および全体画像に基づいて、画像処理モデルをトレーニングすることにより、画像処理モデルは、異なる分類結果を区別する主な特徴をより効果的に学習でき、トレーニングに必要なサンプルの数を低減できる。
前記トレーニング方式を医用画像に適用する場合、対応する疾患があるか否かは、目標対象に悪性病変があるが否かによって決定され、先ず、病変領域を含む局部画像サンプルを利用してトレーニングして、第1トレーニングされるモデルを取得し、第1トレーニングされるモデルが先に局部病変の特徴を学習するようにガイドし、その後、第1トレーニングされるモデルに従ってさらにトレーニングして、完全な目標対象を含む被処理画像に従って分類結果を決定する画像処理モデルを取得することにより、画像処理モデルは、目標対象に対応する疾患があるか否かを決定する特徴をより効果的に学習できる。
一実施例では、図8に示されるように、モデルトレーニング方法を開示する。当該方法は、コンピュータ機器(図1に示す端末110またはサーバ120など)に適用されることができ、以下のステップS802~S808を含み得る。
ステップS802において、少なくとも2つのグループの全体画像サンプルを取得し、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成される。
ステップS804において、各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定する。
ステップS806において、各中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築する。
ステップS808において、各グループの全体画像サンプルに従って、第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定する。
一実施例では、各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するステップ、即ちステップS804の前に、前記モデルトレーニング方法は、第1初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第1初期パラメータを取得するステップと、第1初期パラメータに従って、第1被トレーニングニューラルネットワークを決定するステップとをさらに含んでもよい。
一実施例では、各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するステップ、即ちステップS804の前に、前記モデルトレーニング方法は、サンプル対象を含む目標領域の局部画像サンプルを取得するステップと、第2初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第2初期パラメータを取得するステップと、局部画像サンプルおよび第2初期パラメータに従って、第2初期ニューラルネットワークに対してモデルトレーニングを実行して、第1被トレーニングニューラルネットワークを取得するステップとをさらに含んでもよい。
一実施例では、局部画像サンプルは医用画像サンプルを含んでもよく、目標領域は病変領域を含んでもよい。
本願の各実施例で開示されるモデルトレーニング方法を使用して得られた画像処理モデルは、画像分類を実行するために使用できることを留意されたい。具体的には、画像処理モデルは、画像に含まれる目標対象に対応する分類結果を決定するために使用できる。例えば、当該画像処理モデルは、医用画像に適用する場合、医用画像における生物体の部位に対応する疾患分類結果を決定できる。更に具体的には、当該画像処理モデルは、マンモグラフィ画像に適用される場合、マンモグラフィ画像における***に乳癌があるか否か、または***に対応する乳癌のタイプ(良性の腫瘤、良性の石灰化、悪性の腫瘤、悪性の石灰化、正常な腺)を決定できる。
本実施例における各技術的特徴に対する具体的な限定は、前述の対応する技術的特徴に対する限定と同じであってもよく、ここでは繰り返して説明しないことに留意されたい。
一実施例では、図9に示されるように、画像処理方法を開示する。一例として、当該方法がマンモグラフィ画像に適用される場合について説明する。当該方法は、以下のステップS902a~S910a、およびステップS902b~S908bを含み得る。
ステップS902aにおいて、サンプル***の目標領域を含む局部病変画像サンプルを取得し、初期ニューラルネットワークのモデルパラメータに対してランダム初期化処理を実行して、初期パラメータを決定し、その後、局部病変画像サンプルおよび初期パラメータに従って、初期ニューラルネットワークに対してモデルトレーニングを実行して、第1被トレーニングニューラルネットワークを決定する。
ステップS904aにおいて、2つのグループのマンモグラフィ画像サンプルを取得し、その一グループのマンモグラフィ画像サンプルは、CC角度でサンプル***を撮影することによって形成された複数枚のマンモグラフィ画像サンプルを含み、別のグループのマンモグラフィ画像サンプルは、MLO角度でサンプル***を撮影することによって形成されたマンモグラフィ画像サンプルを含む。
ステップS906aにおいて、2つのグループのマンモグラフィ画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、2つのグループのマンモグラフィ画像サンプルにそれぞれ対応する2つの中間特徴抽出ネットワークを決定する。
ステップS908aにおいて、2つの中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築する。
ステップS910aにおいて、2つのグループのマンモグラフィ画像サンプルに従って、第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定する。
ステップS902bにおいて、CC角度で検査されるべき***を撮影することによって形成される第1被処理マンモグラフィ画像、およびMLO角度で当該検査されるべき***を撮影することによって形成される第2被処理マンモグラフィ画像を取得する。
ステップS904bにおいて、画像処理モデルの第1被処理マンモグラフィ画像に対応する第1特徴抽出ネットワークを介して、第1被処理マンモグラフィ画像の第1ターゲット特徴を抽出し、画像処理モデルの第2被処理マンモグラフィ画像に対応する第2特徴抽出ネットワークを介して、第2被処理マンモグラフィ画像の第2ターゲット特徴を抽出する。
ステップS906bにおいて、第1ターゲット特徴および第2ターゲット特徴を、順次に、画像処理モデルの畳み込み層で畳み込んで、画像処理モデルのプーリング層でプーリングして、中間特徴を取得する。
ステップS908bにおいて、画像処理モデルの全結合層を介して中間特徴を分類して、検査されるべき***に対応する分類結果を決定する。
本実施例における各技術的特徴に対する具体的な限定は、前述の対応する技術的特徴に対する限定と同じであってもよく、ここでは繰り返して説明しないことを留意されたい。
前述した各実施例に関するフローチャートにおける各ステップが、矢印で示されるように順番に表示されているが、合理的な条件下では、これらのステップは、必ずしも矢印で示される順序で実行されるわけではないことを理解されたい。本明細書で明記されていない限り、これらのステップの実行は厳密な順序に限定されず、これらのステップは他の順序で実行できる。また、各フローチャートにおけるステップの少なくとも一部は、複数のサブステップまたは複数の段階を含むことができる。これらのサブステップまたは段階は、必ずしも同時に実行される必要はなく、異なる時間に実行されてもよい。これらのサブステップまたは段階の実行順序も、必ずしも順次に実行される必要はなく、他のステップ、または他のステップのサブステップまたは段階の少なくとも一部と、順番にまたは交互に実行できる。
一実施例では、図10に示されるように、画像処理装置1000を開示する。当該装置は、コンピュータ機器に搭載され、以下のモジュール1002~1006を備えることができる。
被処理画像取得モジュール1002は、少なくとも2枚の被処理画像を取得するように構成され、被処理画像は、同一の目標対象を異なる撮像角度で収集することによって形成される。
ターゲット特徴取得モジュール1004は、画像処理モデルにおける、被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、各特徴抽出ネットワークにそれぞれ対応する被処理画像のターゲット特徴を抽出するように構成され、各特徴抽出ネットワークは、各撮像角度に対応する画像の特徴を抽出する。
分類結果決定モジュール1006は、各ターゲット特徴に従って、目標対象に対応する分類結果を決定するように構成される。
上記の画像処理装置1000は、異なる撮像角度で同じ目標対象を撮ることによってそれぞれ形成される少なくとも2枚の被処理画像を取得し、画像処理モデルにおける、被処理画像にそれぞれ対応する特徴抽出ネットワークによって、各特徴抽出ネットワークに対応する被処理画像のターゲット特徴をそれぞれ抽出し、さらに、各ターゲット特徴に従って目標対象に対応する分類結果を決定する。一方では、機械学習モデルによって被処理画像の特徴を自動的に学習することにより、人の関与を必要とせずに分類結果を取得できるため、処理効率と精度が向上する。他方では、同一の目標対象を異なる撮像角度で収集することによって形成される被処理画像を組み合わせて分類結果を共同で決定することにより、分類精度を効果的に向上させることができる。
一実施例では、分類結果決定モジュール1006は、画像処理モデルの全結合層を介して、各ターゲット特徴を分類して、目標対象に対応する分類結果を決定するように構成されてもよい。
一実施例では、画像処理装置1000は、中間特徴取得モジュールをさらに備えてもよく、前記中間特徴取得モジュールは、各ターゲット特徴を、順次に、画像処理モデルの畳み込み層で畳み込んで、画像処理モデルのプーリング層でプーリングして、中間特徴を取得するように構成される。それに応じて、分類結果決定モジュール1006は、画像処理モデルの全結合層を介して、中間特徴に従って分類して、目標対象に対応する分類結果を取得するように構成されてもよい。
一実施例では、画像処理装置1000は、モデルトレーニングモジュールをさらに備えてもよく、当該モデルトレーニングモジュールは、少なくとも2つのグループの全体画像サンプルを取得するように構成される全体サンプル取得ユニットであって、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成される全体サンプル取得ユニットと、各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するように構成される中間ネットワークトレーニングユニットと、各中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築するように構成されるニューラルネットワーク構築ユニットと、各グループの全体画像サンプルに従って、第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定するように構成される画像処理モデルトレニンーグユニットとを備えてもよい。
一実施例では、モデルトレーニングモジュールは、第1初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第1初期パラメータを取得するように構成される第1初期パラメータ取得ユニットと、第1初期パラメータに従って、第1被トレーニングニューラルネットワークを決定するように構成される第1トレーニングされるネットワーク決定ユニットとをさらに備えてもよい。
一実施例では、モデルトレーニングモジュールは、サンプル対象を含む目標領域の局部画像サンプルを取得するように構成される局部サンプル取得ユニットと、第2初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第2初期パラメータを取得するように構成される第2初期パラメータ取得ユニットと、局部画像サンプルおよび第2初期パラメータに従って、第2初期ニューラルネットワーク対してモデルトレーニングを実行して、第1被トレーニングニューラルネットワークを決定するように構成される第2トレーニングされるネットワーク決定ユニットとをさらに備えてもよい。
一実施例では、局部画像サンプルは医用画像サンプルを含んでもよく、目標領域は病変領域を含んでもよい。
一実施例では、被処理画像は医用画像を含んでもよい。
一実施例では、少なくとも2枚の被処理画像は、頭尾方向で***を撮ることによって形成されるマンモグラフィ画像、および中外側斜位方向で***を撮ることによって形成されるマンモグラフィ画像を含んでもよい。
画像処理装置の具体的な限定については、上記の画像処理方法の限定を参照でき、ここでは繰り返して説明しないことを留意されたい。上記の画像処理装置における各モジュールは、全体的または部分的に、ソフトウェア、ハードウェア、およびそれらの組み合わせによって実現できる。上記の各モジュールは、ハードウェアの形で、コンピュータ機器のプロセッサに集積されるか、またはコンピュータ機器内のプロセッサから独立していてもよく、プロセッサが上記の各モジュールに対応する操作を呼び出して実行できるようにするために、ソフトウェアの形でコンピュータ機器のメモリに記憶されてもよい。
一実施例では、図11に示されるように、モデルトレーニング装置1100を開示する。当該装置はコンピュータ機器に搭載され、以下のモジュール1102~1108を備えることができる。
全体サンプル取得モジュール1102は、少なくとも2つのグループの全体画像サンプルを取得するように構成され、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成される。
中間ネットワークトレーニングモジュール1104は、各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するように構成される。
ニューラルネットワーク構築モジュール1106は、各中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築するように構成される。
画像処理モデルトレーニングモジュール1108は、各グループの全体画像サンプルに従って、第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定するように構成される。
一実施例では、モデルトレーニング装置1100は、第1初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第1初期パラメータを決定するように構成される第1初期パラメータ取得モジュールと、第1初期パラメータに従って、第1被トレーニングニューラルネットワークを決定するように構成される第1トレーニングされるネットワーク決定モジュールとをさらに備えてもよい。
一実施例では、モデルトレーニング装置1100は、サンプル対象を含む目標領域の局部画像サンプルを取得するように構成される局部サンプル取得モジュールと、第2初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第2初期パラメータを決定するように構成される第2初期パラメータ取得モジュールと、局部画像サンプルおよび第2初期パラメータに従って、第2初期ニューラルネットワークに対してモデルトレーニングを実行して、第1被トレーニングニューラルネットワークを決定するように構成される第2トレーニングされるネットワーク決定モジュールとをさらに備えてもよい。
一実施例では、局部画像サンプルは医用画像サンプルを含んでもよく、目標領域は病変領域を含んでもよい。
モデルトレーニング装置の具体的な限定については、上記のモデルトレーニング方法の限定を参照でき、ここでは繰り返して説明しないことを留意されたい。上記のモデルトレーニング装置における各モジュールは、全体的または部分的に、ソフトウェア、ハードウェア、およびそれらの組み合わせによって実現できる。上記の各モジュールは、ハードウェアの形で、コンピュータ機器のプロセッサに集積されるか、またはコンピュータ機器内のプロセッサから独立していてもよく、プロセッサが上記の各モジュールに対応する操作を呼び出して実行できるようにするために、ソフトウェアの形でコンピュータ機器のメモリに記憶されてもよい。
一実施例では、メモリと、プロセッサとを備えるコンピュータ機器を開示し、コンピュータプログラムが当該メモリに記憶され、当該プロセッサがコンピュータプログラムを実行すると、本願の任意の実施例で開示された画像処理方法および/またはモデルトレーニング方法におけるステップを実現する。
一実施例では、当該コンピュータ機器は、図1に示される端末110であってもよく、その内部構造図は、図12に示される通りであってもよい。当該コンピュータ機器は、システムバスを介して接続されたプロセッサ、メモリ、ネットワークインターフェース、表示画面および入力装置を含んでもよい。ここで、当該プロセッサは、計算機能と制御機能を提供するために使用される。当該メモリは、不揮発性記憶媒体および内部メモリを含んでもよく、オペレーティングシステムおよびコンピュータプログラムが当該不揮発性記憶媒体に記憶され、当該内部メモリは、不揮発性記憶媒体に記憶されたオペレーティングシステムおよびコンピュータプログラムの動作のための環境を提供し、当該コンピュータプログラムがプロセッサによって実行されると、画像処理方法および/またはモデルトレーニング方法を実現する。当該ネットワークインターフェースは、ネットワーク接続を介して外部端末と通信するために使用される。当該表示画面は、液晶表示画面であってもよいし、電子インク表示画面であってもよい。当該コンピュータ機器の入力装置は、表示画面に覆われたタッチ層であってもよいし、コンピュータ機器のハウジングに設けられたボタン、トラックボールまたはタッチパッドであってもよいし、外部接続されたキーボード、タッチパッドまたはマウスなどであってもよい。
一実施例では、当該コンピュータ機器は、図1に示されるサーバ120であってもよく、その内部構造図は、図12に示される通りであってもよい。当該コンピュータ機器は、システムバスを介して接続されたプロセッサ、メモリ、ネットワークインターフェース、およびデータベースを含んでもよい。ここで、当該プロセッサは、計算機能と制御機能を提供するために使用される。当該メモリは、不揮発性記憶媒体および内部メモリを含んでもよく、オペレーティングシステム、コンピュータプログラム、およびデータベースが当該不揮発性記憶媒体に記憶され、当該内部メモリは、不揮発性記憶媒体に記憶されたオペレーティングシステムおよびコンピュータプログラムの動作のための環境を提供する。当該データベースは、画像サンプルを記憶するために使用される。当該ネットワークインターフェースは、ネットワーク接続を介して外部端末と通信するために使用される。当該コンピュータプログラムがプロセッサによって実行されると、画像処理方法および/またはモデルトレーニング方法を実現する。
当業者なら自明であるが、図12および図13に示される構造は、本願の解決策に関連する構造の一部のブロック図にすぎず、本願の解決策が適用されるコンピュータ機器に対する限定を構成しない。具体的なコンピュータ機器は、図に示されるよりも多いまたは少ないコンポーネントを含んでもよいか、または特定のコンポーネントを組み合わせてもよいか、または異なるコンポーネント配置を有してもよい。
一実施例では、本願で開示された画像処理装置は、コンピュータプログラムの形で実現されてもよく、コンピュータプログラムは、図12または図13に示されるコンピュータ機器で実行されてもよい。コンピュータ機器のメモリは、当該画像処理装置を構成する各プログラムモジュール、例えば、図10に示される被処理画像のために画像取得モジュール1002、ターゲット特徴取得モジュール1004、および分類結果決定モジュール1006を記憶できる。各プログラムモジュールで構成されるコンピュータプログラムは、プロセッサに、本明細書で説明される本願の各実施例の画像処理方法におけるステップを実行させる。例えば、図12または図13に示されるコンピュータ機器は、図10に示される画像処理装置の被処理画像取得モジュール1002を介してステップS202を実行したり、ターゲット特徴取得モジュール1004を介してステップS204を実行したり、分類結果決定モジュール1006を介してステップS206を実行したりすることができる。
一実施例では、本願で開示されたモデルトレーニング装置は、コンピュータプログラムの形で実現されてもよく、コンピュータプログラムは、図12または図13に示されるコンピュータ機器で実行されてもよい。コンピュータ機器のメモリは、当該モデルトレーニング装置を構成する各プログラムモジュール、例えば、図11に示される全体サンプル取得モジュール1102、中間ネットワークトレーニングモジュール1104、ニューラルネットワーク構築モジュール1106、および画像処理モデルトレーニングモジュール1108を記憶できる。各プログラムモジュールで構成されるコンピュータプログラムは、プロセッサに、本明細書で説明される本願の各実施例のモデルトレーニング方法におけるステップを実行させる。例えば、図12または図13に示されるコンピュータ機器は、図11に示されるモデルトレーニング装置の全体サンプル取得モジュール1102を介してステップS802を実行したり、中間ネットワークトレーニングモジュール1104を介してステップS804を実行したり、ニューラルネットワーク構築モジュール1106を介してステップS806を実行したり、画像処理モデルトレーニングモジュール1108を介してステップS808を実行したりすることができる。
当業者なら自明であるが、上述の実施例における各方法において、その全部又は一部のプロセスが、関連のハードウェアに、コンピュータプログラムによる命令で、実行されることができる。前記プログラムは、コンピュータ可読記憶媒体に記憶されてもよく、当該プログラムが実行されるときに、上述した各方法の実施例におけるプロセスを実行することができる。ここで、本願の各実施例で任意に引用するメモリ、ストレージ、データベースまたは他の媒体は、すべて不揮発性および/または揮発性メモリを含み得る。不揮発性メモリは、読み取り専用メモリ(ROM)、プログラム可能な読み取り専用メモリ(PROM)、電気的なプログラムが可能なROM(EPROM)、電気的な消去/プログラムが可能なROM(EEPROM)またはフラッシュメモリを含んでもよい。揮発性メモリは、ランダムアクセスメモリ(RAM)または外部キャッシュメモリを含んでもよい。限定的ではない例として、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、拡張型SDRAM(ESDRAM)、同期接続(Synchlink)DRAM(SLDRAM)、メモリバス(Rambus)ダイレクトRAM(RDRAM)、ダイレクトメモリバスダイナミックRAM(DRDRAM)、およびメモリバス(Rambus)ダイナミックRAM(RDRAM)など、様々な形のRAMが利用可能であり得る。
したがって、一実施例では、コンピュータ可読記憶媒体を提供し、コンピュータプログラムが前記コンピュータ可読記憶媒体に記憶され、前記コンピュータプログラムがプロセッサによって実行されるときに、本願の任意の実施例による画像処理方法および/またはモデルトレーニング方法を実現する。
上記の実施例における技術的特徴を任意に組み合わせることができる。説明を簡潔にするために、前述の実施例における様々な技術的特徴のすべての可能な組み合わせについては説明されていないが、これらの技術的特徴の組み合わせに矛盾がない限り、すべて本明細書の範囲に含まれると見なすべきである。
以上に述べた実施例は、本願のいくつかの実施形態のみを表し、それらについて、より具体的かつ詳細に説明したが、本願の保護範囲を限定するものとして解釈されるべきではない。当業者なら本願の技術的な発想を逸脱せずに改良又は改善を加えることもできる。これらの改良及び改善も本願の保護範囲に含まれる。したがって、本願の保護範囲は、添付の特許請求の範囲を基準とすべきである。

Claims (14)

  1. コンピュータ機器が実行する、画像処理方法であって、
    少なくとも2枚の被処理画像を取得するステップであって、前記被処理画像は、同一の目標対象を異なる撮像角度で収集することによってそれぞれ形成される、ステップと、
    画像処理モデルにおける、前記被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、前記特徴抽出ネットワークに対応する前記被処理画像のターゲット特徴をそれぞれ抽出するステップであって、前記特徴抽出ネットワークは、各撮像角度に対応する画像の特徴を抽出するために使用される、ステップと、
    前記ターゲット特徴に従って、前記目標対象に対応する分類結果を決定するステップと、
    を含み、
    前記画像処理モデルを決定する方式は、
    少なくとも2つのグループの全体画像サンプルを取得するステップであって、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成される、ステップと、
    各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するステップと、
    前記中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築するステップと、
    各グループの全体画像サンプルに従って、前記第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、前記画像処理モデルを決定するステップと、
    を含むことを特徴とする、画像処理方法。
  2. 前記ターゲット特徴に従って、前記目標対象に対応する分類結果を決定する前記ステップは、
    前記ターゲット特徴を、順次に、前記画像処理モデルの畳み込み層で畳み込んで、前記画像処理モデルのプーリング層でプーリングして、中間特徴を取得するステップと、
    前記画像処理モデルの全結合層を介して、前記中間特徴に従って、前記目標対象に対応する分類結果を決定するステップと、
    を含むことを特徴とする、請求項1に記載の画像処理方法。
  3. 前記各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定する前に、前記方法は、
    第1初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第1初期パラメータを取得するステップと、
    前記第1初期パラメータに従って、第1被トレーニングニューラルネットワークを決定するステップと、
    を更に含むことを特徴とする、請求項1又は2に記載の画像処理方法。
  4. 前記各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定する前に、前記方法は、
    サンプル対象を含む目標領域の局部画像サンプルを取得するステップと、
    第2初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第2初期パラメータを取得するステップと、
    前記局部画像サンプルおよび前記第2初期パラメータに従って、前記第2初期ニューラルネットワークに対してモデルトレーニングを実行して、前記第1被トレーニングニューラルネットワークを取得するステップと、
    を更に含むことを特徴とする、請求項1又は2に記載の画像処理方法。
  5. 前記局部画像サンプルは医用画像サンプルを含み、前記目標領域は病変領域を含む
    ことを特徴とする、請求項に記載の画像処理方法。
  6. 前記被処理画像は医用画像を含み、
    前記少なくとも2枚の被処理画像は、頭尾方向で***を撮ることによって形成されるマンモグラフィ画像、および内外斜位方向で前記***を撮ることによって形成されるマンモグラフィ画像を含む
    ことを特徴とする、請求項1ないしのいずれか一項に記載の画像処理方法。
  7. コンピュータ機器が実行する、モデルトレーニング方法であって、
    少なくとも2つのグループの全体画像サンプルを取得するステップであって、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成される、ステップと、
    各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するステップと、
    前記中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築するステップと、
    各グループの全体画像サンプルに従って、前記第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定するステップと、
    を含むことを特徴とする、モデルトレーニング方法。
  8. 前記各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定する前に、前記方法は、
    第1初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第1初期パラメータを取得し、前記第1初期パラメータに従って、第1被トレーニングニューラルネットワークを決定するステップ、または、
    サンプル対象を含む目標領域の局部画像サンプルを取得し、第2初期ニューラルネットワークに対してパラメータ初期化処理を実行して、第2初期パラメータを取得し、前記局部画像サンプルおよび前記第2初期パラメータに従って、前記第2初期ニューラルネットワークに対してモデルトレーニングを実行して、前記第1被トレーニングニューラルネットワークを決定するステップ
    を更に含むことを特徴とする、請求項に記載のモデルトレーニング方法。
  9. 前記局部画像サンプルは医用画像サンプルを含み、前記目標領域は病変領域を含む
    ことを特徴とする、請求項に記載のモデルトレーニング方法。
  10. コンピュータ機器に設置される、画像処理装置であって、
    少なくとも2枚の被処理画像を取得するように構成される被処理画像取得モジュールであって、前記被処理画像は、同一の目標対象を異なる撮像角度で収集することによってそれぞれ形成される、被処理画像取得モジュールと、
    画像処理モデルにおける、前記被処理画像にそれぞれ対応する特徴抽出ネットワークを介して、前記特徴抽出ネットワークに対応する前記被処理画像のターゲット特徴をそれぞれ抽出するように構成されるターゲット特徴取得モジュールであって、前記特徴抽出ネットワークは、各撮像角度に対応する画像の特徴を抽出するために使用される、ターゲット特徴取得モジュールと、
    前記ターゲット特徴に従って、前記目標対象に対応する分類結果を決定するように構成される分類結果決定モジュールと、
    を備え
    モデルトレーニングモジュールであって、
    少なくとも2つのグループの全体画像サンプルを取得し、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成され、
    各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定し、
    前記中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築し、
    各グループの全体画像サンプルに従って、前記第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、前記画像処理モデルを決定する、モデルトレーニングモジュールと、
    を含むことを特徴とする、画像処理装置。
  11. コンピュータ機器に設置される、モデルトレーニング装置であって、
    少なくとも2つのグループの全体画像サンプルを取得するように構成される全体サンプル取得モジュールであって、各グループの全体画像サンプルは、サンプル対象を異なる撮像角度で収集することによってそれぞれ形成される、全体サンプル取得モジュールと、
    各グループの全体画像サンプルに従って、第1被トレーニングニューラルネットワークに対してモデルトレーニングをそれぞれ実行して、各グループの全体画像サンプルにそれぞれ対応する中間特徴抽出ネットワークを決定するように構成される中間ネットワークトレーニングモジュールと、
    前記中間特徴抽出ネットワークに従って、第2被トレーニングニューラルネットワークを構築するように構成されるニューラルネットワーク構築モジュールと、
    各グループの全体画像サンプルに従って、前記第2被トレーニングニューラルネットワークに対してモデルトレーニングを実行して、画像処理モデルを決定するように構成される画像処理モデルトレーニングモジュールと、
    を備えることを特徴とする、モデルトレーニング装置。
  12. コンピュータプログラムであって、
    コンピュータに、請求項1ないしのいずれか1項に記載の画像処理方法を実行させる、コンピュータプログラム。
  13. コンピュータプログラムであって、
    コンピュータに、請求項ないしのいずれか1項に記載のモデルトレーニング方法を実行させる、コンピュータプログラム。
  14. コンピュータプログラムが記憶されたメモリと、プロセッサとを備える、コンピュータ機器であって、
    前記コンピュータプログラムは、前記プロセッサにより実行されると、前記コンピュータ機器に請求項1ないしのいずれか1項に記載の方法を実行させる
    ことを特徴とする、コンピュータ機器。
JP2020562214A 2018-08-23 2019-08-08 画像処理方法、装置、コンピュータプログラム、並びにコンピュータ機器 Active JP7112519B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201810967559.X 2018-08-23
CN201810967559.XA CN110008971B (zh) 2018-08-23 2018-08-23 图像处理方法、装置、计算机可读存储介质及计算机设备
PCT/CN2019/099859 WO2020038240A1 (zh) 2018-08-23 2019-08-08 图像处理方法、装置、计算机可读存储介质及计算机设备

Publications (2)

Publication Number Publication Date
JP2021524083A JP2021524083A (ja) 2021-09-09
JP7112519B2 true JP7112519B2 (ja) 2022-08-03

Family

ID=67164831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020562214A Active JP7112519B2 (ja) 2018-08-23 2019-08-08 画像処理方法、装置、コンピュータプログラム、並びにコンピュータ機器

Country Status (4)

Country Link
US (1) US11604949B2 (ja)
JP (1) JP7112519B2 (ja)
CN (1) CN110008971B (ja)
WO (1) WO2020038240A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110008971B (zh) 2018-08-23 2022-08-09 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机可读存储介质及计算机设备
CN110570419A (zh) * 2019-09-12 2019-12-13 杭州依图医疗技术有限公司 特征信息的获取方法、装置和存储介质
CN111291825B (zh) * 2020-02-25 2024-05-07 平安科技(深圳)有限公司 病灶分类模型训练方法、装置、计算机设备和存储介质
CN111325830B (zh) * 2020-02-28 2023-01-31 北京市商汤科技开发有限公司 图像处理方法、装置、电子设备及存储介质
CN111401387B (zh) * 2020-03-10 2023-09-19 腾讯科技(深圳)有限公司 异常样本构建方法、装置、计算机设备和存储介质
CN112102230A (zh) * 2020-07-24 2020-12-18 湖南大学 超声切面识别方法、***、计算机设备和存储介质
CN112651960A (zh) * 2020-12-31 2021-04-13 上海联影智能医疗科技有限公司 一种图像处理方法、装置、设备及存储介质
CN116997907A (zh) * 2021-03-12 2023-11-03 高通股份有限公司 用于个性化神经网络模型的分布外检测
CN113034489B (zh) * 2021-04-16 2022-11-01 南方医科大学第五附属医院 基于深度学习的人工智能鼻窦ct图像处理***
US11436438B1 (en) * 2021-05-07 2022-09-06 Sas Institute Inc. Tabular data generation for machine learning model training system
US11531907B2 (en) * 2021-05-07 2022-12-20 Sas Institute Inc. Automated control of a manufacturing process
US20220366233A1 (en) * 2021-05-11 2022-11-17 Capital One Services, Llc Systems and methods for generating dynamic conversational responses using deep conditional learning
CN114283290B (zh) * 2021-09-27 2024-05-03 腾讯科技(深圳)有限公司 图像处理模型的训练、图像处理方法、装置、设备及介质
CN114049937B (zh) * 2021-11-22 2024-07-23 上海商汤善萃医疗科技有限公司 图像评测方法及相关装置、电子设备和存储介质
CN114403925A (zh) * 2022-01-21 2022-04-29 山东黄金职业病防治院 一种乳腺癌超声检测***

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203488A (zh) 2016-07-01 2016-12-07 福州大学 一种基于受限玻尔兹曼机的乳腺图像特征融合方法
CN108229291A (zh) 2017-07-28 2018-06-29 北京市商汤科技开发有限公司 特征点检测、网络训练方法、装置、电子设备和存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8634622B2 (en) * 2008-10-16 2014-01-21 Icad, Inc. Computer-aided detection of regions of interest in tomographic breast imagery
US10346982B2 (en) * 2016-08-22 2019-07-09 Koios Medical, Inc. Method and system of computer-aided detection using multiple images from different views of a region of interest to improve detection accuracy
CN106682435B (zh) * 2016-12-31 2021-01-29 西安百利信息科技有限公司 一种多模型融合自动检测医学图像中病变的***及方法
CN107169527B (zh) * 2017-06-06 2020-04-03 西北工业大学 基于协同深度学习的医学图像分类方法
CN107437245B (zh) * 2017-06-26 2020-10-20 西南交通大学 基于深度卷积神经网络的高速铁路接触网故障诊断方法
WO2019002474A1 (en) * 2017-06-28 2019-01-03 Deepmind Technologies Limited GENERALIZED MEDICAL IMAGING ANALYSIS USING NEURONAL SEGMENTATION AND CLASSIFICATION NETWORKS
CN107492099B (zh) * 2017-08-28 2021-08-20 京东方科技集团股份有限公司 医学图像分析方法、医学图像分析***以及存储介质
CN107665352A (zh) * 2017-09-07 2018-02-06 浙江工业大学 一种基于多通道残差网络的珍珠分类方法
CN107748900B (zh) * 2017-11-08 2020-09-25 山东财经大学 基于区分性卷积神经网络的乳腺肿瘤分类装置和存储介质
CN107977971A (zh) * 2017-11-09 2018-05-01 哈尔滨理工大学 基于卷积神经网络的椎骨定位的方法
CN108182441B (zh) * 2017-12-29 2020-09-18 华中科技大学 平行多通道卷积神经网络、构建方法及图像特征提取方法
CN108288035A (zh) * 2018-01-11 2018-07-17 华南理工大学 基于深度学习的多通道图像特征融合的人体动作识别方法
CN108304873B (zh) * 2018-01-30 2020-09-11 深圳市国脉畅行科技股份有限公司 基于高分辨率光学卫星遥感影像的目标检测方法及其***
CN110008971B (zh) * 2018-08-23 2022-08-09 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机可读存储介质及计算机设备

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203488A (zh) 2016-07-01 2016-12-07 福州大学 一种基于受限玻尔兹曼机的乳腺图像特征融合方法
CN108229291A (zh) 2017-07-28 2018-06-29 北京市商汤科技开发有限公司 特征点检测、网络训练方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
CN110008971B (zh) 2022-08-09
JP2021524083A (ja) 2021-09-09
US11604949B2 (en) 2023-03-14
WO2020038240A1 (zh) 2020-02-27
CN110008971A (zh) 2019-07-12
US20210019551A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
JP7112519B2 (ja) 画像処理方法、装置、コンピュータプログラム、並びにコンピュータ機器
US10706333B2 (en) Medical image analysis method, medical image analysis system and storage medium
KR101857624B1 (ko) 임상 정보를 반영한 의료 진단 방법 및 이를 이용하는 장치
Liu et al. Deep learning in medical ultrasound analysis: a review
Labhane et al. Detection of pediatric pneumonia from chest X-ray images using CNN and transfer learning
US11651850B2 (en) Computer vision technologies for rapid detection
Wang et al. Automated interpretation of congenital heart disease from multi-view echocardiograms
CN111368849B (zh) 图像处理方法、装置、电子设备及存储介质
Sharma et al. Medical image classification techniques and analysis using deep learning networks: a review
WO2022028127A1 (zh) 基于人工智能的病理图像处理方法、装置、电子设备及存储介质
CN111815766B (zh) 基于2d-dsa图像重建血管三维模型处理方法及***
CN111325266B (zh) 乳腺钼靶图像中微钙化簇的检测方法、装置和电子设备
WO2023044605A1 (zh) 极端环境下脑结构的三维重建方法、装置及可读存储介质
US20240185428A1 (en) Medical Image Analysis Using Neural Networks
CN110570394A (zh) 医学图像分割方法、装置、设备及存储介质
CN110827283B (zh) 基于卷积神经网络的头颈血管分割方法及装置
Zhang et al. LungSeek: 3D Selective Kernel residual network for pulmonary nodule diagnosis
Ilesanmi et al. Organ segmentation from computed tomography images using the 3D convolutional neural network: a systematic review
CN105976321B (zh) 一种光学相干断层图像超分辨率重建方法和装置
Jiang et al. A hybrid enhanced attention transformer network for medical ultrasound image segmentation
Bondfale et al. Convolutional neural network for categorization of lung tissue patterns in interstitial lung diseases
Türk et al. Machine learning of kidney tumors and diagnosis and classification by deep learning methods
CN114902283A (zh) 用于光学相干断层扫描分割的深度学习
CN112037237B (zh) 一种图像处理方法、装置、计算机设备及介质
Dhoundiyal et al. Harnessing CNNs for Accurate Skin Disease Identification

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220722

R150 Certificate of patent or registration of utility model

Ref document number: 7112519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150