JP7402248B2 - 深層神経網モデルの学習に用いられる学習データに基づいて対象データの品質パターンを変換する方法、装置およびプログラム - Google Patents

深層神経網モデルの学習に用いられる学習データに基づいて対象データの品質パターンを変換する方法、装置およびプログラム Download PDF

Info

Publication number
JP7402248B2
JP7402248B2 JP2021556444A JP2021556444A JP7402248B2 JP 7402248 B2 JP7402248 B2 JP 7402248B2 JP 2021556444 A JP2021556444 A JP 2021556444A JP 2021556444 A JP2021556444 A JP 2021556444A JP 7402248 B2 JP7402248 B2 JP 7402248B2
Authority
JP
Japan
Prior art keywords
data
target data
neural network
deep neural
network model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021556444A
Other languages
English (en)
Other versions
JP2022526126A (ja
Inventor
ペ、ウン
- ウク ペ、ビョン
チョン、ミンギ
パク、ボムヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vuno Inc
Original Assignee
Vuno Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vuno Inc filed Critical Vuno Inc
Publication of JP2022526126A publication Critical patent/JP2022526126A/ja
Application granted granted Critical
Publication of JP7402248B2 publication Critical patent/JP7402248B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/096Transfer learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

この開示書は、一群の学習データを用いて訓練された深層神経網モデルが、この一群とは異なる品質パターンを有する対象データに対しても優れた再現性能を得られるように、その再現性能を改善する方法及びそれを用いた装置に関する。この開示書による方法によれば、コンピューティング装置は、対象データを得、学習データから選別された参照データを含む学習データの代表群から対象データとの類似度が最も高い少なくとも一つの候補データを読み出し(又は検索し;retrieve)、候補データに適合化(adaptation)されるように対象データに対する適応的パターン変換を行って、適応的パターン変換の結果である変換データを深層神経網モデルに伝達するように支援することにより、深層神経網モデルから出力値を得ることができる。
ほとんどの医療映像(X線映像、CT、MRI映像、眼底画像、病理映像など)が有する様々な品質パターン{製造業体、医療専門家の映像選好度の差、人種間の差及び被検体の状態(例えば、肥満有無、手術有無)、撮影環境などによって異なる様相を指す}によって、すでに訓練された同一の深層神経網モデルの性能差が大きいが、これは解決すべき不安定さである。
図1を参照すると、まず学習データ110aを用いてどの深層神経網モデル120が学習データ110aに対して正しい結果130aを出すように訓練されると、その学習データとは異なる品質パターンを有する入力データ110bに対しては深層神経網モデル120が間違った結果130bを出す場合にそのように不安定さが見られるといえる。入力データ110bが学習データ110aとは特徴上異なる分布を有する場合もこのように異なる品質パターンを有するといえる。
より具体的には、非常に様々な医療映像の品質パターンの全てに対する深層神経網モデルはほぼ不可能であり、これは一つの品質パターンを有する一群の学習データに対して訓練された深層神経網モデルが異なる品質パターンを有するデータに対してはその分類性能が低下する原因となる。異なる品質パターンを有する機関別、国家別のデータを一つ一つ合わせる作業は非常に非効率的であり、多い費用がかかる。事実上、全ての映像の品質パターンを把握することはできないので、いつもデータ品質に対する不確実性(uncertainty)が存在する。
かかる限界を克服するために、この発明では、深層神経網モデルの医療映像が有する様々なパターンの間の性能差を除去することにより、異なるパターンのデータに対しても再現性能を改善できる技術的方案を提示する。
この開示書は、様々な品質パターンの入力データに対して深層神経網モデルが安定した性能を発揮する方法及びそれを用いた装置を提供することを目的とする。
特に、この開示書は、機関によって異なる品質パターンを有する個別データに対して煩わしい合わせ作業を除去できる方法を提供することにより、深層神経網モデルを用いた業務効率を上げることを目的とする。
上述した本発明の目的を達成し、後述する本発明の特徴的な効果を実現するための本発明の特徴的な構成は以下の通りである。
本発明の一態様によると、一群の学習データを用いて訓練された深層神経網モデルの一群とは異なる品質パターン(qualitative pattern)を有する対象データに対する出力値の再現性能を改善する方法が提供される。この方法は、(a)対象データが得られた状態で、コンピューティング装置が、学習データから選別された参照データを含む学習データ代表群から対象データと類似度が最も高い少なくとも一つの候補データを読み出すか(retrieve)、又はコンピューティング装置に連動する他の装置をして候補データを読み出すように支援する段階;(b)コンピューティング装置が、候補データに適合化(adaptation)されるように対象データに対する適応的パターン変換を行うか、又は他の装置をして適応的パターン変換を行うように支援する段階;及び(c)コンピューティング装置が、適応的パターン変換の結果である変換データを深層神経網モデルに伝達するか、又は他の装置をして深層神経網モデルに伝達するように支援することにより、深層神経網モデルから出力値が得られる段階を含む。
本発明の他の態様によると、本発明による方法を実行するように具現された命令語(instructions)を含む、機械読み取り可能な非一時的記録媒体に格納された、コンピュータープログラムも提供される。
本発明のさらに他の態様によると、一群の学習データを用いて訓練された深層神経網モデルの一群とは異なる品質パターンを有する対象データに対する出力値の再現性能を改善するコンピューティング装置が提供される。この装置は、対象データを得る通信部;及びプロセッサを含み、このプロセッサは、(i)学習データから選別された参照データを含む学習データ代表群から対象データと類似度が最も高い少なくとも一つの候補データを読み出すか(retrieve)、又は通信部を介して連動する他の装置をして候補データを読み出すように支援する参照データ基盤の候補データ生成モジュールを具現するプロセス、候補データに適合化(adaptation)されるように対象データに対する適応的パターン変換を行うか、又は他の装置をして適応的パターン変換を行うように支援する適応的パターン変換モジュールを具現するプロセス、及び適応的パターン変換の結果である変換データを深層神経網モデルに伝達するか、又は他の装置をして深層神経網モデルに伝達するように支援することにより、深層神経網モデルから出力値を得るプロセスを行う。
本発明の方法及び装置によれば、様々な品質パターンの入力データに対して出力値を出す深層神経網モデルの再現性能を改善できるという効果がある。
この開示書による実施例の説明に利用されるために添付された以下の図面は、この開示書による実施例の一部に過ぎず、本発明が属する技術分野における通常の知識を有する者(以下、”通常の技術者”という)であれば、発明的作業がなくても、この図面に基づいて他の図面を得ることができる。
図1は深層神経網モデルの訓練に用いられた学習データとは異なる品質パターンを有する入力データに対して深層神経網モデルの性能が低下する従来技術の問題を概念的に示す図である。 図2はこの開示書の一実施例によって既に訓練された深層神経網モデルの異なる品質パターンを有する対象データに対する出力値の再現性能の改善方法(以下、"深層神経網モデルの再現性能改善方法"という)を行うコンピューティング装置の例示的な構成を概略的に示す概念図である。 図3はこの開示書の深層神経網モデルの再現性能改善方法を行うコンピューティング装置のハードウェア又はソフトウェア構成要素を例示するブロック図である。 図4はこの開示書の深層神経網モデルの再現性能改善方法によってデータが入力、処理された結果が出力される過程を概略的に示す模式図である。 図5はこの開示書の深層神経網モデルの再現性能改善方法を例示するフローチャートである。
後述する本発明についての詳しい説明は、本発明の目的、技術的解法及び長所を明らかにするために本発明が実施できる特定の実施例を例示する添付図面を参照する。
これらの実施例は、通常の技術者が本発明を十分に実施できるように詳しく説明する。
本発明の詳細な説明及び請求範囲の全般にわたって用いられる"画像"又は"画像データ"という用語は、離散的画像要素(例えば、2次元画像ではピクセル)で構成された多次元データを意味する。
即ち、(例えば、ビデオ画面に表示された)肉眼で確認することのできる対象又は(例えば、CT、MRI検出器などのピクセル出力に対応するファイルのような)その対象のデジタル表現物を意味する用語である。
例えば、"イメージ"又は"映像"はX線撮影、コンピューター断層撮影(CT;computed tomography)、磁気共鳴映像(MRI;magnetic resonance imaging)、超音波又は本発明の技術分野において公知された任意の他の医療映像システムにより収集された被検体(subject)の医療映像である。映像は必ず医療的脈絡で提供される必要はなく、非医療的脈絡で提供されてもよい。例えば、保安検索用X線撮影などであってもよい。
通常の技術者は、本発明の様々な実施例で用いられる映像形式がCT、PET(positron emission tomography)、PET-CT、SPECT、SPECT-CT、MR-PET、3D超音波映像などの2次元、3次元映像を含むが、このように例示的に列挙した形式に限定されないことを理解できるであろう。
またこの開示書では、説明の便宜のために、提示する図において、"学習データ"及び"対象データ"が映像データである場合を例示しているが、"学習データ"及び"対象データ"は映像データに限定されない。同様に、"映像データ"が医療映像である場合を例示しているが、"映像データ"は必ず医療映像データに限定される。
本発明の詳細な説明及び請求範囲において、'DICOM(Digital Imaging and Communications in Medicine;医療用デジタル映像及び通信)'標準は、医療用機器においてデジタル映像表現及び通信に用いられる色々な標準を総称する用語であり、DICOM標準はアメリカ放射線医学会(ACR)とアメリカ電気工業会(NEMA)で構成した連合委員会で発表する。
また、本発明の詳細な説明及び請求範囲において、'医療映像貯蔵送信システム(PACS;Picture Archiving and Communication System)'は、DICOM標準に合わせて貯蔵、加工、送信するシステムを称する用語であり、X線、CT、MRIのようなデジタル医療映像装備を用いて得られた医療映像はDICOM形式で貯蔵されてネットワークにより病院内外の端末に送信され、読み取り結果及び診療記録などが追加されることもできる。
また、この発明の詳しい説明及び請求範囲において、‘学習’或いは‘ラーニング’は手順によるコンピューティング(computing)により機械学習(machine learning)を行うことを意味するが、人間の教育活動のような精神的作用を意味するものではない。訓練(training)は機械学習に関して一般的に考えられる意味で使われている。例えば、'ディープラーニング'、'深層学習'は深層人工神経網を用いた機械学習を意味する。
また、この発明の詳しい説明及び請求範囲において、'含む'という単語及びその変形は、他の技術的特徴、付加物、構成要素又は段階を除外することを意図していない。また、'一つ'又は'一'は一つ以上という意味で使われており、'さらに他の'は少なくとも2回目以上に限定される。
通常の技術者には、本発明の他の目的、長所及び特性が一部はこの説明書から、他の一部は本発明の実施例から現れるであろう。以下の例示及び図面は実例として提供されたものであり、本発明を限定するものではない。従って、特定の構造や機能に関してこの明細書に開示された詳細事項は限定の意味に解釈されてはならず、ただ通常の技術者が実質的に適した任意の詳細構造として本発明を様々に実施できるガイドラインを提供する代表的な基礎資料として解釈すべきである。
さらに本発明は、この明細書に記載した実施例の全ての可能な組み合わせを網羅する。本発明の多様な実施例は互いに異なるが、相互排他的である必要はない。例えば、ここに記載されている特定の形状、構造及び特徴は、一実施例に関して本発明の思想及び範囲を外れずに他の実施例として具現されてもよい。また、それぞれの開示された実施例内の個別の構成要素の位置又は配置は、本発明の思想及び範囲を外れずに変更され得る。よって、後述する詳細な説明は限定的な意味で取られるのではなく、本発明の範囲は適切に説明されるのであれば、その請求範囲が主張するものと均等な全ての範囲と共に添付した請求範囲によってのみ限られる。図面において、類似した参照符号は様々な側面にわたって同一又は類似する機能を表す。
この明細書において、異なるように表示されるか明白に文脈に矛盾しない限り、単数に称された項目は、その文脈で異なるように要求されない限り、複数のものを併せる。また、本実施例を説明するにあたって、関連する公知の構成又は機能に対する具体的な説明が本実施例の要旨を曖昧にするものと判断される場合には、その詳細な説明を省略する。
以下、添付図面を参照しながら、通常の技術者が本発明を容易に実施できる好ましい実施例について詳しく説明する。
図2はこの開示書の一実施例による深層神経網モデルの再現性能改善方法を行うコンピューティング装置の例示的構成を概略的に示す概念図である。
図2を参照すると、本発明の一実施例によるコンピューティング装置200は、通信部210及びプロセッサ220を含み、通信部210を介して外部コンピューティング装置(図示せず)と直間接的に通信する。
より具体的には、コンピューティング装置200は、典型的なコンピューターハードウェア(例えば、コンピュータープロセッサ、メモリ、ストレージ、入力装置及び出力装置、その他の既存のコンピューティング装置の構成要素を含む装置;ルータ、スイッチなどの電子通信装置;ネットワーク付着ストレージ(NAS;network-attached storage)及びストレージ領域ネットワーク(SAN;storage area network)のような電子情報ストレージシステム)とコンピューターソフトウェア(即ち、コンピューティング装置をして特定の方式で機能するようにする命令語)の組み合わせを用いて所望のシステム性能を達成するものである。
このようなコンピューティング装置の通信部210は、連動する他のコンピューティング装置と要請及び応答を送受信することができ、一例として、かかる要請及び応答は同一のTCP(transmission control protocol)セクション(session)により実行されることもできるが、それに限定されるものではない。例えば、UDP(user datagram protocol)データグラム(datagram)として送受信されることもできる。さらに、広い意味で通信部210は命令語又は指示などを伝達するためのキーボード、マウス、その他の外部入力装置、プリンター、ディスプレイ、その他の外部出力装置を含む。
またコンピューティング装置のプロセッサ220は、MPU(micro processing unit)、CPU(central processing unit)、GPU(graphics processing unit)、NPU(neural processing unit)又はTPU(tensor processing unit)、キャッシュメモリ(cache memory)、データバス(data bus)などのハードウェア構成を含む。さらに運営体制、特定の目的を行うアプリケーションのソフトウェア構成を含むこともできる。
図3はこの開示書の深層神経網モデルの再現性能改善方法を行うコンピューティング装置のハードウェア又はソフトウェア構成要素を示す例示的なブロック図であり、図4はこの開示書の深層神経網モデルの再現性能改善方法によるデータが入力、処理されて結果が出力される過程を概略的に示す模式図である。
図3及び図4を参照して、この開示書による方法及び装置の構成を簡略に説明すると、コンピューティング装置200は、その構成要素としてデータ獲得モジュール310を含む。データ獲得モジュール310は、この開示書による方法が適用される入力データ、即ち、対象データ110bを得るように構成されるので、図3に示した個別モジュールは、例えば、コンピューティング装置200に含まれた通信部210やプロセッサ220、又は通信部210及びプロセッサ220の連動により具現されることを通常の技術者は理解できるであろう。
対象データ110bは、例えば、通信部210により連動する撮影機器又は医療映像格納送信システム(PACS)のような外部映像格納システムから得られる映像データであるが、これらに限定されない。対象データ110bは撮影機器により撮影された映像がDICOM標準によってPACSに送信された後、コンピューティング装置200のデータ獲得モジュール310により得られることもできる。
次に、その得られた対象データ110bは参照データ基盤の候補データ生成モジュール320に伝達されるが、このモジュール320は、深層神経網モジュール340の訓練に用いられた一群の学習データ110aから選別された参照データを含む学習データ代表群から対象データと類似度が最も高い少なくとも一つの候補データ110a’を読み出す(検索;retrieve)機能を行う。学習データ代表群の選別及び類似度基盤のデータ読み出しについての詳しくは後述する。
対象データ110bと類似する候補データ110a’を用いて、適応的パターン変換モジュール330は、対象データ110bが候補データ110a’に適合化されるように対象データ110bに対する適応的パターン変換を行うが、ここで適応的パターン変換は、候補データ110a’が有する品質パターンを対象データ110bが有するように対象データ110bを変換することを意味する。この適応的パターン変換の手段として用いられる構成の例示の詳しくは後述する。
対象データ110bに適応的パターン変換が行われた結果である変換データ110b'は深層神経網モジュール340の深層神経網モデルに伝達されることにより深層神経網モジュール340から出力値が得られる。
出力モジュール350は、その出力値を含む情報(例えば、対象データ、候補データ、変換データ、出力値及びその出力値の信頼度など)を外部エンティティ(external entity)に提供する。この情報は出力値の算出に主要な要因に該当する部位の視覚化情報と共に提供されることもできる。ここで、外部エンティティとは、この開示書による方法を行うコンピューティング装置200のユーザ、管理者、対象データ(入力データ)の出所となる自然人、その入力データを管理する担当者などを含むが、それ以外にも対象データから導き出された出力値の情報を必要とする主体であればどれでも含まれる。外部エンティティが人間であるときは、出力モジュール350は所定の出力装置、例えば、ディスプレイに表示されたユーザインターフェースにより出力値を含む情報を外部エンティティに提供することができる。
図3及び図4を参照しながら概略的に説明した各々の構成要素の具体的な機能及び効果に関しては、図5を参照して詳しく後述する。図3に示す構成要素は、説明の便宜上、一つのコンピューティング装置で実現されることが例示されているが、本発明の方法を行うコンピューティング装置200は複数の装置が互いに連動して構成されてもよい。
図5はこの開示書の深層神経網モデルの再現性能改善方法を例示するフローチャートである。
図5を参照すると、この開示書による深層神経網モデルの再現性能改善方法では、まず対象データ110bが例えば、コンピューティング装置200により具現されるデータ獲得モジュール310により得られた(S050)状態で、コンピューティング装置200により具現される参照データ基盤の候補データ生成モジュール320が、学習データ110aから選別された参照データを含む学習データ代表群から対象データ110bと類似度が最も高い少なくとも一つの候補データ110a’を読み出すか、又はコンピューティング装置200の通信部210を介して連動する他の装置をして候補データ110a’を読み出すように支援する段階(S100)を含む。ここで、類似度が最も高い少なくとも一つの候補データを読み出すことは、所定の第1閾値よりも高い複数の候補データを読み出す方式で行われる。
段階S100での類似度判定を行うための様々な手段が通常の技術者に知られている。例えば、類似度判定は、論文1:"Adnan Qayyum、Syed Muhammad Anwar、Muhammad Awais and Muhammad Majid. Medical image retrieval using deep convolutional neural network. Elsevier B.V. 2017;pp.1-13."に開示された深層学習基盤の映像読み出し(或いは検索)方式により行うことができ、これに限定されるものではない。例えば、類似度判定を論文2:"Yu-An Chung et al. Learning Deep Representations of Medical Images using Siamese CNNs with Application to Content-Based Image Retrieval"に開示された方式により行うこともできることを通常の技術者は理解できるであろう。
論文1での提案によれば、学習データを用いて訓練された深層神経網モデルから潜在特徴(latent feature)が抽出され、新しい対象データが入力されると、その訓練された深層神経網モデルとしてその対象データの潜在特徴も抽出される。そうすると、その潜在特徴の情報の間で類似度を比較することができ(例えば、L2距離のような距離比較により)、距離が短いほど類似度が大きいので、それらの値を整列して対象データと最も類似する学習データを得ることができる。もちろん、最も類似しない学習データを得ることができる。
参考として、最も類似する学習データと最も類似しない学習データを活用して深層神経網モデルをもっと堅固(robust)に訓練することもでき、それは論文2に提案されている。
段階(S100)において、参照データは特徴に対する類似度基準(similarity metric)に基づいて学習データ110aのうち、互いの類似度が所定の第2閾値よりも低いデータが選別されたものである{即ち、特徴空間(feature space)において各々の参照データが占める位置間の距離が遠い場合}。
他の例示として、参照データは、映像データの場合、ヒストグラム分布において互いの差が所定の第2閾値よりも高い映像データが選別されたものである。
このような参照データは、後述する適応的パターン変換が対象データ110bに対して正確に行われるように案内する役割をし、上述した例示に限定されない。例えば、人が直接選別した映像で構成されることもできる。
しかし、段階S100は、全ての参照データに対して対象データ110bと参照データの間の類似度が所定の第1閾値を下回ると、対象データ110bに対して参照するデータがなく、判定不能に分類されて終了するように構成することもできる。
次に、この開示書による深層神経網モデルの再現性能改善方法では、コンピューティング装置200により具現される適応的パターン変換モジュール330が、候補データ110a’に適合化されるように対象データに対する適応的パターン変換を行うか、又は他の装置をして適応的パターン変換を行うように支援する段階(S200)をさらに含む。
より具体的には、段階S200では、候補データ110a’、即ち、対象データ110bと類似する品質パターンを有する学習データと対象データ110bを用いて対象データ110bが学習データ110aが有する品質パターンを有するように適応的にパターンが変換することができる。
このような適応的パターン変換を行うための様々な手段が通常の技術者に知られている。例えば、論文3:"Luan et al. [2017]Fujun Luan、Sylvain Paris、Eli Shechtman、and Kavita Bala. Deep photo style transfer. In 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)、volume abs/1703.07511. IEEE、July 2017. doi:10.1109/cvpr.2017.740."に開示された深層学習基盤のスタイル転換(style transfer)、又は論文4:"Jun-Yan Zhu*、Taesung Park*、Phillip Isola、and Alexei A. Efros. "Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks"、in IEEE International Conference on Computer Vision (ICCV)、2017."に開示されたドメイン適合化(domain adaptation)により適応的パターン変換が行われることもできるが、これらに限られない。
ここで、スタイル転換とは、2つの映像データが与えられたとき、映像の主な形態は維持しながら、スタイルのみを変形することを意味する。このスタイル転換は、予め訓練された深層神経網を活用して特徴を抽出した後、潜在特徴が類似になるように最適化することにより行われるが、この過程において元本映像データの内容細目(content detail)が維持されるように局所のアフィン変換(local affine transform)のための損失項(loss term)がされに反映される。このようなスタイル転換を行う一つの手段は、通常の技術者にCycle-CAN(cycle-consistent adversarial network)という名称で知られている。
段階(S200)において、候補データが複数であると(例えば、所定の第1閾値に達した類似度を有する参照データが複数である場合)、品質パターンの変換時、深層神経網モデルによる潜在空間(latent space)上で候補データの組み合わせ又は平均値が反映される。言い換えれば、候補データの品質パターンは潜在空間上で候補データの組み合わせ又は平均値に基づく。ここで、潜在空間とは、潜在変数又は潜在特徴が表現される多次元を意味する。
段階(S200)において、適応的パターン変換の結果である変換データが生成されると、この開示書による深層神経網モデルの再現性能改善方法では、コンピューティング装置200が、変換データを深層神経網モジュール340の深層神経網モデルに伝達するか又は他の装置をして深層神経網モデルに伝達するように支援することにより、深層神経網モデルから出力値が得られる段階(S300)をさらに含む。
この出力値が有意味になるように、この開示書による深層神経網モデルの再現性能改善方法では、コンピューティング装置200により具現される出力モジュール350が、出力値を含む情報を外部エンティティに提供するか又は他の装置をして提供するように支援する段階(S400)をさらに含む。
以上、図2ないし図5を参照しながら説明したように、本発明の全ての実施例及び変形例によれば、一群のデータにより訓練された深層神経網モデルがその一群のデータとは異なる品質パターンを有する入力データに対して煩わしい品質合わせの手作業を行わずその性能を維持することができるという効果がある。本発明は特徴抽出及び類似度判定が可能な様々な形式のデータにも適用できることを理解できるであろう。
この実施例に関する説明に基づいて、該当技術分野の通常の技術者は、本発明の方法及び/又はプロセス、そしてその段階がハードウェア、ソフトウェア又は特定の用例に適するハードウェア及びソフトウェアの任意の組み合わせにより実現可能であることを明確に理解できる。ハードウェアは汎用のコンピュータ及び/又は専用のコンピューティング装置又は特定のコンピューティング装置又は特定のコンピューティング装置の特別な姿又は構成要素を含む。プロセスは内部及び/又は外部メモリを有する、1つ以上のマイクロプロセッサー、マイクロコントローラ、埋め込みマイクロコントローラ、プログラマブルデジタル信号プロセッサー又はその他のプログラマブル装置により実現される。さらに或いは代案として、複数のプロセスは注文型集積回路(application specific integrated circuit;ASIC)、プログラマブルゲートアレイ(programmable gate array)、プログラマブルアレイ論理(Programmable Array Logic;PAL)又は電子信号を処理するために構成される任意の他の装置又はこれらの装置の組み合わせにより実施される。さらに、本発明の技術的解法の対象物又は先行技術に寄与する部分は、多様なコンピュータ構成要素によって実行されることのできるプログラム命令語の形態で実現されて機械読み取り可能な記録媒体に記録されてよい。機械読み取り可能な記録媒体は、プログラム命令語、データファイル、データ構造などを単独又は組み合わせて含んでよい。機械読み取り可能な記録媒体に記録されるプログラム命令語は、実施例のために特別に設計されて構成されたものであっても、コンピュータソフトウェア分野の通常の技術者に公知の使用可能なものであってもよい。機械読み取り可能な記録媒体の例には、ハードディスク、フロッピーディスク、及び磁気テープのような磁気媒体、CD-ROM、DVD(商標登録第4231776号、同第4601073号参照)、Blu-ray(登録商標)のような光記録媒体、フロプティカルディスク(floptical disk)のような光磁気媒体(magneto-optical media)、及びROM、RAM、フラッシュメモリなどのようなプログラム命令語を記録して実行するように特別に構成されたハードウェア装置が含まれる。プログラム命令語の例には、上述した装置のうちのいずれか1つだけでなく、プロセッサ、プロセッサアーキテクチャ、又は相異するハードウェア及びソフトウェアの組み合わせによる異種結合、又は他のいずれかのプログラム命令語を実行することのできる機械上で実行されるために記録及びコンパイル又はインタプリタされることのできる、Cのような構造的プログラミング言語、C++のようなオブジェクト志向プログラミング言語、又は高級又は低級プログラミング言語(アセンブリ語、ハードウェア技術言語、及びデータベースプログラミング言語及び技術)を使用して生成されてよく、機械語コードやバイトコードはもちろん、インタプリタなどを使用してコンピュータによって実行されることのできる高級言語コードもこれに含まれる。
従って、本発明に係る一形態では、上述した方法及びその組み合わせが1つ以上のコンピュータ装置によって実行されるときに、その方法及び方法の組み合わせが各段階を実行させる実行可能なコードとして実施されてよい。他の一形態では、上記方法は、上記段階を実行するシステムによって実施されてよく、方法は、装置にわたって多様な状態に分散されても、全ての機能が1つの専用、独立型装置、又は他のハードウェアに統合されてもよい。さらに他の一形態では、上述したプロセスと関連する段階を実行する手段は、上述した任意のハードウェア及び/又はソフトウェアを含んでよい。このような全ての順次結合及び組み合わせは、本開示書の範囲内に属するように意図されたものである。
例えば、上述したハードウェア装置は、本発明による処理を実行するために1つ以上のソフトウェアモジュールとして作動するように構成されてよく、その逆も同じである。ハードウェア装置は、プログラム命令語を記録するためのROM/RAMのようなメモリと結合し、メモリに記録された命令語を実行するように構成されるMPU、CPU、GPU、TPUのようなプロセッサを含んでよく、外部装置と信号をやり取りすることのできる通信部を含んでよい。さらにハードウェア装置は、開発者によって作成された命令語を伝達するためのキーボード、マウス、又はその他の外部入力装置を含んでよい。
以上のように、本発明について、具体的な構成要素などのような特定の事項と限定された実施形態及び図面に基づいて説明したが、これは本発明のより全般的な理解を助けるために提供されたものに過ぎず、本発明がこのような実施形態に限定されてはならず、本発明が属する技術分野における通常の知識を有する者であれば、このような記載から多様な修正及び変形が可能であろう。
従って、本発明の思想は、上述の実施例に限定されて決まってはならず、この開示書に添付された特許請求の範囲だけでなく、この特許請求の範囲と均等かつ等価的な変形がある全てのものは本発明の思想の範疇に属するといえる。
このように均等であるか等価的に変形されたものには、例えば、本発明に係る方法を実施したときと同じ結果を導き出すことのできる、論理的に同値(logically equivalent)の方法が含まれてよく、本発明の真意及び範囲が上述した実施形態に制限されてはならず、法律に基づいて許容可能な最も広い意味として解釈されなければならない。

Claims (12)

  1. コンピューティング装置による、深層神経網モデルの学習に用いられる学習データに基づいて対象データの品質パターンを変換する方法であって、
    前記学習データから、前記対象データに対する第1の閾値よりも高い類似度を有する少なくとも1つの候補データを取得するステップと
    前記少なくとも1つの候補データの前記品質パターンに一致させるために、前記対象データの前記品質パターンを変換するステップと
    前記変換された前記対象データを、前記深層神経網モデルに入力するステップとを含む、方法。
  2. 前記変換した前記対象データを前記深層神経網モデルに入力することによって前記変換した前記対象データの出力値を、前記深層神経網モデルから取得するステップをさらに含む、請求項1に記載の方法。
  3. 前記第1の閾値よりも前記類似度が高い前記対象データを有する前記少なくとも1つの候補は、前記学習データのうち互いの類似度が第2の閾値よりも低い学習データセットを含む参照データから取得される、請求項1に記載の方法。
  4. 前記類似度は、参照データから抽出された第1の特徴量と前記対象データから抽出された第2の特徴量との間の特徴空間における距離に基づいて決定される、請求項1に記載の方法。
  5. 深層神経網モデルの学習に用いられる学習データに基づいて対象データの品質パターンを変換するための演算装置であって、
    該演算装置は、プロセッサを備え、
    前記プロセッサは、
    前記学習データから、前記対象データに対して第1の閾値よりも高い類似度を有する少なくとも1つの候補データを取得するステップと
    前記対象データの品質パターンを、前記少なくとも1つの候補データの品質パターンに一致するように変換するステップと
    前記変換された前記対象データを前記深層神経網モデルに入力するステップと
    を含む処理を実行するように構成された、演算装置。
  6. 前記変換した前記対象データを前記深層神経網モデルに入力することによって前記変換した前記対象データの出力値を、前記深層神経網モデルから取得するステップをさらに含む、請求項5に記載の演算装置。
  7. 前記対象データとの類似度が第1の閾値より高い少なくとも1つの候補は、前記学習データのうち互いの類似度が第2の閾値よりも低い学習データセットを含む参照データから取得される、請求項5記載の演算装置。
  8. 前記類似度は、参照データから抽出された第1の特徴量と前記対象データから抽出された第2の特徴量との間の特徴空間における距離に基づいて決定される、請求項5に記載の演算装置。
  9. 機械可読記録媒体に格納されたコンピュータプログラムであって、
    前記コンピュータプログラムは、深層神経網モデルの学習に用いられる学習データに基づいて対象データの品質パターンを変換する方法を演算装置に実行させる命令を含み、
    前記命令は、
    前記学習データから、前記対象データに対して第1の閾値よりも高い類似度を有する少なくとも1つの候補データを取得するステップと
    前記対象データの品質パターンを、前記少なくとも1つの候補データの品質パターンに一致するように変換するステップと
    前記変換された前記対象データを前記深層神経網モデルに入力するステップと
    を含む、コンピュータプログラム。
  10. 前記命令は、さらに、前記変換した前記対象データを前記深層神経網モデルに入力することにより、前記深層神経網モデルから前記変換した前記対象データに対する出力値を取得するステップを含む、請求項9に記載のコンピュータプログラム。
  11. 前記対象データとの類似度が第1の閾値より高い少なくとも1つの候補は、前記学習データのうち互いの類似度が第2の閾値よりも低い学習データセットを含む参照データから取得される、請求項9に記載のコンピュータプログラム。
  12. 前記類似度は、参照データから抽出された第1の特徴量と前記対象データから抽出された第2の特徴量との間の特徴空間における距離に基づいて決定される、請求項9に記載のコンピュータプログラム。
JP2021556444A 2019-05-14 2019-12-06 深層神経網モデルの学習に用いられる学習データに基づいて対象データの品質パターンを変換する方法、装置およびプログラム Active JP7402248B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2019-0056141 2019-05-14
KR1020190056141A KR102034827B1 (ko) 2019-05-14 2019-05-14 훈련된 심층 신경망 모델의 재현 성능을 개선하는 방법 및 이를 이용한 장치
PCT/KR2019/017199 WO2020230972A1 (ko) 2019-05-14 2019-12-06 훈련된 심층 신경망 모델의 재현 성능을 개선하는 방법 및 이를 이용한 장치

Publications (2)

Publication Number Publication Date
JP2022526126A JP2022526126A (ja) 2022-05-23
JP7402248B2 true JP7402248B2 (ja) 2023-12-20

Family

ID=68727968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021556444A Active JP7402248B2 (ja) 2019-05-14 2019-12-06 深層神経網モデルの学習に用いられる学習データに基づいて対象データの品質パターンを変換する方法、装置およびプログラム

Country Status (5)

Country Link
US (1) US20220180194A1 (ja)
EP (1) EP3971790A4 (ja)
JP (1) JP7402248B2 (ja)
KR (1) KR102034827B1 (ja)
WO (1) WO2020230972A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420322B (zh) * 2021-05-24 2023-09-01 阿里巴巴新加坡控股有限公司 模型训练、脱敏方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117966A1 (ja) 2011-02-28 2012-09-07 日本電気株式会社 データ判別装置、方法及びプログラム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102155261B1 (ko) * 2016-04-13 2020-09-11 구글 엘엘씨 광역 및 심층 기계 학습 모델들
US10318889B2 (en) * 2017-06-26 2019-06-11 Konica Minolta Laboratory U.S.A., Inc. Targeted data augmentation using neural style transfer
US11631186B2 (en) * 2017-08-01 2023-04-18 3M Innovative Properties Company Neural style transfer for image varietization and recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012117966A1 (ja) 2011-02-28 2012-09-07 日本電気株式会社 データ判別装置、方法及びプログラム

Also Published As

Publication number Publication date
US20220180194A1 (en) 2022-06-09
KR102034827B1 (ko) 2019-11-18
EP3971790A1 (en) 2022-03-23
EP3971790A4 (en) 2023-06-07
JP2022526126A (ja) 2022-05-23
WO2020230972A1 (ko) 2020-11-19

Similar Documents

Publication Publication Date Title
Kaji et al. Overview of image-to-image translation by use of deep neural networks: denoising, super-resolution, modality conversion, and reconstruction in medical imaging
KR101898575B1 (ko) 진행성 병변에 대한 미래 상태를 예측하는 방법 및 이를 이용한 장치
US11816833B2 (en) Method for reconstructing series of slice images and apparatus using same
US11900647B2 (en) Image classification method, apparatus, and device, storage medium, and medical electronic device
KR101943011B1 (ko) 피검체의 의료 영상 판독을 지원하는 방법 및 이를 이용한 장치
KR102053527B1 (ko) 이미지 처리 방법
KR101957811B1 (ko) 의료 영상에 기반하여 피검체의 치매에 대한 중증도를 산출하는 방법 및 이를 이용한 장치
WO2023035586A1 (zh) 图像检测方法、模型训练方法、装置、设备、介质及程序
US11449210B2 (en) Method for providing an image base on a reconstructed image group and an apparatus using the same
US10726948B2 (en) Medical imaging device- and display-invariant segmentation and measurement
KR101995383B1 (ko) 의료 영상에 대한 특징 순위에 기반하여 뇌질환을 판정하는 방법 및 이를 이용한 장치
KR101898580B1 (ko) 영상의 열람을 지원하는 방법 및 이를 이용한 장치
Oliveira et al. Deep transfer learning for segmentation of anatomical structures in chest radiographs
US20220139062A1 (en) Learning apparatus, learning method, and learning program, region-of-interest extraction apparatus, region-of-interest extraction method, and region-of-interest extraction program, and learned extraction model
KR101885562B1 (ko) 제1 의료 영상의 관심 영역을 제2 의료 영상 위에 맵핑하는 방법 및 이를 이용한 장치
KR102330069B1 (ko) 치과 영상으로부터 피검체의 성별 및 연령을 판정하는 방법 및 이를 이용한 장치
US10176569B2 (en) Multiple algorithm lesion segmentation
JP7402248B2 (ja) 深層神経網モデルの学習に用いられる学習データに基づいて対象データの品質パターンを変換する方法、装置およびプログラム
KR101923962B1 (ko) 의료 영상의 열람을 지원하는 방법 및 이를 이용한 장치
KR102222816B1 (ko) 진행성 병변의 미래 영상을 생성하는 방법 및 이를 이용한 장치
KR20200131722A (ko) 훈련된 심층 신경망 모델의 재현 성능을 개선하는 방법 및 이를 이용한 장치
KR102556646B1 (ko) 의료 영상 생성 방법 및 장치
KR20200131723A (ko) 훈련된 심층 신경망 모델의 재현 성능을 개선하는 방법 및 이를 이용한 장치
KR102275622B1 (ko) 재구성된 영상군에 기초한 영상 제공 방법 및 이를 이용한 장치
WO2023032436A1 (ja) 医用画像処理装置、医用画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210917

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230728

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231208

R150 Certificate of patent or registration of utility model

Ref document number: 7402248

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150