JP2020511190A - 超音波分析のためのシステムおよび方法 - Google Patents

超音波分析のためのシステムおよび方法 Download PDF

Info

Publication number
JP2020511190A
JP2020511190A JP2019539232A JP2019539232A JP2020511190A JP 2020511190 A JP2020511190 A JP 2020511190A JP 2019539232 A JP2019539232 A JP 2019539232A JP 2019539232 A JP2019539232 A JP 2019539232A JP 2020511190 A JP2020511190 A JP 2020511190A
Authority
JP
Japan
Prior art keywords
computer
exemplary
image information
heart
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019539232A
Other languages
English (en)
Inventor
ケツールール,イテイ
ルドミルスキー,アチアウ
リプマン,ヤーロン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
New York University NYU
Original Assignee
New York University NYU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by New York University NYU filed Critical New York University NYU
Publication of JP2020511190A publication Critical patent/JP2020511190A/ja
Priority to JP2022150347A priority Critical patent/JP7395142B2/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Cardiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Geometry (AREA)
  • Quality & Reliability (AREA)
  • Physiology (AREA)
  • Computational Linguistics (AREA)
  • Computer Graphics (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)

Abstract

患者の解剖学的構造の異常を検出するための例示的なシステム、方法、およびコンピューターアクセス可能媒体を提供することができ、これには、例えば、解剖学的構造に関連する画像情報を受信し、ニューラルネットワークを使用して画像情報に基づいて解剖学的構造の特徴を分類し、分類処理を使用して生成されたデータに基づいて異常を検出することを含みうる。画像情報は、解剖学的構造の少なくとも3つの画像を含むことができる。【選択図】図1

Description

関連出願への相互参照
[0001]この出願は、2017年1月19日出願の米国特許出願第62/448,061に関し、その優先権を主張するものであり、その開示の全体が参照により本書に組み込まれる。
[0002]本開示は、一般に、超音波装置の使用に関し、より具体的には、超音波分析のための例示的なシステム、方法、およびコンピュータアクセス可能媒体の例示的な実施例に関する。
[0003]心エコー図、または心臓の超音波は、心臓の状態を評価し、特定の心臓病を特定および診断するための一般的な臨床ツールである。現在、入力されるかなりの量の超音波ムービークリップの分析と処理は、技術者または医師(「ユーザ」)によって実行されている。このようなマニュアル分析にはいくつかの欠点があり、例えば、(i)エラーの可能性が高まる、(ii)熟練したユーザが必要、(iii)ユーザの分析速度とスキルによってスループットが制限される、(iv)時間の複雑さから、クリップのいくつかのフレームのみが完全に分析され、他のフレームの情報は未使用のままとなる。
[0004]心臓の超音波検査は、心臓の解剖学、機能、および構造異常の評価に適したモダリティである。現在、ルーチンの心臓超音波検査は約30分から約40分間続き、(i)超音波およびドップラー処理によるデータの取得、(ii)心室機能の分析、および心臓構造の異なる部分の複数の測定、および(iii)電子的な医療記録に直接組み込むことが可能なレポートを含む。
[0005]したがって、超音波分析のための例示的なシステム、方法、およびコンピュータアクセス可能媒体を提供することは有益であり、上記の欠陥の少なくともいくつかを克服することができる。
[0006]患者の解剖学的構造の異常を検出するための例示的なシステム、方法、およびコンピュータアクセス可能媒体を提供することができ、これには、例えば、患者の解剖学的構造に関する画像情報を受信するステップと、ニューラルネットワークを使用して画像情報に基づいて解剖学的構造の特徴を分類するステップと、この分類処理を使用して生成されたデータに基づいて異常を検出するステップとを含む。画像情報は、解剖学的構造の少なくとも3つの画像を含むことができる。
[0007]本開示のいくつかの例示的な実施形態では、画像情報は、超音波画像情報を含むことができる。超音波画像情報は、例えば超音波装置を使用して生成することができる。解剖学的構造は、心臓であり得る。本開示の特定の例示的な実施形態では、解剖学的構造の状態は、(i)患者の心臓の収縮期状態、(ii)患者の心臓の拡張期状態、(iii)患者の心臓の膨張状態、または(iv)患者の心臓の収縮状態を含みうる。
[0008]本開示のいくつかの例示的な実施形態では、特徴は、ビュー検出処理を使用して分類することができ、これは画像情報内の特定の画像フレームのビューを検出するステップを含み得る。解剖学的構造は、例えば、異常を検出する前に、部分セグメンテーション処理と位置特定処理を使用して、セグメンテーションすることができる。部分セグメンテーション処理は、患者の心臓の左心室を背景からセグメンテーションするのに利用することができる。位置特定処理は弁の位置特定処理を含むことができ、これはドップラー測定点を配置するため画像情報のフレームごとに単一のピクセルをマーキングするステップを含みうる。
[0009]本開示の特定の例示的な実施形態では、画像情報は複数の画像を含むことができ、ニューラルネットワークは複数のニューラルネットワークを含み、各ニューラルネットワークを画像の1つに関連付けることができる。各ニューラルネットワークを、関連する1つの画像の特徴を分類するのに用いることができる。各ニューラルネットワークによって生成された出力は、(例えば、ある深さで)連結することができる。画像情報はアップサンプリングすることができる。
[0010]本開示の例示的な実施形態のこれらのおよび他の目的、特徴、および利点は、添付の特許請求の範囲と併せて、本開示の例示的な実施形態の以下の詳細な説明を読むと明らかになる。
[0011]本開示のさらなる目的、特徴、および利点が、本開示の例示的な実施形態を示す添付の図面と併せて、以下の詳細な説明から明らかになるであろう。
[0012]図1は、本開示の例示的な実施形態による例示的な超音波分析システムの例示的な図である。 [0013]図2Aは、本開示の例示的な実施形態による、セグメンテーションのためのラベル取得の例示的な画像である。[0014]図2Bは、本開示の例示的な実施形態による、弁位置特定のためのラベルの例示的な画像である。 [0015]図3Aは、本開示の例示的な実施形態による、部分セグメンテーションのためのデータYの例示的な画像である。[0016]図3Bは、本開示の例示的な実施形態による、弁位置特定のためのデータYの例示的な画像である。 [0017]図4Aは、本開示の例示的な実施形態による、例示的なシステムによって使用されるネットワークアーキテクチャの例示的な図である。[0018]図4Bは、本開示の例示的な実施形態による、コアニューラルネットワークの例示的な図である。 [0019]図5は、本開示の例示的な実施形態による、心臓の異なる超音波ビューの例示的な画像のセットおよびそれらの対応するラベルである。 [0020]図6A、6Bは、本開示の例示的な実施形態による、例示的なシステム、方法、およびコンピュータアクセス可能媒体の例示的な図である。 [0021]図7A、7Bは、本開示の例示的な実施形態による、2つの入力トリプレット画像用の例示的なシステム、方法、およびコンピュータアクセス可能媒体によって生成されるビューごとの確率の例示的な画像である。[0022]図7C、7Dは、本開示の例示的な実施形態による、図6A、6Bにそれぞれ対応する例示的なヒストグラム図である。 [0023]図8は、本開示の例示的な実施形態による、心周期段階の検出の例示的なグラフである。 [0024]図9A〜9Fは、本開示の例示的な実施形態による、心周期におけるフレームごとの段階の例示的な画像である。 [0025]図10は、本開示の例示的な実施形態による、4つの選択されたビューについての例示的なシステム、方法、およびコンピュータアクセス可能媒体によって生成された左心室のセグメンテーション画像のセットである。 [0026]図11A、11Cは、本開示の例示的な実施形態による、例示的なシステムを使用して実行される弁位置特定の例示的な画像である。[0027]図11B、11Dは、本開示の例示的な実施形態による、それぞれ図11A、11Cの弁位置特定画像の例示的な拡大画像である。 [0028]図12は、本開示の例示的な実施形態による、例示的なシステム、方法、およびコンピュータアクセス可能媒体対グラウンドトゥルースと、ユーザ対グラウンドトゥルースとによって生成された左心室のセグメンテーションを比較した、結合および相対面積差に対する交差の例示的なチャートのセットである。 [0029]図13は、本開示の例示的な実施形態による、例示的なシステム、方法、およびコンピュータアクセス可能媒体の弁位置特定予測とグラウンドトゥルースとの間の距離の例示的なヒストグラム図である。 [0030]図14Aは、本開示の例示的な実施形態による、コアニューラルネットワーク用のイメージネット型ネットワークで初期化された拡張期/収縮期分類テストの学習グラフの例示的なグラフである。[0031]図14Bは、本開示の例示的な実施形態による、ビュー検出トレーニング後にコアニューラルネットワークで初期化された拡張期/収縮期分類テストの学習グラフの例示的なグラフである。[0032]図14Cは、本開示の例示的な実施形態による、部分セグメンテーション処理でトレーニング後に、コアニューラルネットワークで初期化された拡張期/収縮期分類テストの学習グラフの例示的なグラフである。 [0033]図15は、本開示の例示的な実施形態による、例示的な処理を使用して実行される成人心エコー検査を示す例示的なフロー図である。 [0034]図16は、本開示の例示的な実施形態による、心臓超音波で使用するための、例示的なシステム、方法、およびコンピュータアクセス可能媒体の例示的な構成の例示的な図である。 [0035]図17は、本開示の例示的な実施形態による、例示的なシステム、方法、およびコンピュータアクセス可能媒体のニューラルネットワークコアを示す例示的な図である。 [0036]図18は、本開示の例示的な実施形態による、例示的なシステム、方法、およびコンピュータアクセス可能媒体を利用可能な潜在的な市場を示す例示的な図である。 [0037]図19Aは、本開示の例示的な実施形態による、ユーザインターフェースの左の運転モードに基づいて生成された例示的な画像である。[0038]図19Bは、本開示の例示的な実施形態による、ユーザインターフェースの右の停止モードに基づいて生成された例示的な画像である。 [0039]図20A〜20Gは、本開示の例示的な実施形態による、完全な心周期の3D再構成の例示的な画像である。 [0040]図21Aは、本開示の例示的な実施形態による、収縮期LVおよび拡張期LVの断面の例示的な画像のセットである。[0041]図21Bは、本開示の例示的な実施形態による、収縮期と拡張期における3D表面の再構成の例示的な画像のセットである。 [0042]図22は、本開示の例示的な実施形態による、例示的なシステム、方法、およびコンピュータアクセス可能媒体を使用して生成された例示的なヒストグラムである。 [0043]図23Aは、本開示の例示的実施形態による、心周期の例示的な専門家分析に基づいて生成されたEF誤差の例示的なヒストグラムである。[0044]図23Bは、本開示の例示的な実施形態による、例示的なシステム、方法、およびコンピュータアクセス可能媒体を使用して生成されたエラーの例示的なヒストグラムである。 [0045]図24は、本開示の例示的な実施形態による、患者の解剖学的構造内の異常を検出するための例示的な方法の例示的なフロー図である。 [0046]図25は、本開示の特定の例示的実施形態による、例示的なシステムの例示的なブロック図の描写である。
[0047]図面を通して、特に言及しない限り、同じ参照番号および文字は、例示された実施形態の同様の特徴、要素、構成要素、または部分を示すために使用される。さらに、本開示は、図面を参照して詳細に説明されるが、例示的な実施形態に関連して行われ、図面および添付の特許請求の範囲に示される特定の実施形態によって限定されない。
[0048]本開示の例示的な実施形態は、以下の説明および関連する添付図面を参照してさらに理解され得る。例示的な実施形態は、(例えば、超音波を使用した)心血管イメージングに関して説明されている。しかしながら、当業者は、本開示の例示的な実施形態は、他の組織または器官(例えば、心臓以外)を撮像するために実装され、他の撮像モダリティ(例えば、超音波以外で、MRI、CT、OCT、OFDRなどを含むが、これらに限定されない)で使用できることを理解するであろう。
[0049]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、医療提供者が臨床的判断をより正確に診断および作成するのを支援し、品質を向上させ、安全性を増大させることが可能なニューラルネットワークコアを含むことができる。例えば、例示的なニューラルネットワークコアは、超音波、磁気共鳴画像法、陽電子放出スキャナ、コンピュータ断層撮影法および核スキャナを含む複数の撮像モダリティから画像を受け取ることができる。例示的なニューラルネットワークコアは、複数の臓器の検査に使用でき、特定の臓器系に限定されない。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、オンラインおよび/またはオフラインの医療診断装置に組み込むか接続することができ、これによりオペレータがより正確かつ効率的になることを実現する。
[0050]図1に示されるように、本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、コアニューラルネットワーク(「NN」)115を含むことができる。コアNN115は、超音波フレーム105のシーケンスを入力として受け取り、シーケンス内の中間フレーム110の高レベルの意味素性(semantic features)を生成することができる。これらの例示的な意味素性は、一連の認識および分析処理(例えば要素120)を解決するために使用することができる。各例示的な処理について、専用のNNベースのコンポーネントをコアNN115の上に構築することができ、その処理用に調整することができる。例示的な処理は、例えば、5つの例示的なグループに分解することができる:(i)ビュー検出125、(ii)収縮期/拡張期検出130、(iii)部分セグメンテーション135、(iv)弁位置特定140、および(v)異常検出145である。これらの処理は、難易度に応じて並べ替えることができる(例えば、簡単なものから難しいものへ)。
[0051]第1の例示的な処理(例えば、ビュー検出125)を実行して、いくつかの潜在的なビューから所与のフレームのビューを検出することができる。現在処理されているビューは、標準的な成人心エコー検査で使用されるビューであり、(i)心尖部2室ビュー、(ii)心尖部3室ビュー、(iii)心尖部4室ビュー、(iv)心尖部5室ビュー、(v)胸骨傍長軸ビュー、および(vi)胸骨傍短軸ビューである。第2の例示的な処理(例えば、収縮期/拡張期検出130)は、心周期の収縮期/拡張期を識別するために実行することができる。例えば、各フレームには、左心室の4つの時間的状態:(i)拡張期、(ii)収縮期、(iii)膨張、(iv)収縮のいずれかを使用してラベルを付けることができる。第3の例示的な処理(例えば、部分セグメンテーション135)を実行して、心臓の4つの心腔、心臓弁および心臓壁、心膜などの超音波画像内の領域をセグメント化することができる。第4の例示的な処理(例えば、弁位置特定140)を実行して、これらの弁を通る流入/流出のドップラー分析のための弁の位置を特定することができる。第5の例示的な処理(例えば、異常検出145)を実行して、心膜液浸出などの心臓異常を検出および位置特定することができる。
[0052]例示的な観察は、超音波画像のシーケンスから高レベルの意味素性を抽出するコアNNが、すべての処理について同じであり得ることであり、本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、すべての処理とコアNNを(例えば、同時に)最適化することでトレーニングすることができる。この例示的なアプローチは、以下の利点を提供することができる。まず、トレーニングを行ってさまざまな補完処理に使用できる超音波特徴システムを構築すると、個々の処理のパフォーマンスを確証および改善できる汎用機能を提供することができる。直感的知識は人間の学習に類似し得る。例えば、超音波画像のビューをより適切に検出するには、心臓のさまざまな可視部分を検出およびセグメンテーションすることが有益であり、逆もまた同様である。第二に、コアNNによってキャプチャされた多目的特徴システムを使用すると、かなり少ないデータ量で超音波解析処理を追加することができる。これは、例示的なシステムの主要部分であるコアNNが既に一般的な特徴を生成するようにトレーニングされており、残るトレーニングは処理に特有の部分のみとなるからである。これにより、例示的なシステム、方法、およびコンピュータアクセス可能な媒体を、計算の複雑さや時間がかなり低い、新しい処理または異なる処理に適応させることができる。第三に、通常、より困難な処理のデータを取得および/または生成することはより困難であるため、より簡単な処理でシステム、方法、およびコンピュータアクセス可能媒体をトレーニングすることから開始すると、より精巧な処理について適切な開始点が与えられる。
[0053]心エコー図は、多くの場合、心臓の状態と機能に関する高レベルの定量的情報を抽出するために使用することができる。例示的な典型例は、駆出率(「EF」)である。EFは、ビュー検出、収縮期/拡張期検出、および部分セグメンテーションを含む、またはその組み合わせのさまざまな例示的な測定値から計算することができる。例示的なシステム、方法、およびコンピュータアクセス可能媒体は、UTデータ(例えばUTデータのみ)を使用してLVまたは他の部分の3D表面再構成を生成することを含む、EFを決定するための自動パイプラインを利用することができる。
例示的なデータ生成
[0054]本開示の例示的な実施形態による例示的なシステム、方法およびコンピュータアクセス可能媒体は、データの作成を含むことができる。3000個の超音波クリップで構成される例示的なデータベース(例えば、それぞれ約40フレーム)が使用された。各超音波フレームXは、nxnのグレースケール画像である。データベースは、(i)トレーニング、(ii)検証、(iii)テストデータの3つのばらばらのセットに分割された。
[0055]例示的なシステムへの例示的な入力は、連続する超音波フレーム(例えば、l=3)のシーケンス(例えば、トリプレット)を含むことができる。さらに、X=(Xi−d,X,Xi+d)(例えば、図1の要素105)、ここでdはd=1に設定できるパラメータである。例示的なシステム、方法、およびコンピュータアクセス可能媒体によって実行される予測を、中間フレーム110(例えば、X)に関して行うことができる。画像の入力シーケンスは、空間コンテキストとともに時間コンテキストをシステムに提供することができる。
[0056]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、(i)分類と、(ii)セグメンテーションとの2種類の処理をサポートし得る。例示的な各処理について、例示的なデータベース内の超音波フレームのサブセットxについてグラウンドトゥルースのラベルyが生成された。yは、単一のラベル(例:分類処理用)であるか、xの各ピクセルのラベル(例:セグメンテーション処理用)でなるかのいずれかである。したがって、y∈L={l,l,...,l}は単一ラベルであるか、y∈Ln×nが(例えば、xの各ピクセルに対応する)ピクセルごとのラベルとすることができる。
[0057]最初の2つの例示的な処理は、分類処理である。ビュー検出の最初の例示的な処理では、y∈L、ここでL={SA、LA、5C、4C、3C、2C}は短軸、長軸、5室、4室、3室、および2室のビューに対応し得る。拡張期/収縮期検出の処理では、L={DI、SY、IN、DE}は、左心室の拡張期、収縮期、膨張、収縮に対応し得る。DIとSYは瞬時に構成できるため、2つのラベルL={IN、DE}のみが使用され、これらのラベルはピーク間のすべてのフレームに割り当てられる(例えば、厳密に拡張期と収縮期の間、および収縮期と拡張期の間)。
[0058]次の3つの例示的な処理は、セグメンテーション処理である。実施される例示的な部分セグメンテーション処理は、ラベルy∈Ln×nを使用することができ、ここでL={LV,BA}、LVは左心室、BAは背景を表す。フレームXの入力シーケンスが与えられると、例示的な目標は、中間フレームxの各ピクセルについて、左心室の一部であるかどうかを決定することである。xの各ピクセルを手動でラベル付けするのは、面倒で非実用的である。このため、生成されたときにフレームの集合xについてのラベルyの生成を容易にできる例示的なソフトウェアツールを利用することができる。ラベリングセッションのスクリーンショットの例を図2Aの画像に示す。ユーザは相互作用ツールを使用して、制御点205のまばらなセットをマークすることができ、これらの点を補間して滑らかな閉曲線210(例えば、3次スプライン)が計算される。ユーザは、これらの制御点205を追加、削除、または編集することができる。ユーザは連続したフレームをマークすることができ、初期化として前のフレームの曲線を使用することができる。フレームXに描かれた閉じた曲線を考えると、この曲線で囲まれた領域内のすべてのピクセルは、同じラベルl∈Lでマークすることができる。例えば、図3Aの画像に示すように、図2Aの画像のフレームxに対応するラベルyが示され、ここで白い領域305はLVラベルに対応し、黒い領域310はBAラベルに対応する。
[0059]例示的な弁位置特定処理は、フレームごとに単一ピクセルをマークして、ドップラー測定点を配置することを利用し得る。3つの弁が実装された。L={MI、TR、AO、BA}、僧帽弁(「MI」)、三尖弁(「TR」)、大動脈弁(「AO」)および背景(「BA」)である。データを生成するために、部分セグメンテーションに使用されるものと同様の例示的なソフトウェアツールが作成され、これにより、ユーザは各画像のピクセルを選択して関連する弁の位置を示すことができる(例えば、図2B、要素215を参照)。意味のあるトレーニングデータを作成するために、8クリップの同じセット(4Cについて4クリップと、5Cについて4クリップ)を10回マークするようにユーザに求めることにより、統計が取得された。このデータは、弁のサンプリングの統計を計算するために使用され、上記の統計から取得した分散を使用して、ユーザが指定したピクセルを中心とする楕円をスプラッティングすることにより、トレーニングデータを作成した。これは、弁ごとに個別に独立して実行された。例えば、図3Bに示す画像は、図2Bに示す画像用に作成されたラベルyを示し、白いピクセル305はラベルAOを表し、黒いピクセル310はラベルBAを表す。
[0060]例示的な異常検出では、心内膜液浸出および心膜腔内の体液蓄積の検出に対処することができる。この例示的なセグメンテーション処理では、ラベルは心膜液と背景を区別することができる、L={PE、BA}。前の2つのセグメンテーション処理と似たソフトウェアが構築され、ユーザが流体領域に注釈を付けることができる。
例示的なネットワークアーキテクチャ
[0061]図4Aは、本開示の例示的な実施形態による、例示的なシステム、方法、およびコンピュータアクセス可能媒体の例示的な図/アーキテクチャを示す。例えば、図4Aに示されるように、灰色のブロック405はそれぞれ、一連の畳み込み層およびReLU(すなわち活性化)層からなる畳み込みブロックを表す。各畳み込みブロック405について、チャネル数(例えば、深さ)が示される。解像度(例えば、ブロックの幅と高さ)の異なる連続した畳み込みブロック405を、レイヤーをプールすることで接続することができる。ブロック410は、例示的なコアNNの出力を表す。例示的なコアNNブロック415が図4Bに示されており、コアNN415のアーキテクチャが図4Bに示されている。例示的なシステムへの入力は、超音波フレームのシーケンスX=(xi−1,x,xi+1)であり、システムはコアNNを介して独立して各フレームxi−1,x,xi+1をフィードして、高レベルの超音波特徴を取得し、出力を連結することができる。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、連結された特徴を使用して上記の処理を実行することができる。
[0062]例示的な処理は、(i)分類処理と(ii)セグメンテーション処理の2つのグループに分けることができる。例示的な分類処理は、入力シーケンスXの可能なラベルのセットL={l,...,l}からラベルz∈Lを割り当てるように要求することができる。例示的な分類処理は、ビューの検出と、収縮期/拡張期の検出を含み得る。例示的なセグメンテーション処理は、z∈Ln×nである中間フレームxのピクセルごとのラベルを生成するために、指定された入力シーケンスXを要求することができ、ここでxはn×n画像であり、前と同じくL={l,...,l}である。例示的なセグメンテーション処理は、部分セグメンテーション、弁位置確認、および異常検出を含み得る。異常検出は、分類処理としてインスタンス化することもできる。各処理は、そのタイプ(セグメンテーションの分類など)に基づいて適切なアーキテクチャを持つ独自のネットワークを持つことができる。
[0063]例示的な処理の2つのグループは、例示的なコアNNによって生成された同じ連結された特徴を使用することができる。例示的な分類処理は、例示的な分類フレームワーク(例えば、図4Aに示す要素420)(例えば、文献3を参照)を使用することができ、これは完全に連結された層を用いて,予測zが作成されるRの予測ベクトルへの出力を減らすことができる。
[0064]例示的なセグメンテーション(例えば、図4Aに示す要素425を参照)中に、デコンボリューション演算子を学習して前のレイヤーを注入する既存のセマンティックセグメンテーションアーキテクチャ(例えば、参考文献2を参照)とは異なる例示的なアップサンプリング処理を使用することができる。低解像度は最大解像度にアップサンプリングでき、出力は入力シーケンスXと連結することができ、これは畳み込みブロックを通過して最終的なセグメンテーションを生成する。アップサンプリングされたセグメンテーション情報は、セグメンテーションされる部分の滑らかで大まかな近似を提供し、最終的な畳み込みブロックは局所的特徴を使用してその境界を改良することができる。
[0065]心臓の特定の部分/セクション、例えば左心室の例示的なセグメンテーションは、マルチスケールタスクを含むことができる。例えば、画像内の部分の位置の大まかな推定値を提供することができ、例示的な予測を、画像の局所的特徴に基づいて徐々に改善または修正することができる。本開示の例示的な実施形態による例示的なシステム、方法およびコンピュータアクセス可能媒体は、医療画像から解剖学的部分をセグメンテーションするための2つの例示的なアーキテクチャを含み得る(例えば、図6A、6Bに示す図を参照)。
[0066]例えば、図6Aに示されている図は、直列形式の第1の例示的ネットワークを示している。この例示的なネットワークは、連続したアップサンプリングブロックを使用してボトムアップセグメンテーションを提供することができる(図6Aに示された要素605)。各ブロックは、バイリニアまたはデコンボリューションのアップサンプリング、および様々な畳み込み−reluレイヤを含めることができる。各ブロック605は、入力として以前の低解像度セグメンテーションを受け取り、それに元の画像データのダウンサンプリング版(例えば、線610)を追加し、より高い解像度のセグメンテーションを生成することができる。例示的なレイヤの1つは、元の画像の解像度で結果を生成することができる。図6Bは、並列形態の例示的なネットワークの図を示す。コアNNの切り捨てられたコピーを使用し、各アップサンプリングブロックに取り付けることができる(例えば、直列設計と同様)。コアNNの切り捨てられた各コピーを使用して、元の画像を対応する受容野を有する異なる解像度に縮小することができる。例えば、LVの位置を認識するために最低解像度を使用できるが、境界を正確に特定できない場合がある。一方で、最高解像度(例えば、最小受容野を持つ)は画像内の局所的情報に基づいてセグメンテーションの境界に影響を与えようとする。その後、結果を集計して最終的なセグメンテーションを達成することができる。解像度ごとに切り捨てられたコアNNをトレーニングすることも可能である。
[0067]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、より短い境界曲線でのセグメンテーションを促進するために、ネットワーク損失関数への総変動正則化器の直接の追加も考慮することができる。総変動エネルギーは、セグメンテーションネットワークの出力でλΣ||[▽F(X]||として直接定義することができ、ここでF(X)は、入力シーケンスXに適用した場合の特定のラベル(LVなど)および背景ラベルBAへのネットワーク応答の差であり、合計はすべてのピクセルpであり、λは正則化の量とすることができる。
[0068]図4Aに示される例示的なコアNN415は、入力画像を非常に粗い解像度で定義された特徴ベクトルのセットへと低減することができるイメージネットアーキテクチャ(例えば、参考文献3を参照)を含むことができる。例示的なシステムでは、同じコアNNを使用して、各入力超音波フレームxi−1,x,xi+1をその特徴ベクトルに変換することができる。例示的なコアNNを定義する重みを、システム内の3つの実現間に結合することができる(例えば、例示的なコアNNの複数のブロック415を参照)。
[0069]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、Lコスト関数およびGAN(Generative Adversarial Networks)を含むセグメンテーションを改善するために利用することができる。例えば、セグメンテーションのL1正則化を損失関数として使用し、標準のクロスエントロピー損失よりも正確な境界検出を提供することができる。代替的または追加的に、例えばGANを使用して例示的な損失関数をトレーニングすることができる。例として、セグメンテーションネットワークがある場合、ディスクリミネータネットワークをトレーニングして、実際のセグメンテーションとセグメンテーションネットワークによって作成されたセグメンテーションとを区別するようにする。セグメンテーションネットワークをさらにトレーニングするために、このディスクリミネータを他の損失と組み合わせて、または単独で使用することができる。ディスクリミネータネットワークへの入力には、実際の例では(Xi、Zi)、および(Xi、f(Xi))を含めることができ、ここでf(Xi)はセグメンテーションネットワークの出力である。
例示的なトレーニング
[0070]例示的なシステムをトレーニングするために、インターリーブアプローチを採用することができる。例えば、第1の例示的な処理(例えば、ビュー検出)を使用することができ、これはコアNNを調整(fix)しながらそのNN(例えば、図4Aに示される要素420を参照)をトレーニングすることができる。コアNNとビュー処理のNNの両方をトレーニングすることができる。第2ののNN処理(例えば、拡張期/収縮期)を、コアNNを調整しながらトレーニングすることができ、その後、コアNNと拡張期/収縮期のNNの両方をトレーニングすることができる。これを収束が達成されるまで繰り返し/継続することができる。予備の処理のデータを生成する方が簡単な場合があるため、これらのアプリケーションでコアNNをトレーニングすると、より困難な処理の開始点として適切となる。代替的または追加的に、本開示の例示的実施形態による例示的システム、方法およびコンピュータアクセス可能媒体は、すべての例示的タスクを同時にトレーニングするのに用いることができる。
例示的な評価
[0071]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体を、トレーニング段階で使用または検証されていないテストデータで評価した。テストデータは、分類処理用の322クリップ(例えば、10000フレーム)、部分セグメンテーション処理用の42クリップ(例えば、530フレーム)、および弁位置特定処理用の108クリップ(例えば、2250フレーム)でなる。
例示的なパフォーマンス
例示的なビュー検出
[0072]所定のフレームのビューxを、例示的な分類に使用することができる。例えば、図5は、例示的なデータセットの各ビューからの例示的な画像を示す。この実験では、システムによって作成されたラベルが、ユーザによって作成されたグラウンドトゥルースラベルと比較された。システムはラベルのセットについて確率を生成し、最高の確率を受けたビューがシステム出力として選択された。図7Aおよび7Bは、2つの例示的な画像について例示的なシステム、方法、およびコンピュータアクセス可能媒体によって生成された確率の画像を示す。正しいビューラベルに高い信頼性があることに留意されたい。対応する例示的なヒストグラムが、それぞれ図7Cおよび7Dに示されている。例示的なシステム、方法、およびコンピュータアクセス可能媒体の出力は、テストデータ全体(例えば、10kフレーム)のグラウンドトゥルースラベル付きビューと比較され、フレームの98.5%で正しいビュー識別を生成した。
例示的な拡張期/収縮期検出
[0073]例示的な拡張期/収縮期検出処理は、所与の入力フレームxの心周期段階の識別を利用することができる。ここで、ラベルはL={DI、SY、IN、DE}となる。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、例えば、非瞬時(non-instantaneous)状態IN、DEに関してのみ確率を生成することができる。図8は、本開示の例示的な実施形態による、心周期の検出の例示的なグラフを示す。例えば、線805は、テストデータのビデオクリップについて、−1から1の範囲の値を生成する確率DEからINを引いた差を示す。曲線810は、線805に最も近い一定の収縮および膨張時間に適合された。曲線810のゼロ交差は、検出されたピーク収縮期(「SY」)およびピーク拡張期(「DI」)であり得る。中間段階は、収縮(「DE」)および膨張(「IN」)段階である。さらに、図8のグラフに示すように、点815と820はそれぞれ選択されたトリプレットと信号点を表し、線825は受信信号を表す。
[0074]図9A〜9Fは、心周期からの画像フレームのセットを示し、各フレームの左上に、システムは、ピーク収縮期(小さな円910)とピーク拡張期(例、大きな円915)を示す2つの円の間の破線の円905として視覚化された識別された心臓ステージを描いている。破線の円の半径は、図8のフィッティング710から直接取得される。
例示的な部分セグメンテーション
[0075]例示的な部分セグメンテーション処理は、部分のラベルに従って入力画像x内の各ピクセルのラベリングを利用することができる。例えば、左心室(「LV」)セグメンテーションのみを実装することができる。図10は、例示的なシステムによって生成されるLVのセグメンテーションの画像のセットを示し、これは要素1005で示されている。グラウンドトゥルース(「GT」)ユーザセグメンテーションが要素1010で示され、2つの重複が要素1015で示されている。例示的なシステムとユーザGTによって生成されたセグメンテーションは、視覚的に非常に近いことに留意されたい。この例示的な処理の定量分析を行うために、2つの誤差測定値を計算した:(i)例示的なシステムのセグメンテーションとGTセグメンテーションの共通面積を両方の和集合で割ったものであるIoU(Intersection over Union)(例えば、これは共通のセグメンテーション領域(例えば、図10に示す要素915)と、当該共通領域および異なる領域(例えば、図10に示す要素905および910)の比率を生成することができる);この比率は0から1の範囲であり、1に近いほど良く、1はピクセルレベルで例示的なセグメンテーションとGTが同一であることを意味する、(ii)例示的なシステムによって生成されるセグメンテーション領域とGTをGTセグメンテーション領域で割った差である相対面積差(「RAD」)。
[0076]結果のベースラインを作成するために、例示的なユーザは、数週間待ってからテストセットのLVアノテーションを繰り返し、これらの新しいセグメンテーションと元のGTセグメンテーションを比較するように求められた。図12は、これらの2つのエラー測定値の4つのヒストグラムを示し、各エラー測定値について、GTと比較した例示的な方法のヒストグラムのセット(例えば、ヒストグラムのセット1210)と、GTと比較したユーザのセット(例えば、ヒストグラムのセット1205)が示されている。結果は、例示的なシステムが、ユーザよりもGTとの整合性がやや劣るが、比較可能なセグメンテーションを生成することを示している。これらの結果は、同じユーザが2つのLVセグメンテーションをマークしたことを考慮すると顕著である。異なるユーザでこの実験を繰り返した場合、ユーザ対GTの実験でより大きな変異性が期待される。
例示的な弁位置特定
[0077]この例示的な処理は、ドップラー分析時に流れ計算のために特定の位置に点を配置することを利用することができる。図11A〜11Dは、2つのビュー(例えば、図11Aと11C)および拡大ビュー(例えば、それぞれ図11Bと11D)について、例示的なシステム、方法、およびコンピュータアクセス可能媒体によって生成される弁位置特定(例えば要素1105)の例示的な画像を示す。図10A〜10Dに示される要素1110は、GTについてユーザがマークした弁位置特定を中心とした円を示し、ユーザ位置特定の不確実性を表すために半径を計算することができる。この不確実性は、ユーザが弁位置特定をフレームごとに10回繰り返しマークしたデータに基づいて計算することができ、最大偏差は平均予測から計算することができる。この値は不確実性半径と呼ばれ、rでラベル付けられる。図13は、例示的なシステムの予測された弁位置特定とユーザによるグラウンドトゥルースの位置特定との間の距離の例示的なヒストグラム1305を示す。マーカ1310および1315は、それぞれ不確実性の半径rと2倍の不確実性半径2rを示す。
例示的な汎用性
[0078]例示的なコアNNをテストして、さまざまなレベルのトレーニングと「ウォームスタート」初期化の使用後に新しい処理に適応できる方法を決定した。図14A〜14Cは、例示的な拡張期/収縮期分類試験の例示的な学習グラフである。例えば、これらの学習グラフは、コアNNを次の3つの異なる方法で初期化できる場合の拡張期/収縮期処理のトレーニング時の、トレーニング(例えば、要素1405)と検証(例えば、要素1410)の誤差を示す:(i)自然画像でトレーニングされたイメージネットタイプのNNから取ったコアNN(例えば、図14Aを参照)を用いて;(ii)ビュー検出処理のトレーニングを受けた後のコアNN(例えば、図14Bを参照)を用いて;および(iii)部分セグメンテーション処理のトレーニングを受けた後のコアNN(例、図14Cを参照)を用いて。超音波分析処理(ビュー検出など)を既に学習したコアNNを使用してシステムを初期化すると、より短いトレーニング時間で、より正確な結果が得られる(図14Aと14Bの比較)。セグメンテーションを学習し、DSトレーニングを繰り返した後、結果はさらに改善される(例えば、図14Bと13Cの比較)。この例示的な実験は、(i)異なる処理が確証され、より高い精度とより良いパフォーマンスが促進され、(ii)異なる超音波処理からのコアNNで処理を初期化することで学習が促進され、より高いパフォーマンスが達成されることを支持する。
[0079]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、任意の商業的臨床撮像装置(例えば超音波)へのアドオンとして使用することができる。例示的なシステム、方法、およびコンピュータアクセス可能媒体は、心臓科および救急科(「ED」)の心エコー検査(例えば、心臓の超音波)の両方に使用できる。
例示的な心機能と測定
[0080]ルーチンを実行し、心エコー検査を完了するにあたり複数の技術者が観察された。試験の合計期間と、3つのタスクのそれぞれの時間の分布が記録された(例えば、図15の図を参照)。合計時間の約50%が画像取得に費やされ、約30%から約35%がオンライン測定および計算のトレースを含む分析に使用され、約10%から約15%がレポートの生成に使用された(例えば、図15に示す図を参照)。
[0081]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、(例えば、4つの心室から)左心室を正確に特定し、最終的な研究報告書に直接組み込むことができる完全な心機能分析を自動的に適用および提供するのに使用することができる。現在、技術者は(例えば、取得した6つのビューのうち)異なるビューで2つまたは3つのポイントを特定するか左心室をトレースし、例示的な装置で使用可能な計算パッケージをアクティブにする必要がある。本開示の例示的な実施形態による例示的なシステム、方法およびコンピュータアクセス可能媒体は、異なる表示ウィンドウおよびセグメントを自動的に検出することができ、左心室といった心臓の様々な部分を識別することができる。
[0082]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、セグメンテーション、ピーク収縮期および/またはピーク拡張期フレームを使用することができ、これらは現在自動的に決定することができる。過去には、これはフレームごとに慎重にスキャンし、ピーク収縮期およびピーク拡張期フレームを識別することにより、技術者によって手動で実行されていた。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、心周期中にこれら2つのイベントを特定するためにニューラルコアを利用し、次いで左心室機能の評価を実行することができる。したがって、手作業を完全になくすことができ、収縮期および拡張期の左心室の寸法、右心室の評価、LAサイズ、大動脈弁輪、大動脈洞、上行大動脈、肺動脈弁、僧帽弁輪、三尖弁輪の測定を含む他のすべての測定を、自動的に測定することができる。
[0083]熟練した心エコー検査技師による心臓検査の重要な部分は、徹底的なドップラー検査を行うことである。過去には、技術者は、受信する信号対雑音比が最適となるようにドップラーのサンプル量を配置して理想的な位置と角度を決定していた。これは、すべての心臓弁を評価するために専門知識を必要とする手作業の面倒な作業でもある。このようなタスクには時間がかかる。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、ドップラーサンプルを配置する正確な領域を識別するために使用することができる。適切な画像が得られた後、ドップラーサンプル位置が決定され、本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、ドップラーモダリティを自動的に起動し、これにより複数の心臓弁にわたり適切なドップラートレースを達成することができる。ドップラートレースが達成され表示されると、計算パッケージを適用でき、僧帽弁および三尖弁の流入、ならびに大動脈および肺流出路のドップラートレースを自動的に計算することができる。
[0084]検査の合計期間の約10%〜15%は、専門家、例えば、レポートを完成させて緊急医療記録に送る心臓専門医に送信する前に、最終レポートにすべての測定値を組み込むためにあてられる。これは、例示的なシステム、方法、およびコンピュータアクセス可能媒体を使用して、心臓機能および弁異常を評価するために必要なすべての異なる変数を自動的に測定することにより回避できる顕著なマニュアルプロセスであり得る(例えば、図15参照)。
[0085]例示的なシステム、方法、およびコンピュータアクセス可能媒体は、マニュアル式検査(例えば、現在実施されている検査のタイプ)と比較して、時間を最大40%節約できると推定される。さらに、本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、現在実施されているマニュアルテストと比較して効率および品質を改善することができる。
[0086]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、技術者/医師/看護師によって適切な画像が取得された後、心臓機能を正常、軽度、中程度または重度の左心室機能障害として自動的に表示することができる。必要に応じて、左心室駆出率の正確な数値を表示することもできる。
例示的な心嚢液
[0087]心嚢液は、適時に診断されなければ死に至る可能性のある最も危険な心臓異常の1つである。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、超音波検査により心嚢液の存在を自動的に検出するために使用することができる。例えば、本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、心嚢液の(例えば、即座に検出して)有無をオペレータに警告することができる。必要に応じて、蓄積した心嚢液の重症度を表示してもよい。
例示的なセグメント異常
[0088]心臓の部分的な異常は、心筋の虚血診断のためのスクリーニングツールとして使用できる。これは非常に主観的な作業であり、熟練した心臓専門医の手でもオペレータに依存する場合がある。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、例えば、任意の部分の低血圧、ディスキネシアまたは左心室壁や隔壁の奇異運動などのセグメント異常があり得ることをユーザに自動的に通知することができる。現在、心臓は17個のセグメントに分割され、本開示の例示的な実施形態による例示的なシステム、方法およびコンピュータアクセス可能媒体は、すべてのセグメントにわたる非常に微妙な壁運動異常を検出できる。
例示的なRV/LV比
[0089]例示的なシステム、方法およびコンピュータアクセス可能媒体は、例示的なニューラルコアを使用して、左心室と右心室を識別し区別することができる。例示的なニューラルコアは、これらの心室の相対的および絶対的な面積と体積を評価し、それらの比率を迅速に(例えば、ほんの一瞬で)計算することができる。これは、肺塞栓症と呼ばれる重大な状態の疑いのレベルを上げるために有益である。この状態では、右心室に大きな負担がかかり、その結果、心室が拡大する傾向があり、右心室と左心室の面積の比率が劇的に変化する可能性がある。これは、RV/LV比に基づいて肺塞栓症の可能性があることを臨床医に通知するための例示的なスクリーニングツールとして使用することができる(例えば、図16に示す図を参照)。
[0090]例えば、図16の例示的な図に示されるように、心臓超音波プラットフォーム1605を、オンラインモード1610またはオフラインモード1640のいずれかで使用することができる。オンラインモード1610では、心臓超音波プラットフォームは、心臓設定1615またはED心臓設定1620で使用することができる。心臓設定1625ではさまざまな機能1625を実行でき、これらはドップラー分析1635に基づくことができる(例えば、(i)LV EF、(ii)LVボリューム、(iii)RV/LV比、(iv)AO、MV、PV、TV、(v)心嚢液、(vi)セグメント異常、(vii)大動脈測定値、および(viii)IVCサイズ)。さらなる機能1630を、ED心臓設定1620で実行することができる(例えば、(i)LV機能、(ii)セグメント異常、(iii)LVボリューム、(iv)心嚢液、(v)RV/LV比、および(vi)IVCサイズ)。オフライン設定1640では、心臓設定1645で、さまざまなオフライン機能1650を実行することができる(例えば、(i)LV EF、(ii)LVボリューム、(iii)RV/LV比、(iv)AO、MV、PV、TV、(v)心嚢液、(vi)セグメント異常、(vii)大動脈測定、および(viii)IVCサイズ)。
例示的な駆出率
[0091]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、未加工のUT入力からEFを計算するか、そうでなくとも決定するために使用することができる。ユーザには、例えば、(i)駆動と(ii)停止の2つの可能性のいずれかの表示を提供することができる。駆動(例えば、図19Aを参照)では、UTトランスデューサをナビゲートして、所望のビュー(例えば、4C、2C、SAなど)を生成するようにユーザに指示することができる。停止サインが示された場合(例えば、図19Bを参照)、ユーザは静止するように求められ、その間に本開示の例示的実施形態による例示的システム、方法およびコンピュータアクセス可能媒体が情報を収集する。例示的なビューを横断した後、例示的なシステム、方法、およびコンピュータアクセス可能媒体は、LVの3D再構成とともにEF予測を自動的に生成することができる。
[0092]EFの例示的な決定は、以下の例示的な処理を含むことができる。
(i)各入力トリプルXは、ビュー検出とLVセグメンテーション生成のために、例示的なネットワークを通過し得る。
(ii)各ビューについて、時間対面積曲線を計算し得る。
(iii)永続的な図を使用して、これらの曲線の安定した最大点と最小点を見出し得る。
(iv)各ビューから、すべての最大および最小断面を抽出し得る。
(v)最小断面と最大断面のすべての組み合わせを考慮することにより、LVの収縮期および拡張期の3Dボリュームを再構築し得る。
(vi)断面の各集合(例えば、すべて最小または最大いずれかの同タイプ)で、断面を3D空間に配置し得る(例えば、図21Aの、画像2105の最小断面の1つの集合と、画像2110の最大断面の1つの集合を参照)。
(vii)3DメッシュM=(V,E,F)を、頂点V、エッジE、面Fを使用して、表面の、Willmoreエネルギィ、JM H2dAを最小化しつつ断面の境界をメッシュ表面上に拘束することにより、断面に適合し得る。ここでHは平均曲率、dAは表面上の面積要素である。Willmoreエネルギィは、歪みを最小限に抑えるために使用することができ、丸い球体に最適である。例示的な最適化は、ライン探索ストラテジーとともに勾配降下によって実行し得る。図21Bは、図21Aの断面を使用して生成された再構成を示す。
(viii)収縮期および拡張期の再建図の各ペアから、候補のEFを測定し得る。EFの最終的なロバスト推定は、EFヒストグラムのメジアンとして生成することができる。図22は、例示的なヒストグラム(EFヒストグラム2202およびEF予測2210)および抽出値を示している。
[0093]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、上記の例示的な処理を利用して、心周期全体の3D再構成を生成することができる(例えば、図20A−20Gを参照)。
[0094]上記の自動EF処理を検証するために、114の匿名症例のテストが行われ、4人の熟練の心臓専門医と2人の専門技術者と比較して、EFを評価/計算した。各ケースについてのグラウンドトゥルースが、これらの評価の中央値として定義された。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、グラウンドトゥルースへの平均偏差と標準偏差に関して専門家と比較された。以下の表1から分かるように、例示的なシステム、方法、およびコンピュータアクセス可能媒体は、トップの専門家に匹敵する結果を生み出し、ほとんどの専門家より優れている。図23Aおよび23Bは、専門家の誤差の例示的なヒストグラム(例えば、図23Aを参照)と、例示的なシステム、方法およびコンピュータアクセス可能媒体の誤差(例えば、図23Bを参照)を示す。
Figure 2020511190
表1:グラウンドトゥルースEFに関するさまざまな専門家に対する例示的なシステム、方法、およびコンピューターアクセス可能媒体の比較に基づく、114人対象のEF推定誤差の平均および標準偏差の比較。
例示的な救急部門の使用
[0095]救急部門において、超音波の使用は一般的である。病院や医療センターの救急部門は、ヘルスケアシステムで最も忙しく、ストレスが多く、怖い場所の1つである。患者の症状を改善するには、迅速で信頼性の高い診断の必要性が非常に重要になる場合がある。現在、超音波は、肺、心臓、腹部のスキャン、およびOB−GYNなどの例示的な分野で重要な役割を果たしている。さらに、骨折を含む整形外科の異常の急性スキャンが導入され、救急部門の超音波検査に組み込まれた。救急部門で機器を求めずに臨床医がスキャンできるようにするハンドヘルドデバイスの進化により、重要な決定のプロセスが容易になり、高品質の超音波イメージングによる処理ガイダンスも得られるようになった。
[0096]特定の急病の診断におけるベッドサイドでの即時の超音波検査の魅力は、救急医にとって理想的なツールになり得る。患者のトリアージ、診断、および迅速な治療への圧力が高まっているため、救急部門の主要なスクリーニングツールとしての超音波の使用が促進されている。現在EDで使用されている主な領域は、腹部、骨盤、心臓、および外傷である。
[0097]現在、例えば、救急部門の医師を訓練して超音波の専門家になるためには、最低12か月の特定の訓練が必要である。12か月のトレーニングを完全に受ける救急部門の医師のための公式の超音波フェローシップがある。現在、国内のすべての救急部門に超音波検査の専門家が配備されてはいない。したがって、例示的なシステム、方法、およびコンピュータアクセス可能媒体は、救急室の医師が異なる身体システムの異常を迅速に特定するのを支援することができる。
救急部門での例示的な心臓超音波
[0098]緊急の心臓超音波検査を用いて、心嚢液とタンポナーデ、心臓活動、梗塞、収縮性の包括的評価、中心静脈体積状態の検出、並びに肺塞栓症の疑いを評価し得る。また、超音波は、重症患者およびリスク患者の蘇生に組み込まれている。原因不明低血圧症患者の評価では、緊急心臓超音波検査を心不全および呼吸困難に使用するために拡張することもできる。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、以下の例示的な機能を実行することができる。
例示的な異常な分節運動
[0099]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、潜在的な心室虚血または梗塞を示す、心室壁および隔壁の任意部分の無動、運動低下、ジスキネジア、および奇異運動を含む異常な動きがある場合、オペレータに警告することもできる。左室容積を、血液量減少の状況で表示してもよい(例えば、図16に示す図を参照)。
[00100]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、以下の例示的な検査のために救急部門で使用することができる。
1)外傷または迅速(検査)での超音波検査による集中評価
2)妊娠
3)腹部大動脈瘤
4)肝胆道系
5)尿路
6)深部静脈血栓症
7)軟組織の筋骨格
8)胸部気道
9)眼
10)腸
[00101]救急部門での超音波の使用例には、より迅速で急性の診断のために潜在的に深層学習を使用することができる。
[00102]救急医が超音波を使用すると、高品質で低コストのケアを提供するために、病気や怪我の際の緊急状態を正確に診断するためのタイムリーで費用対効果の高い手段を提供することができる。ED超音波の使用は、多くの場合、CTやMRIなどの高価な検査の必要性を減らし、より包括的な精密検査のための不必要な入院を減らすことができます。さらに、患者をあるラボから別のラボに移動させるには、人手と複雑なキュースケジューリングとモニタリングが必要となる。したがって、本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、救急部門で超音波を使用する新しい方法を提供することができる(例えば、図17に示す図を参照)。
[00103]例えば、図17の例示的な図に示されるように、例えば、本開示の例示的な実施形態による例示的なシステム、方法および/またはコンピュータアクセス可能媒体を使用して、ニューラルネットワークコア医療イメージング1705を実行することができる。これは、さまざまな臓器、臓器タイプ、または医学の専門分野1715(例えば、(i)心臓、(ii)腹部、(iii)胸部、(iv)OBGYN、(v)腫瘍学、(vi)泌尿器科、および(vii)整形外科)に基づいた臓器固有1715とすることができる。ニューラルネットワークコア医療イメージング1705は、さまざまな設定1720(例えば、(i)患者ケア、(ii)教育、(iii)トレーニング、(iv)品質保証(「QA」)、および(v)結果)で使用することができる。さまざまな画像モダリティ1725を使用することができる(例えば、(i)超音波、(ii)磁気共鳴画像(「MRI」)、(iii)コンピュータ断層撮影(「CT」)、(iv)ポジトロン放出断層撮影CT(「PETCT」)、および(v)核)。
[00104]例示的な検査の評価は、ポイントオブケアの改善につながる。確立された分析ツールを使用すると、はるかに高速で信頼性の高い診断を促進することができる。特別なトレーニングの主要な要件の必要はない。本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、軍事分野、遠隔医療用途、緊急医療施設および在宅医療を含む他の分野で使用することができる(例えば、図18に示す図を参照)。例示的なシステム、方法、およびコンピュータアクセス可能媒体を使用するための例示的な市場1805は、病院1810を含むことができる(例えば、(i)心臓病学1815、(ii)ED1820、(iii)放射線科1825、および(iv)集中型ケア1830、緊急ケア1835、在宅ケア1840、軍事1845)。
[00105]図24は、本開示の例示的な実施形態による、患者の解剖学的構造の異常を検出するための例示的な方法2400の例示的なフロー図を示す。例えば、処理2405で、患者の解剖学的構造に関連する画像情報を生成または受信することができる。処理2410で、画像情報はオプションでアップサンプリングすることができる。処理2415で、異常の検出の前に、またはそれとは無関係に、部分セグメンテーション処理および位置特定処理を使用して解剖学的構造を分割することができる。処理2420で、解剖学的構造の特徴を、ニューラルネットワークを使用して画像情報に基づいて分類することができる。処理2425で、各ニューラルネットワークによって生成された出力を連結することができる。処理2430で、分類およびセグメンテーション処理を使用して生成されたデータに基づいて異常を検出することができる。
[00106]図25は、本開示によるシステムの例示的実施形態のブロック図を示す。例えば、本明細書で説明される本開示による例示的な処理は、処理構成および/または演算構成2505によって実行され得る。そのような処理/演算構成2505は、例えば、限定されないが、1または複数のマイクロプロセッサを含み得るコンピュータ/プロセッサ2510の全体または一部であるか、これを具え、コンピュータアクセス可能媒体(例えば、RAM、ROM、ハードドライブ、またはその他のストレージデバイス)に格納された命令を使用することができる。
[00107]図25に示すように、例えば、コンピュータアクセス可能媒体2515(例えば、本明細書で上述したように、ハードディスク、フロッピーディスク、メモリスティック、CD−ROM、RAM、ROMなどのストレージデバイス、またはその集合)を提供することができる(例えば、処理構成2505と通信して)。コンピュータアクセス可能媒体2515は、実行可能命令2520を含むことができる。追加的または代替的に、記憶装置2525をコンピュータアクセス可能媒体2515とは別に提供することができ、これが処理構成2505に命令を提供して、例えば本書で説明した特定の例示的な処理、プロセスおよび方法を実行するように処理構成を構築することができる。
[00108]さらに、例示的な処理構成2505は、例えば、有線ネットワーク、無線ネットワーク、インターネット、イントラネット、データ収集プローブ、センサなどを含み得る入力/出力構成2535を具えるか、または含むことができる。図25に示すように、例示的な処理構成2505は、本開示の特定の例示的な実施形態によれば、例えば、処理装置からの情報の出力に加えて処理構成に情報を入力するように構成されたタッチスクリーンであり得る例示的なディスプレイ装置2530と通信することができる。さらに、例示的なディスプレイ2530および/または記憶装置2525を使用して、ユーザがアクセス可能なフォーマットおよび/またはユーザが読み取り可能なフォーマットでデータを表示および/または記憶することができる。
[00109]上記は単に本開示の原理を示しているにすぎない。説明された実施形態に対する様々な修正および変更が、本明細書の教示を考慮した当業者には明らかであろう。したがって、当業者は、本明細書で明示的に図示または説明されていないが、本開示の原理を具現化し、したがって、本発明の精神および範囲内にあり得る多数のシステム、構成、および処理を考案できることを理解されたい。当業者によって理解されるべきであるように、様々な異なる例示的な実施形態は、相互に、ならびにそれらと交換可能に使用することができる。加えて、本明細書、図面、および特許請求の範囲を含む本開示で使用される特定の用語は、例えばデータおよび情報を含むがこれらに限定されない特定の例で同義的に使用できる。本明細書では、これらの単語、および/または互いに同義であり得る他の単語を同義で使用できるが、そのような単語を同義で使用しないように意図できる場合がある場合があることを理解されたい。さらに、先行技術の知識は、本明細書の上記に参照により明示的に組み込まれていない限り、その全体が明示的に本明細書に組み込まれる。参照されているすべての文献は、その全体が参照により本明細書に組み込まれる。
[先行技術文献]
[00110]以下の参考文献は、参照によりその全体が本明細書に組み込まれる。
[非特許文献1]Ian Goodfellow、Jean Pouget-Abadie、Mehdi Mirza、Bing Xu、David Warde-Farley、Sherjil Ozair、Aaron Courville、Yoshua Bengio、Generative adversarial nets、Advances in neural information processing systems、2014年、pp.2672-2680
[非特許文献2]Phillip Isola、Jun-Yan Zhu、Tinghui Zhou、Alexei A Efros、Image-to-Image translation with conditional advuersarial networks、arXiv preprint arXiv:1611.07004(2016)
[非特許文献3]Alex Krizhevsky、Ilya Sutskever、Geoffrey E Hinton、Imagenet classification with deep convolutional neural networks、ニューラル情報処理システムの進歩、2012年、pp.1097-1105
[0069]本開示の例示的な実施形態による例示的なシステム、方法、およびコンピュータアクセス可能媒体は、セグメンテーションを改善するために利用することができ、コスト関数およびGAN(Generative Adversarial Networks)を含むことができる。例えば、セグメンテーションのL1正則化を損失関数として使用し、標準のクロスエントロピー損失よりも正確な境界検出を提供することができる。代替的または追加的に、例えばGANを使用して例示的な損失関数をトレーニングすることができる。例として、セグメンテーションネットワークがある場合、ディスクリミネータネットワークをトレーニングして、実際のセグメンテーションとセグメンテーションネットワークによって作成されたセグメンテーションとを区別するようにする。セグメンテーションネットワークをさらにトレーニングするために、このディスクリミネータを他の損失と組み合わせて、または単独で使用することができる。ディスクリミネータネットワークへの入力には、実際の例では(Xi、Zi)、および(Xi、f(Xi))を含めることができ、ここでf(Xi)はセグメンテーションネットワークの出力である。
例示的な部分セグメンテーション
[0075]例示的な部分セグメンテーション手順は、部分のラベルに従って入力画像xi内の各ピクセルのラベリングを利用することができる。例えば、左心室(「LV」)セグメンテーションのみを実装することができる。図10は、例示的なシステムによって生成されるLVのセグメンテーションの画像のセットを示し、これは要素1005で示されている。グラウンドトゥルース(「GT」)ユーザセグメンテーションが要素1010で示され、2つの重複が要素1015で示されている。例示的なシステムとユーザGTによって生成されたセグメンテーションは、視覚的に非常に近いことに留意されたい。この例示的な手順の定量分析を行うために、2つのエラー測定値を計算した:(i)例示的なシステムのセグメンテーションとGTセグメンテーションの共通面積を両方の和集合で割ったものであるIoU(Intersection over Union)(例えば、これは共通のセグメンテーション領域(例えば、図10に示す要素1015)と、当該共通領域および異なる領域(例えば、図10に示す要素1005および1010)の比率を生成することができる);この比率は0から1の範囲であり、1に近いほど良く、1はピクセルレベルで例示的なセグメンテーションとGTが同一であることを意味する、(ii)例示的なシステムによって生成されるセグメンテーション領域とGTをGTセグメンテーション領域で割った差である相対面積差(「RAD」)。
例示的な弁位置特定
[0077]この例示的な手順は、ドップラー分析時に流れ計算のために特定の位置に点を配置することを利用することができる。図11A〜11Dは、2つのビュー(例えば、図11Aと11C)および拡大ビュー(例えば、それぞれ図11Bと11D)について、例示的なシステム、方法、およびコンピュータアクセス可能媒体によって生成される弁位置特定(例えば要素1105)の例示的な画像を示す。図11A〜11Dに示される要素1110は、GTについてユーザがマークした弁位置特定を中心とした円を示し、ユーザ位置特定の不確実性を表すために半径を計算することができる。この不確実性は、ユーザが弁位置特定をフレームごとに10回繰り返しマークしたデータに基づいて計算することができ、最大偏差は平均予測から計算することができる。この値は不確実性半径と呼ばれ、rでラベル付けられる。図13は、例示的なシステムの予測された弁位置特定とユーザによるグラウンドトゥルースの位置特定との間の距離の例示的なヒストグラム1305を示す。マーカ1310および1315は、それぞれ不確実性の半径rと2倍の不確実性半径2rを示す。
例示的な汎用性
[0078]例示的なコアNNをテストして、さまざまなレベルのトレーニングと「ウォームスタート」初期化の使用後に新しい手順に適応できる方法を決定した。図14A〜14Cは、例示的な拡張期/収縮期分類試験の例示的な学習グラフである。例えば、これらの学習グラフは、コアNNを次の3つの異なる方法で初期化できる場合の拡張期/収縮期手順のトレーニング時の、トレーニング(例えば、要素1405)と検証(例えば、要素1410)のエラーを示す:(i)自然画像でトレーニングされたイメージネットタイプのNNから取ったコアNN(例えば、図14Aを参照)を用いて;(ii)ビュー検出手順のトレーニングを受けた後のコアNN(例えば、図14Bを参照)を用いて;および(iii)部分セグメンテーション手順のトレーニングを受けた後のコアNN(例、図14Cを参照)を用いて。超音波分析手順(ビュー検出など)を既に学習したコアNNを使用してシステムを初期化すると、より短いトレーニング時間で、より正確な結果が得られる(図14Aと14Bの比較)。セグメンテーションを学習し、DSトレーニングを繰り返した後、結果はさらに改善される(例えば、図14Bと14Dの比較)。この例示的な実験は、(i)異なる手順が確証され、より高い精度とより良いパフォーマンスが促進され、(ii)異なる超音波手順からのコアNNで手順を初期化することで学習が促進され、より高いパフォーマンスが達成されることを支持する。
[0092]EFの例示的な決定は、以下の例示的な処理を含むことができる。
(i)各入力トリプルXiは、ビュー検出とLVセグメンテーション生成のために、例示的なネットワークを通過し得る。
(ii)各ビューについて、時間対面積曲線を計算し得る。
(iii)永続的な図を使用して、これらの曲線の安定した最大点と最小点を見出し得る。
(iv)各ビューから、すべての最大および最小断面を抽出し得る。
(v)最小断面と最大断面のすべての組み合わせを考慮することにより、LVの収縮期および拡張期の3Dボリュームを再構築し得る。
(vi)断面の各集合(例えば、すべて最小または最大いずれかの同タイプ)で、断面を3D空間に配置し得る(例えば、図21Aの、画像2105の最小断面の1つの集合と、画像2110の最大断面の1つの集合を参照)。
(vii)3DメッシュM=(V,E,F)を、頂点V、エッジE、面Fを使用して、表面の、Willmoreエネルギィ、∫dAを最小化しつつ断面の境界をメッシュ表面上に拘束することにより、断面に適合し得る。ここでHは平均曲率、dAは表面上の面積要素である。Willmoreエネルギィは、歪みを最小限に抑えるために使用することができ、丸い球体に最適である。例示的な最適化は、ライン探索ストラテジーとともに勾配降下によって実行し得る。図21Bは、図21Aの断面を使用して生成された再構成を示す。
(viii)収縮期および拡張期の再建図の各ペアから、候補のEFを測定し得る。EFの最終的なロバスト推定は、EFヒストグラムのメジアンとして生成することができる。図22は、例示的なヒストグラム(EFヒストグラム2202およびEF予測2210)および抽出値を示している。

Claims (51)

  1. 少なくとも1人の患者の少なくとも1つの解剖学的構造における少なくとも1つの異常を検出するためのコンピュータ実行可能命令を格納した非一時的コンピュータアクセス可能媒体において、
    コンピュータ装置が命令を実行するとき、当該コンピュータ装置が、
    前記少なくとも1人の患者の少なくとも1つの解剖学的構造に関連する画像情報を受信するステップと、
    少なくとも1つのニューラルネットワークを使用して、画像情報に基づいて前記少なくとも1つの解剖学的構造の少なくとも1つの特徴を分類するステップと、
    この分類処理を使用して生成されたデータに基づいて、少なくとも1つの異常を検出するステップと、を実行するように構成されることを特徴とする非一時的コンピュータアクセス可能媒体。
  2. 前記画像情報は、前記少なくとも1つの解剖学的構造の少なくとも3つの画像を含む、請求項1に記載のコンピューターアクセス可能媒体。
  3. 前記画像情報が超音波画像情報を含む、請求項1に記載のコンピュータアクセス可能媒体。
  4. 前記コンピュータ装置は、超音波装置を使用して超音波画像情報を生成するようにさらに構成される、請求項3に記載のコンピュータアクセス可能媒体。
  5. 前記少なくとも1つの解剖学的構造が心臓である、請求項1に記載のコンピューターアクセス可能媒体。
  6. 前記少なくとも1つの解剖学的構造の前記少なくとも1つの状態は、(i)前記少なくとも1人の患者の心臓の収縮期状態、(ii)前記少なくとも1人の患者の心臓の拡張期状態、(iii)前記少なくとも1人の患者の心臓の膨張状態、または(iv)前記少なくとも1人の患者の心臓の収縮状態、のうちの少なくとも1つを含む、請求項1に記載のコンピュータアクセス可能媒体。
  7. 前記コンピュータ装置は、ビュー検出処理を使用して前記少なくとも1つの特徴を分類する、請求項1に記載のコンピュータアクセス可能媒体。
  8. 前記ビュー検出処理は、前記コンピュータ装置を使用して、前記画像情報内の特定の画像フレームのビューを検出するステップを含む、請求項7に記載のコンピュータアクセス可能媒体。
  9. 前記コンピュータ装置は、前記少なくとも1つの異常の検出の前に、またはそれとは独立して、部分セグメンテーション処理および位置特定処理を使用して少なくとも1つの解剖学的構造をセグメンテーションするようにさらに構成される、請求項1に記載のコンピュータアクセス可能媒体。
  10. 前記少なくとも1つの解剖学的構造は心臓であり、前記コンピュータ装置は、前記部分セグメンテーション処理を使用して、背景から、少なくとも1人の患者の心臓の左心室および/または右心室および/または左心房および/または右心房および/または他の部分をセグメンテーションするように構成される、請求項9に記載のコンピュータアクセス可能媒体。
  11. 前記少なくとも1つの解剖学的構造が心臓であり、前記位置特定処理が弁位置特定処理である、請求項9に記載のコンピュータアクセス可能媒体。
  12. 請求項11に記載のコンピュータアクセス可能媒体において、前記弁位置特定処理は、前記コンピュータ装置を使用して、少なくとも1つのドップラー測定点を配置するために前記画像情報のフレームごとに単一ピクセルをマーキングすることを含む、コンピュータアクセス可能媒体。
  13. 前記画像情報は複数の画像を含み、前記少なくとも1つのニューラルネットワークは複数のニューラルネットワークを含み、各ニューラルネットワークは前記画像の1つに関連付けられる、請求項1に記載のコンピュータアクセス可能媒体。
  14. 前記コンピュータハードウェア装置は、前記ニューラルネットワークのそれぞれを使用して、前記画像の関連する1つにおける前記少なくとも1つの特徴を分類するように構成される、請求項13に記載のコンピュータアクセス可能媒体。
  15. 前記コンピュータ装置は、前記ニューラルネットワークのそれぞれによって生成された出力を連結するようにさらに構成される、請求項14に記載のコンピュータアクセス可能媒体。
  16. 請求項15に記載のコンピュータアクセス可能媒体において、前記コンピュータ装置は、前記ニューラルネットワークの各々の出力を連接(concateate)するように構成されている、コンピュータアクセス可能媒体。
  17. 前記コンピュータ構成は、前記撮像情報をアップサンプリングするようにさらに構成される、請求項1に記載のコンピュータアクセス可能媒体。
  18. 少なくとも1人の患者の少なくとも1つの解剖学的構造の少なくとも1つの異常を検出するためのシステムにおいて、
    前記少なくとも1人の患者の少なくとも1つの解剖学的構造に関する画像情報を受信し、
    少なくとも1つのニューラルネットワークを使用して、前記画像情報に基づいて前記少なくとも1つの解剖学的構造の少なくとも1つの特徴を分類し、
    この分類処理によって生成されたデータに基づいて、少なくとも1つの異常を検出するように構成された、特別に構成されたコンピュータハードウェア装置を具えることを特徴とするシステム。
  19. 前記画像情報は、前記少なくとも1つの解剖学的構造の少なくとも3つの画像を含む、請求項18に記載のシステム。
  20. 前記画像情報が超音波画像情報を含む、請求項18に記載のシステム。
  21. 前記コンピュータハードウェア装置は、超音波装置を使用して超音波画像情報を生成するようにさらに構成される、請求項20に記載のシステム。
  22. 前記少なくとも1つの解剖学的構造が心臓である、請求項18に記載のシステム。
  23. 前記少なくとも1つの解剖学的構造の少なくとも1つの状態は、(i)少なくとも1人の患者の心臓の収縮期状態、(ii)前記少なくとも1人の患者の心臓の拡張期状態、(iii)前記少なくとも1人の患者の心臓の膨張状態、または(iv)少なくとも1人の患者の心臓の収縮状態、のうちの少なくとも1つを含む、請求項18に記載のシステム。
  24. 前記コンピュータハードウェア装置は、ビュー検出処理を使用して前記少なくとも1つの特徴を分類するようにさらに構成される、請求項18に記載のシステム。
  25. 前記ビュー検出処理は、前記コンピュータ装置を使用して、前記画像情報内の特定の撮像フレームのビューを検出することを含む、請求項24に記載のシステム。
  26. 前記コンピュータハードウェア装置は、前記少なくとも1つの異常の検出の前にまたはそれとは独立して、部分セグメンテーション処理および位置特定処理を使用して前記少なくとも1つの解剖学的構造をセグメンテーションするようにさらに構成される、請求項18に記載のシステム。
  27. 前記少なくとも1つの解剖学的構造は心臓であり、前記コンピュータ装置は、前記部分セグメンテーション処理を使用して背景から左心室および/または右心室および/または左心房および/または右心房/または前記少なくとも一人の患者の心臓の他の部分をセグメンテーションするように構成される、請求項26に記載のシステム。。
  28. 前記少なくとも1つの解剖学的構造が心臓であり、前記位置特定処理が弁位置特定処理である、請求項26に記載のシステム。
  29. 前記弁位置特定処理は、前記コンピュータ装置を使用して、少なくとも1つのドップラー測定点を配置するために前記撮像情報のフレームごとに単一ピクセルをマークすることを含む請求項28に記載のシステム。
  30. 前記画像情報は複数の画像を含み、前記少なくとも1つのニューラルネットワークは複数のニューラルネットワークを含み、各ニューラルネットワークは前記画像の1つに関連付けられる、請求項18に記載のシステム。
  31. 前記コンピュータハードウェア装置は、前記ニューラルネットワークのそれぞれを利用して、前記複数の画像のうちの関連する1つにおける前記少なくとも1つの特徴を分類するようにさらに構成される、請求項30に記載のシステム。
  32. 前記コンピュータハードウェア装置は、前記ニューラルネットワークのそれぞれによって生成された出力を連結するようにさらに構成される、請求項31に記載のシステム。
  33. 前記コンピュータハードウェア装置は、各ニューラルネットワークの出力を連結(concatenate)するようにさらに構成される、請求項32に記載のシステム。
  34. 前記コンピュータハードウェア装置は、前記画像情報をアップサンプリングするようにさらに構成される、請求項18に記載のシステム。
  35. 少なくとも1人の患者の少なくとも1つの解剖学的構造における少なくとも1つの異常を検出する方法において、
    前記少なくとも1人の患者の少なくとも1つの解剖学的構造に関する画像情報を受信するステップと、
    少なくとも1つのニューラルネットワークを使用して、前記画像情報に基づいて前記少なくとも1つの解剖学的構造の少なくとも1つの特徴を分類するステップと、
    特別に構成されたコンピュータハードウェア装置を使用して、分類処理によって生成されたデータに基づいて少なくとも1つの異常を検出するステップとを含む方法。
  36. 前記画像情報が、前記少なくとも1つの解剖学的構造の少なくとも3つの画像を含む、請求項35に記載の方法。
  37. 前記画像情報が超音波画像化情報を含む、請求項35に記載の方法。
  38. 超音波装置を使用して前記超音波画像情報を生成するステップをさらに含む、請求項37に記載の方法。
  39. 前記少なくとも1つの解剖学的構造が心臓である、請求項35に記載の方法。
  40. 前記少なくとも1つの解剖学的構造の少なくとも1つの状態が、(i)少なくとも1人の患者の心臓の収縮期状態、(ii)少なくとも1人の患者の心臓の拡張期状態、(iii)少なくとも1人の患者の心臓の膨張状態、または(iv)少なくとも1人の患者の心臓の収縮状態のうちの少なくとも1つを含む、請求項35に記載の方法。。
  41. ビュー検出処理を使用して前記少なくとも1つの特徴を分類するステップをさらに含む、請求項35に記載の方法。
  42. 前記ビュー検出処理は、前記コンピュータ装置を使用して、前記画像情報内の特定の撮像フレームのビューを検出するステップを含む、請求項41に記載の方法。
  43. 前記少なくとも1つの異常の検出の前に、またはそれとは独立して、部分セグメンテーション処理および位置特定処理を使用して前記少なくとも1つの解剖学的構造をセグメンテーションするステップをさらに含む、請求項35に記載の方法。
  44. 前記少なくとも1つの解剖学的構造は心臓であり、前記コンピュータ装置は、前記部分セグメンテーション処理を使用して、背景から前記少なくとも一人の患者の心臓の左心室および/または右心室および/または左心房および/または右心房および/または他の部分をセグメンテーションするように構成される、請求項43に記載の方法。。
  45. 前記少なくとも1つの解剖学的構造が心臓であり、前記位置特定処理が弁位置特定処理である、請求項43に記載の方法。
  46. 前記弁位置特定処理は、前記コンピュータ装置を使用して、少なくとも1つのドップラー測定点を配置するために、前記画像情報内のフレームごとに単一ピクセルをマークするステップを含む請求項45に記載の方法。
  47. 前記画像情報が複数の画像を含み、前記少なくとも1つのニューラルネットワークが複数のニューラルネットワークを含み、前記ニューラルネットワークのそれぞれが前記画像の1つに関連付けられる、請求項35に記載の方法。
  48. 前記ニューラルネットワークのそれぞれを使用して、前記複数の画像うちの関連する1つにおける少なくとも1つの特徴を分類するステップをさらに含む、請求項47に記載の方法。
  49. 前記複数の画像のうちの関連する画像における少なくとも1つの特徴が、前記ニューラルネットワークのそれぞれによって生成される出力を連結(concatenate)する、請求項48に記載の方法。
  50. 前記複数の画像のうちの関連する画像における少なくとも1つの特徴が、前記ニューラルネットワークのそれぞれの出力をある深さで連結する、請求項49に記載の方法。
  51. 前記複数の画像のうちの関連する1つにおける少なくとも1つの特徴が、前記画像情報をアップサンプリングする、請求項50に記載の方法。
JP2019539232A 2017-01-19 2018-01-19 超音波分析のためのシステムおよび方法 Pending JP2020511190A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022150347A JP7395142B2 (ja) 2017-01-19 2022-09-21 超音波分析のためのシステムおよび方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762448061P 2017-01-19 2017-01-19
US62/448,061 2017-01-19
PCT/US2018/014536 WO2018136805A1 (en) 2017-01-19 2018-01-19 System, method and computer-accessible medium for ultrasound analysis

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022150347A Division JP7395142B2 (ja) 2017-01-19 2022-09-21 超音波分析のためのシステムおよび方法

Publications (1)

Publication Number Publication Date
JP2020511190A true JP2020511190A (ja) 2020-04-16

Family

ID=62908785

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019539232A Pending JP2020511190A (ja) 2017-01-19 2018-01-19 超音波分析のためのシステムおよび方法
JP2022150347A Active JP7395142B2 (ja) 2017-01-19 2022-09-21 超音波分析のためのシステムおよび方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022150347A Active JP7395142B2 (ja) 2017-01-19 2022-09-21 超音波分析のためのシステムおよび方法

Country Status (8)

Country Link
US (2) US11478226B2 (ja)
EP (1) EP3570752A4 (ja)
JP (2) JP2020511190A (ja)
KR (1) KR20190119592A (ja)
CN (1) CN110461240A (ja)
IL (1) IL268141B2 (ja)
RU (1) RU2019125590A (ja)
WO (1) WO2018136805A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7498195B2 (ja) 2019-04-30 2024-06-11 ロレアル 複数のオブジェクトを追跡するための畳み込みニューラルネットワークを用いた画像処理

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018178212A1 (en) * 2017-03-28 2018-10-04 Koninklijke Philips N.V. Ultrasound clinical feature detection and associated devices, systems, and methods
US10628919B2 (en) * 2017-08-31 2020-04-21 Htc Corporation Image segmentation method and apparatus
US11534136B2 (en) * 2018-02-26 2022-12-27 Siemens Medical Solutions Usa, Inc. Three-dimensional segmentation from two-dimensional intracardiac echocardiography imaging
US11024025B2 (en) * 2018-03-07 2021-06-01 University Of Virginia Patent Foundation Automatic quantification of cardiac MRI for hypertrophic cardiomyopathy
EP3553740A1 (en) * 2018-04-13 2019-10-16 Koninklijke Philips N.V. Automatic slice selection in medical imaging
PL3793447T3 (pl) 2018-05-15 2023-06-26 New York University System i sposób do orientowania wykonywania zdjęć ultrasonograficznych
US11486950B2 (en) * 2018-08-01 2022-11-01 General Electric Company Systems and methods for automated graphical prescription with deep neural networks
CN109345498B (zh) * 2018-10-05 2021-07-13 数坤(北京)网络科技股份有限公司 融合双源ct数据的冠脉分割方法
US11651487B2 (en) * 2019-07-12 2023-05-16 The Regents Of The University Of California Fully automated four-chamber segmentation of echocardiograms
JP7471895B2 (ja) * 2020-04-09 2024-04-22 キヤノンメディカルシステムズ株式会社 超音波診断装置及び超音波診断システム
US20210330285A1 (en) * 2020-04-28 2021-10-28 EchoNous, Inc. Systems and methods for automated physiological parameter estimation from ultrasound image sequences
US11523801B2 (en) * 2020-05-11 2022-12-13 EchoNous, Inc. Automatically identifying anatomical structures in medical images in a manner that is sensitive to the particular view in which each image is captured
CN111598868B (zh) * 2020-05-14 2022-12-30 上海深至信息科技有限公司 一种肺部超声图像识别方法和***
KR102292002B1 (ko) * 2021-02-09 2021-08-23 강기운 인공 심박동 유발 심근병 모니터링 심장 초음파 장치
JP7475313B2 (ja) * 2021-04-19 2024-04-26 富士フイルムヘルスケア株式会社 超音波診断システム、超音波診断装置及び診断支援サーバー
CN113450337B (zh) * 2021-07-07 2024-05-24 东软医疗***股份有限公司 心包腔内积液的评价方法、装置、电子设备及存储介质
KR20240057761A (ko) * 2022-10-25 2024-05-03 주식회사 온택트헬스 심장 초음파 영상에 대한 정보 제공 방법 및 이를 이용한 심장 초음파 영상에 대한 정보 제공용 디바이스

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006509613A (ja) * 2002-12-13 2006-03-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 心周期を示す画像フレームのシリーズを処理するシステム及び方法
JP2009072593A (ja) * 2007-09-18 2009-04-09 Siemens Medical Solutions Usa Inc 3次元心臓エコーグラフデータからの平面の自動検出方法
JP2011000462A (ja) * 2003-11-19 2011-01-06 Siemens Medical Solutions Usa Inc 画像内の候補対象の変形可能な形状の検出および追跡方法、および、画像内の候補対象の変形可能な形状の検出および追跡システム
JP2016168332A (ja) * 2015-03-12 2016-09-23 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. サブボリュームの連続適応強化超音波イメージング

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6106466A (en) * 1997-04-24 2000-08-22 University Of Washington Automated delineation of heart contours from images using reconstruction-based modeling
EP1639542A1 (en) * 2003-06-16 2006-03-29 Philips Intellectual Property & Standards GmbH Image segmentation in time-series images
US7912528B2 (en) * 2003-06-25 2011-03-22 Siemens Medical Solutions Usa, Inc. Systems and methods for automated diagnosis and decision support for heart related diseases and conditions
US7545965B2 (en) 2003-11-10 2009-06-09 The University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)
US20060074315A1 (en) * 2004-10-04 2006-04-06 Jianming Liang Medical diagnostic ultrasound characterization of cardiac motion
US8913830B2 (en) 2005-01-18 2014-12-16 Siemens Aktiengesellschaft Multilevel image segmentation
US8009900B2 (en) 2006-09-28 2011-08-30 Siemens Medical Solutions Usa, Inc. System and method for detecting an object in a high dimensional space
US8771189B2 (en) * 2009-03-18 2014-07-08 Siemens Medical Solutions Usa, Inc. Valve assessment from medical diagnostic imaging data
US8396268B2 (en) * 2010-03-31 2013-03-12 Isis Innovation Limited System and method for image sequence processing
US9092692B2 (en) 2012-09-13 2015-07-28 Los Alamos National Security, Llc Object detection approach using generative sparse, hierarchical networks with top-down and lateral connections for combining texture/color detection and shape/contour detection
US9700219B2 (en) * 2013-10-17 2017-07-11 Siemens Healthcare Gmbh Method and system for machine learning based assessment of fractional flow reserve
US9730643B2 (en) * 2013-10-17 2017-08-15 Siemens Healthcare Gmbh Method and system for anatomical object detection using marginal space deep neural networks
US9092743B2 (en) * 2013-10-23 2015-07-28 Stenomics, Inc. Machine learning system for assessing heart valves and surrounding cardiovascular tracts
US10271817B2 (en) * 2014-06-23 2019-04-30 Siemens Medical Solutions Usa, Inc. Valve regurgitant detection for echocardiography
CN106156793A (zh) * 2016-06-27 2016-11-23 西北工业大学 结合深层特征提取和浅层特征提取的医学图像分类方法
US10074038B2 (en) * 2016-11-23 2018-09-11 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006509613A (ja) * 2002-12-13 2006-03-23 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 心周期を示す画像フレームのシリーズを処理するシステム及び方法
JP2011000462A (ja) * 2003-11-19 2011-01-06 Siemens Medical Solutions Usa Inc 画像内の候補対象の変形可能な形状の検出および追跡方法、および、画像内の候補対象の変形可能な形状の検出および追跡システム
JP2009072593A (ja) * 2007-09-18 2009-04-09 Siemens Medical Solutions Usa Inc 3次元心臓エコーグラフデータからの平面の自動検出方法
JP2016168332A (ja) * 2015-03-12 2016-09-23 シーメンス メディカル ソリューションズ ユーエスエー インコーポレイテッドSiemens Medical Solutions USA,Inc. サブボリュームの連続適応強化超音波イメージング

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7498195B2 (ja) 2019-04-30 2024-06-11 ロレアル 複数のオブジェクトを追跡するための畳み込みニューラルネットワークを用いた画像処理

Also Published As

Publication number Publication date
RU2019125590A (ru) 2021-02-19
EP3570752A1 (en) 2019-11-27
JP2022188108A (ja) 2022-12-20
WO2018136805A1 (en) 2018-07-26
RU2019125590A3 (ja) 2021-08-30
IL268141B1 (en) 2023-05-01
JP7395142B2 (ja) 2023-12-11
CN110461240A (zh) 2019-11-15
US20190388064A1 (en) 2019-12-26
IL268141A (en) 2019-09-26
EP3570752A4 (en) 2020-01-22
IL268141B2 (en) 2023-09-01
KR20190119592A (ko) 2019-10-22
US11478226B2 (en) 2022-10-25
US20230104045A1 (en) 2023-04-06

Similar Documents

Publication Publication Date Title
JP7395142B2 (ja) 超音波分析のためのシステムおよび方法
Slomka et al. Cardiac imaging: working towards fully-automated machine analysis & interpretation
Parvaiz et al. Vision Transformers in medical computer vision—A contemplative retrospection
Swift et al. A machine learning cardiac magnetic resonance approach to extract disease features and automate pulmonary arterial hypertension diagnosis
US10997475B2 (en) COPD classification with machine-trained abnormality detection
US7672491B2 (en) Systems and methods providing automated decision support and medical imaging
JP2018505705A (ja) 機械学習を用いた医用イメージングの変換のためのシステムおよび方法
US20220012875A1 (en) Systems and Methods for Medical Image Diagnosis Using Machine Learning
de Siqueira et al. Artificial intelligence applied to support medical decisions for the automatic analysis of echocardiogram images: A systematic review
Santhiyakumari et al. Medical decision-making system of ultrasound carotid artery intima–media thickness using neural networks
Lucassen et al. Deep learning for detection and localization of B-lines in lung ultrasound
WO2024126468A1 (en) Echocardiogram classification with machine learning
Mukherjee et al. Computing myocardial motion in 4-dimensional echocardiography
Ragnarsdottir et al. Interpretable prediction of pulmonary hypertension in newborns using echocardiograms
CN116580819A (zh) 用于自动化地确定图像序列中的检查结果的方法和***
US20240074738A1 (en) Ultrasound image-based identification of anatomical scan window, probe orientation, and/or patient position
CN114767153A (zh) 基于人工智能的肺炎超声图像快速评估方法和***
US20230316523A1 (en) Free fluid estimation
Magesh et al. Fetal heart disease detection via deep reg network based on ultrasound images
Jafari Towards a more robust machine learning framework for computer-assisted echocardiography
Alkhodari et al. Artificial intelligence in cardiovascular imaging: advances and challenges
Lin et al. Deep learning for the identification of pre-and post-capillary pulmonary hypertension on cine MRI
WO2024046807A1 (en) Ultrasound video feature detection using learning from unlabeled data
Mehdi et al. Multi-Modality Deep Infarct: Non-invasive identification of infarcted myocardium using composite in-silico-human data learning
Oksuz et al. Quality Control

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131