JP7462672B2 - 超音波撮像におけるセグメンテーション及びビューガイダンス並びに関連するデバイス、システム及び方法 - Google Patents

超音波撮像におけるセグメンテーション及びビューガイダンス並びに関連するデバイス、システム及び方法 Download PDF

Info

Publication number
JP7462672B2
JP7462672B2 JP2021558735A JP2021558735A JP7462672B2 JP 7462672 B2 JP7462672 B2 JP 7462672B2 JP 2021558735 A JP2021558735 A JP 2021558735A JP 2021558735 A JP2021558735 A JP 2021558735A JP 7462672 B2 JP7462672 B2 JP 7462672B2
Authority
JP
Japan
Prior art keywords
image frame
sequence
ultrasound
patient
ultrasound imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021558735A
Other languages
English (en)
Other versions
JPWO2020201183A5 (ja
JP2022526575A (ja
Inventor
アルヴィン チェン
クナル ヴァイジャ
ブライアン リー
ライカル ヴィプル シュリハリ パイ
ミンシン ズン
シャム バーラト
アーミート クマー ジャイン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2022526575A publication Critical patent/JP2022526575A/ja
Publication of JPWO2020201183A5 publication Critical patent/JPWO2020201183A5/ja
Application granted granted Critical
Publication of JP7462672B2 publication Critical patent/JP7462672B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • G06T7/0016Biomedical image inspection using an image reference approach involving temporal comparison
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2063Acoustic tracking systems, e.g. using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Quality & Reliability (AREA)
  • Robotics (AREA)
  • Multimedia (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

関連出願の相互参照
[0001] 本出願は、適用可能な全ての目的に関して以下において完全に記載されているかのようにその全体が参照によって本明細書に組み込まれる2019年4月2日出願の米国仮特許出願第62/828,185号及び2020年1月23日出願の米国仮特許出願第62/964,715号の優先権及び利益を主張する。
[0002] 本開示は、概して、超音波撮像、特には、運動物体のセグメンテーション及び最適な撮像ビューの場所を特定するためのガイダンスを提供することに関する。
[0003] 超音波は、医療処置(例えば、診断、介入及び/又は治療)中に解剖学的組織及び/又は医療デバイスの無放射の、安全で、リアルタイムの動的撮像を提供し得る。従来、臨床医は、医療処置中に、診断におけるガイダンス及び/又は患者の身体内を通る医療デバイスのナビゲーションを提供する2次元的(2D)超音波撮像に頼っていた。しかしながら、いくつかの事例において、医療デバイス及び/又は解剖学的構造は、肉薄で、剛性が無く、及び/又は運動していることがあり、2D超音波画像においてそれらを識別することを困難なものとしている。同様に、解剖学的構造は、肉薄で、曲がりくねり、いくつかの事例においては常に運動中である(例えば、呼吸、心臓及び/又は動脈パルスによる)。
[0004] 3次元的(3D)超音波の近年の発達及び可用性は、2D画像スライスではなく3Dボリュームを観察することを可能とする。3Dボリュームの視覚化が可能であることは、医療処置において役に立ち得る。例えば、医療デバイスの先端部は2D画像スライスにおいては短縮遠近法のせいではっきりわからないが、3Dボリュームにおいて観察すると明白である。3Dボリュームにおける最適な撮像平面の位置決めなどの動作は、4次元的(4D)撮像(例えば、経時的な3D撮像)から著しい利益を得ることができる。3D及び/又は4D撮像から利益を得ることができる臨床分野の例としては、末梢血管系疾患(PVD)及び器質的心疾患(SHD)の診断及び/又は治療などがある。
[0005] 3D及び/又は4D撮像が医療処置に有益な視覚化及び/又はガイダンスを提供し得る一方、3D及び/又は4D撮像データの解釈は、データの高ボリューム、高次元性、低解像度、及び/又は低フレームレートに起因して複雑で、困難であることがある。例えば、3D及び/又は4D撮像データの正確な解釈は、広範囲にわたる訓練を積み、高度な専門知識を有するユーザ又は臨床医を必要とする。加えて、データの解釈は、ユーザ次第である。典型的には、超音波誘導式処置中に、臨床医は、患者の解剖学的組織及び/又は医療デバイスの理想的な撮像ビューを見つけるために多くの時間を費やす。
[0006] 概して、コンピュータは、高ボリュームで高次元性のデータの解釈をより良好に行う。例えば、アルゴリズムモデルが、3D及び/又は4D撮像データの解釈、及び/又は最適な撮像ビューの場所特定を補助するために適用され得る。しかしながら、従来のアルゴリズムは、超音波画像における薄肉の物体及び/又は運動物体の識別及び/又はセグメンテーションを良好に実施するわけではなく、これは、例えば、低信号対雑音比(SNR)、超音波アーチファクト、脈管壁に沿ったものなど紛らわしい姿勢にあるデバイスの閉塞、及び/又は運動物体に類似した高強度のアーチファクトに起因する。
[0007] 画像セグメンテーション及び画像ガイダンスのための向上されたシステム及び技術に対する臨床的需要が依然としてある。本開示の実施形態は、運動物体をセグメンテーションするため及び/又は撮像ガイダンスを提供するために、3次元的(3D)超音波データ及び/又は4次元的(4D)超音波データにおける時間的連続性情報を利用する深層学習ネットワークを提供する。3D超音波データとは、経時的に2D超音波撮像から取得された一連の時系列的な2D画像を指す。4D超音波データとは、経時的に3D超音波撮像から取得された一連の時系列的な3Dボリュームを指す。時間認識的深層学習ネットワークは、複数の異なる空間的解像度において動作する複数の畳み込みエンコード-デコード層に結合された回帰型コンポーネント(例えば、回帰型ニューラルネットワーク(RNN))を含む。深層学習ネットワークは、運動物体及び/又は医療デバイスを含む一連の時系列的な2D又は3D超音波撮像フレームに適用される。回帰型コンポーネントは、現在の画像フレームに関する深層学習ネットワークの予測を、次の画像フレームの予測に対する二次的入力として渡す。
[0008] 実施形態において、深層学習ネットワークは、解剖学的構造(例えば、心臓、肺、及び/又は脈管)を通過する可撓性で長尺で薄肉形状の医療デバイス(例えば、カテーテル、ガイドワイヤ、ニードル、療法デバイス、及び/又は治療デバイス)を、解剖学的構造から見分け、超音波画像フレームにおける時間連続性情報に基づいて医療デバイスの位置及び/又は運動を予測するように訓練される。実施形態において、深層学習ネットワークは、解剖学的構造の静的部分から、心臓運動、呼吸運動及び/又は動脈パルスによって引き起こされる解剖学的構造の運動部分を識別し、超音波画像フレームにおける時間連続性情報に基づいて運動部分の運動を予測するように訓練される。実施形態において、深層学習ネットワークは、解剖学的構造の目標撮像平面を予測するように訓練される。深層学習ネットワークの予測は、目標撮像平面を撮像するために超音波ビームを自動的にステアリングするための制御信号及び/又は命令(例えば、回転及び/又は並進)を生成するために使用され得る。代替的に、深層学習ネットワークの予測は、超音波撮像デバイスを目標撮像平面に向かってナビゲートするための命令をユーザに提供するために使用され得る。深層学習ネットワークは、動的なセグメンテーション及び撮像ガイダンスを提供するために、3D及び/又は4D撮像中にリアルタイムで適用され得る。
[0009] 一実施形態において、超音波撮像システムは、超音波撮像デバイスと通信するプロセッサ回路を備え、プロセッサ回路は、超音波撮像デバイスから、ある期間にわたって運動物体の入力画像フレームのシーケンスを受信することであって、運動物体は、患者の解剖学的組織又は患者の解剖学的組織を通って移動する医療デバイスのうちの少なくとも1つを備え、運動物体の一部は、入力画像フレームのシーケンスの第1の入力画像フレームにおいて少なくとも部分的に不可視的である、受信することと;画像セグメンテーションに関連付けられた回帰型予測ネットワークを入力画像フレームのシーケンスに適用して、セグメンテーションデータを生成することと;セグメンテーションデータに基づいて出力画像フレームのシーケンスを、プロセッサ回路と通信するディスプレイに出力することであって、運動物体の一部は、出力画像フレームのシーケンスの第1の出力画像フレームにおいて完全に可視的であり、第1の出力画像フレーム及び第1の入力画像フレームは期間内における同一の時間的瞬間に関連付けられている、出力することとを行うように構成されている。
[0010] いくつかの実施形態において、回帰型予測ネットワークを適用するように構成されたプロセッサ回路は更に、入力画像フレームのシーケンスの以前の入力画像フレームに基づいて以前のセグメンテーションデータを生成することであって、以前の入力画像フレームは第1の入力画像フレームよりも前に受信される、生成することと;第1の入力画像フレーム及び以前のセグメンテーションデータに基づいて、第1のセグメンテーションデータを生成することとを行うように構成される。いくつかの実施形態において、以前のセグメンテーションデータを生成するように構成されたプロセッサ回路は、畳み込みエンコーダ及び回帰型ニューラルネットワークを以前の入力画像フレームに適用することを行うように構成され、第1のセグメンテーションデータを生成するように構成されたプロセッサ回路は、畳み込みエンコーダを第1の入力画像フレームに適用して、エンコード済みのデータを生成することと;回帰型ニューラルネットワークをエンコード済みのデータ及び以前のセグメンテーションデータに適用することとを行うように構成され、回帰型予測ネットワークを適用するように構成されたプロセッサ回路は更に、畳み込みデコーダを第1のセグメンテーションデータ及び以前のセグメンテーションデータに適用することを行うように構成される。いくつかの実施形態において、畳み込みエンコーダ、回帰型ニューラルネットワーク、及び畳み込みデコーダは、複数の空間的解像度において動作する。いくつかの実施形態において、運動物体は、患者の解剖学的組織を通って移動する医療デバイスを含み、畳み込みエンコーダ、回帰型ニューラルネットワーク、及び畳み込みデコーダは、患者の解剖学的組織から医療デバイスを識別し、患者の解剖学的組織を通って移動する医療デバイスに関連付けられた運動を予測するように訓練される。いくつかの実施形態において、運動物体は、心臓運動、呼吸運動、又は動脈パルスのうちの少なくとも1つを有する患者の解剖学的組織を含み、畳み込みエンコーダ、回帰型ニューラルネットワーク、及び畳み込みデコーダは、患者の解剖学的組織の静的部分から患者の解剖学的組織の運動部分を識別し、運動部分に関連付けられた運動を予測するように訓練される。いくつかの実施形態において、運動物体は患者の解剖学的組織を通って移動する医療デバイスを含み、超音波撮像システムは医療デバイスを備える。いくつかの実施形態において、医療デバイスは、ニードル、ガイドワイヤ、カテーテル、誘導式カテーテル、療法デバイス、又は介入デバイスのうちの少なくとも1つを備える。いくつかの実施形態において、入力画像フレームは、2次元的画像フレーム又は3次元的画像フレームのうちの少なくとも1つを含む。いくつかの実施形態において、プロセッサ回路は更に、セグメンテーションデータに基づいてスプラインフィッティングを入力画像フレームのシーケンスに適用することを行うように構成される。いくつかの実施形態において、超音波撮像システムは、超音波撮像デバイスを更に備え、超音波撮像デバイスは、入力画像フレームのシーケンスを取得するように構成された超音波トランスデューサアレイを備える。
[0011] 一実施形態において、超音波撮像システムは、超音波撮像デバイスと通信するプロセッサ回路を備え、プロセッサ回路は、超音波撮像デバイスから、ある期間にわたって患者の解剖学的組織を表す画像フレームのシーケンスを受信することと;画像取得に関連付けられた回帰型予測ネットワークを画像フレームのシーケンスに適用して、患者の解剖学的組織の臨床的特性に関連付けられた撮像平面データを生成することと;撮像平面データに基づいて、患者の解剖学的組織の目標撮像平面と、目標撮像平面に向かって超音波撮像デバイスを再度位置決めするための命令とのうちの少なくとも1つを、プロセッサ回路と通信するディスプレイに出力することとを行うように構成されている。
[0012] いくつかの実施形態において、回帰型予測ネットワークを適用するように構成されたプロセッサ回路は更に、画像フレームのシーケンスの第1の画像フレームに基づいて第1の撮像平面データを生成することと;画像フレームのシーケンスの第2の画像フレーム及び第1の撮像平面データに基づいて第2の撮像平面データを生成するステップとを行うように構成され、第2の画像フレームは、第1の画像フレームの後に受信される。いくつかの実施形態において、第1の撮像平面データを生成するように構成されたプロセッサ回路は、畳み込みエンコーダ及び回帰型ニューラルネットワークを第1の画像フレームに適用することを行うように構成され、第2の撮像平面データを生成するように構成されたプロセッサ回路は、畳み込みエンコーダを第1の画像フレームに適用して、エンコード済みのデータを生成することと;回帰型ニューラルネットワークをエンコード済みのデータ及び第1の撮像平面データに適用することとを行うように構成され、回帰型予測ネットワークを適用するように構成されたプロセッサ回路は更に、畳み込みデコーダを第1の撮像平面データ及び第2の撮像平面データに適用することを行うように構成される。いくつかの実施形態において、畳み込みエンコーダ、回帰型ニューラルネットワーク、及び畳み込みデコーダは、複数の空間的解像度において動作し、畳み込みエンコーダ、回帰型ニューラルネットワーク、及び畳み込みデコーダは、患者の解剖学的組織の臨床的特性を撮像するために、目標撮像平面を予測するように訓練される。いくつかの実施形態において、画像フレームは、患者の解剖学的組織の2次元的画像フレーム又は3次元的画像フレームのうちの少なくとも1つを含む。いくつかの実施形態において、プロセッサ回路は、臨床的特性を含む患者の解剖学的組織の断面画像スライス、直交画像スライス、又は多平面再構成(MPR)画像スライスのうちの少なくとも1つを含む目標撮像平面を出力するように構成される。いくつかの実施形態において、超音波撮像システムは、超音波撮像デバイスを更に備え、超音波撮像デバイスは、画像フレームのシーケンスを取得するように構成された超音波トランスデューサアレイを備える。いくつかの実施形態において、プロセッサ回路は更に、撮像平面データに基づいて超音波ビームステアリング制御信号を生成することと;超音波ビームステアリング制御信号を超音波撮像デバイスに出力することとを行うように構成される。いくつかの実施形態において、プロセッサ回路は、超音波撮像デバイスの回転又は並進のうちの少なくとも1つを含む命令を出力することを行うように構成される。
[0013] 本開示の追加的な態様、特徴、及び利点は、以下の詳細な説明から明らかになるであろう。
[0014] 本開示の例示的な実施形態が、添付の図面を参照して説明される。
[0015] 本開示の態様による超音波撮像システムの概略図である。 [0016] 本開示の態様による深層学習に基づく画像セグメンテーションスキームの概略図である。 [0017] 本開示の態様による時間認識的深層学習ネットワークのための構成を示す概略図である。 [0018] 本開示の態様による時間認識的深層学習ネットワークのための構成を示す概略図である。 [0019] 本開示の態様による超音波誘導式処置のシナリオを示す図である。 [0020] 本開示の態様による超音波誘導式処置のシナリオを示す図である。 [0021] 本開示の態様による超音波誘導式処置のシナリオを示す図である。 [0022] 本開示の態様による超音波誘導式処置のシナリオを示す図である。 [0023] 本開示の態様によるスプラインフィッティングを伴う深層学習に基づく画像セグメンテーションスキームの概略図である。 [0024] 本開示の態様による深層学習に基づく撮像ガイダンススキームの概略図である。 [0025] 本開示の態様による超音波誘導式処置から取得される超音波画像を示す図である。 [0026] 本開示の実施形態によるプロセッサ回路の概略図である。 [0027] 本開示の態様による深層学習に基づく超音波撮像方法のフロー図である。 [0028] 本開示の態様による深層学習に基づく超音波撮像方法のフロー図である。
[0029] 本開示の原理の理解を促すために、図面に示される実施形態が参照され、これを説明するために特定の述語が使用される。それでもなお、本開示の範囲に対する制限が意図されるものではないことが理解される。本開示が関連する技術分野の当業者に通常想到されるように、説明されるデバイス、システム、及び方法への任意の改変及び更なる修正、並びに本開示の原理の任意の更なる適用は完全に想定され、本開示に含まれる。特には、1つの実施形態に関して説明される特徴、コンポーネント、及び/又はステップは、本開示の他の実施形態に関して説明される特徴、コンポーネント、及び/又はステップと組み合わされ得ることが完全に想定される。しかしながら、簡潔さのために、これらの組み合わせの多くの繰り返しは個別には説明されない。
[0030] 図1は、本開示の態様による超音波撮像システム100の概略図である。システム100は、患者の身体のエリア又はボリュームをスキャンするために使用される。システム100は、通信インタフェース又はリンク120を介してホスト130と通信する超音波撮像プローブ110を含む。プローブ110は、トランスデューサアレイ112と、ビーム形成器114と、処理コンポーネント116と、通信インタフェース118とを含む。ホスト130は、ディスプレイ132と、処理コンポーネント134と、通信インタフェース136とを含む。
[0031] 例示的な実施形態において、プローブ110は、ユーザによる手持ち式の動作のために構成された筐体を含む外部の超音波撮像デバイスである。トランスデューサアレイ112は、ユーザが、トランスデューサアレイ112が患者の皮膚に隣接及び/又は接触して位置決めされるようにプローブ110の筐体を把持しているときに超音波データを取得するように構成され得る。プローブ110は、プローブ110が患者の身体の外側に位置決めされているときに患者の身体内の解剖学的組織の超音波データを取得するように構成される。いくつかの実施形態において、プローブ110は、経胸郭(TTE)プローブである。いくつかの他の実施形態において、プローブ110は、経食道(TEE)超音波プローブであってよい。
[0032] トランスデューサアレイ112は、患者の解剖学的物体105に向かって超音波信号を射出し、物体105から反射されてトランスデューサアレイ112に戻ってきたエコー信号を受信する。超音波トランスデューサアレイ112は、1つ又は複数の音響要素及び/又は複数の音響要素などの任意の適切な数の音響要素を含み得る。いくつかの場合において、トランスデューサアレイ112は1つの音響要素を含む。いくつかの場合において、トランスデューサアレイ112は、任意の適切な構成の任意の数の音響要素を有する音響要素のアレイを含む。例えば、トランスデューサアレイ112は、2つの音響要素、4つの音響要素、36個の音響要素、64個の音響要素、128個の音響要素、500個の音響要素、812個の音響要素、1000個の音響要素、3000個の音響要素、8000個の音響要素などの個数の、及び/又はこれらよりも大きい及び小さい他の個数の音響要素など、1つの音響要素から10000個の音響要素を含み得る。いくつかの場合において、トランスデューサアレイ112は、線形アレイ、平面アレイ、湾曲アレイ、曲線アレイ、円周アレイ、環状アレイ、位相式アレイ、マトリックスアレイ、1次元的(1D)アレイ、1.x次元的アレイ(例えば1.5Dアレイ)、又は2次元的(2D)アレイなど任意の適切な構成の任意の数の音響要素を有する音響要素のアレイを含む。音響要素のアレイ(例えば、1つ又は複数の行、1つ又は複数の列、及び/又は1つ又は複数の向き)は、均一に又は個別に制御及び作動され得る。トランスデューサアレイ112は、患者の解剖学的組織の1次元的、2次元的、及び/又は3次元的画像を取得するように構成され得る。いくつかの実施形態において、トランスデューサアレイ112は、圧電微細加工超音波トランスデューサ(PMUT)、容量性微細加工超音波トランスデューサ(CMUT)、単結晶、ジルコン酸チタン酸鉛(PZT)、PZT複合体、他の適切なトランスデューサタイプ、及び/又はこれらの組み合わせを含む。
[0033] 物体105は、超音波撮像検査に適した患者の血管、神経線維、気道、僧帽弁尖、腎臓、及び/又は肝臓など、任意の解剖学的組織を含む。いくつかの実施形態において、物体105は、患者の心臓、肺、及び/又は皮膚の少なくとも一部を含む。いくつかの実施形態において、物体105は、例えば呼吸、心臓活動、及び/又は動脈パルスの結果として常時運動している。運動は、心臓サイクル又は心拍サイクルの文脈においては、例えば心臓、関連する脈管、及び/又は肺の運動によって規則正しく、又は周期的である。本開示は、これらに限定されるものではないが、肝臓、心臓、腎臓、胆嚢、膵臓、肺を含む臓器;導管;腸;脳、硬膜嚢、脊髄、末梢神経などの神経系構造;尿路;並びに血管内の弁、血液、心臓の心室若しくは他の部分、及び/又は身体の他の系などの、任意の数の解剖学的場所及び組織タイプの文脈において実現され得る。解剖学的組織は、心血管系、末梢血管系、神経血管系、腎臓血管系及び/又は身体内の任意の他の適切な管腔を含む、患者の血管系の動脈又は静脈などの血管であってよい。自然の構造に加えて、本開示は、これらに限定されるものではないが、心臓弁、ステント、シャント、フィルタ、インプラント及び他のデバイスなどの、人工的な構造の文脈において実現され得る。
[0034] いくつかの実施形態において、システム100は、医療処置(例えば、治療、診断、療法、及び/又は介入)中に臨床医をガイドするために使用される。例えば、臨床医は、解剖学的物体105内に医療デバイス108を挿入する。いくつかの実施例において、医療デバイス108は、薄肉の幾何学的形状を有する長尺で可撓性の部材を含む。いくつかの実施例において、医療デバイス108は、ガイドワイヤ、カテーテル、誘導式カテーテル、ニードル、血管内超音波(IVUS)デバイス、診断デバイス、治療/療法デバイス、介入デバイス、及び/又はカテーテル内撮像デバイスである。いくつかの実施例において、医療デバイス108は、患者の解剖学的組織の撮像に適した任意の撮像デバイスであり、光トモグラフィ(OCT)及び/又は内視法などの任意の適切な撮像モダリティのものである。いくつかの実施例において、医療デバイス108は、シース、撮像デバイス、及び/又は埋め込みデバイスを含む。いくつかの実施例において、医療デバイス108は、バルーン、ステント、及び/又はアテレクトミーデバイスなどの治療/療法デバイスである。いくつかの実施例において、医療デバイス108は、血管の直径よりも小さな直径を有する。いくつかの実施例において、医療デバイス108は、約0.5ミリメートル(mm)以下の直径又は厚さを有する。いくつかの実施例において、医療デバイス108は、約0.035インチの直径を有するガイドワイヤである。このような実施形態において、トランスデューサアレイ112は、物体105及び医療デバイス108に反射された超音波エコーを生むことができる。
[0035] ビーム形成器114はトランスデューサアレイ112に結合される。ビーム形成器114は、例えば、超音波信号の送信及び超音波エコー信号の受信に関してトランスデューサアレイ112を制御する。ビーム形成器114は、応答又は受信された超音波エコー信号に基づいて画像信号を処理コンポーネント116に提供する。ビーム形成器114は、ビーム形成の複数のステージを含む。ビーム形成は、処理コンポーネント116への結合のための信号ラインの数を減少させ得る。いくつかの実施形態において、ビーム形成器114と組み合わされたトランスデューサアレイ112は、超音波撮像コンポーネントと称される。
[0036] 処理コンポーネント116はビーム形成器114に結合される。処理コンポーネント116は、中央処理ユニット(CPU)、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、コントローラ、フィールドプログラマブルゲートアレイ(FPGA)デバイス、他のハードウェアデバイス、ファームウェアデバイス、又は本明細書において説明される動作を実施するように構成されたこれらの任意の組み合わせを含む。処理コンポーネント134は、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと連動する1つ又は複数のマイクロプロセッサ、又は任意の他のこのような構成としても実現される。処理コンポーネント116は、ビーム形成された画像信号を処理するように構成される。例えば、処理コンポーネント116は、画像信号を調節するためにフィルタリング及び/又は直交復調を実施する。処理コンポーネント116及び/又は134は、物体105及び/又は医療デバイス108に関連付けられた超音波データを取得するためにアレイ112を制御するように構成され得る。
[0037] 通信インタフェース118は処理コンポーネント116に結合される。通信インタフェース118は、1つ又は複数の送信器、1つ又は複数の受信器、1つ又は複数の送受信器、及び/又は、通信信号を送信及び/又は受信するための回路を含む。通信インタフェース118は、通信リンク112を介したホスト130への信号の搬送に適した特定の通信プロトコルを実現するハードウェアコンポーネント及び/又はソフトウェアコンポーネントを含み得る。通信インタフェース118は、通信デバイス又は通信インタフェースモジュールと称され得る。
[0038] 通信リンク120は任意の適切な通信リンクである。例えば、通信リンク120は、ユニバーサルシリアルバス(USB)リンク又はEthernetリンクなどの有線リンクである。代替的に、通信リンク120は、超広帯域(UWB)リンク、Institute of Electrical and Electronics Engineers(IEEE)802.11 WiFiリンク、又はBluetoothリンクなどの無線リンクである。
[0039] ホスト130において、通信インタフェース136は画像信号を受信する。通信インタフェース136は、通信インタフェース118と実質的に同様である。ホスト130は、ワークステーション、パーソナルコンピュータ(PC)、ラップトップ、タブレット、又はモバイルフォンなどの任意の適切なコンピューティング及びディスプレイデバイスである。
[0040] 処理コンポーネント134は通信インタフェース136に結合される。処理コンポーネント134は、ソフトウェアコンポーネントとハードウェアコンポーネントとの組み合わせとして実現される。処理コンポーネント134は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、デジタル信号プロセッサ(DSP)、特定用途向け集積回路(ASIC)、コントローラ、FPGAデバイス、他のハードウェアデバイス、ファームウェアデバイス、又は本明細書において説明される動作を実施するように構成されたこれらの任意の組み合わせを含む。処理コンポーネント134は、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと連動する1つ又は複数のマイクロプロセッサ、又は任意の他のこのような構成としても実現される。処理コンポーネント134は、プローブ110から受信された画像信号から画像データを生成するように構成され得る。処理コンポーネント134は、先進の信号処理及び/又は画像処理技術を画像信号に適用し得る。いくつかの実施形態において、処理コンポーネント134は、画像データから3次元的(3D)ボリューム画像を形成し得る。いくつかの実施形態において、処理コンポーネント134は、画像データにリアルタイム処理を実施して、物体105及び/又は医療デバイス108の超音波画像のストリーミングビデオを提供し得る。
[0041] ディスプレイ132は処理コンポーネント134に結合される。ディスプレイ132は、モニタ又は任意の適切なディスプレイであってよい。ディスプレイ132は、超音波画像、画像ビデオ、及び/又は、物体105及び/又は医療デバイス108の任意の撮像情報を表示するように構成される。
[0042] 上述されたように、システム100は、医療処置におけるガイダンスを臨床医に提供するために使用される。実施例において、システム100は、医療デバイス108が物体105を通って移動するときに、物体105及び医療デバイス108の超音波画像のシーケンスをキャプチャし得る。超音波画像のシーケンスは、2D又は3Dであってよい。いくつかの実施例において、システム100は、超音波画像のシーケンスを二平面画像又は多平面画像としてそれぞれ提供するために、二平面撮像又は多平面撮像を実施するように構成される。いくつかの場合において、医療デバイス108の運動及び/又は医療デバイス108の薄肉の幾何学的形状のせいで、臨床医はキャプチャされた画像に基づいて物体105から医療デバイス108を識別すること及び/又は区別することが困難である。例えば、医療デバイス108は、時間連続性なしに1つのフレームから別のフレームへとジャンプしたかのように見えることがある。デバイス108が物体105を通って運動するときのデバイス108の視覚化、安定性、及び/又は時間連続性を向上させるために、処理コンポーネント134は、セグメンテーションのために訓練された時間認識的深層学習ネットワークを一連の画像に適用し得る。深層学習ネットワークは、解剖学的物体105から医療デバイス108を識別及び/又は区別し、経時的にキャプチャされた画像のシーケンスに保持された時間的情報を使用して医療デバイス108の運動及び/又は位置を予測する。処理コンポーネント134は、フレームからフレームへと運動する医療デバイス108の安定したビューを有する一連の時系列的な出力画像を提供するために、キャプチャされた2D及び/又は3D画像フレームに予測を組み込み得る。
[0043] いくつかの実施例において、深層学習ネットワークに入力される超音波画像のシーケンスは3Dボリュームであり、出力される予測は2D画像、二平面画像、及び/又は多平面画像である。いくつかの実施例において、医療デバイス108は2D超音波撮像プローブであり、深層学習ネットワークはボリュメトリック3Dセグメンテーションを予測するように構成され得、ここで、深層学習ネットワークに入力される超音波画像のシーケンスは、2D画像、二平面画像、及び/又は多平面画像であり、出力される予測は3Dボリュームである。
[0044] いくつかの実施例において、解剖学的構造(例えば、物体105)は、解剖学的構造の幾何学的形状及び/又は運動のせいで、2D及び/又は3D撮像の下では識別することが困難であることがある。例えば、遠位の末梢的解剖学的組織における曲がりくねった血管及び/又は心臓に近接した小さな構造は、動脈及び/又は心臓の運動によって影響される。心臓のフェーズに依存して、僧帽弁尖及び/又は他の構造は、ある期間にわたり超音波撮像ビューを出たり入ったりする。別の実施例において、脈管、気道、腫瘍は、患者の呼吸運動のせいで、気管支内超音波撮像中に超音波撮像ビューを出たり入ったりする。同様に、解剖学的構造の運動の視覚化、安定性、及び/又は時間連続性を向上させるために、処理コンポーネント134は、セグメンテーションのために訓練された時間認識的深層学習ネットワークを経時的にキャプチャされた物体105の一連の2D及び/又は3D画像に適用し得る。深層学習ネットワークは、物体105の比較的より静的な部分(例えば、背景)から物体105の運動部分(例えば、前景)を識別及び/又は区別し、経時的にキャプチャされた画像のシーケンスに保持された時間的情報を使用して運動部分の運動及び/又は位置を予測する。例えば、心臓撮像において、運動部分は僧帽弁尖に対応し、静的部分は心室に対応し、これは弁よりも比較的よりゆっくりと運動する。末梢血管系撮像において、運動部分は脈動する動脈に対応し、静的部分は周囲の組織に対応する。肺撮像において、運動部分は肺室及び気道に対応し、静的部分は周囲の空洞及び組織に対応する。処理コンポーネント134は、フレームからフレームへと運動する解剖学的構造の安定したビューを有する一連の出力画像を提供するために、キャプチャされた画像フレームに予測を組み込み得る。時間認識的深層学習モデルを使用して運動物体(例えば、医療デバイス108及び/又は物体105)の安定したビューを提供するための機構は、本明細書においてより詳細に説明される。
[0045] 実施形態において、システム100は、特定の臨床的特性又は臨床的検査のために患者の最適な撮像ビューを見つけるときに臨床医を補助するために使用される。例えば、処理コンポーネント134は、キャプチャされた2D及び/又は3D画像から特定の臨床的特性のために物体105の最適な撮像ビュー又は画像スライスを予測するために、画像取得のために訓練された時間認識的深層学習ネットワークを利用し得る。例えば、システム100は心臓撮像のために構成され、心室ボリュームを測定するとき、心不整脈の存在を判定するとき、中隔横断穿刺を実施するときに臨床医を補助し、及び/又は修復又は交換のために僧帽弁の視覚化を提供する。心臓撮像は、4心室ビュー、3心室ビュー、及び/又は2心室ビューを提供するように構成され得る。実施例において、心臓撮像は、左室流出路(LVOT)を視覚化するために使用され得、これは僧帽弁の交換におけるマイトラクリップ及び弁のために不可欠である。実施例において、心臓撮像は、輪状形成を伴う任意の処置のために僧帽弁輪を視覚化するために使用され得る。実施例において、心臓撮像は、比例配分を防止するために中隔横断穿刺(TSP)中に左心房付属肢を視覚化するために使用され得る。気管支内超音波撮像に関しては、臨床的特性は、疑わしい腫瘍の存在及び場所であり、超音波トランスデューサが腫瘍及び隣接する気道路と整列する側方方向又は矢状方向の超音波ビューから取得される。いくつかの実施例において、処理コンポーネント134は、深層学習ネットワークによって出力された予測に基づいて臨床的特性の最適な撮像ビューを取得するためにプローブ110を1つの場所から別の場所へと又は1つの撮像平面から別の撮像平面へと操作するための命令(例えば、回転及び/又は並進)を臨床医に提供し得る。いくつかの実施例において、処理コンポーネント134は最適な撮像ビューに到達するプロセスを自動化し得る。例えば、処理コンポーネント134は、深層学習ネットワークによって出力される予測に基づいて、トランスデューサアレイ112によって生み出される2D又はX-平面ビームを最適な撮像場所へと自動的にステアリングするように構成される。X-平面は断面平面及び長手方向平面を含む。深層学習モデルを使用して最適な撮像ビューに到達するための機構は、本明細書においてより詳細に説明される。
[0046] いくつかの実施形態において、システム100は、深層学習ネットワーク訓練のための訓練データセットを形成するための超音波画像の収集のために使用され得る。例えば、ホスト130はメモリ138を含み、これは、キャッシュメモリ(例えば、処理コンポーネント134のキャッシュメモリ)、ランダムアクセスメモリ(RAM)、磁気抵抗RAM(MRAM)、読み取り専用メモリ(ROM)、プログラム可能読み取り専用メモリ(PROM)、消去可能プログラム可能読み取り専用メモリ(EPROM)、電気的消去可能プログラム可能読み取り専用メモリ(EEPROM)、フラッシュメモリ、固体状態メモリデバイス、ハードディスクドライブ、固体状態ドライブ、他の形態の揮発性及び不揮発性メモリ、又は異なるタイプのメモリの組み合わせなど、任意の適切な記憶デバイスである。メモリ138は、画像セグメンテーション及び/又は撮像ビューガイダンスのための時間認識的深層学習ネットワークを訓練するために画像データセット140を記憶するように構成され得る。時間認識的深層学習ネットワークを訓練するための機構は、本明細書においてより詳細に説明される。
[0047] 図2~図4は、時間認識的多層深層学習ネットワークを使用した画像セグメンテーションのための機構を集合的に示す。図2は、本開示の態様による深層学習に基づく画像セグメンテーションスキーム200の概略図である。スキーム200はシステム100によって実現される。スキーム200は、超音波画像における運動物体のセグメンテーションを提供するために時間認識的多層深層学習ネットワーク210を利用する。いくつかの実施例において、運動物体は、患者の解剖学的組織(例えば、物体105と同様の心臓、肺、脈管、及び/又は皮膚)内で運動する医療デバイス(例えば、デバイス108及び/又は212と同様のガイドワイヤ、カテーテル、誘導式カテーテル、ニードル、又は療法デバイス)である。いくつかの実施例において、運動物体は、心臓運動、呼吸運動及び/又は動脈パルスを有する解剖学的構造(例えば、物体105)である。ハイレベルにおいて、多層深層学習ネットワーク210は、デバイス及び/又は解剖学的構造の超音波画像フレーム202のシーケンスを受信する。各画像フレーム202は、時間認識的多層深層学習ネットワーク210に通される。現在の画像フレーム202に関する深層学習ネットワーク210の予測は、次の画像フレーム202の予測のための入力として渡される。換言すれば、深層学習ネットワーク210は、予測のために超音波画像フレーム202のシーケンスにおける時間的連続性を利用する回帰型コンポーネントを含む。故に、深層学習ネットワーク210は、回帰型予測ネットワークとも称される。
[0048] 画像フレーム202のシーケンスは、ある期間にわたって経時的に(例えば時間T0から時間Tn)キャプチャされる。画像フレーム202は、システム100を使用してキャプチャされる。例えば、画像フレーム202のシーケンスは、トランスデューサアレイ112によって収集され、ビーム形成器114によってビーム形成され、処理コンポーネント116及び/又は134によってフィルタリング及び/又は調節され、処理コンポーネント134によって再構築された超音波エコーから再構築される。画像フレーム202のシーケンスは、深層学習ネットワーク210に入力される。図2は画像フレーム202を3Dボリュームとして示しているが、スキーム200は、同様に、セグメンテーションを提供するために、経時的にキャプチャされた2D入力画像フレームのシーケンスに適用される。いくつかの実施例において、経時的な3D画像フレーム202のシーケンスは、連続的4D(例えば、3Dボリューム及び時間)超音波シーケンスと称され得る。
[0049] 深層学習ネットワーク210は、畳み込みエンコーダ220と、時間認識的RNN230と、畳み込みデコーダ240とを含む。畳み込みエンコーダ220は複数の畳み込みエンコード層222を含む。畳み込みデコーダ240は複数の畳み込みデコード層242を含む。いくつかの実施例において、畳み込みエンコード層222の数と畳み込みデコード層242の数とは同一である。いくつかの実施例において、畳み込みエンコード層222の数と畳み込みデコード層242の数とは異なる。図2は、説明及び議論の簡略化のために、畳み込みエンコーダ220における4つの畳み込みエンコード層222K0、222K1、222K2、及び222K3と、畳み込みデコーダ240における4つの畳み込みデコード層242L0、224L1、242L2、及び242L3を示しているが、本開示の実施形態は、任意の適切な数の畳み込みエンコード層222(例えば、約2、3、5、6又はそれよりも多く)及び任意の適切な数の畳み込みデコード層242(例えば、約2、3、5、6又はそれよりも多く)を含むように拡大/縮小されることが認識されよう。下付き文字K0、K1、K2、及びK3は畳み込みエンコード層222の層を指し示す指標を表す。下付き文字L0、L1、L2、及びL3は畳み込みデコード層242の層を指し示す指標を表す。
[0050] 畳み込みエンコード層222の各々及び畳み込みデコード層242の各々は、畳み込みフィルタ又はカーネルを含む。畳み込みカーネルは、深層学習ネットワーク210が2D画像上又は3Dボリューム上で動作するように構成されているかに応じて、2Dカーネル又は3Dカーネルであり得る。例えば、画像フレーム202が2D画像であるとき、畳み込みカーネルは2Dフィルタカーネルである。代替的に、画像フレーム202が3Dボリュームであるとき、畳み込みカーネルは3Dフィルタカーネルである。畳み込みカーネルのフィルタ係数は、本明細書においてより詳細に説明される様に、運動物体のセグメンテーションを学習するように訓練される。
[0051] いくつかの実施形態において、畳み込みエンコード層222及び畳み込みデコード層242は、複数の異なる空間的解像度において動作する。このような実施形態において、各畳み込みエンコード層222には、ダウンサンプリング層が続く。各畳み込みデコード層242は、アップサンプリング層に先行され得る。ダウンサンプリング及びアップサンプリングは、任意の適切な係数であってよい。いくつかの実施例において、各ダウンサンプリング層におけるダウンサンプリング係数及び各アップサンプリング層におけるアップサンプリング係数は約2であってよい。畳み込みエンコード層222及び畳み込みデコード層242は、異なる空間的解像度において画像フレーム202のシーケンスから特徴を抽出するように訓練され得る。
[0052] RNN230は、畳み込みエンコード層222と畳み込みデコード層242との間に位置付けられる。RNN230は、運動物体のセグメンテーションのために入力画像フレーム202のシーケンスから時間的情報(例えば、時間的連続性)をキャプチャするように構成される。RNN230は、複数の時間認識的回帰型コンポーネント(例えば、図3及び図4の回帰型コンポーネント232)を含む。例えば、矢印204によって示されるように、RNN230は、現在の画像フレーム202(時間T0においてキャプチャされる)に関する予測を、次の画像フレーム202(時間T1においてキャプチャされる)についての予測に関する二次的入力としてRNN230に戻す。運動物体のセグメンテーションのための異なる空間的解像度における時間的情報の使用は、図3及び図4に関して、より詳細に以下に説明される。
[0053] 図3は、本開示の態様による時間認識的深層学習ネットワーク210のための構成300を示す概略図である。図3は、深層学習ネットワーク210における時間的情報の使用のより詳細なビューを提供する。説明及び議論の簡略化のために、図3は2つの時点T0及びT1におけるネットワーク210の動作を示している。しかしながら、後続の時間T2、T3、...、Tnにも同様の動作が伝播していく。加えて、簡略化のために、畳み込みエンコード層222は、層を指し示す下付き文字K0、K1、K2、及びK3なしに示され、畳み込みデコード層242は、層を指し示す下付き文字L0、L1、L2、及びL3なしに示されている。図3は、時間を指し示す指標を表す下付き文字T0及びT1を使用する。
[0054] 時間T0において、システム100は画像フレーム202T0をキャプチャする。画像フレーム202T0は深層学習ネットワーク210に入力される。画像フレーム202T0は、畳み込みエンコード層222の各々によって処理される。畳み込みエンコード層222は、エンコード済みの特徴304T0を生む。本明細書においてより詳細に以下に説明されるように、エンコード済みの特徴304T0は、異なる空間的解像度における特徴を含む。
[0055] RNN230は、複数の回帰型コンポーネント232を含み、その各々は空間的解像度のうちの1つにおいて動作する。いくつかの実施例において、回帰型コンポーネント232は、長短期記憶(LSTM)ユニットである。いくつかの実施例において、回帰型コンポーネント232は、ゲート付き回帰型コンポーネント(GRU)である。出力306T0を作るために、各回帰型コンポーネント232は対応する解像度のエンコード済みの特徴304T0に適用される。出力306T0はメモリ(例えば、メモリ138)に記憶される。いくつかの実施例において、回帰型コンポーネント232は、特徴チャンネルごとに1つの畳み込み動作を含み得る。
[0056] 続いて、信頼性マップ308T0を生むために、出力306T0は畳み込みデコード層242の各々によって処理される。信頼性マップ308T0は、画像のピクセルが運動物体を含むか否かを予測する。実施例において、信頼性マップ308T0は、ピクセルが運動物体を含む可能性を表す約0から約1の間の値を含み、1に近い値は運動物体を含む可能性の高いピクセルを表し、0に近い値は運動物体を含む可能性の低いピクセルを表す。代替的に、1に近い値が運動物体を含む可能性の低いピクセルを表し、0に近い値が運動物体を含む可能性の高いピクセルを表してもよい。一般に、各ピクセルに関して、信頼性マップ308T0は、ピクセルが運動物体を含む確率又は信頼性レベルを示す。換言すれば、信頼性マップ308T0は、シーケンスの各画像フレーム202における運動物体の位置及び/又は運動の予測を提供し得る。
[0057] 時間T1において、システム100は画像フレーム202T1をキャプチャする。深層学習ネットワーク210は、画像フレーム202T0に対するものと同一の動作を画像フレーム202T1に適用する。しかしながら、各畳み込みエンコード層222によって生み出されたエンコード済みの特徴304T1は、畳み込みデコード層242に渡される前に、(矢印301によって示されるように)以前の時間T0からの出力306T0と連結される。渡された出力306T0と現在のエンコード済みの特徴304T1との連結は、各空間的解像度層において実施される。各空間的解像度層における時間T0における以前の出力306T0と現在のエンコード済みの特徴304T0との連結は、ネットワーク210の回帰型部分が、現在の時間T1における入力画像フレーム202T1に対する予測を行う前に、過去の全ての時点及び全ての空間的解像度レベル(例えば、粗いものから細かいものへ)における特徴に対して完全に露出することを可能とする。各空間的解像度層における時間的情報のキャプチャは、図4に関して、より詳細に以下に説明される。
[0058] 図4は、本開示の態様による時間認識的深層学習ネットワーク210のための構成400を示す概略図である。図4は、深層学習ネットワーク210における内部動作のより詳細なビューを提供する。議論及び説明の簡略化のために、図4は、単一の入力画像フレーム202(例えば時間T1におけるもの)における深層学習ネットワーク210の動作を示す。しかしながら、同様の動作がシーケンスにおける各画像フレーム202に対して適用される。加えて、動作は4つの異なる空間的解像度410、412、414、及び416に関して示されている。しかしながら、同様の動作が任意の適切な数(例えば、約2、3、5、6又はそれよりも多く)の空間的解像度に対して適用されてよい。図4は、RNN230の拡張されたビューを提供する。図示されるように、RNN230は、各空間的解像度410、412、414、及び416における時間的情報をキャプチャするために、各空間的解像度410、412、414、及び416において回帰型コンポーネント232を含む。回帰型コンポーネント232は、空間的解像度410、412、414、及び416のそれぞれに関して232R0、232R1、232R2、232R3として図示されている。加えて、畳み込みエンコード層222の各々には、ダウンサンプリング層422が続き、畳み込みデコード層242の各々は、アップサンプリング層442に先行される。
[0059] 時間T1において、画像フレーム202T1がキャプチャされ、深層学習ネットワーク210に入力される。画像フレーム202T1は、畳み込みエンコード層222K0、222K1、222K2、222K3の各々に通される。画像フレーム202T1は、空間的解像度410を有する。図示されるように、画像フレーム202T1は、畳み込みエンコード層222K0によって畳み込まれ、空間的解像度410におけるエンコード済みの特徴304T1,K0(例えば、テンソルの形態)を出力する。畳み込みエンコード層222K0の出力は、ダウンサンプリング層422D0によってダウンサンプリングされ、空間的解像度412におけるテンソル402D0を生む。テンソル402D0は、畳み込みエンコード層222K1によって畳み込まれ、空間的解像度412におけるエンコード済みの特徴304T1,K1を出力する。畳み込みエンコード層222K1の出力は、ダウンサンプリング層422D1によってダウンサンプリングされ、空間的解像度414におけるテンソル402D1を生む。テンソル402D1は、畳み込みエンコード層222K2によって畳み込まれ、空間的解像度414におけるエンコード済みの特徴304T1,K2を出力する。畳み込みエンコード層222K2の出力は、ダウンサンプリング層422D2によってダウンサンプリングされ、空間的解像度416におけるテンソル402D2を生む。テンソル402D2は、畳み込みエンコード層222K3によって畳み込まれ、空間的解像度416におけるエンコード済みの特徴304T1,K3を出力する。
[0060] 時間的連続性情報は、空間的解像度410、412、414、及び416の各々においてキャプチャされる。空間的解像度410において、エンコード済みの特徴304T1,K0は、畳み込みエンコード層222K0に関して以前の時間T0において取得された回帰型コンポーネント232R0の出力306T0,K0と連結される。例えば、以前の出力306T0,K0は、時間T0においてメモリ(例えば、メモリ138)に記憶され、時間T1における処理のためにメモリから読み出される。メモリからの以前の回帰型コンポーネントの出力306T0,K0の読み出しは、空白矢印によって示されている。回帰型コンポーネント232R0はエンコード済みの特徴304T1,K0と出力306T0,K0との連結に適用されて、出力306T1,K0を生む。いくつかの実施例において、出力306T1,K0がエンコード済みの特徴304T1,K0と同一の寸法を有するように、出力306T1,K0はダウンサンプリングされ得る。出力306T1,K0は、メモリに記憶され(パターン付き矢印によって示される)、次の時間T2における同様の連結のために読み出され得る。
[0061] 同様に、空間的解像度412において、エンコード済みの特徴304T1,K1は、以前の時間T0において取得された回帰型コンポーネント232R1の出力306T0,K1と連結される。回帰型コンポーネント232R1はエンコード済みの特徴304T1,K1と出力306T0,K1との連結に適用されて、出力306T1,K1を生む。出力306T1,K1は、次の時間T2における同様の連結のためにメモリに記憶される(パターン付き矢印によって示される)。
[0062] 空間的解像度414において、エンコード済みの特徴304T1,K2は、以前の時間T0において取得された回帰型コンポーネント232R2の出力306T0,K2と連結される。回帰型コンポーネント232R2はエンコード済みの特徴304T1,K2と出力306T0,K2との連結に適用されて、出力306T1,K2を生む。出力306T1,K2は、次の時間T2における同様の連結のためにメモリに記憶される(パターン付き矢印によって示される)。
[0063] 最後の空間的解像度416において、エンコード済みの特徴304T1,K3は、以前の時間T0において取得された回帰型コンポーネント232R3の出力306T0,K2と連結される。回帰型コンポーネント232R3はエンコード済みの特徴304T1,K3と出力306T0,K3との連結に適用されて、出力306T1,K3を生む。出力306T1,K3は、次の時間T2における同様の連結のためにメモリに記憶される(パターン付き矢印によって示される)。
[0064] 出力306T1,K3、306T1,K2、306T1,K1、及び306T1,K0はそれぞれ、畳み込みデコード層242L0、242L1、及び242L2に渡される。例えば、出力306T1,K3は、アップサンプリング層442U0によってアップサンプリングされ、テンソル408U0(例えば、抽出された特徴を含む)を生む。テンソル408U0及び出力306T1,K2は、畳み込みデコード層242L0によって畳み込まれ、アップサンプリング層442U1によってアップサンプリングされ、テンソル408U1を生む。テンソル408U1及び出力306T1,K1は、畳み込みデコード層242L1によって畳み込まれ、アップサンプリング層442U2によってアップサンプリングされ、テンソル408U2を生む。テンソル408U2及び出力306T1,K0は、畳み込みデコード層242L2によって畳み込まれ、信頼性マップ308T1を生む。図4は、4つのエンコード層222及び3つのデコード層242を示しているが、ネットワーク210は、代替的に、同様の予測を提供するために4つのデコード層242を含むように構成され得る。一般に、エンコーダ(図4におけるネットワーク210の左側に図示される)は、学習プロセスが発生する場所である。エンコード層222の数は、入力ボリュームのサイズ及びネットワーク210の受容フィールドに基づいて決定され得る。ネットワーク210の深さは、入力画像がどのくらい大きいか、及び特徴の学習に対するその影響に基づいて、すなわち、ネットワーク210の受容フィールドを制御することによって変更され得る。このように、ネットワーク210は、最も内側の層に対応するデコーダ/アップサンプリング層を有さなくてよい。デコーダ(図4におけるネットワーク210の右側に図示される)は、より低い解像度の特徴マップから特徴を取り出し、元の出力サイズに向かってアップサンプリングしながらそれらを組み合わせる。
[0065] 図から分かるように、深層学習ネットワーク210は、現在の(時間Tnにおける)画像フレーム202に関して、単一の時点においてキャプチャされた単一の画像フレームに基づくのではなく、現在の画像フレーム202及び(時間Tn-1における)以前の画像フレーム202から抽出された特徴に基づいて予測を実施する。深層学習ネットワーク210は、過去の情報に基づいて、運動物体に関連付けられた運動及び/又は位置情報を推論し得る。時間連続性情報(例えば、時間的連結によって提供される)は、追加的な次元情報を提供し得る。時間的情報の使用は、薄肉の物体をセグメンテーションするときに特に有用であり得、というのは、薄肉の物体は、典型的には、撮像フレームにおいて、より肉厚の物体よりも比較的少ない数のピクセルによって表されるからである。それ故、本開示は、運動する医療デバイス及び/又は運動部分を有する解剖学的構造の超音波画像及び/又はビデオにおける視覚化及び/又は安定性を向上させ得る。
[0066] ダウンサンプリング層422は、任意の適切なダウンサンプリング係数においてダウンサンプリングを実施し得る。実施例において、各ダウンサンプリング層422は、係数2によってダウンサンプリングを実施する。例えば、入力画像フレーム202T1は、200×200×200ボクセルの解像度(例えば、空間的解像度410)を有する。入力画像フレーム202T1は2によってダウンサンプリングされて、100×100×100ボクセルの解像度(例えば、空間的解像度412)のテンソル402D0を生む。テンソル402D0は2によってダウンサンプリングされて、50×50×50ボクセルの解像度(例えば、空間的解像度414)のテンソル402D1を生む。テンソル402D1は2によってダウンサンプリングされて、25×25×25ボクセルの解像度(例えば、空間的解像度416)のテンソル402D2を生む。アップサンプリング層442はダウンサンプリングを逆転させる。例えば、アップサンプリング層442の各々は、係数2によってアップサンプリングを実施する。いくつかの他の実施例において、ダウンサンプリング層422は、異なるダウンサンプリング係数においてダウンサンプリングを実施し、アップサンプリング層442は、ダウンサンプリング係数に一致する係数を使用してアップサンプリングを実施する。例えば、ダウンサンプリング層422D0、422D1、及び422D2はそれぞれ、ダウンサンプリングを2、4、及び8によって実施し、アップサンプリング層442U0、442U1、及び442U2はそれぞれ、アップサンプリングを8、4、2によって実施する。
[0067] 畳み込みエンコード層222及び畳み込みデコード層242は、任意のサイズの畳み込みカーネルを含む。いくつかの実施例において、カーネルサイズは、入力画像フレーム202のサイズに依存し、ネットワーク210を特定の複雑性に限定するように選択され得る。いくつかの実施例において、畳み込みエンコード層222の各々及び畳み込みデコード層242の各々は、5×5×5の畳み込みカーネルを含む。実施例において、畳み込みエンコード層222K0は、空間的解像度410において約1つの特徴を提供する(例えば、特徴304T1,K0はサイズ1を有する)。畳み込みエンコード層222K1は、空間的解像度412において約2つの特徴を提供する(例えば、特徴304T1,K1はサイズ2を有する)。畳み込みエンコード層222K2は、空間的解像度414において約4つの特徴を提供する(例えば、特徴304T1,K2はサイズ4を有する)。畳み込みエンコード層222K3は、空間的解像度416において約8つの特徴を提供する(例えば、特徴304T1,K3はサイズ8を有する)。一般に、空間的解像度が低下するにつれて特徴の数は増加する。
[0068] いくつかの実施形態において、畳み込みエンコード層222及び/又は畳み込みデコード層242における畳み込みは繰り返され得る。例えば、畳み込みエンコード層222K0における畳み込みは2回繰り返され得、畳み込みエンコード層222K1における畳み込みは1回実施され得、畳み込みエンコード層222K2における畳み込みは2回繰り返され得、畳み込みエンコード層222K3における畳み込みは2回繰り返され得る。
[0069] いくつかの実施形態において、畳み込みエンコード層222の各々及び/又は畳み込みデコード層242の各々は、非線形関数(例えば、パラメトリック整流線形ユニット(PReLu))を含み得る。
[0070] いくつかの実施例において、回帰型コンポーネント232の各々は、畳み込みゲート付き回帰型コンポーネント(convGRU)を含む。いくつかの実施例において、回帰型コンポーネント232の各々は、畳み込み長短期記憶(convLSTM)を含む。
[0071] 図4は、2つの時点にわたる時間的情報の伝播(例えば、T0からT1、又はT1からT2)を示しているが、いくつかの実施例において、時間的情報は、より多くの時点(例えば、3つから4つ)にわたって伝播され得る。
[0072] 図2に戻ると、深層学習ネットワーク210は、各画像フレーム202に関して信頼性マップ308を出力する。上述されたように、画像フレーム202における各ピクセルに関して、対応する信頼性マップ308は、ピクセルが運動物体を含む確率又は信頼性レベルを含み得る。出力画像フレーム206のシーケンスは、入力画像フレーム202のシーケンス及び対応する信頼性マップ308に基づいて生成され得る。いくつかの実施例において、時間認識的推論は、信頼性マップ308に基づいて、運動物体の失われた画像情報を補間又は他のやり方によって予測し得る。いくつかの実施例において、推論、補間、及び/又は予測は、深層学習ネットワーク210の外部で実現され得る。いくつかの実施例において、補間及び/又は再構築は、深層学習ネットワーク210の一部として実現され得る。換言すれば、深層学習ネットワーク210の学習及び訓練は、失われた撮像情報の推論、補間、及び/又は予測を含む。
[0073] 実施形態において、深層学習ネットワーク210は、長尺で可撓性で薄肉の運動する医療デバイス(例えば、ガイドワイヤ、誘導式カテーテル、カテーテル、ニードル、療法デバイス、及び/又は治療デバイス)を解剖学的組織から見分けるように訓練され得る。例えば、訓練データセット(例えば、画像データセット140)が、システム100を使用した訓練のために作り出され得る。訓練データセットは、入力-出力のペアを含み得る。各入力-出力のペアに関して、入力は、経時的に解剖学的組織(例えば、物体105)にわたって移動する医療デバイス(例えば、デバイス108)の画像フレームのシーケンス(例えば、2D又は3D)を含み、出力は、シーケンスにおける各画像フレーム内の医療デバイスの位置のグラウンドトルース又は注釈を含む。実施例において、医療デバイスのグラウンドトルース位置は、撮像中に超音波センサを医療デバイス(例えば、医療デバイスの先端部)に取り付け、その後、少なくとも先端部をスプラインのためのエンドポイント制約として使用してカーブ又はスプラインをキャプチャされた画像にフィッティングすることによって取得され得る。超音波画像にカーブをフィッティングした後、画像には訓練のためにグラウンドトルースによって注釈付け又はラベル付けがなされ得る。訓練中に、深層学習ネットワーク210は、出力を生むために前方伝播を使用して画像フレームのシーケンスに適用され得る。畳み込みエンコード層222、回帰型コンポーネント232、及び/又は畳み込みデコード層242における畳み込みカーネルの係数は、出力とデバイスのグラウンドトルース位置との間の誤差を最小化するように後方伝播を使用して調整され得る。訓練プロセスは、訓練データセットにおける各入力-出力のペアに対して繰り返され得る。
[0074] 別の実施形態において、深層学習ネットワーク210は、訓練データセット(例えば、画像データセット140)を使用して、解剖学的組織の静的部分から解剖学的組織の運動部分を見分けるように訓練され得る。例えば、訓練データセット(例えば、画像データセット140)は、システム100を使用して訓練のために作り出され得る。訓練データセットは、入力-出力のペアを含み得る。各入力-出力のペアに関して、入力は、運動を有する解剖学的組織(例えば、心臓、呼吸、及び/又は動脈パルスに関連付けられたもの)の画像フレームのシーケンス(例えば、2D又は3D)を含み、出力は、解剖学的組織の様々な運動部分及び/又は静的部分のグラウンドトルース又は注釈を含む。グラウンドトルース及び/又は注釈は、医療コミュニティが利用可能な様々な注釈付きデータセットから取得され得る。代替的に、画像フレームのシーケンスは、グラウンドトルースによって手動で注釈付けされ得る。訓練データセットを取得した後、上述されたものと同様の機構(例えば運動物体のためのもの)が、運動する解剖学的構造のセグメンテーションのために深層学習ネットワーク210を訓練するために使用される。
[0075] 図5~図8は、時間経過に伴う一連の観察に基づいて向上されたセグメンテーションを提供するために時間認識的深層学習ネットワーク210が使用され得る様々な臨床学的使用事例のシナリオを示す。
[0076] 図5は、本開示の態様による超音波誘導式処置のシナリオ500を示す。シナリオ500は、システム100が、閉塞領域520(例えば、プラーク及び/又はカルシウム沈着)を含む脈管壁502を有する脈管管腔504を通過する薄肉のガイドワイヤ510(例えば、医療デバイス108)の超音波画像をキャプチャするために使用されるときのシナリオに対応する。例えば、超音波画像のシーケンスは、時間T0、T1、T2、T3、及びT4においてキャプチャされる。図5の右側の欄は、チェックマーク及びバツ印を含む。チェックマークは、対応する画像フレームにおいてガイドワイヤ510が完全に可視的であることを示す。バツ印は、対応する画像フレームにおいてガイドワイヤ510が完全には可視的でないことを示す。
[0077] 時間T0において、ガイドワイヤ510は管腔504に進入する。時間T1において、ガイドワイヤ510の開始部分512a(点線によって示される)が閉塞領域520に進入する。時間T2において、ガイドワイヤ510は管腔504内の通過を継続し、ガイドワイヤ510の中間部分512b(点線によって示される)は閉塞領域520内にある。時間T3において、ガイドワイヤ510は管腔504内の通過を継続し、ガイドワイヤ510の終端部分512c(点線によって示される)は閉塞領域520内にある。時間T4において、ガイドワイヤ510は閉塞領域520を出る。
[0078] 時間的情報を利用しない一般的3Dセグメンテーションは、時間T1、T2、及びT3においてそれぞれ閉塞領域520内の部分512a、512b、及び512cのセグメンテーションに失敗することがある。故に、時間T1、T2、及びT3において時間的情報なしに取得された画像フレームは各々が、閉塞領域520内の部分512a、512b、及び512cにそれぞれ対応するガイドワイヤ510の失われたセグメント、セクション、又は部分を含む。そのため、時間的情報を有さないセグメンテーションに関する欄において、時間T1、T2、及びT3に関してバツ印が示されている。
[0079] 時間認識的深層学習ネットワーク210は、失われた情報を以前の画像フレームに基づいて補間するように設計されており、故に、システム100は、画像において失われた部分512a、512b、及び512cを推論するために、深層学習ネットワーク210を適用し得る。そのため、時間的情報を有するセグメンテーションに関する欄において、時間T1、T2、及びT3に関してチェックマークが示されている。
[0080] いくつかの実施例において、シナリオ500は、末梢血管系介入処置においても同様であり、その場合、閉塞領域520は、末梢血管系構造に交差する慢性完全閉塞(CTO)に対応する。いくつかの実施例において、シナリオ500は、追跡デバイスが、空隙、カルシウム沈着、又はシャドウイングの領域(例えば、閉塞領域520)を通過する臨床的処置においても同様である。
[0081] 図6は、本開示の態様による超音波誘導式処置のシナリオ600を示す。シナリオ600は、システム100が、脈管壁602を有する脈管管腔604を通過するガイドワイヤ610(例えば、医療デバイス108)の超音波画像をキャプチャするために使用されるときのシナリオに対応し、このシナリオでは、ガイドワイヤ610は、ある期間の間、脈管壁602に沿って滑走する。例えば、超音波画像のシーケンスは、時間T0、T1、T2、T3、及びT4においてキャプチャされる。図6の右側の欄は、チェックマーク及びバツ印を含む。チェックマークは、対応する画像フレームにおいてガイドワイヤ610が完全に可視的であることを示す。バツ印は、対応する画像フレームにおいてガイドワイヤ610が完全には可視的でないことを示す。
[0082] 時間T0において、ガイドワイヤ610は、最初に、管腔604に管腔604のおよそ中央において進入する。時間T1において、ガイドワイヤ610の部分612a(点線によって示される)が脈管壁602に接触するように滑動する。ガイドワイヤ610は脈管壁602に接触するように滑動し続ける。図示されるように、時間T2において、ガイドワイヤ610の部分612b(点線によって示される)が脈管壁602に隣接している。時間T3において、ガイドワイヤ610の部分612c(点線によって示される)が脈管壁602に隣接している。時間T4において、ガイドワイヤ610の部分612d(点線によって示される)が脈管壁602に隣接している。
[0083] ガイドワイヤ610は、脈管壁602と同様に反射性であり、故に、時間的情報を利用しない一般的3Dセグメンテーションは、時間T1、T2、T3、T4においてそれぞれ脈管壁602に近接する部分612a、612b、612c、612dのセグメンテーションに失敗することがある。故に、時間T1、T2、T3、及びT4において時間的情報なしに取得された画像フレームは各々が、部分612a、612b、612c、及び612dにそれぞれ対応するガイドワイヤ610の失われたセグメント、セクション、又は部分を含む。そのため、時間的情報を有さないセグメンテーションに関する欄において、時間T1、T2、T3,及びT4に関してバツ印が示されている。
[0084] 時間認識的深層学習ネットワーク210は、経時的な超音波画像フレーム又はビデオフレームの全体的シーケンスに露出しているので、時間T1、T2、T3、及びT4においてそれぞれ脈管壁602に近接する部分612a、612b、612c、及び612dの位置及び/又は運動を予測するために画像のシーケンスに適用される。故に、時間的情報を有するセグメンテーションに関する欄において、時間T1、T2、T3,及びT4に関してチェックマークが示されている。
[0085] いくつかの実施例において、シナリオ600は、医療デバイス又はガイドワイヤが心室の壁に沿って滑走する心臓撮像処置においても同様である。いくつかの実施例において、シナリオ600は、閉塞をバイパスするために内膜下が意図的に脈管壁の外膜内に向けられる末梢血管系介入処置においても同様である。
[0086] 図7は、本開示の態様による超音波誘導式処置のシナリオ700を示す。シナリオ700は、システム100が、脈管壁702を有する脈管管腔704を通過するガイドワイヤ710(例えば、医療デバイス108)の超音波画像をキャプチャするために使用されるときのシナリオに対応し、このシナリオでは、音響結合が、ある期間の間、失われている。例えば、超音波画像のシーケンスは、時間T0、T1、T2、T3、及びT4においてキャプチャされる。図7の右側の欄は、チェックマーク及びバツ印を含む。チェックマークは、対応する画像フレームにおいてガイドワイヤ710が完全に可視的であることを示す。バツ印は、対応する画像フレームにおいてガイドワイヤ710が完全には可視的でないことを示す。
[0087] 時間T0において、ガイドワイヤ710は管腔704に進入する。時間T1及びT2において、音響結合が失われる。音響結合は、時間T3において回復する。時間的情報を利用しない一般的3D撮像は、音響結合が失われると、ガイドワイヤ610の位置の全ての情報を失ってしまう。故に、ガイドワイヤ710は、時間T1及びT2において時間的情報なしに取得された画像フレームにおいては可視的でない。そのため、時間的情報を有さないセグメンテーションに関する欄において、時間T1及びT2に関してバツ印が示されている。
[0088] 時間認識的深層学習ネットワーク210は、ガイドワイヤ710の場所を少なくとも2,3フレームの間、記憶しておく能力を有し、故に、時間T1及びT2におけるガイドワイヤ710の場所を予測するために画像のシーケンスに適用され得る。故に、時間的情報を有するセグメンテーションに関する欄において、時間T1及びT2に関してチェックマークが示されている。もしも音響結合が失われる期間が延長されると、時間認識的深層学習ネットワーク210が不正確なセグメンテーション結果を生む可能性が低くなる。
[0089] シナリオ700は、音響結合が失われたときにはいつでも発生する。撮像中の全ての期間において音響結合を維持するのは困難である。故に、時間認識的深層学習に基づくセグメンテーションは、特には自動化を伴う場合、例えば、自動ビームステアリング、画像に基づく制約を有するセンサ追跡、及び/又は超音波撮像デバイスのロボット式制御の最中に、超音波画像における様々なデバイス及び/又は解剖学的構造の視覚化を向上させ得る。他のシナリオにおいて、例えば、心臓の運動のせいで音響結合が心臓撮像中に短期間の間失われることがある。故に、時間認識的深層学習に基づくセグメンテーションは、心臓撮像における視覚化を向上させ得る。
[0090] 図8は、本開示の態様による超音波誘導式処置のシナリオ800を示す。シナリオ800は、システム100が、脈管壁802を有する脈管管腔804を通過するガイドワイヤ810(例えば、医療デバイス108)の超音波画像をキャプチャするために使用されるときのシナリオに対応し、このシナリオでは、撮像中にガイドワイヤ810が平面を出たり入ったりする。例えば、超音波画像のシーケンスは、時間T0、T1、T2、T3、及びT4においてキャプチャされる。図8の右側の欄は、チェックマーク及びバツ印を含む。チェックマークは、対応する画像フレームにおいてガイドワイヤ810が完全に可視的であることを示す。バツ印は、対応する画像フレームにおいてガイドワイヤ810が完全には可視的でないことを示す。
[0091] 時間T0において、ガイドワイヤ810は管腔804に進入し、撮像の際には平面内にある。時間T1において、ガイドワイヤ810は、平面の外へとドリフトを開始する(例えば、部分的に平面の外に出る)。時間T2において、ガイドワイヤ810は、完全に平面の外に出る。時間T3において、ガイドワイヤ810はドリフトを継続し、部分的に平面の外に出ている。時間T4において、ガイドワイヤ810は平面内に戻る。時間的情報を利用しない一般的3D撮像は、平面の外にある如何なる構造も検知しない。故に、ガイドワイヤ810は、時間T1、T2、及びT3において時間的情報なしに取得された画像フレームにおいては完全には可視的でない。そのため、時間的情報を有さないセグメンテーションに関する欄において、時間T1、T2、及びT3に関してバツ印が示されている。
[0092] 時間認識的深層学習ネットワーク210は、平面の外のデバイス位置を予測して、デバイスの完全な可視性を提供することができ、故に、ガイドワイヤ810の場所を予測するために画像のシーケンスに適用され得る。故に、時間的情報を有するセグメンテーションに関する欄において、時間T1、T2、及びT3に関してチェックマークが示されている。
[0093] いくつかの実施例において、シナリオ800は、非ボリュメトリック撮像モード(例えば、2D撮像)が使用される超音波誘導式処置において発生する。いくつかの実施例において、シナリオ800は、十分に高いフレームレートを維持するために比較的小さいサイズの3Dボリュームが横方向において獲得されるリアルタイム3D撮像において発生する。いくつかの実施例において、シナリオ800は、心臓の運動によって心臓の特定の部分が撮像平面を出入りする心臓撮像において発生する。
[0094] シナリオ500~800は、運動するガイドワイヤ(例えば、ガイドワイヤ510、610、710、及び/又は810)のセグメンテーションを提供するための時間認識的深層学習ネットワーク210の使用を示すが、同様の時間認識的深層学習に基づくセグメンテーション機構は、任意の長尺で可撓性で薄肉形状の運動するデバイス(例えば、カテーテル、誘導式カテーテル、ニードル、IVUSデバイス、及び/又は療法デバイス)、及び/又は運動部分を有する解剖学的構造に適用され得る。一般に、時間認識的深層学習に基づくセグメンテーションは、撮像されている運動するデバイス及び/又は運動を有する解剖学的組織の視覚化及び/又は安定性を向上させるために使用され得る。換言すれば、時間認識的深層学習に基づくセグメンテーションは、運動するデバイス及び/又は運動する解剖学的構造の運動における不連続性を最小化又は除去し得る。
[0095] 図9は、本開示の態様によるスプラインフィッティングを伴う深層学習に基づく画像セグメンテーションスキーム900の概略図である。スキーム900はシステム100によって実現される。スキーム900は、スキーム200と実質的に同様である。例えば、スキーム900は、超音波画像における運動物体のセグメンテーションを提供するために時間認識的多層深層学習ネットワーク210を利用する。加えて、スキーム900は、深層学習ネットワーク210の出力に結合されたスプラインフィッティングコンポーネント910を含む。スプラインフィッティングコンポーネント910は、システム100における処理コンポーネント134によって実現され得る。
[0096] スプラインフィッティングコンポーネント910は、深層学習ネットワーク210によって出力された信頼性マップ308にスプラインフィッティング機能を適用するように構成される。シーケンスにおける画像フレーム202に関する信頼性マップ308の拡張されたビューがヒートマップ902として図示される。図示されるように、深層学習ネットワーク210はカーブ930によって示されるように運動物体を予測した。しかしながら、カーブ930は、不連続的であり、ギャップ932を含んでいる。スプラインフィッティングコンポーネント910は、スプライン934をフィッティングして、ギャップ932におけるカーブ930の不連続性を均して除去するように構成される。スプラインフィッティングコンポーネント910は、撮像されている運動物体に関連付けられたデバイスパラメータ904を考慮してスプラインフィッティングを実施する。デバイスパラメータ904は、デバイスの形状、デバイスの先端部位置、及び/又は、デバイスの他の寸法及び/又は幾何学的情報を含む。故に、時間的深層学習に基づく予測への後処理調整としてのスプラインフィッティングの使用は、撮像されている運動物体の視覚化及び/又は安定性を更に向上させ得る。
[0097] 図10は、本開示の態様による深層学習に基づく撮像ガイダンススキーム1000の概略図である。スキーム1000はシステム100によって実現される。スキーム1000は、スキーム200と実質的に同様である。例えば、スキーム1000は、超音波画像のための撮像ガイダンスを提供するために時間認識的多層深層学習ネットワーク1010を利用する。深層学習ネットワーク1010は、深層学習ネットワーク210と実質的に同様のアーキテクチャを有する。例えば、深層学習ネットワーク1010は、畳み込みエンコーダ1020と、時間認識的RNN1030と、畳み込みデコーダ2100とを含む。畳み込みエンコーダ1020は複数の畳み込みエンコード層1022を含む。畳み込みデコーダ1040は複数の畳み込みデコード層1042を含む。畳み込みエンコード層1022、畳み込みデコード層1042、及びRNN1030はそれぞれ、畳み込みエンコード層222、畳み込みデコード層242、及びRNN230と実質的に同様であり、構成400において示されたように、複数の異なる空間的解像度(例えば、空間的解像度410、412、414、及び416)において動作する。しかしながら、畳み込みエンコード層1022、畳み込みデコード層1042、及びRNN1030は、目標となる解剖学的組織(例えば、関心対象となる特定の臨床的特性を含む)を撮像するための最適な撮像平面を予測するように訓練される。最適な撮像平面は、2D平面、X-平面(例えば、断面平面及び直交撮像平面を含む)、MPR、又は任意の適切な撮像平面であってよい。
[0098] 例えば、画像フレーム1002のシーケンスは、ある期間にわたって経時的に(例えば時間T0から時間Tn)キャプチャされる。画像フレーム202は、システム100を使用してキャプチャされる。深層学習ネットワーク1010は、最適な撮像平面を予測するために画像フレーム1002のシーケンスに適用され得る。例として、脈管壁1054を有する脈管管腔1052(例えば、物体105)を医療デバイス1050(例えば、医療デバイス108)が通過する間に、入力画像フレーム1002のシーケンスがキャプチャされる。深層学習ネットワーク1010の出力は、最適な長軸スライス1006及び短軸スライス1008を提供する。スキーム200と同様に、画像フレーム1002の各々は、畳み込みエンコード層1022の各々及び畳み込みデコード層1042の各々によって処理される。矢印1004によって示されるように、RNN1030は、現在の画像フレーム1002(時間T0においてキャプチャされる)に関する予測を、次の画像フレーム1002(時間T1においてキャプチャされる)についての予測に関する二次的入力としてRNN1030に戻す。
[0099] 第1の実施例において、深層学習ネットワーク1010によって出力された予測は、最適な場所へと超音波ビームを自動的にステアリングするために、システム100によって使用され得る。例えば、処理コンポーネント116及び/又は134は、予測に基づいてトランスデューサアレイ112によって生成された超音波ビームを制御又はステアリングするように構成され得る。
[00100] 第2の実施例において、深層学習ネットワーク1010は、最適な撮像平面が傾いた平面であることを予測する。深層学習ネットワーク1010は、プローブ110の軸を予測された最適な平面と整列させるようにプローブ110を操作(例えば、回転及び/又は並進)するように、ユーザにナビゲーション命令を提供する。いくつかの実施例において、ナビゲーション命令は、ディスプレイ132と同様のディスプレイ上に表示され得る。いくつかの実施例において、ナビゲーション命令は、グラフィカル表現(例えば、回転シンボル又は並進シンボル)を使用して表示され得る。ユーザがプローブ110を提案された場所に再度位置決めした後、撮像平面は傾いた平面ではなくなる。故に、深層学習ネットワーク1010は、第1の実施例において説明されたように予測を提供するように遷移し得、トランスデューサアレイ112によって生成されたビームをステアリングするために処理コンポーネント116及び/又は134と通信する。
[00101] 図11は、本開示の態様による超音波誘導式処置から取得される超音波画像1110、1120、及び1130を示す。画像1110は、PVD検査中にシステム100と同様のシステムを使用して取得された3D画像である。画像1110は、脈管壁1116によって包囲された脈管管腔1114(例えば、物体105)を通って移動する薄肉のガイドワイヤ1112(例えば、医療デバイス108及び/又は1050)を示す。デバイス1112はx軸に沿って脈管を通って移動する。システムは、デバイス1112が脈管を通って移動するにつれて画像1110と同様の一連の3D画像をキャプチャする。上述されたように、デバイス1112の運動によって、デバイス1112は撮像ビューを出たり入ったりすることがある。加えて、デバイス1112の薄肉の幾何学的形状によって、デバイス1112を解剖学的組織(例えば、脈管管腔1114及び/又は脈管壁1116)から区別することが困難になることがある。
[00102] 視覚化を向上させるために、セグメンテーション及び/又は撮像ガイダンスのために訓練された時間認識的深層学習ネットワークは、一連の3D画像(画像1110を含む)に適用され得る。深層学習ネットワーク1010によって生み出された予測結果は、デバイス1112の先端部を通過し、デバイス1112の主軸(例えば、x軸及びy軸)と整列されるMPRを自動的に設定するために使用される。画像1120及び1130は、深層学習セグメンテーションに基づいて生成される。画像1120は、深層学習ネットワークによって出力された予測結果に基づいて画像1110から構築された(z-x平面に沿った)長手方向MPRを示す。画像1130は、予測結果に基づいて画像1110から構築された(y-z平面に沿った)横方向MPRを示す。直交するMPR平面(例えば、画像1120及び1130)は、予測されたセグメンテーションに基づいて生成された。この事例において、画像1120及び1130はそれぞれ、セグメンテーションされたデバイス112の先端部を通過する長手方向及び矢状方向平面に対応するが、同様の機構を使用して他のMPR平面も同様に生成され得る。
[00103] いくつかの事例において、デバイス1112は、解剖学的組織(例えば、脈管壁)に極めて近接して配置され得、解剖学的組織と同等に反射性であり得る。故に、臨床医は、キャプチャされた画像からデバイス1112を視覚化することが困難である。視覚化を更に向上させるために、画像1120及び1130は、色分けされ得る。例えば、解剖学的構造はグレースケールで示され得、デバイス1112は赤色又は任意の他の適切な色で示され得る。
[00104] 図12は、本開示の実施形態によるプロセッサ回路1200の概略図である。プロセッサ回路1200は、図1のプローブ110及び/又はホスト130において実現される。図示されるように、プロセッサ回路1200は、プロセッサ1260と、メモリ1264と、通信モジュール1268とを含む。これらの要素は、互いに直接的又は間接的に、例えば1つ又は複数のバスを介して、通信している。
[00105] プロセッサ1260は、CPU、DSP、特定用途向け集積回路(ASIC)、コントローラ、FPGA、別のハードウェアデバイス、ファームウェアデバイス、又は本明細書において説明された動作、例えば、図1~図11及び図13~図15の態様を実施するように構成されたこれらの任意の組み合わせを含む。プロセッサ1260は、コンピューティングデバイスの組み合わせ、例えば、DSPとマイクロプロセッサとの組み合わせ、複数のマイクロプロセッサ、DSPコアと連動する1つ又は複数のマイクロプロセッサ、又は任意の他のこのような構成としても実現される。
[00106] メモリ1264は、キャッシュメモリ(例えば、プロセッサ1260のキャッシュメモリ)、ランダムアクセスメモリ(RAM)、磁気抵抗RAM(MRAM)、読み取り専用メモリ(ROM)、プログラム可能読み取り専用メモリ(PROM)、消去可能プログラム可能読み取り専用メモリ(EPROM)、電気的消去可能プログラム可能読み取り専用メモリ(EEPROM)、フラッシュメモリ、固体状態メモリデバイス、ハードディスクドライブ、他の形態の揮発性及び不揮発性メモリ、又は異なるタイプのメモリの組み合わせを含む。実施形態において、メモリ1264は、非一時的コンピュータ可読媒体を含む。メモリ1264は、命令1266を記憶する。命令1266は、プロセッサ1260によって実行されたときに、プロセッサ1260に本明細書において説明された動作、例えば、図1~図11及び図13~図15の態様及びプローブ110及び/又はホスト130(図1)に関連する態様を行わせる命令を含む。命令1266は、コードとも称される。「命令」及び「コード」という用語は、任意のタイプのコンピュータ可読文を含むように広範に解釈されるべきである。例えば、「命令」及び「コード」という用語は、1つ又は複数のプログラム、ルーチン、サブルーチン、機能、手続き等を指す。「命令」及び「コード」は、単一のコンピュータ可読文又は多くのコンピュータ可読文を含む。
[00107] 通信モジュール1268は、プロセッサ回路1200、プローブ110、及び/又はディスプレイ132の間でのデータの直接的又は間接的な通信を促進する任意の電子回路及び/又は論理回路を含み得る。この点に関して、通信モジュール1268は、入力/出力(I/O)デバイスであってよい。いくつかの場合において、通信モジュール1268は、プロセッサ回路1200及び/又はプローブ110(図1)及び/又はホスト130(図1)の様々な要素の間での直接的又は間接的な通信を促進する。
[00108] 図13は、本開示の態様による深層学習に基づく超音波撮像方法1300のフロー図である。方法1300は、システム100によって、例えば、プロセッサ回路1200などのプロセッサ回路、並びに/又はプローブ110、処理コンポーネント114、ホスト130、及び/若しくは処理コンポーネント134などの他の適切なコンポーネントによって実現される。いくつかの実施例において、システム100は、プログラムコードが記録されたコンピュータ可読媒体を含み得、プログラムコードは、システム100に方法1300のステップを行わせるコードを含む。方法1300は、図2、図9、図10に関してそれぞれ説明されたスキーム200、900及び/又は1000、図3及び図4に関してそれぞれ説明された構成300及び/又は400、及び/又は、図5、図6、図7及び/又は図8に関してそれぞれ説明されたシナリオ500、600、700及び/又は800におけるものと同様の機構を用いる。示されるように、方法1300は、いくつもの列挙されたステップを有するが、方法1300の実施形態は、列挙されたステップの前、後、及び間に追加的なステップを有してよい。いくつかの実施形態において、列挙されたステップのうちの1つ又は複数が省略されてよく、又は異なる順序で実施されてよい。
[00109] ステップ1310において、方法1300は、プロセッサ回路(例えば、処理コンポーネント116及び/又は134、及び/又はプロセッサ回路1200)によって、超音波撮像デバイス(例えば、プローブ110)から、ある期間にわたって(例えば、時間T0、T1、T2、...、Tnにわたって)運動物体の入力画像フレームのシーケンス(例えば、画像フレーム202)を受信するステップを有する。運動物体は、患者の解剖学的組織又は患者の解剖学的組織を通って移動する医療デバイスのうちの少なくとも1つを含み、運動物体の一部は、入力画像フレームのシーケンスの第1の入力画像フレームにおいて少なくとも部分的に不可視的である。第1の入力画像フレームは、入力画像フレームのシーケンスにおける任意の画像フレームである。解剖学的組織は物体105と同様のものであり、患者の心臓、肺、脈管(例えば、脈管管腔504、604、705及び/又は804、及び脈管壁502、602、702及び/又は802)、神経線維、及び/又は患者の任意の適切な解剖学的構造を含む。医療デバイスは、医療デバイス108、及び/又はガイドワイヤ510、610、710及び/又は810と同様のものである。
[00110] ステップ1320において、方法1300は、プロセッサ回路によって、画像セグメンテーションに関連付けられた回帰型予測ネットワーク(例えば、深層学習ネットワーク210)を入力画像フレームのシーケンスに適用して、セグメンテーションデータを生成するステップを有する。
[00111] ステップ1330において、方法は、セグメンテーションデータに基づいて出力画像フレームのシーケンス(例えば、画像フレーム206及び/又は906)を、プロセッサ回路と通信するディスプレイ(例えば、ディスプレイ132)に出力するステップを有する。運動物体の一部は、出力画像フレームのシーケンスの第1の出力画像フレームにおいて完全に可視的であり、第1の出力画像フレーム及び第1の入力画像フレームは期間内における同一の時間的瞬間に関連付けられている。
[00112] いくつかの実施例において、例えば図5に関して上述されたシナリオ500において示されるように、運動物体の一部は、閉塞領域(例えば、閉塞領域520)内にある。いくつかの実施例において、例えば図6に関して上述されたシナリオ600において示されるように、運動物体の一部は、患者の解剖学的構造(例えば、脈管壁605、602、702及び/又は802)に接触するように位置している。いくつかの実施例において、例えば図7に関して上述されたシナリオ700において示されるように、運動物体の一部は、音響結合が弱いか又は失われている間にキャプチャされる。いくつかの実施例において、例えば図8に関して上述されたシナリオ800において示されるように、運動物体の一部は、第1の入力画像フレームがキャプチャされるときに平面の外にある。
[00113] 実施形態において、回帰型予測ネットワークを適用するステップは、入力画像フレームのシーケンスの以前の入力画像フレームに基づいて以前のセグメンテーションデータを生成するステップであって、以前の入力画像フレームは第1の入力画像フレームよりも前に受信される、ステップと、第1の入力画像フレーム及び以前のセグメンテーションデータに基づいて、第1のセグメンテーションデータを生成するステップとを有する。以前の入力画像フレームは、第1の入力画像フレームの前に受信されたシーケンスにおける任意の画像フレーム又はシーケンスにおける第1の入力画像フレームの直前の画像フレームであってよい。例えば、図3に関して説明された構成300において示されるように、第1の入力画像フレームは、現在の時間T1において受信された入力画像フレーム202T1に対応し、第1のセグメンテーションデータは出力306T1に対応し、以前の入力画像フレームは、以前の時間T0において受信された入力画像フレーム202T0に対応し、以前のセグメンテーションデータは、出力306T0に対応する。
[00114] 実施形態において、以前のセグメンテーションデータを生成するステップは、畳み込みエンコーダ(例えば、畳み込みエンコーダ220)及び回帰型ニューラルネットワーク(例えば、RNN230)を以前の入力画像フレームに適用するステップを有する。第1のセグメンテーションデータを生成するステップは、エンコード済みのデータを生成するために畳み込みエンコーダを第1の入力画像フレームに適用するステップと、回帰型ニューラルネットワークをエンコード済みのデータ及び以前のセグメンテーションデータに適用するステップとを有する。回帰型予測ネットワークを適用するステップは、畳み込みデコーダ(例えば、畳み込みデコーダ240)を第1のセグメンテーションデータ及び以前のセグメンテーションデータに適用するステップを更に有する。実施形態において、畳み込みエンコーダ、回帰型ニューラルネットワーク、及び畳み込みデコーダは、複数の空間的解像度(例えば、空間的解像度410、412、414、及び416)において動作する。
[00115] 実施形態において、運動物体は、患者の解剖学的組織を通って移動する医療デバイスを含む。このような実施形態において、畳み込みエンコーダ、回帰型ニューラルネットワーク、及び畳み込みデコーダは、患者の解剖学的組織から医療デバイスを識別し、患者の解剖学的組織を通って移動する医療デバイスに関連付けられた運動を予測するように訓練される。
[00116] 実施形態において、運動物体は、心臓運動、呼吸運動、又は動脈パルスのうちの少なくとも1つを有する患者の解剖学的組織を含む。このような実施形態において、畳み込みエンコーダ、回帰型ネットワーク、及び畳み込みデコーダは、患者の解剖学的組織の静的部分から患者の解剖学的組織の運動部分を識別し、運動部分に関連付けられた運動を予測するように訓練される。
[00117] 実施形態において、運動物体は患者の解剖学的組織を通って移動する医療デバイスを含み、システムは医療デバイスを含む。実施形態において、医療デバイスは、ニードル、ガイドワイヤ、カテーテル、誘導式カテーテル、療法デバイス、又は介入デバイスのうちの少なくとも1つを備える。
[00118] 実施形態において、入力画像フレームは3D画像フレームを含み、回帰型予測ネットワークは、時間的情報に基づく4D画像セグメンテーションのために訓練される。実施形態において、入力画像フレームのシーケンスは2D画像フレームを含み、回帰型予測ネットワークは、時間的情報に基づく3D画像セグメンテーションのために訓練される。
[00119] 実施形態において、方法1300は、セグメンテーションデータに基づいて入力画像フレームのシーケンスにスプラインフィッティング(例えば、スプラインフィッティングコンポーネント920)を適用するステップを更に有する。スプラインフィッティングは、入力画像フレームのシーケンスにおける空間的情報及び時間的情報並びに回帰型予測ネットワークによる予測を利用する。
[00120] 図14は、本開示の態様による深層学習に基づく超音波撮像方法のフロー図である。方法1400は、システム100によって、例えば、プロセッサ回路1200などのプロセッサ回路、並びに/又はプローブ110、処理コンポーネント114、ホスト130、及び/若しくは処理コンポーネント134などの他の適切なコンポーネントによって実現される。いくつかの実施例において、システム100は、プログラムコードが記録されたコンピュータ可読媒体を含み得、プログラムコードは、システム100に方法1400のステップを行わせるコードを含む。方法1400は、図10に関して説明されたスキーム1000、図3及び図4に関してそれぞれ説明された構成300及び400におけるものと同様の機構を用いる。示されるように、方法1400は、いくつもの列挙されたステップを有するが、方法1400の実施形態は、列挙されたステップの前、後、及び間に追加的なステップを有してよい。いくつかの実施形態において、列挙されたステップのうちの1つ又は複数が省略されてよく、又は異なる順序で実施されてよい。
[00121] ステップ1410において、方法1400は、プロセッサ回路(例えば、処理コンポーネント116及び/又は134、及び/又はプロセッサ回路1200)によって、超音波撮像デバイス(例えば、プローブ110)から、ある期間にわたって(例えば、時間T0、T1、T2、...、Tnにわたって)、患者の解剖学的組織を表す入力画像フレームのシーケンス(例えば、画像フレーム1002及び/又は11110)を受信するステップを有する。解剖学的組織は物体105と同様のものであり、患者の心臓、肺、及び/又は任意の解剖学的構造を含む。
[00122] ステップ1420において、方法1400は、患者の解剖学的組織の臨床的特性に関連付けられた撮像平面データを生成するために、画像取得に関連付けられた回帰型予測ネットワーク(例えば、深層学習ネットワーク1010)を画像フレームのシーケンスに適用するステップを有する。臨床的特性は、心臓の状態、肺の状態、及び/又は任意の他の臨床的状態に関連付けられる。
[00123] ステップ1430において、方法1400は、撮像平面データに基づいて、患者の解剖学的組織の目標撮像平面(例えば、断面平面、長手方向平面、又はMPR平面)又は目標撮像平面に向かって超音波撮像デバイスを再度位置決めするための命令のうちの少なくとも1つを、プロセッサ回路と通信するディスプレイ(例えば、ディスプレイ132)に出力するステップを有する。
[00124] 実施形態において、回帰型予測ネットワークを適用するステップは、画像のシーケンスの第1の画像フレームに基づいて第1の撮像平面データを生成するステップと、画像フレームのシーケンスの第2の画像フレーム及び第1の撮像平面データに基づいて第2の撮像平面データを生成するステップであって、第2の画像フレームは、第1の画像フレームの後に受信される、ステップとを有する。例えば、図10に関して説明されたスキーム1000において示されるように、第1の画像フレームは、以前の時間T0において受信された入力画像フレーム1002に対応し、第1の撮像平面データは、時間T0におけるRNN1030の出力に対応し、第2の画像フレームは、現在の時間T1において受信された入力画像フレーム1002T1に対応し、第2の撮像平面データは、時間T1におけるRNN1030の出力に対応する。
[00125] 実施形態において、第1の撮像平面データを生成するステップは、畳み込みエンコーダ(例えば、畳み込みエンコーダ1020)及び回帰型ニューラルネットワーク(例えば、RNN1030)を第1の画像フレームに適用するステップを有する。第2の撮像平面データを生成するステップは、畳み込みエンコーダを第2の画像フレームに適用して、エンコード済みのデータを生成するステップと、回帰型ニューラルネットワークをエンコード済みのデータ及び第1の撮像平面データに適用するステップとを有する。回帰型予測ネットワークを適用するステップは、畳み込みデコーダ(例えば、畳み込みデコーダ1040)を第1の撮像平面データ及び第2の撮像平面データに適用するステップを更に有する。実施形態において、畳み込みエンコーダ、回帰型ニューラルネットワーク、及び畳み込みデコーダは、複数の空間的解像度(例えば、空間的解像度410、412、414、及び416)において動作する。実施形態において、畳み込みエンコーダ、回帰型ネットワーク、及び畳み込みデコーダは、患者の解剖学的組織の臨床的特性を撮像するために、目標撮像平面を予測するように訓練される。
[00126] 実施形態において、入力画像フレームは3D画像フレームを含み、回帰型予測ネットワークは、時間的情報に基づく3D画像取得のために訓練される。実施形態において、入力画像フレームのシーケンスは2D画像フレームを含み、回帰型予測ネットワークは、時間的情報に基づく2D画像取得のために訓練される。
[00127] 実施形態において、方法1400は、臨床的特性を含む患者の解剖学的組織の断面画像スライス(例えば、画像スライス1006及び/又は1120)、直交画像スライス(例えば、画像スライス1008及び/又は1130)、又は多平面MPR画像スライスのうちの少なくとも1つを含む目標撮像平面を出力する。
[00128] 実施形態において、方法1400は、撮像平面データに基づいて超音波ビームステアリング制御信号を生成するステップと、超音波ビームステアリング制御信号を超音波撮像デバイスに出力するステップとを有する。例えば、超音波ビームステアリング制御信号は、超音波撮像デバイスのトランスデューサアレイ(例えば、トランスデューサアレイ112)によって生成された超音波ビームをステアリングする。
[00129] 実施形態において、プロセッサ回路は、超音波撮像デバイスの回転又は並進のうちの少なくとも1つを含む命令を出力する。命令は、患者の解剖学的組織の目標画像ビューを取得するために超音波撮像デバイスを最適な撮像場所(例えば、目標撮像平面)へと操作するときのガイダンスをユーザに提供し得る。
[00130] 本開示の態様は、いくつかの利益を提供し得る。例えば、深層学習ネットワーク(例えば、深層学習ネットワーク210及び1010)における時間的連続性情報の使用は、深層学習ネットワークが、単一の時点における観察ではなく時間における一連の観察に基づいて学習し、予測することを可能とする。時間的連続性情報は、その他のやり方ではセグメンテーションが困難な長尺で可撓性で薄肉形状の運動物体のセグメンテーションを向上させ得る追加的な次元情報を提供する。それ故、開示された実施形態は、2D及び/又は3D撮像の下で運動物体の運動の安定したビューを提供し得る。深層学習ネットワーク出力への調整としてのスプラインフィッティングの使用は、撮像されている運動物体に関連付けられた運動の円滑な遷移を更に提供する。時間的連続性情報の使用は、例えば、目標撮像ビューに到達するときのビームステアリング制御及び/又は撮像ガイダンス命令を含む、ビューの自動的な発見も提供し得る。
[00131] 当業者は、上述された装置、システム、及び方法は様々なやり方で修正され得ることを認識するであろう。それ故、当業者は、本開示に包含される実施形態は、上述された特定の例示的な実施形態に限定されるものではないことを理解するであろう。この点に関して、例示的な実施形態が図示され、説明されたが、前述の開示において広範な修正、変更、及び代替が想定される。このような変形は、本開示の範囲から逸脱することなく前述のものに対してなされることが理解される。それ故、添付の特許請求の範囲は、幅広く、本開示と首尾一貫したやり方で解釈されることが適切である。

Claims (15)

  1. 超音波撮像デバイスと通信するプロセッサ回路を備える、超音波撮像システムであって、前記プロセッサ回路は、
    前記超音波撮像デバイスから、ある期間にわたって運動物体の入力画像フレームの時間的シーケンスを受信することであって、前記運動物体は、患者の解剖学的組織又は前記患者の解剖学的組織を通って移動する医療デバイスのうちの少なくとも1つを含み、前記運動物体の一部は、前記入力画像フレームのシーケンスの第1の入力画像フレームにおいて少なくとも部分的に不可視的である、受信することと、
    画像セグメンテーションに関連付けられた回帰型予測ネットワークを前記入力画像フレームのシーケンスに適用して、セグメンテーションデータを生成することであって、前記回帰型予測ネットワークは、前記入力画像フレームのシーケンスに保持された時間的情報に基づいて前記運動物体の運動及び/又は位置を予測し、前記回帰型予測ネットワークは、次の画像フレームの予測のための入力として現在の画像フレームに関する予測を渡すための深層学習ネットワークを含む、生成することと、
    前記セグメンテーションデータに基づいて出力画像フレームのシーケンスを、前記プロセッサ回路と通信するディスプレイに出力することであって、前記運動物体の前記一部は、前記出力画像フレームのシーケンスの第1の出力画像フレームにおいて完全に可視的であり、前記第1の出力画像フレーム及び前記第1の入力画像フレームは前記期間内における同一の時間的瞬間に関連付けられている、出力することと
    を行う、超音波撮像システム。
  2. 前記回帰型予測ネットワークを適用する前記プロセッサ回路は更に、
    前記入力画像フレームのシーケンスの以前の入力画像フレームに基づいて以前のセグメンテーションデータを生成することであって、前記以前の入力画像フレームは前記第1の入力画像フレームよりも前に受信される、生成することと、
    前記第1の入力画像フレーム及び前記以前のセグメンテーションデータに基づいて、第1のセグメンテーションデータを生成することと
    を行う、請求項1に記載の超音波撮像システム。
  3. 前記以前のセグメンテーションデータを生成する前記プロセッサ回路は、畳み込みエンコーダ及び回帰型ニューラルネットワークを前記以前の入力画像フレームに適用することを行い、
    前記第1のセグメンテーションデータを生成する前記プロセッサ回路は、
    前記畳み込みエンコーダを前記第1の入力画像フレームに適用して、エンコード済みのデータを生成することと、
    前記回帰型ニューラルネットワークを前記エンコード済みのデータ及び前記以前のセグメンテーションデータに適用することと
    を行い、
    前記回帰型予測ネットワークを適用する前記プロセッサ回路は更に、
    畳み込みデコーダを前記第1のセグメンテーションデータ及び前記以前のセグメンテーションデータに適用すること
    を行う、請求項2に記載の超音波撮像システム。
  4. 前記畳み込みエンコーダ、前記回帰型ニューラルネットワーク、及び前記畳み込みデコーダは、複数の空間的解像度において動作する、請求項3に記載の超音波撮像システム。
  5. 前記運動物体は、前記患者の解剖学的組織を通って移動する前記医療デバイスを含み、前記畳み込みエンコーダ、前記回帰型ニューラルネットワーク、及び前記畳み込みデコーダは、前記患者の解剖学的組織から前記医療デバイスを識別し、前記患者の解剖学的組織を通って移動する前記医療デバイスに関連付けられた運動を予測するように訓練される、請求項3に記載の超音波撮像システム。
  6. 前記運動物体は、心臓運動、呼吸運動、又は動脈パルスのうちの少なくとも1つを有する前記患者の解剖学的組織を含み、前記畳み込みエンコーダ、前記回帰型ニューラルネットワーク、及び前記畳み込みデコーダは、前記患者の解剖学的組織の静的部分から前記患者の解剖学的組織の運動部分を識別し、前記運動部分に関連付けられた運動を予測するように訓練される、請求項3に記載の超音波撮像システム。
  7. 前記運動物体は前記患者の解剖学的組織を通って移動する前記医療デバイスを含み、前記超音波撮像システムは前記医療デバイスを備える、請求項1に記載の超音波撮像システム。
  8. 前記医療デバイスは、ニードル、ガイドワイヤ、カテーテル、誘導式カテーテル、療法デバイス、又は介入デバイスのうちの少なくとも1つを備える、請求項7に記載の超音波撮像システム。
  9. 前記入力画像フレームは、2次元的画像フレーム又は3次元的画像フレームのうちの少なくとも1つを含む、請求項1に記載の超音波撮像システム。
  10. 前記プロセッサ回路は更に、前記セグメンテーションデータに基づいて前記入力画像フレームのシーケンスにスプラインフィッティングを適用することを行う、請求項1に記載の超音波撮像システム。
  11. 前記超音波撮像デバイスを更に備え、前記超音波撮像デバイスは、前記入力画像フレームのシーケンスを取得する超音波トランスデューサアレイを備える、請求項1に記載の超音波撮像システム。
  12. 超音波画像を処理する方法であって、前記方法は、
    超音波撮像デバイスから、ある期間にわたって患者の解剖学的組織を表す画像フレームのシーケンスを受信するステップと、
    画像取得に関連付けられた回帰型予測ネットワークを前記画像フレームのシーケンスに適用して、前記患者の解剖学的組織の臨床的特性に関連付けられた撮像平面データを生成するステップであって、前記回帰型予測ネットワークは、前記画像フレームのシーケンスに保持された時間的情報に基づいて前記患者の解剖学的組織の運動及び/又は位置を予測し、前記回帰型予測ネットワークは、次の画像フレームの予測のための入力として現在の画像フレームに関する予測を渡すための深層学習ネットワークを含む、生成するステップと、
    前記患者の解剖学的組織の目標撮像平面と、前記目標撮像平面に向かって前記超音波撮像デバイスを再度位置決めするための命令とのうちの少なくとも1つをディスプレイに出力するステップと
    を有する、方法。
  13. 前記回帰型予測ネットワークを適用するステップは、
    前記画像フレームのシーケンスの第1の画像フレームに基づいて第1の撮像平面データを生成するステップと、
    前記画像フレームのシーケンスの第2の画像フレーム及び前記第1の撮像平面データに基づいて第2の撮像平面データを生成するステップとを有し、前記第2の画像フレームは、前記第1の画像フレームの後に受信される、
    請求項12に記載の方法。
  14. 前記第1の撮像平面データを生成するステップは、
    畳み込みエンコーダ及び回帰型ニューラルネットワークを前記第1の画像フレームに適用するステップ
    を有し、
    前記第2の撮像平面データを生成するステップは、
    前記畳み込みエンコーダを前記第1の画像フレームに適用して、エンコード済みのデータを生成するステップと、
    前記回帰型ニューラルネットワークを前記エンコード済みのデータ及び前記第1の撮像平面データに適用するステップと
    を有し、
    前記回帰型予測ネットワークを適用するステップは、
    畳み込みデコーダを前記第1の撮像平面データ及び前記第2の撮像平面データに適用するステップ
    を有する、請求項13に記載の方法。
  15. 請求項12に記載の方法のステップの全てをプロセッサに実施させるためのプログラムコードが記憶された、非一時的コンピュータ可読記憶媒体。
JP2021558735A 2019-04-02 2020-03-30 超音波撮像におけるセグメンテーション及びビューガイダンス並びに関連するデバイス、システム及び方法 Active JP7462672B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962828185P 2019-04-02 2019-04-02
US62/828,185 2019-04-02
US202062964715P 2020-01-23 2020-01-23
US62/964,715 2020-01-23
PCT/EP2020/058898 WO2020201183A1 (en) 2019-04-02 2020-03-30 Segmentation and view guidance in ultrasound imaging and associated devices, systems, and methods

Publications (3)

Publication Number Publication Date
JP2022526575A JP2022526575A (ja) 2022-05-25
JPWO2020201183A5 JPWO2020201183A5 (ja) 2023-04-07
JP7462672B2 true JP7462672B2 (ja) 2024-04-05

Family

ID=70058368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021558735A Active JP7462672B2 (ja) 2019-04-02 2020-03-30 超音波撮像におけるセグメンテーション及びビューガイダンス並びに関連するデバイス、システム及び方法

Country Status (4)

Country Link
US (1) US12020434B2 (ja)
JP (1) JP7462672B2 (ja)
CN (1) CN113678167A (ja)
WO (1) WO2020201183A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114430671A (zh) 2019-09-26 2022-05-03 皇家飞利浦有限公司 用于超声成像中的目标定位的自动闭环超声平面转向以及相关联的设备、***和方法
CN112116608B (zh) * 2020-10-22 2022-10-14 上海联影医疗科技股份有限公司 一种导丝分割方法、装置、电子设备及存储介质
US20220198665A1 (en) * 2020-12-21 2022-06-23 Medtronic Navigation, Inc. Systems and methods for monitoring one or more anatomical elements
EP4111982A1 (en) * 2021-06-29 2023-01-04 Koninklijke Philips N.V. Systems and apparatuses for navigation and procedural guidance of laser leaflet resection under intracardiac echocardiography
WO2024046807A1 (en) 2022-08-30 2024-03-07 Koninklijke Philips N.V. Ultrasound video feature detection using learning from unlabeled data
WO2024104857A1 (en) 2022-11-15 2024-05-23 Koninklijke Philips N.V. Automatic measurement point detection for anatomy measurement in anatomical images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018134386A (ja) 2016-12-07 2018-08-30 ベイラブス, インク.Bay Labs, Inc. 超音波探触子の誘導ナビゲーション
US20190059851A1 (en) 2017-08-31 2019-02-28 Butterfly Network, Inc. Methods and apparatus for collection of ultrasound data
JP2019508072A (ja) 2016-12-02 2019-03-28 アヴェント インコーポレイテッド 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6708055B2 (en) * 1998-08-25 2004-03-16 University Of Florida Method for automated analysis of apical four-chamber images of the heart
US20040225221A1 (en) * 2003-05-06 2004-11-11 Olsson Lars Jonas Diagnostic ultrasound imaging system with adaptive persistence
US20060030777A1 (en) * 2004-07-30 2006-02-09 Liang David H T-statistic method for suppressing artifacts in blood vessel ultrasonic imaging
JP5996870B2 (ja) * 2009-01-23 2016-09-21 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 心臓画像の処理及び分析
US8396268B2 (en) * 2010-03-31 2013-03-12 Isis Innovation Limited System and method for image sequence processing
US9702977B2 (en) * 2013-03-15 2017-07-11 Leap Motion, Inc. Determining positional information of an object in space
US20180247199A1 (en) * 2017-02-24 2018-08-30 Qualcomm Incorporated Method and apparatus for multi-dimensional sequence prediction
US10860859B2 (en) * 2017-11-30 2020-12-08 Nvidia Corporation Budget-aware method for detecting activity in video
US10664979B2 (en) * 2018-09-14 2020-05-26 Siemens Healthcare Gmbh Method and system for deep motion model learning in medical images
US10426442B1 (en) * 2019-06-14 2019-10-01 Cycle Clarity, LLC Adaptive image processing in assisted reproductive imaging modalities

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019508072A (ja) 2016-12-02 2019-03-28 アヴェント インコーポレイテッド 医用撮像に基づく処置における標的の解剖学的対象物へのナビゲーションのためのシステムおよび方法
JP2018134386A (ja) 2016-12-07 2018-08-30 ベイラブス, インク.Bay Labs, Inc. 超音波探触子の誘導ナビゲーション
US20190059851A1 (en) 2017-08-31 2019-02-28 Butterfly Network, Inc. Methods and apparatus for collection of ultrasound data

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
B. Khanal et al.,EchoFusion: Tracking and Reconstruction of Objects in 4D Freehand Ultrasound Imaging Without External Trackers,Data Driven Treatment Response Assessment and Preterm, Perinatal, and Paediatric Image Analysis,2018年09月15日,Vol. 11076,pp. 117-127,DOI: 10.1007/978-3-030-00807-9_12
X. Yang et al.,Fine-Grained Recurrent Neural Networks for Automatic Prostate Segmentation in Ultrasound Images,Proceedings of the AAAI Conference on Artificial Intelligence,2017年02月12日,Vol. 31, No. 1,pp. 1633-1639,DOI: 10.1609/aaai.v31i1.10761

Also Published As

Publication number Publication date
CN113678167A (zh) 2021-11-19
US12020434B2 (en) 2024-06-25
WO2020201183A1 (en) 2020-10-08
JP2022526575A (ja) 2022-05-25
US20220198669A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
JP7462672B2 (ja) 超音波撮像におけるセグメンテーション及びビューガイダンス並びに関連するデバイス、システム及び方法
US20200129142A1 (en) Intraluminal ultrasound navigation buidance and associated devices, systems, and methods
US8630492B2 (en) System and method for identifying a vascular border
Noble et al. Ultrasonic image analysis and image-guided interventions
EP3870069B1 (en) Intraluminal ultrasound directional guidance and associated devices and systems
US20150011886A1 (en) Automatic imaging plane selection for echocardiography
US20230026942A1 (en) Intelligent measurement assistance for ultrasound imaging and associated devices, systems, and methods
JP2024501364A (ja) 体腔医療デバイスの位置特定のための方法及びシステム
Ramadani et al. A survey of catheter tracking concepts and methodologies
JP2023521466A (ja) ロードマップ画像を生成するためのバイプレーン及び3次元超音波画像取得、並びに関連づけられたシステム及びデバイス
WO2022069208A1 (en) Ultrasound image-based patient-specific region of interest identification, and associated devices, systems, and methods
US20230329674A1 (en) Ultrasound imaging
US12016724B2 (en) Automatic closed-loop ultrasound plane steering for target localization in ultrasound imaging and associated devices, systems, and methods
JP5468759B2 (ja) 位置情報に基づいて関心対象ボリュームを収集するための方法及びシステム
US20230112722A1 (en) Intraluminal image visualization with adaptive scaling and associated systems, methods, and devices
JP7421548B2 (ja) 診断支援装置及び診断支援システム
Martens et al. The EchoPAC-3D software for 3D image analysis
US20220039778A1 (en) Diagnostic assistance device and diagnostic assistance method
WO2023054442A1 (ja) コンピュータプログラム、情報処理装置及び情報処理方法
Crestan Automatic segmentation framework for left atrial appendage orifice identification from 3D echocardiography
WO2023186640A1 (en) Completeness of view of anatomy in ultrasound imaging and associated systems, devices, and methods
WO2023202887A1 (en) Ultrasound imaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230329

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230329

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240326

R150 Certificate of patent or registration of utility model

Ref document number: 7462672

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150