JP2019022824A - リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化 - Google Patents

リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化 Download PDF

Info

Publication number
JP2019022824A
JP2019022824A JP2018218117A JP2018218117A JP2019022824A JP 2019022824 A JP2019022824 A JP 2019022824A JP 2018218117 A JP2018218117 A JP 2018218117A JP 2018218117 A JP2018218117 A JP 2018218117A JP 2019022824 A JP2019022824 A JP 2019022824A
Authority
JP
Japan
Prior art keywords
heart
planes
view
image data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018218117A
Other languages
English (en)
Other versions
JP6745861B2 (ja
Inventor
ロバート ジョセフ シュナイダー
Joseph Schneider Robert
ロバート ジョセフ シュナイダー
メリー ケイ ビアンキ
Kay Bianchi Mary
メリー ケイ ビアンキ
ロビン エス ブルックス
S Brooks Robin
ロビン エス ブルックス
マイケル ダニエル カーディナール
Daniel Cardinale Michael
マイケル ダニエル カーディナール
デビッド プラター
Prater David
デビッド プラター
リディア リベラ
Rivera Lydia
リディア リベラ
アイヴァン サルゴ
Salgo Ivan
アイヴァン サルゴ
スコット ホランド セトルミアー
Holland Settlemier Scott
スコット ホランド セトルミアー
ジャン マーガレット ウィリアムス
Margaret Williams Jean
ジャン マーガレット ウィリアムス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019022824A publication Critical patent/JP2019022824A/ja
Application granted granted Critical
Publication of JP6745861B2 publication Critical patent/JP6745861B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/523Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for generating planar views from image data in a user selectable plane not corresponding to the acquisition plane
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/14Devices for taking samples of blood ; Measuring characteristics of blood in vivo, e.g. gas concentration within the blood, pH-value of blood
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • A61B8/145Echo-tomography characterised by scanning multiple planes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4494Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer characterised by the arrangement of the transducer elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/486Diagnostic techniques involving arbitrary m-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • A61B8/5276Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts due to motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/66Sonar tracking systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8909Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration
    • G01S15/8915Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array
    • G01S15/8925Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques using a static transducer configuration using a transducer array the array being a two-dimensional transducer configuration, i.e. matrix or orthogonal linear arrays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/89Sonar systems specially adapted for specific applications for mapping or imaging
    • G01S15/8906Short-range imaging systems; Acoustic microscope systems using pulse-echo techniques
    • G01S15/8993Three dimensional imaging systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/5206Two-dimensional coordinated display of distance and direction; B-scan display
    • G01S7/52063Sector scan display
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/52017Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 particularly adapted to short-range imaging
    • G01S7/52053Display arrangements
    • G01S7/52057Cathode ray tube displays
    • G01S7/52074Composite displays, e.g. split-screen displays; Combination of multiple images or of images and alphanumeric tabular information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20128Atlas-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Cardiology (AREA)
  • Quality & Reliability (AREA)
  • Hematology (AREA)
  • Gynecology & Obstetrics (AREA)
  • Software Systems (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Image Processing (AREA)

Abstract

【課題】操作者による特別な操作を何ら必要とすることなく心臓の複数の標準ビュープレーンを自動的に取得する。【解決手段】診断イメージングシステム及び方法は、例えばAP4、AP3及びAP2ビューのような心臓の標準ビュープレーンのリアルタイムの自動取得を可能にする。心臓の3D画像は、幾何学的な心臓モデルに関連して取得され処理される。心臓モデルは、3D画像データから所望の画像プレーンをセグメント化するために、その取得された姿勢の心臓にフィットされる。連続する画像取得間隔中に、画像プレーンは、複数の画像の表示を更新するために、連続する画像データにわたってマルチプレーンシステムとして追跡される。連続する画像獲得は、各々の取得間隔中のボリューム画像の取得又は追跡される画像プレーンのマルチプレーン取得でありうる。【選択図】図3

Description

本発明は、医療超音波イメージングシステムに関し、特に心臓イメージングのための3D超音波システムに関する。
心臓超音波イメージングにおいて、心臓性能の標準化された測定又は診断を行うためにしばしば取得されなければならない心臓の多くの標準プラナービューがある。これらの標準ビューのうちの3つは、一般にAP4、AP3及びAP2ビューと呼ばれる心尖2チャンバビュー、心尖3チャンバビュー及び心尖2チャンバビューである。その呼び方が示すように、心臓のこれらのプラナービューはすべて、左胸郭の下に超音波プローブを保持することによって取得され、左胸郭の下で、プローブは、心尖から心臓をビューする。心尖4チャンバビューは、左心房、右心房、左心室及び右心室である心臓の4つのチャンバを視覚化する。このビューは、臨床医が、放出フラクションを計算し、左心室を視覚化し、又は拡張期の機能又は僧帽弁狭窄を評価したい場合に好適である。心尖3チャンバビューは、臨床医が、大動脈弁及び大動脈基部を視覚化することを可能にする。このビューは、心臓の前外側及び背側の壁の収縮性を評価するのに好適である。ドップラービームを左心室の排出路にアラインすることによって、臨床医は、大動脈弁狭窄の重症度を定量的に評価することが可能である。心尖2チャンバビューは、左心室の腹側及び下方の壁を視覚化し評価することを可能にする。
心臓のこれらの標準プラナービューを取得するために、2次元超音波プローブを操作するための良く知られた、良く理解されている技法がある。4チャンバビューは、概して、第1のビューとして及び他のビューに対する基準として取得される。心尖4チャンバビューを取得するために、臨床医は、心尖に目標を定めて右肩に向けて、プローブを患者の左脇腹に対し保持する。臨床医が患者の解剖学的構造と超音波システムディスプレイ上の画像との間で所望の左右の方向を維持することを可能にするプローブの側部のノッチは、2時又は3時の方向に位置付けられる。適切に位置付けられるときに、心臓の4チャンバは、スクリーンの上部に心尖部があってスクリーンの左側に右心房及び右心室がくるように表示される。右心室は、左心室の幅の2/3より大きくなるべきでない。
4チャンバビューから、心尖3チャンバビューの取得は、プローブの簡単な操作を必要とする。プローブ上のノッチがおよそ11時の位置にくるまで、プローブが、患者に対し反時計回りに回転される。3チャンバビューは、スクリーン上で見られるべきである。この回転は、4チャンバビュー及び3チャンバビューの画像プレーンの間に約90°の関係があることを意味する。2チャンバビューを取得するために、プローブは更に、約9時の位置まで回転される。心尖2チャンバビューは、スクリーン上に表示されるべきである。これは、2チャンバビューが、基準4チャンバビューから約135°回転したところに位置することを意味する。
上述の説明から分かるように、臨床医は、これらのビューを取得するために及び1つのビューから他のビューへプローブを操作するために多くの時間を費やすことがある。上述したような慎重で苦労するプローブ操作なしに、心臓のこれらの標準ビューを取得することが可能であることが望ましい。更に、ビューが、プローブの特別な操作を何ら必要とすることなく超音波システムによって自動的に取得されることが望ましい。
本発明の原理によれば、心尖位置からの心臓の3D取得を可能にする超音波イメージングシステム及び方法が記述される。心臓ボリュームのほとんどが3D取得において取得される場合に、AP4、AP3及びAP2画像プレーンである心臓の3つの心尖ビュープレーンを識別しセグメント化するために、数学的な心臓モデルが、超音波システムによって3Dボリュームに適用される。一旦セグメント化されると、3つの画像プレーンは、3Dボリュームの次の取得のトリプレーンシステム(3平面系)を剛体変換として追跡するために、トリプレーンシステムとして演算される。従って、トリプレーンシステムは、MPRスライスをライブボリューム画像から抽出し、又はマトリクスアレイトランスデューサプローブによりトリプレーンをスキャンすることによって、リアルタイムに視覚化されることができる。
本発明の原理により構成される医療超音波システムを示すブロック図。 心臓のAP4ビューを示す図。 心臓のAP3ビューを示す図。 心臓のAP2ビューを示す図。 トリプレーンシステムに配置されるときのAP4、AP3及びAP2ビューのプレーンの相対方向を示す図。 本発明の原理に従う心尖トリプレーン画像システムの取得、セグメント化及び追跡のフローチャート。 図5b及び図5cと共に、超音波表示スクリーン上でライブ画像として同時にビューされる及び心臓モデルのビュープレーンを表現するグラフィクスによってオーバレイされるときの心尖トリプレーンシステムの3つの超音波画像を示す図。 図5a及び図5cと共に、超音波表示スクリーン上でライブ画像として同時にビューされる及び心臓モデルのビュープレーンを表現するグラフィクスによってオーバレイされるときの心尖トリプレーンシステムの3つの超音波画像を示す図。 図5a及び図5bと共に、超音波表示スクリーン上でライブ画像として同時にビューされる及び心臓モデルのビュープレーンを表現するグラフィクスによってオーバレイされるときの心尖トリプレーンシステムの3つの超音波画像を示す図。
最初に図1を参照して、本発明の超音波イメージングシステムが、ブロック図に示される。超音波システムは、フロントエンドサブシステム10A及びディスプレイサブシステム10Bによって構成される2つのサブシステムによって構成される。超音波プローブは、2次元マトリクスアレイトランスデューサ70及びマイクロビームフォーマ72を有する取得サブシステムに結合される。マイクロビームフォーマは、アレイトランスデューサ70の素子のグループ(「パッチ」)に適用される信号を制御する回路であって、各々のグループの素子によって受け取られるエコー信号の処理を行う回路を有する。プローブにおけるマイクロビームフォーミングは、有利には、プローブと超音波システムとの間のケーブル内の導体の数を低減し、これについては米国特許第5,997,479号(Savord他)及び米国特許第6,436,048号(Pesque)に記述される。
プローブは、超音波システムの取得サブシステム10Aに結合される。取得サブシステムは、ビームフォームコントローラ74を有し、ビームフォームコントローラ74は、ユーザ制御36に応答し、送信ビームのタイミング、周波数、方向及びフォーカシングに関してプローブに指示する制御信号をマイクロビームフォーマ72に提供する。ビームフォームコントローラは、更に、アナログディジタル(A/D)コンバータ18及びシステムビームフォーマ20を制御することによって、取得サブシステムによって受け取られるエコー信号のビームフォーミングを制御する。プローブによって受け取られるエコー信号は、取得サブシステムのプリアンプ及びTGC(時間利得制御)回路16によって増幅され、A/D変換器18によってデジタル化される。デジタル化されたエコー信号は、システムビームフォーマ20によって充分にステアリングされた集束されたビームに、成形される。エコー信号は、信号プロセッサ22によって処理され、信号プロセッサ22は、デジタルフィルタリング、Bモード及びMモード検出、及びドップラー処理を実施し、更に、例えば高調波分離、スペックル低減及び他の所望の画像信号処理のような他の信号処理を実施することができる。
取得サブシステム10Aによって生成されるエコー信号は、表示サブシステム10Bに結合され、表示サブシステム10Bは、所望の画像フォーマットで表示するためにエコー信号を処理する。エコー信号は、画像ラインプロセッサ24によって処理され、画像ラインプロセッサ24は、エコー信号をサンプリングし、ビームのセグメントを組み合わせて完全なライン信号にし、信号対雑音改善又はフロー残存のたにのライン信号を平均することができる。2D画像の画像ラインは、当技術分野において知られているようなR−θ変換を実施するスキャンコンバータ26によって、所望の画像フォーマットにスキャンコンバートされる。画像は、画像バッファ又はメモリ28に記憶され、そこから、ディスプレイ38に表示されることができる。メモリ28内の画像は更に、画像と共に表示されるグラフィクスでオーバレイされ、グラフィックスは、ユーザ制御36に応答するグラフィクス生成器(図示せず)によって生成される。個別の画像又は画像シーケンスが、画像ループ又はシーケンスの取得中に、シネメモリ(図示せず)に記憶されることができる。
リアルタイムボリュメトリックイメージングのために、表示サブシステム10Bは更に、リアルタイム三次元画像をレンダリングするために画像ラインプロセッサ24から画像ラインを受け取る3D画像レンダリングプロセッサ32を有する。3D画像は、ディスプレイ38上に(リアルタイムの)ライブ3D画像として表示されることができ、又はのちのレビュー及び診断のために3Dデータセットを記憶する画像メモリ28に結合されることができる。
本発明の原理によれば、表示サブシステムは更に、メモリ40に記憶される解析的幾何学的な心臓モデルを有する。メモリに記憶される心臓モデルデータは、概念的には、例えば流体チャンバ、心臓バルブ等の心臓の主要な特徴の形状の輪郭を描く3D表面メッシュである。構成される実施形態において、メッシュは、相互接続される三角形要素から作られるが、矩形又は正方形要素のメッシュ又は非一様有理bスプラインで作られるメッシュのような他のメッシュも使用されることができる。ここに企図されるように、心臓モデルは、充分に詳細な幾何モデル、又はチャンバ壁、心尖、又は心臓バルブ、心臓プレーン輪郭のような単なる解剖学的ランドマークのモデルでありうる。両方を組み合わせる心臓モデルが使用されることもできる。標準プレーンの重要なランドマークを識別する心臓モデルが、例えば超音波画像データ内のそれらの標準プレーンを識別するために使用されることができる。心臓モデルの目的は、患者の心臓の3D超音波画像を識別し又はセグメント化することである。この機能は、APnプレーンセグメント化及び追跡プロセッサ42によって実施され、APnプレーンセグメント化及び追跡プロセッサ42は、心臓モデルデータを使用して、この例ではAP2、AP3及びAP4画像プレーンである3D超音波画像の特定の画像プレーンを抽出する。これらの画像プレーンは、図2a、図2b及び図2cに示される。心臓の4チャンバAP4プレーンのモデルが、図2aに示される。このビューにおいて、臨床医は、すべての4つの心臓チャンバ、すなわち、三尖弁によって分離される右心房及び右心室並びに僧帽弁によって分離される左心房及び左心室を見ることができる。心尖は、AP4モデルのこの向きでは上部にある。図2bは、AP3 3チャンバ画像プレーンのモデルを示す。AP3ビューは、大動脈基部及び大動脈弁と同様に左心臓チャンバの視覚化を可能にする。図2cは、AP2モデルを示す。このビューは、左心房、僧帽弁及び左心室の視覚化を可能にする。図3は、互いに対するこれらの3つのビュー平面の相対的な向きを示す遠近図である。一般的な検査において、臨床医は、右肩の方に向けるようにして、胸郭の左側の下に超音波プローブを配置する。心尖4チャンバビューが取得されるまで、プローブが操作される。プローブは、心尖3チャンバビュー又は心尖5チャンバビューにおいてLV排出路及び大動脈弁を取得するために上向きに傾けられる。プローブは、2チャンバビューを取得するために反時計回りに90°プローブを回転することによって、再び操作される。これは労力及び時間を要する作業であり、臨床医による多くの技術を必要とすることが理解されることができる。AP2、AP3及びAP4ビューは、多くの心臓診断のための標準ビュープレーンである。
この困難な作業及びその複雑さは、本発明の超音波システムによって排除され、本発明により、所望の心尖ビュープレーンが、3D超音波画像から抽出され、心臓モデルの解析的な使用によって表示される。この抽出は、APnプレーンセグメント化及び追跡プロセッサ42によって行われ、かかる抽出は、3D超音波画像ボリュームにおける心臓モデルの近似的な位置を見つけることから始まる。ハフ変換の形で実現される形状算出器は、3D画像における心臓モデルの近似位置を求める。局所アフィン変換は、ボリューム画像において心臓流体チャンバのような大きい構造をよりよく規定する。局所化される微調整が、画像ボリュームにおいてモデルを解剖学的構造とより正確にアラインする。ボリューム画像において3D心臓モデルが心臓の解剖学的構造とアラインされることにより、心臓モデルから取得される3つの心尖プレーンのランドマークが、ボリューム画像において3つのプレーンを識別するために使用され、AP4、AP3及びAP2の3つの画像プレーンがボリューム画像から抽出される。
この処理の実現において、APnプレーンセグメント化及び追跡プロセッサ42は、以下のように心臓の3Dボリューム画像のボクセルに対し処理を行う。プレーンセグメント化及び追跡プロセッサは、セグメント化器用の初期化手段として機能するプリプロセッサを有する。プリプロセッサは、画像データを自動的に解析し、現在ビュー、すなわち現在3D心臓画像が取得されたビューを分類するように動作する。言い換えると、プリプロセッサは、基準姿勢に対する、セグメント化される器官の姿勢(pose)を検出することができる。「姿勢」は、対象の位置、及び基準方向としてのモデルに対するその方向である。検出された姿勢は、「姿勢パラメータ」によって表現される。パラメータは、変換を記述し、すなわち、変換された心臓の幾何モデルが画像の心臓の姿勢に対応するようにするために、かかる心臓の幾何モデルがどのようにシフトされ回転される必要があるかを記述し、これらの姿勢パラメータに基づいて、心臓の幾何モデルのポイントが、評価された(「現在の」)姿勢に変換される。好適な実現例において、心臓の幾何モデルは、三角形要素で作られる3D表面メッシュとして規定され、メッシュは、所与の基準姿勢において標準心臓形状の輪郭を概略的に描く。こうして変換された(すなわちシフトされ回転された)モデルは、画像ボリュームのモデルベースのセグメント化のための始点として供給され、かかる起点は、セグメント化される対象の位置及び方向についての事前の知識、この例では3つの所望の心尖ビュープレーンのセグメント化、に依存する。
プリプロセッサは、複数のアキュムレータを有する汎用ハフ変換(GHT)を利用し、心臓の各方向について1つのアキュムレータがある。明らかに変化する心臓姿勢の可能性のレンジに対処するために、頻繁に生じる姿勢方向が、トレーニング3D画像からプロセッサに記憶され、クラスタリングの後、変換の組が、それらの方向から計算される。変換は、複数のハフアキュムレータを満たすために、GHT投票プロセスの間演算フェーズに適用される。複数のハフアキュムレータが、瞬間の心臓姿勢を求めるために、すべてのハフアキュムレータにわたって最大投票エントリに関してサーチされる。このサーチは、すべてのハフアキュムレータにわたって同時に実行されることができ、又はサーチは、順次に進行することもできる。最高の投票カウントを有するハフアキュムレータエントリが、所与の姿勢方向βについて最も見込みのある対象ロケーションを表現するために取得される。好適な実現例において、画像データからのランドマークの抽出は、複数のアフィン変換(又は他の変換)から、瞬間画像内の構造に最もよく関連する最適な変換を決定するために使用される。プリプロセッサは、3D画像を受け取るための入力ポート及びクラシファイヤを有する。クラシファイヤによって決められる姿勢の姿勢パラメータ(β[=向き]、x[=位置])を出力するための出力ポートも更にある。この姿勢情報(β,x)は、幾何学的な心臓モデルに適用されることができる。変換されたモデルは、セグメント化のための「初期化されたモデル」を形成する。セグメント化されるべき画像内の心臓の姿勢が分かると(すなわち、初期化されたモデルが利用可能になると)、セグメント化器は、パラメータ化された変形可能な適応ステップを、幾何学的な心臓モデルに適用する。それによって、モデルは、瞬間画像ボリュームにおける心臓の構造に適応される。具体的には、適応は、グルーバルな剛体変換、グルーバルなアフィン変換、複数剛体変換及び変形可能な変換を連続的に適用することによって、モデルの座標がボリューム画像データに適応される1又は複数のステージを有する。初期化されたモデルを変形させたのち、メッシュモデルの三角形面の垂線を横切るグレー値強度が、セグメント化の境界を規定するために算出される。
解剖学的ランドマーク識別が、心臓モデルの位置合わせ及び画像プレーン抽出のために使用されるとき、ランドマーク識別器は、3D心臓画像における1又は複数の解剖学的なランドマークを検出し/識別するように動作する。画像のランドマーク検出は、M. Fischler他の"Random Sample Consensus ...", Communications of the ACM, Volume 24(6), (1981.)に記述されるように、RANSAC(無作為標本コンセンサス)アルゴリズムに基づくことができる。こうして検出されるランドマークの集合は、特定の姿勢にあるとみなされる場合に心臓の基礎をなす幾何モデルの骨格を表現するために、取得されることができる。心臓モデルは、ランドマークをその中で表現するランドマークターゲットポイントを有する。この実現例において、クラシファイヤの動作は、アフィン変換Tiの集合に基づく。変換Tiは、検出されたランドマークの座標変換を達成するために、検出されたランドマークポイントに1つずつ適用される。こうして変換されたランドマークは、基準幾何モデルと比較されることができる。特に、画像内の変換されたランドマークポイントが、心臓モデルのターゲットランドマークポイントと比較される。モデルは、基準方向に対して示されるとみなされる。変換ごとに、変換されたランドマークの座標が、モデルのランドマークターゲットポイントの座標と比較される。モデルのターゲットポイントランドマークにベストフィット(best fit)する(例えば、適切なノルムに対して最も近い)変換されたランドマークの座標が識別される。変換されたランドマークポイントとターゲットランドマークポイントとの間のベストフィット又は最善の合致をもたらす個々の変換が、基礎をなす心臓ボリューム画像において記録される姿勢を表現すると考えられる。「ベスト」フィットは、類似性尺度に関して確立される。「ベスト」とは、算術的な意味で最も近いというよりユーザ定義可能なマージン内にあるものを含むべきであるが、特定の実現例は、実際に、算術的意味で近いことを意味するものとして「ベスト」を想定することもできる。プロセッサが類似性尺度を評価するためにすべての予め規定された変換を循環する必要がないので、予め設定されたマージンに対するベストフィットを計算することは、効果的な処理を可能にするマージン内にある類似性の値が確立されるとすぐに、出力ユニットは、「ベストフィット」として個々の変換をリターンする。
予め規定されたアフィン変換の各々は、特定の姿勢を符号化するものと考えられることができる。特に、各々のアフィン変換は、他の成分(例えばずり)の中に、姿勢の個々のものを記述する並進成分及び回転成分を含む。識別されたベストフィット変換の並進及び回転成分の記述は、初期化のためのセグメント化器に送られる。代替として、ベストフィット変換は、最初はモデルに直接適用され、それは、セグメント化器を初期化するために送られる変換されたモデルである。セグメント化器は、3つの所望の心尖プレーンのランドマークターゲットポイントを識別する単純明快なタスクを実施し、画像ボリュームから、それらの解剖学的ランドマークを最も完全に含む3つのプレーンを抽出する。
上述したようにAPnプレーンセグメント化及び追跡プロセッサ42によって3D心臓画像データから抽出される3つの心尖ビュープレーンが、図5a(4チャンバビューを示す)、図5b(3チャンバビューを示す)及び図5c(2チャンバビューを示す)に示されるように、超音波システムディスプレイ38に個別に又は同時に表示される。図示される実現例において、各々の画像プレーンの心臓のチャンバ及び構造は、心臓モデルによって提供される輪郭描出された解剖学的境界62、64、66のオーバレイによってセグメント化される。これが1つのボリューム画像について実施されると、APnプレーンは、リアルタイムに又は後処理の中で、連続する複数の画像ボリュームにわたって追跡されることができる。追跡のために、3つのプレーンは、無関係な画像プレーンとしてではなく、図3に示されるようにトリプレーンシステムの3つのプレーンとして処理される。連続する心臓ボリューム画像が利用可能になると、心臓モデルの3APnプレーンが、各々の連続するボリューム画像から3つの画像プレーンを抽出するために使用される。それらのプレーンは、直前のトリプレーンシステムから新しく識別されたトリプレーンシステムまでの解剖学的ランドマークの全体としての動きを解析することによって、新しいボリュームにおいて追跡される。例えば、これは、例えば相互情報、ブロックマッチング又はフィーチャマッチングを用いて光学フロー又は画像位置合わせによって行われる。1つのプレーンから次のプレーンまでのランドマークの動きは、各プレーンごとの動きベクトルを求めるために使用され、3つのプレーンの3つの動きベクトルは、トリプレーンシステムの複合動きベクトル(変換)を決定するために使用される。本質的に、3つの面内動きベクトルが、トリプレーンシステムの複合動きを識別するために使用される。この変換は、プローブに対する剛体変換としてトリプレーンシステムの動きをモデル化するために使用される。剛体変換は、1つのボリューム画像から次のボリューム画像までのトリプレーンシステムの並進及び回転を識別し、この変位は、新しいボリューム画像におけるトリプレーンシステムの新しいロケーションを計算するために使用される。これは剛体変換であるので、モデル又は画像データのスケーリング又はワーピングがなく、従って、計算要求を容易にする。この追跡及びトリプレーンシステムの更新は、新しいボリューム画像が取得されるたびに繰り返される。場合によっては、過剰な心臓又はプローブ動きに対する保護の為に、処理は、上述したように再初期化されることができる。
図4は、本発明の原理による、基準プレーンセグメント化及び追跡の一般的なシーケンスを示す。第1のステップ50において、心臓の3Dボリューム画像が、心尖スキャニングによって取得される。心臓が心尖を基準にスキャンされるので、APnプレーンセグメント化及び追跡プロセッサ42は、ボリューム画像の最上部に心尖を見ることを期待するために、予め調整されることができる。ステップ52において、APnプレーンセグメント化及び追跡プロセッサ42は、心臓の姿勢を識別するために心臓モデルを使用してAP4、AP3及びAP2ビュープレーンをセグメント化し、上述したように心臓モデルを3D画像データにフィットさせる。ステップ54において、プロセッサは、トリプレーン画像を抽出し表示するために、フィットされた心臓モデルの所望のプレーンロケーションを使用する。ステップ56において、新しい3Dボリューム画像が取得され、ステップ58において、新しいボリューム画像におけるトリプレーンシステムが剛体変換によって追跡される。ステップ60において、追跡されたトリプレーンシステム画像が新しい画像データから抽出され、表示されるトリプレーン画像が、ディスプレイ上で更新される。
本発明の他の変形例が当業者には思い付くであろう。AP4、AP3及びAP2ビューを抽出し表示することに代わって、他のビューが、代替的に又は追加的に取得され表示されることができる。超音波システムは、例えばAP4、AP5及びAP3ビューを表示するために又は4つの異なるビュープレーンを表示するために、使用されることができる。表示のより高いフレームレートのために、追跡情報を使用してトリプレーン表示のプレーンを更新することができ、このために、毎回ボリューム全体をスキャンするのではなく、3つの所望のビュープレーンのみをスキャンすればよい。例えば、心臓モデルがボリューム画像内の心臓解剖学的構造にフィットされたのち、トリプレーンのみが、次の更新のためにスキャンされることができる。3つの新しくスキャンされた画像プレーンは、直前のトリプレーンと比較されることができ、計算された複合動きデータ(追跡データ)が、表示のために更新されたプレーンロケーションでトリプレーンをスキャンするために使用される。こうして、追跡データは、図1に示すようにビームフォームコントローラを制御することによって、次のトリプレーン取得のプレーンスキャニングの方向をステアリングするために使用される。心臓ボリューム全体をスキャンする代わりに3つのプレーンのみをスキャンすることによって、表示のフレームレート及び空間解像度が大幅に改善される。心臓又はプローブの全体的な動きが過剰になる場合、プロセスは、新しいボリューム画像を取得して処理することによって更新され再初期化されることができ、トリプレーンスキャニングは再び開始される。別の代替例として、セグメント化のためのモデルの変換に代わって、3D画像データが、心臓モデルにフィットするように変換されることができる。

Claims (18)

  1. 心臓の複数の標準ビュープレーンを取得する超音波診断イメージングシステムであって、
    心臓の3Dボリューム画像データを取得するマトリクスアレイプローブと、
    幾何学的な心臓モデルのデータを有するメモリと、
    前記3Dボリューム画像データ及び前記心臓モデルを自動的に位置合わせし、前記3Dボリューム画像データに基づいて前記心臓モデルの初期の向きを決定し、前記決定された初期の向きに基づいて前記心臓モデルを前記3Dボリューム画像データにフィットさせることにより、フィットされた心臓モデルを生成し、前記心臓モデルの重要なランドマークに基づいて決定される予め決められた複数のビュープレーンを前記心臓の3Dボリューム画像データから抽出するセグメント化及び追跡プロセッサであって、前記予め決められた複数のビュープレーンの各々の向きが前記フィットされた心臓モデルに対し決定される、セグメント化及び追跡プロセッサと、
    前記セグメント化及び追跡プロセッサの出力に応じて、前記抽出された複数のビュープレーンの画像を表示する画像ディスプレイと、
    を有し、前記セグメント化及び追跡プロセッサが更に、表示された画像の更新のために、前記心臓の連続する3Dボリューム画像データ内の解剖学的ランドマークの動きを解析することで前記複数のビュープレーンの動きを決定し、前記複数のビュープレーンの連続する画像の取得を追跡するように動作する、超音波診断イメージングシステム。
  2. 前記セグメント化及び追跡プロセッサは、マルチプレーンシステムとして前記複数のビュープレーンを追跡する、請求項1に記載の超音波診断イメージングシステム。
  3. 前記予め決められた複数のビュープレーンが、3つの画像プレーンを有し、前記セグメント化及び追跡プロセッサが、トリプレーンシステムとして前記3つの画像プレーンを追跡する、請求項2に記載の超音波診断イメージングシステム。
  4. 前記3つの画像プレーンは、AP4ビュープレーン、AP3ビュープレーン及びAP2ビュープレーンである、請求項3に記載の超音波診断イメージングシステム。
  5. 前記セグメント化及び追跡プロセッサは、剛体変換によって、前記予め決められた複数のビュープレーンを追跡する、請求項2に記載の超音波診断イメージングシステム。
  6. 前記予め決められた複数のビュープレーンが、3つの画像プレーンを有し、前記セグメント化及び追跡プロセッサが、トリプレーンシステムとして前記3つの画像プレーンを追跡する、請求項5に記載の超音波診断イメージングシステム。
  7. 前記セグメント化及び追跡プロセッサは、連続して取得される複数の3D心臓画像において前記予め決められた複数のビュープレーンを追跡する、請求項1に記載の超音波診断イメージングシステム。
  8. 前記セグメント化及び追跡プロセッサは、連続して取得される画像プレーンのスキャン方向を制御することによって前記予め決められた複数のビュープレーンを追跡する、請求項1に記載の超音波診断イメージングシステム。
  9. 前記セグメント化及び追跡プロセッサは更に、前記心臓の新しい3Dボリューム画像データが取得されるたびに、前記複数のビュープレーンの画像を更新するように動作する、請求項1に記載の超音波診断イメージングシステム。
  10. 心臓の複数の標準ビュープレーンを取得する方法であって、
    マトリクスアレイプローブにより心臓の3Dボリューム画像データを取得するステップと、
    前記心臓の3Dボリューム画像データを、メモリに記憶された幾何学的な心臓モデルのデータと位置合わせし、前記3Dボリューム画像データに基づいて前記心臓モデルの初期の向きを決定し、前記決定された初期の向きに基づいて前記心臓モデルを前記3Dボリューム画像データにフィットさせることにより、フィットされた心臓モデルを生成し、前記フィットされた心臓モデルの重要なランドマークに基づいて決定される予め決められた複数のビュープレーンを前記心臓の3Dボリューム画像データから抽出するステップであって、前記予め決められた複数のビュープレーンの各々の向きが前記フィットされた心臓モデルに対し決定される、ステップと、
    画像ディスプレイ上に前記複数のビュープレーンの画像を表示するステップと、
    表示された画像の更新のために、前記心臓の連続する3Dボリューム画像データ内の解剖学的ランドマークの動きを解析することで前記複数のビュープレーンの動きを決定し、前記複数のビュープレーンの連続する画像の取得を追跡するステップと、
    を含む方法。
  11. 前記方法が、マルチプレーンシステムとして前記複数のビュープレーンを追跡することを更に含む、請求項10に記載の方法。
  12. 前記マルチプレーンシステムが剛体変換によって追跡される、請求項11に記載の方法。
  13. 連続して3Dボリューム画像データを取得するステップと、
    連続して取得された3Dボリューム画像データにおいて前記複数のビュープレーンを追跡するステップと、
    を更に含む、請求項10に記載の方法。
  14. 前記方法が、連続する取得間隔においてスキャンプレーンの方向をステアリングすることを更に含む、請求項10に記載の方法。
  15. 前記心臓の新しい3Dボリューム画像データが取得されるたびに、前記複数のビュープレーンの画像を更新するステップを更に含む、請求項14に記載の方法。
  16. 前記心臓モデルが、幾何学的な3D表面メッシュを有する、請求項1に記載の超音波診断イメージングシステム。
  17. 前記3D表面メッシュが、複数の三角形要素を有する、請求項16に記載の超音波診断イメージングシステム。
  18. 前記3つの画像プレーンのうち、第1及び第2のビュープレーンは90°の角度をなし、前記第2のビュープレーン及び第3のビュープレーンは135°の角度をなす、請求項3に記載の超音波診断イメージングシステム。
JP2018218117A 2013-11-05 2018-11-21 リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化 Active JP6745861B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361899895P 2013-11-05 2013-11-05
US61/899,895 2013-11-05

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016526918A Division JP6441335B2 (ja) 2013-11-05 2014-11-04 リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化

Publications (2)

Publication Number Publication Date
JP2019022824A true JP2019022824A (ja) 2019-02-14
JP6745861B2 JP6745861B2 (ja) 2020-08-26

Family

ID=51900925

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016526918A Active JP6441335B2 (ja) 2013-11-05 2014-11-04 リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化
JP2018218117A Active JP6745861B2 (ja) 2013-11-05 2018-11-21 リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016526918A Active JP6441335B2 (ja) 2013-11-05 2014-11-04 リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化

Country Status (7)

Country Link
US (2) US10123781B2 (ja)
EP (1) EP3066643B1 (ja)
JP (2) JP6441335B2 (ja)
CN (1) CN105900140B (ja)
BR (1) BR112016009829B1 (ja)
RU (1) RU2677055C2 (ja)
WO (1) WO2015068099A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150111697A (ko) * 2014-03-26 2015-10-06 삼성전자주식회사 초음파 장치 및 초음파 장치의 영상 인식 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10123781B2 (en) * 2013-11-05 2018-11-13 Koninklijke Philips N.V. Automated segmentation of tri-plane images for real time ultrasonic imaging
KR101619802B1 (ko) * 2014-06-18 2016-05-11 기초과학연구원 심장 좌심실의 3차원 영상 생성 방법 및 그 장치
EP2989988B1 (en) * 2014-08-29 2017-10-04 Samsung Medison Co., Ltd. Ultrasound image display apparatus and method of displaying ultrasound image
CN107405134B (zh) * 2015-03-31 2022-03-01 皇家飞利浦有限公司 超声成像装置
JP6574532B2 (ja) * 2016-04-26 2019-09-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波胎児撮像に対する3d画像合成
EP4108166A1 (en) 2016-06-24 2022-12-28 Analytics For Life Inc. Non-invasive method and system for measuring myocardial ischemia, stenosis identification, localization and fractional flow reserve estimation
WO2018055559A1 (en) * 2016-09-21 2018-03-29 Analytics For Life Method and system for visualization of heart tissue at risk
DE102016117889B3 (de) * 2016-09-22 2018-03-15 Tomtec Imaging Systems Gmbh Verfahren und Vorrichtung zur Korrektur von durch Tracking-Verfahren ermittelten dynamischen Modellen
EP3558151B1 (en) * 2016-12-20 2023-07-05 Koninklijke Philips N.V. Navigation platform for an intracardiac catheter
US11437149B2 (en) * 2017-03-01 2022-09-06 Koninklijke Philips N.V. Echocardiogram context measurement tool
EP3381512A1 (en) 2017-03-30 2018-10-03 Koninklijke Philips N.V. Determining at least one final two-dimensional image for visualizing an object of interest in a three-dimensional ultrasound volume
US11534133B2 (en) 2017-04-27 2022-12-27 Shenzhen Mindray Bio-Medical Electronics Co., Ltd. Ultrasonic detection method and ultrasonic imaging system for fetal heart
US10299764B2 (en) * 2017-05-10 2019-05-28 General Electric Company Method and system for enhanced visualization of moving structures with cross-plane ultrasound images
WO2019034546A1 (en) * 2017-08-17 2019-02-21 Koninklijke Philips N.V. ULTRASONIC SYSTEM CAPABLE OF EXTRACTING IMAGE PLANS FROM IMAGE INTERACTION VOLUME DATA WITH AN IMAGE
JP7237079B2 (ja) * 2018-02-09 2023-03-10 コーニンクレッカ フィリップス エヌ ヴェ マルチパラメトリック組織の剛性の定量化
CN113610923A (zh) * 2018-07-26 2021-11-05 上海联影智能医疗科技有限公司 扫描定位方法、装置、计算机设备及计算机可读存储介质
EP3711673A1 (en) * 2019-03-18 2020-09-23 Koninklijke Philips N.V. Methods and systems for adjusting the field of view of an ultrasound probe
EP4241246A1 (en) * 2020-11-05 2023-09-13 Koninklijke Philips N.V. Rendering and displaying a 3d representation of an anatomical structure
US20220301240A1 (en) * 2021-03-22 2022-09-22 GE Precision Healthcare LLC Automatic Model-Based Navigation System And Method For Ultrasound Images
US11922647B2 (en) * 2021-09-08 2024-03-05 Canon Medical Systems Corporation Image rendering method and apparatus
EP4389016A1 (en) * 2022-12-21 2024-06-26 Koninklijke Philips N.V. Image acquisition method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004313651A (ja) * 2003-04-21 2004-11-11 Aloka Co Ltd 超音波診断装置
US20060064007A1 (en) * 2004-09-02 2006-03-23 Dorin Comaniciu System and method for tracking anatomical structures in three dimensional images
JP2010179098A (ja) * 2009-02-04 2010-08-19 General Electric Co <Ge> 3dデータセット中の画像ビューを自動的に特定する方法および装置
JP2010227568A (ja) * 2009-03-25 2010-10-14 General Electric Co <Ge> 機能超音波画像化システムおよび方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6106466A (en) * 1997-04-24 2000-08-22 University Of Washington Automated delineation of heart contours from images using reconstruction-based modeling
US5997479A (en) 1998-05-28 1999-12-07 Hewlett-Packard Company Phased array acoustic systems with intra-group processors
RU2173480C2 (ru) * 1999-11-03 2001-09-10 Терпиловский Алексей Анатольевич Способ создания виртуальной модели биологического объекта
US6468216B1 (en) 2000-08-24 2002-10-22 Kininklijke Philips Electronics N.V. Ultrasonic diagnostic imaging of the coronary arteries
US7327872B2 (en) * 2004-10-13 2008-02-05 General Electric Company Method and system for registering 3D models of anatomical regions with projection images of the same
JP5122743B2 (ja) * 2004-12-20 2013-01-16 ゼネラル・エレクトリック・カンパニイ インターベンショナルシステム内で3d画像を位置合わせするシステム
WO2007072281A2 (en) * 2005-12-20 2007-06-28 Philips Intellectual Property & Standards Gmbh Reconstruction unit for reconstructing a fine reproduction of at least a part of an object
RU2451335C2 (ru) * 2006-08-11 2012-05-20 Конинклейке Филипс Электроникс Н.В. Приложения для эффективной диагностики, зависимые от изображения и контекста, относящиеся к анатомии
US7889912B2 (en) * 2006-09-15 2011-02-15 The General Electric Company Method for real-time tracking of cardiac structures in 3D echocardiography
CN102197316A (zh) * 2008-10-22 2011-09-21 皇家飞利浦电子股份有限公司 3-d超声成像
GB201117804D0 (en) * 2011-10-14 2011-11-30 Siemens Medical Solutions Automatic local contrast quantification tool
US9277970B2 (en) * 2012-07-19 2016-03-08 Siemens Aktiengesellschaft System and method for patient specific planning and guidance of ablative procedures for cardiac arrhythmias
EP2922477B1 (en) * 2012-11-20 2018-01-10 Koninklijke Philips N.V. Automatic positioning of standard planes for real-time fetal heart evaluation
US10123781B2 (en) * 2013-11-05 2018-11-13 Koninklijke Philips N.V. Automated segmentation of tri-plane images for real time ultrasonic imaging

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004313651A (ja) * 2003-04-21 2004-11-11 Aloka Co Ltd 超音波診断装置
US20060064007A1 (en) * 2004-09-02 2006-03-23 Dorin Comaniciu System and method for tracking anatomical structures in three dimensional images
JP2010179098A (ja) * 2009-02-04 2010-08-19 General Electric Co <Ge> 3dデータセット中の画像ビューを自動的に特定する方法および装置
JP2010227568A (ja) * 2009-03-25 2010-10-14 General Electric Co <Ge> 機能超音波画像化システムおよび方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
FREDRIK ORDERUT,HANS TORP,STEIN LNGE RABBEN: "Automatic alignment of standard views in 3D echocardiograms using real-time tracking", PROCEEDINGS OF SPIE,MEDICAL IMAGING 2009:ULTRASONIC IMAGING AND SIGNAL PROCESSING, vol. 7265, JPN6019040399, 2009, pages 72650 - 1, ISSN: 0004304549 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150111697A (ko) * 2014-03-26 2015-10-06 삼성전자주식회사 초음파 장치 및 초음파 장치의 영상 인식 방법
KR102255831B1 (ko) 2014-03-26 2021-05-25 삼성전자주식회사 초음파 장치 및 초음파 장치의 영상 인식 방법
US11033250B2 (en) 2014-03-26 2021-06-15 Samsung Electronics Co., Ltd. Ultrasound apparatus and ultrasound medical imaging method for identifying view plane of ultrasound image based on classifiers

Also Published As

Publication number Publication date
BR112016009829B1 (pt) 2022-02-22
JP6441335B2 (ja) 2018-12-19
US10799218B2 (en) 2020-10-13
RU2016122066A3 (ja) 2018-06-26
JP6745861B2 (ja) 2020-08-26
BR112016009829A2 (ja) 2017-08-01
RU2016122066A (ru) 2017-12-11
WO2015068099A1 (en) 2015-05-14
CN105900140B (zh) 2019-02-05
US20160249885A1 (en) 2016-09-01
EP3066643A1 (en) 2016-09-14
EP3066643B1 (en) 2020-05-27
CN105900140A (zh) 2016-08-24
US10123781B2 (en) 2018-11-13
US20190059858A1 (en) 2019-02-28
RU2677055C2 (ru) 2019-01-15
JP2016534803A (ja) 2016-11-10

Similar Documents

Publication Publication Date Title
JP6745861B2 (ja) リアルタイム超音波イメージングのトリプレーン画像の自動セグメント化
JP6537981B2 (ja) 複数の三次元ビューからの大きな対象のセグメンテーション
JP6581605B2 (ja) 医療用画像処理デバイス及び方法
US9179890B2 (en) Model-based positioning for intracardiac echocardiography volume stitching
RU2653274C2 (ru) Связанная сегментация в стандартных и контрастных ультразвуковых 3d-изображениях
KR20110128197A (ko) 심장 m-모드 뷰들의 자동 분석
EP4061231B1 (en) Intelligent measurement assistance for ultrasound imaging and associated devices, systems, and methods
CN110719755B (zh) 超声成像方法
CN110956076B (zh) 基于容积渲染在三维超声数据中进行结构识别的方法和***
CN107427279A (zh) 使用具有用户控制的心脏模型腔室的心脏功能的超声诊断
US20200113544A1 (en) Method and system for enhanced visualization of ultrasound probe positioning feedback
CN107427282A (zh) 通过单自由度腔室分割对心脏功能的超声诊断
van Stralen et al. P2a-6 automatic segmentation of the left ventricle in 3d echocardiography using active appearance models
US20220287686A1 (en) System and method for real-time fusion of acoustic image with reference image
US20220207743A1 (en) System and method for two dimensional acoustic image compounding via deep learning
WO2021099171A1 (en) Systems and methods for imaging screening
Po et al. A momentum-based constraint on optical flow tracking of the endocardial surface

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200804

R150 Certificate of patent or registration of utility model

Ref document number: 6745861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250