JP6453857B2 - 超音波画像の3d取得のためのシステムおよび方法 - Google Patents

超音波画像の3d取得のためのシステムおよび方法 Download PDF

Info

Publication number
JP6453857B2
JP6453857B2 JP2016516155A JP2016516155A JP6453857B2 JP 6453857 B2 JP6453857 B2 JP 6453857B2 JP 2016516155 A JP2016516155 A JP 2016516155A JP 2016516155 A JP2016516155 A JP 2016516155A JP 6453857 B2 JP6453857 B2 JP 6453857B2
Authority
JP
Japan
Prior art keywords
image
acquired
ultrasound
current
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016516155A
Other languages
English (en)
Other versions
JP2016522725A (ja
Inventor
デルフィーヌ リブ
デルフィーヌ リブ
マティーアス ペーターハンス
マティーアス ペーターハンス
シュテファン ヴェーバー
シュテファン ヴェーバー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CAScination AG
Original Assignee
CAScination AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CAScination AG filed Critical CAScination AG
Publication of JP2016522725A publication Critical patent/JP2016522725A/ja
Application granted granted Critical
Publication of JP6453857B2 publication Critical patent/JP6453857B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0891Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of blood vessels
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • A61B8/4254Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient using sensors mounted on the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • A61B8/469Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5207Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of raw data to produce diagnostic data, e.g. for generating an image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5246Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
    • A61B8/5253Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode combining overlapping images, e.g. spatial compounding

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Vascular Medicine (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明は、生体軟組織の超音波(US:ultrasound)イメージングに用いられる方法およびシステムに関する。より具体的には、本発明は、ユーザへのインタラクティブなリアルタイム・フィードバックを用いたUS取得プロトコルに関する。本方法は、以下には限定はされないが、画像誘導による外科または診断介入のための、かつそれらの間の対象となる特定の解剖学的構造、特に肝臓のような内臓の迅速かつ正確なイメージングおよび局在化を可能にする。そのうえ、本発明は、特に診断、セグメント化(例えば、血管などのようなイメージングされる被検体の特徴に対応する2つ以上の領域へのデジタル画像の区分化)およびレジストレーションのためのさらなる画像処理のために満足のいく画像コンテンツを確保する。
3次元(3D)超音波イメージングは、解剖学的構造の3D表現に基づく用途のその高い可能性のため、臨床環境での使用が増加し、広く実施されるようになりつつある。従来の2次元(2D)超音波イメージングでは、医師は、超音波トランスデューサを手で動かしながら、対象となる領域上で一連の画像を取得する。用いられるコンテンツおよび動きパターンに基づいて、医師は、次に、基礎をなす解剖学的形態の3D再構成を頭の中で行う。この頭の中でのプロセスは、様々な不利点を有する、すなわち、定量的な情報(解剖学的構造間の距離、他の臓器に対する厳密な位置など)が失われ、結果として生じる3D情報は、走査を行う医師に左右され、かつこの医師に知られるに過ぎない。
3D超音波(US)イメージングおよび然るべき画像データ処理を用いると、上述の不利点を除くのに大いに役立つ。3D超音波検査のさらなる利益は、次の通りである、すなわち、3Dボリュームにおいていわゆる2Dスライスの間の空間的な関係が確保され、他の医師によって予め記録された超音波画像のオフライン調査が可能になる。いわゆる任意面スライシング技術を用いると、患者の他の構造により課された幾何学的制約のために取得できない像平面を今や容易に描出できる。さらにまた、ボリューム視覚化および正確なボリューム推定によって診断タスクを大いに改善することができる[非特許文献1]。
3D US画像は、高性能の超音波システムを用いて取得され、様々な特許出願にこれらのシステムが記載される。3Dデータを得るために主として2つのアプローチがあり、一方は、対象となるボリュームの走査を可能にする2Dフェーズドアレイ・プローブの使用であり、他方は、対象となる領域にわたって動く標準的な超音波を用いて取得された一連の2D画像からの3Dボリュームの再構成である。
2Dフェーズドアレイ・プローブ技術は、圧電素子の2次元アレイを利用する。ボリュームは、アレイ素子を電子的に操舵することにより走査される。専用3D USプローブは、主として産科および心臓のイメージングにおけるリアルタイム3Dボリューム取得のために導入された。典型的なデバイスの例は、Voluson(登録商標)730(GEメディカルシステムズ(GE Medical Systems)およびiU22(登録商標)(フィリップスメディカルシステムズ(Philips Medical Systems)、ボセル(Bothell)、ワシントン州、米国)である。両システムは、典型的に毎秒40ボリュームの高取得レートで高品質の3D US画像をすべての空間方向(軸、横および仰角方向)に生成することを目指す。この技術を用いると、完全に埋め込まれた3Dボリュームを得ることができる。
この技術の主な不利点は、視野がプローブのサイズによって制限され、かつかかるプローブが高価であり、ハイエンド超音波デバイスにおいてのみ利用可能なことである。代替手段は、非特許文献2、非特許文献3に提案されるように、一連の2D画像からの3Dスイープをコンパウンド処理することである。この技術は、標準的な超音波プローブ(1D圧電アレイ)、および対象となる領域を走査する種々の方法(プローブ並進、プローブ回転、プローブ位置追跡を伴うフリーハンド走査)を用いる。3D画像に用いられる超音波システム、プローブおよび方法は、最先端であり、非特許文献4〜10に記載される。いわゆるフリーハンド超音波プローブの場合には、正確なフリーハンド超音波の較正が必要とされる[非特許文献11]。均一かつ完全に埋め込まれた3Dボリュームを確保するために、データ取得は、非特許文献6に記載されるように、均一な速度、等しい方向および角度で行われるべきである。取得アーチファクトの課題を克服するために、高性能の再構成およびコンパウンド処理アルゴリズムが、例えば、特許文献1および非特許文献12に記載された。
3D超音波の最先端の用途は、ナビゲーション軟組織手術におけるレジストレーションのためのその使用である。手術ナビゲーション・システムは、3D画像データに基づいて医師を誘導するために用いられ、このデータは、通常、術前にコンピュータ断層撮影(CT:computer tomography)または磁気共鳴イメージング(MRI:magnetic resonance imaging)で取得される。軟組織は、イメージングと手術との間に経時的に変形し動く可能性があるので、術前画像データを手術している患者へワープさせる(レジストレーションを行う)ために追加の術中情報データが必要である。超音波イメージングは、リアルタイム、非侵襲であり、かつ一般に利用できるため、かかる術中データを取得するのに有望なモダリティである。上述のように、とりわけ3D超音波イメージングは、臓器の動きおよび変形に関するかかる情報を取得するのによく適する。
すべての3D超音波取得技術に共通の課題は、画像品質のばらつき、および取得されたデータがさらなる画像処理(例えば、診断、セグメント化およびレジストレーション)のために十分であるかどうかを示す尺度の欠如である。さらなる処理に対する画像データの適否は、画像コンテンツ、対象となる構造と背景との間のコントラスト、画像に存在するアーチファクトの量、ならびに画像の均一性およびボリューム走査の密度に依存する。走査を行うユーザは、通常、走査が一旦完了すると、またはさらなる処理の結果をレビューした(例えば、ナビゲーション手術において、3Dデータセットが取得されて、レジストレーションが試みられ、レジストレーション結果が解析された)後、すべてのこれらの因子を評価する。走査の結果が不十分であれば、取得プロセス全体を繰り返す必要があり−これは、時間がかかり、走査の繰り返しがより良好な結果に繋がるかどうか確かではないのでうんざりする可能性がある。
超音波取得の間の誘導/フィードバックに利用可能な最新技術は、以下の節において考察されるように、
−所望の画像コンテンツを得るための誘導
−規則的なトランスデューサの動きのための誘導
−解剖学的形態の一般的なモデルに基づく3Dイメージングの誘導
に分類できる。
所望の画像コンテンツを得るための誘導
特許文献2では、解剖学的構造の所望のビューの取得に関してユーザを訓練するために、取得されたBモードのコンテンツが所望の画像のモデルと比較される。取得された画像ごとに所望の目標画像へのフィット品質の尺度が計算されて、ユーザに表示される。ユーザは、次に、十分にフィットした画像が得られるまで超音波プローブを動かす。この方法は、2D画像の画像品質についてフィードバックを提供するが、画像品質をどのように改善するかについて明示的な命令を提供せず、さらなる処理に対する画像の有用性についても指標を与えない。
特許文献3では、イメージング・プロセスのための一般的なインタラクティブ・アシスタントが提示される。アシスタントは、取得された画像を予め記憶された目標画像と比較する。取得された画像と目標画像との間の類似性が十分でなければ、アシスタントは、画像品質を改善するための処置を推奨しようと試みる。
先に考察された特許におけるように、さらなる処理ステップを何も考慮せずに直接的に2つの画像の画像コンテンツが比較される。
規則的なトランスデューサの動きのための誘導
特許文献4では、フリーハンド3Dスイープを誘導するためのシステムが記載される。方法は、2D超音波画像の規則的な間隔のセットを得るために、所望の対象領域にわたって規則的な速度で動くようにユーザを訓練し、これらの画像は、次に3Dボリューム中へコンパウンド処理される。提供されるフィードバックは、コンパウンド処理に用いた(user)画像バッファの埋め込み量を図式的に示すが、画像品質を調べず、生成された3D画像ボリュームについても情報を何も与えない。
特許文献5では、弾性イメージングのために正しいプローブの動きを行うようにユーザを指導するための方法が記載される。センサ、例えば、USプローブ内の加速度計を用いることによりその動きが測定されて、弾性イメージングのための所望の動きパターンと比較される。システムは、次に、正しい動きを容易にするために、視覚的または聴覚的なフィードバックをオペレータに提供する。このシステムは、トランスデューサの空間での動きの感知に限られ、画像コンテンツの品質についてはフィードバックを何も提供しない。
特許文献6では、腹腔鏡超音波イメージングの間に走査プロセスを視覚化するための方法が記載される。トランスデューサの位置測定結果に基づいて、取得された超音波画像が3Dで表示され、走査にギャップが存在するか、または走査速度が速すぎるか遅すぎた場合には、超音波画像の周りのフレームがハイライトされる。これによって、ユーザは、欠落したエリアを再走査でき、かつ規則的なプローブの動きを確実に達成できる。上記の特許におけるように、画像コンテンツについてのフィードバックは、何も提供されない。
解剖学的形態の一般的なモデルに基づく3Dイメージングの誘導
特許文献7では、心臓超音波の取得を誘導するためのデバイスが記載される。システムは、心臓に関するデータ取得における進捗を評価するために、US像面と3D解剖学的モデルとの交差部を特に表示する。基礎をなす解析は、それゆえに、画像のこの幾何学的な部位に限られ、画像データのその後の使用に関する追加の判定基準を含まない。
特許文献8では、US走査用の誘導画像を形成するための機器が提示される。取得された一連の画像に基づいて、ベストフィット3D形状モデルが選択され、ユーザに表示される。この3D形状モデルは、次に、同じ構造の後続イメージングのための誘導画像としての役割を果たす。これによって重要な解剖学的特徴の局在化および系統的な走査が可能になる。この機器は、超音波走査をある目標部位へ誘導することを目指すが、望ましい所定の品質の3Dボリューム画像を得ることには注目しない。
米国特許第6012458A号 米国特許出願公開第2012065510号 米国特許出願公開第2007016016号 米国特許第005645066号 米国特許出願公開第2012108965号 米国特許出願公開第20090036775号 欧州特許出願第1929956号 米国特許出願公開第20080187193号
R.サン ホセ−エステパ(San Jose−Estepar)、M.マーティン−フェルナンデス(Martin−Fernandez)、P.P.カバリェロ−マルティネス(Caballero−Martinez、C.アルベロラ−ロペス(Alberola−Lopez)およびJ.ルイス−アルーゾラ(Ruiz−Alzola)、「不規則にサンプリングされたデータからの3次元超音波再構成への理論的な枠組み(A theoretical framework to three−dimensional ultrasound reconstruction from irregularly sampled data)」、Ultrasound in Medicine & Biology、vol.29.no.2、pp.255−269、2003年2月。 T.C.プーン(Poon)およびR.N.ローリング(Rohling)、「三次元拡張視野の超音波(Three−dimensional extended field−of−view ultrasound)」、Ultrasound in medicine & biology、vol.32.no.3、pp.357−69、2006年3月。 C.ヤオ(Yao)、J.M.シンプソン(Simpson)、T.シェフター(Schaeffter)およびG.P.ペニー(Penney)、「特徴整合性を用いた多数のマルチビュー3D心エコー画面の空間コンパウンド処理(Spatial compounding of large numbers of multi−view 3D echocardiography images using feature consistency)」、2010 IEEE Imternational Symposium on Biomedical Imaging:From Nao to Macro、pp.968−971、2010年。 A.ジー(Gee)、R.プレイジャー(Prager)、G.トリース(Treece)およびL.バーマン(Berman)、「フリーハンド3D超音波システムのエンジニアリング(Engineering a freehand 3D ultrasound system)」、Pattern Recognition Letters、vol.24、no.4−5、pp.757−777、2003年2月。 P.ツーンクム(Toonkum)、N.C.スワンウェラ(Suwanwela)およびC.チンルンレン(Chinrungrueng)、「周期的正則化サビツキー・ゴーレー・フィルタに基づく3D超音波画像の再構成(Reconstruction of 3D ultrasound images based on Cyclic Regularized Savitzky−Golay filters)」、Ultrasonics、vol.51、no.2、pp.136−47、2011年2月。 C.O.ローラ(Laura)、K.ドレクスラー(Drechsler)、M.エルト(Erdt)、M.カイル(Keil)、M.ノル(Noll)、S.D.ベニ(Beni)、G.サカス(Sakas)およびL.ソルビアッティ(Solbiati)、「肝腫瘍切除のために(for Liver Tumor Ablation)」、pp.133−140、2012年。 R.ローリング(Rohling)、A.ジー(a Gee)、およびL.バーマン(Berman)、「フリーハンド3次元超音波再構成技術の比較(Comparison of freehand three−dimensional ultrasound reconstruction techniques)」、Medical image analysis、vol.3、no.4、pp.339−59、1999年12月。 P.ヘリヤー(Hellier)、N.アザブー(Azzabou)およびC.バリヨ(Barillot)、「3Dフリーハンド超音波再構成(3D Freehand Ultrasound Reconstruction)」、pp.597−604、2005年。 C.−H.リン(Lin)、C.−M.ウェン(Weng)およびY.−N.スン(Sun)、「動き補償に基づく超音波画像コンパウンド処理(Ultrasound image compounding based on motion compensation)」、IEEE Engineering in Medicine and Biology Society年次国際会議会報、IEEE Engineering in Medicine and Biology Society。Conference、vol6、pp.6445−8、2005年1月。 A.フェンスター(a Fenster)およびD.B.ダウニー(Downey)、「3次元超音波イメージング(Three−dimensional ultrasound imaging)」、Annual review of biomedical engineering、vol.2、pp.457−75、2000年1月。 L.メルシェ(Mercier)、T.ランゴ(Lango)、F.リンドセット(Lindseth)、L.D.コリンズ(Collins)、「フリーハンド3D超音波システムのための較正技術のレビュー(A review of calibration techniques for freehand 3−D ultrasound systems)」、Ultrasound in medicine & biology、vol31、no.2、pp.143−65、2005年2月。 O.V.ソルバーグ(Solberg)、F.リンドセット(Lindseth)、H.トープ(Torp)、R.E.ブレーク(Blake)、およびT.A.ナーゲルフス ヘメス(Nagelhus Hemes)、「フリーハンド3D超音波再構成アルゴリズム−レビュー(Freehand 3D ultrasound reconstruction algorithms−a reiew)」、Ultrasound in medicine & biology、vol.33、no.7、pp.991−1009、2007年7月。
上記に基づいて、本発明の基礎をなす課題は、3D超音波データセット、すなわち、被検体(例えば、患者の体または体の一部、特に肝臓のような臓器)の対象となるボリュームの3Dモデルの取得を容易にし、かつ取得された3Dモデルのさらなる特定の使用を保証できるように、取得された3Dモデルの品質をチェックすることを特に可能にする方法およびシステムを提供することである。
この課題は、請求項1の特徴を有する方法ならびに請求項15の特徴を有するシステムによって解決される。好ましい実施形態は、それぞれ対応する従属請求項に明記され、以下に記載される。
請求項1によれば、本発明による方法は、被検体の(例えば、人/患者の体または体の一部、例として肝臓のような臓器の)事前取得3D画像またはモデル(すなわち、対応するデータセット)を提供するステップと、前記事前取得画像をディスプレイ(例えば、コンピュータのグラフィカルユーザインターフェース(GUI:graphical user interface))上に表示するステップと、(例えば、ディスプレイに接続されたコンピュータのGUIの助けを借りてディスプレイ上で)前記事前取得画像における被検体の対象となるボリュームを選択する(すなわち、被検体のあるボリュームが検査されるものとする)ステップ、および超音波(US)プローブを被検体に対して(例えば、患者の体の上に)相応に配置することによって、前記対象となるボリュームの前記事前取得画像(例えば、その局所座標系)に対する空間位置を特に調整するステップと、前記ディスプレイ上の前記対象となるボリューム(VOI:volume of interestとも表される)の前記事前取得画像に対する現在の空間位置を、特にリアルタイムで、特に視覚化するステップ、および、超音波プローブにより対象となるボリュームにおいて取得された現在の(例えば、2D)超音波画像を前記ディスプレイ上にリアルタイムで特に表示するステップであって、特に対象となるボリュームの視覚化は、表示された事前取得3D画像上にオーバーレイされる、表示するステップ、ならびに、前記ディスプレイ上の対象となるボリュームの視覚化を前記超音波プローブの現在の空間位置を用いて特に更新するステップであって、(例えば、いわゆる部屋固定、患者固定またはカメラの座標系での)超音波プローブのその現在の空間位置が追跡システムを用いて特に確定される、更新するステップとを備える。
次に、対象となるボリュームの空間位置が意図通りに選択または調整された(従って、VOIがそれ以上は調整されないという意味で静止したままである)ときに、前記対象となるボリュームにおける前記被検体の3Dモデル(すなわち、モデルを表す対応するデータセット、または代わりに3D超音波画像)を生成するために、前記対象となるボリュームにおける超音波画像の取得(記録)がトリガされ、前記トリガするステップは、前記超音波プローブにより、特に(例えば、対象となるボリューム上での)被検体に対する超音波プローブの特定の動きもしくはそれを用いた明確なジェスチャにより、または所定の時間間隔にわたって超音波プローブを動かさないことにより、あるいは自動的に行われ、超音波プローブを前記被検体にわたって対象となるボリュームに沿って、または対象となるボリュームにわたって動かす(例えば、好ましくは、被検体のVOIにおいて画像が取得できる被検体上で/被検体にわたって超音波プローブが動かされる)間に、前記3Dモデルを生成するために、対象となるボリュームにおいて(特に手術中に)複数の超音波画像を前記超音波プローブによって取得するステップであって、現在の画像がリアルタイムで前記ディスプレイ上に特に表示され、特に現在の画像が前記ディスプレイ上に2次元で、および/または(例えば、ディスプレイ上に示された3Dビュアに)3次元で表示され、前記3次元で表示される現在の超音波画像は、表示された事前取得画像上に特にオーバーレイされる、取得するステップと、現在の超音波画像が対象となるボリューム中に少なくともピクセルを有するかどうかを自動的に判定するステップであって、現在の画像が対象となるボリューム中に画素を何も有さない場合には、現在の画像が自動的に破棄され(すなわち、3Dモデル/超音波画像中へコンパウンド処理されず)、そうでない場合(すなわち、画像がVOI中にピクセルまたはボクセルを有するとき)には、現在の超音波画像がセグメント化されて、生成されることになる前記3Dモデル中へコンパウンド処理され、これがリアルタイムでディスプレイ上に表示されて、表示された事前取得画像上に特にオーバーレイされ、特に新しい現在の超音波画像が3Dモデル中へコンパウンド処理される場合には、ディスプレイ上に表示される3Dモデルが更新される、判定するステップと、前記超音波画像の前記取得のときに生成されることになる3Dモデルに関して品質尺度を自動的に確定するステップであって、前記超音波画像の前記取得は、前記品質尺度が所定のレベルに一旦到達すると終了され、特に前記品質尺度は、対象となるボリューム内で走査された単一(2D)超音波画像の数、対象となるボリューム内で取得された超音波画像の(3D)密度(例えば、走査されたピクセルまたはボクセルとVOIのピクセルまたはボクセルの数、すなわちVOIボリュームとの比)、特定の画像特徴の数および/または分布、特に対象となるボリュームにおける(例えば、腫瘍、血管などのような)セグメント化された解剖学的構造の数、ならびに超音波画像を走査するために用いられた時間、のうちの少なくとも1つである、確定するステップとを備える。他の判定基準が適用されてもよい。
例えば、取得は、取得された(2D)超音波画像の数が所定の数を超える場合に停止されるか、もしくは取得は、VOIにおける2D超音波画像の密度が所定の密度値を超える場合に停止されるか、または取得は、特定の画像特徴のある数および/または分布が検出された場合に停止されるか、あるいは取得は、所定の時間間隔後に(VOIがこの時間間隔内に十分サンプリングされたと仮定して)停止される。
超音波画像の取得後に、生成された3Dモデルは、好ましくは、事前取得3D画像へのレジストレーションが行われる。
従って、特に、本方法は、画像レジストレーション、すなわち、画像モダリティの間のフュージョンを目的として、超音波画像をインタラクティブに取得することを可能にする。かかるフュージョンのおかげで、処置中に取得できる画像を処置室外で取得されたはるかに詳細な情報を用いて強化できる(例えば、検出された小血管がより少なく、コントラストがより低い処置中の超音波画像が、高解像度の術前CTまたはMRIとフュージョンされる)。特に、本発明は、患者の高解像度画像の取得を単に目指すのではなく、前記フュージョンを可能にする技術情報の取得を目的とした画像取得フレームワークの構築を目指す。好ましくは、(通常、超音波に比べて詳細なレベルの他のモダリティからの)術前データからの患者特有のアプリオリな知識を用いて、ユーザは、事前取得データと取得される現在のデータとの間のレジストレーションを行うために必要な画像/特徴を取得するように誘導される。
好ましい実施形態によれば、前記提供される事前取得3D画像が第1のセッションで取得される一方で、前記複数の超音波画像は、後で実施される別の第2のセッションで取得される。第1のセションは、第2のセション、例えば、手術/介入の数時間/数日/数週間前とすることができる。特に、2つのセッション間の時間間隔は、少なくとも1時間、少なくとも12時間、少なくとも1日、または少なくとも1週間である。
本発明による方法のさらなる実施形態によれば、前記提供される事前取得3D画像は、超音波以外のイメージング方法を用いて取得される。
本発明による方法のさらなる実施形態によれば、前記品質尺度は、前記事前取得3D画像からの患者特有のデータに基づく判定基準である。
本発明による方法のさらなる実施形態によれば、前記数および/または分布は、対象となるボリュームにおける患者特有の解剖学的形態に依存して選択される。
本発明のさらなる実施形態によれば、前記複数の超音波画像を取得するユーザは、生成される3Dモデルの事前取得3D画像へのレジストレーションを行うのに十分なデータセットを特に提供するために、事前取得3D画像に基づいて、超音波プローブを画像特徴が予想される部位へ動かすように誘導される。
本発明の実施形態によれば、VOIは、必ずしも超音波プローブでナビゲーションされるわけではないが、USプローブをある部位に配置することによって定義される。
さらにまた、超音波(US)画像を事前取得3D画像またはモデル上に「オーバーレイすること」は、US画像のコンテンツまたは特徴が事前取得画像の対応するコンテンツまたは特徴とアラインメントされるか、または一致するように、前記US画像またはUS画像の少なくとも一部分が事前取得画像におけるある1つの位置に表示されることを特に意味する。US画像は、それによって、事前取得画像の特徴またはコンテンツを補完してもよく、またはその逆であってもよい。さらにまた、US画像は、それによって、事前取得3D画像の複数の部分をカバーしてもよい。VOIの場合、オーバーレイすることは、VOIの視覚化(例えば、3Dボックスなど)が、事前取得3D画像中に、特に部屋固定(もしくは患者固定またはカメラ)座標系での超音波プローブの位置に、例として、対応する適切な位置に表示されることを特に意味する。
このように、本明細書に記載される発明は、さらなる処理の必要条件を満たす3D超音波モデル/データセットを取得するようにユーザを誘導する。誘導は、オンライン、リアルタイム解析および取得された3Dモデルの表示を通じて、ならびに後続処理の必要条件に関する画像品質/コンテンツの定量評価を通じて提供される。
前記対象となるボリュームの前記事前取得画像に対する空間位置の前記調整、ならびに対象となるボリュームの表示された事前取得画像上の視覚化のオーバーレイ、ならびに前記3次元で表示された現在の超音波画像の表示された事前取得画像上のオーバーレイを達成するために、または、現在の超音波画像が対象となるボリューム中に少なくとも1つのピクセルを有するかどうかのチェック、ならびに3Dモデルの表示された事前取得画像上のオーバーレイを達成するために、好ましくは(少なくとも粗いアラインメントをもたらす)初期レジストレーションが行われる。これによって、表示されるUS画像の特徴またはコンテンツが事前取得3D画像またはモデルの対応する特徴またはコンテンツとアラインメントするように、US画像、VOIなどを事前取得3D画像の中または上に正しい位置で(少なくとも近似的に)表示することが可能になる。
特に初期レジストレーションは、ユーザが(カメラ、患者固定もしくは部屋固定座標系での複数点を取得するために)事前取得3D画像(例えば、仮想肝臓モデル)における、例えば、4点を選択し、次に、追跡ツールでそれらに触れる、ランドマーク・ベースのレジストレーションとすることができる。適切なアルゴリズムが、次に、レジストレーション変換を自動的に計算する。
代わりに、または組み合わせで、ユーザが超音波プローブを配置することを望む事前取得3D画像(例えば、仮想肝臓表面)における1点を選択する、超音波ベースの初期レジストレーションを利用することができる。次に、その部位で予想される超音波画像が事前取得3D画像を用いてシミュレーションされ、ユーザは、患者において(従って、カメラ、患者固定もしくは部屋固定の座標系で)同じ画像を取得するために、較正された超音波プローブを患者(被検体)に対して用いる。シミュレーションされた虚像および取得された実像に基づいて、初期レジストレーション変換が自動的に算出される。その際、較正された超音波プローブとは、部屋固定(もしくは患者固定、またはカメラ)座標系で取得された画像の位置と、超音波プローブ(の位置センサ)の位置との間の関係が知られた超音波プローブであり、従って、超音波プローブの位置を知ることは、取得された超音波画像の部屋固定(もしくは患者固定またはカメラ)座標系での位置を知ることを意味する。
本発明による方法の好ましい実施形態において、生成された3Dモデルは、部屋固定(もしくは患者固定またはカメラ)座標系でのその座標が超音波プローブを追跡することにより取得される、生成された3Dモデルの1つまたはいくつかの特徴を、事前取得3D画像の対応する1つまたはいくつかの特徴と特に一致させることによって、および、それぞれの座標系での前記特徴および前記対応する特徴の座標を用いて、事前取得3D画像の座標系と、超音波プローブの部屋固定(もしくは患者固定またはカメラ)座標系との間のレジストレーション変換を特に自動的に確定することによって、事前取得の、特に術前取得の3D画像へのレジストレーションが自動的に行われる。
言い換えれば、本発明による方法の文脈では、ユーザが対象となるボリューム(VOI)を定義し、レジストレーションは、VOIで行われるものとする。VOIの定義は、仮想モデル(すなわち、事前取得画像)をクリックするか、または上述のように超音波プローブによるジェスチャを用いてVOIをインタラクティブに配置するかのいずれかによって行われる(ジェスチャを用いる場合、上述の初期レジストレーションまたはアラインメントは、プローブの位置を仮想モデル上に表示するために用いられる(すなわち、仮想モデルがカメラまたは部屋固定もしくは患者固定の座標系へマッピングされる))。上述の初期レジストレーションにおいて選択されたランドマークに基づいて(ランドマークの周りに)VOIを定義することもできる。VOIが一旦定義されると、自動的に、またはジェスチャによるかのいずれかで取得が開始される。上述のようなボックス(VOI)における超音波画像の取得をフィードバックループが誘導する。十分なデータが一旦取得されると、レジストレーションが算出される。
この超音波ベースのレジストレーションが一旦完了すると、事前取得3D画像の、すなわち、仮想3Dモデルの部屋固定(もしくは患者固定またはカメラ)座標系に対する位置が知られる。それゆえに、部屋固定(もしくは患者固定またはカメラ)座標系でその位置が追跡されるツール、例えば、手術ツールを事前取得3D画像(仮想モデル)上に表示することができる。
本発明による方法の好ましい実施形態によれば、対象となるボリュームは、その空間寸法についてボクセル(高さ、幅および奥行き)の単位で予め定義され、いくつかの特徴または特性に関して、特にその空間分解能、検出またはセグメント化された構造の密度、および/または均一性(すなわち、その空間密度、この意味で至るところ一様にサンプリングされた事前取得画像におけるVOIが好ましい)、あるいはアーチファクトの数(すなわち、低雑音レベルのみならず、できるだけ少ない数のアーチファクトを有し、好ましくはアーチファクトを何も有さないVOIが好ましい)に関して、さらに予め定義されるか、または選択される。
さらにまた、本発明による方法の好ましい実施形態において、アーチファクト検出は、破棄されない現在の超音波画像に対して、少なくとも1つのフィルタ・アルゴリズム、特にハフ(Hough)変換および/またはローパスフィルタ処理を特に用いて自動的に実施され、特に現在の超音波画像においてアーチファクトが検出された場合には、この現在の超音波画像が破棄され、特にアーチファクト確率は、事前取得3D画像の患者特有の特徴に基づいて算出される。
さらにまた、本発明による方法の好ましい実施形態において、個々の現在の超音波画像の前記セグメント化は、対象となるボリュームにおける被検体の特定の解剖学的構造、特に血管、腫瘍、臓器境界、胆管、および/または他の解剖学的形態のセグメント化を提供する少なくとも1つの(例えば、決定性)アルゴリズムを用いて自動的に実施され、特に前記アルゴリズムは、事前取得3D画像の患者特有の特徴に依存して選択される。
さらにまた、本発明による方法の好ましい実施形態において、個々の現在の超音波画像の前記セグメント化は、特に臓器境界、実質臓器、および/または血管系のような画像特徴の確率的評価を用いて自動的に実施され、前記確率的評価は、好ましくは、事前取得3D画像の患者特有の特徴を用いる。
さらにまた、本発明による方法の好ましい実施形態では、USボリューム再構成アルゴリズムが2つの並列プロセス・ステップを適用し、1つは、異なる2D US画像からの情報のセグメント化のためであり、1つは、2D US画像コンテンツを直接に用いることによって、あるいは強調結果、すなわち(例えば、画像のセグメント化後に)検出されたUS画像の特徴または構造に基づいて、画像アーチファクトに関する試験を行うためである。言い換えれば、前記アーチファクト検出および前記セグメント化は、好ましくは並行して実施され、特に前記アーチファクト検出は、現在の超音波画像の個々のコンテンツまたは前記現在の超音波の検出された1つのコンテンツを直接に用い、特にそれぞれのアルゴリズムが互いに繰り返して相互作用する。
好ましくは、(アーチファクトを何も有さない)個々の現在の2D超音波画像において検出された画像特徴は、次に、一連の(現在の)2D超音波画像の取得のときに逐次的に生成される3Dモデルを表す(コンパウンド処理とも表される)3Dボリューム・データセットへ自動的に組み合わされる。
さらにまた、本発明による方法の好ましい実施形態において、対象となるボリュームの空間位置を前記初期調整すべく超音波プローブを配置する間に、および/または、複数の超音波画像の前記取得の間に超音波プローブを動かすときに、ユーザを前記USプローブの配置および/または移動の際に補助および/または誘導するために、誘導情報が前記ディスプレイ上に表示されるか、および/または、ユーザに、特に言葉で、聴覚的に提供される。
好ましくは、前記誘導情報は、前記事前取得3D画像および取得された3Dモデルの特徴に基づくフィードバックを通じて提供される。
好ましくは、超音波プローブは、光学的、電気機械的もしくは機械的測定原理に基づく座標測定システムを用いて(すなわち、部屋固定、患者固定またはカメラの座標系での)空間画像座標を導出することによって、および/または、後続画像における画像特徴の相対的なシフトを解析することにより相対的な画像座標を導出することによって追跡される。
そのうえ、好ましくは、前記誘導情報は、前記ディスプレイ上の少なくとも1つまたはいくつかの立方グリッドの視覚化を備え、特に定義された組織構造および/または解剖学的構造を特定の色が表す。そのうえ、好ましくは、前記グリッド(単数または複数)は、事前取得3D画像上に表示される。
さらにまた、本発明による方法の好ましい実施形態において、特に前記セグメント化のときに、現在の超音波画像に欠落した情報は、アプリオリな情報(すなわち、先験的な情報)に基づいて、または被検体(例えば、臓器)についてのアプリオリな情報もしくは事前取得3D画像からの患者特有の特徴を用いて、自動的に補間される。さらにまた、前記セグメント化のときに、現在の超音波画像(401、402)に欠落した情報は、被検体、被検体の部分または病変、および/または他の既知の解剖学的構造における血管構造の分布、対象となる解剖学的構造の幾何学形状についてのコホート特有情報(すなわち、属性を同一にする集団に特有の情報)および/または統計情報を用いて補間することができる。
好ましくは、対象となるボリュームは、診断、視覚化、セグメント化、および/またはレジストレーションに向けてさらなる処理を可能にするのに十分な画像情報を含むように選ばれる。
さらにまた、本発明による方法の好ましい実施形態において、生成された3Dモデルは、特に事前に取得されるか、または動的にリフレッシュされた情報コンテンツに関して、特に均一性(上記を参照)および/または解像度のようなパラメータに関して、3Dモデル生成の進捗の現在のレベルを表示するために、特に超音波以外のイメージング方法に基づき、かつ特に3Dモデルと比較して異なる座標系に基づく事前取得3D画像と、例えば、自動的にアラインメントされる。
さらにまた、好ましくは、ディスプレイ上の3Dモデルの視覚化は、現在検出されて解析される解剖学的構造を特に示す、ユーザ定義された静的または動的色マッピングを用いる。
さらにまた、本発明による方法の好ましい実施形態において、超音波画像取得プロセスの成功裏の完了は、スピーカを通じて特に聴覚的に、および/または前記ディスプレイを通じて図式的にユーザへ信号伝達される。
好ましくは、事前取得3D画像は、超音波画像、コンピュータ断層撮影画像、または磁気共鳴画像である。
そのうえ、本発明による課題は、本発明による方法を実施するために特に設計された請求項30の特徴を有するシステムによって解決され、前記システムは、データ処理システムに接続された超音波プローブを備え、データ処理システムは、前記超音波プローブの制御のための制御ユニット、US画像の取得および解析のための計算手段(例えば、コンピュータ、例えば、PCまたはワークステーションなど)、ならびに情報、特にユーザのための情報(例えば、誘導情報)のみならずUS画像および事前取得画像を表示するために前記コンピュータに接続されたディスプレイを特に備える。さらにまた、システムは、超音波プローブの空間位置を(例えば、部屋固定、患者固定またはカメラの座標系に対して)追跡するための追跡システムを備え、追跡システムは、前記座標系での超音波プローブの空間位置を検出するために超音波プローブ上に配列されるか、またはそれに一体化された1つまたはいくつかの位置センサを備え、前記追跡システム(座標測定システムとも表される)は、超音波プローブの位置を光学的、電気機械的、もしくは機械的に検知するように特に設計され、すなわち、前記追跡システムは、超音波プローブの位置追跡のための光学的、電気機械的もしくは機械的測定原理に基づく。
好ましくは、追跡システムは、カメラ、特に立体カメラのような追跡デバイスを備え、位置センサ(単数または複数)の位置をカメラ(または追跡デバイス)とともに存するカメラ座標系で検出して追跡するように設計される。追跡デバイスは、通常、患者が位置する部屋に対して静止するか、または患者に対して静止しているので、かかる座標系は、部屋固定もしくは患者固定座標系と表されてもよい。
好ましくは、データ処理システムは、超音波プローブを用いて取得された被検体の現在の超音波画像が、被検体の事前取得3D画像の対象となる事前選択ボリューム中に少なくとも1つのピクセルを有するかどうかを自動的にチェックするように設計され、現在の画像が対象となるボリューム中にピクセルを何も有さない場合には、データ処理システムは、現在の画像を破棄するように設計され、そうでない場合には(すなわち、画像がVOI中にピクセル/ボクセルを有するとき)、データ処理システムは、現在の超音波画像を自動的にセグメント化して、それを3Dモデル中へコンパウンド処理するように設計され、データ処理システムは、特に超音波プローブを用いた超音波画像の取得のときに、生成されることになる3Dモデルに関して品質尺度を確定するように設計され、データ処理システムは、前記品質尺度が所定のレベルまたは動的に定義されたレベルに一旦到達すると、3Dモデルに関する超音波画像の取得を終了するように設計され、特に前記品質尺度は、対象となるボリューム内で走査された単一超音波画像の数、対象となるボリューム内で取得された超音波画像の密度、特定の画像特徴の数および/または分布、特に対象となるボリュームにおけるセグメント化された解剖学的構造の数、または特に予想される特徴の患者特有の数、ならびに超音波画像の取得のために必要とされた時間(上記も参照)のうちの少なくとも1つである。
さらにまた、データ処理システムは、生成された3Dモデルの事前取得3D画像へのレジストレーションを自動的に行うように特に設計され、逆もまた同様である。
システムは、聴覚情報、特に言語情報(例えば、誘導情報、上記も参照)をユーザに提供するためのスピーカをさらに備えてもよい。
本発明によるシステムは、本明細書に記載される発明による方法の特徴によってさらに特徴付けることができる。
さらにまた、本発明の別の態様によれば、プログラム命令を備えるコンピュータプログラムが提供され、このプログラム命令は、コンピュータプログラムがコンピュータに読み込まれるか、またはコンピュータによって実行されるときに、本発明による(例えば、請求項1による)方法をコンピュータ(例えば、前記データ処理システムまたはデータ処理システムの前記コンピュータ)に実施させる。本明細書では、特に、事前取得3D画像、超音波プローブを用いて取得された現在の(2D)超音波画像、および/またはVOIが入力としてコンピュータプログラムに入力される。
特に、本発明の態様によれば、現在の超音波画像が対象となるボリューム中に少なくとも1つのピクセルを有するかどうかをコンピュータ(例えば、前記データ処理システムまたはデータ処理システムの前記コンピュータ)にチェックさせるプログラム命令を備えるコンピュータプログラムが提供され、現在の画像が対象となるボリューム中にピクセルを何も有さない場合には、現在の画像が破棄され、そうでない場合には、現在の画像がセグメント化されて、生成されることのなる3Dモデル中へコンパウンド処理され、それがリアルタイムで(例えば、前記コンピュータに接続された)ディスプレイ上に特に表示されて、表示された事前取得画像上に特にオーバーレイされ、特に新しい現在の超音波画像が3Dモデル中へコンパウンド処理される場合には、特に前記超音波画像の取得のときに、生成されることになる3Dモデルに関して品質尺度を確定するために、ディスプレイ上に表示された3Dモデルが更新され、前記超音波画像の取得は、前記品質尺度が所定のレベルに一旦達すると終了され、特に前記品質尺度は、対象となるボリューム内で走査された単一超音波画像の数、対象となるボリューム内で取得された超音波画像の密度、特定の画像特徴の数および/または分布、特に対象となるボリュームにおけるセグメント化された解剖学的構造の数、ならびに超音波画像を走査するために必要とされた時間(上記も参照)のうちの少なくとも1つである。
さらにまた、本発明の別の態様は、超音波プローブを臓器の表面上に配置すべくユーザが対象となるボリュームの適切な位置を局在化および特定するのを補助する、誘導情報のリアルタイム生成および視覚化のための方法である。
その際、超音波プローブの追跡は、好ましくは、光学的、電気機械的もしくは機械的測定原理に基づく座標測定システムを用いて絶対空間画像座標を導出することによって、および/または、後続画像における画像特徴の相対的なシフトを解析することにより相対的な画像座標を導出することによって可能になる。
さらにまた、その際、ユーザのための誘導情報は、好ましくは、定義された組織構造、特に解剖学的構造を特定の色が表す、グラフイックユーザインターフェースのディスプレイでの立方グリッドの仮想的な視覚化を備える。
さらにまた、その際、ユーザのための誘導情報は、好ましくは、聴覚または言葉(例えば、記録された話し言葉または人工音声)による。
本発明のさらに別の態様によれば、事前に取得されるか、または動的にリフレッシュされた情報コンテンツに関して、特に、以下には限定されないが、均一性(上記を参照)および/または解像度のようなパラメータに関して、3Dボリューム画像取得の進捗の現在のレベルを表示すべく、取得された3D超音波画像を事前取得3D画像データセットとアラインメントするためにレジストレーション方法が提供される。
その際、3D超音波画像データセットの視覚化は、好ましくは、現在検出されて解析される解剖学的構造を示す特定のユーザ定義された静的または動的色マッピングを利用する。
さらにまた、その際、画像取得プロセスの成功裏の完了は、好ましくは、GUIおよび/または聴覚インターフェース、特にスピーカの手段によって聴覚的および/または図式的にユーザへ信号伝達される。
さらにまた、その際、事前取得画像は、好ましくは、特に不均一な品質および画像コンテンツの超音波画像、CT画像またはMR画像である。
本発明のさらなる特徴および利点が図面を参照して実施形態の詳細な記載によって説明されるであろう。
3D超音波(US)画像取得の典型的な実施形態を示す。 US画像取得プロセスの初期化を概略図で示す。 対象となるボリューム(VOI)の解剖学的構造および視覚化を示す。VOIの図式的な表現および超音波画像が3D解剖学的形態上にオーバーレイされる。 対象となるボリューム(VOI)の解剖学的形態および視覚化を示す。VOIの視覚化を2D US画像とともに示す。 3D超音波画像取得の間の視覚化を示す。 アーチファクト検出および画像セグメント化を含むUS画像取得プロセスを示す。 US画像におけるアーチファクトの典型的な写真を示す。 さらなる画像処理に適した画像データを取得するためにユーザを誘導するリアルタイム・フィードバックを用いた取得アルゴリズムを示す。
特に、本発明による方法およびシステムは、US画像の、特にUS、CTおよび/またはMRからの事前取得(例えば3D)画像とのリアルタイム・レジストレーションを改善することを主たる目的(principle aim)として、3D US画像の取得を最適化するために役立つ。オンラインまたはリアルタイム3D画像解析ループおよびUS画像の取得の間のリアルタイム・フィードバックを利用することによって、本システム/方法は、さらなるデータ処理、すなわち、診断、視覚化、セグメント化、およびレジストレーションに適した3D US画像/モデルの画像コンテンツを確保することを目指す。
本発明は、ナビゲーション軟組織手術のための画像レジストレーションに関して特に記載されるが、この用途には限定されない。
システム・セットアップ
例示的な実施形態によれば、本発明による方法は、次の構成要素、すなわち、USプローブ103を制御するための制御ユニット107を備えるデータ処理システムまたはユニット105に接続された3Dまたは2D超音波(US)プローブ103、および画像および他の関連するユーザ情報を表示するためのグラフイックユーザインターフェース(GUI)101をもつコンピュータ(ワークステーションまたはPC)106を特に用いる。ディスプレイ101は、画面表示部(LCDまたは類似物)ならびにユーザ100に情報を図式的および/または視覚的に表示する他の手段からなってもよい。さらに、コンピュータ106またはGUI101にスピーカが取り付けられてもよい。
USプローブ103は、例えば、市販の追跡システム102によって追跡される。USプローブ103は較正され、位置センサ108とも表される、装着もしくは一体化された受動または能動型の追跡センサあるいはリフレクタ108を有する。
特に、適切な画像コンテンツを取得するためのフィードバックおよび誘導は、取得された画像の対象となる所望のボリュームに対する幾何学的情報、ならび3Dで得られた情報コンテンツの尺度に基づく。かかる尺度は、取得された画像のセグメント化から導出され、定性的な3D表示として、または定量的な品質指標によってユーザに提供できる。3D画像取得の間にオンライン・フィードバックを提供することによって、オペレータは、欠落した走査部位へUSプローブを動かして、イメージング・パラメータを正しく調整して、最終的に後続の処理のために十分なデータが確実に取得されるように誘導される。取得プロセスの間に画像品質を制御することによって、イメージング・プロセス全体のうんざりする繰り返しを回避することができる。
VOI調整、視覚化および選択
ユーザ100は、システムのGUIのディスプレイ101に表示された、超音波(US)、コンピュータ断層撮影(CT)または磁気共鳴(MR)イメージングからの事前取得画像におけるいわゆる対象となるボリュームVOI301を選択する。VOI301を選択する前に、事前に取得された解剖学的画像またはモデルを追跡座標系(部屋固定座標系)と概略的にアラインメントするために、1つまたはいくつかのランドマーク点に基づく初期レジストレーションが行われてもよい。次に、ユーザがUSプローブ103を対象となる臓器110の表面上に配置することによりVOI301の位置が調整される。現在のVOI301がGUI101に表示され、リアルタイムの追跡情報に基づいて更新される。ユーザ100は、それによって、GUI101上でリアルタイムの視覚的なフィードバックを受け取り、然るべきVOI301、すなわち対象となる解剖学的構造302をインタラクティブに選択できる。VOI301の調整のためのアルゴリズムが図2に示される。
調整フェーズの間に、VOI301が線に特定の色がついた仮想的な立方グリッドとして第1のUS画像(図3B)とともにGUI101上に視覚化される。VOI301は、追跡されるUSプローブ103の仮想モデルの下方に配置され、VOI301の位置は、プローブ103の動きとともに更新される。仮想的なVOI301を対象となる解剖学的形態(図3A)の事前取得画像またはモデル305上へオーバーレイすることによって、ユーザは、選択されたVOI301の部位および方位を、特に対象となる解剖学的構造がVOI301内にあるかどうかを仮想的に解析することが可能になる。ユーザ100は、VOI301の空間的な配置に満足がいくまで、USプローブ103を臓器110の表面にわたって動かす。
VOI301の正しい配置が一旦達成されると、プローブ103を依然として所望の部位上に保持して、またはユーザ100が届く範囲内の他のインタラクション手段によって(例えば、GUI101上で確認ボタンを押すことによって、または音声命令を用いることによって)、VOI301が選択される。
VOI301のサイズは、次のパラメータ、すなわち、USプローブ103の長さ、画像深度、および予想される対象となる解剖学的構造によって確定される。例えば、肝臓のような内臓のVOI301は、典型的に、血管系の分岐、機能セグメント、腫瘍または腫瘍の集積、臓器境界、胆管および/または実質臓器を伴う。さらにまた、この構造は、臓器境界のような予想される特徴の確率的表現(ある領域内に臓器境界がある確率)であってもよい。典型的なVOI301の寸法は、およそ40mm(長さ)×80mm(幅)×90mm(奥行き)である。図3Aおよび3Bは、典型的なVOI301を示す。
VOIにおける超音波画像の取得
VOI301の選択が一旦完了すると、3Dデータ取得が開始される。ユーザが画像取得プロセスの間にイメージングのためにプローブ103をVOI301外の領域に置いた場合、GUI101を通じて聴覚的および/または視覚的に通知される。この情報は、色つきの矢印または手のような特定の記号/絵文字によって表示されてもよく、および/または、(例えば、周波数もしくは振幅変調、ビープの長さによって)音に符号化されてもよい。聴覚情報は、1つ以上のスピーカによって与えられる言葉によるユーザ100への指示を備えてもよい。
個々に取得された現在の(例えば、2D)US画像401、402は、リアルタイムでGUI101上に表示される。このように、ユーザ100は、対象となる解剖学的構造をUS画像中で視認できるかどうかをインタラクティブに、視覚的にチェックできる。視覚化は、標準的な2D超音波画像402として提供でき、3Dビュア401でも提供できる。3Dビュアは、超音波画像およびVOI301内のその部位のみを表示でき(図3Bと同様)、あるいは取得された画像を事前取得画像からの対応する3D情報と重ねることができる(図3Aと同様)。
オンライン画像品質チェック、セグメント化およびコンパウンド処理
画像取得の間に、自動的なオンライン画像品質チェックおよび解析が行われる。画像評価アルゴリズムに関する例が図5に示される。このアルゴリズムは、取得された(現在の)US画像を受け取り、画像の部位が選択されたVOI301内にあるかどうかをチェックする。画像が選択されたVOI301内になければ、次の取得された(現在の)画像が解析される。この自動プロセスは、追跡システム102およびUSプローブ103に装着された追跡センサ(単数または複数)108からの空間情報を用いる。追跡情報およびUS較正変換(すなわち、USプローブ103の位置、例えば、プローブ103に装着もしくは一体化された位置センサの位置を、プローブを用いて生成されたUS画像の位置へリンクする変換、従って、部屋固定、患者固定またはカメラの座標系でのUSプローブ103の位置を知ることは、この座標系でのUS画像の位置を知ることを意味する)から、US画像の3D空間位置が計算されて、VOI301の3D空間位置と比較される。US画像のピクセルがVOI301内に位置しなければ、US画像は、VOI301の外部にあると見做される。そうでない場合には、画像が有効であると見做され、アーチファクト除去およびセグメント化を含むさらなる処理に用いられる。アーチファクト除去プロセスは、画像における大きい黒縞(図5B)のようなUS特有のアーチファクトを検出する。これらは、USプローブ109の能動センシング・エリアと、患者110の生体組織/臓器との間の不十分な接触、または全US信号を反射する堅い構造に由来する。画像の縦線に沿ったハフ変換、ローパスフィルタ処理または強度解析のような方法を用いることによって自動的に黒縞が検出される。
アーチファクト検出プロセスと並行して、画像がセグメント化されて、アーチファクト検出が完了するまでバッファに入れられる(図5を参照)。アーチファクトが何も存在しなければ、セグメント化された画像が保持され、3D US画像/モデルにおいてコンパウンド処理される。セグメント化は、画像における対象となる構造(典型的に、血管、腫瘍、または臓器境界)を自動的に検出し、それらをオーバーレイとして2D画像404上へ表示する。新しいUS画像が3D USボリューム中へコンパウンド処理される場合、GUI101上の3D情報403が更新されて、ユーザ100に表示される。解析の結果をリアルタイムで2D画像上に表示することによって、ユーザ100は、セグメント化アルゴリズムが現在の画像上で関連情報を首尾よく検出するかどうかをインタラクティブに判定できる。最近取得されたデータを用いて3D視覚化を更新することによって、ユーザ100は、全取得プロセスに関するフィードバックをさらに得て、情報が欠落した部位があるかどうかを判断でき、対象となる解剖学的形態の十分な表現が取得されたかどうかを最終的に判定できる。
取得された画像コンテンツに関する情報に加えて、GUI101は、すべての取得画像平面も表示でき、それによって、複数の超音波画像によるVOI301の埋め込みに関する視覚的なフィードバックを提供できる。これにより、ユーザ100は、画像データが何も取得されなかった部位を理解して、超音波プローブ103をこれらの部位上にインタラクティブに配置することができる。
セグメント化に用いられるアルゴリズムは、対象となる解剖学的構造に従って選ばれる。典型的な例は、血管検出のため、および臓器表面検出のためのアルゴリズムである。最先端技術では広範囲のUSセグメント化アルゴリズムが利用可能である[16]。
利用される画像コンパウンド処理の方法は、よく知られており、次の通りピクセル最近接(PNN:pixel nearest−neighbor)、ボクセル最近接(VNN:voxel nearest−neighbor)、距離加重(DW:distance−weighted)補間、非剛体レジストレーション、動径基底関数(RBF:radial basis function)補間、および強度分布に関するレイリー(Rayleigh)モデルがあるが、それらには限定されない。これらは、非特許文献12に記載される。
情報コンテンツの定量的尺度
ユーザに提供される視覚的なフィードバックに加えて、画像取得と並行して作動するプロセスは、US画像データの自動的な定量解析を行う。かかる尺度は、画像コンテンツがさらなる処理に適することを保証し、かつユーザ100に追加のリアルタイム・フィードバックを提供する。ナビゲーション軟組織手術のためのレジストレーションの文脈における典型的な品質尺度は、超音波プローブ103を用いて走査されたVOI301のパーセンテージ(例えば、走査されたのが(where scanned)VOI中のボクセルのうちの10%)、または解剖学的データ(例えば、セグメント化された血管/腫瘍/境界の数)が検出されたボクセルの量を含む。予想される/必要とされる画像コンテンツは、事前取得ボリュメトリック画像データから知られるので、現在取得された情報コンテンツの尺度をさらなる処理に必要なデータと関連付けることができる。ナビゲーション肝臓手術の場合、システムは、次にレジストレーションに用いられる血管系の分岐を検出することを目指す。血管系の寸法(および予想される血管ピクセルの数)が術前イメージングから知られ、フィードバックループは、それゆえに、術中超音波を用いて検出された血管のパーセンテージとすることができる。術前および術中データセットの両方が同様のデータ量であれば、確固とした正確なレジストレーションに繋がると予想される。
フィードバックループ
図5は、上述のすべての構成要素を組み込んだ3D画像取得一式を示す。プロセスは、計画されたVOI301の仮想表示を用いたインタラクティブなVOI301の定義から開始され、ナビゲーション超音波プローブ103がVOI301に接続される。
VOI301が一旦定義されると、システムはループに入り、このループでは新しく取得された各画像がVOI301内の構造を描写するか、アーチファクトを何も含まないかどうかを判定するために解析される。画像がVOI301外にあるか、またはアーチファクトを含めば、アルゴリズムが画像取得へ戻る。そうでなければ、画像がセグメント化されて、コンパウンド処理され、結果として生じたデータがGUI101上でユーザ100に表示される。
GUI101上の視覚的なフィードバックおよび情報コンテンツの定量的尺度に基づいて、US取得を停止するための判定基準が評価される。画像取得を停止するための判定基準は、取得プロセスの前または間に定義され、解析されることになる臓器または組織110とともに変化する。一般に、判定基準に関する定義の3つの基本的なオプション、すなわち、(a)ユーザによる視覚的な定義、(b)取得されたUSデータに基づく静的な定義(例えば、取得された有効な画像の数、埋め込まれたボリュームのパーセンテージ、セグメント化されたボクセルのパーセンテージ)、および(c)予想される画像コンテンツに基づく動的な判定基準(例えば、術前画像データおよびVOI選択に基づいて予想される術中血管ピクセルの数の予測)がある。従って、ユーザ100または取得アルゴリズムのいずれかが、取得された画像コンテンツが所望の用途(診断、視覚化、セグメント化、レジストレーション)に対して十分か、または追加の画像を取得する必要があるかどうかを決定する。十分なデータが利用可能であれば、取得が停止され、そうでない場合には、必要な追加の画像コンテンツに関するフィードバックがユーザ100に提供される。
ユーザ100へのフィードバックは、必要とされる画像品質を得るために必要な処置(例えば、VOI301の他のエリアへのプローブの動き、解剖学的構造の探索、イメージング・パラメータにおける変更)についての視覚的または聴覚的な指示を含む。このフィードバックに基づいて、ユーザが次の画像を取得し、フィードバックループが最初から開始される。
最後に、以下では、本発明のさらなる態様が、請求項としても定式化できる、複数の項目として明記される。
項目1:3D超音波画像取得のための方法が提案され、この方法は、
−被検体(110)の事前取得3D画像(305)を提供するステップと、
−前記事前取得画像(305)をディスプレイ(101)上に表示するステップと、
−前記事前取得画像(305)における被検体(110)の対象となるボリューム(301)を選択するステップ、および超音波プローブ(103)を被検体(110)に対して相応に配置することによって、前記対象となるボリューム(301)の前記事前取得画像(305)に対する空間位置を特に調整するステップと、
−前記ディスプレイ(101)上の前記対象となるボリューム(301)の前記事前取得画像(305)に対する現在の空間位置を、特にリアルタイムで、特に視覚化するステップ、および超音波プローブ(103)により対象となるボリューム(301)において取得された現在の超音波画像(401、402)を前記ディスプレイ(101)上にリアルタイムで特に表示するステップであって、特に対象となるボリューム(301)の視覚化は、表示された事前取得3D画像(305)上にオーバーレイされる、表示するステップ、ならびに前記ディスプレイ(101)上の対象となるボリューム(301)の視覚化を前記超音波プローブ(103)の現在の空間位置を用いて特に更新するステップであって、超音波プローブ(103)のその現在の空間位置は、追跡システム(102)を用いて特に確定される、更新するステップと、
−対象となるボリューム(301)の空間位置が意図通りに選択または調整されたときに、前記対象となるボリューム(301)に前記被検体(110)の3Dモデル(403)を生成するために、前記対象となるボリューム(301)における超音波画像(401、402)の取得をトリガするステップであって、前記トリガするステップは、前記超音波プローブ(103)により、特に被検体(110)の表面上の超音波プローブ(103)の特定の動きもしくはそれを用いた明確なジェスチャにより特に行われる、トリガするステップと、
−超音波プローブ(103)を前記被検体(110)に対して対象となるボリューム(301)に沿って動かす間に、前記3Dモデル(403)を生成するために、対象となるボリューム(301)において複数の超音波画像(401、402)を前記超音波プローブ(103)により取得するステップであって、特に現在の画像(401、402)がリアルタイムで前記ディスプレイ(101)上に表示され、特に現在の画像が前記ディスプレイ上に2次元で(402)、および/または3次元で(401)表示され、前記3次元で表示される現在の超音波画像は、表示された事前取得画像(305)上に特にオーバーレイされる、取得するステップと、
−現在の超音波画像(401、402)が対象となるボリューム(301)中に少なくとも1つのピクセルを有するかどうかをチェックするステップであって、現在の画像(401、402)が対象となるボリューム(301)中にピクセルを何も有さない場合には、現在の画像(401、402)が破棄され、そうでない場合には、現在の超音波画像(401、402)がセグメント化されて、生成されることになる前記3Dモデル(403)中へコンパウンド処理され、これがリアルタイムでディスプレイ(101)上に特に表示されて、表示された事前取得画像(305)上に特にオーバーレイされ、特に新しい現在の超音波画像(401、402)が3Dモデル(403)中へコンパウンド処理される場合には、ディスプレイ(101)上に表示された3Dモデル(403)が更新される、チェックするステップと、
−前記超音波画像(401、402)の前記取得のときに生成されることになる3Dモデル(403)に関して品質尺度を確定するステップであって、前記超音波画像(401、402)の前記取得は、前記品質尺度が所定のレベルに一旦到達すると終了され、特に前記品質尺度は、
−対象となるボリューム(301)内で走査された単一超音波画像(401、402)の数、
−対象となるボリューム(301)内で取得された超音波画像(401、402)の密度、
−特定の画像特徴の数および/または分布、特に対象となるボリューム(301)におけるセグメント化された解剖学的構造の数、ならびに
−超音波画像(401、402)を走査するために必要とされた時間のうちの少なくとも1つである、確定するステップと
を備える。
項目2:対象となるボリューム(301)の位置、取得された現在の超音波画像(401、402)、および/または3Dモデル(403)を事前取得画像(305)に対してディスプレイ(101)上に特に正しく表示するために初期レジストレーションが行われ、特に初期レジストレーションは、事前取得画像(305)の座標系での複数点、特に4点を選択するステップ、追跡ツールの部屋固定もしくは患者固定座標系での対応する点を取得するために、ツールを用いて被検体(110)の前記対応する点に触れるステップ、ならびに、事前取得画像の座標系での前記点からの前記座標系と、ツールの部屋固定(もしくは患者固定)座標系でのそれらに対応する点との間のレジストレーション変換を確定するステップを伴うか、および/または、特に初期レジストレーションは、事前取得画像(305)の座標系での1点を選択するステップ、この部位において予想される超音波画像を算出するステップ、超音波プローブ(103)の部屋固定もしくは患者固定座標系で追跡される超音波プローブ(103)を用いて被検体(110)の対応する超音波画像(401、402)を取得するステップ、ならびに、予想される超音波画像および取得された超音波画像(401、402)を用いて、前記座標系の間のレジストレーション変換を確定するステップを伴う、項目1に記載の方法。
項目3:生成された3Dモデル(403)は、部屋固定もしくは患者固定座標系でのその座標が超音波プローブ(103)を追跡することにより取得される生成された3Dモデル(403)の少なくとも1つの特徴を事前取得3D画像(305)の対応する特徴と特に一致させることによって、および、部屋固定もしくは患者固定座標系での前記少なくとも1つの特徴の座標と事前取得3D画像(305)の座標系での前記対応する特徴の座標とを用いて事前取得3D画像(305)の座標系と超音波プローブ(103)の部屋固定もしくは患者固定座標系との間のレジストレーション変換を特に確定することによって、事前取得の、特に術前取得の3D画像(305)へのレジストレーションが行われる、項目1または2に記載の方法。
項目4:アーチファクト検出は、破棄されない現在の超音波画像(401、402)に対して、少なくとも1つのフィルタ・アルゴリズム、特にハウ変換および/またはローパスフィルタ処理を特に用いて実施され、特に現在の超音波画像においてアーチファクトが検出された場合には、この現在の超音波画像が破棄される、項目1〜3のいずれか1項に記載の方法。
項目5:個々の現在の超音波画像(401、402)の前記セグメント化は、対象となるボリュームにおける被検体の特定の解剖学的構造、特に血管、腫瘍、臓器境界、胆管、および/または他の解剖学的形態のセグメント化を提供する少なくとも1つの決定性アルゴリズムを用いて実施される、項目1〜4のいずれか1項に記載の方法。
項目6:個々の現在の超音波画像(401、402)の前記セグメント化は、特に臓器境界、実質臓器、および/または血管系のような、画像特徴の確率的評価を用いて実施される、項目1〜5のいずれか1項に記載の方法。
項目7:前記アーチファクト検出および前記セグメント化は、並行して実施され、特に前記アーチファクト検出は、現在の超音波画像(401、402)の個々のコンテンツまたは前記現在の超音波の検出されたコンテンツを直接に用いる、項目1〜6のいずれか1項に記載の方法。
項目8:対象となるボリューム(301)の空間位置の前記調整のために超音波プローブ(103)を配置すると、および/または、複数の超音波画像(401、402)の前記取得の間に超音波プローブ(103)を動かすと、超音波プローブ(103)の配置および/または移動に関してユーザ(100)を補助および/または誘導するために、誘導情報が前記ディスプレイ(101)上に表示されるか、および/または、ユーザ(100)に、特に言葉で、聴覚的に提供される、項目1〜7のいずれか1項に記載の方法。
項目9:超音波プローブ(103)は、光学的、電気機械的もしくは機械的測定原理に基づく座標測定システムを用いて絶対空間画像座標を導出することによって、および/または、後続画像における画像特徴の相対的なシフトを解析することにより相対的な画像座標を導出することによって追跡される、項目1〜8のいずれか1項に記載の方法。
項目10:前記誘導情報は、前記ディスプレイ(101)上の少なくとも1つまたはいくつかの立方グリッドの仮想的な視覚化を備え、特に特定の色が定義された組織構造および/または解剖学的構造を表す、項目8に記載の方法。
項目11:前記セグメント化のときに、現在の超音波画像(401、402)に欠落した情報は、被検体(110)についてのアプリオリな情報、特に被検体、被検体の部分または病変、および/または他の既知の解剖学的構造における血管構造の分布、対象となる解剖学的構造の幾何学形状についてのコホート特有情報および/または統計情報に基づいて補間される、項目1〜10のいずれか1項に記載の方法。
項目12:生成された3Dモデル(403)は、特に事前に取得されるか、または動的にリフレッシュされた情報コンテンツに関して、特に均一性および/または解像度のようなパラメータに関して、3Dモデル生成の進捗の現在のレベルを表示するために、事前取得3D画像(305)とアラインメントされる、項目1〜11のいずれか1項に記載の方法。
項目13:ディスプレイ(101)上の3Dモデル(403)の視覚化は、現在検出されて解析される解剖学的構造を特に示す、ユーザ定義された静的または動的色マッピングを用いる、項目1〜12のいずれか1項に記載の方法。
項目14:事前取得3D画像(305)は、超音波画像、コンピュータ断層撮影画像、または磁気共鳴画像である、項目1〜13のいずれか1項に記載の方法。
項目15:項目1〜14のいずれか1項による方法を実施するためのシステムであって、前記システムは、
−超音波プローブ(103)の制御のための制御ユニット(107)、コンピュータ(106)、および情報を表示するために前記コンピュータ(106)に接続されたディスプレイ(101)を特に備えるデータ処理システム(105)に接続された前記超音波プローブ(103)、および
−超音波プローブ(103)の空間位置を追跡するための追跡システム(102)であって、超音波プローブ(103)の空間位置を検出するために超音波プローブ(103)の上または中に配列された1つまたはいくつかの位置センサ(108)を備える、追跡システム(102)
を備え、
−データ処理システム(105)は、超音波プローブ(103)を用いて取得された被検体(110)の現在の超音波画像(401、402)が、被検体(110)の事前取得3D画像の事前に選択された対象となるボリューム(301)中に少なくとも1つのピクセルを有するかどうかを自動的にチェックするように設計され、現在の画像(401、402)が対象となるボリューム(301)中にピクセルを何も有さない場合には、データ処理システム(105)は、現在の画像(401、402)を破棄するように設計され、そうでない場合には、データ処理システム(105)は、現在の超音波画像(401、402)を自動的にセグメント化して、それを3Dモデル(403)中へコンパウンド処理するように設計され、データ処理システム(105)は、特に超音波プローブ(103)を用いた超音波画像(401、402)の取得のときに、生成されることになる3Dモデル(403)に関する品質尺度を確定するように設計され、データ処理システム(105)は、前記品質尺度が所定のレベルに一旦到達すると、3Dモデルに関する超音波画像の取得を終了するように設計され、特に前記品質尺度は、対象となるボリューム(301)内で走査された単一超音波画像(401、402)の数、対象となるボリューム(301)内で取得された超音波画像(401、402)の密度、特定の画像特徴の数および/または分布、特に対象となるボリューム(301)におけるセグメント化された解剖学的構造の数、ならびに超音波画像(401、402)の取得のために必要とされた時間のうちの少なくとも1つである、
システム。
参考
[13]S.T.ミアーズ(MEairs)、J.E.N.S.バイアー(B.Eyer)およびM.I.ヘネリッチ(HEnnerici)、「原著論文−脳血管用途のための不規則にサンプリングされた3および4次元超音波データの再構成および視覚化(RECONSTRUCTION AND VISUALIZATION OF IRREGULARLY SAMPLED THREE− AND FOUR−DIMENSIONAL ULTRASOUND DATA FOR CEREBROVASCULAR APPLICATIONS)」、vol.26、no.2、pp.263−272、2000年。
[14]C.O.ローラ(Laura)、K.ドレクスラー(Drechsler)、M.エルト(Erdt)、M.カイル(Keil)、M.ノル(Noll)、S.D.ベニ(Beni)、G.サカス(Sakas)およびL.ソルビアッティ(Solbiati)、「肝腫瘍切除のために(for Liver Tumor Ablation)」、pp.133−140、2012年。
[15]C.アグ(Ag)、「画像誘導された肝臓手術(Image guided liver surgery)」、International Journal of Computer Assisted Radiology and Surgery、vol7、no.S1、pp.141−145、2012年5月。
[16]J.A.ノーブル(Noble)およびD.ブーケルイ(Boukerroui)、「超音波画像セグメント化:調査(Ultrasound image segmentation:a survey)」、IEEE transactions on medical imaging、vol.25、no.8、pp.987−1010、2006年8月。

Claims (30)

  1. 3D超音波画像取得および事前取得3D画像への3Dモデルのレジストレーションのための方法であって、
    −被検体(110)の事前取得3D画像(305)を提供するステップと、
    −前記事前取得画像(305)をディスプレイ(101)上に表示するステップと、
    −前記事前取得画像(305)における前記被検体(110)の対象となるボリューム(301)を選択するステップと、
    −前記対象となるボリューム(301)の空間位置が意図通りに選択または調整された後に、前記対象となるボリューム(301)において前記被検体(110)の3Dモデル(403)を生成するために、前記対象となるボリューム(301)における超音波画像(401、402)の前記取得をトリガするステップと、
    −前記超音波プローブ(103)を前記被検体(110)に対して前記対象となるボリューム(301)に沿って動かす間に、前記対象となるボリューム(301)において前記超音波プローブ(103)によって、前記3Dモデル(403)を生成するための複数の超音波画像(401、402)を取得するステップと、
    −現在の前記超音波画像(401、402)が前記対象となるボリューム(301)中に少なくとも1つのピクセルを有するかどうかをチェックするステップであって、前記現在の超音波画像(401、402)が前記対象となるボリューム(301)中にピクセルを何も有さない場合には、前記現在の画像(401、402)が破棄され、そうでない場合には、前記現在の超音波画像(401、402)がセグメント化されて、生成されることになる前記3Dモデル(403)中へコンパウンド処理される、チェックするステップと、
    −前記超音波画像(401、402)の前記取得に際して生成されることになる前記3Dモデル(403)に関する品質尺度を確定するステップであって、前記超音波画像(401、402)の前記取得は、前記品質尺度が一旦満たされるか、または所定のレベルに到達すると終了される、確定するステップと、
    −前記事前取得3D画像(305)への前記生成された3Dモデル(403)のレジストレーションを行うステップと、
    を含む、方法。
  2. 前記提供される事前取得3D画像は、第1のセッションにおいて取得され、前記複数の超音波画像は、後で実施される別の第2のセッションにおいて取得される、請求項1に記載の方法。
  3. 前記提供される事前取得3D画像は、超音波以外のイメージング方法を用いて取得される、請求項1または2に記載の方法。
  4. 前記品質尺度は、前記事前取得3D画像からの患者特有のデータに基づく判定基準である、請求項1〜3のいずれか1項に記載の方法。
  5. 特に前記品質尺度は、
    −前記対象となるボリューム(301)内で走査された単一超音波画像(401、402)の数、
    −前記対象となるボリューム(301)内の前記取得された超音波画像(401、402)の密度、
    −画像特徴の数および/または分布、特に前記対象となるボリューム(301)におけるセグメント化された解剖学的構造の数、
    −前記超音波画像(401、402)を走査するための必要とされた時間、
    のうちの少なくとも1つである、請求項1〜4のいずれか1項に記載の方法。
  6. 前記数および/または分布は、前記対象となるボリューム(301)における患者特有の解剖学的形態に依存して選択される、請求項5に記載の方法。
  7. 前記複数の超音波画像を取得するユーザは、前記事前取得3D画像(305)への前記生成された3Dモデルのレジストレーションを行うのに十分なデータセットを特に提供するために、前記事前取得3D画像に基づいて画像特徴が予想される部位へ前記超音波プローブ(103)を動かすように誘導される、請求項1〜6のいずれか1項に記載の方法。
  8. 前記対象となるボリューム(301)の前記位置、前記取得された現在の超音波画像(401、402)、および/または前記3Dモデル(403)を前記事前取得画像(305)に対して前記ディスプレイ(101)上に正しく表示するために、初期レジストレーションが行われ、前記初期レジストレーションは、前記事前取得画像(305)の座標系での1点を選択するステップ、この部位において予想される超音波画像を算出するステップ、前記超音波プローブ(103)の部屋固定もしくは患者固定座標系で追跡される前記超音波プローブ(103)を用いて前記被検体(110)の対応する超音波画像(401、402)を取得するステップ、ならびに前記予想される超音波画像および前記取得された超音波画像(401、402)を用いて、前記座標系の間のレジストレーション変換を確定するステップ、を含むことを特徴とする、請求項1〜7のいずれか1項に記載の方法。
  9. 前記生成された3Dモデル(403)は、前記部屋固定もしくは患者固定座標系でのその座標が前記超音波プローブ(103)を追跡することにより取得される、前記生成された3Dモデル(403)の少なくとも1つの特徴を、前記事前取得3D画像(305)の対応する特徴と一致させることによって、ならびに、前記部屋固定もしくは患者固定座標系での前記少なくとも1つの特徴の前記座標および前記事前取得3D画像(305)の前記座標系での前記対応する特徴の前記座標を用いて、前記事前取得3D画像(305)の前記座標系と、前記超音波プローブ(103)の前記部屋固定もしくは患者固定座標系との間のレジストレーション変換を特に確定することによって、前記事前取得の、特に術前取得の3D画像(305)へのレジストレーションが行われることを特徴とする、請求項1〜8のいずれか1項に記載の方法。
  10. 前記トリガするステップは、前記超音波プローブ(103)により、特に前記被検体(110)の表面上の前記超音波プローブ(103)の特定の動きまたはそれを用いた明確なジェスチャにより行われる、請求項1〜9のいずれか1項に記載の方法。
  11. 前記現在の画像(401、402)は、前記ディスプレイ(101)上にリアルタイムで表示され、特に前記現在の画像は、前記ディスプレイ上に2次元で(402)、および/または3次元で(401)表示され、前記3次元で表示された現在の超音波画像は、前記表示された事前取得画像(305)上に特にオーバーレイされるか、または前記事前取得3D画像のコンテンツは、前記現在の2次元画像上に特にオーバーレイされる、請求項1〜10のいずれか1項に記載の方法。
  12. 前記事前取得3D画像(305)への前記3Dモデル(403)のレジストレーションを行うために用いられるか、または用いられることになる前記3Dモデルの特徴は、前記ディスプレイ(101)上にリアルタイムで表示される、請求項1〜11のいずれか1項に記載の方法。
  13. 前記3Dモデルは、前記ディスプレイ(101)上にリアルタイムで表示され、前記表示された事前取得画像(305)上に特にオーバーレイされ、特に新しい現在の画像(401、402)が前記3Dモデル(403)中へコンパウンド処理される場合には、前記ディスプレイ(101)上の前記表示された3Dモデル(403)が更新される、請求項1〜12のいずれか1項に記載の方法。
  14. アーチファクト検出は、破棄されない現在の超音波画像(401、402)に対して実施され、特に前記現在の超音波画像においてアーチファクトが検出された場合には、この現在の超音波画像が破棄され、特にアーチファクト確率は、前記事前取得3D画像の患者特有の特徴に基づいて算出されることを特徴とする、請求項1〜13のいずれか1項に記載の方法。
  15. 前記個々の現在の超音波画像(401、402)の前記セグメント化は、前記対象となるボリュームにおける前記被検体の特定の解剖学的構造、特に血管、腫瘍、臓器境界、胆管、および/または他の解剖学的形態のセグメント化を提供する少なくとも1つのアルゴリズムを用いて実施され、特に前記アルゴリズムは、前記事前取得3D画像の患者特有の特徴に依存して選択されることを特徴とする、請求項1〜14のいずれか1項に記載の方法。
  16. 前記個々の現在の超音波画像(401、402)の前記セグメント化は、特に臓器境界、実質臓器、および/または血管系のような、画像特徴の確率的評価を用いて実施され、前記確率的評価は、前記事前取得3D画像の患者特有の特徴を用いることを特徴とする、請求項1〜15のいずれか1項に記載の方法。
  17. 前記アーチファクト検出および前記セグメント化は、並行して実施され、特に前記アーチファクト検出は、前記現在の超音波画像(401、402)の前記個々のコンテンツまたは前記現在の超音波の1つの検出されたコンテンツを直接に用い、特に前記それぞれのアルゴリズムは、互いに繰り返して相互作用することを特徴とする、請求項14〜16のいずれか1項に記載の方法。
  18. 前記超音波プローブ(103)の位置決めおよび/または移動に関して前記ユーザ(100)を補助および/または誘導するために、誘導情報が前記ディスプレイ(101)上に表示されるか、および/または、前記ユーザ(100)に、特に言葉で、聴覚的に提供され、特に前記誘導情報は、前記事前取得3D画像および前記3Dモデルの取得された特徴に基づくフィードバックを通じて提供されることを特徴とする、請求項1〜17のいずれか1項に記載の方法。
  19. 前記超音波プローブ(103)は、光学的、電気機械的もしくは機械的測定原理に基づく座標測定システムを用いて絶対空間画像座標を導出することによって、および/または、後続画像における画像特徴の相対的なシフトを解析することにより相対的な画像座標を導出することによって、追跡されることを特徴とする、請求項1〜18のいずれか1項に記載の方法。
  20. 前記事前取得画像(305)における前記被検体(110)の対象となるボリューム(301)を選択した後に、前記事前取得画像(305)に対する前記対象となるボリューム(301)の前記空間位置は、前記被検体(110)に対して超音波プローブ(103)を相応に配置することによって調整される、請求項1〜19のいずれか1項に記載の方法。
  21. 前記事前取得画像(305)に対する前記ディスプレイ(101)上の前記対象となるボリューム(301)の前記現在の空間位置は、特にリアルタイムで、視覚化される、請求項1〜20のいずれか1項に記載の方法。
  22. 前記対象となるボリューム(301)の前記視覚化は、前記表示された事前取得画像(305)上にオーバーレイされる、請求項21に記載の方法。
  23. 前記ディスプレイ(101)上の前記対象となるボリューム(301)の前記視覚化は、前記超音波プローブ(103)の前記現在の空間位置を用いて更新され、前記超音波プローブ(103)のその現在の空間位置は、追跡システム(102)を用いて特に確定される、請求項21または22に記載の方法。
  24. 前記誘導情報は、前記ディスプレイ(101)上の少なくとも1つまたはいくつかの立方グリッドの仮想的な視覚化を含み、その1つまたは複数のグリッドは、前記事前取得3D画像上に表示され、特に特定の色が定義された組織構造および/または解剖学的構造を表すことを特徴とする、請求項18に記載の方法。
  25. 特に前記セグメント化に際して、前記現在の超音波画像(401、402)に欠落した情報は、前記被検体(110)についてのアプリオリな情報、または特に前記事前取得3D画像からの患者特有の特徴を用いて補間されることを特徴とする、請求項1〜24のいずれか1項に記載の方法。
  26. 前記セグメント化に際して、前記現在の超音波画像(401、402)に欠落した情報は、前記被検体、被検体の部分または病変、および/または他の既知の解剖学的構造における血管構造の分布、対象となる前記解剖学的構造の幾何学形状についてのコホート特有情報および/または統計情報を用いて補間される、請求項1〜25のいずれか1項に記載の方法。
  27. 前記生成された3Dモデル(403)は、特に事前に取得されるか、または動的にリフレッシュされた情報コンテンツに関して、特に均一性および/または解像度のようなパラメータに関して、前記3Dモデル生成の進捗の前記現在のレベルを表示するために、特に超音波以外のイメージング方法に基づく、かつ特に前記3Dモデルと比較して異なる座標系に基づく事前取得3D画像(305)とアラインメントされることを特徴とする、請求項1〜26のいずれか1項に記載の方法。
  28. 記ディスプレイ(101)上の前記3Dモデル(403)の前記視覚化は、現在検出されて解析される解剖学的構造を特に示すか、または前記3d画像のあるエリアにおける情報密度および予期される特徴を示す、静的または動的色マッピングを用いることを特徴とする、請求項1〜27のいずれか1項に記載の方法。
  29. 前記事前取得3D画像(305)は、コンピュータ断層撮影画像、または磁気共鳴画像である、請求項1〜28のいずれか1項に記載の方法。
  30. 請求項1〜29のいずれか1項による方法を実施するためのシステムであって、
    −超音波プローブ(103)の制御のための制御ユニット(107)、コンピュータ(106)、および情報を表示するための前記コンピュータ(106)に接続されたディスプレイ(101)を特に備えるデータ処理システム(105)に接続された前記超音波プローブ(103)、および、
    −前記超音波プローブ(103)の前記空間位置を追跡するための追跡システム(102)であって、前記追跡システム(102)は、前記超音波プローブ(103)の前記空間位置を検出するための、前記超音波プローブ(103)の上または中に配列された1つまたはいくつかの位置センサ(108)を備える、追跡システム(102)、
    を備え、
    −前記データ処理システム(105)は、前記超音波プローブ(103)を用いて取得された被検体(110)の現在の超音波画像(401、402)が、前記被検体(110)の事前取得3D画像の事前に選択された対象となるボリューム(301)中に少なくともピクセルを有するかどうかを自動的にチェックするように設計され、前記現在の画像(401、402)が前記対象となるボリューム(301)中にピクセルを何も有さない場合には、前記データ処理システム(105)は、前記現在の画像(401、402)を破棄するように設計され、そうでない場合には、前記データ処理システム(105)は、前記現在の超音波画像(401、402)を自動的にセグメント化して、それを3Dモデル(403)中へコンパウンド処理するように設計され、前記データ処理システム(105)は、特に前記超音波プローブ(103)を用いた超音波画像(401、402)の取得に際して、生成されることになる前記3Dモデル(403)に関する品質尺度を確定するように設計され、前記データ処理システム(105)は、前記品質尺度が所定のレベルまたは動的に定義されたレベルに一旦到達すると、前記3Dモデルに関する超音波画像の前記取得を終了するように設計され、特に前記品質尺度は、前記対象となるボリューム(301)内で走査された単一超音波画像(401、402)の数、前記対象となるボリューム(301)内の前記取得された超音波画像(401、402)の密度、特定の画像特徴の数および/または分布、特に前記対象となるボリューム(301)におけるセグメント化された解剖学的構造の数、または特に予想される特徴の患者特有の数、ならびに、前記超音波画像(401、402)の前記取得のために必要とされた時間、のうちの少なくとも1つである、
    システム。
JP2016516155A 2013-05-28 2014-05-28 超音波画像の3d取得のためのシステムおよび方法 Expired - Fee Related JP6453857B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP20130169579 EP2807978A1 (en) 2013-05-28 2013-05-28 Method and system for 3D acquisition of ultrasound images
EP13169579.3 2013-05-28
PCT/EP2014/061106 WO2014191479A1 (en) 2013-05-28 2014-05-28 Method and system for 3d acquisition of ultrasound images

Publications (2)

Publication Number Publication Date
JP2016522725A JP2016522725A (ja) 2016-08-04
JP6453857B2 true JP6453857B2 (ja) 2019-01-16

Family

ID=48577505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016516155A Expired - Fee Related JP6453857B2 (ja) 2013-05-28 2014-05-28 超音波画像の3d取得のためのシステムおよび方法

Country Status (5)

Country Link
US (1) US20160113632A1 (ja)
EP (2) EP2807978A1 (ja)
JP (1) JP6453857B2 (ja)
CN (1) CN105407811B (ja)
WO (1) WO2014191479A1 (ja)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6835587B2 (ja) * 2014-02-19 2021-02-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 医用4dイメージングにおける動き適応型可視化
JP6623166B2 (ja) * 2014-02-28 2019-12-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波ガイド処置に対するゾーン視覚化
US20150327841A1 (en) * 2014-05-13 2015-11-19 Kabushiki Kaisha Toshiba Tracking in ultrasound for imaging and user interface
US11419583B2 (en) * 2014-05-16 2022-08-23 Koninklijke Philips N.V. Reconstruction-free automatic multi-modality ultrasound registration
JP6670257B2 (ja) * 2014-06-18 2020-03-18 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 超音波撮像装置
WO2015164886A2 (en) 2014-08-05 2015-10-29 Waag Robert C Device, system, and method for hemispheric breast imaging
KR20160046670A (ko) * 2014-10-21 2016-04-29 삼성전자주식회사 영상 진단 보조 장치 및 방법
US10977787B2 (en) * 2014-12-09 2021-04-13 Koninklijke Philips N.V. Feedback for multi-modality auto-registration
CN107548294B (zh) * 2015-03-31 2021-11-09 皇家飞利浦有限公司 医学成像装置
US10335115B2 (en) 2015-09-03 2019-07-02 Siemens Healthcare Gmbh Multi-view, multi-source registration of moving anatomies and devices
US11045170B2 (en) * 2015-10-28 2021-06-29 General Electric Company Method and system for acquisition, enhanced visualization, and selection of a representative plane of a thin slice ultrasound image volume
EP3393366A1 (en) * 2015-12-21 2018-10-31 Koninklijke Philips N.V. Ultrasound imaging apparatus and ultrasound imaging method for inspecting a volume of subject
US11410348B2 (en) * 2016-04-26 2022-08-09 Telefield Medical Imaging Limited Imaging method and device
JP6689666B2 (ja) * 2016-05-12 2020-04-28 株式会社日立製作所 超音波撮像装置
US10905402B2 (en) 2016-07-27 2021-02-02 Canon Medical Systems Corporation Diagnostic guidance systems and methods
US10403053B2 (en) * 2016-11-15 2019-09-03 Biosense Webster (Israel) Ltd. Marking sparse areas on maps
WO2018099810A1 (en) * 2016-11-29 2018-06-07 Koninklijke Philips N.V. Ultrasound imaging system and method
FR3059541B1 (fr) * 2016-12-07 2021-05-07 Bay Labs Inc Navigation guidee d'une sonde ultrason
US11628014B2 (en) * 2016-12-20 2023-04-18 Koninklijke Philips N.V. Navigation platform for a medical device, particularly an intracardiac catheter
WO2018140415A1 (en) 2017-01-24 2018-08-02 Tietronix Software, Inc. System and method for three-dimensional augmented reality guidance for use of medical equipment
EP3422048A1 (en) * 2017-06-26 2019-01-02 Koninklijke Philips N.V. Ultrasound imaging method and system
WO2019010232A1 (en) 2017-07-07 2019-01-10 Canon U.S.A. Inc. MULTI-PROBE ABLATION PLANNING
WO2019048482A1 (en) * 2017-09-07 2019-03-14 Piur Imaging Gmbh APPARATUS AND METHOD FOR DETERMINING THE MOTION OF AN ULTRASONIC PROBE
CN111200973B (zh) 2017-10-11 2023-12-22 皇家飞利浦有限公司 基于智能超声的生育力监测
CN107854177A (zh) * 2017-11-18 2018-03-30 上海交通大学医学院附属第九人民医院 一种基于光学定位配准的超声与ct/mr图像融合手术导航***及其方法
WO2019108867A1 (en) * 2017-12-01 2019-06-06 Sonocine, Inc. System and method for ultrasonic tissue screening
US20190246946A1 (en) * 2018-02-15 2019-08-15 Covidien Lp 3d reconstruction and guidance based on combined endobronchial ultrasound and magnetic tracking
EP3549529A1 (en) * 2018-04-05 2019-10-09 Koninklijke Philips N.V. Ultrasound imaging system and method
WO2019208767A1 (ja) * 2018-04-27 2019-10-31 富士フイルム株式会社 超音波システムおよび超音波システムの制御方法
US10685439B2 (en) 2018-06-27 2020-06-16 General Electric Company Imaging system and method providing scalable resolution in multi-dimensional image data
CN112423669A (zh) * 2018-07-18 2021-02-26 皇家飞利浦有限公司 手持式医学扫描设备中的采集工作流程和状态指标
WO2020037668A1 (zh) * 2018-08-24 2020-02-27 深圳迈瑞生物医疗电子股份有限公司 超声图像处理设备及方法及计算机可读存储介质
CN108986902A (zh) * 2018-08-28 2018-12-11 飞依诺科技(苏州)有限公司 四维扫查设备的扫查方法、装置及存储介质
JP7462624B2 (ja) * 2018-10-16 2024-04-05 コーニンクレッカ フィリップス エヌ ヴェ 深層学習に基づく超音波撮像ガイダンス並びに関連するデバイス、システム、及び方法
US20220015730A1 (en) * 2018-11-28 2022-01-20 Koninklijke Philips N.V. Most relevant x-ray image selection for hemodynamic simulation
CN111281424A (zh) * 2018-12-07 2020-06-16 深圳迈瑞生物医疗电子股份有限公司 一种超声成像范围的调节方法及相关设备
US20200245970A1 (en) * 2019-01-31 2020-08-06 Bay Labs, Inc. Prescriptive guidance for ultrasound diagnostics
EP3711677A1 (en) 2019-03-18 2020-09-23 Koninklijke Philips N.V. Methods and systems for acquiring composite 3d ultrasound images
DE102019203192A1 (de) * 2019-03-08 2020-09-10 Siemens Healthcare Gmbh Erzeugung eines digitalen Zwillings für medizinische Untersuchungen
CN111685793A (zh) * 2019-03-15 2020-09-22 通用电气公司 用于对成像***参数进行基于图像的控制的装置和方法
US20220254017A1 (en) * 2019-05-28 2022-08-11 Verily Life Sciences Llc Systems and methods for video-based positioning and navigation in gastroenterological procedures
CN113950293A (zh) * 2019-05-31 2022-01-18 皇家飞利浦有限公司 用于引导对颅部超声数据的采集的方法和***
GB201910756D0 (en) * 2019-07-26 2019-09-11 Ucl Business Plc Ultrasound registration
US11844654B2 (en) 2019-08-19 2023-12-19 Caption Health, Inc. Mid-procedure view change for ultrasound diagnostics
JP7362354B2 (ja) * 2019-08-26 2023-10-17 キヤノン株式会社 情報処理装置、検査システム及び情報処理方法
US11647982B2 (en) * 2019-09-18 2023-05-16 International Business Machines Corporation Instrument utilization management
CN111449684B (zh) * 2020-04-09 2023-05-05 济南康硕生物技术有限公司 心脏超声标准扫查切面快速获取方法及***
CN111445769B (zh) * 2020-05-14 2022-04-19 上海深至信息科技有限公司 一种基于小程序的超声教学***
CN112155596B (zh) * 2020-10-10 2023-04-07 达闼机器人股份有限公司 超声波诊断设备、超声波图像的生成方法及存储介质
WO2022144177A2 (en) * 2020-12-30 2022-07-07 Koninklijke Philips N.V. Ultrasound image acquisition, tracking and review
JP2024515635A (ja) * 2021-04-13 2024-04-10 シェバ インパクト リミテッド 超音波及びカメラ画像から3d画像を再構成するためのシステム及び方法
EP4094695A1 (en) * 2021-05-28 2022-11-30 Koninklijke Philips N.V. Ultrasound imaging system
CN113217345B (zh) * 2021-06-17 2023-02-03 中船重工鹏力(南京)智能装备***有限公司 基于3d视觉技术的压缩机注油管自动检测***及方法
CN113499099A (zh) * 2021-07-21 2021-10-15 上海市同仁医院 一种颈动脉超声自动扫查及斑块识别***及方法
CN115592789B (zh) * 2022-11-24 2023-03-17 深圳市星耀福实业有限公司 一种alc板材静养温控方法、装置以及***
CN116531089B (zh) * 2023-07-06 2023-10-20 中国人民解放军中部战区总医院 基于图像增强的阻滞麻醉超声引导数据处理方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5645066A (en) 1996-04-26 1997-07-08 Advanced Technology Laboratories, Inc. Medical ultrasonic diagnostic imaging system with scanning guide for three dimensional imaging
US6012458A (en) 1998-03-20 2000-01-11 Mo; Larry Y. L. Method and apparatus for tracking scan plane motion in free-hand three-dimensional ultrasound scanning using adaptive speckle correlation
US7672491B2 (en) * 2004-03-23 2010-03-02 Siemens Medical Solutions Usa, Inc. Systems and methods providing automated decision support and medical imaging
JP2006246974A (ja) * 2005-03-08 2006-09-21 Hitachi Medical Corp リファレンス像表示機能を有する超音波診断装置
JP4699062B2 (ja) * 2005-03-29 2011-06-08 株式会社日立メディコ 超音波装置
EP1863377A4 (en) * 2005-04-01 2010-11-24 Visualsonics Inc SYSTEM AND METHOD FOR 3D VISUALIZATION OF ULTRASOUND VASCULAR STRUCTURES
US20070016016A1 (en) 2005-05-31 2007-01-18 Gabriel Haras Interactive user assistant for imaging processes
US7831076B2 (en) 2006-12-08 2010-11-09 Biosense Webster, Inc. Coloring electroanatomical maps to indicate ultrasound data acquisition
US7925068B2 (en) 2007-02-01 2011-04-12 General Electric Company Method and apparatus for forming a guide image for an ultrasound image scanner
JP5394622B2 (ja) 2007-07-31 2014-01-22 オリンパスメディカルシステムズ株式会社 医用ガイドシステム
JP2009247739A (ja) * 2008-04-09 2009-10-29 Toshiba Corp 医用画像処理表示装置、そのコンピュータ処理プログラム及び超音波診断装置。
CN101474083A (zh) * 2009-01-15 2009-07-08 西安交通大学 血管力学特性超分辨成像与多参数检测的***与方法
US8355554B2 (en) * 2009-04-14 2013-01-15 Sonosite, Inc. Systems and methods for adaptive volume imaging
US8556815B2 (en) * 2009-05-20 2013-10-15 Laurent Pelissier Freehand ultrasound imaging systems and methods for guiding fine elongate instruments
JP5395538B2 (ja) * 2009-06-30 2014-01-22 株式会社東芝 超音波診断装置及び画像データ表示用制御プログラム
US8900146B2 (en) * 2009-07-27 2014-12-02 The Hong Kong Polytechnic University Three-dimensional (3D) ultrasound imaging system for assessing scoliosis
US20120065510A1 (en) 2010-09-09 2012-03-15 General Electric Company Ultrasound system and method for calculating quality-of-fit
US20120108965A1 (en) 2010-10-27 2012-05-03 Siemens Medical Solutions Usa, Inc. Facilitating Desired Transducer Manipulation for Medical Diagnostics and Compensating for Undesired Motion
WO2012073164A1 (en) * 2010-12-03 2012-06-07 Koninklijke Philips Electronics N.V. Device and method for ultrasound imaging
US8744211B2 (en) * 2011-08-31 2014-06-03 Analogic Corporation Multi-modality image acquisition
WO2013055611A1 (en) * 2011-10-10 2013-04-18 Tractus Corporation Method, apparatus and system for complete examination of tissue with hand-held imaging devices
CN102982314B (zh) * 2012-11-05 2016-05-25 深圳市恩普电子技术有限公司 一种血管内外膜识别、描记和测量的方法

Also Published As

Publication number Publication date
EP3003161B1 (en) 2022-01-12
CN105407811B (zh) 2020-01-10
CN105407811A (zh) 2016-03-16
WO2014191479A1 (en) 2014-12-04
EP3003161A1 (en) 2016-04-13
JP2016522725A (ja) 2016-08-04
US20160113632A1 (en) 2016-04-28
EP2807978A1 (en) 2014-12-03

Similar Documents

Publication Publication Date Title
JP6453857B2 (ja) 超音波画像の3d取得のためのシステムおよび方法
CN109069131B (zh) 用于乳腺组织成像的超声***和方法
US10912536B2 (en) Ultrasound system and method
JP4490442B2 (ja) 手術中の2次元画像および手術前の3次元画像をアフィン重ね合わせするための方法およびシステム
US20190066298A1 (en) System for monitoring lesion size trends and methods of operation thereof
JP6085366B2 (ja) 画像誘導手順用の超音波撮像システム及びその作動方法
JP6430498B2 (ja) 超音波剪断波エラストグラフィ測定のマッピングのためのシステムおよび方法
JP5530592B2 (ja) イメージング・パラメータの記憶法
US11653897B2 (en) Ultrasonic diagnostic apparatus, scan support method, and medical image processing apparatus
EP3463098B1 (en) Medical ultrasound image processing device
JP2014161734A (ja) 医療画像を整合する方法及びその装置
KR20170032238A (ko) 수술 부위 내 프로브 위치를 판단하는 방법 및 시스템
KR20150106779A (ko) 대상체에 대한 복수의 상이한 영상들을 디스플레이하는 방법 및 장치
US10952705B2 (en) Method and system for creating and utilizing a patient-specific organ model from ultrasound image data
JP2019024925A (ja) 医用撮像装置及び画像処理方法
US9990725B2 (en) Medical image processing apparatus and medical image registration method using virtual reference point for registering images
JP6833533B2 (ja) 超音波診断装置および超音波診断支援プログラム
KR102643899B1 (ko) 3차원 초음파 영상을 사용한 복부 대동맥류 정량 분석 시스템 및 방법
JP6623166B2 (ja) 超音波ガイド処置に対するゾーン視覚化
US20200305837A1 (en) System and method for guided ultrasound imaging
US10140714B2 (en) Systems for monitoring lesion size trends and methods of operation thereof
US20170347992A1 (en) Automated region of interest placement
JP2011530366A (ja) 超音波画像化
JP2021531122A (ja) 異方性組織の誘導せん断波エラストグラフィのための超音波システム及び方法
JP7033692B6 (ja) スマート剪断波エラストグラフィのための超音波システムと方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181022

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181213

R150 Certificate of patent or registration of utility model

Ref document number: 6453857

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees