JP2019505271A - 投影データセットの提供 - Google Patents

投影データセットの提供 Download PDF

Info

Publication number
JP2019505271A
JP2019505271A JP2018532308A JP2018532308A JP2019505271A JP 2019505271 A JP2019505271 A JP 2019505271A JP 2018532308 A JP2018532308 A JP 2018532308A JP 2018532308 A JP2018532308 A JP 2018532308A JP 2019505271 A JP2019505271 A JP 2019505271A
Authority
JP
Japan
Prior art keywords
subject
data set
image
processing unit
representing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018532308A
Other languages
English (en)
Other versions
JP6960921B2 (ja
Inventor
ミカエル グラス
ミカエル グラス
ダーク シェーファー
ダーク シェーファー
ティルクマラン ザンガラジ カナガサバパティ
ティルクマラン ザンガラジ カナガサバパティ
ベルナルドス ヘンドリクス ウィルヘルムス ヘンドリクス
ベルナルドス ヘンドリクス ウィルヘルムス ヘンドリクス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2019505271A publication Critical patent/JP2019505271A/ja
Application granted granted Critical
Publication of JP6960921B2 publication Critical patent/JP6960921B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00681Aspects not otherwise provided for
    • A61B2017/00694Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body
    • A61B2017/00699Aspects not otherwise provided for with means correcting for movement of or for synchronisation with the body correcting for movement caused by respiration, e.g. by triggering
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/366Correlation of different images or relation of image positions in respect to the body using projection of images directly onto the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Quality & Reliability (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

本発明は、案内画像を提供するための投影データを提供することに関連する。患者のその時点の運動に対して、また具体的には患者のその時点の呼吸運動状態に対して、より良好に相互に関連付けるための補正される案内画像のベースを少なくとも提供することができるようにするために、患者の体表面上に投影されることになる患者の解剖学的構造の案内画像を生成するための向上した案内画像技術を実現することを目的として、投影データセットを提供するためのデバイス10が提供され、このデバイス10は、記憶手段12と、入力インターフェース14と、処理ユニット16と、出力インターフェース18とを備える。記憶手段は、対象者20の3Dトモグラフィック画像を表す所定のベースデータセットを記憶するように構成される。入力インターフェースは、対象者の少なくとも対象領域22のその時点の空間的描写を表す参照データを受信するように構成される。処理ユニットは、参照データを所定のベースデータセットに位置合わせするように構成される。処理ユニットは、参照データ及び位置合わせの結果に基づき、所定のベースデータセットを変換するようにさらに構成され、それにより、対象者の少なくとも対象領域のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用データセットが得られる。処理ユニットはまた、作業用データセットをセグメント化するように構成され、それにより、対象者の対象領域を表す投影データセットが得られる。さらに、出力インターフェースは、更なる目的のための投影データセットを提供するように構成される。

Description

本発明は、投影データセットを提供するためのデバイス、対象者の上に案内画像を投影するためのシステム、投影データセットを提供するための方法、コンピュータプログラム要素、及び、コンピュータ可読媒体に関する。
X線撮像システムは、放射線医学、心臓学又は腫瘍学でのカテーテルベースの又はニードルベースの治療介入から、外科手技にまで及ぶような、種々の臨床手技のために使用される。例えば、経カテーテル大動脈弁留置術(TAVI:trans−catheter aortic valve implementation)は非常に重要な手技であり、ここでは、最小侵襲的な外科的介入が実行される。したがって、外科的エントランスポイント、及び、以下の説明では対象者とも称される患者の、下にある解剖学的構造に対するその空間的関係が、安全で正確な治療介入のためには重要である。体表面上に対象者の解剖学的構造を投影することは、挿入されることになる治療介入デバイス(interventional device)を案内するための技術である。
米国特許第6,314,311(B1)号は、画像案内外科システムに関連して使用されるための位置合わせシステムに関連する。これは、対象者から画像データを収集するための医学的画像診断装置を有する。画像データプロセッサが画像データから対象者の画像表現を再構成する。画像プロジェクタが対象者の上に画像表現を描写する。しかしながら、介入的な及び/又は外科的な計画される手技の前に、対象者の画像が医学的画像診断装置を介して得られる。画像は、対象者の多様な位置で、及び、対象者の呼吸サイクルの多様なタイミングで、撮られる。次いで、適宜に、画像を対象者の解剖学的構造に一致させることを目的として、対象者の上に投影される描写画像が診断的画像のセットから選択される。
WO2013/055707A1は、手技を実施することにより手術部位のところで利用可能となるより多くの情報を外科医が有するようになるのを可能にする画像案内型外科システムに関連する。この目的のために、カメラ/投影の組み合わせユニットが、MRI又はCTなどの医学的撮像デバイスに関連して提供される。場合によっては融合される術前画像データ及び術中画像データのインタラクティブオーバーレイをサポートする多様式の画像位置合わせシステムが開示され、これが、ニードルベースの治療介入をサポートすることができる。
米国特許第6,314,311(B1)号は、位置合わせシステムを備える画像案内外科システムに関連し、これは、対象者の解剖学的構造の画像を、実空間内に画定される対象者支持システム内に存在する、対象者の対応する実際の解剖学的構造に相互に関連付けるのに採用される。この目的のために、検出ユニットが、患者支持体に取り付けられるエミッタの空間的ロケーションを決定し、その結果、その上で対象者のロケーションが追跡される。さらに、システムの回転−並進−スケーリングプロセッサ(rotation, translation and scaling processor)が、対象者のそれぞれのロケーションにおいて画像に付与される適切な補正を決定し、プロジェクタプロセッサによって採用される調整を引き起こし、その結果、投影されている画像が対象者の対象の領域上で適切なサイズ及び回転で描写されるようになる。
米国特許出願公開第2014/0350389(A1)号は、外科的なプランニング及びナビゲーションのためのシステム及び方法に関連する。この目的のために、患者の身体の一部分の画像を表すデータが受信される。患者の身体のその一部分の第1の3次元モデルが、画像を表すデータに基づいて生成される。医療デバイスの第2の3次元モデルが、第1の3次元モデル内で、対象領域の近傍のロケーションのところにはめ込まれ、それにより、組み合わせの3次元モデルを作る。さらに、組み合わせの3次元モデルの2次元投影図が作られる。さらに、2次元投影図が、実時間の2次元術中画像に適合される。比較を容易にするために、2次元投影図及び実時間の2次元術中画像の両方が変位させられ得る。
患者のその時点の運動に対して、また具体的には患者のその時点の呼吸運動状態に対して、より良好に相互に関連付けるための補正される案内画像のベース(basis)を少なくとも提供することができるようにするために、患者の体表面上に投影されることになる患者の解剖学的構造の案内画像を生成するための向上した案内画像技術を提供することの要求が存在する。
本発明の目的は、独立請求項の主題によって解決され、ここでは、さらなる実施形態が従属請求項に組み込まれる。
本発明の以下で説明される態様は、また、案内画像を対象者の上に提供するためのシステム、投影データセットを提供するための方法、コンピュータプログラム要素、及び、コンピュータ可読媒体に対しても適用される、ということに留意されたい。
本発明の第1の態様によると、投影データセットを提供するためのデバイスが提供され、これは、記憶手段と、入力インターフェースと、処理ユニットと、出力インターフェースとを備える。記憶手段が、対象者の3Dトモグラフィック画像を表す所定のベースデータセット(basis data set)を記憶するように構成される。入力インターフェースが、対象者の少なくとも対象領域のその時点の空間的描写を表す参照データを受信するように構成される。処理ユニットが、参照データを所定のベースデータセットに位置合わせするように構成される。処理ユニットが、参照データ及び位置合わせの結果に基づき、所定のベースデータセットを変換するように構成され、それにより、対象者の少なくとも対象領域の空間的な解剖学的関係(spatial anatomy relation)を示す変換された3Dトモグラフィック画像を表す作業用データセットが得られる。処理ユニットが作業用データセットをセグメント化するように構成され、それにより、対象者の対象領域を表す投影データセットが得られる。出力インターフェースが更なる目的のための投影データセットを提供するように構成される。
例では、介入的な及び/又は外科的な計画される手技の前に、対象者の3Dトモグラフィック画像は、例えば、コンピュータトモグラフィックスキャナ(CT)、磁気共鳴映像スキャナ(MRI)、ガンマカメラ、及び/又は、他の医療用のトモグラフィック画像診断設備によるような、トモグラフィック撮像手段を用いて取り込まれる、対象者の複数の異なるトモグラフィックサブ画像に基づいて決定される。具体的には、トモグラフィックサブ画像に基づいて、対象者の3Dトモグラフィック画像が、デバイスから離れたところにあるサーバによって決定される。
例では、対象者の対象領域は予め定められる。
例では、所定のベースデータセットは、対象者の対象領域の3Dトモグラフィック画像を表す。
例では、対象者の3Dトモグラフィック画像は、対象者の特定の運動状態を示し、好適には対象者の特定の呼吸運動状態を示す。
例では、対象者の3Dトモグラフィック画像は、対象者の内臓器官の、また具体的には心臓の、特定の運動状態を示す。
別の例では、対象者の3Dトモグラフィック画像は、対象者の表面及び/又はその内臓器官のうちの1つの内臓器官に特に関連する、対象者の、外科手技中に起こる特定の変形、また具体的には身体変形を示す。
別の実施形態では、対象者の3Dトモグラフィック画像が、対象者の特定の向き(orientation)、また具体的には表面の向きを示す。
例では、空間的描写は、2Dの空間的描写又は3Dの空間的描写に関連する。
例では、参照データが対象者の少なくとも対象領域のその時点の空間的描写を表すことを理由として、参照データは、対象者の少なくとも対象領域の、その時点の空間的な解剖学的関係すなわち描写を、少なくとも間接的に表す。したがって、参照データは、対象者のその時点の、つまり実際の呼吸運動状態に関する情報を含む。
例では、対象者の少なくとも対象領域の空間的描写は、対象者の少なくとも対象領域の表面構造を示し、並びに/或は、対象者の少なくとも対象領域の解剖学的構造部分(anatomy part)の位置及び/又は向きを示す。
例では、対象者の少なくとも対象領域の表面は、対象者の、少なくともその対象領域における、解剖学的構造部分の位置及び/又は向きに関する情報を示すか又は表す。
例では、参照データは、対象者の少なくとも対象領域の空間的描写を表すのに適する、光学画像データ、X線画像データ、及び/又は、他のデータによって形成される。
別の例では、対象者の少なくとも対象領域の空間的描写は、対象者の呼吸運動状態又は対象者の別の運動状態を示す。
一効果として、参照データは、対象者のその時点の呼吸運動状態及び/又は対象者の別の運動状態に関する情報を提供する。
所定のベースデータセットは、参照データセットに基づき、処理ユニットによって変換される。その結果、対象者の少なくとも対象領域のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用データセットが提供される。
一効果として、3Dトモグラフィック画像は、対象者のその時点の空間的な解剖学的関係をマッピングするように適合され得る。
例では、対象者の対象領域の3Dトモグラフィック画像のサブセットに対して変換が実行される。
例では、変換は変形に関連する。さらに、変換が位置合わせを含む。
例では、参照データは、対象者の3Dトモグラフィック画像より少量のデータに対応し、具体的には、対象者の対象領域に関連するそのサブセットのデータに対応する。
一効果として、参照データは、好適には、単純な撮像手段を用いて取り込まれる少量のデータに対応する。したがって、それぞれの少量のデータが、好適には大量のデータに対応する3Dトモグラフィック画像を変換するのに使用されるのに十分となり得る。
別の効果として、参照データはデバイスの使用中に更新され得、したがって、3Dトモグラフィック画像の変形を更新するためのベースを提供し、それにより、更新された作業用データセット、さらには更新された投影データセットが得られる。
例では、入力インターフェースは、参照データを継続的に受信するように構成されるか、又は、予め定められた次の時間間隔後に参照データを受信するように構成される。したがって、新しい参照データ又は更新された参照データを受信するごとに、その後で、所定のベースデータセットが変換される。
一効果として、予め定められたベースデータセットの変形が継続的に更新されるか又は次の時間間隔後に更新され、したがって、それに応じて投影データセットを更新することができる。
一効果として、投影データを表すのを向上させることが実現される。
例では、投影データセットは、案内画像を対象者の表面の上に投影するのに使用される。
一効果として、精度の向上した案内画像が対象者の表面の上に投影され得る。
本発明によるデバイスの例示の実施形態によると、処理ユニットは、作業用データセットをセグメント化するように構成され、その結果として、得られる投影データセットが、対象者の対象領域の解剖学的構造及び/又は対象者の対象領域の表面のところのエントランスポイントを表す。
例では、対象領域の解剖学的構造は、対象者の対象領域の解剖学的構造の一部分に関連する。
一効果として、対象のポイント又は対象の領域まで案内するために、投影データセットは、投影データに基づいて決定される案内画像を、対象者の表面の上に投影するのに使用され得る。
別の効果として、投影データセットは、安全で正確な治療介入のために使用される。
本発明によるデバイスの例示の実施形態によると、処理ユニットは参照データを所定のベースデータセットに位置合わせするように構成され、ここでは、処理ユニットは、位置合わせの結果に基づいて変形として変換を実行するように構成される。
例では、位置合わせは、参照データと所定のベースデータセットとの間に関係を確立することを有する。これが、関係を決定することを目的として、参照データ内の及び所定のベースデータセット内での複数のポイントの識別により達成され、また具体的には、参照データと所定のベースデータセットとの間での又はその逆での、変換ルールを画定することにより、さらに具体的には、変換マトリックスを画定することにより、達成される。その結果、作業用データセットによって表される変換された3Dトモグラフィック画像は、対象者の少なくとも対象領域でのその時点の空間的な解剖学的関係を含むことになる。参照データによって表される空間的描写が対象者の対象領域のところの表面に関連する場合、得られる位置合わせルール又は変換マトリックスは、対象者の全体の3Dトモグラフィック画像を、又は、少なくとも、対象者の対象領域を表すそのサブセットを、変換するのに使用される。
一効果として、1つの所定のベースデータセットのみを必要とする。
例では、変換は2つのサブステップに関連し、つまり、位置合わせと、位置合わせ結果に基づく変形とに関連する。さらに、処理ユニットは、両方のサブステップを実行するように構成される。
別の例では、位置合わせは所定のベースデータセットのサブセットに関連し、ここでは、対応する位置合わせルール又は変換マトリックスは、完全な所定のベースデータセットの、又は、対象者の対象領域を表すそのサブセットの、変形のためのベースを形成する。
一効果として、更新された参照データを受信した後、更新された作業用データセットを提供し、それに基づき、更新された投影データセットを提供するために、処理ユニットは、それに関する変換を実行するように構成される。
別の効果として、投影データセットを更新するために、同じ所定のベースデータセットが使用され、ここでは、各更新において、更新された参照データが採用される。
本発明によるデバイスの別の例示の実施形態によると、入力インターフェースは、所定の時間間隔で又は継続的に、更新された参照データを受信するように構成される。
一効果として、更新された参照データを受信した後、更新された投影データセットに投影データの精度の向上がもたらされ、これは、対象者の上に投影されることになる案内画像を決定するのに使用される。
本発明によるデバイスの別の例示の実施形態によると、参照データは、参照画像データによって形成される。
例では、参照画像データは2Dの参照画像データに関連する。
別の例では、光学撮像装置が、参照画像データを、また具体的には2Dの参照画像データを提供するのに使用される。
別の例では、光学撮像装置が、カメラにより、また具体的にはビデオカメラにより、形成される。
一効果として、更新された参照画像データは、継続的に提供されるか、又は、予め定められた、特には短い、時間間隔で提供される。
別の効果として、投影データセットは、対応する時間間隔で、又は、予め定められた時間間隔で、更新される。
別の効果として、精度の向上した投影データが提供され得る。
例では、参照画像データは、所定のベースデータセットに位置合わせされるのに使用される。得られる変換ルール又は変換マトリックスは、完全な所定のベースデータセットを、又は、対象者の対象領域に関連するそのサブセットを、変換するのに、また具体的には変形させるのに使用される。
別の例では、光学撮像装置がX線撮像システムに一体化又は連結される。したがって、位置合わせが単純化される。
本発明によるデバイスの別の例示の実施形態によると、参照データはトモグラフィック参照画像データによって形成される。
例では、トモグラフィック参照画像データは2Dのトモグラフィック参照画像データに関連する。
一効果として、トモグラフィック参照画像データに対応する少量のデータが、所定のベースデータセットを変換するのに使用される。これにより処理労力が低減され、それにより短い時間間隔で投影データセットを更新することが可能となる。
例では、X線撮像装置は、トモグラフィック参照データを提供するのに使用される。
一効果として、向上した変換が、また具体的には向上した位置合わせが実現される。
本発明によるデバイスの別の例示の実施形態によると、記憶手段は、対象者の少なくとも対象領域の対応する空間的描写を各々が表す複数の画像データセットを記憶するように構成され、ここでは、処理ユニットは、参照データに基づき、参照画像データセットとして複数の画像データセットのうちの1つの画像データセットを選択するように構成され、またここでは、処理ユニットは、参照画像データセットに基づき、所定のベースデータセットを変換するように構成され、それにより、対象者の少なくとも対象領域のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用データセットが得られる。例では、複数の画像データセットは、複数の所定の画像データセットに関連する。したがって、所定の画像データセットは、デバイスの記憶手段によって記憶される。
例では、所定の画像データセットは、介入的な及び/又は外科的な計画される手技の前に取り込まれる。
例では、画像データセットの各々は、光学画像データ及び/又はトモグラフィック画像データによって形成される。
例では、画像データセットは、対象者の多様な呼吸運動状態に、及び/又は、対象者の多様な運動状態に、また具体的には、対象者の多様な位置及び/又は向きに、関連する。
例では、処理ユニットは、複数の画像データセットのうちの1つの画像データセットを選択するように構成され、その1つの画像データセットが参照データに合致する最良のものを提供する。
一効果として、参照データに基づき、対象者のその時点の運動状態、また具体的には呼吸運動状態に、並びに/或は、対象者のその時点の向き又は位置に、対応するような、複数の画像データセットのうちの1つの画像データセットが選択される。
対象者の3Dトモグラフィック画像により示すような上記の別の例に特に関連する場合、対象者の内臓器官の、また具体的には心臓の、特定の運動状態に、又は、好適にはその表面及び/若しくはその内臓器官のうちの1つの内臓器官に関連する対象者の外科手技中に起こる特定の変形、また具体的には特定の身体変形に、或は、対象者の特定の向き、また具体的には表面の向きに、対応するような、複数の画像データセットのうちの1つの画像データセットが選択される。
別の効果として、複数の画像データセットのうちの1つの画像データセットを選択するのに、より少ないデータを必要とすることを理由として、参照データの量が低減される。
一効果として、処理ユニットがステップのカスケードを実施するように構成され、ここでは、変換ステップの前に選択ステップが実行される。このカスケードにより、投影データセットを更新するために必要な参照データのデータ量を低減する。
本発明の第2の態様によると、案内画像を対象者の上に投影するためのシステムが提供され、これは、検出手段と、光学投影手段と、上記の説明によるデバイスとを備える。検出手段は、対象者を検出するように構成され、それにより、対象者の少なくとも対象領域のその時点の空間的描写を表す参照データが得られる。検出手段は、参照データを転送するためにデバイスの入力インターフェースに接続される。デバイスの出力インターフェースは、投影データセットを転送するために光学投影手段に接続される。光学投影手段は、投影データセットに基づき、対象者の上に案内画像を投影するように構成される。
このデバイスを参照して提供される例、効果及び説明のすべてを本明細書において繰り返さなくても、本発明のシステムが、このデバイスを参照して説明される類似の例示の特徴及び効果を好適には含むことを意図されることを理解されたい。したがって、上で説明したすべての例、効果及び/又は説明は、先にデバイスを参照して提供されるが、好適にはシステムによっても実施されることを意図される。
一効果として、対象者の解剖学的情報、及び、具体的には、介入的な及び/又は外科的な手技のためのエントリーポイントが、対象者の表面の上に投影され、ここでは、検出手段によって提供される参照データが、投影データセットを更新するのに、及びひいては、対象者の上に投影される案内画像を更新するのに、使用される。
本発明によるシステムの例示の実施形態によると、検出手段は、少なくとも1つの光学カメラ装置を備える。
例では、検出手段は、少なくとも1つの光学カメラ装置として、カメラ、また具体的にはビデオカメラを備える。
別の例では、検出手段は、少なくとも1つの光学カメラ装置として、複数のカメラ、また具体的にはビデオカメラを備える。検出手段は、複数のカメラによって提供される画像データから構成される画像データを提供するように構成される。したがって、検出手段は、それぞれの複数のカメラのサブ画像又はサブビデオストリームから構成される3D画像又は3Dビデオストリームを提供するように好適には構成される。
一効果として、参照データは、費用対効果の高いカメラ又はカメラ装置によって提供される。
別の効果として、参照データは、限定のデータ量を有する。
別の効果として、参照データは、継続的に、及び/又は、予め定められる時間間隔で、更新され得る。
本発明によるシステムの別の例示の実施形態によると、検出手段は、少なくとも1つのX線検出装置を備える。
一効果として、参照データは、対象者の少なくとも対象領域のその時点の空間的な解剖学的描写を表す。
一効果として、所定のベースデータセットへの参照データの位置合わせが単純化される。
別の効果として、精度の向上した位置合わせ及び/又は変換が実現される。
本発明によるシステムの別の例示の実施形態によると、検出手段は、少なくとも1つの超音波検出装置を備える。
一効果として、少なくとも1つの超音波検出装置は、検出手段の費用対効果の高い実施形態である。
例では、少なくとも1つの超音波検出装置は、対象者の少なくとも対象領域のその時点の空間的な解剖学的描写を表す参照データを提供するように構成される。
一効果として、所定のベースデータセットへの参照データの位置合わせ精度を向上させる。
別の効果として、変換を向上させる。
本発明の第3の態様によると、投影データセットを提供するための方法が提供され、この方法は、
a)対象者の少なくとも対象領域のその時点の空間的描写を表す参照データを受信するステップと;
b)参照データに基づき、対象者の3Dトモグラフィック画像を表す所定のベースデータセットを変換するステップであって、それにより、対象者の少なくとも対象領域のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用画像データセットが得られる、ステップと;
c)作業用データセットをセグメント化するステップであって、それにより、対象者の対象領域を表す投影データセットが得られるステップと;
d)更なる目的のために投影データセットを提供するステップと
を有する。
本発明のデバイス又はシステムを参照して提供される例、効果及び説明のすべてを本明細書において繰り返さなくても、本発明の方法が、好適には、類似の方法ステップを実行するように構成されることを意図されることを理解されたい。したがって、上で説明したすべての例、効果及び説明は、先にデバイス又はシステムを参照して提供されるが、好適には、本発明による方法に関連して類似の効果を提供することも意図される。
本発明の第4の態様によると、上述のデバイス又はシステムを制御するためのコンピュータプログラム要素が提供され、このコンピュータプログラム要素は、処理ユニットによって実行されるときに上述の方法ステップを実施するように適合される。
本発明の第5の態様によると、上述のプログラム要素を記憶したコンピュータ可読媒体が提供される。
本発明の別の態様によると、投影データセットを提供するためのデバイス及び方法、並びに、案内画像を提供するためのシステムが提供される。介入的な及び/又は外科的な計画される手技の前に、患者の、また具体的には患者の対象領域の、トモグラフィック画像が取り込まれる。トモグラフィック画像は、具体的には位置合わせにより、患者の、また具体的には患者の対象領域の3Dトモグラフィック画像を決定するのに使用される。この3Dトモグラフィック画像に基づき、所定のベースデータセットが決定され得る。所定のベースデータセットは、特定の呼吸運動状態における、患者を、また具体的には患者の対象領域を表す。実際には、介入的な及び/又は外科的な手技中、患者は呼吸する。患者の表面の上に投影される解剖学的な構造を決定するのに所定のベースデータセットを使用することを目的として、患者のその時点の呼吸運動状態の光学画像又はX線画像を提供するように構成される撮像手段、また具体的には光学撮像手段又はX線撮像手段を使用することが提案される。検出手段は、患者の、その時点の呼吸運動状態における、光学画像又はX線画像を表す参照データを提供するように構成される。参照データが、継続的に、又は、所定の時間間隔で、更新され得る。さらに、参照データが所定のベースデータセットに位置合わせされ、その結果、位置合わせのための、対応する位置合わせルール、また具体的には変換マトリックスが、完全な所定のベースデータセットに、又は、具体的には、患者の対象領域を参照するサブセットに、適用され得る。その結果、作業用データセットが提供され得、この作業用データセットが、所定のベースデータセット又はそのサブセットに対して位置合わせルール又は変換マトリックスを適用することにより変形される。したがって、作業用データセットが患者のその時点の空間的な解剖学的構造に対応し、ひいては、患者のその時点の呼吸運動状態に対応する。したがって、作業用データセットは、具体的には選択することにより、投影データセットを決定するための、精度の向上したベースを提供し、これは、案内画像を決定するためのベースを形成し、案内画像が、対象のポイントまで、また具体的には外科手技のためのエントランスポイントまで、案内することを目的として、又は、解剖学的ロードマップ(anatomy road map)を投影することを目的として、患者の表面の上に投影され得る。本発明の別の態様の実施形態によると、介入的な及び/又は外科的な計画される手技の前に、複数の画像データセットが生成され、ここでは、各画像データセットは、患者の対象領域の画像に、また具体的には2次元光学画像又は2次元X線画像に対応する。画像データセットは、患者の多様な呼吸運動状態、多様な向き及び/又は多様な位置に関連する。したがって、画像データセットは、多様な呼吸運動状態における患者に関する、その向きに関する、及び/又は、その位置に関する情報を含む。したがって、介入的な及び/又は外科的な手技を実行するとき、具体的にはビデオカメラを介して提供される光学画像は、その時点のカメラ画像に対して最も高い類似性を有するか又はそれに合致する、画像データセットのうちの1つの画像データセットを選択するのに使用される。カメラ画像は、少量のデータを有する。したがって、カメラ画像は、患者の、具体的にはその対象領域のところの解剖学的構造に対しての高い正確さを有するような最良の画像データセットを選択するのに使用される。その後、選択された画像データセットが、上で説明した変換又は変形を実行することを目的として、所定のベースデータセットに位置合わせされるのに使用される。一効果として、向上した投影データセット及び/又は向上した案内画像を提供することを目的として、精度の向上した所定のベースデータセットの変換を開始するのに、単純なビデオカメラが使用される。投影データセット及び/又は案内画像を更新するために、1つの新しいカメラ画像のみが必要とされ、所定のベースデータセットを変換するために処理される。別の結果として、介入的な及び/又は外科的な手技中、向上した投影データセット及び/又は向上した案内画像を提供するために、限定された処理能力が必要とされる。
以下で、以下の図面を参照して本発明の例示の実施形態を説明する。
本発明によるデバイスの例を概略的に示す図である。 X線撮像システムの例を概略的に示す図である。 本発明の例示の実施形態によるシステムの例を概略的に示す図である。 本発明の別の例示の実施形態によるシステムの例を概略的に示す図である。 本発明による方法の例を概略的に示す図である。
図1は、投影データセットを提供するための本発明によるデバイス10の例を概略的に示す。デバイス10は、記憶手段12と、入力インターフェース14と、処理ユニット16と、出力インターフェース18とを備える。記憶手段12は、対象者20(図2に概略的に示される)の3Dトモグラフィック画像を表す所定のベースデータセットを記憶するように構成される。入力インターフェース14は、対象者20の少なくとも対象領域22のその時点の空間的描写を表す参照データを受信するように構成される。処理ユニット16は、参照データに基づき、所定のベースデータセットを変換するように構成され、それにより、対象者20の少なくとも対象領域22のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用データセットが得られる。処理ユニット16は、作業用データセットをセグメント化するように構成され、それにより、対象者20の対象領域22を表す投影データセットが得られる。出力インターフェース18は、更なる目的のための投影データセットを提供するように構成される。
例では、デバイス10は、独立型のデバイスとして構成される。別法として、デバイス10は、別のデバイス、装置又はシステムに一体化されてもよい。
デバイス10が独立型のデバイスとして構成される場合、デバイス10は、参照データを転送するために、その入力インターフェース14のところで、X線撮像システムに、また具体的には、CアームのX線撮像システムに接続される。
図2は、具体的にはCアームのX線撮像システム24として構成される、X線撮像システムの例を概略的に示す。
デバイス10の記憶手段12は、対象者20の3Dトモグラフィック画像を表す所定のベースデータセットを記憶するように構成される。X線撮像システム24は、対象者20の、また具体的にはその対象領域22のトモグラフィック画像を取り込むように構成される。これらのトモグラフィック画像は、具体的には位置合わせアルゴリズムを使用することにより、対象者20の3Dトモグラフィック画像を決定するのに使用される。
例では、対象者20の、また具体的にはその対象領域22のトモグラフィック画像を取り込むのに別のX線撮像システムが使用される。
例では、対象者20の、また具体的にはその対象領域22の3Dトモグラフィック画像は、対象者20の特定の呼吸運動状態に関連する。しかし、3Dトモグラフィック画像は高解像度を有する。
例では、対象者20のところで実行されることになる介入的な及び/又は外科的な計画される手技の前に、3Dトモグラフィック画像は生成及び/又は記憶される。
介入的な及び/又は外科的な手技中、ヒト患者である対象者20は呼吸サイクル及び/又は他のバイオリズムを有し、これは、その解剖学的構造を基準とした、対象者20の解剖学的構造の変化を生じさせる。
対象者20の運動を補償するために、及び/又は、具体的には対象者20の呼吸サイクルによって生じる、対象者20の解剖学的構造の向きの変化を補償するために、本発明は所定のベースデータセットを変換することを提案する。この変換は参照データに基づくものである。
デバイス10の入力インターフェース14は、対象者20の少なくとも対象領域22のその時点の空間的描写を表す参照データを受信するように構成される。
例では、参照データは、光学画像データ、X線撮像デバイス、又は、対象者20の少なくとも対象領域22の空間的描写を表すのに適する他のデータに関連する。
一効果として、参照データは、対象者の少なくとも対象領域22のその時点の解剖学的な構造に関する、対象者の少なくとも対象領域22の向きに関する、及び/又は、対象者20の少なくとも対象領域22の器官の空間的な解剖学的関係に関する、情報を含み、ここでは、言及した構造及び/又は向きに基づいて解剖学的関係が決定される。
例では、参照データは、所定のベースデータセットより少量のデータに対応する。
一効果として、参照データは、介入的な及び/又は外科的な手技中、例えば継続的に又は予め定められる時間間隔で、更新され得る。
例では、入力インターフェース14は、参照データを受信するように、及び、処理ユニット16に参照データを提供するように、構成される。さらに、処理ユニット16は、記憶手段12から所定のベースデータセットを受信するように構成される。
処理ユニット16は、参照データに基づき、所定のベースデータセットを変換するように構成され、それにより、変換された3Dトモグラフィック画像を表す作業用データセットが得られる。具体的には、所定のベースデータセットが参照データに基づいて変形される。参照データは、好適には、対象者20の少なくとも対象領域22の、その時点の空間的描写に関する、及び、具体的には、空間的な解剖学的関係に関する情報を含むことを理由として、変換が、作業用データセットにより、対象者20の少なくとも対象領域22のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表すことになるように、実行され得る。
その結果、変換された3Dトモグラフィック画像は、対象者20の少なくとも対象領域22の実際の解剖学的関係に関して向上した精度を有する。
参照データが予め定められる時間間隔で更新される場合、対象者20の、また具体的にはその対象領域22の運動は、変換された3Dトモグラフィック画像を表す作業用データセットを更新することにより、補償される。
処理ユニット16は、作業用データセットをセグメント化するようにさらに構成され、それにより、対象者20の対象領域22を表す投影データセットが得られる。
例では、作業用データセットのセグメント化は、作業用データセットの選択又はフィルタリングを指しており、それにより、投影データセットが得られる。
一効果として、投影データセットは、作業用データセットのサブセットによって表される。
例では、作業用データセットのセグメント化が実行され、その結果、投影データセットは、対象者20の対象領域22のところの、選択される解剖学的な構造、表面エントランスポイント及び/又は解剖学的ロードマップを表すことになる。選択される解剖学的構造は、対象者20の対象領域22のところの表面のエントランスポイントに、及び/又は、対象者20の解剖学的構造のところのエントランスポイントから対象ポイントまでの解剖学的ロードマップに対応する場合、介入的な手技のための向上した案内が実現され得る。
出力インターフェース18は、更なる目的のための投影データセットを提供するように構成される。
参照データが更新される場合、所定のベースデータセットのその後の変換が処理ユニット16によって実行される。さらに、対応する更新された作業用データセットのセグメント化が処理ユニット16によって実行され、それにより、更新された投影データセットが得られ、これが更なる目的のために出力インターフェース18によって提供され得る。
一効果として、更新された参照データセットを受信した後、デバイス10は、更新された投影データセットを提供するように構成される。その結果、更新した参照データを受信することにより、精度の向上した投影データセットが提供される。
上で説明したように、参照データは少量のデータに対応し、その結果、具体的には光学画像データにより、この参照データを生成することが妥当な労力により実現される。対象者20の少なくとも対象領域22の3Dトモグラフィック画像を表す所定のベースデータセットは更新される必要がないが、具体的には介入的な及び/又は外科的な計画される手技の前に予め一度決定され得る。
例では、デバイス10の処理ユニット16は、作業用データセットをセグメント化するように構成され、その結果、得られる投影データは、対象者の対象領域22の解剖学的構造及び/又は対象者20の対象領域22のところのエントランスポイントを表すようになる。
一効果として、対象の領域又は対象のポイントまで案内するために、投影データセットは、対象者20の、具体的にはその対象領域22のところの表面28の上に投影される案内画像26を決定するのに使用される。
例では、デバイス10の処理ユニット16は、参照データを所定のベースデータセットに位置合わせするように構成され、ここでは、処理ユニット16は、位置合わせの結果に基づき、具体的には変形として、変換を実行するように構成される。
例では、処理ユニット16は、所定のベースデータセットへの参照データの位置合わせのための位置合わせステップを実行するように構成される。
別の例では、変換は、2つのサブステップ、すなわち、位置合わせ、及び、位置合わせ結果に基づく変形に関連し、ここでは、処理ユニット16は、好適にはこれらのサブステップを実行するように構成される。
例では、位置合わせの結果は、位置合わせルール又は位置合わせ変換マトリックスに関連する。変換ルール及び/又は変換マトリックスは、完全な所定のベースデータセットを、又は、対象者20の対象領域22に関連するそのサブセットを、変形させるのに使用される。
一効果として、変換を実行するのに1つの所定のベースデータセットのみを必要とし、ここでは、更新された参照データが使用され、具体的には予め定められる時間間隔で受信される。
別の効果として、変換のために、記憶手段12に記憶される同じ所定のベースデータセットが使用されることを理由として、処理能力が低減され得る。したがって、各変換において3Dトモグラフィック画像を決定する必要がなく、3Dトモグラフィック画像は、介入的な及び/又は外科的な計画される手技の前に決定され得る。
例では、デバイス10の入力インターフェース14は、所定の時間間隔で又は継続的に、更新された参照データを受信するように構成される。
一効果として、出力インターフェース18を介して、更新された投影データセットを提供するために、上で説明した更新は、処理ユニット16によって実行される。
以下の節では、図3を参照して、本発明の例によるシステム30の例示の実施形態を説明する。繰り返さなくても、システムを参照する以下のすべての例、効果及び利点がやはり、デバイスを参照する類似の例、効果及び/又は利点を提供することに留意されたい。したがって、システムに関連する以下の節は、好適には、適する場合には、デバイス10のためにも与えられることをやはり意図される。
図3では、対象者20の上に案内画像26を投影するためのシステム30の例が概略的に示される。システム30は、検出手段32と、光学投影手段34と、本発明によるデバイス10とを備える。検出手段32は、対象者20を検出するように構成され、それにより、対象者20の少なくとも対象領域22のその時点の空間的描写を表す参照データが得られる。検出手段32は、参照データを転送するためにデバイス10の入力インターフェース14に接続される。デバイス10の出力インターフェースは、投影データセットを転送するために光学投影手段34に接続される。光学投影手段は、投影データセットに基づき、対象者20の上に案内画像26を投影するように構成される。
その結果、投影手段32は、具体的には継続的に又は予め定められた時間間隔で、デバイス10に参照データを提供する。デバイス10が、具体的には各々の更新された参照データセットを用いて更新される、投影データセットを提供するように構成される。デバイス10によって提供される投影データセットが投影手段34に転送される。投影データセットが更新されることを理由として、対象者20の運動補償が実施される。したがって、対象者20上の、具体的にはその対象領域22のところで、投影される案内画像26は、好適には、対象者のその時点の解剖学的構造に対応し、したがって、運動補償される案内画像を表すことができる。
例では、案内画像は、外科的エントランスポイント及び/又は解剖学的な構造を、また具体的には解剖学的ロードマップを、表すか又は示し、その結果、安全で正確な治療介入が実行される。
別の例では、案内画像は、上行大動脈、左心房及び/又は左心耳を示す。したがって、処理ユニット16は、投影データを上で言及した対象のポイント又は領域に関連させるようにするために、作業用データセットをセグメント化するように構成される。
例では、参照データは、参照画像データによって形成される。
例では、システム30の検出手段32は、少なくとも1つの光学カメラ装置を備える。具体的には、光学カメラ装置は、光学カメラ又はビデオカメラによって形成される。したがって、検出手段は、光学カメラ装置によって取り込まれる画像を表す参照画像データを提供するように構成される。
別の例では、参照画像データは2Dの参照画像データに関連する。この2Dの参照画像データは、光学カメラ装置によって取り込まれ得る光学画像を表す。
一効果として、費用対効果の高い検出手段は、デバイス10に参照データを提供するのに使用される。デバイス10の記憶手段12は所定のベースデータセットを記憶するように構成されることを理由として、所定のベースデータセットのそれぞれの変換が、参照画像データを、また具体的には2Dの参照画像データを、受信した後で、実行され得、その結果、更新された投影データセットがデバイス10によって提供され得る。対応して、対象者20は、具体的にはその対象領域22のところで、運動を実行した場合、更新されてしたがって運動補償された案内画像が、光学投影手段34により、対象者20の表面28のところに、また具体的にはその対象領域22のところに、投影され得る。
図4では、システム30の別の例示の実施形態が概略的に示される。システム30は、図3を参照して説明したシステム30に基本的に一致する。しかし、検出手段32は、図3を参照して説明した検出手段32とは異なる。図4に示される検出手段32は、少なくとも1つのX線検出装置36を備えるように構成される。X線検出装置36は、CアームのX線検出手段によって形成される。
例では、X線検出装置36は、対象者20の少なくとも対象領域22のトモグラフィック画像のセットを取得するのに使用される。トモグラフィック画像のセットは、デバイス10の記憶手段12に記憶される所定のベースデータセットによって表される3Dトモグラフィック画像を決定するのに使用される。別法として、対象者20の少なくとも対象領域22のトモグラフィック画像は、別のX線検出手段によって取り込まれる。
図4に示されるX線検出装置36は、対象者20の少なくとも対象領域22を表すトモグラフィック参照画像データを提供するように構成される。
例では、参照データは、トモグラフィック参照画像データによって形成される。したがって、参照データは、対象者20の少なくとも対象領域22のその時点の空間的な解剖学的描写を表す。この参照データを具体的には更新としてデバイス10に提供することにより、更新される投影データセットを計算することが可能となり、これにより、対象者20上の、具体的にはその対象領域22のところに、更新された案内画像26を投影するためのベースが提供される。
検出手段32としてX線検出装置36を使用することにより、所定のベースデータセットへの参照データの単純化した及び/又は向上した位置合わせが、デバイス10の処理ユニット16によって実施され得る、という利点が得られる。したがって、対象者20上の、具体的にはその対象領域22のところに案内画像を投影するために、向上した運動補償が実現される。
デバイス10の別の例では、記憶手段12は、対象者20の少なくとも対象領域22の対応する空間的描写を各々が表す複数の画像データセットを記憶するように構成され、ここでは、処理ユニット16は、参照データに基づき、参照画像データセットとして複数の画像データセットのうちの1つの画像データセットを選択するように構成され、またここでは、処理ユニット16は、参照画像データセットに基づき、所定のベースデータセットを変換するように構成され、それにより、対象者20の少なくとも対象領域22のところのその時点の空間的な解剖学的関係に対応する変換された3Dトモグラフィック画像を表す作業用データセットが得られる。
例では、光学カメラ又は光学撮像手段は、対象者20の、また具体的にはその対象領域22の、複数の画像を取り込むのに使用され、ここでは、複数の画像は、対象者20の多様な向き、位置及び/又は呼吸運動状態に対応する。これらの画像は、介入的な及び/又は外科的な計画される手技の前に取り込まれる。したがって、複数の画像データセットは、対象者20の少なくとも対象領域22の空間的描写として、上で言及した画像を表す。例では、参照データが提供される場合、複数の画像データセットのうちの1つの画像データセットは、処理ユニット16によって選択され得る。具体的には、図4に示されるX線検出装置36又は図3に示される光学カメラ装置32によって提供される参照データは、画像データセットのうちの1つの画像データセットを選択するのに使用される。その後、既に選択された参照画像データセットに基づき、処理ユニット16により変換が実行される。したがって、画像データセットが予め決定され、対象者20の、また具体的にはその対象領域22の、多様な向き、位置及び/又は呼吸運動状態に関する情報を既に有することを理由として、処理労力は、また具体的には、必要となる対応する処理能力は、低減される。
システム30の別の例によると、検出手段32は、少なくとも1つの超音波検出装置を備える。
一効果として、超音波検出装置は、参照データを提供するように構成される。
別の効果として、超音波検出装置は小さいサイズを有し、したがって、好適には、対象者20の近くに、また具体的にはその対象領域22の近くに、配置されるように構成される。
図5では、投影データセットを提供するための本発明による方法38の例が提供され、この方法は、以下のステップを有する。
第1のステップa)で、対象者20の少なくとも対象領域22のその時点の空間的描写を表す参照データが受信される。
ステップb)で、参照データに基づき、対象者20の3Dトモグラフィック画像を表す所定のベースデータセットが変換され、それにより、対象者20の少なくとも対象領域22のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用データセットが得られる。
ステップc)で、作業用データセットはセグメント化され、それにより、対象者20の対象領域22を表す投影データセットが得られる。
ステップd)で、更なる目的のために投影データセットが提供される。
デバイス10及び/又はシステム30を参照して提供される特徴、例及び効果のすべてを本明細書において繰り返さなくても、類似の例、特徴及び効果が、上述の方法38にも適合される、ことが理解されよう。したがって、すべての特徴、例及び説明は、先にデバイス10及び/又はシステム30を参照して提供されるが、類似の手法で方法38によっても与えられることを意図される。
本発明の別の例によると、コンピュータプラグラム要素が提供され、このコンピュータプログラム要素が、処理ユニットによって実行されるときに上述の方法を実行するように適合される。
本発明の別の例によると、コンピュータプログラム要素をそこに記憶したコンピュータ可読媒体が提供され、このコンピュータプログラム要素が、処理ユニットによって実行されるときに上述の方法を実行するように適合される。
コンピュータプログラム要素が、本発明の実施形態のやはり一部であってよいコンピュータユニットに記憶され得る。このコンピューティングユニットが、上述の方法のステップを実施するように、又は、上述の方法のステップを実施することを誘発するように、適合される。さらに、このコンピューティングユニットが、上述の装置の構成要素を動作させるように適合され得る。コンピューティングユニットが、自動で動作するように、及び/又は、使用者の命令を実行するように、適合される。コンピュータプログラムが処理ユニットの作業メモリにロードされる。したがって、データプロセッサが本発明の方法を実行する機能を備えている。
本発明の実施形態が多用な主題を参照して説明されることに留意されたい。具体的には、いくつかの実施形態がデバイスを参照して説明され、対して、他のいくつかの実施形態が方法を参照して説明される。しかし、特に明記しない限り、1つの主題に属する特徴の任意の組み合わせに加えて、多様な主題に関連する特徴の間での任意の組み合わせも本出願で開示されるとみなされる、ということを当業者であれば上記から結論付けるであろう。しかし、すべての特徴が、特徴の単純な足し合わせを上回るような相乗効果を提供するように組み合わされ得る。
図面及び上の記述で本発明を詳細に例示及び説明してきたが、このような例示及び説明は、説明的又は例示的であるとみなされ、限定的であるとみなされない。本発明は開示される実施形態のみに限定されない。特許請求される発明を実施する際に、図面、本開示、及び、従属請求項を研究することにより、開示される実施形態に対しての他の変形形態も当業者によって理解され得、実施され得る。
特許請求の範囲では、「備える」という単語は他の要素又はステップを排除せず、不定冠詞「a」又は「an」は複数を排除しない。検出手段又は他のユニットは、特許請求の範囲で列挙される複数のアイテムの機能を満たす。特定の処置が互いに異なる従属請求項で列挙されるという形式だけの事実は、これらの処置の組み合わせが利益をもたらすのに使用され得ない、ということを示しているわけではない。特許請求の範囲のいかなる参照符号も、範囲を限定するものとして解釈されるべきではない。

Claims (13)

  1. 記憶手段と、入力インターフェースと、処理ユニットと、出力インターフェースとを備える、投影データセットを提供するためのデバイスであって、
    前記記憶手段が、対象者の3Dトモグラフィック画像を表す所定のベースデータセットを記憶し、前記入力インターフェースが、前記対象者の少なくとも対象領域のその時点の空間的描写を表す参照データを受信し、前記処理ユニットが、前記参照データを前記所定のベースデータセットに位置合わせし、前記処理ユニットが、前記参照データ及び前記位置合わせの結果に基づき、前記所定のベースデータセットを変換し、それにより、前記対象者の少なくとも対象領域のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用データセットが得られ、前記処理ユニットは、前記作業用データセットをセグメント化し、それにより、前記対象者の対象領域を表す投影データセットが得られ、前記出力インターフェースが更なる目的のために前記投影データセットを提供する、デバイス。
  2. 前記処理ユニットが、前記作業用データセットをセグメント化し、その結果として、得られる投影データセットが、前記対象者の対象領域の解剖学的構造及び/又は前記対象者の対象領域の表面のところのエントランスポイントを表す、請求項1に記載のデバイス。
  3. 前記入力インターフェースが、予め定められた時間間隔で又は継続的に更新された参照データを受信する、請求項1又は2に記載のデバイス。
  4. 前記参照データが参照画像データによって形成される、請求項1乃至3の何れか一項に記載のデバイス。
  5. 前記参照データがトモグラフィック参照画像データによって形成される、請求項1乃至3の何れか一項に記載のデバイス。
  6. 前記記憶手段が、前記対象者の少なくとも対象領域の対応する空間的描写を各々が表す複数の画像データセットを記憶し、前記処理ユニットが、前記参照データに基づき、参照画像データセットとして前記複数の画像データセットのうちの1つの画像データセットを選択し、前記処理ユニットが、前記参照画像データセットに基づき、所定のベースデータセットを変換し、それにより、前記対象者の少なくとも対象領域のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用データセットが得られる、請求項1乃至5の何れか一項に記載のデバイス。
  7. 検出手段と、光学投影手段と、請求項1乃至6の何れか一項に記載のデバイスとを備える、案内画像を対象者の上に投影するためのシステムであって、
    前記検出手段が、前記対象者を検出し、それにより、前記対象者の少なくとも対象領域のその時点の空間的描写を表す参照データが得られ、前記検出手段が前記参照データを転送するために前記デバイスの前記入力インターフェースに接続され、前記デバイスの前記出力インターフェースが前記投影データセットを転送するために前記光学投影手段に接続され、前記光学投影手段が、前記投影データセットに基づき、前記対象者の上に案内画像を投影する、システム。
  8. 前記検出手段が、少なくとも1つの光学カメラ装置を備える、請求項7に記載のシステム。
  9. 前記検出手段が、少なくとも1つのX線検出装置を備える、請求項7又は8に記載のシステム。
  10. 前記検出手段が、少なくとも1つの超音波検出装置を備える、請求項7乃至9の何れか一項に記載のシステム。
  11. 投影データセットを提供するための方法であって、前記方法は、
    a)対象者の少なくとも対象領域のその時点の空間的描写を表す参照データを受信するステップと、
    b)前記参照データに基づき、前記対象者の3Dトモグラフィック画像を表す所定のベースデータセットを変換するステップであって、それにより、前記対象者の少なくとも対象領域のその時点の空間的な解剖学的関係を示す変換された3Dトモグラフィック画像を表す作業用画像データセットが得られる、ステップと、
    c)前記作業用画像データセットをセグメント化するステップであって、それにより、前記対象者の対象領域を表す投影データセットが得られるステップと、
    d)更なる目的のために投影データセットを提供するステップとを有する、
    方法。
  12. 処理ユニットによって実行されるとき、請求項11に記載の方法のステップを実施する、請求項1乃至6の何れか一項に記載のデバイス又は請求項7乃至10の何れか一項に記載のシステムを制御するための、コンピュータプログラム。
  13. 請求項12に記載のコンピュータプログラムを記憶した、コンピュータ可読媒体。
JP2018532308A 2015-12-22 2016-12-22 投影データセットの提供 Active JP6960921B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15201851 2015-12-22
EP15201851.1 2015-12-22
PCT/EP2016/082479 WO2017109130A1 (en) 2015-12-22 2016-12-22 Providing a projection data set

Publications (2)

Publication Number Publication Date
JP2019505271A true JP2019505271A (ja) 2019-02-28
JP6960921B2 JP6960921B2 (ja) 2021-11-05

Family

ID=55023978

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018532308A Active JP6960921B2 (ja) 2015-12-22 2016-12-22 投影データセットの提供

Country Status (5)

Country Link
US (1) US10769787B2 (ja)
EP (1) EP3393389A1 (ja)
JP (1) JP6960921B2 (ja)
CN (1) CN108430376B (ja)
WO (1) WO2017109130A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019228530A1 (en) * 2018-05-31 2019-12-05 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for controllinig an x-ray imaging device
EP3586748B1 (de) * 2018-06-26 2020-06-24 Siemens Healthcare GmbH Verfahren zum betreiben eines medizinischen bildgebungsgeräts sowie bildgebungsgerät
EP3616621B1 (de) * 2018-08-31 2023-03-15 Siemens Healthcare GmbH Verfahren zur 3d dsa und vorrichtung
DE102020207753A1 (de) 2020-06-23 2021-12-23 Siemens Healthcare Gmbh Optimierung der Lagerung eines Patienten auf einer Patientenliege für die medizinische Bildgebung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000084096A (ja) * 1998-09-14 2000-03-28 Sumitomo Heavy Ind Ltd 位置合わせ方法及び装置
US6314311B1 (en) * 1999-07-28 2001-11-06 Picker International, Inc. Movable mirror laser registration system
JP2015505679A (ja) * 2011-10-09 2015-02-26 クリア・ガイド・メディカル・リミテッド・ライアビリティ・カンパニーClear Guide Medical,LLC 超音波画像を融合することによる介入現場画像ガイダンス
JP2015522371A (ja) * 2012-07-17 2015-08-06 コーニンクレッカ フィリップス エヌ ヴェ 器具ガイダンスを可能にするイメージングシステム及び方法
WO2015164402A1 (en) * 2014-04-22 2015-10-29 Surgerati, Llc Intra-operative medical image viewing system and method

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7853308B2 (en) * 2004-02-17 2010-12-14 Siemens Medical Solutions Usa, Inc. System and method for patient positioning for radiotherapy in the presence of respiratory motion
DE102006037778B4 (de) 2006-08-11 2011-02-10 Siemens Ag Anordnung und Verfahren zur Bewegungskompensation von Patienten während Eingriffen
US8251893B2 (en) 2007-01-31 2012-08-28 National University Corporation Hamamatsu University School Of Medicine Device for displaying assistance information for surgical operation, method for displaying assistance information for surgical operation, and program for displaying assistance information for surgical operation
WO2010067281A1 (en) * 2008-12-11 2010-06-17 Koninklijke Philips Electronics N.V. System and method for generating images of a patient's interior and exterior
US8781186B2 (en) 2010-05-04 2014-07-15 Pathfinder Therapeutics, Inc. System and method for abdominal surface matching using pseudo-features
US9520072B2 (en) * 2011-09-21 2016-12-13 University Of South Florida Systems and methods for projecting images onto an object
US9861295B2 (en) * 2013-05-21 2018-01-09 Autonomic Technologies, Inc. System and method for surgical planning and navigation to facilitate placement of a medical device within a target region of a patient
NL2012416B1 (en) * 2014-03-12 2015-11-26 Stichting Katholieke Univ Anatomical Image Projection System.
DE102014206004A1 (de) * 2014-03-31 2015-10-01 Siemens Aktiengesellschaft Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
US10806520B2 (en) 2014-05-23 2020-10-20 Koninklijke Philips N.V. Imaging apparatus for imaging a first object within a second object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000084096A (ja) * 1998-09-14 2000-03-28 Sumitomo Heavy Ind Ltd 位置合わせ方法及び装置
US6314311B1 (en) * 1999-07-28 2001-11-06 Picker International, Inc. Movable mirror laser registration system
JP2015505679A (ja) * 2011-10-09 2015-02-26 クリア・ガイド・メディカル・リミテッド・ライアビリティ・カンパニーClear Guide Medical,LLC 超音波画像を融合することによる介入現場画像ガイダンス
JP2015522371A (ja) * 2012-07-17 2015-08-06 コーニンクレッカ フィリップス エヌ ヴェ 器具ガイダンスを可能にするイメージングシステム及び方法
WO2015164402A1 (en) * 2014-04-22 2015-10-29 Surgerati, Llc Intra-operative medical image viewing system and method

Also Published As

Publication number Publication date
CN108430376A (zh) 2018-08-21
US20190005646A1 (en) 2019-01-03
EP3393389A1 (en) 2018-10-31
US10769787B2 (en) 2020-09-08
WO2017109130A1 (en) 2017-06-29
CN108430376B (zh) 2022-03-29
JP6960921B2 (ja) 2021-11-05

Similar Documents

Publication Publication Date Title
US20200160541A1 (en) Gpu-based system for performing 2d-3d deformable registration of a body organ using multiple 2d fluoroscopic views
US9265468B2 (en) Fluoroscopy-based surgical device tracking method
JP5244319B2 (ja) 画像のマルチモーダルレジストレーションのための装置及び方法
US9020229B2 (en) Surgical assistance planning method using lung motion analysis
US20170084036A1 (en) Registration of video camera with medical imaging
AU2015238800B2 (en) Real-time simulation of fluoroscopic images
JP2015506188A (ja) 容積測定モダリティからの構造の未較正内視鏡のビデオへのオーバレイ及び動き補償
JP7337556B2 (ja) 医用画像処理装置、x線診断装置及び医用画像処理方法
CN111657978A (zh) 解剖体表示与实况图像的配对
JP6131161B2 (ja) 画像位置合わせ装置、方法、およびプログラム、並びに3次元変形モデル生成方法
JP6960921B2 (ja) 投影データセットの提供
US11127153B2 (en) Radiation imaging device, image processing method, and image processing program
WO2023232492A1 (en) Guidance during medical procedures
EP4287120A1 (en) Guidance during medical procedures
US20220022967A1 (en) Image-based device tracking
US20220096165A1 (en) Interventional device tracking
CN118234422A (zh) 用于经皮手术期间的配准和跟踪的方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211012

R150 Certificate of patent or registration of utility model

Ref document number: 6960921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150