JP2020520759A - ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法 - Google Patents

ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法 Download PDF

Info

Publication number
JP2020520759A
JP2020520759A JP2019564971A JP2019564971A JP2020520759A JP 2020520759 A JP2020520759 A JP 2020520759A JP 2019564971 A JP2019564971 A JP 2019564971A JP 2019564971 A JP2019564971 A JP 2019564971A JP 2020520759 A JP2020520759 A JP 2020520759A
Authority
JP
Japan
Prior art keywords
dimensional
ray image
real
target location
interventional device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019564971A
Other languages
English (en)
Other versions
JP6770655B2 (ja
Inventor
オリヴィエ ピエール ネムポン
オリヴィエ ピエール ネムポン
パスカル イヴ フランソワ カシエール
パスカル イヴ フランソワ カシエール
ラウル フローラン
ラウル フローラン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020520759A publication Critical patent/JP2020520759A/ja
Application granted granted Critical
Publication of JP6770655B2 publication Critical patent/JP6770655B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5247Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4417Constructional features of apparatus for radiation diagnosis related to combined acquisition of different diagnostic modalities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/503Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0833Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures
    • A61B8/0841Detecting organic movements or changes, e.g. tumours, cysts, swellings involving detecting or locating foreign bodies or organic structures for locating instruments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0883Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30021Catheter; Guide wire
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30048Heart; Cardiac
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Cardiology (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Engineering & Computer Science (AREA)
  • Dentistry (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本発明は、ライブ2次元X線画像において介入装置の空間情報を表示することに関する。対象の3次元情報を提供するように容易化された視覚化技術を提供するために、ライブ2次元X線画像において介入装置の空間情報を提供する装置10が、提供される。前記装置は、入力ユニット12及び処理ユニット16を有する。前記入力ユニットは、患者の身体の一部に関する関心領域の現実の2次元X線画像18を提供するように構成される。目標場所22は、前記関心領域内にある。介入装置の少なくとも一部20は、前記関心領域内に配置される。前記入力ユニットは、前記関心領域の少なくとも一部及び介入装置19の少なくとも一部の現実の3次元超音波データを提供するように構成される。目標場所22は、前記関心領域内にある。前記処理ユニットは、前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データ内の前記目標場所を識別し、前記現実の3次元超音波データに基づいて、前記介入装置の一部と前記目標場所との間の空間関係を決定し、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出し、前記距離値に基づいて、前記現実の2次元X線画像とともに表示されるように前記空間関係を示すグラフィック表現32を生成するように構成される。

Description

本発明は、ライブ2次元X線画像において介入装置の空間情報を提供する装置、X線撮像システム、ライブ2次元X線画像において介入装置の空間情報を提供する方法、このような装置を制御するコンピュータプログラム要素及び前記プログラム要素を記憶したコンピュータ可読媒体に関する。
X線ガイド介入において、蛍光透視法が、介入中にツールを目標に向けてナビゲートするのに使用されうる。蛍光透視法は、対象のリアルタイムの動く画像を得ることができるようにX線を使用する撮像技術である。特に、人間の視覚により見えない挿入された介入装置は、対象に対して可視にされる。
深度情報を獲得するために、バイプレーン撮像のような、追加のX線画像が、要求される。しかしながら、これは、扱いにくいかもしれず、追加のX線照射を生じうる。
代わりに、3次元超音波撮像のような、第2の撮像モダリティが、使用されてもよい。WO2011/070477A1は、組み合わせられたX線及び超音波撮像システムを記載し、3次元超音波撮像データは、リアルタイムで、X線画像を補いうる。深度情報を提供するのに加えて、超音波データは、軟組織のような、低いX線可視性を持つ構造を可視にしうる。
したがって、対象の3次元情報を提供する容易化された視覚化技術を提供する必要性が、存在しうる。
本発明の目的は、独立請求項の対象物により解決され、更なる実施例は、従属請求項に組み込まれる。本発明の以下に記載される態様が、ライブ2次元X線画像において介入装置の空間情報を提供する装置、X線撮像システム、ライブ2次元X線画像において介入装置の空間情報を提供する方法、このような装置を制御するコンピュータプログラム要素及び前記プログラム要素を記憶したコンピュータ可読媒体にも適用されることに注意すべきである。
第1の態様によると、ライブ2次元X線画像において介入装置の空間情報を提供する装置が、提供される。前記装置は、入力ユニット及び処理ユニットを有する。前記入力ユニットは、患者の身体の一部に関連した関心領域のライブ2次元X線画像を提供するように構成される。目標場所は、前記関心領域内にある。前記入力ユニットは、前記関心領域の少なくとも一部及び介入装置の少なくとも一部のライブ3次元超音波データを提供するように更に構成される。前記処理ユニットは、前記ライブ2次元X線画像に対して前記ライブ3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データにおいて前記目標場所を識別し、前記ライブ3次元超音波データに基づいて、前記介入装置の一部と前記目標場所との間の空間関係を決定するように構成される。前記処理ユニットは、前記空間関係を示すグラフィック表現を生成するように構成される。前記グラフィック表現は、前記ライブ2次元X線画像とともに表示されるように提供される。
この第1の態様の典型的な実施例として、ライブ2次元X線画像において介入装置の空間情報を提供する装置が、提供される。前記装置は、入力ユニット及び処理ユニットを有する。前記入力ユニットは、患者の身体の一部に関連した関心領域の現実の(又はライブ、又は現在の)2次元X線画像を提供するように構成される。目標場所は、前記関心領域内にある。介入装置の少なくとも一部は、前記関心領域内に配置される。前記入力ユニットは、前記関心領域の少なくとも前記一部及び前記介入装置の少なくとも一部の現実の(又はライブ、又は現在の)3次元超音波データを提供するように更に構成される。前記目標場所は、前記関心領域内にある。前記処理ユニットは、前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データにおいて前記目標場所を識別し、前記現実の3次元超音波データに基づいて、前記介入装置の前記一部と前記目標場所との間の空間関係を決定するように構成される。前記処理ユニットは、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出すようにも構成される。前記処理ユニットは、前記距離値に基づいて、前記空間関係を示すグラフィック表現を生成するように構成される。前記グラフィック表現は、前記現実の2次元X線画像とともに表示されるように提供される。前記グラフィック表現は、したがって、前記現実の2次元X線画像とともに表示可能である。
用語「患者」は、例えば介入処置又は検査を受けている対象を指す。患者は、「対象」又は「個人」と称されることもできる。個人、すなわち対象は、したがって、前記処置に対する関心対象である。
一例において、前記入力ユニットは、前記現実の2次元X線画像及び前記現実の3次元超音波データを提供する。
用語「内に配置される」は、前記装置が少なくとも一部で前記関心対象内に存在することを指す。前記装置は、したがって、前記関心領域内に配置される又は備えられる。カテーテル、ガイドワイヤ又は針等である前記装置の一例において、前記装置は、例えば前記装置の先端又は他の所定の部分が前記関心領域内に、すなわち2次元及び3次元画像データ、すなわち前記2次元X線画像及び前記3次元超音波データによりカバーされる視野内にあるように挿入される。
一例において、前記2次元X線画像及び前記3次元超音波データは、同じ現実の時点若しくは瞬間、又は時間範囲若しくは時間期間を参照するので、それぞれの2次元及び3次元データは、異なる画像データ取得技術による異なるデータ情報を持つ、同じ関心領域を示す。したがって、例えば先端が前記関心領域内であるように配置された前記介入装置は、2次元及び3次元データの両方に存在する。
一例において、前記関心領域は、ユーザが前記介入装置を前記目標場所までナビゲートする患者の身体の一部である。前記介入装置の所定の点は、目標場所までナビゲートされるべきである。例えば、先端部分が、前記目標場所までナビゲートされるべきである。更なる例において、シャフト又は側部が、前記目標場所までナビゲートされるべきである。
一例において、(前記現実のX線画像により提供される)前記関心領域は、前記介入装置の前記所定の点を示し、すなわち、前記介入装置は、前記介入装置の前記所定の点が前記関心領域内に配置されるように移動される。
一例において、前記処理ユニットは、前記現実の2次元X線画像及び前記グラフィック表現を表示するための画像データを提供するように構成される。
一例において、前記介入装置の前記一部は、前記目標に向けてナビゲートされるべきである点又は部分を持つ前記介入装置の部分に関する。前記介入装置の前記一部は、したがって、前記介入装置の所定の点を有する。
一例において、前記3次元超音波データは、前記介入装置の前記所定の点の3次元超音波データを有し、すなわち、前記介入装置は、前記介入装置の前記所定の点が前記超音波データによりカバーされる部分内に配置されるように移動される。
前記目標場所は、目標又は目標位置として規定される所定の場所とも称される。一例において、前記ユーザは、前記介入装置の所定の点を前記所定の目標場所までナビゲートする。
用語「示す」は、前記ユーザが、好適に容易化された様式で現実の距離を近くすることを可能にする表現を指す。
一例において、前記グラフィック表現は、前記空間関係に基づく。
一例において、前記グラフィック表現は、前記現実の2次元X線画像とともに表示される。
一例において、用語「識別する」は、前記3次元超音波データにおいて前記目標場所を決定することに関する。これは、前記ユーザにより手動で提供されてもよい。他の例において、これは、により提供される。
用語「現実の」は、前記2次元X線画像及び前記3次元超音波データが取得される現在の状況を指す。
用語「ライブ」は、現実の(又は現在の)画像データを指す。ライブ、すなわち現実(現在)は、任意の変化、すなわち前記介入装置の移動が、前記2次元X線画像上で即座に示されることを意味する。
用語「ナビゲートする」は、前記目標場所に到達するような形でユーザにより前記介入装置を操作することに関する。
一例において、前記現在の2次元X線画像及び前記3次元超音波データの位置合わせは、それぞれの空間フレームを位置合わせすることにより提供される。一例において、それぞれの画像取得手段が、互いに位置合わせされる。他の例において、前記現在の2次元X線画像及び前記3次元超音波データの位置合わせは、両方の画像タイプにおいて可視であるランドマークにより提供される。他のオプションにおいて、前記位置合わせは、前記介入装置により提供される。
用語「目標場所」は、前記対象内の特定の関心点に関する。前記特定の関心点は、前記対象に関して静止していることができ、したがって前記対象に関して移動していない。他の例において、前記特定の関心点は、例えば患者運動により、前記対象とともに移動することができる。他の例において、前記特定の関心点は、前記対象に関して移動する、すなわち前記対象内で移動することができる。
前記グラフィック表現は、距離符号化と称されることもできる。これは、前記グラフィック表現が、前記目標場所に関して介入装置の一部の異なる深度レベルを示すように設計されることを意味する。例えば、異なる色が、符号パターンに対して規定されることができる。
前記2次元X線画像は、x−y平面内の前記患者の身体の投影画像と称されることもできる。
前記現実の3次元超音波データは、現実の3次元超音波画像データと称されることもできる。
前記3次元超音波データは、x−y平面内の空間情報に加えて、z方向における取得された画像の追加の空間情報を含む画像データに関することもできる。
前記介入装置の点及び前記目標場所の空間関係は、x、y及びz方向における距離値と称されることもできる。
前記現実の2次元X線画像の投影方向における距離値は、前記2次元X線画像のz方向における距離値又は深度又は深度値と称されることもできる。
一例において、前記処理ユニットは、前記現実の2次元X線画像の投影方向に対して前記現実の3次元超音波データを位置合わせするように構成される。
一例において、前記処理ユニットにより前記グラフィック表現を生成することは、前記距離値を前記グラフィック表現に変換することにより提供される。
他の例において、現実の2次元X線画像において介入装置の空間情報を提供する装置が、提供される。前記装置は、入力ユニット及び処理ユニットを有する。前記入力ユニットは、患者の身体の一部に関連した関心領域の現実の2次元X線画像を提供するように構成される。目標場所は、前記関心領域内にある。前記入力ユニットは、前記関心領域の少なくとも一部及び介入装置の少なくとも一部の現実の3次元超音波データを提供するように更に構成される。前記処理ユニットは、前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データにおいて前記目標場所を識別し、前記介入装置の一部が前記関心領域内に配置されるように前記介入装置が移動される場合に、前記現実の3次元超音波データに基づいて、前記介入装置の一部と前記目標場所との間の空間関係を決定するようにも構成される。前記空間関係は、深度値又は前記2次元X線画像のz方向における距離値と称される。前記処理ユニットは、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出し、前記距離値に基づいてグラフィック表現を生成するように構成され、前記グラフィック表現は、前記現実の2次元X線画像とともに表示される。
一例において、前記処理ユニットは、前記介入装置の一部が前記関心領域内に配置されるように前記介入装置が移動される場合に、前記介入装置の一部と前記目標場所との間の前記空間関係を決定するように構成される。前記空間関係は、深度値又は前記2次元X線画像のz方向における距離値である。前記処理ユニットは、前記距離値に基づいてグラフィック表現を生成するように構成される。
一例によると、前記現実の2次元X線画像の前記投影方向における前記距離値は、前記2次元X線画像のz方向における距離値である。
z方向は、前記2次元X線画像に垂直である。
一例によると、前記処理ユニットは、前記現実の2次元X線画像及び前記現実の2次元X線画像内の前記グラフィック表現を有する画像データを生成するように構成される。
一例によると、前記グラフィック表現は、符号化されたグラフィック表現である。オプションにおいて、色符号又はパターン符号のような符号化された情報は、前記ユーザに近すぎる若しくは遠すぎる、又はX線投影の視線方向において、前記目標が配置される面の後ろ又は前のような、特定の相対距離を示す。他の例において、前記符号化された情報は、目標面の10mm後ろ又は7.5mm前のような、特定の絶対距離を示す。
一例において、前記符号化されたグラフィック表現は、色符号又はパターン符号の形の符号化された情報を有する。
一例によると、前記現実の2次元X線画像及び前記2次元X線画像内の前記グラフィック表現を有する前記画像データを表示するように構成された表示ユニットが、提供される。
一例によると、前記処理ユニットは、前記現実の2次元X線画像において前記目標場所を識別し、視覚的に示すように構成される。
一例によると、前記目標場所は、前記現実の3次元超音波データにおいて可視のマーカを備える。
したがって、前記装置は、現実の2次元X線画像において介入装置の空間情報を提供する装置と称されることもできる。
一例において、前記2次元X線画像は、表示ユニット上に示される。
一例において、前記表示ユニットは、スクリーンである。
一例において、前記グラフィック表現は、前記目標場所において表示される。
一例において、前記介入装置の所定の点は、前記介入装置の先端であることができる。
一例において、前記介入装置は、2次元X線及び3次元超音波の両方で取得される。
一例において、前記介入装置は、経カテーテル装置であることができる。
一例において、X線及び介入超音波座標系は、システムにより位置合わせされる。
例えば、このような位置合わせは、フィリップスによるエコーナビゲータ(登録商標)と称されるシステムにより提供される。
一例において、前記目標場所は、心臓の主要な血管であることができ、例えば、ステントが、前記介入装置のサポートでこの中に配置されるように入る。
結果として、X線画像を散らかすことなしに前記2次元X線画像に有用な3次元情報を持ち込む視覚化技術が、提供される。X線画像投影は、「深度」情報を示さないので、投影方向におけるこの次元は、ここで、X線2次元投影画像に戻され、すなわち、この2次元画像は、相対的な深度情報で強化又は拡張される。これは、前記ユーザ、例えばインターベンショニストが、前記介入装置を前記目標場所にナビゲートするのに前記2次元X線画像を信頼しうることを意味する。前記空間関係から、目標(すなわち目標場所、目標位置又は目標点)までの前記介入装置の投影方向における距離値、又はいわゆる相対深度をも取り出し、前記距離値をグラフィック表現に変換することにより、現実の2次元X線画像が生成され、前記2次元X線画像を散らかすことなしに前記相対深度情報に関する追加の視覚的情報とともに前記2次元X線画像上の前記介入装置の移動を示す。これにより、前記ユーザは、関連情報に集中することができ、気を散らされない。前記追加の情報が、超音波により提供されるので、更なるX線照射は、要求されない。
更に他の例において、現実の2次元X線画像において介入装置の空間情報を提供する装置が、提供される。前記装置は、入力ユニット及び処理ユニットを有する。前記入力ユニットは、異なるデータソースからの複数のデータを扱うように構成される。これは、異なるデータタイプを扱うようにも構成される。前記入力ユニットは、関心領域の現実の2次元X線画像を提供するように構成される。前記関心領域は、ユーザが介入装置をナビゲートする患者の身体の一部に関する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。前記入力ユニットは、前記介入装置の前記所定の点を有する前記関心領域の少なくとも一部の現実の3次元超音波データを提供するように更に構成される。前記処理ユニットは、前記現実の2次元X線画像の投影方向に対して前記現実の3次元超音波データを位置合わせするように構成される。前記処理ユニットは、前記3次元超音波データ内の所定の目標場所を識別し、前記現実の3次元超音波データに基づいて、少なくとも前記現実の2次元X線画像の前記投影方向において前記介入装置の前記所定の点の現実の位置と前記所定の目標場所との間の空間関係を決定するように構成される。一例において、前記処理ユニットは、手術を開始する前に前記ユーザ、すなわち外科医からの幾何学的コマンドを処理することにより前記所定の目標場所を識別する。例えば、前記ユーザは、前記患者の身体の幾何学的情報を前記入力ユニットを介して前記装置の前記処理ユニットに送信する。一例において、前記処理ユニットは、一度前記介入装置の前記一部が、3次元超音波装置により取得されることができる領域内になると、前記目標場所と前記介入装置の前記一部との間の前記距離値を決定する。他の例において、前記処理ユニットは、一度両方が前記関心領域内になると、前記介入装置と前記目標場所との間の前記距離値を決定する。前記処理ユニットは、前記空間関係から前記現実の2次元X線画像の前記投影方向における距離値を取り出し、前記距離値を符号化されたグラフィック表現に変換するように構成される。前記処理ユニットは、前記現実の2次元X線画像内の前記目標場所を識別し、視覚的に示すように構成される。前記処理ユニットは、前記現実の2次元X線画像及び前記符号化されたグラフィック表現を表示するための画像データを提供するように構成される。
第2の態様によると、ライブ2次元X線画像において介入装置の空間情報を提供するX線撮像システムが、提供される。前記システムは、X線撮像装置と、超音波撮像装置と、上記の例の1つによるライブ2次元X線画像において介入装置の空間情報を提供する装置とを有する。前記X線撮像装置は、前記現実の2次元X線画像、すなわち患者の身体の一部に関する前記関心領域の前記現実の2次元X線画像を提供し、前記目標場所は、前記関心領域内にあり、前記介入装置の少なくとも前記一部が、関心領域内に配置される。前記超音波撮像装置は、現実の3次元超音波データ、すなわち前記介入装置の一部と前記関心領域の一部の前記現実の3次元超音波データを提供し、前記目標場所は、前記関心領域内にある。
一例において、前記関心領域は、ユーザが介入装置をナビゲートする前記患者の身体の一部に関する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。
前記X線撮像システムは、ライブ2次元X線画像において介入装置の空間情報を表示するためのX線撮像システムと称されることもできる。
用語「提供する」は、X線画像を取得するとも称されることができる。
例において、前記X線撮像装置は、ユーザが介入装置をナビゲートする前記患者の身体の一部に関する関心領域の前記現実の2次元X線画像を提供する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。
一例によると、前記超音波撮像装置は、患者の体内に挿入可能である。
更に他の例において、ライブ2次元X線画像において介入装置の空間情報を提供するシステムが、提供される。前記システムは、X線撮像装置と、超音波撮像装置と、上記の例によるライブ2次元X線画像において介入装置の空間情報を提供する装置とを有する。前記X線撮像装置は、関心領域の現実の2次元X線画像を提供する。前記関心領域は、ユーザが介入装置をナビゲートする前記患者の身体の一部に関する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。前記超音波撮像装置は、前記介入装置の前記所定の点を有する前記関心領域の少なくとも一部の現実の3次元超音波データを提供する。
第3の態様によると、ライブ2次元X線画像において介入装置の空間情報を提供する方法が、提供される。前記方法は、以下のステップを有する。
a)第1のステップにおいて、前記患者の身体の一部に関する関心領域の現実の2次元X線画像が、提供され、目標場所は、前記関心領域内にある。介入装置の少なくとも一部は、前記関心領域内に配置される。
b)第2のステップにおいて、前記関心領域の少なくとも一部及び介入装置の少なくとも一部の現実の3次元超音波データが、提供される。
c1)第3のステップにおいて、前記現実の3次元超音波データが、前記現実の2次元X線画像に位置合わせされる。
c2)第4のステップにおいて、前記3次元超音波データ内の前記目標場所が、識別され、前記介入装置の前記一部と前記目標場所との間の前記空間関係が、前記現実の3次元超音波データに基づいて決定される。更に、前記現実の2次元X線画像の投影方向における距離値が、前記空間関係から取り出される。
c3)第5のステップにおいて、前記距離値に基づいて、前記現実の2次元X線画像とともに表示されるべきである前記空間関係を示すグラフィック表現が、生成される。
他の例において、前記現実の2次元X線画像内の前記目標場所が識別され、視覚的に示される、ステップd)とも称される更なる(第6の)ステップが、提供される。
ステップe)とも称される他の(第7の)ステップにおいて、前記現実の2次元X線画像及び前記グラフィック表現を表示するための画像データが、提供される。
一例において、前記関心領域は、ユーザが介入装置をナビゲートする患者の身体の一部に関する。例えば、前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。
一例において、前記関心領域は、前記介入装置の前記所定の点を有する。
一例において、ステップc1)において、前記現実の2次元X線画像の投影方向に対して前記現実の3次元超音波データを位置合わせするステップが、提供される。
一例において、ステップc2)において、前記3次元超音波データ内の前記所定の目標場所を識別し、前記現実の3次元超音波データに基づいて、少なくとも前記現実の2次元X線画像の前記投影方向において前記介入装置の前記所定の点と前記所定の目標場所との間の空間関係を決定するステップが、提供される。
前記グラフィック表現は、符号化されたグラフィック表現であってもよい。
一例において、ステップe)において又はステップe)の後に続いて、前記現実の2次元X線画像及び前記グラフィック表現を有する前記画像データが、表示される。
一例において、ステップa)乃至e)は、前記ユーザが、前記患者の身体内の前記関心領域の即座の現実のデータを持つように、同時の連続的な形で提供される。
一例において、前記距離値、例えば、前記介入装置の前記点と前記目標場所との間の距離は、3次元超音波において決定される。例えば、前記投影方向における前記介入装置の前記点と前記目標場所との間の距離値は、前記X線源までの前記目標場所の距離から前記X線源までの前記介入装置の前記点の距離を、又はその逆を減算することにより計算される。
一例において、前記相対深度は、前記目標場所と、前記目標及び前記X線撮像装置の両方を通る線に対する前記介入装置の前記目標点の投影との間の距離として計算される。前記投影は、例えば、前記介入装置の前記点の標準的なユークリッド投影であってもよい。
他の例において、前記介入装置の向きの推定が前記介入装置の前記点の位置に加えて利用可能であると仮定して、前記介入装置の前記点を通る前記線に最も近い点が、提供され、前記介入装置とアラインされる。
したがって、前記方法は、現実の又はライブ2次元X線画像において介入装置の空間情報を表示する方法とも称されることができる。
一例によると、前記グラフィック表現は、前記目標場所に表示される。
一例において、第1の円は、前記2次元X線画像内の前記目標場所を示し、前記第1の円は、色符号化によって色を変える。
一例において、前記色符号化は、前記介入装置が前記目標場所に近すぎるか又は遠すぎるかを示す。
他の例によると、前記現実の2次元X線画像において前記介入装置の位置を識別し、視覚的に示すことを有するステップd)が、提供される。更に、前記グラフィック表現が前記介入装置の位置に表示されることを有するステップe)が、提供される。
オプションにおいて、前記グラフィック表現は、前記現実の2次元X線画像内の前記介入装置の位置の変化を追う。
更に他の例において、ライブ2次元X線画像において介入装置の空間情報を提供する方法が、提供される。前記方法は、以下のステップを有する。ステップa)とも称される第1のステップにおいて、関心領域の現実の2次元X線画像が、提供され、前記関心領域は、ユーザが介入装置をナビゲートする患者の身体の一部に関する。前記介入装置の所定の点は、前記関心領域内の所定の目標場所にナビゲートされるべきである。ステップb)とも称される第2のステップにおいて、前記介入装置の前記所定の点を有する前記関心領域の少なくとも一部の現実の3次元超音波データが、提供される。ステップc1)とも称される第3のステップにおいて、前記現実の3次元超音波データが、前記現実の2次元X線画像の投影方向に対して位置合わせされる。ステップc2)とも称される第4のステップにおいて、前記3次元超音波データ内の前記所定の目標場所は、識別され、少なくとも前記現実の2次元X線画像の投影方向における前記介入装置の前記所定の点の現実の位置と前記所定の目標場所との間の前記空間関係が、前記現実の3次元超音波データに基づいて決定される。ステップc3)とも称される第5のステップにおいて、前記空間関係から前記投影方向における距離が、取り出され、前記距離値は、符号化されたグラフィック表現に変換される。ステップd)とも称される第6のステップにおいて、前記現実の2次元X線画像内の前記目標場所が、識別され、視覚的に示される。ステップe)とも称される第7のステップにおいて、前記現実の2次元X線画像及び前記符号化されたグラフィック表現を表示するための画像データが、提供される。
一態様によると、グラフィック表現により前記現実の2次元X線画像に垂直な目標に対する介入装置の距離を視覚化することが、提供される。これにより、ユーザは、深度方向とも称されることができる前記2次元画像に垂直な方向における前記介入装置の位置に関する情報を提供される。例えば、前記現実の2次元X線画像上で、介入装置を目標点にナビゲートする場合、前記ユーザは、前記2次元面における前記目標に対する前記介入装置の位置を提供される。前記深度方向における前記介入装置の向きは、前記介入装置が前記目標点から遠いか又は近いかを示す色符号化を持つ円のような、グラフィック表現により視覚化される。前記X線画像に加えて、介入超音波は、したがって、3次元において生体構造及び介入ツールに関する有用な追加の情報を提供する。結果として、X線及び介入超音波からの情報の融合が、達成される。前者が投影的あり、後者が体積である、これらのモダリティの異なる幾何学的性質は、結合又は融合された情報を前記ユーザに提示するように結合される。超音波撮像からの3次元情報は、投影X線画像と融合され、(超音波からの)3次元情報をも有する2次元画像(X線投影画像)を提供する。
本発明のこれら及び他の態様は、以下に記載される実施例を参照して説明され、明らかになる。
本発明の典型的な実施例は、以下の図面を参照して以下に記載される。
ライブ2次元X線画像において介入装置の空間情報を提供する装置の一例を示す。 介入装置、超音波画像装置、目標場所及びグラフィック表現を持つ関心領域の2次元X線画像の一例を示す。 現実の2次元X線画像上のグラフィック表現の他の典型的な図を示す。 ライブ2次元X線画像において介入装置の空間情報を提供する方法の一例を示す。 図2の写真図を示す。 図3の写真図を示す。
図1は、2次元投影X線画像において介入装置の空間情報を表示する装置10を示す。装置10は、入力ユニット12及び処理ユニット16を有する。入力ユニット12は、(図2及び図3に示されるように)患者の身体の一部に関する関心領域の現実の2次元X線画像18を提供するように構成される。(図2及び図3に示される)目標場所22は、前記関心領域内にある。介入装置の少なくとも一部20は、前記関心領域内に配置される。入力ユニット12は、前記関心領域の少なくとも一部及び介入装置19の少なくとも一部20の現実の3次元超音波データを提供するように更に構成される。目標場所22は、前記関心領域内にある。処理ユニット16は、現実の2次元X線画像18に対して現実の3次元超音波データを位置合わせするように構成される。処理ユニット16は、前記3次元超音波データにおいて目標場所22を識別し、前記現実の3次元超音波データに基づいて、介入装置19の一部20と目標場所22との間の空間関係を決定するように構成される。処理ユニット16は、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出すように構成される。処理ユニット16は、前記距離値に基づいて、前記空間関係を示し、現実の2次元X線画像18とともに表示されるグラフィック表現32、例えば、符号化されたグラフィック表現を生成するように構成される。
図示されない例において、処理ユニット16は、現実の2次元X線画像18及びグラフィック表現32を表示するための画像データを提供するように構成される。一例において、介入装置19の一部20は、前記介入装置の所定の点を有する。
一例において、前記関心領域は、前記関心領域は、ユーザが介入装置19をナビゲートする前記患者の身体の一部に関する。
他の図示されない例において、前記処理ユニットは、前記空間関係から前記現実の2次元X線画像の投影方向26(図2に示される)における距離値を取り出し、前記距離値に基づいてグラフィック表現32を生成するように構成される。
他の図示されない例において、前記処理ユニットは、前記現実の2次元X線画像内の目標場所22を識別し、視覚的に示すように構成される。
他の図示されない例において、前記目標場所は、前記現実の3次元超音波データにおいて可視のマーカを備える。
オプションとして示される、一例において、現実の2次元X線画像18及び前記現実の2次元X線画像内のグラフィック表現32を有する前記画像データを表示するように構成された表示ユニット14が、提供される。
他の図示されない例において、ライブ2次元X線画像において介入装置の空間情報を提供するシステムが、提供される。前記システムは、図2又は図3に示されるように、X線撮像装置、超音波撮像装置36、及び現実の2次元X線画像18において介入装置19の空間情報を提供する装置10の一例を有する。前記X線撮像装置は、関心領域の前記現実の2次元X線画像を提供する。超音波撮像装置36は、介入装置19の少なくとも一部20を有する前記関心領域の少なくとも一部の現実の3次元超音波データを提供する。
一例において、超音波撮像装置36は、図2及び図3に示されるように患者の身体内に挿入可能である。
図2は、関心領域に対する現実の2次元X線画像18の一例を示す。介入装置19は、ユーザがナビゲートする患者の身体40の一部に関する関心領域において示される。一例において、超音波装置36は、前記患者の身体40内に挿入される。図2は、目標場所22及びグラフィック表現32を更に示す。一例において、グラフィック表現32は、前記2次元X線画像内の目標場所22に対する第1の円38を視覚化することを有する。これにより、前記ユーザは、2つのタイプの情報を提供される。第一に、前記ユーザは、前記現実の2次元X線画像内の目標場所22の情報を提供される。第二に、グラフィック表現32に基づいて、前記ユーザは、前記目標場所の深度情報を提供される。前記グラフィック表現は、例えば介入装置19の一部20と目標場所22との間の距離値に依存して色符号を変化させるように規定されることができる。
図3は、グラフィック表現32、すなわち距離符号化なしで、同様のグラフィック表現を持つ現実の2次元X線画像18内に視覚的に示される目標場所22を示す。
一例において、第1の円38は、中間色を持つ点及び/又は円又は他のグラフィックシンボルである。更に、第2の円42(又は他のグラフィックシンボル)も、前記2次元X線画像において視覚化される。ここで、第2の円42は、介入装置19の一部20と目標場所22との間の距離値に依存する色符号を持つグラフィック表現32を示す。
一例において、第2の円42は、現実の2次元X線画像18内の介入装置19の一部20の移動を追う。介入装置19の一部20の現実の位置の変化は、一部20の移動に関する。
前記グラフィック表現の選択は、例えば、ツールが近すぎる場合にはオレンジ、遠すぎる場合には青、及びツール及び目標が深度方向、すなわち前記X線画像の深度方向においてアラインされている場合には緑であることができる。
一例において、深度の感覚は、色より「柔軟な」遷移を持つ、サイズ変化、ぼけ及び透明度のような追加の視覚化技術により更に増大されることができる。他の視覚化技術も、提供される。
(図示されない)一例において、前記介入装置の前記一部と前記目標場所との間の距離値、例えば距離情報は、前記現実の2次元X線画像において数値形式で視覚化される。数値形式は、mm、cm等のような測定単位を参照することもできる。一例において、数値形式の前記距離値の視覚化は、前記現実の2次元X線画像において前記目標場所の近くに、例えば第1の円38又は第2の円42の隣に配置されることができる。
一例において、前記距離値は、前記介入装置の前記一部と前記目標場所との間の距離、すなわち相対距離又は距離(ベクトル)成分に関する。
他の例において、前記距離値は、前記介入装置の前記一部と前記目標場所との間の空間距離、すなわち現実の又は絶対距離に関する。
図4は、ライブ2次元X線画像において介入装置の空間情報を表示する対応する方法400を示す。前記方法は、以下のステップを有する。ステップa)とも称される第1のステップ402において、関心領域の現実の2次元X線画像が、提供され、前記関心領域は、患者の身体の一部に関し、目標場所は、前記関心領域内にある。介入装置の少なくとも一部は、前記関心領域内に配置される。ステップb)とも称される第2のステップ404において、前記関心領域の少なくとも一部及び前記介入装置の少なくとも一部の現実の3次元超音波データが、提供される。ステップc1とも称される第3のステップ406において、前記現実の3次元超音波データが、前記現実の2次元X線画像に対して位置合わせされる。ステップc2)とも称される第4のステップ408において、前記3次元超音波データ内の前記目標場所が、識別され、前記介入装置の前記一部と前記目標場所との間の空間関係が、前記現実の3次元超音波データに基づいて決定される。更に、前記現実の2次元X線画像の投影方向における距離値が、前記空間関係から取り出される。ステップc3)とも称される他のステップ410において、前記距離値に基づいて、前記現実の2次元X線画像とともに表示される前記空間関係を示すグラフィック表現が、生成される。
オプションとしてのみ提供され、示される、ステップd)とも称される他のステップ412において、前記現実の2次元X線画像内の前記目標場所が、識別され、視覚的に示される。オプションとして提供され、ステップe)とも称される他のステップ414において、前記現実の2次元X線画像及び前記グラフィック表現を表示するための画像データが、提供される。
他の図示されない例において、前記目標場所において前記グラフィック表現を表示することを有する更なるステップが、提供される。
一例において、前記現実の2次元X線画像及び前記グラフィック表現を有する前記画像データが、表示される。
一例において、前記グラフィック表現は、図2に示されるように前記目標場所において表示される。
一例において、前記現実の2次元X線画像において前記介入装置の位置を識別し、視覚的に示すことを有するステップ412が、提供され、介入装置19の位置、例えば介入装置19の所定の部分又は点において前記グラフィック表現を表示することを有するステップ414が、提供される。
(詳細には図示されない)一例において、好ましくは、前記グラフィック表現は、前記現実の2次元X線画像内の前記介入装置の位置の変化を追う。
一例において、ステップ414は、前記2次元X線画像において数値形式で介入装置19と前記目標との間の距離値を視覚化することを更に有する。
図5は、図2の写真図(photographic illustration)を示し、図6は、図3の写真図を示す。前記写真図は、前記X線撮像装置による前記取得された画像のグレイの影を示す。
上記のように、円38及び42は、それぞれ、前記色符号化を色符号に変化させる。結果として、介入装置19の点20及び目標場所22の相対深度は、前記取得された画像上で良好に強調されて示される。
本発明の他の典型的な実施例において、適切なシステム上で、先行する実施例の1つによる方法の方法ステップを実行するように構成されることを特徴とするコンピュータプログラム又はコンピュータプログラム要素が、提供される。
前記コンピュータプログラム要素は、したがって、本発明の一実施例の一部であってもよいコンピュータユニットに記憶されてもよい。このコンピューティングユニットは、上記の方法のステップを実行する又は実行するように誘導するように構成されうる。更に、上記の装置のコンポーネントを動作するように構成されてもよい。前記コンピューティングユニットは、自動的に動作するように及び/又はユーザのオーダを実行するように構成されることができる。コンピュータプログラムは、データプロセッサのワーキングメモリ内にロードされてもよい。前記データプロセッサは、したがって、本発明の方法を実行するように構成されうる。
本発明のこの典型的な実施例は、最初から本発明を使用するコンピュータプログラム及びアップデートを用いて既存のプログラムを、本発明を使用するプログラムにするコンピュータプログラムの両方をカバーする。
更に、前記コンピュータプログラム要素は、上記の方法の典型的な実施例の処置を満たすのに必要な全てのステップを提供することができる。
本発明の他の典型的な実施例によると、CD−ROMのようなコンピュータ可読媒体が、提示され、前記コンピュータ可読媒体は、記憶されたコンピュータプログラム要素を持ち、前記コンピュータプログラム要素は、先行するセクションにより記載されている。コンピュータプログラムは、他のハードウェアと一緒に又は一部として提供される光記憶媒体又は半導体媒体のような適切な媒体に記憶及び/又は分配されてもよいが、インターネット又は他の有線若しくは無線電気通信システムを介するような他の形で分配されてもよい。
しかしながら、前記コンピュータプログラムは、ワールドワイドウェブのようなネットワークを介して提示されてもよく、そのようなネットワークからデータプロセッサのワーキングメモリにダウンロードされてもよい。本発明の更なる例示的な実施例によれば、コンピュータプログラム要素をダウンロード可能にする媒体が提供され、そのコンピュータプログラム要素は、本発明の前述の実施例の1つによる方法を実行するように構成される。
本発明の実施例は、異なる対象物を参照して説明されることに留意されたい。特に、いくつかの実施例は、方法型請求項を参照して説明され、他の実施例は、装置型請求項を参照して説明される。しかしながら、当業者は、上記及び以下の説明から、特に断りのない限り、1つのタイプの対象物に属する特徴の組み合わせに加えて、異なる対象物に関連するフィーチャ間のいかなる組み合わせも、本出願で開示されていると見なされることを推測するであろう。しかしながら、全てのフィーチャは、組み合わされて、フィーチャの単純な合計以上の相乗効果を提供できる。
本発明は、図面及び前述の説明で詳細に図示及び説明されたが、そのような図示及び説明は、限定的ではなく、例示的又は典型的であると見なされるべきである。本発明は、開示された実施例に限定されない。開示された実施例に対する他の変形は、図面、開示、及び従属請求項の研究から、請求された発明を実施する際に当業者によって理解及び達成されることができる。
請求項において、単語「有する」は、他の要素又はステップを除外せず、不定冠詞「a」又は「an」は、複数を除外しない。単一のプロセッサ又は他のユニットが、請求項に記載されているいくつかのアイテムの機能を満たしてもよい。特定の手段が相互に異なる従属請求項に記載されているという単なる事実は、これらの手段の組み合わせが有利に使用されることができないことを示すものではない。請求項中の参照符号は、範囲を限定するものとして解釈されるべきではない。

Claims (15)

  1. ライブ2次元X線画像において介入装置の空間情報を提供する装置において、
    入力ユニットと、
    処理ユニットと、
    を有し、
    前記入力ユニットが、患者の身体の一部に関する関心領域の現実の2次元X線画像を提供し、目標場所が、前記関心領域内にあり、介入装置の少なくとも一部が、前記関心領域内に配置され、
    前記入力ユニットが、前記関心領域の一部及び前記介入装置の少なくとも前記一部の現実の3次元超音波データを提供し、前記目標場所が、前記関心領域内にあり、
    前記処理ユニットが、前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせし、前記3次元超音波データ内の前記目標場所を識別し、前記現実の3次元超音波データに基づいて、前記介入装置の前記一部と前記目標場所との間の空間関係を決定し、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出し、前記距離値に基づいて、前記空間関係を示し、前記現実の2次元X線画像とともに表示されるグラフィック表現を生成する、
    装置。
  2. 前記現実の2次元X線画像の前記投影方向における前記距離値が、前記2次元X線画像のz方向における距離値である、請求項1に記載の装置。
  3. 前記処理ユニットが、前記現実の2次元X線画像及び前記現実の2次元X線画像内の前記グラフィック表現を有する画像データを生成する、請求項1又は2に記載の装置。
  4. 前記グラフィック表現が、色又はパターン符号化されたグラフィック表現であり、
    好ましくは、前記符号化されたグラフィック表現が、
    i)i1)前記目標場所に近すぎるか若しくは遠すぎるか、又はi2)X線投影の視線方向において、目標が配置される面の後ろであるか又は前であるかのグループの1つを有する特定の相対距離、又は
    ii)目標面の後ろ又は前の特定の絶対距離、
    を示す、
    請求項1、2又は3に記載の装置。
  5. 前記現実の2次元X線画像及び前記現実の2次元X線画像内の前記グラフィック表現を有する前記画像データを表示する表示ユニットが、提供される、請求項1乃至4のいずれか一項に記載の装置。
  6. 前記処理ユニットが、前記現実の2次元X線画像内の前記目標場所を識別し、視覚的に示す、請求項1乃至5のいずれか一項に記載の装置。
  7. 前記目標場所が、前記現実の3次元超音波データ内で可視のマーカを備える、請求項1乃至6のいずれか一項に記載の装置。
  8. X線撮像装置と、
    超音波撮像装置と、
    請求項1乃至7のいずれか一項に記載の装置と、
    を有するX線撮像システムにおいて、
    前記X線撮像装置が、前記現実の2次元X線画像を提供し、
    前記超音波撮像装置が、前記現実の3次元超音波データを提供する、
    システム。
  9. 前記超音波撮像装置が、患者の身体内に挿入可能である、請求項7に記載のシステム。
  10. ライブ2次元X線画像において介入装置の空間情報を提供する方法において、
    a)患者の身体の一部に関する関心領域の現実の2次元X線画像を提供するステップであって、目標場所が、前記関心領域内にあり、介入装置の少なくとも一部が、前記関心領域内に配置される、ステップと、
    b)前記関心領域の少なくとも一部及び前記介入装置の少なくとも前記一部の現実の3次元超音波データを提供するステップであって、前記目標場所が、前記関心領域内である、ステップと、
    c1)前記現実の2次元X線画像に対して前記現実の3次元超音波データを位置合わせするステップと、
    c2)前記現実の3次元超音波データ内の前記目標場所を識別し、前記現実の3次元超音波データに基づいて、前記介入装置の前記一部と前記目標場所との間の空間関係を決定し、前記空間関係から前記現実の2次元X線画像の投影方向における距離値を取り出すステップと、
    c3)前記距離値に基づいて、前記現実の2次元X線画像とともに表示されるように前記空間関係を示すグラフィック表現を生成するステップと、
    を有する、方法。
  11. 前記目標場所において前記グラフィック表現を表示することを有するステップが、提供される、請求項10に記載の方法。
  12. 前記現実の2次元X線画像において前記介入装置の位置を識別し、視覚的に示すことを有するステップd)が、提供され、前記介入装置の位置において前記グラフィック表現を表示することを有するステップe)が、提供され、
    好ましくは、前記グラフィック表現が、前記現実の2次元X線画像内の前記介入装置の位置の変化を追う、
    請求項10又は11に記載の方法。
  13. ステップe)が、前記2次元X線画像上に数値形式で前記介入装置と前記目標との間の前記距離値を視覚化することを更に有する、請求項10乃至12のいずれか一項に記載の方法。
  14. 処理ユニットにより実行される場合に、請求項10乃至13のいずれか一項に記載の方法を実行するように構成される、請求項1乃至9のいずれか一項に記載の装置を制御するコンピュータプログラム。
  15. 請求項14に記載のコンピュータプログラムを記憶したコンピュータ可読媒体。
JP2019564971A 2017-05-24 2018-05-23 ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法 Active JP6770655B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17305614.4A EP3406195A1 (en) 2017-05-24 2017-05-24 Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image
EP17305614.4 2017-05-24
PCT/EP2018/063431 WO2018215499A1 (en) 2017-05-24 2018-05-23 Device and a corresponding method for providing spatial information of an interventional device in a live 2d x-ray image

Publications (2)

Publication Number Publication Date
JP2020520759A true JP2020520759A (ja) 2020-07-16
JP6770655B2 JP6770655B2 (ja) 2020-10-14

Family

ID=59034673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019564971A Active JP6770655B2 (ja) 2017-05-24 2018-05-23 ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法

Country Status (5)

Country Link
US (1) US11291424B2 (ja)
EP (2) EP3406195A1 (ja)
JP (1) JP6770655B2 (ja)
CN (1) CN110650686B (ja)
WO (1) WO2018215499A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023233676A1 (ja) * 2022-05-31 2023-12-07 朝日インテック株式会社 手術支援装置、手術支援方法、及びコンピュータプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113538572A (zh) * 2020-04-17 2021-10-22 杭州三坛医疗科技有限公司 一种目标对象的坐标确定方法、装置和设备

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005111288A (ja) * 1993-11-26 2005-04-28 Toshiba Medical System Co Ltd 手術支援システム
WO2005092198A1 (en) * 2004-03-05 2005-10-06 Koninklijke Philips Electronics N.V. System for guiding a medical instrument in a patient body
WO2007113815A2 (en) * 2006-03-30 2007-10-11 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
JP2009268693A (ja) * 2008-05-07 2009-11-19 Toshiba Corp X線撮影装置、画像処理装置および画像処理プログラム
JP2010012097A (ja) * 2008-07-04 2010-01-21 Toshiba Corp 画像処理装置
WO2011070477A1 (en) * 2009-12-09 2011-06-16 Koninklijke Philips Electronics N.V. Combination of ultrasound and x-ray systems
WO2011086475A1 (en) * 2010-01-12 2011-07-21 Koninklijke Philips Electronics N.V. Navigating an interventional device
JP2015024154A (ja) * 2009-01-30 2015-02-05 コーニンクレッカ フィリップス エヌ ヴェ 検査装置
JP2015083082A (ja) * 2013-10-25 2015-04-30 株式会社東芝 X線診断装置
JP2016154934A (ja) * 2010-09-03 2016-09-01 ユニヴァーシティ オブ ワシントン 脳神経外科手術用デバイス及び関連したシステム及び方法

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10033723C1 (de) * 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
JP2002119502A (ja) * 2000-10-17 2002-04-23 Toshiba Corp 医用装置
DE10240727A1 (de) * 2002-09-04 2004-03-18 Philips Intellectual Property & Standards Gmbh Bildgebendes System und Verfahren zur Optimierung einer Röntgenabbildung
DE102005032523B4 (de) * 2005-07-12 2009-11-05 Siemens Ag Verfahren zur prä-interventionellen Planung einer 2D-Durchleuchtungsprojektion
US8060186B2 (en) 2007-02-15 2011-11-15 Siemens Aktiengesellschaft System and method for intraoperative guidance of stent placement during endovascular interventions
US8364242B2 (en) * 2007-05-17 2013-01-29 General Electric Company System and method of combining ultrasound image acquisition with fluoroscopic image acquisition
US20100111389A1 (en) * 2007-12-06 2010-05-06 Siemens Medical Solutions Usa, Inc. System and method for planning and guiding percutaneous procedures
DE102009016482B4 (de) * 2009-04-06 2011-09-01 Siemens Aktiengesellschaft Vorrichtungen zur Unterstützung der Platzierung eines Implantats
US8731642B2 (en) * 2009-11-08 2014-05-20 Paieon Inc. Apparatus and method for locating a device tip within a volume
US9999399B2 (en) 2010-11-16 2018-06-19 Siemens Healthcare Gmbh Method and system for pigtail catheter motion prediction
CN103687541B (zh) * 2011-03-02 2017-02-15 皇家飞利浦有限公司 用于导航引导的可视化
DE102011079561B4 (de) * 2011-07-21 2018-10-18 Siemens Healthcare Gmbh Verfahren und Röntgengerät zum zeitlich aktuellen Darstellen eines bewegten Abschnitts eines Körpers, Computerprogramm und Datenträger
JP6297289B2 (ja) * 2012-09-20 2018-03-20 キヤノンメディカルシステムズ株式会社 画像処理システム、x線診断装置及び画像処理装置の作動方法
BR112015009947A2 (pt) * 2012-11-06 2017-07-11 Koninklijke Philips Nv dispositivo de processamento de imagens para melhorar imagens de ultrassom; sistema de imageamento médico; método para melhorar imagens de ultrassom; elemento de programa de computador para controlar um dispositivo de processamento de imagens; e meio legível por computador
CN104883975B (zh) * 2012-12-28 2019-04-05 皇家飞利浦有限公司 将3d超声和2d x射线影像组合的实时场景建模
US9629595B2 (en) * 2013-03-15 2017-04-25 Hansen Medical, Inc. Systems and methods for localizing, tracking and/or controlling medical instruments
US10806520B2 (en) 2014-05-23 2020-10-20 Koninklijke Philips N.V. Imaging apparatus for imaging a first object within a second object
JP6331922B2 (ja) * 2014-09-22 2018-05-30 コニカミノルタ株式会社 医用画像システム及びプログラム
US10515449B2 (en) * 2016-11-04 2019-12-24 Siemens Medical Solutions Usa, Inc. Detection of 3D pose of a TEE probe in x-ray medical imaging

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005111288A (ja) * 1993-11-26 2005-04-28 Toshiba Medical System Co Ltd 手術支援システム
WO2005092198A1 (en) * 2004-03-05 2005-10-06 Koninklijke Philips Electronics N.V. System for guiding a medical instrument in a patient body
WO2007113815A2 (en) * 2006-03-30 2007-10-11 Activiews Ltd System and method for optical position measurement and guidance of a rigid or semi flexible tool to a target
JP2009268693A (ja) * 2008-05-07 2009-11-19 Toshiba Corp X線撮影装置、画像処理装置および画像処理プログラム
JP2010012097A (ja) * 2008-07-04 2010-01-21 Toshiba Corp 画像処理装置
JP2015024154A (ja) * 2009-01-30 2015-02-05 コーニンクレッカ フィリップス エヌ ヴェ 検査装置
WO2011070477A1 (en) * 2009-12-09 2011-06-16 Koninklijke Philips Electronics N.V. Combination of ultrasound and x-ray systems
WO2011086475A1 (en) * 2010-01-12 2011-07-21 Koninklijke Philips Electronics N.V. Navigating an interventional device
JP2016154934A (ja) * 2010-09-03 2016-09-01 ユニヴァーシティ オブ ワシントン 脳神経外科手術用デバイス及び関連したシステム及び方法
JP2015083082A (ja) * 2013-10-25 2015-04-30 株式会社東芝 X線診断装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023233676A1 (ja) * 2022-05-31 2023-12-07 朝日インテック株式会社 手術支援装置、手術支援方法、及びコンピュータプログラム

Also Published As

Publication number Publication date
US11291424B2 (en) 2022-04-05
EP3629932B1 (en) 2020-12-02
EP3406195A1 (en) 2018-11-28
US20200085398A1 (en) 2020-03-19
WO2018215499A1 (en) 2018-11-29
JP6770655B2 (ja) 2020-10-14
CN110650686A (zh) 2020-01-03
CN110650686B (zh) 2023-10-13
EP3629932A1 (en) 2020-04-08

Similar Documents

Publication Publication Date Title
CN107016717B (zh) 用于患者的透视视图的***和方法
JP2023175709A (ja) 空間トラッキングシステムと拡張現実ディスプレイとのレジストレーション
CN1672179B (zh) 最佳视图v.o.01
US20170035517A1 (en) Dynamic and interactive navigation in a surgical environment
US11961193B2 (en) Method for controlling a display, computer program and mixed reality display device
JP6166663B2 (ja) ナビゲーションガイダンスのための視覚化
JP2016533832A (ja) 手術ナビゲーションシステム運用方法及び手術ナビゲーションシステム
AU2015238800B2 (en) Real-time simulation of fluoroscopic images
JP2013526955A (ja) 物体の特定配向の決定
JP6198839B2 (ja) 超音波画像のエンハンスメント
JP2013501567A (ja) オブジェクトデータの生成
Lawonn et al. Illustrative visualization of vascular models for static 2D representations
US10806520B2 (en) Imaging apparatus for imaging a first object within a second object
WO2021130569A1 (en) 2d pathfinder visualization
US10951837B2 (en) Generating a stereoscopic representation
JP2006239253A (ja) 画像処理装置及び画像処理方法
JP6770655B2 (ja) ライブ2次元x線画像において介入装置の空間情報を提供する装置及び対応する方法
JP2017205343A (ja) 内視鏡装置、内視鏡装置の作動方法
WO2021130572A1 (en) 3d pathfinder visualization
EP3326537B1 (en) Visualization of distances to walls of anatomical cavities
Wischgoll Visualizing vascular structures in virtual environments
JP2023004884A (ja) 拡張現実のグラフィック表現を表示するための表現装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191122

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191122

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200825

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200925

R150 Certificate of patent or registration of utility model

Ref document number: 6770655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250