JP7195279B2 - 画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法 - Google Patents

画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法 Download PDF

Info

Publication number
JP7195279B2
JP7195279B2 JP2019564828A JP2019564828A JP7195279B2 JP 7195279 B2 JP7195279 B2 JP 7195279B2 JP 2019564828 A JP2019564828 A JP 2019564828A JP 2019564828 A JP2019564828 A JP 2019564828A JP 7195279 B2 JP7195279 B2 JP 7195279B2
Authority
JP
Japan
Prior art keywords
image
images
dimensional
radial
operative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019564828A
Other languages
English (en)
Other versions
JP2020520744A (ja
Inventor
ドリアン・アベルブフ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Body Vision Medical Ltd
Original Assignee
Body Vision Medical Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Body Vision Medical Ltd filed Critical Body Vision Medical Ltd
Publication of JP2020520744A publication Critical patent/JP2020520744A/ja
Application granted granted Critical
Publication of JP7195279B2 publication Critical patent/JP7195279B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/12Diagnosis using ultrasonic, sonic or infrasonic waves in body cavities or body tracts, e.g. by using catheters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3784Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument both receiver and transmitter being in the instrument or receiver being also transmitter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3966Radiopaque markers visible in an X-ray image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/483Diagnostic techniques involving the acquisition of a 3D volume of data
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

関連出願への相互参照.
本出願は国際(PCT)出願であり、2017年5月24日に出願された、共有でありかつ同時係属中の米国特許仮出願第62/510,729号(発明の名称「画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法」)に関連し、当該仮出願の内容は全体を通して参照により本明細書に組み込まれる。
本発明は医療イメージングに関する。より詳細には、本発明は、放射状気管支内超音波イメージングを用いて得られた画像を使用して、医療画像内の対象物(病変等)の定位を提供する方法に関する。
放射状気管支内超音波は、患者の気管支通路内に配置されたプローブから放射状に超音波が放射される医療画像技術である。超音波は気管支通路の周囲の患者の組織の断面(例えば「スライス」等)を示す医療画像を生成するために処理される。
ある実施形態において、方法は、イメージングモダリティから少なくとも1つの術前画像を取得するステップと、少なくとも1つの術前画像上で、関心領域内に位置する少なくとも1つの要素を識別するステップと、少なくとも1つの術中画像を取得するステップと、少なくとも1つの術中画像上の少なくとも1つの要素をハイライトするステップと、少なくともハイライトされた少なくとも1つの要素を用いて、放射状気管支内超音波プローブを関心領域にナビゲートするステップと、複数の放射状気管支内超音波画像を取得するステップと、要素の複数の二次元表現を抽出するステップであって、当該要素の複数の二次元表現の各々は複数の放射状気管支内超音波画像のうちの対応するものから抽出される、ステップと、要素の複数の二次元表現から要素の三次元表現を再構築するステップと、少なくとも1つの術中画像のうちの少なくとも1つに、要素の三次元表現の二次元投影を投影するステップとを含む。
ある実施形態では、少なくとも1つの術中画像のうちの少なくとも1つに要素の三次元表現の二次元投影を投影するステップは、リアルタイムで実行される。
ある実施形態では、方法は、関心領域から放射状気管支内超音波プローブを除去するステップと、更なる気管支内ツールを関心領域にナビゲートするステップとを含み得る。ある実施形態では、方法は、更なる気管支内ツールを用いて、要素に対してある処置を実行するステップを含む。ある実施形態では、方法は、前述の更なる気管支内ツールを除去するステップと、放射状気管支内超音波プローブを関心領域にナビゲートするステップと、複数の更新された放射状気管支内超音波画像を取得するステップと、要素の複数の更新された二次元表現を抽出するステップであって、要素の複数の更新された二次元表現の各々は、複数の更新された放射状気管支内超音波画像のうちの対応するものから抽出される、ステップと、並びに、要素の複数の二次元表現から要素の更新された三次元表現を再構築するステップとを含む。
ある実施形態では、方法は、放射状気管支内超音波プローブの中心と、対象物の境界上の複数の境界点との間の距離を計算するステップと、距離の最大値に基づいて切除のマージンサイズを推定するステップとを含む。ある実施形態では、少なくとも1つの術中画像は、X線画像を含む。
ある実施形態では、要素の三次元表現は、術中画像のうちの少なくとも1つからの、立体再構築の前段階として用いられる。ある実施形態では、方法はまた、対象物の三次元表現を三次元の計算された断層撮影立体に位置合わせするステップと、及び、少なくとも1つの術中画像のうちの少なくとも1つに、三次元の計算された断層撮影立体から要素の三次元表現を投影するステップとを含む。ある実施形態では、三次元の計算された断層撮影立体は、術前の計算された断層撮影スキャン立体又は少なくとも1つの術中画像から再構築された三次元の計算された断層撮影立体である。
ある実施形態では、方法は、気管支内超音波プローブを関心領域にナビゲートするステップと、複数の放射状気管支内超音波画像及び複数の術中画像を取得するステップであって、複数の放射状気管支内超音波画像の各々は、複数の術中画像のうちの1つ及び超音波プローブの異なる位置に対応する、ステップと、術中画像の各々から放射状気管支内超音波プローブの先端の位置を抽出するステップと、術中画像及び気管支内超音波画像の組のデータベースを生成するステップであって、当該組の各々は、術前画像座標系の特定のプローブ先端の位置と方向とに対応する、ステップと、関心領域から放射状気管支内超音波プローブを除去するステップと、更なる気管支内ツールを関心領域にナビゲートするステップと、更に複数の術中画像を取得するステップと、上述の複数の術中画像から上述の更なる気管支内ツールの位置を抽出するステップと、上述の更なる気管支内ツールの位置に最も密接に対応するデータベース内の組のうちの1つを識別するステップと、並びに、上述の組のうちの識別されたものに対応する超音波画像を表示するステップとを含む。
ある実施形態では、更なる気管支内ツールは、生検器具又は切除カテーテルである。ある実施形態では、方法は、イメージングモダリティから少なくとも1つの術前画像を取得するステップと、少なくとも1つの術前画像上で、関心領域内に位置する少なくとも1つの要素を識別するステップと、少なくとも1つの術中画像を取得するステップと、少なくとも1つの術中画像上の少なくとも1つの要素をハイライトするステップとを含み、放射状気管支内超音波プローブを関心領域にナビゲートするステップは、ハイライトされた少なくとも1つの要素を用いて実行される。
ある実施形態では、方法は、気管支内超音波プローブを関心領域にナビゲートするステップと、放射状気管支内超音波プローブの確認された位置を選択するステップと、放射状気管支内超音波プローブが確認された位置に配置されている間に、関心領域の少なくとも1つの術中画像を取得するステップと、少なくとも1つの術中画像の少なくとも1つから放射状気管支内超音波プローブの位置を抽出するステップと、少なくとも1つの術中画像の少なくとも1つに気管支内超音波プローブの確認された位置をオーバレイするステップとを含む。
ある実施形態では、方法は、少なくとも2つの更なる術中画像を取得するステップであって、少なくとも2つの更なる術中画像の各々は、放射状気管支内超音波プローブの確認された位置の既知の幾何学的関係を有する、ステップと、少なくとも2つの更なる術中画像に基づいて、三次元空間で確認された位置を再構築するステップと、放射状気管支内超音波プローブの確認された位置を、既知の幾何学関係を有する更なる術中画像のうちの少なくとも1つにオーバレイするステップとを含む。
ある実施形態では、方法は、放射状気管支内超音波プローブを取り外すステップと、及び、更なる気管支内器具を確認された位置にナビゲートすることにより、更なる気管支内器具の正確な位置決めを保証するステップとを含む。ある実施形態では、更なる気管支内器具は、生検器具又は切除カテーテルである。
放射状気管支超音波撮像を用いて対象物の定位を提供するための方法の例を示すフローチャート 図1に示す方法の一部分を実行するための方法の例を示すフローチャート 図1の方法の例を実行する間に取得され得る、放射状気管支超音波画像のサンプル列中の第1の画像を示す図 図1の方法の例を実行する間に取得され得る、放射状気管支超音波画像のサンプル列中の第2の画像を示す図 図1の方法の例を実行する間に取得され得る、放射状気管支超音波画像のサンプル列中の第3の画像を示す図 図1の方法の例を実行する間に取得され得る、放射状気管支超音波画像のサンプル列中の第4の画像を示す図 図1の方法の例を実行する間に取得され得る、放射状気管支超音波画像のサンプル列中の第5の画像を示す図 図1の方法の例を実行する間に取得され得る、放射状気管支超音波画像のサンプル列中の第6の画像を示す図 図1の方法の例を実行する間に取得され得る、放射状気管支超音波画像のサンプル列中の第7の画像を示す図 図1の方法の例を実行する間に取得され得る、放射状気管支超音波画像のサンプル列中の第8の画像を示す図 図1の方法の一部分を実行するための方法の例を示すフローチャート 対象物の位置を示す術中画像の例を示す図 図5Aに示すように位置づけされた放射状気管支超音波プローブにより取得された放射状気管支超音波画像の例を示す図 放射状気管支超音波画像の列の例を示す図 図6Aに示す放射状気管支超音波画像の列に基づいて再構築された対象物の三次元モデルの例を示す図 図1に示す方法の例により提供された投影された対象物プロファイルを含む対象物の位置を示す術中画像の例を示す図 図7Aに示すように位置づけられた放射状気管支超音波プローブにより取得された放射状気管支超音波画像の例を示す図
本発明は、添付の図面への参照により更に説明される。いくつかの図面を通して、同様の構造は同様の符号で参照される。図示された図面は必ずしも縮尺通りではなく、その代わりに全体として本発明の原理を例示することに重点を置いている。更に、一部の特徴は、特定の構成要素の詳細を示すために、誇張されている場合がある。
図面は本明細書の一部を構成し、本発明の実施形態の例を含み、かつ、それらの様々な目的及び特徴を示す。更に、図面は必ずしも縮尺通りではなく、いくつかの特徴は特定の構成要素の詳細を示すために、誇張されている場合がある。加えて、図面に示されるすべての測定値、仕様等は例示を目的とするものであり、限定的なものではない。従って、本明細書に開示される特定の構造的及び機能的な詳細は、限定として解釈されるべきではなく、単に本発明を様々に採用することを当業者に教示するための代表的な基礎として解釈されるべきである。
開示された利点及び改善のうち、本発明の他の目的及び長所は、添付の図面を交えて行われる以下の説明から明らかになるであろう。本明細書では、本発明の詳細な実施形態が開示される。しかしながら、開示された実施形態は単に、様々な形で実施され得る本発明の例示に過ぎないことを理解されたい。加えて、本発明の様々な実施形態に触れて提示された例の各々は、例示を意図したものであり、限定を意図したものではない。
明細書及び特許請求の範囲を通して、文脈が明確にそうでないと記述している場合を除き、以下の用語はここで明示的に関連づけられた意味を取る。本明細書に用いられる「ある実施形態において」及び「いくつかの実施形態において」という句は、必ずしも同じ(1つ又は複数の)実施形態を指すものとは限らないが、そうでもあり得る。更に、本明細書に用いられる「別の実施形態において」及び「いくつかの他の実施形態において」という句は、異なる実施形態を指すものとは限らないが、そうでもあり得る。従って、以下で記載のように、本発明の様々な実施形態は、本発明の特許請求の範囲又は理念から逸脱することなく、容易に組み合わせられ得る。
文脈が明確にそうでないと記述している場合を除き、「~に基づいて」という用語は排他的なものではなく、記載されていない追加のファクタに基づくことも許容する。加えて、本明細書の全体を通して、「1つの」、「ある」、及び「前記」の意味には、複数の参照が含まれる。「において」の意味には、「~内で」及び「~上で」が含まれる。
本明細書で用いられるに際し、「絶対ロール角」は、画像の一部の、絶対的な(グローバル等)基準フレームに対する向きを指す。本明細書で用いられるに際し、「相対ロール角」は、現在のロール角が基準のロール角に対して変化した量を指す。基準ロール角は移動できないロール角であり、事前に割り当てられたものであり得る。
いくつかの実施形態において、本発明の方法は、気管支内の処置の臨床結果の改善のため、放射状気管支内超音波(「REBUS」)プローブを用いて得られた画像を用いる。いくつかの実施形態において、REBUSは、患者の気管支気道内の放射状超音波画像を提供する。いくつかの実施形態において、REBUSは、PCT/US15/56489、PCT/US14/67328、及びPCT/US15/10381(これらは全体を通して参照により本明細書に組み込まれる)に記載された方法に追加で用いられ得る。PCT/US15/56489は、気管支内の処置中に医師を補助するために、術前画像(例えばコンピュータ断層撮影、磁気共鳴イメージング等、ただしこれらに限定されない)からのデータにより術中画像(例えばX線画像、Cアーム画像等、ただしこれらに限定されない)を増強する方法が開示されている。いくつかの実施形態において、方法は、病変等の、肺内部の密な組織(例えば、周囲の組織と比較して10%、20%、30%、40%、50%等増加した密度を有する組織)を検出することを含む。
本発明のいくつかの実施形態において、術中画像(例えば、蛍光透視画像(ただしこれに限定されない)等のイメージング技術を用いて処置中に獲得した画像)及びREBUS画像が同時に取得される。本発明の方法のいくつかの実施形態において、術中画像及びREBUS画像は同時には取得されない(例えば、REBUS画像が取得され、続いて蛍光透視術中画像が取得される)。いくつかの実施形態において、術前画像内のREBUSプローブの先端の3D位置は、例えばPCT/US15/56489に記載の(ただしこれに限定されない)方法を用いて取得される。いくつかの実施形態において、REBUSプローブ先端の複数の画像が生成される(例えば術前画像、ただしこれに限定されない)。いくつかの実施形態において、本発明の方法は、術前画像及びREBUS画像の各組が特定のプローブ先端の術前画像座標系における位置及び向きに対応するとき、当該組のデータベースを更に作成する。いくつかの実施形態において、以下の非限定的な例、すなわち、術前画像内の事前にマークされた位置に一致する最も近い組を見つける等を用いて、データベースにクエリ送信又はデータベースの検索を行うことができる。
いくつかの実施形態において、方法は、対象領域(例えば、病変等の対象物を含む画定された領域)の近傍で取得されたREBUS画像のセット、並びに三次元空間におけるそれらの位置及び向きを用いて、本明細書で「再構築された3D対象物」と呼ぶ対象物(例えば病変、ただしそれに限定されない)の輪郭及び/又はトポロジーを再構築する。いくつかの実施形態では、再構築された3D対象物は、術中画像上で修正され得る。これは例えば、再構築された3D対象物上に投影又はハイライトする等であるが、これらに限定されない。
いくつかの実施形態において、図1に示す方法100に従って、対象物再構築の非限定的な例が実行され得る。ステップ110において、少なくとも1つの術前画像が取得される。いくつかの実施形態において、術前画像は二次元画像である。いくつかの実施形態において、術前画像は三次元画像である。いくつかの実施形態において、術前画像は、任意の既知の適切な種類の医療画像(例えばコンピュータ断層撮影(「CT」)画像)である。ステップ120において、術前画像上の関心領域の選択が受け取られる。関心領域は、例えば病変であり得る。
ステップ130において、術中画像(即ち、処置中に取得された画像)が受け取られる。いくつかの実施形態において、術中画像は二次元画像である。いくつかの実施形態において、術中画像は三次元画像である。いくつかの実施形態において、術中画像は、任意の既知の適切な種類の医療画像(例えば、X線画像等の蛍光透視画像)である。
ステップ140では、術中画像内の関心領域がハイライトされる。
いくつかの実施形態において、ステップ100-140は、国際特許出願第PCT/IB2015/002148(当該出願の内容は、全体を通して参照により本明細書に組み込まれる)に記載された例示的な方法に従って実行される。いくつかの実施形態において、ステップ100-140は、図2に示すプロセスに従って実行される。
ここで図2を参照すると、方法200はステップ210から開始する。ステップ210において、CT画像又はMRI画像等の術前画像上の関心領域の選択がユーザから受け取られる。ステップ220において、術前画像中の関心体積が生成される。いくつかの実施形態において、関心体積は、例えば病変等の関心領域中の解剖学的構造体、並びに気管支又は血管等の補助的な解剖学的構造体が、透視画像等の手術画像上で検出可能となるようなやり方で生成される。いくつかの実施形態において、透視画像の検出可能性を評価するために、DDR画像が用いられ得る。ステップ230において、少なくとも1つの術中画像が受け取られる。ある実施形態では、術中モダリティの姿勢は、少なくとも1つの術中画像で計算又は記録される。
引き続き図2を参照して、ステップ240において、術中画像及び術前画像の間の粗い位置合わせが実行される。この粗い位置合わせは例えばDDRへの蛍光透視法等(ただしこれに限定されない)であり、CT立体等(ただしこれに限定されない)の術前画像データ内のDDRの視点を評価するためのものである。いくつかの実施形態において、ステップ240の粗い位置合わせは、視点表現ベクトルxに反復最適化方法を適用することで実行される。いくつかの実施形態において、オプティマイザは、初期推定値x0で初期化される。初期推定値x0は例えば、前後(AP)角に対応し、気管主分岐部上に位置する視点である。いくつかの実施形態において、各最適化ステップに対し、以下のステップが実行される。即ち、(1)現実的なDRR画像を生成するステップ、並びに、(2)DRR画像及びX線画像の間の類似度を計算するステップである。いくつかの実施形態において、粗い位置合わせは、Kubiasらの「GPU上での2D/3D画像位置合わせ」(ドイツ、コブレンツ、コブレンツ・ランダウ大学、ドイツ、フォルヒハイム、Thomas Brunner、シーメンス・メディカル・ソリューションズ、2007年)(当該文献は、全体を通して参照により本明細書に組み込まれる)に記載のように実行される。いくつかの実施形態において、肋骨ベースの剛体画像位置合わせが用いられる。例えば、2D/3D画像位置合わせでは、術前立体(例えばCT又はMRT)が、術中のX線画像に位置合わせされる。いくつかの実施形態では、剛体画像位置合わせが用いられる。ここで、立体は、3つの座標軸に沿ってのみ移動及び回転でき、その場合、変換はパラメータベクトルx=(t,t,t,r,r,r)により与えられる。ここで、パラメータt,t,tはX軸、Y軸、Z軸に沿った平行移動(ミリメートル単位)を示し、パラメータr,r,rはベクトルr=(rx,ry,rz)に帰属する。いくつかの実施形態において、粗い位置合わせは自動的に実行される。
いくつかの実施形態において、ステップ240の粗い位置合わせのプロセスは、複数の術中(例えばX線)画像及び術前CT立体を用いる強度ベースの自動位置合わせ方法に基づいて実行される。いくつかの実施形態において、この方法は反復的である。いくつかの実施形態において、各最適化ステップに対し、高画質のデジタル再構築放射線影像(「DRR」)が生成され、その後、取得された術中(例えばX線)画像と比較される。いくつかの実施形態において、方法200は、Khameneらの「放射線療法における患者の定位のためのポータル画像及び体積CTの自動位置合わせ」(『Medical Image Analysis』10(2006)96-112)(当該文献は全体を通して参照により本明細書に組み込まれる)に開示の位置合わせ技術を用いる。いくつかの実施形態において、そのような位置合わせは、非限定的な例として、特定の医療用途に応じて、強度ベース及び/又は特徴ベースとして実装され得る。いくつかの実施形態において、強度ベース及び特徴ベースの位置合わせは、Davidらの、「神経介入のための強度ベースの位置合わせと特徴ベースの位置合わせ」(英国オックスフォード大学物理工学科医学ビジョン研究所)(当該文献は全体を通して参照により本明細書に組み込まれる)に記載される。いくつかの実施形態において、点ベースの位置合わせは、患者の胸部上の既知の解剖学的ランドマークを用いて実装される。いくつかの実施形態において、少なくとも1つの既知のランドマークは、CT画像及び/又は蛍光透視画像上でマークされ得る。いくつかの実施形態において、蛍光透視画像上の検出可能性を改善/増加させるために、処置中に患者の胸部に特殊なマーカーが取り付けられる。
引き続き図2を参照して、ステップ250において、所望の位置合わせ方法に応じた特徴又はパターンのセットが、術前画像の関心体積から生成される。いくつかの実施形態において、患者の軟部組織構造体が観察され、それが患者の肋骨に対して移動するとき、240における粗い位置合わせの間に計算される視点は、既知の許容範囲内で近似される。いくつかの実施形態において、ステップ250で精製されたパターンのセットにより、次のステップで表示領域の微調整(細かい位置合わせ)を行うことができる。ステップ260において、位置合わせ方法に応じて250で生成された特徴又はパターンの各々と、術中画像上の関心領域との間の最良適合を見つけるために、細かい位置合わせが実行される。いくつかの実施形態において、細かい位置合わせは、強度ベースの細かい位置合わせ(即ちテンプレートマッチング)を含み、そのアプローチは、術前イメージングモダリティ又は基準イメージングモダリティからの強度ベースのパターンにより開始される。いくつかの実施形態において、術中画像からの信号は、ノイズ及びスケールを含み、関心領域内で計測される。いくつかの実施形態において、ステップ260の細かい位置合わせのプロセスは、各術中画像に対して適用され、以下のステップ、即ち、(1)術前イメージングモダリティ又は基準イメージングモダリティからの強度ベースのパターンを術中画像と比較して、パターンとの最大の類似度を有する術中画像の位置を見つけるステップと、(2)パターンの新しい位置と直前の位置との間の二次元シフトを計算するステップと、並びに、(3)計算された二次元シフトを用いて粗い位置合わせを修正するステップと、を含む。いくつかの実施形態において、細かい位置合わせは、Mahalakshmiらの「画像処理におけるテンプレートマッチング技術の概要」(インド、Tamil Nadu、Thanjavur、SASTRA大学、計算機学科、『Research Journal of Applied Sciences, Engineering and Technology』4(24):5469-5473(2012年))(当該文献は全体を通して参照により本明細書に組み込まれる)に記載のように実行される。
いくつかの実施形態において、ステップ260の細かい位置合わせプロセスは、以下のステップ、即ち、(1)特徴識別:エッジ、線の交点、領域の輪郭、領域等の、2つの画像中の関係特徴のセットを識別するステップと、(2)特徴マッチング:特徴間の対応関係を確立する(即ち、画像の検出された各特徴が基準画像の対応する特徴にマッチングされる)ステップと、ここで、各特徴は画像内のピクセル座標で識別され、対応する点は通常は制御点と呼ばれ、(3)空間変換:前のステップで取得した制御点に関する情報を用いて、画像内の残りの点にマッチするマッピング関数を決定するステップと、並びに、(4)補間:上述のマッピング関数を用いて検出画像をリサンプリングし、基準画像と位置合わせするステップと、を含む。いくつかの実施形態は、特徴検出及び特徴マッチングの組み合わせについて記載しているFonsecaらの「マルチセンサ遠隔検出画像のための位置合わせ技術」(『PE&RS Photogrammetric Engineering & Remote Sensing』62(9),1049-1056(1996年))に記載のような領域ベースのアプローチを用い、当該アプローチは相関的方法又は細かい位置合わせ(即ちテンプレートマッチング)とも呼ばれる。いくつかの実施形態において、方法200は、テンプレートが値の大部分の上で直接動作するため、画像に対応する強い特徴を持たないテンプレートに適している。いくつかの実施形態において、マッチング結果は、画像及びテンプレートの両方の強度値に基づいて推定される。いくつかの実施形態において、用いられる技術には、固定強度の二乗誤差、補正ベースの手法、最適化手法、相互情報、又はそれらの任意の組み合わせが含まれる。いくつかの実施形態において、細かい位置合わせは自動的に実行される。いくつかの実施形態において、細かい位置合わせは、粗い位置合わせを通じて得られたCTスキャンからの解剖学的構造体の2D投影を、蛍光透視画像から抽出された対応する解剖学的構造体と位置合わせすることを含む。
引き続き図2を参照して、ステップ270において、細かい位置合わせのステップからのマッチした信号が強化されて、術前画像に示されるように、関心領域に見られる解剖学的構造体をハイライトする。いくつかの実施形態において、術中画像からの信号のハイライトに加えて、基準画像からの信号源がディスプレイ/画像上に重ねられ得る。いくつかの実施形態において、術中画像からの元の信号、基準信号からのシミュレートされた信号、及び計画情報の組み合わせは、アプリケーションの設定又はユーザの要求に従って表示され得る。
再度図1を参照して、ステップ150において、REBUSプローブは対象物の付近の関心領域にナビゲートされる。いくつかの実施形態において、このナビゲートは、上述のステップにより生成されたような強化画像の使用を通じて達成される。ステップ160において、REBUSプローブが気管支通路に沿って移動するに際し、REBUS画像のシーケンスが取得される。上述の通り、いくつかの実施形態において、そのようなREBUS画像の各々は、患者の組織の断面「スライス」を示す。図3A-図3Hは、REBUS画像の代表的なセットを示す。ステップ170において、シーケンスからの各REBUS画像に対して、REBUS画像上及び術中画像中の両方で検出されるREBUSプローブ先端に関する超音波画像から対象物輪郭が抽出される。いくつかの実施形態において、対象物輪郭は、放射状気管支内超音波画像上では強い強度勾配を有する曲線として見える。いくつかの実施形態において、そのような曲線は、画像勾配を計算し、しきい値処理を適用し、検出された曲線ピクセルを含む連続したコンポーネントを計算することにより検出される。いくつかの実施形態では、Nobleらの「超音波画像セグメンテーション:調査」(『IEEE TRANSACTIONS ON MEDICAL IMAGING』VOL.25、NO.8(2006年8月)に記載の方法のうちの1つが用いられる。いくつかの実施形態において、ニューラルネットワークの訓練に基づいて機械学習のアプローチを用いることで、よりロバストなやり方でそのような輪郭が検出される。いくつかの実施形態において、訓練のプロセスは、多数の注釈付きサンプル画像を用いる。いくつかの実施形態では、Shenらの「DeepContour:輪郭検出のための正の共有損失により学習された深い畳み込み特徴」(CVPR、2015年)に記載の技術に従って、REBUSスライスのセットから対象物輪郭が検出される。
ステップ180において、REBUS画像から抽出された対象物輪郭、並びに術中画像からのプローブ先端の既知の位置及び向きに基づいて、対象物の三次元形状が再構築される。いくつかの実施形態において、抽出された対象物輪郭及びプローブ先端の既知の位置及び向きにより、REBUS基底の実空間が定義される。いくつかの実施形態において、再構築のプロセスは、以下のステップ、即ち、(1)二次元対象物輪郭の各点をREBUS基底の実空間のボクセルにマッピングするステップと、(2)REBUS基底の実空間を横断し、かつ輪郭点に囲まれるか輪郭点に属しているすべてのボクセルを対象物ボクセルとしてマークすることで、三次元対象物モデルを生成するステップと、並びに、(3)再構築された対象物モデルから三次元の対象物表面を生成するために、表面抽出アルゴリズムを適用するステップと、を含む。いくつかの実施形態において、3D立体は、Zangらの「気管支内超音波の3Dセグメンテーション及び再構築」(『Medical Imaging 2013:Ultrasonic Imaging、Tomography and Therapy』(Vol.8675))に記載の技術に従って、REBUSスライスのセットから再構築される。
いくつかの実施形態において、REBUSプローブの位置及び向きは、国際特許出願第PCT/IB17/01376号(当該出願の内容は全体を通して参照により本明細書に組み込まれる)に記載の技術を用いて識別され得る。いくつかの実施形態において、そのような識別を容易にするために、REBUSプローブに放射線不透過性パターンが提供される。いくつかの実施形態において、REBUSプローブの位置及び向きは、図4に示すプロセスに従って実行され得る。
図4は、患者の体内のREBUSプローブの位置及び向きを決定するための方法400の例を示す。方法400は、入力として、デバイスに沿った放射線不透過性材料の(例えばパターン等の)密度モデル(401)と、患者の体内に配置されたデバイスを示す透視画像データ(402)とを受け取る。いくつかの実施形態において、モデル及び画像ピクセルの間の変換関数(404)は、テンプレートマッチング方法(403)を用いて計算される。いくつかの実施形態において、テンプレートマッチング方法は以下のように実行される。即ち、放射線不透過性材料のパターンの一部が可視であるとき、画像かされたパターン及び密度関数の間の一次元変換(例えば相関)が計算され得る。この目的のためには、デバイスの放射線不透過性とグレースケールレベルとの関係を用いることができる。いくつかの実施形態において、画像中のデバイスの可視部のグレースケールレベルと、デバイスの放射線不透過性密度プロファイルとの間の最大の相関を見つけるテンプレートマッチング方法が用いられる。このような方法は、X線管からイメージインテンシファイアへの投影方向についてデバイスの背後又は上方にあるオブジェクトによるオクルージョン及びノイズに対してロバストである。いくつかの実施形態において、デバイスの部分画像及びデバイスの放射線不透過性材料密度のパターンの間の相関関数が計算される。いくつかの実施形態において、変換関数は、深度情報回復(405)に用いられる。
ステップ190において、再構築された対象物形状が投影される。いくつかの実施形態において、3D対象物の全部又は一部は、この体積から分割され、アプリケーションの要求に応じて、投影されたソース体積の値を組み合わせて、術中画像上に投影される。いくつかの実施形態において、3D対象物は術中画像上でハイライトされる。いくつかの実施形態において、対象物の全部又は一部は、術前画像及び術後画像の間の位置合わせのために用いられ得る。
いくつかの実施形態において、REBUS画像から再構築された3D対象物は、術前画像からの3D体積に位置合わせされる。ある実施形態において、2つの体積の間の位置合わせは、ボクセル強度値のマッチングに基づく。ある実施形態において、3D対象物及び3D体積の間の位置合わせは、3D対象物形状からのバイナリ体積を生成し、その後2つの体積を、ボクセル強度値のマッチングに基づいて位置合わせすることで実行される。ある実施形態において、3D対象物及び3D体積の間の位置合わせは、体積から解剖学的構造体の幾何学的形状を抽出し、その後これらの幾何学的形状を3D対象物の形状とマッチングすることで実行される。ある実施形態において、3D対象物及び3D体積の間の位置合わせは、重心又は慣性モーメントの相互揃えに基づく。いくつかの実施形態において、術前画像に対する術中画像の姿勢は、術中画像上のREBUSプローブの既知の位置(例えば位置及び向き)から更に計算され得る。
いくつかの実施形態において、REBUS画像から再構築された3D対象物は、PCT/US15/56489に記載の(ただしこれに限定されない)再構築方法で複数の術中画像から再構築された3D体積に位置合わせされる。
いくつかの実施形態において、REBUS画像から再構築された3D対象物は、複数の術中画像からの体積の再構築の前提として用いられる。いくつかの実施形態において、関心領域は、再構築された3D対象物上で分割され得る。いくつかの実施形態において、一部の形状又は関心領域のみが、REBUS画像から再構築され、術前画像から供給された体積に位置合わせされ、術前画像からの情報を用いて強化又は達成され、これにより、術中画像から再構築された体積の追加情報が得られる。
いくつかの実施形態において、3D対象物は、既知の相対姿勢を持つ蛍光透視画像又はCT画像のセットといった、異なる複数の術中画像から再構築される。いくつかの実施形態において、そのような再構築は、逆投影アルゴリズム、又は、コンピュータ断層撮像で利用される他の任意の再構築アルゴリズムを用いて実行され得る。いくつかの実施形態において、REBUS画像から再構築された3D対象物又は関心領域は、互換性のある3D体積又は関心領域と相互位置合わせされて、追加の術中画像、術前画像、又はそれらの組み合わせを供給することができる。
いくつかの実施形態において、上述の非限定的な例は、術中画像に関するREBUSプローブ先端の位置及び向きの決定に依存する。いくつかの実施形態において、本発明の方法では、国際特許出願第PCT/IB17/01376号に開示の方法が用いられ得る。いくつかの実施形態において、カテーテルに取り付けられた放射線不透過性パターンを用いて、術中イメージングデバイスに対する姿勢を決定することができる。いくつかの実施形態において、各REBUSスライスの相対ロール角又は絶対ロール角を決定するために、カテーテルの回転軸に対して非対称である螺旋バネパターンが用いられ得る。いくつかの実施形態において、各REBUSスライスの相対ロール角又は絶対ロール角を決定するために、カテーテルのプローブ先端に取り付けられた角度測定デバイスが用いられ得る。いくつかの実施形態において、隣接するフレームの間の回転差を最小化することにより、これらのフレームを安定化させることができる。
いくつかの実施形態において、術中画像上の気管支樹の分岐点を特定するために、関係づけられた位置及び向きを有するREBUS画像が用いられ得る。いくつかの実施形態において、そのような分岐点は、国際特許出願第PCT/US15/56489号に記載の位置合わせプロセスにおける追加の基準点として用いられ得る。いくつかの実施形態において、気道の分岐はREBUS画像上で可視であり、画像処理(例えばハイライト、ただしこれに限定されない)により検出できる。いくつかの実施形態において、(1)少なくとも1つのREBUS画像は、術中デバイスにより取得されたプローブ先端の画像であり、同時に、(2)REBUSそのものにより、分岐の少なくとも1つの画像が取得されるため、術中画像において分岐点の位置と向きをマークすることができる。いくつかの実施形態において、術中画像における分岐の位置と、術前画像における、位置合わせプロセスの正確さを改善するための追加基準点としての対応する位置とは、例えばPCT/US15/56489に記載の方法を用いて取得され得る。
いくつかの実施形態において、REBUS画像の選択された位置におけるREBUSプローブの位置は、対応する術中画像上でマーク又は確認され得る(これを「REBUS確認」と呼ぶことがある)。いくつかの実施形態において、術中画像内に見られるREBUSプローブの先端の位置は、いかなる時にもマーク、保存、及び表示が可能であり、これはたとえ、REBUSプローブが引き込まれて、患者内の同一のエリアに別のデバイス(例えば、他の気管支内器具又は内治療付属品)が導入された後であっても可能である。いくつかの実施形態において、気管支内器具により引き起こされる呼吸運動及び組織変形の補償ができ、それにより、REBUSの選択されて保存された場所の表示位置が調整される。ある実施形態においてこの移動の補償は、解剖学的構造体及び/又は解剖学器具を追跡することで実行される。いくつかの実施形態において、「REBUS確認」と対応するREBUSプローブの位置は、幾何学的関係が既知の異なる姿勢を有する複数の術中画像から抽出され得る。これにより、REBUSプローブの3D再構築、特にREBUSプローブ先端の計算された位置が提供される。いくつかの実施形態において、「REBUS確認」位置の3D位置は、任意の将来の(1つ又は複数の)術中画像に投影され得る。
例.
実施形態の医療適用の例が、以下の予言的な例を通じて示される。
1)実施形態の例は、REBUSプローブが引き込まれ、生検鉗子又は切除プローブ等の他の気管支内器具と交換される間に、医師にREBUS画像を提供できる。
2)対象物が病変である場合、REBUSプローブの位置に対する病変の形状を三次元で再構築することで、プローブの中心から病変の境界までの最大距離が決定され得る。この情報は、REBUSプローブが除去されて切除カテーテルと交換されたとき、切除処置に適したマージンサイズを提供し得る。例えば、定数にREBUSプローブの中心から病変の境界までの最大距離を乗算することで、マージンを計算することができる。
3)所望の関心領域を、取得されたREBUS画像上でマークし、所望の事前に計画された位置(例えば取得されたREBUS画像上のマーク)に気管支内ツールを誘導することができる。
4)例えば気管支内生検又は切除の間に(ただしこれに限定されない)、対象物の正確な位置を取得する方法。この方法は、以下のステップを用いて実行され得る:
1.対象領域への気管支内ナビゲーション。ナビゲーションは、例えばPCT/US15/56489に記載の方法を用いて(ただしこれに限定されない)実行され得る。
2.対象領域内のREBUS画像を取得する。
3.REBUS画像から対象物を抽出し、術中画像に投影する。
4.気管支内器具を対象物の中心に配置し、切除または生検を行う。
5.切除が実行されて解剖学的構造が変化した場合、ステップ2-4が再度実行されてもよい。
図5A及び図5Bは、本発明のいくつかの実施形態の方法を用いて生成された対象領域の放射性EBUSスキャンの実施形態を示す。図5において、点線の円は対象領域を画定する。図5Aの白い輪郭をつけられた部分は、本発明の方法を用いて画定された対象物である。
図6Aは、図1に示す方法の例の過程の間に取得される病変の放射状EBUS画像の列を示す。図6Bは、図1の方法の例により、図6Aに示す放射状EBUS画像の列に基づく三次元計算を用いて再構築され得る病変の輪郭を示す。
図7A及び図7Bは、本発明の方法の実施形態を用いて生成された画像を示し、放射状EBUSを用いた増強を伴うリアルタイムの局所ビューを示す。図7Aの点線の円は対象領域を画定する。図7Aの白い輪郭をつけられた部分は、本明細書に記載の方法を用いて画定された対象物である。矢印は、本明細書に記載の方法を用いて対象物であると決定された領域を指す。
本発明の複数の実施形態を説明したが、これらの実施形態は例示に過ぎず、限定的なものではなく、多くの変更が当業者に明らかとなり得ることは理解されたい。更になお、様々なステップは、任意の所望の順序で実行されてもよい(また、任意の所望のステップを追加し、及び/又は任意の所望のステップを削除してもよい)。

Claims (10)

  1. イメージングモダリティから少なくとも1つの術前画像を取得するステップと、
    前記少なくとも1つの術前画像において、ユーザの選択により、関心領域内に位置する少なくとも1つの要素を識別するステップと、
    少なくとも1つの術中画像を取得するステップと、
    前記少なくとも1つの術前画像と前記少なくとも1つの術中画像の間の位置合わせを介して、前記少なくとも1つの術中画像上前記識別された少なくとも1つの要素をハイライトするステップと、
    前記少なくともハイライトされた少なくとも1つの要素を用いて放射状気管支内超音波プローブを前記関心領域にナビゲートするための情報を提供するステップと、
    複数の放射状気管支内超音波画像を取得するステップと、
    前記要素の複数の二次元表現を抽出するステップであって、前記要素の前記複数の二次元表現の各々は前記複数の放射状気管支内超音波画像のうちの対応するものから抽出される、ステップと、
    前記要素の前記複数の二次元表現から前記要素の三次元表現を再構築するステップと、
    前記少なくとも1つの術中画像のうちの少なくとも1つに、前記要素の前記三次元表現の二次元投影を投影するステップとを含む、
    コンピュータ実装方法。
  2. 前記少なくとも1つの術中画像のうちの少なくとも1つに前記要素の前記三次元表現の二次元投影を投影するステップは、リアルタイムで実行される、
    請求項1に記載のコンピュータ実装方法。
  3. 前記関心領域から前記放射状気管支内超音波プローブを除去するための情報を提供するステップと、
    更なる気管支内ツールを前記関心領域にナビゲートするための情報を提供するステップとを更に含む、
    請求項1に記載のコンピュータ実装方法。
  4. 前記更なる気管支内ツールを用いて前記要素に処置を実行するための情報を提供するステップを更に含む、
    請求項3に記載のコンピュータ実装方法。
  5. 前述の更なる気管支内ツールを除去するための情報を提供するステップと、放射状気管支内超音波プローブを関心領域にナビゲートするための情報を提供するステップと、複数の更新された放射状気管支内超音波画像を取得するステップと、要素の複数の更新された二次元表現を抽出するステップであって、要素の複数の更新された二次元表現の各々は、複数の更新された放射状気管支内超音波画像のうちの対応するものから抽出される、ステップと、並びに、要素の複数の二次元表現から要素の更新された三次元表現を再構築するステップとを更に含む、
    請求項4に記載のコンピュータ実装方法。
  6. 前記放射状気管支内超音波プローブの中心と前記対象物の境界上の複数の境界点との間の距離を計算するステップと、及び、
    前記距離のうちの最大値に基づいて切除のマージンサイズを推定するステップとを更に含む、
    請求項1に記載のコンピュータ実装方法。
  7. 前記少なくとも1つの術中画像は、X線画像を含む、
    請求項1に記載のコンピュータ実装方法。
  8. 前記要素の前記三次元表現は、前記複数の術中画像のうちの1つからの体積の再構築のための前段階として用いられる、
    請求項1に記載のコンピュータ実装方法。
  9. 前記対象物の前記三次元表現を、三次元の計算された断層撮影体積に位置合わせするステップと、
    前記三次元の計算された断層撮影体積からの、前記要素の前記三次元表現を、前記少なくとも1つの術中画像のうちの少なくとも1つの上に投影するステップとを更に含む、
    請求項1に記載のコンピュータ実装方法。
  10. 前記三次元の計算された断層撮影体積は、術前の計算された断層撮影スキャン体積、又は、前記少なくとも1つの術中画像から再構築された三次元の計算された断層体積である、
    請求項9に記載のコンピュータ実装方法。
JP2019564828A 2017-05-24 2018-05-24 画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法 Active JP7195279B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762510729P 2017-05-24 2017-05-24
US62/510,729 2017-05-24
PCT/IB2018/000624 WO2018215832A2 (en) 2017-05-24 2018-05-24 Methods for using radial endobronchial ultrasound probes for three-dimensional reconstruction of images and improved target localization

Publications (2)

Publication Number Publication Date
JP2020520744A JP2020520744A (ja) 2020-07-16
JP7195279B2 true JP7195279B2 (ja) 2022-12-23

Family

ID=64395346

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019564828A Active JP7195279B2 (ja) 2017-05-24 2018-05-24 画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法

Country Status (6)

Country Link
US (1) US20200170623A1 (ja)
EP (1) EP3629882A4 (ja)
JP (1) JP7195279B2 (ja)
CN (1) CN111246791A (ja)
CA (1) CA3064678A1 (ja)
WO (1) WO2018215832A2 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8218847B2 (en) 2008-06-06 2012-07-10 Superdimension, Ltd. Hybrid registration method
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
US9633431B2 (en) 2014-07-02 2017-04-25 Covidien Lp Fluoroscopic pose estimation
US9986983B2 (en) 2014-10-31 2018-06-05 Covidien Lp Computed tomography enhanced fluoroscopic system, device, and method of utilizing the same
US10702226B2 (en) 2015-08-06 2020-07-07 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10674982B2 (en) 2015-08-06 2020-06-09 Covidien Lp System and method for local three dimensional volume reconstruction using a standard fluoroscope
US10716525B2 (en) 2015-08-06 2020-07-21 Covidien Lp System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction
US11793579B2 (en) 2017-02-22 2023-10-24 Covidien Lp Integration of multiple data sources for localization and navigation
US10699448B2 (en) 2017-06-29 2020-06-30 Covidien Lp System and method for identifying, marking and navigating to a target using real time two dimensional fluoroscopic data
CN111163697B (zh) 2017-10-10 2023-10-03 柯惠有限合伙公司 用于在荧光三维重构中识别和标记目标的***和方法
US10905498B2 (en) 2018-02-08 2021-02-02 Covidien Lp System and method for catheter detection in fluoroscopic images and updating displayed position of catheter
US10930064B2 (en) 2018-02-08 2021-02-23 Covidien Lp Imaging reconstruction system and method
US11364004B2 (en) 2018-02-08 2022-06-21 Covidien Lp System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US11705238B2 (en) 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
US11071591B2 (en) 2018-07-26 2021-07-27 Covidien Lp Modeling a collapsed lung using CT data
US11944388B2 (en) 2018-09-28 2024-04-02 Covidien Lp Systems and methods for magnetic interference correction
US11877806B2 (en) 2018-12-06 2024-01-23 Covidien Lp Deformable registration of computer-generated airway models to airway trees
US11045075B2 (en) 2018-12-10 2021-06-29 Covidien Lp System and method for generating a three-dimensional model of a surgical site
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11452566B2 (en) * 2018-12-21 2022-09-27 Intellijoint Surgical Inc. Pre-operative planning for reorientation surgery: surface-model-free approach using simulated x-rays
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11625825B2 (en) 2019-01-30 2023-04-11 Covidien Lp Method for displaying tumor location within endoscopic images
US11925333B2 (en) 2019-02-01 2024-03-12 Covidien Lp System for fluoroscopic tracking of a catheter to update the relative position of a target and the catheter in a 3D model of a luminal network
US11564751B2 (en) 2019-02-01 2023-01-31 Covidien Lp Systems and methods for visualizing navigation of medical devices relative to targets
US11744643B2 (en) 2019-02-04 2023-09-05 Covidien Lp Systems and methods facilitating pre-operative prediction of post-operative tissue function
US11819285B2 (en) 2019-04-05 2023-11-21 Covidien Lp Magnetic interference detection systems and methods
US11269173B2 (en) 2019-08-19 2022-03-08 Covidien Lp Systems and methods for displaying medical video images and/or medical 3D models
US11931111B2 (en) 2019-09-09 2024-03-19 Covidien Lp Systems and methods for providing surgical guidance
US11864935B2 (en) 2019-09-09 2024-01-09 Covidien Lp Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures
US11627924B2 (en) 2019-09-24 2023-04-18 Covidien Lp Systems and methods for image-guided navigation of percutaneously-inserted devices
EP3838159A1 (en) 2019-12-17 2021-06-23 Koninklijke Philips N.V. Navigating bronchial pathways
US11380060B2 (en) 2020-01-24 2022-07-05 Covidien Lp System and method for linking a segmentation graph to volumetric data
US11847730B2 (en) 2020-01-24 2023-12-19 Covidien Lp Orientation detection in fluoroscopic images
US11950950B2 (en) 2020-07-24 2024-04-09 Covidien Lp Zoom detection and fluoroscope movement detection for target overlay
WO2024100617A1 (en) * 2022-11-10 2024-05-16 Johnson & Johnson Enterprise Innovation Inc. Electronically guided precision medical targeting using near infrared fluorescence imaging
US11816768B1 (en) 2022-12-06 2023-11-14 Body Vision Medical Ltd. System and method for medical imaging
CN117316393B (zh) * 2023-11-30 2024-02-20 北京维卓致远医疗科技发展有限责任公司 一种精度调整的方法、装置、设备、介质和程序产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014061093A (ja) 2012-09-20 2014-04-10 Toshiba Corp 画像処理装置、x線診断装置及びプログラム
JP2017536870A (ja) 2014-10-20 2017-12-14 ボディ・ビジョン・メディカル・リミテッドBody Vision Medical Ltd. 外科的デバイスおよび外科的デバイスの使用方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008045016A2 (en) * 2005-06-21 2008-04-17 Traxtal Inc. Device and method for a trackable ultrasound
DE102008030244A1 (de) * 2008-06-25 2009-12-31 Siemens Aktiengesellschaft Verfahren zur Unterstützung von perkutanen Interventionen
US20140188440A1 (en) * 2012-12-31 2014-07-03 Intuitive Surgical Operations, Inc. Systems And Methods For Interventional Procedure Planning
CN111481292A (zh) * 2014-01-06 2020-08-04 博迪维仁医疗有限公司 手术装置及其使用方法
US20160287210A1 (en) * 2015-03-31 2016-10-06 Boston Scientific Scimed, Inc. Devices and methods for ultrasound imaging

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014061093A (ja) 2012-09-20 2014-04-10 Toshiba Corp 画像処理装置、x線診断装置及びプログラム
JP2017536870A (ja) 2014-10-20 2017-12-14 ボディ・ビジョン・メディカル・リミテッドBody Vision Medical Ltd. 外科的デバイスおよび外科的デバイスの使用方法

Also Published As

Publication number Publication date
EP3629882A2 (en) 2020-04-08
CN111246791A (zh) 2020-06-05
JP2020520744A (ja) 2020-07-16
EP3629882A4 (en) 2021-05-19
WO2018215832A2 (en) 2018-11-29
WO2018215832A3 (en) 2019-02-07
CA3064678A1 (en) 2018-11-29
US20200170623A1 (en) 2020-06-04

Similar Documents

Publication Publication Date Title
JP7195279B2 (ja) 画像の三次元再構成及び改善された対象物定位のために、放射状気管支内超音波プローブを用いるための方法
US20220015727A1 (en) Surgical devices and methods of use thereof
US20200315554A1 (en) Methods and systems for using multi view pose estimation
US11896414B2 (en) System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
US20200046436A1 (en) Methods and systems for multi view pose estimation using digital computational tomography
EP2680778B1 (en) System and method for automated initialization and registration of navigation system
JP6745879B2 (ja) 身体部内の超音波プローブを追跡するためのシステム
CN110381841B (zh) 用于医疗成像的夹具及其使用方法
US20230030343A1 (en) Methods and systems for using multi view pose estimation

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20200717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200717

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220308

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221213

R150 Certificate of patent or registration of utility model

Ref document number: 7195279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150