JP6301005B2 - 手術部位におけるプローブの位置を判定する方法及びシステム - Google Patents

手術部位におけるプローブの位置を判定する方法及びシステム Download PDF

Info

Publication number
JP6301005B2
JP6301005B2 JP2017502884A JP2017502884A JP6301005B2 JP 6301005 B2 JP6301005 B2 JP 6301005B2 JP 2017502884 A JP2017502884 A JP 2017502884A JP 2017502884 A JP2017502884 A JP 2017502884A JP 6301005 B2 JP6301005 B2 JP 6301005B2
Authority
JP
Japan
Prior art keywords
probe
dimensional image
image
surgical site
correlation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017502884A
Other languages
English (en)
Other versions
JP2017524464A (ja
Inventor
シェシャオ チェン
シェシャオ チェン
カンジュ ワン
カンジュ ワン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2017524464A publication Critical patent/JP2017524464A/ja
Application granted granted Critical
Publication of JP6301005B2 publication Critical patent/JP6301005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/11Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis with guides for needles or instruments, e.g. arcuate slides or ball joints
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/32Determination of transform parameters for the alignment of images, i.e. image registration using correlation-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/378Surgical systems with images on a monitor during operation using ultrasound
    • A61B2090/3782Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument
    • A61B2090/3784Surgical systems with images on a monitor during operation using ultrasound transmitter or receiver in catheter or minimal invasive instrument both receiver and transmitter being in the instrument or receiver being also transmitter
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2576/00Medical imaging apparatus involving image processing or analysis
    • A61B2576/02Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part
    • A61B2576/026Medical imaging apparatus involving image processing or analysis specially adapted for a particular organ or body part for the brain
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radiology & Medical Imaging (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Length Measuring Devices Characterised By Use Of Acoustic Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本発明は、誘導定位システムに関し、特に、手術中手術部位におけるプローブの位置を判定する方法及びシステムに関する。
脳腫瘍、パーキンソン病、癲癇等によく見られる脳疾患は、患者の生活の質を大幅に低下するだけでなく、更に直接的に患者の生命をも危うくすることがある。この種の患者は、薬物又は物理療法等の保守的な治療を経た後でも症状を改善できない場合、通常侵襲性手術の治療が行われる。上記手術操作において、脳外科医は脳の解剖学的構造を参考できるが、手術器具を操作するスペースはやはり制限されている。
現在、脳外科医は、脳手術を行う前、術前のデータのみに頼ることができる。しかしながら、手術操作の間に脳の位置が少し変わったり、立体定位システムの操作の不適切となるだけで、手術部位の位置データが不正確となる。
これ以外に、術前データにより予め計画した手術経路は、例えば患者の位置移動、病状の変化又は手術プローブ自体の挿入といったいくつかの要因により変更する可能性がある。術前計画した手術経路から外れると、併発症を発症或いは死亡率が上がってしまう。
上記課題を解決するために、鋭意研究を重ねた結果、以下の発明に至った。
本発明の一具体的実施例では、複数の参考構造で手術部位におけるプローブの位置を判定する方法を開示する。該方法は、該プローブが該手術部位に入る前に生成した該手術部位の三次元画像を受信することと、該プローブの該手術部位における位置から生成した第1の二次元画像を受信することと、を含む。該三次元画像は、第1の座標システムと相関し、該第1の二次元画像が第2の座標システムと相関する。該方法も該第1の二次元画像に基づいて該複数の参考構造の定位を取得することで、一組の許容されるプローブ姿勢パラメータを得ることと、該一組の許容されるプローブ姿勢パラメータに基づき、該三次元画像から第2の二次元画像をキャプチャすることと、該第1の二次元画像とキャプチャした該第2の二次元画像の相関性を計算することで、該第2の座標システムで表す該プローブの該位置を関連の該三次元画像の該第1の座標システムで表す位置までマッピングすることと、を含む。
本発明の一具体的実施例では、一組のコマンドを含む機械読み取り可能な記憶媒体を開示する。該一組のコマンドが演算装置で実行された時、該演算装置に手術部位におけるプローブの位置を判定させる。該方法は、該プローブの該手術部位に入る前に生成した該手術部位の三次元画像を受信することと、該プローブの該手術部位における位置から生成した第1の二次元画像を受信することと、を含む。該三次元画像は、第1の座標システムと相関し、該第1の二次元画像が第2の座標システムと相関する。該方法も該第1の二次元画像に基づいて該複数の参考構造の定位を取得することで、一組の許容されるプローブ姿勢パラメータを得ることと、該一組の許容されるプローブ姿勢パラメータに基づき、該三次元画像から第2の二次元画像をキャプチャすることと、該第1の二次元画像とキャプチャした該第2の二次元画像の相関性を計算することで、該第2の座標システムで表す該プローブの該位置を関連の該三次元画像の該第1の座標システムで表す位置までマッピングすることと、を含む。
本発明の一具体的実施例では、複数の参考構造で手術部位におけるプローブの位置を判定するシステムを開示する。該システムは、プロセッサと、第1対応表と、第2対応表と、メモリと、を含む。該メモリは、一組の実行可能なコマンドを含み、該一組の実行可能なコマンドが該プロセッサで実行された時、該プロセッサに、手術操作の間に該プローブが該手術部位における位置から生成した第1の二次元画像及び手術操作前の該手術部位の三次元画像によって該複数の参考構造の定位を取得させることで、一組の許容されるプローブ姿勢パラメータを得て、該三次元画像が第1の座標システムと相関し、該第1の二次元画像が第2の座標システムと相関し;該一組の許容されるプローブ姿勢パラメータに基づき、該三次元画像から第2の二次元画像をキャプチャさせ;該第1対応表を利用して該第1の二次元画像から第一組のピクセルを選出させ;該第1対応表と該第2対応表を利用すると共に該一組の許容されるプローブ姿勢パラメータのいずれか1つに基づき、キャプチャした該第2の二次元画像から第二組のピクセルを選出させ;該第一組のピクセルと該第二組のピクセルの相関性を計算することで、該第2の座標システムで表す該プローブの該位置を関連の該三次元画像の該第1の座標システムで表す位置までマッピングさせる。
上記発明内容は、説明のためだけであって本発明を限定して解釈するためのものではない。前述の各方面、具体的実施例及び特徴を除き、本発明の他面、具体的実施例及び特徴が次の詳細な説明に基づくと共に添付図面を参照すると、より一層明瞭にできる。
手術の誘導定位システムの配置ブロック図である。 プローブ上の1個或いは複数のセンサーを示す例示配置図である。 手術操作を行う前の患者頭部を示す例示三次元画像である。 体積画像内から二次元画像をキャプチャすることを説明するための概略ブロック図である。 手術操作の間におけるプローブ位置の判定を説明する例示フローチャートである。 参考構造定位を取得するために用いる例示方法600を説明するフローチャートである。 例示表示器上の複数の超音波画像をCT体積画像からキャプチャしたスライス画像上に重ねた様子を示す。 例示表示器上のフィルタリング処理済みの複数の超音波画像を処理済みのCT体積画像からキャプチャしたスライス画像上に重ねた様子を示す。 対応表をベースとした例示システムのブロック図で、該システムは多次元的な相関面を計算するために用いられる。 手術部位におけるプローブの位置を判定する方法実施のコンピュータプログラム製品を説明するブロック図で、本発明の少なくとも幾つかの具体的実施例によって配置する。
以下、明細書に添付する図面を参照して詳細に説明する。明細書内に別段の説明がない限り、図面内の類似符号は、通常類似構成要素を示す。以下に記述された具体的実施例、図面及び特許請求の範囲は、説明のためだけであって本発明を限定して解釈するためのものではない。本発明の精神及び範囲を逸脱することなく、その他の具体的実施例を使用し、またその他の変更を行うことができる。ここの概述及び図面で説明する本発明の各方面は、様々な異なる形態として配置、組み合わせ及び設計でき、これら形態がやはり本発明で保護する技術範疇に属する。
本発明は、特に、手術操作の間に手術部位におけるプローブの位置の判定に向ける相関方法、装置及びシステムである。本明細書内において、「三次元画像」及び「体積画像」は、互換して使用できるものとする。
図1は、本発明の一具体的実施例に係る手術の導引定位システム100の配置ブロック図である。手術の導引定位システム100は、主に全域情報装置102と局所領域情報装置104と演算装置106とモニタリング装置110と操作装置108とを含む。
全域情報装置102は、手術操作開始前に手術の対象となる部位(例:脳)の全体情報を収集できる。若干の具体的実施例において、コンピュータ断層撮影(Computed Tomography、CT)、磁気共鳴画像(Magnetic resonance imaging、MRI)、脳表撮像、X線(X−ray)撮影、超音波撮影等の方式を通じて該全体情報を取得できる。この手術の対象となる部位の全体情報(例えば頭蓋内の 解剖学的構造(Intracranial Anatomy)、目標又は病変の位置(Lesion Location)或いは表面位置の標的等)を介して、脳外科医は、手術操作開始前に手術経路を計画できる。
局所領域情報装置104の一具体的実施例は、プローブ112を含み、該プローブ112がその上に設けられた少なくとも1つのセンサー114を備える。
脳外科医も操作装置108を通じてプローブ112を制御できる。操作装置108の一具体的実施例は、ロボットアーム116を含むことができ、脳外科医もロボットアーム116を通じてプローブ112を制御できる。
手術操作の間に、プローブ112上に設けられた1個或いは複数のセンサー114は、プローブ112近傍の局所データを得るために用いられる。収集した局所データと全域情報装置102で得た全域データは、演算装置106で処理できる。
一具体的実施例において、演算装置106は、全域データを参照してプローブ112の手術部位における位置データを判定できる。全域データは、手術操作開始前に得て、局所データは手術操作の間に取得される。その他相関委細は、後記の段落で説明する。
モニタリング装置110の一具体的実施例は、表示装置118と警報装置120とを含む。表示装置118は、手術操作開始前に全域情報装置102で収集した前記全体情報によって3D画像を表示できる。手術操作の間に、表示装置118は、演算装置106で算出した位置データによって該3D画像上に重なったプローブ112のリアルタイム位置を表示できる。この具体的実施例において、脳外科医は、該3D画像に対するプローブ112のリアルタイム位置を知ることができると共にこれに対応して手術操作を調整できる。
血管又は重要領域が近傍にある時、プローブ112が目標位置又は危険位置にある時或いはプローブ112が所定の手術経路から外れた時、警報装置120の一具体的実施例は、脳外科医に対しリアルタイム警報を伝送できる。
図2は、本発明の一具体的実施例に係るプローブ(例えば図1のプローブ112)上の1個或いは複数のセンサーの例示配置図である。プローブ112の一具体的実施例は、鞘体として配置でき、手術装置202が該鞘体で覆われ且つその中に移動できる。手術装置202の例は、生検針(Biopsy Needle)、活組織生検鉗子(Biopsy Forceps)、クランプ(Clamp)、レーザーファイバー(Laser Fiber)、脳圧測定モニタ用カテーテル(Brain Pressure Monitor Catheter)及び他の装置を含むことができるが、これに限定されない。
プローブ112は、1個或いは複数のセンサー204を含む。センサー204の例は、検出可変範囲を有する超音波トランスジューサとする。一具体的実施例において、プローブ112は、8個のセンサー204を含むことができ、円周45度ごとに間隔を空けてプローブ112の周辺に設けられる。各センサー204は、プローブ112を含む平面(例えばw軸)に二次元(2D)画像206を収集し、生成させるために用いられることができる。一具体的実施例において、プローブ112が収集して生成したデータは、座標システムと相関する(例えばu、v、wで、w軸がプローブ112の軸に合わせる)。
一具体的実施例において、超音波トランスジューサは、超音波のパルスをトランスジューサの超音波範囲内の組織及び/或いは解剖部位に送り込むために用いる。超音波が組織及び/或いは解剖部位に当たって反射・回折し、異なるタイプの組織及び/或いは解剖部位の音波反射程度が各々異なる。反射波は、記録されると共に2D画像206として表示される。骨格の関連信号強度は一般的に言うと、脳の軟組織の関連信号強度より強く、骨格信号が組織信号を妨害することを避けるため、超音波範囲を調整することで、生成する超音波画像に更に多くの脳軟組織の関連情報を表示させることができ、脳軟組織は、手術操作中の目標組織と他の重要組織とを含むことができる。
図3は、手術操作を行う前の患者頭部の例示三次元(3D)画像300である。説明の目的のため、3D画像300をCT画像と仮定する。手術前、脳外科医は、3D画像300の提供を指示するため、脳の他の組織或いは構造に対する目標領域位置について初回評価を行い、また手術経路を計画できる。3D画像300は、複数のボクセルを含み、各ボクセルが3D空間における格子上の数値を示す。この図において、ボクセルは、始点302を有する識別可能な立方体として配置する。
一具体的実施例において、3D画像300は、座標システム(例えばx、y、z)と相関する。例を挙げると、始点302の座標が(0、0、0)の時、同一座標システム内の3D画像300(例えばX、Y、Z)のボクセル304の座標を得ることができる。
図1及び図2のプローブ112がキャプチャ及び生成した座標システム(例えばu、v、w)における2D画像データを図3に示す別の座標システム(例えばx、y、z)における3D画像データ内のどこに置くと比較的適するかを決定したい場合、一つの方法として該3D画像データ内から2D画像をキャプチャし、またキャプチャした2D画像とプローブ112で生成した2D画像を比較する。図4は、本発明に係る一具体的実施例の体積画像内から二次元画像をキャプチャしたことを説明する概略ブロック図である。始点402を有する2D画像400は、図2の2D画像206に対応できる。始点406を有する体積画像404は、図3の3D画像300と始点302に各々対応できる。
前にも述べたように、2D画像400は、図1及び図2のプローブ112の手術操作の間の手術部位(例えば脳)における特定位置と方向に対応して撮影及び生成した2D画像であり、且つ体積画像404が手術操作開始前に同一の手術部位に対応する3D画像で、プローブ112が収集して生成する2D画像400の位置と方向は、体積画像404内の2D画像408をキャプチャするために用いられる適切な点の識別と相関する。簡略化するという目的のため、始点402は、判定を経て体積画像404内の始点410までマッピングすると仮定した。一具体的実施例において、図4に示すように、2D画像400のサイズ及び/或いはラスタスキャン順序は、2D画像408のキャプチャに使用できる。例を挙げると、体積画像404内のボクセル位置の定位方式は、2D画像400のラスタスキャンに対応させる。他の具体的実施例において、ボクセルで表すデータポイントの間の中間点に挿入して訂正を行うことができ、なぜならキャプチャした2D画像408のピクセルは、一般的に言うと体積画像404のボクセルに完全に揃えることはない。
キャプチャした2D画像408を介して2D画像400と2D画像408を比較して両者間に高い相関性があるかどうかを判定できる。高い相関性があった場合、2D画像400と2D画像408の間のマッピングは相当な正確性の信頼性が比較的高い。マッピングが非常に正確の場合、手術操作の時、脳外科医は、体積画像404に基づいてプローブ112付近のデータを評価でき、それが所定の手術経路に沿うデータとする可能性がある。よって、手術操作の間に組織の水平移動、回転変位及びせん断変形等の手術部位の局部変形を予測でき、また視野に入れることもできる。
2D画像400とキャプチャした2D画像408が略方形で表示されたにもかかわらず、当業者は、これら画像が実際に実施可能ないかなる形状(図2で示されるような扇形部)とすることができることを理解すべきである。
図5は、本発明に係る一具体的実施例の手術操作の間におけるプローブ位置の判定を示す例示方法500のフローチャートである。方法500は、ハードウェア、ソフトウェア及び/或いはファームウェアで実行できる1個又は複数の操作、功能或いは動作を含むことができ、例えば図内に表示されるブロック510、520、530、540、550及び/或いは560とする。これらブロックは、記述された具体的実施例を制限するものではない。例えば、本明細書で開示される該方法及び他のプロセスと方法について、実行する機能は、異なる順序によって実行できることは当業者に明白だろう。このほかに、記載されたステップと操作は例示のみであって、開示された具体的実施例の要点に影響を及ぼさないという前提において、その中の若干のステップと操作は、需要を見て選択でき、より少ないステップ及び操作として合併、或いは追加のステップ及び操作として拡張できる。図内のブロックは順番通り説明したにもかかわらず、それらブロックも並行実行及び/或いは図内の順序と異なる順番で実行することもできる。
方法500の進みは、ブロック510である「手術操作前手術部位の三次元画像を受信する」から始めることができる。例えば手術操作前、若干の医療画像技術で患者症状の写真を撮影させて、これをもって手術計画を立案できる。手術部位が患者の脳と仮定する。脳外科医は、脳に対しコンピュータ断層撮影を行うよう指示できる。図1及び図2を結合し、演算装置106は全域情報装置102(例えばコンピュータ診断撮影装置)から患者の脳の3D体積画像を受信できる。脳の軟組織以外に、3D体積画像も参考構造(例えば患者の頭蓋骨或いは頭蓋骨につながる基底部も含むが、これに限定されない)を表すボクセルも含むことができる。
ブロック510の後にブロック520である「手術操作の間もプローブで生成した第1の二次元画像を受信する」となる。手術操作開始後、演算装置106は、プローブ112で生成した第1の2D画像を受信するために用いることができる。前にも述べたように、一具体的実施例において、プローブ112上に設けられたセンサー或いは超音波トランスジューサは、プローブ112の脳における位置と方向から撮影して2D画像を生成するために用いることができる。
ブロック520の後にブロック530である「参考構造の定位を取得する」となる。定位の取得は、広義から言うと、座標システム内の一組の座標から別の座標システム内の別組の座標まで一対一マッピングする判定で、2個の座標システム内の同じ解剖部位に対応するデータを互いにマッピングさせることを指す。参考構造の例には、骨格と特定軟組織を含むものとするが、これに限定されない。これら参考構造の定位の取得が反復過程に関わり、プローブ112の異なる組の姿勢パラメータ(例えばx、y、z、俯仰、振れ、回転)及び異なる検索パラメータ(例えば超音波範囲)により、異なるタイプの検索を行う。一具体的実施例において、定位取得操作の出力項目は、3D体積画像の座標システム内の一組或いは複数組の許容される姿勢パラメータである。言い換えると、参考構造の定位を取得した後、3D体積画像の座標システム内の脳内プローブ112位置までマッピングできる該組の可能座標は、更に明確になる。この定位取得プロセスの委細は、後記の段落で説明する。
ブロック530の後にブロック540である「許容されるプローブ姿勢パラメータ組に基づき、三次元画像から第2の二次元画像をキャプチャする」となる。前記で述べたように図4を参照すると、体積画像の座標システム内の座標を通じて、該第2の2D画像(例えば2D画像408)をキャプチャできる。
ブロック540の後にブロック550である「第1と第2の二次元画像の間の相関性を計算する」となる。2個の画像間に高い相関性を有することは、プローブ112のため選択した姿勢パラメータが2個の座標システム間に非常に正確なマッピングを生成させ、脳外科医はキャプチャされた2D画像により手術を評価できる。
ブロック550の後にブロック560である「歴史的な相関性データと比較してプローブ位置を判定する」となる。一具体的実施例において、先ほど算出した相関性点数内のベストの相関性点数及び相関プローブ姿勢パラメータを保留する。新しく算出した相関性点数が更に高(つまり、2個の画像の相関性が更に高い)くなった場合、新しく算出された相関性点数及び相関姿勢パラメータを保留する。
一具体的実施例において、算出した相関性点数内のベストの点数を取得できるよう確保するため、各組の許容されるプローブ姿勢パラメータで異なる2D画像を得ると共に異なる相関性点数を計算できる。次に、プローブ112上に設けられた各センサーは、異なる方向から撮影して異なる2D画像を生成する。全てのこれら異なる2D画像とその個別対応のキャプチャした2D画像を比較し、且つ相関性点数は累計できる。このほかに、一致性の制限条件も加えることができる。制限条件は、プローブが引き続いて身体に沿って直線経路となるよう移動することを許容する。別の制限条件は、プローブが自体の軸線を中心として回転することを許容できる。
図6は、本発明に係る一具体的実施例の参考構造定位の取得を示す例示方法600のフローチャートである。方法600は、ハードウェア、ソフトウェア及び/或いはファームウェアで実行できる1個又は複数の操作、功能或いは動作を含むことができ、例えば図内に表示されるブロック610、620、630及び/或いは640とする。これらブロックは、記述された具体的実施例を制限するものではない。例えば、本明細書で開示される該方法及び他のプロセスと方法について、実行する機能は、異なる順序によって実行できることは当業者に明白だろう。このほかに、記載されたステップと操作は例示のみであって、開示された具体的実施例の要点に影響を及ぼさないという前提において、その中の若干のステップと操作は、需要を見て選択でき、より少ないステップ及び操作として合併、或いは追加のステップ及び操作として拡張できる。図内のブロックは順番通り説明したにもかかわらず、それらブロックも並行実行及び/或いは図内の順序と異なる順番で実行することもできる。
方法600の進みは、ブロック610である「プローブ姿勢パラメータ及び検索パラメータを設定する」から始めることができる。一具体的実施例において、術前の事前計画及び/或いは機械の制限条件(例えば患者の頭蓋骨につながる基底部に対応)により初期プローブ姿勢パラメータを設定できる。一組の初期検索パラメータは、検索間隔、各姿勢パラメータの増量の大きさ、超音波範囲の限界及びその他を含むことができるが、これに限定されない。
ブロック610の後にブロック620である「第1の二次元画像において参考構造を検索する」となる。一具体的実施例において、初期超音波範囲の限界は、比較的大きく設定したため、該第1の2D画像(プローブが撮影/生成した2D画像で、例えば図4の2D画像400)内において更に徹底的に検索することで、参考構造を識別できる。
ブロック620の後にブロック630である「プローブ姿勢パラメータが識別済みの参考構造を取得させるかどうかを判断する」となる。言い換えると、プローブ姿勢パラメータを特定数値に設定することで、方法600を1回反復して該第1の2D画像内の識別した参考構造と該体積画像内の対応の参考構造が一致するかどうかを判断する。一致した場合、該(それら)参考構造を定位させる該組プローブ姿勢パラメータを保留する。さもなければ、一致するかどうかを判断するため、プローブ姿勢パラメータを異なる数値に設定してからもう一度ブロック630を実行できる。
ブロック630において参考構造(例えば骨格)の定位を取得したと仮定する。ブロック630の後にブロック640である「検索パラメータを修正する」を行うことができる。一具体的実施例において、検索パラメータの一つである超音波範囲の限界を縮小してプローブ112付近の軟組織を視野に入れることができる。異なる超音波範囲の限界を使用することで、プローブ112と間隔する異なる距離を計測することもできる。
一具体的実施例において、図1の演算装置106は、方法500と方法600を実行するために用いることができる。より一層意義のある結果を得るため、前記の幾つかの操作を実施する前、演算装置106は、該3D体積画像、該第1の2D画像及び/或いはキャプチャした第2の2D画像を処理するために用いることができる。
CT及び超音波画像において、骨格の関連信号は、いずれも脳軟組織の関連信号強度より強い。一具体的実施例において、演算装置106は、骨格と脳軟組織の間の信号強度の差を利用して該第1の2D画像とキャプチャした第2の2D画像内の頭蓋骨を表すピクセル及び脳軟組織を表すピクセルを区別できる。上記2個の2D画像内の脳軟組織を表すピクセル間の相関性を計算するだけで、比較結果により一層意義を持たせることができる。
更に具体的に言うと、一具体的実施例において、体積画像からキャプチャした2D画像内の骨格を表すピクセルは、第1数値と指定されることができ、上記キャプチャした画像内の頭蓋骨以外の他の部分を表すピクセルが第2数値と指定されることができる。該第2数値に比較して、ピクセル値が更に該第1数値に近づくと、このピクセルで表す部分が頭蓋骨に近づくが脳軟組織から遠く離れる可能性がある。このほかに、マスクをキャプチャした2D画像に応用して指定された数値が閾値より低いピクセルを選択することで、頭蓋骨と関連する強い信号を抑圧する。
一具体的実施例において、演算装置106は、帯域通過型空間フィルタ、例えばラプラシアンガウシアン(Laplacian of Gaussian、LOG)のコンボリューション演算を該第1の2D画像に応用でき、該第1の2D画像とキャプチャした該第2の2D画像間の相関性を計算する前に微細と粗いテクスチャ(例えば図5のブロック550)を抑圧する。フィルタリングを経た2D画像の正・負変動平均値は、大体0となる。LOGフィルタリングを経た画像において、正・負領域の境界は、オリジナル画像中に変換を発生した場所である。このほかに、正・負領域は、変換領域の間における真ん中に置くことができ且つ通常安定状態を呈する。画像の撮影/生成メカニズムは明らかに異なるとしても、これら領域は異なる画像間(例えば超音波画像とCT体積画像或いは超音波画像とMRI体積画像)の同一標的の定位を取得できる。
一具体的実施例において、LOGコンボリューション演算は、キャプチャした該第2の2D画像に応用できる。或いは、該体積画像内から該第2の2D画像をキャプチャする前、LOGコンボリューション演算を該体積画像に応用することもできる。LOG処理を経た体積画像内からキャプチャした二次元画像は、LOG処理を経てキャプチャした該第2の2D画像と類似する可能性がある。
一具体的実施例において、ハンスフィールドユニット(Hounsfield Units)のリマッピング法は、キャプチャした該第2の2D画像に応用されることができる。ハンスフィールドユニットのリマッピング法は、ハンスフィールドユニットを異なる数値範囲までリマッピングすることで、組織のインピーダンスを増やすことを含む。例えば、大脳の灰白質に関わるハンスフィールドユニット範囲の指定数値範囲は大脳の白質に関わるハンスフィールドユニット範囲より大きくできる。
超音波画像は、通常明らかなスペックルノイズがあるため、一具体的実施例において、スペックルノイズがその後の処理を行う前、超音波画像からろ過除去される。例示フィルタの超音波画像周波数に比例する径方向周波数がゼロ振幅を有する。別の具体的実施例において、フィルタは周波数領域のフィルタとする。別の具体的実施例において、フィルタは径方向周波数座標のシンク関数で、下式で表わす。
別の具体的実施例において、選択したマーカー周波数が予想される径方向周波数にある時、ゼロ振幅を提供する。
図5を参照すると、プローブ位置がブロック560において確定されたため、一具体的実施例において、該第1の2D画像(例えば図4の2D画像400)とキャプチャした該第2の2D画像(例えばキャプチャした2D画像408)は、表示装置118に表示され得る。図7は、本発明の一具体的実施例に係る例示表示器上の超音波画像710及び720がCT体積画像からキャプチャしたスライス画像700上に重ねた様子を示す。ここの超音波画像710及び720は、プローブの脳内における特定位置から撮影及び生成したものであり、該位置が該CT体積画像と相関する座標システムの一組の座標(例えば座標(X、Y、Z))に対応する。座標(X、Y、Z)により、該CT体積画像からスライス画像700をキャプチャする。
スライス画像700は、頭蓋骨703(陰影が比較的薄い領域)内に覆われる軟組織701(陰影が比較的濃い領域)、基底部705(垂直で細長い)及び該スライス画像のプローブ軸707(中央を貫く白線)を表示する。領域725及び730には、スライス画像700内の頭蓋骨703を表すピクセルで表現した画像と超音波画像710内の頭蓋骨703を表すピクセルで表現した画像が大まかに類似することを示す。この大まかな類似は、スライス画像700内の頭蓋骨703を表すピクセルと超音波画像710内の頭蓋骨703を表すピクセルが頭蓋骨703の同一部位に対応することを示す。頭蓋骨の解剖学的構造のマッチから頭蓋骨703に対する座標(X、Y、Z)位置を確定できる。
図8は、本発明の一具体的実施例に係る例示表示器上のフィルタリングを経た超音波画像810及び820が処理済みCT体積画像からキャプチャしたスライス画像800上に重ねた様子を示す。フィルタリングを経た超音波画像810及び820は、図7の同じ座標(X、Y、Z)から撮影したにもかかわらず、フィルタリングを経た超音波画像810及び820の範囲が超音波画像710及び720の範囲より更に縮小されたため、超音波画像810及び820は頭蓋骨を含まず且つ図7に示す領域725及び730を有していない。同時に、この図において、CT体積画像のボクセル値がすでに変更され、骨格境界を遮蔽することによって脳軟組織を強調する。よって、スライス画像800は脳軟組織を表すピクセルのみを含み、頭蓋骨を表すいかなるピクセルを含まない。スライス画像800内の脳軟組織を表すピクセルは、超音波画像810及び820内の脳軟組織を表すピクセルと比較できる。同時に、スライス画像800内の脳軟組織を表すピクセルで表現した画像及び超音波画像810及び820内の脳軟組織を表すピクセルで表現した画像の間の相関性を計算できる。スライス画像800及び超音波画像810及び820の相関性が高いと仮定し、スライス画像800と超音波画像810及び820の間との差異が脳軟組織の移動に対応する。この判定の高信頼性に伴い、脳外科医は、手術操作中に標的組織或いは他の重要な組織の移動の有無を判断して手術操作の間に適切な行動を採ることができる。
図9は、本発明に係る一具体的実施例の対応表をベースとする例示システム900のブロック図で、システム900が多次元相関面を計算するために用いられる。
数値Nは、相関ピクセルの総数である。Nは、一般的に言うと、超音波画像内のピクセル数より小さい。これは超音波プローブの設定範囲を超えたピクセルは全て使用されず、同様にこの予定範囲より近いピクセルも無視されるからである。
USマスク対照表は、相関性を比較するために用いられるピクセルメモリアドレス(超音波画像の始点からオフセット)長Nのリストを含む。このリストは、ラスタスキャン順序による。このオフセット出力も体積画像内の相関ボクセルアドレスを選択するための扇形オフセット表に送り込む。
扇形オフセット表k=k*k*k扇形部オフセット表の集合、式中において、
k1が回転方向の数量(半分の解像度で、一般は720)
k2が垂直板の公称プローブ方向に対する振れ方向の数量(半分の解像度±10度の範囲で、一般は40)。
k3が垂直板の公称プローブ方向に対する俯仰方向の数量(半分の解像度±10度の範囲で、一般は40)。
k扇形部表におけるものは、オフセットアドレスリストを有し、該リストがラスタパターンで3D画像体積の扇形部平面をスキャンした。このラスタスキャンは、超音波画像と同じ次元を有する。よって、操作過程中において、「扇形選択」ボックス及び「プローブ軸の振れ、俯仰及び回転」ボックスが入力項目を「扇形オフセット表」ボックスに提供してk扇形部オフセット表のうちのいずれかを選択する。選択した表がUSマスク対照表の入力項目を受信し、3D体積画像のためにオフセットアドレスを出力する。
このオフセットアドレスは、「プローブ軸xyzの位置指標オフセット」ボックスからの固定オフセットアドレスと総計(+)する。この固定オフセットは、画像体積内の扇形部を変換する。次に、加算器の出力が体積画像メモリに送り込み、いずれか一つの数値がアクセスされると共に相関性の乗算器(×)に出力される。
相関性の乗算器が超音波画像と体積画像からのピクセル値を受信してこれら数値を乗算して結果を累算器まで送り込む。
左上のステップにおいて、カウンタモジュールが0からN−1をカウントし、全体的なプロセスをN回繰り返させる。カウントが終了した時、一番右側の累算器には、扇形指標、回転、俯仰、振れ、x、y、z等の7つの入力パラメータの相関性の総和が含まれる。扇形選択レジスタの範囲を逓増することによって全ての8個の扇形部の総合相関性を計算する。
7つのパラメータの変更を通じてベストの相関性を検索し、このメカニズムは画像体積中の先ほど記録した体積画像とリアルタイム超音波画像の間の最も一致するプローブ姿勢を見つけ出すことに用いることができる。
ニーズに応じてステム900は、骨マスク体積画像を含み、骨格領域を相関性計算から排除させる。一具体的実施例において、骨マスク体積画像はCT/MRI LOG体積内の対応ボクセルが軟部組織或いは骨格のボクセルであるかどうかの指摘を含む。この骨マスク体積は、LOG体積と並行してアクセスすることで、アクセスしたLOGボクセルを相関性の総和まで提供することの許容の有無を判断する。一具体的実施例において、適切な造影技術で骨格ボクセルを識別し、原CT/MRI体積画像からマスク体積画像を取得する。それらボクセル値を1.0に設定し非骨格ボクセルを0.0に設定する。次に、フィルタを1及び0と表示する体積まで応用し、よって骨格近傍の軟部組織として表示した位置が0超1未満の数値を得る。このほかに、骨格の位置に近ければ近いほど、得る数値は1に近づく。よって、閾値は、最も近い骨格ボクセルまで少なくとも1つの特定距離を有するボクセルを選択するために用いることができる。
図10は、本発明に係る一具体的実施例の手術部位におけるプローブ位置の判定方法を実行するコンピュータプログラム製品1000を示すブロック図である。コンピュータプログラム製品1000は、信号搬送媒体1002を含むことができる。信号搬送媒体1002は、その上に保存している1組或いは複数組の実行可能なコマンド1004を含むことができる。これらコマンドは図1の演算装置106で実行する時、上記特徴と操作を提供できる。
幾つかの実施方式において、信号搬送媒体1002は、過渡的でないコンピュータ読み取り可能な記憶媒体1008を含むことができ、例えばハードディスク、コンパクトディスク(CD)、デジタルコンパクトディスク(DVD)、デジタル磁気テープ、メモリ等であるがこれらに限られるものではない。幾つかの実施方式において、信号搬送媒体1002は記録媒体1010を含むことができ、例えばメモリ、読み/書き(R/W)CD、R/W DVD等であるがこれに限られるものではない。若干の実施方式において、信号搬送媒体1002は、通信媒体1006を含むが、例えばデジタル及び/或いはアナログ通信媒体(例えば光ファイバーケーブル、導波、有線通信線路、無線通信線路等)であるがこれらに限られるものではない。
上文では、ブロック図、フローチャート及び/或いは例を通じて装置及び/或いはプロセスの各具体的実施例を説明した。これらブロック図、フローチャート及び/或いは例の範囲内において1個或いは複数の機能及び/或いは操作を含み、これらブロック図、フローチャート又は例の範囲内の各機能及び/或いは操作は種類が非常に多くのハードウェア、ソフトウェア、ファームウェア若しくはそれらの任意の組み合わせから個別及び/或いは共同で実行できることは当業者に明白だろう。若干の具体的実施例において、本発明の標的の幾つかの部分は、特定用途向け集積回路(ASICs)、フィールドプログラマブルゲートアレイ(FPGAs)、デジタルシグナルプロセッサ(DSPs)或いは他の統合フォーマットを通じて実施できる。しかしながら、本明細書で開示されている具体的実施例の幾つかの方面の全部或いは一部が同様に集積回路で実行できることは当業者は理解するであろう。例えば1個或いは複数のコンピュータプログラムが1個或いは複数のコンピュータ上で実行(例えば1個或いは複数のプログラムが1個或いは複数のコンピュータシステム上で実行)し、例えば1個或いは複数のプログラムが1個或いは複数のプロセッサ上で実行(例えば1個或いは複数のプログラムが1個或いは複数のマイクロプロセッサ上で実行)、例えばファームウェア又はその任意の組み合わせである。本発明で開示されている内容により回路及び/或いはソフトウェア及び/或いはファームウェアのためにプログラムコードを作成するのは、本発明の属する分野の技術に属する。このほかに、本発明標的メカニズムは、異なる形式のプログラム製品として散布でき、且つ実際に散布を実行する特定タイプの信号搬送媒体が何かを問わず、本発明標的の例示具体的実施例がいずれも適用されることは当業者に明白だろう。信号搬送媒体の例は、ディスク、ハードディスク、コンパクトディスク(CD)、デジタルコンパクトディスク(DVD)、デジタル磁気テープ、コンピュータメモリ等の記録媒体及び例えばデジタル及び/或いはアナログ通信媒体(例えば光ファイバーケーブル、導波、有線通信線路、無線通信線路)といった送信媒体を含むものとするがこれに限定されない。
発明の詳細な説明の項においてなされた実施例は、あくまでも本発明の技術内容を明らかにするものであって、そのような具体例にのみ限定して狭義に解釈されるべきものではなく、本発明の範囲と精神とから外れることなく、様々な変更を行うことができる。よって本発明の真実範囲及び精神を後記の特許請求の範囲に開示している。
100 手術の導引定位システム
102 全域情報装置
104 局所領域情報装置
106 演算装置
108 操作装置
110 モニタリング装置
112 プローブ
114 センサー
116 ロボットアーム
118 表示装置
120 警報装置
202 手術装置
204 センサー
206 二次元画像
300 三次元画像
302 始点
304 ボクセル
400 二次元画像
402 始点
404 体積画像
406 始点
408 二次元画像
410 始点
700 スライス画像
701 軟部組織
703 頭蓋骨
705 基底部
707 プローブ軸
710 超音波画像
725 領域
730 領域
800 スライス画像
810 超音波画像
820 超音波画像
900 システム
1000 コンピュータプログラム製品
1002 信号搬送媒体
1004 コマンド
1006 通信媒体
1008 コンピュータ読み取り可能な記録媒体
1010 記録媒体

Claims (22)

  1. 複数の参考構造で手術部位におけるプローブの位置を判定する方法であって、
    該方法は演算装置を備える誘導定位システムによって行われ、且つ、
    該方法が、
    前記プローブが前記手術部位に入る前に生成した、及び第1の座標システムと相関する前記手術部位の三次元画像を、該演算装置が受信するステップと、
    前記プローブの前記手術部位における位置から生成した、及び第2の座標システムと相関する第1の二次元画像を、該演算装置が受信するステップと、
    前記第1の二次元画像に基づいて前記複数の参考構造の定位を該演算装置が取得することで、一組の許容されるプローブ姿勢パラメータを得るステップと、
    該演算装置が、前記一組の許容されるプローブ姿勢パラメータに基づき、前記三次元画像から第2の二次元画像をキャプチャするステップと、
    前記第1の二次元画像とキャプチャした前記第2の二次元画像の相関性を該演算装置が計算することで、前記第2の座標システムで表す前記プローブの該位置を、関連の前記三次元画像の前記第1の座標システムで表す位置までマッピングするステップと、
    を含み、
    前記プローブは、前記手術部位の中で直線移動すること、又は前記手術部位の中で自体の軸線を中心として回転することに制限されることを特徴とする手術部位におけるプローブの位置を判定する方法。
  2. 前記定位の取得は、
    第一組のプローブ姿勢パラメータ及び第一組の検索パラメータを設定するステップと、
    前記第一組のプローブ姿勢パラメータ及び前記第一組の検索パラメータに基づいて前記第1の二次元画像においての前記複数の参考構造の中の1番目を検索するステップと、
    前記第一組のプローブ姿勢パラメータが前記第1の二次元画像で描いた前記複数の参考構造の中の前記1番目と、前記三次元画像で描いた前記複数の参考構造の中の前記1番目とを一致すると判定させるか否かを判断するステップと、
    を含むことを特徴とする請求項1に記載の手術部位におけるプローブの位置を判定する方法。
  3. 前記第1の二次元画像においての前記複数の参考構造の中の2番目を検索するための第二組の検索パラメータを設定することを特徴とする請求項2に記載の手術部位におけるプローブの位置を判定する方法。
  4. 前記相関性の計算は、
    前記第1の二次元画像から組織を表す第一組のピクセルを選択するステップと、
    キャプチャした前記第2の二次元画像から組織を表す第二組のピクセルを選択するステップと、
    前記第一組のピクセル及び前記第二組のピクセルに基づいて前記相関性を計算するステップと、
    を含むことを特徴とする請求項1に記載の手術部位におけるプローブの位置を判定する方法。
  5. 前記相関性を計算する前、帯域通過型空間フィルタを前記第1の二次元画像に応用することを特徴とする請求項1に記載の手術部位におけるプローブの位置を判定する方法。
  6. 前記相関性を計算する前、帯域通過型空間フィルタをキャプチャした前記第2の二次元画像に応用することを特徴とする請求項1に記載の手術部位におけるプローブの位置を判定する方法。
  7. 前記第2の二次元画像をキャプチャする前、帯域通過型空間フィルタを前記三次元画像に応用することを特徴とする請求項1に記載の手術部位におけるプローブの位置を判定する方法。
  8. 前記相関性を計算する前、前記第1の二次元画像においてのスペックルノイズをろ過し、除去することを特徴とする請求項1に記載の手術部位におけるプローブの位置を判定する方法。
  9. 前記プローブは、前記手術部位の中で直線移動することに制限されることを特徴とする請求項1に記載の手術部位におけるプローブの位置を判定する方法。
  10. 前記プローブは、前記手術部位の中で自体の軸線を中心として回転することに制限されることを特徴とする請求項1に記載の手術部位におけるプローブの位置を判定する方法。
  11. 複数の参考構造により手術部位におけるプローブの位置を判定する方法に用いられる一組の実行可能なコマンドを含む過渡的でない機器の読み取り可能な記憶媒体であって、
    前記一組のコマンドが演算装置で実行された時、前記演算装置が、
    前記プローブが前記手術部位に入る前に生成した、及び第1の座標システムと相関する前記手術部位の三次元画像を受信させ、
    前記プローブの前記手術部位における位置から生成した、及び第2の座標システムと相関する第1の二次元画像を受信させ、
    前記第1の二次元画像に基づいて前記複数の参考構造の定位を取得することで、一組の許容されるプローブ姿勢パラメータを得させ、
    前記一組の許容されるプローブ姿勢パラメータに基づき、前記三次元画像から第2の二次元画像をキャプチャさせ、
    前記第1の二次元画像とキャプチャした前記第2の二次元画像の相関性を計算することで、前記第2の座標システムで表す前記プローブの該位置を関連の前記三次元画像の前記第1の座標システムで表す位置までマッピングさせ、且つ、
    前記プローブは、前記手術部位の中で直線移動すること、又は前記手術部位の中で自体の軸線を中心として回転することに制限されることを特徴とする過渡的でない機器の読み取り可能な記憶媒体。
  12. 前記定位の取得は、
    第一組のプローブ姿勢パラメータ及び第一組の検索パラメータを設定するステップと、
    前記第一組のプローブ姿勢パラメータ及び前記第一組の検索パラメータに基づいて前記第1の二次元画像においての前記複数の参考構造の中の1番目を検索するステップと、
    前記第一組のプローブ姿勢パラメータが前記第1の二次元画像で描いた前記複数の参考構造の中の前記1番目と、前記三次元画像で描いた前記複数の参考構造の中の前記1番目とを一致すると判定させるか否かを判定するステップと、
    を含むことを特徴とする請求項11に記載の過渡的でない機器の読み取り可能な記憶媒体。
  13. 一組のコマンドが演算装置で実行された時、前記演算装置に前記第1の二次元画像においての前記複数の参考構造内の2番目を検索するための第二組の検索パラメータを設定させる一組の実行可能なコマンドを更に含むことを特徴とする請求項12に記載の過渡的でない機器の読み取り可能な記憶媒体。
  14. 前記相関性の計算は、
    前記第1の二次元画像から組織を表す第一組のピクセルを選択するステップと、
    キャプチャした前記第2の二次元画像から組織を表す第二組のピクセルを選択するステップと、
    前記第一組のピクセル及び前記第二組のピクセルに基づいて前記相関性を計算するステップと、
    を含むことを特徴とする請求項11に記載の過渡的でない機器の読み取り可能な記憶媒体。
  15. 一組のコマンドが演算装置で実行された時、前記演算装置に前記相関性を計算する前、帯域通過型空間フィルタを前記第1の二次元画像に応用させる一組の実行可能なコマンドを更に含むことを特徴とする請求項11に記載の過渡的でない機器の読み取り可能な記憶媒体。
  16. 一組のコマンドが演算装置で実行された時、前記演算装置に前記相関性を計算する前、帯域通過型空間フィルタをキャプチャした前記第2の二次元画像に応用させる一組の実行可能なコマンドを更に含むことを更に含むことを特徴とする請求項11に記載の過渡的でない機器の読み取り可能な記憶媒体。
  17. 一組のコマンドが演算装置で実行された時、前記演算装置に前記第2の二次元画像をキャプチャする前、帯域通過型空間フィルタを前記三次元画像に応用させる一組の実行可能なコマンドを更に含むことを特徴とする請求項11に記載の過渡的でない機器の読み取り可能な記憶媒体。
  18. 一組のコマンドが演算装置で実行された時、前記演算装置に前記相関性を計算する前、前記第1の二次元画像内のスペックルノイズをろ過し、除去させる一組の実行可能なコマンドを更に含むことを特徴とする請求項11に記載の過渡的でない機器の読み取り可能な記憶媒体。
  19. 複数の参考構造で手術部位におけるプローブの位置を判定するシステムであって、以下の部分、
    プロセッサと、
    第1対応表及び第2対応表と、
    一組の実行可能なコマンドを包括するメモリと、を含み
    前記一組の実行可能なコマンドが該プロセッサで実行された時、前記プロセッサに、
    手術操作の間に前記プローブが前記手術部位における位置から生成した第1の二次元画像、及び手術操作前の前記手術部位の三次元画像によって、前記複数の参考構造の定位を取得させることで、一組の許容されるプローブ姿勢パラメータを得て、また前記三次元画像が第1の座標システムと相関し、前記第1の二次元画像が第2の座標システムと相関し、
    前記一組の許容されるプローブ姿勢パラメータに基づき、前記三次元画像から前記第2の二次元画像をキャプチャさせ、
    前記第1対応表を利用して前記第1の二次元画像から第一組のピクセルを選出させ、
    前記第1対応表と前記第2対応表を利用すると共に前記一組の許容されるプローブ姿勢パラメータのいずれか1つに基づき、キャプチャした前記第2の二次元画像から第二組のピクセルを選出させ、
    前記第一組のピクセルと前記第二組のピクセルの相関性を計算することで、前記第2の座標システムで表す前記プローブの前記位置を関連の前記三次元画像の前記第1の座標システムで表す位置までマッピングさせることを特徴とするシステム。
  20. 前記メモリは、別途の実行可能なコマンドを包括し、前記コマンドが前記プロセッサで実行された時、前記プロセッサに、前記相関性を計算する前、前記第二組のピクセル内の骨格を表すピクセルを排除させることを特徴とする請求項19に記載の複数の参考構造で手術部位におけるプローブの位置を判定するシステム。
  21. 前記第1対応表は、前記第一組のピクセルのメモリアドレスリストを含み、前記リストがラスタスキャン順序に従うことを特徴とする請求項19に記載の複数の参考構造で手術部位におけるプローブの位置を判定するシステム。
  22. 前記一組の許容されるプローブ姿勢パラメータ内の少なくとも若干のパラメータは、前記第2対応表に入力されることを特徴とする請求項19に記載の複数の参考構造で手術部位におけるプローブの位置を判定するシステム。
JP2017502884A 2014-08-19 2015-08-19 手術部位におけるプローブの位置を判定する方法及びシステム Active JP6301005B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462039412P 2014-08-19 2014-08-19
US62/039,412 2014-08-19
PCT/CN2015/087500 WO2016026437A1 (en) 2014-08-19 2015-08-19 Method and system of determining probe position in surgical site

Publications (2)

Publication Number Publication Date
JP2017524464A JP2017524464A (ja) 2017-08-31
JP6301005B2 true JP6301005B2 (ja) 2018-04-11

Family

ID=55350201

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017502884A Active JP6301005B2 (ja) 2014-08-19 2015-08-19 手術部位におけるプローブの位置を判定する方法及びシステム

Country Status (10)

Country Link
US (1) US9757202B2 (ja)
EP (1) EP3145431B1 (ja)
JP (1) JP6301005B2 (ja)
KR (1) KR101821520B1 (ja)
CN (1) CN106794051B (ja)
CA (1) CA2949264C (ja)
DK (1) DK3145431T3 (ja)
HR (1) HRP20201201T1 (ja)
TW (1) TWI605795B (ja)
WO (1) WO2016026437A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3188662A4 (en) * 2014-09-05 2018-05-23 Procept Biorobotics Corporation Physician controlled tissue resection integrated with treatment mapping of target organ images
CN106794044B (zh) * 2015-06-05 2019-09-27 钛隼生物科技股份有限公司 术中追踪方法
EP3306572A1 (en) * 2016-10-07 2018-04-11 Schneider Electric Industries SAS Method for 3d mapping of 2d point of interest
US11497478B2 (en) * 2018-05-21 2022-11-15 Siemens Medical Solutions Usa, Inc. Tuned medical ultrasound imaging
KR102146719B1 (ko) * 2018-12-27 2020-08-24 주식회사 홀로웍스 가상현실 기반의 정형외과 시뮬레이터의 수술 평가 시스템
KR102143784B1 (ko) * 2018-12-27 2020-08-12 가톨릭대학교 산학협력단 가상현실 기반 이비인후과 및 신경외과 시뮬레이터의 수술 평가 시스템
TWI766253B (zh) * 2019-03-19 2022-06-01 鈦隼生物科技股份有限公司 基於影像匹配決定手術路徑之方法與系統
TWI683286B (zh) * 2019-03-21 2020-01-21 上銀科技股份有限公司 醫療影像對位方法
CN112206063A (zh) * 2020-09-01 2021-01-12 广东工业大学 一种多模态多角度牙科种植体配准方法
TWI784754B (zh) * 2021-04-16 2022-11-21 威盛電子股份有限公司 電子裝置以及物件偵測方法
TWI785645B (zh) * 2021-06-11 2022-12-01 承鋆生醫股份有限公司 基於擴增實境的手術輔助方法
CN114041828B (zh) * 2022-01-13 2022-04-29 深圳瀚维智能医疗科技有限公司 超声扫查控制方法、机器人及存储介质
CN116725679A (zh) * 2022-08-12 2023-09-12 北京和华瑞博医疗科技有限公司 配准点确定以及配准方法、装置、设备、介质和程序产品

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6167295A (en) 1991-01-28 2000-12-26 Radionics, Inc. Optical and computer graphic stereotactic localizer
JP4088104B2 (ja) * 2002-06-12 2008-05-21 株式会社東芝 超音波診断装置
US7570791B2 (en) * 2003-04-25 2009-08-04 Medtronic Navigation, Inc. Method and apparatus for performing 2D to 3D registration
WO2004098414A1 (ja) * 2003-05-08 2004-11-18 Hitachi Medical Corporation 超音波診断におけるリファレンス像表示方法及び超音波診断装置
JP2007531553A (ja) 2003-10-21 2007-11-08 ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ 術中ターゲティングのシステムおよび方法
AU2006201646B2 (en) 2005-04-26 2011-01-06 Biosense Webster, Inc. Display of catheter tip with beam direction for ultrasound system
US10143398B2 (en) 2005-04-26 2018-12-04 Biosense Webster, Inc. Registration of ultrasound data with pre-acquired image
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US8126239B2 (en) * 2006-10-20 2012-02-28 Siemens Aktiengesellschaft Registering 2D and 3D data using 3D ultrasound data
US8150494B2 (en) 2007-03-29 2012-04-03 Medtronic Navigation, Inc. Apparatus for registering a physical space to image space
EP2152183B1 (en) * 2007-04-23 2014-06-11 Medtronic Navigation, Inc. Apparatus for electromagnetic navigation of a magnetic stimulation probe
JP4934513B2 (ja) * 2007-06-08 2012-05-16 株式会社日立メディコ 超音波撮像装置
JP5049728B2 (ja) 2007-10-12 2012-10-17 株式会社日立メディコ 超音波内視鏡、超音波診断装置、及び超音波内視鏡における位置センサ固定方法
JP5486182B2 (ja) * 2008-12-05 2014-05-07 キヤノン株式会社 情報処理装置および情報処理方法
IT1400684B1 (it) * 2010-07-07 2013-06-28 Esaote Spa Metodo e dispositivo di imaging per il monitoraggio di un corpo in esame.
US8744211B2 (en) * 2011-08-31 2014-06-03 Analogic Corporation Multi-modality image acquisition
CA2851659A1 (en) * 2011-10-09 2013-04-18 Clear Guide Medical, Llc Interventional in-situ image guidance by fusing ultrasound and video
JP2013135738A (ja) * 2011-12-28 2013-07-11 Hitachi Medical Corp 手術支援システム
TWI463964B (zh) * 2012-03-03 2014-12-11 Univ China Medical 手術影像導引定位裝置及其系統
US9375196B2 (en) * 2012-07-12 2016-06-28 Covidien Lp System and method for detecting critical structures using ultrasound
JP2014054362A (ja) * 2012-09-12 2014-03-27 Toshiba Corp 超音波診断装置、画像処理装置及びプログラム
JP6109556B2 (ja) 2012-12-12 2017-04-05 東芝メディカルシステムズ株式会社 超音波診断装置及び画像処理プログラム
CN103040525B (zh) * 2012-12-27 2016-08-03 深圳先进技术研究院 一种多模医学影像手术导航方法及***
CN103230304B (zh) 2013-05-17 2015-05-13 深圳先进技术研究院 手术导航***及其方法
JP5706933B2 (ja) * 2013-07-31 2015-04-22 キヤノン株式会社 処理装置および処理方法、プログラム
WO2016019347A1 (en) * 2014-07-31 2016-02-04 California Institute Of Technology Multi modality brain mapping system (mbms) using artificial intelligence and pattern recognition

Also Published As

Publication number Publication date
TWI605795B (zh) 2017-11-21
WO2016026437A1 (en) 2016-02-25
HRP20201201T1 (hr) 2020-11-13
US9757202B2 (en) 2017-09-12
EP3145431B1 (en) 2020-05-27
KR20170032238A (ko) 2017-03-22
JP2017524464A (ja) 2017-08-31
CA2949264C (en) 2018-10-09
CA2949264A1 (en) 2016-02-25
EP3145431A1 (en) 2017-03-29
CN106794051B (zh) 2019-04-26
KR101821520B1 (ko) 2018-01-24
TW201622660A (zh) 2016-07-01
US20160296291A1 (en) 2016-10-13
EP3145431A4 (en) 2018-06-06
CN106794051A (zh) 2017-05-31
DK3145431T3 (da) 2020-08-17

Similar Documents

Publication Publication Date Title
JP6301005B2 (ja) 手術部位におけるプローブの位置を判定する方法及びシステム
JP6395995B2 (ja) 医療映像処理方法及び装置
CN105407811B (zh) 用于超声图像的3d获取的方法和***
JP4758355B2 (ja) 患者の体内に医療用機器を案内するためのシステム
KR102094502B1 (ko) 의료 영상들의 정합 방법 및 장치
US8559685B2 (en) Robust and accurate freehand 3D ultrasound
US20120071757A1 (en) Ultrasound Registration
US9443161B2 (en) Methods and systems for performing segmentation and registration of images using neutrosophic similarity scores
CA3029348C (en) Intraoperative medical imaging method and system
EP1727471A1 (en) System for guiding a medical instrument in a patient body
US7376254B2 (en) Method for surface-contouring of a three-dimensional image
Nagelhus Hernes et al. Computer‐assisted 3D ultrasound‐guided neurosurgery: technological contributions, including multimodal registration and advanced display, demonstrating future perspectives
KR101501517B1 (ko) 초음파 영상 상에 의료용 기구를 표시하는 방법 및 장치
US10076311B2 (en) Method and apparatus for registering medical images
US20200305837A1 (en) System and method for guided ultrasound imaging
CN116528752A (zh) 自动分割与配准***及方法
Shahin et al. Ultrasound-based tumor movement compensation during navigated laparoscopic liver interventions
JP2021509323A (ja) 処置中の選択された解剖学的構造に対する距離の監視
CN111658141B (zh) 一种胃切除术端口位置导航***、装置及存储介质
Cao et al. Target error for image-to-physical space registration: Preliminary clinical results using laser range scanning

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170705

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170919

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20171027

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180227

R150 Certificate of patent or registration of utility model

Ref document number: 6301005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350