JP7341660B2 - 医療手技におけるナビゲーションを補助するための拡張現実の使用 - Google Patents

医療手技におけるナビゲーションを補助するための拡張現実の使用 Download PDF

Info

Publication number
JP7341660B2
JP7341660B2 JP2018242313A JP2018242313A JP7341660B2 JP 7341660 B2 JP7341660 B2 JP 7341660B2 JP 2018242313 A JP2018242313 A JP 2018242313A JP 2018242313 A JP2018242313 A JP 2018242313A JP 7341660 B2 JP7341660 B2 JP 7341660B2
Authority
JP
Japan
Prior art keywords
camera
workstation
image
marker
field
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018242313A
Other languages
English (en)
Other versions
JP2019115664A (ja
Inventor
アンドレス・クラウディオ・アルトマン
アサフ・ゴバリ
バディム・グリナー
イツハク・ファン
ノーム・ラケーリ
ヨアヴ・ピンスキー
イタマル・ブスタン
ジェットミア・パルシ
ツビ・デケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Biosense Webster Israel Ltd
Acclarent Inc
Original Assignee
Biosense Webster Israel Ltd
Acclarent Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Biosense Webster Israel Ltd, Acclarent Inc filed Critical Biosense Webster Israel Ltd
Publication of JP2019115664A publication Critical patent/JP2019115664A/ja
Application granted granted Critical
Publication of JP7341660B2 publication Critical patent/JP7341660B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • A61B1/000094Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/233Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the nose, i.e. nasoscopes, e.g. testing of patency of Eustachian tubes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/24Surgical instruments, devices or methods, e.g. tourniquets for use in the oral cavity, larynx, bronchial passages or nose; Tongue scrapers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/061Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body
    • A61B5/064Determining position of a probe within the body employing means separate from the probe, e.g. sensing internal probe position employing impedance electrodes on the surface of the body using markers
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/066Superposing sensor position on an image of the patient, e.g. obtained by ultrasound or x-ray imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/06Devices, other than using radiation, for detecting or locating foreign bodies ; determining position of probes within or on the body of the patient
    • A61B5/065Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe
    • A61B5/068Determining position of the probe employing exclusively positioning means located on or in the probe, e.g. using position sensors arranged on the probe using impedance sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2072Reference field transducer attached to an instrument or patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/256User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3983Reference marker arrangements for use with image guided surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Otolaryngology (AREA)
  • Pulmonology (AREA)
  • Dentistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Gynecology & Obstetrics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Manipulator (AREA)

Description

外科手術には、解剖学的構造の視認性の問題がしばしば伴う。体内の解剖学的構造の可視化を助ける視覚的補助が存在している。しかしながら、かかる視覚的補助の有効性は、解剖学的構造が不透明であり、したがって他の解剖学的構造の視認性を妨げることから限定的である。人体内への1つ以上の器具の挿入を伴う外科手術の本質は、これらの器具に何が起きているかを正確に見ることができないという問題をしばしば生じる。手術中の視認性を得るための改良された技術が常に開発されてきた。
対象の拡張現実表示を与えるための方法が提供される。本方法は、カメラから画像を取得することを含む。本方法はまた、カメラの位置を検出することを含む。本方法は更に、カメラの位置に基づいてカメラの視野を特定することを含む。本方法はまた、視野に対応する1つ以上のオーバーレイ要素を生成することを含む。本方法は更に、1つ以上のオーバーレイ要素をカメラからの画像と合成して合成画像を形成することを含む。本方法はまた、合成画像をディスプレイ上に表示することを含む。
対象の拡張現実表示を与えるためのシステムが提供される。システムは、ワークステーション及びカメラを含む。ワークステーションは、カメラから画像を取得し、カメラの位置を検出し、カメラの位置に基づいてカメラの視野を特定するように構成されている。ワークステーションはまた、視野に対応する1つ以上のオーバーレイ要素を生成するようにも構成されている。ワークステーションは更に、1つ以上のオーバーレイ要素をカメラからの画像と合成して合成画像を形成し、合成画像をディスプレイ上に表示するように構成されている。
対象の拡張現実表示を与えるためのシステムも提供される。本システムは、ワークステーションと、ディスプレイと、1つ以上の器具と、カメラと、内視鏡と、内視鏡カメラと、を含む。ワークステーションは、カメラから画像を取得し、カメラの位置を検出するように構成されている。ワークステーションはまた、カメラの位置に基づいてカメラの視野を特定するようにも構成されている。ワークステーションは更に、対象の解剖学的構造に関連付けられているか又は1つ以上の器具に関連付けられている、カメラの視野に対応する1つ以上のオーバーレイ要素を生成するように構成されている。ワークステーションはまた、カメラの視野に対応した1つ以上のオーバーレイ要素をカメラからの画像と合成して合成画像を形成するようにも構成されている。ワークステーションは、合成画像をディスプレイ上に表示するように更に構成されている。
添付の図面とともに一例として与えられる以下の説明から、より詳細な理解が可能になる。
本発明の一実施形態に基づく位置追跡及びナビゲーションシステムの概略図である。 耳鼻咽喉科学に関連した器具を含む例示的な位置追跡及びナビゲーションシステムの各部分を示す。 1つの例に基づいて、オーバーレイ要素が存在する状況を示し、かつ/又は少なくとも一部のオーバーレイ要素が生成される様子を示す目的で、頭部の3Dモデルを示す。 例示的な内視鏡画像を示す。 例示的な内視鏡画像を示す。 例示的な内視鏡画像を示す。 例示的な内視鏡画像を示す。 本明細書で「解剖学的要素輪郭線」と呼ばれるある種のオーバーレイ要素を含む例示的な画像を示す。 本明細書で「解剖学的要素輪郭線」と呼ばれるある種のオーバーレイ要素を含む例示的な画像を示す。 1つの例に基づく、拡張現実画像を表示するための方法のフロー図である。
侵襲的な手術を行う医師は、外科器具での作業を行う際に精度及び正確性を必要とする。外科手術はますます低侵襲性のものとなりつつあり、医師は、カメラを使用して手術部位を観察し、光学機器又はビデオディスプレイを介して器具を誘導しながら手術を行う。理想的には、医師は、単一のディスプレイ装置上で、患者のリアルタイム画像と、手術器具の操作及び次の手術工程に関する医療上の判断にとって重要な付加的データとの両方を同時に観察しながら、侵襲的処置を行うことができなければならない。
本開示の拡張現実ナビゲーションシステムは、手術中に使用されるカメラ及び/又は器具に組み込まれた位置センサの使用によって侵襲的処置における器具の位置の視認性を提供するものである。位置追跡システムは、センサによって検出された信号の特性(例えば電磁センサの振幅又は周波数)に基づいて、器具及びカメラの位置を決定し、監視する。位置合わせプロセスは、患者の3Dモデル(例えば、コンピュータ断層撮影(CT)スキャンのような医療スキャンによって生成されるもの)を、その患者の実際の位置と相関させる。これにより、患者の解剖学的構造の位置に対して器具及びカメラの位置が追跡される。この相対的位置追跡は、手術に関連した情報を、カメラにより生成された画像と合成することを可能とする。例えば、器具に対するカメラの位置は既知であるため、器具が患者の組織によって邪魔されて術者に見えない場合でも、器具の位置を画像内に表示することが可能である。この表示は、カメラの位置に対する物体の画像をレンダリングする標準的な3次元(3D)レンダリング技術によって実現される。より詳細には、追跡システムの機能により、患者の位置に対するカメラ及び器具の位置及び方向が分かる。したがって、カメラの視野に対する器具の位置が分かる。標準的な3Dレンダリング技術は、カメラに対する物体の位置に基づいて3D物体の画像を表示する。かかる技術を用いることで器具に対応する画像(例えば器具のグラフィック表現)をレンダリングし、更なる合成技術を用いてこのレンダリング画像をカメラから受信された患者の画像に重ねて表示することができる。器具の可視化、動脈や血管のネットワーク、神経のネットワーク、又は摘出しようとする腫瘍の術前に特定された境界などの解剖学的構造の3次元構造の表示を含む解剖学的構造のレンダリング、又はその他の情報などの更なる情報を、かかる合成画像において追加的又は代替的に示すことが可能である。
本開示に関連する従来技術の1つに、Biosense Webster,Inc(Diamond Bar,California)が製造するCARTO(商標)システムがある。上述したCARTO(商標)システム及びその他の関連する技術の態様は、開示内容をいずれも参照により本明細書に援用するところの米国特許第5,391,199号、同第6,690,963号、同第6,484,118号、同第6,239,724号、同第6,618,612号、及び同第6,332,089号、国際公開第96/05768号、並びに米国特許出願公開第2002/0065455(A1)号、同第2003/0120150(A1)号、及び同第2004/0068178(A1)号に見ることができる。
図1は、本発明の一実施形態に基づく位置追跡及びナビゲーションシステム100の概略図である。図1に示されるように、システムは、1つ以上の医療器具10(例えば、カテーテル、ガイドワイア、内視鏡など)、カメラ44、少なくともプロセッサ14及び1つ以上のディスプレイ装置16(例えばモニタ又は仮想現実ディスプレイ)を含む少なくともワークステーション12を含むコンソール38、カテーテルハブ18、位置パッド30、位置合わせ器具40、及び位置パッドドライバ(「LPドライバ」)20を含む。
ワークステーション12は、リンク50を介してLPドライバ20と通信することでLPドライバ20にリンク54を介して通信させて、位置パッド30内のフィールド発生器を駆動させるように構成されている。フィールド発生器は、センサ32によって検出されるフィールド信号(例えば電磁場又は音響などの他のフィールド)を発する。センサ32は、フィールド信号に応じて応答信号を生成する。応答信号はカテーテルハブ18により検知される。カテーテルハブ18は、器具10上のセンサ32、カメラ44、及び位置合わせ器具40と通信リンク42を介して通信する。通信リンク42は、有線リンクであっても無線リンクであってもよい。カテーテルハブ18は、応答信号又は応答信号の処理されたものを有線リンクであっても無線リンクであってもよいリンク52を介してワークステーション12に送信する。
ワークステーション12は、応答信号の特性に基づいて、センサ32、ひいてはセンサ32が組み込まれるか又は取り付けられた物体(例えばカメラ44、器具10、及び位置合わせ器具40)の位置及び物理的方向を決定する。1つの例において、位置パッド30内のフィールド発生器は、それぞれ既知の相対位置を有している。センサ32は、複数のフィールド発生器から信号を受信する。受信された信号は、時間(例えば、異なるフィールド発生器が異なる時間で駆動されるため、センサ32が信号を受信する時間を異なるフィールド発生器と相関させることができる)、周波数(異なるフィールド発生器が異なる周波数の信号で駆動されるため、センサ32により受信される信号の周波数は個々のフィールド発生器を識別する)に基づいて、又はフィールド発生器が発生する信号のその他の特性に基づいて識別される。
上記で述べたように、カテーテルハブ18は、センサ32から受信した信号(又は信号の処理されたもの)を、処理を行うためにワークステーション12に送信する。ワークステーション12はこの信号を処理して位置パッド30のフィールド発生器に対するセンサ32の位置を決定する。センサ32の位置を決定するために行われるこの処理は、フィールド発生器により発せれる信号の種類に応じて決まる。特定の実施形態において、この処理は、フィールド発生器のそれぞれに応じて受信される信号の振幅を決定する。より大きい振幅はフィールド発生器までの距離がより小さいことを示し、より小さい振幅はフィールド発生器までの距離がより大きいことを示す。センサ32当たりにつき複数のフィールド発生器(例えば3個)についての距離が決定されると、各フィールド発生器に対する位置を三角測量法により求めることができる。代替例では、位置パッド30のフィールド発生器が代わりにセンサであり、器具のセンサが代わりにフィールド発生器である。かかる代替例では、位置パッド30のセンサが器具によって発せれた信号を検出し、ワークステーション12が、あたかも位置パッド30がフィールド発生器を含み器具がセンサを含んでいるものと同様に、これらの信号を処理する。あるいは、信号に対する応答に基づいて位置を決定するためのいずれの技術的に可能な方法も使用することができる。更に、器具の位置を決定するための特定のシステムについて述べたが、器具の位置を決定するためのいずれの技術的に可能な手段も使用することができる。
上記で述べたように、システム100は、手持ち式ワンドとして具体化することができる位置合わせ器具40を更に含む。位置合わせ器具40は、モデルデータ48に保存された3次元モデルを、位置合わせ手順において位置パッド内のフィールド発生器の位置と相関させるために使用される。1つの例において、モデルデータ48の3Dモデルは、手術対象(例えば患者の頭部22)のコンピュータデータ表現である。この3Dモデルは、コンピュータ断層撮影(「CT」)スキャン若しくは磁気共鳴イメージング(「MRI」)などの医療用イメージング技術、又は3Dモデルに変換することができるデータを生成するその他の任意のイメージング技術によって得ることができる。位置合わせ処理を行うために、位置合わせ器具40を対象(例えば頭部22)の近くの特定の位置に配置する。次いで、ワークステーション12がその位置をモデルデータ48内に保存された3Dモデル内の位置に関連付けることにより、3Dモデル内の点を現実の点と相関させる。この関連付けは、外科医などの術者による特定の指示に応じて行うことができる。そのような状況では、ワークステーション12はモデルデータ48からの3Dモデルをディスプレイ16上に表示する。術者は、位置合わせ器具40を特定の位置に動かし、次いでワークステーション12に3Dモデル内の対応する位置を入力装置36を介して指示する。代替的な状況では、ワークステーション12は現実空間の位置を3Dモデル内の位置に自動的に関連付ける。1つの例において、この自動的な関連付けは以下のように行われる。位置合わせ器具40が手術対象(例えば頭部22)の近くで動かされる。ワークステーション12は、位置合わせ器具40から受信したデータを処理して3Dモデル内の対応する位置を特定する。1つの例では、位置合わせ器具40はカメラを有し、ワークステーション12は位置合わせ器具40で受信された画像に対して画像処理を行って3Dモデル内の位置合わせ器具40の位置を特定する。特定の例では、現実空間と3Dモデルとの間の複数の相関点が得られ保存されることで位置合わせの精度を向上させ、回転位置合わせ及び配置位置合わせが行われる。位置合わせ器具40は、現実空間と3Dモデルとの間で位置合わせを行うために使用される器具として述べられているが、他の目的に使用される器具(例えばカメラ44又は器具10のいずれか)を含む他の任意の器具を代わりに使用してもよい。
カメラ44は、術者に対してディスプレイ16にビューを提供する。このビューは、対象(頭部22に代表される)の実際の画像の両方を含む。より詳細には、カメラ44は、対象(頭部22)の一連の画像を撮影し、この画像をディスプレイ16上に表示する。
更に、ワークステーション12は、カメラ44によって提供された画像に特定の要素を重ね合わせることができる。より詳細には、カメラ44は、位置パッド30とともに(又は代わりに他の何らかの機構とともに)、カテーテルハブ18と協働してカメラ44の位置及び方向をワークステーション12に提供することができる信号を与える位置センサ32を含む。この位置情報は、位置パッド30と器具10及び位置合わせ器具40上の位置センサ32との協働に関連して上記に述べたのと同じ要領で導出することができる。カメラ44の回転は、いずれの技術的に可能な方法でも検出することができる。1つの例では、複数の異なるマイクロセンサがカメラ44の位置センサ32内に含まれ、異なるマイクロセンサで得られた相対測定値を用いてカメラ44の回転を決定する。
ワークステーション12は、カメラ44について得られた位置及び回転情報を用いて、ディスプレイ16上に1つ以上のオーバーレイ要素を提供し、オーバーレイ要素はカメラにより生成された画像と合成される。より詳細には、カメラ44の位置及び方向に基づいて、ワークステーション12は、モデルデータ48の3Dモデルの3次元空間内で1つ以上の仮想物体(例えば解剖学的ラベル)の位置を特定することができる。3Dモデルの3D空間と現実の座標系とのリンク付け(位置合わせ処理によって行われる)により、3Dモデルの3D空間にリンクされた仮想物体(本明細書では「オーバーレイ要素」とも呼ばれる)をカメラで撮影された画像に表示することができる。
従来の3Dイメージング法を用いて、特定のこのようなオーバーレイ要素をカメラで撮影された画像に表示することができる。単純な例では、ワークステーション12は現実空間内のカメラ44の位置を有し、3Dモデルの幾何形状を上記に述べた位置合わせ処理によって現実空間と相関させている。これにより、ワークステーション12は、現実空間の座標系で3Dモデルとカメラ44との相対位置を知る。標準的な市販の3Dレンダリンググラフィックカード(Nvidia corporation(Santa Clara CA)から入手可能なGeForceシリーズのカード、又はAdvanced Micro Devices,Inc.(Sunnyvale,CA)から入手可能なRadeonシリーズのカードなど)で実施されるものなどの従来の3Dレンダリング技術は、座標系内に物体の位置が提供され、その座標系内にカメラ位置が提供されることで、3次元物体をスクリーン空間に描画することができる。かかる方法を使用してディスプレイ16上に表示されるスクリーン空間にモデルデータ48の3Dモデルをレンダリングすることができる。いくつかの動作のモードでは、ワークステーション12は、カメラ44によって与えられる画像上に、モデルデータ48及び/又は後述する他のオーバーレイ要素の3Dモデルをレンダリングする。したがって、かかる動作のモードでは、ワークステーション12は、カメラ44により生成された画像に合成された、3Dモデルに基づくオーバーレイを含む画像を生成する。いくつかの動作のモードでは、ワークステーション12は、3Dモデルのどの部分も表示しないか、一部の部分、又はすべての部分を表示し、同時にオーバーレイ要素を表示しないか、又は他の何らかのオーバーレイ要素を表示する。オーバーレイ要素には、対象(例えば頭部22)に行われる手術に関する、及び/又は対象の解剖学的構造に関する情報が含まれる。オーバーレイ要素には、対象の3次元空間内における特定の位置を印づけるためにユーザ(例えば外科医)が生成するタグが含まれる。これに代えるか又はこれに加えて、オーバーレイ要素には、カメラ44により得られた画像の分析に基づいて生成されたコンピュータにより生成される要素が含まれる。オーバーレイ要素には、対象に行われる手術に関する情報に関連する、又はシステム100の使用の他の任意の態様に関連する情報を示す、ディスプレイ16上に表示可能な他のあらゆるデータを含むことができる。1つの例において、オーバーレイ要素は、外科医によって関心対象点として、解剖学的構造の識別要素として、具体的に定義されたテキストとして、又はその他の任意の要素として予め定義されたマ-カ-を含む。
別の例では、オーバーレイ要素は、1つ以上の器具10のグラフィック表現を含む。より詳細には、ワークステーション12は、カメラ44に対する器具上のセンサ32の位置を有する。ワークステーション12は、上記に述べたものと同様の技術を用いてカメラ44により生成された画像内で器具のグラフィック表現をレンダリングすることができる。グラフィック表現がレンダリングされる方法は、器具10の位置以外に器具10の方向(例えば回転)に応じて決まり得るため、医師は患者の解剖学的構造に対する器具10の幾何学的形状の位置を理解する。
ディスプレイ16は従来のディスプレイであってもよいし、仮想現実メガネであってもよい。仮想現実メガネは、遮蔽が適当であるイメージングを伴う手術の場合には、鉛によって提供されるX線遮蔽などの適当な遮蔽を有してもよい。ディスプレイ16は遠隔ディスプレイ(すなわち、患者から離れて配置されるディスプレイ)であってもよく、遠隔操作される器具10とともに遠隔手術を容易にすることができる。
システム100の更なる詳細について、残りの図面に関連して以下に説明する。これらの更なる図面は、耳鼻咽喉科手術に関連してシステム100の態様を示しているが、説明される一般的な原理は人体の他の領域にも用いられ得る点が理解されるべきである。
図2は、耳鼻咽喉科学に関連した器具を含む例示的な位置追跡及びナビゲーションシステム200の各部分を示している。システム200は、器具10の1つが内視鏡202であるようなシステム100の一例である。位置追跡及びナビゲーションシステム200は、図1のディスプレイ16と同様のディスプレイ16、及び図1のワークステーション12と同様のワークステーション12を含んでいる。位置追跡及びナビゲーションシステム200は、図2には示されていないが図1のシステム100の他の要素も含んでいる。システム200は、内視鏡202とカメラ44の両方を含むものとして述べられているが、カメラ44を用いずに内視鏡202のみを使用することが可能である。
図2の器具10の1つは、遠位端208において画像を得てその画像を内視鏡202に接続されたカメラ204に提供するプローブ206を含む内視鏡202である。カメラ204はワークステーション12に画像を送信し、ワークステーションはこの画像を表示用に処理する。ワークステーション12は内視鏡202と統合されたカメラ204で得られた画像を、図1に示されるカメラ44で得られた画像を示すディスプレイ(例えばディスプレイ16)と同じディスプレイに表示してもよいし、又は別の内視鏡ディスプレイ205に画像を示してもよい。ディスプレイ16に示される場合、ワークステーション12はディスプレイ16をカメラ204とカメラ44との間で共有できるように動作を行う。1つの例では、ディスプレイ16は、術者からの入力に応じて、カメラ44からの画像を示すこととカメラ204からの画像を示すこととの間で切り換えられる。例えば、カメラ204の電源が切られると、ディスプレイ16はカメラ44からの画像を示し、カメラ204の電源が入れられると、ディスプレイ16はカメラ204からの画像を示すことができる。あるいは、カメラ44又はカメラ204の選択は、どちらのカメラが画像を示すかを明示的に選択する明示的なカメラ選択入力に応じて行われてもよい。内視鏡ディスプレイ205が内視鏡202のカメラ204からの画像を示すために使用される場合、ディスプレイ間で競合性はなく、ディスプレイ16はカメラ44からの画像を示し、内視鏡ディスプレイ205は内視鏡202のカメラ204からの画像を示す。オーバーレイ要素を含む、図1のカメラ44によって生成される画像は、全体画像210である(ディスプレイ16に示される)。
カメラ44と同様、ワークステーション12はカメラ204から、内視鏡202によって得られた画像を得、その画像を内視鏡オーバーレイ要素とともにディスプレイ上に表示する。内視鏡オーバーレイ要素は、行われている手術及び/又は対象(例えば頭部22)の解剖学的構造に関連する情報を含む。更に、やはりシステム100と同様に、1つ以上の器具10(例えば外科器具)が対象(例えば頭部22)の近くに存在してもよい。図2は、センサ32を有する1つの器具10を示している。更に、内視鏡202のプローブ206の端部にもセンサ32がある。ワークステーション12は、位置パッド30及び位置パッドドライバ20とともに、センサ32の位置及び方向、したがって器具10及び内視鏡プローブ206の位置及び方向を検出する。図2は、例示的な実施を示したものであり、それぞれがセンサ32を有する任意の数の器具10を手術に使用できる点が理解されるべきである。カメラ204によって生成された、内視鏡オーバーレイ要素を含む画像は、内視鏡画像212を構成し、これもディスプレイ16又は内視鏡ディスプレイ205上に表示することができる。
内視鏡オーバーレイ要素は、器具の位置(例えば図に示される器具10、又は他の器具)の表示、解剖学的構造の位置若しくは配置の表示、又は手術若しくは解剖学的構造に関連する表示を含む。いくつかの動作のモードでは、ワークステーション12は、センサ32に基づいて生成された位置データを処理し、この位置データを用いて内視鏡画像212用のオーバーレイ要素を生成する。かかるオーバーレイ要素には、器具10の位置及び方向を示す視覚的画像が含まれる。図1に関連して述べた処理と同様、ワークステーション12は、位置パッド30を使用して決定されたセンサ32の位置、並びに、やはり位置パッド30を使用して決定された内視鏡プローブ206の遠位端208の位置及び方向を用いて、内視鏡画像212のオーバーレイ要素の位置及び形状を決定する。図1に関連して述べたように、標準的な3次元レンダリングアルゴリズムは、カメラの位置及び方向、並びに物体の位置及び方向が与えられれば画像を生成することができる。ワークステーション12は、このようなアルゴリズムを用いて、内視鏡プローブ206の遠位端208に対する器具10の位置に基づいて異なる器具に対応するオーバーレイ要素の画像を生成することができる。内視鏡プローブ206上のセンサ32は、内視鏡プローブ206の遠位端208に対して既知の位置に配置されているため、内視鏡プローブ206の遠位端208の位置を、内視鏡プローブ206上のセンサ32から得られた位置データから導出することができる。
器具の位置及び方向に加えて、特定の操作のモードでは、内視鏡画像212にワークステーション12によって表示されるオーバーレイ要素はまた、テキスト及び解剖学的構造に関連したグラフィックマーカーを含む。図3は、1つの例に基づいて、オーバーレイ要素が存在する状況を示し、かつ/又は少なくとも一部のオーバーレイ要素が生成される方法を示す目的で、頭部の3Dモデル300を示したものである。3Dモデル300は、CTスキャン又はMRIなどの標準的な医療イメージング技術、及びこれらの技術により得られたデータの、周知の技術を用いた3次元モデルへの変換によって得ることができる。かかるスキャンは、図1のシステム100又は図2のシステムを使用する任意の手術に先立って行うことができる。簡単及び明確にする目的で、数個の解剖学的構造のみを3Dモデル300に示している。しかしながら、医療手技に使用され、スキャンに基づいて生成される3Dモデルは、対象の実質的にすべての解剖学的構造を反映することができる点が理解されるべきである。
いくつかの動作のモードにおいて、内視鏡画像212上に合成されたオーバーレイ要素のうちの少なくとも一部は、術者によって入力されたマーカー302に基づいたものである。より詳細には、手術に先立って、対象の3Dモデルが、例えば医療スキャンに基づいて生成される。次に、外科医などの術者がこの3Dモデルを見て、3Dモデルの3次元座標系内にマーカー302を入力する。任意のユーザインターフェースを用いて術者がマーカー302を入力することを可能とすることができる。これらのマーカー302のいくつかの例が図3に示されている。マーカー302(1)は上顎洞孔に関連付けられており、マーカー302(2)は蝶形骨洞孔に関連付けられている。他のマーカー302も3Dモデル内に存在してよい。
なお、マーカー302を3Dモデルに入力するコンピュータシステムはワークステーション12である必要はない点に留意されたい。別の言い方をすれば、3Dモデルは、画像(全体画像210、内視鏡画像212)を生成するコンピュータシステム(ワークステーション12)とは異なるコンピュータシステム上で術者が分析及び操作する(マーカー302を追加する)ことができ、これを手術中に術者が見ることができる。このため、本明細書では、ワークステーション12が3Dモデル300にマーカー302を追加することに関連した特定のタスクを実行する、又はオーバーレイ要素のデータを追加、除去、編集、又は他の形で操作することに関連した他のタスクを実行する、と言う場合があるが、かかる動作は代わりに異なるコンピュータシステムで実行され得る点が理解されるべきである。
特定の操作のモードでは、ワークステーション12は自動的にマーカーを生成する。特定のマーカーは、3Dモデル300の分析に基づいて、また、周知の解剖学的構造に関連した情報に基づいて追加することができる。例えば、ワークステーション12は、ヒトの頭部の一般的な3次元モデルからなるテンプレート3Dモデルに基づいて、また、テンプレートモデルを用いて手術されるヒト対象の3Dモデルの比較などの更なる分析に基づいて、1つ以上の特定の解剖学的構造に対するマーカー302を生成することができる。いくつかの例において、マーカー302は自動的に、及びヒトの入力によることの両方で生成される。より詳細には、ワークステーション12はマーカーを自動的に生成し、ヒトがこれらのマーカーの位置を調整する。あるいは、ワークステーション12は、ワークステーション12がマーカー302を自動的に生成することができる解剖学的ランドマークのリストを提示する。これに応じて、術者は1つ以上のそのようなランドマークを選択し、ワークステーション12はそれらの選択されたランドマークに基づいてマーカー302を生成する。次に、術者は対象の頭部の実際の構造に基づいてそれらのマーカーの位置を調整することができる。かかるマーカー302を生成するためのいずれの他の技術的に可能な手段も可能である。マーカー302は、術者によって入力される関連したテキストを含んでもよい。これらのテキストマーカーは、マーカー302自体の入力時に生成することができる。例えば、術者は、3Dモデル内のある点をマーカー302として選択する際、テキストラベルを入力することもできる。
例えば少なくとも一部のマーカー302などの特定のオーバーレイ要素は、全体画像210又は内視鏡画像212のいずれか又は両方に手術中に表示される。上記に述べたように、ワークステーション12は位置合わせ処理に基づいて、カメラ44がどこにあるか、内視鏡プローブ206の遠位端208がどこにあるか、及び対象の解剖学的構造がどこにあるかを知っているため、ワークステーション12は1つ以上のセンサマーカー302に対するインジケータをレンダリングすることができる。
図4A~4Cは、例示的な内視鏡画像212を示している。画像400(1)において、内視鏡プローブ206は、画像400(1)で見えている上顎洞孔に先端を向けて鼻腔内に挿入される。3Dモデルは、上顎洞孔にマーカー302を含む。内視鏡プローブ206の遠位端208の位置と比較したマーカー302の位置を分析することにより、ワークステーション12は、マーカー302(1)が内視鏡カメラ204の視野内にあるものと判断する。これに応じて、ワークステーション12は、マーカー302に関連付けられたオーバーレイ要素404(1)を内視鏡画像212内に表示する。画像400(1)において、オーバーレイ要素は、矢印406(1)及びテキスト408(1)を含んでいるが、オーバーレイは他の実施においては他のグラフィック要素を含んでもよい。オーバーレイのグラフィック要素は、マーカー302の位置を示すように構成されている。画像400(1)において、この表示は、マーカー302のおおまかな位置からマーカー302に関連付けられたテキスト408にまで延びる矢印406によって実現されている。動作の他のモードは、異なる形でマーカー302の位置を示すように構成された異なる種類のグラフィックを含むことができる。
マーカー302の位置が矢印406及びテキスト408で示されている構成では、ワークステーション12は、テキスト408の適当な位置を選択し、次いでマーカー302に対応する位置からテキスト408について選択された位置まで矢印406を描くように構成されている。画像を分析してテキストにとって適当な位置を決定するためのいずれの技術的に可能な手段も使用することができる。「適当な」なる用語は、一般に、テキスト408が判読可能であることを意味する。1つの例では、ほぼ均一な色を有する画像404の部分がテキスト用に選択される。1つの例では、ほぼ均一な色は、ある領域内のピクセルに関する平均の色値の差異に基づいて決定される。差異が大きいほど、その領域は不均一である。1つの例では、特定の閾値よりも低い差異を有する領域は、その領域がテキストに適当であることを示す。上記に述べた技術は、オーバーレイを表示するための技術の一部の例を代表するものであり、マーカー302の位置を特定する要素を表示するためのいずれの技術的に可能な手段も使用することができる点に留意されたい。
図4B及び4Cは、他の位置での他の例示的な画像400を示している。詳細には、画像400(2)は内視鏡202によって撮影されたビューを表し、内視鏡プローブ206は鼻腔内に挿入され、蝶形骨洞孔に先端が向けられている。マーカー302(2)に基づいて、ワークステーション12は、図4Aに関して述べたのと同じ要領でテキスト408(2)及び矢印406(2)を生成する。画像400(3)は、内視鏡202によって撮影されたビューを表し、内視鏡プローブ206は鼻腔内に挿入され、鼻ポリープに先端が向けられている。画像400(1)及び400(2)と同様、ワークステーション12は、センサ32からの位置データに基づいて、3Dモデルに基づいて、更にマーカー302に基づいて画像400(3)を生成する。
図4Dは、別の例示的な画像400(4)を示している。詳細には、画像400(4)は、内視鏡202によって撮影されたビューを表し、内視鏡プローブ206は鼻腔内に挿入され、鼻ポリープに先端が向けられている。マーカー302(4)に基づいて、ワークステーション12は、テキスト408(4)及び矢印406(4)を生成する。更に、ワークステーション12は、血管460の形状及び位置を示す情報を有している。ワークステーション12は、血管が内視鏡202によって撮影された画像に対応する視野内にあるものと判断し、したがって血管460のグラフィック表現を画像400(4)に表示する。これにより、施術者は手術中に血管460を避けることができる。
図5A~5Bは、本明細書で「解剖学的要素輪郭線」と呼ばれるある種のオーバーレイ要素を含む例示的な画像500を示している。これらの解剖学的要素輪郭線502はワークステーション12によって自動的に生成され、特定の解剖学的要素の位置を示すために用いられる。画像500(1)は、矢印406(4)及びテキスト408(4)、並びに輪郭線502(1)を示している。輪郭線502(1)は、センサ32から受信した位置情報及びモデルデータ48に保存された3Dモデル情報を場合により組み合わせた画像処理によってワークステーション12により自動的に生成される。
ワークステーション12は、対象となる特定の解剖学的要素の幾何学的輪郭を識別するためのいずれの技術的に可能な手段も実施することができる。1つの例では、「理想的な」又は「基準となる」解剖学的構造のテンプレートモデルが、対象の実際のスキャンから得られた3Dモデルと比較される。既知の解剖学的要素は、3Dモデルの幾何形状とテンプレートモデルの幾何形状の配置比較に基づいて3Dモデル内で識別される。別の例では、3Dモデルを生成するためのスキャンの後、術者はこの3Dモデルを観察し、マーカー302を生成する場合と同じ要領で対象とする解剖学的構造を識別する。
手術中にワークステーション12は、内視鏡カメラ204で得られた画像を処理することで特定の識別された解剖学的構造に関連付けられた画像のピクセルを識別する。特定の例では、異なる解剖学的構造が異なる画像処理技術によって認識される。1つの技術では、ワークステーション12は本来であれば明るい画像内の暗い領域(照明及び/又はカメラによる口径食の要因となる)を孔として識別する。ワークステーション12は、内視鏡プローブ206の遠位端208の位置及び方向に基づいてどの孔が識別されるかを判断する。例えば、3Dモデル内の位置に基づき、ワークステーション12は、鼻腔内の内視鏡プローブ206の遠位端208の位置に基づいて、内視鏡プローブ206の遠位端208が鼻腔などの特定の領域内にあり、識別された孔が上顎洞孔であることを確認すること可能となり得る。これに応じて、ワークステーション12は暗い領域の周囲に輪郭線を描き、輪郭線を上顎洞孔に対応するものとして識別するラベルを提供する。
別の技術では、ワークステーション12は、特定の色の領域を特定の種類の解剖学的構造であるとして識別する。図5Bでは、幾分黄色い色を有する構造は、その色及び位置に基づいて鼻ポリープとして識別される。詳細には、ワークステーション12は、センサ32との相互作用によって決定された位置に基づいて内視鏡プローブ206の遠位端208が鼻腔内にあるものと判断し、これにより、内視鏡カメラ204で撮影された画像内の黄色の物体が鼻ポリープであると判断する。
なお、本明細書では特定のオーバーレイ要素が述べられるが、本開示はそれらの特定のオーバーレイ要素に限定されない点に留意されたい。技術的に描画することが可能である他のオーバーレイ要素を上記に代えて、又は上記に加えて表示することができる。オーバーレイ要素の表示の仕方は、内視鏡カメラ204によって提供される画像の画像分析に基づいて位置、形態、及び/又はフォーマットを調整することができる。
図6は、1つの例に基づく、拡張現実画像を表示するための方法600のフロー図である。図1~5Bとともに述べたシステムに関して述べたが、当業者であれば、いずれの技術的に可能な工程の順序で本方法を実行するように構成されたいずれのシステムも本開示の範囲内に含まれる点が理解されよう。図に示される方法600は、カメラ44又は内視鏡カメラ204のいずれか若しくは両方において、又はシステム100に含まれる他の任意のカメラにおいて実行することができる。図6の考察では、参照符号のない「カメラ」なる用語は、これらのカメラのいずれかを指す。
図に示されるように、方法600は、工程602で開始し、ワークステーション12がカメラの運動を検出する。この運動は、上記に述べたようにカメラに取り付けられた1つ以上のセンサ32によって受信される信号を発する位置パッド30を介して検出される。運動の検出は、カメラの位置が直前の位置とは異なっていることの検出に相当する。
工程604において、ワークステーション12が、カメラの位置を決定する。やはり、この位置検出も、位置パッド30によって発信された信号に応じてセンサ32で受信される信号に基づいている。信号の異なる側面が、カメラの位置及び方向に関連しており、これらを決定するために用いることできる。例えば、位置パッド30内の複数のエミッタは、それぞれが異なる特徴的な特性(例えば周波数)を有する異なる信号を発することができる。センサ32は、異なる周波数の信号の振幅を検出する。振幅は、位置パッド30内のエミッタのそれぞれからの距離に関連している。各エミッタは、位置パッド内で既知の位置を有する。複数の距離を用いてセンサ32の位置が三角測量法により求められる。センサ32は、わずかに異なる信号をそれぞれが受信する個々のマイクロセンサを有することができる。マイクロセンサによって受信される信号の差を用いてセンサ32の方向を決定することができる。この分析により、位置パッド30に対するセンサ32の位置及び方向が求められる。対象(例えば患者の頭部)に対する位置パッド30の位置及び方向は、上記で述べたのとほぼ同様に、術者などの操作者が、センサ32を有する器具10を対象の周囲で動かし、対象上の1つ以上の点を対象の3Dモデルの点と相関させる位置合わせ処理に基づいて予め確立される。
工程606では、ワークステーション12が、カメラの視野を決定する。カメラによって生成された画像は、現実の画像(すなわちカメラによって実際に生成された画像)と、3Dモデル及びセンサ32の測定値に対応した3D座標系の両方において特定の視野に関連付けられる。いずれの特定のカメラシステムも、レンズ及びセンサの特性に基づいて決定される、一般的に角度で測定される既知の視野を有している。視野に関連付けられる更なるパラメータは形状であり、そのいくつかの例は、長方形及び円形である。視野はカメラ及びセンサの物理的性質に基づいて知られるため、カメラの視野を決定するには、保存されたデータからカメラの視野を検索すること、カメラの他の既知のパラメータから視野を計算すること、又は他の周知の技術(いずれの技術的に可能な技術も使用することができる)により視野を確認することを伴う。
工程608では、ワークステーション12は、決定された視野に対応するオーバーレイ要素を特定する。上記に述べたように、オーバーレイ要素は、モデルデータ48に保存されたモデルの3D空間内の特定の位置に関連付けられたグラフィック要素を含む。オーバーレイ要素の1つの種類として、モデルの3D空間内の特定の点に関連付けられたマーカー302がある。別の種類のオーバーレイ要素は、図5A~5Bの解剖学的要素輪郭線502のような、解剖学的構造に基づいて自動的に生成されたインジケータを含む。このオーバーレイ要素の列記は、限定的なものと解釈されるべきではない。手術及び/又は解剖学的構造に関連したいずれの種類の特徴又は態様も、見るための画像(例えば全体画像210又は内視鏡画像212)に合成するために特定することができる。
工程610では、ワークステーション12は、オーバーレイ要素をカメラ画像と合成し、合成された画像を表示する。ワークステーション12がポジティブ画像を表示するディスプレイは、画像がどのカメラから受信されたか、及びシステム100の別のカメラが起動しており、表示するための画像データをワークステーション12に提供しているかに応じて決まり得る。1つの例では、カメラ44及び内視鏡カメラ204の両方が起動しており、合成用の画像を提供している場合、ワークステーション12はカメラ44からの画像をディスプレイ16上に全体画像210として表示し、内視鏡カメラ204からの画像を内視鏡ディスプレイ205上に内視鏡画像212として表示する。別の例では、カメラ44及び内視鏡カメラ204の両方が起動しており、合成用の画像を提供している場合、画像は両方ともディスプレイ16上に表示され、画像間で時間に基づいた切り換えが行われるか、又は術者の制御によりどの画像が表示されるかの選択が行われる。更に別の例では、両方の画像がディスプレイ16又は内視鏡ディスプレイ205などの特定のディスプレイ上に表示される。このような状況では、図に示される特定の画像は、術者が制御することができる。あるいは、一方のカメラが他方のカメラよりも優先してよく、その場合、一方のカメラが起動されているとディスプレイは常にそのカメラからの画像を表示し、他方のカメラからの画像は表示しない。
オーバーレイ要素の合成は、工程608で識別されたオーバーレイ要素の位置をカメラに関連付けられた画像内で特定すること、及びそれらのオーバーレイ要素をカメラから受信された画像内で合成することを含む。オーバーレイ要素の合成は、オーバーレイ要素のグラフィック表現を生成することと、そのグラフィック表現をカメラからの画像とともに表示する(例えば、カメラからの画像に重ねて、又はカメラからの画像のピクセルにピクセルを混ぜ合わせて)ことと、を含む。マーカー302では、グラフィック表現は、図4A~4Cに関して述べたように生成された矢印406及びテキスト408を含むことができる。他のオーバーレイ要素としては、図5A~5Bに関して述べたように生成された解剖学的要素輪郭線を挙げることができる。いくつかのオーバーレイ要素は、器具10の視覚的表示を含む。詳細には、ワークステーション12はモデルの3D空間内でのカメラの位置を知っており、モデルの3D空間内での器具10の位置を知っている。器具がカメラの視野内にある場合、ワークステーション12はその器具のグラフィックインジケータを生成してカメラによって生成された画像に合成することができる。
工程610後の結果は、3Dモデルに関連したデータ及び/又は解剖学的構造若しくは行われている手術に関連した他の保存データから導出された1つ以上のグラフィック要素に重ね合わされたカメラからの画像である。合成された画像は、ディスプレイ16又は内視鏡ディスプレイ205に表示することができる。
提供される方法は、汎用コンピュータ、プロセッサ、又はプロセッサコアへの実装を含む。好適なプロセッサとしては、例として、汎用プロセッサ、専用プロセッサ、従来型プロセッサ、デジタルシグナルプロセッサ(DSP)、複数のマイクロプロセッサ、DSPコアと関連する1つ以上のマイクロプロセッサ、コントローラ、マイクロコントローラ、特定用途向け集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)回路、任意のその他の種類の集積回路(IC)、及び/又は状態機械が挙げられる。このようなプロセッサは、処理されたハードウェア記述言語(HDL)命令及びネットリスト等のその他の中間データ(このような命令は、コンピュータ可読媒体に保存することが可能である)の結果を用いて製造プロセスを構成することにより、製造することができる。そのような処理の結果は、次いで、本明細書で説明される方法を実施するプロセッサを製造するために半導体製造プロセスにおいて使用される、マスクワークとすることができる。
本明細書に提供される方法又はフローチャートは、汎用コンピュータ又はプロセッサによる実施のために持続性コンピュータ可読記憶媒体に組み込まれるコンピュータプログラム、ソフトウェア、又はファームウェアにおいて実施することができる。持続性コンピュータ可読記憶媒体の例としては、ROM、ランダムアクセスメモリ(RAM)、レジスタ、キャッシュメモリ、半導体メモリデバイス、磁気媒体、例えば内蔵ハードディスク及びリムーバブルディスク、磁気光学媒体、並びに光学媒体、例えば、CD-ROMディスク及びデジタル多用途ディスク(DVD)が挙げられる。
〔実施の態様〕
(1) 対象の拡張現実表示を与えるための方法であって、
カメラから画像を取得することと、
前記カメラの位置を検出することと、
前記カメラの前記位置に基づいて前記カメラの視野を特定することと、
前記視野に対応する1つ以上のオーバーレイ要素を生成することと、
前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成することと、
前記合成画像をディスプレイ上に表示することと、を含む、方法。
(2) 前記1つ以上のオーバーレイ要素が、前記対象の解剖学的構造に関連付けられているか、又は1つ以上の器具に関連付けられている、実施態様1に記載の方法。
(3) カメラの前記位置を検出することが、
術前位置合わせを行って位置パッドの相対位置及び方向を前記対象の位置及び方向と比較して相関させることと、
前記位置パッドのセンサによって、前記カメラと結合された1つ以上のフィールド発生器によって発生された1つ以上の信号を受信することと、
前記1つ以上の信号に基づいて前記カメラの前記位置を特定することと、を含む、実施態様1に記載の方法。
(4) 前記1つ以上のオーバーレイ要素を生成することが、
器具のグラフィック表現を生成することを含む、実施態様1に記載の方法。
(5) 前記器具の前記グラフィック表現を生成することが、
前記カメラの前記視野内の前記器具の位置を決定することと、
前記カメラの前記視野内の前記器具の前記位置に基づいて前記器具の前記グラフィック表現をレンダリングすることと、を含む、実施態様4に記載の方法。
(6) 前記1つ以上のオーバーレイ要素を生成することが、
解剖学的要素を示すオーバーレイ要素を生成することを含む、実施態様2に記載の方法。
(7) 前記解剖学的要素を示す前記オーバーレイ要素を生成することが、
前記カメラの前記視野内のマーカーの位置を、前記位置パッドの前記相対位置及び方向、並びに前記対象の前記位置及び方向に基づいて、更に前記マーカー及び前記対象のモデルの相対位置に基づいて、決定することと、
前記カメラの前記視野内の前記マーカーの前記位置に基づいて前記マーカーに対応するグラフィック表現をレンダリングすることと、を含む、実施態様6に記載の方法。
(8) 前記マーカーに対応する前記グラフィック表現が、前記マーカーによって示されるようなテキスト及び矢印を含む、実施態様7に記載の方法。
(9) 前記画像の暗い部分の検出に基づいて孔を識別することを更に含み、
前記マーカーに対応する前記グラフィック表現が、前記孔の解剖学的要素輪郭線を含む、実施態様7に記載の方法。
(10) 前記画像の画像分析に基づいて、前記マーカーに対応する前記グラフィック表現の位置、形態、及び/又はフォーマットが調整される、実施態様7に記載の方法。
(11) 対象の拡張現実表示を与えるためのシステムであって、
ワークステーションと、
カメラと、を備え、
前記ワークステーションが、
前記カメラから画像を取得し、
前記カメラの位置を検出し、
前記カメラの前記位置に基づいて前記カメラの視野を特定し、
前記視野に対応する1つ以上のオーバーレイ要素を生成し、
前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成し、
前記合成画像をディスプレイ上に表示するように構成されている、システム。
(12) 前記1つ以上のオーバーレイ要素が、前記対象の解剖学的構造に関連付けられているか、又は1つ以上の器具に関連付けられている、実施態様11に記載のシステム。
(13) 位置パッドを更に備え、
前記ワークステーションが、
術前位置合わせを行って前記位置パッドの相対位置及び方向を前記対象の位置及び方向と比較して相関させること、
前記位置パッドのセンサによって、前記カメラと結合された1つ以上のフィールド発生器によって発生された1つ以上の信号を受信すること、並びに
前記1つ以上の信号に基づいて前記カメラの前記位置を特定すること、により、前記カメラの前記位置を検出するように構成されている、実施態様11に記載のシステム。
(14) 前記ワークステーションが、
器具のグラフィック表現を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成されている、実施態様11に記載のシステム。
(15) 前記ワークステーションが、
前記カメラの前記視野内の前記器具の位置を決定すること、及び
前記カメラの前記視野内の前記器具の前記位置に基づいて前記器具の前記グラフィック表現をレンダリングすること、により、前記器具の前記グラフィック表現を生成するように構成されている、実施態様14に記載のシステム。
(16) 前記ワークステーションが、
解剖学的要素を示すオーバーレイ要素を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成されている、実施態様12に記載のシステム。
(17) 前記ワークステーションが、
前記カメラの前記視野内のマーカーの位置を、前記位置パッドの前記相対位置及び方向、並びに前記対象の前記位置及び方向に基づいて、更に前記マーカー及び前記対象のモデルの相対位置に基づいて、決定すること、並びに
前記カメラの前記視野内の前記マーカーの前記位置に基づいて前記マーカーに対応するグラフィック表現をレンダリングすること、により、前記解剖学的要素を示す前記オーバーレイ要素を生成するように構成されている、実施態様16に記載のシステム。
(18) 前記マーカーに対応する前記グラフィック表現が、前記マーカーによって示されるようなテキスト及び矢印を含む、実施態様17に記載のシステム。
(19) 前記ワークステーションが、
前記画像の暗い部分の検出に基づいて孔を識別するように更に構成され、
前記マーカーに対応する前記グラフィック表現が、解剖学的要素輪郭線を含む、実施態様17に記載のシステム。
(20) 対象の拡張現実表示を与えるためのシステムであって、
ワークステーションと、
ディスプレイと、
1つ以上の器具と、
カメラと、
内視鏡と、
内視鏡カメラと、を備え、
前記ワークステーションが、
前記カメラから画像を取得し、
前記カメラの位置を検出し、
前記カメラの前記位置に基づいて前記カメラの視野を特定し、
前記対象の解剖学的構造に関連付けられているか又は前記1つ以上の器具に関連付けられている、前記カメラの前記視野に対応する1つ以上のオーバーレイ要素を生成し、
前記カメラの前記視野に対応する前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成し、
前記合成画像を前記ディスプレイ上に表示するように構成されている、システム。
(21) 前記ワークステーションが、更に、
前記内視鏡カメラから画像を取得し、
前記内視鏡カメラの位置を検出し、
前記内視鏡カメラの前記位置に基づいて前記内視鏡カメラの視野を特定し、
前記対象の解剖学的構造に関連付けられているか又は前記1つ以上の器具に関連付けられている、前記内視鏡カメラの前記視野に対応する1つ以上のオーバーレイ要素を生成し、
前記内視鏡カメラの前記視野に対応する前記1つ以上のオーバーレイ要素を前記内視鏡カメラからの前記画像と合成して合成内視鏡画像を形成し、
前記合成画像を前記ディスプレイ上又は内視鏡ディスプレイ上に表示するように構成されている、実施態様20に記載のシステム。

Claims (13)

  1. 対象の拡張現実表示を与えるためのシステムの作動方法であって、
    前記システムは、
    ワークステーションと、
    カメラと、を備え、
    前記ワークステーションが、
    前記カメラから画像を取得したときにおける、
    前記カメラの位置を検出することと、
    前記カメラの前記位置に基づいて前記カメラの視野を特定することと、
    前記視野に対応する1つ以上のオーバーレイ要素を生成することと、
    前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成することと、
    前記合成画像をディスプレイ上に表示することと、を行い、
    前記1つ以上のオーバーレイ要素が、前記対象の解剖学的構造に関連付けられているか、又は1つ以上の器具に関連付けられ、
    前記ワークステーションが、
    解剖学的要素を示すオーバーレイ要素を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成され、
    前記ワークステーションが、
    前記カメラの前記視野内のマーカーの位置を、位置パッドの相対位置及び方向、並びに前記対象の前記位置及び方向に基づいて、更に前記マーカー及び前記対象のモデルの相対位置に基づいて、決定すること、並びに
    前記カメラの前記視野内の前記マーカーの前記位置に基づいて前記マーカーに対応するグラフィック表現をレンダリングすること、により、前記解剖学的要素を示す前記オーバーレイ要素を生成するように構成されている、
    方法。
  2. 前記カメラの前記位置を検出することが、
    術前位置合わせを行って前記位置パッドの前記相対位置及び方向を前記対象の位置及び方向と比較して相関させることと、
    前記位置パッドのセンサによって、前記カメラと結合された1つ以上のフィールド発生器によって発生された1つ以上の信号を受信することと、
    前記1つ以上の信号に基づいて前記カメラの前記位置を特定することと、を含む、請求項1に記載のシステムの作動方法。
  3. 前記1つ以上のオーバーレイ要素を生成することが、
    前記器具のグラフィック表現を生成することを含む、請求項1に記載のシステムの作動方法。
  4. 前記器具の前記グラフィック表現を生成することが、
    前記カメラの前記視野内の前記器具の位置を決定することと、
    前記カメラの前記視野内の前記器具の前記位置に基づいて前記器具の前記グラフィック表現をレンダリングすることと、を含む、請求項3に記載のシステムの作動方法。
  5. 前記マーカーに対応する前記グラフィック表現が、前記マーカーによって示されるようなテキスト及び矢印を含む、請求項に記載のシステムの作動方法。
  6. 前記画像の暗い部分の検出に基づいて孔を識別することを更に含み、
    前記マーカーに対応する前記グラフィック表現が、前記孔の解剖学的要素輪郭線を含む、請求項に記載のシステムの作動方法。
  7. 前記画像の画像分析に基づいて、前記マーカーに対応する前記グラフィック表現の位置、形態、及び/又はフォーマットが調整される、請求項に記載のシステムの作動方法。
  8. 対象の拡張現実表示を与えるためのシステムであって、
    ワークステーションと、
    カメラと、を備え、
    前記ワークステーションが、
    前記カメラから画像を取得し、
    前記カメラの位置を検出し、
    前記カメラの前記位置に基づいて前記カメラの視野を特定し、
    前記視野に対応する1つ以上のオーバーレイ要素を生成し、
    前記1つ以上のオーバーレイ要素を前記カメラからの前記画像と合成して合成画像を形成し、
    前記合成画像をディスプレイ上に表示するように構成され
    前記1つ以上のオーバーレイ要素が、前記対象の解剖学的構造に関連付けられているか、又は1つ以上の器具に関連付けられ、
    前記ワークステーションが、
    解剖学的要素を示すオーバーレイ要素を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成され、
    前記ワークステーションが、
    前記カメラの前記視野内のマーカーの位置を、位置パッドの相対位置及び方向、並びに前記対象の前記位置及び方向に基づいて、更に前記マーカー及び前記対象のモデルの相対位置に基づいて、決定すること、並びに
    前記カメラの前記視野内の前記マーカーの前記位置に基づいて前記マーカーに対応するグラフィック表現をレンダリングすること、により、前記解剖学的要素を示す前記オーバーレイ要素を生成するように構成されている、システム。
  9. 前記位置パッドを更に備え、
    前記ワークステーションが、
    術前位置合わせを行って前記位置パッドの前記相対位置及び方向を前記対象の前記位置及び方向と比較して相関させること、
    前記位置パッドのセンサによって、前記カメラと結合された1つ以上のフィールド発生器によって発生された1つ以上の信号を受信すること、並びに
    前記1つ以上の信号に基づいて前記カメラの前記位置を特定すること、により、前記カメラの前記位置を検出するように構成されている、請求項に記載のシステム。
  10. 前記ワークステーションが、
    前記器具のグラフィック表現を生成することにより、前記1つ以上のオーバーレイ要素を生成するように構成されている、請求項に記載のシステム。
  11. 前記ワークステーションが、
    前記カメラの前記視野内の前記器具の位置を決定すること、及び
    前記カメラの前記視野内の前記器具の前記位置に基づいて前記器具の前記グラフィック表現をレンダリングすること、により、前記器具の前記グラフィック表現を生成するように構成されている、請求項1に記載のシステム。
  12. 前記マーカーに対応する前記グラフィック表現が、前記マーカーによって示されるようなテキスト及び矢印を含む、請求項に記載のシステム。
  13. 前記ワークステーションが、
    前記画像の暗い部分の検出に基づいて孔を識別するように更に構成され、
    前記マーカーに対応する前記グラフィック表現が、解剖学的要素輪郭線を含む、請求項に記載のシステム。
JP2018242313A 2017-12-26 2018-12-26 医療手技におけるナビゲーションを補助するための拡張現実の使用 Active JP7341660B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762610449P 2017-12-26 2017-12-26
US62/610,449 2017-12-26
US16/229,629 2018-12-21
US16/229,629 US11058497B2 (en) 2017-12-26 2018-12-21 Use of augmented reality to assist navigation during medical procedures

Publications (2)

Publication Number Publication Date
JP2019115664A JP2019115664A (ja) 2019-07-18
JP7341660B2 true JP7341660B2 (ja) 2023-09-11

Family

ID=65030890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018242313A Active JP7341660B2 (ja) 2017-12-26 2018-12-26 医療手技におけるナビゲーションを補助するための拡張現実の使用

Country Status (11)

Country Link
US (1) US11058497B2 (ja)
EP (1) EP3505133B1 (ja)
JP (1) JP7341660B2 (ja)
KR (1) KR20190078540A (ja)
CN (1) CN109998678A (ja)
AU (1) AU2018286598A1 (ja)
BR (1) BR102018077046A2 (ja)
CA (1) CA3028502A1 (ja)
IL (1) IL263948B (ja)
MX (1) MX2019000145A (ja)
RU (1) RU2018146115A (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
US11071596B2 (en) 2016-08-16 2021-07-27 Insight Medical Systems, Inc. Systems and methods for sensory augmentation in medical procedures
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US10058396B1 (en) 2018-04-24 2018-08-28 Titan Medical Inc. System and apparatus for insertion of an instrument into a body cavity for performing a surgical procedure
EP3810007A1 (en) 2018-06-19 2021-04-28 Tornier, Inc. Neural network for diagnosis of shoulder condition
US11094221B2 (en) * 2018-06-21 2021-08-17 University Of Utah Research Foundation Visual guidance system and method for posing a physical object in three dimensional space
US11270485B2 (en) * 2019-07-22 2022-03-08 Adobe Inc. Automatic positioning of textual content within digital images
US11295495B2 (en) 2019-10-14 2022-04-05 Adobe Inc. Automatic positioning of textual content within digital images
US20210121238A1 (en) * 2019-10-24 2021-04-29 Acclarent, Inc. Visualization system and method for ent procedures
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
EP4084719B1 (en) * 2019-12-30 2024-01-31 Intuitive Surgical Operations, Inc. Systems for indicating approach to an anatomical boundary
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
WO2021211524A1 (en) * 2020-04-13 2021-10-21 Kaliber Labs Inc. Systems and methods of computer-assisted landmark or fiducial placement in videos
US11832883B2 (en) 2020-04-23 2023-12-05 Johnson & Johnson Surgical Vision, Inc. Using real-time images for augmented-reality visualization of an ophthalmology surgical tool
US20210330395A1 (en) * 2020-04-23 2021-10-28 Johnson & Johnson Surgical Vision, Inc. Location pad surrounding at least part of patient eye for tracking position of a medical instrument
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
DE102021103411A1 (de) * 2021-02-12 2022-08-18 Aesculap Ag Chirurgisches Assistenzsystem und Darstellungsverfahren
WO2023102891A1 (en) * 2021-12-10 2023-06-15 Covidien Lp Image-guided navigation system for a video laryngoscope
JPWO2023199923A1 (ja) * 2022-04-11 2023-10-19

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060281971A1 (en) 2005-06-14 2006-12-14 Siemens Corporate Research Inc Method and apparatus for minimally invasive surgery using endoscopes
JP2009529951A (ja) 2006-03-13 2009-08-27 ブラッコ イメージング エス.ピー.エー. 手術ナビゲーションプロセスを記録し精査するための方法および装置
JP2014131551A (ja) 2013-01-07 2014-07-17 Akira Takebayashi 内視鏡向けナビゲーション装置

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5391199A (en) 1993-07-20 1995-02-21 Biosense, Inc. Apparatus and method for treating cardiac arrhythmias
CA2607769C (en) 1994-08-19 2012-04-24 Biosense, Inc. Medical diagnosis, treatment and imaging systems
US6690963B2 (en) 1995-01-24 2004-02-10 Biosense, Inc. System for determining the location and orientation of an invasive medical instrument
EP0891152B1 (en) 1996-02-15 2003-11-26 Biosense, Inc. Independently positionable transducers for location system
EP0910300B1 (en) 1996-02-15 2003-12-03 Biosense, Inc. Site marking probe
US6239724B1 (en) 1997-12-30 2001-05-29 Remon Medical Technologies, Ltd. System and method for telemetrically providing intrabody spatial position
US6484118B1 (en) 2000-07-20 2002-11-19 Biosense, Inc. Electromagnetic position single axis system
US20020082498A1 (en) 2000-10-05 2002-06-27 Siemens Corporate Research, Inc. Intra-operative image-guided neurosurgery with augmented reality visualization
US7729742B2 (en) 2001-12-21 2010-06-01 Biosense, Inc. Wireless position sensor
US20030179308A1 (en) 2002-03-19 2003-09-25 Lucia Zamorano Augmented tracking using video, computed data and/or sensing technologies
US20040068178A1 (en) 2002-09-17 2004-04-08 Assaf Govari High-gradient recursive locating system
US7774044B2 (en) 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US20050215879A1 (en) 2004-03-12 2005-09-29 Bracco Imaging, S.P.A. Accuracy evaluation of video-based augmented reality enhanced surgical navigation systems
US7344307B2 (en) * 2004-11-12 2008-03-18 General Electric Company System and method for integration of a calibration target into a C-arm
WO2008017051A2 (en) * 2006-08-02 2008-02-07 Inneroptic Technology Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
US20110306986A1 (en) * 2009-03-24 2011-12-15 Min Kyu Lee Surgical robot system using augmented reality, and method for controlling same
JP5535725B2 (ja) * 2010-03-31 2014-07-02 富士フイルム株式会社 内視鏡観察支援システム、並びに、内視鏡観察支援装置、その作動方法およびプログラム
US8724881B2 (en) * 2011-11-09 2014-05-13 Siemens Aktiengesellschaft Method and system for precise segmentation of the left atrium in C-arm computed tomography volumes
KR20140112207A (ko) 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
EP2981205A4 (en) * 2013-04-04 2017-02-15 Children's National Medical Center Device and method for generating composite images for endoscopic surgery of moving and deformable anatomy
US11266465B2 (en) * 2014-03-28 2022-03-08 Intuitive Surgical Operations, Inc. Quantitative three-dimensional visualization of instruments in a field of view
US10463242B2 (en) * 2014-07-09 2019-11-05 Acclarent, Inc. Guidewire navigation for sinuplasty
US9700213B2 (en) * 2014-09-12 2017-07-11 Mayo Foundation For Medical Education And Research System and method for automatic polyp detection using global geometric constraints and local intensity variation patterns
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
FR3032282B1 (fr) 2015-02-03 2018-09-14 Francois Duret Dispositif de visualisation de l'interieur d'une bouche
US20160278983A1 (en) * 2015-03-23 2016-09-29 Novartis Ag Systems, apparatuses, and methods for the optimization of laser photocoagulation
US10109092B1 (en) * 2015-03-24 2018-10-23 Imagical LLC Automated text layout, color and other stylization on an image or video, and the tracking and application of user color preferences
WO2017015738A1 (en) 2015-07-27 2017-02-02 Synaptive Medical (Barbados) Inc. Navigational feedback for intraoperative waypoint
EP3361979A4 (en) 2015-10-14 2019-06-26 Surgical Theater LLC SURGICAL NAVIGATION WITH EXTENDED REALITY
US20170296292A1 (en) 2016-04-16 2017-10-19 Eitezaz MAHMOOD Systems and Methods for Surgical Imaging
US20170366773A1 (en) * 2016-06-21 2017-12-21 Siemens Aktiengesellschaft Projection in endoscopic medical imaging
WO2018076094A1 (en) * 2016-10-31 2018-05-03 Synaptive Medical (Barbados) Inc. 3d navigation system and methods
US10441365B2 (en) * 2017-01-11 2019-10-15 Synaptive Medical (Barbados) Inc. Patient reference device
EP3568837A1 (en) * 2017-01-12 2019-11-20 Navix International Limited Flattened view for intra-lumenal navigation
US11071593B2 (en) * 2017-07-14 2021-07-27 Synaptive Medical Inc. Methods and systems for providing visuospatial information
US11944272B2 (en) * 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060281971A1 (en) 2005-06-14 2006-12-14 Siemens Corporate Research Inc Method and apparatus for minimally invasive surgery using endoscopes
JP2009529951A (ja) 2006-03-13 2009-08-27 ブラッコ イメージング エス.ピー.エー. 手術ナビゲーションプロセスを記録し精査するための方法および装置
JP2014131551A (ja) 2013-01-07 2014-07-17 Akira Takebayashi 内視鏡向けナビゲーション装置

Also Published As

Publication number Publication date
CA3028502A1 (en) 2019-06-26
EP3505133A1 (en) 2019-07-03
RU2018146115A (ru) 2020-06-25
KR20190078540A (ko) 2019-07-04
JP2019115664A (ja) 2019-07-18
IL263948A (en) 2019-03-31
EP3505133B1 (en) 2024-03-20
IL263948B (en) 2022-02-01
CN109998678A (zh) 2019-07-12
US11058497B2 (en) 2021-07-13
US20190192232A1 (en) 2019-06-27
AU2018286598A1 (en) 2019-07-11
BR102018077046A2 (pt) 2019-07-16
MX2019000145A (es) 2019-09-26

Similar Documents

Publication Publication Date Title
JP7341660B2 (ja) 医療手技におけるナビゲーションを補助するための拡張現実の使用
US11883118B2 (en) Using augmented reality in surgical navigation
JP7505081B2 (ja) 狭い通路における侵襲的手順の内視鏡画像
EP2769689B1 (en) Computer-implemented technique for calculating a position of a surgical device
JP2007531553A (ja) 術中ターゲティングのシステムおよび方法
US20080123910A1 (en) Method and system for providing accuracy evaluation of image guided surgery
JP2021505226A (ja) 処置中の視覚化を支援するためのシステム及び方法
WO2005092198A1 (en) System for guiding a medical instrument in a patient body
JP7460355B2 (ja) 医療ユーザインターフェース
CN115843232A (zh) 用于目标覆盖的缩放检测和荧光镜移动检测
CN111317562B (zh) 身体部位的合成可视化
JP6952740B2 (ja) ユーザーを支援する方法、コンピュータープログラム製品、データ記憶媒体、及び撮像システム
US20230360212A1 (en) Systems and methods for updating a graphical user interface based upon intraoperative imaging
US20240099776A1 (en) Systems and methods for integrating intraoperative image data with minimally invasive medical techniques
WO2023129934A1 (en) Systems and methods for integrating intra-operative image data with minimally invasive medical techniques

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230830

R150 Certificate of patent or registration of utility model

Ref document number: 7341660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150