JP7181298B2 - 血管特徴を使用して異常な組織を検出するためのシステム及び方法 - Google Patents
血管特徴を使用して異常な組織を検出するためのシステム及び方法 Download PDFInfo
- Publication number
- JP7181298B2 JP7181298B2 JP2020536838A JP2020536838A JP7181298B2 JP 7181298 B2 JP7181298 B2 JP 7181298B2 JP 2020536838 A JP2020536838 A JP 2020536838A JP 2020536838 A JP2020536838 A JP 2020536838A JP 7181298 B2 JP7181298 B2 JP 7181298B2
- Authority
- JP
- Japan
- Prior art keywords
- pixels
- frequency
- map
- amplified
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000094—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope extracting biological structures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
- A61B1/3137—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for examination of the interior of blood vessels
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Optics & Photonics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Pathology (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Biophysics (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Endoscopes (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Analysis (AREA)
Description
[0001] 血管新生を使用した腫瘍の検出が、医療撮像で現在使用されている。すなわち、腫瘍内部の血管の分析によって腫瘍が検出される。これは、正常な血管と比べると、そのような腫瘍血管は、一般に、不規則な形状、無秩序な結合、及び漏れのある毛細血管を伴って拡張するためである。例えば、静脈系に注入された造影剤の動的な撮像を使用して、いずれも癌性腫瘍を示す、増大した血管分布、血管形成、及び血管漏れのエリアを検出する。しかしながら、ビデオ支援手術が一般的になりつつあるにも関わらず、カメラ及び光学イメージャは、癌性腫瘍の検出に使用されてこなかった。低侵襲手術は、しばしば、改善された患者転帰をもたらす。
[0002] 正常な組織を異常な組織から術中に判別することは、しばしば外科医にとって課題となる。そのような判別は、脳腫瘍(例えば、神経手術)、肺癌(例えば、コンピュータ断層撮影(CT)スキャン上のすりガラス様陰影)、肝臓癌(例えば、びまん性肝疾患)、及び軟組織中の他の癌にしばしば見られる非触知/非触覚腫瘍には特に困難である。また、ロボット手術中、外科医は、触覚特徴を使用して腫瘍を判別することはできない。また、CTスキャン、磁気共鳴撮像(MRI)スキャン及び/又は陽電子放射断層撮影(PET)スキャンから獲得される手術計画情報が、組織の変形のために腫瘍(又は病変)の場所を決定するのを支援できない場合にも、困難が生じる。これはしばしば、例えば、胸部手術中には気胸のために、神経手術中には髄液(CSF)の損失のために生じる。
[0003] また、手術用ロボット及び/又は視覚的に支援された低侵襲手術のための操縦可能デバイスの使用は、異常のある可能性のある組織への直接的な視覚的アクセスを制限する。手術用ロボットの例としては、Vinci(登録商標)ロボットなどのマルチアームシステム、又はMedrobotics Flex(登録商標)ロボットシステムなどの柔軟ロボットがある。これらのロボットシステムは、ロボットシステムを操作するためのハンドコントローラ、入力ハンドル、及び/又はヘッドアップディスプレイ(HUD)デバイス(例えば、頭部装着型ディスプレイ(HMD)デバイス)、並びに内視鏡ビデオを捕捉し、ロボットシステムの様々な制御モードを表示するための画像ディスプレイを含む種々のインターフェース機構を使用して、外科医(又はユーザ)によって制御される。
[0004] したがって、手術又は他の介入処置中に、身体内に挿入可能なカメラから取得される血管新生の画像を使用して腫瘍を正確に検出できることが望まれる。
[0005] 例示的実施形態によれば、撮像システムは、カメラ、ディスプレイ、及びプロセッサを含む。カメラは、カラービデオ獲得能力を有し、物体の内部に挿入可能な介入器具の遠位端に取り付けられる。カメラは、物体の血管構造を撮像するための複数の画像フレームを提供し、各画像フレームは、それぞれ対応する信号を提供する複数のピクセルを含む。プロセッサは、信号を受け取ることと、複数のピクセルに対応する信号の色及び運動の少なくとも一方における変動を増幅して、増幅された信号を提供することと、それぞれ複数のピクセルに対応する増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つを決定することと、増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つに基づいて、複数のピクセルのうち異常な血管分布を示すピクセルを特定することと、特定されたピクセルを使用して、増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つの各々に対応する血管マップを作成することであって、各血管分布マップは、異常な血管分布を有する物体の部分を含む、ことと、各血管分布マップを表示するようにディスプレイを動作させることと、を行うようにプログラムされる。
[0006] 別の例示的実施形態によれば、対象者内部の異常な組織を示す異常な血管分布を、カラービデオ獲得能力を有し、対象者の内部に挿入可能な介入器具の遠位端に取り付けられたカメラからの画像を使用して特定する方法が提供される。方法は、対象者内のターゲット部分の血管構造を撮像するためにターゲット部分からカメラによって提供される複数の画像フレームの各々の中の複数のピクセルに対応する信号を受け取るステップと、複数の画像フレームの各々の中の複数のピクセルに対応する信号の色及び運動の少なくとも一方における変動を増幅して、それぞれ増幅された信号を提供するステップと、それぞれ複数のピクセルに対応する増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つを決定するステップと、増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つに基づいて、複数の画像フレームの各々の中の複数のピクセルのうち、異常な血管分布を示すピクセルを特定するステップと、特定されたピクセルを使用して、増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つの各々に対応する血管マップを作成するステップであって、各血管分布マップは、異常な血管分布を有する対象者の部分を含む、ステップと、各血管分布マップを表示するステップと、を有する。方法は、増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つの各々に対応する血管マップのうち少なくとも2つを組み合わせて、総合血管マップを作成するステップと、総合血管マップを表示するステップと、をさらに有してよい。
[0007] 別の例示的実施形態によれば、対象者内部の異常な組織を示す異常な血管分布を、カラービデオ獲得能力を有し、対象者の内部に挿入可能な介入器具の遠位端に取り付けられたたカメラからの画像を使用して特定するためにコンピュータプロセッサにより実行可能なソフトウェアを含んでいるコンピュータ可読媒体が提供される。コンピュータ可読媒体は、対象者内のターゲット部分の血管構造を撮像するためにターゲット部分から介入器具を介してカメラによって提供される複数の画像フレームの各々の中の複数のピクセルに対応する信号を受け取るための受取りコードと、複数の画像フレームの各々の中の複数のピクセルに対応する信号の少なくとも運動の変動を増幅して、それぞれ増幅された信号を提供するための増幅コードと、それぞれ複数のピクセルに対応する増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つを決定するための決定コードと、増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つに基づいて、複数の画像フレームの各々の中の複数のピクセルのうち、異常な血管分布を示すピクセルを特定するための特定コードと、特定されたピクセルを使用して、増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つの各々に対応する血管マップを作成するための作成コードであって、各血管分布マップは、異常な血管分布を有する対象者の部分を含む、作成コードと、増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つの各々に対応する血管マップのうち少なくとも2つを組み合わせることにより、総合血管マップを提供するための組み合わせコードと、総合血管マップをディスプレイ上に表示させるための表示コードであって、表示された総合血管マップは、異常な血管分布を有する対象者の部分を、正常な血管分布を有する対象者の部分との強化されたコントラストによって示す、表示コードと、を含む。
[0008] 本発明は、添付図面と合わせて考察される、以下に提示される例示的実施形態の詳細な説明からより容易に理解されよう。これらの図中で同様の番号が付された要素は、等価な要素であるか、又は同じ機能を行うかのいずれかである。前に説明された要素は、機能が等価であれば、後の図では必ずしも説明されない。
[0018] 本発明の実施形態について、本発明の実施形態が示された添付図面を参照して、以下でより完全に説明する。しかしながら、本発明は、種々の形態で具現化されてよく、本明細書に記載の実施形態に限定されるように解釈すべきではない。むしろ、それらの実施形態は、本発明の教示例として提供される。
[0019] 上述したように、切除及び生検のための正常な組織からの異常な組織の術中の判別は、様々な介入処置を行う外科医にとって一般的な課題である。様々な実施形態によれば、異常な血管分布又は血管過多を示す1つ又は複数のオイラー(Eulerian)ビデオ拡大マップの作成後に抽出される血管情報が、外科医が正常な組織から異常な組織(例えば、癌性腫瘍)を判別するのを支援するために使用される。加えて、様々な実施形態は、疑われる黒色腫(皮膚癌)病変をスクリーニングして精度を向上させ、可能性としては早期診断を支援するために使用される。
[0020] 一般に、癌の特質には、腫瘍の多段階の発生中に獲得される6つの生物学的能力が含まれる。それらの特質は、新生物性疾患の複雑性を合理化するための組織化原理を構成する。誘発性血管形成は、6つの特質の1つである。血管形成は、癌細胞からなる腫瘍が成長できるようにそれ自体の血液供給を有することを可能にする。正常な血管(例えば、癌性腫瘍によって妨げられていない身体の部分を通る血管)と異なり、腫瘍血管は、不規則な形状を伴って拡張している、無秩序な結合を有する、及び漏れのある毛細血管を含むなどの様々な異常を呈し、結果として不規則な血流が生じる。そのような異常は、血管新生過多と呼ばれることがある。図1A及び図1Bはそれぞれ、正常な血管分布をもつ健康な(又は正常な)組織と、腫瘍の中などで異常な血管分布をもつ病的又は異常な(例えば、癌性の)組織との例を示す。
[0021] 様々な実施形態によれば、ビデオ内での拍動流のカメラを用いた検出を使用してそれら及び他の異常を検出する。カメラは、内視鏡若しくはカテーテルなどの介入器具若しくは道具に、又はロボットアームに装着されて、対象者に対して介入処置を行うのを支援する。本開示を通じて、「~に装着される」は、~に接続される、~と一体化される、及び/又は~に含まれることを意味する。しばしば、身体の一見静的な部分の、ビデオを含む画像は、実際には、人間の目には見えない微妙な変化を含んでいる。しかしながら、例えばオイラービデオ拡大の使用を含む、変動を増幅するためのアルゴリズムの使用によって、そのような微妙な変化を測定することが可能である。例えば、人間の脈動は、遠隔フォトプレチスモグラフィ(rPPG)と呼ばれる測定などの従来のビデオによって捕捉される、脈動によって誘発される色の変動又は拍動流の小さな運動から測定できることが知られている。例えば、Wuら、「Eulerian Video Magnification for Revealing Subtle Changes in the World」、ACM Transactions on Graphics vol.31 no.4(Proc.SIGGRAPH、2012)を参照されたい。
[0022] 一般に、血管系からカメラによって提供されるデータストリームから一連の画像が取られ、カメラは介入器具に装着され、データストリームは、介入処置を行う過程ですでに入手可能である。色及び/又は運動の変動は、血管系(例えば、正常な組織及び異常な組織を含む)を撮像するカメラからのピクセル信号によって示される画像中で増幅される。そして、正常な組織のエリアと異常な組織のエリアとを判別するために、最大で3つの血管マップが作成され、及び/又は組み合わせられる。下記で論じるように、血管マップには、ターゲット部分又はROIの画像に対応する信号からの異なる情報に基づく、例えば、周波数マップ、信号特性マップ、及び位相変動性マップが含まれる。
[0023] それら3つの血管マップのうち2つ以上を組み合わせた総合血管マップが、強化されたコントラスト、すなわちどの単一の血管マップのコントラストよりも良好なコントラストのために生成され、正常な組織のエリアと異常な組織のエリアとをより良好に判別する。血管マップ及び/又は総合血管マップは、ヘッドアップディスプレイ(HUD)を含む拡張現実(AU)デバイスで表示され、例えば、容易な視覚化を可能にし、それにより、外科医は、異常な組織(例えば、腫瘍)が血管マップ及び/又は総合血管マップの中で視覚的に明らかである手術野に集中し続けることができる。血管マップの1つは、ターゲット部分又はROI内の異常なエリアを区画するように完全畳み込みニューラルネットワーク(FCN)を訓練することによって強化される。
[0024] カメラに基づく血管情報は、疑われる血管黒色腫病変をスクリーニングして精度を向上させ、可能性としては早期診断を支援するためにも使用される。すなわち、カメラ(この場合は外部に位置する)が、血管系を有する見かけの病変の画像を提供する。この場合も、ピクセル信号からの色及び/又は運動の変動が増幅され、ピクセル信号は、血管系(例えば、正常な組織及び異常な組織を含む)を撮像している。そして、血管マップを作成及び/又は組み合わせて、病変内及び病変周辺の正常な組織のエリアと異常な組織のエリアとを判別する。カメラに基づくスクリーニングの精度をさらに向上させるために、血管情報が、形態、色、大きさ、及び経時的変化などの悪性度を示す他の視覚的手掛かりと組み合わせられる。
[0025] 多くの病変がある患者には、例えば、カラービデオからの情報が、臨床医がよりリスクの高い病変を生検のために選別するのを支援し得る。黒色腫の早期診断は、良い予後及び生存の主要な決定因子である。また、早期段階における皮膚病変の外科的除去は、通例、低侵襲であるのに対し、例えば侵襲性であり治療の難しい転移性黒色腫など、より後の段階での黒色腫の治療は、結果的に不良な転帰となる。従来の画像に加えてデータを用いて訓練された畳み込みニューラルネットワーク(CNN)は、さらに精度を向上させ、可能性としては黒色腫の早期診断を支援する。そのようなカメラに基づく血管分布の決定は、この決定が、図2を参照して下記で論じるように、カメラ、プロセッサ、及びメモリを使用して行われるため、対象者の家及び/又は皮膚科クリニックで提供することができる。注目すべき点として、本開示は、介入処置のためのカメラを使用した撮像及び血管分布の決定に着目するが、血管マップ及び/又は総合血管マップの決定及び表示を含む、正常な血管構造及び異常な血管構造を特定するプロセスは、血管黒色腫病変の血管分布を決定する場合と実質的に同じであることが理解される。
[0026] また、ARデバイスは、ユーザ(例えば、外科医)が、ユーザによる身体の動き(例えば、従来の手動コントロールを操作するためのユーザの手の使用以外)を通じてロボットを制御するために提供される。ユーザは、カメラからARデバイスによって受け取られるライブ画像に基づいて、ロボットのためにターゲット部分を特定及び選択することができる。ライブ画像は、例えば専用の内視鏡コントローラによって操作可能な内視鏡の遠位端に装着されたカメラによって、又はロボットによって操作可能な前方視カメラによって提供される内視鏡画像であってもよい。例えば、ARデバイスは、ユーザによって装着されたヘッドピース内のディスプレイに画像を表示するヘッドアップディスプレイ(HUD)(AR-HUDデバイス)を含む。AR-HUDデバイスはさらに、頭部の運動又は目の動きなどのユーザの運動を検出するように構成された1つ又は複数のセンサを含み、検出された運動が処理されて、ディスプレイ上の画面に示される手術部位のターゲット部分をロボットのために選択する。
[0027] ライブ画像並びにユーザの頭部の運動及び/又は目の動きの検出を使用して、ユーザが着目しているエリア(ターゲット部分)の方へ自分の頭部を動かす、及び/又は目の動きを向けるという従来の手術時の体験を模擬することにより、ロボットの使用性を向上させ、同時に、手術用ロボットの向上した器用さを維持する。さらに、ライブ画像を使用して上述の血管系のデータストリームを提供する。それらの画像からの色及び/又は運動を拡大して、血管構造信号を増幅すると共に、異常な組織(例えば、腫瘍)のエリアを描いた血管マップを提供する。
[0028] 本明細書で使用される用語は、特定の実施形態を説明することのみを目的とし、制限的であるようには意図されないことが理解されるべきである。定義される用語はいずれも、本教示の技術分野において一般に理解され、容認されている当該定義用語の技術的及び科学的な意味に追加されるものである。本明細書における「1つの実施形態」又は「一実施形態」並びにそれらの他の変形例の参照は、その実施形態に関連して説明される特定の特徴、構造、特性、ステップ等が本教示の少なくとも1つの実施形態に含まれることを意味する。よって、本明細書を通じて様々な箇所に出現する、「1つの実施形態では」又は「一実施形態では」という語句並びにそれらの他の変形例の出現は、必ずしもすべてが同じ実施形態を指すとは限らない。
[0029] 最初に、画像は、ビデオ又は静止画像のストリームとして取得される2次元(2D)又は3次元(3D)画像を含むことが留意される。2D又は3D画像は、内視鏡の遠位端に装着されたカメラを介して、又は(例えば、エンドエフェクタとしての)ロボットアームの遠位端に設けられた前方視カメラを介して取得される。また、画像は、低侵襲処置中にカメラを通じて捕捉されるライブ画像であってよい。様々な構成において、画像は複数のカメラによって捕捉されてよい。例えば手術部位及びその周囲のエリアのより広いビューのために、例えばX線、超音波、及び/又は磁気共鳴によって取得される画像などの、他の医療撮像が手術過程時に組み込まれてよいが、必ずしも、介入処置中の異常な血管分布の検出に直接は使用されない。
[0030] 図2は、代表的実施形態による、関心領域内の血管構造を撮像するための血管構造撮像システムを示す簡略化された概略ブロック図である。
[0031] 図2を参照すると、撮像システム200が、血管特徴を使用して対象者内部の異常な組織を検出するために設けられる。撮像システム200は、内視鏡、カテーテル及び/又はロボットアームのエンドエフェクタなどの介入器具242の遠位端に取り付けられたカメラ212を含む。一実施形態では、カメラ212は、カラービデオ獲得能力を有し、デジタル静止画像及び/又はビデオを提供する。カメラ212は、ターゲット部分(例えば、又はROI)を撮像して関連する血管分布を決定するために対象者の内部に挿入可能である。血管分布の分析により、下記で論じるように、正常な組織と、癌性腫瘍などの異常な組織との間の判別が可能になる。より詳細には、カメラ212は、複数のピクセルに対応する、カラー画像データ及び/又は運動データ(カメラ212がデジタルビデオ信号を提供する場合)を含む血管構造信号を提供する。
[0032] カメラ212は、本教示の範囲から逸脱することなく、2D画像を捕捉するための単眼カメラ又は3D画像を捕捉するための立体カメラである。立体カメラ又はカメラの対は、例えば、複数のレンズ又はレンズアセンブリを含み、それと共に、デジタル検出器アレイ(例えば、電荷結合デバイス(CCD)撮像アレイ、相補型金属酸化膜半導体(CMOS)撮像アレイ等)上で画像を形成する各レンズのための別個のセンサを有する。カメラ212は、例えば、赤色光、緑色光、及び青色光(又は実質的に可視スペクトルを範囲とする別の色の組)に反応するピクセルを備えた撮像アレイを有することにより、カラービデオ能力を有する。カメラ212は、任意選択で、内蔵フラッシュ(図示せず)及び/又は露光時間を設定するための周囲光センサ(図示せず)などの他の典型的な機能を含む。
[0033] 撮像システム200はさらに、処理ユニット230、ディスプレイ220、ユーザ入力226、及び入力/出力回路238を含む。処理ユニット230は、少なくとも1つのプロセッサ232及び少なくとも1つのメモリ234を含む。メモリ234は、例えば、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、磁気ディスク及び/又は固体状態メモリなどの非一時的な記憶媒体である。メモリ234は、プロセッサ232によって実行されると、プロセッサ232に、カメラ212によって提供された画像の血管構造信号を受け取らせ、処理させる命令を含む。一般に、この処理は、ターゲット部分における異常な血管分布を示すカメラ212のピクセルを特定し、異常な血管分布は異常な組織に対応する。処理は、例えば、下記で論じられる周波数、信号特性及び位相変動性を含む様々な技術を使用してコントラストを向上させた、異常な血管分布を描いた血管マップを作成することも含む。血管マップは、ユーザが異常な組織を特定し、治療する(例えば、除去する、生検する)のを支援するために、ターゲット部分の画像に重畳される。処理ユニット230は、介入器具242(及びI/O回路238)を介したカメラ212への有線接続を有するものと図示されている。しかしながら、処理ユニット230は、本教示の範囲から逸脱することなく、例えばWi-Fi又は4Gなどのワイヤレス通信リンク又はネットワークを介してカメラ212に接続されてもよいことが理解される。
[0034] 処理された画像及び/又は血管マップは、ディスプレイ220(例えば、LCDディスプレイ、OLEDディスプレイ及び/又はタッチセンシティブ画面)に表示される。ユーザ(例えば、外科医)は、ユーザ入力226(例えば、マウス、キーボード、トラックボール、及び/又はタッチセンシティブ画面)を介してディスプレイ220を制御することができる。例えば、ユーザは、画像の一部分を分離する、ズームイン及びズームアウトすること等ができる。カメラ212がビデオ信号を提供すると、ユーザは、例えば、様々なフレームで一時停止し、ビデオストリーム内を前後に移動することができる。そのようにして、ユーザは、血管マップを、ディスプレイ220上で選択された画像フレームに重畳する。ユーザはまた、下記でさらに論じるように、ユーザ入力226を介してカメラ212及び/又は介入器具242の位置決めを手動で制御する。
[0035] 一実施形態では、ユーザ入力226及びディスプレイ220は、AR-HUDデバイスの中に組み込まれる。AR-HUDデバイスは、左目ディスプレイ及び右目ディスプレイをディスプレイ220として含むが、それに代えて、ディスプレイ220は、両方の目にまたがる単一の大きい窓であってもよい。いくつかの例では、カメラ212は、「一人称ビュー」を提供し、それにより、ARコンテンツを、AR-HUDデバイスのディスプレイを通して見られる実際のビューと位置合わせする。いくつかの例では、AR-HUDデバイスは、ユーザの頭部に装着されるために、ヘルメット、頭部バンド、眼鏡、ゴーグル、又は他の好適な実施形態として構成され得る。
[0036] 上述したように、カメラ212内の複数のピクセルの中から異常な血管分布を示すピクセルを特定するために、血管マップが作成される。血管マップの任意の組み合わせの2つ以上を組み合わせて、異常な血管分布があるエリアのコントラストが強化された総合血管マップを提供する。血管マップ及び/又は総合血管マップは、腫瘍などの異常な組織を含む対象者の部分に変換される。特定されると、異常な血管分布のある対象者の部分が対象者から除去されるか、又は、例えば放射線療法、凍結療法、及び高密度焦点式超音波(HIFU)療法などの様々な治療を通じて、その他の形で抑制若しくは除去される。
[0037] 血管マップを得るために、カメラ212によって提供された血管構造画像に対応する信号中の変動が、例えばプロセッサ232によって増幅される。一実施形態では、信号の変動は、オイラービデオ拡大アルゴリズムを使用して増幅されるが、他の増幅技術が本教示の範囲から逸脱することなく組み込まれ得る。したがって、カメラ212によって提供される静止画像又はビデオ画像中の、生のビデオ画像からでは容易に検出されない微妙な信号変動が強化される。
[0038] 図3は、代表的実施形態による、増幅された画像、及び複数の画像フレーム内で捕捉された対応する信号を示す簡略概略図である。
[0039] 図3を参照すると、画像ストリーム310は、t軸によって示されるように、時間と共にカメラ212によって提供された画像フレーム311、312、及び313のセットを含む。画像フレーム311、312、及び313は、対象者のターゲット部分の画像を含んでいる。ピクセルアレイの代表ピクセルP1及びP2が画像フレーム311に示されている(同様に、その後獲得される画像フレーム312及び313にも含まれるが、それらは図3に示す向きでは画像フレーム311によって遮られて見えない)。画像ストリーム310の下にあるのは、信号301及び302を時間の関数として示すグラフであり、信号301及び302はそれぞれピクセルP1及びP2に対応している。
[0040] 画像フレーム311、312、及び313に関して、代表ピクセルP1及びP2の時間に伴う微妙な信号変動が増幅される。様々な実施形態において、増幅された信号は、例えば、矢印315によって示される知られているオイラー運動拡大を使用した、運動変動の増幅を含む。例えば、Wuらによる「Eulerian Video Magnification for Revealing Subtle Changes in the World」、ACM Transactions on Graphics vol.31 no.4(Proc.SIGGRAPH、2012)を参照されたい。例えば、時間に伴うピクセル値の変動を空間的に多スケールの方式で増幅して、運動の拡大を効果的に得る。オイラー運動拡大の使用は、例えば、固定された位置における経時的な色の変化を増幅することによって運動を誇張することに依拠する。
[0041] それにより得られる画像ストリーム320は、増幅された変動を有する画像を含み、これは、論述のために「増幅された画像」とも呼ばれる。画像ストリーム320は、論述のために「増幅されたピクセル」とも呼ばれる、拡大又は増幅された運動の変動を有するピクセルからの信号を含み、より容易な検出を可能にする。一般に、信号301及び302の変動が、(ピクセルアレイの他のピクセルに対応する信号と共に)所望の時間にわたって増幅されて、下記で論じる信号301’及び302’を得る。画像ストリーム320は、それぞれ画像フレーム311、312、及び313に対応する増幅された画像フレーム321、322、及び323(対応する増幅されたピクセルを伴う)のセットを含む。それぞれピクセルP1及びP2に対応するピクセルP1’及びP2’は、増幅された画像フレーム321、322及び323に含まれる(ただし、増幅された画像フレーム321のみに示されている)。ピクセルアレイの他のピクセルに対応する増幅された変動を有する信号も提供されるが、本明細書の記載は、説明の容易のために代表ピクセルP1’及びP2’に着目することが理解される。
[0042] 画像ストリーム320の下にあるのは、信号301’及び302’を時間の関数として示すグラフであり、信号301’及び302’はそれぞれピクセルP1’及びP2’に対応している。信号301’及び302’の痕跡及び/又は波形は、信号変動の増幅のために、信号301及び302内では明らかでない微妙な変化を示している。よって、この例では、信号301’は基本的に、予想される周波数範囲内での滑らかな推移を伴う正弦波であることが明らかであり、これは、動脈波形(例えば、拍動性であるか又は心周期若しくは脈拍数に対応する)と整合する。よって、ピクセルP1’によって提供される画像の部分は、正常な組織(正常な血管分布)を通る血流に関して正常な生理機能と整合する。比較すると、信号302’は、正弦波ではなく、むしろ不規則なパターンを有する。よって、ピクセルP2’によって提供される画像の部分は、正常な生理機能と整合する波形又は周波数を有さない。換言すると、ピクセルP2’は、少なくとも周波数及び形状に基づいて、異常な血管分布を示す(異常な組織及び/又は腫瘍を通る血流と整合する)ものとして特定される。換言すると、ピクセルP2’によって示される画像の部分は、例えば癌性腫瘍などの異常な組織に対応する。
[0043] 図4は、代表的実施形態による、増幅された画像と、複数の画像フレーム内で捕捉された対応する信号とを使用した周波数及び信号強度を示す簡略概略図である。
[0044] 図4を参照すると、画像ストリーム320は、上記で論じたように、時間と共に提供された増幅された画像フレーム321、322、及び323と、増幅された画像フレーム321、322、及び323に含まれる増幅されたピクセルP1’及びP2’とを含む。画像ストリーム320の下にあるのは、時間の関数として信号301’を示すグラフ及び信号302’を示す別のグラフであり、信号301’及び302’は、図3を参照して論じたように、それぞれピクセルP1’及びP2’に対応している。図4に示すように、高速フーリエ変換(FFT)が信号301’及び302’の各々に行われて、信号301’及び302’を各自の周波数成分に分解する。すなわち、時間領域における信号301’にFFTを行うことにより、拡大されたピクセルP1’に対応する周波数領域における周波数スペクトル401を得、時間領域における信号302’にFFTを行うことにより、拡大されたピクセルP2’に対応する周波数領域における周波数スペクトル402を得る。周波数スペクトル401は、第1の周波数範囲f1内にピーク403を含み、周波数スペクトル402は、第1の周波数範囲f1よりも高い第2の周波数範囲f2内にピーク404を含む。横軸(周波数)の周波数は、例えば1分当たりの拍動数としてスケーリングされる。
[0045] ピーク403及び404を特定することにより、ピークの成分(例えば、周波数範囲f1及びf2内のピーク403及び404各々の頂点、並びにそれらの下にあるエリア)が、生理学的許容通過帯域PW内にあるかどうかを決定することが可能であり、生理学的許容通過帯域PWは、対象者の脈拍数の想定範囲に対応する周波数通過帯域である。例えば、想定範囲は、40回の拍動/分の下限及び200回の拍動/分の上限を有するが、想定範囲は、本教示の範囲から逸脱することなく、現実的である他の最低値と他の最高値との間で変動してよい。信号を各自の周波数成分に分解し、最も大きいピーク成分を特定することは、例えば、周波数領域における窓処理と、それに続く勾配反転及びローカルピーク探索によって達成される。
[0046] 図4を参照すると、ピーク403は、生理学的許容通過帯域PW内にあり、よって、ピクセルP1’によって提供される画像の部分が、正常な組織を通る血流(正常な血管分布)に関して正常な生理機能と整合することを示すことが明らかである。ピーク404は、生理学的許容通過帯域PWの外側に(すなわち、より高い周波数に)あり、よって、ピクセルP2’によって提供される画像の部分が、異常な組織を通る血流(異常な血管分布)に関して異常な生理機能と整合することを示している。
[0047] FFTを、画像ストリーム320のすべてのピクセルに対応する信号に対して、又は少なくとも画像ストリーム320のピクセルの十分なサンプリングに対して行って、上記でピクセルP1’及びP2’を参照して論じたように、得られた周波数スペクトル内のピークが生理学的許容通過帯域PW内にあるかどうかを決定する。次いで、矢印415によって示される、この情報に基づいて、周波数マップ330が導出され得る。周波数マップ330の正常な部分331は、ピークが生理学的許容通過帯域PW内にある周波数スペクトルを有するピクセル(ピクセルP1’を含む)の場所を含む。周波数マップ330の異常な部分333は、ピークが生理学的許容通過帯域PWの外側にある周波数スペクトルを有するピクセル(ピクセルP2’を含む)の場所を含む。見て取れるように、異常な部分333は、拡大されたピクセルP2’が位置する近傍をカバーしている。異常な部分333が大きいほど、それはより多くのピクセルを包含し、より大きい面積の異常な血管分布、よってより大きい面積の異常な組織を示す。無論、得られる周波数マップは、本教示の範囲から逸脱することなく、異常な血管分布を示す複数の部分を表示し得る。
[0048] 加えて、信号301’及び302’の特性並びに基礎となる周波数成分の変動は、信号301’及び302’の各々にFFTを行い、それぞれ得られた周波数スペクトル401及び402の中で最も強い周波数成分の曲線下面積(AUC)及び/又は半値全幅(FWHM)を見つけることによって抽出され得る。再び図4を参照すると、ピーク403のAUC405は、ピーク404のAUC406よりも大きい。より大きいAUC405は、ピクセルP1’に関連付けられた血管分布がピクセルP2’と比べて正常であることを示す。ピーク403が実際に異常な組織の存在を示すかどうかをAUC405を使用して決定するために、AUC405が所定のAUC閾値と比較される。これは、ピクセルは、必ずしも異常な組織の存在を示すことなく、アレイ内の別のピクセルよりも小さい対応するAUCを有することがあるためである。「正常な」AUCの範囲は、例えば経験的に決定される。
[0049] 信号特性マップ430(図6に示される)は、ピクセルP1’及びP2’を含むピクセルに対応する周波数領域信号のAUCから導出される。信号特性マップ430の正常な部分431は、正常な範囲内にある(例えば、所定のAUC閾値未満の)AUCを有するピクセル(ピクセルP1’を含む)の場所を含み、信号特性マップ430の異常な部分433は、正常な範囲の外側にある(例えば、所定のAUC閾値を上回る)AUCを有するピクセル(ピクセルP2’を含む)の場所を含む。基本的に、FWHM値を使用して同じ種類のマップが導出され得る。見て取れるように、異常な部分433は、異常な組織が位置する近傍をカバーし、正常な部分431は、正常な組織が位置する近傍をカバーしている。信号特性マップ430は、外見が周波数マップ330に似ている。これは、それらが信号301’及び302’の同じFFTから導出されるためである。無論、信号特性マップは、本教示の範囲から逸脱することなく、異常な血管分布を示す複数の部分を表示し得る。
[0050] 注目すべき点として、図4に示す例では、ピクセルP2’は、上記で論じたようにそのピーク403が生理学的許容通過帯域PWの外側にあるため、異常な組織を示すものとしてすでに特定され得る。よって、ピクセルP2’が正常な組織を示すか、それとも異常な組織を示すかを決定するための対応する信号302’の特性の決定が、代替の方法として使用されてよい。又は、冗長な確認のために、両方の方法が使用され、組み合わせられてもよい(例えば、下記で図6を参照して論じるように、総合強化後コントラストマップを作成する)。
[0051] また、時間領域における信号の各自の形状を理解するために、長期・短期記憶(LTSM)ネットワーク又は再帰型ニューラルネットワーク(RNN)を使用して、信号形状及び拍動性を示すより高いレベルの特徴が、信号301’及び302’から導出される。各信号値は、ワードのように扱われる。LTSMネットワーク及びRNNは、時間順序情報を考慮に入れる。LTSMネットワークは、信号301’及び302’内のより離れた時間点間で関連付けを行うのに特に有用である。上記のように、信号301’は基本的に、正常な組織と整合する、予想される周波数範囲内での滑らかな推移を伴う正弦波であり、一方、信号302’は正弦波ではなく、異常な組織と整合する不規則なパターンを有する。
[0052] 図5は、代表的実施形態による、増幅された画像内の隣り合うピクセル間の位相シフトと、1つ又は複数の画像フレーム内で捕捉された対応する位相信号とを示す簡略概略図である。増幅された画像ストリームの複数のピクセルのうち隣り合うピクセル間の位相シフト(又は位相差)が特定され、互いと比較されて、空間位相変動性を決定する。隣り合うピクセル間の主要正弦波信号の位相シフトが、血管系における流れの方向性及び組成を理解するために使用される。
[0053] 図5を参照すると、増幅された画像フレーム521は、代表的な増幅されたピクセルP3’及びP4’を含み、これらは、ピクセルアレイ内で隣り合う(例えば、隣接する)ピクセルである。増幅された画像フレーム521は、例えば上記で増幅された画像フレーム321に関して論じたように、カメラ212によって提供される血管構造画像に対応する信号中の変動を増幅することによって取得される。しかしながら、増幅されたピクセルP1’及びP2’は、隣り合うピクセルではないため、説明の目的で図5には図示していない。増幅された画像フレーム521の下にあるのは、信号503及び504を時間の関数として示すグラフであり、信号503及び504はそれぞれピクセルP3’及びP4’に対応している。信号503及び504は、互いからオフセットされており、位相シフトを示す。
[0054] この位相シフト情報を収集して、例えば、増幅された画像フレーム521に対応する図5の代表的な位相マップ522、523、及び524によって示されるように、増幅された画像フレームに対応する複数の位相マップを提供する。すなわち、画像フレーム内の一連の画像が複数の位相マップに圧縮されることが可能であり、それにより、ある時間の期間に対して複数の増幅された画像フレームが提供され得る。位相マップ522’は、代表的な位相マップ522に対応しており、例えばピクセルP3’及びP4’などの様々な隣り合うピクセル間の位相シフトを示す説明のための矢印又はベクトルを描いており、これにより流れの方向を推定することができる。
[0055] 位相シフトの平均偏差及び標準偏差が、位相マップ522、523、及び524に対して決定される。一般に、不規則な血管流(異常な組織を示す)のあるエリアを示すピクセルに対応する標準偏差は、規則的な血管流のあるエリアを示すピクセルに対応する標準偏差よりも高い。次いで、位相変動性マップ530が、位相マップ522、523、及び524に基づいて導出され得る。位相変動性マップ530の正常な部分531は、低い標準偏差を有する位相シフトのあるピクセルの場所を特定し、位相変動性マップ530の異常な部分533は、高い標準偏差を有する位相シフトのあるピクセルの場所を特定する。標準偏差を所定の閾値と比較して、標準偏差が不規則な血管流を示し始める値を特定する。「異常な」及び/又は「正常な」標準偏差の範囲は、例えば経験的に決定される。無論、得られる標準偏差マップは、本教示の範囲から逸脱することなく、異常な血管分布を示す複数の部分を表示し得る。
[0056] より詳細には、位相マップ522、523、及び525などの複数の位相マップ(例えば、3つ又は4つ)が、それぞれ異なる時間の期間に対して取られる。位相マップ522、523、及び525の各ピクセルにおける平均偏差及び標準偏差が決定され、位相マップ522、523、及び524からの情報が組み合わせられて、位相変動性マップ530とされる。よって、流れの不規則性(存在する場合)の程度、流れの方向性、及び血管構造の組成に関する情報が取得される。
[0057] 図6は、代表的実施形態による、図3~5を参照して説明した技術によって取得された血管マップを示す簡略概略図であり、これらが組み合わせられて、コントラストが強化された総合血管マップを提供する。
[0058] 図6を参照すると、マップ610は、実質的にコントラストがないターゲット部分の元の血管マップである。すなわち、カメラ画像は、正常な血管分布(正常な組織)のエリアと異常な血管分布(例えば、異常な組織又は腫瘍)との間で、ピクセルごとの十分なコントラストを提供しない。比較すると、総合血管マップ630は、ターゲット部分又はROIの正常な部分631と異常な部分633との間で先鋭なコントラストを示している。
[0059] 描かれる実施形態では、総合血管マップ630は、異なる技術を通じて取得された3つの他の血管マップの組み合わせであり、単独で見られたどの他の血管マップよりもコントラストを向上させる。3つの他の血管マップには、上記で論じた、周波数マップ330、信号特性マップ430、及び位相変動性マップ530が含まれる。血管特徴は、周波数マップ330、信号特性マップ430、及び/又は位相変動性マップ530として、並びに総合血管マップ630(異常な組織又は腫瘍領域のコントラストが増大された)として表示され得る。
[0060] 一実施形態は、悪性の病変のコントラストを向上させるための、周波数マップ330、信号特性マップ430、及び/又は位相変動性マップ530の最良の組み合わせを決定するように、ピクセルごとの単純なロジスティック回帰(若しくは他の分類器が使用され得る)又はピクセルクラスタごとの分類器を訓練することを含む。一実施形態は、異常が他の血管マップのうち1つに現れるのか、2つに現れるのか、又は3つすべてに現れるのかに応じて、異常な血管分布のピクセル又は部分に異なる重みを提供することを含む。最も高い重みは、他の血管マップの3つすべてにおいて異常を示す画像のピクセル又は部分に割り当てられ、最も低い重みは、他の血管マップのうち1つのみにおいて異常を示す画像のピクセル又は部分に割り当てられる。次いで、それらの重みを使用して総合血管マップ630が作成される。無論、本教示の範囲から逸脱することなく、血管マップを組み合わせて総合血管マップ630にするための他の技術が組み込まれてよい。また、総合血管マップ630は、本教示の範囲から逸脱することなく、3つの他の血管マップすべてよりも少ない血管マップを組み合わせてもよい。よって、様々な実施形態において、総合血管マップ630は、それぞれピクセルアレイ内の複数のピクセルに対応する血管構造信号のうち少なくとも一部の血管構造信号の周波数、信号特性、及び空間位相変動性の少なくとも1つに基づく。
[0061] 上記で説明したように、カメラは、介入処置中に画像を提供する。カメラは、したがって、内視鏡若しくはカテーテルなどの介入器具又は道具の遠位端に装着され、及び/又はロボットアームに装着されて、カメラを対象者体内のターゲット部分又はROIに向ける。
[0062] 図7Aは、本開示の代表的実施形態による、画像を取得し、介入処置の実行を可能にするために使用される手術用ロボットシステムの例を示す概略ブロック図である。図7Aは、手術用ロボットシステム700を描いており、これは、患者の身体内に位置する手術部位で、ロボットにより操作可能な手術用器具及び他の道具を操作することを通例伴う医療処置に利用される。そのような医療処置には、これらに限定されないが、例えば、低侵襲心臓手術、腹部手術(腹腔鏡)(例えば、前立腺切除や胆嚢切除)、及び自然開口部越経管腔内視鏡手術が含まれる。
[0063] 図7Aを参照すると、手術用ロボットシステム700は、少なくとも1つのロボット701、制御ユニット706、及び拡張現実(AR)デバイス720を含む。ロボット701は、1つ又は複数のエンドエフェクタを対象者P内の手術部位Sに位置決めすべく操作するように構成され、エンドエフェクタは、手術部位Sにおけるライブ画像を獲得するように構成された少なくとも1つのカメラ712(又は同様の画像獲得デバイス)と、内部の手術処置を行うための手術道具などの少なくとも1つの器具713とを含む。内部の手術処置には、例えば、手術部位S内のターゲット部分Tに関連する低侵襲手術や自然開口部手術が含まれ、その例は上記で挙げた。
[0064] ARデバイス720は、カメラ712によって獲得されたライブ画像を、ユーザによって見られるAR表示ユニット721に表示するように構成されると共に、代表的な運動センサ724によって示される1つ又は複数の運動感知回路を介してユーザの(表示された画像に応答した)動きを捕捉するAR追跡システム722を使用して、追跡データを検出するように構成される。例えば、下記でさらに論じるように、ARデバイス720は、表示ユニット721と運動センサ724とを含む、ユーザによって装着されるヘッドピースを含む頭部装着型ヘッドアップディスプレイ(HUD)デバイス(AR-HUDデバイス)である。表示ユニット721は、単一のディスプレイであっても、又はユーザの両目に対応する2つの眼用ディスプレイ(図示せず)に分割されてもよい。2つの眼用ディスプレイは、カメラ712が立体視である場合には3次元表示を可能にし、又はカメラ712が単眼である場合には擬似的な3次元表示を可能にするが、2つの眼用ディスプレイは部分的に重なり合うように構成される。運動センサ724は、例えば、3軸周りのユーザの頭部の運動を検出する複数の加速度計であり、それにより、追跡データは、ユーザの頭部の動きに対応する頭部追跡データを含む。それに代えて、運動センサ724は、ユーザの目の動きを検出する後ろ向きのカメラを含んでもよく、それにより、追跡データは、ユーザの目の動きに対応する目追跡データを含む。
[0065] ARデバイス720はまた、ユーザから命令を受け取るための、入力装置726によって示される1つ又は複数の入力装置(例えば、ユーザインターフェース)も含む。本明細書において使用される入力装置726は、ユーザがARデバイス720並びに手術用ロボットシステム700と対話することを可能にするインターフェースである。入力装置726は、例えば、タッチ画面、キーボード、マウス、トラックボール、タッチパッド、又は音声コマンドインターフェースの1つ又は複数を含む。本実施形態では、ユーザは、入力装置726を使用して具体的なコマンドを入力し、例えば、プロセッサ730に確認信号を送って、プロセッサ730によって決定された選択されたターゲット部分Tを確定する、又は、AR追跡システム722及び/又はプロセッサ730に起動信号を送って、HUDデバイスによる頭部の運動の検出を含む頭部追跡モード、若しくはHUDデバイスによる目の動きの検出を含む目追跡モードの一方を起動する。代替の実施形態では、入力装置726は、ARデバイス720の外側にある。例えば、入力装置726は、制御ユニット706に一体化されるか、又はI/O回路708を介してARデバイス720及びプロセッサ730の両方と通信するように構成された別個のユニットである。
[0066] 制御ユニット706は、手術用ロボットシステム700の全体的な動作を制御し、その他の形で連携させるように構成される。制御ユニット706は、入力/出力(I/O)回路708及びプロセッサ730を含む。プロセッサ730は、処理を可能にするための関連付けられたメモリ734と、コンピュータ可読媒体(CRM)736とを含む。プロセッサ730及びメモリ734/CRM736は、図2を参照して上記で論じた撮像システム200の処理ユニット230と実質的に同様である。プロセッサ730は、一般に、獲得されたライブ画像をカメラ712からI/O回路708を介して受け取り、獲得されたライブ画像を処理して、例えばメモリ734及び/又はCRM736に記憶するように構成され、それにより、プロセッサ730は、カメラ712が通過した対象者Pの内部部分同士を基本的に視覚的にマッピングする、電子医療記録(EMR)データベース及び/又はピクチャ保管及び通信システム(PACS)データベースなどのデータベースを構築することができる。このデータベースはその後、下記で論じるように、ターゲット部分Tが選択されると、ターゲット部分Tまでの経路を決定するために使用される。プロセッサ730は、獲得されたライブ画像を、表示ユニット721に表示するためにI/O回路708を介してARデバイス720に送信する。代替の構成では、獲得されたライブ画像は、獲得されたライブ画像がI/O回路708によって受け取られると、プロセッサ730による撮像処理は行われずに、I/O回路708からARデバイス720に送信される。
[0067] プロセッサ730はさらに、AR追跡システム722によって決定された追跡データを、I/O回路708を介してARデバイス720から受け取り、決定された追跡データを処理して、対象者P内の手術部位Sでターゲット(例えば、ターゲット部分T)を選択するように構成される。プロセッサ730はさらに、例えば例示的なカメラ712及び器具713を含むロボット701の1つ又は複数のエンドエフェクタが選択されたターゲット部分Tに到達するための経路を、獲得されたライブ画像と、処理後の決定された追跡データとに基づいて決定するように構成される。プロセッサ730は、I/O回路708を介してロボット701にロボット制御信号を送信して、1つ又は複数のエンドエフェクタを、決定された経路に沿って選択されたターゲット部分Tまで移動させる。
[0068] したがって、I/O回路708は、獲得されたライブ画像をカメラ712から受け取り、獲得されたライブ画像を、表示ユニット721に表示するためにプロセッサ730及び/又はARデバイス720に提供する(直接、又は画像処理後にプロセッサ730から転送されるかのいずれか)。I/O回路708はまた、ARデバイス720から入力データ(追跡データを含む)を受け取り、それをプロセッサ730に提供し、追跡データに応じてプロセッサ730が決定したロボット制御信号をロボット701に送る。
[0069] ロボット701は、対象者Pの身体内の入口点Eに位置決めされる硬い近位部分702(例えば、ロボットアーム又はロボットアームの一部分)と、対象者P内の手術部位Sに位置決めされる柔軟な遠位部分703とを有する。ロボット701は、本明細書において、特定のロボット処置に対して要求されるように柔軟な遠位部分703を操縦するための1つ又は複数の関節と2つ以上の対応するリンクとが動力制御されるように構造的に構成された、任意のロボットデバイスと広く定義される。柔軟な遠位部分703は、カメラ712と器具713とを含む、1つ又は複数のエンドエフェクタを含む。器具713は、例えば、グリッパー若しくは道具ホルダー、腹腔鏡器具、腹腔鏡、例えば脊椎固定手術時にネジを配置するための道具、生検若しくは治療用の針、組織若しくは腫瘍の撮像及びアブレーション用の超音波トランスデューサ、又は他の手術用若しくは介入用道具である。純粋に探査のための介入処置については、柔軟な遠位部分703は、カメラ712のみを含む。
[0070] 実際には、当業者には認識されるように、ロボット701は最低でも3自由度を有し、有益には6自由度以上を有する。ロボット701は、2つの交差するモータ軸を備えた遠隔運動中心(RCM)機構を有してよい。また、ロボット701には、投光装置(図示せず)が関連付けられていてもよい。組み込むことが可能な操縦可能又は器用な手術用ロボットデバイスの一例は、参照により本明細書に組み込まれる、Sanchezによる米国特許第7,121,781号(2006年10月17日)に記載されるものなどの、7自由度の汎用手関節である。この汎用手関節は、遠位部分に複数の関節と顎とを含み、近位部分に駆動システムを含む。このデバイスはさらに、ロボット位置決め機構とコンピュータコントローラを使用して位置決めすることができる。ロボット位置決めにより、解剖学的構造に対するデバイスの運動を追跡することが可能になる。エンドエフェクタが上記手関節に結合され、それにより、同じ枢動点を中心とした2つの別々の自由度が得られる。エンドエフェクタは、ピンによって移動及び作動させることができ、小型の低侵襲医療器具が可能となる。
[0071] 図7Aには単一の硬い近位部分702と単一の対応する遠位部分703とを操作するための単一のロボット701が描かれているが、本教示の範囲から逸脱することなく、対応する複数の硬い近位部分及び/又は複数の硬い遠位部分を備えた複数のロボットが組み込まれてもよいことが理解される。すなわち、ロボット701は、手術部位Sにおいて複数のカメラ712と共に異なるエンドエフェクタを制御する複数のロボットアーム(図示せず)を含んでよい。例えば、1つのロボットアームが、手術部位Sのライブ画像を提供するためのカメラ712などの前方視カメラを含み、別のロボットアームが器具713並びに追加的な器具を含む。
[0072] カメラ712は、手術用ロボットシステム700の制御ユニット706と共に撮像システムの一部をなし、これは、図2を参照して上記で論じた撮像システム200と実質的に同様である。カメラ712は、前方光学視野又は傾斜光学視野を有する1つ又は複数の任意種類のカメラを含み、事前に定められたフレームレート(例えば、毎秒30フレーム)で一連の2次元デジタルビデオフレームを獲得することが可能であり、また、各デジタルビデオフレームを、入力/出力回路708を介して制御ユニット706に提供することが可能であってよい。詳細には、カメラ712は、その視野の中で、ロボット701の柔軟な遠位部分703から手術部位S及びターゲット部分T(例えば、臓器)のライブ画像を獲得できるように位置及び向きが設定された前方視カメラであってよい。一実施形態では、硬い近位部分702は、ロボット701によって制御される内視鏡のようなデバイスであり、単一の硬い近位部分702が複数のチャネルを含み、それらの1つは、カメラ712の制御及び/又はそれとの通信を可能にし、チャネルのうち少なくとも1つの他のチャネルは、器具713又は他のエンドエフェクタの進入及び制御を可能にする。代替の実施形態では、カメラ712は、硬い近位部分702に対応する柔軟な遠位部分703に装着され、一方、他のエンドエフェクタは、他の硬い近位部分(図示せず)に対応する柔軟な遠位部分にあり、それらはすべてロボット701を介して制御される。さらに別の実施形態では、カメラ712は、別個の内視鏡の柔軟な遠位部分に装着され、ロボット701の一部ではなく、図7Bを参照して下記で論じるように、別個の内視鏡コントローラ(ロボット701と連携して動作する)の制御下にある。また、カメラ712は、3次元で知覚されることが可能な画像を提供する立体視カメラ又は立体視内視鏡であってもよい。立体視内視鏡の一例が、参照により本明細書に組み込まれる、Breidenthalらによる米国特許第6,139,490号(2000年10月31日)に記載されている。それに代えて、カメラ712は単眼であってもよく、表示ユニット721は、ユーザの両目に対応する2つの眼用ディスプレイに分割され、その場合、単眼画像が、2つの重なり合う半画像に分割され、2つの眼用ディスプレイの各々に別々に呈示されて、擬似的な立体視を作り出す。
[0073] 外部の医療画像デバイスが含まれてもよい。医療画像デバイスは、手術用ロボット701の柔軟な遠位部分703及び手術部位Sのターゲット部分Tのライブ画像を1つ又は複数獲得するように構成され、より包括的な概観を提供する。そのような医療画像デバイスは、対象者Pの一部分を少なくとも部分的に包囲するCアーム(図示せず)を含んでもよい。Cアームは、放射線撮影機能を有し、当業者に知られるように、手術処置中の蛍光透視撮像に使用される。X線システムを実施するCアームの一例が、参照により本明細書に組み込まれる、Popovicの米国特許第9,095,252号(2015年8月4日)に記載されている。
[0074] 図7Bは、別個の撮像内視鏡とそれに対応する内視鏡コントローラとを含む、代表的実施形態による手術用ロボットシステムを示す概略ブロック図である。図7Bは、手術用ロボットシステム700’を描いており、これは、上記で論じたように、対象者の身体内に位置する手術部位で、ロボットにより操作可能な手術用器具及び他の道具を操作することを通例伴う医療処置に利用される。
[0075] 図7Bを参照すると、描かれる実施形態では、手術用ロボットシステム700’は、少なくとも1つのロボット701、制御ユニット706、及びARデバイス720を含む点で手術用ロボットシステム700と同様である。ロボット701は、内部の手術処置を行うための手術道具などの少なくとも1つの器具713を含む1つ又は複数のエンドエフェクタを、対象者P内の手術部位Sに位置決めすべく操作するように構成される。
[0076] 加えて、手術用ロボットシステム700’は、ロボット701とは別個の内視鏡742を制御するように構成された内視鏡コントローラ740を含む。内視鏡742は、遠位端に装着されたカメラ712を含む。内視鏡742及びカメラ712は、身体内の手術部位Sでライブ画像を獲得するように構成される。ARデバイス720は、上記で論じたように、カメラ712によって獲得されたライブ画像を表示するように構成される。様々な実施形態において、内視鏡742は、硬い管又は柔軟な管、検査対象の臓器又は物体を照明する光送達システム(例えば、光源は通常、身体の外部にあり、光は通例、光ファイバシステムを介して誘導される)、対物レンズからビューワに画像を伝えるレンズ系、通例は、硬い内視鏡の場合にはリレーレンズ系、又はファイバスコープの場合は光ファイバの束、を含む。また、アイピースを持たないビデオスコープも企図され、その場合、カメラが、画像捕捉のために画面に画像を送信する。また、様々な実施形態において、カメラ712は、例えば立体視であり、画像データは、見かけ上3次元の画像を、例えばAR表示ユニット721に表示することを可能にする。
[0077] 描かれる例では、ロボット701は、対象者Pの身体内の第1の入口点E1に位置決めされる硬い近位部分702と、対象者P内の手術部位Sに位置決めされる柔軟な遠位部分703とを有する。内視鏡742は、対象者Pの身体内の第2の入口点E2に位置決めされるシースを含む。内視鏡742は、複数のチャネルを含み、そのうちの1つは画像の獲得を提供し、チャネルのうち少なくとも1つの他のチャネルは、内視鏡コントローラ740によって制御される、医療器具若しくは操縦器、及び/又は手術部位Sを照明するための光源などの別の器具の進入及び制御を可能にする。
[0078] 制御ユニット706は、ロボット701及び内視鏡742の制御及び連携を含む、手術用ロボットシステム700’の全体的な動作を制御し、その他の形で連携させるように構成される。制御ユニット706は、I/O回路708’を含み、I/O回路708’は、内視鏡コントローラ740と通信するための追加的なインターフェースを有する点でI/O回路708と異なる。よって、プロセッサ730は、一般に、獲得されたライブ画像を、カメラ712から内視鏡コントローラ740及びI/O回路708’を介して受け取り、獲得されたライブ画像を処理して、例えばメモリ734及び/又はCRM736に記憶するように構成され、それにより、プロセッサ730は、内視鏡742が通過した対象者Pの内部部分同士を基本的に視覚的にマッピングするデータベースを構築することができる。このデータベースはその後、下記で論じるように、ターゲット部分Tが選択されると、ターゲット部分Tまでの経路を決定するために使用することができる。プロセッサ730は、獲得されたライブ画像を、表示ユニット721に表示するためにI/O回路708’を介してARデバイス720に送信する。代替の構成では、獲得されたライブ画像は、獲得されたライブ画像が内視鏡コントローラ740からI/O回路708’によって受け取られると、プロセッサ730による撮像処理は行われずに、I/O回路708’からARデバイス720に送信される。
[0079] プロセッサ730はさらに、AR追跡システム722によって決定された追跡データを、I/O回路708’を介してARデバイス720から受け取り、決定された追跡データを処理して、対象者P内の手術部位Sでターゲット(例えば、ターゲット部分T)を選択するように構成される。プロセッサ730はさらに、例えば例示的な器具713を含むロボット701の1つ又は複数のエンドエフェクタが選択されたターゲット部分Tに到達するための経路を、獲得されたライブ画像と、処理後の決定された追跡データとに基づいて決定するように構成される。プロセッサ730は、I/O回路708’を介してロボット701にロボット制御信号を送信して、1つ又は複数のエンドエフェクタを、決定された経路に沿って選択されたターゲット部分Tまで移動させる。
[0080] したがって、I/O回路708’は、獲得されたライブ画像を、内視鏡742及び内視鏡コントローラ740を介してカメラ712から受け取り、獲得されたライブ画像を、表示ユニット721に表示するためにプロセッサ730及び/又はARデバイス720に提供する(直接、又は画像処理後にプロセッサ730から転送されるかのいずれか)。I/O回路708’はまた、ARデバイス720から入力データ(追跡データを含む)を受け取り、それをプロセッサ730に提供し、追跡データに応じてプロセッサ730が決定したロボット制御信号をロボット701に送る。
[0081] ARデバイス720(図7A及び図7Bに示される)を参照すると、表示ユニット721は、ユーザの近くに併置される場合もある1つ又は複数のディスプレイを含む。例えば、ARデバイス720がHUDデバイスとして実施される場合、表示ユニット721は、ゴーグルのように、ヘッドピースの前部のユーザの目のすぐ前に取り付けられる。表示ユニット721は、上記で論じたように手術部位Sのライブ画像を表示するように構成され、ユーザは自身の頭部及び/又は目を動かして表示ユニット721に表示されたライブ画像を観察し、選択のためにターゲットを追跡し、それにより、手術部位を観察して処置を行うために外科医が自身の頭部及び/又は目を動かす実際の手術処置を模擬する。カメラ712が立体視画像を提供する場合、表示ユニット721に表示されたライブ画像は3次元に見える。一実施形態では、表示ユニット721は、術前画像も表示する。よって、少なくとも1つのカメラ712からの画像は、捕捉されてHUDデバイスに表示される。
[0082] HUDデバイスは、1つ又は複数のAR-HUDディスプレイを備えた、拡張現実ヘッドアップディスプレイ(AR-HUD)デバイスとも呼ばれる。例示的な設計は、左目用ディスプレイ及び右眼用ディスプレイを用いるが、それに代えて、ディスプレイは、両目にまたがる単一の大きな窓とすることができる。いくつかの例では、AR-HUDデバイスは、ユーザの頭部に装着されるために、ヘルメット、頭部バンド、眼鏡、ゴーグル、又は他の好適な実施形態として構成され得る。
[0083] プロセッサ730は、追跡データを処理して、表示ユニット721(及びそこに表示されたライブ画像)との関係でユーザの頭部の角度を決定することによってターゲット部分Tを特定又は選択することができ、ここで、頭部の角度は、ユーザが見ている、手術部位S内のターゲット部分Tを構成するライブ画像の領域又は点を示す。ユーザが表示ユニット721上の手術野S内のターゲット部分Tの位置に満足すると、制御ユニット706内のプロセッサ730に確認信号が送られる(例えば、足ペダル、押しボタン、又は音声コマンドを介して)。プロセッサ730は、選択されたターゲット部分Tに対応する2次元又は3次元の座標を割り当てる(又はアドレス指定する)。対象者Pの身体内の入口点Eの場所と、選択されたターゲット部分Tの座標とを把握し、カメラ712から獲得されたライブ画像のデータベースを併用して、プロセッサ730は、ロボット701により操作可能な少なくとも1つの器具713が選択されたターゲット部分Tに到達するための経路(又はベクトル)を決定することができる。ロボットにより制御される器具が患者の手術部位内のターゲットに到達するためのそのような経路を決定する一例が、参照により本明細書に組み込まれる、Popovicらの米国特許第8,934,003号(2015年1月13日)により提供される。プロセッサ730は、次いで、ロボット701にロボット制御信号を送信して、ロボット701に、少なくとも1つの器具713の遠位端を、決定された経路を介してターゲット部分Tまで誘導させることができる。すなわち、制御ユニット706は、ロボット701にコマンドを発して、選択されたターゲット部分Tの位置まで移動させる。ロボット701の各関節の必要とされる運動は、当技術分野で知られる方法を使用してプロセッサ730によって実施される。例えば、ロボット701は、当技術分野で知られる視覚的サーボ制御方法を利用する。
[0084] 再び図7A及び図7Bを参照すると、制御ユニット706は、本明細書において、手術部位Sにおけるカメラ712及びターゲット部分Tからの画像(例えば、ライブ、探査、術前)の獲得及び処理を制御する1つ又は複数の制御コマンドを提供し、ARデバイス720からのターゲット部分Tの選択に関係する追跡情報を利用してターゲット部分Tまでの経路を決定し、さらに、柔軟な遠位部分703を制御するように構造的に構成された、任意のコントローラとして広く定義される。一般に、I/O回路708は、制御ユニット706の外部にある要素及びデバイス間の通信を制御する。I/O回路708は、プロセッサ730、ARデバイス720、及びロボット701との間の入力信号及び出力信号又はデータを解釈するための必要な論理を含んだインターフェースの役割を果たす。I/O回路708は、獲得されたライブ画像をカメラ712から受け取るように構成された第1の入力と、獲得されたライブ画像を、最終的には表示のためにプロセッサ730及びARデバイス720の少なくとも一方に提供するように構成された第1の出力とを含む。I/O回路708はさらに、追跡データを含む決定された入力データをARデバイス720から受け取るように構成された第2の入力と、決定された入力データをプロセッサ730に提供する(プロセッサ730はその入力データを処理して、それに応じてターゲット部分Tを特定し、選択する)ように構成された第2の出力と、ロボット制御信号をロボット701に提供するように構成された第3の出力とを含む。
[0085] プロセッサ730は、記載される機能及び動作を、ハードウェア、ソフトウェア、及びファームウェアの組み合わせを使用して行う。プロセッサ730は、手術部位Sにある手術用ロボット701の柔軟な遠位部分703に関係する医療画像(例えば、カメラ712又は外部の医療画像デバイスからの)を処理して、柔軟な遠位部分703を、手術部位Sにある対応する解剖学的構造と位置合わせするように構成される。プロセッサ730は、位置追跡システム(図示せず)からの手術用ロボット701の硬い近位部分702の追加的な位置追跡情報を処理して、硬い近位部分702の運動を決定するように構成される。位置追跡システムは、追跡システム722とは別個であり、当業者には認識されるように、光学追跡システム、機械的追跡システム、電磁追跡システムの1つ又は複数であってよい。センサ又はタグ(例えば、発光ダイオード(LED)、受動マーカ、反射マーカ等)が手術用ロボット701の硬い近位部分702に含められて、位置追跡システムと協働してよい。一実施形態では、位置補償モードが設けられ、そのモードに従って、プロセッサ730は、硬い近位部分702の決定された位置及び運動に基づいて、手術用ロボット701の柔軟な遠位部分703の運動補償信号を生成するように構成される。
[0086] 実際には、論じられる制御プロセスは、ハードウェア、ソフトウェア、及び/又は任意のプラットフォーム(例えば、汎用コンピュータ、特定用途集積回路(ASIC)、フィールドプログラマブルゲートアレイ(FPGA)等)にインストールされたファームウェアの任意の組み合わせによって具現化されるモジュールによって実施される。さらに、処理は、制御ユニット706のプロセッサ730によって行われる。
[0087] 本明細書及び添付の特許請求の範囲で使用される場合、単数形は、文脈が明らかに別途指示しない限りは、単数形の指示対象と複数形の指示対象の両方を含む。よって、例えば、「デバイス」は、1つのデバイス及び複数のデバイスを含む。また、例えば、「A/B」、「A及び/又はB」及び「A及びBの少なくとも1つ」の場合などの、「/」、「及び/又は」、並びに「~の少なくとも1つ」の使用はいずれも、第1の列挙される選択肢(A)のみの選択、第2の列挙される選択肢(B)のみの選択、又は両方の選択肢(A及びB)の選択を包含することが意図されることが理解されるべきである。
[0088] 本明細書において使用される場合、2つ以上の部分又は構成要素が「結合されて」いるという記述は、それらの部分が直接、又は間接的に、すなわち、連結が発生する限り1つ若しくは複数の中間部分若しくは構成要素を介して一緒につながれているか、一緒に動作することを意味するものとする。
[0089] 方向を表す用語/句及び相対的な用語/句は、添付図面に図示されるように、様々な要素の互いとの関係を記述するために使用される。これらの用語/句は、図面に描かれる向きに加えて、デバイス及び/又は要素の異なる向きを包含することが意図される。
[0090] 本明細書で使用される「コンピュータ可読記憶媒体」は、コンピューティングデバイスのプロセッサにより実行可能な命令を記憶する任意の有形の記憶媒体を包含する。コンピュータ可読記憶媒体は、一時的な伝搬信号などの一時的媒体と区別するために、非一時的なコンピュータ可読記憶媒体と称することがある。コンピュータ可読記憶媒体は、有形のコンピュータ可読媒体と称される場合もある。
[0091] いくつかの実施形態では、メモリ及び/又はコンピュータ可読記憶媒体は、コンピューティングデバイスのプロセッサによりアクセスされることが可能なデータを記憶することも可能である。メモリ及びコンピュータ可読記憶媒体の例には、これらに限定されないが、フロッピーディスク、磁気ハードディスクドライブ、固体状態ハードディスク、フラッシュメモリ、USBサムドライブ、ランダムアクセスメモリ(RAM)、読出し専用メモリ(ROM)、光ディスク、光磁気ディスク及びプロセッサのレジスタファイルが含まれる。光ディスクの例には、コンパクトディスク(CD)及びデジタル多用途ディスク(DVD)、例えば、CD-ROM、CD-RW、CD-R、DVD-ROM、DVD-RW、又はDVD-Rディスクが含まれる。用語、コンピュータ可読記憶媒体は、ネットワーク又は通信リンクを介してコンピュータからアクセスされることが可能な様々な種類の記録媒体も指す。例えば、データは、モデムを通じて、又はインターネットを通じて、又はローカルエリアネットワークを通じて取り出される。コンピュータ可読記憶媒体の言及は、場合により複数のコンピュータ可読記憶媒体であると解釈されるべきである。1つ又は複数のプログラムの様々な実行可能コンポーネントは、様々な場所に記憶される。コンピュータ可読記憶媒体は、例えば、同じコンピュータシステム内の複数のコンピュータ可読記憶媒体である。コンピュータ可読記憶媒体は、複数のコンピュータシステム又はコンピューティングデバイス間に分散されたコンピュータ可読記憶媒体であってもよい。
[0092] 「メモリ」は、コンピュータ可読記憶媒体の一例である。コンピュータメモリは、プロセッサが直接アクセスできる任意のメモリである。コンピュータメモリの例には、これらに限定されないが、RAMメモリ、レジスタ、及びレジスタファイルが含まれる。「コンピュータメモリ」又は「メモリ」の言及は、場合によっては複数のメモリであると解釈されるべきである。メモリは、例えば、同じコンピュータシステム内にある複数のメモリである。メモリは、複数のコンピュータシステム又はコンピューティングデバイスに分散された複数のメモリであってもよい。
[0093] コンピュータストレージは、任意の不揮発性のコンピュータ可読記憶媒体である。コンピュータストレージの例には、これらに限定されないが、ハードディスクドライブ、USBサムドライブ、フロッピードライブ、スマートカード、DVD、CD-ROM、及び固体状態ハードドライブが含まれる。いくつかの実施形態では、コンピュータストレージはコンピュータメモリでもあり、その逆も同様である。「コンピュータストレージ」又は「ストレージ」の言及は、場合によっては複数の記憶装置又は構成要素を含むものと解釈すべきである。例えば、ストレージは、同じコンピュータシステム又はコンピューティングデバイス内にある複数の記憶装置を含む。ストレージは、複数のコンピュータシステム又はコンピューティングデバイスに分散された複数のストレージも含む。
[0094] 本明細書で使用される「プロセッサ」は、プログラム又は機械実行可能命令を実行することが可能な電子構成要素を包含する。「プロセッサ」を備えるコンピューティングデバイスの言及は、場合によっては2つ以上のプロセッサ又は処理コアを含んでいるものと解釈すべきである。プロセッサは、例えばマルチコアプロセッサである。プロセッサは、単一のコンピュータシステム内にあるか又は複数のコンピュータシステムに分散された、プロセッサの集まりを指す場合もある。コンピューティングデバイスという用語は、場合によっては、各々が1つ又は複数のプロセッサを備えたコンピューティングデバイスの集まり又はネットワークを指すものとも解釈すべきである。多くのプログラムは、同じコンピューティングデバイス内にあるか、さらには複数のコンピューティングデバイスに分散されている複数のプロセッサによって実行される命令を有する。
[0095] 本明細書において使用される「ユーザインターフェース」又は「ユーザ入力装置」は、ユーザ又はオペレータがコンピュータ又はコンピュータシステムと対話することを可能にするインターフェースである。ユーザインターフェースは、オペレータに情報若しくはデータを提供する、及び/又はオペレータから情報若しくはデータを受け取る。ユーザインターフェースは、オペレータからの入力がコンピュータによって受け取られることを可能にし、コンピュータからユーザへの出力を提供する。換言すると、ユーザインターフェースは、オペレータがコンピュータを制御又は操作することを可能にし、インターフェースは、コンピュータが、ユーザの制御又は操作の結果を示すことを可能にする。ディスプレイ又はグラフィカルユーザインターフェース上でのデータ又は情報の表示は、オペレータに情報を提供する一例である。タッチ画面、キーボード、マウス、トラックボール、タッチパッド、ポインティングスティック、グラフィックタブレット、ジョイスティック、及びヘッドセット(例えば、AR-HUD)を通じてデータを受け取ることはすべて、ユーザからの情報又はデータの受け取りを可能にするユーザインターフェース構成要素の例である。
[0096] 本明細書において使用される「ディスプレイ」又は「表示デバイス」又は「表示ユニット」は、画像又はデータを表示するために適合された出力装置又はユーザインターフェースを包含する。ディスプレイは、視覚データ、オーディオデータ、又は触覚データを出力する。ディスプレイの例には、これらに限定されないが、コンピュータモニタ、テレビ画面、タッチ画面、触覚電子ディスプレイ、点字画面、陰極線管(CRT)、蓄積管、双安定ディスプレイ、電子ペーパー、ベクトルディスプレイ、フラットパネルディスプレイ、真空蛍光ディスプレイ(VF)、発光ダイオード(LED)ディスプレイ、エレクトロルミネッセントディスプレイ(ELD)、プラズマディスプレイパネル(PDP)、液晶ディスプレイ(LCD)、有機発光ダイオードディスプレイ(OLED)、プロジェクタ、及び頭部装着型ディスプレイが含まれる。
[0097] 様々な実施形態が図面及び上述の説明に図示及び説明されたが、そのような図示及び説明は、説明のため又は例示的なものであり、制限的なものではないとみなすべきである。本発明は、開示された実施形態に制限されない。
Claims (15)
- カラービデオ獲得能力を有し、物体の内部に挿入可能な介入器具の遠位端に取り付けられたカメラであって、前記物体の血管構造を撮像するための複数の画像フレームを提供し、各画像フレームは、それぞれ対応する信号を提供する複数のピクセルを備える、カメラと、
ディスプレイと、
プロセッサと、を備える撮像システムあって、
前記プロセッサが、
前記信号を受け取ることと、
前記複数のピクセルに対応する前記信号の色及び運動の少なくとも一方における変動を増幅して、増幅された信号を提供することと、
それぞれ前記複数のピクセルに対応する前記増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つを決定することと、
前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つに基づいて、前記複数のピクセルのうち異常な血管を示すピクセルを特定することと、
特定された前記ピクセルを使用して、前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つの各々に対応する血管マップを作成することであって、各血管マップは、前記異常な血管を有する前記物体の部分を含む、作成することと、
各血管マップを表示するように前記ディスプレイを動作させることと
を行う、撮像システム。 - 前記プロセッサがさらに、前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つの各々に対応する前記血管マップのうち少なくとも2つの組み合わせを備える総合血管マップを作成する、請求項1に記載の撮像システム。
- 前記総合血管マップは、前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つの各々に対応する前記血管マップのうちいずれか1つによって提供されるコントラストよりも先鋭なコントラストを、前記異常な血管を有する前記物体の前記部分と、正常な血管を有する前記物体の別の部分との間に提供する、請求項2に記載の撮像システム。
- 前記信号の色及び運動の少なくとも一方における前記変動が、オイラービデオ拡大を使用して増幅される、請求項1に記載の撮像システム。
- 前記プロセッサが、
前記複数のピクセルのうち隣接するピクセル間の位相シフトをそれぞれ決定することと、
増幅された画像フレームに対応する位相マップを提供することであって、各増幅された画像フレームは前記複数のピクセルを含む、提供することと、
前記位相マップについて、前記隣接するピクセル間の前記位相シフトの標準偏差を決定することと、
正常な血管に対応する閾値標準偏差よりも高い標準偏差を有する前記位相マップ中の前記ピクセルを、異常な血管を示すものとして特定することと、
により、空間位相変動性に基づいて、異常な血管を示す前記ピクセルを特定する、請求項1に記載の撮像システム。 - 前記プロセッサが、
前記複数のピクセルに対応する前記増幅された信号の周波数成分をそれぞれ決定することと、
対応する周波数成分を生理学的許容通過帯域の外側に有するピクセルを、異常な血管を示すものとして特定することと、
により、周波数に基づいて、異常な血管を示す前記ピクセルを特定する、請求項1に記載の撮像システム。 - 前記生理学的許容通過帯域が、前記物体の脈拍数の想定範囲に対応する、請求項6に記載の撮像システム。
- 前記プロセッサが、対応する周波数成分を前記生理学的許容通過帯域の外側に有する前記ピクセルを、
前記増幅された信号にフーリエ変換を行って、対応する周波数スペクトルを提供することと、
前記周波数スペクトル内の最も大きいピーク成分を特定することと、
前記最も大きいピーク成分がそれぞれ前記生理学的許容通過帯域の外側にあるかどうかを決定することと、
により特定する、請求項6に記載の撮像システム。 - 前記プロセッサが、
前記増幅された信号にフーリエ変換を行って、対応する周波数スペクトルを提供することと、
前記周波数スペクトル内の最も大きいピーク成分を特定することと、
前記最も大きいピーク成分の曲線下面積又は半値全幅をそれぞれ決定することと、
正常な血管に対応する閾値曲線下面積又は半値全幅未満の、対応する曲線下面積又は半値全幅を有するピクセルを、異常な血管を示すものとして特定することと、
により、信号特性に基づいて、異常な血管を示すピクセルを特定する、請求項1に記載の撮像システム。 - 前記介入器具が内視鏡を含む、請求項1に記載の撮像システム。
- 前記総合血管マップが、増幅された前記信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の各々に対応するすべての前記血管マップの組み合わせに基づいて作成される、請求項2に記載の撮像システム。
- 前記ディスプレイが、前記血管マップのうち少なくとも1つ又は前記血管マップのうちの少なくとも2つの前記組み合わせを表示するために、拡張現実ヘッドアップディスプレイデバイスの中に組み込まれ、前記拡張現実ヘッドアップディスプレイデバイスが、ユーザによって装着されるヘッドピースを備える、請求項2に記載の撮像システム。
- 対象者内部の異常な組織を示す異常な血管を、カラービデオ獲得能力を有するカメラであって、前記対象者の内部に挿入可能な介入器具の遠位端に取り付けられたカメラからの画像を使用して特定する方法であって、前記方法が、
前記対象者内のターゲット部分の血管構造を撮像するために前記ターゲット部分から前記カメラによって提供される複数の画像フレームの各々の中の複数のピクセルに対応する信号を受け取るステップと、
前記複数の画像フレームの各々の中の前記複数のピクセルに対応する前記信号の色及び運動の少なくとも一方における変動を増幅して、それぞれ増幅された信号を提供するステップと、
それぞれ前記複数のピクセルに対応する前記増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つを決定するステップと、
前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つに基づいて、前記複数の画像フレームの各々の中の前記複数のピクセルのうち、異常な血管を示すピクセルを特定するステップと、
特定された前記ピクセルを使用して、前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つの各々に対応する血管マップを作成するステップであって、各血管マップは、前記異常な血管を有する前記対象者の部分を含む、作成するステップと、
各血管マップを表示するステップと
を有する、方法。 - 前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つの各々に対応する前記血管マップのうち少なくとも2つを組み合わせて、総合血管マップを作成するステップと、
前記総合血管マップを表示するステップと
をさらに有する、請求項13に記載の方法。 - 対象者内部の異常な組織を示す異常な血管を、カラービデオ獲得能力を有するカメラであって、前記対象者の内部に挿入可能な介入器具の遠位端に取り付けられたカメラからの画像を使用して特定するためにコンピュータプロセッサにより実行可能なソフトウェアを含むコンピュータ可読媒体であって、前記コンピュータ可読媒体が、
前記対象者内のターゲット部分の血管構造を撮像するために前記ターゲット部分から前記介入器具を介して前記カメラによって提供される複数の画像フレームの各々の中の複数のピクセルに対応する信号を受け取るための受取りコードと、
前記複数の画像フレームの各々の中の前記複数のピクセルに対応する前記信号の少なくとも運動の変動を増幅して、それぞれ増幅された信号を提供するための増幅コードと、
それぞれ前記複数のピクセルに対応する前記増幅された信号のうち少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の少なくとも1つを決定するための決定コードと、
前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つに基づいて、前記複数の画像フレームの各々の中の前記複数のピクセルのうち、異常な血管を示すピクセルを特定するための特定コードと、
特定された前記ピクセルを使用して、前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つの各々に対応する血管マップを作成するための作成コードであって、各血管マップは、前記異常な血管を有する前記対象者の部分を含む、作成コードと、
前記増幅された信号のうち前記少なくとも一部の信号の空間位相変動性、周波数、及び信号特性の前記少なくとも1つの各々に対応する前記血管マップのうち少なくとも2つを組み合わせることにより、総合血管マップを提供するための組み合わせコードと、
前記総合血管マップをディスプレイ上に表示させるための表示コードであって、表示された前記総合血管マップは、前記異常な血管を有する前記対象者の前記部分を、正常な血管を有する前記対象者の部分との強化されたコントラストによって示す、表示コードと
を含む、コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862613080P | 2018-01-03 | 2018-01-03 | |
US62/613,080 | 2018-01-03 | ||
PCT/EP2019/050117 WO2019134945A1 (en) | 2018-01-03 | 2019-01-03 | System and method for detecting abnormal tissue using vascular features |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021509987A JP2021509987A (ja) | 2021-04-08 |
JP7181298B2 true JP7181298B2 (ja) | 2022-11-30 |
Family
ID=65031021
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020536838A Active JP7181298B2 (ja) | 2018-01-03 | 2019-01-03 | 血管特徴を使用して異常な組織を検出するためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11406255B2 (ja) |
EP (1) | EP3735674A1 (ja) |
JP (1) | JP7181298B2 (ja) |
CN (1) | CN111801704A (ja) |
WO (1) | WO2019134945A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3397185A1 (en) * | 2015-12-29 | 2018-11-07 | Koninklijke Philips N.V. | System, controller and method using virtual reality device for robotic surgery |
WO2020037530A1 (en) | 2018-08-22 | 2020-02-27 | Waterstone Pharmaceuticals (Wuhan) Co., Ltd. | Crystalline form of compound and uses thereof in medicine |
CN113613543A (zh) * | 2019-03-18 | 2021-11-05 | 奥林巴斯株式会社 | 诊断辅助装置、诊断辅助方法以及程序 |
CN111242866B (zh) * | 2020-01-13 | 2023-06-16 | 重庆邮电大学 | 观测者动态眼位条件下ar-hud虚像畸变校正的神经网络插值方法 |
CN112842285B (zh) * | 2020-12-31 | 2021-09-24 | 山东大学齐鲁医院 | 一种内镜下辅助识别粘膜下血管的方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013543747A (ja) | 2010-11-08 | 2013-12-09 | バソノバ・インコーポレイテッド | 血管内誘導システム |
WO2017057574A1 (ja) | 2015-09-29 | 2017-04-06 | 富士フイルム株式会社 | 画像処理装置、内視鏡システム、及び画像処理方法 |
US20170294015A1 (en) | 2016-04-06 | 2017-10-12 | University Of Washington | Systems and methods for quantitative assessment of microvasculature using optical coherence tomography angiography |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6139490A (en) | 1996-02-22 | 2000-10-31 | Precision Optics Corporation | Stereoscopic endoscope with virtual reality viewing |
US8078262B2 (en) | 2001-04-16 | 2011-12-13 | The Johns Hopkins University | Method for imaging and spectroscopy of tumors and determination of the efficacy of anti-tumor drug therapies |
US7121781B2 (en) | 2003-06-11 | 2006-10-17 | Intuitive Surgical | Surgical instrument with a universal wrist |
JP2007522133A (ja) | 2004-01-23 | 2007-08-09 | エスアールアイ インターナショナル | 光学的血管機能撮像システムと癌性腫瘍の発見と診断方法 |
US7558618B1 (en) * | 2005-01-18 | 2009-07-07 | Darin S Williams | Method for extracting images of vascular structure and blood flow from image sequences |
WO2011083374A1 (en) | 2010-01-08 | 2011-07-14 | Koninklijke Philips Electronics N.V. | Uncalibrated visual servoing using real-time velocity optimization |
BR112012016973A2 (pt) | 2010-01-13 | 2017-09-26 | Koninl Philips Electronics Nv | sistema de navegação cirúrgica para a integração de uma pluralidade de imagens de uma região anatômica de um corpo, incluíndo uma imagem pré-operatótia digitalizada, uma imagem intra-operatória fluoroscópia e uma imagem intra-operatória endoscópica |
JP6282013B2 (ja) | 2011-04-18 | 2018-02-21 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 個人化された閾値を用いる腫瘍組織の分類システム |
WO2013149038A1 (en) | 2012-03-28 | 2013-10-03 | University Of Houston System | Methods and software for screening and diagnosing skin lesions and plant diseases |
US10251714B2 (en) * | 2014-07-25 | 2019-04-09 | Covidien Lp | Augmented surgical reality environment for a robotic surgical system |
CN106663318B (zh) * | 2014-07-25 | 2021-03-16 | 柯惠Lp公司 | 增强手术现实环境 |
JP6184928B2 (ja) * | 2014-09-30 | 2017-08-23 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置 |
US9949700B2 (en) * | 2015-07-22 | 2018-04-24 | Inneroptic Technology, Inc. | Medical device approaches |
EP3357402B1 (en) * | 2015-09-28 | 2020-06-17 | FUJIFILM Corporation | Endoscope system and operation method for endoscope system |
JP6629639B2 (ja) * | 2016-03-07 | 2020-01-15 | 富士フイルム株式会社 | 内視鏡システム、プロセッサ装置、及び、内視鏡システムの作動方法 |
WO2018079205A1 (ja) * | 2016-10-27 | 2018-05-03 | 富士フイルム株式会社 | プロセッサ装置及び内視鏡システム |
US10600183B2 (en) * | 2017-03-22 | 2020-03-24 | Verily Life Sciences Llc | Detection of blood vessels |
-
2019
- 2019-01-03 US US16/959,772 patent/US11406255B2/en active Active
- 2019-01-03 JP JP2020536838A patent/JP7181298B2/ja active Active
- 2019-01-03 CN CN201980016715.7A patent/CN111801704A/zh active Pending
- 2019-01-03 WO PCT/EP2019/050117 patent/WO2019134945A1/en unknown
- 2019-01-03 EP EP19705283.0A patent/EP3735674A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013543747A (ja) | 2010-11-08 | 2013-12-09 | バソノバ・インコーポレイテッド | 血管内誘導システム |
WO2017057574A1 (ja) | 2015-09-29 | 2017-04-06 | 富士フイルム株式会社 | 画像処理装置、内視鏡システム、及び画像処理方法 |
US20170294015A1 (en) | 2016-04-06 | 2017-10-12 | University Of Washington | Systems and methods for quantitative assessment of microvasculature using optical coherence tomography angiography |
Non-Patent Citations (2)
Title |
---|
ALBORZ AMIR-KHALILI; ET AL,AUTOMATIC SEGMENTATION OF OCCLUDED VASCULATURE VIA PULSATILE MOTION ANALYSIS IN ENDOSCOPIC ROBOT-ASSISTED PARTIAL NEPHRECTOMY VIDEO,MEDICAL IMAGE ANALYSIS,英国,2015年10月,VOL:25,PAGE(S):103 - 110,http://dx.doi.org/10.1016/j.media.2015.04.010 |
JONATHAN MCLEOD,EXPLOITING TEMPORAL IMAGE INFORMATION IN MINIMALLY INVASIVE SURGERY,ELECTRONIC THESIS AND DISSERTATION REPOSITORY,2017年,https://ir.lib.uwo.ca/etd/5167/ |
Also Published As
Publication number | Publication date |
---|---|
CN111801704A (zh) | 2020-10-20 |
US20200359884A1 (en) | 2020-11-19 |
EP3735674A1 (en) | 2020-11-11 |
WO2019134945A1 (en) | 2019-07-11 |
US11406255B2 (en) | 2022-08-09 |
JP2021509987A (ja) | 2021-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7181298B2 (ja) | 血管特徴を使用して異常な組織を検出するためのシステム及び方法 | |
US20220192611A1 (en) | Medical device approaches | |
JP6714085B2 (ja) | ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法 | |
Qian et al. | A review of augmented reality in robotic-assisted surgery | |
Bernhardt et al. | The status of augmented reality in laparoscopic surgery as of 2016 | |
Luo et al. | Advanced endoscopic navigation: surgical big data, methodology, and applications | |
Sielhorst et al. | Advanced medical displays: A literature review of augmented reality | |
JP6987893B2 (ja) | 診断試験をリアルタイムの治療に統合する汎用デバイスおよび方法 | |
EP3463032B1 (en) | Image-based fusion of endoscopic image and ultrasound images | |
US9554117B2 (en) | System and method for non-invasive patient-image registration | |
JP6395995B2 (ja) | 医療映像処理方法及び装置 | |
US20220070428A1 (en) | Systems and methods for imaging a patient | |
US20110105895A1 (en) | Guided surgery | |
JP2019511931A (ja) | 輪郭シグネチャを用いた手術画像獲得デバイスの位置合わせ | |
JP2010517632A (ja) | 内視鏡の継続的案内のためのシステム | |
WO2012014437A1 (ja) | 画像処理装置、方法及びプログラム | |
JP7451686B2 (ja) | 器具画像信頼性システム及び方法 | |
US11793402B2 (en) | System and method for generating a three-dimensional model of a surgical site | |
De Paolis et al. | Augmented reality in minimally invasive surgery | |
JP6878028B2 (ja) | 医用画像診断システム及び複合現実画像生成装置 | |
Chen et al. | Image guided and robot assisted precision surgery | |
CN113164022B (zh) | 用于图像引导外科手术的照射校正的近红外(nir)成像 | |
Eck et al. | Display technologies | |
Liu et al. | Augmented Reality in Image-Guided Robotic Surgery | |
Riener et al. | VR for planning and intraoperative support |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221021 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7181298 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |