JP2018522622A - 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム - Google Patents

内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム Download PDF

Info

Publication number
JP2018522622A
JP2018522622A JP2017563017A JP2017563017A JP2018522622A JP 2018522622 A JP2018522622 A JP 2018522622A JP 2017563017 A JP2017563017 A JP 2017563017A JP 2017563017 A JP2017563017 A JP 2017563017A JP 2018522622 A JP2018522622 A JP 2018522622A
Authority
JP
Japan
Prior art keywords
current frame
image stream
semantic
intraoperative
operative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017563017A
Other languages
English (en)
Inventor
クルックナー シュテファン
クルックナー シュテファン
カーメン アリ
カーメン アリ
チェン テレンス
チェン テレンス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2018522622A publication Critical patent/JP2018522622A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • G06V10/421Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30056Liver; Hepatic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Endoscopes (AREA)
  • Nuclear Medicine (AREA)

Abstract

腹腔鏡および内視鏡による2D/2.5D画像データにおけるシーン解析およびモデル融合のための方法およびシステムが開示される。2D画像チャネルと2.5D深度チャネルとを含む術中画像ストリームの目下のフレームを受け取る。術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、術中画像ストリームの目下のフレームに融合させる。ターゲット器官の融合された術前3Dモデルに基づき、術前3D医用画像データから、術中画像ストリームの目下のフレーム内における複数の画素各々へ、セマンティックラベル情報を伝達し、術中画像ストリームの目下のフレームに対しレンダリングされたラベルマップを結果として生じさせる。術中画像ストリームの目下のフレームに対しレンダリングされたラベルマップに基づき、セマンティック分類器をトレーニングする。

Description

発明の背景
本発明は、腹腔鏡画像データまたは内視鏡画像データにおけるセマンティックセグメンテーションおよびシーン解析に関するものであり、さらに詳しくは、セグメンテーションされた術前画像データを用いて、腹腔鏡画像ストリームおよび内視鏡画像ストリームにおいてシーン解析とモデル融合とを同時に行うことに関する。
低侵襲性の外科手術において、画像シーケンスは、外科手術をガイドするために取得された腹腔鏡画像または内視鏡画像である。この場合、複数の2D/2.5D画像を取得し、それらを互いにスティッチングして、観察対象器官の3Dモデルを生成することができる。しかしながら、カメラと器官の動きが複雑であることに起因して、正確な3Dスティッチングは難度が高い。それというのも、かかる3Dスティッチングのためには、複数の腹腔鏡画像または複数の内視鏡画像から成るシーケンスの連続する各フレーム間の対応について、ロバストな推定が必要とされるからである。
発明の概要
本発明によれば、セグメンテーションされた術前画像データを用い、腹腔鏡または内視鏡の画像ストリームのような術中画像ストリームにおいて、シーン解析とモデル融合とを同時に行うための方法およびシステムが提供される。本発明の実施形態によれば、術中画像ストリームの取得されたフレームについて、シーン固有のセマンティック情報を容易に取得できるようにするために、ターゲット器官の術前モデルと術中モデルとの融合が用いられる。本発明の実施形態によれば、術前画像データから術中画像ストリームの個々のフレームへ、セマンティック情報が自動的に伝達され、その後、到来する術中画像のセマンティックセグメンテーションを実施するために、セマンティック情報を有するフレームを用いて分類器をトレーニングすることができる。
本発明の1つの実施形態によれば、2D画像チャネルと2.5D深度チャネルとを含む術中画像ストリームの目下のフレームを受け取る。術前3D医用画像データにセグメンテーションされたターゲット器官の術前3Dモデルを、術中画像ストリームの目下のフレームに融合させる。ターゲット器官の融合された術前3Dモデルに基づき、術前3D医用画像データから、術中画像ストリームの目下のフレーム内における複数の画素各々へ、セマンティックラベル情報を伝達し、術中画像ストリームの目下のフレームに対しレンダリングされたラベルマップを結果として生じさせる。術中画像ストリームの目下のフレームに対しレンダリングされたラベルマップに基づき、セマンティック分類器をトレーニングする。
以下の詳細な説明および添付の図面を参照すれば、本発明のこれらの利点およびその他の利点が、当業者にとって明確なものとなろう。
本発明の1つの実施形態による術前3D画像データを用いた術中画像ストリームにおけるシーン解析方法を示す図である。 本発明の1つの実施形態に従い、術中画像ストリームに対し術前3D医用画像データを剛体レジストレーションする方法を示す図である。 肝臓スキャンの一例および肝臓スキャンの結果得られた対応する2D/2.5Dフレームを示す図である。 本発明を実装可能なコンピュータを示す上位水準のブロック図である。
詳細な説明
本発明は、セグメンテーションされた術前画像データを用いて、腹腔鏡画像データおよび内視鏡画像データにおいてモデル融合とシーン解析とを同時に行う方法およびシステムに関する。本明細書では、モデル融合のための、および腹腔鏡画像および内視鏡画像データといった術中画像データのシーン解析のための方法を視覚的に理解できるように、本発明の実施形態について説明する。1つのディジタル画像は多くの場合、1つまたは複数のオブジェクト(または形状)の複数のディジタル表現から成る。本明細書ではしばしば、1つのオブジェクトのディジタル表現をオブジェクトの識別および操作に関して記述する。かかる操作は、コンピュータシステムのメモリまたは他の回路/ハードウェアにおいて達成される仮想的な操作である。よって、本発明の実施形態は、コンピュータシステム内に記憶されたデータを用いて、コンピュータシステム内で実施可能である、と理解されたい。
ある1つの画像のセマンティックセグメンテーションは、定義されたセマンティックラベルに関して画像領域内の各画素の説明を与えることに重点を置いている。画素レベルのセグメンテーションゆえに、画像内のオブジェクト境界が正確に捕捉される。腹腔鏡や内視鏡の画像など術中画像において器官固有のセグメンテーションおよびシーン解析のために信頼性のある分類器を学習するのは、外観、3D形状、取得設定およびシーン特性における変動に起因して、難度が高い。本発明の実施形態によれば、セグメンテーションされた術前医用画像データたとえばセグメンテーションされた肝臓のコンピュータトモグラフィ(CT)データまたは磁気共鳴(MR)画像データを用いて、オン・ザ・フライでラベルマップが生成される。その目的は、対応する術中RGB−D画像ストリームにおいて同時にシーン解析を行うために特定の分類器をトレーニングするためである。本発明の実施形態によれば、モデル融合のためのプラットフォームとして、3D処理技術および3D表現が用いられる。
本発明の1つの実施形態によれば、自動化された同時に行われるシーン解析およびモデル融合は、取得された腹腔鏡/内視鏡のRGB−D(赤、緑、青の視覚的な、および計算された2.5D深度のマップ)ストリームにおいて実施される。それによって、セグメンテーションされた術前医用画像データに基づき、取得されたビデオフレームについてシーン特有のセマンティック情報の取得が可能となる。バイオメカニカルベースのモダリティの非剛体アライメントを考慮しながら、フレームバイフレームモードを用いて、セマンティック情報が視覚的表面イメージ(すなわちRGB−Dストリーム)へ自動的に伝達される。これによって、臨床処置中の視覚的なナビゲーションおよび自動化された認識がサポートされ、報告作成およびドキュメンテーションのための重要な情報が与えられる。なぜならば、冗長的な情報を本質的な情報へと低減できるからであり、たとえばキーフレームによって、関連性のある解剖学的構造が示され、または内視鏡による取得の本質的なキーとなる視点が抽出される。本明細書で説明する方法をインタラクティブな応答時間で実現することができ、したがって外科手術中にリアルタイムまたはほぼリアルタイムに実施することができる。ここで理解されたいのは、用語「腹腔鏡画像」および「内視鏡画像」は、本明細書では区別なく交換可能に用いられ、用語「術中画像」は、腹腔鏡画像および内視鏡画像を含め、外科手術中または外科的介入中に取得される何らかの医用画像のことを指す、という点である。
図1には、本発明の1つの実施形態による術前3D画像データを用いた術中画像ストリームにおけるシーン解析方法が示されている。図1の方法によれば、セマンティックにラベリングされた画像を生成し、セマンティックセグメンテーションのために機械学習ベースの分類器をトレーニングする目的で、術中画像ストリームのフレームが変換され、フレームに対しセマンティックセグメンテーションが実施される。1つの例示的な実施形態によれば、術前3D医用画像ボリューム中の肝臓のセグメンテーションされた3Dモデルに基づくモデル融合を用いて、肝臓から腫瘍または病巣を取り除く肝臓切除術など、肝臓に対する外科手術のガイダンスのために、肝臓の術中画像シーケンスのフレームにおいてシーン解析を実施するために、図1の方法を使用することができる。
図1を参照すると、ステップ102において、患者の術前3D医用画像データが受け取られる。術前3D医用画像データが、外科手術に先立って取得される。3D医用画像データは、コンピュータトモグラフィ(CT)、磁気共鳴(MR)またはポジトロン・エミッション・トモグラフィ(PET)などのような任意の画像生成モダリティを用いて取得可能な、3D医用画像ボリュームを含むことができる。術前3D医用画像ボリュームを、CTスキャナまたはMRスキャナなどのような画像取得デバイスから直接、受け取ることができ、または事前に記憶されていた3D医用画像ボリュームを、コンピュータシステムのメモリまたはストレージデバイスからロードすることにより、受け取ることができる。1つの可能な実現形態によれば、術前のプラニングフェーズにおいて、画像取得デバイスを用いて術前3D医用画像ボリュームを取得することができ、コンピュータシステムのメモリまたはストレージデバイスに記憶させることができる。次いでこの術前3D医用画像を、外科手術中にメモリまたはストレージシステムからロードすることができる。
術前3D医用画像データは、ターゲット器官などのような解剖学的ターゲットオブジェクトのセグメンテーションされた3Dモデルも含んでいる。術前3D医用画像ボリュームは、解剖学的ターゲットオブジェクトを含んでいる。1つの有利な実現形態によれば、解剖学的ターゲットオブジェクトを肝臓とすることができる。術前ボリュメトリック画像データによって、腹腔鏡や内視鏡による画像などのような術中画像よりも詳細な解剖学的ターゲットオブジェクトのビューをもたらすことができる。解剖学的ターゲットオブジェクトおよび場合によっては他の解剖学的オブジェクトが、術前3D医用画像ボリュームにおいてセグメンテーションされる。表面ターゲット(たとえば肝臓)、クリティカルな構造(たとえば門脈、肝系、胆道)、および他のターゲット(たとえば原発性腫瘍および転移性腫瘍)を、任意のセグメンテーションアルゴリズムを用いて、術前画像データからセグメンテーションすることができる。3D医用画像ボリューム中のすべてのボクセルに、セグメンテーションに対応するセマンティックラベルをラベリングすることができる。たとえば、セグメンテーションを2値セグメンテーションとすることができ、この場合、3D医用画像中の各ボクセルが前景(すなわち解剖学的ターゲット構造)または背景としてラベリングされ、あるいはセグメンテーションは、複数の解剖学的オブジェクトに対応する複数のセマンティックラベルおよび背景ラベルを有することができる。たとえばセグメンテーションアルゴリズムを、機械学習ベースのセグメンテーションアルゴリズムとすることができる。1つの実施形態によれば、たとえば米国特許第7916919号明細書(United States Patent No. 7,916,919)、発明の名称:"System and Method for Segmenting Chambers of a Heart in a Three Dimensional Image"に記載された方法を用いるなどして、マージナルスペースラーニング(MSL)ベースのフレームワークを採用することができる。ここでこの文献を参照したことにより、その開示内容全体が本明細書に取り込まれたものとする。別の実施形態によれば、たとえばグラフカットまたはランダムウォーカーセグメンテーションなどのような半自動セグメンテーション技術を用いることができる。解剖学的ターゲットオブジェクトを、画像取得デバイスからの3D医用画像ボリュームの受け取りに応答して、3D医用画像ボリュームにおいてセグメンテーションすることができる。1つの可能な実現形態によれば、患者の解剖学的ターゲットオブジェクトが外科手術に先立ちセグメンテーションされ、コンピュータシステムのメモリまたはストレージデバイスに記憶され、次いで解剖学的ターゲットオブジェクトのセグメンテーションされた3Dモデルが、外科手術の開始時にコンピュータシステムのメモリまたはストレージデバイスからロードされる。
ステップ104において、術中画像ストリームが受け取られる。術中画像ストリームをビデオと称することもでき、そのビデオのフレーム各々が術中画像である。たとえば術中画像ストリームを、腹腔鏡を介して取得された腹腔鏡画像ストリームまたは内視鏡を介して取得された内視鏡画像ストリームとすることができる。1つの有利な実施形態によれば、術中画像ストリームの各フレームは2D/2.5D画像である。つまり、術中画像シーケンスの各フレームは、複数の画素各々について2D画像外観情報を与える2D画像チャネルと、この2D画像チャネルにおける複数の画素各々に対応する深度情報を与える2.5D深度チャネルとを含んでいる。たとえば、術中画像シーケンスの各フレームを、RGB−D(赤、緑、青+深度)画像とすることができ、この画像は、各画素が1つのRGB値を有するRGB画像と、深度画像(深度マップ)とを含んでおり、深度画像において各画素の値は深度に相応し、または画像取得デバイス(たとえば腹腔鏡または内視鏡)のカメラ中心点からの考察対象画素の距離に相応する。なお、深度データは比較的小さいスケールの3Dポイントクラウドを表す、と述べておくことができる。術中画像の取得に用いられる術中画像取得デバイス(たとえば腹腔鏡または内視鏡)は、各時間フレームについてRGB画像を取得するために、カメラまたはビデオカメラを装備することができ、さらに同様に、各時間フレームについて深度情報を取得するために、タイムオブフライトセンサまたは構造化された光センサを装備することもできる。画像取得デバイスから直接、術中画像ストリームのフレームを受け取ることができる。たとえば1つの有利な実施形態によれば、術中画像ストリームのフレームを、術中画像取得デバイスによってそれらが取得されたときに、リアルタイムで受け取ることができる。別の選択肢として、術中画像シーケンスのフレームを、事前に取得されコンピュータシステムのメモリまたはストレージデバイスに記憶された術中画像をロードすることによって、受け取ることができる。
ステップ106において、術前3D医用画像データと術中医用画像ストリームとの間で、初期の剛体レジストレーションが実施される。この初期の剛体レジストレーションによって、術前医用画像データ中のターゲット器官のセグメンテーションされた3Dモデルが、術中画像ストリームの複数のフレームから生成されたターゲット器官のスティッチングされた3Dモデルとアライメントされる。図2には、本発明の1つの実施形態に従い、術中画像ストリームに対し術前3D医用画像データを剛体レジストレーションする方法が示されている。図2の方法を用いて、図1のステップ106を実現することができる。
図2を参照すると、ステップ202において、術中画像ストリームの最初の複数のフレームが受け取られる。本発明の1つの実施形態によれば、術中画像ストリームの最初の複数のフレームを、ユーザ(たとえば医者、臨床医等)が画像取得デバイス(たとえば腹腔鏡または内視鏡)を用いてターゲット器官の完全なスキャンを実施することによって、取得することができる。このケースでは、術中画像ストリームのフレームがターゲット器官の表面全体をカバーするように、術中画像取得デバイスが画像(フレーム)を連続的に取得している間、ユーザが術中画像取得デバイスを移動させる。目下の変形状態でターゲット器官の画像全体を取得するために、これを外科手術開始時に実施することができる。したがって術中画像ストリームの最初の複数のフレームを、術前3D医用画像データと術中画像ストリームとの初期のレジストレーションに用いることができ、次いで術中画像ストリームの後続のフレームを、シーン解析および外科手術のガイダンスのために用いることができる。図3には、肝臓スキャンの一例および肝臓スキャンの結果得られた対応する2D/2.5Dフレームが示されている。図3に示されているように画像300は、腹腔鏡が複数のポジション302,304,306,308および310にポジショニングされた肝臓スキャンの一例を示しており、この場合、各ポジションにおいて、腹腔鏡は肝臓312に対して配向され、肝臓312の相応の腹腔鏡画像(フレーム)が取得される。画像320は、RGBチャネル322と深度チャネル324とを有する複数の腹腔鏡画像から成る1つのシーケンスを示している。腹腔鏡画像シーケンス320の各フレーム326,328および330は、RGB画像326a,328aおよび330aと、対応する深度画像326b、328bおよび330bとを、それぞれ含んでいる。
再び図2を参照すると、ステップ204において、術中画像ストリームの最初の複数のフレームを相互にスティッチングして、ターゲット器官の術中3Dモデルを生成するために、3Dスティッチング手順が実施される。オーバラップした画像領域を有する対応するフレームを推定する目的で、3Dスティッチング手順によって個々のフレームが整合される。次いで、ペアごとの計算により、それぞれ対応するフレーム間で相対的姿勢に対する仮定を決定することができる。1つの実施形態によれば、対応するフレーム間の相対的姿勢に対する仮定が、対応する2D画像測定および/またはランドマークに基づき推定される。別の実施形態によれば、対応するフレーム間の相対的姿勢に対する仮定が、使用可能な2.5D深度チャネルに基づき推定される。対応する各フレーム間の相対的姿勢に対する仮定を計算する他の方法を用いることもできる。次いで、3Dスティッチング手順を後続のバンドル調整ステップに適用することができ、これによって、推定された相対的姿勢の一連の仮定において最終的な幾何学的構造が最適化され、さらに同様に、画素空間内の2D再投影誤差を最小化することにより2D画像領域において、または対応する3Dポイント間で3D距離が最小化されるメトリック3D空間において、規定された誤差メトリックに関してオリジナルのカメラ姿勢が最適化される。最適化後、取得されたフレームおよび計算されたそれらのカメラ姿勢が、正準ワールド座標系において表示される。3Dスティッチング手順によって、2.5D深度データがスティッチングされて、正準ワールド座標系において高品質かつ高密度なターゲット器官の術中3Dモデルが形成される。ターゲット器官の術中3Dモデルを、表面メッシュとして表示してもよいし、または3Dポイントクラウドとして表示してもよい。術中3Dモデルは、ターゲット器官の詳細なテクスチャ情報を含んでいる。たとえば3D三角形分割に基づく周知の表面メッシュ処理などを用いて、術中画像データの視覚的印象を生成するために、付加的な処理ステップを実施することができる。
ステップ206において、術前3D医用画像データにおけるターゲット器官のセグメンテーションされた3Dモデル(術前3Dモデル)が、ターゲット器官の術中3Dモデルと剛体レジストレーションされる。その際、予備的な剛体レジストレーションが実施され、ターゲット器官のセグメンテーションされた術前3Dモデルと、3Dスティッチング手順によって生成されたターゲット器官の術中3Dモデルとが、1つの共通の座標系内にアライメントされる。1つの実施形態によれば、術前3Dモデルと術中3Dモデルとの間において3つ以上の対応関係を識別することにより、レジストレーションが実施される。これらの対応関係を、解剖学的ランドマークに基づき手動で、または術前モデル214と術中モデルの2D/2.5D深度マップの双方において認識されたユニークなキーポイント(顕著な点)を特定することによって半自動的に、識別することができる。他のレジストレーション手法を用いてもよい。たとえば、いっそう洗練された完全自動レジストレーション方法には、術前画像データの座標系を用いて先験的に(たとえば術中解剖学的スキャンまたは一連の共通の基準によって)プローブ208の追従システムをレジストレーションすることにより、プローブ208を外部で追従するステップが含まれる。1つの有利な実現形態によれば、ターゲット器官の術前3Dモデルがターゲット器官の術中3Dモデルに剛体レジストレーションされたならば、テクスチャ情報がターゲット器官の術中3Dモデルから術前3Dモデルへマッピングされ、ターゲット器官のテクスチャマッピングされた術前3Dモデルが生成される。変形された術前3Dモデルをグラフ構造として表すことにより、マッピングを実施することができる。変形された術前モデル上で可視の三角面はグラフのノードに対応し、(たとえば2つの共通の頂点を共有する)隣接する面はエッジによって結合される。ノードがラベリングされ(たとえばカラーキューまたはセマンティックラベルマップ)、このラベリングに基づきテクスチャ情報がマッピングされる。テクスチャ情報のマッピングに関するさらに詳細な点は、国際出願第PCT/US2015/28120号、発明の名称:"System and Method for Guidance of Laparoscopic Surgical Procedures through Anatomical Model Augmentation"、出願日:2015年4月29日、に記載されている。ここでこの文献を参照したことにより、その開示内容全体が本明細書に取り込まれたものとする。
再び図1を参照すると、ステップ108において、ターゲット器官のバイオメカニカル計算モデルを用いて、術中画像ストリームの目下のフレームに術前3D医用画像データがアライメントされる。このステップによって、ターゲット器官の術前3Dモデルが術中画像ストリームの目下のフレームに融合される。1つの有利な実現形態によれば、バイオメカニカル計算モデルを用いて、セグメンテーションされたターゲット器官の術前3Dモデルが変形され、術前3Dモデルが目下のフレームに関して捕捉された2.5D深度情報にアライメントされる。フレームバイフレームで非剛体レジストレーションを実施することにより、呼吸などのような自然な動きが処理され、同様に影や反射など動きに関連する外観の変動も扱われる。レジストレーションに基づくバイオメカニカルモデルにより、目下のフレームの深度情報を用いて、術前3Dモデルと目下のフレーム内のターゲット器官との対応関係が自動的に推定され、識別された対応関係各々について偏差の最頻値が導出される。偏差の最頻値により、識別された対応関係各々において、術前モデルと目下のフレーム内のターゲット器官との間の空間的に分布したアライメント誤差が、符号化または表示される。偏差の最頻値は、局所的に一致した力から成る3D領域に変換され、これによりターゲット器官に関するバイオメカニカル計算モデルを用いて、術前3Dモデルの変形がガイドされる。1つの実施形態によれば、3D距離を、コンセプトの正規化または重み付けを実施することにより、力に変換することができる。
ターゲット器官に関するバイオメカニカルモデルによって、機械的な組織パラメータと圧力レベルとに基づき、ターゲット器官の変形をシミュレートすることができる。このバイオメカニカルモデルをレジストレーションフレームワークに組み込むために、それらのパラメータが、モデルパラメータの調整に用いられる類似尺度と結合される。1つの実施形態によれば、バイオメカニカルモデルはターゲット器官を、弾性力学方程式により決定される動きを有する均質な線状弾性固体として表す。この方程式を解くために、いくつかの異なる手法を用いることができる。たとえば、術前3Dモデルにおいて規定された四面体要素のメッシュにおいて計算されるならば、トータルラグランジュ陽的力学(total Lagrangian explicit dynamics TLED)有限要素アルゴリズムを用いることができる。バイオメカニカルモデルによってメッシュ要素が変形され、組織の弾性エネルギーを最小化することにより、上述の局所的に一致した力の領域に基づき、術前3Dモデルのメッシュポイントの変位が計算される。バイオメカニカルモデルは、このバイオメカニカルモデルがレジストレーションフレームワークに含まれるように、類似尺度と結合される。この点に関して、術中画像ストリームの目下のフレーム内のターゲット器官と変形された術前3Dモデルとの各対応関係間の類似度を最適化することによって、モデルが収束する(すなわち運動するモデルがターゲットモデルに比べて類似した幾何学的構造に達するとき)まで、バイオメカニカルモデルのパラメータが繰り返し更新される。したがって、バイオメカニカルモデルによって、目下のフレーム内のターゲット器官の変形と一致した術前モデルの物理的に正しい変形がもたらされ、その目的は、術中に収集されたポイントと、変形された術前3Dモデルとの間のポイントごとの距離メトリックを最小化することである。本明細書では、ターゲット器官に関するバイオメカニカルモデルを、弾性力学方程式に関して説明しているが、ターゲット器官の内部構造の動力学を考慮するために、他の構造モデル(たとえばもっと複雑なモデル)を用いてもよい、という点を理解されたい。たとえば、ターゲット器官に関するバイオメカニカルモデルを、非線形の弾性モデル、粘性効果モデル、または非均質材料特性モデル、として表現することができる。他のモデルも同様に考えられる。バイオメカニカルモデルをベースとするレジストレーションについては、国際出願第PCT/US2015/28120号、発明の名称:"System and Method for Guidance of Laparoscopic Surgical Procedures through Anatomical Model Augmentation"、出願日:2015年4月29日、に記載されている。ここでこの文献を参照したことにより、その開示内容全体が本明細書に取り込まれたものとする。
ステップ110において、術前3D医用画像データから術中画像ストリームの目下のフレームへ、セマンティックラベルが伝達される。ステップ106および108において計算された剛体レジストレーションと非剛体変形とをそれぞれ用いて、可視表面データとその下にある幾何学的情報との間の厳密な相関を推定することができ、したがってセマンティックアノテーションおよびセマンティックラベルを、モデル融合によって術前3D医用画像データから術中画像シーケンスの目下の画像領域へ、信頼性を伴って伝達することができる。このステップにおいて、モデル融合のためにターゲット器官の術前3Dモデルが用いられる。この3D表現によって、2Dから3Dへの、およびその逆への、密な対応関係を推定することができ、つまり術中画像ストリームの1つの特定の2Dフレーム内のすべてのポイントについて、術前3D医用画像データにおいて対応する情報に正確にアクセスすることができる。したがって術中ストリームにおけるRGB−Dフレームの計算された姿勢を用いて、術前3D医用画像データから術中画像ストリームの各フレーム内の各画素へ、視覚的、幾何学的およびセマンティックな情報を伝達することができる。次いで、術中画像ストリームの各フレームと、ラベリングされた術前3D医用画像データとの間で確立されたリンクを用いて、最初にラベリングされたフレームが生成される。つまり、剛体レジストレーションと非剛体変形とを用いて、術前3D医用画像データを変換することによって、ターゲット器官の術前3Dモデルが術中画像ストリームの目下のフレームと融合される。ターゲット器官の術前3Dモデルを目下のフレームと融合させるために、術前3D医用画像データがアライメントされたならば、レンダリングまたは可視性チェックをベースとする同様の技術(たとえばAABBツリーまたはZバッファをベースとするレンダリング)を用いて、目下のフレームに対応する2D投影画像が術前3D医用画像データ中に規定され、2D投影画像中の各画素ロケーションに対するセマンティックラベル(ならびに視覚的および幾何学的な情報)が、目下のフレーム内の対応する画素に伝達され、その結果、目下のアライメントされた2Dフレームに対しレンダリングされたラベルマップが得られる。
ステップ112において、最初にトレーニングされたセマンティック分類器が、目下のフレーム内の伝達されたセマンティックラベルに基づき更新される。トレーニング済みセマンティック分類器は、目下のフレーム内の伝達されたセマンティックラベルに基づき、シーン特有の外観および目下のフレームからの2.5D深度キューによって更新される。この場合、目下のフレームからトレーニングサンプルを選択し、セマンティック分類器の再トレーニングに使用されるトレーニングサンプルのプール中に含まれる目下のフレームからのトレーニングサンプルを用いて、このセマンティック分類器を再トレーニングすることにより、セマンティック分類器が更新される。オンラインの教師あり学習技術またはランダムフォレストなどのような高速学習器を用いて、セマンティック分類器をトレーニングすることができる。各セマンティッククラス(たとえばターゲット器官および背景)からの新たなトレーニングサンプルが、目下のフレームのために伝達されたセマンティックラベルに基づき、目下のフレームからサンプリングされる。1つの可能な実現形態によれば、予め決められた個数の新たなトレーニングサンプルを、このステップを繰り返すたびに目下のフレーム内の各セマンティッククラスのために、ランダムにサンプリングすることができる。さらに別の可能な実現形態によれば、予め決められた個数の新たなトレーニングサンプルを、このステップの初回の反復において、目下のフレーム内の各セマンティッククラスのためにランダムにサンプリングすることができ、以降の反復のたびに、先行の反復中にトレーニングされたセマンティック分類器を用いて間違って分類されていた画素を選択することによって、トレーニングサンプルを選択することができる。
目下のフレーム内の新たなトレーニングサンプル各々を取り囲む画像パッチから、統計的画像フィーチャが抽出され、この画像パッチに対する特徴ベクトルを用いて分類器がトレーニングされる。1つの有利な実施形態によれば、目下のフレームの2D画像チャネルと2.5D深度チャネルとから、統計的画像フィーチャが抽出される。この分類のために統計的画像フィーチャを使用できる理由は、それらは画像データの統合された下位水準のフィーチャ階層間の分散および共分散を捕捉しているからである。有利な実現形態によれば、二次までの統計(すなわち平均および分散/共分散)を計算する目的で、目下のフレームのRGB画像のカラーチャネルと、目下のフレームの深度画像からの深度情報とが、各トレーニングサンプルを取り囲む画像パッチ内において統合される。たとえば、この画像パッチ内における平均および分散などの統計を、個々のフィーチャチャネル各々について計算することができ、この画像パッチ内における各フィーチャチャネルペア間の共分散を、複数のチャネルペアを考慮することによって計算することができる。特に、関与する各チャネル間の分散によって、たとえば肝臓のセグメンテーションにおいて弁別力がもたらされ、この場合、テクスチャとカラーとの相関は、周囲の胃の領域から可視の肝臓セグメントを弁別するために役立つ。深度情報から計算された統計的フィーチャによって、目下の画像中の表面特性に関連する付加的な情報がもたらされる。RGB画像のカラーチャネルと、深度画像からの深度データとに加えて、RGB画像および/または深度画像を種々のフィルタによって処理することができ、フィルタレスポンスを統合して、各画素について付加的な統計的フィーチャ(たとえば平均、分散、共分散)を計算するために使用することもできる。フィルタは、たとえば微分フィルタ、フィルタバンクなどである。たとえば、純然たるRGB値に対する操作に加え、任意の種類のフィルタリング(たとえば微分フィルタ、フィルタバンク等)を用いることができる。統合構造を用いて統計的フィーチャを効率的に計算することができ、たとえばグラフィック処理ユニット(GPU)または汎用GPU(GPGPU)などのような大規模並列処理アーキテクチャを用いるなどして並列化することができ、このようなアーキテクチャによってインタラクティブなレスポンスタイムを実現することができる。1つの所定の画素を中心とする画像パッチに対する複数の統計的フィーチャが合成されて、1つの特徴ベクトルが形成される。1つの画素についてベクトル化されたフィーチャ記述子は、その画素を中心とする画像パッチを表す。トレーニング中、特徴ベクトルに、術前3D医用画像データから対応する画素へ伝達されたセマンティックラベル(たとえば肝臓の画素対背景など)が割り当てられ、これらは機械学習ベースの分類器をトレーニングするために用いられる。1つの有利な実施形態によれば、トレーニングデータに基づきランダム決定木分類器がトレーニングされるけれども、本発明はこれに限定されるものではなく、他のタイプの分類器も同様に使用することができる。トレーニング済み分類器は、たとえばコンピュータシステムのメモリまたはストレージデバイスに記憶される。
本明細書ではステップ112は、トレーニング済みセマンティック分類器を更新するステップとして記載されているけれども、ここで理解されたいのは、トレーニングデータの新たな集合(すなわち目下のフレーム各々)が使用可能になったときに、すでに確立されたトレーニング済みセマンティック分類器を、その新たな集合に整合するために、このステップを実施してもよいし、1つまたは複数のセマンティックラベルに対し新たなセマンティック分類器のためのトレーニングフェーズを導入するために、このステップを実施してもよい、ということである。新たなセマンティック分類器がトレーニングされる上述のようなケースにおいて、このセマンティック分類器を、最初に1つのフレームを用いてトレーニングしてもよいし、または別の選択肢として、複数のフレームについてステップ108および110を実施してもよく、これによればいっそう多くの個数のトレーニングサンプルが累積され、次いでこのセマンティック分類器を、複数のフレームから抽出されたトレーニングサンプルを用いてトレーニングすることができる。
ステップ114において、トレーニング済みセマンティック分類器を用いて、術中画像ストリームの目下のフレームがセマンティックセグメンテーションされる。つまり、当初取得された目下のフレームが、ステップ112において更新されたトレーニング済みセマンティック分類器を用いてセグメンテーションされる。術中画像シーケンスの目下のフレームのセマンティックセグメンテーションを実施する目的で、ステップ112においてすでに説明したとおり、目下のフレームの各画素を取り囲む1つの画像パッチについて、統計的フィーチャの1つの特徴ベクトルが抽出される。トレーニング済み分類器は、各画素に対応づけられた特徴ベクトルを評価し、各画素について各セマンティックオブジェクトクラスの確率を計算する。計算された確率に基づき、1つのラベル(たとえば肝臓または背景)を各画素に割り当てることもできる。1つの実施形態によれば、トレーニング済み分類器を、ターゲット器官または背景という2つのオブジェクトクラスだけを有する2値分類器としてもよい。たとえば、トレーニング済み分類器は、計算された確率に基づき各画素について、肝臓の画素であることの確率を計算して、各画素を肝臓または背景として分類することができる。1つの択一的な実施形態によれば、トレーニング済み分類器を多クラス分類器とすることができ、この分類器は、複数の異なる解剖学的構造と背景とに対応する複数のクラスについて、各画素ごとに確率を計算する。たとえば、各画素を胃と肝臓と背景とにセグメンテーションするために、ランダムフォレスト分類器をトレーニングすることができる。
ステップ116において、目下のフレームについて停止判定基準が満たされているか否かが決定される。1つの実施形態によれば、トレーニング済み分類器を用いたセマンティックセグメンテーションの結果得られた目下のフレームに関するセマンティックラベルマップが、術前3D医用画像データから伝達された目下のフレームに関するラベルマップと比較され、トレーニング済みセマンティック分類器を用いたセマンティックセグメンテーションの結果得られたラベルマップが、術前3D医用画像データから伝達されたラベルマップに収束したならば(すなわち各ラベルマップ中のセグメンテーションされたターゲット器官の間の誤差が閾値よりも小さいならば)、停止判定基準が満たされる。別の実施形態によれば、目下の反復におけるトレーニング済み分類器を用いたセマンティックセグメンテーションの結果得られた目下のフレームのセマンティックラベルマップが、先行の反復においてトレーニング済み分類器を用いたセマンティックセグメンテーションの結果得られたラベルマップと比較され、目下の反復からのラベルマップと先行の反復からのラベルマップ中のセグメンテーションされたターゲット器官の姿勢における変化が閾値よりも小さいならば、停止判定基準が満たされる。さらに別の可能な実施形態によれば、ステップ112および114が予め定められた最大反復回数だけ実施されたならば、停止判定基準が満たされる。停止判定基準が満たされていないと判定されたならば、この方法はステップ112へ戻り、さらに多くのトレーニングサンプルを目下のフレームから抽出して、トレーニング済み分類器を再び更新する。1つの可能な実現形態によれば、ステップ112が反復されるときに、ステップ114においてトレーニング済み分類器により間違って分類されていた目下のフレーム内の画素が、トレーニングサンプルとして選択される。停止判定基準が満たされていると判定されたならば、この方法はステップ118へと進む。
ステップ118において、セマンティックセグメンテーションされた目下のフレームが出力される。一例として、たとえばトレーニング済みセマンティック分類器により得られたセマンティックセグメンテーション結果(すなわちラベルマップ)および/またはモデル融合により得られたセマンティックセグメンテーション結果と、術前3D医用画像データから伝達されたセマンティックラベルとを、コンピュータシステムのディスプレイデバイスに表示することによって、セマンティックセグメンテーションされた目下のフレームを出力することができる。1つの可能な実現形態によれば、目下のフレームがディスプレイデバイスに表示されるときに、術前3D医用画像データと、特にターゲット器官の術前3Dモデルとを、目下のフレームに重ね合わせることができる。
1つの有利な実施形態によれば、目下のフレームのセマンティックセグメンテーションに基づき、セマンティックラベルマップを生成することができる。トレーニング済み分類器を用いて各セマンティッククラスの確率が計算されて、各画素にセマンティッククラスがラベリングされると、グラフベースの方法を用いて、器官境界などのようなRGB画像構造に関して画素のラベリングを精密化することができる一方、各セマンティッククラスについて各画素の信頼度(確率)が考慮される。グラフベースの方法を、条件付き確率場方式(CRF)に基づくものとすることができ、これは目下のフレーム内の画素について計算された確率と、他のセグメンテーション技術を用いて目下のフレーム内で抽出された器官境界とを使用して、目下のフレーム内の画素のラベリングを精密化する。この場合、目下のフレームのセマンティックセグメンテーションを表すグラフが生成される。このグラフには、複数のノードと、それらのノードを結合する複数のエッジとが含まれている。グラフのノードは、目下のフレーム内の画素と、各セマンティッククラスの対応する信頼度とを表す。エッジの重み付けは、2.5Dの深度データと2DのRGBデータとに対して実施される境界抽出手順から導出される。グラフベースの方法によって、各ノードがセマンティックラベルを表すグループに分類され、各ノードについてのセマンティッククラスの確率とノードを結合するエッジの重み付けとに基づくエネルギー関数を最小化するために、ノードの最良のグループ分けが見つけ出される。その際、エッジの重み付けは、抽出された器官境界と交差するノードを結合するエッジに対するペナルティ関数として振る舞う。その結果、目下のフレームに対する精密化されたセマンティックマップが得られ、これをコンピュータシステムのディスプレイデバイスに表示させることができる。
ステップ120において、術中画像ストリームの複数のフレームにわたり、ステップ108〜118が繰り返される。したがってフレームごとに、ターゲット器官の術前3Dモデルがそのフレームと融合され、術前3D医用画像データからそのフレームに伝達されたセマンティックラベルを用いて、トレーニング済み分類器が更新(再トレーニング)される。これらのステップを、予め定められたフレーム数にわたり反復することができ、またはトレーニング済み分類器が収束するまで反復することができる。
ステップ122において、トレーニング済みセマンティック分類器を用いて、術中画像ストリームの付加的に取得されたフレームに対して、セマンティックセグメンテーションが実施される。さらに、1人の患者のそれぞれ異なる外科手術におけるものであったり、または異なる患者の外科手術に関するものなど、それぞれ異なる術中画像シーケンスのフレームにおいてセマンティックセグメンテーションを実施するために、トレーニング済み分類器を用いることも同様に可能である。トレーニング済みセマンティック分類器を用いた術中画像のセマンティックセグメンテーションに関する付加的な詳細は、[Siemens 照会番号No. 201424415 必要な情報を追記する予定]に記載されている。ここでこの文献を参照したことにより、その開示内容全体が本明細書に取り込まれたものとする。冗長な画像データがキャプチャリングされて、3Dスティッチングのために用いられるので、生成されたセマンティック情報を、2D−3D対応関係を用いて術前3D医用画像データと融合させ照合することができる。
1つの可能な実施形態によれば、ターゲット器官の完全なスキャニングに対応する術中画像シーケンスの付加的なフレームを取得することができ、フレーム各々に対しセマンティックセグメンテーションを実施することができ、セマンティックセグメンテーション結果を用いて、それらのフレームの3Dスティッチングをガイドして、ターゲット器官の更新された術中3Dモデルを生成することができる。それぞれ異なるフレームにおける対応関係に基づき、個々のフレームを相互にアライメントすることによって、3Dスティッチングを実施することができる。1つの有利な実現形態によれば、セマンティックセグメンテーションされたフレームにおけるターゲット器官の画素の結合領域(たとえば肝臓の画素の結合領域)を用いて、各フレーム間の対応関係を推定することができる。したがって、各フレームにおけるターゲット器官のセマンティックセグメンテーションされた結合領域に基づき、複数のフレームを互いにスティッチングすることによって、ターゲット器官の術中3Dモデルを生成することができる。スティッチングされた術中3Dモデルを、考察されている各オブジェクトクラスの確率を用いてセマンティックに拡充することができ、3Dモデルを生成するために用いられたスティッチングされたフレームのセマンティックセグメンテーション結果から得られた3Dモデルに、それらの確率がマッピングされる。1つの例示的な実現形態によれば、クラスラベルを各3Dポイントに割り当てることにより、3Dモデルを「カラー化」するために、確率マップを用いることができる。このことは、スティッチングプロセスにより知られている3Dから2Dへの投影を用いたクイックルックアップによって、行うことができる。次いで、クラスラベルに基づき各3Dポイントに1つのカラーを割り当てることができる。更新されたこの術中3Dモデルは、術前3D医用画像データと術中画像ストリームとの間で剛体レジストレーションを実施するために用いられる本来の術中3Dモデルよりも、正確なものとなる可能性がある。よって、更新された術中3Dモデルを用い、ステップ106を繰り返して剛体レジストレーションを実施することができ、その後、術中画像ストリームの複数のフレームから成る新たな集合について、ステップ108〜120を繰り返すことができ、それによってトレーニング済み分類器をさらに更新する。このシーケンスを反復して、術中画像ストリームと術前3D医用画像データとの間のレジストレーションの精度、ならびにトレーニング済み分類器の精度を、繰り返し改善することができる。
腹腔鏡画像および内視鏡画像データのセマンティックなラベリング、ならびに種々の器官へのセグメンテーションは、種々の視点のために正確なアノテーションが必要とされることから、時間がかかる可能性がある。上述の方法によれば、ラベリングされた術前医用画像データが用いられ、この画像データを、CT,MR,PET等に適用される高度に自動化された3Dセグメンテーション手順から取得することができる。腹腔鏡画像および内視鏡画像データに対してモデルを融合させることにより、予め画像/ビデオフレームをラベリングする必要なく、腹腔鏡画像および内視鏡画像データのために、機械学習ベースのセマンティック分類器をトレーニングすることができる。シーン解析(セマンティックセグメンテーション)のために汎用分類器をトレーニングするのは、現実世界では形状、外観、テクスチャ等に変化が生じることから、難度が高い。上述の方法によれば、取得およびナビゲーション中にオン・ザ・フライで学習される特定の患者またはシーンの情報が用いられる。さらに、融合された情報(RGB−Dおよび術前ボリュメトリックデータ)およびそれらの関係を使用できることから、外科手術におけるナビゲーション中にセマンティック情報を効率的に呈示できるようになる。また、融合された情報(RGB−Dおよび術前ボリュメトリックデータ)およびセマンティクスのレベルにおけるそれらの関係を使用できることから、報告作成およびドキュメンテーションのために効率的な情報解析を行うことができる。
術中画像ストリームにおけるシーン解析およびモデル融合のための上述の方法を、周知のコンピュータプロセッサ、メモリユニット、ストレージデバイス、コンピュータソフトウェア、および他の構成要素を用いて、コンピュータ上で実装することができる。図4には、かかるコンピュータの上位水準のブロック図が示されている。コンピュータ402はプロセッサ404を含み、このプロセッサ404は、コンピュータ402のすべてのオペレーションを規定するコンピュータプログラム命令を実行することで、かかるコンピュータ402のオペレーションを制御する。コンピュータプログラム命令を、ストレージデバイス412(たとえば磁気ディスク)に記憶させておくことができ、コンピュータプログラム命令の実行が望まれるときに、メモリ410にロードすることができる。したがって図1および図2に示した方法の各ステップを、メモリ410および/またはストレージデバイス412に記憶されたコンピュータプログラム命令によって規定することができ、それらのコンピュータプログラム命令を実行するプロセッサ404によって制御することができる。コンピュータ402に画像データを入力するために、腹腔鏡、内視鏡、CTスキャナ、MRスキャナ、PETスキャナ等の画像取得デバイス420を、コンピュータ402と接続することができる。画像取得デバイス420とコンピュータ402とが、ネットワークを介してワイヤレスで通信し合うようにすることができる。さらにコンピュータ402には、ネットワークを介して他のデバイスと通信するための1つまたは複数のインタフェース406も含まれている。さらにコンピュータ402には、コンピュータ402とのユーザインタラクションを可能にする他の入/出力デバイス408も含まれている(たとえばディスプレイ、キーボード、マウス、スピーカ、ボタン等)。かかる入/出力デバイス408を一連のコンピュータプログラムと連携させて、画像取得デバイス420から受け取ったボリュームにアノテーションを付与するアノテーションツールとして用いることができる。当業者であれば、実際のコンピュータの実装にさらに別の構成要素も同様に含めることができること、また、図4は、例示を目的として、かかるコンピュータの構成要素のいくつかを上位水準で表現したものであること、を理解するであろう。
ここで理解されたいのは、これまで述べてきた詳細な説明は、あらゆる点で例示的なものであり具体例であって、何ら限定的なものではないことであり、本明細書で開示した本発明の範囲は、詳細な説明に基づき決定されるべきものではなく、特許法によって認められる範囲全体に従って解釈される各請求項に基づき決定されるべきものである。さらに理解されたいのは、本明細書で示し説明した実施形態は、本発明の原理を例示したものにすぎないこと、当業者であれば本発明の範囲および着想を逸脱することなく様々な変更を実現できることである。当業者であるならば、本発明の範囲および着想を逸脱することなく、さらに別の様々な特徴の組み合わせを実現できるであろう。
ステップ122において、トレーニング済みセマンティック分類器を用いて、術中画像ストリームの付加的に取得されたフレームに対して、セマンティックセグメンテーションが実施される。さらに、1人の患者のそれぞれ異なる外科手術におけるものであったり、または異なる患者の外科手術に関するものなど、それぞれ異なる術中画像シーケンスのフレームにおいてセマンティックセグメンテーションを実施するために、トレーニング済み分類器を用いることも同様に可能である。トレーニング済みセマンティック分類器を用いた術中画像のセマンティックセグメンテーションに関する付加的な詳細は、PCT/US2015/028120に記載されている。ここでこの文献を参照したことにより、その開示内容全体が本明細書に取り込まれたものとする。冗長な画像データがキャプチャリングされて、3Dスティッチングのために用いられるので、生成されたセマンティック情報を、2D−3D対応関係を用いて術前3D医用画像データと融合させ照合することができる。

Claims (40)

  1. 術中画像ストリームにおけるシーン解析のための方法であって、以下のステップを含む、すなわち、
    ・2D画像チャネルと2.5D深度チャネルとを含む術中画像ストリームの目下のフレームを受け取るステップと、
    ・術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させるステップと、
    ・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにするステップと、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングするステップと、
    を含む、
    術中画像ストリームにおけるシーン解析のための方法。
  2. 術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させる前記ステップは、
    ・前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施するステップと、
    ・前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させるステップと、
    を含む、
    請求項1記載の方法。
  3. 前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施する前記ステップは、
    ・前記術中画像ストリームの複数のフレームをスティッチングして、前記ターゲット器官の術中3Dモデルを生成するステップと、
    ・前記ターゲット器官の前記術前3Dモデルと、前記ターゲット器官の前記術中3Dモデルとの間において、剛体レジストレーションを実施するステップと、
    を含む、
    請求項2記載の方法。
  4. 前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる前記ステップは、
    前記術前3D医用画像データを、前記術中画像ストリームの前記目下のフレームの前記2.5D深度チャネルにおける深度情報にアライメントするために、前記ターゲット器官に関する前記バイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させるステップ、
    を含む、
    請求項2記載の方法。
  5. 前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる前記ステップは、
    ・前記ターゲット器官の前記術前3Dモデルと、前記目下のフレームにおける前記ターゲット器官との間の対応関係を推定するステップと、
    ・前記対応関係に基づき前記ターゲット器官に及ぼされる力を推定するステップと、
    ・推定された前記力に基づき、前記ターゲット器官に関する前記バイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルの変形をシミュレートするステップと、
    を含む、
    請求項2記載の方法。
  6. 前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにする前記ステップは、
    ・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術中画像ストリームの前記目下のフレームに対し、前記術前3D医用画像データをアライメントするステップと、
    ・前記術中画像ストリームの前記目下のフレームに対応する前記3D医用画像データにおける投影画像を、前記目下のフレームの姿勢に基づき推定するステップと、
    ・前記3D医用画像データにおいて推定された前記投影画像中の複数の画素ロケーション各々から、前記術中画像ストリームの前記目下のフレーム内の前記複数の画素のうち対応する1つの画素へ、セマンティックラベルを伝達することによって、前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップを描出するステップと、
    を含む、
    請求項1記載の方法。
  7. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記ステップは、
    前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、トレーニング済みセマンティック分類器を更新するステップ、
    を含む、
    請求項1記載の方法。
  8. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記ステップは、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の1つまたは複数のラベリングされたセマンティッククラス各々において、トレーニングサンプルをサンプリングするステップと、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングするステップと、
    を含む、
    請求項1記載の方法。
  9. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングする前記ステップは、
    ・前記術中画像ストリームの前記目下のフレームにおける前記トレーニングサンプル各々を取り囲む個々の画像パッチにおいて、前記2D画像チャネルと前記2.5D深度チャネルとから統計的フィーチャを抽出するステップと、
    ・前記トレーニングサンプル各々について抽出された前記統計的フィーチャと、レンダリングされた前記ラベルマップにおいて前記トレーニングサンプル各々に対応づけられたセマンティックラベルとに基づき、前記セマンティック分類器をトレーニングするステップと、
    を含む、
    請求項8記載の方法。
  10. トレーニング済みセマンティック分類器を用いて、前記術中画像ストリームの前記目下のフレームに対しセマンティックセグメンテーションを実施するステップをさらに含む、
    請求項8記載の方法。
  11. ・前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られたラベルマップを、前記目下のフレームに対しレンダリングされた前記ラベルマップと比較するステップと、
    ・前記1つまたは複数のセマンティッククラス各々からサンプリングされた付加的なトレーニングサンプルを用いて、前記セマンティック分類器の前記トレーニングを反復し、前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップが、前記目下のフレームに対しレンダリングされた前記ラベルマップへと収束するまで、前記トレーニング済みセマンティック分類器を用いて前記セマンティックセグメンテーションを実施するステップと、
    をさらに含む、
    請求項10記載の方法。
  12. 前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップ内において、間違って分類されていた前記術中画像ストリームの前記目下のフレーム内の画素から、付加的なトレーニングサンプルを選択する、
    請求項11記載の方法。
  13. 前記1つまたは複数のセマンティッククラス各々からサンプリングされた付加的なトレーニングサンプルを用いて、前記セマンティック分類器の前記トレーニングを反復し、前記ターゲット器官の姿勢が、前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップ内に収束するまで、前記トレーニング済みセマンティック分類器を用いて前記セマンティックセグメンテーションを実施するステップ、
    をさらに含む、
    請求項10記載の方法。
  14. 前記術中画像ストリームの1つまたは複数の後続フレーム各々について、受け取り、融合させ、伝達し、トレーニングする前記ステップを反復するステップ、
    をさらに含む、
    請求項1記載の方法。
  15. ・前記術中画像ストリームの1つまたは複数の後続フレームを受け取るステップと、
    ・前記術中画像ストリームの前記1つまたは複数の後続フレーム各々において、前記トレーニング済みセマンティック分類器を用いてセマンティックセグメンテーションを実施するステップと、
    をさらに含む、
    請求項1記載の方法。
  16. 前記ターゲット器官の術中3Dモデルを生成するために、前記術中画像ストリームの前記1つまたは複数の後続フレーム各々に対する前記セマンティックセグメンテーション結果に基づき、前記術中画像ストリームの前記1つまたは複数の後続フレームをスティッチングするステップ、
    をさらに含む、
    請求項15記載の方法。
  17. 術中画像ストリームにおけるシーン解析のための装置であって、
    ・2D画像チャネルと2.5D深度チャネルとを含む術中画像ストリームの目下のフレームを受け取る手段と、
    ・術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させる手段と、
    ・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにする手段と、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする手段と、
    を含む、
    術中画像ストリームにおけるシーン解析のための装置。
  18. 術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させる前記手段は、
    ・前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施する手段と、
    ・前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる手段と、
    を含む、
    請求項17記載の装置。
  19. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記手段は、
    前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、トレーニング済みセマンティック分類器を更新する手段、
    を含む、
    請求項17記載の装置。
  20. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記手段は、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の1つまたは複数のラベリングされたセマンティッククラス各々において、トレーニングサンプルをサンプリングする手段と、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングする手段と、
    を含む、
    請求項17記載の装置。
  21. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングする前記手段は、
    ・前記術中画像ストリームの前記目下のフレームにおける前記トレーニングサンプル各々を取り囲む個々の画像パッチにおいて、前記2D画像チャネルと前記2.5D深度チャネルとから統計的フィーチャを抽出する手段と、
    ・前記トレーニングサンプル各々について抽出された前記統計的フィーチャと、レンダリングされた前記ラベルマップにおいて前記トレーニングサンプル各々に対応づけられたセマンティックラベルとに基づき、前記セマンティック分類器をトレーニングする手段と、
    を含む、
    請求項20記載の装置。
  22. トレーニング済みセマンティック分類器を用いて、前記術中画像ストリームの前記目下のフレームに対しセマンティックセグメンテーションを実施する手段をさらに含む、
    請求項20記載の装置。
  23. ・前記術中画像ストリームの1つまたは複数の後続フレームを受け取る手段と、
    ・前記術中画像ストリームの前記1つまたは複数の後続フレーム各々において、前記トレーニング済みセマンティック分類器を用いてセマンティックセグメンテーションを実施する手段と、
    をさらに含む、
    請求項17記載の装置。
  24. 前記ターゲット器官の術中3Dモデルを生成するために、前記術中画像ストリームの前記1つまたは複数の後続フレーム各々に対する前記セマンティックセグメンテーション結果に基づき、前記術中画像ストリームの前記1つまたは複数の後続フレームをスティッチングする手段、
    をさらに含む、
    請求項23記載の装置。
  25. 術中画像ストリームにおけるシーン解析のためのコンピュータプログラム命令を記憶する非一時的なコンピュータ読み取り可能媒体であって、
    前記コンピュータプログラム命令は、プロセッサによって実行されると、該プロセッサに以下のオペレーションを実施させる、すなわち、
    ・2D画像チャネルと2.5D深度チャネルとを含む術中画像ストリームの目下のフレームを受け取るオペレーションと、
    ・術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させるオペレーションと、
    ・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにするオペレーションと、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングするオペレーションと、
    を実施させる、
    非一時的なコンピュータ読み取り可能媒体。
  26. 術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させる前記オペレーションは、
    ・前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施するオペレーションと、
    ・前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させるオペレーションと、
    を含む、
    請求項25記載の非一時的なコンピュータ読み取り可能媒体。
  27. 前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施する前記オペレーションは、
    ・前記術中画像ストリームの複数のフレームをスティッチングして、前記ターゲット器官の術中3Dモデルを生成するオペレーションと、
    ・前記ターゲット器官の前記術前3Dモデルと、前記ターゲット器官の前記術中3Dモデルとの間において、剛体レジストレーションを実施するオペレーションと、
    を含む、
    請求項26記載の非一時的なコンピュータ読み取り可能媒体。
  28. 前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる前記オペレーションは、
    前記術前3D医用画像データを、前記術中画像ストリームの前記目下のフレームの前記2.5D深度チャネルにおける深度情報にアライメントするために、前記ターゲット器官に関する前記バイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させるオペレーションを含む、
    請求項26記載の非一時的なコンピュータ読み取り可能媒体。
  29. 前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる前記オペレーションは、
    ・前記ターゲット器官の前記術前3Dモデルと、前記目下のフレームにおける前記ターゲット器官との間の対応関係を推定するオペレーションと、
    ・前記対応関係に基づき前記ターゲット器官に及ぼされる力を推定するオペレーションと、
    ・推定された前記力に基づき、前記ターゲット器官に関する前記バイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルの変形をシミュレートするオペレーションと、
    を含む、
    請求項26記載の非一時的なコンピュータ読み取り可能媒体。
  30. 前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにする前記オペレーションは、
    ・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術中画像ストリームの前記目下のフレームに対し、前記術前3D医用画像データをアライメントするオペレーションと、
    ・前記術中画像ストリームの前記目下のフレームに対応する前記3D医用画像データにおける投影画像を、前記目下のフレームの姿勢に基づき推定するオペレーションと、
    ・前記3D医用画像データにおいて推定された前記投影画像中の複数の画素ロケーション各々から、前記術中画像ストリームの前記目下のフレーム内の前記複数の画素のうち対応する1つの画素へ、セマンティックラベルを伝達することによって、前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップを描出するオペレーションと、
    を含む、
    請求項25記載の非一時的なコンピュータ読み取り可能媒体。
  31. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記オペレーションは、
    前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、トレーニング済みセマンティック分類器を更新するオペレーション、
    を含む、
    請求項25記載の非一時的なコンピュータ読み取り可能媒体。
  32. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記オペレーションは、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の1つまたは複数のラベリングされたセマンティッククラス各々において、トレーニングサンプルをサンプリングするオペレーションと、
    ・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングするオペレーションと、
    を含む、
    請求項26記載の非一時的なコンピュータ読み取り可能媒体。
  33. 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングする前記オペレーションは、
    ・前記術中画像ストリームの前記目下のフレームにおける前記トレーニングサンプル各々を取り囲む個々の画像パッチにおいて、前記2D画像チャネルと前記2.5D深度チャネルとから統計的フィーチャを抽出するオペレーションと、
    ・前記トレーニングサンプル各々について抽出された前記統計的フィーチャと、レンダリングされた前記ラベルマップにおいて前記トレーニングサンプル各々に対応づけられたセマンティックラベルとに基づき、前記セマンティック分類器をトレーニングするオペレーションと、
    を含む、
    請求項32記載の非一時的なコンピュータ読み取り可能媒体。
  34. 前記オペレーションはさらに、
    トレーニング済みセマンティック分類器を用いて、前記術中画像ストリームの前記目下のフレームに対しセマンティックセグメンテーションを実施するオペレーション、
    を含む、
    請求項32記載の非一時的なコンピュータ読み取り可能媒体。
  35. 前記オペレーションはさらに、
    ・前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られたラベルマップを、前記目下のフレームに対しレンダリングされた前記ラベルマップと比較するオペレーションと、
    ・前記1つまたは複数のセマンティッククラス各々からサンプリングされた付加的なトレーニングサンプルを用いて、前記セマンティック分類器の前記トレーニングを反復し、前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップが、前記目下のフレームに対しレンダリングされた前記ラベルマップへと収束するまで、前記トレーニング済みセマンティック分類器を用いて前記セマンティックセグメンテーションを実施するオペレーションと、
    を含む、
    請求項34記載の非一時的なコンピュータ読み取り可能媒体。
  36. 前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップ内において、間違って分類されていた前記術中画像ストリームの前記目下のフレーム内の画素から、付加的なトレーニングサンプルを選択する、
    請求項35記載の非一時的なコンピュータ読み取り可能媒体。
  37. 前記オペレーションはさらに、
    前記1つまたは複数のセマンティッククラス各々からサンプリングされた付加的なトレーニングサンプルを用いて、前記セマンティック分類器の前記トレーニングを反復し、前記ターゲット器官の姿勢が、前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップ内に収束するまで、前記トレーニング済みセマンティック分類器を用いて前記セマンティックセグメンテーションを実施するオペレーション、
    を含む、
    請求項34記載の非一時的なコンピュータ読み取り可能媒体。
  38. 前記オペレーションはさらに、
    前記術中画像ストリームの1つまたは複数の後続フレーム各々について、受け取り、融合させ、伝達し、トレーニングする前記オペレーションを反復するオペレーション、
    を含む、
    請求項25記載の非一時的なコンピュータ読み取り可能媒体。
  39. 前記オペレーションはさらに、
    ・前記術中画像ストリームの1つまたは複数の後続フレームを受け取るオペレーションと、
    ・前記術中画像ストリームの前記1つまたは複数の後続フレーム各々において、前記トレーニング済みセマンティック分類器を用いてセマンティックセグメンテーションを実施するオペレーションと、
    を含む、
    請求項25記載の非一時的なコンピュータ読み取り可能媒体。
  40. 前記オペレーションはさらに、
    前記ターゲット器官の術中3Dモデルを生成するために、前記術中画像ストリームの前記1つまたは複数の後続フレーム各々に対する前記セマンティックセグメンテーション結果に基づき、前記術中画像ストリームの前記1つまたは複数の後続フレームをスティッチングするオペレーション、
    を含む、
    請求項39記載の非一時的なコンピュータ読み取り可能媒体。
JP2017563017A 2015-06-05 2015-06-05 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム Pending JP2018522622A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2015/034327 WO2016195698A1 (en) 2015-06-05 2015-06-05 Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation

Publications (1)

Publication Number Publication Date
JP2018522622A true JP2018522622A (ja) 2018-08-16

Family

ID=53719902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017563017A Pending JP2018522622A (ja) 2015-06-05 2015-06-05 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム

Country Status (5)

Country Link
US (1) US20180174311A1 (ja)
EP (1) EP3304423A1 (ja)
JP (1) JP2018522622A (ja)
CN (1) CN107667380A (ja)
WO (1) WO2016195698A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022500148A (ja) * 2018-09-12 2022-01-04 オルソグリッド システムズ,エスアーエス 人工知能の術中外科的ガイダンスシステムと使用方法

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10454943B2 (en) * 2015-08-17 2019-10-22 The Toronto-Dominion Bank Augmented and virtual reality based process oversight
US10292678B2 (en) * 2015-09-23 2019-05-21 Analogic Corporation Real-time image based risk assessment for an instrument along a path to a target in an object
US10546385B2 (en) * 2016-02-25 2020-01-28 Technion Research & Development Foundation Limited System and method for image capture device pose estimation
JP7133474B2 (ja) * 2016-05-31 2022-09-08 コーニンクレッカ フィリップス エヌ ヴェ 内視鏡画像及び超音波画像の画像ベースの融合
US11137462B2 (en) * 2016-06-10 2021-10-05 Board Of Trustees Of Michigan State University System and method for quantifying cell numbers in magnetic resonance imaging (MRI)
US10937170B2 (en) * 2016-09-21 2021-03-02 Koninklijke Philips N.V. Apparatus for adaptive contouring of a body part
US10911693B2 (en) * 2016-11-11 2021-02-02 Boston Scientific Scimed, Inc. Guidance systems and associated methods
WO2018104563A2 (en) * 2016-12-09 2018-06-14 Tomtom Global Content B.V. Method and system for video-based positioning and mapping
EP3470006B1 (en) 2017-10-10 2020-06-10 Holo Surgical Inc. Automated segmentation of three dimensional bony structure images
EP3445048A1 (en) * 2017-08-15 2019-02-20 Holo Surgical Inc. A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
US10339931B2 (en) 2017-10-04 2019-07-02 The Toronto-Dominion Bank Persona-based conversational interface personalization using social network preferences
US10460748B2 (en) 2017-10-04 2019-10-29 The Toronto-Dominion Bank Conversational interface determining lexical personality score for response generation with synonym replacement
US10410354B1 (en) * 2018-03-06 2019-09-10 Mitsubishi Electric Research Laboratories, Inc. Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation
CN111837195A (zh) * 2018-03-20 2020-10-27 索尼公司 手术支持***、信息处理设备和程序
US11205508B2 (en) * 2018-05-23 2021-12-21 Verb Surgical Inc. Machine-learning-oriented surgical video analysis system
CN109002837A (zh) * 2018-06-21 2018-12-14 网易(杭州)网络有限公司 一种图像语义分类方法、介质、装置和计算设备
US10299864B1 (en) 2018-08-07 2019-05-28 Sony Corporation Co-localization of multiple internal organs based on images obtained during surgery
US10413364B1 (en) * 2018-08-08 2019-09-17 Sony Corporation Internal organ localization of a subject for providing assistance during surgery
EP3608870A1 (en) 2018-08-10 2020-02-12 Holo Surgical Inc. Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure
US11116587B2 (en) 2018-08-13 2021-09-14 Theator inc. Timeline overlay on surgical video
CN109447985B (zh) * 2018-11-16 2020-09-11 青岛美迪康数字工程有限公司 结肠镜图像分析方法、装置及可读存储介质
EP3657514A1 (en) * 2018-11-22 2020-05-27 Koninklijke Philips N.V. Interactive iterative image annotation
US11995854B2 (en) * 2018-12-19 2024-05-28 Nvidia Corporation Mesh reconstruction using data-driven priors
US11080849B2 (en) * 2018-12-21 2021-08-03 General Electric Company Systems and methods for deep learning based automated spine registration and label propagation
WO2020135374A1 (zh) * 2018-12-25 2020-07-02 上海联影智能医疗科技有限公司 图像配准方法、装置、计算机设备及可读存储介质
US20200273577A1 (en) 2019-02-21 2020-08-27 Theator inc. System for updating a predicted outcome
BR112021016621A2 (pt) 2019-02-21 2021-11-03 Theator Inc Sistemas e métodos para análise de vídeos cirúrgicos
CN110163201B (zh) * 2019-03-01 2023-10-27 腾讯科技(深圳)有限公司 图像测试方法和装置、存储介质及电子装置
CN110264502B (zh) * 2019-05-17 2021-05-18 华为技术有限公司 点云配准方法和装置
US10799090B1 (en) * 2019-06-13 2020-10-13 Verb Surgical Inc. Method and system for automatically turning on/off a light source for an endoscope during a surgery
AU2020352836B2 (en) * 2019-09-23 2023-05-25 Boston Scientific Scimed, Inc. System and method for endoscopic video enhancement, quantitation and surgical guidance
EP3806037A1 (en) * 2019-10-10 2021-04-14 Leica Instruments (Singapore) Pte. Ltd. System and corresponding method and computer program and apparatus and corresponding method and computer program
CN111783811B (zh) * 2019-10-30 2024-06-21 北京京东尚科信息技术有限公司 伪标签生成方法和装置
US11227406B2 (en) * 2020-02-28 2022-01-18 Fujifilm Business Innovation Corp. Fusing deep learning and geometric constraint for image-based localization
US20210313050A1 (en) 2020-04-05 2021-10-07 Theator inc. Systems and methods for assigning surgical teams to prospective surgical procedures
CN113643226B (zh) * 2020-04-27 2024-01-19 成都术通科技有限公司 标注方法、装置、设备及介质
CN112331311B (zh) * 2020-11-06 2022-06-03 青岛海信医疗设备股份有限公司 一种腹腔镜手术中视频与术前模型融合显示的方法及装置
CN112766215A (zh) * 2021-01-29 2021-05-07 北京字跳网络技术有限公司 人脸融合方法、装置、电子设备及存储介质
US20220319031A1 (en) * 2021-03-31 2022-10-06 Auris Health, Inc. Vision-based 6dof camera pose estimation in bronchoscopy
CN113269237B (zh) * 2021-05-10 2022-12-27 青岛理工大学 基于注意力机制的装配体变化检测方法、设备和介质
CN113393500B (zh) * 2021-05-28 2023-04-25 上海联影医疗科技股份有限公司 脊柱扫描参数获取方法、装置、设备和存储介质
CN113902983B (zh) * 2021-12-06 2022-03-25 南方医科大学南方医院 基于目标检测模型的腹腔镜手术组织器官识别方法及装置
CN116229189B (zh) * 2023-05-10 2023-07-04 深圳市博盛医疗科技有限公司 基于荧光内窥镜的图像处理方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022442A (ja) * 2006-07-14 2008-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
WO2008024419A1 (en) * 2006-08-21 2008-02-28 Sti Medical Systems, Llc Computer aided analysis using video from endoscopes
WO2011055245A1 (en) * 2009-11-04 2011-05-12 Koninklijke Philips Electronics N.V. Collision avoidance and detection using distance sensors

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6503195B1 (en) * 1999-05-24 2003-01-07 University Of North Carolina At Chapel Hill Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction
CN1926574B (zh) * 2004-02-20 2013-09-18 皇家飞利浦电子股份有限公司 用于图像的多模式配准的设备和方法
US7916919B2 (en) 2006-09-28 2011-03-29 Siemens Medical Solutions Usa, Inc. System and method for segmenting chambers of a heart in a three dimensional image
US8494243B2 (en) * 2009-07-29 2013-07-23 Siemens Aktiengesellschaft Deformable 2D-3D registration of structure
US20130281821A1 (en) * 2011-01-13 2013-10-24 Koninklijke Philips Electronics N.V. Intraoperative camera calibration for endoscopic surgery

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008022442A (ja) * 2006-07-14 2008-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
WO2008024419A1 (en) * 2006-08-21 2008-02-28 Sti Medical Systems, Llc Computer aided analysis using video from endoscopes
JP2010512173A (ja) * 2006-08-21 2010-04-22 エスティーアイ・メディカル・システムズ・エルエルシー 内視鏡からの映像を用いるコンピュータ支援解析
WO2011055245A1 (en) * 2009-11-04 2011-05-12 Koninklijke Philips Electronics N.V. Collision avoidance and detection using distance sensors
JP2013509902A (ja) * 2009-11-04 2013-03-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 距離センサを使用した衝突の回避と探知

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022500148A (ja) * 2018-09-12 2022-01-04 オルソグリッド システムズ,エスアーエス 人工知能の術中外科的ガイダンスシステムと使用方法
JP7466928B2 (ja) 2018-09-12 2024-04-15 オルソグリッド システムズ ホールディング,エルエルシー 人工知能の術中外科的ガイダンスシステムと使用方法

Also Published As

Publication number Publication date
EP3304423A1 (en) 2018-04-11
CN107667380A (zh) 2018-02-06
WO2016195698A1 (en) 2016-12-08
US20180174311A1 (en) 2018-06-21

Similar Documents

Publication Publication Date Title
JP2018522622A (ja) 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム
EP3100236B1 (en) Method and system for constructing personalized avatars using a parameterized deformable mesh
US11890063B2 (en) System and methods for a trackerless navigation system
Grasa et al. Visual SLAM for handheld monocular endoscope
Collins et al. Augmented reality guided laparoscopic surgery of the uterus
JP2018515197A (ja) 腹腔鏡および内視鏡による2d/2.5d画像データにおけるセマンティックセグメンテーションのための方法およびシステム
US9155470B2 (en) Method and system for model based fusion on pre-operative computed tomography and intra-operative fluoroscopy using transesophageal echocardiography
US10716457B2 (en) Method and system for calculating resected tissue volume from 2D/2.5D intraoperative image data
US9292917B2 (en) Method and system for model-based fusion of computed tomography and non-contrasted C-arm computed tomography
US20180150929A1 (en) Method and system for registration of 2d/2.5d laparoscopic and endoscopic image data to 3d volumetric image data
EP2901419A1 (en) Multi-bone segmentation for 3d computed tomography
WO2012109630A2 (en) Image registration
Su et al. Comparison of 3d surgical tool segmentation procedures with robot kinematics prior
KR20210052270A (ko) 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램
Vagvolgyi et al. Video to CT registration for image overlay on solid organs
Chen et al. Augmented reality for depth cues in monocular minimally invasive surgery
Lin Visual SLAM and Surface Reconstruction for Abdominal Minimally Invasive Surgery
Chandelon et al. Kidney tracking for live augmented reality in stereoscopic mini-invasive partial nephrectomy
Sun Automated and interactive approaches for optimal surface finding based segmentation of medical image data
Kolagunda Towards computer aided guidance system for robot assisted laparoscopic radical prostatectomy
Amara et al. Augmented Reality localisation using 6 DoF phantom head Pose Estimation-based generalisable Deep Learning model
Yang et al. 3D reconstruction from endoscopy images: A survey
Zhang Uncertainty-aware Salient Object Detection
Sinha et al. Towards automatic initialization of registration algorithms using simulated endoscopy images
Monclús Lahoya Advanced interaction techniques for medical models

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180129

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181210

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190729