JP2018522622A - 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム - Google Patents
内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム Download PDFInfo
- Publication number
- JP2018522622A JP2018522622A JP2017563017A JP2017563017A JP2018522622A JP 2018522622 A JP2018522622 A JP 2018522622A JP 2017563017 A JP2017563017 A JP 2017563017A JP 2017563017 A JP2017563017 A JP 2017563017A JP 2018522622 A JP2018522622 A JP 2018522622A
- Authority
- JP
- Japan
- Prior art keywords
- current frame
- image stream
- semantic
- intraoperative
- operative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2155—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/251—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/421—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation by analysing segments intersecting the pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
- G06V10/7753—Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10081—Computed x-ray tomography [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30056—Liver; Hepatic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/031—Recognition of patterns in medical or anatomical images of internal organs
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Endoscopes (AREA)
- Nuclear Medicine (AREA)
Abstract
Description
本発明は、腹腔鏡画像データまたは内視鏡画像データにおけるセマンティックセグメンテーションおよびシーン解析に関するものであり、さらに詳しくは、セグメンテーションされた術前画像データを用いて、腹腔鏡画像ストリームおよび内視鏡画像ストリームにおいてシーン解析とモデル融合とを同時に行うことに関する。
本発明によれば、セグメンテーションされた術前画像データを用い、腹腔鏡または内視鏡の画像ストリームのような術中画像ストリームにおいて、シーン解析とモデル融合とを同時に行うための方法およびシステムが提供される。本発明の実施形態によれば、術中画像ストリームの取得されたフレームについて、シーン固有のセマンティック情報を容易に取得できるようにするために、ターゲット器官の術前モデルと術中モデルとの融合が用いられる。本発明の実施形態によれば、術前画像データから術中画像ストリームの個々のフレームへ、セマンティック情報が自動的に伝達され、その後、到来する術中画像のセマンティックセグメンテーションを実施するために、セマンティック情報を有するフレームを用いて分類器をトレーニングすることができる。
本発明は、セグメンテーションされた術前画像データを用いて、腹腔鏡画像データおよび内視鏡画像データにおいてモデル融合とシーン解析とを同時に行う方法およびシステムに関する。本明細書では、モデル融合のための、および腹腔鏡画像および内視鏡画像データといった術中画像データのシーン解析のための方法を視覚的に理解できるように、本発明の実施形態について説明する。1つのディジタル画像は多くの場合、1つまたは複数のオブジェクト(または形状)の複数のディジタル表現から成る。本明細書ではしばしば、1つのオブジェクトのディジタル表現をオブジェクトの識別および操作に関して記述する。かかる操作は、コンピュータシステムのメモリまたは他の回路/ハードウェアにおいて達成される仮想的な操作である。よって、本発明の実施形態は、コンピュータシステム内に記憶されたデータを用いて、コンピュータシステム内で実施可能である、と理解されたい。
Claims (40)
- 術中画像ストリームにおけるシーン解析のための方法であって、以下のステップを含む、すなわち、
・2D画像チャネルと2.5D深度チャネルとを含む術中画像ストリームの目下のフレームを受け取るステップと、
・術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させるステップと、
・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにするステップと、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングするステップと、
を含む、
術中画像ストリームにおけるシーン解析のための方法。 - 術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させる前記ステップは、
・前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施するステップと、
・前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させるステップと、
を含む、
請求項1記載の方法。 - 前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施する前記ステップは、
・前記術中画像ストリームの複数のフレームをスティッチングして、前記ターゲット器官の術中3Dモデルを生成するステップと、
・前記ターゲット器官の前記術前3Dモデルと、前記ターゲット器官の前記術中3Dモデルとの間において、剛体レジストレーションを実施するステップと、
を含む、
請求項2記載の方法。 - 前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる前記ステップは、
前記術前3D医用画像データを、前記術中画像ストリームの前記目下のフレームの前記2.5D深度チャネルにおける深度情報にアライメントするために、前記ターゲット器官に関する前記バイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させるステップ、
を含む、
請求項2記載の方法。 - 前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる前記ステップは、
・前記ターゲット器官の前記術前3Dモデルと、前記目下のフレームにおける前記ターゲット器官との間の対応関係を推定するステップと、
・前記対応関係に基づき前記ターゲット器官に及ぼされる力を推定するステップと、
・推定された前記力に基づき、前記ターゲット器官に関する前記バイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルの変形をシミュレートするステップと、
を含む、
請求項2記載の方法。 - 前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにする前記ステップは、
・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術中画像ストリームの前記目下のフレームに対し、前記術前3D医用画像データをアライメントするステップと、
・前記術中画像ストリームの前記目下のフレームに対応する前記3D医用画像データにおける投影画像を、前記目下のフレームの姿勢に基づき推定するステップと、
・前記3D医用画像データにおいて推定された前記投影画像中の複数の画素ロケーション各々から、前記術中画像ストリームの前記目下のフレーム内の前記複数の画素のうち対応する1つの画素へ、セマンティックラベルを伝達することによって、前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップを描出するステップと、
を含む、
請求項1記載の方法。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記ステップは、
前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、トレーニング済みセマンティック分類器を更新するステップ、
を含む、
請求項1記載の方法。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記ステップは、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の1つまたは複数のラベリングされたセマンティッククラス各々において、トレーニングサンプルをサンプリングするステップと、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングするステップと、
を含む、
請求項1記載の方法。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングする前記ステップは、
・前記術中画像ストリームの前記目下のフレームにおける前記トレーニングサンプル各々を取り囲む個々の画像パッチにおいて、前記2D画像チャネルと前記2.5D深度チャネルとから統計的フィーチャを抽出するステップと、
・前記トレーニングサンプル各々について抽出された前記統計的フィーチャと、レンダリングされた前記ラベルマップにおいて前記トレーニングサンプル各々に対応づけられたセマンティックラベルとに基づき、前記セマンティック分類器をトレーニングするステップと、
を含む、
請求項8記載の方法。 - トレーニング済みセマンティック分類器を用いて、前記術中画像ストリームの前記目下のフレームに対しセマンティックセグメンテーションを実施するステップをさらに含む、
請求項8記載の方法。 - ・前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られたラベルマップを、前記目下のフレームに対しレンダリングされた前記ラベルマップと比較するステップと、
・前記1つまたは複数のセマンティッククラス各々からサンプリングされた付加的なトレーニングサンプルを用いて、前記セマンティック分類器の前記トレーニングを反復し、前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップが、前記目下のフレームに対しレンダリングされた前記ラベルマップへと収束するまで、前記トレーニング済みセマンティック分類器を用いて前記セマンティックセグメンテーションを実施するステップと、
をさらに含む、
請求項10記載の方法。 - 前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップ内において、間違って分類されていた前記術中画像ストリームの前記目下のフレーム内の画素から、付加的なトレーニングサンプルを選択する、
請求項11記載の方法。 - 前記1つまたは複数のセマンティッククラス各々からサンプリングされた付加的なトレーニングサンプルを用いて、前記セマンティック分類器の前記トレーニングを反復し、前記ターゲット器官の姿勢が、前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップ内に収束するまで、前記トレーニング済みセマンティック分類器を用いて前記セマンティックセグメンテーションを実施するステップ、
をさらに含む、
請求項10記載の方法。 - 前記術中画像ストリームの1つまたは複数の後続フレーム各々について、受け取り、融合させ、伝達し、トレーニングする前記ステップを反復するステップ、
をさらに含む、
請求項1記載の方法。 - ・前記術中画像ストリームの1つまたは複数の後続フレームを受け取るステップと、
・前記術中画像ストリームの前記1つまたは複数の後続フレーム各々において、前記トレーニング済みセマンティック分類器を用いてセマンティックセグメンテーションを実施するステップと、
をさらに含む、
請求項1記載の方法。 - 前記ターゲット器官の術中3Dモデルを生成するために、前記術中画像ストリームの前記1つまたは複数の後続フレーム各々に対する前記セマンティックセグメンテーション結果に基づき、前記術中画像ストリームの前記1つまたは複数の後続フレームをスティッチングするステップ、
をさらに含む、
請求項15記載の方法。 - 術中画像ストリームにおけるシーン解析のための装置であって、
・2D画像チャネルと2.5D深度チャネルとを含む術中画像ストリームの目下のフレームを受け取る手段と、
・術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させる手段と、
・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにする手段と、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする手段と、
を含む、
術中画像ストリームにおけるシーン解析のための装置。 - 術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させる前記手段は、
・前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施する手段と、
・前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる手段と、
を含む、
請求項17記載の装置。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記手段は、
前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、トレーニング済みセマンティック分類器を更新する手段、
を含む、
請求項17記載の装置。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記手段は、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の1つまたは複数のラベリングされたセマンティッククラス各々において、トレーニングサンプルをサンプリングする手段と、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングする手段と、
を含む、
請求項17記載の装置。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングする前記手段は、
・前記術中画像ストリームの前記目下のフレームにおける前記トレーニングサンプル各々を取り囲む個々の画像パッチにおいて、前記2D画像チャネルと前記2.5D深度チャネルとから統計的フィーチャを抽出する手段と、
・前記トレーニングサンプル各々について抽出された前記統計的フィーチャと、レンダリングされた前記ラベルマップにおいて前記トレーニングサンプル各々に対応づけられたセマンティックラベルとに基づき、前記セマンティック分類器をトレーニングする手段と、
を含む、
請求項20記載の装置。 - トレーニング済みセマンティック分類器を用いて、前記術中画像ストリームの前記目下のフレームに対しセマンティックセグメンテーションを実施する手段をさらに含む、
請求項20記載の装置。 - ・前記術中画像ストリームの1つまたは複数の後続フレームを受け取る手段と、
・前記術中画像ストリームの前記1つまたは複数の後続フレーム各々において、前記トレーニング済みセマンティック分類器を用いてセマンティックセグメンテーションを実施する手段と、
をさらに含む、
請求項17記載の装置。 - 前記ターゲット器官の術中3Dモデルを生成するために、前記術中画像ストリームの前記1つまたは複数の後続フレーム各々に対する前記セマンティックセグメンテーション結果に基づき、前記術中画像ストリームの前記1つまたは複数の後続フレームをスティッチングする手段、
をさらに含む、
請求項23記載の装置。 - 術中画像ストリームにおけるシーン解析のためのコンピュータプログラム命令を記憶する非一時的なコンピュータ読み取り可能媒体であって、
前記コンピュータプログラム命令は、プロセッサによって実行されると、該プロセッサに以下のオペレーションを実施させる、すなわち、
・2D画像チャネルと2.5D深度チャネルとを含む術中画像ストリームの目下のフレームを受け取るオペレーションと、
・術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させるオペレーションと、
・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにするオペレーションと、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングするオペレーションと、
を実施させる、
非一時的なコンピュータ読み取り可能媒体。 - 術前3D医用画像データにおいてセグメンテーションされたターゲット器官の術前3Dモデルを、前記術中画像ストリームの前記目下のフレームに融合させる前記オペレーションは、
・前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施するオペレーションと、
・前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させるオペレーションと、
を含む、
請求項25記載の非一時的なコンピュータ読み取り可能媒体。 - 前記術前3D医用画像データと前記術中画像ストリームとの間において、初期の非剛体レジストレーションを実施する前記オペレーションは、
・前記術中画像ストリームの複数のフレームをスティッチングして、前記ターゲット器官の術中3Dモデルを生成するオペレーションと、
・前記ターゲット器官の前記術前3Dモデルと、前記ターゲット器官の前記術中3Dモデルとの間において、剛体レジストレーションを実施するオペレーションと、
を含む、
請求項26記載の非一時的なコンピュータ読み取り可能媒体。 - 前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる前記オペレーションは、
前記術前3D医用画像データを、前記術中画像ストリームの前記目下のフレームの前記2.5D深度チャネルにおける深度情報にアライメントするために、前記ターゲット器官に関する前記バイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させるオペレーションを含む、
請求項26記載の非一時的なコンピュータ読み取り可能媒体。 - 前記術前3D医用画像データを前記術中画像ストリームの前記目下のフレームにアライメントするために、前記ターゲット器官に関するバイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルを変形させる前記オペレーションは、
・前記ターゲット器官の前記術前3Dモデルと、前記目下のフレームにおける前記ターゲット器官との間の対応関係を推定するオペレーションと、
・前記対応関係に基づき前記ターゲット器官に及ぼされる力を推定するオペレーションと、
・推定された前記力に基づき、前記ターゲット器官に関する前記バイオメカニカル計算モデルを用いて、前記ターゲット器官の前記術前3Dモデルの変形をシミュレートするオペレーションと、
を含む、
請求項26記載の非一時的なコンピュータ読み取り可能媒体。 - 前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術前3D医用画像データから前記術中画像ストリームの前記目下のフレームにおける複数の画素各々へ、セマンティックラベル情報を伝達し、前記術中画像ストリームの前記目下のフレームに対しレンダリングされたラベルマップが結果として得られるようにする前記オペレーションは、
・前記ターゲット器官の融合された前記術前3Dモデルに基づき、前記術中画像ストリームの前記目下のフレームに対し、前記術前3D医用画像データをアライメントするオペレーションと、
・前記術中画像ストリームの前記目下のフレームに対応する前記3D医用画像データにおける投影画像を、前記目下のフレームの姿勢に基づき推定するオペレーションと、
・前記3D医用画像データにおいて推定された前記投影画像中の複数の画素ロケーション各々から、前記術中画像ストリームの前記目下のフレーム内の前記複数の画素のうち対応する1つの画素へ、セマンティックラベルを伝達することによって、前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップを描出するオペレーションと、
を含む、
請求項25記載の非一時的なコンピュータ読み取り可能媒体。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記オペレーションは、
前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、トレーニング済みセマンティック分類器を更新するオペレーション、
を含む、
請求項25記載の非一時的なコンピュータ読み取り可能媒体。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップに基づき、セマンティック分類器をトレーニングする前記オペレーションは、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の1つまたは複数のラベリングされたセマンティッククラス各々において、トレーニングサンプルをサンプリングするオペレーションと、
・前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングするオペレーションと、
を含む、
請求項26記載の非一時的なコンピュータ読み取り可能媒体。 - 前記術中画像ストリームの前記目下のフレームに対しレンダリングされた前記ラベルマップ中の前記1つまたは複数のラベリングされたセマンティッククラス各々における前記トレーニングサンプルに基づき、前記セマンティック分類器をトレーニングする前記オペレーションは、
・前記術中画像ストリームの前記目下のフレームにおける前記トレーニングサンプル各々を取り囲む個々の画像パッチにおいて、前記2D画像チャネルと前記2.5D深度チャネルとから統計的フィーチャを抽出するオペレーションと、
・前記トレーニングサンプル各々について抽出された前記統計的フィーチャと、レンダリングされた前記ラベルマップにおいて前記トレーニングサンプル各々に対応づけられたセマンティックラベルとに基づき、前記セマンティック分類器をトレーニングするオペレーションと、
を含む、
請求項32記載の非一時的なコンピュータ読み取り可能媒体。 - 前記オペレーションはさらに、
トレーニング済みセマンティック分類器を用いて、前記術中画像ストリームの前記目下のフレームに対しセマンティックセグメンテーションを実施するオペレーション、
を含む、
請求項32記載の非一時的なコンピュータ読み取り可能媒体。 - 前記オペレーションはさらに、
・前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られたラベルマップを、前記目下のフレームに対しレンダリングされた前記ラベルマップと比較するオペレーションと、
・前記1つまたは複数のセマンティッククラス各々からサンプリングされた付加的なトレーニングサンプルを用いて、前記セマンティック分類器の前記トレーニングを反復し、前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップが、前記目下のフレームに対しレンダリングされた前記ラベルマップへと収束するまで、前記トレーニング済みセマンティック分類器を用いて前記セマンティックセグメンテーションを実施するオペレーションと、
を含む、
請求項34記載の非一時的なコンピュータ読み取り可能媒体。 - 前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップ内において、間違って分類されていた前記術中画像ストリームの前記目下のフレーム内の画素から、付加的なトレーニングサンプルを選択する、
請求項35記載の非一時的なコンピュータ読み取り可能媒体。 - 前記オペレーションはさらに、
前記1つまたは複数のセマンティッククラス各々からサンプリングされた付加的なトレーニングサンプルを用いて、前記セマンティック分類器の前記トレーニングを反復し、前記ターゲット器官の姿勢が、前記トレーニング済み分類器を用いて前記目下のフレームに対しセマンティックセグメンテーションを実施した結果得られた前記ラベルマップ内に収束するまで、前記トレーニング済みセマンティック分類器を用いて前記セマンティックセグメンテーションを実施するオペレーション、
を含む、
請求項34記載の非一時的なコンピュータ読み取り可能媒体。 - 前記オペレーションはさらに、
前記術中画像ストリームの1つまたは複数の後続フレーム各々について、受け取り、融合させ、伝達し、トレーニングする前記オペレーションを反復するオペレーション、
を含む、
請求項25記載の非一時的なコンピュータ読み取り可能媒体。 - 前記オペレーションはさらに、
・前記術中画像ストリームの1つまたは複数の後続フレームを受け取るオペレーションと、
・前記術中画像ストリームの前記1つまたは複数の後続フレーム各々において、前記トレーニング済みセマンティック分類器を用いてセマンティックセグメンテーションを実施するオペレーションと、
を含む、
請求項25記載の非一時的なコンピュータ読み取り可能媒体。 - 前記オペレーションはさらに、
前記ターゲット器官の術中3Dモデルを生成するために、前記術中画像ストリームの前記1つまたは複数の後続フレーム各々に対する前記セマンティックセグメンテーション結果に基づき、前記術中画像ストリームの前記1つまたは複数の後続フレームをスティッチングするオペレーション、
を含む、
請求項39記載の非一時的なコンピュータ読み取り可能媒体。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/US2015/034327 WO2016195698A1 (en) | 2015-06-05 | 2015-06-05 | Method and system for simultaneous scene parsing and model fusion for endoscopic and laparoscopic navigation |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018522622A true JP2018522622A (ja) | 2018-08-16 |
Family
ID=53719902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017563017A Pending JP2018522622A (ja) | 2015-06-05 | 2015-06-05 | 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20180174311A1 (ja) |
EP (1) | EP3304423A1 (ja) |
JP (1) | JP2018522622A (ja) |
CN (1) | CN107667380A (ja) |
WO (1) | WO2016195698A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022500148A (ja) * | 2018-09-12 | 2022-01-04 | オルソグリッド システムズ,エスアーエス | 人工知能の術中外科的ガイダンスシステムと使用方法 |
Families Citing this family (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10454943B2 (en) * | 2015-08-17 | 2019-10-22 | The Toronto-Dominion Bank | Augmented and virtual reality based process oversight |
US10292678B2 (en) * | 2015-09-23 | 2019-05-21 | Analogic Corporation | Real-time image based risk assessment for an instrument along a path to a target in an object |
US10546385B2 (en) * | 2016-02-25 | 2020-01-28 | Technion Research & Development Foundation Limited | System and method for image capture device pose estimation |
JP7133474B2 (ja) * | 2016-05-31 | 2022-09-08 | コーニンクレッカ フィリップス エヌ ヴェ | 内視鏡画像及び超音波画像の画像ベースの融合 |
US11137462B2 (en) * | 2016-06-10 | 2021-10-05 | Board Of Trustees Of Michigan State University | System and method for quantifying cell numbers in magnetic resonance imaging (MRI) |
US10937170B2 (en) * | 2016-09-21 | 2021-03-02 | Koninklijke Philips N.V. | Apparatus for adaptive contouring of a body part |
US10911693B2 (en) * | 2016-11-11 | 2021-02-02 | Boston Scientific Scimed, Inc. | Guidance systems and associated methods |
WO2018104563A2 (en) * | 2016-12-09 | 2018-06-14 | Tomtom Global Content B.V. | Method and system for video-based positioning and mapping |
EP3470006B1 (en) | 2017-10-10 | 2020-06-10 | Holo Surgical Inc. | Automated segmentation of three dimensional bony structure images |
EP3445048A1 (en) * | 2017-08-15 | 2019-02-20 | Holo Surgical Inc. | A graphical user interface for a surgical navigation system for providing an augmented reality image during operation |
US10339931B2 (en) | 2017-10-04 | 2019-07-02 | The Toronto-Dominion Bank | Persona-based conversational interface personalization using social network preferences |
US10460748B2 (en) | 2017-10-04 | 2019-10-29 | The Toronto-Dominion Bank | Conversational interface determining lexical personality score for response generation with synonym replacement |
US10410354B1 (en) * | 2018-03-06 | 2019-09-10 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for multi-model primitive fitting based on deep geometric boundary and instance aware segmentation |
CN111837195A (zh) * | 2018-03-20 | 2020-10-27 | 索尼公司 | 手术支持***、信息处理设备和程序 |
US11205508B2 (en) * | 2018-05-23 | 2021-12-21 | Verb Surgical Inc. | Machine-learning-oriented surgical video analysis system |
CN109002837A (zh) * | 2018-06-21 | 2018-12-14 | 网易(杭州)网络有限公司 | 一种图像语义分类方法、介质、装置和计算设备 |
US10299864B1 (en) | 2018-08-07 | 2019-05-28 | Sony Corporation | Co-localization of multiple internal organs based on images obtained during surgery |
US10413364B1 (en) * | 2018-08-08 | 2019-09-17 | Sony Corporation | Internal organ localization of a subject for providing assistance during surgery |
EP3608870A1 (en) | 2018-08-10 | 2020-02-12 | Holo Surgical Inc. | Computer assisted identification of appropriate anatomical structure for medical device placement during a surgical procedure |
US11116587B2 (en) | 2018-08-13 | 2021-09-14 | Theator inc. | Timeline overlay on surgical video |
CN109447985B (zh) * | 2018-11-16 | 2020-09-11 | 青岛美迪康数字工程有限公司 | 结肠镜图像分析方法、装置及可读存储介质 |
EP3657514A1 (en) * | 2018-11-22 | 2020-05-27 | Koninklijke Philips N.V. | Interactive iterative image annotation |
US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
US11080849B2 (en) * | 2018-12-21 | 2021-08-03 | General Electric Company | Systems and methods for deep learning based automated spine registration and label propagation |
WO2020135374A1 (zh) * | 2018-12-25 | 2020-07-02 | 上海联影智能医疗科技有限公司 | 图像配准方法、装置、计算机设备及可读存储介质 |
US20200273577A1 (en) | 2019-02-21 | 2020-08-27 | Theator inc. | System for updating a predicted outcome |
BR112021016621A2 (pt) | 2019-02-21 | 2021-11-03 | Theator Inc | Sistemas e métodos para análise de vídeos cirúrgicos |
CN110163201B (zh) * | 2019-03-01 | 2023-10-27 | 腾讯科技(深圳)有限公司 | 图像测试方法和装置、存储介质及电子装置 |
CN110264502B (zh) * | 2019-05-17 | 2021-05-18 | 华为技术有限公司 | 点云配准方法和装置 |
US10799090B1 (en) * | 2019-06-13 | 2020-10-13 | Verb Surgical Inc. | Method and system for automatically turning on/off a light source for an endoscope during a surgery |
AU2020352836B2 (en) * | 2019-09-23 | 2023-05-25 | Boston Scientific Scimed, Inc. | System and method for endoscopic video enhancement, quantitation and surgical guidance |
EP3806037A1 (en) * | 2019-10-10 | 2021-04-14 | Leica Instruments (Singapore) Pte. Ltd. | System and corresponding method and computer program and apparatus and corresponding method and computer program |
CN111783811B (zh) * | 2019-10-30 | 2024-06-21 | 北京京东尚科信息技术有限公司 | 伪标签生成方法和装置 |
US11227406B2 (en) * | 2020-02-28 | 2022-01-18 | Fujifilm Business Innovation Corp. | Fusing deep learning and geometric constraint for image-based localization |
US20210313050A1 (en) | 2020-04-05 | 2021-10-07 | Theator inc. | Systems and methods for assigning surgical teams to prospective surgical procedures |
CN113643226B (zh) * | 2020-04-27 | 2024-01-19 | 成都术通科技有限公司 | 标注方法、装置、设备及介质 |
CN112331311B (zh) * | 2020-11-06 | 2022-06-03 | 青岛海信医疗设备股份有限公司 | 一种腹腔镜手术中视频与术前模型融合显示的方法及装置 |
CN112766215A (zh) * | 2021-01-29 | 2021-05-07 | 北京字跳网络技术有限公司 | 人脸融合方法、装置、电子设备及存储介质 |
US20220319031A1 (en) * | 2021-03-31 | 2022-10-06 | Auris Health, Inc. | Vision-based 6dof camera pose estimation in bronchoscopy |
CN113269237B (zh) * | 2021-05-10 | 2022-12-27 | 青岛理工大学 | 基于注意力机制的装配体变化检测方法、设备和介质 |
CN113393500B (zh) * | 2021-05-28 | 2023-04-25 | 上海联影医疗科技股份有限公司 | 脊柱扫描参数获取方法、装置、设备和存储介质 |
CN113902983B (zh) * | 2021-12-06 | 2022-03-25 | 南方医科大学南方医院 | 基于目标检测模型的腹腔镜手术组织器官识别方法及装置 |
CN116229189B (zh) * | 2023-05-10 | 2023-07-04 | 深圳市博盛医疗科技有限公司 | 基于荧光内窥镜的图像处理方法、装置、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008022442A (ja) * | 2006-07-14 | 2008-01-31 | Sony Corp | 画像処理装置および方法、並びにプログラム |
WO2008024419A1 (en) * | 2006-08-21 | 2008-02-28 | Sti Medical Systems, Llc | Computer aided analysis using video from endoscopes |
WO2011055245A1 (en) * | 2009-11-04 | 2011-05-12 | Koninklijke Philips Electronics N.V. | Collision avoidance and detection using distance sensors |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6503195B1 (en) * | 1999-05-24 | 2003-01-07 | University Of North Carolina At Chapel Hill | Methods and systems for real-time structured light depth extraction and endoscope using real-time structured light depth extraction |
CN1926574B (zh) * | 2004-02-20 | 2013-09-18 | 皇家飞利浦电子股份有限公司 | 用于图像的多模式配准的设备和方法 |
US7916919B2 (en) | 2006-09-28 | 2011-03-29 | Siemens Medical Solutions Usa, Inc. | System and method for segmenting chambers of a heart in a three dimensional image |
US8494243B2 (en) * | 2009-07-29 | 2013-07-23 | Siemens Aktiengesellschaft | Deformable 2D-3D registration of structure |
US20130281821A1 (en) * | 2011-01-13 | 2013-10-24 | Koninklijke Philips Electronics N.V. | Intraoperative camera calibration for endoscopic surgery |
-
2015
- 2015-06-05 US US15/579,743 patent/US20180174311A1/en not_active Abandoned
- 2015-06-05 JP JP2017563017A patent/JP2018522622A/ja active Pending
- 2015-06-05 EP EP15741623.1A patent/EP3304423A1/en not_active Withdrawn
- 2015-06-05 WO PCT/US2015/034327 patent/WO2016195698A1/en active Application Filing
- 2015-06-05 CN CN201580080670.1A patent/CN107667380A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008022442A (ja) * | 2006-07-14 | 2008-01-31 | Sony Corp | 画像処理装置および方法、並びにプログラム |
WO2008024419A1 (en) * | 2006-08-21 | 2008-02-28 | Sti Medical Systems, Llc | Computer aided analysis using video from endoscopes |
JP2010512173A (ja) * | 2006-08-21 | 2010-04-22 | エスティーアイ・メディカル・システムズ・エルエルシー | 内視鏡からの映像を用いるコンピュータ支援解析 |
WO2011055245A1 (en) * | 2009-11-04 | 2011-05-12 | Koninklijke Philips Electronics N.V. | Collision avoidance and detection using distance sensors |
JP2013509902A (ja) * | 2009-11-04 | 2013-03-21 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 距離センサを使用した衝突の回避と探知 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022500148A (ja) * | 2018-09-12 | 2022-01-04 | オルソグリッド システムズ,エスアーエス | 人工知能の術中外科的ガイダンスシステムと使用方法 |
JP7466928B2 (ja) | 2018-09-12 | 2024-04-15 | オルソグリッド システムズ ホールディング,エルエルシー | 人工知能の術中外科的ガイダンスシステムと使用方法 |
Also Published As
Publication number | Publication date |
---|---|
EP3304423A1 (en) | 2018-04-11 |
CN107667380A (zh) | 2018-02-06 |
WO2016195698A1 (en) | 2016-12-08 |
US20180174311A1 (en) | 2018-06-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018522622A (ja) | 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム | |
EP3100236B1 (en) | Method and system for constructing personalized avatars using a parameterized deformable mesh | |
US11890063B2 (en) | System and methods for a trackerless navigation system | |
Grasa et al. | Visual SLAM for handheld monocular endoscope | |
Collins et al. | Augmented reality guided laparoscopic surgery of the uterus | |
JP2018515197A (ja) | 腹腔鏡および内視鏡による2d/2.5d画像データにおけるセマンティックセグメンテーションのための方法およびシステム | |
US9155470B2 (en) | Method and system for model based fusion on pre-operative computed tomography and intra-operative fluoroscopy using transesophageal echocardiography | |
US10716457B2 (en) | Method and system for calculating resected tissue volume from 2D/2.5D intraoperative image data | |
US9292917B2 (en) | Method and system for model-based fusion of computed tomography and non-contrasted C-arm computed tomography | |
US20180150929A1 (en) | Method and system for registration of 2d/2.5d laparoscopic and endoscopic image data to 3d volumetric image data | |
EP2901419A1 (en) | Multi-bone segmentation for 3d computed tomography | |
WO2012109630A2 (en) | Image registration | |
Su et al. | Comparison of 3d surgical tool segmentation procedures with robot kinematics prior | |
KR20210052270A (ko) | 환자의 증강 현실 기반의 의료 정보를 제공하는 방법, 장치 및 컴퓨터 프로그램 | |
Vagvolgyi et al. | Video to CT registration for image overlay on solid organs | |
Chen et al. | Augmented reality for depth cues in monocular minimally invasive surgery | |
Lin | Visual SLAM and Surface Reconstruction for Abdominal Minimally Invasive Surgery | |
Chandelon et al. | Kidney tracking for live augmented reality in stereoscopic mini-invasive partial nephrectomy | |
Sun | Automated and interactive approaches for optimal surface finding based segmentation of medical image data | |
Kolagunda | Towards computer aided guidance system for robot assisted laparoscopic radical prostatectomy | |
Amara et al. | Augmented Reality localisation using 6 DoF phantom head Pose Estimation-based generalisable Deep Learning model | |
Yang et al. | 3D reconstruction from endoscopy images: A survey | |
Zhang | Uncertainty-aware Salient Object Detection | |
Sinha et al. | Towards automatic initialization of registration algorithms using simulated endoscopy images | |
Monclús Lahoya | Advanced interaction techniques for medical models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180129 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181210 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190729 |