JP2021151431A - Medical image processing device, trocar, medical observation system, image processing method, and program - Google Patents
Medical image processing device, trocar, medical observation system, image processing method, and program Download PDFInfo
- Publication number
- JP2021151431A JP2021151431A JP2020215825A JP2020215825A JP2021151431A JP 2021151431 A JP2021151431 A JP 2021151431A JP 2020215825 A JP2020215825 A JP 2020215825A JP 2020215825 A JP2020215825 A JP 2020215825A JP 2021151431 A JP2021151431 A JP 2021151431A
- Authority
- JP
- Japan
- Prior art keywords
- image
- medical
- state
- image processing
- medical device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 123
- 238000003672 processing method Methods 0.000 title claims abstract description 8
- 238000001514 detection method Methods 0.000 claims abstract description 130
- 238000003780 insertion Methods 0.000 claims abstract description 77
- 230000037431 insertion Effects 0.000 claims abstract description 77
- 238000003384 imaging method Methods 0.000 claims abstract description 31
- 238000004088 simulation Methods 0.000 claims description 141
- 210000000056 organ Anatomy 0.000 claims description 49
- 238000002059 diagnostic imaging Methods 0.000 claims description 41
- 238000001356 surgical procedure Methods 0.000 abstract description 3
- 230000002452 interceptive effect Effects 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 59
- 101100421536 Danio rerio sim1a gene Proteins 0.000 description 28
- 238000002591 computed tomography Methods 0.000 description 14
- 238000002595 magnetic resonance imaging Methods 0.000 description 14
- 238000000034 method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000003287 optical effect Effects 0.000 description 10
- 210000004204 blood vessel Anatomy 0.000 description 9
- CURLTUGMZLYLDI-UHFFFAOYSA-N Carbon dioxide Chemical compound O=C=O CURLTUGMZLYLDI-UHFFFAOYSA-N 0.000 description 6
- 210000000232 gallbladder Anatomy 0.000 description 6
- 210000005036 nerve Anatomy 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 101000703681 Homo sapiens Single-minded homolog 1 Proteins 0.000 description 5
- 102100031980 Single-minded homolog 1 Human genes 0.000 description 5
- 210000001015 abdomen Anatomy 0.000 description 5
- 101100495431 Schizosaccharomyces pombe (strain 972 / ATCC 24843) cnp1 gene Proteins 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 210000001519 tissue Anatomy 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 229910002092 carbon dioxide Inorganic materials 0.000 description 3
- 239000001569 carbon dioxide Substances 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000007689 inspection Methods 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- 210000002751 lymph Anatomy 0.000 description 3
- 210000000496 pancreas Anatomy 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 210000001635 urinary tract Anatomy 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 210000000941 bile Anatomy 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000005284 excitation Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000001678 irradiating effect Effects 0.000 description 1
- 238000002357 laparoscopic surgery Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 210000001113 umbilicus Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Endoscopes (AREA)
Abstract
Description
本開示は、被検体の患部を撮像したライブビュー画像および被検体の観察を仮想的に表したシミュレーション画像の少なくとも一方を表示する医療用画像処理装置、トロッカー、医療用観察システム、画像処理方法およびプログラムに関する。 The present disclosure discloses a medical image processing device, a trocar, a medical observation system, an image processing method, and a medical image processing apparatus, a trocar, a medical observation system, and an image processing method for displaying at least one of a live view image of an affected part of a subject and a simulation image that virtually represents the observation of the subject. Regarding the program.
従来、外科手術システムにおいて、患者の患部にモーションキャプチャー装置で計測された患者の患部に、CTおよびMRI等により得られた画像を重畳表示する技術が知られている(例えば特許文献1参照)。この技術では、患者に対して所定の間隔で配置した複数のマーカからの反射光を複数のモーションキャプチャー装置の各々で受光することによって、複数のマーカ群の座標位置および複数のマーカ群の回転量に応じて、患者の患部に重畳表示する画像を変化させる。 Conventionally, in a surgical operation system, there is known a technique of superimposing and displaying an image obtained by CT, MRI, or the like on the affected part of a patient measured by a motion capture device (see, for example, Patent Document 1). In this technique, the coordinate positions of a plurality of marker groups and the amount of rotation of the plurality of marker groups are received by receiving the reflected light from a plurality of markers arranged at predetermined intervals with respect to the patient by each of the plurality of motion capture devices. The image superimposed on the affected area of the patient is changed accordingly.
ところで、術者は、術中に手術部位にアプローチする場合、メルクマークとなる重要な血管および神経を確認しながら切除を行う。しかしながら、術者は、アプローチが難しい手技の場合、術前に確認したCT(Computed Tomography)画像(コンピュータ断層撮影による画像)またはMRI(Magnetic Resonance Imaging)画像(核磁気共鳴画像法による画像)において、読影できなかった箇所、患者の開腹後における部位形状および部位の位置がCT画像またはMRI画像とずれてしまうことで、術者がメルクマークを瞬時に発見することが難しかった。 By the way, when approaching the surgical site during the operation, the surgeon performs the excision while confirming the important blood vessels and nerves that become the Merck mark. However, in the case of a procedure that is difficult to approach, the surgeon uses a CT (Computed Tomography) image (computed tomography image) or MRI (Magnetic Resonance Imaging) image (image by magnetic resonance imaging) confirmed before the operation. It was difficult for the surgeon to instantly find the Merck mark because the part that could not be read, the shape of the part after the patient's abdomen was opened, and the position of the part deviated from the CT image or MRI image.
さらに、上述した特許文献1では、単にCT画像またはMRI画像を重畳しているにすぎないため、実際の患者の状態から乖離しているうえ、重畳画像が邪魔になるという問題点があった。
Further, in the above-mentioned
本開示は、上記に鑑みてなされたものであって、術中における術者の邪魔をすることなく、術中の術者を補助することができる医療用画像処理装置、トロッカー、医療用観察システム、画像処理方法およびプログラムを提供することを目的とする。 The present disclosure has been made in view of the above, and is a medical image processing device, a tracker, a medical observation system, and an image capable of assisting an intraoperative surgeon without disturbing the intraoperative surgeon. The purpose is to provide processing methods and programs.
上述した課題を解決し、目的を達成するために、本開示に係る医療用画像処理装置は、術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象に関する第2の画像の少なくとも一方を表示装置に表示させる制御部を備える。 In order to solve the above-mentioned problems and achieve the object, the medical image processing apparatus according to the present disclosure is in a state in which a medical device grasped by an operator is inserted and the medical device is inserted into a subject. Based on the detection results of one or more trocars capable of detecting the first state and the second state indicating, the first image generated by imaging the observation target in the subject and the pre-acquired first image. A control unit for displaying at least one of the second images of the observation target in the subject on the display device is provided.
また、本開示に係るトロッカーは、筒状をなし、外部から医療器具が挿入可能な穴部を有する本体部と、前記穴部の挿入方向に沿って設けられ、前記穴部に挿入された前記医療器具の位置を第1の状態として検出する第1の検出部と、前記穴部の挿入方向に沿って前記第1の検出部より挿入距離が長い位置に設けられ、前記穴部に挿入された前記医療器具の位置を第2の状態として検出する第2の検出部と、を備える。 Further, the trocar according to the present disclosure has a tubular shape and has a main body portion having a hole into which a medical device can be inserted from the outside, and the trocar provided along the insertion direction of the hole and inserted into the hole. A first detection unit that detects the position of the medical device as the first state and a position that is longer than the first detection unit along the insertion direction of the hole portion are provided and inserted into the hole portion. A second detection unit that detects the position of the medical device as a second state is provided.
また、本開示に係る医療用観察システムは、被検体の観察対象を撮像することによって第1の画像を生成する撮像部と、予め取得された前記被検体の観察対象の3次元画像データまたは2次元画像データに基づく第2の画像を記録する記録部と、前記第1の画像および前記第2の画像を表示可能な表示装置と、術者によって把持された医療器具が挿入され、かつ、該医療器具の前記被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーと、前記トロッカーの検出結果に基づいて、前記第1の画像および前記第2の画像像の少なくとも一方を前記表示装置に表示させる制御部と、を備える。 Further, the medical observation system according to the present disclosure includes an imaging unit that generates a first image by imaging the observation target of the subject, and three-dimensional image data or 2 of the observation target of the subject acquired in advance. A recording unit that records a second image based on the three-dimensional image data, a display device that can display the first image and the second image, and a medical device grasped by the operator are inserted and said. The first image and the first image based on the detection result of one or more trackers capable of detecting the first state and the second state indicating the insertion state of the medical device into the subject, and the detection result of the tracker. A control unit for displaying at least one of the two image images on the display device is provided.
また、本開示に係る画像処理方法は、術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる。 Further, the image processing method according to the present disclosure can detect a first state and a second state in which a medical device grasped by an operator is inserted and the state of insertion of the medical device into a subject is indicated. A first image generated by imaging an observation target in the subject and a second image of the observation target in the subject obtained in advance based on the detection results of one or more trocars. Display at least one on the display device.
また、本開示に係るプログラムは、医療用画像処理装置に実行させるプログラムであって、術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる。 Further, the program according to the present disclosure is a program to be executed by a medical image processing apparatus, and indicates a state in which a medical instrument grasped by an operator is inserted and the medical instrument is inserted into a subject. Based on the detection results of one or more trocars capable of detecting the first state and the second state, the first image generated by imaging the observation target in the subject and the previously acquired subject. At least one of the second images to be observed in the sample is displayed on the display device.
本開示によれば、術中における術者の邪魔をすることなく、術中の術者を補助することができるという効果を奏する。 According to the present disclosure, there is an effect that the operator can be assisted during the operation without disturbing the operator during the operation.
以下、本開示を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本開示が限定されるものではない。また、以下の説明において、参照する各図は、本開示の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。即ち、本開示は、各図で例示された形状、大きさ、および位置関係のみに限定されるものでない。さらに、図面の記載において、同一の部分には同一の符号を付して説明する。さらにまた、本開示に係る医療用観察システムの一例として、腹腔鏡による内視鏡システムについて説明する。 Hereinafter, a mode for carrying out the present disclosure will be described in detail together with drawings. The present disclosure is not limited to the following embodiments. Further, in the following description, each of the referenced figures merely schematically shows the shape, size, and positional relationship to the extent that the contents of the present disclosure can be understood. That is, the present disclosure is not limited to the shape, size, and positional relationship exemplified in each figure. Further, in the description of the drawings, the same parts will be described with the same reference numerals. Furthermore, as an example of the medical observation system according to the present disclosure, an endoscopic system using a laparoscope will be described.
(実施の形態1)
〔医療用観察システムの概略構成〕
図1は、実施の形態1に係る医療用観察システムの概略構成を示す図である。図1に示す医療用観察システム1は、医療分野に用いられ、人や動物の被検体O1の腹部にトロッカーを用いて複数の穴を形成し、炭酸ガス等によって被検体O1の腹部を膨らませた状態で、医療用撮像装置(硬性鏡等のビデオスコープ)と、鉗子および電気メス等のエネルギーデバイスの医療器具と、を被検体O1内に挿入しながら観察および処置を行う腹腔鏡手術に用いられるシステムである。なお、図1では、被検体O1に対して穴を3カ所形成しているが、術式や手技に応じて適宜変更することができる。
(Embodiment 1)
[Outline configuration of medical observation system]
FIG. 1 is a diagram showing a schematic configuration of a medical observation system according to the first embodiment. The
図1に示す医療用観察システム1は、トロッカー10と、複数のトロッカー20と、医療用撮像装置30と、医療器具40と、医療器具50と、光源装置60と、表示装置70と、制御装置80と、画像サーバ90と、を備える。
The
トロッカー10は、筒状をなし、被検体O1に挿入される。トロッカー10は、後述する医療用撮像装置30が挿入される。トロッカー10は、被検体O1の臍に挿入される。なお、実施の形態1では、トロッカー10は、図示しない被検体O1内の腹部を膨らませる炭酸ガス等が供給される供給口を有し、この供給口を経由して外部から供給された炭酸ガスを被検体O1内の腹部に供給する。
Trocar 10, a cylindrical shape, is inserted into the subject O 1. The
トロッカー20は、筒状をなし、被検体O1に対して複数挿入される。トロッカー20は、後述する医療器具40および医療器具50のいずれか一方が挿入される。以下においては、医療器具40が挿入されるトロッカー20をトロッカー20Lと表現し、医療器具50が挿入されるトロッカー20をトロッカー20Rと表現する。また、トロッカー20Lおよびトロッカー20Rのどちらか一方を指す場合、単にトロッカー20と表現する。
医療用撮像装置30は、トロッカー10を経由して被検体O1内に挿入され、被検体O1内における観察対象を撮像することによって画像データを生成し、この画像データを制御装置80へ出力する。
The
医療器具40は、トロッカー20Lを経由して被検体O1内に挿入される。医療器具40は、医者等の術者の操作に応じて観察対象に対して処置を行う。医療器具40は、例えば注射、鉗子、ナイフ、高周波スネア、処置具および高周波メスや電気メス等のエネルギーデバイスである。
The
医療器具50は、トロッカー20Rを経由して被検体O1に挿入される。医療器具50は、術者の操作に応じて観察対象に対して処置を行う。医療器具50は、例えば注射、鉗子、ナイフ、高周波スネア、処置具および高周波メスや電気メス等のエネルギーデバイスである。
光源装置60は、制御装置80の制御のもと、医療用撮像装置30を経由して被検体O1の観察対象に向けて照明光を照射する。光源装置60は、例えばライトガイドを経由して照明光として白色光、特殊光およびマルチスペクトル光のいずれか一つを医療用撮像装置30へ供給する。ここで、特殊光とは、所定の波長帯域を有する励起光や狭帯域光である。例えば、励起光は、波長帯域が400nm〜430nm(中心波長が415nm)である。また、狭帯域光は、波長帯域が400nm〜430nm(中心波長が415nm)と、波長帯域530nm〜550nm(中心波長が540nm)と、を含む光である。また、マルチスペクトル光は、少なくとも反射周波数毎に生体組織、例えば臓器を判別可能な光の波長帯域を含む。例えば、膵臓の場合、反射周波数は、16712nmである。光源装置60は、白色LED(Light Emitting Diode)、赤色LED、青色LED、緑色LED、紫色LED、橙色LED等の光源、半導体レーザ、所定の波長帯域を透過する透過フィルタを有する回転フィルタおよび集光レンズ等を用いて実現される。
Under the control of the
表示装置70は、制御装置80の制御のもと、制御装置80から入力された画像を表示する。表示装置70は、例えば液晶ディスプレイや有機ELディスプレイ(Organic Electroluminescent Display)等および音声スピーカ等を用いて実現される。
The
制御装置80は、医療用観察システム1の各部を制御する。制御装置80は、医療用撮像装置30から入力された画像データに対して各種の画像処理を行って表示装置70へ出力することによって表示装置70に表示させる。また、制御装置80は、ネットワーク100を経由して画像サーバ90から患者である被検体O1に対して予め取得された3次元画像データ、MRI画像データおよびCT画像データを用いて構成されたシミュレーション画像データを取得し、取得したシミュレーション画像に対して各種の画像処理を行って表示装置70に出力することによって表示装置70に表示させる。制御装置80は、メモリと、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)およびFPGA(Field-Programmable Gate Array)等のハードウェアと、を備えるプロセッサを用いて実現される。なお、実施の形態1では、制御装置80が医療用画像処理装置として機能する。
The
画像サーバ90は、ネットワーク100を経由して制御装置80から要求されたシミュレーション画像データを送信する。画像サーバ90は、複数の患者の各々をCTまたはMRI等によって取得した2次元画像データまたは3次元画像データ、および2次元画像データまたは3次元画像データに基づくシミュレーション画像データ等を記録する。画像サーバ90は、メモリと、CPU、GPUやFPGA等のハードウェアを備えるプロセッサと、HDD(Hard Disk Drive)およびSSD(Solid State Drive)等の記録媒体と、を用いて実現される。
The
〔医療用観察システムの要部の機能構成〕
次に、上述した医療用観察システム1の要部の機能構成について説明する。図2は、医療用観察システム1の要部の機能構成を示すブロック図である。
[Functional configuration of the main parts of the medical observation system]
Next, the functional configuration of the main part of the
〔トロッカーの構成〕
まず、トロッカー20の構成について説明する。図3は、トロッカー20の断面を示す模式図である。図2および図3に示すトロッカー20は、第1の検出部21と、第2の検出部22と、取得部23と、通信部24と、第3の検出部25と、第4の検出部26と、本体部27と、を備える。
[Structure of trocar]
First, the configuration of the
第1の検出部21は、本体部27に設けられた挿入部271(孔)の挿入方向に沿って設けられ、挿入部271に挿入された医療器具40の位置を第1の状態として検出する。具体的には、第1の検出部21は、医療器具40がトロッカー20内に位置することを第1の状態として検出する。第1の検出部21は、圧力センサ211と、付勢部材212と、嵌合部材213と、を有する。圧力センサ211は、付勢部材212の付勢状態を検出する。付勢部材212は、嵌合部材213を挿入部271に向けて付勢する。嵌合部材213は、挿入部271に突出可能に設けられ、後述する医療器具40に設けられた凹部43に嵌合する。
The
第2の検出部22は、本体部27に設けられた挿入部271の挿入方向に沿って第1の検出部21より挿入距離が長い位置に設けられ、挿入部271に挿入された医療器具40の位置を第2の状態として検出する。具体的には、第2の検出部22は、少なくとも医療器具40の一部がトロッカー20を経由して被検体O1内に挿入されて露出した状態を第2の状態として検出する。第2の検出部22は、圧力センサ221と、付勢部材222と、嵌合部材223と、を有する。圧力センサ221は、付勢部材222の付勢状態を検出する。付勢部材222は、嵌合部材223を挿入部271に向けて付勢する。嵌合部材223は、挿入部271に突出可能に設けられ、後述する医療器具40に設けられた凹部42に嵌合する。
The
取得部23は、本体部27の挿入部271に挿入された医療器具40に関する医療器具情報を取得する。具体的には、取得部23は、後述する医療器具40内に設けられたICチップ41であって、医療器具40に関する医療器具情報を記録したICチップ41から無線通信によって、ICチップ41から医療器具情報を取得する。例えば、取得部23は、医療器具40内に設けられたRFID(Radio Frequency Identifier)から医療器具情報を取得する。取得部23は、ICチップリーダまたはRFIDリーダ等を用いて実現される。ここで、医療器具情報には、医療器具40の種別(例えば鉗子や電気メス)、医療器具40の型番、医療器具40が使用される手技、医療器具40の形状および医療器具40の製造年月日の少なくとも1つ以上が含まれる。なお、図2および図3では、取得部23がトロッカー20の本体部27に設けられているが、医療器具40のICチップ41から医療器具情報を取得することができればよく、例えば本体部27に着脱自在なものであってもよい。例えば、取得部23は、医療器具40に印字された2次元コード等を読み取り可能なリーダ等であってもよい。
The
通信部24は、第1の検出部21の検出結果、第2の検出部22の検出結果、取得部23の取得結果、第3の検出部25の検出結果および第4の検出部26の検出結果の各々を、伝送ケーブルを経由して医療用撮像装置30へ送信する。通信部24は、所定の通信フォーマットに従って送信する。通信部24は、通信モジュール等を用いて実現される。なお、通信部24は、図1〜図3において、有線によって医療用撮像装置30へ各種の検出結果および取得結果を送信しているが、例えば無線通信によって医療用撮像装置30または制御装置80へ送信してもよい。無線通信としては、Wi−Fi(登録商標)またはBluetooth(登録商標)が用いられる。
The
第3の検出部25は、本体部27の挿入部271に挿入される医療器具40の挿入量を検出する。具体的には、第3の検出部25は、医療器具40の先端からトロッカー20の先端から突出した医療器具40の長さを挿入量として検出する。第3の検出部25は、例えば変位センサ、エンコーダまたは光電センサ等を用いて実現される。
The
第4の検出部26は、所定の時間毎に、本体部27の挿入部271を軸に回転する医療器具40の回転量を検出する。第4の検出部26は、例えば変位センサ、エンコーダまたは光電センサ等を用いて実現される。
The
本体部27は、筒状をなし、外部から医療器具40が挿入可能な挿入部271と、被検体O1内に挿入される突部272と、被検体O1から露出する露出部273と、を有する。本体部27は、被検体O1に形成された穴(図示せず)を経由して被検体O1内に突部272が挿入される。
〔医療用撮像装置の構成〕
次に、医療用撮像装置30の構成について説明する。医療用撮像装置30は、撮像部31と、通信部32と、撮像制御部33と、を備える。
[Configuration of medical imaging device]
Next, the configuration of the
撮像部31は、撮像制御部33の制御のもと、被検体O1内における観察対象を撮像することによって画像データを生成し、この画像データを通信部32へ出力する。撮像部31は、光学系311と、撮像素子312と、を有する。光学系311は、1または複数のレンズを用いて構成される。光学系311は、観察対象からの反射光および戻り光を集光して被写体像を撮像素子312の受光面に結像する。撮像素子312は、CCD(Charge Coupled Device)センサまたはCMOS(Complementary Metal Oxide Semiconductor)センサ等のイメージセンサを用いて実現される。撮像素子312は、撮像制御部33の制御のもと、光学系311が受光面に結像した被写体像に対して光電変換を行うことによって画像データを生成し、この画像データを通信部32へ送信する。
Under the control of the image
通信部32は、撮像制御部33の制御のもと、撮像部31から入力された画像データ、トロッカー20から入力された検出結果および取得結果を制御装置80へ送信する。通信部32は、画像データに対してP/S変換処理等を行って制御装置80へ送信する。通信部32は、P/S変換回路および通信モジュール等を用いて実現される。なお、通信部32は、無線通信または光通信によって画像データ等を制御装置80へ送信してもよい。
Under the control of the image
撮像制御部33は、医療用撮像装置30を構成する各部を制御する。撮像制御部33は、メモリと、CPUまたはFPGA等のハードウェアを有するプロセッサと、を用いて実現される。
The image
〔制御装置の構成〕
次に、制御装置80の構成について説明する。制御装置80は、第1の通信部81と、画像処理部82と、入力部83と、推論部84と、記録部85と、第2の通信部86と、制御部87と、を備える。
[Control device configuration]
Next, the configuration of the
第1の通信部81は、制御部87の制御のもと、医療用撮像装置30に各種の制御データを送信し、かつ、医療用撮像装置30から送信された各種のデータを画像処理部82または制御部87へ出力する。第1の通信部81は、例えばS/P変換回路および通信モジュール等を用いて実現される。また、第1の通信部81は、医療用撮像装置30に対して無線通信または光通信によって各種データを送信してもよい。
Under the control of the control unit 87, the
画像処理部82は、制御部87の制御のもと、第1の通信部81を経由して医療用撮像装置30から入力された画像データに対して各種の画像処理を行って表示装置70へ出力することによって画像データに基づくライブビュー画像を表示装置70に表示させる。また、画像処理部82は、制御部87の制御のもと、後述する画像サーバ90から取得されたシミュレーション画像データ(ポリンゴン画像データ)と、後述する推論部84の推論結果と、に基づいて、被検体O1内の観察対象のシミュレーション画像(ポリゴンデータにグラフィック化を施したシミュレーション画像)を生成し、このシミュレーション画像を表示装置70へ出力することによってシミュレーション画像を表示させる。画像処理部82は、メモリと、GPU(Graphics Processing Unit)およびFPGA等のハードウェアを有するプロセッサを用いて実現される。
Under the control of the control unit 87, the
入力部83は、ユーザからの操作の入力を受け付け、受け付けた操作内容に応じて信号を制御部87へ出力する。入力部83は、マウス、キーボード、タッチパネル、スイッチおよびボタン等を用いて実現される。
The
推論部84は、制御部87の制御のもと、画像データに基づくライブビュー画像と、第2の通信部86を経由して画像サーバ90から取得されたシミュレーション画像データと、に基づいて、ライブビュー画像に写る被検体O1の観察対処の臓器および位置を推定し、この推定結果を画像処理部82および制御部87へ出力する。推論部84は、学習パラメータとして、ライブビュー画像、このライブビュー画像に写る臓器および位置、医療用撮像装置30の先端から臓器までの距離を示す距離情報およびライブビュー画像の特徴量、複数のシミュレーション画像データ(例えばCT画像データおよびMRI画像データの少なくとも一方に基づくポリゴンデータ)等を学習パラメータ(教師データ)として、この学習パラメータをディープラーニング(Deep Learning)等によって機械学習され、出力パラメータとしてライブビュー画像に写る被検体O1の観察対処の臓器および位置を推定した推定結果を出力する学習済みモデルを用いて実現される。ここで、機械学習としては、DNN(Deep Neural Network)、CNN(Convolutional Neural Network)およびRNN(Recurrent Neural Network)等が用いられる。また、推論部84は、医療用撮像装置30によって生成された画像データに基づくライブビュー画像が光源装置60によってマルチスペクトル光が照射されたマルチスペクトル画像データである場合、マルチスペクトル画像データに含まれる反射光周波数(各スペクトル毎)の違いを用いてマルチスペクトル画像データに写る被検体O1の観察対象の各部の生体組織種別(例えば胆嚢や膵臓等の臓器、血管、神経、リンパ、尿管および脂肪等)と、それらの位置(領域)と、を推定し、この推定結果を画像処理部82および制御部87へ出力する。また、推論部84は、メモリと、GPU等のハードウェアを有するプロセッサを用いて実現される。
Under the control of the control unit 87, the
記録部85は、医療用観察システム1に関する各種のデータを記録する。記録部85は、医療用観察システム1が実行する各種のプログラムを記録するプログラム記録部851を有する。記録部85は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)およびSSD(Solid State Drive)等を用いて実現される。
The
第2の通信部86は、制御部87の制御のもと、ネットワーク100を経由して画像サーバ90から被検体O1に対応する患者シミュレーションデータを取得し、取得した患者シミュレーション画像データを制御部87および画像処理部82へ出力する。第2の通信部86は、通信モジュール等を用いて実現される。
The
制御部87は、制御装置80を構成する各部を制御する。制御部87は、メモリと、CPU等のハードウェアを有するプロセッサを用いて実現される。制御部87は、術者によって把持された医療器具40,50が挿入され、かつ、医療器具40,50の被検体O1内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカー20の検出結果に基づいて、被検体O1内の観察対象を撮像することによって生成された第1の画像および予め取得された被検体O1内の観察対象の第2の画像の少なくとも一方を表示装置70に表示させる。第1の画像とは、ライブビュー画像である。また、第2の画像とは、シミュレーション画像である。具体的には、制御部87は、医療器具40,50が第2の状態である場合、ライブビュー画像を表示装置70に表示させる。また、制御部87は、医療器具40,50が第1の状態である場合、ライブビュー画像およびシミュレーション画像の少なくとも一方を表示装置70に表示させる。さらに、制御部87は、トロッカー20によって検出された医療器具40,50に関する医療器具情報に基づいて、シミュレーション画像上に医療器具に対応する医療器具画像を重畳して表示装置70に表示させる。
The control unit 87 controls each unit constituting the
さらにまた、制御部87は、医療器具40,50に対する術者の操作内容に基づいて、医療器具画像およびシミュレーション画像の表示態様を制御する。具体的には、制御部87は、トロッカー20が検出したトロッカー20の挿入部271への医療器具40,50の挿入量およびトロッカー20の挿入部271を軸に回転する医療器具40,50の回転量に基づいて、シミュレーション画像に写る観察対象を水平方向および水平方向の少なくとも一方に回転させる表示装置70に表示させる。また、制御部87は、ライブビュー画像からシミュレーション画像に切り替える場合、推論部84の推定結果に基づいて、ライブビュー画像に写る臓器の位置とシミュレーション画像に含まれる臓器の位置との位置合わせを行ってシミュレーション画像を表示装置70に表示させる。また、制御部87は、医療器具40,50が第1の状態である場合、ライブビュー画像とシミュレーション画像とを並列させて表示装置70に表示させる、またはシミュレーション画像上にライブビュー画像を縮小して重畳した状態で表示装置70に表示させる。さらに、制御部87は、ライブビュー画像からシミュレーション画像を切り替える場合、表示装置70に警告を出力させる。
Furthermore, the control unit 87 controls the display mode of the medical device image and the simulation image based on the operation contents of the operator with respect to the
〔画像サーバの構成〕
次に、画像サーバ90の構成について説明する。画像サーバ90は、通信部91、患者シミュレーション画像データ記録部92と、患者2次元画像データ記録部93と、患者データ記録部94と、医療器具データ記録部95と、生成部96と、サーバ制御部97と、を備える。
[Image server configuration]
Next, the configuration of the
通信部91は、サーバ制御部97の制御のもと、ネットワーク100を経由して制御装置80から要求があった被検体O1に対する患者のシミュレーション画像データを制御装置80へ送信する。通信部91は、通信モジュール等を用いて実現される。
The
患者シミュレーション画像データ記録部92は、HDDおよびSSD等を用いて実現される。患者シミュレーション画像データ記録部92は、複数の患者の各々を識別する患者IDと、シミュレーション画像データと、を対応付けて記録する。ここで、シミュレーション画像データとは、後述する生成部96が患者(被検体O1)に対してCT検査またはMRI検査等によって取得した2次元画像データに基づいて生成した3次元のポリゴンデータで構成された3次元の画像データである。なお、シミュレーション画像データとは、臓器を用いた3次元空間における手術シミュレーションを行うためのデータであって、臓器または医療器具に関するデータを含む。臓器および医療器具毎のシミュレーション画像データは、以下のパラメータを含み、三次元空間上のポリゴンデータ等で規定する。(1)位置(臓器の位置(座標情報))、(2)形状(臓器の形状、医療器具毎の形状)。さらに、臓器および医療器具毎のシミュレーション画像データは、以下のパラメータ(3)〜(7)を含んでいてもよい。(3)質量密度、(4)剛性、(5)摩擦、(6)粘性、(7)触覚。また、シミュレーション画像データは、医療器具または臓器の経時的な動きや変形に関する時系列変化の情報をさらに含むことができる。
The patient simulation image data recording unit 92 is realized by using an HDD, an SSD, or the like. The patient simulation image data recording unit 92 records the patient ID that identifies each of the plurality of patients and the simulation image data in association with each other. Here, the simulation image data, constituted by three-dimensional polygon
患者2次元画像データ記録部93は、複数の患者の各々を識別する患者IDと、CT検査またはMRI検査等によって取得した2次元画像データと、を対応付けて記録する。患者2次元画像データ記録部93は、HDDおよびSSD等を用いて実現される。
The patient two-dimensional image
患者データ記録部94は、複数の患者の各々を識別する患者IDと、複数の患者の各々のカルテデータ(診察結果または症状)と、を対応付けて記録する。患者データ記録部94は、HDDおよびSSD等を用いて実現される。 The patient data recording unit 94 records the patient ID that identifies each of the plurality of patients and the medical record data (examination result or symptom) of each of the plurality of patients in association with each other. The patient data recording unit 94 is realized by using an HDD, an SSD, or the like.
医療器具データ記録部95は、複数の医療器具の各々の医療器具情報と、複数の医療器具の各々の医療器具画像(アニメーション画像データ)と、を対応付けて記録する。医療器具データ記録部95は、HDDおよびSSD等を用いて実現される。
The medical device
生成部96は、サーバ制御部97の制御のもと、患者2次元画像データ記録部93が記録する2次元画像データに基づいて、患者のシミュレーション画像データを生成する。例えば、生成部96は、患者2次元画像データ記録部93が記録する2次元画像データに基づいて、3次元のシミュレーション画像データを生成し、このシミュレーション画像データを患者シミュレーション画像データ記録部92に記録する。
The
サーバ制御部97は、通信部91から入力された制御装置80から要求があった被検体O1に対応するシミュレーション画像データを、患者シミュレーション画像データ記録部92から取得し、取得した患者シミュレーション画像データを通信部91に送信させる。サーバ制御部97は、メモリと、CPU等のハードウェアを有するプロセッサを用いて実現される。
〔トロッカーによる医療器具の検出状況〕
次に、トロッカー20による医療器具40,50を挿入した際の検出状況について説明する。図4A〜図4Eは、トロッカー20に医療器具40を挿入した際の検出状況を模式的に示す断面図である。なお、図4A〜図4Eでは、説明を簡略化するため、被検体O1を省略している。さらに、図4A〜図4Eでは、医療器具40として鉗子を挿入する場合について説明する。
[Detection status of medical devices by trocars]
Next, the detection status when the
図4Aに示すように、まず、術者は、被検体O1内に挿入された状態のトロッカー20の挿入部271に対して、医療器具40を挿入する。この場合において、図4Bに示すように、術者は、医療器具40を挿入するに従って、医療器具40の先端が第1の検出部21の嵌合部材213に当接する。このとき、図4Cに示すように、術者は、医療器具40をトロッカー20の挿入方向にさらに押し込むことによって、付勢部材212の付勢力より術者による医療器具40の押圧力を強くなることで、嵌合部材213が挿入部271の外縁側(矢印Aを参照)に退避する。これにより、術者は、医療器具40を挿入方向にそって挿入することができる。この場合、第1の検出部21は、医療器具40が第1の状態となったことを示す検出結果を、医療用撮像装置30を経由して制御装置80へ出力する。また、図4Cに示すように、取得部23は、医療器具40に設けられたICチップ41から医療器具情報を取得し、この医療器具情報を、医療用撮像装置30を経由して制御装置80へ出力する。この医療器具40が第1の状態において、制御部87は、予め取得された被検体O1内の観察対象の第2の画像を表示装置70に表示させる(シミュレーションモード)。さらに、図4Cに示すように、第3の検出部25は、検出した術者によるトロッカー20の挿入部251への医療器具40の挿入量を、医療用撮像装置30を経由して制御装置80へ出力する。さらにまた、図4Cに示すように、第4の検出部26は、検出した術者によるトロッカー20の挿入部251内での医療器具40の回転量を、医療用撮像装置30を経由して制御装置80へ出力する。
As shown in FIG. 4A, first, the operator, the
続いて、図4Dに示すように、術者は、第1の検出部21が第1の状態を検出した状態から、医療器具40をさらに挿入方向に沿って挿入し、医療器具40の先端が第1の検出部21の嵌合部材213に当接する。この場合、図4Eに示すように、術者は、第1の検出部21の場合と同様に、医療器具40をトロッカー20の挿入方向にさらに押し込むことによって、付勢部材222の付勢力より術者による医療器具40の押圧力を強くなることで、嵌合部材223が挿入部271の外縁側(矢印Bを参照)に退避する。これにより、術者は、医療器具40を被検体O1内に挿入することができる。この場合において、第1の検出部21は、医療器具40が第2の状態となったことを示す検出結果を、医療用撮像装置30を経由して制御装置80へ出力する。
Subsequently, as shown in FIG. 4D, the operator further inserts the
その後、図4Eに示すように、第1の検出部21の嵌合部材213および第2の検出部22の嵌合部材223の各々は、医療器具40に設けられた円環状をなす凹部42および円環状をなす凹部43に嵌合する。この場合において、制御部87は、医療器具40の先端が第2の検出部22の嵌合部材223を通過したとき、予め取得された被検体O1内の観察対象のシミュレーション画像から被検体O1内の観察対象を撮像することによって生成されたライブビュー画像を表示装置70に表示させる(シミュレーションモードからライブビューモードに切り替える)。これにより、医療器具40が術者の意に反してトロッカー20から抜け落ちることを防止することができる。さらに、術者は、滞りなく、シミュレーション画像からライブビュー画像に切り替えることができる。さらにまた、術者は、第1の検出部21の嵌合部材213および第2の検出部22の嵌合部材223の各々が嵌合した状態であっても、凹部42および凹部43の各々が円環状をなすため、医療器具40を回転させながら使用することができる。この場合、制御部87は、第3の検出部25が検出した医療器具40の挿入量および第4の検出部26が検出した医療器具40の回転量に基づいて、シミュレーション画像に写る観察対象を水平方向および水平方向の少なくとも一方に回転させる表示装置70に表示させる。これにより、術者は、医療器具40を操作することによって、シミュレーション画像に写る観察対象を別視点で仮想的に確認することができる。
After that, as shown in FIG. 4E, each of the
続いて、術者は、被検体O1の観察対象に対して表示装置70によって表示されるライブビュー画像を見ながら処置を行う。この場合において、術者は、表示装置70が表示するライブビュー画像に写る観察対象(処置対象)に対して、メルクマークを見つかられないとき、または術前に確認したCT画像またはMRI画像において予測した状況と異なっているとき、医療器具40が被検体O1内に露出していない第1の状態までに引き抜く操作を行う。これにより、医療用観察システム1は、ライブビュー画像を表示するライブビューモードから被検体O1のシミュレーション画像を表示させて観察対象に対して仮想的に処置可能なシミュレーションモードへ切り替える。この結果、術者は、医療器具40を把持しながらライブビューモードとシミュレーションモードとを瞬時に切り替えることができる。さらに、第2の検出部22は、医療用観察システム1がシミュレーションモードに切り替わった場合、嵌合部材223が挿入部271の挿入方向と直交する方向に飛び出しているため、術者の意図に反して医療器具40が被検体O1内に挿入されることを防止することができる。このとき、制御部87は、第3の検出部25が検出した医療器具40の挿入量および第4の検出部26が検出した医療器具40の回転量に基づいて、シミュレーション画像に写る観察対象を水平方向および水平方向の少なくとも一方に回転させる表示装置70に表示させる。これにより、術者は、術前に確認したCT画像またはMRI画像において予測した状況と異なっている場合であっても、医療器具40を操作することによって、シミュレーション画像に写る観察対象を別視点で仮想的に確認することができる。
Subsequently, the operator performs treatment while viewing a live view image displayed by the
〔医療用観察システムの処理〕
次に、医療用観察システム1が実行する処理について説明する。図5は、医療用観察システム1が実行する処理の概要を示すフローチャートである。
[Processing of medical observation system]
Next, the process executed by the
図5に示すように、まず、制御部87は、トロッカー20の第1の検出部21によって検出された検出結果に基づいて、医療器具40が第1の状態であるか否かを判断する(ステップS101)。具体的には、制御部87は、トロッカー20の第1の検出部21から医療器具40の挿入を検出した検出結果が入力されたか否かを判断する。制御部87によって医療器具40が第1の状態であると判断された場合(ステップS101:Yes)、医療用観察システム1は、後述するステップS102へ移行する。これに対して、制御部87によって医療器具40が第1の状態でないと判断された場合(ステップS101:No)、医療用観察システム1は、後述するステップS108へ移行する。
As shown in FIG. 5, first, the control unit 87 determines whether or not the
ステップS102において、制御部87は、取得部23によって取得された医療器具40に関する医療器具情報を取得する。具体的には、取得部23は、医療器具40のICチップ41から医療器具情報を取得し、この取得した医療器具情報を、医療用撮像装置30を経由して制御部87へ出力する。
In step S102, the control unit 87 acquires the medical device information regarding the
続いて、制御部87は、トロッカー20の第2の検出部22によって検出された検出結果に基づいて、医療器具40が第2の状態であるか否かを判断する(ステップS103)。具体的には、制御部87は、トロッカー20の第2の検出部22から医療器具40の挿入を検出した検出結果(ライブビューモード)が入力されたか否かを判断する。制御部87によって医療器具40が第2の状態であると判断された場合(ステップS103:Yes)、医療用観察システム1は、後述するステップS104へ移行する(ライブビューモードへ遷移する)。これに対して、制御部87によって医療器具40が第2の状態でないと判断された場合(ステップS103:No)、医療用観察システム1は、後述するステップS109へ移行する(シミュレーションモードへ遷移する)。
Subsequently, the control unit 87 determines whether or not the
ステップS104において、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する。この場合、制御部87は、第1の通信部81に画像データを画像処理部82に出力させる。
In step S104, the control unit 87 acquires the image data generated by the
続いて、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて出力させることによって表示装置70にライブビュー画像を表示させる(ステップS105)。具体的には、図6に示すように、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて出力させることによって表示装置70に画像データに基づくライブビュー画像PLiveを表示させる。これにより、術者は、表示装置70が表示するライブビュー画像PLiveを見ながら被検体O1の観察対象に対して処置を行うことができる。
Subsequently, the control unit 87 causes the
その後、制御部87は、入力部83から蛍光観察を行う特殊光モードを指示する指示信号が入力されたか否かを判断する(ステップS106)。制御部87によって入力部83から蛍光観察を行う特殊光モードを指示する指示信号が入力されたと判定された場合(ステップS106:Yes)、医療用観察システム1は、後述するステップS107へ移行する。これに対して、制御部87によって入力部83から蛍光観察を行う特殊光モードを指示する指示信号が入力されていないと判定された場合(ステップS106:No)、医療用観察システム1は、後述するステップS108へ移行する。
After that, the control unit 87 determines whether or not an instruction signal instructing the special light mode for observing fluorescence has been input from the input unit 83 (step S106). When it is determined by the control unit 87 that the instruction signal instructing the special light mode for fluorescence observation is input from the input unit 83 (step S106: Yes), the
ステップS107において、制御部87は、被検体O1の観察対象を撮像する医療用撮像装置30の先端と、被検体O1の観察対象と、の距離に基づいて、被検体O1の観察対象の蛍光を観察する際の観察対象から医療用撮像装置30の先端までの最適な距離を含む距離情報を、表示装置70が表示するライブビュー画像上に重畳表示させる。具体的には、図7に示すように、制御部87は、ライブビュー画像PLiveに距離情報B1を重畳表示して表示装置70に表示させる。距離情報B1には、現在の被検体O1の観察対象の蛍光を観察する際の観察対象から医療用撮像装置30の先端までの現在距離K1と、最適な距離範囲H1と、が含まれる。ここで、最適な距離範囲H1は、医療用撮像装置30の先端を観察対象に接触させる位置からトロッカー20側に4cm〜5cmほど手前側(術者側)に引き抜いた距離である。これにより、術者は、距離情報B1に含まれる現在距離K1と、観察対象からの蛍光の発光量と、を観察することによって、観察対象から医療用撮像装置30の先端までの距離によって見え方が異なる発光量であっても、偽陽性または偽陰性を確実に防止することができる。
In step S107, the control unit 87, the tip of the
その後、制御部87は、入力部83から被検体O1の処置を終了する指示信号が入力されたか否かを判断する(ステップS108)。制御部87によって入力部83から被検体O1の処置を終了する指示信号が入力されたと判断された場合(ステップS108:Yes)、医療用観察システム1は、本処理を終了する。これに対して、制御部87によって入力部83から被検体O1の処置を終了する指示信号が入力されていないと判断した場合(ステップS108:No)、医療用観察システム1は、上述したステップS101へ戻る。
After that, the control unit 87 determines whether or not an instruction signal for terminating the treatment of the subject O 1 has been input from the input unit 83 (step S108). When it is determined by the control unit 87 that the instruction signal for terminating the treatment of the subject O 1 has been input from the input unit 83 (step S108: Yes), the
ステップS109において、医療用観察システム1は、被検体O1に対応するシミュレーション画像を表示するシミュレーションモード処理を実行する。
In step S109, the
〔シミュレーションモード処理〕
図8は、ステップS109におけるシミュレーションモード処理の概要を示すフローチャートである。
[Simulation mode processing]
FIG. 8 is a flowchart showing an outline of the simulation mode processing in step S109.
図8に示すように、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する(ステップS201)。この場合、制御部87は、第1の通信部81に画像データを画像処理部82および推論部84に出力させる。
As shown in FIG. 8, the control unit 87 acquires the image data generated by the
続いて、制御部87は、第2の通信部86およびネットワーク100を経由して被検体O1に対応するシミュレーション画像データを画像サーバ90から取得する(ステップS202)。具体的には、制御部87は、予め術者や看護師等のユーザによって設定された被検体O1に関する患者IDに基づいて、被検体O1の患者IDに対応するシミュレーション画像データであって、CT検査またはMRI検査等によって予め被検体O1に対して撮像された2次元画像データを用いて生成されたシミュレーション画像データを画像サーバ90から取得する。この場合、制御部87は、第2の通信部86にシミュレーション画像データを画像処理部82および推論部84の各々へ出力させる。
Subsequently, the control unit 87 acquires simulation image data corresponding to the object O 1 via the
その後、推論部84は、第1の通信部81から入力された医療用撮像装置30によって生成された画像データと、第2の通信部86から入力されたシミュレーション画像データと、に基づいて、画像データに基づくライブビュー画像PLiveに写る臓器、血管および位置を推論する(ステップS203)。なお、推論部84は、画像データに、距離情報が含まれている場合、この距離情報をさらに推論に用いてもよい。この場合、推論部84は、距離情報を用いて、医療用撮像装置30の光学系311の光軸(トロッカー10の挿入方向)に対する基準としたときのライブビュー画像PLiveに写る臓器、血管および神経等の向き(方向)およびつぶれ具合等を推定してもよい。推論部84は、推論結果を制御部87および画像処理部82へ出力する。また、推論部84は、医療用撮像装置30によって生成された画像データが光源装置60によってマルチスペクトル光が照射されたマルチスペクトル画像データである場合、推論部84がマルチスペクトル画像データに含まれる反射光周波数(各スペクトル毎)の違いを用いて推論した各部の生体組織種別(例えば胆嚢や膵臓等の臓器、血管、神経、リンパ、尿管および脂肪等)と、それらの位置(領域)と、をライブビュー画像上の位置に重畳させても表示装置70に表示させてもよい。
After that, the
続いて、制御部87は、画像処理部82に推論部84の推論結果に基づくライブビュー画像PLiveとシミュレーション画像データに基づくシミュレーション画像との位置合わせを行わせたシミュレーション画像を生成させる(ステップS204)。具体的には、まず、制御部87は、画像処理部82に、推論部84の推論結果に基づいて、ライブビュー画像PLiveとシミュレーション画像(ポリゴンデータ)との位置合わせを行わせる。そして、制御部87は、シミュレーション画像(ポリゴンデータ)にグラフィック化を行ってシミュレーション画像を生成する。さらに、制御部87は、取得部23によって取得された医療器具情報に応じた医療器具40を仮想的に表した医療器具画像をシミュレーション画像内に重畳する。さらにまた、制御部87は、画像処理部82にシミュレーション画像にライブビュー画像を重畳させる。なお、画像処理部82は、推論部84の推論結果に臓器の向きおよびつぶれ具合等を含めてシミュレーション画像を生成してもよい。
Subsequently, the control unit 87 causes the
図9は、表示装置70が表示するシミュレーション画像の一例を示す図である。図9に示すように、制御部87は、画像処理部82にシミュレーション画像Psim1上にライブビュー画像PLiveを重畳するとともに、取得部23によって取得された医療器具情報に応じた医療器具40を仮想的に表した医療器具画像W40,W50をシミュレーション画像Psim1上に重畳して表示装置70に表示させる。なお、図9では、制御部87は、画像処理部82にシミュレーション画像Psim1上にライブビュー画像PLiveを重畳させていたが、これに限定されることなく、シミュレーション画像Psim1とライブビュー画像PLiveとを並列させてもよいし、シミュレーション画像Psim1およびライブビュー画像PLiveのどちらか一方の表示領域を小さくして並列させてもよい。さらにまた、制御部87は、シミュレーション画像Psim1上に指導医等がキーボード等を用いて入力したテキストデータに基づくテキスト、腫瘍位置およびメルクマーク等の位置を重畳して表示させてもよい。
FIG. 9 is a diagram showing an example of a simulation image displayed by the
図10は、表示装置70が表示する医学情報の一例を示す図である。図10に示すように、制御部87は、第2の画像としてライブビュー画像PLiveに医学情報を重畳して表示装置70に表示させてもよい。具体的には、図10に示すように、制御部87は、画像処理部82にライブビュー画像PLiveに写る胆嚢の付近に医学情報としての胆嚢であることを示すテキストデータA10および胆嚢の位置を指す矢印Y10をライブビュー画像PLiveに重畳させて表示装置70に表示させる。ここで、医学情報とは、血管名、神経名および臓器名等である。もちろん、制御部87は、ライブビュー画像PLiveに写る胆嚢の付近に医学情報を重畳していたが、適宜変更することができる。さらに、制御部87は、画像処理部82にシミュレーション画像Psim1上にライブビュー画像PLiveを重畳させるとともに、シミュレーション画像Psim1およびライブビュー画像PLiveの少なくとも一方に重畳させて表示装置70に表示させてもよい。さらにまた、制御部87は、ライブビュー画像が光源装置60のマルチスペクトル光源によってマルチスペクトル光が照射されることによって医療用撮像装置30が生成した画像データがマルチスペクトル画像データである場合、推論部84がマルチスペクトル画像データに含まれる反射光周波数(各スペクトル毎)の違いを用いて推論した各部の生体組織種別(例えば胆嚢や膵臓等の臓器、血管、神経、リンパ、尿管および脂肪等)、それらの位置(領域)をライブビュー画像上の位置に重畳させて表示装置70に表示させてもよい。
FIG. 10 is a diagram showing an example of medical information displayed by the
その後、制御部87は、画像処理部82が生成したシミュレーション画像データを表示装置70に出力させることによって表示装置70にシミュレーション画像を表示させる(ステップS205)。これにより、術者は、医療器具40から手を離すことなく、自由にシミュレーション画像Psim1とライブビュー画像PLiveとを切り替えることができる。さらに、術者は、実視野と同じ視野のライブビュー画像PLiveから同じ視野のシミュレーション画像Psim1に切り替えので、違和感なく観察することができる。なお、制御部87は、シミュレーション画像Psim1を表示装置70に表示させる場合、表示装置70が表示する画像がシミュレーション画像Psim1であることを音声または文字等によって警告させてもよいし、画像枠等をハイライト表示(例えば点滅等に表示)させることによって警告させてもよい。
After that, the control unit 87 causes the
続いて、制御部87は、画像処理部82に医療器具40に対する操作内容に基づいて、シミュレーション画像の表示態様を制御する(ステップS206)。具体的には、制御部87は、第3の検出部25の検出結果に基づいて、医療器具40に対する操作内容がシミュレーション画像Psim1上に写る臓器O2の奥行き方向へ進行する内容である場合、例えば医療器具40をトロッカー20に対して挿入方向に押し込む操作の場合、現在のシミュレーション画像Psim1上に写る臓器O2の次の層(例えば臓器を輪切りした層)または図11に示すような臓器O2の裏側から見た状態の臓器に加工したシミュレーション画像Psim2を画像処理部82に生成させて表示装置70に出力させる。この場合、制御部87は、第3の検出部25の検出結果に基づいて、術者が医療器具40をトロッカー20に対して挿入方向に押し込む挿入量(操作量)に応じて臓器O2を水平方向に回転したシミュレーション画像Psim2を画像処理部82に生成させて表示装置70に出力させる。例えば、制御部87は、第3の検出部25の検出結果に基づいて、術者が医療器具40をトロッカー20に対して挿入方向に押し込んでいると判断し、現在のシミュレーション画像Psim1上に写る臓器O2の次の層や裏側から見た状態に加工したシミュレーション画像Psim2を画像処理部82に生成させて表示装置70に出力させる。図11に示す場合、シミュレーション画像Psim2の臓器O2には、裏側から見た際の血管O3が含まれている。これにより、術者は、直感的な操作で所望の視点で仮想的に臓器を観察することができる。
Subsequently, the control unit 87 controls the
また、制御部87は、術者の操作量に応じて、現在のシミュレーション画像Psim1上に写る臓器O2の次の層(例えば臓器を輪切りした層)や裏側から見た状態に加工したシミュレーション画像を画像処理部82に生成させて表示装置70に出力させる。なお、制御部87は、第1の検出部21の嵌合部材213が医療器具40における凹部42と凹部43部との間に所定の間隔で外周側に突起させて設けられた複数の突起部44の各々に接触して、その都度、乗り越えることによって、圧力センサ211が検出する圧力値の変化率が所定値以上であるか否かを判定することによって挿入量を検出するようにしてもよい。この場合、制御部87は、第1の検出部21の嵌合部材213が医療器具40の突起部44を乗り越えることによって変化する圧力センサ211の圧力値の変化率が所定値以上の数に応じて、術者が医療器具40をトロッカー20に対して挿入方向に押し込む挿入量(操作量)や引き抜く挿入量(操作量)を判断する。なお、制御部87は、圧力値の変化率が所定値以上であるか否かを判断しているが、変化率に限定されることなく、圧力値の最大値および最小値であってもよい。もちろん、医療器具40における複数の突起部44の形状を適宜変更してもよいし、予測される圧力値に応じて複数の突起部44の形状を変更してもよい。
In addition, the control unit 87 processes the next layer of the organ O2 (for example, a layer obtained by slicing the organ) on the current simulation image P sim1 or a simulation image processed into a state viewed from the back side according to the operation amount of the operator. Is generated by the
また、制御部87は、第4の検出部26の検出結果に基づいて、術者が医療器具40をトロッカー20に対して回転させた回転量に応じて臓器O2を垂直方向に回転したシミュレーション画像を画像処理部82に生成させて表示装置70に出力させてもよい。もちろん、制御部87は、第3の検出部25の検出結果および第4の検出部26の検出結果に基づいて、臓器O2を水平方向および垂直方向に回転したシミュレーション画像を画像処理部82に生成させて表示装置70に出力させてもよい。
Further, the control unit 87 simulates that the organ O 2 is rotated in the vertical direction according to the amount of rotation of the
また、制御部87は、医療器具40に対する操作内容がシミュレーション画像Psim2上に写る臓器O2と脂肪とを医療器具40によって切除する内容である場合、図12に示すように、医療器具40によって臓器O2から脂肪を切り離すシミュレーション画像Psim2上を画像処理部82に生成させて表示装置70に出力させる。これにより、術者は、シミュレーション画像Psim2上において仮想的にシミュレーションを行うことができる。さらに、術者は、使い慣れた医療器具40でシミュレーションを行うことができる。ステップS206の後、図5のメインルーチンへ戻り、ステップS110へ移行する。
Further, when the operation content for the
図5に戻り、ステップS110以降の説明を続ける。
ステップS110において、制御部87は、トロッカー20の第2の検出部22によって検出された検出結果に基づいて、医療器具40が第2の状態であるか否かを判断する。具体的には、制御部87は、トロッカー20の第2の検出部22から医療器具40の挿入を検出した検出結果(ライブビューモード)が入力されたか否かを判断する。制御部87によって医療器具40が第2の状態であると判断した場合(ステップS110:Yes)、医療用観察システム1は、ステップS104へ移行する(ライブビューモードへ遷移する)。これにより、術者は、医療器具40から手を離すことなく、そのまま自由にシミュレーション画像Psim1から現在の視野のライブビュー画像PLiveに違和感なく切り替えることができ、処置を行うことができる。さらに、術者は、トロッカー20を経由して医療器具40に対する簡易な操作でシミュレーション画像Psim1(シミュレーションモード)とライブビュー画像PLive(ライブビューモード)と切り替えることができ、安全に手技を行うことができる。さらに、術者は、トロッカー20を経由して医療器具40に対する簡易な操作でシミュレーション画像Psim1(シミュレーションモード)とライブビュー画像PLive(ライブビューモード)と切り替えることができるため、術前に、チーム全員で確認および評価を行うことができるので、より一層手技の効率化を図ることができる。さらに、術者は、医療器具40をトロッカー20に対して強く挿入しなければ第2の状態にすることができないので、安全性を高めることができる。これに対して、制御部87によって医療器具40が第2の状態でないと判断した場合(S110:No)、医療用観察システム1は、ステップS109へ移行する(シミュレーションモードを継続する)。これにより、医療器具40がトロッカー20内に位置する第1の状態である場合のみ、シミュレーション画像Psim1を表示するため、被検体O1の術部に触れることを防止することができる。
Returning to FIG. 5, the description after step S110 will be continued.
In step S110, the control unit 87 determines whether or not the
以上説明した実施の形態1によれば、制御部87が術者によって把持された医療器具40が挿入され、かつ、医療器具40の被検体O1内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカー20の検出結果に基づいて、被検体O1内の観察対象を撮像することによって生成されたライブビュー画像および予め取得された被検体O1内の観察対象のシミュレーション画像の少なくとも一方を表示装置70に表示させるため、術中における術者の邪魔をすることなく、術中の術者を補助することができるうえ、術者の経験値に関係なく、手術を行うことができる。
According to the first embodiment described above, the control unit 87 is inserted
また、実施の形態1によれば、制御部87がトロッカー20によって医療器具40が第2の状態であると検出された場合、ライブビュー画像PLiveを表示装置70に表示させるため、術者がライブビュー画像PLiveを見つつ、把持した医療器具40,50によって処置を行うことができる。
Further, according to the first embodiment, when the control unit 87 detects that the
また、実施の形態1によれば、制御部87がトロッカー20によって医療器具40が第1の状態であると検出された場合、ライブビュー画像PLiveおよびシミュレーション画像Psim1の少なくとも一方を表示装置70に表示させるため、術者が医療器具40を把持しながらライブビュー画像PLiveとシミュレーション画像Psim1とをスムーズに切り替えることができるうえ、他のスイッチや医療器具に持ち替えることなく行うことができる。
Further, according to the first embodiment, when the control unit 87 detects that the
また、実施の形態1によれば、制御部87がトロッカー20によって検出された医療器具40に関する医療器具情報に基づいて、シミュレーション画像Psim1上に医療器具に対応する医療器具画像を重畳して表示装置70に表示させるため、処置を行う対象物と医療器具40との位置関係を直感的に把握することができる。
Further, according to the first embodiment, the control unit 87 superimposes and displays the medical device image corresponding to the medical device on the simulation image P sim1 based on the medical device information regarding the
また、実施の形態1によれば、制御部87が医療器具40に対する術者の操作内容に基づいて、医療器具画像およびシミュレーション画像Psim1の表示態様を制御するため、実際の感覚に似た操作でシミュレーションを行うことができる。
Further, according to the first embodiment, the control unit 87 controls the display mode of the medical device image and the simulation image P sim1 based on the operation content of the operator with respect to the
また、実施の形態1によれば、制御部87がライブビュー画像PLiveからシミュレーション画像Psim1に切り替える場合、推論部84の推定結果に基づいて、ライブビュー画像PLiveに写る臓器の位置とシミュレーション画像Psim1に含まれる臓器の位置との位置合わせを行ってシミュレーション画像Psim1を表示装置70に表示させるため、ライブビュー画像PLiveから違和感なくシミュレーション画像Psim1に切り替えることができるうえ、現在の観察視野に写る臓器を見失うことを防止することができる。
Further, according to the first embodiment, when the control unit 87 switches from the live view image P Live to the simulation image P sim1 , the position and simulation of the organs reflected in the live view image P Live are based on the estimation result of the
また、実施の形態1によれば、医療器具40が第1の状態である場合、制御部87がシミュレーション画像Psim1上にライブビュー画像PLiveを縮小して重畳した状態で表示装置70に表示させるため、シミュレーション画像Psim1とライブビュー画像PLiveとを比較しながらシミュレーションを行うことができる。
Further, according to the first embodiment, when the
また、実施の形態1によれば、制御部87がライブビュー画像PLiveからシミュレーション画像Psim1にきりかえ場合、表示装置70に警告を出力させるため、術者がライブビュー画像PLiveからシミュレーション画像Psim1に切り替わったことを直感的に把握することができる。
Further, according to the first embodiment, when the control unit 87 switches from the live view image P Live to the simulation image P sim1, the operator outputs a warning to the
また、実施の形態1によれば、トロッカー20が検出したトロッカー20の挿入部271への医療器具40,50の挿入量およびトロッカー20の挿入部271を軸に回転する医療器具40,50の回転量に基づいて、制御部87がシミュレーション画像Psim2に写る観察対象を水平方向および水平方向の少なくとも一方に回転させる表示装置70に表示させる。これにより、術者は、医療器具40,50を操作するだけで、シミュレーション画像を所望の視点に遷移させることができる。
Further, according to the first embodiment, the amount of the
また、実施の形態1によれば、制御部87が被検体O1の観察対象を撮像する医療用撮像装置30の先端と、被検体O1の観察対象と、の距離に基づいて、被検体O1の観察対象の蛍光を観察する際の観察対象から医療用撮像装置30の先端までの最適な距離を含む距離情報B1を、表示装置70が表示するライブビュー画像PLive上に重畳表示させる。これにより、術者は、距離情報B1に含まれる現在距離K1と、観察対象からの蛍光の発光量と、を観察することによって、観察対象から医療用撮像装置30の先端までの距離によって見え方が異なる発光量であっても、偽陽性または偽陰性を確実に防止することができる。
Further, according to the first embodiment, the control unit 87 and the distal end of the
(実施の形態2)
次に、実施の形態2について説明する。実施の形態2は、上述した実施の形態1に係る医療用観察システム1と同一の構成を有し、実行する処理が異なる。具体的には、上述した実施の形態1では、1つのトロッカー20による検出結果に基づいて、ライブビュー画像およびシミュレーション画像の少なくとも一方を表示装置70に表示させていたが、実施の形態2では、2つのトロッカーの各々の検出結果に基づいて、ライブビュー画像およびシミュレーション画像の少なくとも一方を表示装置70に表示させる。以下においては、実施の形態2に係る医療用観察システムが実行する処理について説明する。なお、上述した実施の形態1に係る医療用観察システム1と同一の構成には同一の符号を付して詳細な説明を省略する。
(Embodiment 2)
Next, the second embodiment will be described. The second embodiment has the same configuration as the
〔医療用観察システムの処理〕
図13は、実施の形態2に係る医療用観察システム1が実行する処理の概要を示すフローチャートである。
[Processing of medical observation system]
FIG. 13 is a flowchart showing an outline of the process executed by the
図13に示すように、まず、制御部87は、2つのトロッカー20L,20Rの第1の検出部21の各々によって検出された検出結果に基づいて、2つの医療器具40,50が第1の状態になったか否かを判断する。具体的には、制御部87は、2つのトロッカー20L,20Rの第1の検出部21の各々から医療器具40または医療器具50の挿入を検出した検出結果が入力されたか否かを判断する。制御部87によって2つの医療器具40,50が第1の状態であると判断された場合(ステップS301:Yes)、医療用観察システム1は、後述するステップS302へ移行する。これに対して、制御部87によって2つの医療器具40,50が第1の状態でないと判断された場合(ステップS301:No)、医療用観察システム1は、後述するステップS313へ移行する。
As shown in FIG. 13, first, the control unit 87 has two
ステップS302において、制御部87は、2つのトロッカー20L,20Rの取得部23によって取得された医療器具40,50の各々の種別情報を取得する。
In step S302, the control unit 87 acquires the type information of each of the
続いて、制御部87は、2つのトロッカー20L,20Rの第2の検出部22の各々によって検出された検出結果に基づいて、2つの医療器具40,50が第2の状態になったか否かを判断する(ステップS303)。具体的には、制御部87は、2つのトロッカー20L,20Rの第2の検出部22の各々から医療器具40または医療器具50の挿入を検出した検出結果が入力されたか否かを判断する。制御部87によって2つの医療器具40,50が第2の状態であると判断された場合(ステップS303:Yes)、医療用観察システム1は、後述するステップS306へ移行する。これに対して、制御部87によって2つの医療器具40,50が第2の状態でないと判断された場合(ステップS303:No)、医療用観察システム1は、後述するステップS304へ移行する。
Subsequently, the control unit 87 determines whether or not the two
ステップS304において、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する。この場合、制御部87は、第1の通信部81に画像データを画像処理部82に出力させる。
In step S304, the control unit 87 acquires the image data generated by the
その後、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて表示装置70に出力させることによって表示装置70に画像データに基づくライブビュー画像(例えば図6のライブビュー画像PLiveを参照)を表示させる(ステップS305)。ステップS305の後、医療用観察システム1は、上述したステップS303へ戻る。
After that, the control unit 87 causes the
ステップS306において、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する。
In step S306, the control unit 87 acquires the image data generated by the
続いて、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて出力させることによって表示装置70にライブビュー画像を表示させる(ステップS307)。
Subsequently, the control unit 87 causes the
その後、制御部87は、2つのトロッカー20L,20Rの第2の検出部22の各々によって検出された検出結果に基づいて、2つの医療器具40,50が第2の状態になったか否かを判断する(ステップS308)。制御部87によって2つの医療器具40,50が第2の状態になったと判断された場合(ステップS308:Yes)、医療用観察システム1は、後述するステップS309へ移行する。これに対して、制御部87によって2つの医療器具40,50が第2の状態になっていないと判断された場合(ステップS308:No)、医療用観察システム1は、後述するステップS314へ移行する。
After that, the control unit 87 determines whether or not the two
ステップS309において、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する。
In step S309, the control unit 87 acquires the image data generated by the
続いて、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて出力させることによって表示装置70にライブビュー画像を表示させる(ステップS310)。これにより、術者は、2つの医療器具40,50を被検体O1内に挿入した状態でライブビュー画像を見ながら処置を行う。
Subsequently, the control unit 87 causes the
ステップS311〜ステップS315は、上述した図5のステップS106〜ステップS110それぞれに対応する。 Steps S311 to S315 correspond to each of steps S106 to S110 in FIG. 5 described above.
ステップS316において、制御部87は、2つのトロッカー20L,20Rの第2の検出部22の各々によって検出された検出結果に基づいて、2つの医療器具40,50のうち1つが第2の状態になったか否かを判断する。制御部87によって2つの医療器具40,50のうち1つが第2の状態であると判断された場合(ステップS316:Yes)、医療用観察システム1は、ステップS309へ移行する。これにより、術者は、2つの医療器具40,50のうち1つが第1の状態となった場合であっても、制御部87がライブビュー画像を表示装置70に表示させるため(ライブビューモードへ遷移)、実際の視野において被検体O1の処置を行うことができる。この場合、制御部87は、表示装置70にシミュレーション画像でないことを音声およびテキスト等によって警告させてもよい。これに対して、制御部87によって2つの医療器具40,50のうち1つが第2の状態でないと判断された場合(ステップS316:No)、医療用観察システム1は、ステップS303へ移行する。
In step S316, the control unit 87 puts one of the two
以上説明した実施の形態2によれば、制御部87が術者によって把持された2つの医療器具40,50が挿入され、かつ、医療器具40の被検体O1内への挿入状態を示す第1の状態と第2の状態を検出可能な2つのトロッカー20の検出結果に基づいて、被検体O1内の観察対象を撮像することによって生成されたライブビュー画像および予め取得された被検体O1内の観察対象のシミュレーション画像の少なくとも一方を表示装置70に表示させるため、術中における術者の邪魔をすることなく、術中の術者を補助することができる。
According to the second embodiment described above, the control unit 87 are inserted two
また、実施の形態1によれば、制御部87が2つのトロッカー20によって2つの医療器具40,50が第2の状態であると検出された場合、ライブビュー画像PLiveを表示装置70に表示させるため、術者がライブビュー画像PLiveを見つつ、把持した医療器具40,50によって処置を行うことができる。
Further, according to the first embodiment, when the control unit 87 detects that the two
また、実施の形態1によれば、制御部87が22つのトロッカー20によって2つの医療器具40,50が第1の状態であると検出された場合、少なくともシミュレーション画像Psim1の少なくとも一方を表示装置70に表示させるため、術者が医療器具40を把持しながらライブビュー画像PLiveとシミュレーション画像Psim1とをスムーズに切り替えることができるうえ、他のスイッチや他の医療器具に持ち替えることなく行うことができる。
Further, according to the first embodiment, when the control unit 87 detects that the two
また、実施の形態1では、制御部87が22つのトロッカー20によって2つの医療器具40,50が第1の状態であると検出された場合のみ、少なくともシミュレーション画像Psim1を表示装置70に表示させるため、術者が医療器具40を把持しながらライブビュー画像PLiveとシミュレーション画像Psim1とをスムーズに切り替えることができる。
Further, in the first embodiment, at least the simulation image P sim 1 is displayed on the
(その他の実施の形態)
上述した本開示の実施の形態1,2に係る医療用観察システムに開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した本開示の実施の形態に係る医療用観察システムに記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した本開示の実施の形態1,2に係る医療用観察システムで説明した構成要素を適宜組み合わせてもよい。
(Other embodiments)
Various inventions can be formed by appropriately combining a plurality of components disclosed in the medical observation system according to the first and second embodiments of the present disclosure described above. For example, some components may be deleted from all the components described in the medical observation system according to the embodiment of the present disclosure described above. Further, the components described in the medical observation system according to the first and second embodiments of the present disclosure described above may be appropriately combined.
また、本開示の実施の形態1,2に係る医療用観察システムでは、上述してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。 Further, in the medical observation system according to the first and second embodiments of the present disclosure, the above-mentioned "part" can be read as "means", "circuit" and the like. For example, the control unit can be read as a control means or a control circuit.
また、本開示の実施の形態1,2に係る医療用観察システムに実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 Further, the program to be executed by the medical observation system according to the first and second embodiments of the present disclosure is a CD-ROM, a flexible disk (FD), a CD-R, in an installable format or an executable format file data. It is provided by being recorded on a computer-readable recording medium such as a DVD (Digital Versatile Disk), a USB medium, or a flash memory.
また、本開示の実施の形態1,2に係る医療用観察システムに実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。 Further, the program to be executed by the medical observation system according to the first and second embodiments of the present disclosure is configured to be stored on a computer connected to a network such as the Internet and provided by downloading via the network. You may.
なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。 In the description of the flowchart in the present specification, the context of the processing between steps has been clarified by using expressions such as "first", "after", and "continued", but in order to carry out the present invention. The order of processing required is not uniquely defined by those representations. That is, the order of processing in the flowchart described in the present specification can be changed within a consistent range.
以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本開示を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications based on the knowledge of those skilled in the art, including the embodiments described in the columns of the present disclosure. It is possible to implement the present disclosure in other modified forms.
なお、本技術は以下のような構成も取ることができる。
(付記1)
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象に関する第2の画像の少なくとも一方を表示装置に表示させる制御部を備える、
医療用画像処理装置。
(付記2)
(付記1)に記載の医療用画像処理装置であって、
前記第1の状態は、前記医療器具が前記トロッカー内に位置する状態であり、
前記第2の状態は、少なくとも前記医療器具の一部が前記トロッカーを経由して前記被検体内に挿入されて露出した状態である、
医療用画像処理装置。
(付記3)
(付記1)または(付記2)に記載の医療用画像処理装置であって、
前記制御部は、
前記医療器具が前記第2の状態である場合、前記第1の画像を前記表示装置に表示させる一方、
前記医療器具が前記第1の状態である場合、少なくとも前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
(付記4)
(付記1)〜(付記3)のいずれか1つに記載の医療用画像処理装置であって、
前記制御部は、
前記トロッカーによって検出された前記医療器具に関する医療器具情報に基づいて、前記第2の画像上に前記医療器具に対応する医療器具画像を重畳して前記表示装置に表示させる、
医療用画像処理装置。
(付記5)
(付記4)に記載の医療用画像処理装置であって、
前記制御部は、
前記医療器具に対する術者の操作内容に基づいて、前記医療器具画像および前記第2の画像の表示態様を制御する、
医療用画像処理装置。
(付記6)
(付記5)に記載の医療用画像処理装置であって、
前記第1の画像に写る臓器の位置と前記第2の画像に含まれる臓器の位置との位置を推定する推論部をさらに備え、
前記制御部は、
前記第1の画像から前記第2の画像に切り替える場合、前記推論部の推定結果に基づいて、前記第1の画像に写る臓器の位置と前記第2の画像に含まれる臓器の位置との位置合わせを行った前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
(付記7)
(付記1)〜(付記6)のいずれか1つに記載の医療用画像処理装置であって、
前記制御部は、
前記第1の画像と前記第2の画像とを並列させて前記表示装置に表示させる、または前記第2の画像上に前記第1の画像を縮小して重畳した状態で前記表示装置に表示させる、
医療用画像処理装置。
(付記8)
(付記1)〜(付記7)のいずれか1つに記載の医療用画像処理装置であって、
前記制御部は、
前記第1の画像から前記第2の画像を切り替える場合、前記表示装置に警告を出力させる、
医療用画像処理装置。
(付記9)
(付記1)〜(付記8)のいずれか1つに記載の医療用画像処理装置であって、
前記トロッカーは、2つであり、
2つの前記トロッカーの各々が前記第2の状態を検出した場合、前記第1の画像を前記表示装置に表示させる一方、
2つの前記トロッカーの各々が前記第1の状態を検出した場合、少なくとも前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
(付記10)
(付記1)〜(付記9)のいずれか1つに記載の医療用画像処理装置であって、
前記第1の画像は、
前記被検体内の観察対象を連続的に撮像することによって生成されたライブビュー画像であり、
前記第2の画像は、
前記被検体内の観察対象のシミュレーション画像である、
医療用画像処理装置。
(付記11)
(付記1)〜(付記9)のいずれか1つに記載の医療用画像処理装置であって、
前記第1の画像は、
前記被検体内の観察対象を連続的に撮像することによって生成されたライブビュー画像であり、
前記第2の画像は、
前記被検体内の観察対象に関する医学情報である、
医療用画像処理装置。
(付記12)
(付記5)に記載の医療用画像処理装置であって、
前記制御部は、
前記トロッカーが検出した前記トロッカーの挿入部を軸に回転する前記医療器具の回転量および前記トロッカーの挿入部への前記医療器具の挿入量の少なくとも一方に基づいて、前記第2の画像に写る前記観察対象を水平方向および垂直方向の少なくとも一方に回転させて前記表示装置に表示させる、
医療用画像処理装置。
(付記13)
(付記1)に記載の医療用画像処理装置であって、
前記制御部は、
前記観察対象を撮像する医療用撮像装置の先端と、前記観察対象と、の距離に基づいて、前記観察対象の蛍光を観察する際の前記観察対象から前記先端までの最適な距離を含む距離情報を前記表示装置に表示させる、
医療用画像処理装置。
(付記14)
筒状をなし、外部から医療器具が挿入可能な穴部を有する本体部と、
前記穴部の挿入方向に沿って設けられ、前記穴部に挿入された前記医療器具の位置を第1の状態として検出する第1の検出部と、
前記穴部の挿入方向に沿って前記第1の検出部より挿入距離が長い位置に設けられ、前記穴部に挿入された前記医療器具の位置を第2の状態として検出する第2の検出部と、
を備える、
トロッカー。
(付記15)
付記14に記載のトロッカーであって、
前記穴部に挿入される前記医療器具に設けられた前記医療器具に関する医療器具情報を取得する取得部をさらに備える、
トロッカー。
(付記16)
(付記14)または(付記15)に記載のトロッカーであって、
前記第1の検出部および前記第2の検出部の各々は、
前記穴部に突出可能に設けられ、前記医療器具に嵌合する嵌合部材と
前記嵌合部材を前記穴部の外縁から中心に向けて付勢する付勢部材と、
前記付勢部材の付勢状態を検出し、この検出結果を外部へ出力する圧力センサと、
を有する、
トロッカー。
(付記17)
(付記14)または(付記15)に記載のトロッカーであって、
前記第1の状態は、前記医療器具が当該トロッカー内に位置する状態であり、
前記第2の状態は、少なくとも前記医療器具の一部が当該トロッカーを経由して被検体内に挿入されて露出した状態である、
トロッカー。
(付記18)
被検体の観察対象を撮像することによって第1の画像を生成する撮像部と、
予め取得された前記被検体の観察対象の3次元画像データまたは2次元画像データに基づく第2の画像を記録する記録部と、
前記第1の画像および前記第2の画像を表示可能な表示装置と、
術者によって把持された医療器具が挿入され、かつ、該医療器具の前記被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーと、
前記トロッカーの検出結果に基づいて、前記第1の画像および前記第2の画像像の少なくとも一方を前記表示装置に表示させる制御部と、
を備える、
医療用観察システム。
(付記19)
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる、
画像処理方法。
(付記20)
医療用画像処理装置に実行させるプログラムであって、
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる、
プログラム。
The present technology can also have the following configurations.
(Appendix 1)
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. A control unit for displaying at least one of the first image generated by imaging the observation target in the subject and the second image regarding the observation target in the subject acquired in advance on the display device. Prepare, prepare
Medical image processing equipment.
(Appendix 2)
The medical image processing apparatus according to (Appendix 1).
The first state is a state in which the medical device is located in the trocar.
The second state is a state in which at least a part of the medical device is inserted into the subject via the trocar and exposed.
Medical image processing equipment.
(Appendix 3)
The medical image processing apparatus according to (Appendix 1) or (Appendix 2).
The control unit
When the medical device is in the second state, the first image is displayed on the display device, while the display device is displayed.
When the medical device is in the first state, at least the second image is displayed on the display device.
Medical image processing equipment.
(Appendix 4)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 3).
The control unit
Based on the medical device information about the medical device detected by the trocar, the medical device image corresponding to the medical device is superimposed on the second image and displayed on the display device.
Medical image processing equipment.
(Appendix 5)
The medical image processing apparatus according to (Appendix 4).
The control unit
The display mode of the medical device image and the second image is controlled based on the operation contents of the operator with respect to the medical device.
Medical image processing equipment.
(Appendix 6)
The medical image processing apparatus according to (Appendix 5).
Further, an inference unit for estimating the position of the organ shown in the first image and the position of the organ included in the second image is provided.
The control unit
When switching from the first image to the second image, the positions of the organs shown in the first image and the positions of the organs included in the second image are located based on the estimation result of the inference unit. The combined second image is displayed on the display device.
Medical image processing equipment.
(Appendix 7)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 6).
The control unit
The first image and the second image are displayed in parallel on the display device, or the first image is reduced and superimposed on the second image and displayed on the display device. ,
Medical image processing equipment.
(Appendix 8)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 7).
The control unit
When switching from the first image to the second image, the display device is made to output a warning.
Medical image processing equipment.
(Appendix 9)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 8).
There are two trocars
When each of the two trocars detects the second state, the first image is displayed on the display device, while the display device is displayed.
When each of the two trocars detects the first state, at least the second image is displayed on the display device.
Medical image processing equipment.
(Appendix 10)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 9).
The first image is
It is a live view image generated by continuously imaging the observation target in the subject.
The second image is
It is a simulation image of an observation target in the subject.
Medical image processing equipment.
(Appendix 11)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 9).
The first image is
It is a live view image generated by continuously imaging the observation target in the subject.
The second image is
Medical information about the observation target in the subject,
Medical image processing equipment.
(Appendix 12)
The medical image processing apparatus according to (Appendix 5).
The control unit
The image in the second image is based on at least one of the amount of rotation of the medical device that rotates about the insertion portion of the trocar detected by the trocar and the amount of insertion of the medical device into the insertion portion of the trocar. The observation object is rotated in at least one of the horizontal direction and the vertical direction to be displayed on the display device.
Medical image processing equipment.
(Appendix 13)
The medical image processing apparatus according to (Appendix 1).
The control unit
Distance information including the optimum distance from the observation target to the tip when observing the fluorescence of the observation target based on the distance between the tip of the medical imaging device that images the observation target and the observation target. Is displayed on the display device.
Medical image processing equipment.
(Appendix 14)
The main body, which has a cylindrical shape and has a hole into which a medical device can be inserted from the outside,
A first detection unit provided along the insertion direction of the hole and detecting the position of the medical device inserted into the hole as the first state.
A second detection unit that is provided at a position longer than the first detection unit along the insertion direction of the hole and detects the position of the medical device inserted in the hole as a second state. When,
To prepare
Trocar.
(Appendix 15)
The trocar described in Appendix 14,
Further provided with an acquisition unit for acquiring medical device information regarding the medical device provided in the medical device inserted into the hole.
Trocar.
(Appendix 16)
The trocar according to (Appendix 14) or (Appendix 15).
Each of the first detection unit and the second detection unit
A fitting member that is protrudably provided in the hole and that fits into the medical device, and an urging member that urges the fitting member from the outer edge of the hole toward the center.
A pressure sensor that detects the urging state of the urging member and outputs the detection result to the outside.
Have,
Trocar.
(Appendix 17)
The trocar according to (Appendix 14) or (Appendix 15).
The first state is a state in which the medical device is located in the trocar.
The second state is a state in which at least a part of the medical device is inserted into the subject via the trocar and exposed.
Trocar.
(Appendix 18)
An imaging unit that generates a first image by imaging the observation target of the subject,
A recording unit that records a second image based on the three-dimensional image data or the two-dimensional image data of the observation target of the subject acquired in advance, and a recording unit.
A display device capable of displaying the first image and the second image, and
One or more trocars capable of detecting a first state and a second state in which the medical device grasped by the operator is inserted and the state of insertion of the medical device into the subject is indicated.
A control unit that displays at least one of the first image and the second image on the display device based on the detection result of the trocar.
To prepare
Medical observation system.
(Appendix 19)
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. Then, at least one of the first image generated by imaging the observation target in the subject and the second image of the observation target in the subject acquired in advance is displayed on the display device.
Image processing method.
(Appendix 20)
A program that is executed by a medical image processing device.
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. Then, at least one of the first image generated by imaging the observation target in the subject and the second image of the observation target in the subject acquired in advance is displayed on the display device.
program.
1 医療用観察システム
10,20,20L,20R トロッカー
21 第1の検出部
22 第2の検出部
23 取得部
24,32,91 通信部
25 第3の検出部
26 第4の検出部
27 本体部
30 医療用撮像装置
31 撮像部
33 撮像制御部
40,50 医療器具
41 ICチップ
42,43 凹部
60 光源装置
70 表示装置
80 制御装置
81 第1の通信部
82 画像処理部
83 入力部
84 推論部
85 記録部
86 第2の通信部
87 制御部
90 画像サーバ
92 患者シミュレーション画像データ記録部
93 患者2次元画像データ記録部
94 患者データ記録部
95 医療器具データ記録部
96 生成部
97 サーバ制御部
100 ネットワーク
211,221 圧力センサ
212,222 付勢部材
213,223 嵌合部材
271 挿入部
272 突部
273 露出部
311 光学系
312 撮像素子
851 プログラム記録部
A10 医学情報
O1 被検体
O2 臓器
O3 血管
PLive ライブビュー画像
Psim1,Psim2 シミュレーション画像
Y10 矢印
1
Claims (20)
医療用画像処理装置。 Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. A control unit for displaying at least one of the first image generated by imaging the observation target in the subject and the second image regarding the observation target in the subject acquired in advance on the display device. Prepare, prepare
Medical image processing equipment.
前記第1の状態は、前記医療器具が前記トロッカー内に位置する状態であり、
前記第2の状態は、少なくとも前記医療器具の一部が前記トロッカーを経由して前記被検体内に挿入されて露出した状態である、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
The first state is a state in which the medical device is located in the trocar.
The second state is a state in which at least a part of the medical device is inserted into the subject via the trocar and exposed.
Medical image processing equipment.
前記制御部は、
前記医療器具が前記第2の状態である場合、前記第1の画像を前記表示装置に表示させる一方、
前記医療器具が前記第1の状態である場合、少なくとも前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
The control unit
When the medical device is in the second state, the first image is displayed on the display device, while the display device is displayed.
When the medical device is in the first state, at least the second image is displayed on the display device.
Medical image processing equipment.
前記制御部は、
前記トロッカーによって検出された前記医療器具に関する医療器具情報に基づいて、前記第2の画像上に前記医療器具に対応する医療器具画像を重畳して前記表示装置に表示させる、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
The control unit
Based on the medical device information about the medical device detected by the trocar, the medical device image corresponding to the medical device is superimposed on the second image and displayed on the display device.
Medical image processing equipment.
前記制御部は、
前記医療器具に対する術者の操作内容に基づいて、前記医療器具画像および前記第2の画像の表示態様を制御する、
医療用画像処理装置。 The medical image processing apparatus according to claim 4.
The control unit
The display mode of the medical device image and the second image is controlled based on the operation contents of the operator with respect to the medical device.
Medical image processing equipment.
前記第1の画像に写る臓器の位置と前記第2の画像に含まれる臓器の位置との位置を推定する推論部をさらに備え、
前記制御部は、
前記第1の画像から前記第2の画像に切り替える場合、前記推論部の推定結果に基づいて、前記第1の画像に写る臓器の位置と前記第2の画像に含まれる臓器の位置との位置合わせを行った前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。 The medical image processing apparatus according to claim 5.
Further, an inference unit for estimating the position of the organ shown in the first image and the position of the organ included in the second image is provided.
The control unit
When switching from the first image to the second image, the positions of the organs shown in the first image and the positions of the organs included in the second image are located based on the estimation result of the inference unit. The combined second image is displayed on the display device.
Medical image processing equipment.
前記制御部は、
前記第1の画像と前記第2の画像とを並列させて前記表示装置に表示させる、または前記第2の画像上に前記第1の画像を縮小して重畳した状態で前記表示装置に表示させる、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
The control unit
The first image and the second image are displayed in parallel on the display device, or the first image is reduced and superimposed on the second image and displayed on the display device. ,
Medical image processing equipment.
前記制御部は、
前記第1の画像から前記第2の画像を切り替える場合、前記表示装置に警告を出力させる、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
The control unit
When switching from the first image to the second image, the display device is made to output a warning.
Medical image processing equipment.
前記トロッカーは、2つであり、
2つの前記トロッカーの各々が前記第2の状態を検出した場合、前記第1の画像を前記表示装置に表示させる一方、
2つの前記トロッカーの各々が前記第1の状態を検出した場合、少なくとも前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
There are two trocars
When each of the two trocars detects the second state, the first image is displayed on the display device, while the display device is displayed.
When each of the two trocars detects the first state, at least the second image is displayed on the display device.
Medical image processing equipment.
前記第1の画像は、
前記被検体内の観察対象を連続的に撮像することによって生成されたライブビュー画像であり、
前記第2の画像は、
前記被検体内の観察対象のシミュレーション画像である、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
The first image is
It is a live view image generated by continuously imaging the observation target in the subject.
The second image is
It is a simulation image of an observation target in the subject.
Medical image processing equipment.
前記第1の画像は、
前記被検体内の観察対象を連続的に撮像することによって生成されたライブビュー画像であり、
前記第2の画像は、
前記被検体内の観察対象に関する医学情報である、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
The first image is
It is a live view image generated by continuously imaging the observation target in the subject.
The second image is
Medical information about the observation target in the subject,
Medical image processing equipment.
前記制御部は、
前記トロッカーが検出した前記トロッカーの挿入部を軸に回転する前記医療器具の回転量および前記トロッカーの挿入部への前記医療器具の挿入量の少なくとも一方に基づいて、前記第2の画像に写る前記観察対象を水平方向および垂直方向の少なくとも一方に回転させて前記表示装置に表示させる、
医療用画像処理装置。 The medical image processing apparatus according to claim 5.
The control unit
The image in the second image is based on at least one of the amount of rotation of the medical device that rotates about the insertion portion of the trocar detected by the trocar and the amount of insertion of the medical device into the insertion portion of the trocar. The observation object is rotated in at least one of the horizontal direction and the vertical direction to be displayed on the display device.
Medical image processing equipment.
前記制御部は、
前記観察対象を撮像する医療用撮像装置の先端と、前記観察対象と、の距離に基づいて、前記観察対象の蛍光を観察する際の前記観察対象から前記先端までの最適な距離を含む距離情報を前記表示装置に表示させる、
医療用画像処理装置。 The medical image processing apparatus according to claim 1.
The control unit
Distance information including the optimum distance from the observation target to the tip when observing the fluorescence of the observation target based on the distance between the tip of the medical imaging device that images the observation target and the observation target. Is displayed on the display device.
Medical image processing equipment.
前記穴部の挿入方向に沿って設けられ、前記穴部に挿入された前記医療器具の位置を第1の状態として検出する第1の検出部と、
前記穴部の挿入方向に沿って前記第1の検出部より挿入距離が長い位置に設けられ、前記穴部に挿入された前記医療器具の位置を第2の状態として検出する第2の検出部と、
を備える、
トロッカー。 The main body, which has a cylindrical shape and has a hole into which a medical device can be inserted from the outside,
A first detection unit provided along the insertion direction of the hole and detecting the position of the medical device inserted into the hole as the first state.
A second detection unit that is provided at a position longer than the first detection unit along the insertion direction of the hole and detects the position of the medical device inserted in the hole as a second state. When,
To prepare
Trocar.
前記穴部に挿入される前記医療器具に設けられた前記医療器具に関する医療器具情報を取得する取得部をさらに備える、
トロッカー。 The trocar according to claim 14.
Further provided with an acquisition unit for acquiring medical device information regarding the medical device provided in the medical device inserted into the hole.
Trocar.
前記第1の検出部および前記第2の検出部の各々は、
前記穴部に突出可能に設けられ、前記医療器具に嵌合する嵌合部材と
前記嵌合部材を前記穴部の外縁から中心に向けて付勢する付勢部材と、
前記付勢部材の付勢状態を検出し、この検出結果を外部へ出力する圧力センサと、
を有する、
トロッカー。 The trocar according to claim 14.
Each of the first detection unit and the second detection unit
A fitting member that is protrudably provided in the hole and that fits into the medical device, and an urging member that urges the fitting member from the outer edge of the hole toward the center.
A pressure sensor that detects the urging state of the urging member and outputs the detection result to the outside.
Have,
Trocar.
前記第1の状態は、前記医療器具が当該トロッカー内に位置する状態であり、
前記第2の状態は、少なくとも前記医療器具の一部が当該トロッカーを経由して被検体内に挿入されて露出した状態である、
トロッカー。 The trocar according to claim 14.
The first state is a state in which the medical device is located in the trocar.
The second state is a state in which at least a part of the medical device is inserted into the subject via the trocar and exposed.
Trocar.
予め取得された前記被検体の観察対象の3次元画像データまたは2次元画像データに基づく第2の画像を記録する記録部と、
前記第1の画像および前記第2の画像を表示可能な表示装置と、
術者によって把持された医療器具が挿入され、かつ、該医療器具の前記被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーと、
前記トロッカーの検出結果に基づいて、前記第1の画像および前記第2の画像の少なくとも一方を前記表示装置に表示させる制御部と、
を備える、
医療用観察システム。 An imaging unit that generates a first image by imaging the observation target of the subject,
A recording unit that records a second image based on the three-dimensional image data or the two-dimensional image data of the observation target of the subject acquired in advance, and a recording unit.
A display device capable of displaying the first image and the second image, and
One or more trocars capable of detecting a first state and a second state in which the medical device grasped by the operator is inserted and the state of insertion of the medical device into the subject is indicated.
A control unit that displays at least one of the first image and the second image on the display device based on the detection result of the trocar.
To prepare
Medical observation system.
画像処理方法。 Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. Then, at least one of the first image generated by imaging the observation target in the subject and the second image of the observation target in the subject acquired in advance is displayed on the display device.
Image processing method.
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる、
プログラム。 A program that is executed by a medical image processing device.
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. Then, at least one of the first image generated by imaging the observation target in the subject and the second image of the observation target in the subject acquired in advance is displayed on the display device.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/183,373 US20210295980A1 (en) | 2020-03-18 | 2021-02-24 | Medical image processing apparatus, trocar, medical observation system, image processing method, and computer readable recording medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020048140 | 2020-03-18 | ||
JP2020048140 | 2020-03-18 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021151431A true JP2021151431A (en) | 2021-09-30 |
JP2021151431A5 JP2021151431A5 (en) | 2023-10-25 |
Family
ID=77886924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020215825A Pending JP2021151431A (en) | 2020-03-18 | 2020-12-24 | Medical image processing device, trocar, medical observation system, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021151431A (en) |
-
2020
- 2020-12-24 JP JP2020215825A patent/JP2021151431A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019155931A1 (en) | Surgical system, image processing device, and image processing method | |
US20210295980A1 (en) | Medical image processing apparatus, trocar, medical observation system, image processing method, and computer readable recording medium | |
CN114945937A (en) | Guided anatomical steering for endoscopic procedures | |
CN118019504A (en) | System for controlling a collaborative surgical instrument with variable surgical site access trajectory | |
CN118019500A (en) | Method and system for controlling a collaborative surgical instrument | |
JP2021151431A (en) | Medical image processing device, trocar, medical observation system, image processing method, and program | |
US20230109848A1 (en) | Surgical devices, systems, and methods using fiducial identification and tracking | |
US20230095002A1 (en) | Surgical methods using fiducial identification and tracking | |
US20230095221A1 (en) | Methods and Systems for Controlling Cooperative Surgical Instruments | |
WO2023052936A1 (en) | Systems for controlling cooperative surgical instruments with variable surgical site access trajectories | |
JP2021003453A (en) | Endoscope treatment system | |
US20230105509A1 (en) | Surgical devices, systems, and methods using multi-source imaging | |
US20230116781A1 (en) | Surgical devices, systems, and methods using multi-source imaging | |
US11937799B2 (en) | Surgical sealing systems for instrument stabilization | |
WO2023052949A1 (en) | Surgical devices, systems, and methods using fiducial identification and tracking | |
WO2023052929A1 (en) | Surgical devices, systems, and methods using multi-source imaging | |
CN118284384A (en) | Surgical devices, systems, methods using fiducial identification and tracking | |
CN118042993A (en) | Method and system for controlling a collaborative surgical instrument |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231017 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231017 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240521 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240614 |