JP2021151431A - Medical image processing device, trocar, medical observation system, image processing method, and program - Google Patents

Medical image processing device, trocar, medical observation system, image processing method, and program Download PDF

Info

Publication number
JP2021151431A
JP2021151431A JP2020215825A JP2020215825A JP2021151431A JP 2021151431 A JP2021151431 A JP 2021151431A JP 2020215825 A JP2020215825 A JP 2020215825A JP 2020215825 A JP2020215825 A JP 2020215825A JP 2021151431 A JP2021151431 A JP 2021151431A
Authority
JP
Japan
Prior art keywords
image
medical
state
image processing
medical device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020215825A
Other languages
Japanese (ja)
Other versions
JP2021151431A5 (en
Inventor
潔 市川
Kiyoshi Ichikawa
潔 市川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Olympus Medical Solutions Inc
Original Assignee
Sony Olympus Medical Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Olympus Medical Solutions Inc filed Critical Sony Olympus Medical Solutions Inc
Priority to US17/183,373 priority Critical patent/US20210295980A1/en
Publication of JP2021151431A publication Critical patent/JP2021151431A/en
Publication of JP2021151431A5 publication Critical patent/JP2021151431A5/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)

Abstract

To provide a medical image processing device, a trocar, a medical observation system, an image processing method, and a program capable of assisting an operator executing surgery without interfering with the operator during surgery.SOLUTION: On the basis of a detection result of one or more trocars capable of detecting a first state and a second state indicating the insertion of a medical device gripped by an operator, and an insertion state of the medical device into a subject, a medical image processing device includes a control unit 87 for causing a display device to display at least one of a first image generated by imaging an observation object in the subject, and a second image of the observation object in the subject obtained beforehand.SELECTED DRAWING: Figure 2

Description

本開示は、被検体の患部を撮像したライブビュー画像および被検体の観察を仮想的に表したシミュレーション画像の少なくとも一方を表示する医療用画像処理装置、トロッカー、医療用観察システム、画像処理方法およびプログラムに関する。 The present disclosure discloses a medical image processing device, a trocar, a medical observation system, an image processing method, and a medical image processing apparatus, a trocar, a medical observation system, and an image processing method for displaying at least one of a live view image of an affected part of a subject and a simulation image that virtually represents the observation of the subject. Regarding the program.

従来、外科手術システムにおいて、患者の患部にモーションキャプチャー装置で計測された患者の患部に、CTおよびMRI等により得られた画像を重畳表示する技術が知られている(例えば特許文献1参照)。この技術では、患者に対して所定の間隔で配置した複数のマーカからの反射光を複数のモーションキャプチャー装置の各々で受光することによって、複数のマーカ群の座標位置および複数のマーカ群の回転量に応じて、患者の患部に重畳表示する画像を変化させる。 Conventionally, in a surgical operation system, there is known a technique of superimposing and displaying an image obtained by CT, MRI, or the like on the affected part of a patient measured by a motion capture device (see, for example, Patent Document 1). In this technique, the coordinate positions of a plurality of marker groups and the amount of rotation of the plurality of marker groups are received by receiving the reflected light from a plurality of markers arranged at predetermined intervals with respect to the patient by each of the plurality of motion capture devices. The image superimposed on the affected area of the patient is changed accordingly.

特開2016−158911号公報Japanese Unexamined Patent Publication No. 2016-158911

ところで、術者は、術中に手術部位にアプローチする場合、メルクマークとなる重要な血管および神経を確認しながら切除を行う。しかしながら、術者は、アプローチが難しい手技の場合、術前に確認したCT(Computed Tomography)画像(コンピュータ断層撮影による画像)またはMRI(Magnetic Resonance Imaging)画像(核磁気共鳴画像法による画像)において、読影できなかった箇所、患者の開腹後における部位形状および部位の位置がCT画像またはMRI画像とずれてしまうことで、術者がメルクマークを瞬時に発見することが難しかった。 By the way, when approaching the surgical site during the operation, the surgeon performs the excision while confirming the important blood vessels and nerves that become the Merck mark. However, in the case of a procedure that is difficult to approach, the surgeon uses a CT (Computed Tomography) image (computed tomography image) or MRI (Magnetic Resonance Imaging) image (image by magnetic resonance imaging) confirmed before the operation. It was difficult for the surgeon to instantly find the Merck mark because the part that could not be read, the shape of the part after the patient's abdomen was opened, and the position of the part deviated from the CT image or MRI image.

さらに、上述した特許文献1では、単にCT画像またはMRI画像を重畳しているにすぎないため、実際の患者の状態から乖離しているうえ、重畳画像が邪魔になるという問題点があった。 Further, in the above-mentioned Patent Document 1, since the CT image or the MRI image is merely superposed, there is a problem that the superposed image is an obstacle in addition to deviating from the actual state of the patient.

本開示は、上記に鑑みてなされたものであって、術中における術者の邪魔をすることなく、術中の術者を補助することができる医療用画像処理装置、トロッカー、医療用観察システム、画像処理方法およびプログラムを提供することを目的とする。 The present disclosure has been made in view of the above, and is a medical image processing device, a tracker, a medical observation system, and an image capable of assisting an intraoperative surgeon without disturbing the intraoperative surgeon. The purpose is to provide processing methods and programs.

上述した課題を解決し、目的を達成するために、本開示に係る医療用画像処理装置は、術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象に関する第2の画像の少なくとも一方を表示装置に表示させる制御部を備える。 In order to solve the above-mentioned problems and achieve the object, the medical image processing apparatus according to the present disclosure is in a state in which a medical device grasped by an operator is inserted and the medical device is inserted into a subject. Based on the detection results of one or more trocars capable of detecting the first state and the second state indicating, the first image generated by imaging the observation target in the subject and the pre-acquired first image. A control unit for displaying at least one of the second images of the observation target in the subject on the display device is provided.

また、本開示に係るトロッカーは、筒状をなし、外部から医療器具が挿入可能な穴部を有する本体部と、前記穴部の挿入方向に沿って設けられ、前記穴部に挿入された前記医療器具の位置を第1の状態として検出する第1の検出部と、前記穴部の挿入方向に沿って前記第1の検出部より挿入距離が長い位置に設けられ、前記穴部に挿入された前記医療器具の位置を第2の状態として検出する第2の検出部と、を備える。 Further, the trocar according to the present disclosure has a tubular shape and has a main body portion having a hole into which a medical device can be inserted from the outside, and the trocar provided along the insertion direction of the hole and inserted into the hole. A first detection unit that detects the position of the medical device as the first state and a position that is longer than the first detection unit along the insertion direction of the hole portion are provided and inserted into the hole portion. A second detection unit that detects the position of the medical device as a second state is provided.

また、本開示に係る医療用観察システムは、被検体の観察対象を撮像することによって第1の画像を生成する撮像部と、予め取得された前記被検体の観察対象の3次元画像データまたは2次元画像データに基づく第2の画像を記録する記録部と、前記第1の画像および前記第2の画像を表示可能な表示装置と、術者によって把持された医療器具が挿入され、かつ、該医療器具の前記被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーと、前記トロッカーの検出結果に基づいて、前記第1の画像および前記第2の画像像の少なくとも一方を前記表示装置に表示させる制御部と、を備える。 Further, the medical observation system according to the present disclosure includes an imaging unit that generates a first image by imaging the observation target of the subject, and three-dimensional image data or 2 of the observation target of the subject acquired in advance. A recording unit that records a second image based on the three-dimensional image data, a display device that can display the first image and the second image, and a medical device grasped by the operator are inserted and said. The first image and the first image based on the detection result of one or more trackers capable of detecting the first state and the second state indicating the insertion state of the medical device into the subject, and the detection result of the tracker. A control unit for displaying at least one of the two image images on the display device is provided.

また、本開示に係る画像処理方法は、術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる。 Further, the image processing method according to the present disclosure can detect a first state and a second state in which a medical device grasped by an operator is inserted and the state of insertion of the medical device into a subject is indicated. A first image generated by imaging an observation target in the subject and a second image of the observation target in the subject obtained in advance based on the detection results of one or more trocars. Display at least one on the display device.

また、本開示に係るプログラムは、医療用画像処理装置に実行させるプログラムであって、術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる。 Further, the program according to the present disclosure is a program to be executed by a medical image processing apparatus, and indicates a state in which a medical instrument grasped by an operator is inserted and the medical instrument is inserted into a subject. Based on the detection results of one or more trocars capable of detecting the first state and the second state, the first image generated by imaging the observation target in the subject and the previously acquired subject. At least one of the second images to be observed in the sample is displayed on the display device.

本開示によれば、術中における術者の邪魔をすることなく、術中の術者を補助することができるという効果を奏する。 According to the present disclosure, there is an effect that the operator can be assisted during the operation without disturbing the operator during the operation.

図1は、実施の形態1に係る医療用観察システムの概略構成を示す図である。FIG. 1 is a diagram showing a schematic configuration of a medical observation system according to the first embodiment. 図2は、実施の形態1に係る医療用観察システムの要部の機能構成を示すブロック図である。FIG. 2 is a block diagram showing a functional configuration of a main part of the medical observation system according to the first embodiment. 図3は、実施の形態1に係るトロッカーの断面を示す模式図である。FIG. 3 is a schematic view showing a cross section of the trocar according to the first embodiment. 図4Aは、実施の形態1に係るトロッカーに医療器具を挿入した際の検出状況を模式的に示す断面図である。FIG. 4A is a cross-sectional view schematically showing a detection state when a medical device is inserted into the trocar according to the first embodiment. 図4Bは、実施の形態1に係るトロッカーに医療器具を挿入した際の検出状況を模式的に示す断面図である。FIG. 4B is a cross-sectional view schematically showing a detection state when a medical device is inserted into the trocar according to the first embodiment. 図4Cは、実施の形態1に係るトロッカーに医療器具を挿入した際の検出状況を模式的に示す断面図である。FIG. 4C is a cross-sectional view schematically showing a detection state when a medical device is inserted into the trocar according to the first embodiment. 図4Dは、実施の形態1に係るトロッカーに医療器具を挿入した際の検出状況を模式的に示す断面図である。FIG. 4D is a cross-sectional view schematically showing a detection state when a medical device is inserted into the trocar according to the first embodiment. 図4Eは、実施の形態1に係るトロッカーに医療器具を挿入した際の検出状況を模式的に示す断面図である。FIG. 4E is a cross-sectional view schematically showing a detection state when a medical device is inserted into the trocar according to the first embodiment. 図5は、実施の形態1に係る医療用観察システムが実行する処理の概要を示すフローチャートである。FIG. 5 is a flowchart showing an outline of the processing executed by the medical observation system according to the first embodiment. 図6は、実施の形態1に係る表示装置が表示するライブビュー画像の一例を示す図である。FIG. 6 is a diagram showing an example of a live view image displayed by the display device according to the first embodiment. 図7は、実施の形態1に係る表示装置が表示するライブビュー画像の別の一例を示す図である。FIG. 7 is a diagram showing another example of the live view image displayed by the display device according to the first embodiment. 図8は、図5のシミュレーションモード処理の概要を示すフローチャートである。FIG. 8 is a flowchart showing an outline of the simulation mode processing of FIG. 図9は、実施の形態1に係る表示装置が表示するシミュレーション画像の一例を示す図である。FIG. 9 is a diagram showing an example of a simulation image displayed by the display device according to the first embodiment. 図10は、実施の形態1に係る表示装置が表示する医学情報の一例を示す図である。FIG. 10 is a diagram showing an example of medical information displayed by the display device according to the first embodiment. 図11は、実施の形態1に係る表示装置が表示するシミュレーション画像の別の一例を示す図である。FIG. 11 is a diagram showing another example of a simulation image displayed by the display device according to the first embodiment. 図12は、実施の形態1に係る表示装置が表示するシミュレーション画像の一例を示す図である。FIG. 12 is a diagram showing an example of a simulation image displayed by the display device according to the first embodiment. 図13は、実施の形態2に係る医療用観察システムが実行する処理の概要を示すフローチャートである。FIG. 13 is a flowchart showing an outline of the processing executed by the medical observation system according to the second embodiment.

以下、本開示を実施するための形態を図面とともに詳細に説明する。なお、以下の実施の形態により本開示が限定されるものではない。また、以下の説明において、参照する各図は、本開示の内容を理解でき得る程度に形状、大きさ、および位置関係を概略的に示してあるに過ぎない。即ち、本開示は、各図で例示された形状、大きさ、および位置関係のみに限定されるものでない。さらに、図面の記載において、同一の部分には同一の符号を付して説明する。さらにまた、本開示に係る医療用観察システムの一例として、腹腔鏡による内視鏡システムについて説明する。 Hereinafter, a mode for carrying out the present disclosure will be described in detail together with drawings. The present disclosure is not limited to the following embodiments. Further, in the following description, each of the referenced figures merely schematically shows the shape, size, and positional relationship to the extent that the contents of the present disclosure can be understood. That is, the present disclosure is not limited to the shape, size, and positional relationship exemplified in each figure. Further, in the description of the drawings, the same parts will be described with the same reference numerals. Furthermore, as an example of the medical observation system according to the present disclosure, an endoscopic system using a laparoscope will be described.

(実施の形態1)
〔医療用観察システムの概略構成〕
図1は、実施の形態1に係る医療用観察システムの概略構成を示す図である。図1に示す医療用観察システム1は、医療分野に用いられ、人や動物の被検体Oの腹部にトロッカーを用いて複数の穴を形成し、炭酸ガス等によって被検体Oの腹部を膨らませた状態で、医療用撮像装置(硬性鏡等のビデオスコープ)と、鉗子および電気メス等のエネルギーデバイスの医療器具と、を被検体O内に挿入しながら観察および処置を行う腹腔鏡手術に用いられるシステムである。なお、図1では、被検体Oに対して穴を3カ所形成しているが、術式や手技に応じて適宜変更することができる。
(Embodiment 1)
[Outline configuration of medical observation system]
FIG. 1 is a diagram showing a schematic configuration of a medical observation system according to the first embodiment. The medical viewing system 1 shown in FIG. 1 is used in the medical field, a plurality of holes formed using a trocar into the abdomen of the subject O 1 of a human or animal, the abdomen of the subject O 1 by carbon dioxide gas in a state where inflated, the medical imaging device (videoscope such rigid endoscope), laparoscopic surgery to observe and treat while inserting the object O 1 and the medical device of the energy device, the like forceps and electrocautery It is a system used for. In FIG. 1, but are formed three places holes to the subject O 1, they can be appropriately changed in accordance with the operative procedure and procedures.

図1に示す医療用観察システム1は、トロッカー10と、複数のトロッカー20と、医療用撮像装置30と、医療器具40と、医療器具50と、光源装置60と、表示装置70と、制御装置80と、画像サーバ90と、を備える。 The medical observation system 1 shown in FIG. 1 includes a trocar 10, a plurality of trocars 20, a medical imaging device 30, a medical device 40, a medical device 50, a light source device 60, a display device 70, and a control device. The 80 and the image server 90 are provided.

トロッカー10は、筒状をなし、被検体Oに挿入される。トロッカー10は、後述する医療用撮像装置30が挿入される。トロッカー10は、被検体Oの臍に挿入される。なお、実施の形態1では、トロッカー10は、図示しない被検体O内の腹部を膨らませる炭酸ガス等が供給される供給口を有し、この供給口を経由して外部から供給された炭酸ガスを被検体O内の腹部に供給する。 Trocar 10, a cylindrical shape, is inserted into the subject O 1. The medical imaging device 30 described later is inserted into the trocar 10. Trocar 10 is inserted into the subject O 1 umbilicus. In the first embodiment, the trocar 10 has a supply port to which carbon dioxide gas or the like that inflates the abdomen in the subject O 1 (not shown) is supplied, and carbon dioxide supplied from the outside via this supply port. supplying gas to the abdomen of the subject O 1.

トロッカー20は、筒状をなし、被検体Oに対して複数挿入される。トロッカー20は、後述する医療器具40および医療器具50のいずれか一方が挿入される。以下においては、医療器具40が挿入されるトロッカー20をトロッカー20Lと表現し、医療器具50が挿入されるトロッカー20をトロッカー20Rと表現する。また、トロッカー20Lおよびトロッカー20Rのどちらか一方を指す場合、単にトロッカー20と表現する。 Trocar 20, a cylindrical shape, is more inserted into the subject O 1. Either one of the medical device 40 and the medical device 50, which will be described later, is inserted into the trocar 20. In the following, the trocar 20 into which the medical device 40 is inserted is referred to as a trocar 20L, and the trocar 20 into which the medical device 50 is inserted is referred to as a trocar 20R. Further, when referring to either the trocar 20L or the trocar 20R, it is simply expressed as the trocar 20.

医療用撮像装置30は、トロッカー10を経由して被検体O内に挿入され、被検体O内における観察対象を撮像することによって画像データを生成し、この画像データを制御装置80へ出力する。 The medical imaging device 30 is inserted into the subject O 1 via the trocar 10, generates image data by imaging the observation target in the subject O 1, and outputs the image data to the control device 80. do.

医療器具40は、トロッカー20Lを経由して被検体O内に挿入される。医療器具40は、医者等の術者の操作に応じて観察対象に対して処置を行う。医療器具40は、例えば注射、鉗子、ナイフ、高周波スネア、処置具および高周波メスや電気メス等のエネルギーデバイスである。 The medical device 40 is inserted into the subject O 1 via the trocar 20L. The medical device 40 treats the observation target according to the operation of an operator such as a doctor. The medical device 40 is, for example, an injection, forceps, a knife, a high frequency snare, a treatment tool, and an energy device such as a high frequency scalpel or an electric scalpel.

医療器具50は、トロッカー20Rを経由して被検体Oに挿入される。医療器具50は、術者の操作に応じて観察対象に対して処置を行う。医療器具50は、例えば注射、鉗子、ナイフ、高周波スネア、処置具および高周波メスや電気メス等のエネルギーデバイスである。 Medical device 50 is inserted into the subject O 1 via the trocar 20R. The medical device 50 treats the observation target according to the operation of the operator. The medical device 50 is, for example, an injection, forceps, a knife, a high frequency snare, a treatment tool, and an energy device such as a high frequency scalpel or an electric scalpel.

光源装置60は、制御装置80の制御のもと、医療用撮像装置30を経由して被検体O1の観察対象に向けて照明光を照射する。光源装置60は、例えばライトガイドを経由して照明光として白色光、特殊光およびマルチスペクトル光のいずれか一つを医療用撮像装置30へ供給する。ここで、特殊光とは、所定の波長帯域を有する励起光や狭帯域光である。例えば、励起光は、波長帯域が400nm〜430nm(中心波長が415nm)である。また、狭帯域光は、波長帯域が400nm〜430nm(中心波長が415nm)と、波長帯域530nm〜550nm(中心波長が540nm)と、を含む光である。また、マルチスペクトル光は、少なくとも反射周波数毎に生体組織、例えば臓器を判別可能な光の波長帯域を含む。例えば、膵臓の場合、反射周波数は、16712nmである。光源装置60は、白色LED(Light Emitting Diode)、赤色LED、青色LED、緑色LED、紫色LED、橙色LED等の光源、半導体レーザ、所定の波長帯域を透過する透過フィルタを有する回転フィルタおよび集光レンズ等を用いて実現される。 Under the control of the control device 80, the light source device 60 irradiates the observation target of the subject O1 with illumination light via the medical imaging device 30. The light source device 60 supplies any one of white light, special light, and multispectral light as illumination light to the medical imaging device 30 via, for example, a light guide. Here, the special light is excitation light or narrow band light having a predetermined wavelength band. For example, the excitation light has a wavelength band of 400 nm to 430 nm (center wavelength is 415 nm). Further, the narrow band light is light having a wavelength band of 400 nm to 430 nm (center wavelength of 415 nm) and a wavelength band of 530 nm to 550 nm (center wavelength of 540 nm). Further, the multispectral light includes a wavelength band of light capable of discriminating a living tissue, for example, an organ, at least for each reflection frequency. For example, in the case of the pancreas, the reflection frequency is 16712 nm. The light source device 60 includes a light source such as a white LED (Light Emitting Diode), a red LED, a blue LED, a green LED, a purple LED, and an orange LED, a semiconductor laser, a rotation filter having a transmission filter that transmits a predetermined wavelength band, and a condenser. It is realized by using a lens or the like.

表示装置70は、制御装置80の制御のもと、制御装置80から入力された画像を表示する。表示装置70は、例えば液晶ディスプレイや有機ELディスプレイ(Organic Electroluminescent Display)等および音声スピーカ等を用いて実現される。 The display device 70 displays an image input from the control device 80 under the control of the control device 80. The display device 70 is realized by using, for example, a liquid crystal display, an organic electroluminescent display, an audio speaker, or the like.

制御装置80は、医療用観察システム1の各部を制御する。制御装置80は、医療用撮像装置30から入力された画像データに対して各種の画像処理を行って表示装置70へ出力することによって表示装置70に表示させる。また、制御装置80は、ネットワーク100を経由して画像サーバ90から患者である被検体Oに対して予め取得された3次元画像データ、MRI画像データおよびCT画像データを用いて構成されたシミュレーション画像データを取得し、取得したシミュレーション画像に対して各種の画像処理を行って表示装置70に出力することによって表示装置70に表示させる。制御装置80は、メモリと、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)およびFPGA(Field-Programmable Gate Array)等のハードウェアと、を備えるプロセッサを用いて実現される。なお、実施の形態1では、制御装置80が医療用画像処理装置として機能する。 The control device 80 controls each part of the medical observation system 1. The control device 80 performs various image processing on the image data input from the medical imaging device 30 and outputs the image data to the display device 70 to display the image data on the display device 70. Further, the control unit 80, the three-dimensional image data previously obtained for the subject O 1 which via the network 100 is the patient from the image server 90, simulated constructed using the MRI image data and CT image data The image data is acquired, various image processing is performed on the acquired simulation image, and the image data is output to the display device 70 to be displayed on the display device 70. The control device 80 is realized by using a processor including a memory and hardware such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and an FPGA (Field-Programmable Gate Array). In the first embodiment, the control device 80 functions as a medical image processing device.

画像サーバ90は、ネットワーク100を経由して制御装置80から要求されたシミュレーション画像データを送信する。画像サーバ90は、複数の患者の各々をCTまたはMRI等によって取得した2次元画像データまたは3次元画像データ、および2次元画像データまたは3次元画像データに基づくシミュレーション画像データ等を記録する。画像サーバ90は、メモリと、CPU、GPUやFPGA等のハードウェアを備えるプロセッサと、HDD(Hard Disk Drive)およびSSD(Solid State Drive)等の記録媒体と、を用いて実現される。 The image server 90 transmits the simulation image data requested by the control device 80 via the network 100. The image server 90 records two-dimensional image data or three-dimensional image data obtained by CT or MRI of each of the plurality of patients, and simulation image data based on the two-dimensional image data or the three-dimensional image data. The image server 90 is realized by using a memory, a processor including hardware such as a CPU, GPU and FPGA, and a recording medium such as an HDD (Hard Disk Drive) and an SSD (Solid State Drive).

〔医療用観察システムの要部の機能構成〕
次に、上述した医療用観察システム1の要部の機能構成について説明する。図2は、医療用観察システム1の要部の機能構成を示すブロック図である。
[Functional configuration of the main parts of the medical observation system]
Next, the functional configuration of the main part of the medical observation system 1 described above will be described. FIG. 2 is a block diagram showing a functional configuration of a main part of the medical observation system 1.

〔トロッカーの構成〕
まず、トロッカー20の構成について説明する。図3は、トロッカー20の断面を示す模式図である。図2および図3に示すトロッカー20は、第1の検出部21と、第2の検出部22と、取得部23と、通信部24と、第3の検出部25と、第4の検出部26と、本体部27と、を備える。
[Structure of trocar]
First, the configuration of the trocar 20 will be described. FIG. 3 is a schematic view showing a cross section of the trocar 20. The trocar 20 shown in FIGS. 2 and 3 includes a first detection unit 21, a second detection unit 22, an acquisition unit 23, a communication unit 24, a third detection unit 25, and a fourth detection unit. 26 and a main body 27 are provided.

第1の検出部21は、本体部27に設けられた挿入部271(孔)の挿入方向に沿って設けられ、挿入部271に挿入された医療器具40の位置を第1の状態として検出する。具体的には、第1の検出部21は、医療器具40がトロッカー20内に位置することを第1の状態として検出する。第1の検出部21は、圧力センサ211と、付勢部材212と、嵌合部材213と、を有する。圧力センサ211は、付勢部材212の付勢状態を検出する。付勢部材212は、嵌合部材213を挿入部271に向けて付勢する。嵌合部材213は、挿入部271に突出可能に設けられ、後述する医療器具40に設けられた凹部43に嵌合する。 The first detection unit 21 is provided along the insertion direction of the insertion portion 271 (hole) provided in the main body portion 27, and detects the position of the medical device 40 inserted in the insertion portion 271 as the first state. .. Specifically, the first detection unit 21 detects that the medical device 40 is located in the trocar 20 as the first state. The first detection unit 21 includes a pressure sensor 211, an urging member 212, and a fitting member 213. The pressure sensor 211 detects the urging state of the urging member 212. The urging member 212 urges the fitting member 213 toward the insertion portion 271. The fitting member 213 is provided so as to protrude from the insertion portion 271, and fits into the recess 43 provided in the medical device 40 described later.

第2の検出部22は、本体部27に設けられた挿入部271の挿入方向に沿って第1の検出部21より挿入距離が長い位置に設けられ、挿入部271に挿入された医療器具40の位置を第2の状態として検出する。具体的には、第2の検出部22は、少なくとも医療器具40の一部がトロッカー20を経由して被検体O内に挿入されて露出した状態を第2の状態として検出する。第2の検出部22は、圧力センサ221と、付勢部材222と、嵌合部材223と、を有する。圧力センサ221は、付勢部材222の付勢状態を検出する。付勢部材222は、嵌合部材223を挿入部271に向けて付勢する。嵌合部材223は、挿入部271に突出可能に設けられ、後述する医療器具40に設けられた凹部42に嵌合する。 The second detection unit 22 is provided at a position where the insertion distance is longer than that of the first detection unit 21 along the insertion direction of the insertion unit 271 provided in the main body unit 27, and the medical instrument 40 inserted into the insertion unit 271. The position of is detected as the second state. Specifically, the second detection unit 22 detects a state in which at least a part of the medical device 40 is inserted into the subject O 1 via the trocar 20 and is exposed as the second state. The second detection unit 22 includes a pressure sensor 221, an urging member 222, and a fitting member 223. The pressure sensor 221 detects the urging state of the urging member 222. The urging member 222 urges the fitting member 223 toward the insertion portion 271. The fitting member 223 is provided so as to be projectable from the insertion portion 271 and fits into the recess 42 provided in the medical device 40 described later.

取得部23は、本体部27の挿入部271に挿入された医療器具40に関する医療器具情報を取得する。具体的には、取得部23は、後述する医療器具40内に設けられたICチップ41であって、医療器具40に関する医療器具情報を記録したICチップ41から無線通信によって、ICチップ41から医療器具情報を取得する。例えば、取得部23は、医療器具40内に設けられたRFID(Radio Frequency Identifier)から医療器具情報を取得する。取得部23は、ICチップリーダまたはRFIDリーダ等を用いて実現される。ここで、医療器具情報には、医療器具40の種別(例えば鉗子や電気メス)、医療器具40の型番、医療器具40が使用される手技、医療器具40の形状および医療器具40の製造年月日の少なくとも1つ以上が含まれる。なお、図2および図3では、取得部23がトロッカー20の本体部27に設けられているが、医療器具40のICチップ41から医療器具情報を取得することができればよく、例えば本体部27に着脱自在なものであってもよい。例えば、取得部23は、医療器具40に印字された2次元コード等を読み取り可能なリーダ等であってもよい。 The acquisition unit 23 acquires medical device information regarding the medical device 40 inserted into the insertion unit 271 of the main body 27. Specifically, the acquisition unit 23 is an IC chip 41 provided in the medical device 40, which will be described later, and medical treatment is performed from the IC chip 41 by wireless communication from the IC chip 41 that records medical device information related to the medical device 40. Get device information. For example, the acquisition unit 23 acquires medical device information from an RFID (Radio Frequency Identifier) provided in the medical device 40. The acquisition unit 23 is realized by using an IC chip reader, an RFID reader, or the like. Here, the medical device information includes the type of the medical device 40 (for example, forceps or electric knife), the model number of the medical device 40, the procedure in which the medical device 40 is used, the shape of the medical device 40, and the date of manufacture of the medical device 40. Includes at least one or more of the days. In addition, in FIGS. 2 and 3, the acquisition unit 23 is provided in the main body 27 of the trocar 20, but it is sufficient if the medical device information can be acquired from the IC chip 41 of the medical device 40, for example, in the main body 27. It may be removable. For example, the acquisition unit 23 may be a reader or the like capable of reading a two-dimensional code or the like printed on the medical device 40.

通信部24は、第1の検出部21の検出結果、第2の検出部22の検出結果、取得部23の取得結果、第3の検出部25の検出結果および第4の検出部26の検出結果の各々を、伝送ケーブルを経由して医療用撮像装置30へ送信する。通信部24は、所定の通信フォーマットに従って送信する。通信部24は、通信モジュール等を用いて実現される。なお、通信部24は、図1〜図3において、有線によって医療用撮像装置30へ各種の検出結果および取得結果を送信しているが、例えば無線通信によって医療用撮像装置30または制御装置80へ送信してもよい。無線通信としては、Wi−Fi(登録商標)またはBluetooth(登録商標)が用いられる。 The communication unit 24 detects the detection result of the first detection unit 21, the detection result of the second detection unit 22, the acquisition result of the acquisition unit 23, the detection result of the third detection unit 25, and the detection of the fourth detection unit 26. Each of the results is transmitted to the medical imaging device 30 via a transmission cable. The communication unit 24 transmits according to a predetermined communication format. The communication unit 24 is realized by using a communication module or the like. In addition, in FIGS. 1 to 3, the communication unit 24 transmits various detection results and acquisition results to the medical image pickup device 30 by wire, and for example, to the medical image pickup device 30 or the control device 80 by wireless communication. You may send it. As wireless communication, Wi-Fi (registered trademark) or Bluetooth (registered trademark) is used.

第3の検出部25は、本体部27の挿入部271に挿入される医療器具40の挿入量を検出する。具体的には、第3の検出部25は、医療器具40の先端からトロッカー20の先端から突出した医療器具40の長さを挿入量として検出する。第3の検出部25は、例えば変位センサ、エンコーダまたは光電センサ等を用いて実現される。 The third detection unit 25 detects the insertion amount of the medical device 40 inserted into the insertion unit 271 of the main body 27. Specifically, the third detection unit 25 detects the length of the medical device 40 protruding from the tip of the trocar 20 from the tip of the medical device 40 as the insertion amount. The third detection unit 25 is realized by using, for example, a displacement sensor, an encoder, a photoelectric sensor, or the like.

第4の検出部26は、所定の時間毎に、本体部27の挿入部271を軸に回転する医療器具40の回転量を検出する。第4の検出部26は、例えば変位センサ、エンコーダまたは光電センサ等を用いて実現される。 The fourth detection unit 26 detects the amount of rotation of the medical device 40 that rotates about the insertion unit 271 of the main body 27 at predetermined time intervals. The fourth detection unit 26 is realized by using, for example, a displacement sensor, an encoder, a photoelectric sensor, or the like.

本体部27は、筒状をなし、外部から医療器具40が挿入可能な挿入部271と、被検体O内に挿入される突部272と、被検体Oから露出する露出部273と、を有する。本体部27は、被検体Oに形成された穴(図示せず)を経由して被検体O内に突部272が挿入される。 Body portion 27, a cylindrical shape, the medical instrument 40 can be inserted insertion portion 271 from the outside, a projection 272 to be inserted into the object O 1, and the exposed portion 273 exposed from the object O 1, Has. Body portion 27, the projection 272 to the object O 1 via the insertion holes formed in the object O 1 (not shown).

〔医療用撮像装置の構成〕
次に、医療用撮像装置30の構成について説明する。医療用撮像装置30は、撮像部31と、通信部32と、撮像制御部33と、を備える。
[Configuration of medical imaging device]
Next, the configuration of the medical imaging device 30 will be described. The medical imaging device 30 includes an imaging unit 31, a communication unit 32, and an imaging control unit 33.

撮像部31は、撮像制御部33の制御のもと、被検体O1内における観察対象を撮像することによって画像データを生成し、この画像データを通信部32へ出力する。撮像部31は、光学系311と、撮像素子312と、を有する。光学系311は、1または複数のレンズを用いて構成される。光学系311は、観察対象からの反射光および戻り光を集光して被写体像を撮像素子312の受光面に結像する。撮像素子312は、CCD(Charge Coupled Device)センサまたはCMOS(Complementary Metal Oxide Semiconductor)センサ等のイメージセンサを用いて実現される。撮像素子312は、撮像制御部33の制御のもと、光学系311が受光面に結像した被写体像に対して光電変換を行うことによって画像データを生成し、この画像データを通信部32へ送信する。 Under the control of the image pickup control unit 33, the image pickup unit 31 generates image data by imaging the observation target in the subject O1, and outputs the image data to the communication unit 32. The image pickup unit 31 includes an optical system 311 and an image pickup device 312. The optical system 311 is configured using one or more lenses. The optical system 311 collects the reflected light and the return light from the observation target and forms a subject image on the light receiving surface of the image pickup device 312. The image sensor 312 is realized by using an image sensor such as a CCD (Charge Coupled Device) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor. Under the control of the image pickup control unit 33, the image pickup element 312 generates image data by performing photoelectric conversion on the subject image imaged on the light receiving surface by the optical system 311 and transfers this image data to the communication unit 32. Send.

通信部32は、撮像制御部33の制御のもと、撮像部31から入力された画像データ、トロッカー20から入力された検出結果および取得結果を制御装置80へ送信する。通信部32は、画像データに対してP/S変換処理等を行って制御装置80へ送信する。通信部32は、P/S変換回路および通信モジュール等を用いて実現される。なお、通信部32は、無線通信または光通信によって画像データ等を制御装置80へ送信してもよい。 Under the control of the image pickup control unit 33, the communication unit 32 transmits the image data input from the image pickup unit 31 and the detection result and the acquisition result input from the trocar 20 to the control device 80. The communication unit 32 performs P / S conversion processing or the like on the image data and transmits the image data to the control device 80. The communication unit 32 is realized by using a P / S conversion circuit, a communication module, and the like. The communication unit 32 may transmit image data or the like to the control device 80 by wireless communication or optical communication.

撮像制御部33は、医療用撮像装置30を構成する各部を制御する。撮像制御部33は、メモリと、CPUまたはFPGA等のハードウェアを有するプロセッサと、を用いて実現される。 The image pickup control unit 33 controls each unit constituting the medical image pickup device 30. The image pickup control unit 33 is realized by using a memory and a processor having hardware such as a CPU or FPGA.

〔制御装置の構成〕
次に、制御装置80の構成について説明する。制御装置80は、第1の通信部81と、画像処理部82と、入力部83と、推論部84と、記録部85と、第2の通信部86と、制御部87と、を備える。
[Control device configuration]
Next, the configuration of the control device 80 will be described. The control device 80 includes a first communication unit 81, an image processing unit 82, an input unit 83, an inference unit 84, a recording unit 85, a second communication unit 86, and a control unit 87.

第1の通信部81は、制御部87の制御のもと、医療用撮像装置30に各種の制御データを送信し、かつ、医療用撮像装置30から送信された各種のデータを画像処理部82または制御部87へ出力する。第1の通信部81は、例えばS/P変換回路および通信モジュール等を用いて実現される。また、第1の通信部81は、医療用撮像装置30に対して無線通信または光通信によって各種データを送信してもよい。 Under the control of the control unit 87, the first communication unit 81 transmits various control data to the medical image pickup device 30, and also transmits various data transmitted from the medical image pickup device 30 to the image processing unit 82. Alternatively, it is output to the control unit 87. The first communication unit 81 is realized by using, for example, an S / P conversion circuit, a communication module, or the like. Further, the first communication unit 81 may transmit various data to the medical imaging device 30 by wireless communication or optical communication.

画像処理部82は、制御部87の制御のもと、第1の通信部81を経由して医療用撮像装置30から入力された画像データに対して各種の画像処理を行って表示装置70へ出力することによって画像データに基づくライブビュー画像を表示装置70に表示させる。また、画像処理部82は、制御部87の制御のもと、後述する画像サーバ90から取得されたシミュレーション画像データ(ポリンゴン画像データ)と、後述する推論部84の推論結果と、に基づいて、被検体O内の観察対象のシミュレーション画像(ポリゴンデータにグラフィック化を施したシミュレーション画像)を生成し、このシミュレーション画像を表示装置70へ出力することによってシミュレーション画像を表示させる。画像処理部82は、メモリと、GPU(Graphics Processing Unit)およびFPGA等のハードウェアを有するプロセッサを用いて実現される。 Under the control of the control unit 87, the image processing unit 82 performs various image processing on the image data input from the medical imaging device 30 via the first communication unit 81 to the display device 70. By outputting, a live view image based on the image data is displayed on the display device 70. Further, the image processing unit 82 is based on the simulation image data (poringon image data) acquired from the image server 90 described later and the inference result of the inference unit 84 described later under the control of the control unit 87. A simulation image of an observation target (simulation image obtained by graphicizing polygon data) in the subject O 1 is generated, and the simulation image is displayed by outputting the simulation image to the display device 70. The image processing unit 82 is realized by using a memory and a processor having hardware such as a GPU (Graphics Processing Unit) and an FPGA.

入力部83は、ユーザからの操作の入力を受け付け、受け付けた操作内容に応じて信号を制御部87へ出力する。入力部83は、マウス、キーボード、タッチパネル、スイッチおよびボタン等を用いて実現される。 The input unit 83 receives an input of an operation from the user and outputs a signal to the control unit 87 according to the received operation content. The input unit 83 is realized by using a mouse, a keyboard, a touch panel, switches, buttons, and the like.

推論部84は、制御部87の制御のもと、画像データに基づくライブビュー画像と、第2の通信部86を経由して画像サーバ90から取得されたシミュレーション画像データと、に基づいて、ライブビュー画像に写る被検体Oの観察対処の臓器および位置を推定し、この推定結果を画像処理部82および制御部87へ出力する。推論部84は、学習パラメータとして、ライブビュー画像、このライブビュー画像に写る臓器および位置、医療用撮像装置30の先端から臓器までの距離を示す距離情報およびライブビュー画像の特徴量、複数のシミュレーション画像データ(例えばCT画像データおよびMRI画像データの少なくとも一方に基づくポリゴンデータ)等を学習パラメータ(教師データ)として、この学習パラメータをディープラーニング(Deep Learning)等によって機械学習され、出力パラメータとしてライブビュー画像に写る被検体Oの観察対処の臓器および位置を推定した推定結果を出力する学習済みモデルを用いて実現される。ここで、機械学習としては、DNN(Deep Neural Network)、CNN(Convolutional Neural Network)およびRNN(Recurrent Neural Network)等が用いられる。また、推論部84は、医療用撮像装置30によって生成された画像データに基づくライブビュー画像が光源装置60によってマルチスペクトル光が照射されたマルチスペクトル画像データである場合、マルチスペクトル画像データに含まれる反射光周波数(各スペクトル毎)の違いを用いてマルチスペクトル画像データに写る被検体Oの観察対象の各部の生体組織種別(例えば胆嚢や膵臓等の臓器、血管、神経、リンパ、尿管および脂肪等)と、それらの位置(領域)と、を推定し、この推定結果を画像処理部82および制御部87へ出力する。また、推論部84は、メモリと、GPU等のハードウェアを有するプロセッサを用いて実現される。 Under the control of the control unit 87, the inference unit 84 performs live based on the live view image based on the image data and the simulation image data acquired from the image server 90 via the second communication unit 86. estimating an organ and the position of the observation addressed the subject O 1 caught on view image, and outputs the estimation result to the image processing unit 82 and the control unit 87. As learning parameters, the inference unit 84 includes a live view image, organs and positions reflected in the live view image, distance information indicating the distance from the tip of the medical imaging device 30 to the organ, feature quantities of the live view image, and a plurality of simulations. Image data (for example, polygon data based on at least one of CT image data and MRI image data) is used as a learning parameter (teacher data), and this learning parameter is machine-learned by deep learning or the like, and live view is used as an output parameter. is implemented using the learned model for outputting the estimation result to estimate the organ and the position of the observation addressed the subject O 1 caught on the image. Here, as machine learning, DNN (Deep Neural Network), CNN (Convolutional Neural Network), RNN (Recurrent Neural Network) and the like are used. Further, the inference unit 84 is included in the multispectral image data when the live view image based on the image data generated by the medical imaging device 30 is the multispectral image data irradiated with the multispectral light by the light source device 60. It reflected light frequency organs such as the living tissue type (e.g. gallbladder and pancreatic each part of the observation target object O 1 caught on multispectral image data using the difference between (each per spectrum), blood vessels, nerves, lymph, urinary tract and (Fat, etc.) and their positions (regions) are estimated, and the estimation results are output to the image processing unit 82 and the control unit 87. Further, the inference unit 84 is realized by using a processor having hardware such as a memory and a GPU.

記録部85は、医療用観察システム1に関する各種のデータを記録する。記録部85は、医療用観察システム1が実行する各種のプログラムを記録するプログラム記録部851を有する。記録部85は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)およびSSD(Solid State Drive)等を用いて実現される。 The recording unit 85 records various data related to the medical observation system 1. The recording unit 85 has a program recording unit 851 that records various programs executed by the medical observation system 1. The recording unit 85 is realized by using a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), an SSD (Solid State Drive), or the like.

第2の通信部86は、制御部87の制御のもと、ネットワーク100を経由して画像サーバ90から被検体Oに対応する患者シミュレーションデータを取得し、取得した患者シミュレーション画像データを制御部87および画像処理部82へ出力する。第2の通信部86は、通信モジュール等を用いて実現される。 The second communication unit 86, under the control of the control unit 87 acquires the patient simulation data via the network 100 corresponds from the image server 90 to the object O 1, control the patient simulation image data acquisition unit It is output to 87 and the image processing unit 82. The second communication unit 86 is realized by using a communication module or the like.

制御部87は、制御装置80を構成する各部を制御する。制御部87は、メモリと、CPU等のハードウェアを有するプロセッサを用いて実現される。制御部87は、術者によって把持された医療器具40,50が挿入され、かつ、医療器具40,50の被検体O内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカー20の検出結果に基づいて、被検体O内の観察対象を撮像することによって生成された第1の画像および予め取得された被検体O内の観察対象の第2の画像の少なくとも一方を表示装置70に表示させる。第1の画像とは、ライブビュー画像である。また、第2の画像とは、シミュレーション画像である。具体的には、制御部87は、医療器具40,50が第2の状態である場合、ライブビュー画像を表示装置70に表示させる。また、制御部87は、医療器具40,50が第1の状態である場合、ライブビュー画像およびシミュレーション画像の少なくとも一方を表示装置70に表示させる。さらに、制御部87は、トロッカー20によって検出された医療器具40,50に関する医療器具情報に基づいて、シミュレーション画像上に医療器具に対応する医療器具画像を重畳して表示装置70に表示させる。 The control unit 87 controls each unit constituting the control device 80. The control unit 87 is realized by using a processor having hardware such as a memory and a CPU. Controller 87, the medical instrument 40, 50 gripped by the operator is inserted, and detects the first and second states indicating the insertion state into the subject O 1 of the medical device 40, 50 possible based on one or more trocar 20 of the detection result, the observation target of the first image and the previously acquired the object O 1 generated by imaging the observation target in the object O 1 second At least one of the images of 2 is displayed on the display device 70. The first image is a live view image. The second image is a simulation image. Specifically, the control unit 87 causes the display device 70 to display the live view image when the medical devices 40 and 50 are in the second state. Further, when the medical devices 40 and 50 are in the first state, the control unit 87 causes the display device 70 to display at least one of the live view image and the simulation image. Further, the control unit 87 superimposes the medical device image corresponding to the medical device on the simulation image and displays it on the display device 70 based on the medical device information about the medical devices 40 and 50 detected by the trocar 20.

さらにまた、制御部87は、医療器具40,50に対する術者の操作内容に基づいて、医療器具画像およびシミュレーション画像の表示態様を制御する。具体的には、制御部87は、トロッカー20が検出したトロッカー20の挿入部271への医療器具40,50の挿入量およびトロッカー20の挿入部271を軸に回転する医療器具40,50の回転量に基づいて、シミュレーション画像に写る観察対象を水平方向および水平方向の少なくとも一方に回転させる表示装置70に表示させる。また、制御部87は、ライブビュー画像からシミュレーション画像に切り替える場合、推論部84の推定結果に基づいて、ライブビュー画像に写る臓器の位置とシミュレーション画像に含まれる臓器の位置との位置合わせを行ってシミュレーション画像を表示装置70に表示させる。また、制御部87は、医療器具40,50が第1の状態である場合、ライブビュー画像とシミュレーション画像とを並列させて表示装置70に表示させる、またはシミュレーション画像上にライブビュー画像を縮小して重畳した状態で表示装置70に表示させる。さらに、制御部87は、ライブビュー画像からシミュレーション画像を切り替える場合、表示装置70に警告を出力させる。 Furthermore, the control unit 87 controls the display mode of the medical device image and the simulation image based on the operation contents of the operator with respect to the medical devices 40 and 50. Specifically, the control unit 87 inserts the medical device 40, 50 into the insertion section 271 of the trocar 20 detected by the trocar 20, and rotates the medical device 40, 50 that rotates about the insertion section 271 of the trocar 20. Based on the quantity, the observation target shown in the simulation image is displayed on the display device 70 that rotates in at least one of the horizontal direction and the horizontal direction. Further, when switching from the live view image to the simulation image, the control unit 87 aligns the positions of the organs reflected in the live view image with the positions of the organs included in the simulation image based on the estimation result of the inference unit 84. The simulation image is displayed on the display device 70. Further, when the medical instruments 40 and 50 are in the first state, the control unit 87 displays the live view image and the simulation image in parallel on the display device 70, or reduces the live view image on the simulation image. The display device 70 is displayed in a superposed state. Further, the control unit 87 causes the display device 70 to output a warning when switching the simulation image from the live view image.

〔画像サーバの構成〕
次に、画像サーバ90の構成について説明する。画像サーバ90は、通信部91、患者シミュレーション画像データ記録部92と、患者2次元画像データ記録部93と、患者データ記録部94と、医療器具データ記録部95と、生成部96と、サーバ制御部97と、を備える。
[Image server configuration]
Next, the configuration of the image server 90 will be described. The image server 90 includes a communication unit 91, a patient simulation image data recording unit 92, a patient two-dimensional image data recording unit 93, a patient data recording unit 94, a medical device data recording unit 95, a generation unit 96, and server control. A unit 97 is provided.

通信部91は、サーバ制御部97の制御のもと、ネットワーク100を経由して制御装置80から要求があった被検体Oに対する患者のシミュレーション画像データを制御装置80へ送信する。通信部91は、通信モジュール等を用いて実現される。 The communication unit 91 under the control of the server control unit 97 transmits the simulation image data of the patient to the subject O 1 there is a request from the control device 80 via the network 100 to the controller 80. The communication unit 91 is realized by using a communication module or the like.

患者シミュレーション画像データ記録部92は、HDDおよびSSD等を用いて実現される。患者シミュレーション画像データ記録部92は、複数の患者の各々を識別する患者IDと、シミュレーション画像データと、を対応付けて記録する。ここで、シミュレーション画像データとは、後述する生成部96が患者(被検体O)に対してCT検査またはMRI検査等によって取得した2次元画像データに基づいて生成した3次元のポリゴンデータで構成された3次元の画像データである。なお、シミュレーション画像データとは、臓器を用いた3次元空間における手術シミュレーションを行うためのデータであって、臓器または医療器具に関するデータを含む。臓器および医療器具毎のシミュレーション画像データは、以下のパラメータを含み、三次元空間上のポリゴンデータ等で規定する。(1)位置(臓器の位置(座標情報))、(2)形状(臓器の形状、医療器具毎の形状)。さらに、臓器および医療器具毎のシミュレーション画像データは、以下のパラメータ(3)〜(7)を含んでいてもよい。(3)質量密度、(4)剛性、(5)摩擦、(6)粘性、(7)触覚。また、シミュレーション画像データは、医療器具または臓器の経時的な動きや変形に関する時系列変化の情報をさらに含むことができる。 The patient simulation image data recording unit 92 is realized by using an HDD, an SSD, or the like. The patient simulation image data recording unit 92 records the patient ID that identifies each of the plurality of patients and the simulation image data in association with each other. Here, the simulation image data, constituted by three-dimensional polygon data generation unit 96 is generated based on the two-dimensional image data obtained by CT scanning or MRI inspection on a patient (subject O 1) to be described later It is the three-dimensional image data obtained. The simulation image data is data for performing a surgical simulation in a three-dimensional space using an organ, and includes data on an organ or a medical instrument. The simulation image data for each organ and medical device includes the following parameters and is defined by polygon data in three-dimensional space. (1) Position (organ position (coordinate information)), (2) Shape (organ shape, shape for each medical device). Furthermore, the simulation image data for each organ and medical device may include the following parameters (3) to (7). (3) Mass density, (4) Rigidity, (5) Friction, (6) Viscosity, (7) Tactile sensation. In addition, the simulation image data can further include information on time-series changes relating to the movement and deformation of the medical device or organ over time.

患者2次元画像データ記録部93は、複数の患者の各々を識別する患者IDと、CT検査またはMRI検査等によって取得した2次元画像データと、を対応付けて記録する。患者2次元画像データ記録部93は、HDDおよびSSD等を用いて実現される。 The patient two-dimensional image data recording unit 93 records the patient ID that identifies each of the plurality of patients in association with the two-dimensional image data acquired by a CT examination, an MRI examination, or the like. The patient two-dimensional image data recording unit 93 is realized by using an HDD, an SSD, or the like.

患者データ記録部94は、複数の患者の各々を識別する患者IDと、複数の患者の各々のカルテデータ(診察結果または症状)と、を対応付けて記録する。患者データ記録部94は、HDDおよびSSD等を用いて実現される。 The patient data recording unit 94 records the patient ID that identifies each of the plurality of patients and the medical record data (examination result or symptom) of each of the plurality of patients in association with each other. The patient data recording unit 94 is realized by using an HDD, an SSD, or the like.

医療器具データ記録部95は、複数の医療器具の各々の医療器具情報と、複数の医療器具の各々の医療器具画像(アニメーション画像データ)と、を対応付けて記録する。医療器具データ記録部95は、HDDおよびSSD等を用いて実現される。 The medical device data recording unit 95 records the medical device information of each of the plurality of medical devices and the medical device image (animation image data) of each of the plurality of medical devices in association with each other. The medical device data recording unit 95 is realized by using an HDD, an SSD, or the like.

生成部96は、サーバ制御部97の制御のもと、患者2次元画像データ記録部93が記録する2次元画像データに基づいて、患者のシミュレーション画像データを生成する。例えば、生成部96は、患者2次元画像データ記録部93が記録する2次元画像データに基づいて、3次元のシミュレーション画像データを生成し、このシミュレーション画像データを患者シミュレーション画像データ記録部92に記録する。 The generation unit 96 generates simulation image data of the patient based on the two-dimensional image data recorded by the patient two-dimensional image data recording unit 93 under the control of the server control unit 97. For example, the generation unit 96 generates three-dimensional simulation image data based on the two-dimensional image data recorded by the patient two-dimensional image data recording unit 93, and records the simulation image data in the patient simulation image data recording unit 92. do.

サーバ制御部97は、通信部91から入力された制御装置80から要求があった被検体Oに対応するシミュレーション画像データを、患者シミュレーション画像データ記録部92から取得し、取得した患者シミュレーション画像データを通信部91に送信させる。サーバ制御部97は、メモリと、CPU等のハードウェアを有するプロセッサを用いて実現される。 Server control unit 97, a simulation image data corresponding to the object O 1 there is a request from the control unit 80 which is input from the communication unit 91 acquires from the patient simulation image data recording unit 92, the acquired patient simulation image data Is transmitted to the communication unit 91. The server control unit 97 is realized by using a processor having hardware such as a memory and a CPU.

〔トロッカーによる医療器具の検出状況〕
次に、トロッカー20による医療器具40,50を挿入した際の検出状況について説明する。図4A〜図4Eは、トロッカー20に医療器具40を挿入した際の検出状況を模式的に示す断面図である。なお、図4A〜図4Eでは、説明を簡略化するため、被検体Oを省略している。さらに、図4A〜図4Eでは、医療器具40として鉗子を挿入する場合について説明する。
[Detection status of medical devices by trocars]
Next, the detection status when the medical devices 40 and 50 by the trocar 20 are inserted will be described. 4A to 4E are cross-sectional views schematically showing a detection state when the medical device 40 is inserted into the trocar 20. In FIG 4A~ Figure 4E, in order to simplify the explanation are omitted object O 1. Further, in FIGS. 4A to 4E, a case where the forceps are inserted as the medical instrument 40 will be described.

図4Aに示すように、まず、術者は、被検体O内に挿入された状態のトロッカー20の挿入部271に対して、医療器具40を挿入する。この場合において、図4Bに示すように、術者は、医療器具40を挿入するに従って、医療器具40の先端が第1の検出部21の嵌合部材213に当接する。このとき、図4Cに示すように、術者は、医療器具40をトロッカー20の挿入方向にさらに押し込むことによって、付勢部材212の付勢力より術者による医療器具40の押圧力を強くなることで、嵌合部材213が挿入部271の外縁側(矢印Aを参照)に退避する。これにより、術者は、医療器具40を挿入方向にそって挿入することができる。この場合、第1の検出部21は、医療器具40が第1の状態となったことを示す検出結果を、医療用撮像装置30を経由して制御装置80へ出力する。また、図4Cに示すように、取得部23は、医療器具40に設けられたICチップ41から医療器具情報を取得し、この医療器具情報を、医療用撮像装置30を経由して制御装置80へ出力する。この医療器具40が第1の状態において、制御部87は、予め取得された被検体O内の観察対象の第2の画像を表示装置70に表示させる(シミュレーションモード)。さらに、図4Cに示すように、第3の検出部25は、検出した術者によるトロッカー20の挿入部251への医療器具40の挿入量を、医療用撮像装置30を経由して制御装置80へ出力する。さらにまた、図4Cに示すように、第4の検出部26は、検出した術者によるトロッカー20の挿入部251内での医療器具40の回転量を、医療用撮像装置30を経由して制御装置80へ出力する。 As shown in FIG. 4A, first, the operator, the insertion portion 271 of the trocar 20 in a state of being inserted into the object O 1, inserting a medical instrument 40. In this case, as shown in FIG. 4B, as the medical device 40 is inserted, the tip of the medical device 40 comes into contact with the fitting member 213 of the first detection unit 21. At this time, as shown in FIG. 4C, the surgeon further pushes the medical device 40 in the insertion direction of the trocar 20 so that the pushing force of the medical device 40 by the surgeon becomes stronger than the urging force of the urging member 212. Then, the fitting member 213 retracts to the outer edge side (see arrow A) of the insertion portion 271. This allows the surgeon to insert the medical device 40 along the insertion direction. In this case, the first detection unit 21 outputs a detection result indicating that the medical device 40 is in the first state to the control device 80 via the medical imaging device 30. Further, as shown in FIG. 4C, the acquisition unit 23 acquires medical device information from the IC chip 41 provided in the medical device 40, and obtains the medical device information from the control device 80 via the medical imaging device 30. Output to. In the medical instrument 40 is the first state, the control unit 87 displays the second image of the observed object has been previously obtained the object O 1 in the display device 70 (simulation mode). Further, as shown in FIG. 4C, the third detection unit 25 controls the amount of the medical device 40 inserted into the insertion unit 251 of the trocar 20 by the detected operator via the medical imaging device 30. Output to. Furthermore, as shown in FIG. 4C, the fourth detection unit 26 controls the amount of rotation of the medical device 40 in the insertion unit 251 of the trocar 20 by the detected operator via the medical imaging device 30. Output to device 80.

続いて、図4Dに示すように、術者は、第1の検出部21が第1の状態を検出した状態から、医療器具40をさらに挿入方向に沿って挿入し、医療器具40の先端が第1の検出部21の嵌合部材213に当接する。この場合、図4Eに示すように、術者は、第1の検出部21の場合と同様に、医療器具40をトロッカー20の挿入方向にさらに押し込むことによって、付勢部材222の付勢力より術者による医療器具40の押圧力を強くなることで、嵌合部材223が挿入部271の外縁側(矢印Bを参照)に退避する。これにより、術者は、医療器具40を被検体O内に挿入することができる。この場合において、第1の検出部21は、医療器具40が第2の状態となったことを示す検出結果を、医療用撮像装置30を経由して制御装置80へ出力する。 Subsequently, as shown in FIG. 4D, the operator further inserts the medical instrument 40 along the insertion direction from the state in which the first detection unit 21 detects the first state, and the tip of the medical instrument 40 is inserted. It comes into contact with the fitting member 213 of the first detection unit 21. In this case, as shown in FIG. 4E, the operator further pushes the medical device 40 in the insertion direction of the trocar 20 to perform the operation from the urging force of the urging member 222, as in the case of the first detection unit 21. By increasing the pressing force of the medical device 40 by the person, the fitting member 223 retracts to the outer edge side (see arrow B) of the insertion portion 271. Thus, the surgeon can insert the medical instrument 40 to the object O 1. In this case, the first detection unit 21 outputs a detection result indicating that the medical device 40 is in the second state to the control device 80 via the medical imaging device 30.

その後、図4Eに示すように、第1の検出部21の嵌合部材213および第2の検出部22の嵌合部材223の各々は、医療器具40に設けられた円環状をなす凹部42および円環状をなす凹部43に嵌合する。この場合において、制御部87は、医療器具40の先端が第2の検出部22の嵌合部材223を通過したとき、予め取得された被検体O内の観察対象のシミュレーション画像から被検体O内の観察対象を撮像することによって生成されたライブビュー画像を表示装置70に表示させる(シミュレーションモードからライブビューモードに切り替える)。これにより、医療器具40が術者の意に反してトロッカー20から抜け落ちることを防止することができる。さらに、術者は、滞りなく、シミュレーション画像からライブビュー画像に切り替えることができる。さらにまた、術者は、第1の検出部21の嵌合部材213および第2の検出部22の嵌合部材223の各々が嵌合した状態であっても、凹部42および凹部43の各々が円環状をなすため、医療器具40を回転させながら使用することができる。この場合、制御部87は、第3の検出部25が検出した医療器具40の挿入量および第4の検出部26が検出した医療器具40の回転量に基づいて、シミュレーション画像に写る観察対象を水平方向および水平方向の少なくとも一方に回転させる表示装置70に表示させる。これにより、術者は、医療器具40を操作することによって、シミュレーション画像に写る観察対象を別視点で仮想的に確認することができる。 After that, as shown in FIG. 4E, each of the fitting member 213 of the first detection unit 21 and the fitting member 223 of the second detection unit 22 has an annular recess 42 and an annular recess 42 provided in the medical device 40. It fits into the annular recess 43. In this case, the control unit 87, when the tip of the medical instrument 40 is passed through the fitting member 223 of the second detection unit 22, has been previously obtained the object O from the simulation images of the observation target object O 1 The live view image generated by imaging the observation target in 1 is displayed on the display device 70 (switching from the simulation mode to the live view mode). As a result, it is possible to prevent the medical device 40 from falling out of the trocar 20 against the will of the operator. In addition, the surgeon can switch from the simulation image to the live view image without delay. Furthermore, the operator can see that even if the fitting member 213 of the first detection unit 21 and the fitting member 223 of the second detection unit 22 are each fitted, each of the recess 42 and the recess 43 is fitted. Since it forms an annular shape, the medical device 40 can be used while rotating. In this case, the control unit 87 determines the observation target to be reflected in the simulation image based on the insertion amount of the medical device 40 detected by the third detection unit 25 and the rotation amount of the medical device 40 detected by the fourth detection unit 26. The display device 70, which rotates in at least one of the horizontal direction and the horizontal direction, displays the display. As a result, the surgeon can virtually confirm the observation target reflected in the simulation image from another viewpoint by operating the medical instrument 40.

続いて、術者は、被検体Oの観察対象に対して表示装置70によって表示されるライブビュー画像を見ながら処置を行う。この場合において、術者は、表示装置70が表示するライブビュー画像に写る観察対象(処置対象)に対して、メルクマークを見つかられないとき、または術前に確認したCT画像またはMRI画像において予測した状況と異なっているとき、医療器具40が被検体O内に露出していない第1の状態までに引き抜く操作を行う。これにより、医療用観察システム1は、ライブビュー画像を表示するライブビューモードから被検体Oのシミュレーション画像を表示させて観察対象に対して仮想的に処置可能なシミュレーションモードへ切り替える。この結果、術者は、医療器具40を把持しながらライブビューモードとシミュレーションモードとを瞬時に切り替えることができる。さらに、第2の検出部22は、医療用観察システム1がシミュレーションモードに切り替わった場合、嵌合部材223が挿入部271の挿入方向と直交する方向に飛び出しているため、術者の意図に反して医療器具40が被検体O内に挿入されることを防止することができる。このとき、制御部87は、第3の検出部25が検出した医療器具40の挿入量および第4の検出部26が検出した医療器具40の回転量に基づいて、シミュレーション画像に写る観察対象を水平方向および水平方向の少なくとも一方に回転させる表示装置70に表示させる。これにより、術者は、術前に確認したCT画像またはMRI画像において予測した状況と異なっている場合であっても、医療器具40を操作することによって、シミュレーション画像に写る観察対象を別視点で仮想的に確認することができる。 Subsequently, the operator performs treatment while viewing a live view image displayed by the display device 70 with respect to the observation target object O 1. In this case, the surgeon predicts when the Merck mark cannot be found for the observation target (treatment target) shown in the live view image displayed by the display device 70, or in the CT image or MRI image confirmed before the operation. when different from the situation, performs an operation of the medical instrument 40 is withdrawn until the first state that is not exposed to the object O 1. As a result, the medical observation system 1 switches from the live view mode in which the live view image is displayed to the simulation mode in which the simulation image of the subject O 1 is displayed and the observation target can be virtually treated. As a result, the surgeon can instantly switch between the live view mode and the simulation mode while grasping the medical device 40. Further, in the second detection unit 22, when the medical observation system 1 is switched to the simulation mode, the fitting member 223 protrudes in the direction orthogonal to the insertion direction of the insertion unit 271, which is contrary to the intention of the operator. medical device 40 can be prevented from being inserted into the subject O 1 Te. At this time, the control unit 87 determines the observation target to be reflected in the simulation image based on the insertion amount of the medical device 40 detected by the third detection unit 25 and the rotation amount of the medical device 40 detected by the fourth detection unit 26. The display device 70, which rotates in at least one of the horizontal direction and the horizontal direction, displays the display. As a result, the surgeon can operate the medical instrument 40 to view the observation target in the simulation image from a different viewpoint even if the situation is different from the predicted situation in the CT image or MRI image confirmed before the operation. It can be confirmed virtually.

〔医療用観察システムの処理〕
次に、医療用観察システム1が実行する処理について説明する。図5は、医療用観察システム1が実行する処理の概要を示すフローチャートである。
[Processing of medical observation system]
Next, the process executed by the medical observation system 1 will be described. FIG. 5 is a flowchart showing an outline of the processing executed by the medical observation system 1.

図5に示すように、まず、制御部87は、トロッカー20の第1の検出部21によって検出された検出結果に基づいて、医療器具40が第1の状態であるか否かを判断する(ステップS101)。具体的には、制御部87は、トロッカー20の第1の検出部21から医療器具40の挿入を検出した検出結果が入力されたか否かを判断する。制御部87によって医療器具40が第1の状態であると判断された場合(ステップS101:Yes)、医療用観察システム1は、後述するステップS102へ移行する。これに対して、制御部87によって医療器具40が第1の状態でないと判断された場合(ステップS101:No)、医療用観察システム1は、後述するステップS108へ移行する。 As shown in FIG. 5, first, the control unit 87 determines whether or not the medical device 40 is in the first state based on the detection result detected by the first detection unit 21 of the trocar 20 (). Step S101). Specifically, the control unit 87 determines whether or not the detection result of detecting the insertion of the medical device 40 is input from the first detection unit 21 of the trocar 20. When the control unit 87 determines that the medical device 40 is in the first state (step S101: Yes), the medical observation system 1 shifts to step S102, which will be described later. On the other hand, when the control unit 87 determines that the medical device 40 is not in the first state (step S101: No), the medical observation system 1 shifts to step S108, which will be described later.

ステップS102において、制御部87は、取得部23によって取得された医療器具40に関する医療器具情報を取得する。具体的には、取得部23は、医療器具40のICチップ41から医療器具情報を取得し、この取得した医療器具情報を、医療用撮像装置30を経由して制御部87へ出力する。 In step S102, the control unit 87 acquires the medical device information regarding the medical device 40 acquired by the acquisition unit 23. Specifically, the acquisition unit 23 acquires medical device information from the IC chip 41 of the medical device 40, and outputs the acquired medical device information to the control unit 87 via the medical imaging device 30.

続いて、制御部87は、トロッカー20の第2の検出部22によって検出された検出結果に基づいて、医療器具40が第2の状態であるか否かを判断する(ステップS103)。具体的には、制御部87は、トロッカー20の第2の検出部22から医療器具40の挿入を検出した検出結果(ライブビューモード)が入力されたか否かを判断する。制御部87によって医療器具40が第2の状態であると判断された場合(ステップS103:Yes)、医療用観察システム1は、後述するステップS104へ移行する(ライブビューモードへ遷移する)。これに対して、制御部87によって医療器具40が第2の状態でないと判断された場合(ステップS103:No)、医療用観察システム1は、後述するステップS109へ移行する(シミュレーションモードへ遷移する)。 Subsequently, the control unit 87 determines whether or not the medical device 40 is in the second state based on the detection result detected by the second detection unit 22 of the trocar 20 (step S103). Specifically, the control unit 87 determines whether or not the detection result (live view mode) in which the insertion of the medical device 40 is detected is input from the second detection unit 22 of the trocar 20. When the control unit 87 determines that the medical device 40 is in the second state (step S103: Yes), the medical observation system 1 shifts to step S104, which will be described later (transitions to the live view mode). On the other hand, when the control unit 87 determines that the medical device 40 is not in the second state (step S103: No), the medical observation system 1 shifts to step S109 described later (transitions to the simulation mode). ).

ステップS104において、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する。この場合、制御部87は、第1の通信部81に画像データを画像処理部82に出力させる。 In step S104, the control unit 87 acquires the image data generated by the medical imaging device 30 via the first communication unit 81. In this case, the control unit 87 causes the first communication unit 81 to output the image data to the image processing unit 82.

続いて、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて出力させることによって表示装置70にライブビュー画像を表示させる(ステップS105)。具体的には、図6に示すように、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて出力させることによって表示装置70に画像データに基づくライブビュー画像PLiveを表示させる。これにより、術者は、表示装置70が表示するライブビュー画像PLiveを見ながら被検体Oの観察対象に対して処置を行うことができる。 Subsequently, the control unit 87 causes the display device 70 to display the live view image by causing the image processing unit 82 to perform image processing on the image data acquired by the first communication unit 81 and output the image data (step S105). ). Specifically, as shown in FIG. 6, the control unit 87 causes the display device 70 to output the image data acquired by the first communication unit 81 by causing the image processing unit 82 to perform image processing. The live view image P Live based on the image data is displayed. Thus, the operator can perform treatment with respect to the observation target object O 1 while viewing a live view image P Live display device 70 displays.

その後、制御部87は、入力部83から蛍光観察を行う特殊光モードを指示する指示信号が入力されたか否かを判断する(ステップS106)。制御部87によって入力部83から蛍光観察を行う特殊光モードを指示する指示信号が入力されたと判定された場合(ステップS106:Yes)、医療用観察システム1は、後述するステップS107へ移行する。これに対して、制御部87によって入力部83から蛍光観察を行う特殊光モードを指示する指示信号が入力されていないと判定された場合(ステップS106:No)、医療用観察システム1は、後述するステップS108へ移行する。 After that, the control unit 87 determines whether or not an instruction signal instructing the special light mode for observing fluorescence has been input from the input unit 83 (step S106). When it is determined by the control unit 87 that the instruction signal instructing the special light mode for fluorescence observation is input from the input unit 83 (step S106: Yes), the medical observation system 1 shifts to step S107 described later. On the other hand, when it is determined by the control unit 87 that the instruction signal instructing the special light mode for fluorescence observation is not input from the input unit 83 (step S106: No), the medical observation system 1 will be described later. The process proceeds to step S108.

ステップS107において、制御部87は、被検体Oの観察対象を撮像する医療用撮像装置30の先端と、被検体Oの観察対象と、の距離に基づいて、被検体Oの観察対象の蛍光を観察する際の観察対象から医療用撮像装置30の先端までの最適な距離を含む距離情報を、表示装置70が表示するライブビュー画像上に重畳表示させる。具体的には、図7に示すように、制御部87は、ライブビュー画像PLiveに距離情報Bを重畳表示して表示装置70に表示させる。距離情報Bには、現在の被検体Oの観察対象の蛍光を観察する際の観察対象から医療用撮像装置30の先端までの現在距離Kと、最適な距離範囲Hと、が含まれる。ここで、最適な距離範囲H1は、医療用撮像装置30の先端を観察対象に接触させる位置からトロッカー20側に4cm〜5cmほど手前側(術者側)に引き抜いた距離である。これにより、術者は、距離情報Bに含まれる現在距離Kと、観察対象からの蛍光の発光量と、を観察することによって、観察対象から医療用撮像装置30の先端までの距離によって見え方が異なる発光量であっても、偽陽性または偽陰性を確実に防止することができる。 In step S107, the control unit 87, the tip of the medical imaging apparatus 30 for imaging the observation target object O 1, and the observation target object O 1, based on the distance, the observation target object O 1 The distance information including the optimum distance from the observation target when observing the fluorescence of the medical imaging device 30 to the tip of the medical imaging device 30 is superimposed and displayed on the live view image displayed by the display device 70. Specifically, as shown in FIG. 7, the control unit 87 superimposes the distance information B 1 on the live view image P Live and displays it on the display device 70. The distance information B 1 includes the current distance K 1 from the observation target when observing the fluorescence of the observation target of the current subject O 1 to the tip of the medical imaging device 30, and the optimum distance range H 1 . included. Here, the optimum distance range H1 is a distance that is pulled out from the position where the tip of the medical imaging device 30 is brought into contact with the observation target to the front side (operator side) by about 4 cm to 5 cm toward the trocar 20 side. Thus, the operator, the current distance K 1 included in the distance information B 1, and the light emission amount of fluorescence from the observation target, by observing, the distance from the observation target to the tip of the medical imaging apparatus 30 False positives or false negatives can be reliably prevented even if the amount of light emitted is different.

その後、制御部87は、入力部83から被検体Oの処置を終了する指示信号が入力されたか否かを判断する(ステップS108)。制御部87によって入力部83から被検体Oの処置を終了する指示信号が入力されたと判断された場合(ステップS108:Yes)、医療用観察システム1は、本処理を終了する。これに対して、制御部87によって入力部83から被検体Oの処置を終了する指示信号が入力されていないと判断した場合(ステップS108:No)、医療用観察システム1は、上述したステップS101へ戻る。 After that, the control unit 87 determines whether or not an instruction signal for terminating the treatment of the subject O 1 has been input from the input unit 83 (step S108). When it is determined by the control unit 87 that the instruction signal for terminating the treatment of the subject O 1 has been input from the input unit 83 (step S108: Yes), the medical observation system 1 ends this processing. On the other hand, when the control unit 87 determines that the instruction signal for terminating the treatment of the subject O 1 has not been input from the input unit 83 (step S108: No), the medical observation system 1 has the above-mentioned step. Return to S101.

ステップS109において、医療用観察システム1は、被検体Oに対応するシミュレーション画像を表示するシミュレーションモード処理を実行する。 In step S109, the medical observation system 1 executes the simulation mode process for displaying a simulation image corresponding to the object O 1.

〔シミュレーションモード処理〕
図8は、ステップS109におけるシミュレーションモード処理の概要を示すフローチャートである。
[Simulation mode processing]
FIG. 8 is a flowchart showing an outline of the simulation mode processing in step S109.

図8に示すように、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する(ステップS201)。この場合、制御部87は、第1の通信部81に画像データを画像処理部82および推論部84に出力させる。 As shown in FIG. 8, the control unit 87 acquires the image data generated by the medical imaging device 30 via the first communication unit 81 (step S201). In this case, the control unit 87 causes the first communication unit 81 to output the image data to the image processing unit 82 and the inference unit 84.

続いて、制御部87は、第2の通信部86およびネットワーク100を経由して被検体Oに対応するシミュレーション画像データを画像サーバ90から取得する(ステップS202)。具体的には、制御部87は、予め術者や看護師等のユーザによって設定された被検体Oに関する患者IDに基づいて、被検体Oの患者IDに対応するシミュレーション画像データであって、CT検査またはMRI検査等によって予め被検体O1に対して撮像された2次元画像データを用いて生成されたシミュレーション画像データを画像サーバ90から取得する。この場合、制御部87は、第2の通信部86にシミュレーション画像データを画像処理部82および推論部84の各々へ出力させる。 Subsequently, the control unit 87 acquires simulation image data corresponding to the object O 1 via the second communication unit 86 and the network 100 from the image server 90 (step S202). Specifically, the control unit 87, based on the patient ID related to the subject O 1 set by the user in advance surgeon or nurse, a simulation image data corresponding to the patient ID of the subject O 1 , CT inspection, MRI inspection, or the like, the simulation image data generated by using the two-dimensional image data previously imaged for the subject O1 is acquired from the image server 90. In this case, the control unit 87 causes the second communication unit 86 to output the simulation image data to each of the image processing unit 82 and the inference unit 84.

その後、推論部84は、第1の通信部81から入力された医療用撮像装置30によって生成された画像データと、第2の通信部86から入力されたシミュレーション画像データと、に基づいて、画像データに基づくライブビュー画像PLiveに写る臓器、血管および位置を推論する(ステップS203)。なお、推論部84は、画像データに、距離情報が含まれている場合、この距離情報をさらに推論に用いてもよい。この場合、推論部84は、距離情報を用いて、医療用撮像装置30の光学系311の光軸(トロッカー10の挿入方向)に対する基準としたときのライブビュー画像PLiveに写る臓器、血管および神経等の向き(方向)およびつぶれ具合等を推定してもよい。推論部84は、推論結果を制御部87および画像処理部82へ出力する。また、推論部84は、医療用撮像装置30によって生成された画像データが光源装置60によってマルチスペクトル光が照射されたマルチスペクトル画像データである場合、推論部84がマルチスペクトル画像データに含まれる反射光周波数(各スペクトル毎)の違いを用いて推論した各部の生体組織種別(例えば胆嚢や膵臓等の臓器、血管、神経、リンパ、尿管および脂肪等)と、それらの位置(領域)と、をライブビュー画像上の位置に重畳させても表示装置70に表示させてもよい。 After that, the inference unit 84 uses an image based on the image data generated by the medical imaging device 30 input from the first communication unit 81 and the simulation image data input from the second communication unit 86. The organs, blood vessels, and positions appearing in the live view image P Live based on the data are inferred (step S203). If the image data includes distance information, the inference unit 84 may further use this distance information for inference. In this case, the inference unit 84 uses the distance information to refer to the organs, blood vessels, and organs, blood vessels, and the live view image P Live when the distance information is used as a reference with respect to the optical axis (insertion direction of the trocar 10) of the optical system 311 of the medical imaging device 30. The direction (direction) of the nerve or the like and the degree of collapse may be estimated. The inference unit 84 outputs the inference result to the control unit 87 and the image processing unit 82. Further, when the image data generated by the medical imaging device 30 is the multi-spectral image data irradiated with the multi-spectral light by the light source device 60, the inference unit 84 includes the reflection in the multi-spectral image data. Biological tissue types (for example, organs such as bile sac and pancreas, blood vessels, nerves, lymph, urinary tract and fat, etc.) inferred using the difference in optical frequency (for each spectrum), their positions (regions), and May be superimposed on the position on the live view image or displayed on the display device 70.

続いて、制御部87は、画像処理部82に推論部84の推論結果に基づくライブビュー画像PLiveとシミュレーション画像データに基づくシミュレーション画像との位置合わせを行わせたシミュレーション画像を生成させる(ステップS204)。具体的には、まず、制御部87は、画像処理部82に、推論部84の推論結果に基づいて、ライブビュー画像PLiveとシミュレーション画像(ポリゴンデータ)との位置合わせを行わせる。そして、制御部87は、シミュレーション画像(ポリゴンデータ)にグラフィック化を行ってシミュレーション画像を生成する。さらに、制御部87は、取得部23によって取得された医療器具情報に応じた医療器具40を仮想的に表した医療器具画像をシミュレーション画像内に重畳する。さらにまた、制御部87は、画像処理部82にシミュレーション画像にライブビュー画像を重畳させる。なお、画像処理部82は、推論部84の推論結果に臓器の向きおよびつぶれ具合等を含めてシミュレーション画像を生成してもよい。 Subsequently, the control unit 87 causes the image processing unit 82 to generate a simulation image in which the live view image P Live based on the inference result of the inference unit 84 and the simulation image based on the simulation image data are aligned (step S204). ). Specifically, first, the control unit 87 causes the image processing unit 82 to align the live view image P Live with the simulation image (polygon data) based on the inference result of the inference unit 84. Then, the control unit 87 graphics the simulation image (polygon data) to generate the simulation image. Further, the control unit 87 superimposes a medical device image that virtually represents the medical device 40 according to the medical device information acquired by the acquisition unit 23 on the simulation image. Furthermore, the control unit 87 superimposes the live view image on the simulation image on the image processing unit 82. The image processing unit 82 may generate a simulation image by including the orientation of the organ, the degree of collapse, and the like in the inference result of the inference unit 84.

図9は、表示装置70が表示するシミュレーション画像の一例を示す図である。図9に示すように、制御部87は、画像処理部82にシミュレーション画像Psim1上にライブビュー画像PLiveを重畳するとともに、取得部23によって取得された医療器具情報に応じた医療器具40を仮想的に表した医療器具画像W40,W50をシミュレーション画像Psim1上に重畳して表示装置70に表示させる。なお、図9では、制御部87は、画像処理部82にシミュレーション画像Psim1上にライブビュー画像PLiveを重畳させていたが、これに限定されることなく、シミュレーション画像Psim1とライブビュー画像PLiveとを並列させてもよいし、シミュレーション画像Psim1およびライブビュー画像PLiveのどちらか一方の表示領域を小さくして並列させてもよい。さらにまた、制御部87は、シミュレーション画像Psim1上に指導医等がキーボード等を用いて入力したテキストデータに基づくテキスト、腫瘍位置およびメルクマーク等の位置を重畳して表示させてもよい。 FIG. 9 is a diagram showing an example of a simulation image displayed by the display device 70. As shown in FIG. 9, the control unit 87 superimposes the live view image P Live on the simulation image P sim1 on the image processing unit 82, and displays the medical device 40 according to the medical device information acquired by the acquisition unit 23. The virtually represented medical device images W40 and W50 are superimposed on the simulation image P sim1 and displayed on the display device 70. In FIG. 9, the control unit 87 superimposes the live view image P Live on the simulation image P sim1 on the image processing unit 82, but the present invention is not limited to this, and the simulation image P sim1 and the live view image are not limited to this. P Live may be arranged in parallel, or the display area of either the simulation image P sim1 or the live view image P Live may be made smaller and arranged in parallel. Furthermore, the control unit 87 may superimpose and display the text based on the text data input by the instructor or the like using the keyboard or the like, the tumor position, and the position of the Merck mark on the simulation image P sim1.

図10は、表示装置70が表示する医学情報の一例を示す図である。図10に示すように、制御部87は、第2の画像としてライブビュー画像PLiveに医学情報を重畳して表示装置70に表示させてもよい。具体的には、図10に示すように、制御部87は、画像処理部82にライブビュー画像PLiveに写る胆嚢の付近に医学情報としての胆嚢であることを示すテキストデータA10および胆嚢の位置を指す矢印Y10をライブビュー画像PLiveに重畳させて表示装置70に表示させる。ここで、医学情報とは、血管名、神経名および臓器名等である。もちろん、制御部87は、ライブビュー画像PLiveに写る胆嚢の付近に医学情報を重畳していたが、適宜変更することができる。さらに、制御部87は、画像処理部82にシミュレーション画像Psim1上にライブビュー画像PLiveを重畳させるとともに、シミュレーション画像Psim1およびライブビュー画像PLiveの少なくとも一方に重畳させて表示装置70に表示させてもよい。さらにまた、制御部87は、ライブビュー画像が光源装置60のマルチスペクトル光源によってマルチスペクトル光が照射されることによって医療用撮像装置30が生成した画像データがマルチスペクトル画像データである場合、推論部84がマルチスペクトル画像データに含まれる反射光周波数(各スペクトル毎)の違いを用いて推論した各部の生体組織種別(例えば胆嚢や膵臓等の臓器、血管、神経、リンパ、尿管および脂肪等)、それらの位置(領域)をライブビュー画像上の位置に重畳させて表示装置70に表示させてもよい。 FIG. 10 is a diagram showing an example of medical information displayed by the display device 70. As shown in FIG. 10, the control unit 87 may superimpose medical information on the live view image P Live as a second image and display it on the display device 70. Specifically, as shown in FIG. 10, the control unit 87 displays the text data A10 indicating that the gallbladder is the gallbladder as medical information in the vicinity of the gallbladder shown in the live view image P Live on the image processing unit 82, and the position of the gallbladder. The arrow Y10 pointing to is superimposed on the live view image P Live and displayed on the display device 70. Here, the medical information is a blood vessel name, a nerve name, an organ name, or the like. Of course, the control unit 87 superimposes the medical information on the vicinity of the gallbladder shown in the live view image P Live, but it can be changed as appropriate. Further, the control unit 87 superimposes the live view image P Live on the simulation image P sim1 on the image processing unit 82, and superimposes the live view image P Live on at least one of the simulation image P sim1 and the live view image P Live and displays it on the display device 70. You may let me. Furthermore, the control unit 87 is a reasoning unit when the image data generated by the medical imaging device 30 by irradiating the live view image with the multispectral light by the multispectral light source of the light source device 60 is the multispectral image data. The biological tissue type of each part inferred by 84 using the difference in the reflected light frequency (for each spectrum) included in the multispectral image data (for example, organs such as bile sac and pancreas, blood vessels, nerves, lymph, urinary tract and fat, etc.) , Those positions (areas) may be superimposed on the positions on the live view image and displayed on the display device 70.

その後、制御部87は、画像処理部82が生成したシミュレーション画像データを表示装置70に出力させることによって表示装置70にシミュレーション画像を表示させる(ステップS205)。これにより、術者は、医療器具40から手を離すことなく、自由にシミュレーション画像Psim1とライブビュー画像PLiveとを切り替えることができる。さらに、術者は、実視野と同じ視野のライブビュー画像PLiveから同じ視野のシミュレーション画像Psim1に切り替えので、違和感なく観察することができる。なお、制御部87は、シミュレーション画像Psim1を表示装置70に表示させる場合、表示装置70が表示する画像がシミュレーション画像Psim1であることを音声または文字等によって警告させてもよいし、画像枠等をハイライト表示(例えば点滅等に表示)させることによって警告させてもよい。 After that, the control unit 87 causes the display device 70 to display the simulation image by outputting the simulation image data generated by the image processing unit 82 to the display device 70 (step S205). As a result, the surgeon can freely switch between the simulation image P sim1 and the live view image P Live without taking his / her hand off the medical device 40. Further, since the operator switches from the live view image P Live of the same field of view as the actual field of view to the simulation image P sim1 of the same field of view, the operator can observe without discomfort. When the simulation image P sim1 is displayed on the display device 70, the control unit 87 may warn the display device 70 that the image displayed by the display device 70 is the simulation image P sim1 by voice, characters, or the like, or an image frame. Etc. may be warned by highlighting (for example, displaying such as blinking).

続いて、制御部87は、画像処理部82に医療器具40に対する操作内容に基づいて、シミュレーション画像の表示態様を制御する(ステップS206)。具体的には、制御部87は、第3の検出部25の検出結果に基づいて、医療器具40に対する操作内容がシミュレーション画像Psim1上に写る臓器Oの奥行き方向へ進行する内容である場合、例えば医療器具40をトロッカー20に対して挿入方向に押し込む操作の場合、現在のシミュレーション画像Psim1上に写る臓器Oの次の層(例えば臓器を輪切りした層)または図11に示すような臓器Oの裏側から見た状態の臓器に加工したシミュレーション画像Psim2を画像処理部82に生成させて表示装置70に出力させる。この場合、制御部87は、第3の検出部25の検出結果に基づいて、術者が医療器具40をトロッカー20に対して挿入方向に押し込む挿入量(操作量)に応じて臓器Oを水平方向に回転したシミュレーション画像Psim2を画像処理部82に生成させて表示装置70に出力させる。例えば、制御部87は、第3の検出部25の検出結果に基づいて、術者が医療器具40をトロッカー20に対して挿入方向に押し込んでいると判断し、現在のシミュレーション画像Psim1上に写る臓器Oの次の層や裏側から見た状態に加工したシミュレーション画像Psim2を画像処理部82に生成させて表示装置70に出力させる。図11に示す場合、シミュレーション画像Psim2の臓器Oには、裏側から見た際の血管Oが含まれている。これにより、術者は、直感的な操作で所望の視点で仮想的に臓器を観察することができる。 Subsequently, the control unit 87 controls the image processing unit 82 to control the display mode of the simulation image based on the operation content for the medical device 40 (step S206). Specifically, when the control unit 87 based on the detection result of the third detection unit 25, the contents of the operation contents for the medical instrument 40 proceeds in the depth direction of the organ O 2 caught on on the simulation image P SIM1 For example, in the case of an operation of pushing the medical device 40 into the trocar 20 in the insertion direction, the next layer of the organ O 2 (for example, a layer obtained by slicing the organ) shown on the current simulation image P sim 1 or as shown in FIG. The image processing unit 82 generates a simulated image P sim 2 processed into an organ as seen from the back side of the organ O 2, and outputs the simulated image P sim 2 to the display device 70. In this case, the control unit 87 presses the organ O 2 according to the insertion amount (operation amount) in which the operator pushes the medical device 40 into the trocar 20 in the insertion direction based on the detection result of the third detection unit 25. A simulation image P sim2 rotated in the horizontal direction is generated by the image processing unit 82 and output to the display device 70. For example, the control unit 87 determines that the operator is pushing the medical device 40 against the trocar 20 in the insertion direction based on the detection result of the third detection unit 25, and displays it on the current simulation image P sim1 . The image processing unit 82 generates a simulation image P sim2 processed so as to be viewed from the next layer or the back side of the imaged organ O 2 , and outputs the simulated image P sim 2 to the display device 70. In the case shown in FIG. 11, the organ O 2 of the simulation image P sim 2 includes the blood vessel O 3 when viewed from the back side. As a result, the operator can virtually observe the organ from a desired viewpoint by intuitive operation.

また、制御部87は、術者の操作量に応じて、現在のシミュレーション画像Psim1上に写る臓器O2の次の層(例えば臓器を輪切りした層)や裏側から見た状態に加工したシミュレーション画像を画像処理部82に生成させて表示装置70に出力させる。なお、制御部87は、第1の検出部21の嵌合部材213が医療器具40における凹部42と凹部43部との間に所定の間隔で外周側に突起させて設けられた複数の突起部44の各々に接触して、その都度、乗り越えることによって、圧力センサ211が検出する圧力値の変化率が所定値以上であるか否かを判定することによって挿入量を検出するようにしてもよい。この場合、制御部87は、第1の検出部21の嵌合部材213が医療器具40の突起部44を乗り越えることによって変化する圧力センサ211の圧力値の変化率が所定値以上の数に応じて、術者が医療器具40をトロッカー20に対して挿入方向に押し込む挿入量(操作量)や引き抜く挿入量(操作量)を判断する。なお、制御部87は、圧力値の変化率が所定値以上であるか否かを判断しているが、変化率に限定されることなく、圧力値の最大値および最小値であってもよい。もちろん、医療器具40における複数の突起部44の形状を適宜変更してもよいし、予測される圧力値に応じて複数の突起部44の形状を変更してもよい。 In addition, the control unit 87 processes the next layer of the organ O2 (for example, a layer obtained by slicing the organ) on the current simulation image P sim1 or a simulation image processed into a state viewed from the back side according to the operation amount of the operator. Is generated by the image processing unit 82 and output to the display device 70. The control unit 87 is provided with a plurality of protrusions on which the fitting member 213 of the first detection unit 21 is provided so as to protrude on the outer peripheral side at a predetermined interval between the recess 42 and the recess 43 in the medical device 40. The insertion amount may be detected by determining whether or not the rate of change of the pressure value detected by the pressure sensor 211 is equal to or greater than a predetermined value by contacting each of the 44s and overcoming each of them. .. In this case, the control unit 87 responds to the number of changes in the pressure value of the pressure sensor 211, which changes when the fitting member 213 of the first detection unit 21 gets over the protrusion 44 of the medical device 40, to a predetermined value or more. Then, the surgeon determines the insertion amount (operation amount) for pushing the medical device 40 into the trocar 20 in the insertion direction and the insertion amount (operation amount) for pulling out. The control unit 87 determines whether or not the rate of change of the pressure value is equal to or greater than a predetermined value, but the pressure value may be the maximum value and the minimum value without being limited to the rate of change. .. Of course, the shapes of the plurality of protrusions 44 in the medical device 40 may be appropriately changed, or the shapes of the plurality of protrusions 44 may be changed according to the predicted pressure value.

また、制御部87は、第4の検出部26の検出結果に基づいて、術者が医療器具40をトロッカー20に対して回転させた回転量に応じて臓器Oを垂直方向に回転したシミュレーション画像を画像処理部82に生成させて表示装置70に出力させてもよい。もちろん、制御部87は、第3の検出部25の検出結果および第4の検出部26の検出結果に基づいて、臓器Oを水平方向および垂直方向に回転したシミュレーション画像を画像処理部82に生成させて表示装置70に出力させてもよい。 Further, the control unit 87 simulates that the organ O 2 is rotated in the vertical direction according to the amount of rotation of the medical device 40 with respect to the trocar 20 based on the detection result of the fourth detection unit 26. The image may be generated by the image processing unit 82 and output to the display device 70. Of course, the control unit 87 sends a simulation image obtained by rotating the organ O 2 in the horizontal and vertical directions to the image processing unit 82 based on the detection result of the third detection unit 25 and the detection result of the fourth detection unit 26. It may be generated and output to the display device 70.

また、制御部87は、医療器具40に対する操作内容がシミュレーション画像Psim2上に写る臓器Oと脂肪とを医療器具40によって切除する内容である場合、図12に示すように、医療器具40によって臓器Oから脂肪を切り離すシミュレーション画像Psim2上を画像処理部82に生成させて表示装置70に出力させる。これにより、術者は、シミュレーション画像Psim2上において仮想的にシミュレーションを行うことができる。さらに、術者は、使い慣れた医療器具40でシミュレーションを行うことができる。ステップS206の後、図5のメインルーチンへ戻り、ステップS110へ移行する。 Further, when the operation content for the medical instrument 40 is the content of excising the organ O 2 and the fat shown on the simulation image P sim 2 by the medical instrument 40, the control unit 87 uses the medical instrument 40 as shown in FIG. The image processing unit 82 is generated on the simulation image P sim 2 for separating the fat from the organ O 2, and is output to the display device 70. As a result, the operator can virtually perform the simulation on the simulation image P sim2. In addition, the surgeon can perform the simulation with the familiar medical device 40. After step S206, the process returns to the main routine of FIG. 5 and proceeds to step S110.

図5に戻り、ステップS110以降の説明を続ける。
ステップS110において、制御部87は、トロッカー20の第2の検出部22によって検出された検出結果に基づいて、医療器具40が第2の状態であるか否かを判断する。具体的には、制御部87は、トロッカー20の第2の検出部22から医療器具40の挿入を検出した検出結果(ライブビューモード)が入力されたか否かを判断する。制御部87によって医療器具40が第2の状態であると判断した場合(ステップS110:Yes)、医療用観察システム1は、ステップS104へ移行する(ライブビューモードへ遷移する)。これにより、術者は、医療器具40から手を離すことなく、そのまま自由にシミュレーション画像Psim1から現在の視野のライブビュー画像PLiveに違和感なく切り替えることができ、処置を行うことができる。さらに、術者は、トロッカー20を経由して医療器具40に対する簡易な操作でシミュレーション画像Psim1(シミュレーションモード)とライブビュー画像PLive(ライブビューモード)と切り替えることができ、安全に手技を行うことができる。さらに、術者は、トロッカー20を経由して医療器具40に対する簡易な操作でシミュレーション画像Psim1(シミュレーションモード)とライブビュー画像PLive(ライブビューモード)と切り替えることができるため、術前に、チーム全員で確認および評価を行うことができるので、より一層手技の効率化を図ることができる。さらに、術者は、医療器具40をトロッカー20に対して強く挿入しなければ第2の状態にすることができないので、安全性を高めることができる。これに対して、制御部87によって医療器具40が第2の状態でないと判断した場合(S110:No)、医療用観察システム1は、ステップS109へ移行する(シミュレーションモードを継続する)。これにより、医療器具40がトロッカー20内に位置する第1の状態である場合のみ、シミュレーション画像Psim1を表示するため、被検体Oの術部に触れることを防止することができる。
Returning to FIG. 5, the description after step S110 will be continued.
In step S110, the control unit 87 determines whether or not the medical device 40 is in the second state based on the detection result detected by the second detection unit 22 of the trocar 20. Specifically, the control unit 87 determines whether or not the detection result (live view mode) in which the insertion of the medical device 40 is detected is input from the second detection unit 22 of the trocar 20. When the control unit 87 determines that the medical device 40 is in the second state (step S110: Yes), the medical observation system 1 shifts to step S104 (transitions to the live view mode). As a result, the surgeon can freely switch from the simulation image P sim 1 to the live view image P Live of the current visual field without taking his / her hand off the medical device 40, and can perform the treatment. Further, the operator can switch between the simulation image P sim1 (simulation mode) and the live view image P Live (live view mode) by a simple operation on the medical device 40 via the trocar 20, and perform the procedure safely. be able to. Further, since the surgeon can switch between the simulation image P sim1 (simulation mode) and the live view image P Live (live view mode) by a simple operation on the medical device 40 via the trocar 20, before the operation, Since the entire team can check and evaluate, the efficiency of the procedure can be further improved. Further, the surgeon cannot enter the second state unless the medical device 40 is strongly inserted into the trocar 20, so that the safety can be enhanced. On the other hand, when the control unit 87 determines that the medical device 40 is not in the second state (S110: No), the medical observation system 1 shifts to step S109 (continues the simulation mode). Thus, only when the medical device 40 is in a first state located trocar 20, for displaying the simulation image P SIM1, it is possible to prevent touching the operative part of the object O 1.

以上説明した実施の形態1によれば、制御部87が術者によって把持された医療器具40が挿入され、かつ、医療器具40の被検体O内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカー20の検出結果に基づいて、被検体O内の観察対象を撮像することによって生成されたライブビュー画像および予め取得された被検体O内の観察対象のシミュレーション画像の少なくとも一方を表示装置70に表示させるため、術中における術者の邪魔をすることなく、術中の術者を補助することができるうえ、術者の経験値に関係なく、手術を行うことができる。 According to the first embodiment described above, the control unit 87 is inserted medical device 40 that is gripped by the surgeon, and, a first state indicating insertion state into the subject O 1 of the medical instrument 40 based second state on detection results of detectable least one trocar 20, the object O object O 1 obtained which generated live view image and advance by imaging the observation target in the 1 Since at least one of the simulated images to be observed is displayed on the display device 70, it is possible to assist the operator during the operation without disturbing the operator during the operation, and regardless of the experience value of the operator. Surgery can be performed.

また、実施の形態1によれば、制御部87がトロッカー20によって医療器具40が第2の状態であると検出された場合、ライブビュー画像PLiveを表示装置70に表示させるため、術者がライブビュー画像PLiveを見つつ、把持した医療器具40,50によって処置を行うことができる。 Further, according to the first embodiment, when the control unit 87 detects that the medical device 40 is in the second state by the trocar 20, the operator displays the live view image P Live on the display device 70. While watching the live view image P Live , the treatment can be performed by the grasped medical instruments 40 and 50.

また、実施の形態1によれば、制御部87がトロッカー20によって医療器具40が第1の状態であると検出された場合、ライブビュー画像PLiveおよびシミュレーション画像Psim1の少なくとも一方を表示装置70に表示させるため、術者が医療器具40を把持しながらライブビュー画像PLiveとシミュレーション画像Psim1とをスムーズに切り替えることができるうえ、他のスイッチや医療器具に持ち替えることなく行うことができる。 Further, according to the first embodiment, when the control unit 87 detects that the medical device 40 is in the first state by the trocar 20, the display device 70 displays at least one of the live view image P Live and the simulation image P sim1. The operator can smoothly switch between the live view image P Live and the simulation image P sim1 while grasping the medical device 40, and can perform the operation without switching to another switch or medical device.

また、実施の形態1によれば、制御部87がトロッカー20によって検出された医療器具40に関する医療器具情報に基づいて、シミュレーション画像Psim1上に医療器具に対応する医療器具画像を重畳して表示装置70に表示させるため、処置を行う対象物と医療器具40との位置関係を直感的に把握することができる。 Further, according to the first embodiment, the control unit 87 superimposes and displays the medical device image corresponding to the medical device on the simulation image P sim1 based on the medical device information regarding the medical device 40 detected by the trocar 20. Since it is displayed on the device 70, the positional relationship between the object to be treated and the medical device 40 can be intuitively grasped.

また、実施の形態1によれば、制御部87が医療器具40に対する術者の操作内容に基づいて、医療器具画像およびシミュレーション画像Psim1の表示態様を制御するため、実際の感覚に似た操作でシミュレーションを行うことができる。 Further, according to the first embodiment, the control unit 87 controls the display mode of the medical device image and the simulation image P sim1 based on the operation content of the operator with respect to the medical device 40, so that the operation resembles an actual feeling. You can perform a simulation with.

また、実施の形態1によれば、制御部87がライブビュー画像PLiveからシミュレーション画像Psim1に切り替える場合、推論部84の推定結果に基づいて、ライブビュー画像PLiveに写る臓器の位置とシミュレーション画像Psim1に含まれる臓器の位置との位置合わせを行ってシミュレーション画像Psim1を表示装置70に表示させるため、ライブビュー画像PLiveから違和感なくシミュレーション画像Psim1に切り替えることができるうえ、現在の観察視野に写る臓器を見失うことを防止することができる。 Further, according to the first embodiment, when the control unit 87 switches from the live view image P Live to the simulation image P sim1 , the position and simulation of the organs reflected in the live view image P Live are based on the estimation result of the inference unit 84. for displaying the simulation image P SIM1 performing alignment of the position of the organ included in the image P SIM1 on the display device 70, upon which can be switched from the live view image P Live to seamlessly simulation image P SIM1, the current It is possible to prevent losing sight of the organs in the observation field.

また、実施の形態1によれば、医療器具40が第1の状態である場合、制御部87がシミュレーション画像Psim1上にライブビュー画像PLiveを縮小して重畳した状態で表示装置70に表示させるため、シミュレーション画像Psim1とライブビュー画像PLiveとを比較しながらシミュレーションを行うことができる。 Further, according to the first embodiment, when the medical device 40 is in the first state, the control unit 87 displays the live view image P Live on the simulation image P sim1 in a reduced state and superimposed on the display device 70. Therefore , the simulation can be performed while comparing the simulation image P sim1 and the live view image P Live.

また、実施の形態1によれば、制御部87がライブビュー画像PLiveからシミュレーション画像Psim1にきりかえ場合、表示装置70に警告を出力させるため、術者がライブビュー画像PLiveからシミュレーション画像Psim1に切り替わったことを直感的に把握することができる。 Further, according to the first embodiment, when the control unit 87 switches from the live view image P Live to the simulation image P sim1, the operator outputs a warning to the display device 70, so that the operator can perform the simulation image from the live view image P Live. It is possible to intuitively grasp that the switch has been made to P sim1.

また、実施の形態1によれば、トロッカー20が検出したトロッカー20の挿入部271への医療器具40,50の挿入量およびトロッカー20の挿入部271を軸に回転する医療器具40,50の回転量に基づいて、制御部87がシミュレーション画像Psim2に写る観察対象を水平方向および水平方向の少なくとも一方に回転させる表示装置70に表示させる。これにより、術者は、医療器具40,50を操作するだけで、シミュレーション画像を所望の視点に遷移させることができる。 Further, according to the first embodiment, the amount of the medical device 40, 50 inserted into the insertion portion 271 of the trocar 20 detected by the trocar 20 and the rotation of the medical device 40, 50 rotating about the insertion portion 271 of the trocar 20 as an axis. Based on the amount, the control unit 87 causes the display device 70 to rotate the observation target shown in the simulation image P sim 2 in at least one of the horizontal direction and the horizontal direction. As a result, the surgeon can shift the simulation image to a desired viewpoint simply by operating the medical instruments 40 and 50.

また、実施の形態1によれば、制御部87が被検体Oの観察対象を撮像する医療用撮像装置30の先端と、被検体Oの観察対象と、の距離に基づいて、被検体Oの観察対象の蛍光を観察する際の観察対象から医療用撮像装置30の先端までの最適な距離を含む距離情報Bを、表示装置70が表示するライブビュー画像PLive上に重畳表示させる。これにより、術者は、距離情報Bに含まれる現在距離Kと、観察対象からの蛍光の発光量と、を観察することによって、観察対象から医療用撮像装置30の先端までの距離によって見え方が異なる発光量であっても、偽陽性または偽陰性を確実に防止することができる。 Further, according to the first embodiment, the control unit 87 and the distal end of the medical imaging apparatus 30 for imaging the observation target object O 1, based on the distance and the observation target object O 1,, subject The distance information B 1 including the optimum distance from the observation target when observing the fluorescence of the observation target of O 1 to the tip of the medical imaging device 30 is superimposed and displayed on the live view image P Live displayed by the display device 70. Let me. Thus, the operator, the current distance K 1 included in the distance information B 1, and the light emission amount of fluorescence from the observation target, by observing, the distance from the observation target to the tip of the medical imaging apparatus 30 False positives or false negatives can be reliably prevented even if the amount of light emitted is different.

(実施の形態2)
次に、実施の形態2について説明する。実施の形態2は、上述した実施の形態1に係る医療用観察システム1と同一の構成を有し、実行する処理が異なる。具体的には、上述した実施の形態1では、1つのトロッカー20による検出結果に基づいて、ライブビュー画像およびシミュレーション画像の少なくとも一方を表示装置70に表示させていたが、実施の形態2では、2つのトロッカーの各々の検出結果に基づいて、ライブビュー画像およびシミュレーション画像の少なくとも一方を表示装置70に表示させる。以下においては、実施の形態2に係る医療用観察システムが実行する処理について説明する。なお、上述した実施の形態1に係る医療用観察システム1と同一の構成には同一の符号を付して詳細な説明を省略する。
(Embodiment 2)
Next, the second embodiment will be described. The second embodiment has the same configuration as the medical observation system 1 according to the first embodiment described above, and the processing to be executed is different. Specifically, in the first embodiment described above, at least one of the live view image and the simulation image is displayed on the display device 70 based on the detection result by one trocar 20, but in the second embodiment, the display device 70 is displayed. Based on the detection result of each of the two trocars, at least one of the live view image and the simulation image is displayed on the display device 70. Hereinafter, the processing executed by the medical observation system according to the second embodiment will be described. The same components as those of the medical observation system 1 according to the first embodiment described above are designated by the same reference numerals, and detailed description thereof will be omitted.

〔医療用観察システムの処理〕
図13は、実施の形態2に係る医療用観察システム1が実行する処理の概要を示すフローチャートである。
[Processing of medical observation system]
FIG. 13 is a flowchart showing an outline of the process executed by the medical observation system 1 according to the second embodiment.

図13に示すように、まず、制御部87は、2つのトロッカー20L,20Rの第1の検出部21の各々によって検出された検出結果に基づいて、2つの医療器具40,50が第1の状態になったか否かを判断する。具体的には、制御部87は、2つのトロッカー20L,20Rの第1の検出部21の各々から医療器具40または医療器具50の挿入を検出した検出結果が入力されたか否かを判断する。制御部87によって2つの医療器具40,50が第1の状態であると判断された場合(ステップS301:Yes)、医療用観察システム1は、後述するステップS302へ移行する。これに対して、制御部87によって2つの医療器具40,50が第1の状態でないと判断された場合(ステップS301:No)、医療用観察システム1は、後述するステップS313へ移行する。 As shown in FIG. 13, first, the control unit 87 has two medical devices 40, 50 as the first, based on the detection result detected by each of the first detection units 21 of the two trocars 20L and 20R. Determine if the condition has been reached. Specifically, the control unit 87 determines whether or not the detection result of detecting the insertion of the medical device 40 or the medical device 50 is input from each of the first detection units 21 of the two trocars 20L and 20R. When the control unit 87 determines that the two medical devices 40 and 50 are in the first state (step S301: Yes), the medical observation system 1 shifts to step S302 described later. On the other hand, when the control unit 87 determines that the two medical devices 40 and 50 are not in the first state (step S301: No), the medical observation system 1 shifts to step S313 described later.

ステップS302において、制御部87は、2つのトロッカー20L,20Rの取得部23によって取得された医療器具40,50の各々の種別情報を取得する。 In step S302, the control unit 87 acquires the type information of each of the medical devices 40 and 50 acquired by the acquisition unit 23 of the two trocars 20L and 20R.

続いて、制御部87は、2つのトロッカー20L,20Rの第2の検出部22の各々によって検出された検出結果に基づいて、2つの医療器具40,50が第2の状態になったか否かを判断する(ステップS303)。具体的には、制御部87は、2つのトロッカー20L,20Rの第2の検出部22の各々から医療器具40または医療器具50の挿入を検出した検出結果が入力されたか否かを判断する。制御部87によって2つの医療器具40,50が第2の状態であると判断された場合(ステップS303:Yes)、医療用観察システム1は、後述するステップS306へ移行する。これに対して、制御部87によって2つの医療器具40,50が第2の状態でないと判断された場合(ステップS303:No)、医療用観察システム1は、後述するステップS304へ移行する。 Subsequently, the control unit 87 determines whether or not the two medical devices 40 and 50 are in the second state based on the detection results detected by each of the second detection units 22 of the two trocars 20L and 20R. Is determined (step S303). Specifically, the control unit 87 determines whether or not the detection result of detecting the insertion of the medical device 40 or the medical device 50 is input from each of the second detection units 22 of the two trocars 20L and 20R. When the control unit 87 determines that the two medical devices 40 and 50 are in the second state (step S303: Yes), the medical observation system 1 shifts to step S306 described later. On the other hand, when the control unit 87 determines that the two medical devices 40 and 50 are not in the second state (step S303: No), the medical observation system 1 shifts to step S304 described later.

ステップS304において、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する。この場合、制御部87は、第1の通信部81に画像データを画像処理部82に出力させる。 In step S304, the control unit 87 acquires the image data generated by the medical imaging device 30 via the first communication unit 81. In this case, the control unit 87 causes the first communication unit 81 to output the image data to the image processing unit 82.

その後、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて表示装置70に出力させることによって表示装置70に画像データに基づくライブビュー画像(例えば図6のライブビュー画像PLiveを参照)を表示させる(ステップS305)。ステップS305の後、医療用観察システム1は、上述したステップS303へ戻る。 After that, the control unit 87 causes the display device 70 to perform live view based on the image data by causing the image processing unit 82 to perform image processing on the image data acquired by the first communication unit 81 and outputting the image data to the display device 70. Display an image (see, for example, the live view image P Live in FIG. 6) (step S305). After step S305, the medical observation system 1 returns to step S303 described above.

ステップS306において、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する。 In step S306, the control unit 87 acquires the image data generated by the medical imaging device 30 via the first communication unit 81.

続いて、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて出力させることによって表示装置70にライブビュー画像を表示させる(ステップS307)。 Subsequently, the control unit 87 causes the display device 70 to display the live view image by causing the image processing unit 82 to perform image processing on the image data acquired by the first communication unit 81 and output the image data (step S307). ).

その後、制御部87は、2つのトロッカー20L,20Rの第2の検出部22の各々によって検出された検出結果に基づいて、2つの医療器具40,50が第2の状態になったか否かを判断する(ステップS308)。制御部87によって2つの医療器具40,50が第2の状態になったと判断された場合(ステップS308:Yes)、医療用観察システム1は、後述するステップS309へ移行する。これに対して、制御部87によって2つの医療器具40,50が第2の状態になっていないと判断された場合(ステップS308:No)、医療用観察システム1は、後述するステップS314へ移行する。 After that, the control unit 87 determines whether or not the two medical devices 40 and 50 are in the second state based on the detection results detected by each of the second detection units 22 of the two trocars 20L and 20R. Determine (step S308). When the control unit 87 determines that the two medical devices 40 and 50 are in the second state (step S308: Yes), the medical observation system 1 shifts to step S309 described later. On the other hand, when the control unit 87 determines that the two medical devices 40 and 50 are not in the second state (step S308: No), the medical observation system 1 shifts to step S314 described later. do.

ステップS309において、制御部87は、第1の通信部81を経由して医療用撮像装置30が生成した画像データを取得する。 In step S309, the control unit 87 acquires the image data generated by the medical imaging device 30 via the first communication unit 81.

続いて、制御部87は、第1の通信部81が取得した画像データに対して画像処理部82に画像処理を施させて出力させることによって表示装置70にライブビュー画像を表示させる(ステップS310)。これにより、術者は、2つの医療器具40,50を被検体O内に挿入した状態でライブビュー画像を見ながら処置を行う。 Subsequently, the control unit 87 causes the display device 70 to display the live view image by causing the image processing unit 82 to perform image processing on the image data acquired by the first communication unit 81 and output the image data (step S310). ). Thus, the operator, the treatment while viewing a live view image of two medical devices 40, 50 in a state of being inserted into the subject O 1.

ステップS311〜ステップS315は、上述した図5のステップS106〜ステップS110それぞれに対応する。 Steps S311 to S315 correspond to each of steps S106 to S110 in FIG. 5 described above.

ステップS316において、制御部87は、2つのトロッカー20L,20Rの第2の検出部22の各々によって検出された検出結果に基づいて、2つの医療器具40,50のうち1つが第2の状態になったか否かを判断する。制御部87によって2つの医療器具40,50のうち1つが第2の状態であると判断された場合(ステップS316:Yes)、医療用観察システム1は、ステップS309へ移行する。これにより、術者は、2つの医療器具40,50のうち1つが第1の状態となった場合であっても、制御部87がライブビュー画像を表示装置70に表示させるため(ライブビューモードへ遷移)、実際の視野において被検体Oの処置を行うことができる。この場合、制御部87は、表示装置70にシミュレーション画像でないことを音声およびテキスト等によって警告させてもよい。これに対して、制御部87によって2つの医療器具40,50のうち1つが第2の状態でないと判断された場合(ステップS316:No)、医療用観察システム1は、ステップS303へ移行する。 In step S316, the control unit 87 puts one of the two medical devices 40 and 50 into the second state based on the detection result detected by each of the second detection units 22 of the two trocars 20L and 20R. Determine if it has become. When the control unit 87 determines that one of the two medical devices 40, 50 is in the second state (step S316: Yes), the medical observation system 1 proceeds to step S309. As a result, the operator causes the control unit 87 to display the live view image on the display device 70 even when one of the two medical instruments 40 and 50 is in the first state (live view mode). to transition), it is possible to perform the treatment of the subject O 1 in the actual field of view. In this case, the control unit 87 may warn the display device 70 that it is not a simulation image by voice, text, or the like. On the other hand, when the control unit 87 determines that one of the two medical devices 40, 50 is not in the second state (step S316: No), the medical observation system 1 shifts to step S303.

以上説明した実施の形態2によれば、制御部87が術者によって把持された2つの医療器具40,50が挿入され、かつ、医療器具40の被検体O内への挿入状態を示す第1の状態と第2の状態を検出可能な2つのトロッカー20の検出結果に基づいて、被検体O内の観察対象を撮像することによって生成されたライブビュー画像および予め取得された被検体O内の観察対象のシミュレーション画像の少なくとも一方を表示装置70に表示させるため、術中における術者の邪魔をすることなく、術中の術者を補助することができる。 According to the second embodiment described above, the control unit 87 are inserted two medical devices 40, 50 gripped by the surgeon, and the shows the insertion state into the subject O 1 of the medical instrument 40 based one state and the second state to the detection result of the detectable two trocar 20, the object O which is a live view image and previously acquired generated by imaging the observation target inside the object O 1 Since at least one of the simulation images to be observed in 1 is displayed on the display device 70, it is possible to assist the operator during the operation without disturbing the operator during the operation.

また、実施の形態1によれば、制御部87が2つのトロッカー20によって2つの医療器具40,50が第2の状態であると検出された場合、ライブビュー画像PLiveを表示装置70に表示させるため、術者がライブビュー画像PLiveを見つつ、把持した医療器具40,50によって処置を行うことができる。 Further, according to the first embodiment, when the control unit 87 detects that the two medical devices 40 and 50 are in the second state by the two trocars 20, the live view image P Live is displayed on the display device 70. Therefore, the surgeon can perform the treatment with the medical instruments 40 and 50 grasped while viewing the live view image P Live.

また、実施の形態1によれば、制御部87が22つのトロッカー20によって2つの医療器具40,50が第1の状態であると検出された場合、少なくともシミュレーション画像Psim1の少なくとも一方を表示装置70に表示させるため、術者が医療器具40を把持しながらライブビュー画像PLiveとシミュレーション画像Psim1とをスムーズに切り替えることができるうえ、他のスイッチや他の医療器具に持ち替えることなく行うことができる。 Further, according to the first embodiment, when the control unit 87 detects that the two medical devices 40 and 50 are in the first state by the 22 trocars 20, at least one of the simulated images P sim 1 is displayed. In order to display on 70, the surgeon can smoothly switch between the live view image P Live and the simulation image P sim1 while grasping the medical device 40, and the operation is performed without switching to another switch or another medical device. Can be done.

また、実施の形態1では、制御部87が22つのトロッカー20によって2つの医療器具40,50が第1の状態であると検出された場合のみ、少なくともシミュレーション画像Psim1を表示装置70に表示させるため、術者が医療器具40を把持しながらライブビュー画像PLiveとシミュレーション画像Psim1とをスムーズに切り替えることができる。 Further, in the first embodiment, at least the simulation image P sim 1 is displayed on the display device 70 only when the control unit 87 detects that the two medical devices 40 and 50 are in the first state by the 22 trocars 20. Therefore , the operator can smoothly switch between the live view image P Live and the simulation image P sim1 while grasping the medical instrument 40.

(その他の実施の形態)
上述した本開示の実施の形態1,2に係る医療用観察システムに開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上述した本開示の実施の形態に係る医療用観察システムに記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、上述した本開示の実施の形態1,2に係る医療用観察システムで説明した構成要素を適宜組み合わせてもよい。
(Other embodiments)
Various inventions can be formed by appropriately combining a plurality of components disclosed in the medical observation system according to the first and second embodiments of the present disclosure described above. For example, some components may be deleted from all the components described in the medical observation system according to the embodiment of the present disclosure described above. Further, the components described in the medical observation system according to the first and second embodiments of the present disclosure described above may be appropriately combined.

また、本開示の実施の形態1,2に係る医療用観察システムでは、上述してきた「部」は、「手段」や「回路」などに読み替えることができる。例えば、制御部は、制御手段や制御回路に読み替えることができる。 Further, in the medical observation system according to the first and second embodiments of the present disclosure, the above-mentioned "part" can be read as "means", "circuit" and the like. For example, the control unit can be read as a control means or a control circuit.

また、本開示の実施の形態1,2に係る医療用観察システムに実行させるプログラムは、インストール可能な形式または実行可能な形式のファイルデータでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)、USB媒体、フラッシュメモリ等のコンピュータで読み取り可能な記録媒体に記録されて提供される。 Further, the program to be executed by the medical observation system according to the first and second embodiments of the present disclosure is a CD-ROM, a flexible disk (FD), a CD-R, in an installable format or an executable format file data. It is provided by being recorded on a computer-readable recording medium such as a DVD (Digital Versatile Disk), a USB medium, or a flash memory.

また、本開示の実施の形態1,2に係る医療用観察システムに実行させるプログラムは、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。 Further, the program to be executed by the medical observation system according to the first and second embodiments of the present disclosure is configured to be stored on a computer connected to a network such as the Internet and provided by downloading via the network. You may.

なお、本明細書におけるフローチャートの説明では、「まず」、「その後」、「続いて」等の表現を用いてステップ間の処理の前後関係を明示していたが、本発明を実施するために必要な処理の順序は、それらの表現によって一意的に定められるわけではない。即ち、本明細書で記載したフローチャートにおける処理の順序は、矛盾のない範囲で変更することができる。 In the description of the flowchart in the present specification, the context of the processing between steps has been clarified by using expressions such as "first", "after", and "continued", but in order to carry out the present invention. The order of processing required is not uniquely defined by those representations. That is, the order of processing in the flowchart described in the present specification can be changed within a consistent range.

以上、本願の実施の形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、本開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本開示を実施することが可能である。 Although some of the embodiments of the present application have been described in detail with reference to the drawings, these are examples, and various modifications based on the knowledge of those skilled in the art, including the embodiments described in the columns of the present disclosure. It is possible to implement the present disclosure in other modified forms.

なお、本技術は以下のような構成も取ることができる。
(付記1)
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象に関する第2の画像の少なくとも一方を表示装置に表示させる制御部を備える、
医療用画像処理装置。
(付記2)
(付記1)に記載の医療用画像処理装置であって、
前記第1の状態は、前記医療器具が前記トロッカー内に位置する状態であり、
前記第2の状態は、少なくとも前記医療器具の一部が前記トロッカーを経由して前記被検体内に挿入されて露出した状態である、
医療用画像処理装置。
(付記3)
(付記1)または(付記2)に記載の医療用画像処理装置であって、
前記制御部は、
前記医療器具が前記第2の状態である場合、前記第1の画像を前記表示装置に表示させる一方、
前記医療器具が前記第1の状態である場合、少なくとも前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
(付記4)
(付記1)〜(付記3)のいずれか1つに記載の医療用画像処理装置であって、
前記制御部は、
前記トロッカーによって検出された前記医療器具に関する医療器具情報に基づいて、前記第2の画像上に前記医療器具に対応する医療器具画像を重畳して前記表示装置に表示させる、
医療用画像処理装置。
(付記5)
(付記4)に記載の医療用画像処理装置であって、
前記制御部は、
前記医療器具に対する術者の操作内容に基づいて、前記医療器具画像および前記第2の画像の表示態様を制御する、
医療用画像処理装置。
(付記6)
(付記5)に記載の医療用画像処理装置であって、
前記第1の画像に写る臓器の位置と前記第2の画像に含まれる臓器の位置との位置を推定する推論部をさらに備え、
前記制御部は、
前記第1の画像から前記第2の画像に切り替える場合、前記推論部の推定結果に基づいて、前記第1の画像に写る臓器の位置と前記第2の画像に含まれる臓器の位置との位置合わせを行った前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
(付記7)
(付記1)〜(付記6)のいずれか1つに記載の医療用画像処理装置であって、
前記制御部は、
前記第1の画像と前記第2の画像とを並列させて前記表示装置に表示させる、または前記第2の画像上に前記第1の画像を縮小して重畳した状態で前記表示装置に表示させる、
医療用画像処理装置。
(付記8)
(付記1)〜(付記7)のいずれか1つに記載の医療用画像処理装置であって、
前記制御部は、
前記第1の画像から前記第2の画像を切り替える場合、前記表示装置に警告を出力させる、
医療用画像処理装置。
(付記9)
(付記1)〜(付記8)のいずれか1つに記載の医療用画像処理装置であって、
前記トロッカーは、2つであり、
2つの前記トロッカーの各々が前記第2の状態を検出した場合、前記第1の画像を前記表示装置に表示させる一方、
2つの前記トロッカーの各々が前記第1の状態を検出した場合、少なくとも前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
(付記10)
(付記1)〜(付記9)のいずれか1つに記載の医療用画像処理装置であって、
前記第1の画像は、
前記被検体内の観察対象を連続的に撮像することによって生成されたライブビュー画像であり、
前記第2の画像は、
前記被検体内の観察対象のシミュレーション画像である、
医療用画像処理装置。
(付記11)
(付記1)〜(付記9)のいずれか1つに記載の医療用画像処理装置であって、
前記第1の画像は、
前記被検体内の観察対象を連続的に撮像することによって生成されたライブビュー画像であり、
前記第2の画像は、
前記被検体内の観察対象に関する医学情報である、
医療用画像処理装置。
(付記12)
(付記5)に記載の医療用画像処理装置であって、
前記制御部は、
前記トロッカーが検出した前記トロッカーの挿入部を軸に回転する前記医療器具の回転量および前記トロッカーの挿入部への前記医療器具の挿入量の少なくとも一方に基づいて、前記第2の画像に写る前記観察対象を水平方向および垂直方向の少なくとも一方に回転させて前記表示装置に表示させる、
医療用画像処理装置。
(付記13)
(付記1)に記載の医療用画像処理装置であって、
前記制御部は、
前記観察対象を撮像する医療用撮像装置の先端と、前記観察対象と、の距離に基づいて、前記観察対象の蛍光を観察する際の前記観察対象から前記先端までの最適な距離を含む距離情報を前記表示装置に表示させる、
医療用画像処理装置。
(付記14)
筒状をなし、外部から医療器具が挿入可能な穴部を有する本体部と、
前記穴部の挿入方向に沿って設けられ、前記穴部に挿入された前記医療器具の位置を第1の状態として検出する第1の検出部と、
前記穴部の挿入方向に沿って前記第1の検出部より挿入距離が長い位置に設けられ、前記穴部に挿入された前記医療器具の位置を第2の状態として検出する第2の検出部と、
を備える、
トロッカー。
(付記15)
付記14に記載のトロッカーであって、
前記穴部に挿入される前記医療器具に設けられた前記医療器具に関する医療器具情報を取得する取得部をさらに備える、
トロッカー。
(付記16)
(付記14)または(付記15)に記載のトロッカーであって、
前記第1の検出部および前記第2の検出部の各々は、
前記穴部に突出可能に設けられ、前記医療器具に嵌合する嵌合部材と
前記嵌合部材を前記穴部の外縁から中心に向けて付勢する付勢部材と、
前記付勢部材の付勢状態を検出し、この検出結果を外部へ出力する圧力センサと、
を有する、
トロッカー。
(付記17)
(付記14)または(付記15)に記載のトロッカーであって、
前記第1の状態は、前記医療器具が当該トロッカー内に位置する状態であり、
前記第2の状態は、少なくとも前記医療器具の一部が当該トロッカーを経由して被検体内に挿入されて露出した状態である、
トロッカー。
(付記18)
被検体の観察対象を撮像することによって第1の画像を生成する撮像部と、
予め取得された前記被検体の観察対象の3次元画像データまたは2次元画像データに基づく第2の画像を記録する記録部と、
前記第1の画像および前記第2の画像を表示可能な表示装置と、
術者によって把持された医療器具が挿入され、かつ、該医療器具の前記被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーと、
前記トロッカーの検出結果に基づいて、前記第1の画像および前記第2の画像像の少なくとも一方を前記表示装置に表示させる制御部と、
を備える、
医療用観察システム。
(付記19)
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる、
画像処理方法。
(付記20)
医療用画像処理装置に実行させるプログラムであって、
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる、
プログラム。
The present technology can also have the following configurations.
(Appendix 1)
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. A control unit for displaying at least one of the first image generated by imaging the observation target in the subject and the second image regarding the observation target in the subject acquired in advance on the display device. Prepare, prepare
Medical image processing equipment.
(Appendix 2)
The medical image processing apparatus according to (Appendix 1).
The first state is a state in which the medical device is located in the trocar.
The second state is a state in which at least a part of the medical device is inserted into the subject via the trocar and exposed.
Medical image processing equipment.
(Appendix 3)
The medical image processing apparatus according to (Appendix 1) or (Appendix 2).
The control unit
When the medical device is in the second state, the first image is displayed on the display device, while the display device is displayed.
When the medical device is in the first state, at least the second image is displayed on the display device.
Medical image processing equipment.
(Appendix 4)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 3).
The control unit
Based on the medical device information about the medical device detected by the trocar, the medical device image corresponding to the medical device is superimposed on the second image and displayed on the display device.
Medical image processing equipment.
(Appendix 5)
The medical image processing apparatus according to (Appendix 4).
The control unit
The display mode of the medical device image and the second image is controlled based on the operation contents of the operator with respect to the medical device.
Medical image processing equipment.
(Appendix 6)
The medical image processing apparatus according to (Appendix 5).
Further, an inference unit for estimating the position of the organ shown in the first image and the position of the organ included in the second image is provided.
The control unit
When switching from the first image to the second image, the positions of the organs shown in the first image and the positions of the organs included in the second image are located based on the estimation result of the inference unit. The combined second image is displayed on the display device.
Medical image processing equipment.
(Appendix 7)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 6).
The control unit
The first image and the second image are displayed in parallel on the display device, or the first image is reduced and superimposed on the second image and displayed on the display device. ,
Medical image processing equipment.
(Appendix 8)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 7).
The control unit
When switching from the first image to the second image, the display device is made to output a warning.
Medical image processing equipment.
(Appendix 9)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 8).
There are two trocars
When each of the two trocars detects the second state, the first image is displayed on the display device, while the display device is displayed.
When each of the two trocars detects the first state, at least the second image is displayed on the display device.
Medical image processing equipment.
(Appendix 10)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 9).
The first image is
It is a live view image generated by continuously imaging the observation target in the subject.
The second image is
It is a simulation image of an observation target in the subject.
Medical image processing equipment.
(Appendix 11)
The medical image processing apparatus according to any one of (Appendix 1) to (Appendix 9).
The first image is
It is a live view image generated by continuously imaging the observation target in the subject.
The second image is
Medical information about the observation target in the subject,
Medical image processing equipment.
(Appendix 12)
The medical image processing apparatus according to (Appendix 5).
The control unit
The image in the second image is based on at least one of the amount of rotation of the medical device that rotates about the insertion portion of the trocar detected by the trocar and the amount of insertion of the medical device into the insertion portion of the trocar. The observation object is rotated in at least one of the horizontal direction and the vertical direction to be displayed on the display device.
Medical image processing equipment.
(Appendix 13)
The medical image processing apparatus according to (Appendix 1).
The control unit
Distance information including the optimum distance from the observation target to the tip when observing the fluorescence of the observation target based on the distance between the tip of the medical imaging device that images the observation target and the observation target. Is displayed on the display device.
Medical image processing equipment.
(Appendix 14)
The main body, which has a cylindrical shape and has a hole into which a medical device can be inserted from the outside,
A first detection unit provided along the insertion direction of the hole and detecting the position of the medical device inserted into the hole as the first state.
A second detection unit that is provided at a position longer than the first detection unit along the insertion direction of the hole and detects the position of the medical device inserted in the hole as a second state. When,
To prepare
Trocar.
(Appendix 15)
The trocar described in Appendix 14,
Further provided with an acquisition unit for acquiring medical device information regarding the medical device provided in the medical device inserted into the hole.
Trocar.
(Appendix 16)
The trocar according to (Appendix 14) or (Appendix 15).
Each of the first detection unit and the second detection unit
A fitting member that is protrudably provided in the hole and that fits into the medical device, and an urging member that urges the fitting member from the outer edge of the hole toward the center.
A pressure sensor that detects the urging state of the urging member and outputs the detection result to the outside.
Have,
Trocar.
(Appendix 17)
The trocar according to (Appendix 14) or (Appendix 15).
The first state is a state in which the medical device is located in the trocar.
The second state is a state in which at least a part of the medical device is inserted into the subject via the trocar and exposed.
Trocar.
(Appendix 18)
An imaging unit that generates a first image by imaging the observation target of the subject,
A recording unit that records a second image based on the three-dimensional image data or the two-dimensional image data of the observation target of the subject acquired in advance, and a recording unit.
A display device capable of displaying the first image and the second image, and
One or more trocars capable of detecting a first state and a second state in which the medical device grasped by the operator is inserted and the state of insertion of the medical device into the subject is indicated.
A control unit that displays at least one of the first image and the second image on the display device based on the detection result of the trocar.
To prepare
Medical observation system.
(Appendix 19)
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. Then, at least one of the first image generated by imaging the observation target in the subject and the second image of the observation target in the subject acquired in advance is displayed on the display device.
Image processing method.
(Appendix 20)
A program that is executed by a medical image processing device.
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. Then, at least one of the first image generated by imaging the observation target in the subject and the second image of the observation target in the subject acquired in advance is displayed on the display device.
program.

1 医療用観察システム
10,20,20L,20R トロッカー
21 第1の検出部
22 第2の検出部
23 取得部
24,32,91 通信部
25 第3の検出部
26 第4の検出部
27 本体部
30 医療用撮像装置
31 撮像部
33 撮像制御部
40,50 医療器具
41 ICチップ
42,43 凹部
60 光源装置
70 表示装置
80 制御装置
81 第1の通信部
82 画像処理部
83 入力部
84 推論部
85 記録部
86 第2の通信部
87 制御部
90 画像サーバ
92 患者シミュレーション画像データ記録部
93 患者2次元画像データ記録部
94 患者データ記録部
95 医療器具データ記録部
96 生成部
97 サーバ制御部
100 ネットワーク
211,221 圧力センサ
212,222 付勢部材
213,223 嵌合部材
271 挿入部
272 突部
273 露出部
311 光学系
312 撮像素子
851 プログラム記録部
A10 医学情報
被検体
臓器
血管
Live ライブビュー画像
sim1,Psim2 シミュレーション画像
Y10 矢印
1 Medical observation system 10, 20, 20L, 20R Tracker 21 First detection unit 22 Second detection unit 23 Acquisition unit 24,32,91 Communication unit 25 Third detection unit 26 Fourth detection unit 27 Main unit 30 Medical image sensor 31 Image sensor 33 Image control unit 40, 50 Medical equipment 41 IC chip 42, 43 Recess 60 Light source device 70 Display device 80 Control device 81 First communication unit 82 Image processing unit 83 Input unit 84 Inference unit 85 Recording unit 86 Second communication unit 87 Control unit 90 Image server 92 Patient simulation image data recording unit 93 Patient two-dimensional image data recording unit 94 Patient data recording unit 95 Medical device data recording unit 96 Generation unit 97 Server control unit 100 Network 211 , 221 pressure sensors 212 and 222 urging member 213, 223 engaging member 271 insertion portion 272 protruding 273 exposed portion 311 optical system 312 imaging element 851 program recording unit A10 medical information O 1 object O 2 organ O 3 vessel P Live Live view image P sim1 , P sim2 simulation image Y10 arrow

Claims (20)

術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象に関する第2の画像の少なくとも一方を表示装置に表示させる制御部を備える、
医療用画像処理装置。
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. A control unit for displaying at least one of the first image generated by imaging the observation target in the subject and the second image regarding the observation target in the subject acquired in advance on the display device. Prepare, prepare
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記第1の状態は、前記医療器具が前記トロッカー内に位置する状態であり、
前記第2の状態は、少なくとも前記医療器具の一部が前記トロッカーを経由して前記被検体内に挿入されて露出した状態である、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
The first state is a state in which the medical device is located in the trocar.
The second state is a state in which at least a part of the medical device is inserted into the subject via the trocar and exposed.
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記制御部は、
前記医療器具が前記第2の状態である場合、前記第1の画像を前記表示装置に表示させる一方、
前記医療器具が前記第1の状態である場合、少なくとも前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
The control unit
When the medical device is in the second state, the first image is displayed on the display device, while the display device is displayed.
When the medical device is in the first state, at least the second image is displayed on the display device.
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記制御部は、
前記トロッカーによって検出された前記医療器具に関する医療器具情報に基づいて、前記第2の画像上に前記医療器具に対応する医療器具画像を重畳して前記表示装置に表示させる、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
The control unit
Based on the medical device information about the medical device detected by the trocar, the medical device image corresponding to the medical device is superimposed on the second image and displayed on the display device.
Medical image processing equipment.
請求項4に記載の医療用画像処理装置であって、
前記制御部は、
前記医療器具に対する術者の操作内容に基づいて、前記医療器具画像および前記第2の画像の表示態様を制御する、
医療用画像処理装置。
The medical image processing apparatus according to claim 4.
The control unit
The display mode of the medical device image and the second image is controlled based on the operation contents of the operator with respect to the medical device.
Medical image processing equipment.
請求項5に記載の医療用画像処理装置であって、
前記第1の画像に写る臓器の位置と前記第2の画像に含まれる臓器の位置との位置を推定する推論部をさらに備え、
前記制御部は、
前記第1の画像から前記第2の画像に切り替える場合、前記推論部の推定結果に基づいて、前記第1の画像に写る臓器の位置と前記第2の画像に含まれる臓器の位置との位置合わせを行った前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
The medical image processing apparatus according to claim 5.
Further, an inference unit for estimating the position of the organ shown in the first image and the position of the organ included in the second image is provided.
The control unit
When switching from the first image to the second image, the positions of the organs shown in the first image and the positions of the organs included in the second image are located based on the estimation result of the inference unit. The combined second image is displayed on the display device.
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記制御部は、
前記第1の画像と前記第2の画像とを並列させて前記表示装置に表示させる、または前記第2の画像上に前記第1の画像を縮小して重畳した状態で前記表示装置に表示させる、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
The control unit
The first image and the second image are displayed in parallel on the display device, or the first image is reduced and superimposed on the second image and displayed on the display device. ,
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記制御部は、
前記第1の画像から前記第2の画像を切り替える場合、前記表示装置に警告を出力させる、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
The control unit
When switching from the first image to the second image, the display device is made to output a warning.
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記トロッカーは、2つであり、
2つの前記トロッカーの各々が前記第2の状態を検出した場合、前記第1の画像を前記表示装置に表示させる一方、
2つの前記トロッカーの各々が前記第1の状態を検出した場合、少なくとも前記第2の画像を前記表示装置に表示させる、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
There are two trocars
When each of the two trocars detects the second state, the first image is displayed on the display device, while the display device is displayed.
When each of the two trocars detects the first state, at least the second image is displayed on the display device.
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記第1の画像は、
前記被検体内の観察対象を連続的に撮像することによって生成されたライブビュー画像であり、
前記第2の画像は、
前記被検体内の観察対象のシミュレーション画像である、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
The first image is
It is a live view image generated by continuously imaging the observation target in the subject.
The second image is
It is a simulation image of an observation target in the subject.
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記第1の画像は、
前記被検体内の観察対象を連続的に撮像することによって生成されたライブビュー画像であり、
前記第2の画像は、
前記被検体内の観察対象に関する医学情報である、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
The first image is
It is a live view image generated by continuously imaging the observation target in the subject.
The second image is
Medical information about the observation target in the subject,
Medical image processing equipment.
請求項5に記載の医療用画像処理装置であって、
前記制御部は、
前記トロッカーが検出した前記トロッカーの挿入部を軸に回転する前記医療器具の回転量および前記トロッカーの挿入部への前記医療器具の挿入量の少なくとも一方に基づいて、前記第2の画像に写る前記観察対象を水平方向および垂直方向の少なくとも一方に回転させて前記表示装置に表示させる、
医療用画像処理装置。
The medical image processing apparatus according to claim 5.
The control unit
The image in the second image is based on at least one of the amount of rotation of the medical device that rotates about the insertion portion of the trocar detected by the trocar and the amount of insertion of the medical device into the insertion portion of the trocar. The observation object is rotated in at least one of the horizontal direction and the vertical direction to be displayed on the display device.
Medical image processing equipment.
請求項1に記載の医療用画像処理装置であって、
前記制御部は、
前記観察対象を撮像する医療用撮像装置の先端と、前記観察対象と、の距離に基づいて、前記観察対象の蛍光を観察する際の前記観察対象から前記先端までの最適な距離を含む距離情報を前記表示装置に表示させる、
医療用画像処理装置。
The medical image processing apparatus according to claim 1.
The control unit
Distance information including the optimum distance from the observation target to the tip when observing the fluorescence of the observation target based on the distance between the tip of the medical imaging device that images the observation target and the observation target. Is displayed on the display device.
Medical image processing equipment.
筒状をなし、外部から医療器具が挿入可能な穴部を有する本体部と、
前記穴部の挿入方向に沿って設けられ、前記穴部に挿入された前記医療器具の位置を第1の状態として検出する第1の検出部と、
前記穴部の挿入方向に沿って前記第1の検出部より挿入距離が長い位置に設けられ、前記穴部に挿入された前記医療器具の位置を第2の状態として検出する第2の検出部と、
を備える、
トロッカー。
The main body, which has a cylindrical shape and has a hole into which a medical device can be inserted from the outside,
A first detection unit provided along the insertion direction of the hole and detecting the position of the medical device inserted into the hole as the first state.
A second detection unit that is provided at a position longer than the first detection unit along the insertion direction of the hole and detects the position of the medical device inserted in the hole as a second state. When,
To prepare
Trocar.
請求項14に記載のトロッカーであって、
前記穴部に挿入される前記医療器具に設けられた前記医療器具に関する医療器具情報を取得する取得部をさらに備える、
トロッカー。
The trocar according to claim 14.
Further provided with an acquisition unit for acquiring medical device information regarding the medical device provided in the medical device inserted into the hole.
Trocar.
請求項14に記載のトロッカーであって、
前記第1の検出部および前記第2の検出部の各々は、
前記穴部に突出可能に設けられ、前記医療器具に嵌合する嵌合部材と
前記嵌合部材を前記穴部の外縁から中心に向けて付勢する付勢部材と、
前記付勢部材の付勢状態を検出し、この検出結果を外部へ出力する圧力センサと、
を有する、
トロッカー。
The trocar according to claim 14.
Each of the first detection unit and the second detection unit
A fitting member that is protrudably provided in the hole and that fits into the medical device, and an urging member that urges the fitting member from the outer edge of the hole toward the center.
A pressure sensor that detects the urging state of the urging member and outputs the detection result to the outside.
Have,
Trocar.
請求項14に記載のトロッカーであって、
前記第1の状態は、前記医療器具が当該トロッカー内に位置する状態であり、
前記第2の状態は、少なくとも前記医療器具の一部が当該トロッカーを経由して被検体内に挿入されて露出した状態である、
トロッカー。
The trocar according to claim 14.
The first state is a state in which the medical device is located in the trocar.
The second state is a state in which at least a part of the medical device is inserted into the subject via the trocar and exposed.
Trocar.
被検体の観察対象を撮像することによって第1の画像を生成する撮像部と、
予め取得された前記被検体の観察対象の3次元画像データまたは2次元画像データに基づく第2の画像を記録する記録部と、
前記第1の画像および前記第2の画像を表示可能な表示装置と、
術者によって把持された医療器具が挿入され、かつ、該医療器具の前記被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーと、
前記トロッカーの検出結果に基づいて、前記第1の画像および前記第2の画像の少なくとも一方を前記表示装置に表示させる制御部と、
を備える、
医療用観察システム。
An imaging unit that generates a first image by imaging the observation target of the subject,
A recording unit that records a second image based on the three-dimensional image data or the two-dimensional image data of the observation target of the subject acquired in advance, and a recording unit.
A display device capable of displaying the first image and the second image, and
One or more trocars capable of detecting a first state and a second state in which the medical device grasped by the operator is inserted and the state of insertion of the medical device into the subject is indicated.
A control unit that displays at least one of the first image and the second image on the display device based on the detection result of the trocar.
To prepare
Medical observation system.
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる、
画像処理方法。
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. Then, at least one of the first image generated by imaging the observation target in the subject and the second image of the observation target in the subject acquired in advance is displayed on the display device.
Image processing method.
医療用画像処理装置に実行させるプログラムであって、
術者によって把持された医療器具が挿入され、かつ、該医療器具の被検体内への挿入状態を示す第1の状態と第2の状態を検出可能な1つ以上のトロッカーの検出結果に基づいて、前記被検体内の観察対象を撮像することによって生成された第1の画像および予め取得された前記被検体内の観察対象の第2の画像の少なくとも一方を表示装置に表示させる、
プログラム。
A program that is executed by a medical image processing device.
Based on the detection results of one or more trocars in which the medical device grasped by the operator is inserted and the first state and the second state indicating the state of insertion of the medical device into the subject can be detected. Then, at least one of the first image generated by imaging the observation target in the subject and the second image of the observation target in the subject acquired in advance is displayed on the display device.
program.
JP2020215825A 2020-03-18 2020-12-24 Medical image processing device, trocar, medical observation system, image processing method, and program Pending JP2021151431A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/183,373 US20210295980A1 (en) 2020-03-18 2021-02-24 Medical image processing apparatus, trocar, medical observation system, image processing method, and computer readable recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020048140 2020-03-18
JP2020048140 2020-03-18

Publications (2)

Publication Number Publication Date
JP2021151431A true JP2021151431A (en) 2021-09-30
JP2021151431A5 JP2021151431A5 (en) 2023-10-25

Family

ID=77886924

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020215825A Pending JP2021151431A (en) 2020-03-18 2020-12-24 Medical image processing device, trocar, medical observation system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2021151431A (en)

Similar Documents

Publication Publication Date Title
WO2019155931A1 (en) Surgical system, image processing device, and image processing method
US20210295980A1 (en) Medical image processing apparatus, trocar, medical observation system, image processing method, and computer readable recording medium
CN114945937A (en) Guided anatomical steering for endoscopic procedures
CN118019504A (en) System for controlling a collaborative surgical instrument with variable surgical site access trajectory
CN118019500A (en) Method and system for controlling a collaborative surgical instrument
JP2021151431A (en) Medical image processing device, trocar, medical observation system, image processing method, and program
US20230109848A1 (en) Surgical devices, systems, and methods using fiducial identification and tracking
US20230095002A1 (en) Surgical methods using fiducial identification and tracking
US20230095221A1 (en) Methods and Systems for Controlling Cooperative Surgical Instruments
WO2023052936A1 (en) Systems for controlling cooperative surgical instruments with variable surgical site access trajectories
JP2021003453A (en) Endoscope treatment system
US20230105509A1 (en) Surgical devices, systems, and methods using multi-source imaging
US20230116781A1 (en) Surgical devices, systems, and methods using multi-source imaging
US11937799B2 (en) Surgical sealing systems for instrument stabilization
WO2023052949A1 (en) Surgical devices, systems, and methods using fiducial identification and tracking
WO2023052929A1 (en) Surgical devices, systems, and methods using multi-source imaging
CN118284384A (en) Surgical devices, systems, methods using fiducial identification and tracking
CN118042993A (en) Method and system for controlling a collaborative surgical instrument

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231017

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231017

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240614