JP7495242B2 - 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム - Google Patents

医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム Download PDF

Info

Publication number
JP7495242B2
JP7495242B2 JP2020031543A JP2020031543A JP7495242B2 JP 7495242 B2 JP7495242 B2 JP 7495242B2 JP 2020031543 A JP2020031543 A JP 2020031543A JP 2020031543 A JP2020031543 A JP 2020031543A JP 7495242 B2 JP7495242 B2 JP 7495242B2
Authority
JP
Japan
Prior art keywords
medical instrument
surgical support
support robot
medical
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020031543A
Other languages
English (en)
Other versions
JP2020168359A (ja
Inventor
紗佳 滝川
孝之 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Priority to US16/838,422 priority Critical patent/US12048501B2/en
Publication of JP2020168359A publication Critical patent/JP2020168359A/ja
Application granted granted Critical
Publication of JP7495242B2 publication Critical patent/JP7495242B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Description

本発明の実施形態は、医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラムに関する。
従来、手術支援ロボット装置による手術が行われてきている。手術支援ロボット装置は、術者の手の動きをリアルタイムに鉗子先端の動きとして再現し、精密な手術を行うことができる。例えば、このような手術支援ロボット装置による腹腔鏡手術は、開腹手術と比較して低侵襲であることから、術後の回復が早い、入院期間が短期間で済む、術後疼痛が軽度である、及び、術中の輸血がわずかで済むなどの利点がある。
特開2003-299674号公報
本発明が解決しようとする課題は、手術支援ロボット装置による手技の安全性を向上させることである。
実施形態に係る医用画像診断装置は、取得部と、制御部とを備える。取得部は、被検体内に挿入される医用器具を保持し、当該医用器具を移動させる手術支援ロボットを動作させるための操作情報を取得する。制御部は、前記被検体内における医用器具と周辺部位との位置関係、及び、前記操作情報に基づいて、前記医用器具が移動した後の前記周辺部位に対する前記医用器具の位置を推定し、推定結果に基づいて前記手術支援ロボットの動作を制御する。
図1は、第1の実施形態に係る手術支援ロボットシステムの構成の一例を示す図である。 図2は、第1の実施形態に係る手術支援ロボット用制御装置の構成の一例を示す図である。 図3は、第1の実施形態に係る3次元モデルの模式図である。 図4は、第1の実施形態に係る制御機能による表示制御の一例を示す図である。 図5は、第1の実施形態に係る手術支援ロボット用制御装置による処理の手順を示すフローチャートである。 図6は、第1の実施形態に係る手術支援ロボット用制御装置による処理の手順を示すフローチャートである。
以下、図面を参照しながら、医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラムの実施形態について詳細に説明する。なお、以下の実施形態では、手術支援ロボット用制御装置を一例に挙げて説明する。また、本願に係る医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラムは、以下に示す実施形態によって限定されるものではない。また、実施形態は、処理内容に矛盾が生じない範囲で他の実施形態や従来技術との組み合わせが可能である。
(第1実施形態)
図1は、第1の実施形態に係る手術支援ロボットシステムの構成の一例を示す図である。図1に示すように、第1の実施形態に係る手術支援ロボットシステムは、医用画像診断装置1と、手術支援ロボット装置2と、手術支援ロボット用制御装置3とを含む。ここで、各装置は、有線又は無線によって構築されたネットワークを介して、相互に通信可能に接続されている。
医用画像診断装置1は、X線診断装置、X線CT(Computed Tomography)装置、MRI(Magnetic Resonance Imaging)装置、超音波診断装置、SPECT装置とX線CT装置とが一体化されたSPECT-CT装置、PET装置とX線CT装置とが一体化されたPET-CT装置、又はこれらの装置群等である。また、第1の実施形態に係る医用画像診断装置1は、3次元の医用画像データ(ボリュームデータ)を収集可能である。
ここで、医用画像診断装置1は、手術支援ロボット装置2による術中に3次元の医用画像データを収集して、収集した3次元の医用画像データを手術支援ロボット装置2及び手術支援ロボット用制御装置3に送信する。また、医用画像診断装置1は、収集した医用画像データに対して各種解析を行った結果を、手術支援ロボット装置2及び手術支援ロボット用制御装置3に送信することもできる。
手術支援ロボット装置2は、例えば、図1に示すように、ロボットアーム21と、コンソール22と、表示制御装置23とを含む。手術支援ロボット装置2は、例えば、コンソール22において受け付けた操作を、リアルタイムにロボットアーム21におけるアーム及び鉗子の動きとして再現することで、手術支援を行う。
ロボットアーム21は、鉗子や内視鏡などの医用器具を保持する複数のアームと、各アーム及び鉗子先端などを動作させるための駆動機構を有する。各アームは、モータやアクチュエータ等の駆動機構を備えた複数の可動部が、コンソール22によって受け付けた操作に応じて動くことによって、先端側に保持する医用器具を所望の位置に移動させる。また、各アームに保持された鉗子は、複数の可動部がコンソール22によって受け付けた操作に応じて動くことによって、種々の手技を実行する。
ここで、各アームに保持される鉗子は、把持、剥離、切断などの種々の機能を実施することができる様々な形状のものがあり、術中、用途に応じて適宜交換される。このような種々の鉗子を用いることで、術者は、コンソール22を操作して、例えば、鉗子によって組織をつまむ、組織を切る、切った組織を掻き出す、鉗子で針を持って組織を縫合する、などの手技を行うことができる。また、さらに、例えば、止血に用いる電気メスの機能を持った鉗子がアームに保持される。
また、アーム及び鉗子の動きは、術者の操作を正確に再現することができるが、種々の補正を行うこともできる。例えば、アーム及び鉗子は、術者の手振れ補正が実施された後の動作を再現することができる。また、アーム及び鉗子は、術者が実際に操作部を操作した操作量に対して、補正された移動量での動作を再現することができる。一例を挙げると、アーム及び鉗子は、移動する方向は変えずに、術者が実際に操作した操作量の2倍(或いは、1/2)の移動量で動作するように、制御させることができる。なお、移動量の補正は、2倍、1/2に限らず、種々設定することができる。
上述したように、ロボットアーム21は、アームと鉗子にそれぞれ可動部を有し、各可動部が、広域に、かつ、細く動作するとともに、種々の補正処理を実行することで、人間の腕及び手と同等以上の可動域と精度を実現する。
また、ロボットアーム21におけるアームは、術野を撮影する内視鏡を保持する。内視鏡を保持するアームも、上述したアームと同様に、モータやアクチュエータ等の駆動機構を備えた複数の可動部が、コンソール22によって受け付けた操作に応じて動くことによって、内視鏡を操作者の操作に応じた位置に移動させる。
また、ロボットアーム21におけるアームは、超音波プローブなどの医用器具を保持することもできる。超音波プローブを保持するアームも、上述したアームと同様に、モータやアクチュエータ等の駆動機構を備えた複数の可動部が、コンソール22によって受け付けた操作に応じて動くことによって、超音波プローブを操作者の操作に応じた位置に移動させる。ここで、超音波プローブは、内視鏡で視認できない範囲(例えば、臓器内部など)をスキャンする。
コンソール22は、ロボットアーム21におけるアーム及び鉗子、内視鏡、超音波プローブなどを操作するための操作部と、内視鏡によって撮影された映像を表示するためのディスプレイ、種々の機能を備えたボタン、スイッチ、フットスイッチ等を有する。例えば、術者は、コンソール22に向かって着座し、ディスプレイに表示された映像を観察しながら、操作部を操作することで、ロボットアーム21におけるアーム及び鉗子、内視鏡などを操作して手術を行う。
ここで、コンソール22における操作部は、操作者によって把持され、腕や指の動きを受け付けて、その動きをロボットアーム21に即座に正確に伝える。これにより、患者の腹腔や胸腔内に挿入された鉗子や内視鏡が同じ動作を行う。例えば、操作部を把持した術者の親指と人差し指の開閉動作に応じて鉗子の先が開閉する。これにより、組織をつまんで固定したり、剥がしたりといった操作が実行される。
表示制御装置23は、術中の画像表示に関する種々の制御を実行する。具体的には、表示制御装置23は、内視鏡や、医用画像診断装置1から画像を受信して、画質調整などの各種処理を行い、自装置のディスプレイや、コンソール22が備えるディスプレイに画像を表示させるように制御する。例えば、表示制御装置23は、コンソール22のディスプレイに表示された画像と同一の画像を自装置のディスプレイに表示させることで、術者以外の医師、看護師などに術中の様子をリアルタイムに把握させることができる。
手術支援ロボット用制御装置3は、医用画像診断装置1から受信した3次元の医用画像データと、手術支援ロボット装置2から受信した操作情報に基づいて、周辺部位に対する接触状態を判定し、判定結果に応じてロボットアームの動作を制御する。具体的には、手術支援ロボット用制御装置3は、3次元の医用画像データとロボットアームに保持された医用機器との現時点での位置関係と操作情報に基づいて、操作情報に応じてロボットアームを制御した場合の周辺部位に対する医用機器の接触状態を判定し、判定結果に応じてロボットアームの動作を制御する。
例えば、手術支援ロボット装置2による手技では、術中、予想外の出血や他の臓器を損傷させてしまうおそれがあるため、手技を安全かつ効果的に実施するためには術者の技量が必要である。仮に、予想外の出血や他の臓器損傷が生じてしまった場合、すぐに開腹手術に切り替える必要があるが、被検体に対して様々な器具が取り付けてあるため、早急な切り替えが難しい場合もある。そこで、本実施形態にかかる手術支援ロボット用制御装置3は、操作情報に応じてロボットアームを制御した場合の周辺部位に対する医用機器の接触状態を事前にシミュレーションで判定し、安全であることが確認されたことを条件に、操作情報に沿ったロボットアームの制御を実行することで、手術支援ロボット装置2による手技の安全性を向上させることができる。
以下、手術支援ロボット用制御装置3の構成について説明する。図2は、第1の実施形態に係る手術支援ロボット用制御装置3の構成の一例を示す図である。図2に示すように、手術支援ロボット用制御装置3は、入力インターフェース31と、ディスプレイ32と、記憶回路33と、処理回路34とを有する。例えば、手術支援ロボット用制御装置3は、ワークステーション等のコンピュータ機器によって実現される。
なお、図示していないが、医用画像診断装置1、手術支援ロボット装置2及び手術支援ロボット用制御装置3は、それぞれ通信インターフェースを有する。そして、医用画像診断装置1、手術支援ロボット装置2及び手術支援ロボット用制御装置3は、通信インターフェース及びネットワークを介して接続され、各種データを送受信する。通信インターフェースは、例えば、ネットワークカードやネットワークアダプタ、NIC(Network Interface Controller)等によって実現される。
入力インターフェース31は、処理回路34に接続されており、操作者から各種の指示及び情報の入力操作を受け付ける。具体的には、入力インターフェース31は、操作者から受け付けた入力操作を電気信号へ変換して処理回路34に出力する。例えば、入力インターフェース31は、トラックボール、スイッチボタン、マウス、キーボード、操作面へ触れることで入力操作を行うタッチパッド、表示画面とタッチパッドとが一体化されたタッチスクリーン、光学センサを用いた非接触入力回路、及び音声入力回路等によって実現される。なお、本明細書において、入力インターフェース31は、マウス、キーボード等の物理的な操作部品を備えるものだけに限られない。例えば、装置とは別体に設けられた外部の入力機器から入力操作に対応する電気信号を受け取り、この電気信号を制御回路へ出力する電気信号の処理回路も入力インターフェース31の例に含まれる。
ディスプレイ32は、処理回路34に接続されており、各種の情報及び画像を表示する。具体的には、ディスプレイ32は、処理回路34から送られる情報及び画像のデータを表示用の電気信号に変換して出力する。例えば、ディスプレイ32は、液晶モニタやCRT(Cathode Ray Tube)モニタ、タッチパネル等によって実現される。
記憶回路33は、処理回路34に接続されており、各種のデータを記憶する。例えば、記憶回路33は、医用画像診断装置1から受信した医用画像データや、手術支援ロボット装置2から受信した操作情報などを記憶する。また、記憶回路33は、手術支援ロボット装置2にて使用される医用機器(例えば、種々の種類の鉗子や、内視鏡、超音波プローブなど)の形状やサイズ、各医用機器がロボットアーム21に保持された際の配置状態(各医用機器とアームとの相互の位置関係を示す座標情報など)などを含む設計情報を記憶する。
また、記憶回路33は、被検体内における医用器具と周辺部位との位置関係を示す情報を記憶する。具体的には、記憶回路33は、被検体内の医用器具と、当該医用器具の周辺部位との相対的な位置関係を示す座標情報を記憶する。ここで、周辺部位とは、手技の対象となる領域や臓器とは異なる他の領域や臓器である。一例を挙げると、周辺部位は、血管や、損傷させてはならない箇所などである。例えば、記憶回路33は、図2に示すように、被検体内の医用器具と当該医用器具の周辺部位との相対的な位置関係を示す3次元モデル331を記憶する。なお、3次元モデル331の詳細については、後述する。
また、記憶回路33は、処理回路34が読み出して実行することで各種機能を実現するための種々のプログラムを記憶する。例えば、記憶回路33は、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリ素子や、ハードディスク、光ディスク等によって実現される。
処理回路34は、入力インターフェース31を介して操作者から受け付けた入力操作に応じて、手術支援ロボット用制御装置3の動作を制御する。例えば、処理回路34は、プロセッサによって実現される。
処理回路34は、制御機能341、3次元モデル構築機能342、治療計画機能343、及び、アーム移動制御機能344を実行する。ここで、制御機能341は、取得部及び表示制御部の一例である。また、3次元モデル構築機能342は、生成部の一例である。また、治療計画機能343、アーム移動制御機能344は、制御部の一例である。
制御機能341は、入力インターフェース31を介して入力された各種要求に応じた処理を実行するように制御する。例えば、制御機能341は、通信インターフェースを介した医用画像データや、操作情報、設計情報等の送受信、記憶回路33への情報の格納、ディスプレイ32への情報(例えば、画像や、処理結果など)の表示などを制御する。
例えば、制御機能341は、医用画像診断装置1から3次元の医用画像データを取得する。また、制御機能341は、手術支援ロボット装置2におけるコンソール22の操作部221に対して行った術者の操作を示す操作情報を取得する。一例を挙げると、制御機能341は、術者の指の動きに応じたアームや医用機器の移動量の情報を取得する。ここで、制御機能341は、術者の動きに対して補正処理が施された移動量の情報を取得する。すなわち、制御機能341は、術者の指などの動きに対して、手振れや移動量などの補正処理が施された後のアームや医用機器の移動量の情報を取得する。
また、制御機能341は、後述するアーム移動制御機能344による制御を術者などに提示するように制御する。具体的には、制御機能341は、アーム移動制御機能344がロボットアームや、医用機器に対してどのような制御を行っているかを示す制御情報を、術者などに提示するように制御する。なお、この点の詳細については、後述する。
3次元モデル構築機能342は、被検体内における医用器具と周辺部位との位置関係を示す情報を生成して、記憶回路33に格納する。具体的には、3次元モデル構築機能342は、被検体内の医用器具と、当該医用器具の周辺部位との相対的な位置関係を示す座標情報を生成して、記憶回路33に格納する。例えば、3次元モデル構築機能342は、制御機能341によって取得された3次元の医用画像データと設計情報とに基づいて、被検体内の医用器具と当該医用器具の周辺部位との相対的な位置関係を示す3次元モデル331を生成して、記憶回路33に格納する。
図3は、第1の実施形態に係る3次元モデル331の模式図である。例えば、3次元モデル構築機能342は、3次元の医用画像データと設計情報とに基づいて、図3に示すような、鉗子51と、組織T1との位置関係を示す3次元モデル331を生成する。ここで、3次元モデル構築機能342は、医用画像データがどのように収集されたかに応じて、異なる手法で3次元モデル331を生成する。
例えば、ロボットアーム21のアームに超音波プローブが保持され、医用画像診断装置1である超音波診断装置によって3次元の超音波画像データが収集される場合、3次元モデル構築機能342は、設計情報に含まれる配置状態(座標情報)に対して3次元の超音波画像データに含まれる組織を適用することで、3次元モデル331を生成する。すなわち、超音波プローブがアームに保持される場合、ロボットアーム21の座標系における超音波プローブの位置が、アームに対する超音波プローブの配置状態及び超音波プローブの設計情報から特定できることから、ロボットアーム21の座標系と超音波診断装置の座標系との位置合せは必要ない。
従って、3次元モデル構築機能342は、ロボットアーム21の現在の配置状態からロボットアーム21の座標系における超音波プローブの位置を特定する。そして、3次元モデル構築機能342は、特定した超音波プローブの位置に合わせて、取得した3次元の超音波画像データを配置することにより、ロボットアーム21の座標系に超音波画像データを配置する。例えば、3次元モデル構築機能342は、超音波プローブにおける送受信面の位置に超音波画像データを配置する。これにより、3次元モデル構築機能342は、ロボットアーム21の他のアームに保持された鉗子51と、超音波画像データに含まれる組織T1との相対的な位置関係を示す座標情報を取得することができる。
そして、3次元モデル構築機能342は、取得した座標情報に基づいて、図3に示すような、鉗子51の3次元構造を示すモデルと、組織T1の3次元構造を示すモデルとを3次元の座標系に配置した3次元モデル331を生成する。
また、例えば、X線診断装置や、X線CT装置などの医用画像診断装置1によって、3次元の医用画像データが収集される場合、3次元モデル構築機能342は、収集された医用画像データに含まれる鉗子51と組織T1の位置関係から3次元モデル331を生成する。すなわち、X線診断装置や、X線CT装置によって3次元の医用画像データを収集する場合、被検体内の組織とともに、被検体内に挿入された医用器具も一緒に撮像される。
従って、3次元モデル構築機能342は、取得した3次元の医用画像データから、鉗子51に相当する領域と、組織T1に相当する領域とを抽出することで、鉗子51と組織T1との相対的な位置関係を示す座標情報を取得する。そして、3次元モデル構築機能342は、取得した座標情報に基づいて、図3に示すような、鉗子51の3次元構造を示すモデルと、組織T1の3次元構造を示すモデルとを3次元の座標系に配置した3次元モデル331を生成する。なお、各領域の抽出は、解剖学的特徴点(アナトミカルランドマーク)を用いた方法や、CT値に基づく領域拡張法など、既存の手法を適宜利用することができる。
また、例えば、経口式の超音波プローブや、術者とは別の医師などによって超音波プローブによる走査が行われ、3次元の超音波画像データが収集される場合、3次元モデル構築機能342は、まず、超音波画像データの座標系と、ロボットアーム21の座標系との位置合せを実行する。例えば、3次元モデル構築機能342は、超音波画像データに含まれる特徴点の位置と、ロボットアーム21の座標系に含まれる対応する特徴点の位置とを位置合せすることで、超音波画像データの座標系と、ロボットアーム21の座標系との位置合せを実行する。
一例を挙げると、3次元モデル構築機能342は、超音波画像データから特徴的な組織の表面(所定の臓器の表面など)を抽出する。また、3次元モデル構築機能342は、内視鏡によって撮影された映像から、対応する組織の表面を抽出する。そして、3次元モデル構築機能342は、超音波画像データから抽出した組織の表面と、内視鏡の映像から抽出した組織の表面とを、同一位置として位置合せを実行する。内視鏡は、ロボットアーム21のアームによって保持されていることから、3次元モデル構築機能342は、設計情報に含まれる配置状態に基づいて、ロボットアーム21の座標系における内視鏡の位置を特定することができる。
したがって、3次元モデル構築機能342は、超音波画像データから抽出した組織の表面と、内視鏡の映像から抽出した組織の表面とを位置合せすることで、ロボットアーム21の座標系における組織の表面の座標を特定することができる。そして、3次元モデル構築機能342は、特定した座標に対して超音波画像データから抽出した組織の表面を配置することで、ロボットアーム21の座標系に超音波画像データを配置する。
これにより、3次元モデル構築機能342は、ロボットアーム21の他のアームに保持された鉗子51と、超音波画像データに含まれる組織T1との相対的な位置関係を示す座標情報を取得することができる。そして、3次元モデル構築機能342は、取得した座標情報に基づいて、図3に示すような、鉗子51の3次元構造を示すモデルと、組織T1の3次元構造を示すモデルとを3次元の座標系に配置した3次元モデル331を生成する。
なお、超音波画像データの座標系と、ロボットアーム21の座標系との位置合せについて、上述した例では、特徴点を用いる場合を説明した。しかしながら、超音波画像データの座標系と、ロボットアーム21の座標系との位置合せには、適用可能な既存の位置合せを適宜用いることができる。例えば、医師によって操作される超音波プローブに位置センサをとりつけ、位置センサの座標情報を用いて超音波画像データの座標系と、ロボットアーム21の座標系とを位置合せする場合でもよい。
上述したように、3次元モデル構築機能342は、種々の手法によって3次元モデル331を生成することができる。ここで、3次元モデル構築機能342は、手術支援ロボット装置2による手技において、種々のタイミングで3次元モデル331を生成する。
例えば、手術支援ロボット装置2による手技においては、まず、術前に医用画像データが収集され、収集された医用画像データを用いて治療計画が立てられる。そこで、3次元モデル構築機能342は、まず、術前に収集された医用画像データを用いて、被検体内の3次元モデル331を生成する。ここで、術前に収集された医用画像データを用いて生成される3次元モデル331は、被検体内にまだ医用器具が挿入されていないため、例えば、図3における組織T1のみを含むものである。
そして、術中、3次元モデル構築機能342は、被検体内の構造が変化した場合、及び、被検体内の医用器具の位置が変化した場合に、3次元モデル331を補正する。例えば、3次元モデル構築機能342は、術中において、少なくとも被検体の体勢が固定された時点、腹腔内に空間が形成された時点、及び、部位の摘出前後の時点で3次元モデル331を補正する。
例えば、前立腺全摘除術を手術支援ロボット装置2によって行う場合、腹腔内の腸を前立腺から離すために、頭部を低くした体勢で手技が行われる。すなわち、頭部を低くした体勢をとることで、腸を頭部側に下げ、前立腺から離すことで、前立腺周辺の視野を良くする。このように、手技が始まる前に、被検体の体勢が変化すると、術前に生成した3次元モデル331の形状と、実際の腹腔内の形状とが変化することなる。そこで、3次元モデル構築機能342は、手技を開始する際に、被検体の体勢が固定されたタイミングで、3次元モデル331を生成しなおし、格納済みの3次元モデル331を補正する。
また、手術支援ロボット装置2によって腹腔内手術を行う場合、腹腔内に医用器具が動くためのスペースを作るために、腹腔内に空間が形成される。例えば、腹腔内に炭酸ガスを充填して満たすことで、腹腔内にスペースが形成されたり、或いは、腹壁を吊り上げることで、腹腔内にスペースが形成されたりする。これは、腹腔内で安全に手技を行うための充分なスペースを確保する重要な処置である。ただし、このように、腹腔内にスペースが設けられると、術前に生成した3次元モデル331の形状と、実際の腹腔内の形状とが変化することなる。そこで、3次元モデル構築機能342は、手技を開始する際に、腹腔内に空間が形成されたタイミングで、3次元モデル331を生成しなおし、格納済みの3次元モデル331を補正する。
また、手術支援ロボット装置2による手技では、部位が摘出されることで、腹腔内の形状が変化する場合がある。例えば、前立腺全摘除術の場合、前立腺に摘出前後で腹腔内の形状が大きく変化する。そこで、3次元モデル構築機能342は、手技中、部位が摘出されたタイミングで、3次元モデル331を生成する。ここで、3次元モデル構築機能342は、部位の摘出前後の3次元モデル331をそれぞれ記憶回路33に記憶させておくこともできる。すなわち、3次元モデル構築機能342は、部位の摘出前の3次元モデルと、部位の摘出後の3次元モデルをそれぞれ記憶回路33に記憶させる。かかる場合、例えば、記憶された2つの3次元モデルを用いて、部位の摘出について、手技の評価を行うことができる。
また、例えば、3次元モデル構築機能342は、術中に、腹腔内の医用器具が移動するごとに、3次元モデル331を生成しなおし、格納済みの3次元モデル331を補正することもできる。
上述したように、3次元モデル構築機能342は、種々のタイミングで3次元モデル331を生成する。ここで、3次元モデル構築機能342によって生成された3次元モデルを用いて、治療計画を立てたり、周辺部位を指定したりすることができる。例えば、制御機能341が、図3に示す3次元モデルをディスプレイ32に表示させる。操作者は、入力インターフェース31を介して、組織T1に対して治療対象の領域R1と、血管や、損傷させてはならない領域である領域R2を指定する。
ここで、操作者によって指定された各領域は、3次元モデル上にマークされ、位置情報が記憶回路33に格納される。なお、周辺部位の指定は、操作者による指定に限らず、自動で行う場合でもよい。例えば、組織T1における血管や、臓器を自動セグメンテーションにより抽出し、それらを領域R2として自動で設定する場合でもよい。また、図3においては、血管や、損傷させてはならない領域である領域R2のみを周辺部位として設定する例について示しているが、実施形態はこれに限定されるものではなく、操作者によって指定された治療対象の領域R1以外を周辺部位として自動で設定する場合でもよい。
図2に戻って、治療計画機能343は、治療対象の領域の位置に基づいて、治療計画を立てる。例えば、治療計画機能343は、図3の領域R1の位置と、周辺の形状に基づいて、医用器具のアプローチ経路などを決定する。一例を挙げると、治療計画機能343は、設定された領域R1の座標、周辺部位の座標、及び、その他、周辺の形状などに基づいて、領域R1に対する医用器具のアプローチ経路(例えば、通過する座標情報)などを決定する。そして、治療計画機能343は、決定した治療計画を記憶回路33に格納する。なお、治療計画機能343は、3次元モデルが補正されるごとに、治療計画を補正する。
アーム移動制御機能344は、被検体内における医用器具と周辺部位との位置関係、及び、操作情報に基づいて、医用器具が移動した後の周辺部位に対する医用器具の位置を推定し、推定結果に基づいて手術支援ロボット装置2の動作を制御する。具体的には、アーム移動制御機能344は、医用器具が移動した後の周辺部位と医用器具との接触状態を推定し、推定結果に基づいて手術支援ロボット装置2の動作を制御する。すなわち、アーム移動制御機能344は、術者の操作によって医用器具がどのように動くかをシミュレーションし、シミュレーションの結果に応じて、手術支援ロボット装置2の動作を制御する。
ここで、アーム移動制御機能344は、例えば、医用器具と被検体内の部位を示す3次元モデルにより、位置関係を取得する。すなわち、アーム移動制御機能344は、記憶回路33によって記憶された3次元モデル331を読み出すことで、被検体内における医用器具と周辺部位との位置関係の情報を取得する。ここで、アーム移動制御機能344は、3次元モデル331が補正されるごとに、記憶回路33から3次元モデル331を読み出す。すなわち、アーム移動制御機能344は、術中において、少なくとも被検体の体勢が固定された時点、腹腔内に空間が形成された時点、及び、部位の摘出前後の時点で、位置関係をそれぞれ取得する。
また、アーム移動制御機能344は、例えば、手術支援ロボット装置2を操作する術者の操作に基づく医用器具の移動量を、操作情報として取得する。すなわち、アーム移動制御機能344は、手術支援ロボット装置2におけるコンソール22の操作部221に対して行った術者の操作に対して補正処理が施された後のアームや医用機器の移動量を、操作情報として取得する。
そして、例えば、アーム移動制御機能344は、医用器具が移動した後に医用器具が周辺部位に接触するか否かを判定し、医用器具が周辺部位に接触すると判定した場合に、周辺部位に対する医用器具の接触を回避するように手術支援ロボット装置2の動作を制御する。一例を挙げると、操作者が、図3に示す3次元モデルに示す鉗子51を移動させるための操作を操作部221にて実行すると、アーム移動制御機能344は、操作部221にて受け付けた操作に対応する鉗子51の移動量を取得する。
そして、アーム移動制御機能344は、取得した移動量だけ鉗子51を動かした場合に領域R2に接触するか否かを、3次元モデル上でシミュレーションする。ここで、鉗子51が領域R2に接触すると判定した場合、アーム移動制御機能344は、鉗子51が領域R2に接触することを回避するように、ロボットアーム21を制御する。すなわち、アーム移動制御機能344は、手術支援ロボット装置2に対して制御信号を送信することで、ロボットアーム21の動作を制御する。
ここで、アーム移動制御機能344は、例えば、鉗子51が領域R2に接触する手前まで移動するようにアームを制御することもでき、或いは、鉗子51が全く動かないようにアームを制御することもできる。また、アーム移動制御機能344は、例えば、鉗子51が領域R2に接触する手前まで移動し、その後、領域R2方向とは異なる方向に移動するようにアームを制御することもできる。なお、これらの制御は、術者が任意に選択する場合でもよい。
一方、鉗子51が領域R2に接触しないと判定した場合、アーム移動制御機能344は、操作部221にて受け付けた操作に対応する移動量で鉗子51が移動するようにアームを制御する。また、シミュレーションにおいて、鉗子51が治療対象となる領域R1に接触すると判定した場合も、アーム移動制御機能344は、操作部221にて受け付けた操作に対応する移動量で鉗子51が移動するようにアームを制御する。すなわち、アーム移動制御機能344は、治療対象となる箇所以外の箇所に対して医用機器が接触すると判定した場合に、医用機器が治療対象となる箇所以外の箇所に接触することを回避するように制御する。
また、例えば、アーム移動制御機能344は、医用器具が周辺部位に接触した際にかかる圧力を推定し、推定した圧力が所定の閾値を超えると判定した場合に、周辺部位に対する医用器具の接触を回避するように手術支援ロボット装置2の動作を制御する。一例を挙げると、操作者が、図3に示す3次元モデルに示す鉗子51を移動させるための操作を操作部221にて実行すると、アーム移動制御機能344は、操作部221にて受け付けた操作に対応する鉗子51の移動量を取得する。
そして、アーム移動制御機能344は、取得した移動量だけ鉗子51を動かした場合に領域R2に接触するか否かを判定するとともに、接触した際にかかる圧力を3次元モデル上でシミュレーションする。ここで、鉗子51が領域R2に接触し、推定された圧力が所定の閾値を超えると判定した場合、アーム移動制御機能344は、鉗子51が領域R2に接触することを回避するように、ロボットアーム21を制御する。
ここで、アーム移動制御機能344は、例えば、鉗子51が領域R2に接触する手前まで移動するようにアームを制御することもでき、或いは、鉗子51が全く動かないようにアームを制御することもできる。また、アーム移動制御機能344は、例えば、鉗子51が領域R2に接触する手前まで移動し、その後、領域R2方向とは異なる方向に移動するようにアームを制御することもできる。また、さらに、アーム移動制御機能344は、例えば、接触した際にかかる圧力が所定の閾値を超えない程度まで接触するように、アームを制御することもできる。なお、これらの制御は、術者が任意に選択する場合でもよい。また、圧力の推定は、医用器具の形状及び材質、接触する部位などの情報に基づいて、既存の手法により実行される。
一方、鉗子51が領域R2に接触しないと判定した場合、及び、鉗子51が領域R2に接触するが、推定された圧力が所定の閾値を超えないと判定した場合、アーム移動制御機能344は、操作部221にて受け付けた操作に対応する移動量で鉗子51が移動するようにアームを制御する。また、シミュレーションにおいて、鉗子51が治療対象となる領域R1に接触すると判定した場合も、アーム移動制御機能344は、操作部221にて受け付けた操作に対応する移動量で鉗子51が移動するようにアームを制御する。
ここで、圧力に関する閾値は、医用器具の種類及び医用器具の状態のうち少なくとも一方に基づいて設定される。例えば、接触する医用器具が組織を切断するための鉗子の場合、低い閾値が設定される。一方、アームに保持された医用器具が超音波プローブの場合、閾値は高く設定される。なお、操作の対象が超音波プローブの場合、アーム移動制御機能344は、接触しないように制御することはなく、常に接触するように制御する。
また、例えば、接触する医用器具が電気メスの場合、電流がON時は閾値が低く、電流がOFF時は閾値が高く設定される。なお、医用器具の種類は、例えば、医用器具を保持するアームによって識別することができる。例えば、アームと保持させる医用器具とを対応付けた情報を記憶回路33に格納する。アーム移動制御機能344は、記憶回路33に記憶された情報を参照して、現在術者によって操作されているアームから移動させる医用器具の種類を特定する。また、アーム移動制御機能344は、電気メスの通電状態を、手術支援ロボット装置2から取得する。
上述した実施形態では、被検体内における医用器具と周辺部位との位置関係の情報を3次元モデルから取得する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、単純な座標情報から位置関係を取得する場合でもよい。かかる場合には、アーム移動制御機能344は、医用器具及び被検体内の部位の特徴点により、位置関係を取得する。すなわち、アーム移動制御機能344は、記憶回路33によって記憶された被検体内の医用器具と、医用器具の周辺部位との相対的な位置関係を示す座標情報を読み出すことで、被検体内における医用器具と周辺部位との位置関係の情報を取得する。
また、上述した実施形態では、手術支援ロボット装置2を操作する術者の操作に基づく医用器具の移動量を操作情報として用いる場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、治療計画を操作情報として用いる場合であってもよい。かかる場合には、アーム移動制御機能344は、被検体に対する治療計画に含まれる医用器具の移動量を、操作情報として取得する。
上述したように、治療計画機能343によって立てられる治療計画は、治療対象となる領域に対する医用器具のアプローチ経路(例えば、通過する座標情報)を含む。アーム移動制御機能344は、例えば、治療計画に含まれるアプローチ経路を操作情報として取得する。そして、アーム移動制御機能344は、アプローチ経路に沿って医用器具を移動させた場合に、周辺部位に接触するか否か、或いは、接触した場合の圧力が所定の閾値を超えるか否かを判定する。
ここで、上述したように、手術支援ロボット用制御装置3では、治療計画を用いてロボットアーム21の動作を制御することができる。したがって、手術支援ロボット用制御装置3は、医用器具を自動で操作することが可能である。かかる場合には、アーム移動制御機能344は、記憶回路33から読み出した治療計画に含まれるアプローチ経路に沿って、医用器具を移動させる。ここで、上述したように、治療計画は3次元モデルが補正されるごとに補正されることから、アーム移動制御機能344は、被検体内の形状・部位の配置の変化に追従した治療計画を用いてロボットアーム21の動作を制御することができる。
すなわち、手術支援ロボット用制御装置3においては、医用器具が周辺部位を傷つけることなく、被検体内での医用器具の移動を自動で行うことができる。ここで、例えば、自動制御中に、医用器具が周辺部位に接触する、或いは、接触した際の圧力が閾値を超えると判定した場合に、3次元モデル及び治療計画を再度補正するように制御してもよい。すなわち、自動制御中に、アーム移動制御機能344が、接触を回避する制御などを実行すると、3次元モデル構築機能342が3次元モデルを補正し、治療計画機能343が補正された3次元モデルを用いて治療計画を補正する。
ここで、ロボットアーム21の自動制御と術者による手動制御は、術者の選択により任意に切り替えることができる。例えば、術者は、アプローチが比較的容易な箇所に治療対象の領域がある場合の手技、或いは、治療対象の領域にアプローチする前段階の手技などは、ロボットアーム21の自動制御を選択してもよい。また、例えば、術者は、アプローチが難しい箇所に治療対象の領域がある場合の手技、治療対象の領域と、血管や損傷させてはならない箇所とが隣接している場合の手技、アプローチの過程で血管や損傷させてはならない箇所の近傍を通過する場合の手技などは、ロボットアーム21の手動制御を選択してもよい。
ここで、アーム移動制御機能344は、上記した種々の条件に沿って、自動制御と手動制御をデフォルトで設定する場合でもよい。かかる場合には、例えば、アーム移動制御機能344は、3次元モデルにおける被検体内の医用器具と臓器の配置状態と、治療計画とに基づいて、これから実施される手技が上記したいずれの条件であるかを判定し、判定結果に沿って自動制御又は手動制御を自動で設定する。ここで、アーム移動制御機能344が設定した制御に対して、術者が承認した場合に、設定された制御で手技が実施される。なお、術者が承認しない場合には、自動制御及び手動制御のどちらにするかを術者が選択することとなる。
また、アーム移動制御機能344は、手技情報に基づいて、自動制御と手動制御を自動で切り替えることもできる。かかる場合、制御機能341は、被検体に対する手技情報をさらに取得する。具体的には、制御機能341は、被検体に対して実施される手技が症例数の多い手技であるか否かを判定するための手技情報を取得する。ここで、症例数が多い手技であるか否かを判定するための情報としては、例えば、公的医療保険制度における保険適用の有無を用いてもよい。公的医療保険制度において保険適用される手技は、手技の有効性や安全性などの種々の要件を満たしたものであり、ある程度の症例数を重ねたものである。また、公的医療保険制度において保険適用された手技は、その後、症例数が増加する。そこで、制御機能341は、被検体に対して実施される手技が症例数の多い手技であるか否かを示す手技情報として、例えば、保険適用であるか否かを示す手技情報を取得する。
ここで、手術支援ロボットを用いた手技においては、例えば、「胸腔鏡下縦隔悪性腫瘍手術」、「胸腔鏡下良性縦隔腫瘍手術」、「胸腔鏡下肺悪性腫瘍手術(肺葉切除または1肺葉を超えるもの)」、「胸腔鏡下食道悪性腫瘍手術」、「胸腔鏡下弁形成術」、「腹腔鏡下胃切除術」、「腹腔鏡下噴門側胃切除術」、「腹腔鏡下胃全摘術」、「腹腔鏡下直腸切除・切断術」、「腹腔鏡下膀胱悪性腫瘍手術」、「腹腔鏡下子宮悪性腫瘍手術(子宮体がんに限る)」、「腹腔鏡下膣式子宮全摘術」などが保険適用である。
アーム移動制御機能344は、制御機能341によって取得された手技情報に基づいて、被検体に対して実施される手技が保険適用であるか否かを判定する。ここで、アーム移動制御機能344は、手技情報における手技内容が保険適用である場合に、推定結果に基づいてロボットアーム21の動作を制御し、手技情報における手技内容が保険非適用である場合に、操作情報に応じてロボットアーム21の動作を制御する。すなわち、アーム移動制御機能344は、被検体に対して実施される手技が保険適用である場合、ロボットアーム21の自動制御を行い、被検体に対して実施される手技が保険適用ではない場合、ロボットアーム21の手動制御を行う。
また、例えば、術者ごとにどちらの制御を優先するかを予め設定することもできる。例えば、技量の高い術者の場合には、アーム移動制御機能344は、手動制御を自動で設定する。一方、経験が少ない術者の場合には、アーム移動制御機能344は、自動制御を自動で設定する。なお、手動制御を優先するか、自動制御を優先するかは、例えば、術者のIDなどに対応付けて記憶回路33に記憶される。アーム移動制御機能344は、記憶回路33に記憶された対応情報を参照して、これから実施される手技の術者のIDに基づいて、手動制御又は自動制御を設定する。
上述したように、アーム移動制御機能344がロボットアーム21を制御すると、制御機能341が、手術支援ロボット装置2に対する制御状態を示す表示情報を表示させる。具体的には、制御機能341は、手術支援ロボット装置2に対して、ロボットアーム21の制御内容を示す情報を手術支援ロボット装置2の表示制御装置23に送信して、コンソールのディスプレイ222や、表示制御装置23のディスプレイに制御内容を表示させる。
図4は、第1の実施形態に係る制御機能341による表示制御の一例を示す図である。ここで、図4は、術中に、コンソールのディスプレイ222や、表示制御装置23のディスプレイにリアルタイムで表示される内視鏡の映像及び超音波画像を示す。例えば、表示制御装置23は、術中、図4の上段の図に示すように、立体視可能な3次元画像I1と、2次元画像I2と、超音波画像I3とをディスプレイ222等に表示させることができる。図4の上段の図に示す3次元画像I1及び2次元画像I2は、それぞれ内視鏡によって撮影された映像である。例えば、3次元画像I1は、内視鏡によって撮影された映像を立体的に観察可能な画像であり、術者が実際の術野を観察しているのに近い感覚で遠近感などを捉えることを可能にする。
例えば、表示制御装置23は、内視鏡に備えられた2眼のカメラによって収集されたそれぞれの映像を処理して、立体視可能な3次元画像I1としてディスプレイ222等に表示させる。ここで、表示制御装置23は、術者の操作に応じて、3次元画像I1を拡大・縮小させて表示させることが可能である。術者は、ディスプレイ222に表示された立体視可能な3次元画像I1を観察することで、組織の把持、剥離、切断などを精密に行うことができる。
また、例えば、2次元画像I2は、内視鏡によって撮影された映像が2次元表示された画像や、術前に収集された3次元の医用画像データから生成された画像である。一例を挙げると、表示制御装置23は、内視鏡における一方のカメラによって撮影された映像や、術前にX線CT装置によって撮像された治療対象の領域のCT画像などをディスプレイ222等に表示させる。
また、超音波画像I3は、術中に収集されているリアルタイムの超音波画像であり、例えば、治療対象の領域を含む。すなわち、超音波画像I3は、内視鏡に備えられたカメラでは、観察することができない組織内部が描出されている。ここで、超音波画像I3には、例えば、図4の上段の図に示すように、カメラを示すアイコンが付されている。このアイコンは、超音波画像に対する内視鏡の位置を示す。すなわち、術者は、超音波画像に対するアイコンの位置を知ることで、内視鏡の画像(例えば、3次元画像I1)と、超音波画像I3との位置関係を把握することができる。したがって、術者は、3次元画像I1によって治療対象の領域を外側から観察するとともに、超音波画像I3によって治療対象の領域の内部の状態を観察することで、治療対象の領域を細部まで把握して手技を進めることができる。
なお、図4では、リアルタイムの画像として、超音波画像を表示させる場合を示しているが、実施形態はこれに限定されるものではなく、リアルタイムに収集されたCT画像が表示される場合でもよい。かかる場合には、例えば、CT画像に対してカメラを示すアイコンが付され、内視鏡の画像とCT画像との位置関係の情報が提供される。また、図4においては、3つの画像を表示させる場合について示しているが、実施形態はこれに限定されるものでなく、2つ以下の画像、或いは、4つ以上の画像が表示される場合でもよい。また、表示制御装置23は、画像だけではなく、例えば、術中の被検体が取得しているバイタルサインをディスプレイ222等に表示させることもできる。
上述したように、表示制御装置23は、種々の情報をディスプレイ222等に表示させる。制御機能341は、このような種々の情報に加えて、ロボットアーム21の制御内容を示す情報を表示制御装置23に表示させるように制御することができる。例えば、アーム移動制御機能344が、医用器具が周辺部位に接触しないように制御した場合に、制御機能341は、図4の下段の図に示すように、3次元画像I1上に、「!危険領域への侵入を制限しています」とする情報を表示させる。
これにより、術者は、制御状態を把握することができ、侵入を制限されないように操作部221を操作することで、周辺部位を損傷させることなく、安全に手技を進めることができる。なお、制御機能341は、図4の下段の図に示すように、表示画像上に、接触を回避する危険領域R3を重畳して表示させることもできる。例えば、制御機能341は、周辺部位が設定された3次元モデルに基づいて、内視鏡の画像における周辺部位の位置を特定し、特定した位置に危険領域を色付けして重畳表示させることもできる。
以上、手術支援ロボット用制御装置3の処理回路34が有する各処理機能について説明した。ここで、処理回路34がプロセッサによって実現される場合には、処理回路34が有する各処理機能は、コンピュータによって実行可能なプログラムの形態で記憶回路33に記憶されている。そして、処理回路34は、記憶回路33から各プログラムを読み出して実行することで、各プログラムに対応する機能を実現する。換言すると、各プログラムを読み出した状態の処理回路34は、図2の処理回路34に示された各機能を有することとなる。なお、図2では、単一のプロセッサによって各処理機能が実現されるものとして説明したが、複数の独立したプロセッサを組み合わせて処理回路を構成し、各プロセッサがプログラムを実行することにより機能を実現するものとしても構わない。また、処理回路34が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、図2に示す例では、単一の記憶回路33が各処理機能に対応するプログラムを記憶するものとして説明したが、複数の記憶回路を分散して配置して、処理回路が個別の記憶回路から対応するプログラムを読み出す構成としても構わない。
次に、図5及び図6を用いて、手術支援ロボット用制御装置3による処理の手順を説明する。図5及び図6は、第1の実施形態に係る手術支援ロボット用制御装置3による処理の手順を示すフローチャートである。ここで、図5においては、ロボットアーム21の自動制御に関する処理を示す。また、図5では、位置関係として3次元モデルを取得し、操作情報として術者の操作を取得する場合について示す。また、図5においては、医用器具が周辺部位に接触するか否かを判定する場合の処理について示す。また、図5は、図6のステップS204における詳細な処理を示す。図6においては、ロボットアーム21の自動制御と手動制御の切り替えに関する処理を示す。
図5におけるステップS101、ステップS102、ステップS110、ステップS111は、処理回路34が記憶回路33から3次元モデル構築機能342に対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図5におけるステップS103、ステップS109、ステップS112は、処理回路34が記憶回路33から制御機能341に対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図5におけるステップS104~ステップS108は、処理回路34が記憶回路33からアーム移動制御機能344に対応するプログラムを呼び出して実行することにより、実現されるステップである。
図5に示すように、手術支援ロボット用制御装置3においては、処理回路34が、まず、医用画像データを取得して、3次元モデルを生成する(ステップS101)。そして、処理回路は、補正条件を満たしたか否かを判定する(ステップS102)。ここで、補正条件を満たした場合には(ステップS102、肯定)、処理回路34は、ステップS101に戻って、3次元モデルを生成する。一方、補正条件を満たしていない場合には(ステップS102、否定)、処理回路34は、手技が開始されたか否かを判定する(ステップS103)。ここで、手技が開始されるまで、ステップS102の判定を継続する(ステップS103、否定)。
一方、手技が開始された場合には(ステップS103、肯定)、処理回路34は、操作情報を取得したか否かを判定する(ステップS104)。ここで、操作情報を取得するまで、処理回路34は待機状態である(ステップS104、否定)。一方、操作情報を取得した場合には(ステップS104、肯定)、処理回路34は、操作量を3次元モデルに反映して(ステップS105)、医用器具が周辺部位に接触するか否かを判定する(ステップS106)。
ここで、医用器具が周辺部位に接触しない場合には(ステップS106、否定)、処理回路34は、操作量に応じた制御を実行する(ステップS107)。一方、医用器具が周辺部位に接触する場合には(ステップS106、肯定)、処理回路34は、接触を回避するように制御して(ステップ108)、制御情報を表示させる(ステップS109)。
その後、処理回路34は、補正条件を満たしたか否かを判定する(ステップS110)。ここで、補正条件を満たした場合には(ステップS110、肯定)、処理回路34は、医用画像データを取得して3次元モデルを補正して(ステップS111)、手技が終了したか否かを判定する(ステップS112)。一方、補正条件を満たしていない場合には(ステップS110、否定)、処理回路34は、ステップS112に進み、手技が終了したか否かを判定する。
ステップS112において、手技が終了していない場合には(ステップS112、否定)、処理回路34は、ステップS104に戻って、操作情報を取得したか否かを判定する。一方、手技が終了した場合には(ステップS112、肯定)、処理回路34は、処理を終了する。
また、図6におけるステップS201は、処理回路34が記憶回路33から制御機能341に対応するプログラムを呼び出して実行することにより、実現されるステップである。また、図6におけるステップS202~ステップS210は、処理回路34が記憶回路33からアーム移動制御機能344に対応するプログラムを呼び出して実行することにより、実現されるステップである。
図6に示すように、手術支援ロボット用制御装置3においては、処理回路34が、まず、手技情報を取得して(ステップS201)、保険適用か否かを判定する(ステップS202)。ここで、保険適用である場合(ステップS202、肯定)、処理回路34は、自動制御モードに設定して(ステップS203)、自動制御を実行する(ステップS204)。
一方、保険適用ではない場合(ステップS202、否定)、処理回路34は、手動制御モードに設定して(ステップS205)、術者の操作に応じた制御を実行する(ステップS206)。そして、処理回路34は、制御中にモード切替を受け付けたか否かを判定する。
例えば、処理回路34は、自動制御を実行中にモード切替を受け付けたか否かを判定する(ステップS207)。ここで、モード切替を受け付けた場合には(ステップS207、肯定)、処理回路34は、手動制御モードに設定して(ステップS205)、処理を継続する。一方、モード切替を受け付けていない場合には(ステップS207、否定)、処理回路34は、手技が終了したか否かを判定する(ステップS208)。ここで、手技が終了した場合には(ステップS208、肯定)、処理回路34は、処理を終了する。一方、手技が終了していない場合には(ステップS208、否定)、処理回路34は、自動制御を継続して実行する(ステップS204)。
また、例えば、処理回路34は、手動制御を実行中にモード切替を受け付けたか否かを判定する(ステップS209)。ここで、モード切替を受け付けた場合には(ステップS209、肯定)、処理回路34は、自動制御モードに設定して(ステップS203)、処理を継続する。一方、モード切替を受け付けていない場合には(ステップS209、否定)、処理回路34は、手技が終了したか否かを判定する(ステップS210)。ここで、手技が終了した場合には(ステップS210、肯定)、処理回路34は、処理を終了する。一方、手技が終了していない場合には(ステップS210、否定)、処理回路34は、手動制御を継続して実行する(ステップS206)。
上述したように、第1の実施形態によれば、制御機能341は、被検体内に挿入される医用器具を保持し、当該医用器具を移動させる手術支援ロボット装置2を動作させるための操作情報を取得する。アーム移動制御機能344は、被検体内における医用器具と周辺部位との位置関係、及び、操作情報に基づいて、医用器具が移動した後の周辺部位に対する医用器具の位置を推定し、推定結果に基づいて手術支援ロボット装置2の動作を制御する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、操作を実行した場合の医用器具と周辺部位との位置関係を推定して、ロボットアーム21を制御することができ、手術支援ロボット装置による手技の安全性を向上させることを可能にする。
その結果、手術支援ロボット用制御装置3は、術者の技量に関わらず、手術支援ロボット装置を用いた手技を実施することを可能にし、手術支援ロボット装置を用いた手技の導入を拡大させることができる。さらに、手技の導入を拡大させることで、より多くの人が低侵襲治療を受けることができ、患者のQOL(quality of life)向上に寄与することができる。
また、第1の実施形態によれば、アーム移動制御機能344は、医用器具が移動した後の周辺部位と医用器具との接触状態を推定し、推定結果に基づいて手術支援ロボットの動作を制御する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、医用器具と周辺部位との接触状態によってロボットアーム21の制御を変えることを可能にする。
また、第1の実施形態によれば、アーム移動制御機能344は、医用器具が移動した後に医用器具が周辺部位に接触するか否かを判定し、医用器具が周辺部位に接触すると判定した場合に、周辺部位に対する医用器具の接触を回避するように手術支援ロボット装置2の動作を制御する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、医用器具と周辺部位との接触を回避することを可能にする。
また、第1の実施形態によれば、アーム移動制御機能344は、医用器具が周辺部位に接触した際にかかる圧力を推定し、推定した圧力が所定の閾値を超えると判定した場合に、周辺部位に対する医用器具の接触を回避するように手術支援ロボット装置2の動作を制御する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、医用器具と周辺部位との接触の程度に応じてロボットアーム21の制御を変えることを可能にする。
また、第1の実施形態によれば、所定の閾値は、医用器具の種類及び医用器具の状態のうち少なくとも一方に基づいて設定される。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、状況に応じて、判定に用いる接触の程度を変えることを可能にする。
また、第1の実施形態によれば、3次元モデル構築機能342は、被検体から収集した医用画像データ及び医用器具に関するデータに基づいて、前記3次元モデルを生成する。また、アーム移動制御機能344は、医用器具と被検体内の部位を示す3次元モデルにより、位置関係を取得する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、医用器具と周辺部位との正確な位置関係を把握することを可能にする。
また、第1の実施形態によれば、アーム移動制御機能344は、医用器具及び被検体内の部位の特徴点により、位置関係を取得する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、3次元モデルを生成するための処理を省略することを可能にする。
また、第1の実施形態によれば、アーム移動制御機能344は、術中において、少なくとも被検体の体勢が固定された時点、腹腔内に空間が形成された時点、及び、部位の摘出前後の時点で、位置関係をそれぞれ取得する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、腹腔内の形状や配置の変化に対応することを可能にする。
また、第1の実施形態によれば、制御機能341は、手術支援ロボット装置2を操作する術者の操作に基づく医用器具の移動量を、操作情報として取得する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、正確な移動量を用いて判定することを可能にする。
また、第1の実施形態によれば、制御機能341は、被検体に対する治療計画に含まれる医用器具の移動量を、操作情報として取得する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、手術支援ロボット装置2の自動制御を可能にする。
また、第1の実施形態によれば、治療計画機能343は、周辺部位に対する医用器具の接触を回避するように手術支援ロボットの動作を制御する場合に、治療計画を補正する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、手術支援ロボット装置2のより安全な自動制御を可能にする。
また、第1の実施形態によれば、制御機能341は、手術支援ロボット装置2に対する制御状態を示す表示情報を表示させる。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、術者が制御状態を把握することを可能にする。
また、第1の実施形態によれば、制御機能341は、被検体に対する手技情報をさらに取得する。アーム移動制御機能344は、手技情報における手技内容が保険適用である場合に、推定結果に基づいて手術支援ロボットの動作を制御し、手技情報における手技内容が保険非適用である場合に、操作情報に応じて手術支援ロボットの動作を制御する。したがって、第1の実施形態に係る手術支援ロボット用制御装置3は、症例数に応じて、自動制御と手動制御を自動で切り替えることができ、術者の負荷を効率よく低減することを可能にする。
(第2の実施形態)
さて、これまで第1の実施形態について説明したが、上述した第1の実施形態以外にも、種々の異なる形態にて実施されてよいものである。
上述した実施形態では、手術支援ロボット用制御装置3が各処理を実行する場合について説明した。しかしながら、実施形態はこれに限定されるものではなく、例えば、医用画像診断装置1や、手術支援ロボット装置2が各処理を実行する場合でもよい。かかる場合には、例えば、医用画像診断装置1が有する記憶回路が、制御機能341、3次元モデル構築機能342、治療計画機能343、及び、アーム移動制御機能344に対応するプログラムを記憶する。そして、医用画像診断装置1が有する処理回路が、記憶回路から制御機能341、3次元モデル構築機能342、治療計画機能343、及び、アーム移動制御機能344に対応するプログラムを読み出して実行することで、上述した各処理を同様の処理を実行する。なお、処理回路は、例えば、プロセッサにより実現される。
また、例えば、手術支援ロボット装置2が有する記憶回路が、制御機能341、3次元モデル構築機能342、治療計画機能343、及び、アーム移動制御機能344に対応するプログラムを記憶する。そして、手術支援ロボット装置2が有する処理回路が、記憶回路から制御機能341、3次元モデル構築機能342、治療計画機能343、及び、アーム移動制御機能344に対応するプログラムを読み出して実行することで、上述した各処理を同様の処理を実行する。なお、処理回路は、例えば、プロセッサにより実現される。
また、上述した各処理を、医用画像診断装置1と手術支援ロボット装置2とで分散して実行する場合でもよい。かかる場合には、例えば、医用画像診断装置1が有する記憶回路が、制御機能341、3次元モデル構築機能342、及び、治療計画機能343に対応するプログラムを記憶する。そして、医用画像診断装置1が有する処理回路が、記憶回路から制御機能341、3次元モデル構築機能342、及び、治療計画機能343に対応するプログラムを読み出して実行することで、上述した3次元モデルの生成及び治療計画に関する各処理を実行する。
そして、手術支援ロボット装置2が有する記憶回路が、制御機能341、及び、アーム移動制御機能344に対応するプログラムを記憶する。そして、手術支援ロボット装置2が有する処理回路が、記憶回路から制御機能341、及び、アーム移動制御機能344に対応するプログラムを読み出して実行することで、上述した判定処理及びアーム制御処理を実行する。
なお、上述した分散はあくまでも一例であり、各機能は、任意に分散されて実行される場合でもよい。
なお、上述した説明で用いた「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、或いは、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。プロセッサは、記憶回路33に保存されたプログラムを読み出して実行することで、機能を実現する。なお、記憶回路33にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合は、プロセッサは回路内に組み込まれたプログラムを読み出して実行することで機能を実現する。また、本実施形態のプロセッサは、単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて一つのプロセッサとして構成され、その機能を実現するようにしてもよい。
ここで、プロセッサによって実行されるプログラム(制御プログラム)は、ROM(Read Only Memory)や記憶回路等に予め組み込まれて提供される。なお、このプログラムは、これらの装置にインストール可能な形式又は実行可能な形式のファイルでCD(Compact Disk)-ROM、FD(Flexible Disk)、CD-R(Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記憶媒体に記録されて提供されてもよい。また、このプログラムは、インターネット等のネットワークに接続されたコンピュータ上に保存され、ネットワーク経由でダウンロードされることにより提供又は配布されてもよい。例えば、このプログラムは、上述した各機能部を含むモジュールで構成される。実際のハードウェアとしては、CPUが、ROM等の記憶媒体からプログラムを読み出して実行することにより、各モジュールが主記憶装置上にロードされて、主記憶装置上に生成される。
以上説明した少なくとも1つの実施形態によれば、手術支援ロボット装置による手技の安全性を向上させることができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これらの実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1 医用画像診断装置
2 手術支援ロボット装置
3 手術支援ロボット用制御装置
341 制御機能
342 3次元モデル構築機能
343 治療計画機能
344 アーム移動制御機能

Claims (16)

  1. 被検体内に挿入される医用器具を保持し、当該医用器具を移動させる手術支援ロボットを動作させるための操作情報を取得する取得部と、
    前記操作情報に基づいて、前記医用器具が周辺部位に接触しないように前記手術支援ロボットの動作を制限する制御部と、
    前記手術支援ロボットの動作の制限状態と当該動作の制限によって接触回避された周辺部位とを含む表示情報を表示させる表示制御部と、
    を備える、医用画像診断装置。
  2. 前記制御部は、前記医用器具が移動した後の前記周辺部位と前記医用器具との接触状態を推定し、推定結果に基づいて前記手術支援ロボットの動作を制御する、請求項1に記載の医用画像診断装置。
  3. 前記制御部は、前記医用器具が移動した後に前記医用器具が前記周辺部位に接触するか否かを判定し、前記医用器具が前記周辺部位に接触すると判定した場合に、前記周辺部位に対する前記医用器具の接触を回避するように前記手術支援ロボットの動作を制限する、請求項2に記載の医用画像診断装置。
  4. 前記制御部は、前記医用器具が前記周辺部位に接触した際にかかる圧力を推定し、推定した圧力が所定の閾値を超えると判定した場合に、前記周辺部位に対する前記医用器具の接触を回避するように前記手術支援ロボットの動作を制限する、請求項2に記載の医用画像診断装置。
  5. 前記所定の閾値は、前記医用器具の種類及び前記医用器具の状態のうち少なくとも一方に基づいて設定される、請求項4に記載の医用画像診断装置。
  6. 前記制御部は、前記医用器具と前記被検体内の部位を示す3次元モデルにより、前記被検体内における医用器具と周辺部位との位置関係を取得する、請求項1~5のいずれか1つに記載の医用画像診断装置。
  7. 前記被検体から収集した医用画像データ及び前記医用器具に関するデータに基づいて、前記3次元モデルを生成する生成部をさらに備える、請求項6に記載の医用画像診断装置。
  8. 前記制御部は、前記医用器具及び前記被検体内の部位の特徴点により、前記被検体内における医用器具と周辺部位との位置関係を取得する、請求項1~5のいずれか1つに記載の医用画像診断装置。
  9. 前記制御部は、術中において、少なくとも前記被検体の体勢が固定された時点、腹腔内に空間が形成された時点、及び、部位の摘出前後の時点で、前記被検体内における医用器具と周辺部位との位置関係をそれぞれ取得する、請求項1~8のいずれか1つに記載の医用画像診断装置。
  10. 前記取得部は、前記手術支援ロボットを操作する術者の操作に基づく前記医用器具の移動量を、前記操作情報として取得する、請求項1~9のいずれか1つに記載の医用画像診断装置。
  11. 前記取得部は、前記被検体に対する治療計画に含まれる前記医用器具の移動量を、前記操作情報として取得する、請求項1~9のいずれか1つに記載の医用画像診断装置。
  12. 前記制御部は、前記周辺部位に対する前記医用器具の接触を回避するように前記手術支援ロボットの動作を制限する場合に、前記治療計画を補正する、請求項11に記載の医用画像診断装置。
  13. 前記取得部は、前記被検体に対する手技情報をさらに取得し、
    前記制御部は、前記手技情報における手技内容が保険適用である場合に、前記推定結果に基づいて前記手術支援ロボットの動作を制御し、前記手技情報における手技内容が保険非適用である場合に、前記操作情報に応じて前記手術支援ロボットの動作を制御する、請求項2に記載の医用画像診断装置。
  14. 被検体内に挿入される医用器具を保持し、当該医用器具を移動させるアーム部と、
    前記アーム部を動作させるための操作情報に基づいて、前記医用器具が周辺部位に接触しないように前記アーム部の動作を制限する制御部と、
    前記アーム部の動作の制限状態と当該動作の制限によって接触回避された周辺部位とを含む表示情報を表示させる表示制御部と、
    を備える、手術支援ロボット装置。
  15. 被検体内に挿入される医用器具を保持し、当該医用器具を移動させる手術支援ロボットを動作させるための操作情報を取得する取得部と、
    前記操作情報に基づいて、前記医用器具が周辺部位に接触しないように前記手術支援ロボットの動作を制限する制御部と、
    前記手術支援ロボットの動作の制限状態と当該動作の制限によって接触回避された周辺部位とを含む表示情報を表示させる表示制御部と、
    を備える、手術支援ロボット用制御装置。
  16. 被検体内に挿入される医用器具を保持し、当該医用器具を移動させる手術支援ロボットを動作させるための操作情報を取得する取得機能と、
    前記操作情報に基づいて、前記医用器具が周辺部位に接触しないように前記手術支援ロボットの動作を制限する制御機能と、
    前記手術支援ロボットの動作の制限状態と当該動作の制限によって接触回避された周辺部位とを含む表示情報を表示させる表示制御機能と、
    をコンピュータに実現させるための制御プログラム。
JP2020031543A 2019-04-03 2020-02-27 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム Active JP7495242B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/838,422 US12048501B2 (en) 2019-04-03 2020-04-02 Medical image diagnosis apparatus, surgery assistance robot apparatus, surgery assistance robot controlling apparatus, and controlling method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019071075 2019-04-03
JP2019071075 2019-04-03

Publications (2)

Publication Number Publication Date
JP2020168359A JP2020168359A (ja) 2020-10-15
JP7495242B2 true JP7495242B2 (ja) 2024-06-04

Family

ID=72745853

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020031543A Active JP7495242B2 (ja) 2019-04-03 2020-02-27 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム

Country Status (1)

Country Link
JP (1) JP7495242B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112728A1 (ja) * 2021-12-17 2023-06-22 国立研究開発法人 産業技術総合研究所 医療支援方法、医療支援ロボット装置、およびコンピュータプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061860A (ja) 1999-08-31 2001-03-13 Hitachi Ltd 治療装置
JP2003061979A (ja) 1993-12-28 2003-03-04 Olympus Optical Co Ltd 医療器具
JP2005324038A (ja) 2005-05-30 2005-11-24 Olympus Corp 手術用顕微鏡
US20060142657A1 (en) 2002-03-06 2006-06-29 Mako Surgical Corporation Haptic guidance system and method
JP2008538184A (ja) 2005-02-22 2008-10-16 マコ サージカル コーポレーション 触覚誘導システムおよび方法
JP2009233240A (ja) 2008-03-28 2009-10-15 Univ Waseda 手術支援システム、接近状態検出装置及びそのプログラム
JP2012035010A (ja) 2010-08-11 2012-02-23 Waseda Univ 穿刺支援システム
WO2017055957A1 (en) 2015-09-28 2017-04-06 Koninklijke Philips N.V. Single-port surgical procedure using image guided articulated robot
WO2019008127A1 (en) 2017-07-07 2019-01-10 Koninklijke Philips N.V. INTEGRATION OF ROBOTIC INSTRUMENT GUIDE WITH AN ACOUSTIC PROBE

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061979A (ja) 1993-12-28 2003-03-04 Olympus Optical Co Ltd 医療器具
JP2001061860A (ja) 1999-08-31 2001-03-13 Hitachi Ltd 治療装置
US20060142657A1 (en) 2002-03-06 2006-06-29 Mako Surgical Corporation Haptic guidance system and method
JP2008538184A (ja) 2005-02-22 2008-10-16 マコ サージカル コーポレーション 触覚誘導システムおよび方法
JP2005324038A (ja) 2005-05-30 2005-11-24 Olympus Corp 手術用顕微鏡
JP2009233240A (ja) 2008-03-28 2009-10-15 Univ Waseda 手術支援システム、接近状態検出装置及びそのプログラム
JP2012035010A (ja) 2010-08-11 2012-02-23 Waseda Univ 穿刺支援システム
WO2017055957A1 (en) 2015-09-28 2017-04-06 Koninklijke Philips N.V. Single-port surgical procedure using image guided articulated robot
JP2018529442A (ja) 2015-09-28 2018-10-11 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 画像ガイド多関節ロボットを用いたシングルポート外科手術
WO2019008127A1 (en) 2017-07-07 2019-01-10 Koninklijke Philips N.V. INTEGRATION OF ROBOTIC INSTRUMENT GUIDE WITH AN ACOUSTIC PROBE

Also Published As

Publication number Publication date
JP2020168359A (ja) 2020-10-15

Similar Documents

Publication Publication Date Title
US20210015343A1 (en) Surgical assistance apparatus, surgical method, non-transitory computer readable medium and surgical assistance system
US20110270084A1 (en) Surgical navigation apparatus and method for same
WO2017207565A1 (en) Image-based fusion of endoscopic image and ultrasound images
KR20160086629A (ko) 영상유도 수술에서 수술부위와 수술도구 위치정합 방법 및 장치
US20200113636A1 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
EP3733047A1 (en) Surgical system, image processing device, and image processing method
US11229492B2 (en) Automatic probe reinsertion
CN111494006A (zh) 用于在内窥镜图像中显示肿瘤位置的方法
JP2002253480A (ja) 医療処置補助装置
JP7495242B2 (ja) 医用画像診断装置、手術支援ロボット装置、手術支援ロボット用制御装置及び制御プログラム
EP2777593A2 (en) Real time image guidance system
US20210298848A1 (en) Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system
WO2006060373A2 (en) Ultrasonic image and visualization aid
US11771508B2 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
US20220061941A1 (en) Robotic collision boundary determination
US11910995B2 (en) Instrument navigation in endoscopic surgery during obscured vision
US12048501B2 (en) Medical image diagnosis apparatus, surgery assistance robot apparatus, surgery assistance robot controlling apparatus, and controlling method
JP7264689B2 (ja) 医用画像処理装置、医用画像処理方法、及び医用画像処理プログラム
US20200315724A1 (en) Medical image diagnosis apparatus, surgery assistance robot apparatus, surgery assistance robot controlling apparatus, and controlling method
US20210298854A1 (en) Robotically-assisted surgical device, robotically-assisted surgical method, and system
US20220395337A1 (en) Surgery assistance system, operating method for surgery assistance system, and control device of surgery assistance system
Hastenteufel et al. Image‐based guidance for minimally invasive surgical atrial fibrillation ablation
WO2019035206A1 (ja) 医療システムおよび画像生成方法
JP2022010852A (ja) 手術支援システム及び手術支援方法
JP2023508215A (ja) 可動カメラ及び内蔵位置センサを有するトロカール

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230919

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240117

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240408

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240523

R150 Certificate of patent or registration of utility model

Ref document number: 7495242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150