JP7217065B1 - 力覚表示装置、力覚表示方法およびプログラム - Google Patents

力覚表示装置、力覚表示方法およびプログラム Download PDF

Info

Publication number
JP7217065B1
JP7217065B1 JP2022535714A JP2022535714A JP7217065B1 JP 7217065 B1 JP7217065 B1 JP 7217065B1 JP 2022535714 A JP2022535714 A JP 2022535714A JP 2022535714 A JP2022535714 A JP 2022535714A JP 7217065 B1 JP7217065 B1 JP 7217065B1
Authority
JP
Japan
Prior art keywords
display
force
unit
information
haptic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022535714A
Other languages
English (en)
Other versions
JPWO2022244105A1 (ja
Inventor
輝幸 西原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Riverfield Inc
Original Assignee
Riverfield Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Riverfield Inc filed Critical Riverfield Inc
Publication of JPWO2022244105A1 publication Critical patent/JPWO2022244105A1/ja
Application granted granted Critical
Publication of JP7217065B1 publication Critical patent/JP7217065B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Robotics (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Surgical Instruments (AREA)

Abstract

組織に与えるダメージの軽減を図りやすくするべく、力覚表示装置であって、患部の撮像情報を取得する画像取得部(51)と、前記患部を処置する少なくとも1つの術具(21R,21L)に働く力の大きさ及び力の方向の情報を含む力覚情報を取得する力覚取得部(52)と、前記力の大きさを表す力量表示および前記力の方向を表す方向表示を含む力覚表示を前記力覚情報に基づいて作成する作成部(53)と、前記撮像情報に基づいて、表示部(12)における前記術具が表示される術具領域を検出する検出部(54)と、前記術具領域に前記力覚表示を重畳して前記表示部に表示させる表示情報を作成する重畳部(53)と、が設けられるように構成した。

Description

本開示は、力覚表示装置、力覚表示方法およびプログラムに関する。
内視鏡や腹腔鏡や鉗子などの手術器具を用いた内視鏡外科手術や腹腔鏡手術などが普及しつつある。以降において内視鏡や腹腔鏡や鉗子などの手術器具を「術具」とも表記する。また、術具を用いた内視鏡外科手術や腹腔鏡手術などを「内視鏡外科手術など」とも表記する。
内視鏡外科手術などでは、医師などの術者が手に持った術具を用いて手術を行う他に、例えば特許文献1に開示されているように、手術支援を行う医用ロボットを用いた手術も行われている。手術支援を行う医用ロボットを用いた手術はロボット支援下手術とも呼ばれる。
特開2001-104333号公報
内視鏡外科手術などでは、術具が臓器などの組織に与えている力を、術者が把握しにくいことが知られている。例えば、術具が組織を押す力や、組織をつかむ力などを、術者が把握しにくいことが知られている。そのため、組織に意図する以上の力を与えてしまい、組織にダメージを与えるおそれがあった。以降において術具が臓器などの組織に与えている力に関する情報を「力量情報」とも表記する。
上述の力量情報を術者が知る方法として、内視鏡により撮像された画像を表示する画像用表示機器とは別に、力量情報を術者に表示する専用の力量表示機器を用いる方法が知られている。この方法では、術者が力量情報を知るためには、画像用表示機器から力量表示機器に視線を移動させる必要がある。そのため、視線を移動している際に、組織に意図しないダメージを与えるおそれがあるという問題があった。
また、画像用ディスプレイ上に力量情報を重畳して表示する方法も知られている。この方法において、画像用ディスプレイ上の組織が表示されている部分に力量情報を重畳すると、力量情報が重畳されて隠れた組織が視認されにくくなる。そのため、視認しにくくなった組織に意図しないダメージを与えるおそれがあるという問題があった。
上述の特許文献1では、画像用ディスプレイ上の術具に相当するインスツルメントが表示されている部分に、力量情報を重畳して表示する技術が開示されている。具体的には、組織をつかむ力の大きさを示すインジケータや、インスツルメントの関節角度や、回転角度を表す情報を重畳して表示する技術が開示されている。この場合に表示される情報では、情報量が不足して組織に与えるダメージを予測することが難しいという問題があった。
本開示は、組織に与えるダメージの軽減を図りやすい力覚表示装置、力覚表示方法およびプログラムの一例を開示する。
本開示の一局面である力覚表示装置は、患部を撮像する撮像部から出力された撮像情報を取得する画像取得部と、前記患部を処置する少なくとも1つの術具に働く力の大きさ及び力の方向の情報を含む力覚情報を取得する力覚取得部と、表示部に表示される表示態様であって、前記力の大きさを表す力量表示、および、前記力の方向を表す方向表示を含む力覚表示を前記力覚情報に基づいて作成する作成部と、前記撮像情報に基づいて、前記表示部に表示される画像における前記術具が表示される術具領域を検出する検出部と、前記術具領域に前記力覚表示を重畳して前記表示部に表示させる表示情報を作成する重畳部と、が設けられる。
本開示の一局面である力覚表示方法は、画像取得部と、力覚取得部と、作成部と、検出部と、重畳部とを有する力覚表示装置の表示方法であって、前記画像取得部が患部を撮像する撮像部から出力された撮像情報を取得する画像取得ステップと、前記力覚取得部が前記患部を処置する少なくとも1つの術具に働く力の大きさ及び力の方向の情報を含む力覚情報を取得する力覚取得ステップと、前記作成部が、表示部に表示される表示態様であって、前記力の大きさを表す力量表示、および、前記力の方向を表す方向表示を含む力覚表示を前記力覚情報に基づいて作成する作成ステップと、前記検出部が、前記撮像情報に基づいて、前記表示部に表示される画像における前記術具が表示される術具領域を検出する検出ステップと、前記重畳部が前記術具領域に前記力覚表示を重畳して前記表示部に表示させる表示情報を作成する重畳ステップと、を有する。
本開示の一局面であるプログラムは、コンピュータに、患部を撮像する撮像部から出力された撮像情報を取得する画像取得機能と、前記患部を処置する少なくとも1つの術具に働く力の大きさ及び力の方向の情報を含む力覚情報を取得する力覚取得機能と、表示部に表示される表示態様であって、前記力の大きさを表す力量表示、および、前記力の方向を表す方向表示を含む力覚表示を前記力覚情報に基づいて作成する作成機能と、前記撮像情報に基づいて、前記表示部に表示される画像における前記術具が表示される術具領域を検出する検出機能と、前記術具領域に前記力覚表示を重畳して前記表示部に表示させる表示情報を作成する重畳機能と、を実現させる。
このプログラムはコンピュータに組み込まれるROMやRAMに記憶され、これらROMやRAMからコンピュータにロードされて用いられてもよいし、ネットワークを介してコンピュータにロードされて用いられてもよい。また、上述のプログラムは、コンピュータにて読み取り可能なあらゆる形態の記録媒体に記録されて用いられてもよい。記録媒体としては、例えば、持ち運び可能な半導体メモリ(例えばUSBメモリなど)が含まれる。
このように構成された力覚表示装置、力覚表示方法およびプログラムによれば、力の大きさを表す力量表示、および、力の方向を表す方向表示を含む力覚表示が、表示部に表示される画像の術具が表示される術具領域に重畳して表示される。そのため、術具が患部に与える力の大きさ、および、力の方向が把握されやすい。言い換えると、術具が患部の組織に与えるダメージを把握しやすい。
また、力覚表示が術具領域に重畳して表示され、表示部に表示される患部が力覚表示に隠されにくくなる。そのため、術具および患部が意図しない接触を起こしにくく、組織が接触によるダメージを受けにくくなる。
本開示の一局面において前記作成部は、色の種類、色の明暗、および、透過性の少なくとも1つを用いて前記力の大きさを表現する前記力量表示を含む前記力覚表示を作成することが好ましい。
このように構成された力覚表示装置は、色の種類、色の明暗および透過性の1つ、または、これらの組合せを用いて力の大きさを表現することにより、直感的に力の大きさを把握しやすくなる。
本開示の一局面において前記作成部は、数値を用いて前記力の大きさを表現する前記力量表示を含む前記力覚表示を作成することが好ましい。
このように構成された力覚表示装置は、数値で力の大きさを表現することにより、力の大きさを正確に表現することができる。
本開示の一局面において前記作成部は、表示される前記数値のサイズを用いて前記力の大きさを表現する前記力量表示を含む前記力覚表示を作成することが好ましい。
このように構成された力覚表示装置は、力の大きさを表す数値のサイズを用いて力の大きさを表現することにより、単に数値を用いて力の大きさを表す場合と比較して、力の大きさを正確に表現できるとともに、力の大きさを直感的に把握しやすくなる。
本開示の一局面においては、前記術具の色彩および模様の少なくとも一方を記憶する記憶部が更に設けられ、前記検出部は、前記記憶部に記憶された前記術具の色彩および模様の少なくとも一方に基づいて、前記表示部に表示される画像における前記術具領域を検出することが好ましい。
このように構成された力覚表示装置は、術具の色彩および模様の少なくとも一方に基づいて術具領域を検出することにより、術具領域の検出が容易になる。また、術具領域の検出精度を高めやすい。
本開示の一局面において前記力覚情報には、前記術具における棒状に延びるシャフト部に働く第1力の大きさ、および、第1力の方向の情報が含まれ、前記作成部は、前記第1力の大きさを表す第1力量表示、および、前記第1力の方向を表す第1方向表示を含む第1力覚表示を作成し、前記検出部は、前記表示部に表示される画像における前記シャフト部が表示される領域を第1術具領域として検出し、前記重畳部は、前記第1術具領域に前記第1力覚表示を重畳して前記表示部に表示させる前記表示情報を作成することが好ましい。
このように構成された力覚表示装置は、術具のシャフト部に係る第1力覚表示を、シャフト部が表示される第1術具領域に重畳して表示することにより、シャフト部が患部に与える力の大きさ、および、力の方向を把握しやすくなる。
本開示の一局面において前記力覚情報には、前記シャフト部の端部に設けられ前記患部の処置に用いられるエンドエフェクタ部に加わる第2力の大きさ、および、第2力の方向の情報が含まれ、前記作成部は、前記第2力の大きさを表す第2力量表示、および、前記第2力の方向を表す第2方向表示を含む第2力覚表示を作成し、前記検出部は、前記表示部に表示される画像における前記エンドエフェクタ部が表示される領域を第2術具領域として検出し、前記重畳部は、前記第2術具領域に前記第2力覚表示を重畳して前記表示部に表示させる前記表示情報を作成することが好ましい。
このように構成された力覚表示装置は、術具のエンドエフェクタ部に係る第2力覚表示を、エンドエフェクタ部が表示される第2術具領域に重畳して表示することにより、エンドエフェクタ部が患部に与える力の大きさ、および、力の方向を把握しやすくなる。
本開示の力覚表示装置、力覚表示方法およびプログラムによれば、術具が患部に与える力の大きさ、および、力の方向が把握しやすく、組織に与えるダメージの軽減を図りやすいという効果を奏する。
本開示の第1の実施形態に係る医用ロボットの構成を説明するブロック図である。 エンドスコープモニタに表示されたインスツルメントの構成を説明する図である。 力覚表示装置の構成を説明するブロック図である。 エンドスコープモニタに表示された第1力覚表示および第2力覚表示を説明する図である。 第1方向表示の他の表示例を説明する図である。 第1方向表示の他の表示例を説明する図である。 第1方向表示の他の表示例を説明する図である。 第1方向表示の他の表示例を説明する図である。 力覚表示を行う演算処理を説明するフローチャートである。 力覚表示装置が腹腔鏡手術に用いられる際の構成を説明する図である。 本開示の変形例に係る力覚表示装置の構成を説明するブロック図である。
12…エンドスコープモニタ(表示部)
21R,21L,121R,121L… インスツルメント(術具)
22R,22L…シャフト部 23R,23L…エンドエフェクタ部
35…撮像部 50,50A…力覚表示装置 51…画像取得部
52…力覚取得部 53…作成部 54,54A…検出部
55…重畳部 57A…記憶部
41R,41L…第1力量表示(力量表示)
42R,42L…第1方向表示(方向表示)
46R,46L…第2力量表示(力量表示)
27R,27L…第1術具領域(術具領域)
28R,28L…第2術具領域(術具領域)
S101…画像取得ステップ S102…検出ステップ
S103…力覚取得ステップ S104…作成ステップ
S105…重畳ステップ
以下の実施形態は、本開示の技術的範囲に属する実施形態の一例を示すものである。本開示の技術範囲は、下記の実施形態に示された具体的構成や構造等に限定されない。
各図に付された方向を示す矢印及び斜線等は、各図相互の関係及び各部材又は部位の形状を理解し易くするために記載されたものである。したがって、本開示の技術範囲は、各図に付された方向に限定されない。斜線が付された図は、必ずしも断面図を示すものではない。
少なくとも符号が付されて説明された部材又は部位は、「1つの」等の断りがされた場合を除き、少なくとも1つ設けられている。つまり、「1つの」等の断りがない場合には、当該部材は2以上設けられていてもよい。本開示に示された力覚表示装置および医用ロボットは、少なくとも符号が付されて説明された部材又は部位等の構成要素、並びに図示された構造部位を備える。
〔第1の実施形態〕
本開示の第1の実施形態に係る力覚表示装置50および力覚表示装置50を有する医用ロボット1について、図1から図9を参照しながら説明する。本実施形態の医用ロボット1は、内視鏡外科手術などにおいて手術支援を行うロボットである。
本実施形態では、力覚表示装置50が医用ロボット1と一体となる構成の場合を例に説明する。力覚表示装置50は、医用ロボット1に対して着脱可能な別体となる構成を有してもよい。
医用ロボット1には、図1に示すように、マスター10と、スレーブ20と、力覚表示装置50と、が設けられる。
マスター10は、医用ロボット1を用いて手術を行う執刀医が、スレーブ20の操作を行うサージョンコンソールである。マスター10は、スレーブ20と操作に関する信号が通信可能に接続される。
本実施形態ではマスター10が、スレーブ20が設置されている部屋とは異なる部屋に設置されている場合を例に説明する。マスター10は、スレーブ20が設置されている部屋と同じ部屋に設置されてもよい。
マスター10には、電気メスペダル11と、エンドスコープモニタ12と、が少なくとも設けられている。また、マスター10には、執刀医が操作を行う部位であって、後述する2つのインスツルメント21R,21Lの移動や把持等の操作に用いる操作部(図示せず。)が設けられる。
電気メスペダル11は、執刀医が操作を行う機器であって、後述する電気メスジェネレータ25の動作を制御する機器である。本実施形態において電気メスペダル11は、執刀医の足元に配置される機器であり、執刀医が足で踏むことにより電気メスジェネレータ25の動作を制御する機器である場合を例に説明する。電気メスペダル11は、執刀医が足で踏むことにより操作する構成以外の構成を有してもよい。
エンドスコープモニタ12は、執刀医が手術を行う最に用いる表示部であって、後述するエンドスコープ31により撮像された画像を表示する機器である。エンドスコープモニタ12としては、一般に用いられている表示機器を用いることができ、その表示形式は特に限定されない。エンドスコープモニタ12は、マスター10に取り付けられて一体に構成されてもよいし、マスター10とは別の機器に取り付けられてもよい。
スレーブ20は、手術が行われる部屋に設置され、マスター10を介して入力される執刀医の操作に従って手術を行うペイシェントカートである。スレーブ20には、後述するインスツルメント21R,21Lおよびエンドスコープ31が取り付けられる機構、インスツルメント21R,21Lおよびエンドスコープ31を移動させる機構、及びそれらを駆動させる機構などが設けられる。
本実施形態では、空気圧を用いてインスツルメント21R,21Lおよびエンドスコープ31を移動させる機構や、駆動させる機構が、スレーブ20に設けられている構成を例に説明する。スレーブ20に電動機を用いたインスツルメント21R,21Lおよびエンドスコープ31を移動させる機構、駆動させる機構などの他の機構が設けられてもよい。
スレーブ20には、2つのインスツルメント21R,21Lと、1つのエンドスコープ31と、が設けられる。本実施形態ではスレーブ20に2つのインスツルメント21R,21Lと、1つのエンドスコープ31が取り付けられている構成を例に説明する。
スレーブ20に取り付けることができるインスツルメントの数は1つであってもよいし、3つ以上であってもよい。また、スレーブ20に取り付けることができるエンドスコープの数は2つ以上であってもよい。
インスツルメント21R,21Lは、スレーブ20に取り付けられる機器であり、執刀医の操作に従って手術における種々の処置を行う術具である。図2に示すように、インスツルメント21Rには、シャフト部22Rと、エンドエフェクタ部23Rと、が少なくとも設けられる。インスツルメント21Lには、シャフト部22Lと、エンドエフェクタ部23Lと、が少なくとも設けられる。
シャフト部22Rとシャフト部22Lは、それぞれ棒状に形成された部材である。シャフト部22Rの端部にはエンドエフェクタ部23Rが配置され、シャフト部22Rの端部には23Lが配置される。本実施形態では、シャフト部22R,22Lにおけるエンドエフェクタ部23R,23Lが配置された端部が、患者の腹腔内に挿入される部材である構成を例に説明する。シャフト部22Rとシャフト部22Lは、径及び長さが同じ形状を有してもよいし、少なくとも一方が異なる形状を有してもよい。
本実施形態では、エンドエフェクタ部23Rが患部を切断等する電気メスであり、エンドエフェクタ部23Lが、患部を把持したり、癒着した患部を剥離したりする鉗子である構成を例に説明する。また、エンドエフェクタ部23Rは、電気メスジェネレータ25から電力の供給がされるように接続されている構成を例に説明する。エンドエフェクタ部23R,23Lは、患部の処置を行う電気メスや鉗子以外の他の構成を有してもよい。
電気メスジェネレータ25は、図1に示すように、電気メスペダル11と操作可能に接続され、エンドエフェクタ部23Rに電力を供給する機器である。電気メスジェネレータ25から供給される電力は、エンドエフェクタ部23Rにより切断された患部の止血などにも用いられる。電気メスジェネレータ25は、電気メスのエンドエフェクタ部に電力を供給する機器として一般に用いられる構成のものを用いることができる。
エンドスコープ31は、スレーブ20に取り付けられる機器であり、患者の体腔内に挿入され患部の撮像に用いられる機器である。エンドスコープ31には、撮像に用いられる撮像部35が設けられる。
撮像部35には、エンドスコープ31により導かれた患部の画像を電気信号に変換して撮像情報として出力する撮像素子や、患部に照射する光を発する発光素子や、撮像素子および発光素子の制御に用いられる演算素子などが設けられる。
撮像素子としては、固体撮像素子(例としてCCD:Charge Coupled Device)などの撮像素子として一般に用いられる素子を用いることができる。発光素子としては、発光ダイオード(Light Emitting Diode)等の発光素子として一般に用いられる素子を用いることができる。
本実施形態では撮像素子および発光素子がエンドスコープ31とは異なる撮像部35に設けられた構成を例に説明するが、撮像素子および発光素子の少なくとも一方がエンドスコープ31に設けられた構成であってもよい。
力覚表示装置50は、図1に示すように、スレーブ20および撮像部35と、エンドスコープモニタ12との間に配置される装置である。また力覚表示装置50は、撮像部35から出力された撮像情報に、インスツルメント21R,21Lに働く力の大きさおよび力の方向を示す力覚表示を重畳した表示情報を生成する装置である。
力覚表示装置50は、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するプロセッサや、マイクロコンピュータや、パーソナルコンピュータや、サーバ等の情報処理機器である。
上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、図3に示すように、少なくとも画像取得部51、力覚取得部52、作成部53、検出部54、重畳部55、および、出力部56として機能させる。
画像取得部51は、撮像部35から出力された撮像情報を取得するインタフェースである。画像取得部51は、撮像部35と情報通信可能に接続される。また、画像取得部51は検出部54および重畳部55に、取得した撮像情報を出力可能に接続される。
力覚取得部52は、インスツルメント21R,21Lに働く力の大きさおよび力の方向の情報を含む力覚情報を取得するインタフェースである。力覚取得部52は、シャフトセンサ61Rと、エンドエフェクタセンサ62Rと、シャフトセンサ61Lと、エンドエフェクタセンサ62Lと情報通信可能に接続される。力覚取得部52は、作成部53に取得した力覚情報を出力可能に接続される。以降の説明において、インスツルメントのシャフトに働く力を第1力と、エンドエフェクタに働く力を第2力と記載する。
シャフトセンサ61Rは、インスツルメント21Rのシャフト部22Rに働く第1力の大きさおよび第1力の方向の情報を含む力覚情報を測定するセンサである。エンドエフェクタセンサ62Rは、インスツルメント21Rのエンドエフェクタ部23Rに働く第2力の大きさの情報を含む力覚情報を測定するセンサである。
シャフトセンサ61Lは、インスツルメント21Lのシャフト部22Lに働く第1力の大きさおよび第1力の方向の情報を含む力覚情報を測定するセンサである。エンドエフェクタセンサ62Lインスツルメント21Lのエンドエフェクタ部23Lに働く第2力の大きさの情報を含む力覚情報を測定するセンサである。
本実施形態では、シャフトセンサ61R、エンドエフェクタセンサ62R、シャフトセンサ61Lおよびエンドエフェクタセンサ62Lが、スレーブ20に設けられたインスツルメント21R、21Lおよびエンドスコープ31を移動させる機構、並びに駆動させる機構における空気圧を測定するセンサである構成を例に説明する。
シャフトセンサ61R、エンドエフェクタセンサ62R、シャフトセンサ61Lおよびエンドエフェクタセンサ62Lは、圧力センサなどの力の大きさおよび力の方向を測定する際に用いられるその他のセンサであってもよい。
作成部53は、力覚取得部52が取得した力覚情報に基づいて力量表示および方向表示である力覚表示を作成する演算部である。本実施形態では、作成部53が第1力の大きさを表す第1力量表示41R,41L、および、第1力の方向を表す第1方向表示42R,42Lを含む第1力覚表示と、第2力の大きさを表す第2力量表示46R,46Lを含む第2力覚表示と、を作成する場合を例に説明する(図4参照。)。作成部53は、重畳部55に作成した第1力覚表示および第2力覚表示を出力可能に接続される。
第1力量表示41R,41Lはエンドスコープモニタ12に表示される表示態様であって、第1力の大きさを表す表示である。第1方向表示42R,42Lはエンドスコープモニタ12に表示される表示態様であって、第1力の方向を表す表示である。
第2力量表示46R,46Lはエンドスコープモニタ12に表示される表示態様であって、第2力の大きさを表す表示である。第1力量表示41R,41L、第1方向表示42R,42Lおよび第2力量表示46R,46Lの詳細については後述する。
検出部54は、取得した撮像情報に基づいて術具領域を検出する演算部である。術具領域は、エンドスコープモニタ12に撮像情報が表示された際に、インスツルメント21R,21Lが表示される領域である。
図2に示すように、術具領域には、シャフト部22R,22Lが表示される領域である第1術具領域27R,27Lと、エンドエフェクタ部23R,23Lが表示される領域である第2術具領域28R,28Lと、が含まれる。検出部54は、重畳部55に検出した第1術具領域27R,27Lおよび第2術具領域28R,28Lに関する情報を出力可能に接続される。
本実施形態では、検出部54が撮像情報に対して画像解析処理を行うことにより、第1術具領域27R,27Lおよび第2術具領域28R,28Lを検出する場合を例に説明する。画像解析の処理としては、撮像情報に基づいて所定の領域を検出する際に一般に用いられる処理方法を用いることができる。
重畳部55は、検出された第1術具領域27R,27Lおよび第2術具領域28R,28Lに作成された第1力覚表示および第2力覚表示を重畳した表示情報を作成する演算部である。重畳部55は、出力部56に作成した表示情報を出力可能に接続される。表示情報は、エンドスコープモニタ12に表示される画像の情報である。重畳部55における術具領域に力覚表示を重畳させる処理は、一般に用いられている重畳処理を用いることができる。
出力部56は、図3に示すように、エンドスコープモニタ12へ作成された表示情報を出力するインタフェースである。出力部56は、エンドスコープモニタ12と情報通信可能に接続される。出力部56の構成としては、インタフェースとして一般的な構成のものを用いることができる。
次に、上記の構成を有する力覚表示装置50を備えた医用ロボット1において、力覚表示装置50が力覚を表示する方法について説明する。ここでは、説明を容易にするためにインスツルメント21Rのシャフト部22Rとエンドエフェクタ部23Rに力が働く場合の力覚を表示する際の処理について説明する。なお、インスツルメント21Lのシャフト部22Lと、エンドエフェクタ部23Lに力が働く場合の処理も同様である。
以降において説明する図9の処理は、上述のROM等の記憶装置に記憶されているプログラムが、力覚表示装置50のCPU、ROM、RAM、入出力インタフェースを協働させて行わせるものである。
力覚表示装置50による力覚を表示する処理が開始されると、図9に示すように、画像取得部51が画像情報を取得する処理を行う(S101:画像取得ステップ)。本実施形態では、まず、図1に示すように、撮像部35にエンドスコープ31により導かれた患部の画像が入射される。
撮像部35は入射された画像を電気信号である撮像情報に変換し、変換した撮像情報を出力する。出力された撮像情報は、図3に示すように、画像取得部51に取得される。画像取得部51は検出部54および重畳部55に、取得した撮像情報を出力する。
画像情報が取得されると、図9に示すように、検出部54が術具領域を検出する処理を行う(S102:検出ステップ)。本実施形態において検出部54は、図2に示すように、取得した撮像情報に基づいて第1術具領域27Rと、第2術具領域28Rを検出する演算処理を行う。
第1術具領域27Rと、第2術具領域28Rを検出する演算処理としては、画像情報に基づいて特定の領域を検出する場合に一般に用いられる検出処理を用いることができる。検出された第1術具領域27Rと、第2術具領域28Rは、図3に示すように、検出部54から重畳部55に出力される。
その一方で、図9に示すように、力覚取得部52が力覚情報を取得する取得処理を行う(S103:力覚取得ステップ)。本実施形態では、図2および図3に示すように、インスツルメント21Rのシャフト部22Rに力が働くと、シャフトセンサ61Rは、シャフト部22Rに働く第1力の大きさおよび第1力の方向とを測定する。シャフトセンサ61Rは第1力の大きさおよび第1力の方向の情報を含む力覚情報を出力する。
インスツルメント21Rのエンドエフェクタ部23Rに力が働くと、エンドエフェクタセンサ62Rは、エンドエフェクタ部23Rに働く第2力の大きさを測定する。エンドエフェクタセンサ62Rは第2力の大きさの情報を含む力覚情報を出力する。
力覚取得部52は、シャフトセンサ61Rおよびエンドエフェクタセンサ62Rから出力された力覚情報を取得する。取得された力覚情報は、力覚取得部52から作成部53に出力される。
力覚情報が取得されると、図9に示すように、作成部53が第1力覚表示および第2力覚表示を作成する演算処理を行う(S104:作成ステップ)。本実施形態では作成部53が、図4に示すように、入力された力覚情報に基づいて第1力量表示41R、第1方向表示42R、および、第2力量表示46Rを作成する演算処理を行う。作成された第1力量表示41R、第1方向表示42R、および、第2力量表示46Rは、図3に示すように、作成部53から重畳部55に出力される。
本実施形態では、第1力量表示41Rが、第1術具領域27Rの少なくとも一部の領域であって力の大きさによって色が変わる領域表示と、力の大きさを示す数値であって、力の大きさに応じてサイズが変更される表示から構成されている場合を例に説明する。より具体的には、色が変わる領域が第1術具領域27Rと同じ形状の領域である場合を例に説明する。ここで数値のサイズとは、力の大きさを示す数値を表示する文字の大きさをいう。
また、第2力量表示46Rが、第2術具領域28Rの少なくとも一部の領域であって力の大きさによって色が変わる領域表示と、力の大きさを示す数値であって、力の大きさに応じてサイズが変更される表示から構成されている場合を例に説明する。より具体的には、色が変わる領域が第2術具領域28Rと同じ形状の領域である場合を例に説明する。
本実施形態では、力の大きさによって色を変える方法が、力が大きくなるに従い緑色から黄色に変化させ、更に黄色から赤色に変化させる方法である場合を例に説明する。なお、色を変える順序や、表示される色の選択は本実施形態の例に限定されない。
力の大きさに応じて数値のサイズを変更させる方法が、表示される数値に正比例してその数値のサイズを大きく表示する方法である場合を例に説明する。なお、サイズを変化させる方法は、本実施形態の例に限定されない。
第1力量表示41Rおよび第2力量表示46Rのそれぞれ第1術具領域27Rおよび第2術具領域28Rの少なくとも一部の領域であって力の大きさによって色が変わる領域表示は、力の大きさによって色の明暗が変わる領域表示であってもよい。例えば、力の大きさに応じて暗色から明色に変わる表示であってもよい。
また、第1力量表示41Rおよび第2力量表示46Rのそれぞれ第1術具領域27Rおよび第2術具領域28Rの少なくとも一部の領域であって力の大きさによって色が変わる領域表示は、力の大きさによって透過性が変わる領域表示であってもよい。例えば、力の大きさに応じて透明から半透明を経て不透明に変化する表示であってもよい。
本実施形態では、第1方向表示42Rが、力の方向を示す矢印の表示である場合を例に説明する。第1方向表示42Rは、矢印以外の方向を示す際に一般に用いられるその他の表示であってもよい。
例えば、図5に示すように、第1方向表示42R,42Lが、力の方向を示す三角形の表示であってもよい。当該三角形は、2つの等辺の長さが、1つの底辺よりも長い二等辺三角形である。2つの等辺に挟まれた頂角のある方向が力の方向を表す。
図6に示すように、第1方向表示42R,42Lが、力の方向を示す3つのL字形状の集合体、言い換えると小型のL字形状、中型のL字形状、および、大型のL字形状の集合体の表示であってもよい。なお、L字形状の数は1つであっても良いし、2つであっても良いし、4つ以上であってもよい。
当該集合体は、大きさの異なるL字形状が大きさの順に並んでいる。L字形状の角部が指し示す方向が力の方向を表す。また、L字形状が2以上の場合には、更に小さなL字形状から大きなL字形状に並ぶ方向によっても力の方向を表す。
3つのL字形状の集合体は表示状態が時間に経過に関わらず一定に保たれても良いし、時間の経過に伴い変化しても良い。具体的には、時間の経過に伴い、小型のL字形状のみの表示から、小型および中型のL字形状の表示を経て、小型、中型および大型のL字形状の表示と変化し、再び小型のL字形状のみの表示に戻ることを繰り返しても良い。
図7に示すように、第1方向表示42R,42Lが、力の方向を示す4つの円弧形状の集合体の表示であってもよい。なお、円弧形状の数は1つであっても良いし、2つまたは3つであっても良いし、5つ以上であってもよい。
当該集合体は、大きさの異なる円弧形状が大きさの順に並んでいる。円弧形状の中心角の二等分線が指し示す方向が力の方向を表す。また、円弧形状が2以上の場合には、更に小さな円弧形状から大きな円弧形状に並ぶ方向によっても力の方向を表す。
4つの円弧形状の集合体は表示状態が時間に経過に関わらず一定に保たれても良いし、L字形状の集合体と同様に時間の経過に伴い変化しても良い。具体的には、時間の経過に伴い、小型の円弧形状のみの表示から、形状が大きな円弧形状を順に加えた表示へと変化し、再び小型の円弧形状のみの表示に戻ることを繰り返しても良い。
図8に示すように、第1方向表示42R,42Lが、力の方向を示す3つの円形状の集合体の表示であってもよい。なお、円形状の数は2つであっても良いし、4つ以上であってもよい。当該集合体は、大きさの異なる円形状が大きさの順に並んでいる。小さな円形状から大きな円形状に並ぶ方向によっても力の方向を表す。
3つの円形状の集合体は表示状態が時間に経過に関わらず一定に保たれても良いし、L字形状の集合体と同様に時間の経過に伴い変化しても良い。具体的には、時間の経過に伴い、小型の円形状のみの表示から、形状が大きな円形状を順に加えた表示へと変化し、再び小型の円形状のみの表示に戻ることを繰り返しても良い。
第1術具領域27Rおよび第2術具領域28Rが検出され、第1力覚表示および第2力覚表示が作成されると、図9に示すように、重畳部55が表示情報を作成する演算処理を行う(S105:重畳ステップ)。本実施形態では、図4に示すように、重畳部55が、第1術具領域27Rに第1力量表示41Rおよび第1方向表示42Rを重畳して表示させる表示情報を作成する演算処理を行う。また重畳部55が、第2術具領域28Rに第2力量表示46Rを重畳して表示させる表示情報を作成する演算処理を行う。
第1力量表示41Rおよび第1方向表示42Rは、第1術具領域27Rの内部に収まるように表示されることが好ましい。第2力量表示46Rは、第2術具領域28Rの内部に収まるように表示されることが好ましい。
第1力量表示41Rおよび第1方向表示42Rは、一部が第1術具領域27Rから飛び出して表示されてもよい。第2力量表示46Rは、一部が第2術具領域28Rから飛び出して表示されてもよい。
表示情報が作成されると、図9に示すように、出力部56が表示情報をエンドスコープモニタ12に出力する処理を行う(S106)。エンドスコープモニタ12は、入力された表示情報に基づいて図4に示すような画像を表示する。
表示情報が出力されると、図9に示すように、力覚表示装置50は力覚の表示を終了する入力の有無を判定する処理を行う(S107)。力覚の表示を終了する入力が無い場合(NOの場合)には、力覚表示装置50はS101に戻り上述の処理を繰り返し行う。力覚の表示を終了する入力がある場合(YESの場合)には、力覚表示装置50は力覚を表示する処理を終了する。
上記の力覚表示装置50によれば、第1力量表示41R、及び第1方向表示42Rが第1術具領域27Rに重畳して表示され、第2力量表示46Rが、第2術具領域28Rに重畳して表示される。第1力量表示41L、及び第1方向表示42Lが第1術具領域27Lに重畳して表示され、第2力量表示46Lが、第2術具領域28Lに重畳して表示される。
そのため、インスツルメント21R,21Lが患部に与える力の大きさ、および、力の方向が把握されやすい。言い換えると、インスツルメント21R,21Lが患部の組織に与えるダメージを把握しやすい。その結果、組織に与えるダメージの軽減を図りやすい。
また、第1力量表示41R、第1方向表示42Rおよび第2力量表示46Rが第1術具領域27Rおよび第2術具領域28Rに重畳して表示される。第1力量表示41L、第1方向表示42Lおよび第2力量表示46Lが第1術具領域27Lおよび第2術具領域28Lに重畳して表示される。そのため、エンドスコープモニタ12に表示される患部が第1力覚表示および第2力覚表示に隠されにくくなる。インスツルメント21R,21Lおよび患部が意図しない接触を起こしにくく、組織が接触によるダメージを受けにくくなる。
第1力量表示41Rおよび第1方向表示42Rが、第1術具領域27Rに重畳して表示され、第1力量表示41Lおよび第1方向表示42Lが、第1術具領域27Lに重畳して表示される。そのため、シャフト部22R,22Lが患部に与える力の大きさ、および、力の方向を把握しやすくなる。
第2力量表示46Rが第2術具領域28Rに重畳して表示され、第2力量表示46Lが第2術具領域28Lに重畳して表示される。そのため、エンドエフェクタ部23R,23Lが患部に与える力の大きさを把握しやすくなる。
力の大きさである第1力量表示41Rおよび第2力量表示46Rを色の種類を用いて表現することにより、直感的に力の大きさを把握しやすくなる。
力の大きさである第1力量表示41Rおよび第2力量表示46Rを数値で表現することにより、力の大きさを正確に表現することができる。
力の大きさである第1力量表示41Rおよび第2力量表示46Rを数値のサイズを用いて表現することにより、単に数値を用いて力の大きさを表す場合と比較して、力の大きさを正確に表現できるとともに、力の大きさを直感的に把握しやすくなる。
上述の実施形態では、力覚表示装置50が第1力量表示41R,41Lおよび第1方向表示42R,42Lを含む第1力覚表示と、第2力量表示46R,46Lを含む第2力覚表示を重畳してエンドスコープモニタ12に表示する構成を例に説明したが、第1力覚表示および第2力覚表示の一方のみを重畳してエンドスコープモニタ12に表示してもよい。
また、第2力覚表示には、第2力量表示46R,46Lの他に、第2力の方向を表す第2方向表示が含まれてもよい。この場合エンドスコープモニタ12には、第2力量表示46R,46Lおよび第2方向表示を含む第2力覚表示が重畳されて表示される。
上記実施形態では、力覚表示装置50が医用ロボット1を用いた手術に用いられる例に適用して説明したが、力覚表示装置50は、図10に示すように腹腔鏡手術に適用されてもよい。
腹腔鏡手術に適用される場合、術具である2つのインスツルメント121R,121Lは、スレーブ20により操作されるインスツルメント21R,21Lとは異なり、執刀医により直接操作される構成を有する。
また、インスツルメント121Rには、シャフト部22Rと、エンドエフェクタ部23Rと、シャフトセンサ61Rと、エンドエフェクタセンサ62Rと、が少なくとも設けられる。また、インスツルメント121Lには、シャフト部22Lと、エンドエフェクタ部23Lと、シャフトセンサ61Lと、エンドエフェクタセンサ62Lと、が少なくとも設けられる。
〔第1の実施形態の変形例〕
次に、本開示の第1の実施形態の変形例に係る力覚表示装置50Aについて図11を参照しながら説明する。
本変形例の力覚表示装置50Aの基本構成は、第1の実施形態とは術具領域を検出する処理が異なっている。よって、本実施形態においては、図11を用いて術具領域を検出する処理について説明し、その他の説明を省略する。
本変形例の力覚表示装置50Aは、図11に示すように、CPU(中央演算処理ユニット)、ROM、RAM、入出力インタフェース等を有するプロセッサや、マイクロコンピュータや、パーソナルコンピュータや、サーバ等の情報処理機器である。
上述のROM等の記憶装置に記憶されているプログラムは、CPU、ROM、RAM、入出力インタフェースを協働させて、少なくとも画像取得部51、力覚取得部52、作成部53、検出部54A、重畳部55、出力部56、および、記憶部57Aとして機能させる。
記憶部57Aは、インスツルメント121R,121Lの色彩および模様の少なくとも一方を記憶する。本実施形態では、記憶部57Aが、シャフト部22Rや、エンドエフェクタ部23Rや、シャフト部22Lや、エンドエフェクタ部23Lに付された色彩を記憶する構成を例に説明する。なお、記憶部57Aは、インスツルメント121R,121Lの色彩と模様の組合せを記憶してもよいし、模様を記憶してもよい。
インスツルメント121R,121Lの色彩は、患部の色に対する補色であることが好ましい。例えば、血液の色に対する補色、例えば緑色であることが好ましい。血液の色には、動脈血の色や静脈血の色が含まれる。
インスツルメント121R,121Lの模様は、患部との対比が容易な幾何学模様であることが好ましい。例えば、直線的な幾何学模様や、同じ形状が繰り返し現れる模様などが好ましい。
検出部54Aは、取得した撮像情報および記憶されたインスツルメント121R,121Lの色彩の情報に基づいて術具領域を検出する演算部である。色彩の情報に基づいて術具領域を検出する画像解析の処理としては、色彩の情報に基づいて所定の領域を検出する際に一般に用いられる処理方法を用いることができる。
インスツルメント121Rの色彩と、インスツルメント121Lの色彩とが異なると、インスツルメント121Rの術具領域と、インスツルメント121Lの術具領域とを異なる領域として検出しやすい。
さらに、シャフト部22Rの色彩と、エンドエフェクタ部23Rの色彩とが異なると、第1術具領域27Rと、第2術具領域28Rとを異なる領域として検出しやすい。同様にシャフト部22Lの色彩と、エンドエフェクタ部23Lの色彩が異なると、第1術具領域27Lと、第2術具領域28Lとを異なる領域として検出しやすい。
次に、上記の構成を有する力覚表示装置50Aにおける力覚を表示する方法については、術具領域を検出する画像解析処理が異なる以外は、第1の実施形態における力覚を表示する方法と同様であるため、その説明を省略する。
上記の力覚表示装置50Aによれば、インスツルメント121R,121Lの色彩に基づいて第1術具領域27Rと、第2術具領域28Rと、第1術具領域27Lと、第2術具領域28Lとを検出することにより、第1術具領域27Rと、第2術具領域28Rと、第1術具領域27Lと、第2術具領域28Lとの検出が容易になる。また、第1術具領域27Rと、第2術具領域28Rと、第1術具領域27Lと、第2術具領域28Lとの検出精度を高めやすい。
なお、本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲において種々の変更を加えることが可能である。

Claims (7)

  1. 力覚表示装置であって、
    患部を撮像する撮像部から出力された前記患部の画像に関する情報である撮像情報を取得する画像取得部と、
    前記患部を処置する少なくとも1つの術具に働く力の大きさ及び力の方向の情報を含む力覚情報を取得する力覚取得部と、
    表示部に表示される表示態様であって、前記力の大きさを表す力量表示、および、前記力の方向を表す方向表示を含む力覚表示を前記力覚情報に基づいて作成する作成部と、
    前記撮像情報に基づいて、前記表示部に表示される前記撮像部が撮像した画像における前記術具が表示される術具領域を検出する検出部と、
    前記術具領域に前記力覚表示を重畳して前記表示部に表示させる表示情報を作成する重畳部と、
    が設けられ
    前記力覚情報には、前記術具における棒状に延びるシャフト部に働く第1力の大きさ、および、第1力の方向の情報が含まれるとともに、前記シャフト部の端部に設けられ前記患部の処置に用いられるエンドエフェクタ部に加わる第2力の大きさ、および、第2力の方向の情報が含まれ、
    前記作成部は、前記第1力の大きさを表す第1力量表示、および、前記第1力の方向を表す第1方向表示を含む第1力覚表示を作成するとともに、前記第2力の大きさを表す第2力量表示、および、前記第2力の方向を表す第2方向表示を含む第2力覚表示を作成し、
    前記検出部は、前記表示部に表示される前記撮像部が撮像した画像における前記シャフト部が表示される領域を第1術具領域として検出するとともに、前記表示部に表示される前記撮像部が撮像した画像における前記エンドエフェクタ部が表示される領域を第2術具領域として検出し、
    前記重畳部は、前記第1術具領域に前記第1力覚表示を重畳して前記表示部に表示させる情報であるとともに、前記第2術具領域に前記第2力覚表示を重畳して前記表示部に表示させる情報である前記表示情報を作成する、
    力覚表示装置。
  2. 前記作成部は、色の種類、色の明暗、および、透過性の少なくとも1つを用いて前記力の大きさを表現する前記力量表示を含む前記力覚表示を作成する請求項1記載の力覚表示装置。
  3. 前記作成部は、数値を用いて前記力の大きさを表現する前記力量表示を含む前記力覚表示を作成する請求項1または2に記載の力覚表示装置。
  4. 前記作成部は、表示される前記数値のサイズを用いて前記力の大きさを表現する前記力量表示を含む前記力覚表示を作成する請求項3記載の力覚表示装置。
  5. 前記術具の色彩および模様の少なくとも一方を記憶する記憶部が更に設けられ、
    前記検出部は、前記記憶部に記憶された前記術具の色彩および模様の少なくとも一方に基づいて、前記表示部に表示される画像における前記術具領域を検出する請求項1から4のいずれか1項に記載の力覚表示装置。
  6. 画像取得部と、力覚取得部と、作成部と、検出部と、重畳部とを有する力覚表示装置の表示方法であって、
    前記画像取得部が患部を撮像する撮像部から出力された前記患部の画像に関する情報である撮像情報を取得する画像取得ステップと、
    前記力覚取得部が前記患部を処置する少なくとも1つの術具に働く力の大きさ及び力の方向の情報を含む力覚情報を取得する力覚取得ステップと、
    前記作成部が、表示部に表示される表示態様であって、前記力の大きさを表す力量表示、および、前記力の方向を表す方向表示を含む力覚表示を前記力覚情報に基づいて作成する作成ステップと、
    前記検出部が、前記撮像情報に基づいて、前記表示部に表示される前記撮像部が撮像した画像における前記術具が表示される術具領域を検出する検出ステップと、
    前記重畳部が、前記術具領域に前記力覚表示を重畳して前記表示部に表示させる表示情報を作成する重畳ステップと、
    を有し、
    前記力覚情報には、前記術具における棒状に延びるシャフト部に働く第1力の大きさ、および、第1力の方向の情報が含まれるとともに、前記シャフト部の端部に設けられ前記患部の処置に用いられるエンドエフェクタ部に加わる第2力の大きさ、および、第2力の方向の情報が含まれ、
    前記作成ステップにおいて、前記作成部が、前記第1力の大きさを表す第1力量表示、および前記第1力の方向を表す第1方向表示を含む第1力覚表示を作成するとともに、前記第2力の大きさを表す第2力量表示、および、前記第2力の方向を表す第2方向表示を含む第2力覚表示を作成し、
    前記検出ステップにおいて、前記検出部が、前記表示部に表示される前記撮像部が撮像した画像における前記シャフト部が表示される領域を第1術具領域として検出するとともに、前記表示部に表示される前記撮像部が撮像した画像における前記エンドエフェクタ部が表示される領域を第2術具領域として検出し
    前記重畳ステップにおいて、前記重畳部が、前記第1術具領域に前記第1力覚表示を重畳して前記表示部に表示させる情報であるとともに、前記第2術具領域に前記第2力覚表示を重畳して前記表示部に表示させる情報である前記表示情報を作成する、
    力覚表示方法。
  7. コンピュータに、
    患部を撮像する撮像部から出力された前記患部の画像に関する情報である撮像情報を取得する画像取得機能と、
    前記患部を処置する少なくとも1つの術具に働く力の大きさ及び力の方向の情報を含む力覚情報を取得する力覚取得機能と、
    表示部に表示される表示態様であって、前記力の大きさを表す力量表示、および、前記力の方向を表す方向表示を含む力覚表示を前記力覚情報に基づいて作成する作成機能と、
    前記撮像情報に基づいて、前記表示部に表示される前記撮像部が撮像した画像における前記術具が表示される術具領域を検出する検出機能と、
    前記術具領域に前記力覚表示を重畳して前記表示部に表示させる表示情報を作成する重畳機能と、
    を実現させるためのプログラムであって、
    前記力覚情報は、前記術具における棒状に延びるシャフト部に働く第1力の大きさ、および、第1力の方向の情報を含むとともに、前記シャフト部の端部に設けられ前記患部の処置に用いられるエンドエフェクタ部に加わる第2力の大きさ、および、第2力の方向の情報を含むものであり
    前記作成機能は、前記第1力の大きさを表す第1力量表示、および前記第1力の方向を表す第1方向表示を含む第1力覚表示を作成するとともに、前記第2力の大きさを表す第2力量表示、および、前記第2力の方向を表す第2方向表示を含む第2力覚表示を作成するものであり、
    前記検出機能は、前記表示部に表示される前記撮像部が撮像した画像における前記シャフト部が表示される領域を第1術具領域として検出するとともに、前記表示部に表示される前記撮像部が撮像した画像における前記エンドエフェクタ部が表示される領域を第2術具領域として検出するものであり、
    前記重畳機能は、前記第1術具領域に前記第1力覚表示を重畳して前記表示部に表示させる情報であるとともに、前記第2術具領域に前記第2力覚表示を重畳して前記表示部に表示させる情報である前記表示情報を作成するものである、
    プログラム。
JP2022535714A 2021-05-18 2021-05-18 力覚表示装置、力覚表示方法およびプログラム Active JP7217065B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/018815 WO2022244105A1 (ja) 2021-05-18 2021-05-18 力覚表示装置、力覚表示方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2022244105A1 JPWO2022244105A1 (ja) 2022-11-24
JP7217065B1 true JP7217065B1 (ja) 2023-02-02

Family

ID=84141420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022535714A Active JP7217065B1 (ja) 2021-05-18 2021-05-18 力覚表示装置、力覚表示方法およびプログラム

Country Status (5)

Country Link
US (1) US20240081918A1 (ja)
EP (1) EP4342409A1 (ja)
JP (1) JP7217065B1 (ja)
CN (1) CN117320653A (ja)
WO (1) WO2022244105A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3337419B1 (en) * 2015-08-19 2020-08-12 Brainlab AG Reference array holder

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261787A (ja) * 1991-02-18 1992-09-17 Mitsubishi Heavy Ind Ltd マニュピレータ
JP2001104333A (ja) * 1999-10-07 2001-04-17 Hitachi Ltd 手術支援装置
JP2009201682A (ja) * 2008-02-27 2009-09-10 Hitachi Ltd 回転状態検出方法および装置
JP2017006337A (ja) * 2015-06-19 2017-01-12 ソニー株式会社 医療支援装置および方法、並びに、医療支援システム
JP2020146374A (ja) * 2019-03-15 2020-09-17 リバーフィールド株式会社 力覚表示装置および力覚表示方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261787A (ja) * 1991-02-18 1992-09-17 Mitsubishi Heavy Ind Ltd マニュピレータ
JP2001104333A (ja) * 1999-10-07 2001-04-17 Hitachi Ltd 手術支援装置
JP2009201682A (ja) * 2008-02-27 2009-09-10 Hitachi Ltd 回転状態検出方法および装置
JP2017006337A (ja) * 2015-06-19 2017-01-12 ソニー株式会社 医療支援装置および方法、並びに、医療支援システム
JP2020146374A (ja) * 2019-03-15 2020-09-17 リバーフィールド株式会社 力覚表示装置および力覚表示方法

Also Published As

Publication number Publication date
JPWO2022244105A1 (ja) 2022-11-24
US20240081918A1 (en) 2024-03-14
WO2022244105A1 (ja) 2022-11-24
EP4342409A1 (en) 2024-03-27
CN117320653A (zh) 2023-12-29

Similar Documents

Publication Publication Date Title
US11399898B2 (en) User interface for a system used to determine tissue or artifact characteristics
JP6457806B2 (ja) 組織属性を光学的に検出するための器具
US20210275257A1 (en) Uterine manipulator including position sensor
KR102171873B1 (ko) 햅틱 글로브 및 수술로봇 시스템
JP2008188109A (ja) 内視鏡手術装置
JP2009100873A (ja) 医療装置
JP2019507621A (ja) 手術システムの電気的結合のためのシステム及び方法並びにそのパーツ
US20240081918A1 (en) Force sense display device, force sense display method, and computer readable medium
CN113543934A (zh) 力觉显示装置以及力觉显示方法
KR100997194B1 (ko) 간접적으로 수술감을 제공하는 원격 수술 로봇 시스템 및 그 제어 방법
US20230096691A1 (en) Methods and Systems for Controlling Cooperative Surgical Instruments
US20230095730A1 (en) Methods and Systems for Controlling Cooperative Surgical Instruments
KR101721749B1 (ko) 압력센서를 구비한 복강경 수술기구 및 이를 사용하는 환부 위치 감지 방법
US11723642B2 (en) Cooperative access hybrid procedures
EP4221629B1 (en) Surgical devices and systems using multi-source imaging
KR101171025B1 (ko) 자연개구부 내시경수술을 위한 장치 및 방법
WO2023220673A1 (en) A visual interface for a system used to determine tissue characteristics
US20230116781A1 (en) Surgical devices, systems, and methods using multi-source imaging
Ruiter et al. Robotic Control of a Traditional Flexible Endoscope
JP2021151431A (ja) 医療用画像処理装置、トロッカー、医療用観察システム、画像処理方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220610

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230116

R150 Certificate of patent or registration of utility model

Ref document number: 7217065

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150