WO2016203858A1 - 医療システム - Google Patents

医療システム Download PDF

Info

Publication number
WO2016203858A1
WO2016203858A1 PCT/JP2016/063460 JP2016063460W WO2016203858A1 WO 2016203858 A1 WO2016203858 A1 WO 2016203858A1 JP 2016063460 W JP2016063460 W JP 2016063460W WO 2016203858 A1 WO2016203858 A1 WO 2016203858A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
manipulator
robot arm
imaging unit
imaging
Prior art date
Application number
PCT/JP2016/063460
Other languages
English (en)
French (fr)
Inventor
昌夫 二梃木
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to CN201680035162.6A priority Critical patent/CN107708598A/zh
Priority to JP2017524714A priority patent/JP6289755B2/ja
Priority to EP16811333.0A priority patent/EP3311768A4/en
Publication of WO2016203858A1 publication Critical patent/WO2016203858A1/ja
Priority to US15/838,967 priority patent/US20180098817A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • B25J3/04Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/305Details of wrist mechanisms at distal ends of robotic arms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means

Definitions

  • the present invention relates to a medical system.
  • the movable range of the two manipulators is limited to the visual field range of the endoscope, and since the visual field range of the endoscope is narrow, only treatment within a narrow range can be performed. There is an inconvenience.
  • the visual field range of the endoscope and the movable range of the manipulator can be moved.
  • surgical operations such as the initial stage of surgery (securing the surgical field) can be performed.
  • the present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a medical system that can cope with both a local treatment and a large surgical deployment and can shorten the operation time. .
  • One aspect of the present invention includes a first manipulator including a first treatment unit at a distal end and a first imaging unit having a local visual field range including a movable range of the first treatment unit by the first manipulator.
  • a switching unit that switches a video displayed on the display unit, an operation unit that inputs operation commands for the first manipulator and the first robot arm, and the operation command input by the operation unit.
  • a control unit that controls the first robot arm, and the control unit inputs to the operation unit when the switching unit switches to the image from the second imaging unit.
  • the first robot arm and the first manipulator are controlled according to the operated command, and when the image is switched from the first imaging unit by the switching unit, the first command is input according to the operation command input to the operating unit.
  • a medical system for controlling one manipulator is provided.
  • the control unit when the image displayed on the display unit is switched to the image of the local visual field range acquired by the first imaging unit by the operation of the switching unit, the control unit is locally activated by an operation command from the operation unit. The first manipulator operating within the field of view is controlled.
  • the control unit when the image displayed on the display unit is switched to the image of the global visual field range acquired by the second imaging unit by the operation of the switching unit, the control unit is operated within the global visual field range by an operation command from the operation unit. The operating first robot arm is controlled.
  • the operator switches the visual field range to the global visual field range by the second imaging unit in the scene of the large surgical deployment, and changes the state of the periphery of the first robot arm by the wider visual field range.
  • the treatment unit can be greatly moved by the operation of the first robot arm and the first manipulator.
  • the switching section can switch the visual field range to the local visual field range by the first imaging unit and perform precise treatment.
  • the distal end includes the second treatment unit, the second robot arm having the movable range of the second treatment unit within the global visual field range, and the control unit is configured to perform the second operation by the switching unit.
  • the control unit is configured to perform the second operation by the switching unit.
  • the operator switches the visual field range to the global visual field range by the second imaging unit by the switching unit in the scene of the large surgical deployment, and the first robot arm and the While confirming the state of the periphery of the second robot arm on the display unit, a large movement of the first treatment unit by the operation of the first robot arm and the first manipulator, and a large movement of the second treatment unit by the operation of the second robot arm It can be carried out.
  • the distal end of the first robot arm includes a third treatment unit, the second manipulator having a movable range of the third treatment unit within the local visual field range, and the control unit includes: When the video is switched from the first imaging unit by the switching unit, the first manipulator and the second manipulator may be controlled by an operation command input to the operation unit.
  • the operator switches the visual field range to the local visual field range by the first imaging unit by the switching unit in the scene of performing the treatment of the affected part, and from the first imaging unit displayed on the display unit. While confirming the image, the first treatment section of the first manipulator and the third treatment section of the second manipulator can be operated to perform a precise treatment with two arms.
  • the operation unit includes a first operation input unit operated by one hand of the operator and a second operation input unit operated by the other hand of the operator, and the control unit
  • the first robot arm and the first manipulator are controlled by the operation command input by the first operation input unit
  • the second The second robot arm may be controlled by an operation command input from the operation input unit.
  • the operator can operate the first robot arm, the first manipulator, and the second robot arm corresponding to each with both hands, and the image of the global visual field range is displayed on the display unit Even underneath, a global treatment with two arms can be performed.
  • control unit when the control unit is switched to the video from the first imaging unit by the switching unit, the control unit controls the first manipulator according to an operation command input by the first operation input unit,
  • the second manipulator may be controlled by an operation command input from the second operation input unit.
  • the operator can operate the first manipulator and the second manipulator corresponding to each with both hands, and in a situation where the image of the local visual field range is displayed on the display unit, A precise treatment can be performed.
  • the coordinate system of the operation unit and the coordinate system fixed to the second imaging unit may be matched.
  • the operator can perform an intuitive operation when operating the operation unit while viewing the video from the second imaging unit operated on the display unit. That is, when an operation command for instructing movement in one direction is input by the operation unit, the first robot arm, the second robot arm, the first manipulator, or the second manipulator displayed on the display unit is connected to the operation unit in the display unit. It can be moved in the same direction.
  • the coordinate system of the operation unit and the coordinate system fixed to the first imaging unit are matched. You may let them.
  • an intuitive operation can be performed when operating the operation unit while viewing the video from the first imaging unit operated on the display unit. That is, when an operation command instructing movement in one direction is input by the operation unit, the first manipulator or the second manipulator displayed on the display unit can be moved in the same direction as the operation unit in the display unit.
  • FIG. 1 is an overall configuration diagram showing a medical system according to an embodiment of the present invention. It is a figure which shows the operation part and monitor display example in the bird's-eye view mode in the medical system of FIG. It is a figure which shows the operation part and monitor example in local mode in the medical system of FIG. It is a whole block diagram which shows the 1st modification of the medical system of FIG. It is a figure which shows the operation part and monitor display example in the bird's-eye view mode in the medical system of FIG. It is a figure which shows the operation part and monitor example in local mode in the medical system of FIG. It is a whole block diagram which shows the 2nd modification of the medical system of FIG. It is a whole block diagram which shows the 3rd modification of the medical system of FIG.
  • the medical system 1 includes three robots 3, 4, and 5 installed in the vicinity of a bed 2 that lies on a patient, an operation unit 6 that is operated by an operator, And a control unit 7 for controlling the three robots 3, 4, and 5 based on an operation command input by operating the operation unit 6.
  • the first robot 3 is a six-axis articulated first robot arm with a treatment unit 8 attached to the tip.
  • the second robot 4 is a 6-axis multi-joint second robot arm with a second treatment section 9 attached to the tip.
  • the third robot 5 is a 6-axis multi-joint third robot arm having an endoscope 10 as a second imaging unit attached to the tip.
  • the treatment unit 8 includes, for example, an insertion portion 11 that penetrates the body surface tissue and is inserted into the body, and one or more joints that protrude forward from the distal end of the insertion portion 11.
  • a first manipulator 12 and a second manipulator 13, and a first imaging unit 14 projecting forward from the distal end of the insertion unit 11 are provided.
  • the first manipulator 12 includes a first treatment section 15 at the tip.
  • the second manipulator 13 includes a third treatment section 16 at the tip.
  • the insertion portion 11 is provided with a bending portion 17 at its distal end, and the postures of the first manipulator 12, the second manipulator 13, and the first imaging portion 14 can be changed also by the operation of the bending portion 17. Yes.
  • the first imaging unit 14 has a local visual field range including the movable range of the first manipulator 12 and the second manipulator 13. That is, the first manipulator 12 and the second manipulator 13 arranged at the distal end of the insertion portion 11 of the treatment unit 8 are always reflected in the image of the narrow local visual field range imaged by the first imaging unit 14. A precise treatment can be performed on an affected part photographed at a large magnification.
  • the endoscope 10 has a broader visual field range than the first imaging unit 14. Accordingly, the movable range of the first treatment unit 15 and the third treatment unit 16 supported by the first manipulator 12 and the second manipulator 13 by the first robot arm 3 and the tip of the second robot arm 4 are supported. Observation is possible over a relatively wide range including the movable range of the second treatment section 9.
  • the third robot 5 does not operate after the global visual field range of the endoscope 10 is determined by the initial setting.
  • the operation unit 6 includes a first operation input unit 18 operated by the operator's right hand and a second operation input unit 19 operated by the operator's left hand.
  • Each of the operation input units 18 and 19 has a multi-joint structure, and can arbitrarily designate the positions and postures of the treatment units 9, 15, and 16 disposed at the distal end in a three-dimensional manner. Yes.
  • the operation unit 6 includes a monitor (display unit) 20 that displays an image acquired by the first imaging unit 14 or the endoscope 10.
  • the operation unit 6 includes a clutch 21 that switches between interlocking and disconnection of each robot arm 3, 4, 5 and the first and second operation input units 18, 19, and an image displayed on the monitor 20.
  • a change-over switch (switching unit) 22 for switching between the video from the endoscope 10 and the video from the endoscope 10.
  • control unit 7 When the control unit 7 is switched to display the video acquired by the first imaging unit 14 on the monitor 20 by the operation of the changeover switch 22, the control unit 7 performs image processing on the video acquired by the first imaging unit 14.
  • the coordinate system fixed to the first imaging unit 14 and the coordinate system of the operation unit 6 are controlled to coincide with each other (local mode).
  • control unit 7 uses the first manipulator 12 and the second manipulator 13 reflected in the image of the local visual field range acquired by the first imaging unit 14 as an operation command input in the operation unit 6. It is designed to operate accordingly.
  • the control unit 7 converts the motion vector in the coordinate system of the operation unit 6 into a motion vector in the coordinate system that can realize proper hand-eye coordination for the first imaging unit 14 using, for example, a predetermined simultaneous conversion matrix.
  • the coordinates are converted.
  • the control unit 7 moves the first manipulator 12 in the video displayed on the monitor 20 based on the operation command input by the first operation input unit 18 of the operation unit 6 in the same direction as the first operation input unit 18. It is designed to be controlled to operate.
  • the control unit 7 moves the second manipulator 13 in the image displayed on the monitor 20 based on the operation command input by the second operation input unit 19 of the operation unit 6 in the same direction as the second operation input unit 19. It is designed to be controlled to operate.
  • control unit 7 When the control unit 7 is switched to display the video acquired by the endoscope 10 on the monitor 20 by the operation of the changeover switch 22, the control unit 7 performs image processing on the video acquired by the endoscope 10 and monitors the video.
  • the coordinate system fixed to the endoscope 10 and the coordinate system of the operation unit 6 are controlled to coincide with each other (overhead mode).
  • the control unit 7 uses the first manipulator 12 and the second treatment unit 9 that are reflected in the video of the general visual field range acquired by the endoscope 10 as an operation command input in the operation unit 6. It is designed to operate accordingly. That is, the control unit 7 converts the motion vector in the coordinate system of the operation unit 6 into, for example, a motion vector in the coordinate system capable of realizing proper hand-eye coordination with respect to the endoscope 10, thereby Based on the operation command input by the first operation input unit 18, the first robot arm 3, the bending portion of the operation unit 6, and the first manipulator (set 6 joint degrees of freedom that are redundant in total) 12 are operated. Thus, the second robot arm 4 is controlled to operate based on the operation command input by the second operation input unit 19.
  • a trocar is installed in three holes penetratingly formed in the abdominal wall, and each treatment unit is penetrated through 8. Ends of the endoscope 10 and the second treatment section 9 are placed in the abdominal cavity. The operations of the three robot arms 3, 4, and 5 are restricted so as to operate with the position of the trocar as a fulcrum.
  • the endoscope 10 inserted into the abdominal cavity is placed in an appropriate position with the clutch 21 disengaged.
  • the third robot arm 5 is brought into a stopped state.
  • the first robot arm 3, the second robot arm 4, and the bending portion 17 of the insertion portion 11 are actuated so that the first manipulator 12, the second manipulator 13, the first imaging unit 14, and the second treatment unit 9 are endoscopes. Place within 10 fields of view.
  • the overhead switch mode is selected by the changeover switch 22, and the video displayed on the monitor 20 is switched to the video of the global visual field range acquired by the endoscope 10.
  • the control unit 7 causes the first robot arm 3, the insertion unit 11, and the first manipulator 12 to interlock with the first treatment unit 15 by the operation input generated thereby. Move.
  • the second treatment section 9 supported by another second robot arm 4 can be operated by a second operation input section 19 that operates with the left hand.
  • the control unit 7 moves the second treatment unit 9 by operating the second robot arm 4 by the operation input generated thereby.
  • the operation target by the first operation input unit 18 is fixed to the first manipulator 12 and the treatment unit 15, but when the mode is switched by the changeover switch 22, the second operation input unit The operation target by 19 is switched to the second treatment section 9 or the second manipulator 13 and the treatment section 16.
  • the global visual field range acquired by the endoscope 10 is a wide visual field range including the movable range of the distal ends of the second treatment unit 9 and the treatment unit 8, the periphery of the distal ends of the second treatment unit 9 and the treatment unit 8
  • the tissue X and the like arranged in the can also be displayed on the monitor 20 at the same time. Therefore, the operator can obtain sufficient information for avoiding interference between the second treatment unit 9 and the treatment unit 8 and surrounding tissues, and can easily perform a large surgical deployment, There is an advantage that operations such as securing can be performed quickly.
  • the operator selects the local mode with the changeover switch 22 and converts the image displayed on the monitor 20 to the image from the first imaging unit 14. Switch. Thereby, the control part 7 is switched to the control mode which operates the 1st manipulator 12 and the 2nd manipulator 13 according to the operation command to the operation part 6, and the 2nd robot arm 4 is locked on the spot.
  • the operator disconnects the clutch 21 and moves the first operation input unit 18 of the right hand so as to match the shape of the first manipulator 12 displayed on the monitor 20 as shown in FIG.
  • the second operation input unit 19 is moved to match the shape of the second manipulator 13 displayed on the monitor 20.
  • the control unit 7 operates the first manipulator 12 based on the operation command input by the first operation input unit 18 and is input by the second operation input unit 19.
  • the second manipulator 13 is controlled to operate.
  • the first robot arm 3 and the bending portion 17 of the insertion portion 11 are locked so as not to operate.
  • control unit 7 acquires a coordinate system fixed to the first imaging unit 14 and performs control by making it coincide with the coordinate system of the operation unit 6.
  • the first manipulator 12 and the second manipulator 13 are moved by an operation amount proportional to the operation amount in a direction coinciding with the operation direction of the first operation input unit 18 and the second operation input unit 19. Can be done intuitively.
  • the angle of view of the image of the first imaging unit 14 is fixed by the operation of the first robot arm 3 and the bending unit 17 being locked, only the two-armed manipulators 12 and 13 are movable. . That is, the hand eye coordination is completed, and the operations of the first treatment unit 15 and the third treatment unit 16 can be performed in a concentrated manner.
  • the first robot arm 3 that supports the treatment unit 8 including the insertion unit 11, the two manipulators 12 and 13, and the first imaging unit 14, the second treatment unit 9, and the second treatment unit 9 are provided.
  • the case where it has the 2nd robot arm 4 to support was illustrated, instead of this, as shown in Drawing 4-Drawing 6, treatment provided with insertion part 11, single manipulator 12, and the 1st image pick-up part 14 You may apply when it has only the 1st robot arm 3 which supports the unit 23.
  • the operation input unit 24 of the operation unit 6 may be single. That is, in this case, when switching to the global visual field range by the endoscope 10, the first robot arm 3 is operated by the operation input unit 24 and switched to the local visual field range by the first imaging unit 14, The manipulator 12 may be operated by the operation input unit 24.
  • a medical system 25 similar to that in FIG. 1 that does not include only the second manipulator 13 may be employed.
  • the overhead mode may be treatment with two arms of the first robot arm 3 and the second robot arm 4, and the local mode may be performed with one arm of only one manipulator 12.
  • a medical system 26 similar to that in FIG. 1 that does not have only the second robot arm 4 may be adopted.
  • the overhead view mode may be performed with one arm of only the first robot arm 3, and the local mode may be performed with the two arms of the first manipulator 12 and the second manipulator 13.
  • the first manipulator 12 and the second manipulator 13 are not operated, and only the bending portion 17 and the joint of the first robot arm 3 are operated. Thereby, the hand eye coordination can be finely adjusted without switching the image and the coordinate system.
  • Second treatment unit 10 Endoscope (second imaging unit) DESCRIPTION OF SYMBOLS 12 1st manipulator 13 2nd manipulator 14 1st imaging part 15 1st treatment part 16 3rd treatment part 18 1st operation input part 19 2nd operation input part 20 Monitor (display part) 21 Clutch 22 changeover switch (switching part)

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Mechanical Engineering (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Manipulator (AREA)
  • Endoscopes (AREA)

Abstract

局所的な処置および外科的な大展開の両方に対応でき、手術時間を短縮する。第1処置部(15)を備える第1マニピュレータ(12)と、第1処置部(15)の可動範囲を含む視野範囲を有する第1撮像部(14)とを備える第1ロボットアーム(3)と、その視野範囲より広い視野範囲を有する第2撮像部(10)と、第1または第2撮像部(10,14)からの映像を表示する表示部(20)と、映像を切り替える切替部(22)と、第1マニピュレータ(12)および第1ロボットアーム(3)の操作指令を入力する操作部(6)と、操作指令に基づき第1マニピュレータ(12)および第1ロボットアーム(3)を制御する制御部(7)とを備え、制御部(7)が、第2撮像部(10)からの映像に切り替えられた場合、操作指令により第1ロボットアーム(3)および第1マニピュレータ(12)を制御し、第1撮像部(14)からの映像に切り替えられた場合、操作指令により第1マニピュレータ(12)を制御する医療システム(1)を提供する。

Description

医療システム
 本発明は、医療システムに関するものである。
 従来、複数のマニピュレータによって患者の外科的手術を行うために誘導チューブによって単一の入口ポートから体内に導入された2つのマニピュレータおよび内視鏡によって、局所的な視野により患部を撮影しながら2つのマニピュレータにより処置を行う外科手術用システムが知られている(例えば、特許文献1参照。)。
特表2009-539573号公報
 しかしながら、特許文献1の外科手術用システムでは、2つのマニピュレータの可動範囲は内視鏡の視野範囲内に制限され、内視鏡の視野範囲は狭いので、狭い範囲での処置しか行うことができないという不都合がある。入口ポートを支点として誘導チューブの先端を移動させることで、内視鏡の視野範囲およびマニピュレータの可動範囲自体を移動させることはできるが、手術の初期段階(術野の確保)等、外科的な大展開を行う場面では、見えてない方向にマニピュレータを移動させるには周辺情報が不足し、周辺組織との干渉を回避しながら慎重にゆっくり動作させなければならず時間がかかるという問題がある。
 本発明は上述した事情に鑑みてなされたものであって、局所的な処置および外科的な大展開の両方に対応でき、手術時間を短縮することができる医療システムを提供することを目的としている。
 上記目的を達成するために、本発明は以下の手段を提供する。
 本発明の一態様は、先端に第1処置部を備える第1マニピュレータと、該第1マニピュレータによる前記第1処置部の可動範囲を含む局所的視野範囲を有する第1撮像部とを先端に備える第1ロボットアームと、前記第1撮像部の前記局所的視野範囲より広い大局的視野範囲を有する第2撮像部と、該第2撮像部または前記第1撮像部からの映像を表示する表示部と、該表示部に表示される映像を切り替える切替部と、前記第1マニピュレータおよび前記第1ロボットアームの操作指令を入力する操作部と、該操作部により入力された操作指令に基づいて前記第1マニピュレータおよび前記第1ロボットアームを制御する制御部とを備え、該制御部が、前記切替部により前記第2撮像部からの映像に切り替えられた場合に、前記操作部に入力された操作指令によって前記第1ロボットアームおよび前記第1マニピュレータを制御し、前記切替部により前記第1撮像部からの映像に切り替えられた場合に、前記操作部に入力された操作指令によって前記第1マニピュレータを制御する医療システムを提供する。
 本態様によれば、切替部の作動により表示部に表示される映像を第1撮像部により取得された局所的視野範囲の映像に切り替えると、制御部は、操作部による操作指令によって、局所的視野範囲内において動作する第1マニピュレータを制御するようになる。一方、切替部の作動により表示部に表示される映像を第2撮像部により取得された大局的視野範囲の映像に切り替えると、制御部は、操作部による操作指令によって、大局的視野範囲内において動作する第1ロボットアームを制御するようになる。
 これにより、操作者は、外科的大展開の場面では、切替部によって、視野範囲を第2撮像部による大局的視野範囲に切り替えて、より広い視野範囲によって、第1ロボットアームの周辺の状態を表示部で確認しながら第1ロボットアームおよび第1マニピュレータの動作による処置部の大きな移動を行うことができる。一方、患部の処置を行う場面では、切替部によって、視野範囲を第1撮像部による局所的視野範囲に切り替えて、緻密な処置を行うことができる。
 上記態様においては、先端に第2処置部を備え、前記大局的視野範囲内に前記第2処置部の可動範囲を有する第2ロボットアームを備え、前記制御部が、前記切替部により前記第2撮像部からの映像に切り替えられた場合に、前記操作部に入力された操作指令によって前記第1ロボットアーム、前記第1マニピュレータおよび前記第2ロボットアームを制御してもよい。
 このようにすることで、操作者は、外科的大展開の場面では、切替部によって、視野範囲を第2撮像部による大局的視野範囲に切り替えて、より広い視野範囲によって、第1ロボットアームおよび第2ロボットアームの周辺の状態を表示部で確認しながら第1ロボットアームおよび第1マニピュレータの動作による第1処置部の大きな移動、および第2ロボットアームの動作による第2処置部の大きな移動を行うことができる。
 上記態様においては、前記第1ロボットアームの先端に、第3処置部を備え、前記局所的視野範囲内に前記第3処置部の可動範囲を有する第2マニピュレータを備え、該制御部が、前記切替部により前記第1撮像部からの映像に切り替えられた場合に、前記操作部に入力された操作指令によって前記第1マニピュレータおよび前記第2マニピュレータを制御してもよい。
 このようにすることで、操作者は、患部の処置を行う場面では、切替部によって、視野範囲を第1撮像部による局所的視野範囲に切り替えて、表示部に表示された第1撮像部からの映像を確認しながら、第1マニピュレータの第1処置部および第2マニピュレータの第3処置部を動作させ、双腕による緻密な処置を行うことができる。
 上記態様においては、前記操作部が、操作者の一方の手により操作される第1操作入力部と、前記操作者の他方の手により操作される第2操作入力部とを備え、前記制御部が、前記切替部により前記第2撮像部からの映像に切り替えられた場合に、第1操作入力部により入力された操作指令によって前記第1ロボットアームおよび前記第1マニピュレータを制御し、前記第2操作入力部により入力された操作指令によって前記第2ロボットアームを制御してもよい。
 このようにすることで、操作者が両手でそれぞれに対応する第1ロボットアームおよび第1マニピュレータと第2ロボットアームとを操作可能とし、大局的視野範囲の映像が表示部に表示されている状況下でも、双腕による大局的な処置を行うことができる。
 上記態様においては、前記制御部が、前記切替部により前記第1撮像部からの映像に切り替えられた場合に、第1操作入力部により入力された操作指令によって前記第1マニピュレータを制御し、前記第2操作入力部により入力された操作指令によって前記第2マニピュレータを制御してもよい。
 このようにすることで、操作者が両手でそれぞれに対応する第1マニピュレータと第2マニピュレータとを操作可能とし、局所的視野範囲の映像が表示部に表示されている状況下において、双腕による緻密な処置を行うことができる。
 前記制御部が、前記切替部により前記第2撮像部からの映像に切り替えられた場合に、前記操作部の座標系と前記第2撮像部に固定された座標系とを一致させてもよい。
 このようにすることで、操作者は、表示部に操作された第2撮像部からの映像を見ながら、操作部を操作する場合に、直感的な操作を行うことができる。すなわち、操作部によって一方向への移動を指示する操作指令を入力すると、表示部に表示されている第1ロボットアーム、第2ロボットアーム、第1マニピュレータまたは第2マニピュレータを表示部内において操作部と同一方向に移動させることができる。
 上記態様においては、前記制御部が、前記切替部により前記第1撮像部からの映像に切り替えられた場合に、前記操作部の座標系と前記第1撮像部に固定された座標系とを一致させてもよい。
 このようにすることで、表示部に操作された第1撮像部からの映像を見ながら、操作部を操作する場合に、直感的な操作を行うことができる。すなわち、操作部によって一方向への移動を指示する操作指令を入力すると、表示部に表示されている第1マニピュレータまたは第2マニピュレータを表示部内において操作部と同一方向に移動させることができる。
 本発明によれば、局所的な処置および外科的な大展開の両方に対応でき、手術時間を短縮することができるという効果を奏する。
本発明の一実施形態に係る医療システムを示す全体構成図である。 図1の医療システムにおける俯瞰モードでの操作部とモニタ表示例とを示す図である。 図1の医療システムにおける局所モードでの操作部とモニタ表示例とを示す図である。 図1の医療システムの第1の変形例を示す全体構成図である。 図4の医療システムにおける俯瞰モードでの操作部とモニタ表示例とを示す図である。 図4の医療システムにおける局所モードでの操作部とモニタ表示例とを示す図である。 図1の医療システムの第2の変形例を示す全体構成図である。 図1の医療システムの第3の変形例を示す全体構成図である。
 本発明の一実施形態に係る医療システム1について、図面を参照して以下に説明する。
 本実施形態に係る医療システム1は、図1に示されるように、患者を横たえるベッド2の近傍に設置された3つのロボット3,4,5と、操作者によって操作される操作部6と、該操作部6の操作により入力された操作指令に基づいて3つのロボット3,4,5を制御する制御部7とを備えている。
 第1のロボット3は、処置ユニット8を先端に装着した6軸多関節の第1ロボットアームである。
 第2のロボット4は、第2処置部9を先端に装着した6軸多関節の第2ロボットアームである。
 第3のロボット5は、第2撮像部である内視鏡10を先端に装着した6軸多関節の第3ロボットアームである。
 処置ユニット8は、図1に示されるように、例えば、体表組織を貫通して体内に挿入される挿入部11と、該挿入部11の先端から前方に突出する1以上の関節を有する第1マニピュレータ12および第2マニピュレータ13と、挿入部11の先端から前方に突出する第1撮像部14とを備えている。第1マニピュレータ12は先端に第1処置部15を備えている。第2マニピュレータ13は先端に第3処置部16を備えている。挿入部11には、その先端に湾曲部17を備え、該湾曲部17の動作によっても第1マニピュレータ12、第2マニピュレータ13および第1撮像部14の姿勢を変化させることができるようになっている。
 第1撮像部14は、第1マニピュレータ12および第2マニピュレータ13の可動範囲を含む局所的視野範囲を有している。すなわち、処置ユニット8の挿入部11の先端に配置された第1マニピュレータ12および第2マニピュレータ13は、第1撮像部14により撮影された狭い局所的視野範囲の映像内に常に映っていて、比較的大きな倍率で撮影された患部に対して緻密な処置を行うことができるようになっている。
 内視鏡10は、第1撮像部14よりも広い大局的視野範囲を有している。これにより、第1マニピュレータ12および第2マニピュレータ13により支持された第1処置部15および第3処置部16の第1ロボットアーム3による可動範囲と、第2ロボットアーム4の先端に支持されている第2処置部9の可動範囲とを含む比較的広い範囲にわたって観察することができるようになっている。
 第3のロボット5は初期設定によって内視鏡10の大局的視野範囲が決定された後には動作しない。
 操作部6は、図1に示されるように、操作者の右手によって操作される第1操作入力部18と、操作者の左手によって操作される第2操作入力部19とを備えている。各操作入力部18,19は、多関節構造を有しており、先端に配置された処置部9,15,16の位置および姿勢を3次元的に任意に指示することができるようになっている。
 操作部6には、第1撮像部14または内視鏡10によって取得された映像を表示するモニタ(表示部)20が備えられている。操作部6には、各ロボットアーム3,4,5と第1,第2操作入力部18,19との連動と切断とを切り替えるクラッチ21と、モニタ20に表示する映像を第1撮像部14からの映像と内視鏡10からの映像とで切り替える切替スイッチ(切替部)22とが備えられている。
 制御部7は、切替スイッチ22の操作によって第1撮像部14により取得された映像をモニタ20に表示するように切り替えられた場合には、第1撮像部14により取得された映像を画像処理してモニタ20に送るとともに、第1撮像部14に固定された座標系と、操作部6の座標系とを一致させるように制御するようになっている(局所モード)。
 そして、この場合に、制御部7は、第1撮像部14により取得された局所的視野範囲の映像内に映っている第1マニピュレータ12および第2マニピュレータ13を操作部6において入力した操作指令に応じて動作させるようになっている。
 すなわち、制御部7は、操作部6の座標系における動作ベクトルを、例えば、所定の同時変換行列を用いて、第1撮像部14に対する適正なハンドアイコーディネーションを実現可能な座標系における動作ベクトルに座標変換するようになっている。これにより、制御部7は、操作部6の第1操作入力部18により入力した操作指令に基づいてモニタ20に表示されている映像内の第1マニピュレータ12を第1操作入力部18と同じ方向に動作させるように制御するようになっている。同様に、制御部7は、操作部6の第2操作入力部19により入力した操作指令に基づいてモニタ20に表示されている映像内の第2マニピュレータ13を第2操作入力部19と同じ方向に動作させるように制御するようになっている。
 制御部7は、切替スイッチ22の操作によって内視鏡10により取得された映像をモニタ20に表示するように切り替えられた場合には、内視鏡10により取得された映像を画像処理してモニタ20に送るとともに、内視鏡10に固定された座標系と、操作部6の座標系とを一致させるように制御するようになっている(俯瞰モード)。
 そして、この場合に、制御部7は、内視鏡10により取得された大局的視野範囲の映像内に映っている第1マニピュレータ12および第2処置部9を操作部6において入力した操作指令に応じて動作させるようになっている。
 すなわち、制御部7は、操作部6の座標系における動作ベクトルを、例えば、内視鏡10に対する適正なハンドアイコーディネーションを実現可能な座標系における動作ベクトルに座標変換することにより、操作部6の第1操作入力部18により入力した操作指令に基づいて第1ロボットアーム3、操作部6の湾曲部および第1マニピュレータ(トータルで冗長となる関節の6自由度分を設定。)12を動作させるように制御し、第2操作入力部19により入力した操作指令に基づいて第2ロボットアーム4を動作させるように制御するようになっている。
 このように構成された本実施形態に係る医療システム1の作用について以下に説明する。
 本実施形態に係る医療システム1を用いて患者の体内、例えば、腹腔内の患部に処置を行うには、腹壁に貫通形成した3つの孔にトロッカを設置し、各トロッカを貫通して処置ユニット8、内視鏡10および第2処置部9の先端を腹腔内に配置する。3つのロボットアーム3,4,5の動作は、トロッカの位置を支点として動作するように制限を受ける。
 これら、処置ユニット8、内視鏡10および第2処置部9を腹腔内に配置するには、クラッチ21が切られた状態で、腹腔内に挿入した内視鏡10を適当な位置に配置して第3ロボットアーム5を停止状態にする。次いで、第1ロボットアーム3、第2ロボットアーム4および挿入部11の湾曲部17を作動させて第1マニピュレータ12、第2マニピュレータ13、第1撮像部14および第2処置部9を内視鏡10の視野内に配置する。そして、切替スイッチ22によって、俯瞰モードを選択し、モニタ20により表示する映像を、内視鏡10により取得された大局的視野範囲の映像に切り替える。
 この状態で、操作者は、操作部6の第1操作入力部18および第2操作入力部19を移動させて、図2に示されるように、モニタ20に表示されている第1マニピュレータ12および第2処置部(黒塗り部分)9と略同等の位置関係となるように操作部6の第1操作入力部18および第2操作入力部19の形状を設定する。
 この後に、クラッチ21を接続することにより、制御部7による制御が開始する。
 すなわち、切替スイッチ22によって内視鏡10により取得された映像がモニタ20に表示されているときには、第1操作入力部18を用いた操作入力は、第1マニピュレータ12を動作させるために使用され、第2操作入力部19を用いた操作入力は、第2処置部9を動作させるために使用される。
 その結果、第1操作入力部18を操作すると、それによって発生した操作入力によって、制御部7は、第1ロボットアーム3、挿入部11および第1マニピュレータ12が連動して第1処置部15を移動させる。
 すなわち、第1ロボットアーム3によって支持された、2本のマニピュレータ12,13を有する処置ユニット8の内、右側の第1マニピュレータ12のみを操作の対象として駆動することで、第1ロボットアーム3とは別の第2ロボットアーム4によって支持された第2処置部9を左手で操作する第2操作入力部19によって操作することができる。そして、操作者が、左手で把持した第2操作入力部19を操作すると、それによって発生した操作入力によって、制御部7は、第2ロボットアーム4を動作させて第2処置部9を移動させる。その結果、局所モードおよび俯瞰モードにおいて、第1操作入力部18による動作対象は第1マニピュレータ12および処置部15に固定されているが、切替スイッチ22によってモードが切り替えられると、第2操作入力部19による動作対象は第2処置部9、または第2マニピュレータ13および処置部16に切り替わるようになっている。
 内視鏡10により取得される大局的視野範囲は、第2処置部9および処置ユニット8の先端の可動範囲を含む広い視野範囲であるため、第2処置部9および処置ユニット8の先端の周辺に配置されている組織X等も同時にモニタ20に表示することができる。したがって、操作者は、第2処置部9や処置ユニット8と周辺組織等との干渉を回避するための十分な情報を得ることができ、外科的な大展開を容易に行って、術野の確保等の作業を迅速に行うことができるという利点がある。
 そして、第1マニピュレータ12が患部近傍に配置された場合には、操作者は、切替スイッチ22によって局所モードを選択し、モニタ20に表示していた映像を、第1撮像部14からの映像に切り替える。これにより、制御部7は、操作部6への操作指令に応じて第1マニピュレータ12および第2マニピュレータ13を動作させる制御モードに切り替えられ、第2ロボットアーム4はその場にロックされる。
 操作者は、クラッチ21を切断して、図3に示されるように、右手の第1操作入力部18をモニタ20に表示されている第1マニピュレータ12の形状に合わせるように移動させ、左手の第2操作入力部19をモニタ20に表示されている第2マニピュレータ13の形状に合わせるように移動させる。
 この状態で、クラッチ21を接続することにより、制御部7は、第1操作入力部18により入力された操作指令に基づいて第1マニピュレータ12を動作させ、第2操作入力部19により入力された操作指令に基づいて第2マニピュレータ13を動作させるように制御する。このとき、第1ロボットアーム3および挿入部11の湾曲部17は動作しないようにロックされる。
 このとき、制御部7は、第1撮像部14に固定された座標系を取得して、操作部6の座標系と一致させて制御を行う。これにより、第1操作入力部18および第2操作入力部19の操作方向に一致する方向に、操作量に比例する動作量で第1マニピュレータ12および第2マニピュレータ13が移動させられるので、操作を直感的に行うことができる。
 第1撮像部14の映像は、第1ロボットアーム3および湾曲部17の動作がロックされることによって、画角が固定されるので、双腕の2つのマニピュレータ12,13のみが可動対象となる。すなわち、ハンドアイコーディネーションは完了しており、第1処置部15および第3処置部16の操作を集中して行うことができる。
 そして、モニタ20には、第1撮像部14により取得された局所的視野範囲の映像が表示されているため、患部、第1マニピュレータ12および第2マニピュレータ13を拡大してモニタ20で確認しながら精密に処置を行うことができるという利点がある。
 本実施形態においては、挿入部11、2つのマニピュレータ12,13および第1撮像部14を備える処置ユニット8を支持する第1ロボットアーム3と、第2処置部9および該第2処置部9を支持する第2ロボットアーム4とを有する場合を例示したが、これに代えて、図4から図6に示されるように、挿入部11、単一のマニピュレータ12と第1撮像部14を備える処置ユニット23を支持する第1ロボットアーム3のみを有する場合に適用してもよい。
 この場合には、操作部6の操作入力部24も単一でよい。すなわち、この場合には、内視鏡10による大局的視野範囲に切り替えられると、操作入力部24によって第1ロボットアーム3を作動させ、第1撮像部14による局所的視野範囲に切り替えられると、操作入力部24によってマニピュレータ12が動作させられることとすればよい。
 図7に示されるように、第2マニピュレータ13のみを有しない図1と同様の医療システム25を採用してもよい。この場合、俯瞰モードは第1ロボットアーム3および第2ロボットアーム4の双腕で、局所モードは1つのマニピュレータ12のみの片腕で処置を行うことにしてもよい。
 これとは逆に、図8に示されるように、第2ロボットアーム4のみを有しない図1と同様の医療システム26を採用してもよい。この場合、俯瞰モードは第1ロボットアーム3のみの片腕で、局所モードは第1マニピュレータ12および第2マニピュレータ13の双腕で処置を行うことにしてもよい。
 第1撮像部14により取得された映像をモニタ20に表示した局所モードにおいて、ハンドアイコーディネーションを微調整したい場合があるが、俯瞰モードに切り替えてしまうと微調整が行いづらいという問題がある。これを解消するためには、操作部6に調節スイッチを設け、局所モードにおいて、調節スイッチを押下すると、その押下中は画面が切り替わることなく、制御対象が俯瞰モードの関節に切り替わって作動するようにすればよい。
 このとき、第1マニピュレータ12および第2マニピュレータ13は動作させず、湾曲部17と第1ロボットアーム3の関節のみを動作させる。
 これにより、画像および座標系を切り替えることなくハンドアイコーディネーションを微調整することができる。
 1,25,26 医療システム
 3 第1ロボットアーム
 4 第2ロボットアーム
 6 操作部
 7 制御部
 9 第2処置部
 10 内視鏡(第2撮像部)
 12 第1マニピュレータ
 13 第2マニピュレータ
 14 第1撮像部
 15 第1処置部
 16 第3処置部
 18 第1操作入力部
 19 第2操作入力部
 20 モニタ(表示部)
 21 クラッチ
 22 切替スイッチ(切替部)

Claims (7)

  1.  先端に第1処置部を備える第1マニピュレータと、該第1マニピュレータによる前記第1処置部の可動範囲を含む局所的視野範囲を有する第1撮像部とを先端に備える第1ロボットアームと、
     前記第1撮像部の前記局所的視野範囲より広い大局的視野範囲を有する第2撮像部と、
     該第2撮像部または前記第1撮像部からの映像を表示する表示部と、
     該表示部に表示される映像を切り替える切替部と、
     前記第1マニピュレータおよび前記第1ロボットアームの操作指令を入力する操作部と、
     該操作部により入力された操作指令に基づいて前記第1マニピュレータおよび前記第1ロボットアームを制御する制御部とを備え、
     該制御部が、前記切替部により前記第2撮像部からの映像に切り替えられた場合に、前記操作部に入力された操作指令によって前記第1ロボットアームおよび前記第1マニピュレータを制御し、前記切替部により前記第1撮像部からの映像に切り替えられた場合に、前記操作部に入力された操作指令によって前記第1マニピュレータを制御する医療システム。
  2.  先端に第2処置部を備え、前記大局的視野範囲内に前記第2処置部の可動範囲を有する第2ロボットアームを備え、
     前記制御部が、前記切替部により前記第2撮像部からの映像に切り替えられた場合に、前記操作部に入力された操作指令によって前記第1ロボットアーム、前記第1マニピュレータおよび前記第2ロボットアームを制御する請求項1に記載の医療システム。
  3.  前記第1ロボットアームの先端に、先端に第3処置部を備え、前記局所的視野範囲内に前記第3処置部の可動範囲を有する第2マニピュレータを備え、
     該制御部が、前記切替部により前記第1撮像部からの映像に切り替えられた場合に、前記操作部に入力された操作指令によって前記第1マニピュレータおよび前記第2マニピュレータを制御する請求項1または請求項2に記載の医療システム。
  4.  前記操作部が、操作者の一方の手により操作される第1操作入力部と、前記操作者の他方の手により操作される第2操作入力部とを備え、
     前記制御部が、前記切替部により前記第2撮像部からの映像に切り替えられた場合に、第1操作入力部により入力された操作指令によって前記第1ロボットアームおよび前記第1マニピュレータを制御し、前記第2操作入力部により入力された操作指令によって前記第2ロボットアームを制御する請求項2または請求項3に記載の医療システム。
  5.  前記制御部が、前記切替部により前記第1撮像部からの映像に切り替えられた場合に、第1操作入力部により入力された操作指令によって前記第1マニピュレータを制御し、前記第2操作入力部により入力された操作指令によって前記第2マニピュレータを制御する請求項4に記載の医療システム。
  6.  前記制御部が、前記切替部により前記第2撮像部からの映像に切り替えられた場合に、前記操作部の座標系と前記第2撮像部に固定された座標系とを一致させる請求項1から請求項5のいずれかに記載の医療システム。
  7.  前記制御部が、前記切替部により前記第1撮像部からの映像に切り替えられた場合に、前記操作部の座標系と前記第1撮像部に固定された座標系とを一致させる請求項1から請求項6のいずれかに記載の医療システム。
PCT/JP2016/063460 2015-06-18 2016-04-28 医療システム WO2016203858A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201680035162.6A CN107708598A (zh) 2015-06-18 2016-04-28 医疗***
JP2017524714A JP6289755B2 (ja) 2015-06-18 2016-04-28 医療システム
EP16811333.0A EP3311768A4 (en) 2015-06-18 2016-04-28 MEDICAL SYSTEM
US15/838,967 US20180098817A1 (en) 2015-06-18 2017-12-12 Medical system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015122943 2015-06-18
JP2015-122943 2015-06-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/838,967 Continuation US20180098817A1 (en) 2015-06-18 2017-12-12 Medical system

Publications (1)

Publication Number Publication Date
WO2016203858A1 true WO2016203858A1 (ja) 2016-12-22

Family

ID=57545535

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/063460 WO2016203858A1 (ja) 2015-06-18 2016-04-28 医療システム

Country Status (5)

Country Link
US (1) US20180098817A1 (ja)
EP (1) EP3311768A4 (ja)
JP (1) JP6289755B2 (ja)
CN (1) CN107708598A (ja)
WO (1) WO2016203858A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020158232A1 (ja) * 2019-01-29 2020-08-06 リバーフィールド株式会社 手術支援装置
US11399910B2 (en) 2018-02-19 2022-08-02 Olympus Corporation Medical system
WO2023234280A1 (ja) * 2022-05-30 2023-12-07 川崎重工業株式会社 ロボットシステム、ロボットおよびロボットシステムの制御方法

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BR112020014449B1 (pt) 2018-01-17 2023-12-12 Auris Health, Inc Sistema de plataforma cirúrgica com suportes de braço ajustáveis
WO2020005370A1 (en) * 2018-06-27 2020-01-02 Auris Health, Inc. Systems and techniques for providing multiple perspectives during medical procedures
CN112739283A (zh) 2018-09-17 2021-04-30 奥瑞斯健康公司 用于伴随医学规程的***和方法
EP3866718A4 (en) 2018-12-20 2022-07-20 Auris Health, Inc. ROBOT ARM ALIGNMENT AND DOCKING SYSTEMS AND METHODS
CN109567732B (zh) * 2019-02-01 2024-07-02 福建骏格科技有限公司 胸腹腔镜的多角度影像***
CN113423359A (zh) 2019-02-08 2021-09-21 奥瑞斯健康公司 机器人控制的凝块操纵和移除
CN114173698A (zh) 2019-04-08 2022-03-11 奥瑞斯健康公司 用于伴随规程的***、方法和工作流程
WO2020263520A1 (en) 2019-06-26 2020-12-30 Auris Health, Inc. Systems and methods for robotic arm alignment and docking
CN114375182A (zh) 2019-09-10 2022-04-19 奥瑞斯健康公司 用于使用共享机器人自由度进行运动学优化的***和方法
CN114502094A (zh) 2019-09-26 2022-05-13 奥瑞斯健康公司 用于碰撞检测和避免的***和方法
EP4084721A4 (en) 2019-12-31 2024-01-03 Auris Health, Inc. IDENTIFICATION OF AN ANATOMIC FEATURE AND AIMING
JP7497440B2 (ja) 2019-12-31 2024-06-10 オーリス ヘルス インコーポレイテッド 経皮的アクセスのための位置合わせインターフェース
KR20220123076A (ko) 2019-12-31 2022-09-05 아우리스 헬스, 인코포레이티드 경피 접근을 위한 정렬 기법
WO2022003485A1 (en) 2020-06-29 2022-01-06 Auris Health, Inc. Systems and methods for detecting contact between a link and an external object
US11931901B2 (en) 2020-06-30 2024-03-19 Auris Health, Inc. Robotic medical system with collision proximity indicators
US11357586B2 (en) 2020-06-30 2022-06-14 Auris Health, Inc. Systems and methods for saturated robotic movement
JP2022088805A (ja) * 2020-12-03 2022-06-15 株式会社メディカロイド ロボット手術システムおよび表示方法
CN115120353A (zh) * 2020-12-15 2022-09-30 深圳市精锋医疗科技股份有限公司 手术机器人、计算机可读存储介质及控制装置
TWI782709B (zh) * 2021-09-16 2022-11-01 財團法人金屬工業研究發展中心 手術機械臂控制系統以及手術機械臂控制方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070216332A1 (en) * 2003-10-20 2007-09-20 Georg Lambert Method for Effecting the Movement of a Handling Device and Image Processing Device
JP2008036318A (ja) * 2006-08-10 2008-02-21 Fujinon Corp 内視鏡診断システム
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2013034836A (ja) * 2011-08-04 2013-02-21 Olympus Corp 手術支援装置
JP2014079824A (ja) * 2012-10-15 2014-05-08 Toshiba Corp 作業画面表示方法および作業画面表示装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5339799A (en) * 1991-04-23 1994-08-23 Olympus Optical Co., Ltd. Medical system for reproducing a state of contact of the treatment section in the operation unit
CA2078295C (en) * 1991-08-05 1995-11-21 John Michael Putman Endoscope stabilizer
US5876325A (en) * 1993-11-02 1999-03-02 Olympus Optical Co., Ltd. Surgical manipulation system
JP2000042960A (ja) * 1998-07-29 2000-02-15 Gifu Prefecture マニピュレータの遠隔操作装置
US6459926B1 (en) * 1998-11-20 2002-10-01 Intuitive Surgical, Inc. Repositioning and reorientation of master/slave relationship in minimally invasive telesurgery
US8600551B2 (en) * 1998-11-20 2013-12-03 Intuitive Surgical Operations, Inc. Medical robotic system with operatively couplable simulator unit for surgeon training
US6659939B2 (en) * 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6522906B1 (en) * 1998-12-08 2003-02-18 Intuitive Surgical, Inc. Devices and methods for presenting and regulating auxiliary information on an image display of a telesurgical system to assist an operator in performing a surgical procedure
US6224542B1 (en) * 1999-01-04 2001-05-01 Stryker Corporation Endoscopic camera system with non-mechanical zoom
JP4460857B2 (ja) * 2003-06-23 2010-05-12 オリンパス株式会社 外科手術用システム
US7963288B2 (en) * 2005-05-03 2011-06-21 Hansen Medical, Inc. Robotic catheter system
US9549663B2 (en) * 2006-06-13 2017-01-24 Intuitive Surgical Operations, Inc. Teleoperated surgical retractor system
US8620473B2 (en) * 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US8808164B2 (en) * 2008-03-28 2014-08-19 Intuitive Surgical Operations, Inc. Controlling a robotic surgical tool with a display monitor
US8864652B2 (en) * 2008-06-27 2014-10-21 Intuitive Surgical Operations, Inc. Medical robotic system providing computer generated auxiliary views of a camera instrument for controlling the positioning and orienting of its tip
CN102470003B (zh) * 2009-12-10 2014-08-06 奥林巴斯医疗株式会社 医疗用机械手
CN103607971B (zh) * 2011-07-07 2016-08-31 奥林巴斯株式会社 医疗主从操作器
JP5800609B2 (ja) * 2011-07-07 2015-10-28 オリンパス株式会社 医療用マスタスレーブマニピュレータ

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070216332A1 (en) * 2003-10-20 2007-09-20 Georg Lambert Method for Effecting the Movement of a Handling Device and Image Processing Device
JP2008036318A (ja) * 2006-08-10 2008-02-21 Fujinon Corp 内視鏡診断システム
JP2009269110A (ja) * 2008-05-02 2009-11-19 Olympus Corp 組立装置
JP2013034836A (ja) * 2011-08-04 2013-02-21 Olympus Corp 手術支援装置
JP2014079824A (ja) * 2012-10-15 2014-05-08 Toshiba Corp 作業画面表示方法および作業画面表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3311768A4 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11399910B2 (en) 2018-02-19 2022-08-02 Olympus Corporation Medical system
WO2020158232A1 (ja) * 2019-01-29 2020-08-06 リバーフィールド株式会社 手術支援装置
JP2020120764A (ja) * 2019-01-29 2020-08-13 リバーフィールド株式会社 手術支援装置
CN113474129A (zh) * 2019-01-29 2021-10-01 瑞德医疗机器股份有限公司 手术辅助装置
EP3919235A4 (en) * 2019-01-29 2022-11-09 RIVERFIELD Inc SURGERY AID DEVICE
CN113474129B (zh) * 2019-01-29 2024-03-26 瑞德医疗机器股份有限公司 手术辅助装置
WO2023234280A1 (ja) * 2022-05-30 2023-12-07 川崎重工業株式会社 ロボットシステム、ロボットおよびロボットシステムの制御方法

Also Published As

Publication number Publication date
JP6289755B2 (ja) 2018-03-07
EP3311768A4 (en) 2019-02-27
US20180098817A1 (en) 2018-04-12
EP3311768A1 (en) 2018-04-25
CN107708598A (zh) 2018-02-16
JPWO2016203858A1 (ja) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6289755B2 (ja) 医療システム
US11941734B2 (en) Rendering tool information as graphic overlays on displayed images of tools
JP7257559B2 (ja) コンピュータ支援遠隔操作システムにおける補助器具制御
US20240108425A1 (en) Systems and methods for onscreen menus in a teleoperational medical system
US8892224B2 (en) Method for graphically providing continuous change of state directions to a user of a medical robotic system
JP5908172B2 (ja) 手術支援システムおよび手術支援システムの制御方法
US11766308B2 (en) Systems and methods for presenting augmented reality in a display of a teleoperational system
KR20230029999A (ko) 원격조작 의료 시스템에서 기구의 스크린상 식별정보를 렌더링하기 위한 시스템 및 방법
WO2019103954A1 (en) Systems and methods for master/tool registration and control for intuitive motion
KR20230003408A (ko) 원격조작 의료 시스템에서 기구의 스크린상 식별을 위한 시스템 및 방법
US20160007835A1 (en) Master-slave system and driving method therefor
JP5800610B2 (ja) 医療用マスタスレーブマニピュレータ
US20240236384A9 (en) Surgical robotic system and method with multiple cameras
WO2024148173A1 (en) Translational locking of an out-of-view control point in a computer-assisted system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16811333

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017524714

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016811333

Country of ref document: EP