WO2023176133A1 - 内視鏡用保持装置、内視鏡手術システム、及び制御方法 - Google Patents

内視鏡用保持装置、内視鏡手術システム、及び制御方法 Download PDF

Info

Publication number
WO2023176133A1
WO2023176133A1 PCT/JP2023/001475 JP2023001475W WO2023176133A1 WO 2023176133 A1 WO2023176133 A1 WO 2023176133A1 JP 2023001475 W JP2023001475 W JP 2023001475W WO 2023176133 A1 WO2023176133 A1 WO 2023176133A1
Authority
WO
WIPO (PCT)
Prior art keywords
endoscope
unit
holding device
optical axis
optical system
Prior art date
Application number
PCT/JP2023/001475
Other languages
English (en)
French (fr)
Inventor
景 戸松
容平 黒田
淳 新井
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023176133A1 publication Critical patent/WO2023176133A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/045Control thereof
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes

Definitions

  • the present disclosure relates to an endoscope holding device, an endoscopic surgery system, and a control method.
  • the endoscope holding device at the tip of the robot arm becomes large and interferes with the surgeon's arm. , which may interfere with the surgery.
  • the present disclosure provides an endoscope holding device, an endoscopic surgery system, and a control method that can suppress the increase in size.
  • a housing that houses a relay optical system inside and is placed on a robot arm; a first rotation unit that rotates an endoscope placed in the housing and fixed so that the light emitted to the relay optical system enters the optical axis of the relay optical system; a second rotation unit that rotates an imaging device arranged in the housing and fixed such that light emitted from the relay optical system enters with respect to an optical axis of the relay optical system; An endoscope holding device is provided.
  • a first attachment part for removably attaching the endoscope to the first rotating part
  • the first attachment part may be fixed so that the first optical axis of the rear stage of the endoscope and the second optical axis of the relay optical system are aligned.
  • a first rotation angle acquisition unit that acquires a rotation angle of the endoscope rotating around the first optical axis
  • It may further include a first electric motor unit that rotates the endoscope around the first optical axis.
  • the second optical axis and the third optical axis of the optical system of the imaging device may be fixed so as to coincide with each other.
  • the second rotation unit may rotate the imaging device about the third optical axis based on information about the rotation angle of the endoscope acquired by the first rotation angle acquisition unit.
  • a second attachment part for removably attaching the imaging device to the second rotating part
  • the relay optical system and the optical system of the imaging device may be configured as one unit.
  • the imaging device may further include a second electric motor unit that rotates the imaging device about the third optical axis.
  • the second electric motor unit may rotate the imaging device about the third optical axis based on information about the rotation angle of the endoscope.
  • the endoscope may be an oblique scope.
  • the second electric motor unit moves the imaging device along the third optical axis based on information about the rotation angle of the endoscope so that the imaging device maintains a predetermined rotation angle with respect to the third optical axis. It may also be rotated relative to.
  • the endoscope may be a direct endoscope.
  • a first polarizing filter is arranged in the optical system of the endoscope, a second polarizing filter is arranged in the optical system of the imaging device,
  • the second electric motor unit rotates the imaging device based on information about the rotation angle of the endoscope so that the first polarization filter and the second polarization filter maintain a predetermined rotation angle. It may also be rotated about three optical axes.
  • the above-mentioned endoscope holding device Mark generation for generating a mark indicating at least one of a predetermined orientation and a rotation direction with respect to a third optical axis of the imaging device using information on the rotation angle of the endoscope acquired by the first rotation angle acquisition unit.
  • Department and a control unit that causes the mark to be superimposed on an image captured by the imaging device and displayed on a display device;
  • An endoscopic surgery system is provided.
  • the imaging device is provided with an acceleration sensor,
  • the mark generation unit may also use information from the acceleration sensor to generate a mark indicating at least one of a predetermined direction and a rotation direction with respect to the third optical axis.
  • the mark generation unit may generate a mark indicating information about the rotation direction and the angle to be rotated.
  • a first rotation step of rotating an endoscope which is fixed to one end of a casing that houses a relay optical system therein so that the emitted light enters, relative to the optical axis of the relay optical system;
  • a rotation process A method for controlling an endoscope holding device is provided.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • FIG. 3 is a schematic diagram showing a configuration in which a holding unit is provided at the tip of an arm portion. The figure which shows the example of a structure of an endoscope unit.
  • FIG. 3 is a schematic external view showing an endoscope of a first comparative example.
  • FIG. 3 is a schematic external view showing an endoscope of a second comparative example.
  • FIG. 1 is a schematic external view showing an endoscope unit according to the present embodiment.
  • FIG. 3 is a block diagram showing an example of functional components of an endoscope unit, a CCU, and an arm control device.
  • FIG. 3 is a block diagram showing an example of functional components of an endoscope unit, a CCU, and an arm control device.
  • FIG. 3 is a block diagram of a configuration example related to rotational control of a holding unit section in a control section.
  • FIG. 2 is a schematic diagram showing the appearance of a perspective scope.
  • FIG. 3 is a schematic diagram showing how the field of view displayed on the display device changes due to perspective rotation.
  • 5 is a flowchart showing an example of rotation control between a perspective mirror and a camera head. The figure which shows the example of a structure of the endoscope unit based on 2nd Embodiment.
  • FIG. 7 is a block diagram of a configuration example related to rotational control of a holding unit according to a second embodiment.
  • FIG. 2 is a diagram for explaining an overview of the present embodiment.
  • 7 is a flowchart showing a control example according to the second embodiment.
  • FIG. 7 is a diagram for explaining an overview of modification 1 of the second embodiment.
  • 7 is a flowchart showing a control example according to modification 1 of the second embodiment.
  • FIG. 7 is a diagram illustrating a configuration example of an endoscope unit according to modification 2 of the second embodiment.
  • FIG. 7 is a diagram showing a configuration example of a camera head according to modification 3 of the second embodiment.
  • FIG. 7 is a diagram showing a configuration example of an endoscope unit according to a third embodiment.
  • FIG. 1 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system 5000 to which the technology according to the present disclosure can be applied.
  • FIG. 1 shows an operator (doctor) 5067 performing surgery on a patient 5071 on a patient bed 5069 using the endoscopic surgery system 5000.
  • the endoscopic surgery system 5000 includes an endoscope unit 5006, other surgical tools 5018, a support arm device 5027 that supports the endoscope unit 5006, and various types for endoscopic surgery.
  • a cart 5037 is equipped with a device.
  • trocars 5025a to 5025d are punctured into the abdominal wall.
  • the lens barrel 5003 of the endoscope unit 5006 and other surgical tools 5018 are inserted into the body cavity of the patient 5071 from the trocars 5025a to 5025d.
  • a pneumoperitoneum tube 5019, an energy treatment tool 5021, and forceps 5023 are inserted into the body cavity of a patient 5071.
  • the energy treatment tool 5021 is a treatment tool that performs incision and peeling of tissue, sealing of blood vessels, etc. using high frequency current or ultrasonic vibration.
  • the illustrated surgical tool 5018 is just an example, and various surgical tools commonly used in endoscopic surgery, such as a lever or a retractor, may be used as the surgical tool 5018.
  • An image of the surgical site inside the body cavity of the patient 5071 taken by the endoscope unit 5006 is displayed on the display device 5041.
  • the surgeon 5067 uses the energy treatment tool 5021 and forceps 5023 to perform a treatment such as cutting off the affected area while viewing the image of the surgical site displayed on the display device 5041 in real time.
  • the pneumoperitoneum tube 5019, the energy treatment instrument 5021, and the forceps 5023 are supported by the operator 5067, an assistant, or the like during the surgery.
  • the support arm device 5027 includes an arm portion 5031 extending from the base portion 5029.
  • the arm section 5031 includes joint sections 5033a, 5033b, 5033c, and links 5035a, 5035b, and is driven by control from an arm control device 5045.
  • the endoscope unit 5006 is supported by the arm portion 5031, and its position and posture are controlled. As a result, the endoscope unit 5006 can be stably fixed in position.
  • the endoscope unit 5006 includes a lens barrel 5003 whose region of a predetermined length from the distal end is inserted into the body cavity of the patient 5071, and a holding unit section 7000 connected to the base end of the lens barrel 5003. , and a camera head 5005 connected to the base end of the holding unit section 7000.
  • an endoscope unit 5006 configured as a so-called rigid scope having a rigid tube 5003 is shown, but the endoscope unit 5006 is configured as a so-called flexible scope having a flexible tube 5003. may be done.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 5003.
  • a light source device 5043 is connected to the endoscope unit 5006, and the light generated by the light source device 5043 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 5003. The light is irradiated toward the observation target inside the body cavity of the patient 5071 through the objective lens.
  • the lens barrel 5003 according to this embodiment is a perspective mirror and corresponds to an endoscope.
  • An optical system and an image sensor are provided inside the camera head 5005, and reflected light (observation light) from an observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to a camera control unit (CCU) 5039.
  • the camera head 5005 is equipped with a function of adjusting the magnification and focal length by appropriately driving its optical system.
  • the camera head 5005 may be provided with a plurality of image sensors, for example, in order to support stereoscopic viewing (3D display).
  • a plurality of relay optical systems are provided inside the lens barrel 5003 in order to guide observation light to each of the plurality of image sensors. Further, details of the endoscope unit 5006 according to this embodiment will be described later.
  • the CCU 5039 includes a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls the operations of the endoscope unit 5006 and the display device 5041 in an integrated manner. Specifically, the CCU 5039 performs various image processing, such as development processing (demosaic processing), on the image signal received from the camera head 5005 in order to display an image based on the image signal. The CCU 5039 provides the image signal subjected to the image processing to the display device 5041. Further, the CCU 5039 transmits a control signal to the camera head 5005 to control its driving.
  • the control signal may include information regarding imaging conditions such as magnification and focal length.
  • the display device 5041 displays an image based on an image signal subjected to image processing by the CCU 5039 under control from the CCU 5039. If the endoscope unit 5006 is compatible with high resolution imaging such as 4K (horizontal pixels 3840 x vertical pixels 2160) or 8K (horizontal pixels 7680 x vertical pixels 4320), and/or 3D If the display device 5041 is compatible with display, a device capable of high-resolution display and/or a device capable of 3D display may be used as the display device 5041. If the display device is compatible with high-resolution shooting such as 4K or 8K, a more immersive feeling can be obtained by using a display device 5041 with a size of 55 inches or more. Furthermore, a plurality of display devices 5041 having different resolutions and sizes may be provided depending on the purpose.
  • the light source device 5043 is composed of a light source such as an LED (light emitting diode), and supplies irradiation light to the endoscope unit 5006 when photographing the surgical site.
  • a light source such as an LED (light emitting diode)
  • the arm control device 5045 is configured by a processor such as a CPU, and operates according to a predetermined program to control the drive of the arm portion 5031 of the support arm device 5027 according to a predetermined control method.
  • the input device 5047 is an input interface for the endoscopic surgery system 5000.
  • the user can input various information and instructions to the endoscopic surgery system 5000 via the input device 5047.
  • the user inputs various information regarding the surgery, such as patient's physical information and information about the surgical technique, via the input device 5047.
  • the user may issue an instruction to drive the arm section 5031 or an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope unit 5006 via the input device 5047.
  • An instruction, an instruction to drive the energy treatment instrument 5021, etc. are input.
  • the type of the input device 5047 is not limited, and the input device 5047 may be any of various known input devices.
  • the input device 5047 for example, a mouse, a keyboard, a touch panel, a switch, a foot switch 5057, a lever, etc. can be applied.
  • the touch panel may be provided on the display surface of the display device 5041.
  • the input device 5047 is a device worn by the user, such as a glasses-type wearable device or an HMD (Head Mounted Display), and can perform various inputs according to the user's gestures and line of sight detected by these devices.
  • the input device 5047 includes a camera that can detect the user's movements, and various inputs are performed according to the user's gestures and line of sight detected from the video captured by the camera.
  • the input device 5047 includes a microphone that can pick up the user's voice, and various inputs are performed by voice through the microphone.
  • the input device 5047 by configuring the input device 5047 to be able to input various information without contact, a user who belongs to a clean area (for example, the operator 5067) can operate equipment belonging to a dirty area without contact. becomes possible. Further, since the user can operate the device without taking his hand off the surgical tool that he has, the user's convenience is improved.
  • a clean area for example, the operator 5067
  • the treatment tool control device 5049 controls the driving of the energy treatment tool 5021 for cauterizing tissue, incising, sealing blood vessels, etc.
  • the pneumoperitoneum device 5051 inflates the body cavity of the patient 5071 through the pneumoperitoneum tube 5019 in order to secure a field of view with the endoscope unit 5006 and a working space for the operator. Inject gas.
  • the recorder 5053 is a device that can record various information regarding surgery.
  • the printer 5055 is a device that can print various types of information regarding surgery in various formats such as text, images, or graphs.
  • the support arm device 5027 includes a base portion 5029 that is a base, and an arm portion 5031 extending from the base portion 5029.
  • the arm section 5031 is composed of a plurality of joint sections 5033a, 5033b, 5033c and a plurality of links 5035a, 5035b connected by the joint section 5033b.
  • the configuration of the arm portion 5031 is illustrated in a simplified manner. In reality, the shapes, numbers, and arrangement of the joints 5033a to 5033c and the links 5035a and 5035b, as well as the directions of the rotational axes of the joints 5033a to 5033c, etc. are set appropriately so that the arm part 5031 has the desired degree of freedom. obtain.
  • arm portion 5031 may be suitably configured to have six or more degrees of freedom. This allows the endoscope unit 5006 to be moved freely within the movable range of the arm section 5031, so that the lens barrel 5003 of the endoscope unit 5006 can be inserted into the body cavity of the patient 5071 from a desired direction. becomes possible.
  • Actuators are provided in the joints 5033a to 5033c, and the joints 5033a to 5033c are configured to be rotatable around a predetermined rotation axis by driving the actuators.
  • the arm control device 5045 By controlling the drive of the actuator by the arm control device 5045, the rotation angle of each joint portion 5033a to 5033c is controlled, and the drive of the arm portion 5031 is controlled. Thereby, control of the position and posture of the endoscope unit 5006 can be realized.
  • the arm control device 5045 can control the drive of the arm portion 5031 using various known control methods such as force control or position control.
  • the drive of the arm portion 5031 is appropriately controlled by the arm control device 5045 in accordance with the operation input, and the internal The position and orientation of the viewing unit 5006 may be controlled.
  • the endoscope unit 5006 at the tip of the arm portion 5031 can be moved from any position to any position and then fixedly supported at the position after the movement.
  • the arm portion 5031 may be operated in a so-called master-slave manner. In this case, the arm portion 5031 can be remotely controlled by the user via an input device 5047 installed at a location away from the operating room.
  • the arm control device 5045 receives an external force from the user and controls the actuators of each joint 5033a to 5033c so that the arm 5031 moves smoothly following the external force. It is also possible to perform so-called power assist control. Thereby, when the user moves the arm section 5031 while directly touching the arm section 5031, the arm section 5031 can be moved with a relatively light force. Therefore, it becomes possible to move the endoscope unit 5006 more intuitively and with a simpler operation, and the user's convenience can be improved.
  • the endoscope unit 5006 is supported by a doctor called a scopist.
  • the support arm device 5027 it is possible to more reliably fix the position of the endoscope unit 5006 without manual intervention, making it possible to stably obtain images of the surgical site. This allows the surgery to be carried out smoothly.
  • the arm control device 5045 does not necessarily have to be provided on the cart 5037. Further, the arm control device 5045 does not necessarily have to be one device. For example, the arm control device 5045 may be provided at each joint portion 5033a to 5033c of the arm portion 5031 of the support arm device 5027, and a plurality of arm control devices 5045 may cooperate with each other to drive the arm portion 5031. Control may be implemented.
  • the light source device 5043 supplies irradiation light to the endoscope unit 5006 when photographing the surgical site.
  • the light source device 5043 is composed of a white light source composed of, for example, an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high precision, so the light source device 5043 white balances the captured image. adjustments can be made.
  • the laser light from each RGB laser light source is irradiated onto the observation target in a time-sharing manner, and the drive of the image sensor of the camera head 5005 is controlled in synchronization with the irradiation timing, thereby supporting each of RGB. It is also possible to capture images in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 5043 may be controlled so that the intensity of the light it outputs is changed at predetermined intervals.
  • the drive of the image sensor of the camera head 5005 in synchronization with the timing of the change in the light intensity to acquire images in a time-division manner and compositing the images, high dynamic It is possible to generate an image of a range.
  • the light source device 5043 may be configured to be able to supply light in a predetermined wavelength band compatible with special light observation.
  • Special light observation uses, for example, the wavelength dependence of light absorption in body tissues to illuminate the mucosal surface layer by irradiating a narrower band of light than the light used for normal observation (i.e., white light). So-called narrow band imaging is performed in which predetermined tissues such as blood vessels are photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained using fluorescence generated by irradiating excitation light.
  • excitation light is irradiated onto the body tissue and fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the fluorescence from the body tissue is observed. It may be possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 5043 may be configured to be able to supply narrowband light and/or excitation light compatible with such special light observation.
  • FIG. 2 is a schematic diagram showing a configuration in which a holding unit section 7000 that independently controls the rotation of the oblique mirror 100 and the rotation of the camera head 7100 is provided at the tip of the robot arm 1420.
  • FIG. 3 is a diagram showing a configuration example of the endoscope unit 5006. Note that the holding unit section 7000 according to this embodiment corresponds to an endoscope holding device.
  • the support arm device 1400 includes a base portion 1410 and a robot arm 1420.
  • the base portion 1410 is the base of the support arm device 1400, and a robot arm 1420 extends from the base portion 1410.
  • a holding unit section 7000 is configured at the end of the robot arm 1420.
  • a control unit that integrally controls the support arm device 1400 may be provided in the base portion 1410, and the drive of the robot arm 1420 may be controlled by the control unit. good.
  • the control section is composed of various signal processing circuits such as a CPU and a DSP.
  • the robot arm 1420 has a plurality of active joints 1421a to 1421e, a plurality of links 1422a to 1422e, and an endoscope unit 5006 as a tip unit provided at the tip of the robot arm 1420.
  • the endoscope unit 5006 is configured such that a holding unit 7000 can be attached between the oblique scope 100, which is a rigid scope, and the camera head 5005. That is, this endoscope unit 5006 includes a perspective mirror 100, a camera head 5005, and a holding unit section 7000. Further, the holding unit section 7000 rotatably holds the oblique mirror 100 and the camera head 5005. Furthermore, the camera head 5005 and the oblique mirror 100 according to this embodiment can be commercially available general-purpose products. Therefore, the camera head 5005 and the oblique mirror 100 according to this embodiment are configured to be connectable without using the holding unit section 7000. As described above, the oblique scope 100 according to this embodiment corresponds to an endoscope. Furthermore, the camera head 5005 according to this embodiment corresponds to an imaging device.
  • the oblique mirror 100, the camera head 5005, and the holding unit section 7000 are described as an example in which they are removable, but the present invention is not limited to this.
  • all of these optical components may be configured to be fixed at all times.
  • at least one of the oblique mirror 100 and the camera head 5005 may be fixed to the holding unit section 7000.
  • the oblique mirror 100 is, for example, a rigid mirror, and includes an objective lens 102, a first relay lens system 104, an eyepiece lens 106, and a mounting portion 108.
  • the oblique scope 100 is configured to be able to observe objects such as the inside of a body cavity with the naked eye through the eyepiece lens 106.
  • Optical axis L10 is the optical axis of objective lens 102 and first relay lens system 104. That is, the optical axis L10 according to this embodiment corresponds to the first optical axis.
  • the oblique mirror 100 according to the present embodiment is a diagonal mirror, it is not limited thereto. For example, a direct viewing mirror may be used.
  • the objective lens 102 has, for example, a front lens group 2 and a rear lens group so as to be able to observe a wide range.
  • the objective lens 102 forms a real image that is a reduced size of an object such as inside a body cavity.
  • the first relay lens system 104 includes a plurality of relay lens systems 104a to 104e.
  • Each of the plurality of relay lens systems 104a to 104e is formed of, for example, a lens group.
  • the plurality of relay lens systems 104a to 104e are connected to realize a long-distance imaging system so that the state of the object inside the body cavity or the like can be observed outside the body cavity.
  • each of the relay lens systems 104a to 104e is designed to have the same light beam state on the incident side and the output side, and the real image formed by the objective lens 102 is controlled by the plurality of relay lens systems 104a to 104e. It is transmitted by repeating the image formation.
  • the eyepiece lens 106 forms a virtual image of the real image transmitted by, for example, the first relay lens system 104, and forms an enlarged image rearward toward the holding unit section 7000 side from the eyepiece lens 106.
  • the attachment part 108 is a coupling part that is removably coupled to the second coupling part 7400 of the holding unit part 7000.
  • FIG. 4 is a schematic external view showing the endoscope unit 5006a of the first comparative example.
  • FIG. 4 shows an example in which the camera head 5005 is held by the holding section 1420a of the robot arm 1420.
  • the distal end portion becomes large because the camera head 5005 is large. Therefore, if the camera head 5005 and the oblique scope 100 are held rotatably by the robot arm 1420, there is a risk that they will interfere with the surgeon's arm and impede the surgery.
  • FIG. 5 is a schematic external view showing an endoscope unit 5006b of a second comparative example.
  • FIG. 5 shows an example in which the holding section 1420b of the robot arm 1420 holds the oblique mirror 100 side.
  • the oblique scope 100 is a part of the endoscope with a narrow diameter
  • the light source device 5043 see FIG. 1 It is necessary to avoid the light guide section 100b into which the light is introduced. Therefore, the lens barrel portion that protrudes from the tip of the holding portion 1420b becomes short.
  • the amount of projection of the lens barrel section from the holding unit section 7000b is small, the amount that can be inserted into the patient's body is reduced, and there is a possibility that the operator may not be able to obtain the desired field of view.
  • this holding unit section 7000 has a relay optical system and is configured between the oblique mirror 100 and the camera head 5005.
  • the holding unit section 7000 includes a perspective control section 5016, a camera head rotation control section 5017, a second relay optical system 7050, a housing 7060, and a camera head mounting section. 7100 , a camera head rotation drive section 7200 , a diagonal mirror mounting section 7400 , and a diagonal mirror rotation drive section 7500 .
  • the perspective control unit 5016 controls the perspective mirror rotation drive unit 7500 to rotate the perspective mirror 100.
  • Camera head rotation control section 5017 controls camera head rotation drive section 7200 to rotate camera head 5005. Note that details of the perspective control section 5016 and the camera head rotation control section 5017 will be described later.
  • the second relay optical system 7050 is configured within the housing 7060 and moves the exit pupil of the oblique mirror 100 to the position of the entrance of the camera head 5005. That is, the casing 7060 houses the second relay optical system 7050 therein and is arranged at the end of the robot arm 1420. As described above, the camera head 5005 and the oblique mirror 100 according to this embodiment are configured to be connectable without using the holding unit section 7000. Therefore, the second relay optical system 7050 has a configuration similar to an afocal optical system, and relays the exit pupil of the oblique mirror 100 to the camera head 5005 at the same magnification, for example. As a result, the image captured by the camera head 5005 according to this embodiment has the same size when captured through the holding unit section 7000 and when captured without passing through the holding unit section 7000.
  • the camera head attachment section 7100 removably attaches the camera head 5005 to the camera head rotation drive section 7200 via the attachment section 5010 of the camera head 5005.
  • This camera head attachment part 7100 is fixed so that the optical axis L10 of the oblique mirror 100 and the optical axis L12 of the optical system 5007 of the camera head 5005 are aligned.
  • the camera head rotation drive section 7200 includes an actuator such as a motor, and rotates the camera head 5005 with respect to the main body of the holding unit section 7000. That is, the camera head rotation drive section 7200 rotates the fixed camera head 5005 with respect to the optical axis L12 of the second relay optical system 7050 so that the light emitted from the second relay optical system 7050 is incident thereon.
  • the camera head attachment section 7100 according to this embodiment corresponds to a second attachment section
  • the camera head rotation drive section 7200 corresponds to a second rotation section.
  • the attachment portion 5010 can be coupled to the attachment portion 108.
  • the camera head 5005 and the oblique mirror 100 can be directly connected without using the holding unit section 7000. Therefore, it is also possible to perform surgical procedures that do not use the robot arm 1420.
  • the oblique mirror attachment section 7400 removably attaches the oblique mirror 100 to the oblique mirror rotation drive section 7500 via the attachment section 108.
  • This oblique mirror mounting portion 7400 is fixed so that the optical axis L10 of the oblique mirror 100 and the optical axis L12 of the second relay optical system 7050 are aligned. That is, this oblique mirror mounting portion 7400 is fixed so that the light emitted by the oblique mirror 100 is incident on the second relay optical system 7050.
  • the oblique mirror mounting section 7400 according to this embodiment corresponds to a first mounting section
  • the oblique mirror rotation drive section 7500 corresponds to a first rotating section.
  • the oblique mirror rotation driving section 7500 includes an actuator such as a motor, and rotates the oblique mirror 100 with respect to the main body of the holding unit section 7000. That is, this oblique mirror rotation drive unit 7500 rotates the fixed oblique mirror 100 with respect to the optical axis L12 of the second relay optical system 7050 so that the emitted light enters the second relay optical system 7050.
  • the holding unit unit 7000 can be sterilized using an autoclave. can be made resistant to.
  • the camera head 5005 includes a lens unit 5007, an imaging section 5009, a driving section 5011, a communication section 5013, and an endoscope unit control section 5014.
  • the lens unit 5007 is an optical system provided at the connection part with the holding unit section 7000. Observation light taken in from the tip of the oblique mirror 100 is guided to the camera head 5005 via the second relay optical system 7050 of the holding unit section 7000, and then enters the lens unit 5007.
  • the lens unit 5007 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • Lens unit 5007 constitutes an AF (autofocus) optical system.
  • the zoom lens and the focus lens are configured to be movable in position on the optical axis in order to adjust the magnification and focus of the captured image.
  • the imaging unit 5009 is composed of an image sensor and is arranged after the lens unit 5007.
  • the observation light that has passed through the lens unit 5007 is focused on the light-receiving surface of the image sensor, and an image signal corresponding to the observation image is generated by photoelectric conversion.
  • the image signal generated by the imaging unit 5009 is provided to the communication unit 5013.
  • CMOS complementary metal oxide semiconductor
  • the image sensor for example, one that is capable of capturing high-resolution images of 4K or higher, for example, may be used.
  • the drive section 5011 controls the position of each lens of the lens unit 5007 according to the endoscope unit control section 5014.
  • the endoscope unit control section 5014 controls the entire endoscope unit 5006 in cooperation with the CCU 5039 (see FIG. 1). Details of the endoscope unit control section 5014 will be described later.
  • the camera head 5005 can be made resistant to autoclave sterilization by arranging the lens unit 5007, the imaging section 5009, and the like in a sealed structure that is highly airtight and waterproof.
  • FIG. 6 is a schematic external view showing the endoscope unit 5006 according to this embodiment.
  • a second relay optical system 7050 is arranged between the camera head 5005 and the oblique mirror 100. This eliminates the need for the camera head 5005 and the oblique mirror 100 to be directly fitted together.
  • the structure of the housing 7060 having the second relay optical system 7050 therein can be made smaller than the structure of the camera head 5005. This makes it possible to downsize the holding unit section 7000 configured in the robot arm 1420 and to accommodate the rotation mechanism section within the holding unit section 7000.
  • the robot arm 1420 has the rotation mechanisms for the camera head 5005 and the oblique mirror 100 in the holding unit section 7000 at the tip, the holding section can be made smaller.
  • FIG. 7 is a block diagram showing an example of functional components of the endoscope unit 5006, CCU 5039, and arm control device 5045 shown in FIG. With reference to FIG. 7, the functions of the endoscope unit 5006, CCU 5039, and arm control device 5045 in the configuration example shown in FIG. 2 will be described in more detail.
  • the endoscope unit 5006 includes the camera head 5005, the holding unit section 7000, and the oblique scope 100. That is, the endoscope unit 5006 includes, as functional components, a lens unit 5007, an imaging section 5009, a drive section 5011, a communication section 5013, an endoscope unit control section 5014, a strabismus control section 5016, and a camera. It includes a head rotation control section 5017, a camera head rotation drive section 7200, and a perspective mirror rotation drive section 7500.
  • the CCU 5039 includes a communication section 5059, an image processing section 5061, a control section 5063, and an arm communication section 5064 as its functional components.
  • the camera head 5005 and the CCU 5039 are connected by a transmission cable 5065 so that they can communicate in both directions.
  • the arm control device 5045 is a control device for the support arm device 1400, and includes a control section 1351, a storage section 1357, and an input section 1359. Further, the control unit 1351 includes a whole body coordination control unit 1353 and an ideal joint control unit 1355.
  • the communication unit 5013 receives a control signal for controlling the drive of the camera head 5005 from the CCU 5039.
  • the control signal may include, for example, information specifying the frame rate of the captured image, information specifying the exposure value at the time of capturing, and/or information specifying the magnification and focus of the captured image. Contains information about conditions.
  • the communication unit 5013 provides the received control signal to the endoscope unit control unit 5014.
  • the endoscope unit control section 5014 controls the drive section 5011 in accordance with the control signal from the CCU 5039 so that the lens unit 5007 focuses observation light onto the light receiving surface of the image sensor of the imaging section 5009. That is, the drive unit 5011 is constituted by an actuator, and moves the zoom lens and focus lens of the lens unit 5007 by a predetermined distance along the optical axis under control from the endoscope unit control unit 5014. Thereby, the magnification and focus of the image captured by the imaging unit 5009 can be adjusted as appropriate.
  • the endoscope unit control section 5014 supplies the image signal generated by the imaging section 5009 to the CCU 5039 via the communication section 5013. That is, this communication unit 5013 is configured by a communication device for transmitting and receiving various information to and from the CCU 5039. The communication unit 5013 transmits the image signal obtained from the imaging unit 5009 to the CCU 5039 via the transmission cable 5065 as RAW data.
  • Imaging conditions such as the frame rate, exposure value, magnification, focus, etc. of the imaging unit 5009 are automatically set by the control unit 5063 of the CCU 5039 based on the acquired image signal. That is, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are installed in the endoscope unit 5006 and executed via the endoscope unit control section 5014.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Automatic White Balance
  • the perspective control section 5016 of the holding unit section 7000 drives the actuator 7510 based on a command from the endoscope unit control section 5014.
  • the actuator 7510 and the oblique rotation unit encoder 7520 are provided in the oblique mirror rotation drive unit 7500.
  • the endoscope unit control section 5014 drives the actuator 7510 based on the rotation angle of the actuator 7510 detected by the oblique rotation section encoder 7520, and controls the rotation of the oblique mirror 100 around the optical axis L12.
  • the actuator 7510 corresponds to the first electric motor section.
  • the camera head control section 5017 drives the actuator 7210 based on the command from the endoscope unit control section 5014.
  • the actuator 7210 and camera head rotation unit encoder 7220 are provided in the camera head rotation drive unit 7200.
  • the endoscope unit control section 5014 controls the rotation of the camera head 5005 around the optical axis L14 based on the rotation angle of the actuator 7210 detected by the camera head rotation section encoder 7220.
  • the actuator 7210 according to this embodiment corresponds to the second electric motor section.
  • the communication unit 5059 is configured by a communication device for transmitting and receiving various information to and from the camera head 5005.
  • the communication unit 5059 receives an image signal transmitted from the camera head 5005 via the transmission cable 5065.
  • the communication unit 5059 provides the image processing unit 5061 with the image signal converted into an electrical signal.
  • the communication unit 5059 transmits a control signal for controlling the drive of the camera head 5005 to the camera head 5005.
  • the communication section 5059 transmits a control signal for controlling the rotational drive of the camera head 5005 and the oblique scope 100 to the holding unit section 7000 via the endoscope unit control section 5014.
  • the image processing unit 5061 performs various image processing on the image signal, which is RAW data, transmitted from the camera head 5005.
  • the image processing includes, for example, development processing, high image quality processing (band emphasis processing, super resolution processing, NR (Noise reduction) processing and/or camera shake correction processing, etc.), and/or enlargement processing (electronic zoom processing). This includes various known signal processing such as. Further, the image processing unit 5061 performs detection processing on the image signal to perform AE, AF, and AWB.
  • the image processing unit 5061 is configured by a processor such as a CPU or GPU, and the above-described image processing and detection processing can be performed by the processor operating according to a predetermined program. Note that when the image processing unit 5061 is configured by a plurality of GPUs, the image processing unit 5061 appropriately divides the information related to the image signal, and performs image processing in parallel by the plurality of GPUs.
  • the control unit 5063 performs various controls regarding imaging of the surgical site by the endoscope unit 5006 and display of the captured image. For example, the control unit 5063 generates a control signal for controlling the driving of the camera head 5005. At this time, if the imaging conditions have been input by the user, the control unit 5063 generates a control signal based on the input by the user. Alternatively, if the endoscope unit 5006 is equipped with an AE function, an AF function, and an AWB function, the control unit 5063 determines the optimum exposure value and focal length according to the result of the detection processing by the image processing unit 5061. and white balance as appropriate to generate a control signal.
  • control unit 5063 causes the display device 5041 to display an image of the surgical site based on the image signal subjected to image processing by the image processing unit 5061.
  • the control unit 5063 recognizes various objects in the surgical site image using various image recognition techniques.
  • the control unit 5063 detects the shape and color of the edges of objects included in the surgical site image to detect surgical tools such as forceps, specific body parts, bleeding, mist when using the energy treatment tool 5021, etc. can be recognized.
  • the image processing unit 5061 can superimpose marks M100, M102 (see FIGS. 14 and 16), etc., which will be described later, on the image.
  • the control unit 5063 uses the recognition result to display various surgical support information superimposed on the image of the surgical site. By displaying the surgical support information in a superimposed manner and presenting it to the surgeon 5067, it becomes possible to proceed with the surgery more safely and reliably.
  • Arm communication section 5064 communicates with arm control device 5045. Note that details of rotation control of the CCU 5039 will be described later.
  • the control unit 1351 of the arm control device 5045 is composed of various signal processing circuits such as a CPU and a DSP.
  • the control unit 1351 integrally controls the arm control device 5045 and performs various calculations for controlling the drive of the robot arm 1420 in the support arm device 1400.
  • the control unit 1351 includes a whole body coordination control unit 1353 and an ideal joint control unit 1355.
  • the whole body coordination control unit 1353 performs various calculations in whole body coordination control in order to drive and control the actuators 1430 provided in the active joints 1421a to 1421f of the robot arm 1420 of the support arm device 1400.
  • the ideal joint control unit 1355 performs various calculations in ideal joint control to realize an ideal response to whole-body cooperative control by correcting the influence of disturbance.
  • the storage unit 1357 may be a storage element such as a RAM (Random Access Memory) or a ROM (Read Only Memory), or may be a semiconductor memory, a hard disk, or an external storage device.
  • the input unit 359 is an input interface through which the user inputs information, commands, etc. regarding drive control of the support arm device 400 to the control unit 351.
  • the input unit 359 has an operation means operated by the user, such as a lever or a pedal, and the position, speed, etc. of each component of the robot arm 1420 can be changed in response to the operation of the lever, pedal, etc. It may be set as a purpose.
  • the input unit 359 may include, for example, levers and pedals, as well as operation means operated by the user such as a mouse, keyboard, touch panel, buttons, and switches.
  • the arm control device 5045 and the CCU 5039 can exchange information with each other through communication between the CCU communication section 1358 and the arm communication section 5064.
  • FIG. 8 is a block diagram of a configuration example related to rotational control of the holding unit section 7000 in the control section 5063.
  • the control unit 5063 includes a rotation angle acquisition unit 5063a, a rotation angle calculation unit 5063b, and a control signal generation unit 5063c.
  • the rotation angle acquisition section 5063a acquires the rotation angle of the actuator 7510 detected by the oblique rotation section encoder 7520 of the holding unit section 7000.
  • the rotation angle calculation unit 5063b calculates a rotation angle for appropriately controlling the top and bottom of an image by rotating the camera head 5005 when rotating the oblique mirror 100 to visually recognize a desired observation target. Note that the rotation angle acquisition section 5063a according to this embodiment corresponds to a first rotation angle acquisition section.
  • the control signal generation unit 5063c supplies a control signal based on the rotation angle calculated by the rotation angle calculation unit 5063b to the camera head control unit 5017 via the communication unit 5059 and the endoscope unit control unit 5014.
  • Camera head control section 5017 drives actuator 7210 based on commands from endoscope unit control section 5014. That is, the control signal generation section 5063c transmits a control signal for controlling the rotational drive of the camera head 5005 to the camera head control section 5017 via the communication section 5059 and the endoscope unit control section 5014. In this way, the actuator 7210 rotates the camera head 5005 about the optical axis L14 based on the information on the rotation angle of the oblique mirror 100 acquired by the rotation angle acquisition unit 5063a.
  • FIG. 9 is a schematic diagram showing the appearance of the oblique mirror 100.
  • FIG. 10 is a schematic diagram showing how the visual field 200 displayed on the display device 5041 changes due to perspective rotation.
  • the direction (C1) of the objective lens toward the subject has a predetermined angle ⁇ with respect to the longitudinal direction of the oblique mirror 100 (scope axis C2). That is, in the oblique mirror 100, the objective optical system forms an angle with respect to the eyepiece optical system of the scope.
  • an operation is performed in which the oblique mirror 100 is rotated about the scope axis C2 as a rotation axis (hereinafter referred to as oblique rotation) for observation.
  • oblique rotation a rotation axis
  • the field of view 200 of the oblique mirror 100 is displayed on the monitor of the display device 5041 (see FIG. 1) before the oblique mirror 100 rotates.
  • the field of view 200' of the oblique mirror 100 is displayed on the monitor of the display device 5041 (see FIG. 1) after the oblique mirror is obliquely rotated by the oblique rotation angle ⁇ . In this way, the vertical directions of the visual field 200 and the visual field 200' are controlled to match.
  • the rotation angle acquisition unit 5063a acquires the perspective rotation angle ⁇ of the actuator 7510 detected by the perspective rotation unit encoder 7520 (see FIG. 7).
  • the rotation angle calculation unit 5063b calculates the rotation angle ⁇ of the camera head 5005 for maintaining the vertical angle of the camera head 5005 based on the oblique rotation angle ⁇ .
  • the control signal generation unit 5063c supplies the camera head control unit 5017 with a control signal based on the rotation angle ⁇ calculated by the rotation angle calculation unit 5063b.
  • the actuator 7510 controls the camera head 5005 so that the camera head 5005 maintains a predetermined rotation angle with respect to the optical axis L14, that is, an angle in the vertical direction, based on information about the oblique rotation angle ⁇ of the oblique mirror 100. It is rotated about the optical axis L14.
  • the CCU 5039 can obtain vertical and horizontal peripheral vision while maintaining the vertical direction of the field of view 200 by controlling the two axes of the oblique rotation ⁇ and the rotation angle ⁇ of the camera head 5005. can.
  • FIG. 11 is a flowchart showing an example of rotation control of the oblique mirror 100 and the camera head 5005.
  • the rotation angle acquisition unit 5063a sequentially acquires the oblique rotation angle of the actuator 7510 detected by the oblique rotation unit encoder 7520 (see FIG. 7), and the rotation angle calculation unit 5063b Based on the obtained oblique rotation angle, it is determined whether the oblique mirror 100 has rotated (step S100).
  • the rotation angle calculation unit 5063b repeats the process in step S100.
  • the rotation angle calculation unit 5063b determines that the rotation angle of the oblique mirror 100 has changed (YES in step S100)
  • the rotation angle calculation unit 5063b adjusts the rotation angle of the camera head 5005 based on the acquired oblique rotation angle ⁇ .
  • the rotation angle ⁇ of the camera head 5005 to maintain the vertical angle of is calculated (step S102).
  • control signal generation unit 5063c of the CCU 5039 transmits a control signal regarding the rotation angle ⁇ of the camera head 5005 to the endoscope unit control unit 5014 of the endoscope unit 5006. Then, the endoscope unit control section 5014 drives and controls the actuator 7510 via the strabismus control section 5016 (step S104).
  • the holding unit section 7000 having the relay optical system 7050 is disposed between the camera head 5005 and the oblique mirror 100. Since the diameter of the housing 7060 having the relay optical system 7050 therein can be made smaller than the structure of the camera head 5005, the holding unit section 7000 configured in the robot arm 1420 can be made smaller. At the same time, it becomes possible to house the rotation mechanism section within the holding unit section 7000. Thereby, the robot arm 1420 can be made smaller while having the rotation mechanisms for the camera head 5005 and the oblique mirror 100 in the holding unit section 7000 at the tip. In this manner, by arranging the holding unit section 7000, the endoscope unit 5006 is configured to suppress interference with the surgeon's arm and not interfere with the surgery.
  • the endoscope unit 5006c according to the second embodiment has the advantage that the camera head 5005 can be manually rotated by the operator. It is different from the mirror unit 5006. Below, differences from the endoscope unit 5006 according to the first embodiment will be explained.
  • FIG. 12 is a diagram showing a configuration example of an endoscope unit 5006a according to the second embodiment.
  • camera head 5005 further includes an acceleration sensor 5015.
  • the acceleration sensor 5015 can detect, for example, the angle of the gravity direction with respect to a reference line, or the acceleration in the tangential direction of a circle on a plane orthogonal to the optical axis, with the optical axis of the camera head 5005 as the center point.
  • the actuator 7210 (see FIG. 7) of the camera head rotation drive unit 7200a is configured to be rotatable, for example, even in response to an external force applied to the camera head 5005. This allows the operator to rotate the camera head 5005 with respect to the holding unit section 7000.
  • FIG. 13 is a block diagram of a configuration example related to rotation control for the holding unit section 7000 in the control section 5063 according to the second embodiment.
  • the control unit 5063 according to the second embodiment further includes an acceleration signal acquisition unit 5063d, a direction generation unit 5063e, and a mark generation unit 5063f.
  • FIG. 14 is a diagram for explaining the outline of this embodiment.
  • FIG. 14 shows an image (hereinafter also referred to as an endoscopic image) obtained by the endoscope unit 5006a shown in FIG. 13.
  • the forceps 220 and the image center C are displayed.
  • the left figure is an image obtained in the current position and orientation
  • the right figure is an image obtained after movement by endoscope control processing according to this embodiment. That is, in the right figure, the oblique mirror 100 is rotating.
  • the mark M100 according to this embodiment is a mark indicating a vertically downward direction.
  • the acceleration signal acquisition unit 5063 acquires the output signal of the acceleration sensor 5015.
  • the direction generation unit 5063e uses the output signal of the acceleration sensor 5015 to generate a rotation angle of the camera head 5005 from the direction of gravity. Then, the direction generation unit 5063e outputs an output signal having information on the rotation angle from the direction of gravity to the mark generation unit 5063f.
  • the gravitational direction of the camera head 5005 according to this embodiment means that when the camera head 5005 is oriented in the gravitational direction, the top and bottom of the displayed image of the camera head 5005 are in a predetermined direction, for example, in the upward gravitational direction. This is the direction.
  • the mark generation unit 5063f generates a mark M100 indicating the gravity direction with respect to the captured image of the camera head 5005 based on the output signal of the direction generation unit 5063e. Then, the mark generation unit 5063f outputs a signal including information about the mark M100 to the image processing unit 5061 (see FIG. 7). Thereby, the image processing unit 5061 generates an image in which the mark M100 indicating the direction of gravity is superimposed on the image captured by the camera head 5005.
  • the monitor of the display device 5041 displays a captured image on which a mark M100 indicating the direction of gravity is superimposed.
  • FIG. 15 is a flowchart showing a control example according to the second embodiment.
  • the rotation angle calculation unit 5063b determines whether the oblique mirror 100 has rotated (step S100). When determining that the rotation angle of the oblique mirror 100 has not changed (NO in step S100), the rotation angle calculation unit 5063b repeats the process in step S100.
  • the direction generation unit 5063e determines the direction of gravity based on the output signal of the acquired oblique acceleration sensor 5015. An output signal having information on the rotation angle from is output to the mark generation unit 5063f (step S202).
  • the mark generation unit 5063f generates the mark M100 using the information on the rotation angle from the direction of gravity, and outputs it to the image processing unit 5061.
  • the image processing unit 5061 generates an image on which the mark M100 indicating the direction of gravity is superimposed on the captured image of the camera head 5005, and the display device 5041 displays the image on which the mark M100 indicating the direction of gravity is superimposed. (Step S204).
  • the camera head 5005 is configured to be rotatably controlled manually by the operator.
  • the direction generation unit 5063e outputs an output signal having information on the rotation angle from the direction of gravity to the mark generation unit 5063f
  • the mark generation unit 5063f converts the output signal having information on the mark M100 indicating the direction of gravity into an image.
  • the image processing unit 5061 generates an image in which a mark M100 indicating the direction of gravity is superimposed on the image captured by the camera head 5005. This allows the operator to rotate the camera head 5005 with respect to the holding unit section 7000 according to the direction indicated by the mark M100. Therefore, the operator can rotate the oblique scope 100 to visually recognize the desired object to be observed, and can also rotate the camera head 5005 to appropriately control the top and bottom of the image.
  • the endoscope unit 5006c according to the first modification of the second embodiment is different from the endoscope unit 5006 according to the second embodiment in that the direction in which the camera head 5005 is rotated can be further indicated with a mark. do. Below, differences from the endoscope unit 5006 according to the second embodiment will be explained.
  • FIG. 16 is a diagram for explaining an overview of Modification 1 of the second embodiment.
  • FIG. 16 shows an image (hereinafter also referred to as an endoscopic image) obtained by the endoscope unit 5006a shown in FIG. 12.
  • the forceps 220 and the image center C are displayed.
  • the left figure is an image obtained in the current position and orientation
  • the right figure is an image obtained after movement by endoscope control processing according to this embodiment. That is, in the right figure, the oblique mirror 100 is rotating.
  • Mark M102 indicates the direction in which the camera head 5005 is rotated to orient the top and bottom of the image in an appropriate direction. Further, the length of the mark M102 corresponds to the rotation angle.
  • FIG. 17 is a flowchart showing a control example according to Modification 1 of the second embodiment.
  • the rotation angle calculation unit 5063b determines whether the oblique mirror 100 has rotated (step S100). When determining that the rotation angle of the oblique mirror 100 has not changed (NO in step S100), the rotation angle calculation unit 5063b repeats the process in step S100.
  • the mark generation unit 5063f when the rotation angle calculation unit 5063b determines that the rotation angle of the oblique mirror 100 has changed (YES in step S100), the mark generation unit 5063f generates a mark M102 corresponding to the rotation angle ⁇ of the oblique mirror 100. , and output to the image processing section 5061. As a result, the image processing unit 5061 generates an image on which the mark M102 is superimposed, and the display device 5041 displays an image on which the mark M100 indicating the direction of gravity is superimposed (step S302).
  • the direction generation unit 5063e uses the output signal of the acceleration sensor 5015 to determine whether the camera head 5005 has rotated (step S304). When determining that the camera head 5005 is not rotating (NO in step S304), the direction generation unit 5063e repeats the process in step S304.
  • the direction generation unit 5063e determines that the rotation angle of the camera head 5005 has changed (YES in step S304)
  • the direction generation unit 5063e calculates the rotation angle ⁇ of the camera head 5005 from the direction of gravity (step S306)
  • the mark generation unit 5063f generates the mark M102 again corresponding to the rotation angle ⁇ and the rotation angle ⁇ of the oblique mirror 100, and outputs it to the image processing unit 5061.
  • the image processing unit 5061 generates an image on which the new mark M102 is superimposed, and the display device 5041 displays the image on which the mark M102 indicating the direction of gravity is superimposed (step S308).
  • the camera head 5005 is configured to be rotatably controlled manually by the operator.
  • the mark generation unit 5063f generates a mark M102 corresponding to the rotation angle ⁇ of the oblique mirror 100, and outputs it to the image processing unit 5061.
  • the image processing unit 5061 generates an image on which the mark M102 is superimposed, and the display device 5041 displays an image on which the mark M100 indicating the direction of gravity is superimposed. This allows the operator to rotate the camera head 5005 by the rotation angle ⁇ relative to the holding unit section 7000 in accordance with the direction indicated by the mark M102.
  • the mark generation unit 5063f generates the mark M102 again corresponding to the rotation angle ⁇ and the rotation angle ⁇ of the oblique scope 100, and outputs it to the image processing unit 5061.
  • the image processing unit 5061 generates an image on which the new mark M102 is superimposed, and the display device 5041 again displays the image on which the mark M102 indicating the new rotation direction is superimposed.
  • the length of the mark M102 changes, so the operator can properly control the top and bottom of the image by rotating the camera head 5005 while checking the direction of the camera head 5005 rotated by the operator. It becomes possible.
  • An endoscope unit 5006d according to Modification 2 of the second embodiment differs from the endoscope unit 5006 according to the second embodiment in that a camera head 5005a and a holding unit section 7000a are integrally configured. Below, differences from the endoscope unit 5006 according to the second embodiment will be explained.
  • FIG. 18 is a diagram showing a configuration example of an endoscope unit 5006d according to Modification 2 of the second embodiment.
  • the camera head 5005a and the holding unit section 7000a are integrally constructed.
  • the camera head 5005 and the holding unit section 7000 may be configured integrally. In this way, by integrally configuring the camera head 5005a and the holding unit section 7000a, it is possible to achieve higher airtightness.
  • the camera head 5005b, the camera head 5005 according to the first embodiment, the second relay optical system 7050, and the housing 7060 are integrated. This configuration is different from the endoscope unit 5006 according to the second embodiment. Below, differences from the endoscope unit 5006 according to the second embodiment will be explained.
  • FIG. 19 is a diagram showing a configuration example of a camera head 5005b according to Modification 3 of the second embodiment. As shown in FIG. 19, the camera head 5005, the second relay optical system 7050, and the housing 7060 are integrally configured. Further, in FIG. 19, only the configuration of the camera head 5005b is illustrated for simplicity of explanation.
  • the camera head 5005, the second relay optical system 7050, and the housing 7060 may be configured integrally. In this way, by integrally configuring the camera head 5005, the second relay optical system 7050, and the housing 7060, it is possible to achieve higher airtightness.
  • the endoscope unit 5006e according to the third embodiment differs from the endoscope unit 5006d according to the second modification of the second embodiment in that a direct scope 100a is configured instead of the oblique scope 100.
  • a direct scope 100a is configured instead of the oblique scope 100.
  • FIG. 20 is a diagram showing a configuration example of an endoscope unit 5006e according to the third embodiment.
  • the endoscope unit 5006d is different from the endoscope unit 5006d according to the second modification of the second embodiment in that a direct endoscope 100a is configured instead of the oblique endoscope 100.
  • a first polarizing filter 110 is configured at the output side end of the direct viewing mirror 100a.
  • a second polarizing filter 5015 is configured in front of the imaging unit 5009 of the camera head 5005c.
  • the endoscope unit 5006e according to the third embodiment can perform polarization-processed imaging.
  • the rotation control of the camera head 5005c and the direct endoscope 100a is performed in the same manner as described in the first embodiment to the second modification of the second embodiment. be exposed. Thereby, even when the direct viewing mirror 100a is rotated, it is possible to align the orientations of the first polarizing filter 110 and the second polarizing filter 5015 with a predetermined orientation.
  • a housing that houses a relay optical system inside and is placed on a robot arm; a first rotation unit that rotates an endoscope placed in the housing and fixed so that the light emitted to the relay optical system enters the optical axis of the relay optical system; a second rotation unit that rotates an imaging device arranged in the housing and fixed such that light emitted from the relay optical system enters with respect to an optical axis of the relay optical system; A holding device for an endoscope.
  • the endoscope holding device further comprising:
  • the first attachment part is fixed so that a first optical axis of the rear stage of the endoscope and a second optical axis of the relay optical system coincide with each other. holding device.
  • the endoscope holding device further comprising:
  • the second electric motor unit moves the imaging device along the third optical axis based on information about the rotation angle of the endoscope so that the imaging device maintains a predetermined rotation angle with respect to the third optical axis.
  • a first polarizing filter is arranged in the optical system of the endoscope, a second polarizing filter is arranged in the optical system of the imaging device,
  • the second electric motor unit rotates the imaging device based on information about the rotation angle of the endoscope so that the first polarization filter and the second polarization filter maintain a predetermined rotation angle.
  • the endoscope holding device according to (4), Mark generation for generating a mark indicating at least one of a predetermined orientation and a rotation direction with respect to a third optical axis of the imaging device using information on the rotation angle of the endoscope acquired by the first rotation angle acquisition unit.
  • Department and An endoscopic surgery system comprising: a control unit that superimposes the mark on an image captured by the imaging device and displays the mark on a display device.
  • the imaging device is provided with an acceleration sensor,
  • the mark generation unit also uses information from the acceleration sensor to generate a mark indicating at least one of a predetermined direction and a rotation direction with respect to the third optical axis.
  • a first rotation step of rotating an endoscope which is fixed to one end of a casing that houses a relay optical system therein so that the emitted light enters, relative to the optical axis of the relay optical system;
  • a method for controlling an endoscope holding device is

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Astronomy & Astrophysics (AREA)
  • General Physics & Mathematics (AREA)
  • Endoscopes (AREA)

Abstract

[課題]本開示では、大型化を抑制可能な内視鏡用保持装置、内視鏡手術システム、及び制御方法を提供する。 [解決手段]本開示によれば、内視鏡用保持装置は、内部にリレー光学系を収納し、ロボットアームに配置される筐体と、筐体に配置され、リレー光学系に射出した光が入射するように固定した内視鏡をリレー光学系の光軸に対して回転させる第1回転部と、筐体に配置され、リレー光学系か射出した光が入射するように固定した撮像装置をリレー光学系の光軸に対して回転させる第2回転部と、を備える。

Description

内視鏡用保持装置、内視鏡手術システム、及び制御方法
 本開示は、内視鏡用保持装置、内視鏡手術システム、及び制御方法に関する。
 近時においては、人体内部に挿入される硬性鏡として、斜視鏡が用いられるようになっている。また、偏光処理が行われる直視鏡が一般に知られている。
特開平7-234365号公報
 しかしながら、斜視鏡による斜視回転はスコープ軸に対して回るため、単純な水平方向または上下方向の移動に比べて回転後の視野が直感的にわかりにくくなってしまう。また、偏光処理が行われる直視鏡では、スコープ軸に対して硬性鏡を回転させた場合に偏光がずれてしまう。このため、ロボットアームにより、硬性鏡とカメラヘッド部とのそれぞれを回転制御し、目的とする画像を撮像することが、試みられている。
 ところが、硬性鏡とカメラヘッド部とをロボットアームで、それぞれを回転可能に保持しようとすると、ロボットアームの先端部である内視鏡用保持装置が大きくなってしまい、術者の腕と干渉し、手術を阻害してしまう恐れがある。
 そこで、本開示では、大型化を抑制可能な内視鏡用保持装置、内視鏡手術システム、及び制御方法を提供する。
 上記の課題を解決するために、本開示によれば、
 内部にリレー光学系を収納し、ロボットアームに配置される筐体と、
 前記筐体に配置され、前記リレー光学系に射出した光が入射するように固定した内視鏡を前記リレー光学系の光軸に対して回転させる第1回転部と、
 前記筐体に配置され、前記リレー光学系か射出した光が入射するように固定した撮像装置を前記リレー光学系の光軸に対して回転させる第2回転部と、
 を備えた内視鏡用保持装置が提供される。
 前記第1回転部に対して前記内視鏡を着脱可能に取り付ける第1取り付け部を、
 更に備えてもよい。
 前記第1取り付け部は、前記内視鏡の後段の第1光軸と、前記リレー光学系の第2光軸と、とが一致するように固定してもよい。
 前記第1光軸を中心に回転する前記内視鏡の回転角を取得する第1回転角取得部を、
 更に備えてもよい。
 前記内視鏡を、前記第1光軸を中心に回転させる第1電動機部を更に備えてもよい。
 前記第2光軸と、前記撮像装置の光学系の第3光軸とが一致するように固定されてもよい。
 前記第2回転部は、前記第1回転角取得部が取得する前記前記内視鏡の回転角の情報に基づき、前記撮像装置を、前記第3光軸を中心に回転されてもよい。
 前記第2回転部に対して前記撮像装置を着脱可能に取り付ける第2取り付け部を、
 更に備えてもよい。
 前記リレー光学と前記撮像装置の光学系は一体として構成されてもよい。
 前記撮像装置を、前記第3光軸を中心として回転させる第2電動機部を更に備えてもよい。
 前記第2電動機部は、前記前記内視鏡の回転角の情報に基づき、前記撮像装置を、前記第3光軸を中心として回転させてもよい。
 前記内視鏡は、斜視鏡であってもよい。
 前記第2電動機部は、前記内視鏡の回転角の情報に基づき、前記撮像装置が前記第3光軸に対して所定の回転角度を維持するように、前記撮像装置を前記第3光軸に対して回転させてもよい。
 前記内視鏡は、直視鏡であってもよい。
 前記内視鏡の光学系に第1偏光フィルタが配置され、前記撮像装置の光学系に第2偏光フィルタが配置され、
 前記第2電動機部は、前記前記内視鏡の回転角の情報に基づき、前記第1偏光フィルタと、前記第2偏光フィルタとが所定の回転角度を維持するように、前記撮像装置を前記第3光軸に対して回転させてもよい。
 記の課題を解決するために、本開示によれば、
 上述の内視鏡用保持装置と、
 前記第1回転角取得部が取得した前記内視鏡の回転角の情報を用いて、前記撮像装置の第3光軸に対する所定の向き、及び回転方向の少なくとも一方を示すマークを生成するマーク生成部と、
 前記撮像装置が撮像した画像に前記マークを重畳して表示装置に表示させる制御部と、
 を備える内視鏡手術システムが提供される。
 前記撮像装置は、加速度センサが配置され、
 前記マーク生成部は、前記加速度センサの情報も用いて、前記第3光軸に対する所定の向き、及び回転方向の少なくとも一方を示すマークを生成してもよい。
 前記マーク生成部は、前記回転方向及び回転させるべき角度の情報を示すマークを生成してもよい。
 前記内視鏡用保持装置を端部に構成した前記ロボットアームを支持する支持アーム装置を、
 更に備えてもよい。
 上記の課題を解決するために、本開示によれば、
 内部にリレー光学系を収納する筐体の一端に、射出した光が入射するように固定した内視鏡を、前記リレー光学系の光軸に対して回転させる第1回転工程と、
 前記リレー光学系か射出した光が入射するように前記筐体の他端に固定した撮像装置を、前記内視鏡の回転角に応じて前記リレー光学系の光軸に対して回転させる第2回転工程と、
 を備えた内視鏡用保持装置の制御方法が提供される。
本開示に係る技術が適用され得る内視鏡手術システムの概略的な構成の一例を示す図。 アーム部の先端に保持ユニットが設けられた構成を示す模式図。 内視鏡ユニットの構成例を示す図。 第1比較例の内視鏡を示す外観模式図。 第2比較例の内視鏡を示す外観模式図。 本実施形態に係る内視鏡ユニットを示す外観模式図。 内視鏡ユニット、CCU、及びアーム制御装置の機能構成部の一例を示すブロック図。 制御部内の保持ユニット部に対する回転制御に関する構成例のブロック図。 斜視鏡の外観を示す模式図。 斜視回転によって表示装置に表示された視野が変わる様子を示す模式図。 斜視鏡とカメラヘッドとの回転制御例を示すフローチャート。 第2実施形態係る内視鏡ユニットの構成例を示す図。 第2実施形態係る保持ユニット部に対する回転制御に関する構成例のブロック図。 本実施形態の概要を説明するための図。 第2実施形態に係る制御例を示すフローチャート。 第2実施形態の変形例1の概要を説明するための図。 第2実施形態の変形例1に係る制御例を示すフローチャート。 第2実施形態の変形例2に係る内視鏡ユニットの構成例を示す図。 第2実施形態の変形例3に係るカメラヘッドの構成例を示す図。 第3実施形態に係る内視鏡ユニットの構成例を示す図。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
(第1実施形態)
 <<1.基本構成>> 
 まず、図1を参照して、内視鏡手術システムの構成例を説明する。
 <1.1.内視鏡システムの構成例> 
 図1は、本開示に係る技術が適用され得る内視鏡手術システム5000の概略的な構成の一例を示す図である。図1では、術者(医師)5067が、内視鏡手術システム5000を用いて、患者ベッド5069上の患者5071に手術を行っている様子が図示されている。図示するように、内視鏡手術システム5000は、内視鏡ユニット5006と、その他の術具5018と、内視鏡ユニット5006を支持する支持アーム装置5027と、内視鏡下手術のための各種の装置が搭載されたカート5037と、から構成される。
 内視鏡手術では、腹壁を切って開腹する代わりに、トロッカ5025a~5025dと呼ばれる筒状の開孔器具が腹壁に複数穿刺される。そして、トロッカ5025a~5025dから、内視鏡ユニット5006の鏡筒5003や、その他の術具5018が患者5071の体腔内に挿入される。図示する例では、その他の術具5018として、気腹チューブ5019、エネルギー処置具5021及び鉗子5023が、患者5071の体腔内に挿入されている。また、エネルギー処置具5021は、高周波電流や超音波振動により、組織の切開及び剥離、又は血管の封止等を行う処置具である。ただし、図示する術具5018はあくまで一例であり、術具5018としては、例えば攝子、レトラクタ等、一般的に内視鏡下手術において用いられる各種の術具が用いられてよい。
 内視鏡ユニット5006によって撮影された患者5071の体腔内の術部の画像が、表示装置5041に表示される。術者5067は、表示装置5041に表示された術部の画像をリアルタイムで見ながら、エネルギー処置具5021や鉗子5023を用いて、例えば患部を切除する等の処置を行う。なお、図示は省略しているが、気腹チューブ5019、エネルギー処置具5021及び鉗子5023は、手術中に、術者5067又は助手等によって支持される。
 (支持アーム装置) 
 支持アーム装置5027は、ベース部5029から延伸するアーム部5031を備える。図示する例では、アーム部5031は、関節部5033a、5033b、5033c、及びリンク5035a、5035bから構成されており、アーム制御装置5045からの制御により駆動される。アーム部5031によって内視鏡ユニット5006が支持され、その位置及び姿勢が制御される。これにより、内視鏡ユニット5006の安定的な位置の固定が実現され得る。
 (内視鏡ユニット) 
 本実施形態に係る内視鏡ユニット5006は、先端から所定の長さの領域が患者5071の体腔内に挿入される鏡筒5003と、鏡筒5003の基端に接続される保持ユニット部7000と、保持ユニット部7000の基端に接続されるカメラヘッド5005と、から構成される。図示する例では、硬性の鏡筒5003を有するいわゆる硬性鏡として構成される内視鏡ユニット5006を図示しているが、内視鏡ユニット5006は、軟性の鏡筒5003を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒5003の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡ユニット5006には光源装置5043が接続されており、当該光源装置5043によって生成された光が、鏡筒5003の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者5071の体腔内の観察対象に向かって照射される。なお、本実施形態に係る鏡筒5003は、斜視鏡であり、内視鏡に対応する。
 カメラヘッド5005の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)5039に送信される。なお、カメラヘッド5005には、その光学系を適宜駆動させることにより、倍率及び焦点距離を調整する機能が搭載される。
 なお、例えば立体視(3D表示)等に対応するために、カメラヘッド5005には撮像素子が複数設けられてもよい。この場合、鏡筒5003の内部には、当該複数の撮像素子のそれぞれに観察光を導光するために、リレー光学系が複数系統設けられる。また、本実施形態に係る内視鏡ユニット5006の詳細は後述する。
 (カートに搭載される各種の装置) 
 CCU5039は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡ユニット5006及び表示装置5041の動作を統括的に制御する。具体的には、CCU5039は、カメラヘッド5005から受け取った画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。CCU5039は、当該画像処理を施した画像信号を表示装置5041に提供する。また、CCU5039は、カメラヘッド5005に対して制御信号を送信し、その駆動を制御する。当該制御信号には、倍率や焦点距離等、撮像条件に関する情報が含まれ得る。
 表示装置5041は、CCU5039からの制御により、当該CCU5039によって画像処理が施された画像信号に基づく画像を表示する。内視鏡ユニット5006が例えば4K(水平画素数3840×垂直画素数2160)又は8K(水平画素数7680×垂直画素数4320)等の高解像度の撮影に対応したものである場合、及び/又は3D表示に対応したものである場合には、表示装置5041としては、それぞれに対応して、高解像度の表示が可能なもの、及び/又は3D表示可能なものが用いられ得る。4K又は8K等の高解像度の撮影に対応したものである場合、表示装置5041として55インチ以上のサイズのものを用いることで一層の没入感が得られる。また、用途に応じて、解像度、サイズが異なる複数の表示装置5041が設けられてもよい。
 光源装置5043は、例えばLED(light emitting diode)等の光源から構成され、術部を撮影する際の照射光を内視鏡ユニット5006に供給する。
 アーム制御装置5045は、例えばCPU等のプロセッサによって構成され、所定のプログラムに従って動作することにより、所定の制御方式に従って支持アーム装置5027のアーム部5031の駆動を制御する。
 入力装置5047は、内視鏡手術システム5000に対する入力インターフェースである。ユーザは、入力装置5047を介して、内視鏡手術システム5000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、入力装置5047を介して、患者の身体情報や、手術の術式についての情報等、手術に関する各種の情報を入力する。また、例えば、ユーザは、入力装置5047を介して、アーム部5031を駆動させる旨の指示や、内視鏡ユニット5006による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示、エネルギー処置具5021を駆動させる旨の指示等を入力する。
 入力装置5047の種類は限定されず、入力装置5047は各種の公知の入力装置であってよい。入力装置5047としては、例えば、マウス、キーボード、タッチパネル、スイッチ、フットスイッチ5057及び/又はレバー等が適用され得る。入力装置5047としてタッチパネルが用いられる場合には、当該タッチパネルは表示装置5041の表示面上に設けられてもよい。
 あるいは、入力装置5047は、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)等の、ユーザによって装着されるデバイスであり、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。また、入力装置5047は、ユーザの動きを検出可能なカメラを含み、当該カメラによって撮像された映像から検出されるユーザのジェスチャや視線に応じて各種の入力が行われる。更に、入力装置5047は、ユーザの声を収音可能なマイクロフォンを含み、当該マイクロフォンを介して音声によって各種の入力が行われる。このように、入力装置5047が非接触で各種の情報を入力可能に構成されることにより、特に清潔域に属するユーザ(例えば術者5067)が、不潔域に属する機器を非接触で操作することが可能となる。また、ユーザは、所持している術具から手を離すことなく機器を操作することが可能となるため、ユーザの利便性が向上する。
 処置具制御装置5049は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具5021の駆動を制御する。気腹装置5051は、内視鏡ユニット5006による視野の確保及び術者の作業空間の確保の目的で、患者5071の体腔を膨らめるために、気腹チューブ5019を介して当該体腔内にガスを送り込む。レコーダ5053は、手術に関する各種の情報を記録可能な装置である。プリンタ5055は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 (支持アーム装置) 
 支持アーム装置5027は、基台であるベース部5029と、ベース部5029から延伸するアーム部5031と、を備える。図示する例では、アーム部5031は、複数の関節部5033a、5033b、5033cと、関節部5033bによって連結される複数のリンク5035a、5035bと、から構成されているが、図1では、簡単のため、アーム部5031の構成を簡略化して図示している。実際には、アーム部5031が所望の自由度を有するように、関節部5033a~5033c及びリンク5035a、5035bの形状、数及び配置、並びに関節部5033a~5033cの回転軸の方向等が適宜設定され得る。例えば、アーム部5031は、好適に、6自由度以上の自由度を有するように構成され得る。これにより、アーム部5031の可動範囲内において内視鏡ユニット5006を自由に移動させることが可能になるため、所望の方向から内視鏡ユニット5006の鏡筒5003を患者5071の体腔内に挿入することが可能になる。
 関節部5033a~5033cにはアクチュエータが設けられており、関節部5033a~5033cは当該アクチュエータの駆動により所定の回転軸まわりに回転可能に構成されている。当該アクチュエータの駆動がアーム制御装置5045によって制御されることにより、各関節部5033a~5033cの回転角度が制御され、アーム部5031の駆動が制御される。これにより、内視鏡ユニット5006の位置及び姿勢の制御が実現され得る。この際、アーム制御装置5045は、力制御又は位置制御等、各種の公知の制御方式によってアーム部5031の駆動を制御することができる。
 例えば、術者5067が、入力装置5047(フットスイッチ5057を含む)を介して適宜操作入力を行うことにより、当該操作入力に応じてアーム制御装置5045によってアーム部5031の駆動が適宜制御され、内視鏡ユニット5006の位置及び姿勢が制御されてよい。当該制御により、アーム部5031の先端の内視鏡ユニット5006を任意の位置から任意の位置まで移動させた後、その移動後の位置で固定的に支持することができる。なお、アーム部5031は、いわゆるマスタースレイブ方式で操作されてもよい。この場合、アーム部5031は、手術室から離れた場所に設置される入力装置5047を介してユーザによって遠隔操作され得る。
 また、力制御が適用される場合には、アーム制御装置5045は、ユーザからの外力を受け、その外力にならってスムーズにアーム部5031が移動するように、各関節部5033a~5033cのアクチュエータを駆動させる、いわゆるパワーアシスト制御を行ってもよい。これにより、ユーザが直接アーム部5031に触れながらアーム部5031を移動させる際に、比較的軽い力で当該アーム部5031を移動させることができる。従って、より直感的に、より簡易な操作で内視鏡ユニット5006を移動させることが可能となり、ユーザの利便性を向上させることができる。
 ここで、一般的に、内視鏡下手術では、スコピストと呼ばれる医師によって内視鏡ユニット5006が支持されていた。これに対して、支持アーム装置5027を用いることにより、人手によらずに内視鏡ユニット5006の位置をより確実に固定することが可能になるため、術部の画像を安定的に得ることができ、手術を円滑に行うことが可能になる。
 なお、アーム制御装置5045は必ずしもカート5037に設けられなくてもよい。また、アーム制御装置5045は必ずしも1つの装置でなくてもよい。例えば、アーム制御装置5045は、支持アーム装置5027のアーム部5031の各関節部5033a~5033cにそれぞれ設けられてもよく、複数のアーム制御装置5045が互いに協働することにより、アーム部5031の駆動制御が実現されてもよい。
 (光源装置) 
  光源装置5043は、内視鏡ユニット5006に術部を撮影する際の照射光を供給する。光源装置5043は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成される。このとき、RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置5043において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド5005の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置5043は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド5005の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置5043は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察するもの(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得るもの等が行われ得る。光源装置5043は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図2乃至図3を用いて、ロボットアーム1420及びアーム制御装置1350を含む支持アーム装置1400と、内視鏡ユニット5006との詳細を説明する。図2は、ロボットアーム1420の先端に斜視鏡100の回転とカメラヘッド7100の回転を独立して制御する保持ユニット部7000が設けられた構成を示す模式図である。図3は、内視鏡ユニット5006の構成例を示す図である。なお、本実施形態に係る保持ユニット部7000が、内視鏡用保持装置に対応する。
(アーム部及びアーム制御装置)
 図2に示す様ように、本実施形態に係る支持アーム装置1400は、ベース部1410及びロボットアーム1420を備える。ベース部1410は支持アーム装置1400の基台であり、ベース部1410からロボットアーム1420が延伸される。そして、ロボットアーム1420の端部には、保持ユニット部7000が構成される。
 また、図2には図示しないが、ベース部1410内には、支持アーム装置1400を統合的に制御する制御部が設けられてもよく、ロボットアーム1420の駆動が当該制御部によって制御されてもよい。当該制御部は、例えばCPUやDSP等の各種の信号処理回路によって構成される。
 ロボットアーム1420は、複数の能動関節部1421a~1421eと、複数のリンク1422a~1422eと、ロボットアーム1420の先端に設けられた先端ユニットとしての内視鏡ユニット5006とを有する。
 (内視鏡ユニット)
 図3に示すように、本実施形態に係る内視鏡ユニット5006は、硬性鏡である斜視鏡100と、カメラヘッド5005との間に保持ユニット部7000を取り付け可能に構成される。すなわち、この内視鏡ユニット5006は、斜視鏡100と、カメラヘッド5005と、保持ユニット部7000と、を備える。また、保持ユニット部7000は、斜視鏡100と、カメラヘッド5005とを回転可能に保持する。さらにまた、本実施形態に係るカメラヘッド5005と斜視鏡100とは、それぞれ市販の汎用品を用いることが可能である。このため、本実施形態に係るカメラヘッド5005と斜視鏡100とは、保持ユニット部7000を介さずに接続可能に構成される。上述のように、本実施形態に係る斜視鏡100が内視鏡に対応する。また、本実施形態に係るカメラヘッド5005が撮像装置に対応する。
 なお、本実施形態では、斜視鏡100と、カメラヘッド5005と、保持ユニット部7000とを取り外し可能な例として説明するがこれに限定されない。例えば、これらの光学部品の全てを常時固定に構成してもよい。或いは、斜視鏡100及び、カメラヘッド5005の少なくとも一方を保持ユニット部7000に固定してもよい。
 (硬性鏡)
 斜視鏡100は、例えば硬性鏡であり、対物レンズ102と、第1リレーレンズ系104と、接眼レンズ106と、取り付け部108とを有する。なお、斜視鏡100は、接眼レンズ106を介して体腔内等の対象物を肉眼で観察可能に構成される。光軸L10は、対物レンズ102と、第1リレーレンズ系104との光軸である。すなわち、本実施形態に係る光軸L10が第1光軸に対応する。なお、本実施形態に係る斜視鏡100は、斜視鏡であるが、これに限定されない。例えば、直視鏡でもよい。
 対物レンズ102は、広範囲を観察できるように、例えば前側レンズ群2及び後側レンズ群を有している。対物レンズ102は、体腔内等の対象物を縮小した実像を結像する。
 また、第1リレーレンズ系104は、複数のリレーレンズ系104a~eを有する。複数のリレーレンズ系104a~eの各々は、例えばレンズ群で形成される。これにより、体腔内等の対象物の状態を体腔外で観察できるように、複数のリレーレンズ系104a~eを連結して距離の長い結像系を実現する。
 このように、それぞれのリレーレンズ系104a~eは、入射側と出射側の光線状態が同一になるように設計されており、複数のリレーレンズ系104a~eによって、対物レンズ102が形成した実像の結像を繰り返すことで伝達する。
 接眼レンズ106は、例えば第1リレーレンズ系104が伝達した実像を、虚像結像して、接眼レンズ106より保持ユニット部7000側に後方に拡大結像する。取り付け部108は、保持ユニット部7000の第2結合部7400と取り外し可能に結合する結合部である。ここで、図4と図5とを用いて、保持ユニット部7000を有しない場合の課題を説明する。
 図4は、第1比較例の内視鏡ユニット5006aを示す外観模式図である。図4では、カメラヘッド5005をロボットアーム1420の保持部1420aが把持する例である。図4に示すように、カメラヘッド5005を保持部1420aで保持しようとすると、カメラヘッド5005が大きいため、先端部が大きくなってしまう。このため、カメラヘッド5005と、斜視鏡100とをロボットアーム1420で、それぞれが回転可能で保持しようとすると、術者の腕と干渉し、手術を阻害してしまう恐れがある。
 図5は、第2比較例の内視鏡ユニット5006bを示す外観模式図である。図5では、斜視鏡100側をロボットアーム1420の保持部1420bが保持する例である。図5に示すように、斜視鏡100は、内視鏡の径が細い部分であるが、斜視鏡100の鏡筒部を保持部1420bで保持しようとすると、光源装置5043(図1参照)からの光が導入されるライトガイド部100bを避けて保持する必要がある。このため、保持部1420bの先端部から突出する鏡筒部分は短くなってしまう。つまり、保持ユニット部7000bからの鏡筒部の突出量が少ないということは、患者の体内に挿入できる量は減ってしまい、術者が欲しい視野が得られなくなってしまう恐れがある。
 (保持ユニット部)
 上述の図4及び5で示した課題を解決するため、第1実施形態では、ロボットアーム1420が斜視鏡100と、カメラヘッド5005とのそれぞれを回転可能に保持する際に、術者の腕との干渉を抑制し、且つ鏡筒部の突出量の低減を抑制する保持ユニット部7000を提供する。すなわち、この保持ユニット部7000は、リレー光学系を有し、斜視鏡100と、カメラヘッド5005との間に構成される。
 より具体的には、図3に示すように、保持ユニット部7000は、斜視制御部5016と、カメラヘッド回転制御部5017と、第2リレー光学系7050と、筐体7060と、カメラヘッド取り付け部7100と、カメラヘッド回転駆動部7200と、斜視鏡取付け部7400と、斜視鏡回転駆動部7500と、を有する。
 斜視制御部5016は、斜視鏡回転駆動部7500を制御して、斜視鏡100を回転させる。カメラヘッド回転制御部5017は、カメラヘッド回転駆動部7200を制御して、カメラヘッド5005を回転させる。なお、斜視制御部5016と、カメラヘッド回転制御部5017と、の詳細は後述する。
 第2リレー光学系7050は、筐体7060内に構成され、斜視鏡100の射出瞳をカメラヘッド5005の入射口の位置に移動させる。すなわち、筐体7060は、内部に第2リレー光学系7050を収納し、ロボットアーム1420の端部に配置される。上述のように、本実施形態に係る、カメラヘッド5005と斜視鏡100とは、保持ユニット部7000を介さずに接続可能に構成されている。このため、第2リレー光学系7050は、アフォーカル光学系に準じた構成とされており、例えば等倍で斜視鏡100の射出瞳をカメラヘッド5005にリレーする。これにより、本実施形態に係るカメラヘッド5005で撮像される画像は、保持ユニット部7000を介して撮像した場合と、保持ユニット部7000を介さずに撮像した場合とで同等の大きさとなる。
 カメラヘッド取り付け部7100は、カメラヘッド5005の取り付け部5010を介してカメラヘッド5005をカメラヘッド回転駆動部7200に着脱可能に取り付ける。このカメラヘッド取り付け部7100は、斜視鏡100の光軸L10と、カメラヘッド5005の光学系5007の光軸L12と、とが一致するように固定する。
 カメラヘッド回転駆動部7200は、モータなどのアクチュエータを備え、保持ユニット部7000の本体に対してカメラヘッド5005を回転させる。すなわち、カメラヘッド回転駆動部7200は、第2リレー光学系7050か射出した光が入射するように固定したカメラヘッド5005を第2リレー光学系7050の光軸L12に対して回転させる。なお、本実施形態に係るカメラヘッド取り付け部7100が第2取り付け部に対応し、カメラヘッド回転駆動部7200が、第2回転部に対応する。
 また、取り付け部5010は、取り付け部108と結合することが可能である。これにより、上述のように、カメラヘッド5005と斜視鏡100とは、保持ユニット部7000を介さずに直接接続させることが可能である。このため、ロボットアーム1420を使用しない術式にも対応可能である。
 斜視鏡取付け部7400は、取り付け部108を介して斜視鏡100を斜視鏡回転駆動部7500に対して着脱可能に取り付ける。この斜視鏡取付け部7400は、斜視鏡100の光軸L10と、第2リレー光学系7050の光軸L12と、とが一致するように固定する。すなわち、この斜視鏡取付け部7400は、斜視鏡100が射出した光が第2リレー光学系7050に入射するように、固定する。なお、本実施形態に係る斜視鏡取付け部7400が第1取り付け部に対応し、斜視鏡回転駆動部7500が、第1回転部に対応する。
 斜視鏡回転駆動部7500は、モータなどのアクチュエータを備え、保持ユニット部7000の本体に対して斜視鏡100を回転させる。すなわち、この斜視鏡回転駆動部7500は、射出した光が第2リレー光学系7050に入射するように固定した斜視鏡100を、第2リレー光学系7050の光軸L12に対して回転させる。
 また、筐体7060、カメラヘッド回転駆動部7200、及び斜視鏡回転駆動部7500等の構成を、気密性及び防水性が高い密閉構造内に配置することで、保持ユニット部7000について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
(カメラヘッド)
 カメラヘッド5005は、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、内視鏡ユニット制御部5014と、を有する。レンズユニット5007は、保持ユニット部7000との接続部に設けられる光学系である。斜視鏡100の先端から取り込まれた観察光は、保持ユニット部7000の第2リレー光学系7050を介してカメラヘッド5005まで導光され、当該レンズユニット5007に入射する。
 レンズユニット5007は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。レンズユニット5007は、AF(オートフォーカス)光学系を構成する。また、ズームレンズ及びフォーカスレンズは、撮像画像の倍率及び焦点の調整のため、その光軸上の位置が移動可能に構成される。
 撮像部5009は撮像素子によって構成され、レンズユニット5007の後段に配置される。レンズユニット5007を通過した観察光は、当該撮像素子の受光面に集光され、光電変換によって、観察像に対応した画像信号が生成される。撮像部5009によって生成された画像信号は、通信部5013に提供される。
 撮像部5009を構成する撮像素子としては、例えばCMOS(Complementary Metal Oxide Semiconductor)タイプのイメージセンサであり、Bayer配列を有するカラー撮影可能なものが用いられる。なお、当該撮像素子としては、例えば4K以上の高解像度の画像の撮影に対応可能なものが用いられてもよい。術部の画像が高解像度で得られることにより、術者5067は、当該術部の様子をより詳細に把握することができ、手術をより円滑に進行することが可能となる。
 駆動部5011は、レンズユニット5007の各レンズの位置を内視鏡ユニット制御部5014に従い制御する。内視鏡ユニット制御部5014は、CCU5039(図1参照)と連携して内視鏡ユニット5006全体を制御する。内視鏡ユニット制御部5014の詳細は後述する。なお、レンズユニット5007や撮像部5009等の構成を、気密性及び防水性が高い密閉構造内に配置することで、カメラヘッド5005について、オートクレーブ滅菌処理に対する耐性を持たせることができる。
 図6は、本実施形態に係る内視鏡ユニット5006を示す外観模式図である。図6に示すように、本実施形態に係る内視鏡ユニット5006では、カメラヘッド5005と斜視鏡100の間に第2リレー光学系7050を配置する。これにより、カメラヘッド5005と斜視鏡100とは直接嵌合する必要がなくなる。また、第2リレー光学系7050を内部に有する筐体7060はカメラヘッド5005の構造に対して、構造を小さくすることが可能である。これにより、ロボットアーム1420に構成した保持ユニット部7000を小型化すると共に、回転機構部を保持ユニット部7000内に収めることが可能となる。これらのことから分かるように、ロボットアーム1420は先端の保持ユニット部7000にカメラヘッド5005と斜視鏡100の回転機構をそれぞれ有しながら、その保持部の小型化が可能となる。
(機能構成部)
 図7は、図1に示す内視鏡ユニット5006、CCU5039、及びアーム制御装置5045の機能構成部の一例を示すブロック図である。図7を参照して、図2に示す構成例における内視鏡ユニット5006、CCU5039、及びアーム制御装置5045の機能についてより詳細に説明する。
 内視鏡ユニット5006は、上述のように、カメラヘッド5005と、保持ユニット部7000と、斜視鏡100と有する。すなわち、内視鏡ユニット5006は、機能構成部として、レンズユニット5007と、撮像部5009と、駆動部5011と、通信部5013と、内視鏡ユニット制御部5014と、斜視制御部5016と、カメラヘッド回転制御部5017と、カメラヘッド回転駆動部7200と、斜視鏡回転駆動部7500とを、有する。
 また、CCU5039は、その機能構成部として、通信部5059と、画像処理部5061と、制御部5063と、アーム通信部5064とを備えている。カメラヘッド5005とCCU5039とは、伝送ケーブル5065によって双方向に通信可能に接続されている。
 また、アーム制御装置5045は、支持アーム装置1400の制御装置であり、制御部1351と記憶部1357と入力部1359とを備える。更に、制御部1351は、全身協調制御部1353と理想関節制御部1355とを有する。
(内視鏡ユニットのカメラヘッド)
 まず、内視鏡ユニット5006のカメラヘッド5005の機能構成部について説明する。通信部5013は、CCU5039から、カメラヘッド5005の駆動を制御するための制御信号を受信する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。通信部5013は、受信した制御信号を内視鏡ユニット制御部5014に提供する。
 内視鏡ユニット制御部5014は、CCU5039の制御信号に従い、駆動部5011を制御して、レンズユニット5007が撮像部5009の撮像素子の受光面上に観察光を集光するように制御する。すなわち、駆動部5011は、アクチュエータによって構成され、内視鏡ユニット制御部5014からの制御により、レンズユニット5007のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部5009による撮像画像の倍率及び焦点が適宜調整され得る。
 また、内視鏡ユニット制御部5014は、撮像部5009に生成させた画像信号を、通信部5013を介して、CCU5039に供給する。すなわち、この通信部5013は、CCU5039との間で各種の情報を送受信するための通信装置によって構成される。通信部5013は、撮像部5009から得た画像信号をRAWデータとして伝送ケーブル5065を介してCCU5039に送信する。
 撮像部5009のフレームレートや露出値、倍率、焦点等の撮像条件は、取得された画像信号に基づいてCCU5039の制御部5063によって自動的に設定される。つまり、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡ユニット5006に搭載され、内視鏡ユニット制御部5014を介して実行される。
(内視鏡ユニットの保持ユニット部)
 次に、内視鏡ユニット5006の保持ユニット部7000の機能構成部について説明する。保持ユニット部7000の斜視制御部5016は、内視鏡ユニット制御部5014の指令に基づき、アクチュエータ7510を駆動する。アクチュエータ7510、斜視回転部エンコーダ7520は、斜視鏡回転駆動部7500に設けられる。内視鏡ユニット制御部5014は、斜視回転部エンコーダ7520が検出するアクチュエータ7510の回転角に基づいて、アクチュエータ7510を駆動し、斜視鏡100における光軸L12周りの回転を制御する。なお、本実施形態に係るアクチュエータ7510が第1電動機部に対応する。
 また、カメラヘッド制御部5017は、内視鏡ユニット制御部5014の指令に基づき、アクチュエータ7210を駆動する。アクチュエータ7210、カメラヘッド回転部エンコーダ7220は、カメラヘッド回転駆動部7200に設けられている。内視鏡ユニット制御部5014は、カメラヘッド回転部エンコーダ7220が検出するアクチュエータ7210の回転角に基づいて、カメラヘッド5005における光軸L14周りの回転を制御する。なお、本実施形態に係るアクチュエータ7210が第2電動機部に対応する。
 以上の構成により、保持ユニット部7000の本体部に対して、斜視鏡100とカメラヘッド5005とを独立して回転制御することが可能となる。
(CCU)
 次に、CCU5039の機能構成部について説明する。通信部5059は、カメラヘッド5005との間で各種の情報を送受信するための通信装置によって構成される。通信部5059は、カメラヘッド5005から、伝送ケーブル5065を介して送信される画像信号を受信する。通信部5059は、電気信号に変換した画像信号を画像処理部5061に提供する。また、通信部5059は、カメラヘッド5005に対して、カメラヘッド5005の駆動を制御するための制御信号を送信する。同様に、通信部5059は、保持ユニット部7000に対し、内視鏡ユニット制御部5014を介して、カメラヘッド5005、及び斜視鏡100の回転駆動を制御するための制御信号を送信する。
 画像処理部5061は、カメラヘッド5005から送信されたRAWデータである画像信号に対して各種の画像処理を施す。当該画像処理としては、例えば現像処理、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の公知の信号処理が含まれる。また、画像処理部5061は、AE、AF及びAWBを行うための、画像信号に対する検波処理を行う。
 画像処理部5061は、CPUやGPU等のプロセッサによって構成され、当該プロセッサが所定のプログラムに従って動作することにより、上述した画像処理や検波処理が行われ得る。なお、画像処理部5061が複数のGPUによって構成される場合には、画像処理部5061は、画像信号に係る情報を適宜分割し、これら複数のGPUによって並列的に画像処理を行う。
 制御部5063は、内視鏡ユニット5006による術部の撮像、及びその撮像画像の表示に関する各種の制御を行う。例えば、制御部5063は、カメラヘッド5005の駆動を制御するための制御信号を生成する。この際、撮像条件がユーザによって入力されている場合には、制御部5063は、当該ユーザによる入力に基づいて制御信号を生成する。あるいは、内視鏡ユニット5006にAE機能、AF機能及びAWB機能が搭載されている場合には、制御部5063は、画像処理部5061による検波処理の結果に応じて、最適な露出値、焦点距離及びホワイトバランスを適宜算出し、制御信号を生成する。
 また、制御部5063は、画像処理部5061によって画像処理が施された画像信号に基づいて、術部の画像を表示装置5041に表示させる。この際、制御部5063は、各種の画像認識技術を用いて術部画像内における各種の物体を認識する。例えば、制御部5063は、術部画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具5021使用時のミスト等を認識することができる。さらにまた、画像処理部5061は、後述するマークM100,M102(図14,16参照)等を画像に重畳することが可能である。
 制御部5063は、表示装置5041に術部の画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させる。手術支援情報が重畳表示され、術者5067に提示されることにより、より安全かつ確実に手術を進めることが可能になる。アーム通信部5064は、アーム制御装置5045と通信を行う。なお、CCU5039の回転制御の詳細は後述する。
 (アーム制御装置)
 アーム制御装置5045の制御部1351は、例えばCPUやDSP等の各種の信号処理回路によって構成される。制御部1351は、アーム制御装置5045を統合的に制御するとともに、支持アーム装置1400におけるロボットアーム1420の駆動を制御するための各種の演算を行う。具体的に、制御部1351は、全身協調制御部1353と理想関節制御部1355とを有する。全身協調制御部1353は、支持アーム装置1400のロボットアーム1420の能動関節部1421a~1421fに設けられたアクチュエータ1430を駆動制御するために、全身協調制御における各種の演算を行う。理想関節制御部1355は、外乱の影響を補正することにより全身協調制御に対する理想的な応答を実現する理想関節制御における各種の演算を行う。記憶部1357は、例えばRAM(Random Access Memory)やROM(Read Only Memory)等の記憶素子であってもよく、あるいは、半導体メモリ、ハードディスク、外付けの記憶装置であってよい。
 入力部359は、ユーザが制御部351に対して支持アーム装置400の駆動制御に関する情報や命令等を入力するための入力インターフェースである。入力部359は、例えばレバー、ペダル等のユーザが操作する操作手段を有し、当該レバー、ペダル等の操作に応じて、ロボットアーム1420の各構成部材の位置や速度等が、瞬時的な運動目的として設定されてもよい。かかる入力部359は、例えばレバーやペダルの他、マウス、キーボード、タッチパネル、ボタン及びスイッチ等のユーザが操作する操作手段を有してもよい。また、アーム制御装置5045とCCU5039は、CCU通信部1358とアーム通信部5064が通信を行うことにより、互いに情報の送受信が可能である。
(CCUの回転制御)
 ここで、CCU5039の回転制御の詳細を説明する。図8は、制御部5063内の保持ユニット部7000に対する回転制御に関する構成例のブロック図である。図8に示すように、制御部5063内には、回転角取得部5063aと、回転角演算部5063bと、制御信号生成部5063cと、を有する。
 回転角取得部5063aは、保持ユニット部7000の斜視回転部エンコーダ7520が検出するアクチュエータ7510の回転角を取得する。回転角演算部5063bは、斜視鏡100を回転させて所望の観察対象物を視認する際に、カメラヘッド5005を回転させて画像の天地を適正に制御する回転角を演算する。なお、本実施形態に係る回転角取得部5063aが第1回転角取得部に対応する。
 制御信号生成部5063cは、回転角演算部5063bが演算した回転角に基づく制御信号を、通信部5059及び内視鏡ユニット制御部5014を介して、カメラヘッド制御部5017に供給する。カメラヘッド制御部5017は、内視鏡ユニット制御部5014の指令に基づき、アクチュエータ7210を駆動する。つまり、制御信号生成部5063cは、通信部5059及び内視鏡ユニット制御部5014を介して、カメラヘッド5005の回転駆動を制御するための制御信号をカメラヘッド制御部5017に送信する。このように、アクチュエータ7210は、回転角取得部5063aが取得する前記斜視鏡100の回転角の情報に基づき、カメラヘッド5005を、光軸L14を中心に回転させる。
 図9及び図10を参照して、回転角演算部5063bの制御例をより詳細に説明する。図9は、斜視鏡100の外観を示す模式図である。図10は、斜視回転によって表示装置5041に表示された視野200が変わる様子を示す模式図である。
 図9に示すように、斜視鏡100では、対物レンズの被写体への向き(C1)は、斜視鏡100の長手方向(スコープ軸C2)に対して所定の角度φを有している。つまり、斜視鏡100では、スコープの接眼光学系に対して対物光学系が角度を成している。斜視鏡100では、観察のために斜視鏡100を、スコープ軸C2を回転軸として回転(以下、斜視回転という)させる動作が行われる。斜視回転を行うことで、回り込んだ視野や上下左右の周辺視野を得ることが可能である。なお、スコープ軸C2は光軸L10に対応する。
 図10に示すように、斜視鏡100の視野200は、斜視鏡100が回転する前に表示装置5041(図1参照)のモニタに表示されている状態を示す。斜視鏡100の視野200’は、斜視回転角αだけ斜視鏡を斜視回転した後に表示装置5041(図1参照)のモニタに表示されている状態を示す。このように、視野200と、視野200’との天地方向は一致するように制御される。
 より詳細には、回転角取得部5063aは、斜視回転部エンコーダ7520(図7参照)が検出するアクチュエータ7510の斜視回転角αを取得する。回転角演算部5063bは、斜視回転角αに基づき、カメラヘッド5005の天地方向の角度を維持するためのカメラヘッド5005の回転角γを演算する。制御信号生成部5063cは、回転角演算部5063bが演算した回転角γに基づく制御信号を、カメラヘッド制御部5017に供給する。すなわち、アクチュエータ7510は、斜視鏡100の斜視回転角αの情報に基づき、カメラヘッド5005が光軸L14に対して所定の回転角度、すなわち、天地方向の角度を維持するように、カメラヘッド5005を光軸L14に対して回転させる。このように、CCU5039は、斜視回転αとカメラヘッド5005の回転角γとの2軸を制御することで、視野200の天地方向の向きを維持した状態で、上下左右の周辺視野を得ることができる。
 図11は、斜視鏡100とカメラヘッド5005との回転制御例を示すフローチャートである。図11に示すように、回転角取得部5063aは、斜視回転部エンコーダ7520(図7参照)が検出するアクチュエータ7510の斜視回転角を逐次取得し、回転角演算部5063bは、回転角取得部5063aが取得した斜視回転角に基づき、斜視鏡100が回転したか否かを判定する(ステップS100)。回転角演算部5063bは、斜視鏡100の回転角が変化していないと判定する場合(ステップS100のNO)、ステップS100の処理をくり返す。
 一方で、回転角演算部5063bは、斜視鏡100の回転角が変化したと判定する場合(ステップS100のYES)、回転角演算部5063bは、取得された斜視回転角αに基づき、カメラヘッド5005の天地方向の角度を維持するためのカメラヘッド5005の回転角γを算出する(ステップS102)。
 次に、CCU5039の制御信号生成部5063cは、カメラヘッド5005の回転角γに関する制御信号を内視鏡ユニット5006の内視鏡ユニット制御部5014に送信する。そして、内視鏡ユニット制御部5014は斜視制御部5016を介してアクチュエータ7510を駆動制御する(ステップS104)。
 このように、入力部359からの入力にしたがい、斜視鏡100を回転させて所望の観察対象物を視認するとともに、カメラヘッド5005を回転させて画像の天地を適正に制御することが可能となる。
 以上説明したように、本実施形態に係る内視鏡ユニット5006では、カメラヘッド5005と斜視鏡100の間にリレー光学系7050を有する保持ユニット部7000を配置することとした。リレー光学系7050を内部に有する筐体7060はカメラヘッド5005の構造に対して、筐体7060の直径を小さくすることが可能であるので、ロボットアーム1420に構成した保持ユニット部7000を小型化すると共に、回転機構部を保持ユニット部7000内に収めることが可能となる。これにより、ロボットアーム1420は先端の保持ユニット部7000にカメラヘッド5005と斜視鏡100の回転機構をそれぞれ有しながら、小型化が可能となる。このように、内視鏡ユニット5006は、保持ユニット部7000を配置することにより、術者の腕との干渉を抑制し、手術を阻害しないように構成される。
 (第2実施形態)
 第2実施形態係る内視鏡ユニット5006cでは、第1実施形態に係る自動制御に加えて、カメラヘッド5005を術者が手動で回転可能に構成される点で、第1実施形態に係る内視鏡ユニット5006と相違する。以下では、第1実施形態係る内視鏡ユニット5006と相違する点を説明する。
 図12は、第2実施形態係る内視鏡ユニット5006aの構成例を示す図である。図12に示すように、カメラヘッド5005は、加速度センサ5015を更に有する。加速度センサ5015は、例えば基準線に対する重力方向の角度、又は、カメラヘッド5005の光軸を中心点とし、光軸に直交する面上における円の接線方向の加速度を検出することが可能である。
 カメラヘッド回転駆動部7200aのアクチュエータ7210(図7参照)は、例えば、カメラヘッド5005に加えられる外力に対しても、回転可能に構成される。これにより、術者は、カメラヘッド5005を保持ユニット部7000に対して回転させることが可能である。
 図13,及び図14を用いて、第2実施形態に係る制御部5063内の保持ユニット部7000に対する回転制御に関して説明する。図13は、第2実施形態係る制御部5063内の保持ユニット部7000に対する回転制御に関する構成例のブロック図である。図13に示すように、第2実施形態係る制御部5063内は、加速度信号取得部5063dと、方向生成部5063eと、マーク生成部5063fと、を更に有する。
 図14は、本実施形態の概要を説明するための図である。図14では、図13に示した内視鏡ユニット5006aにより得られる画像(以下、内視鏡映像とも称する)が示されている。図13中には、鉗子220と画像中心Cが表示されている。左図が現在の位置姿勢で得られる画像であり、右図が本実施形態に係る内視鏡制御処理による移動後に得られる画像である。つまり、右図では、斜視鏡100が回転している。本実施形態に係るマークM100は、垂直下方の向きを示すマークである。
 図13に示すように、加速度信号取得部5063は、加速度センサ5015の出力信号を取得する。方向生成部5063eは、加速度センサ5015の出力信号を用いて、カメラヘッド5005の重力方向からの回転角を生成する。そして、方向生成部5063eは、重力方向からの回転角の情報を有する出力信号をマーク生成部5063fに出力する。なお、本実施形態に係るカメラヘッド5005の重力方向とは、カメラヘッド5005を重力方向に向けたときに、カメラヘッド5005の撮像画像が表示される際の天地が所定の向き、例えば重力上方向となる方向である。
 マーク生成部5063fは、方向生成部5063eの出力信号に基づき、カメラヘッド5005の撮像画像に対して重力方向を示すマークM100を生成する。そして、マーク生成部5063fは、マークM100の情報を含む信号を、画像処理部5061(図7参照)に出力する。これにより、画像処理部5061は、カメラヘッド5005の撮像画像に対して重力方向を示すマークM100を重畳した画像を生成する。表示装置5041のモニタは、重力方向を示すマークM100を重畳した撮像画像を表示する。
 図15は、第2実施形態に係る制御例を示すフローチャートである。図15に示すように、回転角演算部5063bは、斜視鏡100が回転したか否かを判定する(ステップS100)。回転角演算部5063bは、斜視鏡100の回転角が変化していないと判定する場合(ステップS100のNO)、ステップS100の処理をくり返す。
 一方で、回転角演算部5063bが斜視鏡100の回転角が変化したと判定する場合(ステップS100のYES)、方向生成部5063eは、取得された斜加速度センサ5015の出力信号に基づき、重力方向からの回転角の情報を有する出力信号をマーク生成部5063fに出力する(ステップS202)。
 次に、マーク生成部5063fは、重力方向からの回転角の情報を用いて、マークM100を生成して、画像処理部5061に出力する。これにより、画像処理部5061は、カメラヘッド5005の撮像画像に対して重力方向を示すマークM100を重畳した画像を生成し、表示装置5041は、重力方向を示すマークM100を重畳した画像を表示する(ステップS204)。
 以上説明したように、本実施形態に係る内視鏡ユニット5006では、カメラヘッド5005を術者が手動で回転制御可能に構成することとした。この場合、方向生成部5063eは、重力方向からの回転角の情報を有する出力信号をマーク生成部5063fに出力し、マーク生成部5063fは、重力方向を示すマークM100の情報を有する出力信号を画像処理部5061に出力して、画像処理部5061は、カメラヘッド5005の撮像画像に対して重力方向を示すマークM100を重畳した画像を生成する。これにより、術者は、マークM100が示す向きにしたがいカメラヘッド5005を保持ユニット部7000に対して回転させることが可能となる。このため、術者は、斜視鏡100を回転させて所望の観察対象物を視認するとともに、カメラヘッド5005を回転させて画像の天地を適正に制御することが可能となる。
 (第2実施形態の変形例1)
 第2実施形態の変形例1に係る内視鏡ユニット5006cでは、カメラヘッド5005を回転させる方向を更にマークで示すことが可能となる点で、第2実施形態に係る内視鏡ユニット5006と相違する。以下では、第2実施形態係る内視鏡ユニット5006と相違する点を説明する。
 図16は、第2実施形態の変形例1の概要を説明するための図である。図16では、図12に示した内視鏡ユニット5006aにより得られる画像(以下、内視鏡映像とも称する)が示されている。図16中には、鉗子220と画像中心Cが表示されている。左図が現在の位置姿勢で得られる画像であり、右図が本実施形態に係る内視鏡制御処理による移動後に得られる画像である。つまり、右図では、斜視鏡100が回転している。マークM102は、カメラヘッド5005を回転させて画像の天地を適正な方向に向ける方向を示す。また、マークM102の長さは、回転角に対応する。
 図17は、第2実施形態の変形例1に係る制御例を示すフローチャートである。図17に示すように、回転角演算部5063bは、斜視鏡100が回転したか否かを判定する(ステップS100)。回転角演算部5063bは、斜視鏡100の回転角が変化していないと判定する場合(ステップS100のNO)、ステップS100の処理をくり返す。
 一方で、回転角演算部5063bが斜視鏡100の回転角が変化したと判定する場合(ステップS100のYES)、マーク生成部5063fは、斜視鏡100の回転角αに対応するマークM102を生成し、画像処理部5061に出力する。これにより、画像処理部5061は、マークM102を重畳した画像を生成し、表示装置5041は、重力方向を示すマークM100を重畳した画像を表示する(ステップS302)。
 次に、方向生成部5063eは、加速度センサ5015の出力信号を用いて、カメラヘッド5005が回転したか否かを判定する(ステップS304)。方向生成部5063eは、カメラヘッド5005が回転していないと判定する場合(ステップS304のNO)、ステップS304の処理をくり返す。
 一方で、方向生成部5063eがカメラヘッド5005の回転角が変化したと判定する場合(ステップS304のYES)、方向生成部5063eは、カメラヘッド5005の重力方向からの回転角γを算出し(ステップS306)、マーク生成部5063fは、斜視鏡100の回転角αと回転角γとに対応するマークM102を再び生成し、画像処理部5061に出力する。これにより、画像処理部5061は、新たなマークM102を重畳した画像を生成し、表示装置5041は、重力方向を示すマークM102を重畳した画像を表示する(ステップS308)。
 以上説明したように、本実施形態に係る内視鏡ユニット5006では、カメラヘッド5005を術者が手動で回転制御可能に構成することとした。この場合、マーク生成部5063fは、斜視鏡100の回転角αに対応するマークM102を生成し、画像処理部5061に出力する。これにより、画像処理部5061は、マークM102を重畳した画像を生成し、表示装置5041は、重力方向を示すマークM100を重畳した画像を表示する。これにより、術者は、マークM102が示す向きにしたがいカメラヘッド5005を保持ユニット部7000に対して回転角γを回転させることが可能となる。そして、カメラヘッド5005が術者に回転されると、マーク生成部5063fは、斜視鏡100の回転角αと回転角γとに対応するマークM102を再び生成し、画像処理部5061に出力する。これにより、画像処理部5061は、新たなマークM102を重畳した画像を生成し、表示装置5041は、新たな回転方向を示すマークM102を重畳した画像を再度表示する。この際にマークM102の長さが変化するので、術者は、術者が回転させたカメラヘッド5005の向きを確認しつつ、カメラヘッド5005を回転させて画像の天地を適正に制御することが可能となる。
 (第2実施形態の変形例2)
 第2実施形態の変形例2に係る内視鏡ユニット5006dでは、カメラヘッド5005aと保持ユニット部7000aとを一体的に構成した点で、第2実施形態に係る内視鏡ユニット5006と相違する。以下では、第2実施形態係る内視鏡ユニット5006と相違する点を説明する。
 図18は、第2実施形態の変形例2に係る内視鏡ユニット5006dの構成例を示す図である。図18に示すように、カメラヘッド5005aと保持ユニット部7000aとは一体的に構成される。なお、第1実施形態に係る内視鏡ユニット5006においても、カメラヘッド5005と保持ユニット部7000とを一体的に構成してもよい。このように、カメラヘッド5005aと保持ユニット部7000aとを一体的に構成に構成することにより、気密性をより高く構成することが可能である。
 (第2実施形態の変形例3)
 第2実施形態の変形例3に係る内視鏡ユニット5006eでは、カメラヘッド5005bを、第1実施形態に係るカメラヘッド5005と、第2リレー光学系7050と、筐体7060と、を一体的に構成した点で、第2実施形態に係る内視鏡ユニット5006と相違する。以下では、第2実施形態係る内視鏡ユニット5006と相違する点を説明する。
 図19は、第2実施形態の変形例3に係るカメラヘッド5005bの構成例を示す図である。図19に示すように、カメラヘッド5005と、第2リレー光学系7050と、筐体7060とは一体的に構成される。また、図19では、説明を簡単にするため、カメラヘッド5005bの構成のみを図示している。
 第1実施形態に係る内視鏡ユニット5006においても、カメラヘッド5005と、第2リレー光学系7050と、筐体7060とは一体的に構成してもよい。このように、カメラヘッド5005と、第2リレー光学系7050と、筐体7060とを一体的に構成に構成することにより、気密性をより高く構成することが可能である。
 (第3実施形態)
 第3実施形態に係る内視鏡ユニット5006eでは、斜視鏡100の替わりに直視鏡100aを構成する点で、第2実施形態の変形例2に係る内視鏡ユニット5006dと相違する。以下では、第2実施形態の変形例2に係る内視鏡ユニット5006dと相違する点を説明する。
 図20は、第3実施形態に係る内視鏡ユニット5006eの構成例を示す図である。図20に示すように、斜視鏡100の替わりに直視鏡100aを構成する点で、第2実施形態の変形例2に係る内視鏡ユニット5006dと相違する。また、直視鏡100aの出力側の端部に第1偏光フィルタ110が構成される。同様に、カメラヘッド5005cの撮像部5009の前部に第2偏光フィルタ5015が構成される。これにより、第3実施形態に係る内視鏡ユニット5006eでは偏光処理した撮像が可能となる。
 一方で、第1偏光フィルタ110と第2偏光フィルタ5015との向きを所定の向きに一致させないと、適切な偏光処理が行われなくなってしまう。このため、第3実施形態に係る内視鏡ユニット5006eでは、第1実施形態から第2実施形態の変形例2までに説明したのと同等のカメラヘッド5005cと直視鏡100aとの回転制御が行われる。これにより、直視鏡100aを回転させた場合にも、第1偏光フィルタ110と第2偏光フィルタ5015との向きを所定の向きに一致させることが可能となる。
 なお、本技術は以下のような構成を取ることができる。
(1)
 内部にリレー光学系を収納し、ロボットアームに配置される筐体と、
 前記筐体に配置され、前記リレー光学系に射出した光が入射するように固定した内視鏡を前記リレー光学系の光軸に対して回転させる第1回転部と、
 前記筐体に配置され、前記リレー光学系か射出した光が入射するように固定した撮像装置を前記リレー光学系の光軸に対して回転させる第2回転部と、
 を備えた内視鏡用保持装置。
(2)
 前記第1回転部に対して前記内視鏡を着脱可能に取り付ける第1取り付け部を、
 更に備える、(1)に記載の内視鏡用保持装置。
(3)
 前記第1取り付け部は、前記内視鏡の後段の第1光軸と、前記リレー光学系の第2光軸と、とが一致するように固定する、(2)に記載の内視鏡用保持装置。
(4)
 前記第1光軸を中心に回転する前記内視鏡の回転角を取得する第1回転角取得部を、
 更に備える、(3)に記載の内視鏡用保持装置。
(5)
 前記内視鏡を、前記第1光軸を中心に回転させる第1電動機部を更に備える、(4)に記載の内視鏡用保持装置。
(6)
 前記第2光軸と、前記撮像装置の光学系の第3光軸とが一致するように固定される、(4)に記載の内視鏡用保持装置。
(7)
 前記第2回転部は、前記第1回転角取得部が取得する前記前記内視鏡の回転角の情報に基づき、前記撮像装置を、前記第3光軸を中心に回転させる、(6)に記載の内視鏡用保持装置。
(8)
 前記第2回転部に対して前記撮像装置を着脱可能に取り付ける第2取り付け部を、
 更に備える、(7)に記載の内視鏡用保持装置。
(9)
 前記リレー光学と前記撮像装置の光学系は一体として構成される、(7)に記載の内視鏡用保持装置。
(10)
 前記撮像装置を、前記第3光軸を中心として回転させる第2電動機部を更に備える、(7)に記載の内視鏡用保持装置。
(11)
 前記第2電動機部は、前記前記内視鏡の回転角の情報に基づき、前記撮像装置を、前記第3光軸を中心として回転させる、(10)に記載の内視鏡用保持装置。
(12)
 前記内視鏡は、斜視鏡である、(11)に記載の内視鏡用保持装置。
(13)
 前記第2電動機部は、前記内視鏡の回転角の情報に基づき、前記撮像装置が前記第3光軸に対して所定の回転角度を維持するように、前記撮像装置を前記第3光軸に対して回転させる、(12)に記載の内視鏡用保持装置。
(14)
 前記内視鏡は、直視鏡である、(10)に記載の内視鏡用保持装置。
(15)
 前記内視鏡の光学系に第1偏光フィルタが配置され、前記撮像装置の光学系に第2偏光フィルタが配置され、
 前記第2電動機部は、前記前記内視鏡の回転角の情報に基づき、前記第1偏光フィルタと、前記第2偏光フィルタとが所定の回転角度を維持するように、前記撮像装置を前記第3光軸に対して回転させる、(14)に記載の内視鏡用保持装置。
(16)
 (4)に記載の内視鏡用保持装置と、
 前記第1回転角取得部が取得した前記内視鏡の回転角の情報を用いて、前記撮像装置の第3光軸に対する所定の向き、及び回転方向の少なくとも一方を示すマークを生成するマーク生成部と、
 前記撮像装置が撮像した画像に前記マークを重畳して表示装置に表示させる制御部と、 を備える内視鏡手術システム。
(17)
 前記撮像装置は、加速度センサが配置され、
 前記マーク生成部は、前記加速度センサの情報も用いて、前記第3光軸に対する所定の向き、及び回転方向の少なくとも一方を示すマークを生成する、
 (16)に記載の内視鏡手術システム。
(18)
 前記マーク生成部は、前記回転方向及び回転させるべき角度の情報を示すマークを生成する、(17)に記載の内視鏡手術システム。
(19)
 前記内視鏡用保持装置を端部に構成した前記ロボットアームを支持する支持アーム装置を、
 更に備える、(18)に記載の内視鏡手術システム。
(20)
 内部にリレー光学系を収納する筐体の一端に、射出した光が入射するように固定した内視鏡を、前記リレー光学系の光軸に対して回転させる第1回転工程と、
 前記リレー光学系か射出した光が入射するように前記筐体の他端に固定した撮像装置を、前記内視鏡の回転角に応じて前記リレー光学系の光軸に対して回転させる第2回転工程と、
 を備えた内視鏡用保持装置の制御方法。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
100:斜視鏡(内視鏡)、
100a:直視鏡(内視鏡)、
1350:アーム制御装置、
1420:ロボットアーム、
5000:内視鏡手術システム、
5005:カメラヘッド(撮像装置)、
5041:表示装置、
5063a:回転角取得部、
5063f:マーク生成部、
7000:保持ユニット部(内視鏡用保持装置)、
7050:第2リレー光学系(リレー光学系)、
7060:筐体、
7100:カメラヘッド取り付け部(第2取り付け部)、
7200:カメラヘッド回転駆動部(第2回転部)、
7210:アクチュエータ(第2電動機部)、
7400:視鏡取付け部(第1取り付け部)、
7500:斜視鏡回転駆動部(第1回転部)、
7510:アクチュエータ(第1電動機部)、
M100、M102:マーク。

Claims (20)

  1.  内部にリレー光学系を収納し、ロボットアームに配置される筐体と、
     前記筐体に配置され、前記リレー光学系に射出した光が入射するように固定した内視鏡を前記リレー光学系の光軸に対して回転させる第1回転部と、
     前記筐体に配置され、前記リレー光学系が射出した光が入射するように固定した撮像装置を前記リレー光学系の光軸に対して回転させる第2回転部と、
     を備えた内視鏡用保持装置。
  2.  前記第1回転部に対して前記内視鏡を着脱可能に取り付ける第1取り付け部を、
     更に備える、請求項1に記載の内視鏡用保持装置。
  3.  前記第1取り付け部は、前記内視鏡の後段の第1光軸と、前記リレー光学系の第2光軸と、とが一致するように固定する、請求項2に記載の内視鏡用保持装置。
  4.  前記第1光軸を中心に回転する前記内視鏡の回転角を取得する第1回転角取得部を、
     更に備える、請求項3に記載の内視鏡用保持装置。
  5.  前記内視鏡を、前記第1光軸を中心に回転させる第1電動機部を更に備える、請求項4に記載の内視鏡用保持装置。
  6.  前記第2光軸と、前記撮像装置の光学系の第3光軸とが一致するように固定される、請求項4に記載の内視鏡用保持装置。
  7.  前記第2回転部は、前記第1回転角取得部が取得する前記前記内視鏡の回転角の情報に基づき、前記撮像装置を、前記第3光軸を中心に回転させる、請求項6に記載の内視鏡用保持装置。
  8.  前記第2回転部に対して前記撮像装置を着脱可能に取り付ける第2取り付け部を、
     更に備える、請求項7に記載の内視鏡用保持装置。
  9.  前記リレー光学と前記撮像装置の光学系は一体として構成される、請求項7に記載の内視鏡用保持装置。
  10.  前記撮像装置を、前記第3光軸を中心として回転させる第2電動機部を更に備え、請求項7に記載の内視鏡用保持装置。
  11.  前記第2電動機部は、前記前記内視鏡の回転角の情報に基づき、前記撮像装置を、前記第3光軸を中心として回転させる、請求項10に記載の内視鏡用保持装置。
  12.  前記内視鏡は、斜視鏡である、請求項11に記載の内視鏡用保持装置。
  13.  前記第2電動機部は、前記内視鏡の回転角の情報に基づき、前記撮像装置が前記第3光軸に対して所定の回転角度を維持するように、前記撮像装置を前記第3光軸に対して回転させる、請求項12に記載の内視鏡用保持装置。
  14.  前記内視鏡は、直視鏡である、請求項10に記載の内視鏡用保持装置。
  15.  前記内視鏡の光学系に第1偏光フィルタが配置され、前記撮像装置の光学系に第2偏光フィルタが配置され、
     前記第2電動機部は、前記前記内視鏡の回転角の情報に基づき、前記第1偏光フィルタと、前記第2偏光フィルタとが所定の回転角度を維持するように、前記撮像装置を前記第3光軸に対して回転させる、請求項14に記載の内視鏡用保持装置。
  16.  請求項4に記載の内視鏡用保持装置と、
     前記第1回転角取得部が取得した前記内視鏡の回転角の情報を用いて、前記撮像装置の第3光軸に対する所定の向き、及び回転方向の少なくとも一方を示すマークを生成するマーク生成部と、
     前記撮像装置が撮像した画像に前記マークを重畳して表示装置に表示させる制御部と、
     を備える内視鏡手術システム。
  17.  前記撮像装置は、加速度センサが配置され、
     前記マーク生成部は、前記加速度センサの情報も用いて、前記第3光軸に対する所定の向き、及び回転方向の少なくとも一方を示すマークを生成する、
     請求項16に記載の内視鏡手術システム。
  18.  前記マーク生成部は、前記回転方向及び回転させるべき角度の情報を示すマークを生成する、請求項17に記載の内視鏡手術システム。
  19.  前記内視鏡用保持装置を端部に構成した前記ロボットアームを支持する支持アーム装置を、
     更に備える、請求項18に記載の内視鏡手術システム。
  20.  内部にリレー光学系を収納する筐体の一端に、射出した光が入射するように固定した内視鏡を、前記リレー光学系の光軸に対して回転させる第1回転工程と、
     前記リレー光学系か射出した光が入射するように前記筐体の他端に固定した撮像装置を、前記内視鏡の回転角に応じて前記リレー光学系の光軸に対して回転させる第2回転工程と、
     を備えた内視鏡用保持装置の制御方法。
PCT/JP2023/001475 2022-03-15 2023-01-19 内視鏡用保持装置、内視鏡手術システム、及び制御方法 WO2023176133A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-040681 2022-03-15
JP2022040681 2022-03-15

Publications (1)

Publication Number Publication Date
WO2023176133A1 true WO2023176133A1 (ja) 2023-09-21

Family

ID=88022751

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/001475 WO2023176133A1 (ja) 2022-03-15 2023-01-19 内視鏡用保持装置、内視鏡手術システム、及び制御方法

Country Status (1)

Country Link
WO (1) WO2023176133A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181242A1 (ja) * 2018-03-20 2019-09-26 ソニー株式会社 内視鏡及びアームシステム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019181242A1 (ja) * 2018-03-20 2019-09-26 ソニー株式会社 内視鏡及びアームシステム

Similar Documents

Publication Publication Date Title
US11033338B2 (en) Medical information processing apparatus, information processing method, and medical information processing system
JP7151109B2 (ja) 医療用撮像装置及び医療用観察システム
US11612306B2 (en) Surgical arm system and surgical arm control system
WO2020045015A1 (ja) 医療システム、情報処理装置及び情報処理方法
JP7480477B2 (ja) 医療用観察システム、制御装置及び制御方法
WO2018088105A1 (ja) 医療用支持アーム及び医療用システム
JP2019084334A (ja) 医療用保持装置、医療用アームシステム、及びドレープ装着機構
WO2018088113A1 (ja) 関節駆動用アクチュエータ及び医療用システム
US20220008156A1 (en) Surgical observation apparatus, surgical observation method, surgical light source device, and surgical light irradiation method
WO2021049438A1 (ja) 医療用支持アーム、及び医療用システム
WO2021049220A1 (ja) 医療用支持アーム、及び医療用システム
WO2020262262A1 (ja) 医療用観察システム、制御装置及び制御方法
JP7092111B2 (ja) 撮像装置、映像信号処理装置および映像信号処理方法
WO2019181242A1 (ja) 内視鏡及びアームシステム
WO2021256168A1 (ja) 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
WO2023176133A1 (ja) 内視鏡用保持装置、内視鏡手術システム、及び制御方法
WO2020045014A1 (ja) 医療システム、情報処理装置及び情報処理方法
WO2018043205A1 (ja) 医療用画像処理装置、医療用画像処理方法、プログラム
WO2022269992A1 (ja) 医療用観察システム、情報処理装置及び情報処理方法
JP7420141B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
WO2020050187A1 (ja) 医療システム、情報処理装置及び情報処理方法
JP2022012599A (ja) 医療システム、情報処理装置及び情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23770096

Country of ref document: EP

Kind code of ref document: A1