WO2018211969A1 - 入力制御装置、入力制御方法、および手術システム - Google Patents

入力制御装置、入力制御方法、および手術システム Download PDF

Info

Publication number
WO2018211969A1
WO2018211969A1 PCT/JP2018/017379 JP2018017379W WO2018211969A1 WO 2018211969 A1 WO2018211969 A1 WO 2018211969A1 JP 2018017379 W JP2018017379 W JP 2018017379W WO 2018211969 A1 WO2018211969 A1 WO 2018211969A1
Authority
WO
WIPO (PCT)
Prior art keywords
field image
target point
user
display
input control
Prior art date
Application number
PCT/JP2018/017379
Other languages
English (en)
French (fr)
Inventor
前田 毅
和田 成司
加奈 松浦
竜己 坂口
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US16/611,260 priority Critical patent/US10992857B2/en
Priority to JP2019519164A priority patent/JP7160033B2/ja
Publication of WO2018211969A1 publication Critical patent/WO2018211969A1/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00973Surgical instruments, devices or methods, e.g. tourniquets pedal-operated
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras

Definitions

  • the present technology relates to an input control device, an input control method, and a surgical system, and more particularly, to an input control device, an input control method, and a surgical system that can realize an input operation with a high degree of freedom.
  • screen operations are performed by performing zoom control of the camera and drive control of the camera arm with a feature point of a surgical tool or the like reflected in an operative field image acquired by the camera as a target point.
  • Patent Document 1 in an endoscopic surgery system, a marker whose display contents can be changed by a switch on the hand side of the treatment tool is provided near the distal end of the treatment tool, and the marker is displayed in an observation image from the endoscope. It is disclosed that an endoscope is operated based on a change in content.
  • the user can select any position on the screen as a target point in a hands-free manner.
  • the user cannot inevitably observe anything other than the gazing point, and thus cannot perform the screen operation while observing the operation field from a bird's-eye view.
  • the user can observe other than the target points.
  • the user in order to observe the surgical field over a wide area, it is necessary to move the surgical tool.
  • the user in a state where the movement of the surgical tool is restricted, such as when the surgical tool is holding an organ, the user desires Some screen operations could not be performed.
  • the target point used for the screen operation is switched according to the situation.
  • the present technology has been made in view of such a situation, and makes it possible to realize a highly flexible input operation without a burden on the user.
  • the input control device of the present technology based on a user's line-of-sight position with respect to the operative field image displayed on the display and a feature point detected in the operative field image, a display reference of the operative field image on the display, A target point determination unit for determining a target point to be determined.
  • the input control device is configured to display the display of the surgical field image based on a user's line-of-sight position with respect to the surgical field image displayed on the display and a feature point detected in the surgical field image.
  • a target point serving as a reference for display on the display of the operative field image Is determined.
  • the surgical system 10 includes a surgical field camera 11, a camera arm 12, a motion recognition camera 13, a display 14, a control device 15, an operating table 16, a microphone 17, and a foot switch 18.
  • the surgical system 10 is disposed in an operating room or the like and enables a procedure such as a surgical operation with reference to an image taken by the surgical field camera 11.
  • the surgical field camera 11 (surgical imaging device) is a modality device such as a 3D camera supported by the camera arm 12.
  • the operative field camera 11 images the operative field of the patient 21 lying on the operating table 16 and transmits a 3D image obtained as a result to the control device 15 as an operative field image.
  • the camera arm 12 supports the operative field camera 11 and controls the position and angle of the operative field camera 11.
  • the motion recognition camera 13 is a 2D camera, for example, and is disposed on the display 14.
  • the motion recognition camera 13 photographs the operator 22 with the microphone 17 attached to the head 22A.
  • the motion recognition camera 13 transmits a 2D image obtained as a result of imaging to the control device 15 as an operator image.
  • the display 14 is a 3D display having a relatively small screen, and is disposed at a position relatively close to the operator 22 (in the example of FIG. 1, a position close to the operator 22 on the operating table 16).
  • the display 14 displays an operative field image transmitted from the control device 15.
  • the control device 15 sets the control mode of the surgical system 10 to the manual mode or the hands-free mode.
  • the manual mode is a mode in which the surgical system 10 is controlled based on an input by the operator 22 (for example, an operation on a force applied to the camera arm 12 or an operation button (not shown) provided in each part).
  • the hands-free mode is based on non-contact input such as voice, line of sight, movement and direction of the head 22A, gesture, etc., and input by contact of the leg 22B to the foot switch 18 without depending on the hand of the operator 22. In this mode, the operation system 10 is controlled.
  • the control device 15 recognizes the movement and direction of the head 22A by detecting the position of the head 22A in the surgeon image transmitted from the motion recognition camera 13. Further, the control device 15 detects the direction of the line of sight of the operator 22 from the surgeon image, and recognizes the position of the line of sight on the screen of the display 14 based on the direction.
  • the line-of-sight detection is performed using the surgeon image captured by the motion recognition camera 13.
  • the surgeon 22 wears glasses equipped with a line-of-sight detection device, and the line of sight is detected.
  • the detection device may perform line-of-sight detection.
  • the movement and direction of the head 22 ⁇ / b> A are detected from the surgeon image. You may make it detect the motion and direction of head 22A from the position of the marker in an image.
  • the control device 15 receives the voice transmitted from the microphone 17 and performs voice recognition on the voice.
  • the control device 15 receives an operation signal representing an operation on the foot switch 18 transmitted from the foot switch 18, and recognizes the content of the operation on the foot switch 18 based on the operation signal.
  • control device 15 when the control mode is the hands-free mode, the control device 15 performs the movement and direction of the head 22A, the gesture of the surgeon 22, gaze position information indicating the position of the gaze on the screen of the display 14, a voice recognition result, The operation information indicating the volume and the content of the operation on the foot switch 18 is set as input information. The control device 15 recognizes the command from the operator 22 and the state of the operator 22 based on the input information.
  • the control device 15 permits the command from the operator 22 according to the state of the operator 22.
  • the control device 15 controls the imaging of the operative field camera 11, controls the driving of the camera arm 12, controls the display on the display 14, and changes the control mode in accordance with the permitted command. .
  • the foot switch 18 is arranged around the operator 22 and is operated by contact of the leg 22B of the operator 22.
  • the foot switch 18 transmits an operation signal representing an operation by the leg 22 ⁇ / b> B of the operator 22 to the control device 15.
  • the surgeon 22 lays the patient 21 on the operating table 16 and observes a surgical field image displayed on the display 14 while performing a procedure such as a surgical operation. I do.
  • the surgeon 22 when changing the control mode, the imaging conditions of the operative field camera 11, the position and angle of the operative field camera 11, the display 14 and the like, the surgeon 22 performs non-contact input or input by touching the foot. Therefore, the operator 22 can perform input while holding a surgical tool (not shown). Therefore, the operator 22 does not need to perform sterilization each time an input is performed.
  • any method can be employed as the gaze detection method, the movement and direction of the head 22A of the operator 22, the gesture detection method, and the voice acquisition method.
  • the line-of-sight detection device and the microphone 17 may not be wearable devices.
  • FIG. 2 is a top view showing a configuration example of the appearance of the foot switch 18.
  • the foot switch 18 has a lever 31 and a stepping portion 32 as operation input portions.
  • the lever 31 is configured as a so-called joystick and receives an operation input from the leg portion 22B.
  • the lever 31 is used, for example, for positioning the operative field camera 11 in the manual mode.
  • the stepping portion 32 is configured as a physical button as a whole, and accepts an operation input from the leg portion 22B.
  • the stepping unit 32 is used to control each part of the surgical system 10.
  • the operation mode is set according to the operation of the operator 22 and the position of the stepping portion 32 that is stepped on by the leg portion 22B. Then, the operation of the surgical field image displayed on the display 14 is performed by controlling the surgical field camera 11 and the camera arm 12 according to the set operation mode.
  • a predetermined target point on the operative field image displayed on the display 14 moves to the center of the screen as shown in the upper part of FIG.
  • the operative field image is enlarged or reduced (operation mode: zoom).
  • the head 22A of the operator 22 tilts to the left and right, so that the operative field image displayed on the display 14 as shown in the middle part of FIG. While the predetermined target point above moves to the center of the screen, the shooting angle of the operative field image is changed (operation mode: pivot).
  • operation mode is not limited to the zoom, pivot, and move operations described above, and an arbitrary operation mode may be set.
  • a target point serving as a display reference is determined on the operative field image, and drive control of the camera arm 12 is sequentially performed until the target point moves to the center of the screen.
  • the camera arm 12 when the user's line-of-sight position E1 with respect to the operative field image is set as a target point, the camera arm 12 performs a tracking operation so that the line-of-sight position E1 is at the center of the screen.
  • the tracking operation of the camera arm 12 is performed regardless of the screen operation described with reference to FIG.
  • the follow-up operation of the camera arm 12 is performed while enlarging the operative field image so that the line-of-sight position E1 becomes the center of the screen.
  • the line-of-sight position E1 is simply the center of the screen.
  • the following operation of the camera arm 12 is performed so that
  • FIG. 5 is a block diagram illustrating a functional configuration example of the surgery system 10.
  • operative field camera 11 includes an operative field camera 11, a camera arm 12, a display 14, a user I / F (interface) 51, an input control device 52, and a control device 71.
  • the user I / F 51 is configured as various input devices in the surgery system 10.
  • the user (surgeon 22) can input various information and instructions to the surgical system 10 via the user I / F 51.
  • Input information indicating the contents of the input made to the user I / F 51 is supplied to the input control device 52.
  • the user I / F 51 includes a motion recognition camera 13, a microphone 17, a foot switch 18, and the like.
  • the motion recognition camera 13 supplies a surgeon image obtained by photographing the surgeon to the input control device 52 as input information.
  • the foot switch 18 supplies operation information representing the operation contents of the operator 22 as input information to the input control device 52.
  • the user I / F 51 includes devices worn by the user such as glasses-type wearable devices and HMDs (Head-Mounted-Displays), for example, according to the user's gestures and line of sight detected by these devices. Various inputs may be performed.
  • devices worn by the user such as glasses-type wearable devices and HMDs (Head-Mounted-Displays), for example, according to the user's gestures and line of sight detected by these devices.
  • HMDs Head-Mounted-Displays
  • the input control device 52 generates control information used by the control device 71 for controlling the operative field camera 11 and the camera arm 12 based on the input information from the user I / F 51 and supplies the control information to the control device 71.
  • the input control device 52 includes a target point determination unit 61, a parameter generation unit 62, and an operation mode determination unit 63.
  • the target point determination unit 61 determines a target point serving as a reference for display on the display 14 of the operative field image based on the input information from the user I / F 51.
  • the target point determination unit 61 detects the direction of the line of sight of the operator 22 from the surgeon image supplied as input information from the user I / F 51, and the line of sight on the screen of the display 14 based on the direction. Recognize position. Further, the target point determination unit 61 acquires information representing the feature points detected in the operative field image captured by the operative field camera 11 supplied from the control device 71. Then, the target point determination unit 61 determines any one of the line-of-sight position of the operator 22 and the feature point detected in the operative field image as a target point serving as a display reference on the display 14.
  • the parameter generation unit 62 generates parameters for controlling the operative field camera 11 and the camera arm 12 in order to display the operative field image on the display 14 with the target point determined by the target point determination unit 61 as a reference. .
  • the parameters generated by the parameter generation unit 62 are supplied to the control device 71 as control information.
  • the operation mode determination unit 63 detects the position of the head 22A in the surgeon image supplied as input information from the user I / F 51, thereby determining the movement of the operator 22 such as the movement and direction of the head 22A. recognize.
  • the operation mode determination unit 63 determines the operation mode (zoom, pivot, and move) instructed by the operator 22 based on the recognition result of the operation of the operator 22 and displays operation mode information representing the operation mode. , And supplied to the control device 71 as control information.
  • the control device 71 controls the operation of the operative field camera 11 and the camera arm 12 based on the control information from the input control device 52, and controls the display of the operative field image on the display 14.
  • the control device 71 includes a CCU (Camera Control Unit) 81 and an arm control unit 82.
  • the CCU 81 controls the operation of the operative field camera 11 and the display 14.
  • the CCU 81 performs zoom control and focus control of the operative field camera 11 based on the parameter from the parameter generation unit 62 and the operation mode information from the operation mode determination unit 63.
  • zoom control of the operative field camera 11 optical zoom control may be performed, or digital zoom control may be performed.
  • the CCU 81 has an image processing unit 91.
  • the image processing unit 91 performs various types of image processing for displaying an image on the operative field image captured by the operative field camera 11 and supplies the processed image to the display 14. Further, the image processing unit 91 includes a feature point detection unit 101.
  • the feature point detection unit 101 detects a predetermined feature point from the operative field image photographed by the operative field camera 11, and supplies information representing the feature point to the input control device 52.
  • the feature point detection unit 101 detects a characteristic region in a surgical field image such as a part of a surgical tool used in surgery, an organ or a blood vessel that is a living tissue in the surgical part.
  • the feature point detection unit 101 may detect feature points by referring to external information such as CT (Computed Tomography) images and information from a surgical navigation system, for example.
  • CT Computer Tomography
  • the arm control unit 82 performs drive control of the camera arm 12 based on the parameter from the parameter generation unit 62 and the operation mode information from the operation mode determination unit 63.
  • the input control device 52 may be configured integrally with the user I / F 51 or may be configured integrated with the control device 71.
  • the operation system 10 performs a screen operation with the user's line-of-sight position and feature points detected in the surgical site image as target points.
  • the user can select any position in the screen as a target point in a hands-free manner.
  • the user cannot inevitably observe anything other than the gazing point, and thus cannot perform the screen operation while observing the operation field from a bird's-eye view.
  • the user can observe other than the target points.
  • the user in order to observe the surgical field over a wide area, it is necessary to move the surgical tool.
  • the user in a state where the movement of the surgical tool is restricted, such as when the surgical tool is holding an organ, the user desires Some screen operations could not be performed.
  • switching the target point by performing an input operation on a button or the like may be a burden on the user in some cases.
  • step S11 the target point determination unit 61 determines whether or not the line of sight of the operator 22 is detected from the operator image from the user I / F 51. The process of step S11 is repeated until the line of sight of the operator 22 is detected. When it is determined that the line of sight of the operator 22 has been detected, the process proceeds to step S12.
  • step S12 the feature point detection unit 101 detects a feature point from the operative field image photographed by the operative field camera 11.
  • step S13 the target point determination unit 61 determines whether or not the feature point detected in the operative field image by the feature point detection unit 101 matches the line-of-sight position of the operator 22. If it is determined in step S13 that the feature point matches the line of sight of the operator 22, the process proceeds to step S14.
  • step S14 the target point determination unit 61 selects a feature point that matches the line of sight of the operator 22 as a target point candidate.
  • step S13 determines whether the feature point matches the line of sight of the operator 22. If it is determined in step S13 that the feature point does not match the line of sight of the operator 22, the process proceeds to step S15.
  • step S15 the target point determination unit 61 selects the line-of-sight position as a target point candidate.
  • step S16 the operation mode determination unit 63 determines whether or not the foot switch 18 has been operated.
  • the operation of the foot switch 18 here is an operation for instructing an operation mode. Until the foot switch 18 is operated (until the operation mode is instructed), the processes in steps S13 to S15 are repeated, and the selection of target point candidates is repeated. If it is determined that the foot switch 18 has been operated, the process proceeds to step S17.
  • step S18 the parameter generating unit 62 generates a parameter for displaying the operative field image on the display 14 with the target point determined by the target point determining unit 61 as a reference.
  • step S ⁇ b> 19 the CCU 81 and the arm control unit 82 perform zoom control and operation of the operative field camera 11 based on the parameters generated by the parameter generation unit 62 and the operation mode information representing the move operation from the operation mode determination unit 63. Drive control of the camera arm 12 is performed.
  • the CCU 81 controls the drive of the camera arm 12 by calculating the drive amount of the camera arm 12 necessary for moving the target point to the center of the screen based on the angle of view information of the operative field camera 11 and the like. To do.
  • step S20 the operation mode determination unit 63 determines whether or not the foot switch 18 is operated. While the foot switch 18 is being operated, the processes in steps S16 and S17 are repeated, and in this example, the move operation based on the target point is continuously performed.
  • step S20 if it is determined in step S20 that the foot switch 18 has not been operated, the zoom control of the operative field camera 11 and the drive control of the camera arm 12 are stopped, and the process ends.
  • the distal end of the surgical instrument 151 is detected as the feature point P11
  • the distal end of the surgical instrument 152 is detected as the feature point P12.
  • the surgeon 22 wants to set the feature point P11 among the feature points P11 and P12 as the target point
  • the surgeon 22 gazes at the feature point P11, so that the gaze position E11 of the surgeon 22 and The feature point P11 matches.
  • the feature point P11 (the distal end of the surgical instrument 151) is displayed in the operative field image as shown in the lower part of FIG. Become the center.
  • a part of the blood vessel is detected as the feature point P21, and the other part of the blood vessel is detected as the feature point P22.
  • the surgeon 22 wants to set the feature point P21 as the target point among the feature points P21 and P22, the surgeon 22 gazes at the feature point P21, The feature point P21 matches.
  • the feature point P21 becomes the center of the operative field image as shown in the lower part of FIG.
  • feature points such as blood vessels and organs may be detected using external information such as CT images and information from the surgical navigation system.
  • the target point is determined by operating the foot switch 18 in a state where one of the feature points is selected as a target point candidate depending on the line-of-sight position.
  • the line-of-sight position itself can be determined as the target point.
  • the foot switch 18 is operated in a state where they are not selected according to the position of the line of sight, so that the line of sight position itself is obtained. Is selected as a target point candidate. Further, the line-of-sight position itself may be determined as the target point by operating the foot switch 18 in a state where no feature point is detected in the operative field image.
  • any of the user's line-of-sight position with respect to the operative field image and the feature point detected in the operative field image is determined as a target point using the user's operation as a trigger. Switching of target points to be used can be realized with a simple input operation without burden on the user.
  • information representing points that are target point candidates such as the user's line-of-sight position and the feature points of the surgical tool and biological tissue
  • information representing points that are target point candidates may be displayed on the surgical field image at all times. It may not always be displayed.
  • presentation of information not related to a procedure may hinder the progress of surgery, and it may be desirable that information is not always displayed.
  • FIG. 9 is a diagram showing an example of feedback to the user of points that are target point candidates.
  • the distal end of the surgical instrument 151 is detected as the feature point P11, and the distal end of the surgical instrument 152 is detected as the feature point P12. If any of them coincides with the user's line-of-sight position E11, the fact is fed back to the user.
  • the region of the feature point P11 is highlighted because the line-of-sight position E11 and the feature point P11 match.
  • a voice message such as “You can select the surgical instrument 1” is output when the line-of-sight position E11 and the feature point P11 match.
  • processing for forcibly stopping the operation control processing may be performed from the viewpoint of fail-safe.
  • the distal end of the surgical instrument when the distal end of the surgical instrument is determined as a target point and the tracking operation of the camera arm 12 is performed based on the target point, the distal end of the surgical instrument may suddenly frame out of the surgical field image. Conceivable.
  • the coordinates of the feature point P11 on the screen are constantly monitored.
  • the operation control process may be forcibly stopped even when the line-of-sight position of the user who selects the target point candidate cannot be detected while the tracking operation of the camera arm 12 is performed.
  • steps S31, S32, S36 to S38 in the flowchart of FIG. 11 is the same as the processing in steps S11, S12, S18 to S20 in the flowchart of FIG.
  • step S33 the target point determination unit 61 determines whether or not the feature point detected in the operative field image by the feature point detection unit 101 matches the line-of-sight position of the operator 22. The process of step S33 is repeated until the feature point matches the line of sight of the operator 22. If it is determined in step S33 that the feature point matches the line-of-sight position of the operator 22, the process proceeds to step S34.
  • step S ⁇ b> 34 the target point determination unit 61 sets either the feature point that matches the line-of-sight position of the operator 22 or the line-of-sight position of the operator 22 as the target point according to the selection of the user (the operator 22). decide.
  • the distal end of the surgical instrument 151 is detected as the feature point P11
  • the distal end of the surgical instrument 152 is detected as the feature point P12.
  • the line-of-sight position E11 of the operator 22 is set in advance as a target point. In this state, when the surgeon 22 gazes at the feature point P11, the line-of-sight position E11 of the surgeon 22 and the feature point P11 coincide.
  • a pop-up window 181 for allowing the operator 22 to select which of the line-of-sight position E11 and the feature point P11 is determined as the target point is displayed.
  • the pop-up window 181 is provided with a button for determining the line-of-sight position E11 as a target point, and a button for determining the feature point P11 (tip of the surgical instrument 151) as a target point.
  • these buttons for example, when the foot switch 18 is operated, the selection state is toggled, and one of the buttons is finally selected.
  • the feature point P11 is determined as the target point (the target point is switched from the line-of-sight position E11 to the feature point P11), and as shown in the lower part of FIG. Is the center of the operative field image.
  • the pop-up window 181 is displayed to cause the operator 22 to select which of the line-of-sight position E11 and the feature point P11 is to be determined as the target point.
  • the operator 22 may be notified of this by voice or the like.
  • the line-of-sight position E11 or the feature point P11 is determined as the target point by operating the foot switch 18, but the present invention is not limited thereto, and the line-of-sight position E11 is not limited thereto.
  • the feature point P11 may be selected as a target point.
  • step S35 the target point determination unit 61 determines whether or not the foot switch 18 has been operated to instruct the operation mode. The process of step S35 is repeated until the foot switch 18 is operated. When it is determined that the foot switch 18 has been operated, the process proceeds to step S36.
  • step S36 zoom control of the operative field camera 11 and drive control of the camera arm 12 are performed according to the instructed operation mode.
  • the feature point detected in the operative field image matches the user's line-of-sight position with respect to the surgical field image, the feature point and the user's line-of-sight position are selected by the user's operation. Therefore, the target point used for the screen operation can be switched with a simple input operation without burden on the user.
  • the target point switching inquiry Although it is performed when the line-of-sight position of the operator 22 coincides, it may be performed at an arbitrary timing such as a timing designated by the operator 22 or every predetermined time interval.
  • the target point switching inquiry may be performed in the operation control process described with reference to the flowchart of FIG. In this case, for example, when the three points of the biological tissue such as the user's line-of-sight position, the surgical instrument, and the blood vessel coincide with each other, the target point switching inquiry is performed.
  • the present invention is not limited thereto, and the target point may be moved to an arbitrary position on the screen. Also good.
  • control target controlled based on the input information is not limited to the surgical field camera 11 and the camera arm 12, but may be other configurations.
  • the technology according to the present disclosure is applied to a surgical system using an operative field camera
  • a system to which the technology according to the present disclosure can be applied is not limited to such an example.
  • the technology according to the present disclosure may be applied to an endoscope system or a microscope operation system.
  • the hardware configuration of the control device 71 and the input control device 52 can be configured by an information processing device including a circuit that can realize the functions of the control device 71 and the input control device 52.
  • the information processing device that constitutes the control device 71 and the input control device 52 includes, for example, a CPU (Central Processor Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and a storage device.
  • the functions of the control device 71 and the input control device 52 are realized by the CPU developing and executing a program recorded in advance in, for example, a ROM or a storage device on the RAM.
  • the information processing apparatus includes an external bus such as a host bus, a bridge, a PCI (Peripheral Component Interconnect / Interface) bus, an interface, an input device, an output device, a drive, a connection port, and a communication device, and is connected to each other. May be.
  • an external bus such as a host bus, a bridge, a PCI (Peripheral Component Interconnect / Interface) bus, an interface, an input device, an output device, a drive, a connection port, and a communication device, and is connected to each other. May be.
  • an external bus such as a host bus, a bridge, a PCI (Peripheral Component Interconnect / Interface) bus, an interface, an input device, an output device, a drive, a connection port, and a communication device, and is connected to each other. May be.
  • PCI Peripheral Component Interconnect / Interface
  • a computer program for realizing each function of the information processing apparatus constituting the surgical system according to the present embodiment as described above can be produced and installed in a personal computer or the like.
  • a computer-readable recording medium storing such a computer program can be provided.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed via a network, for example, without using a recording medium.
  • the number of computers that execute the computer program is not particularly limited.
  • the computer program may be executed in cooperation with a plurality of computers (for example, a plurality of servers).
  • this technique can take the following structures.
  • a target point for determining a target point serving as a reference for display on the display of the surgical field image based on the position of the user's line of sight with respect to the surgical field image displayed on the display and the feature point detected in the surgical field image An input control device comprising a determination unit.
  • the target point determination unit determines one of the user's line-of-sight position with respect to the operative field image and the feature point detected in the operative field image as the target point. apparatus.
  • the feature point is a point indicating a part of a surgical instrument detected in the surgical field image.
  • the target point determination unit uses the user's operation as a trigger to set the feature point as the target point.
  • the input control device uses the user's operation as a trigger to determine the user's sight line position.
  • the input control device uses the user's operation as a trigger to determine the user's sight line position.
  • the target point determination unit when the feature point detected in the operative field image matches the user's line-of-sight position with respect to the surgical field image, the user among the feature point and the user's line-of-sight position
  • the input control device according to any one of (2) to (4), wherein the one selected by the operation is determined as the target point.
  • the display further includes a parameter generation unit that generates a parameter for controlling a mechanism that is driven to display the operative field image based on the determined target point.
  • (1) to (7) The input control device described in 1.
  • the input control device according to (8), wherein the parameter is a parameter for performing at least one of zoom control of a camera that captures the operative field image and drive control of a camera arm that supports the camera.
  • Input control unit Determining a target point serving as a reference for display of the surgical field image on the display based on the position of the user's line of sight with respect to the surgical field image displayed on the display and the feature points detected in the surgical field image; Including input control method.
  • An operation system including an input control device having a target point determination unit.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Manipulator (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本技術は、ユーザの負担なく、自由度の高い入力操作を実現することができるようにする入力制御装置、入力制御方法、および手術システムに関する。 目標点決定部は、ディスプレイに表示される術野画像に対するユーザの視線位置と、術野画像において検出された特徴点とに基づいて、術野画像のディスプレイにおける表示の基準となる目標点を決定する。本技術は、手術システムの入力装置に適用することができる。

Description

入力制御装置、入力制御方法、および手術システム
 本技術は、入力制御装置、入力制御方法、および手術システムに関し、特に、自由度の高い入力操作を実現することができるようにする入力制御装置、入力制御方法、および手術システムに関する。
 近年、手術システムにおいて、術野画像に対する視線など、ユーザ(術者)のNUI(Natural User Interface)によってカメラのズーム制御やカメラアームの駆動制御を行うことで、画面操作を行うことが提案されている。
 また、従来、カメラにより取得された術野画像に写る術具などの特徴点を目標点として、カメラのズーム制御やカメラアームの駆動制御を行うことで、画面操作が行われている。
 例えば、特許文献1には、内視鏡手術システムにおいて、処置具の手元側のスイッチにより表示内容を変更可能なマーカを処置具の先端近傍に設け、内視鏡からの観察画像におけるマーカの表示内容の変化に基づいて、内視鏡を操作することが開示されている。
 視線位置による画面操作によれば、ユーザは、ハンズフリーで画面内の任意の位置を目標点として選択できる。しかしながら、ユーザは、必然的に注視点以外を観察することができないため、術野を俯瞰的に観察しながら画面操作を行うことができなかった。
 一方、術具などの特徴点を目標点とした画面操作によれば、ユーザは、その目標点以外を観察することができる。しかしながら、広範囲に術野を観察するためには、術具を移動させる必要があるものの、その術具が臓器を把持しているなど、術具の移動が制限された状態では、ユーザは、所望の画面操作を行えないことがあった。
特開平9-28713号公報
 したがって、画面操作に用いる目標点は、状況に応じて切り替えられることが望ましいが、その切り替えを、ユーザの負担なく、簡単な入力操作で実現させるものはなかった。
 本技術は、このような状況に鑑みてなされたものであり、ユーザの負担なく、自由度の高い入力操作を実現することができるようにするものである。
 本技術の入力制御装置は、ディスプレイに表示される術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定する目標点決定部を備える。
 本技術の入力制御方法は、入力制御装置が、ディスプレイに表示される術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定するステップを含む。
 本技術の手術システムは、術野画像を撮影するカメラと、前記術野画像を表示するディスプレイと、前記ディスプレイに表示される前記術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定する目標点決定部を有する入力制御装置を備える。
 本技術においては、ディスプレイに表示される術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点が決定される。
 本技術によれば、ユーザの負担なく、自由度の高い入力操作を実現することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した手術システムの構成例を示す図である。 フットスイッチの外観の構成例を示す上面図である。 手術システムにおける画面操作の例について説明する図である。 目標点に基づいた画面操作の具体例について説明する図である。 手術システムの機能構成例を示すブロック図である。 動作制御処理の第1の例について説明するフローチャートである。 目標点決定の一例について説明する図である。 目標点決定の一例について説明する図である。 目標点候補のユーザへのフィードバックの例について説明する図である。 動作制御停止時の画面表示の例を示す図である。 動作制御処理の第2の例について説明するフローチャートである。 目標点の選択の一例について説明する図である。
 以下、本開示を実施するための形態(以下、実施の形態とする)について説明する。なお、説明は以下の順序で行う。
 1.手術システムの概要
 2.手術システムの機能構成例
 3.手術システムの動作制御処理の第1の例
 4.手術システムの動作制御処理の第2の例
<1.手術システムの概要>
 図1は、本技術を適用した手術システムの構成例を示すブロック図である。
 手術システム10は、術野カメラ11、カメラアーム12、動作認識用カメラ13、ディスプレイ14、制御装置15、手術台16、マイクロフォン17、およびフットスイッチ18により構成される。手術システム10は、手術室などに配置され、術野カメラ11により撮影される画像を参照した外科手術などの処置を可能にする。
 術野カメラ11(手術用撮影装置)は、カメラアーム12により支持された3Dカメラなどのモダリティ機器である。術野カメラ11は、手術台16に横たわる患者21の術野などを撮影し、その結果得られる3D画像を術野画像として制御装置15に送信する。カメラアーム12は、術野カメラ11を支持し、術野カメラ11の位置や角度を制御する。
 動作認識用カメラ13は、例えば2Dカメラであり、ディスプレイ14の上に配置される。動作認識用カメラ13は、マイクロフォン17を頭部22Aに装着した術者22を撮影する。動作認識用カメラ13は、撮影の結果得られる2D画像を術者画像として制御装置15に送信する。
 ディスプレイ14は、比較的小さい画面を有する3Dディスプレイであり、術者22から比較的近い位置(図1の例では、手術台16の上の術者22に近い位置)に配置される。ディスプレイ14は、制御装置15から送信されてくる術野画像などを表示する。
 制御装置15は、手術システム10の制御モードを、手動モードまたはハンズフリーモードに設定する。手動モードは、術者22の手による入力(例えば、カメラアーム12への加力や、各部に設けられた図示せぬ操作ボタンなどの操作)に基づいて手術システム10の制御を行うモードである。ハンズフリーモードは、術者22の手によらない、音声、視線、頭部22Aの動きや方向、ジェスチャなどの非接触の入力や、フットスイッチ18への脚部22Bの接触による入力に基づいて、手術システム10の制御を行うモードである。
 以下においては、主に、制御モードがハンズフリーモードである場合の動作について説明する。
 制御装置15は、動作認識用カメラ13から送信されてくる術者画像内の頭部22Aの位置を検出することにより、頭部22Aの動きや方向を認識する。また、制御装置15は、術者画像から術者22の視線の方向を検出し、その方向に基づいてディスプレイ14の画面上の視線の位置を認識する。
 なお、手術システム10では、視線検出は、動作認識用カメラ13により撮影された術者画像を用いて行われるようにしたが、術者22が、視線検出デバイスを備えた眼鏡を装着し、視線検出デバイスが視線検出を行うようにしてもよい。
 また、手術システム10では、動作認識用カメラ13と術者22との距離が短いため、術者画像から頭部22Aの動きや方向を検出したが、術者22がマーカを装着し、術者画像内のマーカの位置から頭部22Aの動きや方向を検出するようにしてもよい。
 制御装置15は、マイクロフォン17から送信されてくる音声を受信し、その音声に対して音声認識を行う。制御装置15は、フットスイッチ18から送信されてくるフットスイッチ18に対する操作を表す操作信号を受信し、その操作信号に基づいてフットスイッチ18に対する操作の内容を認識する。
 さらに、制御モードがハンズフリーモードである場合、制御装置15は、頭部22Aの動きや方向、術者22のジェスチャ、ディスプレイ14の画面上の視線の位置を表す視線位置情報、音声認識結果、音量、およびフットスイッチ18に対する操作の内容を表す操作情報を入力情報とする。制御装置15は、入力情報に基づいて術者22からの指令および術者22の状態を認識する。
 制御装置15は、術者22の状態に応じて、術者22からの指令を許可する。制御装置15は、許可された指令に応じて、術野カメラ11の撮影を制御したり、カメラアーム12の駆動を制御したり、ディスプレイ14の表示を制御したり、制御モードを変更したりする。
 マイクロフォン17は、術者22の頭部22Aに装着される。マイクロフォン17は、術者22の音声などを含む周囲の音声を取得し、制御装置15に送信する。
 フットスイッチ18は、術者22の周囲に配置され、術者22の脚部22Bの接触により操作される。フットスイッチ18は、術者22の脚部22Bによる操作を表す操作信号を制御装置15に送信する。
 以上のように構成される手術システム10において、術者22は、患者21を手術台16の上に横たわらせ、ディスプレイ14に表示される術野画像などを見ながら、外科手術などの処置を行う。
 また、術者22は、制御モード、術野カメラ11の撮影条件、術野カメラ11の位置や角度、ディスプレイ14の表示などを変更する場合、非接触の入力または足の接触による入力を行う。したがって、術者22は、図示せぬ術具を把持した状態で入力を行うことができる。したがって、術者22は、入力を行うたびに滅菌処理を行う必要がない。
 なお、視線検出方法、術者22の頭部22Aの動きや方向、および、ジェスチャの検出方法、音声の取得方法としては、任意の方法を採用することができる。例えば、視線検出デバイスやマイクロフォン17は、ウェアラブルデバイスでなくてもよい。
(フットスイッチの外観構成と画面操作の例)
 図2は、フットスイッチ18の外観の構成例を示す上面図である。
 フットスイッチ18は、操作入力部として、レバー31と踏込み部32とを有している。
 レバー31は、いわゆるジョイスティックとして構成され、脚部22Bによる操作入力を受け付ける。レバー31は、例えば、手動モードにおける術野カメラ11の位置決めなどに用いられる。
 踏込み部32は、全体として物理的なボタンとして構成され、脚部22Bによる操作入力を受け付ける。踏込み部32は、手術システム10の各部の制御に用いられる。本実施の形態においては、術者22の動作と、脚部22Bにより踏み込まれる踏込み部32の位置とに応じて、動作モードが設定される。そして、設定された動作モードに従って、術野カメラ11およびカメラアーム12の制御が行われることで、ディスプレイ14に表示される術野画像の画面操作が行われる。
 例えば、踏込み部32の左上部32aまたは右上部32bが踏み込まれることで、図3上段に示されるように、ディスプレイ14に表示される術野画像上の所定の目標点が画面の中心に移動しながら、術野画像が拡大また縮小される(動作モード:ズーム)。
 また、踏込み部32の左下部32cまたは右下部32dが踏み込まれながら、術者22の頭部22Aが左右に傾くことで、図3中段に示されるように、ディスプレイ14に表示される術野画像上の所定の目標点が画面の中心に移動しながら、術野画像の撮影角度が変更される(動作モード:ピボット)。
 さらに、踏込み部32の左下部32cまたは右下部32dが踏み込まれることで、図3下段に示されるように、ディスプレイ14に表示される術野画像上の所定の目標点が画面の中心に移動する(動作モード:ムーブ)。
 なお、動作モードとして、上述したズーム、ピボット、およびムーブの各動作に限らず、任意の動作モードが設定されるようにしてもよい。
(目標点に基づいた画面操作の具体例)
 ここで、図4を参照して、目標点に基づいた画面操作の具体例について説明する。
 手術システム10においては、術野画像上で表示の基準となる目標点が決定され、その目標点が画面の中心に移動するまで、逐次的にカメラアーム12の駆動制御が行われる。
 例えば、図4に示されるように、術野画像に対するユーザの視線位置E1を目標点とした場合、視線位置E1が画面の中心になるように、カメラアーム12の追従動作が行われる。このとき、図3を参照して説明した画面操作によらず、カメラアーム12の追従動作が行われる。例えば、ズーム動作においては、術野画像を拡大しながら、視線位置E1が画面の中心になるようにカメラアーム12の追従動作が行われ、ムーブ動作においては、単に、視線位置E1が画面の中心になるようにカメラアーム12の追従動作が行われる。
<2.手術システムの機能構成例>
 図5は、手術システム10の機能構成例を示すブロック図である。
 図5に示される手術システム10は、術野カメラ11、カメラアーム12、ディスプレイ14、ユーザI/F(インタフェース)51、入力制御装置52、および制御装置71から構成される。
 ユーザI/F51は、手術システム10における各種の入力装置として構成される。ユーザ(術者22)は、ユーザI/F51を介して、手術システム10に対して各種の情報の入力や指示入力を行うことができる。ユーザI/F51に対して行われた入力の内容を示す入力情報は、入力制御装置52に供給される。
 ユーザI/F51には、動作認識用カメラ13、マイクロフォン17、フットスイッチ18などが含まれる。動作認識用カメラ13は、術者を撮影した術者画像を入力情報として、入力制御装置52に供給する。また、フットスイッチ18は、術者22の操作の内容を表す操作情報を入力情報として、入力制御装置52に供給する。
 さらに、ユーザI/F51に、例えばメガネ型のウェアラブルデバイスやHMD(Head Mounted Display)などの、ユーザによって装着されるデバイスが含まれるようにし、これらのデバイスによって検出されるユーザのジェスチャや視線に応じて各種の入力が行われるようにしてもよい。
 入力制御装置52は、ユーザI/F51からの入力情報に基づいて、制御装置71が術野カメラ11およびカメラアーム12の制御に用いる制御情報を生成し、制御装置71に供給する。
 入力制御装置52は、目標点決定部61、パラメータ生成部62、および動作モード判定部63を備えている。
 目標点決定部61は、ユーザI/F51から入力情報に基づいて、術野画像のディスプレイ14における表示の基準となる目標点を決定する。
 具体的には、目標点決定部61は、ユーザI/F51から入力情報として供給される術者画像から術者22の視線の方向を検出し、その方向に基づいてディスプレイ14の画面上の視線位置を認識する。また、目標点決定部61は、制御装置71から供給される、術野カメラ11により撮影された術野画像において検出された特徴点を表す情報を取得する。そして、目標点決定部61は、術者22の視線位置、および、術野画像において検出された特徴点のいずれかを、ディスプレイ14における表示の基準となる目標点に決定する。
 パラメータ生成部62は、ディスプレイ14において、目標点決定部61によって決定された目標点を基準として術野画像を表示するために、術野カメラ11およびカメラアーム12を制御するためのパラメータを生成する。パラメータ生成部62により生成されたパラメータは、制御情報として制御装置71に供給される。
 動作モード判定部63は、ユーザI/F51から入力情報として供給されてくる術者画像内の頭部22Aの位置を検出することにより、頭部22Aの動きや方向など、術者22の動作を認識する。動作モード判定部63は、術者22の動作の認識結果に基づいて、術者22が指示している動作モード(ズーム、ピボット、およびムーブ)を判定し、その動作モードを表す動作モード情報を、制御情報として制御装置71に供給する。
 制御装置71は、入力制御装置52からの制御情報に基づいて、術野カメラ11およびカメラアーム12の動作を制御するとともに、ディスプレイ14における術野画像の表示を制御する。
 制御装置71は、CCU(Camera Control Unit)81、およびアーム制御部82を備えている。
 CCU81は、術野カメラ11およびディスプレイ14の動作を制御する。
 具体的には、CCU81は、パラメータ生成部62からのパラメータと、動作モード判定部63からの動作モード情報とに基づいて、術野カメラ11のズーム制御やフォーカス制御を行う。術野カメラ11のズーム制御においては、光学ズームの制御が行われてもよいし、デジタルズームの制御が行われるようにしてもよい。
 CCU81は、画像処理部91を有している。
 画像処理部91は、術野カメラ11により撮影された術野画像に対して、画像を表示するための各種の画像処理を施し、ディスプレイ14に供給する。さらに、画像処理部91は、特徴点検出部101を有している。
 特徴点検出部101は、術野カメラ11により撮影された術野画像から所定の特徴点を検出し、その特徴点を表す情報を入力制御装置52に供給する。例えば、特徴点検出部101は、手術で用いられる術具の一部や、術部における生体組織である臓器や血管など、術野画像中の特徴的な領域を検出する。なお、特徴点検出部101は、例えばCT(Computed Tomography)画像や、手術用ナビゲーションシステムからの情報などの外部情報を参照することで、特徴点を検出するようにしてもよい。
 アーム制御部82は、パラメータ生成部62からのパラメータと、動作モード判定部63からの動作モード情報とに基づいて、カメラアーム12の駆動制御を行う。
 なお、図5の例において、入力制御装置52は、ユーザI/F51と一体となって構成されるようにもできるし、制御装置71と一体となって構成されるようにしてもよい。
 以上のような構成により、手術システム10においては、ユーザの視線位置や、術部画像において検出された特徴点を目標点として、画面操作が行われる。
 従来の手術システムにおいては、視線位置による画面操作によれば、ユーザは、ハンズフリーで画面内の任意の位置を目標点として選択できる。しかしながら、ユーザは、必然的に注視点以外を観察することができないため、術野を俯瞰的に観察しながら画面操作を行うことができなかった。
 一方、術具などの特徴点を目標点とした画面操作によれば、ユーザは、その目標点以外を観察することができる。しかしながら、広範囲に術野を観察するためには、術具を移動させる必要があるものの、その術具が臓器を把持しているなど、術具の移動が制限された状態では、ユーザは、所望の画面操作を行えないことがあった。
 したがって、画面操作に用いる目標点は、状況に応じて切り替えられることが望ましい。
 しかしながら、目標点の切り替えを、ボタンなどに対する入力操作により行うことは、場合によっては、ユーザの負担になるおそれがある。特に、目標点の候補が複数存在する場合には、ユーザの混乱を避けるため、目標点の切り替えを、より簡単な入力操作で実現させる必要がある。
 そこで、以下においては、画面操作に用いる目標点の切り替えを、ユーザの負担なく、簡単な入力操作で実現させる手術システム10の動作制御処理について説明する。
<3.手術システムの動作制御処理の第1の例>
 まず、図6のフローチャートを参照して、手術システム10の動作制御処理の第1の例について説明する。この例では、動作モードとしてムーブ動作が行われる場合の処理について説明する。
 ステップS11において、目標点決定部61は、ユーザI/F51からの術者画像から術者22の視線が検出されたか否かを判定する。ステップS11の処理は、術者22の視線が検出されるまで繰り返される。そして、術者22の視線が検出されたと判定されると、処理はステップS12に進む。
 ステップS12において、特徴点検出部101は、術野カメラ11により撮影された術野画像から特徴点を検出する。
 ステップS13において、目標点決定部61は、特徴点検出部101によって術野画像において検出された特徴点と、術者22の視線位置とが一致したか否かを判定する。ステップS13において、特徴点と術者22の視線位置とが一致したと判定されると、処理はステップS14に進む。
 ステップS14において、目標点決定部61は、術者22の視線位置と一致した特徴点を目標点候補に選択する。
 一方、ステップS13において、特徴点と術者22の視線位置とが一致していないと判定された場合、処理はステップS15に進む。
 ステップS15において、目標点決定部61は、視線位置を目標点候補に選択する。
 ステップS16において、動作モード判定部63は、フットスイッチ18が操作されたか否かを判定する。ここでのフットスイッチ18の操作は、動作モードを指示するための操作である。フットスイッチ18が操作されるまでの間(動作モードが指示されるまでの間)、ステップS13乃至S15の処理が繰り返され、目標点候補の選択が繰り返される。そして、フットスイッチ18が操作されたと判定されると、処理はステップS17に進む。
 ステップS17において、目標点決定部61は、フットスイッチ18が操作されたことをトリガに、目標点候補に選択した特徴点または視線位置を目標点に決定する。
 ステップS18において、パラメータ生成部62は、ディスプレイ14において、目標点決定部61によって決定された目標点を基準として術野画像を表示するためのパラメータを生成する。
 ステップS19において、CCU81およびアーム制御部82は、パラメータ生成部62によって生成されたパラメータと、動作モード判定部63からのムーブ動作を表す動作モード情報とに基づいて、術野カメラ11のズーム制御およびカメラアーム12の駆動制御を行う。
 例えば、CCU81は、目標点を画面の中心に移動させるために必要なカメラアーム12の駆動量を、術野カメラ11の画角情報などに基づいて算出することで、カメラアーム12の駆動を制御する。
 ステップS20において、動作モード判定部63は、フットスイッチ18が操作されているか否かを判定する。フットスイッチ18が操作されている間、ステップS16,S17の処理が繰り返され、この例では、目標点を基準としたムーブ動作が継続的に行われる。
 一方、ステップS20において、フットスイッチ18が操作されていないと判定された場合、術野カメラ11のズーム制御およびカメラアーム12の駆動制御は停止され、処理は終了する。
 例えば、図7上段に示される術野画像においては、術具151の先端が特徴点P11として検出され、術具152の先端が特徴点P12として検出されている。ここで、術者22が、特徴点P11と特徴点P12のうち、特徴点P11を目標点としたい場合、術者22が特徴点P11を注視することで、術者22の視線位置E11と、特徴点P11とが一致する。
 そして、この状態で、術者22が、ムーブ動作を指示するフットスイッチ18の操作を行うことで、図7下段に示されるように、特徴点P11(術具151の先端)が術野画像の中心となる。
 また、図8上段に示される術野画像においては、血管のある一部が特徴点P21として検出され、血管の他の一部が特徴点P22として検出されている。ここで、術者22が、特徴点P21と特徴点P22のうち、特徴点P21を目標点としたい場合、術者22が特徴点P21を注視することで、術者22の視線位置E21と、特徴点P21とが一致する。
 そして、この状態で、術者22が、ムーブ動作を指示するフットスイッチ18の操作を行うことで、図8下段に示されるように、特徴点P21が術野画像の中心となる。
 なお、図8の例においては、CT画像や手術用ナビゲーションシステムからの情報などの外部情報を用いて、血管や臓器などの特徴点が検出されるようにしてもよい。
 また、図7や図8の例では、視線位置によって、特徴点のいずれかが目標点候補として選択された状態で、フットスイッチ18が操作されることで、目標点が決定されるものとしたが、上述した処理においては、視線位置そのものを目標点に決定することもできる。
 例えば、図7や図8の例のように、選択可能な特徴点が存在する場合であっても、それらを視線位置によって選択しない状態で、フットスイッチ18が操作されることで、視線位置そのものが目標点候補として選択される。また、術野画像において特徴点が検出されない状態で、フットスイッチ18が操作されることで、視線位置そのものが目標点に決定されるようにしてもよい。
 以上の処理によれば、術野画像に対するユーザの視線位置、および、術野画像において検出された特徴点のいずれかが、ユーザの操作をトリガとして、目標点に決定されるので、画面操作に用いる目標点の切り替えを、ユーザの負担なく、簡単な入力操作で実現することが可能となる。
 なお、上述した処理において、ユーザの視線位置や、術具や生体組織の特徴点など、目標点候補となる点を表す情報が、術野画像上に常に表示されるようにしてもよいし、常には表示されないようにしてもよい。特に、手術に用いられる術野画像において、手技に関係のない情報の提示は、手術の進行の妨げになるおそれがあり、常に表示されない方が望ましい場合もある。
 図9は、目標点候補となる点のユーザへのフィードバックの例を示す図である。
 図9のA,Bそれぞれの術野画像においては、術具151の先端が特徴点P11として検出され、術具152の先端が特徴点P12として検出されている。そのうちのいずれかが、ユーザの視線位置E11と一致した場合に、その旨がユーザへフィードバックされる。
 図9のAの例では、視線位置E11と特徴点P11とが一致することで、特徴点P11の領域が強調表示されている。また、図9のBの例では、視線位置E11と特徴点P11とが一致することで、例えば「術具1を選択できます」などの音声メッセージが出力される。これにより、手術の進行の妨げになることなく、目標点候補となる点をユーザに認識させることができる。
 なお、ユーザへのフィードバックの手法は、図9で例示したものに限られない。
 また、上述した処理において、フェールセーフの観点から、強制的に動作制御処理を停止する処理が行われるようにしてもよい。
 例えば、術具の先端が目標点に決定され、その目標点に基づいて、カメラアーム12の追従動作が行われる中で、その術具の先端が、術野画像から急にフレームアウトする場合が考えられる。
 そこで、図10上段に示されるように、術具151の先端(特徴点P11)が目標点に決定された後、画面上での特徴点P11の座標が常時モニタリングされるようにする。
 そして、図10下段に示されるように、画面上に設定された、画面中心を基準とした所定の大きさの矩形領域171内に、特徴点P11の座標が位置するか否かが判定されるようにする。矩形領域171内に、特徴点P11の座標が位置しないと判定された場合、強制的に動作制御処理が停止されるようにする。
 さらに、カメラアーム12の追従動作が行われる中で、目標点候補を選択するユーザの視線位置が検出できなくなった場合にも、強制的に動作制御処理が停止されるようにしてもよい。
<4.手術システムの動作制御処理の第2の例>
 次に、図11のフローチャートを参照して、手術システム10の動作制御処理の第2の例について説明する。
 なお、図11のフローチャートのステップS31,S32,S36乃至S38における処理は、図6のフローチャートのステップS11,S12,S18乃至S20における処理と同様であるので、その説明は省略する。
 また、図11の処理においては、術野画像における特徴点およびユーザの視線位置のいずれかが、あらかじめ目標点に設定されているものとする。
 ステップS33において、目標点決定部61は、特徴点検出部101によって術野画像において検出された特徴点と、術者22の視線位置とが一致したか否かを判定する。ステップS33の処理は、特徴点と術者22の視線位置とが一致するまで繰り返される。そして、ステップS33において、特徴点と術者22の視線位置とが一致したと判定されると、処理はステップS34に進む。
 ステップS34において、目標点決定部61は、ユーザ(術者22)の選択に応じて、術者22の視線位置と一致した特徴点、および、術者22の視線位置のいずれかを目標点に決定する。
 例えば、図12上段に示される術野画像においては、術具151の先端が特徴点P11として検出され、術具152の先端が特徴点P12として検出されている。ここでは、術者22の視線位置E11があらかじめ目標点に設定されているものとする。この状態で、術者22が特徴点P11を注視すると、術者22の視線位置E11と、特徴点P11とが一致する。
 このとき、術野画像上には、視線位置E11と特徴点P11のいずれを目標点に決定するかを術者22に選択させるためのポップアップウィンドウ181が表示される。ポップアップウィンドウ181には、視線位置E11を目標点に決定するためのボタンと、特徴点P11(術具151の先端)を目標点に決定するためのボタンとが設けられる。これらのボタンは、例えばフットスイッチ18が操作されることにより、選択状態がトグルされ、最終的にいずれか一方が選択される。
 図12の例では、特徴点P11を目標点に決定する(目標点を視線位置E11から特徴点P11に切り替える)ことが選択され、図12下段に示されるように、特徴点P11(術具151の先端)が術野画像の中心となる。
 なお、図12の例では、視線位置E11と特徴点P11のいずれを目標点に決定するかを術者22に選択させるために、ポップアップウィンドウ181が表示されるものとしたが、これに限らず、例えば音声などによって、その旨が術者22に対して通知されるようにしてもよい。
 また、フットスイッチ18が操作されることにより、視線位置E11と特徴点P11のいずれを目標点に決定するかが選択されるものとしたが、これに限らず、その他の手段によって、視線位置E11と特徴点P11のいずれを目標点に決定するかが選択されるようにしてもよい。
 このようにして、目標点が決定された後、ステップS35において、目標点決定部61は、動作モードを指示するためにフットスイッチ18が操作されたか否かを判定する。ステップS35の処理は、フットスイッチ18が操作されるまで繰り返される。そして、フットスイッチ18が操作されたと判定されると、処理はステップS36に進む。
 ステップS36以降においては、指示された動作モードに従って、術野カメラ11のズーム制御およびカメラアーム12の駆動制御が行われる。
 以上の処理によれば、術野画像において検出された特徴点と、術野画像に対するユーザの視線位置とが一致したときに、その特徴点およびユーザの視線位置のうちのユーザの操作により選択された方が目標点に決定されるので、画面操作に用いる目標点の切り替えを、ユーザの負担なく、簡単な入力操作で実現することが可能となる。
 なお、上述した処理においては、視線位置と特徴点のいずれを目標点に決定するかを術者22に選択させるための表示や通知、言い換えると、目標点の切り替えの問い合わせは、特徴点と術者22の視線位置とが一致した時に行われるものとしたが、術者22により指定されたタイミングや、予め決まった時間間隔毎など、任意のタイミングで行われるようにしてもよい。
 また、目標点の切り替えの問い合わせは、図6のフローチャートを参照して説明した動作制御処理において行われるようにしてもよい。この場合、例えば、ユーザの視線位置、術具、血管などの生体組織の3点が一致したときに、目標点の切り替えの問い合わせが行われるようにする。
 以上においては、術野画像の表示の基準となる目標点を、画面の中心に移動させる構成について説明したが、これに限らず、目標点を、画面上の任意の位置に移動させるようにしてもよい。
 なお、上述した手術システムにおいて、入力情報に基づいて制御される制御対象は、術野カメラ11やカメラアーム12だけに限らず、それ以外の構成であってもよい。
 以上においては、本開示に係る技術を、術野カメラを用いた手術システムに適用した例について説明したが、本開示に係る技術が適用され得るシステムはかかる例に限定されない。例えば、本開示に係る技術は、内視鏡システムや顕微鏡手術システムに適用されてもよい。
 なお、制御装置71や入力制御装置52のハードウェア構成は、制御装置71や入力制御装置52の機能を実現できる回路を備えた情報処理装置で構成することができる。制御装置71や入力制御装置52を構成する情報処理装置は、例えばCPU(Central Processor Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、およびストレージ装置を備える。制御装置71や入力制御装置52の機能は、CPUが、例えばROMまたはストレージ装置にあらかじめ記録されたプログラムを、RAM上で展開して実行することで実現される。
 さらに、情報処理装置は、ホストバス、ブリッジ、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス、インタフェース、入力装置、出力装置、ドライブ、接続ポート、および通信装置を備え、相互に接続されていてもよい。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。したがって、本実施の形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
 なお、上述のような本実施の形態に係る手術システムを構成する情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータなどに実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。また、当該コンピュータプログラムを実行させるコンピュータの数は特に限定されない。例えば、当該コンピュータプログラムを、複数のコンピュータ(例えば、複数のサーバなど)が互いに連携して実行してもよい。
 また、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 さらに、本技術は以下のような構成をとることができる。
(1)
 ディスプレイに表示される術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定する目標点決定部
 を備える入力制御装置。
(2)
 前記目標点決定部は、前記術野画像に対する前記ユーザの視線位置、および、前記術野画像において検出された前記特徴点のいずれかを、前記目標点に決定する
 (1)に記載の入力制御装置。
(3)
 前記特徴点は、前記術野画像において検出された、術具の一部を示す点である
 (1)または(2)に記載の入力制御装置。
(4)
 前記特徴点は、前記術野画像において検出された、術部における生体組織を示す点である
 (1)または(2)に記載の入力制御装置。
(5)
 前記目標点決定部は、前記術野画像において検出された前記特徴点と、前記術野画像に対する前記ユーザの視線位置とが一致した場合、前記ユーザの操作をトリガとして、前記特徴点を前記目標点に決定する
 (2)乃至(4)のいずれかに記載の入力制御装置。
(6)
 前記目標点決定部は、前記術野画像において検出された前記特徴点と、前記術野画像に対する前記ユーザの視線位置とが一致しない場合、前記ユーザの操作をトリガとして、前記ユーザの視線位置を前記目標点に決定する
 (5)に記載の入力制御装置。
(7)
 前記目標点決定部は、前記術野画像において検出された前記特徴点と、前記術野画像に対する前記ユーザの視線位置とが一致した場合、前記特徴点および前記ユーザの視線位置のうちの前記ユーザの操作により選択された方を、前記目標点に決定する
 (2)乃至(4)のいずれかに記載の入力制御装置。
(8)
 前記ディスプレイにおいて、決定された前記目標点を基準として前記術野画像を表示するために駆動する機構を制御するためのパラメータを生成するパラメータ生成部をさらに備える
 (1)乃至(7)のいずれかに記載の入力制御装置。
(9)
 前記パラメータは、前記術野画像を撮影するカメラのズーム制御、および、前記カメラを支持するカメラアームの駆動制御の少なくともいずれかを行うためのパラメータである
 (8)に記載の入力制御装置。
(10)
 入力制御装置が、
 ディスプレイに表示される術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定する
 ステップを含む入力制御方法。
(11)
 術野画像を撮影するカメラと、
 前記術野画像を表示するディスプレイと、
  前記ディスプレイに表示される前記術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定する目標点決定部
 を有する入力制御装置
 を備える手術システム。
 10 手術システム, 11 術野カメラ, 12 カメラアーム, 13 動作認識用カメラ, 14 ディスプレイ, 15 制御装置, 17 マイクロフォン, 18 フットスイッチ, 51 ユーザI/F, 52 入力制御装置, 61 目標点決定部, 62 パラメータ生成部, 63 動作モード判定部, 71 制御装置, 81 CCU, 82 アーム制御部, 91 画像処理部, 101 特徴点検出部

Claims (11)

  1.  ディスプレイに表示される術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定する目標点決定部
     を備える入力制御装置。
  2.  前記目標点決定部は、前記術野画像に対する前記ユーザの視線位置、および、前記術野画像において検出された前記特徴点のいずれかを、前記目標点に決定する
     請求項1に記載の入力制御装置。
  3.  前記特徴点は、前記術野画像において検出された、術具の一部を示す点である
     請求項2に記載の入力制御装置。
  4.  前記特徴点は、前記術野画像において検出された、術部における生体組織を示す点である
     請求項2に記載の入力制御装置。
  5.  前記目標点決定部は、前記術野画像において検出された前記特徴点と、前記術野画像に対する前記ユーザの視線位置とが一致した場合、前記ユーザの操作をトリガとして、前記特徴点を前記目標点に決定する
     請求項2に記載の入力制御装置。
  6.  前記目標点決定部は、前記術野画像において検出された前記特徴点と、前記術野画像に対する前記ユーザの視線位置とが一致しない場合、前記ユーザの操作をトリガとして、前記ユーザの視線位置を前記目標点に決定する
     請求項5に記載の入力制御装置。
  7.  前記目標点決定部は、前記術野画像において検出された前記特徴点と、前記術野画像に対する前記ユーザの視線位置とが一致した場合、前記特徴点および前記ユーザの視線位置のうちの前記ユーザの操作により選択された方を、前記目標点に決定する
     請求項2に記載の入力制御装置。
  8.  前記ディスプレイにおいて、決定された前記目標点を基準として前記術野画像を表示するために駆動する機構を制御するためのパラメータを生成するパラメータ生成部をさらに備える
     請求項1に記載の入力制御装置。
  9.  前記パラメータは、前記術野画像を撮影するカメラのズーム制御、および、前記カメラを支持するカメラアームの駆動制御の少なくともいずれかを行うためのパラメータである
     請求項8に記載の入力制御装置。
  10.  入力制御装置が、
     ディスプレイに表示される術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定する
     ステップを含む入力制御方法。
  11.  術野画像を撮影するカメラと、
     前記術野画像を表示するディスプレイと、
      前記ディスプレイに表示される前記術野画像に対するユーザの視線位置と、前記術野画像において検出された特徴点とに基づいて、前記術野画像の前記ディスプレイにおける表示の基準となる目標点を決定する目標点決定部
     を有する入力制御装置
     を備える手術システム。
PCT/JP2018/017379 2017-05-15 2018-05-01 入力制御装置、入力制御方法、および手術システム WO2018211969A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/611,260 US10992857B2 (en) 2017-05-15 2018-05-01 Input control device, input control method, and operation system
JP2019519164A JP7160033B2 (ja) 2017-05-15 2018-05-01 入力制御装置、入力制御方法、および手術システム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017096199 2017-05-15
JP2017-096199 2017-05-15

Publications (1)

Publication Number Publication Date
WO2018211969A1 true WO2018211969A1 (ja) 2018-11-22

Family

ID=64273676

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/017379 WO2018211969A1 (ja) 2017-05-15 2018-05-01 入力制御装置、入力制御方法、および手術システム

Country Status (3)

Country Link
US (1) US10992857B2 (ja)
JP (1) JP7160033B2 (ja)
WO (1) WO2018211969A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102374404B1 (ko) * 2017-07-25 2022-03-15 삼성전자주식회사 콘텐트를 제공하기 위한 디바이스 및 방법
JP6898285B2 (ja) * 2018-09-25 2021-07-07 株式会社メディカロイド 手術システムおよび表示方法
US11877897B2 (en) 2020-10-02 2024-01-23 Cilag Gmbh International Situational awareness of instruments location and individualization of users to control displays
US11672534B2 (en) 2020-10-02 2023-06-13 Cilag Gmbh International Communication capability of a smart stapler
US11883022B2 (en) 2020-10-02 2024-01-30 Cilag Gmbh International Shared situational awareness of the device actuator activity to prioritize certain aspects of displayed information
US12016566B2 (en) 2020-10-02 2024-06-25 Cilag Gmbh International Surgical instrument with adaptive function controls
US11748924B2 (en) 2020-10-02 2023-09-05 Cilag Gmbh International Tiered system display control based on capacity and user operation
US11830602B2 (en) 2020-10-02 2023-11-28 Cilag Gmbh International Surgical hub having variable interconnectivity capabilities
US11992372B2 (en) 2020-10-02 2024-05-28 Cilag Gmbh International Cooperative surgical displays
US11963683B2 (en) 2020-10-02 2024-04-23 Cilag Gmbh International Method for operating tiered operation modes in a surgical system
US20220104694A1 (en) * 2020-10-02 2022-04-07 Ethicon Llc Control of a display outside the sterile field from a device within the sterile field

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10118015A (ja) * 1996-10-25 1998-05-12 Olympus Optical Co Ltd 内視鏡下外科手術装置
JP2015192697A (ja) * 2014-03-31 2015-11-05 ソニー株式会社 制御装置および制御方法、並びに撮影制御システム
JP2016192986A (ja) * 2015-03-31 2016-11-17 富士フイルム株式会社 内視鏡システム、及び、内視鏡システムの作動方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3744974B2 (ja) 1995-07-20 2006-02-15 オリンパス株式会社 内視鏡下外科手術装置
US6351273B1 (en) * 1997-04-30 2002-02-26 Jerome H. Lemelson System and methods for controlling automatic scrolling of information on a display or screen
US8641621B2 (en) * 2009-02-17 2014-02-04 Inneroptic Technology, Inc. Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures
WO2012083415A1 (en) * 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
US20140024889A1 (en) * 2012-07-17 2014-01-23 Wilkes University Gaze Contingent Control System for a Robotic Laparoscope Holder
JP6020576B2 (ja) * 2012-09-19 2016-11-02 株式会社ニコン 視線検出装置較正方法、視線情報検出方法、眼鏡レンズ設計方法、眼鏡レンズ選択方法、および、眼鏡レンズ製造方法
EP3119286B1 (en) * 2014-03-19 2024-05-01 Intuitive Surgical Operations, Inc. Medical devices and systems using eye gaze tracking

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10118015A (ja) * 1996-10-25 1998-05-12 Olympus Optical Co Ltd 内視鏡下外科手術装置
JP2015192697A (ja) * 2014-03-31 2015-11-05 ソニー株式会社 制御装置および制御方法、並びに撮影制御システム
JP2016192986A (ja) * 2015-03-31 2016-11-17 富士フイルム株式会社 内視鏡システム、及び、内視鏡システムの作動方法

Also Published As

Publication number Publication date
US10992857B2 (en) 2021-04-27
US20200162664A1 (en) 2020-05-21
JPWO2018211969A1 (ja) 2020-03-19
JP7160033B2 (ja) 2022-10-25

Similar Documents

Publication Publication Date Title
WO2018211969A1 (ja) 入力制御装置、入力制御方法、および手術システム
US11547520B2 (en) Systems, methods, and computer-readable storage media for controlling aspects of a robotic surgical device and viewer adaptive stereoscopic display
US11989930B2 (en) UI for head mounted display system
US11478133B2 (en) Medical observation system, apparatus for controlling the same, and method for controlling the same
JP6709796B2 (ja) 手術室及び手術部位認識
JP2024514634A (ja) 外科用データオーバーレイを制御するためのシステム及び方法
JP7414770B2 (ja) 医療用アーム装置、医療用アーム装置の作動方法、及び情報処理装置
WO2017145475A1 (ja) 医療用情報処理装置、情報処理方法、医療用情報処理システム
KR20220079693A (ko) 눈 시선 추적을 사용하는 의료 디바이스, 시스템, 및 방법
JP6965338B2 (ja) 医療用観察装置、制御装置、及び観察視野補正方法
CN110461205A (zh) 手术成像***、手术用图像处理设备以及用于控制成像过程的方法
WO2017061293A1 (ja) 手術システム、並びに、手術用制御装置および手術用制御方法
WO2018216501A1 (ja) 制御装置、制御方法、および手術システム
JP2019042412A (ja) 医療用観察装置、および医療用観察システム
JP2004041778A (ja) 体腔内観察システム
JP2018107603A (ja) センサ情報取得装置、センサ情報取得方法、センサ情報取得プログラム及び医療器具
CN113616349A (zh) 使用增强现实耳机控制手术室显示器的***和方法
US20230404699A1 (en) System for a Microscope System and Corresponding Method and Computer Program
US20210038329A1 (en) Augmented reality using eye tracking in a robot assisted srugical system
US20200037847A1 (en) Control apparatus for medical system, control method for medical system, and medical system
JP2022521171A (ja) コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法
WO2018087977A1 (ja) 情報処理装置、情報処理方法、プログラム
WO2021010193A1 (ja) 医療機器制御システム、制御装置、および制御方法
JP2023507063A (ja) 手術中に画像取込装置を制御するための方法、装置、およびシステム
CN107920863B (zh) 用于控制包括成像模态的***的设备和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18801751

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019519164

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18801751

Country of ref document: EP

Kind code of ref document: A1