CN110461205A - 手术成像***、手术用图像处理设备以及用于控制成像过程的方法 - Google Patents
手术成像***、手术用图像处理设备以及用于控制成像过程的方法 Download PDFInfo
- Publication number
- CN110461205A CN110461205A CN201880020002.3A CN201880020002A CN110461205A CN 110461205 A CN110461205 A CN 110461205A CN 201880020002 A CN201880020002 A CN 201880020002A CN 110461205 A CN110461205 A CN 110461205A
- Authority
- CN
- China
- Prior art keywords
- imaging
- surgical
- order
- control
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00147—Holding or positioning arrangements
- A61B1/00149—Holding or positioning arrangements using articulated arms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00006—Operational features of endoscopes characterised by electronic signal processing of control signals
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00039—Operational features of endoscopes provided with input arrangements for the user
- A61B1/00042—Operational features of endoscopes provided with input arrangements for the user for mechanical operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00059—Operational features of endoscopes provided with identification means for the endoscope
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B21/00—Microscopes
- G02B21/0004—Microscopes specially adapted for specific applications
- G02B21/0012—Surgical microscopes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Molecular Biology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Animal Behavior & Ethology (AREA)
- Medical Informatics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Endoscopes (AREA)
Abstract
一种手术成像***,包括包含标识信息的手术成像装置;保持和控制成像装置的位置的保持臂;用户界面,被配置为提供保持臂的非接触操作;和处理电路,被配置为根据标识信息和用户界面的输出控制保持臂。
Description
相关申请的交叉引用
本申请要求2017年3月27日提交的日本优先权专利申请JP2017-061261的权益,其全部内容通过引用合并于此。
技术领域
本公开涉及医疗***的控制装置、医疗***的控制方法和医疗***。
背景技术
例如,下面的专利文献1描述了一种过去的技术,其将套管针***腹壁中,并将作为腹腔镜的窥镜***套管针的孔中,并在电视监视器上显示由窥镜检测到的腹腔中的观察图像。
[引用清单]
[专利文献]
专利文献1:JP H9-28713A
发明内容
[技术问题]
例如,有时使用诸如上述专利文献1中描述的腹腔镜之类的视频内窥镜的手术成像装置在监视器上显示观察图像,并且有时在外科手术等中使用视频显微镜。如果操作方法根据装置和使用环境的不同而不同,则存在如下问题:对于在观看监视器时进行外科手术等的用户来说,移动和扩展显示在监视器上的观察图像的区域的可操作性会恶化。
因此,即使当存在与用于捕获人体图像的成像装置有关的差异时,也可通过相同或类似的操作来控制成像装置的行为。
[解决问题的方法]
根据本公开的实施例,提供了一种手术成像***,包括:手术成像装置,包括标识信息;保持臂,保持并控制手术成像装置的位置;用户界面,被配置为提供保持臂的非接触操作;和处理电路,被配置为根据标识信息和用户界面的输出控制保持臂。
此外,根据本公开的实施例,提供了一种用于手术的图像处理设备,包括处理电路,该处理电路被配置为根据成像装置的标识信息和被配置为提供保持臂的非接触操作的用户界面的输出来控制保持和控制成像装置的位置的保持臂。
此外,根据本公开的实施例,提供了一种用于控制成像过程的方法,包括:使用处理电路标识包括标识信息的外科成像装置;确定用户的非接触输入;和根据标识信息和所确定的用户的非接触输入来控制保持和控制手术成像装置的位置的保持臂。
[发明的有益效果]
如上所述,根据本公开的实施例,即使当存在与用于捕获人体图像的成像装置有关的差异时,也可通过相同或类似的操作来控制成像装置的行为。
注意,上述效果不一定是限制性的。利用或代替上述效果,可实现本说明书中描述的任何一种效果或可从本说明书中理解的其他效果。
附图说明
图1是示出根据本公开的实施例的医疗装置的示意图。
图2是示出根据本公开的实施例的医疗装置的示意图。
图3是示出根据本公开的实施例的外科手术***的示意性配置的示意图。
图4是示出与视频显微镜相关的***的配置的示意图。
图5是示出与视频显微镜相关的***的配置的示意图。
图6是示出包括控制装置的***的配置的框图。
图7是示出在视频显微镜的***中从显示器的屏幕上的命令到相机臂的命令的转换方法的示意图。
图8是示出在视频显微镜的***中从显示器的屏幕上的命令到相机臂的命令的转换方法的示意图。
图9是示出在视频显微镜的***中从显示器的屏幕上的命令到相机臂的命令的转换方法的示意图。
图10是示出在视频显微镜的***中从显示器的屏幕上的命令到相机臂的命令的转换方法的示意图。
图11是示出在腹腔镜的***中从显示器的屏幕上的命令到相机臂的命令的转换方法的示意图。
图12是示出在腹腔镜的***中从显示器的屏幕上的命令到相机臂的命令的转换方法的示意图。
图13是示出在腹腔镜的***中从显示器的屏幕上的命令到相机臂的命令的转换方法的示意图。
图14是关于变焦、移动、枢转和平移/倾斜/滚动中的每一个协调图7至图13中所示的屏幕上的命令、相机臂命令和相机命令之间的关系的示意图。
图15是示出行为区域根据医疗诊断和治疗部门而不同的情况的示意图。
具体实施方式
在下文中,将参考附图详细描述本发明的优选实施例。在本说明书和附图中,具有基本相同的功能和结构的结构元件用相同的参考标记表示,并且省略对这些结构元件的重复说明。
注意,将按以下顺序进行描述。
1.作为本实施方式的目标的医疗装置
2.与视频内窥镜相关的***的配置实例
3.与视频显微镜相关的***的配置实例
4.包括控制装置的***的块配置实例
5.关于从外科医生的命令到控制信息的转换
6.生成涉及标识信息的控制信息
1.作为本实施方式的目标的医疗装置
图1和图2是示出根据本公开的实施例的医疗装置的示意图。图1示出了视频显微镜112,而图2示出了作为医疗设备的视频内窥镜(腹腔镜110)。视频显微镜112和腹腔镜110都由相机臂120(支撑臂装置)支撑,并且通过相机臂120的驱动而移动到期望位置。视频显微镜112或腹腔镜110的相机图像在显示器140上显示。视频显微镜112或腹腔镜110由作为用户的外科医生20通过手动操作或免手动操作来控制。尽管腹腔镜110被示出为视频内窥镜,但是视频内窥镜可以不是腹腔镜110。
2.与视频内窥镜相关的***的配置实例
将参考图3描述根据本公开的实施例的外科手术***1000的示意性配置。图3中示出的外科手术***1000示出了视频内窥镜的***,并且具体地涉及通过腹腔镜110执行外科手术的***。在腹腔镜外科手术中,在患者10的腹部开有多个孔,并且腹腔镜110和诸如镊子、抽吸装置和电手术刀的操作工具从孔中***,并且利用操作工具执行外科手术,同时通过腹腔镜110在视觉上确认腹腔内部。腹腔镜110可围绕套管针160a的中心旋转。图3是示出在使用腹腔镜110的腹腔镜外科手术***中患者10、外科医生20和腹腔镜110之间的位置关系的示意图。注意,外科医生20是例如手术外科医生或者内镜师。
外科手术***1000包括腹腔镜110、相机臂120、行为识别相机130、显示器140、手术台150、视线检测相机160、麦克风170、脚踏开关180和控制装置500。腹腔镜110是一种装置,诸如由相机臂120保持的3D相机。腹腔镜110***患者10的身体中并捕获身体内部情况的图像。腹腔镜110将作为成像结果获得的图像作为手术视野图像发送到控制装置500。
相机臂120保持腹腔镜110,并控制腹腔镜110的位置和角度。行为识别相机130例如是2D相机,并且位于显示器140上。行为识别相机130捕获外科医生20的图像,并识别外科医生20的行为。标记可附接到外科医生20,以便使行为识别相机130容易识别外科医生20的行为。行为识别相机130将作为外科医生图像的成像结果获得的2D图像发送到控制装置500。
显示器140包括相对大的屏幕,并且位于相对远离外科医生20的位置。在图3的实例中,显示器140位于面向外科医生20的位置,其间具有手术台150。从控制装置500发送的手术视野图像显示在显示器140上。显示器140配置有3D显示器。外科医生20用肉眼将显示在显示器140上的手术视野图像识别为3D图像。
控制装置500将操作模式设置为手动操作模式或免手动模式。手动操作模式是基于外科医生20的手的输入(例如,施加到相机臂120的力,以及提供在每个单元的操作按钮的操作等(附图中未示出))来控制外科手术***1000的模式。免手动模式是外科手术***1000不由外科医生20的手控制,而是基于诸如语音、视线、运动和头部方向、手势的非接触输入,以及腿部与脚踏开关180的接触的输入。
此外,控制装置500接收从行为识别相机130发送的外科医生图像,并检测外科医生图像中外科医生20的头部的位置,并检测头部的运动(头部跟踪)和头部的方向。此外,控制装置500从外科医生图像识别外科医生20的手势。
此外,控制装置500接收指示从视线检测相机160发送的外科医生20的视线方向的信息,并且基于该信息和外科医生20的头部的位置和方向识别显示器140的屏幕上的视线的位置。此外,控制装置500接收从麦克风170发送的语音,并对语音进行语音识别。而且,控制装置500接收指示对从脚踏开关180发送的脚踏开关180的操作的操作信号,并且基于操作信号识别对脚踏开关180的操作的细节。
此外,当操作模式是免手动模式时,控制装置500使用外科医生20的头部的运动和方向、外科医生20的手势、指示显示器140的屏幕上的视线位置的视线位置信息、语音识别结果、音量和指示脚踏开关180的操作细节的操作信息作为输入信息。控制装置500基于输入信息识别来自外科医生20的命令和外科医生20的状态。
控制装置500根据外科医生20的状态授权来自外科医生20的命令。控制装置500控制腹腔镜110的成像,并控制相机臂120的驱动,并控制显示器140的显示,并根据授权命令改变操作模式。
麦克风170附接到外科医生20。麦克风170获取包括外科医生20的语音的环境的声音,并将声音发送到控制装置500。脚踏开关180位于外科医生20周围,并且是通过外科医生20的脚的接触来操作脚踏开关180。脚踏开关180向控制装置500发送指示来自外科医生20的脚部操作的操作信号。
在如上所述配置的外科手术***1000中,外科医生20将患者10放置在手术台150上,并且在观看显示器140上显示的手术视野图像的同时执行外科手术的动作。
此外,当改变操作模式、腹腔镜110的成像条件、腹腔镜110的位置和角度、显示器140的显示等时,外科医生20执行非接触输入或通过脚等的接触操作的输入。因此,外科医生20可在抓握操作工具的同时执行输入。
注意,视线检测方法、手势的检测方法和外科医生20的头部运动和的方向、语音获取方法等可采用任意方法。
如上所述,在图3所示的***1000中,腹腔镜110由相机臂120保持,并且外科医生20控制腹腔镜110的姿势,同时在显示器140上观看由腹腔镜110捕获的图像。
3.与视频显微镜相关的***的配置实例
图4和5是示出与视频显微镜相关的***1000的配置的示意图。在图4和图5中所示的***中,视频显微镜112附接到相机臂120,而不是图3的腹腔镜110。
由视频显微镜112捕获的图像显示在显示器140上,在图4所示的***1000中。类似于图3,外科医生20可操作视频显微镜112,同时在视觉上确认显示器140的图像。
尽管图5中示出的***1000是与图4类似的与视频显微镜112相关的***,外科医生20在头部佩戴眼镜200,与图4不同。眼镜200配置有3D偏振眼镜和视线检测装置。外科医生20可通过经由眼镜200的3D偏振眼镜观察显示器140,将显示在显示器140上的手术视野图像识别为3D图像。此外,外科医生20通过经由眼睛200观察环境将视线输入眼镜200。眼镜200的视线检测装置检测外科医生20的视线,并将指示视线方向的信息发送到控制装置500。
4.包括控制装置的***的框配置实例
图6涉及图3至图5中所示的***,并且是示出包括控制装置500的***1000的配置的框图。如图6所示,相机(成像装置;腹腔镜110或视频显微镜112)、相机臂120、行为识别相机130、显示器140、视线检测相机160、麦克风170、脚踏开关180和眼镜190连接到控制装置500。在图6中,腹腔镜110的配置包括控制腹腔镜110的焦点位置和焦距的相机控制单元(CCU)。注意,在图6中,在图5所示***的情况下,视线检测相机160提供在眼镜200中。
以下描述假设相机是腹腔镜110。控制装置500根据外科医生20的指令调整腹腔镜110的空间位置和角度。在本实施例中,当外科医生20发出指令时,除了脚踏开关180的指令之外,还根据视线的方向、头部的运动、声音等不用手发出指令。对应于外科医生20的指令的指令信息被发送到控制装置500。
控制装置500包括识别单元520、显示控制单元530、控制信息生成单元540、电子变焦处理单元550、模式设置单元560、状态估计单元570、控制单元580、标识信息获取单元590和存储器592。识别单元520是配置有语音识别单元522、视线识别单元524、头部识别单元526、手势识别单元528和操作识别单元529的用户界面。图6中示出的控制装置500的组件配置有电路(硬件),或者诸如CPU的中央处理单元和用于运行中央处理单元的程序(软件)。
语音识别单元522对从麦克风170发送的语音执行语音识别,并将语音识别为外科医生20的非接触输入。此外,语音识别单元522识别从麦克风发送的语音的音量,作为外科医生20的非接触输入。语音识别单元522将作为语音识别结果的语音和音量作为输入信息提供给控制信息生成单元540。
视线识别单元524基于指示从视线检测相机160发送的视线的方向和头部识别单元526识别的头部的位置和方向的信息,识别显示器140的屏幕上的视线的位置,作为外科医生20的非接触输入。视线识别单元524将指示位置的视线位置信息作为输入信息提供给控制信息生成单元540、状态估计单元570和显示控制单元530。
头部识别单元526通过检测从行为识别相机130发送的外科医生图像的外科医生20的位置,识别外科医生20的头部的位置、运动和方向,作为来自外科医生20的非接触输入。头部识别单元526将头部的运动和方向作为输入信息提供给控制信息生成单元540和状态估计单元570。此外,头部识别单元526将头部的位置和方向提供给视线识别单元524。
手势识别单元528从行为识别相机130发送的外科医生图像识别外科医生20的手势的输入,作为外科医生20的非接触输入。手势识别单元528将外科医生20的手势作为输入信息提供给控制信息生成单元540。
操作识别单元529接收从脚踏开关180发送的操作信号,并且识别对脚踏开关180的操作的细节,作为来自外科医生20的接触的输入。操作识别单元529将指示操作的细节的操作信息作为输入信息提供给控制信息生成单元540。此外,操作识别单元529可接收从诸如键盘和鼠标的操作构件输入的操作信号。
控制信息生成单元540基于从识别单元520提供的输入信息识别来自外科医生20的命令,并基于该命令生成用于控制相机臂120的控制信息。当识别的命令是用于改变操作模式的命令时,控制信息生成单元540将命令报告给模式设置单元560,模式设置单元560基于该命令设置模式。
当连接诸如腹腔镜110和视频内窥镜112的相机时,标识信息获取单元590获取相机的标识信息。获取的标识信息临时存储在存储器592中。
模式设置单元560根据从控制信息生成单元540提供的命令将操作模式设置为手动操作模式或免手动模式。模式设置单元560将设置的操作模式提供给状态估计单元570。
当从模式设置单元560提供的操作模式是免手动模式时,状态估计单元570基于从识别单元520提供的输入信息估计外科医生20的状态。状态估计单元570将估计状态报告给控制信息生成单元540。
控制单元580基于从控制信息生成单元540提供的控制信息执行命令。具体地,当从控制信息生成单元540提供的控制信息是与腹腔镜110的成像控制相关的控制信息时,控制单元580根据控制信息执行腹腔镜110的成像控制。由此,控制各种类型的成像功能,例如腹腔镜110的电子变焦功能。
此外,当从控制信息生成单元540提供的控制信息是与相机臂120的驱动控制相关的命令时,控制单元580根据控制信息执行相机臂120的驱动控制。作为实例,相机臂120包括多个关节和提供在各个关节中的致动器。通过控制单元580的控制来驱动每个关节的致动器,并且执行与控制信息对应的相机臂120的行为。此外,当从控制信息生成单元540提供的命令是与显示器140的显示控制相关的控制信息时,控制单元580通过将控制信息提供给显示控制单元530来控制显示控制单元530。
显示控制单元530执行用于在显示器140上显示从腹腔镜110发送的手术视野图像的处理。此外,当从控制单元580提供的控制信息是注释显示命令时,显示控制单元530基于从视线识别单元524提供的视线位置信息,在与从腹腔镜110发送的手术视野图像中的外科医生20的视线对应的位置处叠加标记。然后,显示控制单元530向显示器140提供叠加有标记的手术视野图像,并显示手术视野图像。
此外,当从控制单元580提供的命令是用于在显示器140上显示诸如菜单按钮的图形用户界面(GUI)的菜单显示命令时,显示控制单元530在从腹腔镜110发送的手术视野图像中叠加GUI的图像。显示控制单元530向显示器140提供叠加有GUI的手术视野图像,并显示手术视野图像。
例如,当输入信息中的语音识别结果是“放大”,并且视线位置信息指示显示器140的屏幕中的位置时,控制信息生成单元540识别出来自外科医生20的命令是使得腹腔镜110放大的命令,并捕获成像对象的中心周围的图像,该图像对象对应于由视线位置信息指示的视线的位置。然后,控制信息生成单元540生成用于执行识别的命令的控制信息。
类似地,当输入信息中的语音识别结果是“缩小”,并且视线位置信息指示显示器140的屏幕中的位置时,控制信息生成单元540识别出来自外科医生20的命令是使得腹腔镜110缩小的命令,在对应于由视线位置信息指示的视线的位置的成像对象的中心的周围。然后,控制信息生成单元540生成用于执行识别的命令的控制信息。
此外,当输入信息中的语音识别结果是“聚焦”,并且视线位置信息指示显示器140的屏幕中的位置时,控制信息生成单元540识别出来自外科医生20的命令是用于执行对腹腔镜110的聚焦控制以聚焦在与由视线位置信息指示的视线的位置相对应的成像对象的命令。然后,控制信息生成单元540生成用于执行识别的命令的控制信息。
如上所述,外科医生20利用适合于命令输入的语音输入成像控制的细节,并且利用适合于位置输入的视线输入成像控制所需的位置。因此,外科医生20可容易地发出与成像控制相关的命令。
此外,当输入信息中的语音识别结果是“枢转”,并且视线位置信息指示显示器140的屏幕中的位置,并且视线位置信息在时间上不改变,并且外科医生20的头部的运动是移动,并且操作信息指示脚踏开关180的按压时,控制信息生成单元540识别出来自外科医生20的命令是用于以腹腔镜110响应头部的运动进行枢转运动的方式控制相机臂120的命令。然后,控制信息生成单元540生成用于执行识别的命令的控制信息。
当输入信息中的语音识别结果是“滑动”,并且外科医生20的头部的运动是旋转,并且视线位置信息指示显示器140的屏幕中的位置,并且由视线位置信息指示的位置的时间改变的方向与头部的旋转方向相同,并且操作信息指示脚踏开关180的按压时,控制信息生成单元540识别出来自外科医生20的命令是用于以腹腔镜110响应于视线的位置进行滑动运动的方式控制相机臂120的命令。然后,控制信息生成单元540生成用于执行识别的命令的控制信息。
注意,枢转运动命令和滑动运动命令是与相机臂120的驱动控制相关的命令,因此这些命令的类型被分类为相机臂控制。
5.关于从外科医生的命令到控制信息的转换
外科医生20在观看显示器140时发出的命令由识别单元520识别,并且控制信息由控制信息生成单元540生成。在下文中,将描述用于将外科医生20在观看显示器140时发出的命令转换为用于操作相机臂120的相机臂命令和用于操作相机(腹腔镜110、视频显微镜)的相机命令的方法。
外科医生20使用变焦命令、用于使相机进行平移运动的移动命令、用于使相机相对于物体枢转的枢转命令、相机的平移/倾斜/滚动命令,作为在观看视频屏幕时使用的命令。二维移动、枢转和平移/倾斜/滚动命令用作视频显微镜112的相机臂命令,并且变焦用作相机命令。在腹腔镜110的情况下,三维移动和平移/倾斜/滚动命令被用作相机臂命令。在视频显微镜112的情况和腹腔镜110的情况之间,相机臂120和相机的命令是不同的,但外科医生20使用的命令是相同的。
图7至图10是示出在视频显微镜112的***1000中从显示器140的屏幕上的命令到相机臂的命令的转换方法的示意图。图7示出了转换外科医生20在屏幕上的移动命令的情况。屏幕上的移动命令被输入作为屏幕上XY坐标的改变量(ΔX,ΔY)。该变化量(ΔX,ΔY)由屏幕的X方向或Y方向上的长度的比例(%)表示。屏幕上的变化量(ΔX,ΔY)被转换为空间坐标系,并且基于对应于相机臂120的状态的相机与成像对象之间的距离(成像对象距离d)和对应于相机状态的变焦因子a,作为相机臂命令输出。在这种情况下,相机臂命令是ΔX,ΔY,它们是绝对距离。
图8示出了外科医生20在屏幕上的枢转命令被转换的情况。屏幕上的枢转命令被输入为屏幕水平角度Δψp和屏幕垂直角度Δθp。屏幕上的枢转命令通过当前相机角度(屏幕水平角ψc,屏幕垂直角θc)和相机与成像对象之间的距离(焦距)d转换为空间坐标系,并且输出作为相机臂命令。在这种情况下,相机臂命令是Δψa(水平角度),Δθa(垂直角度)和半径d。
图9示出了外科医生20在屏幕上的变焦命令的情况。屏幕上的变焦命令被输入为Δa(放大率)。变焦命令未转换,但作为相机臂命令输出。在这种情况下,相机臂命令是Δa。
图10示出了平移/倾斜/滚动命令的情况。平移/倾斜/滚动命令被输入为Δψc(屏幕水平角度),Δθc(屏幕垂直角度)和Δθr(屏幕角度)。在平移/倾斜/滚动命令的情况下,用户坐标系的平移/倾斜/滚动命令不被转换,而是作为相机臂命令原样输出。在这种情况下,相机臂命令是Δψc(水平角度),Δθc(垂直角度)和Δθr(角度)。
图11至13是示出在腹腔镜110的***1000中从显示器140的屏幕上的命令到相机臂的命令的转换方法的示意图。图11示出了外科医生20在屏幕上的平移/倾斜/滚动命令的情况。屏幕上的平移/倾斜/滚动命令被输入为Δψc(屏幕水平角度),Δθc(屏幕垂直角度)和Δθr(屏幕角度)。通过相对于套管针160a处的枢转点反转方向,将屏幕上的平移/倾斜/滚动命令转换为相机臂命令,并输出。在这种情况下,相机臂命令是-Δψc(水平角度),-Δθc(垂直角度)和Δθr(角度)。
图12示出了外科医生20屏幕上的移动命令的情况。在屏幕上输入移动命令作为移动量(ΔX,ΔY)。该变化量(ΔX,ΔY)由屏幕的X方向或Y方向上的长度的比例(%)表示。屏幕上的移动命令的空间坐标被转换从腹腔镜110的远端到成像对象的距离d,并且由平移/倾斜/滚动命令和三维移动命令表示。在这种情况下,通过由-Δψc(水平角度)和-Δθc(垂直角度)表示的平移/倾斜/滚动命令以及由Δz(轴向深度)表示的移动命令来指示相机臂命令。如上所述,假设成像对象是平坦表面,还执行深度方向上的平移运动以及移动命令的平移/倾斜运动,以便保持焦距。
图13示出了外科医生20的屏幕上枢转命令的情况。屏幕上的枢转命令被输入为Δψp(屏幕水平角度)和Δθp(屏幕垂直角度)。平移/倾斜/滚动命令和轴向移动命令用作相机臂命令,并且指示电子变焦的切割区域的裁剪命令被用作相机命令。平移/倾斜/滚动命令由-Δψc(水平角度)和-Δθc(垂直角度)表示。轴向的移动指令由Δzc(轴向深度)表示。此外,裁剪命令由屏幕上的移动量(ΔX,ΔY)和放大率(Δa)表示。
在外科医生20的屏幕上变焦命令的情况下,输入屏幕上的变焦命令作为放大率(Δa)。在不包括变焦镜头的腹腔镜110的情况下,腹腔镜110响应于屏幕上的输入变焦命令而调节镜筒远端和成像目标之间的距离d。在这种情况下,视觉确认目标的焦距改变,因此输出移动命令Δz(轴向深度)作为相机臂命令,并且使用聚焦命令d+ΔR(轴向焦距)作为相机命令。
此外,在电子变焦命令的情况下,输入屏幕上的移动量(ΔX,ΔY)和放大率(Δa)。在这种情况下,输入不会被转换,而是作为相机命令输出。
图14是关于变焦、移动、枢转和平移/倾斜/滚动中的每一个协调图7至13中所示的屏幕上的命令、相机臂命令和相机命令之间的关系的示意图。
6.生成涉及标识信息的控制信息
如上所述,相机臂120、腹腔镜110和视频显微镜112响应于显示器140的屏幕上的命令而表现不同。在本实施例中,在在相机臂120的远端处提供有相机的视频显微镜或视频内窥镜中,无论装置的配置如何,都能够通过相同的操作方法来实现相机的成像方向和帧/变焦的控制。当外科医生20通过指定屏幕上的坐标和方向来指示视点的移动时,执行自动转换以适应相机和相机臂的实际控制条件,使得用户可在不知道相机配置的情况下操作。
因此,当连接诸如腹腔镜110和视频内窥镜112的相机时,控制装置500的标识信息获取单元590获取相机的标识信息。获取的标识信息临时存储在存储器592中。
当生成控制信息时,控制信息生成单元540参考由标识信息获取单元590获取的标识信息来生成控制信息。标识信息包括指示相机类型的信息,例如指示腹腔镜110或视频显微镜112的信息。因此,根据相机的类型,屏幕上的命令被转换为实际行为的命令。
将描述外科医生20在屏幕上输入移动命令的实例。在视频显微镜112的情况下,屏幕上的移动命令被转换为空间坐标系,并且作为相机臂命令(绝对距离;ΔX,ΔY)被输出,基于取决于相机臂120的状态的相机和成像对象之间的距离(成像对象距离d)和取决于相机状态的变焦因子a,如图8所示。
另一方面,在腹腔镜110的情况下,屏幕上的变焦命令被转换为由-Δψc(水平角度)和-Δθc(垂直角度)表示的平移/倾斜/滚动命令,和由Δz(轴向深度)指示的移动命令指示的相机臂命令,如图13所示。控制信息生成单元540参考存储在存储器592中的标识信息,在视频显微镜112的情况下,通过图10所示的方法将屏幕上的命令转换为相机臂命令,并且在腹腔镜110的情况下,通过图13所示的方法将屏幕上的命令转换为相机臂命令。因此根据相机的类型,屏幕上的命令被转换为实际行为的命令。
如图8所示的移动命令与图13所示的移动命令在外科医生20在屏幕上指定的命令中彼此相同,但是在到相机臂120的相机臂命令中彼此不同。当相机臂120根据相机臂命令行为时,显示器140上的屏幕的运动(移动)以与图8和图13中相同的方式显示。因此,即使在操作腹腔镜110和视频内窥镜112中的任何一个时,诸如外科医生20的用户也可在不知道相机类型的情况下操作。
当相机和控制装置500在开始时连接时,期望标识信息从相机发送到控制装置500。
尽管以上描述已经示出了由控制信息生成单元540生成的控制信息根据腹腔镜110和视频内窥镜112之间的差异而不同的实例,但是可细分相机的类型以生成根据相机的类型而有所不同的控制信息。例如,腹腔镜110可被细分为前视野观察镜和倾斜视野观察镜作为相机的类型,以基于前视野观察镜和倾斜视野观察镜中的每一个的标识信息生成控制信息。
此外,不仅对于诸如腹腔镜110和视频显微镜112的相机类型而且还对于医疗诊断和治疗部门生成不同的控制信息。图15是示出行为区域根据医疗诊断和治疗部门而不同的情况的示意图。如图15所示,在脑外科手术中,焦距约为30cm,平移(移动)的区域约为±4cm,旋转(枢转)的区域约为±45°。
另一方面,在眼科学中,从镜筒到目标的距离z约为20cm,平移(移动)的区域约为±3cm,旋转(枢转)的区域约为±60°。另外,在牙科中,焦距约为30cm至40cm,平移(移动)的区域约为±8cm,旋转(枢转)的区域在X方向上约为±45°,在Y方向上约-70°至45°。
如上所述,相机的行为区域根据医疗诊断和治疗部门而不同。因此,在本实施例中,当相机连接到控制装置500时,对应于医疗诊断和治疗部门的行为信息从相机侧发送到控制装置500。行为信息存储在存储器592中。注意,可通过使用麦克风170、键盘等由外科医生20将与医疗诊断和治疗部门相关的信息输入到控制装置500中。当通过使用麦克风170输入时,通过语音识别单元522基于语音识别与医疗诊断和治疗部门相关的信息,并且由标识信息获取单元590获取该信息。
当生成控制信息时,控制信息生成单元540参考存储在存储器592中的行为信息生成控制信息。从而,根据医疗诊断和治疗部门的类型,将屏幕上的命令转换为实际行为的命令。因此,自动执行在每个医疗诊断和治疗部门中不同的行为。注意,关于视频显微镜在医疗诊断和治疗部门的应用,构思了神经外科和眼科的规范。此外,关于将内窥镜应用于医疗诊断和治疗部门,假设胃肠外科手术、肝胆胰外科手术、泌尿科、胸外科手术、妇科学。
尽管上述实例已经示出了作为腹腔镜110的刚性内窥镜,但是也可采用柔性镜或具有可弯曲镜筒的内窥镜。在这种情况下,通过处理屏幕上的移动命令执行等效行为,柔性镜管的滚动和X或Y方向弯曲,视频屏幕的滚动以及从机器人臂命令到移动命令的转换。通过处理屏幕上的枢转命令执行等效行为,平移/倾斜/滚动命令以及相机臂命令的移动命令,柔性镜管的滚动和X或Y方向弯曲以及视频屏幕的滚动命令。
如上所述,根据本实施例,由控制装置500获取用于识别连接到控制装置500的医疗装置的标识信息。从而,当通过将外科医生20的命令转换为相机臂和相机的运动来生成控制信息时,生成与各种类型的医疗装置的配置相对应的控制信息。因此,无论医疗装置的配置如何,都通过相同的操作方法来控制相机的成像方向和帧/变焦。
本领域技术人员应该理解,可根据设计要求和其他因素进行各种修改、组合、子组合和变更,只要它们在所附权利要求或其等同物的范围内即可。
此外,本说明书中描述的效果仅仅是说明性的或示例性的效果,并不是限制性的。也就是说,利用或代替上述效果,根据本公开的实施例的技术可从本说明书的描述中实现本领域技术人员清楚的其他效果。
另外,本技术还可如下配置。
(1)一种医疗***的控制装置,包括:
识别单元,被配置为识别用于指示附接到支撑臂装置的成像装置的行为以捕获人体图像的指令信息;
标识信息获取单元,被配置为获取与成像装置有关的标识信息;和
控制信息生成单元,被配置为基于指令信息和标识信息生成用于控制成像装置的行为的控制信息。
(2)根据(1)所述的医疗***的控制装置,其中,
通过根据标识信息转换指令信息来产生控制信息。
(3)根据(1)或(2)所述的医疗***的控制装置,其中,
标识信息是指示成像装置的类型的信息。
(4)根据(1)或(2)所述的医疗***的控制装置,其中,
标识信息是指示应用成像装置的医疗诊断和治疗部门的信息。
(5)根据(4)所述的医疗***的控制装置
用于指定支撑臂装置的行为区域的控制信息是基于标识信息生成的。
(6)根据(1)至(5)中任一项所述的医疗***的控制装置,其中,控制信息包括用于控制支撑臂装置的第一控制信息和用于控制成像装置的第二控制信息。
(7)根据(1)至(6)中任一项所述的医疗***的控制装置,其中,成像装置是视频显微镜或视频内窥镜。
(8)根据(1)至(7)中任一项所述的医疗***的控制装置,其中,指令信息是用于指示变焦、移动、旋转和平移/倾斜/滚动中的任何一个的信息,作为成像装置的行为。
(9)根据(1)至(8)中任一项所述的医疗***的控制装置,包括:
存储单元,被配置为存储标识信息。
(10)一种医疗***的控制方法,包括:
识别用于指示附接到支撑臂装置的成像装置的行为以捕获人体图像的指令信息;
获取与成像设备相关的标识信息;和
基于指令信息和标识信息生成用于控制成像装置的行为的控制信息。
(11)一种医疗***,包括:
成像装置,被配置为捕获人体图像;
支撑臂装置,被配置为支撑成像装置;和
医疗***的控制装置,包括:
识别单元,被配置为识别用于指示成像装置的行为的指令信息,
标识信息获取单元,被配置为获取与成像装置有关的标识信息,以及
控制信息生成单元,被配置为基于指令信息和标识信息生成用于控制成像装置的行为的控制信息。
(12)一种手术成像***,包括:
包括标识信息的手术成像装置;
保持和控制成像装置的位置的保持臂;
用户界面,被配置为提供所述保持臂的非接触操作;和
处理电路,被配置为根据所述标识信息和所述用户界面的输出控制所述保持臂。
(13)根据(12)所述的手术成像***,其中,所述成像装置是内窥镜或显微镜。
(14)根据(12)所述的手术成像***,其中,所述处理电路被配置为基于所述标识信息确定所述手术成像装置的类型。
(15)根据(12)所述的手术成像***,其中,所述处理电路被配置为确定医学诊断或治疗中的至少一种。
(16)根据(12)所述的手术成像***,其中,所述处理电路被配置为提供所述手术成像装置的成像控制。
(17)根据(12)所述的手术成像***,其中,所述用户界面从以下中的至少一个接收输出:语音识别装置,视线检测装置,头部跟踪装置,手势识别装置,或脚踏开关。
(18)根据(17)所述的手术成像***,其中,所述语音识别装置包括用于检测语音输入的麦克风。
(19)根据(17)所述的手术成像***,其中,所述视线检测装置包括用于检测所述用户的视线的相机。
(20)根据(19)所述的手术成像***,其中,所述相机提供在由所述用户佩戴的眼镜中。
(21)根据(17)所述的手术成像***,其中,所述头部跟踪装置包括用于检测所述用户的行为的相机。
(22)根据(17)所述的手术成像***,其中,所述手势识别装置包括用于捕获所述用户的手势的相机。
(23)一种手术用图像处理设备,包括:
处理电路,被配置为根据所述成像装置的标识信息和被配置为提供所述保持臂的非接触操作的用户界面的输出来控制保持和控制成像装置的位置的保持臂。
(24)根据(23)所述的图像处理设备,其中,所述用户界面从以下中的至少一个接收输出:语音识别装置,视线检测装置,头部跟踪装置,手势识别装置,或脚踏开关。
(25)根据(23)所述的成像处理设备,其中,所述成像装置是内窥镜或显微镜。
(26)根据(23)所述的成像处理设备,其中,所述处理电路被配置为基于所述标识信息确定所述成像装置的类型。
(27)根据(23)所述的成像处理设备,其中,所述处理电路被配置为确定医学诊断或治疗中的至少一个。
(28)根据(23)所述的成像处理设备,其中,所述处理电路被配置为提供所述成像装置的成像控制。
(29)一种控制成像过程的方法,包括:
使用处理电路标识包括标识信息的手术成像装置;
确定用户的非接触输入;和
根据所述标识信息和所确定的用户的非接触输入控制保持和控制所述手术成像装置的位置的保持臂。
(30)根据(29)所述的方法,其中,从以下中的至少一个接收所述非接触输入:语音识别装置,视线检测装置,头部跟踪装置,手势识别装置,或脚踏开关。
[参考标志清单]
110 腹腔镜
112 视频内窥镜
120 相机臂
500 控制装置
520 识别单元
540 控制信息生成单元
590 控制信息获取单元
592 存储器
Claims (19)
1.一种手术成像***,包括:
包括标识信息的手术成像装置;
保持和控制所述成像装置的位置的保持臂;
用户界面,被配置为提供所述保持臂的非接触操作;和
处理电路,被配置为根据所述标识信息和所述用户界面的输出控制所述保持臂。
2.根据权利要求1所述的手术成像***,其中,所述成像装置是内窥镜或显微镜。
3.根据权利要求1所述的手术成像***,其中,所述处理电路被配置为基于所述标识信息确定所述手术成像装置的类型。
4.根据权利要求1所述的手术成像***,其中,所述处理电路被配置为确定医学诊断或治疗中的至少一种。
5.根据权利要求1所述的手术成像***,其中,所述处理电路被配置为提供所述手术成像装置的成像控制。
6.根据权利要求1所述的手术成像***,其中,所述用户界面从以下中的至少一个接收输出:
语音识别装置,
视线检测装置,
头部跟踪装置,
手势识别装置,或
脚踏开关。
7.根据权利要求6所述的手术成像***,其中,所述语音识别装置包括用于检测语音输入的麦克风。
8.根据权利要求6所述的手术成像***,其中,所述视线检测装置包括用于检测所述用户的视线的相机。
9.根据权利要求8所述的手术成像***,其中,所述相机设置在由所述用户佩戴的眼镜中。
10.根据权利要求6所述的手术成像***,其中,所述头部跟踪装置包括用于检测所述用户的行为的相机。
11.根据权利要求6所述的手术成像***,其中,所述手势识别装置包括用于捕获所述用户的手势的相机。
12.一种手术用图像处理设备,包括:
处理电路,被配置为根据成像装置的标识信息和被配置为提供保持臂的非接触操作的用户界面的输出来控制保持和控制所述成像装置的位置的所述保持臂。
13.根据权利要求12所述的图像处理设备,其中,所述用户界面从以下中的至少一个接收输出:
语音识别装置,
视线检测装置,
头部跟踪装置,
手势识别装置,或
脚踏开关。
14.根据权利要求12所述的成像处理设备,其中,所述成像装置是内窥镜或显微镜。
15.根据权利要求12所述的成像处理设备,其中,所述处理电路被配置为基于所述标识信息确定所述成像装置的类型。
16.根据权利要求12所述的成像处理设备,其中,所述处理电路被配置为确定医学诊断或治疗中的至少一个。
17.根据权利要求12所述的成像处理设备,其中,所述处理电路被配置为提供所述成像装置的成像控制。
18.一种控制成像过程的方法,包括:
使用处理电路标识包括标识信息的手术成像装置;
确定用户的非接触输入;和
根据所述标识信息和所确定的用户的非接触输入控制保持和控制所述手术成像装置的位置的保持臂。
19.根据权利要求18所述的方法,其中,从以下中的至少一个接收所述非接触输入:
语音识别装置,
视线检测装置,
头部跟踪装置,
手势识别装置,或
脚踏开关。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017-061261 | 2017-03-27 | ||
JP2017061261A JP6903991B2 (ja) | 2017-03-27 | 2017-03-27 | 手術用システム、手術用システムの作動方法及び手術用システムの制御装置 |
PCT/JP2018/002245 WO2018179749A1 (en) | 2017-03-27 | 2018-01-25 | Surgical imaging system, image processing apparatus for surgery, and method for controlling an imaging procedure |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110461205A true CN110461205A (zh) | 2019-11-15 |
Family
ID=61188869
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880020002.3A Pending CN110461205A (zh) | 2017-03-27 | 2018-01-25 | 手术成像***、手术用图像处理设备以及用于控制成像过程的方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11471024B2 (zh) |
EP (1) | EP3599969A1 (zh) |
JP (1) | JP6903991B2 (zh) |
CN (1) | CN110461205A (zh) |
WO (1) | WO2018179749A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7519285B2 (ja) | 2020-03-17 | 2024-07-19 | ソニー・オリンパスメディカルソリューションズ株式会社 | 制御装置および医療用観察システム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018214787A1 (de) * | 2018-08-30 | 2019-08-08 | Carl Zeiss Meditec Ag | Operationsmikroskop für mehrere Beobachter und Verfahren zum Betrieb des Operationsmikroskops |
KR20200091988A (ko) * | 2019-01-23 | 2020-08-03 | 삼성전자주식회사 | 장치를 제어하기 위한 방법 및 그 전자 장치 |
JP7494196B2 (ja) | 2019-02-12 | 2024-06-03 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | コンピュータ支援手術システムの手術セッション中の撮像デバイス視点の最適化を容易にするシステム及び方法 |
JPWO2020203405A1 (zh) * | 2019-03-29 | 2020-10-08 | ||
JPWO2021006201A1 (zh) * | 2019-07-05 | 2021-01-14 | ||
EP4076259A4 (en) * | 2019-12-17 | 2023-09-20 | Covidien LP | ROBOTIC SURGICAL SYSTEMS WITH USER INTERVENTION MONITORING |
JP2021145788A (ja) * | 2020-03-17 | 2021-09-27 | ソニー・オリンパスメディカルソリューションズ株式会社 | 制御装置および医療用観察システム |
CN113180827A (zh) * | 2021-04-16 | 2021-07-30 | 北京图灵微创医疗科技有限公司 | 一种用于腹腔手术的视觉导航方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140118518A1 (en) * | 2011-06-28 | 2014-05-01 | Olivier Fructus | Controlled-use imaging system |
WO2014139018A1 (en) * | 2013-03-15 | 2014-09-18 | Synaptive Medical (Barbados) Inc. | Context aware surgical systems |
CN204274388U (zh) * | 2011-08-21 | 2015-04-22 | M.S.T.医学外科技术有限公司 | 有助于外科医生与自动化助理之间接口的设备及手术*** |
CN105050527A (zh) * | 2013-03-15 | 2015-11-11 | 圣纳普医疗(巴巴多斯)公司 | 智能定位***和用于其的方法 |
CN106413510A (zh) * | 2014-06-04 | 2017-02-15 | 索尼公司 | 图像处理装置和图像处理方法 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62166312A (ja) * | 1986-01-18 | 1987-07-22 | Canon Inc | 音声を用いた駆動制御装置 |
JP3744974B2 (ja) | 1995-07-20 | 2006-02-15 | オリンパス株式会社 | 内視鏡下外科手術装置 |
JP4754738B2 (ja) * | 2001-08-30 | 2011-08-24 | オリンパス株式会社 | 医療用保持装置及び医療装置 |
JP2006221117A (ja) * | 2005-02-14 | 2006-08-24 | Olympus Corp | 医療支援システム |
US8672922B2 (en) * | 2005-12-20 | 2014-03-18 | Intuitive Surgical Operations, Inc. | Wireless communication in a robotic surgical system |
US9285853B2 (en) * | 2012-11-20 | 2016-03-15 | Intel Corporation | Providing power to integrated electronics within a cable |
JP6521982B2 (ja) | 2013-09-20 | 2019-05-29 | キャンプレックス インコーポレイテッド | 手術可視化システム及びディスプレイ |
US20170296292A1 (en) * | 2016-04-16 | 2017-10-19 | Eitezaz MAHMOOD | Systems and Methods for Surgical Imaging |
JP7003985B2 (ja) * | 2017-02-28 | 2022-01-21 | ソニーグループ株式会社 | 医療用支持アームシステムおよび制御装置 |
-
2017
- 2017-03-27 JP JP2017061261A patent/JP6903991B2/ja active Active
-
2018
- 2018-01-25 EP EP18704088.6A patent/EP3599969A1/en not_active Withdrawn
- 2018-01-25 US US16/493,760 patent/US11471024B2/en active Active
- 2018-01-25 WO PCT/JP2018/002245 patent/WO2018179749A1/en unknown
- 2018-01-25 CN CN201880020002.3A patent/CN110461205A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140118518A1 (en) * | 2011-06-28 | 2014-05-01 | Olivier Fructus | Controlled-use imaging system |
CN204274388U (zh) * | 2011-08-21 | 2015-04-22 | M.S.T.医学外科技术有限公司 | 有助于外科医生与自动化助理之间接口的设备及手术*** |
WO2014139018A1 (en) * | 2013-03-15 | 2014-09-18 | Synaptive Medical (Barbados) Inc. | Context aware surgical systems |
CN105050527A (zh) * | 2013-03-15 | 2015-11-11 | 圣纳普医疗(巴巴多斯)公司 | 智能定位***和用于其的方法 |
US20160015471A1 (en) * | 2013-03-15 | 2016-01-21 | Synaptive Medical (Barbados) Inc. | Context aware surgical systems |
CN106413510A (zh) * | 2014-06-04 | 2017-02-15 | 索尼公司 | 图像处理装置和图像处理方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7519285B2 (ja) | 2020-03-17 | 2024-07-19 | ソニー・オリンパスメディカルソリューションズ株式会社 | 制御装置および医療用観察システム |
Also Published As
Publication number | Publication date |
---|---|
EP3599969A1 (en) | 2020-02-05 |
JP2018161377A (ja) | 2018-10-18 |
WO2018179749A1 (en) | 2018-10-04 |
JP6903991B2 (ja) | 2021-07-14 |
US20200085282A1 (en) | 2020-03-19 |
US11471024B2 (en) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110461205A (zh) | 手术成像***、手术用图像处理设备以及用于控制成像过程的方法 | |
US11977678B2 (en) | Robotic system providing user selectable actions associated with gaze tracking | |
KR102117273B1 (ko) | 수술 로봇 시스템 및 그 제어 방법 | |
JPWO2018159338A1 (ja) | 医療用支持アームシステムおよび制御装置 | |
WO2017145475A1 (ja) | 医療用情報処理装置、情報処理方法、医療用情報処理システム | |
JP7480477B2 (ja) | 医療用観察システム、制御装置及び制御方法 | |
US20140354689A1 (en) | Display apparatuses and control methods thereof | |
WO2018211969A1 (ja) | 入力制御装置、入力制御方法、および手術システム | |
JP7334499B2 (ja) | 手術支援システム、制御装置及び制御方法 | |
JP7034636B2 (ja) | 医療用観察装置、および医療用観察システム | |
JP7392654B2 (ja) | 医療用観察システム、医療用観察装置及び医療用観察方法 | |
EP3603562B1 (en) | Medical observation apparatus and observation field correction method | |
JP7163282B2 (ja) | 医療用観察装置、処理方法、および医療用観察システム | |
US20190328481A1 (en) | Control device, control method, and medical system | |
US11638000B2 (en) | Medical observation apparatus | |
JP2018075218A (ja) | 医療用支持アーム及び医療用システム | |
US20220207788A1 (en) | Information processor, information processing method, and program | |
US20200037847A1 (en) | Control apparatus for medical system, control method for medical system, and medical system | |
CN110913787A (zh) | 手术支持***、信息处理方法和信息处理装置 | |
CN113905652A (zh) | 医学观察***、控制装置和控制方法 | |
WO2020203164A1 (ja) | 医療システム、情報処理装置及び情報処理方法 | |
JP7134656B2 (ja) | 医療用表示制御装置、および表示制御方法 | |
JP2020018492A (ja) | 医療用ドローンシステム | |
WO2018043205A1 (ja) | 医療用画像処理装置、医療用画像処理方法、プログラム | |
JP7230923B2 (ja) | 情報処理装置、情報処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191115 |
|
RJ01 | Rejection of invention patent application after publication |