CN110742690A - 一种用于配置内窥镜的方法及终端设备 - Google Patents
一种用于配置内窥镜的方法及终端设备 Download PDFInfo
- Publication number
- CN110742690A CN110742690A CN201910867114.9A CN201910867114A CN110742690A CN 110742690 A CN110742690 A CN 110742690A CN 201910867114 A CN201910867114 A CN 201910867114A CN 110742690 A CN110742690 A CN 110742690A
- Authority
- CN
- China
- Prior art keywords
- information
- image
- endoscope
- class information
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Veterinary Medicine (AREA)
- Robotics (AREA)
- Heart & Thoracic Surgery (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Endoscopes (AREA)
Abstract
本发明涉及设备技术领域,具体地涉及一种用于配置内窥镜的方法及终端设备,所述用于配置内窥镜的终端设备包括:图像获取单元,被配置为采集对象图像,所述对象图像包括至少一个对象信息;对象分类单元,被配置为基于图像分类模型确定所采集的对象图像中的对象信息所对应的目标对象类别信息;导航单元,被配置为基于所述目标对象类别信息执行内窥镜导航操作,以使得内窥处理组件能够到达期望对象类别信息所指示的位置。利用该放法及设备,通过应用机器学习模型技术来确定图像所指示的对象类别,并基于对象类别来执行内窥镜导航操作,令内窥镜的操作更加直观和可靠。
Description
技术领域
本发明涉及设备技术领域,具体地涉及一种用于配置内窥镜的方法及终端设备。
背景技术
微创手术过程被公知为比传统的开放性手术提供了更多优点,包括疼痛少、缩短住院期、更快地恢复正常活动、伤疤小、缩短恢复时间以及对组织伤害小。为了执行这些过程,必须通过切口或自然的体孔产生到病人体内的入口。可以使用机器人和手动微创手术设备。
内窥镜是这样的一种医疗设备,即其允许医生通过将该设备通过自然体孔或手术产生的开口***并将其引导至病人体内的目标位置,从而捕获诊断内部身体器官问题的图像。在一些情况下,它还可以被用来在内部身体器官上执行治疗程序。它可操纵使得其远端出于导航的目的而被可控制地取向。例如立体镜或单视场镜相机的图像捕获设备可以被设置在其远端,使得由相机从那个视图捕获的图像可以由医生在显示屏上查看。
内窥镜智能视觉导航技术已在临床医学的诊断和治疗中发挥愈加重要的作用,由于传统的内窥镜推进模式效率低且易出错,而在视觉导航的辅助下,内窥镜能够更加顺利的到达目标部位。如美国直观外科手术操作公司所研发的视觉导航内窥镜,其通过以坐标向量图形表示的方式显示当前图像附近的情况,从而为内窥镜设备的操作者提供界标方向引导,但其依然需要人们观察图像并主观地判断所到达的部位,导致参考效果依然不够直观。
发明内容
本发明的目的是提出一种用于配置内窥镜的方法及终端设备,应用机器学习模型技术来确定图像所指示的对象类别,并基于对象类别来执行内窥镜导航操作,令内窥镜的操作更加直观和可靠。
为了实现上述目的,本发明一方面提供一种用于配置内窥镜的终端设备,包括:图像获取单元,被配置为采集对象图像,所述对象图像包括至少一个对象信息;对象分类单元,被配置为基于图像分类模型确定所采集的对象图像中的对象信息所对应的目标对象类别信息;导航单元,被配置为基于所述目标对象类别信息执行内窥镜导航操作,以使得内窥处理组件能够到达期望对象类别信息所指示的位置。
可选地,所述内窥处理组件包括以下中的任意一者:图像采集组件、治疗处理组件或者维修处理组件。
可选地,所述导航单元包括:对象标记显示模块,被配置为按照对象类别信息标记所述对象图像中相对应的对象信息,并显示经标记的对象图像;移动指令获取模块,被配置为获取内窥镜移动指令;指令导航模块,被配置为基于所述内窥镜移动指令执行内窥镜导航操作,以使得所述内窥处理组件能够到达期望对象类别信息所指示的位置。
可选地,所述导航单元包括:路径导航模块,被配置为按照预设的内窥镜路径执行路径导航操作,其中所述内窥镜路径包括多个内窥镜移动操作参数;路径校准模块,被配置为基于所述目标对象类别信息校准所述路径导航操作,以使得所述内窥处理组件能够到达期望对象类别信息所指示的位置。
可选地,所述对象分类单元包括:对象图像发送模块,被配置为将所采集的对象图像发送至服务器,以使得所述服务器能够调用图像分类模型来确定所述对象图像中的对象信息所对应的目标对象类别信息;目标类别接收模块,被配置为从所述服务器接收所述目标对象类别信息。
可选地,所述对象分类单元包括:模型调用模块,被配置为调用所述图像分类模型来确定所采集的对象图像中的对象信息所对应的目标对象类别信息。
可选地,所述图像获取单元包括:视频流采集模块,被配置为采集视频流;图像获取模块,被配置为按照设定帧率从所采集的视频流中提取图像,并将所提取的图像作为对象图像。
可选地,所述目标对象类别信息和/或所述期望对象类别信息包括以下中的至少一者:会厌信息、气道信息、隆突信息、左上叶支气管分支点信息、左下叶支气管分支点信息、右上叶支气管分支点信息、右中叶支气管分支点信息,以及右下叶支气管分支点信息。
可选地,所述图像分类模型包括深度神经网络模型。
本发明另一方面提供一种用于配置内窥镜的方法,包括:采集对象图像,所述对象图像包括至少一个对象信息;基于图像分类模型确定所采集的对象图像中的对象信息所对应的目标对象类别信息;基于所述目标对象类别信息执行内窥镜导航操作,以使得所述内窥处理组件能够到达期望对象类别信息所指示的位置。
本发明实施例的其它特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
图1是本发明一实施例的用于配置内窥镜的终端设备的结构框图;
图2示出了本发明一实施例的在医疗场景下的识别对象图像中的对象类别信息的方法的流程图;
图3示出了本发明另一实施例的在医疗场景下的识别对象图像中的对象类别信息的方法的流程图;
图4示出了本发明一实施例中的图像分类模型的结构示意图;
图5示出了本发明一实施例的用于配置内窥镜的方法的流程图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
需说明的是,如在本文中所使用的术语“对象信息”可表示各种类型的实际物体的信息。在常用的场景下,内窥镜可被用来对生物体内的部位情况进行探测,此时对象信息可表示相应的部位信息,但在一些场景下,内窥镜还可被用来对非生物结构(例如设备器件),以便于了解非生物结构内的情况。并且,以上针对“对象信息”的解释内容都属于本发明实施例的范围内。
如图1所示,本发明一实施例的用于配置内窥镜的终端设备100,包括图像获取单元110、对象分类单元120和导航单元130。这里,终端设备可以是诸如笔记本电脑终端、台式电脑终端或智能手机之类的具有处理功能的设备。
这里,图像获取单元110采集对象图像。示例性地,图像获取单元110包括视频流采集模块和图像获取模块。具体地,视频流采集模块可以是针对诸如内窥镜的镜头之类的摄像设备的控制组件模块,其能够调用摄像设备来采集视频流。然后,基于图像获取模块按照设定帧率从所采集的视频流中提取图像,并将所提取的图像作为对象图像。示例性地,可按照每秒10帧的方式来从视频流中提取图像,从而生成对应的对象图像。
其中,对象图像中包括至少一个(例如一个或多个)对象信息,这里对象信息可以表示关于多个部件或部位的总称,例如设备内部检测信息或气管检测信息等等。
这里,对象分类单元120可以基于图像分类模型确定所采集的对象图像中的对象信息所对应的目标对象类别信息。由此,利用机器学习模型技术,能够快速且精准地确定出各个对象图像所对应的目标对象类别。示例性地,一方面,利用图像分类模型可识别出针对支气管中不同部位的类别信息,例如会厌和隆突等。另一方面,利用图像分类模型可识别出针对非生物结构中的不同部件的类别信息,例如轴承和螺丝等。关于图像分类模型的具体配置,可依据相应的应用场景而确定,在此应不加限制。
需说明的是,一方面,图像分类模型可以是被终端设备100直接调用的,此时图像分类模型可以是位于终端设备本地的已被训练完备的模型。相应地,对象分类单元包括模型调用模块(未示出)。这里,模型调用模块可以调用图像分类模型来确定所采集的对象图像中的对象信息所对应的目标对象类别信息。
另一方面,图像分类模型可以是被与终端设备100相关联的设备而调用的,示例性地,图像分类模型可以是位于与终端设备100相通讯的服务器上的,其能够被服务器调用以实现对对象图像中的对象进行分类处理。相应地,对象分类单元120包括对象图像发送模块(未示出)和目标类别接收模块(未示出)。对象图像发送模块可以将所采集的对象图像发送至服务器,以使得服务器能够调用图像分类模型来确定对象图像中的对象信息所对应的目标对象类别信息。以及,目标类别接收模块可以从服务器接收目标对象类别信息。
这里,导航单元130可以基于目标对象类别信息执行内窥镜导航操作,以使得内窥处理组件能够到达期望对象类别信息所指示的位置。
应该理解的是,在针对内窥镜的导航过程中,其是由一个或多个对象类别信息所构成的,例如按照“开口-螺纹-轴承-链条”的导航过程而进行相应的操作。示例性地,假如需要到达“链条”所对应的位置,此时“链条”即为期望对象类别信息。当所识别的对象类别信息为“轴承”时,说明内窥镜或内窥镜处理组件还需要继续进行导航及移动,而当所识别的对象类别信息为“链条”时,说明内窥镜或内窥镜处理组件已经到达了指定位置。另外,在生物体内的内窥场景也同样能够被适用。
需说明的是,依据内窥场景或功能需求,内窥处理组件可以采用图像采集组件、治疗处理组件或者维护组件等等。示例性地,若仅需要对特定部件或部位进行视觉探测,则内窥处理组件可以采用图像采集组件。另外,若需要对特定部件或部位进行处理,则内窥处理组件还可以采用治疗处理组件或者维修处理组件,例如针对待维修的部件进行焊接维修,或对待修复的部位进行喷药修复等。
需说明的是,内窥镜导航操作可以是以全自动或半自动的方式而进行的。示例性地,一方面,终端设备100可以在其用户交互界面(例如显示器)上显示对象信息和所识别的对象类别信息,并接收用户操作以实现针对内窥镜的导航操作,此时终端设备100能够用来更好地辅助用户决策以进行导航操作。另一方面,终端设备100还可以在获知期望对象类别信息之后确定针对所述期望对象类别信息的内窥镜路径,内窥镜路径包括多个内窥镜移动操作参数,然后按照预设的内窥镜路径执行路径导航操作。
根据本发明实施例的一个示例,导航单元130包括对象标记显示模块(未示出)、移动指令获取模块(未示出)和指令导航模块(未示出)。对象标记显示模块可以按照对象类别信息标记所述对象图像中相对应的对象信息,并显示经标记的对象图像。移动指令获取模块可以获取内窥镜移动指令。以及,指令导航模块可以基于内窥镜移动指令执行内窥镜导航操作,以使得内窥处理组件能够到达期望对象类别信息所指示的位置。
根据本发明实施例的另一示例,导航单元130包括路径导航模块(未示出)和路径校准模块(未示出)。此时,路径导航模块按照预设的内窥镜路径执行路径导航操作,以及路径校准模块基于目标对象类别信息校准路径导航操作,以使得内窥处理组件能够到达期望对象类别信息所指示的位置。
如图2所示,本发明一实施例的在医疗场景下的识别对象图像中的对象类别信息的方法的流程图。在本实施例中,在电脑主机(或终端设备)本地来调用图像分类模型来将图像中的对象信息进行分类。本发明实施例的硬件组成部分包括内窥镜设备、电脑主机和显示器等,由此基于深度学习的人工智能判别***,在电脑主机上运行基于深度学习的人工智能判别***。
通过将内窥镜采集到的体内的图像数据,将视频流发送至电脑主机并于屏幕显示,同时主机进行图片截取和预处理,然后利用训练好的模型进行分类预测,将分类结果于显示屏实时图像中标记,显示当前内窥镜软镜所处的部位,从而辅助操作医师插管。具体的,该方法包括:首先,从内窥镜设备获取视频流数据。然后,按照每秒10帧从视频流数据中提取图片,并进行诸如重采样和归一化之类的预处理操作。之后,利用训练好的模型(即图像分类模型)来对图像中的对象信息进行分类预测。
如图3所示,本发明另一实施例的在医疗场景下的识别对象图像中的对象类别信息的方法的流程图。在本实施例中,电脑主机(或终端设备)借助服务器远程来调用图像分类模型来将图像中的对象信息进行分类,这里服务器可以同时对多个电脑主机所上传的图像识别任务进行处理。本发明实施例的硬件组成部分包括内窥镜设备、电脑主机、显示器和服务器等,由此基于深度学习的人工智能判别***,在远程服务器运行基于深度学习的人工智能判别***,服务器端具有任务调度模块,支持网络上的多用户同时申请作业功能。
通过将内窥镜采集到的体内的图像数据,将视频流发送至电脑主机并于屏幕显示,同时主机进行图片截取和预处理,然后将图像远程上传至服务器。在由服务器进行判断后,返回分类结果,再由主机将分类结果于显示屏实时图像中标记。由此,显示出当前内窥镜软镜所处的部位,从而辅助操作医师插管。
应理解的是,从内窥镜设备到电脑主机的图像传输方式既可以使用诸如wifi或蓝牙方式的无线传输方式,还可以使用诸如USB、HDMI或网线直线的有线传输方式。
在本公开的实施例的一种实践效果下,在显示器中将目标对象以矩形框的形式进行标注,并且目标对象类型信息可以相应地在矩形框中进行展示,以直观地告知用户当前内窥镜所处对象的信息。示例性地,针对气管检测场景的对象例如可以是会厌、气道内未见分支处和支气管分支点等。应理解的是这些对象类型是训练图像分类模型时既定的几种输出类型。
如图4所示,本发明一实施例中的图像分类模型的结构。这里,图像分类模型采用Inception结构模型结构,并用于对图像进行八分类。其中,网络前七层为三个卷积层,一个池化层,两个卷积层,一个池化层,然后是三个Inception模组。第一个模组包括三个Inception结构,第二个模组包括五个Inception结构,第三个模组包括三个Inception结构。最后,设置一个池化层、一个Dropout层和一个全连接层,然后以SoftMax进行分类输出。示例性的网络结构参数如下所示:
这里,网络输入数据尺寸为299×299×3。
第一层卷积层,卷积核大小为3×3,步长为2,不补零,输出尺寸149×149×32。
第二层卷积层,卷积核大小为3×3,步长为1,不补零,输出尺寸147×147×32。
第三次卷积层,卷积核大小为3×3,步长为1,补零,输出尺寸147×147×64。
第四层为最大池化层,卷积核大小为3×3,步长为2,不补零,输出尺寸73×73×64。
第五层为卷积层,卷积核大小为1×1,步长为1,不补零,输出尺寸73×73×80。
第六层为卷积层,卷积核大小为3×3,步长为1,不补零,输出尺寸71×71×192。
第七次为最大池化层,卷积核大小为3×3,步长为2,不补零,输出尺寸为35×35×192。
接下来是第一个Inception模组,包含三个结构类似的一型Inception单元。第一组第一个Inception单元包含四个分支,四个分支的输出进行合并,总输出尺寸35×35×256。
第一个分支为64通道的卷积核大小为1×1的卷积,输出尺寸35×35×64。
第二个分支为48通道的1×1卷积后连接一个64通道的5×5卷积,输出尺寸35×35×64。
第三个分支为64通道1×1卷积后连接两个96通道的5×5卷积,输出尺寸为35×35×96。
第四个分支为3×3大小的平均池化后连接一层32通道的1×1卷积,输出尺寸为35×35×32。
第一组第二个Inception单元同样包含四个分支,四个分支输出合并,总输出尺寸35×35×288。
第一个分支为64通道的卷积核大小为1×1的卷积层,输出尺寸35×35×64。
第二个分支为48通道的1×1卷积层后连接一个64通道的5×5卷积层,输出尺寸35×35×64。
第三个分支为64通道1×1卷积层后连接两个96通道的5×5卷积层,输出尺寸为35×35×96。
第四个分支为3×3大小的平均池化后连接一层64通道的1×1卷积层,输出尺寸为35×35×64。
第一组第三个Inception单元与第二个相同,总输出尺寸35×35×288。
第二个Inception模组包含五个Inception单元,其中第二、三、四、五个单元结构相似。第二组第一个Inception单元包含三个分支,各分支输出合并,总输出尺寸17×17×768。
第一个分支为384通道,步长为2,3×3大小的卷积层,输出为17×17×384。
第二个分支为64通道,步长为1,1×1大小的卷积层连接两个96通道,步长为1,3×3大小的卷积层,输出尺寸17×17×96。
第三个分支为步长为1,3×3大小的最大池化层,输出尺寸17×17×288。
第二组第二个Inception单元包含4个分支,其中卷积层步长均为1,总输出尺寸17×17×768。
第一个分支为192通道、1×1大小的卷积层,输出尺寸17×17×192。
第二个分支为128通道、1×1大小卷积层串接128通道、1×7大小卷积层和192通道、7×1大小的卷积层,输出尺寸17×17×192。以串接1×7大小卷积层和7×1大小卷积层来替代7×7大小卷积层,可减少参数,也可减轻过拟合。
第三分支为128通道、1×1大小卷积层串接128通道、7×1大小卷积层和128通道、1×7大小的卷积层,再串接128通道、7×1大小卷积层和192通道、1×7大小的卷积层,输出尺寸17×17×192。
第四分支为3×3的平均池化层接192通道、1×1大小的卷积层,输出尺寸17×17×192。
第二组第三个Inception单元,分为四个分支,总输出尺寸17×17×768。
第一个分支为192通道、1×1大小的卷积层,输出尺寸17×17×192。
第二个分支为160通道、1×1通道的卷积层串接160通道、1×7大小卷积层与192通道、7×1大小卷积层,输出尺寸17×17×192。
第三分支为160通道、1×1大小卷积层串接160通道、7×1大小卷积层和160通道、1×7大小的卷积层,再串接160通道、7×1大小卷积层和192通道、1×7大小的卷积层,输出尺寸17×17×192。
第四分支为3×3的平均池化层接192通道、1×1大小的卷积层,输出尺寸17×17×192。
第二组第四个Inception单元与第三个单元完全一样,输出尺寸17×17×768,增加网络结构的非线性。
第二组第五个Inception单元,分为四个分支,总输出尺寸17×17×768:
第一个分支为192通道、1×1大小的卷积层,输出尺寸17×17×192;
第二个分支为192通道、1×1通道的卷积层串接192通道、1×7大小卷积层与192通道、7×1大小卷积层,输出尺寸17×17×192。
第三分支为192通道、1×1大小卷积层串接192通道、7×1大小卷积层和192通道、1×7大小的卷积层,再串接192通道、7×1大小卷积层和192通道、1×7大小的卷积层,输出尺寸17×17×192。
第四分支为3×3的平均池化层接192通道、1×1大小的卷积层,输出尺寸17×17×192。
第三个Inception模组包含三个Inception单元,其中第二、三个单元结构相似。第三组第一个Inception单元包含三个分支,各分支输出合并,总输出尺寸8×8×1280。
第一个分支为192通道、1×1大小的卷积层,接320通道、3×3大小卷积层,输出尺寸8×8×320。
第二个分支为192通道、1×1大小的卷积层,串接192通道、1×7大小卷积层和192通道、7×1大小卷积层,再接步长2、通道192、3×3大小卷积层,输出尺寸8×8×192。
第三个分支为步长为2、3×3大小的最大池化层,输出尺寸8×8×768。
第三组第二个Inception模块包含四个分支,其中第二个和第三个分支中又各自包含小的分支。四个分支总输出尺寸为8×8×2048。
第一个分支为步长1,1×1大小卷积核、320通道卷积层,输出尺寸8×8×320。
第二个分支为步长1,1×1大小卷积核、384通道卷积层,接一个具有两个子分支的小结构,其中一子分支为步长1,1×3大小卷积核、384通道卷积层,另一子分支为步长1,3×1大小卷积核、384通道卷积层。输出尺寸8×8×768。
第三个分支为步长1,1×1大小卷积核、448通道卷积层,接步长1,3×3大小卷积核、384通道卷积层,再接一个具有两个子分支的小结构,其中一子分支为步长1,1×3大小卷积核、384通道卷积层,另一子分支为步长1,3×1大小卷积核、384通道卷积层;输出尺寸8×8×768。
第四个分支为步长1,3×3大小的平均池化层接步长1,1×1大小卷积核、192通道卷积层,输出尺寸8×8×192。
第三组第三个Inception模块与上一个一样,输出尺寸8×8×2048。
将第二组第五个Inception模块结果的17×17×768输出外接一个步长为3,大小5×5的平均池化层,再接一个步长为1,1×1大小卷积核,128通道的卷积层,接步长1,5×5大小卷积核,768通道卷积层,再接8通道1×1卷积层,整体用作辅助分类。
将第三组第三个Inception模块8×8×20输出后接一个8×8平均池化层,输出尺寸1×1×2048,再接Dropout层。
接8通道,1×1卷积层,输出为1×1×8,再去除维度为1的节点,并使用Softmax对结果进行分类预测,最终输出包括主线输出结果,辅助分类的结果和Softmax预测输出结果。
进而,在针对图4所示的图像分类模型的应用场景中,可将其应用在针对气管内不同部位的分类识别操作中。相应地,对应的8个分类分别为会厌信息、气道信息、隆突信息、左上叶支气管分支点信息、左下叶支气管分支点信息、右上叶支气管分支点信息、右中叶支气管分支点信息,以及右下叶支气管分支点信息。
另外,在针对图4所示的图像分类模型的训练过程中,需要准备好训练集、验证集和测试集。
接着,对图片进行预处理,降采样为299*299尺寸,并将图像归一化。
接着,利用构建好的Inception模型网络对训练集数据进行训练并采用交叉验证,训练集和验证集的比例为beta,设置类别数为K,最大迭代次数B,学习率alpha,标准差S,每X次迭代使用验证集进行验证并查看结果,防止过拟合。训练直至模型的损失函数收敛并将模型进行保存,然后使用测试集进行测试。
之后,使用训练好的数据对待分类图片进行预测,得出分类结果。
在本发明实施例中,通过图像分类,可以有效帮助我们区分支气管不同区域,从而辅助内窥镜软镜进行支气管插管导航。深度神经网络在图像分类方面具有很大优势,利用多层网络不断学习图像中的特征,比如Inception结构模型,通过对卷积核的结构优化,增加了网络的非线性,能处理更多、更丰富的空间特征,增加特征多样性,从而更好地对图像进行分类。
如图5所示,本发明一实施例的用于配置内窥镜的方法,包括:
S510、采集对象图像,该对象图像包括至少一个对象信息。
S520、基于图像分类模型确定所采集的对象图像中的对象信息所对应的目标对象类别信息。
S530、基于目标对象类别信息执行内窥镜导航操作,以使得内窥处理组件能够到达期望对象类别信息所指示的位置。
关于本发明实施例的用于配置内窥镜的方法中更多的细节和效果,可以参照上文针对用于配置内窥镜的终端设备的相关描述,相同内容在此便不赘述。
根据一个实施例,提供了一种比如机器可读介质的程序产品。机器可读介质可以具有指令(即,上述以软件形式实现的元素),该指令当被机器执行时,使得机器执行本公开的各个实施例中以上结合图1-5中描述的各种操作和功能。具体地,可以提供配有可读存储介质的***或者装置,在该可读存储介质上存储着实现上述实施例中任一实施例的功能的软件程序代码,且使该***或者装置的计算机或处理器读出并执行存储在该可读存储介质中的指令。
在这种情况下,从可读介质读取的程序代码本身可实现上述实施例中任何一项实施例的功能,因此机器可读代码和存储机器可读代码的可读存储介质构成了本发明的一部分。
可读存储介质的实施例包括软盘、硬盘、磁光盘、光盘(如CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD-RW)、磁带、非易失性存储卡和ROM。可选择地,可以由通信网络从服务器计算机上或云上下载程序代码。
本领域技术人员应当理解,上面公开的各个实施例可以在不偏离发明实质的情况下做出各种变形和修改。因此,本发明的保护范围应当由所附的权利要求书来限定。
需要说明的是,上述各流程和各***结构图中不是所有的步骤和单元都是必须的,可以根据实际的需要忽略某些步骤或单元。各步骤的执行顺序不是固定的,可以根据需要进行确定。上述各实施例中描述的装置结构可以是物理结构,也可以是逻辑结构,即,有些单元可能由同一物理实体实现,或者,有些单元可能分由多个物理实体实现,或者,可以由多个独立设备中的某些部件共同实现。
以上各实施例中,硬件单元或模块可以通过机械方式或电气方式实现。例如,一个硬件单元、模块或处理器可以包括永久性专用的电路或逻辑(如专门的处理器,FPGA或ASIC)来完成相应操作。硬件单元或处理器还可以包括可编程逻辑或电路(如通用处理器或其它可编程处理器),可以由软件进行临时的设置以完成相应操作。具体的实现方式(机械方式、或专用的永久性电路、或者临时设置的电路)可以基于成本和时间上的考虑来确定。
上面结合附图阐述的具体实施方式描述了示例性实施例,但并不表示可以实现的或者落入权利要求书的保护范围的所有实施例。在整个本说明书中使用的术语“示例性”意味着“用作示例、实例或例示”,并不意味着比其它实施例“优选”或“具有优势”。出于提供对所描述技术的理解的目的,具体实施方式包括具体细节。然而,可以在没有这些具体细节的情况下实施这些技术。在一些实例中,为了避免对所描述的实施例的概念造成难以理解,公知的结构和装置以框图形式示出。
本公开内容的上述描述被提供来使得本领域任何普通技术人员能够实现或者使用本公开内容。对于本领域普通技术人员来说,对本公开内容进行的各种修改是显而易见的,并且,也可以在不脱离本公开内容的保护范围的情况下,将本文所定义的一般性原理应用于其它变型。因此,本公开内容并不限于本文所描述的示例和设计,而是与符合本文公开的原理和新颖性特征的最广范围相一致。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、***或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种用于配置内窥镜的终端设备,包括:
图像获取单元,被配置为采集对象图像,所述对象图像包括至少一个对象信息;
对象分类单元,被配置为基于图像分类模型确定所采集的对象图像中的对象信息所对应的目标对象类别信息;
导航单元,被配置为基于所述目标对象类别信息执行内窥镜导航操作,以使得内窥处理组件能够到达期望对象类别信息所指示的位置。
2.如权利要求1所述的终端设备,其中,所述内窥处理组件包括以下中的任意一者:图像采集组件、治疗处理组件或者维修处理组件。
3.如权利要求1所述的终端设备,其中,所述导航单元包括:
对象标记显示模块,被配置为按照对象类别信息标记所述对象图像中相对应的对象信息,并显示经标记的对象图像;
移动指令获取模块,被配置为获取内窥镜移动指令;
指令导航模块,被配置为基于所述内窥镜移动指令执行内窥镜导航操作,以使得所述内窥处理组件能够到达期望对象类别信息所指示的位置。
4.如权利要求1所述的终端设备,其中,所述导航单元包括:
路径导航模块,被配置为按照预设的内窥镜路径执行路径导航操作,其中所述内窥镜路径包括多个内窥镜移动操作参数;
路径校准模块,被配置为基于所述目标对象类别信息校准所述路径导航操作,以使得所述内窥处理组件能够到达期望对象类别信息所指示的位置。
5.如权利要求1所述的终端设备,其中,所述对象分类单元包括:
对象图像发送模块,被配置为将所采集的对象图像发送至服务器,以使得所述服务器能够调用图像分类模型来确定所述对象图像中的对象信息所对应的目标对象类别信息;
目标类别接收模块,被配置为从所述服务器接收所述目标对象类别信息。
6.如权利要求1所述的终端设备,其中,所述对象分类单元包括:
模型调用模块,被配置为调用所述图像分类模型来确定所采集的对象图像中的对象信息所对应的目标对象类别信息。
7.如权利要求1所述的终端设备,其中,所述图像获取单元包括:
视频流采集模块,被配置为采集视频流;
图像获取模块,被配置为按照设定帧率从所采集的视频流中提取图像,并将所提取的图像作为对象图像。
8.如权利要求1所述的终端设备,其中,所述目标对象类别信息和/或所述期望对象类别信息包括以下中的至少一者:会厌信息、气道信息、隆突信息、左上叶支气管分支点信息、左下叶支气管分支点信息、右上叶支气管分支点信息、右中叶支气管分支点信息,以及右下叶支气管分支点信息。
9.如权利要求1-8中任一项所述的终端设备,其中,所述图像分类模型包括深度神经网络模型。
10.一种用于配置内窥镜的方法,包括:
采集对象图像,所述对象图像包括至少一个对象信息;
基于图像分类模型确定所采集的对象图像中的对象信息所对应的目标对象类别信息;
基于所述目标对象类别信息执行内窥镜导航操作,以使得所述内窥处理组件能够到达期望对象类别信息所指示的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910867114.9A CN110742690A (zh) | 2019-09-12 | 2019-09-12 | 一种用于配置内窥镜的方法及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910867114.9A CN110742690A (zh) | 2019-09-12 | 2019-09-12 | 一种用于配置内窥镜的方法及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110742690A true CN110742690A (zh) | 2020-02-04 |
Family
ID=69276399
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910867114.9A Pending CN110742690A (zh) | 2019-09-12 | 2019-09-12 | 一种用于配置内窥镜的方法及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110742690A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931626A (zh) * | 2020-08-03 | 2020-11-13 | 天津理工大学 | 一种基于深度学习的血管介入机器人自动手术方法 |
CN113243877A (zh) * | 2020-02-13 | 2021-08-13 | 宁波思康鑫电子科技有限公司 | 一种用于内窥镜定位的***及方法 |
CN113487609A (zh) * | 2021-09-06 | 2021-10-08 | 北京字节跳动网络技术有限公司 | 组织腔体的定位方法、装置、可读介质和电子设备 |
CN113496512A (zh) * | 2021-09-06 | 2021-10-12 | 北京字节跳动网络技术有限公司 | 用于内窥镜的组织腔体定位方法、装置、介质及设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1612708A (zh) * | 2002-07-31 | 2005-05-04 | 奥林巴斯株式会社 | 内窥镜装置 |
CN1823349A (zh) * | 2003-07-11 | 2006-08-23 | 西门子共同研究公司 | 内窥镜路径规划的***和方法 |
CN101375805A (zh) * | 2007-12-29 | 2009-03-04 | 清华大学深圳研究生院 | 一种计算机辅助引导电子内窥镜操作的方法和*** |
CN102449666A (zh) * | 2009-03-26 | 2012-05-09 | 直观外科手术操作公司 | 用于为操纵内窥镜设备的末端朝向一个或更多个界标转向提供视觉引导和在内窥镜导航中辅助操作者的*** |
CN104244800A (zh) * | 2012-04-19 | 2014-12-24 | 皇家飞利浦有限公司 | 使用手术前和手术中的3d图像来人工操纵内窥镜的引导工具 |
CN109954196A (zh) * | 2013-08-15 | 2019-07-02 | 直观外科手术操作公司 | 用于导管定位和***的图形用户界面 |
CN110136106A (zh) * | 2019-05-06 | 2019-08-16 | 腾讯科技(深圳)有限公司 | 医疗内窥镜图像的识别方法、***、设备和内窥镜影像*** |
-
2019
- 2019-09-12 CN CN201910867114.9A patent/CN110742690A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1612708A (zh) * | 2002-07-31 | 2005-05-04 | 奥林巴斯株式会社 | 内窥镜装置 |
CN1823349A (zh) * | 2003-07-11 | 2006-08-23 | 西门子共同研究公司 | 内窥镜路径规划的***和方法 |
CN101375805A (zh) * | 2007-12-29 | 2009-03-04 | 清华大学深圳研究生院 | 一种计算机辅助引导电子内窥镜操作的方法和*** |
CN102449666A (zh) * | 2009-03-26 | 2012-05-09 | 直观外科手术操作公司 | 用于为操纵内窥镜设备的末端朝向一个或更多个界标转向提供视觉引导和在内窥镜导航中辅助操作者的*** |
CN104244800A (zh) * | 2012-04-19 | 2014-12-24 | 皇家飞利浦有限公司 | 使用手术前和手术中的3d图像来人工操纵内窥镜的引导工具 |
CN109954196A (zh) * | 2013-08-15 | 2019-07-02 | 直观外科手术操作公司 | 用于导管定位和***的图形用户界面 |
CN110136106A (zh) * | 2019-05-06 | 2019-08-16 | 腾讯科技(深圳)有限公司 | 医疗内窥镜图像的识别方法、***、设备和内窥镜影像*** |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113243877A (zh) * | 2020-02-13 | 2021-08-13 | 宁波思康鑫电子科技有限公司 | 一种用于内窥镜定位的***及方法 |
CN111931626A (zh) * | 2020-08-03 | 2020-11-13 | 天津理工大学 | 一种基于深度学习的血管介入机器人自动手术方法 |
CN111931626B (zh) * | 2020-08-03 | 2023-12-26 | 深圳市爱博医疗机器人有限公司 | 一种基于深度学习的血管介入机器人自动手术方法 |
CN113487609A (zh) * | 2021-09-06 | 2021-10-08 | 北京字节跳动网络技术有限公司 | 组织腔体的定位方法、装置、可读介质和电子设备 |
CN113496512A (zh) * | 2021-09-06 | 2021-10-12 | 北京字节跳动网络技术有限公司 | 用于内窥镜的组织腔体定位方法、装置、介质及设备 |
CN113496512B (zh) * | 2021-09-06 | 2021-12-17 | 北京字节跳动网络技术有限公司 | 用于内窥镜的组织腔体定位方法、装置、介质及设备 |
WO2023030523A1 (zh) * | 2021-09-06 | 2023-03-09 | 北京字节跳动网络技术有限公司 | 用于内窥镜的组织腔体定位方法、装置、介质及设备 |
WO2023030373A1 (zh) * | 2021-09-06 | 2023-03-09 | 北京字节跳动网络技术有限公司 | 组织腔体的定位方法、装置、可读介质和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Du et al. | Articulated multi-instrument 2-D pose estimation using fully convolutional networks | |
KR102014385B1 (ko) | 수술영상 학습 및 학습 기반 수술동작 인식 방법 및 장치 | |
CN110742690A (zh) | 一种用于配置内窥镜的方法及终端设备 | |
WO2021036616A1 (zh) | 一种医疗图像处理方法、医疗图像识别方法及装置 | |
KR101864380B1 (ko) | 수술영상데이터 학습시스템 | |
US9805469B2 (en) | Marking and tracking an area of interest during endoscopy | |
US11907849B2 (en) | Information processing system, endoscope system, information storage medium, and information processing method | |
WO2020125499A9 (zh) | 一种操作提示方法及眼镜 | |
JP2018522622A (ja) | 内視鏡および腹腔鏡のナビゲーションのためにシーン解析とモデル融合とを同時に行う方法およびシステム | |
US20150080652A1 (en) | Lesion detection and image stabilization using portion of field of view | |
CN108814717B (zh) | 手术机器人*** | |
US20240169579A1 (en) | Prediction of structures in surgical data using machine learning | |
Bawa et al. | The saras endoscopic surgeon action detection (esad) dataset: Challenges and methods | |
KR102427171B1 (ko) | 영상 내의 객체 레이블링 제공 방법 및 이를 위한 장치 | |
US20230293236A1 (en) | Device, method and computer program product for validating surgical simulation | |
US20230110263A1 (en) | Computer-implemented systems and methods for analyzing examination quality for an endoscopic procedure | |
US20240206989A1 (en) | Detection of surgical phases and instruments | |
US20240161497A1 (en) | Detection of surgical states and instruments | |
CN114974522A (zh) | 医学影像处理方法、装置、电子设备及存储介质 | |
EP4309142A1 (en) | Adaptive visualization of contextual targets in surgical video | |
Li et al. | A preliminary exploration to make stereotactic surgery robots aware of the semantic 2D/3D working scene | |
CN110974121B (zh) | 一种判断消化内窥镜检查是否染色的方法及*** | |
CN115393670B (zh) | 训练肺部内窥镜图像识别模型的方法及识别方法 | |
CN113706449B (zh) | 基于病理图像的细胞分析方法、装置、设备及存储介质 | |
WO2024095673A1 (ja) | 医療支援装置、内視鏡、医療支援方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200204 |