CN113133829B - 一种手术导航***、方法、电子设备和可读存储介质 - Google Patents

一种手术导航***、方法、电子设备和可读存储介质 Download PDF

Info

Publication number
CN113133829B
CN113133829B CN202110358153.3A CN202110358153A CN113133829B CN 113133829 B CN113133829 B CN 113133829B CN 202110358153 A CN202110358153 A CN 202110358153A CN 113133829 B CN113133829 B CN 113133829B
Authority
CN
China
Prior art keywords
identification
image
acquiring
recognition result
navigation system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110358153.3A
Other languages
English (en)
Other versions
CN113133829A (zh
Inventor
孙非
朱奕
郭晓杰
崔芙粒
单莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jedicare Medical Technology Co ltd
Original Assignee
Shanghai Jedicare Medical Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jedicare Medical Technology Co ltd filed Critical Shanghai Jedicare Medical Technology Co ltd
Priority to CN202110358153.3A priority Critical patent/CN113133829B/zh
Publication of CN113133829A publication Critical patent/CN113133829A/zh
Priority to PCT/CN2022/081728 priority patent/WO2022206435A1/zh
Priority to US18/552,077 priority patent/US20240189043A1/en
Application granted granted Critical
Publication of CN113133829B publication Critical patent/CN113133829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2068Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Robotics (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本方案提供了一种手术导航***、方法、电子设备和可读存储介质。一种手术导航***,包括:图像获取模块,用于获取手术场景图像;图像识别模块,用于对手术场景图像进行图像识别,得到第一识别结果,第一识别结果用于表征手术场景图像中所包含的标识物;指令获取模块,用于根据第一识别结果,获取相应的交互指令;指令执行模块,用于根据交互指令,控制手术导航***执行相应的手术导航步骤。实施本申请的技术方案可以降低手术导航***被控制时发生误判的几率。

Description

一种手术导航***、方法、电子设备和可读存储介质
技术领域
本申请涉及医疗领域,尤其涉及一种手术导航***、方法、电子设备和可读存储介质。
背景技术
手术导航***,是将病人术前或术中影像数据和手术床上病人解剖结构准确对应,手术中跟踪手术器械并将手术器械的位置在病人影像上以虚拟探针的形式实时更新显示,使医生对手术器械相对病人解剖结构的位置一目了然,使外科手术更快速、更精确、更安全。
增强现实设备可以显著提高佩戴者的工作效率,其主要采用手势、语音等方式实现人机互动,将采用手势、语音等方式实现人机互动的增强现实设备运用到手术导航***时,其存在的不足是:若采用手势实现手术导航***的人机互动,会因为医生手套的血液污染或多手出现在摄像头视野内等情况而发生***误判;若采用语音实现手术导航***的人机互动,会因为术中必要的交流造成误触发。
发明内容
为了解决上述技术问题中的至少一个,本申请提供了一种手术导航***、方法、电子设备和可读存储介质。
本申请的第一方面,一种手术导航***,包括:
图像获取模块,用于获取手术场景图像;
图像识别模块,用于对所述手术场景图像进行图像识别,得到第一识别结果,所述第一识别结果用于表征所述手术场景图像中所包含的标识物;
指令获取模块,用于根据所述第一识别结果,获取相应的交互指令;
指令执行模块,用于根据所述交互指令,控制所述手术导航***执行相应的手术导航步骤。
可选的,所述图像识别模块用于对所述手术场景图像进行图像识别,得到第一识别结果时,具体用于:
提取所述手术场景图像的图像特征;
根据所述手术场景图像的图像特征与所述标识物的图像特征的相似度,确定所述第一识别结果。
可选的,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取所述手术导航***所处的手术导航阶段;
根据所述第一识别结果和所述手术导航阶段,获取相应的交互指令。
可选的,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取对所述手术场景图像进行图像识别得到的第二识别结果,其中,所述第二识别结果用于表征所述标识物在预设空间的相对位置,或表征所述标识物与预设目标的相对距离;
根据所述第一识别结果和所述第二识别结果,获取相应的交互指令。
可选的,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取对所述手术场景图像进行图像识别得到的第三识别结果,所述第三识别结果用于表征所述标识物的朝向和/或角度;
根据所述第一识别结果和所述第三识别结果,获取相应的交互指令。
可选的,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取对所述手术场景图像进行图像识别得到的第四识别结果,所述第四识别结果用于表征所述标识物的被遮挡程度;
根据所述第一识别结果和所述第四识别结果,获取相应的交互指令。
可选的,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取对所述手术场景图像进行图像识别得到的第五识别结果,所述第五识别结果用于表征所述标识物的绝对运动轨迹或相对运行轨迹,其中,所述绝对运动轨迹是所述标识物相对于静止物体的运动轨迹,所述相对运动轨迹是所述标识物相对于设定人员的运动轨迹;
根据所述第一识别结果和所述第五识别结果,获取相应的交互指令。
本申请的第二方面,一种手术导航***的信息交互方法,包括:
获取手术场景图像;
对所述手术场景图像进行图像识别,得到第一识别结果,所述第一识别结果用于表征识别得到的所述手术场景图像中的标识物;
根据所述第一识别结果,获取相应的交互指令。
可选的,所述对所述手术场景图像进行图像识别,得到第一识别结果,包括:
提取所述手术场景图像的图像特征;
根据所述手术场景图像的图像特征以及所述标识物所具有的图像特征,获得第一识别结果。
可选的,所述根据所述第一识别结果,获取相应的交互指令,包括:
获取手术阶段信息;
根据所述第一识别结果和所述手术阶段信息,获取相应的交互指令。
可选的,所述根据所述第一识别结果,获取相应的交互指令,包括:
获取对所述手术场景图像进行图像识别得到的第二识别结果,所述第二识别结果用于表征所述标识物在预设空间的相对位置,或用于表征所述标识物与预设目标的相对距离;
根据所述第一识别结果和所述第二识别结果,获取相应的交互指令。
可选的,所述根据所述第一识别结果,获取相应的交互指令,包括:
获取对所述手术场景图像进行图像识别得到的第三识别结果,所述第三识别结果用于表征所述标识物的朝向和/或角度;
根据所述第一识别结果和所述第三识别结果,获取相应的交互指令。
可选的,所述根据所述第一识别结果,获取相应的交互指令,包括:
获取对所述手术场景图像进行图像识别得到的第四识别结果,所述第四识别结果用于表征所述标识物的被遮挡程度;
根据所述第一识别结果和所述第四识别结果,获取相应的交互指令。
可选的,所述根据所述第一识别结果,获取相应的交互指令,包括:
获取对所述手术场景图像进行图像识别得到的第五识别结果,所述第五识别结果用于表征所述标识物的绝对运动轨迹或相对运行轨迹,其中,所述绝对运动轨迹是所述标识物相对于静止物体的运动轨迹,所述相对运动轨迹是所述标识物相对于设定人员的运动轨迹;
根据所述第一识别结果和所述第五识别结果,获取相应的交互指令。
本申请的第三方面,一种电子设备,包括存储器和处理器,所述存储器用于存储计算机指令,其特征在于,所述计算机指令被所述处理器执行以实现本申请第二方面任一项所述的方法。
本申请的第四方面,一种可读存储介质,其上存储有计算机指令,其特征在于,该计算机指令被处理器执行时实现本申请第二方面任一项所述的方法。
通过实施本申请的技术方案可以取得以下有益技术效果:本申请实施例中的技术方案,可以自动手术场景图像中所包含的标识物,根据手术场景图像中所包含的标识物获得相应的交互指令,再根据交互指令控制手术导航***执行相应的手术导航步骤;使得操作者可以通过拍摄具有标识物的手术场景的方式,控制手术导航***执行相应的手术导航步骤,无需采用语音、手势等进行操作。相对于现有技术,实施本申请的技术方案可以降低手术导航***被控制时发生误判的几率。
附图说明
附图示出了本公开的示例性实施方式,并与其说明一起用于解释本公开的原理,其中包括了这些附图以提供对本公开的进一步理解,并且附图包括在本说明书中并构成本说明书的一部分。
图1是本申请实施例公开的一种手术导航***的结构框图;
图2是本申请实施例公开的一种手术场景示意图;
图3是本申请实施例公开的另一种手术场景示意图;
图4是本申请实施例公开的另一种手术场景示意图;
图5是本申请实施例公开的另一种手术场景示意图;
图6是本申请实施例公开的另一种手术场景示意图;
图7是本申请实施例公开的另一种手术场景示意图;
图8是本申请实施例公开的一种手术导航***的信息交互方法的流程图;
图9是本申请实施例公开的另一种电子设备的结构框图;
图10是本申请实施例公开的一种计算机***的结构示意图。
具体实施方式
下面结合附图和实施方式对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施方式仅用于解释相关内容,而非对本公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施方式及实施方式中的特征可以相互组合。下面将参考附图并结合实施方式来详细说明本公开。
参见图1,手术导航***,包括:
图像获取模块101,用于获取手术场景图像;
图像识别模块102,用于对手术场景图像进行图像识别,得到第一识别结果,第一识别结果用于表征手术场景图像中所包含的标识物;
指令获取模块103,用于根据第一识别结果,获取相应的交互指令;
指令执行模块104,用于根据交互指令,控制手术导航***执行相应的手术导航步骤。
本申请实施例中的手术导航***,可以自动识别摄像头拍摄的手术场景图像中所包含的标识物,根据手术场景图像中所包含的标识物获得相应的交互指令,再根据交互指令控制手术导航***执行相应的手术导航步骤。使得操作者可以通过拍摄具有标识物的手术场景的方式,控制手术导航***执行相应的手术导航步骤,无需采用语音、手势等进行操作,使得实施本申请的技术方案可以降低手术导航***被控制时发生误判的几率。同时,手术导航***的操作也更为便捷,减少操作者操作手术***时对其正常作业的影响。
其中,可以知道的,操作者可以通过佩戴头戴式设备的摄像头来拍摄手术场景以采集手术场景图像,参见图2,图2中是操作者1根据通过佩戴头戴式设备2的摄像头拍摄到方框区域3的手术场景图像。
本申请实施例中的标识物可具有特定的光学特征、图案特征和几何特征中的至少一种,以使得拍摄标识物所得到的图像具有特定的图像特征,举例来说,标识物可以是信息板、平面定位板、二维码等。
本申请实施例中的手术导航***,通过识别特定的标识物,触发手术导航***执行与该特定的标识物相对应的手术导航步骤。例如,标识物包括设置在手术台的平面定位板,当识别到平面定位板时,获得“触发手术区域初始化”的交互指令,根据该交互指令执行“手术区域初始化”的手术导航步骤。例如,标识物包括穿刺手柄,当识别到穿刺手柄时,获得“触发穿刺导航”的交互指令,根据该交互指令执行“穿刺导航”的手术导航步骤。例如,标识物包括手术台上的二维码,当识别到手术台上的二维码时,获得“触发手术导航***进入校准”的交互指令,根据该交互指令,执行“手术导航***校准”的手术导航步骤。
其中,手术导航步骤可以包括选择手术器械模型的步骤,例如:***预先存储手术器械模型库,手术器械模型库包括不同类型、不同型号的手术器械模型,操作者可以将头戴式设备的摄像头对准手术器械上设置的标识物(如手术器械上设置的二维码),也就选取了手术器械模型,使导航***的手术器械模型与真实手术应用的模型一致,然后进行下一步的配准。手术导航步骤可以包括选择手术导航流程的步骤,例如:场景中设置有多个识别物,如在手术台设置有第一识别物(信息板),在手术器械上设置有第二识别物(二维码)。当医生的头戴式设备的摄像头正对第一识别物时,进入第一阶段(如配准阶段),当摄像头正对第二识别物时,进入另一阶段(如引导穿刺阶段)。本实施例对此不做限定。
本申请实施例中的标识物优先选用与一次性手术器械一体的可被识别图案,例如设置在穿刺针上的二维码,以使交互的标识物能满足重复灭菌或一次性无菌使用这两个条件之一。
本申请实施例中的图像识别模块可以利用现有的图像识别算法进行图像识别,例如斑点检测算法、角点检测算法等。具体的,可根据标识物的形式选择相应合适的算法,例如标识物是设置在手术台或手术器械上的二维码时,可直接采用相应的二维码识别算法。
作为图像识别模块的可选实施方式,图像识别模块用于对手术场景图像进行图像识别,得到第一识别结果时,具体用于:
提取手术场景图像的图像特征;
根据手术场景图像的图像特征与标识物的图像特征的相似度,确定第一识别结果。
具体的,图像识别模块预先设置有相似度阈值,当手术场景图像的图像特征与标识物的图像特征的相似度大于相似度阈值时,判断手术场景图像中包含相应的标识物。
其中,图像特征包括颜色特征、纹理特征、形状特征和空间关系特征中的一种或多种。
作为图像识别模块的可选实施方式,指令获取模块用于根据第一识别结果,获取相应的交互指令时,具体用于:
获取手术导航***所处的手术导航阶段;
根据第一识别结果和手术导航阶段,获取相应的交互指令。
本实施方式中,根据第一识别结果和手术导航阶段,获取相应的交互指令,使得同一标识物对应的图案在不同手术导航阶段可对应不同的交互指令,达减少标识物的设置的目的;也就是说,对手术场景图像进行图像识别时,若识别得到手术场景图像中包含的是同一标识物图案时,但手术导航***的手术导航阶段不同,则相应的交互指令也不同。
以标识物是位于患者身旁的二维码为例,手术导航***处于未开始导航阶段时,若识别到摄像头拍摄的手术场景图像中包含该二维码,则生成“触发手术导航***进入配准阶段”的交互指令;当手术导航***处于配准阶段时,若识别到摄像头拍摄的手术场景图像中包含该二维码,则生成“重新配准”的交互指令。在具体运用过程中,利用摄像头首次识别到患者身旁的二维码时,触发开始配准场景;当在配准过程中发生意外,需要再次重新开始配准时,仅需再次识别这个位置的二维码即可将整个流程重置。
作为图像识别模块的可选实施方式,指令获取模块用于根据第一识别结果,获取相应的交互指令时,具体用于:
获取对手术场景图像进行图像识别得到的第二识别结果,其中,第二识别结果用于表征标识物在预设空间的相对位置,或表征标识物与预设目标的相对距离;
根据第一识别结果和第二识别结果,获取相应的交互指令。
本实施方式中,预设空间可以根据具体运用需求进行设定,例如预设空间可以设置成手术场景图像对应的空间,预设目标可以根据具体运用需求进行设定,例如预设目标可以设置为配置点、患者等。
本实施方式中,可以基于标识物的位置生成不同的交互指令,例如,同样是重置配准流程,如果标识物放在患者身旁是重置全部流程,而如果标识物放在某一个配准点附近,则代表仅重置这个位置的配准数据。
以标识物是二维码为例,参见图3和图4,图3和图4的区别在于同一标识物的位置不相同,其中,图3中的标识物4位于患者旁边,而图4中的标识物4位于配准点旁边;而针对图3中方框内的区域是拍摄到的手术场景图像,对该手术场景图像进行图像识别得到的第一识别结果为手术场景图像内包含该标识物,对该手术场景图像进行图像识别得到的第二识别结果是该二维码与患者(具体可以是患者头部)的相对距离小于第一预设距离阈值,此时第一识别结果和第二识别结果生成的是“触发重置全部流程”的交互指令。图4中的标识物被移动到配准点附近,而针对图4中方框内的区域是拍摄到的手术场景图像,对该手术场景图像进行图像识别得到的第一识别结果为手术场景图像内包含该标识物,对该手术场景图像进行图像识别得到的第二识别结果是该二维码与配准点的相对距离小于第二预设距离阈值,此时第一识别结果和第二识别结果生成的是“触发仅重置当前位置的配准数据”的交互指令。第一预设距离阈值和第二预设距离阈值可以设置成90%等。
具体的,在一个实施方式中,标识物与预设目标的相对距离是标识物的延长线与预设目标的相对距离,例如穿刺针的延长线与肋骨的相对距离,当穿刺针的延长线与肋骨的相对距离小于设定值时,即表明穿刺针的延长线有触及到肋骨的风险,此时获取相应的“触发提示信息”的交互指令,以给出提示,其中,设定值可以是0。
作为图像识别模块的可选实施方式,指令获取模块用于根据第一识别结果,获取相应的交互指令时,具体用于:
获取对手术场景图像进行图像识别得到的第三识别结果,第三识别结果用于表征标识物的朝向和/或角度;
根据第一识别结果和第三识别结果,获取相应的交互指令。
本实施方式中,标识物的朝向和/或角度可以采用已有的相关算法识别,标识物具有相应的特征,以使标识物被图像识别后可以得到标识物的朝向和/或角度。
本实施方式中,操作者可以通过调整标识物的朝向和/或角度触发相应的交互指令,提高控制的便利性。
以标识物是穿刺针为例,参见图5,在配准流程中,穿刺针6方向正确地指向目标部位7,此时手术导航***的第一识别结果是手术场景图像内包含穿刺针,第三识别结果是穿刺针方向正确地指向目标部位,生成“触发距离测算,显示穿刺针的针尖和目标部位的距离”的交互指令;参见图6,在配准流程中,穿刺针6方向偏离目标部位7,此时手术导航***的第一识别结果是手术场景图像内包含穿刺针,第三识别结果是穿刺针方向偏离目标部位,生成“触发角度测算,显示提示信息”的交互指令。
操作者发现手术导航***的配准存在误差,需要重新配准时,操作者可以对识别物作出特定的动作,如移动识别物的摆放位置或改变识别物的形态(朝向和/或角度),根据这一改变结构,***进入重新配准的流程。
作为图像识别模块的可选实施方式,指令获取模块用于根据第一识别结果,获取相应的交互指令时,具体用于:
获取对手术场景图像进行图像识别得到的第四识别结果,第四识别结果用于表征标识物的被遮挡程度;
根据第一识别结果和第四识别结果,获取相应的交互指令。
本实施方式中,操作者可以通过遮挡标识物的方式控制手术导航***,提高控制的便利性。
操作者手部部分遮挡了手术器械上的二维码时,说明正在进行或已经完成了穿刺手术的最终目的:液体注射或器械植入。此时需要触发手术导航***手术结束流程。参见图7,以标识物是设置在穿刺针6上的二维码为例,图中穿刺针6上的二维码***作者手部部分遮挡,此时,手术导航***的第一识别结果是手术场景图像内包含该二维码,第四识别结果是二维码部分被遮挡,生成“触发手术导航***手术结束流程”的交互指令,执行“手术导航***手术结束流程”的手术导航流程。具体的,超过预设比例值的标识物被遮挡时,认为标识物被部分遮挡。预设比例值可以设置为10%等。
作为图像识别模块的可选实施方式,指令获取模块用于根据第一识别结果,获取相应的交互指令时,具体用于:
获取对手术场景图像进行图像识别得到的第五识别结果,第五识别结果用于表征标识物的绝对运动轨迹或相对运行轨迹,其中,绝对运动轨迹是标识物相对于静止物体的运动轨迹,相对运动轨迹是标识物相对于设定人员的运动轨迹;
根据第一识别结果和第五识别结果,获取相应的交互指令。
本实施方式的技术方案,根据标识物的运动轨迹自动生成相应的交互指令,具体的,运动轨迹可以是绝对运动轨迹或相对运动轨迹,其中,绝对运动轨迹是相对于静止物体的运动轨迹,即例如地面、手术台;而相对运动轨迹是相对于设定人员的运动轨迹,例如操作员。
以标识物是设置在穿刺针上的二维码为例,当操作人员旋转穿刺针时,二维码发生运动,根据二维码的绝对运动轨迹生成相应的交互指令,如识别到二维码旋转一周时,生成“触发隐藏肋骨图案”的交互指令。
操作者发现手术导航***的配准存在误差,需要重新配准时,操作者可以对识别物作出特定的动作,如移动识别物的摆放位置或改变识别物的形态,根据这一改变过程,***进入重新配准的流程。
作为图像识别模块的可选实施方式,指令获取模块用于根据第一识别结果,获取相应的交互指令时,具体用于:
根据手术导航阶段、第二识别结果、第三识别结果、第四识别结果和第五识别结果中的至少两个以及第一识别结果获取相应的交互指令。
更具体的,根据手术导航阶段、第二识别结果、第三识别结果、第四识别结果和第五识别结果中的至少三个以及第一识别结果获取相应的交互指令。
更具体的,根据手术导航阶段、第一识别结果、第二识别结果、第三识别结果、第四识别结果和第五识别结果获取相应的交互指令。
由于手术导航***在不同阶段对导航信息需求不同,根据导航信息需求的不同,决策当前流程。可以在手术场景中设置多个识别物,摄像头正对第一识别物时,代表手术处于准备阶段、配准阶段,摄像头正对第二识别物时,代表已经处于开始穿刺针进入人体阶段。穿刺针进入人体时,需要医生集中注意力,此时避免提供过多的干扰信息显示,只提供最关键的信息。
手术导航***包括导航信息显示模块,用于以增强现实的方式在真实场景的相应位置叠加显示或隐藏相应的手术导航信息,例如根据“触发隐藏肋骨图案”的交互指令,显示相应的隐藏肋骨图案后的手术导航信息。
综上,本申请的手术导航***,在手术导航***处于不同的手术导航阶段时,识别同一标识物,可以触发不同手术导航步骤。如在人体配准过程中,再次识别平面定位板,可重置当前配准过程。如在配准过程中识别穿刺针,则将它定义为识别针,作用为确定人体体表标记点位置,在穿刺过程中识别穿刺针,则执行穿刺导航任务。
本申请的手术导航***,在同一个手术导航阶段,识别同一标识物的不同角度或不同动作轨迹,可以触发不同手术导航步骤。如在穿刺导航过程中,当操作者操作穿刺针顺时针旋转一周,则隐藏肋骨图案,让操作者可以更清晰的看到肋骨后的手术区域
本申请的手术导航***,识别同一标识物的不同遮挡程度,可以触发不同的手术导航步骤。如在穿刺导航过程中,当发生穿刺针被拇指部分遮挡,且持续一定时间后,则认为已发生释放穿刺针内器械的动作,此时记录下之前针尖所在位置,即可作为器械释放点的手术记录,用于后续手术分析。
本申请的手术导航***,识别同一标识物在预设空间的相对位置,或与预设目标的相对距离,可以触发不同的手术导航步骤。如在配准过程中,将识别板放置于某一已记录位置的配准点附近,则仅重置此点的位置信息,提高配准效率。
参见图8,手术导航***的信息交互方法,包括:
S801,获取手术场景图像;
S802,对手术场景图像进行图像识别,得到第一识别结果,第一识别结果用于表征手术场景图像中所包含的标识物;
S803,根据第一识别结果,获取相应的交互指令。
本申请实施例中的手术导航***的信息交互方法,可以自动识别摄像头拍摄的手术场景图像中所包含的标识物,根据手术场景图像中所包含的标识物获得相应的交互指令。使得执行本实施例的信息交互方法的手术导航***可以根据操作者拍摄的具有标识物的手术场景图像获得相应的交互指令,由该交互指令控制手术导航***执行相应的手术导航步骤,无需采用语音、手势等进行操作,使得实施本申请的技术方案可以降低手术导航***被控制时发生误判的几率。
其中,可以知道的,操作者可以通过佩戴头戴式设备的摄像头来拍摄手术场景以采集手术场景图像。
作为步骤S802的可选实施方式,对手术场景图像进行图像识别,得到第一识别结果,包括:
提取手术场景图像的图像特征;
根据手术场景图像的图像特征与标识物的图像特征的相似度,确定第一识别结果。
作为步骤S803的可选实施方式,根据第一识别结果,获取相应的交互指令,包括:
获取手术导航***所处的手术导航阶段;
根据第一识别结果和手术导航阶段,获取相应的交互指令。
作为步骤S803的可选实施方式,根据第一识别结果,获取相应的交互指令,包括:
获取对手术场景图像进行图像识别得到的第二识别结果,其中,第二识别结果用于表征标识物在预设空间的相对位置,或表征标识物与预设目标的相对距离;
根据第一识别结果和第二识别结果,获取相应的交互指令。
作为步骤S803的可选实施方式,根据第一识别结果,获取相应的交互指令,包括:
获取对手术场景图像进行图像识别得到的第三识别结果,第三识别结果用于表征标识物的朝向和/或角度;
根据第一识别结果和第三识别结果,获取相应的交互指令。
作为步骤S803的可选实施方式,根据第一识别结果,获取相应的交互指令,包括:
获取对手术场景图像进行图像识别得到的第四识别结果,第四识别结果用于表征标识物的被遮挡程度;
根据第一识别结果和第四识别结果,获取相应的交互指令。
作为步骤S803的可选实施方式,根据第一识别结果,获取相应的交互指令,包括:
获取对手术场景图像进行图像识别得到的第五识别结果,第五识别结果用于表征标识物的绝对运动轨迹或相对运行轨迹,其中,绝对运动轨迹是标识物相对于静止物体的运动轨迹,相对运动轨迹是标识物相对于设定人员的运动轨迹;
根据第一识别结果和第五识别结果,获取相应的交互指令。
上述实施例的信息交互方法的具体技术方案、原理和效果可以参考上述手术导航***中的相关技术方案、原理和效果。
参见图9,一种电子设备900,包括存储器901和处理器902,存储器901用于存储计算机指令,计算机指令被处理器902执行以实现本申请实施例中任一的信息交互方法。
本申请还提供了一种可读存储介质,其上存储有计算机指令,该计算机指令被处理器执行时实现本申请实施例中任一的信息交互方法。
图10为适于用来实现本申请一实施方式的方法的计算机***的结构示意图。
参见图10,计算机***包括处理单元1001,其可以根据存储在只读存储器(ROM)1002中的程序或者从存储部分1008加载到随机访问存储器(RAM)1003中的程序而执行上述附图所示的实施方式中的各种处理。在RAM1003中,还存储有***操作所需的各种程序和数据。处理单元1001、ROM1002以及RAM1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
以下部件连接至I/O接口1005:包括键盘、鼠标等的输入部分1006;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1007;包括硬盘等的存储部分1008;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1009。通信部分1009经由诸如因特网的网络执行通信处理。驱动器1010也根据需要连接至I/O接口1005。可拆卸介质1011,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1010上,以便于从其上读出的计算机程序根据需要被安装入存储部分1008。其中,处理单元1001可实现为CPU、GPU、TPU、FPGA、NPU等处理单元。
特别地,根据本申请的实施方式,上文描述的方法可以被实现为计算机软件程序。例如,本申请的实施方式包括一种计算机程序产品,其包括有形地包含在及其可读介质上的计算机程序,计算机程序包含用于执行附图中的方法的程序代码。在这样的实施方式中,该计算机程序可以通过通信部分1009从网络上被下载和安装,和/或从可拆卸介质1011被安装。
在本说明书的描述中,参考术语“一个实施例/方式”、“一些实施例/方式”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例/方式或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例/方式或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例/方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例/方式或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例/方式或示例以及不同实施例/方式或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
本领域的技术人员应当理解,上述实施方式仅仅是为了清楚地说明本公开,而并非是对本公开的范围进行限定。对于所属领域的技术人员而言,在上述公开的基础上还可以做出其它变化或变型,并且这些变化或变型仍处于本公开的范围内。

Claims (10)

1.一种手术导航***,其特征在于,包括:
图像获取模块,用于获取手术场景图像;
图像识别模块,用于对所述手术场景图像进行图像识别,得到第一识别结果,所述第一识别结果用于表征所述手术场景图像中所包含的标识物;
指令获取模块,用于根据所述第一识别结果,获取相应的交互指令;
指令执行模块,用于根据所述交互指令,控制所述手术导航***执行相应的手术导航步骤;
其中,所述图像获取模块为头戴式设备的摄像头;手术场景中设置有多个识别物,包括在手术台设置的第一识别物以及在手术器械上设置有第二识别物,当所述第一识别物被识别时,获取以下交互指令中的至少一种:手术区域初始化、手术导航***进入校准、进入配准阶段。
2.根据权利要求1所述的手术导航***,其特征在于,所述图像识别模块用于对所述手术场景图像进行图像识别,得到第一识别结果时,具体用于:
提取所述手术场景图像的图像特征;
根据所述手术场景图像的图像特征与所述标识物的图像特征的相似度,确定所述第一识别结果。
3.根据权利要求1所述的手术导航***,其特征在于,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取所述手术导航***所处的手术导航阶段;
根据所述第一识别结果和所述手术导航阶段,获取相应的交互指令。
4.根据权利要求1所述的手术导航***,其特征在于,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取对所述手术场景图像进行图像识别得到的第二识别结果,其中,所述第二识别结果用于表征所述标识物在预设空间的相对位置,或表征所述标识物与预设目标的相对距离;
根据所述第一识别结果和所述第二识别结果,获取相应的交互指令。
5.根据权利要求1所述的手术导航***,其特征在于,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取对所述手术场景图像进行图像识别得到的第三识别结果,所述第三识别结果用于表征所述标识物的朝向和/或角度;
根据所述第一识别结果和所述第三识别结果,获取相应的交互指令。
6.根据权利要求1所述的手术导航***,其特征在于,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取对所述手术场景图像进行图像识别得到的第四识别结果,所述第四识别结果用于表征所述标识物的被遮挡程度;
根据所述第一识别结果和所述第四识别结果,获取相应的交互指令。
7.根据权利要求1~6任一所述的手术导航***,所述指令获取模块用于根据所述第一识别结果,获取相应的交互指令时,具体用于:
获取对所述手术场景图像进行图像识别得到的第五识别结果,所述第五识别结果用于表征所述标识物的绝对运动轨迹或相对运行轨迹,其中,所述绝对运动轨迹是所述标识物相对于静止物体的运动轨迹,所述相对运动轨迹是所述标识物相对于设定人员的运动轨迹;
根据所述第一识别结果和所述第五识别结果,获取相应的交互指令。
8.一种手术导航***的信息交互方法,其特征在于,包括:
利用头戴式设备的摄像头获取手术场景图像;
对所述手术场景图像进行图像识别,得到第一识别结果,所述第一识别结果用于表征识别得到的所述手术场景图像中的标识物;
根据所述第一识别结果,获取相应的交互指令;
其中,手术场景中设置有多个识别物,包括在手术台设置的第一识别物以及在手术器械上设置有第二识别物,当所述第一识别物被识别时,获取以下交互指令中的至少一种:手术区域初始化、手术导航***进入校准、进入配准阶段。
9.一种电子设备,包括存储器和处理器,所述存储器用于存储计算机指令,其特征在于,所述计算机指令被所述处理器执行以实现如权利要求8所述的方法。
10.一种可读存储介质,其上存储有计算机指令,其特征在于,该计算机指令被处理器执行时实现如权利要求8所述的方法。
CN202110358153.3A 2021-04-01 2021-04-01 一种手术导航***、方法、电子设备和可读存储介质 Active CN113133829B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110358153.3A CN113133829B (zh) 2021-04-01 2021-04-01 一种手术导航***、方法、电子设备和可读存储介质
PCT/CN2022/081728 WO2022206435A1 (zh) 2021-04-01 2022-03-18 一种手术导航***、方法、电子设备和可读存储介质
US18/552,077 US20240189043A1 (en) 2021-04-01 2022-03-18 Surgical navigation system and method, and electronic device and readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110358153.3A CN113133829B (zh) 2021-04-01 2021-04-01 一种手术导航***、方法、电子设备和可读存储介质

Publications (2)

Publication Number Publication Date
CN113133829A CN113133829A (zh) 2021-07-20
CN113133829B true CN113133829B (zh) 2022-11-01

Family

ID=76810332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110358153.3A Active CN113133829B (zh) 2021-04-01 2021-04-01 一种手术导航***、方法、电子设备和可读存储介质

Country Status (3)

Country Link
US (1) US20240189043A1 (zh)
CN (1) CN113133829B (zh)
WO (1) WO2022206435A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113133829B (zh) * 2021-04-01 2022-11-01 上海复拓知达医疗科技有限公司 一种手术导航***、方法、电子设备和可读存储介质
CN114840110B (zh) * 2022-03-17 2023-06-20 杭州未名信科科技有限公司 一种基于混合现实的穿刺导航交互辅助方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096857A (zh) * 2016-06-23 2016-11-09 中国人民解放军63908部队 增强现实版交互式电子技术手册、内容构建及辅助维修/辅助操作流程的构建
CN109674534A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 一种基于增强现实的手术导航图像显示方法和***
CN111966212A (zh) * 2020-06-29 2020-11-20 百度在线网络技术(北京)有限公司 基于多模态的交互方法、装置、存储介质及智能屏设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7295220B2 (en) * 2004-05-28 2007-11-13 National University Of Singapore Interactive system and method
WO2012041371A1 (en) * 2010-09-29 2012-04-05 Brainlab Ag Method and device for controlling appartus
CA2906414C (en) * 2013-03-15 2016-07-26 Synaptive Medical (Barbados) Inc. Systems and methods for navigation and simulation of minimally invasive therapy
US11412951B2 (en) * 2013-03-15 2022-08-16 Syanptive Medical Inc. Systems and methods for navigation and simulation of minimally invasive therapy
WO2017098505A1 (en) * 2015-12-07 2017-06-15 M.S.T. Medical Surgery Technologies Ltd. Autonomic system for determining critical points during laparoscopic surgery
US10413366B2 (en) * 2016-03-16 2019-09-17 Synaptive Medical (Bardbados) Inc. Trajectory guidance alignment system and methods
US11497417B2 (en) * 2016-10-04 2022-11-15 The Johns Hopkins University Measuring patient mobility in the ICU using a novel non-invasive sensor
EP3531953A1 (en) * 2016-10-25 2019-09-04 Novartis AG Medical spatial orientation system
DE102018201612A1 (de) * 2018-02-02 2019-08-08 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zur Erzeugung eines Steuersignals, Markeranordnung und steuerbares System
US20190254753A1 (en) * 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
US10869727B2 (en) * 2018-05-07 2020-12-22 The Cleveland Clinic Foundation Live 3D holographic guidance and navigation for performing interventional procedures
CN110478039A (zh) * 2019-07-24 2019-11-22 常州锦瑟医疗信息科技有限公司 一种基于混合现实技术的医用器械跟踪***
CN111821025B (zh) * 2020-07-21 2022-05-13 腾讯科技(深圳)有限公司 空间定位方法、装置、设备、存储介质以及导航棒
CN113133829B (zh) * 2021-04-01 2022-11-01 上海复拓知达医疗科技有限公司 一种手术导航***、方法、电子设备和可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106096857A (zh) * 2016-06-23 2016-11-09 中国人民解放军63908部队 增强现实版交互式电子技术手册、内容构建及辅助维修/辅助操作流程的构建
CN109674534A (zh) * 2017-10-18 2019-04-26 深圳市掌网科技股份有限公司 一种基于增强现实的手术导航图像显示方法和***
CN111966212A (zh) * 2020-06-29 2020-11-20 百度在线网络技术(北京)有限公司 基于多模态的交互方法、装置、存储介质及智能屏设备

Also Published As

Publication number Publication date
WO2022206435A1 (zh) 2022-10-06
US20240189043A1 (en) 2024-06-13
CN113133829A (zh) 2021-07-20

Similar Documents

Publication Publication Date Title
KR102013866B1 (ko) 실제수술영상을 이용한 카메라 위치 산출 방법 및 장치
US11712213B2 (en) System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target
WO2019100212A1 (zh) 用于规划消融的超声***及方法
US6314312B1 (en) Method and system for determining movement of an organ or therapy region of a patient
US5765561A (en) Video-based surgical targeting system
CN113133829B (zh) 一种手术导航***、方法、电子设备和可读存储介质
US20080123910A1 (en) Method and system for providing accuracy evaluation of image guided surgery
CN108420529A (zh) 基于电磁定位技术和术中图像引导的手术导航仿真方法
EP3544538B1 (en) System for navigating interventional instrumentation
EP2637593A1 (en) Visualization of anatomical data by augmented reality
WO2008107874A2 (en) Method, system and computer product for planning needle procedures
CN111839727A (zh) 基于增强现实的***粒子植入路径可视化方法及***
CN113171174A (zh) 荧光镜图像中的取向检测
EP3075342B1 (en) Microscope image processing device and medical microscope system
KR101862133B1 (ko) 바늘 삽입형 중재시술 로봇 장치
EP2716252B1 (en) System and method for guiding the manual insertion of a needle into the body of a patient.
Kanithi et al. Immersive augmented reality system for assisting needle positioning during ultrasound guided intervention
US9387049B2 (en) Contactless control of medical systems
CN113257064A (zh) 用于模拟产品训练和/或体验的***和方法
WO2022206434A1 (zh) 一种用于手术导航的交互配准***、方法、电子设备和可读存储介质
US12023109B2 (en) Technique of providing user guidance for obtaining a registration between patient image data and a surgical tracking system
EP3712847A1 (en) Catheter tip detection in fluoroscopic video using deep learning
Vogt et al. Augmented reality system for MR-guided interventions: Phantom studies and first animal test
CN109559585B (zh) 一种模拟训练仿真控制***和方法
EP3931799B1 (en) Interventional device tracking

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant