CN114224489A - 用于手术机器人的轨迹跟踪***及利用该***的跟踪方法 - Google Patents
用于手术机器人的轨迹跟踪***及利用该***的跟踪方法 Download PDFInfo
- Publication number
- CN114224489A CN114224489A CN202111520421.3A CN202111520421A CN114224489A CN 114224489 A CN114224489 A CN 114224489A CN 202111520421 A CN202111520421 A CN 202111520421A CN 114224489 A CN114224489 A CN 114224489A
- Authority
- CN
- China
- Prior art keywords
- surgical
- marker
- dimensional
- binocular camera
- surgical instrument
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 239000003550 marker Substances 0.000 claims abstract description 71
- 239000013598 vector Substances 0.000 claims description 12
- 238000003384 imaging method Methods 0.000 claims description 10
- 238000000576 coating method Methods 0.000 claims description 9
- 239000011248 coating agent Substances 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000005286 illumination Methods 0.000 claims description 4
- 230000001276 controlling effect Effects 0.000 claims description 3
- 239000002184 metal Substances 0.000 claims description 3
- 239000002985 plastic film Substances 0.000 claims description 3
- 230000001105 regulatory effect Effects 0.000 claims description 3
- 239000000853 adhesive Substances 0.000 claims description 2
- 230000001070 adhesive effect Effects 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000036544 posture Effects 0.000 description 14
- 230000003287 optical effect Effects 0.000 description 9
- 238000002679 ablation Methods 0.000 description 8
- 238000001356 surgical procedure Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000008188 pellet Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
本发明涉及手术机器人的轨迹跟踪技术,旨在提供一种用于手术机器人的轨迹跟踪***及利用该***的跟踪方法。该***包括若干个标记物,标记物呈薄片状且表面绘有棋盘格图案;目标物,包括手术器械和手术位置;双目摄像设备;处理单元,通过信号线与所述双目摄像设备连接,用于对双目摄像设备获取的图像进行处理,计算各标记物的位置和空间关系,并在匹配目标物模型后,获得目标物的三维坐标位置及空间关系。本发明采用了相对微型的标记物与双目摄像设备的组合,无需改变手术器械和手术位置外观的标记方式,就达到更高精度的跟踪效果。可降低对临床手术工作流程的影响,能实现对任意手术器械和手术位置的标记定位,具有减少手术空间制约的效果。
Description
技术领域
本发明涉及手术机器人的轨迹跟踪技术,特别涉及通过跟踪附着于手术器械和手术位置处的标记物的信息,来获取目标物的空间位置信息和姿态信息的轨迹跟踪***及利用该***的跟踪方法。
背景技术
当实施肿瘤的消融手术时,为减少医生工作量并提高消融手术的精确度,业内针对消融手术机器人开展研究工作。当利用消融手术机器人实施手术时,为了将手术的风险最小化,提高手术的精密度,需要使用可以在准确地跟踪并检测手术器械和手术位置处的标记物的空间位置信息和姿态信息之后,向患者的患处准确地引导上述手术器械的导航仪。
为此,通常需要构建的跟踪***包括:标记物,用于标记手术器械和手术位置;光学定位仪***,用于记录标记物的光学信息;处理器,用于处理标记物之间的关系,获取标记物标记的手术器械和手术位置的三维坐标与姿态信息,计算手术器械和手术位置的空间关系,指导手术机器人之后的运动方案。
在标记物等光学跟踪技术领域,Northern Digital Inc.(NDI)公司是技术领先者,其生产的NDI光学定位仪***及配套Track软件在手术机器人中应用较多。其中,与光学定位仪配合使用的光学工具上使用光学小球作为标记物,通常有多个(四个)光学小球组成标记组,占用空间约10cm×10cm×1cm,将其外附在手术器械和手术位置处用于标记姿态和位置。但是,该标记组对于常规的消融手术器械和手术位置而言,存在标记物过大、影响实际手术效果,影响临床工作流程等问题,从而使其应用受到制约。
发明内容
本发明要解决的技术问题是,克服现有技术中的不足,提供一种用于手术机器人的轨迹跟踪***及利用该***的跟踪方法。
为解决技术问题,本发明的解决方案是:
提供一种用于手术机器人的轨迹跟踪***,包括:若干个标记物,所述标记物呈薄片状且表面绘有棋盘格图案,用于贴附在需确定空间位置信息和姿态信息的目标物的不同表面上;所述目标物包括手术器械和手术位置;双目摄像设备,用于记录各标记物的实况信息;处理单元,通过信号线与所述双目摄像设备连接,用于对双目摄像设备获取的图像进行处理,计算各标记物的位置和空间关系,并在匹配目标物模型后,获得目标物的三维坐标位置及空间关系。
作为优选方案,所述标记物表面的棋盘格图案至少包括2×3个相邻且间隔布置的黑白方块,单个方块的边长为0.45~0.75mm。
作为优选方案,在每个目标物上,所述标记物至少有4个。
作为优选方案,所述标记物是表面印刷了棋盘格图案的带背胶的粘纸,直接粘贴在目标物表面或目标物表面的附着物上;或者,所述标记物是表面印刷了棋盘格图案的金属薄片或塑料薄片,并通过嵌扣方式固定在目标物表面;或者,所述标记物是以印刷或喷涂方式加工在手术器械表面的涂层,该涂层具有棋盘格图案。
作为优选方案,所述双目摄像设备的分辨率至少为6500W像素。
作为优选方案,所述处理单元是计算机;或者是具有计算能力的处理器。
作为优选方案,该***还包括用作光源的手术灯,其光照强度为100001ux以上。
本发明进一步提供了利用前述轨迹跟踪***的跟踪方法,包括以下步骤:
(1)在手术器械和手术位置的不同表面上贴附标记物,并将手术器械和手术位置置于标定位置;
(2)以双目摄像设备对手术器械和手术位置进行摄像,由处理单元对所获图像进行处理,计算各标记物在标定位置下的三维坐标位置和空间关系,并以此为基础建模,获得手术器械和手术位置在标定位置下的目标物模型;
(3)在手术机器人的操作过程中,通过双目摄像设备获取手术器械和手术位置的实时图像;由处理单元对所获图像进行处理,计算各标记物的实时三维坐标位置和空间关系;在与目标物模型进行匹配和比较后,获得手术器械实时的三维坐标位置及空间关系;
(4)将步骤(3)中获得的计算结果作为手术器械的轨迹数据输入手术机器人的操控***,根据预定的手术方案对手术机器人的操作动作进一步跟踪调控。
作为优选方案,所述各标记物的三维坐标位置和空间关系是根据下述方法确定的:
(1)利用三维图像在二维平面上的投影规则,计算标记物的三维姿态信息;该姿态信息是指标记物的长边、短边和垂直于标记物平面上的直线所构成的三个三维向量,每个被捕捉、识别到的标记物都由唯一的三个三维向量特征所表示;
(2)利用双目摄像设备标定的外参矩阵,将其中一个相机的成像单元获取的标记物的三个三维向量表示转换到另一个相机的成像单元中;如果三个三维向量相等,则认为标记物匹配成功;进一步利用双目相机投影规则,计算出标记物在世界坐标下的坐标;
(3)利用计算获得的部分标记物的世界坐标组成三维点云;
(4)基于三维点云获得手术器械和手术位置在标定位置下的目标物模型;或者,基于实时计算得到的三维点云和目标物模型进行匹配和比较,以得到手术器械实时的坐标信息和姿态信息。
发明原理描述:
本发明中,将相对而言体积“微型”的标记物粘附在目标物(手术器械和手术位置)不同表面上;通过双目摄像设备获取图像,由处理单元进行各标记物的位置和空间关系的标定、计算、匹配与比较,从而实现更高精度的跟踪效果。
本发明中,首先针对标定状态的目标物进行三维坐标空间位置信息和姿态信息的成像获取及建模,以建模之后的微型标记物点集为基本模型:然后通过实际操作过程中双目摄像设备针对标记物获取图像,并基于标记物点集三维坐标集匹配基本模型,计算出目标物实施的三维坐标位置和姿态信息,以用于手术机器人的操作。
与现有技术相比,本发明的有益效果是:
1、相对于体积更大的发光小球和光学定位仪***光学定位仪***,本发明采用了相对“微型”的标记物与双目摄像设备的组合。无需改变手术器械和手术位置外观的标记方式,就达到更高精度的跟踪效果。
2、本发明能够计算目标物(手术器械和手术位置)的三维坐标位置和姿态信息。因此,不仅可以降低对临床手术工作流程的影响,而且可以实现对任意手术器械和手术位置的标记定位,具有相对少受手术空间的制约的效果。
附图说明
图1本发明的一实施例的跟踪***的见图。
图2微型标记物附着于目标物的例示图。
图3计算目标物三维坐标位置和姿态信息的步骤框图。
附图标记:1手术器械;2手术位置;3标记物;4双目摄像设备;5处理单元;6手术灯;31-34标记物个体。
具体实施方式
以下,参照附图,对本发明的优选实施例进行更加详细的说明。
本发明中,目标物包括手术器械1和手术位置2。其中,手术器械1是指安装的手术机器人的机械臂末端的消融针、穿刺针等医疗器械。在外科手术过程中,对人体的非手术区域要用掩膜遮盖,非遮盖区域即为手术位置2(即病患躯体上拟进行手术的局部区域),因此对于手术位置2可以用独立的标记物来确定。手术机器人将根据手术器械1和手术位置2的三维坐标位置和姿态信息实时变化情况,结合预定手术方案调整机械臂的动作规划,以完成手术。当然也可以根据***计算能力和控制精度需求,进一步地选用出厂自带涂层形式标记物的掩膜,通过增加辅助定位标记的数量来提升轨迹跟踪的定位精度。本发明中,姿态信息是指目标物与基本模型位置之间的旋转变换关系,三维坐标位置是指目标物与基本模型位置之间的平移变换关系。手术机器人的具体控制方法属于现有技术,本发明的技术方案不涉及这部分内容,故不再赘述。
下面结合附图和具体实施例,对本发明的实现方式进行详细表述。
如图1-2所示,用于手术机器人的轨迹跟踪***,包括:标记物3、双目摄像设备4、处理单元5、手术灯6。
标记物3具有用于机器视觉识别的棋盘格图案,棋盘格能在高精度双目相机中清晰成像。例如棋盘格图案为4×5个相邻且间隔布置的黑白方块,单个方块的边长为0.45~0.75mm。
标记物3的具体实现方式有很多,对于手术器械1和手术位置2应根据实际情况分别选用适用的方式。例如:
方式一:标记物3是表面印刷了棋盘格图案的带背胶的粘纸,可以分别粘附在手术器械1和手术位置2的不同表面上,其数量和固定方式可以根据实际需要选择。
方式二:标记物3是表面印刷了棋盘格图案的金属薄片或塑料薄片,并通过嵌扣或粘贴方式固定在手术器械1的表面,或将其以粘贴方式固定在手术位置2的表面。
方式三:标记物3是以印刷或喷涂方式加工在手术器械1表面的涂层,该涂层具有棋盘格图案,通常是产品出厂自带。对于未带标记物的旧款产品,也可以采用后期粘贴标签的方式实现。
方式四:标记物3是以印刷或喷涂方式加工在掩膜表面的涂层,该涂层具有棋盘格图案,通常是掩膜产品出厂自带。对于未带标记物的旧款产品,也可以采用后期粘贴标签的方式实现。
通常情况下,图1中的目标物包括手术器械1和手术位置2,各自均有不同的表面,在多个表面上都可以附着有标记物3;从不同角度观察目标物,观察得到的标记物位置关系不同,无重复。而图2中仅选取一个观察角度说明。在该观察角度上,消融针具有板状尾端,10个标记物散乱地粘附在消融针尾端的表面。
双目摄像设备4可选高精度双目相机,分辨率至少为6500W像素,镜头为超低色散镜头。两个相机呈一定角度布置用于拍摄同一区域,记录区域内目标物上各标记物的实况信息。
处理单元5通过信号线与所述双目摄像设备连接,用于对双目摄像设备获取的图像进行处理,计算各标记物3的位置和空间关系,并在匹配目标物模型后,获得目标物的三维坐标位置及空间关系。处理单元5可选计算机,或者是具有计算能力的处理器。
手术灯6用作光源,其光照强度为10000lux以上,用于提供双目摄像设备4实时成像所需的光照强度。
本发明中,利用该轨迹跟踪***的跟踪方法包括以下步骤:
(1)在手术器械1和手术位置2的表面贴附标记物3,并将手术器械1和手术位置2置于标定位置;
(2)以双目摄像设备4对手术器械1和手术位置2进行摄像,由处理单元5对所获图像进行处理,计算各标记物3在标定位置下的三维坐标位置和空间关系,并以此为基础获得手术器械1和手术位置2在标定位置下的目标物模型;
该步骤中目标物模型的构建方式可采用现有的三维建模方法或点云匹配方法等。所获目标物模型可以在建模完成后内置于机器人控制程序中,以供后续多次重复使用,这样就不需要在每次进行轨迹跟踪前都先去做一次建模。当然,如果标定位置发生较大变化,仍应重复该步骤以更新目标物模型,避免出现误差。
(3)在手术机器人的操作过程中,通过双目摄像设备4获取手术器械1和手术位置2的实时图像;由处理单元5对所获图像进行处理,计算各标记物3的实时三维坐标位置和空间关系;在与目标物模型进行匹配和比较后,获得手术器械1实时的三维坐标位置及空间关系;
(4)将步骤(3)中获得的计算结果作为手术器械1的轨迹数据输入手术机器人的操控***,根据预定的手术方案对手术机器人的操作动作进一步跟踪调控。
为了方便说明,下面用图2中标记物个体31-34组成的点集为代表,说明各标记物的三维坐标位置和空间关系的确定方法:
(3.1)在某个位置时,双目摄像设备4的两个相机同时拍摄到标记物个体31-34。利用三维图像在二维平面上的投影规则,计算标记物个体31-34的三维姿态信息;该姿态信息是指标记物个体31-34的长边、短边和垂直于标记物平面上的直线所构成的三个三维向量,每个被捕捉、识别到的标记物个体31-34都由唯一的三个三维向量特征所表示;
(3.2)利用双目摄像设备标定的外参矩阵,将其中一个相机的成像单元获取的标记物个体31-34的三个三维向量表示转换到另一个相机的成像单元中;如果三个三维向量相等,则认为标记物匹配成功;进一步利用双目相机投影规则,计算出标记物个体31-34在世界坐标下的坐标;
世界坐标计算方式如下:
(3.3)利用计算获得的部分标记物的世界坐标组成三维点云;
计算出标记物个体31-34的世界坐标之后,可以得到由标记物个体31-34组成的三维点云。用三维点云对基本模型做匹配和比较,可以得到目标物的坐标信息和姿态信息。
(3.4)参照同样的方式,可以基于三维点云获得手术器械和手术位置在标定位置下的目标物模型;或者,基于实时计算得到的三维点云和目标物模型进行匹配和比较,以得到手术器械实时的坐标信息和姿态信息。
Claims (9)
1.一种用于手术机器人的轨迹跟踪***,其特征在于,包括:
若干个标记物,所述标记物呈薄片状且表面绘有棋盘格图案,用于贴附在需确定空间位置信息和姿态信息的目标物的不同表面上;所述目标物包括手术器械和手术位置;
双目摄像设备,用于记录各标记物的实况信息;
处理单元,通过信号线与所述双目摄像设备连接,用于对双目摄像设备获取的图像进行处理,计算各标记物的位置和空间关系,并在匹配目标物模型后,获得目标物的三维坐标位置及空间关系。
2.根据权利要求1所述的轨迹跟踪***,其特征在于,所述标记物表面的棋盘格图案至少包括2×3个相邻且间隔布置的黑白方块,单个方块的边长为0.45~0.75mm。
3.根据权利要求1所述的轨迹跟踪***,其特征在于,在每个目标物上,所述标记物至少有4个。
4.根据权利要求1所述的轨迹跟踪***,其特征在于,所述标记物是表面印刷了棋盘格图案的带背胶的粘纸,直接粘贴在目标物表面或目标物表面的附着物上;或者,所述标记物是表面印刷了棋盘格图案的金属薄片或塑料薄片,并通过嵌扣方式固定在目标物表面;或者,所述标记物是以印刷或喷涂方式加工在手术器械表面的涂层,该涂层具有棋盘格图案。
5.根据权利要求1所述的轨迹跟踪***,其特征在于,所述双目摄像设备的分辨率至少为6500W像素。
6.根据权利要求1所述的轨迹跟踪***,其特征在于,所述处理单元是计算机;或者是具有计算能力的处理器。
7.根据权利要求1至6任意一项所述的轨迹跟踪***,其特征在于,该***还包括用作光源的手术灯,其光照强度为10000lux以上。
8.利用权利要求1所述轨迹跟踪***的跟踪方法,其特征在于,包括以下步骤:
(1)在手术器械和手术位置的不同表面上贴附标记物,并将手术器械和手术位置置于标定位置;
(2)以双目摄像设备对手术器械和手术位置进行摄像,由处理单元对所获图像进行处理,计算各标记物在标定位置下的三维坐标位置和空间关系,并以此为基础建模,获得手术器械和手术位置在标定位置下的目标物模型;
(3)在手术机器人的操作过程中,通过双目摄像设备获取手术器械和手术位置的实时图像;由处理单元对所获图像进行处理,计算各标记物的实时三维坐标位置和空间关系;在与目标物模型进行匹配和比较后,获得手术器械实时的三维坐标位置及空间关系;
(4)将步骤(3)中获得的计算结果作为手术器械的轨迹数据输入手术机器人的操控***,根据预定的手术方案对手术机器人的操作动作进一步跟踪调控。
9.根据权利要求8所述的方法,其特征在于,所述各标记物的三维坐标位置和空间关系是根据下述方法确定的:
(1)利用三维图像在二维平面上的投影规则,计算标记物的三维姿态信息;该姿态信息是指标记物的长边、短边和垂直于标记物平面上的直线所构成的三个三维向量,每个被捕捉、识别到的标记物都由唯一的三个三维向量特征所表示;
(2)利用双目摄像设备标定的外参矩阵,将其中一个相机的成像单元获取的标记物的三个三维向量表示转换到另一个相机的成像单元中;如果三个三维向量相等,则认为标记物匹配成功;进一步利用双目相机投影规则,计算出标记物在世界坐标下的坐标;
(3)利用计算获得的部分标记物的世界坐标组成三维点云;
(4)基于三维点云获得手术器械和手术位置在标定位置下的目标物模型;或者,基于实时计算得到的三维点云和目标物模型进行匹配和比较,以得到手术器械实时的坐标信息和姿态信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111520421.3A CN114224489B (zh) | 2021-12-12 | 2021-12-12 | 用于手术机器人的轨迹跟踪***及利用该***的跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111520421.3A CN114224489B (zh) | 2021-12-12 | 2021-12-12 | 用于手术机器人的轨迹跟踪***及利用该***的跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114224489A true CN114224489A (zh) | 2022-03-25 |
CN114224489B CN114224489B (zh) | 2024-02-13 |
Family
ID=80755286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111520421.3A Active CN114224489B (zh) | 2021-12-12 | 2021-12-12 | 用于手术机器人的轨迹跟踪***及利用该***的跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114224489B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115089293A (zh) * | 2022-07-04 | 2022-09-23 | 山东大学 | 一种脊柱内镜手术机器人标定方法 |
WO2023231098A1 (zh) * | 2022-05-30 | 2023-12-07 | 清华大学 | 目标跟踪方法、***及机器人 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160175615A1 (en) * | 2014-12-18 | 2016-06-23 | Kabushiki Kaisha Toshiba | Apparatus, method, and program for movable part tracking and treatment |
CN107179322A (zh) * | 2017-06-15 | 2017-09-19 | 长安大学 | 一种基于双目视觉的桥梁底面裂缝检测方法 |
CN108154552A (zh) * | 2017-12-26 | 2018-06-12 | 中国科学院深圳先进技术研究院 | 一种立体腹腔镜三维模型重建方法和装置 |
CN109833092A (zh) * | 2017-11-29 | 2019-06-04 | 上海复拓知达医疗科技有限公司 | 体内导航***和方法 |
CN109903313A (zh) * | 2019-02-28 | 2019-06-18 | 中国人民解放军国防科技大学 | 一种基于目标三维模型的实时位姿跟踪方法 |
US20200169673A1 (en) * | 2017-08-16 | 2020-05-28 | Covidien Lp | Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery |
CN111388087A (zh) * | 2020-04-26 | 2020-07-10 | 深圳市鑫君特智能医疗器械有限公司 | 手术导航***及执行手术导航方法的计算机与存储介质 |
CN113034700A (zh) * | 2021-03-05 | 2021-06-25 | 广东工业大学 | 基于移动终端的前交叉韧带重建手术导航方法及*** |
CN113347937A (zh) * | 2019-01-25 | 2021-09-03 | 伯恩森斯韦伯斯特(以色列)有限责任公司 | 参照系的配准 |
CN113693723A (zh) * | 2021-08-05 | 2021-11-26 | 北京大学 | 一种面向口腔咽喉部手术的跨模态导航定位***及方法 |
-
2021
- 2021-12-12 CN CN202111520421.3A patent/CN114224489B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160175615A1 (en) * | 2014-12-18 | 2016-06-23 | Kabushiki Kaisha Toshiba | Apparatus, method, and program for movable part tracking and treatment |
CN107179322A (zh) * | 2017-06-15 | 2017-09-19 | 长安大学 | 一种基于双目视觉的桥梁底面裂缝检测方法 |
US20200169673A1 (en) * | 2017-08-16 | 2020-05-28 | Covidien Lp | Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery |
CN109833092A (zh) * | 2017-11-29 | 2019-06-04 | 上海复拓知达医疗科技有限公司 | 体内导航***和方法 |
CN108154552A (zh) * | 2017-12-26 | 2018-06-12 | 中国科学院深圳先进技术研究院 | 一种立体腹腔镜三维模型重建方法和装置 |
CN113347937A (zh) * | 2019-01-25 | 2021-09-03 | 伯恩森斯韦伯斯特(以色列)有限责任公司 | 参照系的配准 |
CN109903313A (zh) * | 2019-02-28 | 2019-06-18 | 中国人民解放军国防科技大学 | 一种基于目标三维模型的实时位姿跟踪方法 |
CN111388087A (zh) * | 2020-04-26 | 2020-07-10 | 深圳市鑫君特智能医疗器械有限公司 | 手术导航***及执行手术导航方法的计算机与存储介质 |
CN113034700A (zh) * | 2021-03-05 | 2021-06-25 | 广东工业大学 | 基于移动终端的前交叉韧带重建手术导航方法及*** |
CN113693723A (zh) * | 2021-08-05 | 2021-11-26 | 北京大学 | 一种面向口腔咽喉部手术的跨模态导航定位***及方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023231098A1 (zh) * | 2022-05-30 | 2023-12-07 | 清华大学 | 目标跟踪方法、***及机器人 |
CN115089293A (zh) * | 2022-07-04 | 2022-09-23 | 山东大学 | 一种脊柱内镜手术机器人标定方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114224489B (zh) | 2024-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109974584B (zh) | 一种辅助激光截骨手术机器人的标定***及标定方法 | |
CN114041875B (zh) | 一种一体式手术定位导航*** | |
CN107468350B (zh) | 一种三维图像专用标定器、手术定位***及定位方法 | |
CN114224489B (zh) | 用于手术机器人的轨迹跟踪***及利用该***的跟踪方法 | |
CN111012506B (zh) | 基于立体视觉的机器人辅助穿刺手术末端工具中心标定方法 | |
CN109938837B (zh) | 光学跟踪***及光学跟踪方法 | |
US20160000518A1 (en) | Tracking apparatus for tracking an object with respect to a body | |
CN109297413A (zh) | 一种大型筒体结构视觉测量方法 | |
CN114668534B (zh) | 一种用于口腔种植牙手术的术中种植精度检测***和方法 | |
CN112168357B (zh) | C臂机空间定位模型构建***及方法 | |
CN112958960B (zh) | 一种基于光学靶标的机器人手眼标定装置 | |
CN114523471B (zh) | 基于关联标识的误差检测方法及机器人*** | |
CN113870329A (zh) | 一种用于手术导航的医学影像配准***及方法 | |
CN114536399B (zh) | 基于多个位姿标识的误差检测方法及机器人*** | |
CN212256370U (zh) | 光学式运动捕捉*** | |
TWI708591B (zh) | 骨科手術之三維即時定位方法 | |
CN112998856B (zh) | 三维实时定位方法 | |
CN111862170A (zh) | 光学式运动捕捉***及方法 | |
CN114536331B (zh) | 基于关联标识确定可形变机械臂的外部受力的方法及机器人*** | |
TWI735390B (zh) | 影像定位系統之即時定位補償方法及可即時定位補償之影像定位系統 | |
CN113855240A (zh) | 一种基于磁导航的医学影像配准***和方法 | |
Yu et al. | Vision-based method of kinematic calibration and image tracking of position and posture for 3-RPS parallel robot | |
CN215899873U (zh) | 一种用于x光成像手术定位标尺 | |
CN113100967B (zh) | 一种可穿戴的手术工具定位装置及定位方法 | |
CN113974831B (zh) | 一种用于手术导航的医学图像配准方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |