CN112451093A - 图像引导机器人微创外科手术的物理空间与图像空间配准方法 - Google Patents

图像引导机器人微创外科手术的物理空间与图像空间配准方法 Download PDF

Info

Publication number
CN112451093A
CN112451093A CN202110104422.3A CN202110104422A CN112451093A CN 112451093 A CN112451093 A CN 112451093A CN 202110104422 A CN202110104422 A CN 202110104422A CN 112451093 A CN112451093 A CN 112451093A
Authority
CN
China
Prior art keywords
image
coordinate system
projection
space
physical space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110104422.3A
Other languages
English (en)
Other versions
CN112451093B (zh
Inventor
王静
牛田野
罗辰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202110104422.3A priority Critical patent/CN112451093B/zh
Priority to PCT/CN2021/076194 priority patent/WO2022160384A1/zh
Publication of CN112451093A publication Critical patent/CN112451093A/zh
Application granted granted Critical
Publication of CN112451093B publication Critical patent/CN112451093B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition

Landscapes

  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及一种图像引导机器人微创外科手术的物理空间与图像空间配准方法,属于X射线成像技术领域。通过术中CBCT扫描标定模体,自动识别成像几何参数,建立模体坐标系下的三维重建算法模型,术中CBCT再扫描手术对象即可重建出模体坐标系中的三维CT图像,而标定模体通过基座与机器人固定连接,模体坐标系与机器人坐标系之间相对固定的转换关系标定一次即可。该方法利用标定模体将物理空间和图像空间统一,避免了常规方法中物理空间和图像空间配对标记点坐标获取和配准的复杂过程,大幅提升了物理空间和图像空间的配准精度、简化了配准流程、缩短了配准时间,对手术对象亦无损伤。

Description

图像引导机器人微创外科手术的物理空间与图像空间配准 方法
技术领域
本发明涉及X射线成像技术领域,具体地说,涉及一种图像引导机器人微创外科手术的物理空间与图像空间配准方法。
背景技术
物理空间与图像空间配准是图像引导机器人微创外科手术的关键环节,配准过程是将物理空间包含机器人和患者与图像空间包含CT图像两者相关联的过程。图像引导机器人微创外科手术,例如微创人工耳蜗植入手术,钻制的人工耳蜗通道与面神经、鼓索等重要解剖结构的距离约0.5mm,手术路径在物理空间中规划与实施,而解剖结构在图像空间中识别与获取,因此物理空间与图像空间的配准精度在很大程度上决定了机器人微创外科手术成功与否。
目前物理空间与图像空间配准通常采用点配准或面配准的方法实现。点配准方法中精度较高的是通过手术的方式在骨中植入基准标记点,现有文献(Gerber,N.,et al.(2013).“High-Accuracy Patient-to-Image Registration for the Facilitation ofImage-Guided Robotic Microsurgery on the Head”,IEEE Transactions onBiomedical Engineering,60(4):960-968.)公开了一种颞骨切口旋入十个锚点作为植入的基准标记点,目标配准误差(Target Registration Error),TRE=0.2mm,但是对患者有侵入性损伤;而贴皮基准标记点和解剖基准标记点,获得的配准精度较差。此外,上述基准标记点的物理空间坐标通过光学或磁性位置传感器获取,如高精度光学跟踪仪和专用六自由度力传感设备,但三维测量过程复杂、精度受限且成本较高。面配准方法采用激光表面扫描或跟踪指针检测表面点云坐标再通过迭代最近点算法进行配准,其配准精度比不上点配准,如现有文献(Fan,Y.,et al. (2020).“A robust automated surface-matchingregistration method for neuronavigation”,Medical Physics, 47(7):2755-2767.)公开的采用三维白光扫描仪获取头部表面点云,经过粗精两次配准后目标配准误差TRE=1.17mm。
综上所述,现有物理空间与图像空间配准方法存在精度偏低、过程复杂、成本较高、损伤机体等不足之处,严重限制了图像引导机器人微创外科手术在复杂精细手术方面的发展与应用。
发明内容
本发明的目的是提供一种图像引导机器人微创外科手术的物理空间与图像空间配准方法,该方法有效避免了常规方法中物理空间和图像空间配对标记点坐标获取和配准的复杂过程。
为了实现上述目的,本发明提供的图像引导机器人微创外科手术的物理空间与图像空间配准方法,包括以下步骤:
1)将标定模体固连在机器人上,确定模体坐标系与机器人坐标系之间的转换关系;
2)术中CBCT扫描标定模体,获得不同角度的模体投影图;
3)针对步骤2)中获得的每张投影图,依据基于模体的CBCT成像几何参数标定算法,识别术中CBCT扫描过程中每个角度下的成像几何参数,并求得模体坐标系与探测器坐标系之间的转换关系;
4)根据步骤3)中获得的术中CBCT成像几何参数,修正CBCT三维重建算法,建立模体坐标系下的三维重建算法模型;
5)术中CBCT扫描手术对象,获得不同角度的人体投影图,采集人体投影图的角度与步骤2)中模体投影图的角度一一对应;
6)将步骤5)中获得的人体投影图代入步骤4)中建立的三维重建算法模型,重建模体坐标系中手术对象的三维CT图像;
7)利用模体坐标系与机器人坐标系之间的转换关系,获得机器人与手术对象内部结构的相对位置关系。
上述技术方案中,不需要设定基准标记点,也不需要借助三维测量装置,通过术中CBCT扫描标定模体,自动识别成像几何参数,建立模体坐标系下的三维重建算法模型,术中CBCT再扫描手术对象即可重建出模体坐标系中的三维CT图像,而标定模体通过基座与机器人固定连接,模体坐标系与机器人坐标系之间相对固定的转换关系标定一次即可。
可选地,在一个实施例中,所述的标定模体包括圆柱形的筒体和按照一定规律设置在所述筒体内的球体,所述筒体的底部设有用于连接所述机器人基座的固定座。
所述的球体按照以下方式布置:
所述筒体中心轴的两端各设置一个球体,筒体的中心位置处设置一个球体;
筒体的顶部端盖和底部端盖的周围均匀布置一圈球体。
进一步地,步骤3)包括:
3-1)对于每张投影图,分割出标定模体中各个球体的投影;
3-2)计算每个球体投影的中心坐标;
3-3)根据球体投影中心坐标与球体投影之间的几何关系,求解成像几何参数、以及模体坐标系与探测器坐标系之间的变换矩阵。
步骤3-1)中的分割方法包括基于灰度阈值的分割方法、基于边缘检测和霍夫圆检测的分割方法、基于U-Net全卷积网络的分割方法。
步骤3-2)中,采用像素灰度值加权的方法计算每个球体投影的中心坐标。
进一步地,步骤4)中,采用齐次变换矩阵的形式修正所述的CBCT三维重建算法,步骤4)包括:
4-1)在模体坐标系中,利用步骤3-3)中获得的成像几何参数对投影数据进行余弦修正和逐行线性移不变滤波操作;
4-2)利用步骤3-3)中获得的成像几何参数、以及模体坐标系与探测器坐标系之间的变换矩阵,将模体坐标系中的焦点坐标和重建体素坐标变换至探测器坐标系中;
4-3)在探测器坐标系中,基于体素驱动的反投过程按照焦点和体素点连线与探测器平面求交的形式,对加权反投过程进行修正,并采用快速增量算法对各体素进行快速遍历及求解,得到三维重建算法模型。
本发明中所述的成像几何参数包括标定模体的焦点坐标、探测器中心点坐标、以及探测器偏转角度。
与现有技术相比,本发明的有益之处在于:
本发明利用标定模体将物理空间与图像空间统一,通过标定模体识别出术中CBCT成像几何参数,并据此建立模体坐标系下的三维重建算法模型,将手术对象三维CT图像直接重建于模体坐标系,避免了常规方法中物理空间和图像空间配对标记点坐标获取和配准的复杂过程,大幅提升了物理空间和图像空间的配准精度、简化了配准流程、缩短了配准时间,对手术对象亦无损伤,可有效促进图像引导机器人微创外科手术在复杂精细手术方面的发展与应用。
附图说明
图1为本发明实施例中图像引导机器人微创外科手术物理空间与图像空间配准方法的流程图。
图2为本发明实施例中标定模体的结构示意图。
图3为本发明实施例中获得成像几何参数的流程图。
图4为本发明实施例中获得手术对象CT图像的流程图。
图5为本发明实施例中术中CBCT扫描标定模体的示意图。
图6为本发明实施例中术中CBCT扫描手术对象的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,以下结合实施例及其附图对本发明作进一步说明。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。
实施例
本实施例所使用的标定模体结构100参见图2,包括圆柱形的筒体4和按照一定规律设置在筒体内的球体,筒体4顶部设有上端盖1,底部设有下端盖9和用于连接机器人200的固定座10。球体包括:位于筒体中间立柱6的两端的上层中心小球3和下层中心小球7,位于筒体中间立柱6中心处的中间中心小球5;均匀布置在上端盖1周围的上层均布小球2,均匀布置在下端盖9周围的下层均布小球8。
当然,本发明并不局限于使用以上标定模体,以上标定模体仅是本发明的一个实施方式。
参见图1,本实施例中图像引导机器人微创外科手术的物理空间与图像空间配准方法包括以下步骤:
S1:参见图5,将标定模体100固定在与机器人200连接的基座201上,标定模体100所处的位置需在术中CBCT400扫描成像视野范围内。标定模体100可以根据一张投影图标定出所有成像几何参数,包括焦点坐标、探测器中心点坐标、探测器偏转角。
S2:术中CBCT400扫描标定模体100,获得360°范围内不同角度的若干张投影图。采集投影数据的每个投影角度值可由安装在术中CBCT400上的倾角传感器获取。
S3:如图2所示,针对步骤S2中获得的每张投影图,依据基于模体的CBCT成像几何参数标定算法,自动识别术中CBCT400扫描过程中每个角度下的成像几何参数。参见图3,该步骤具体包括以下子步骤:
S31:对于每张投影图,采用基于灰度阈值的分割方法或基于边缘检测和霍夫圆检测的分割方法或基于U-Net全卷积网络的分割方法,分割出标定模体中各个小球的投影;
S32:对于每个小球投影采用像素灰度值加权的方法计算小球投影中心坐标;
S33:根据小球投影中心坐标以及小球投影之间的几何关系,求解焦点坐标、探测器中心点坐标、探测器偏转角等成像几何参数,以及模体坐标系与探测器坐标系之间的变换矩阵。
S4:如图4所示,根据步骤S3中获得的术中CBCT400实际成像几何参数,采用齐次变换矩阵的形式,修正CBCT三维重建算法,建立模体坐标系下的三维重建算法模型。该步骤具体包括以下子步骤:
S41:在模体坐标系中,利用步骤S33中获得的成像几何参数对投影数据进行余弦修正和逐行线性移不变滤波操作;
S42:利用步骤S33中获得的焦点坐标、模体坐标系与探测器坐标系之间的变换矩阵,将模体坐标系中焦点坐标、重建体素坐标,变换至探测器坐标系中;
S43:在探测器坐标系中,基于体素驱动的反投过程按照焦点和体素点连线与探测器平面求交的形式实现,对加权反投过程进行修正,并采用快速增量算法对各体素进行快速遍历及求解。
S5:参见图6,术中CBCT400扫描手术对象300,获得360°范围内不同角度的若干张投影图,采集投影图的角度与步骤S2中的投影图角度一一对应。术中CBCT400扫描手术对象300时的位置与步骤S2中扫描标定模体100时的位置保持一致。术中CBCT400扫描手术对象300时,采集投影数据的每个投影角度值可由安装在术中CBCT400上的倾角传感器获取。
S6:将步骤S5中获得的投影图代入步骤S4中建立的模体坐标系下的三维重建算法模型,重建出模体坐标系中手术对象300的三维CT图像。直接在模体坐标系中重建出手术对象300的三维CT图像,实现了物理空间与图像空间的统一,图像空间中获取的解剖结构直接定位在模体坐标系所确定的物理空间中。
S7:利用模体坐标系与机器人坐标系之间确定的转换关系,即可获得机器人200与手术对象300及手术对象300解剖结构的相对位置关系。物理空间中模体坐标系与机器人坐标系之间相对固定的转换关系,在手术机器人搭建时标定一次即可。
本实施例还给出该物理空间与图像空间配准方法在扫描标定模体情况下目标测 试小球的实施结果。目标测试小球为图2所示标定模体中的上层中心小球3和下层中心小球 7,模体坐标系原点O设在中间中心小球5球心,标定模体轴线设为Z轴,中平面设为XOY平面, 物理空间中标定模体上层中心小球3球心坐标为(0,0,39.5)(即金标准),下层中心小球7球 心坐标为(0,0,-39.5)(即金标准)。模体坐标系下标定模体的三维CT重建图像中,上端盖1、 下端盖9、筒体4、中间立柱6、固定座10等所用亚克力材质的线衰约为0.021,小球的线衰约 为0.56,因此可以通过设置体素阈值(为0.1),从重建体中分割出小球体素所在的区域,并 通过体素值加权的方式得到小球球心的图像空间坐标。由此得到图像空间中标定模体上层 中心小球3球心坐标为(-0.0253,-0.0474, 39.5163),下层中心小球7球心坐标为(- 0.0254,-0.0299,-39.4921)。本实施例中物理空间与图像空间的目标配准误差(Target Registration Error,TRE),上层中心小球3:
Figure 735241DEST_PATH_IMAGE001
=0.056mm,下层中心小球7:
Figure 839332DEST_PATH_IMAGE002
=0.040mm。术中CBCT扫描标定模体耗时2分钟,几何参数识别和CT重建算法修 正计算机程序自动运行耗时0.5分钟,术中CBCT扫描手术对象耗时2分钟,手术对象三维CT 图像重建耗时0.5分钟,上述配准过程总体耗时5分钟。
上述目标测试小球物理空间与图像空间配准过程中应用本实施例中基于标定模体坐标系的配准方法得到的配准精度明显优于常规方法所得到的配准精度(一般为几毫米,个别为零点几毫米)。特别是本实施例中的配准方法其配准流程简单,不需要通过手术植入基准标记点,也不需要借助高精度三维测量装置,有效缩短配准时间的同时也确保了配准结果的可重复性和可靠性。常规点配准方法手术植入基准标记点需增加预手术环节操作时间较长,面配准方法物理空间表面点云三维测量为手动操作一般配准时间为20~30分钟。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

Claims (9)

1.一种图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,包括以下步骤:
1)将标定模体固连在机器人上,确定模体坐标系与机器人坐标系之间的转换关系;
2)术中CBCT扫描标定模体,获得不同角度的模体投影图;
3)针对步骤2)中获得的每张投影图,依据基于模体的CBCT成像几何参数标定算法,识别术中CBCT扫描过程中每个角度下的成像几何参数,并求得模体坐标系与探测器坐标系之间的转换关系;
4)根据步骤3)中获得的术中CBCT成像几何参数,修正CBCT三维重建算法,建立模体坐标系下的三维重建算法模型;
5)术中CBCT扫描手术对象,获得不同角度的人体投影图,采集人体投影图的角度与步骤2)中模体投影图的角度一一对应;
6)将步骤5)中获得的人体投影图代入步骤4)中建立的三维重建算法模型,重建模体坐标系中手术对象的三维CT图像;
7)利用模体坐标系与机器人坐标系之间的转换关系,获得机器人与手术对象内部结构的相对位置关系。
2.根据权利要求1所述的图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,所述的标定模体包括圆柱形的筒体和按照一定规律设置在所述筒体内的球体,所述筒体的底部设有用于连接所述机器人基座的固定座。
3.根据权利要求2所述的图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,所述的球体按照以下方式布置:
所述筒体中心轴的两端各设置一个球体,筒体的中心位置处设置一个球体;
筒体的顶部端盖和底部端盖的周围均匀布置一圈球体。
4.根据权利要求2所述的图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,步骤3)包括:
3-1)对于每张投影图,分割出标定模体中各个球体的投影;
3-2)计算每个球体投影的中心坐标;
3-3)根据球体投影中心坐标与球体投影之间的几何关系,求解成像几何参数、以及模体坐标系与探测器坐标系之间的变换矩阵。
5.根据权利要求4所述的图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,步骤3-1)中的分割方法包括基于灰度阈值的分割方法、基于边缘检测和霍夫圆检测的分割方法、基于U-Net全卷积网络的分割方法。
6.根据权利要求4所述的图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,步骤3-2)中,采用像素灰度值加权的方法计算每个球体投影的中心坐标。
7.根据权利要求4所述的图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,步骤4)包括:
4-1)在模体坐标系中,利用步骤3-3)中获得的成像几何参数对投影数据进行余弦修正和逐行线性移不变滤波操作;
4-2)利用步骤3-3)中获得的成像几何参数、以及模体坐标系与探测器坐标系之间的变换矩阵,将模体坐标系中的焦点坐标和重建体素坐标变换至探测器坐标系中;
4-3)在探测器坐标系中,基于体素驱动的反投过程按照焦点和体素点连线与探测器平面求交的形式,对加权反投过程进行修正,并采用快速增量算法对各体素进行快速遍历及求解,得到三维重建算法模型。
8.根据权利要求1所述的图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,步骤4)中,采用齐次变换矩阵的形式修正所述的CBCT三维重建算法。
9.根据权利要求1~8中任一权利要求所述的图像引导机器人微创外科手术的物理空间与图像空间配准方法,其特征在于,所述的成像几何参数包括标定模体的焦点坐标、探测器中心点坐标、以及探测器偏转角度。
CN202110104422.3A 2021-01-26 2021-01-26 图像引导机器人微创外科手术的物理空间与图像空间配准方法 Active CN112451093B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110104422.3A CN112451093B (zh) 2021-01-26 2021-01-26 图像引导机器人微创外科手术的物理空间与图像空间配准方法
PCT/CN2021/076194 WO2022160384A1 (zh) 2021-01-26 2021-02-09 图像引导机器人微创外科手术的物理空间与图像空间配准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110104422.3A CN112451093B (zh) 2021-01-26 2021-01-26 图像引导机器人微创外科手术的物理空间与图像空间配准方法

Publications (2)

Publication Number Publication Date
CN112451093A true CN112451093A (zh) 2021-03-09
CN112451093B CN112451093B (zh) 2021-05-04

Family

ID=74802758

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110104422.3A Active CN112451093B (zh) 2021-01-26 2021-01-26 图像引导机器人微创外科手术的物理空间与图像空间配准方法

Country Status (2)

Country Link
CN (1) CN112451093B (zh)
WO (1) WO2022160384A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113143463A (zh) * 2021-03-16 2021-07-23 上海交通大学 一种手术导航装置、***、标定方法、介质及电子设备
CN113643428A (zh) * 2021-08-17 2021-11-12 北京唯迈医疗设备有限公司 一种适用于多自由度锥形束ct的全参数几何校准方法
CN113855288A (zh) * 2021-11-01 2021-12-31 杭州柳叶刀机器人有限公司 图像生成方法、装置、电子设备及存储介质
CN113963056A (zh) * 2021-09-07 2022-01-21 于留青 Ct图像重建方法、装置、电子设备以及存储介质
CN115005991A (zh) * 2022-08-03 2022-09-06 北京壹点灵动科技有限公司 手术导航装置的精度检测方法及手术导航精度检测装置
CN116672082A (zh) * 2023-07-24 2023-09-01 苏州铸正机器人有限公司 一种手术导航标尺的导航配准方法及装置
CN117338422A (zh) * 2023-10-30 2024-01-05 赛诺威盛医疗科技(扬州)有限公司 空间注册及运动学解算机器人控制方法、***及装置
CN117679178A (zh) * 2023-12-22 2024-03-12 青岛大学附属医院 一种创伤骨科微创手术机器人***

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115795579B (zh) * 2022-12-23 2023-06-27 岭南师范学院 无特征复杂曲面测量误差分析的快速坐标对齐方法
CN115880469B (zh) * 2023-02-20 2023-05-09 江苏省人民医院(南京医科大学第一附属医院) 一种表面点云数据与三维影像的配准方法
CN116993791B (zh) * 2023-09-28 2023-12-19 真健康(北京)医疗科技有限公司 一种基于体表定位装置的医学图像配准方法及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104083216A (zh) * 2014-07-03 2014-10-08 北京天智航医疗科技股份有限公司 手术定位标尺
US20140312229A1 (en) * 2011-12-21 2014-10-23 Rolls-Royce Plc Position measurement
EP3295887A1 (en) * 2016-09-16 2018-03-21 Globus Medical, Inc. Robotic fluoroscopic navigation
CN111388089A (zh) * 2020-03-19 2020-07-10 京东方科技集团股份有限公司 治疗设备及其配准方法、配准装置
CN111388091A (zh) * 2020-03-17 2020-07-10 京东方科技集团股份有限公司 光标尺、坐标系配准的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140312229A1 (en) * 2011-12-21 2014-10-23 Rolls-Royce Plc Position measurement
CN104083216A (zh) * 2014-07-03 2014-10-08 北京天智航医疗科技股份有限公司 手术定位标尺
EP3295887A1 (en) * 2016-09-16 2018-03-21 Globus Medical, Inc. Robotic fluoroscopic navigation
CN111388091A (zh) * 2020-03-17 2020-07-10 京东方科技集团股份有限公司 光标尺、坐标系配准的方法
CN111388089A (zh) * 2020-03-19 2020-07-10 京东方科技集团股份有限公司 治疗设备及其配准方法、配准装置

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113143463A (zh) * 2021-03-16 2021-07-23 上海交通大学 一种手术导航装置、***、标定方法、介质及电子设备
CN113643428A (zh) * 2021-08-17 2021-11-12 北京唯迈医疗设备有限公司 一种适用于多自由度锥形束ct的全参数几何校准方法
CN113963056A (zh) * 2021-09-07 2022-01-21 于留青 Ct图像重建方法、装置、电子设备以及存储介质
CN113963056B (zh) * 2021-09-07 2022-08-26 于留青 Ct图像重建方法、装置、电子设备以及存储介质
CN113855288A (zh) * 2021-11-01 2021-12-31 杭州柳叶刀机器人有限公司 图像生成方法、装置、电子设备及存储介质
CN115005991A (zh) * 2022-08-03 2022-09-06 北京壹点灵动科技有限公司 手术导航装置的精度检测方法及手术导航精度检测装置
CN116672082A (zh) * 2023-07-24 2023-09-01 苏州铸正机器人有限公司 一种手术导航标尺的导航配准方法及装置
CN116672082B (zh) * 2023-07-24 2024-03-01 苏州铸正机器人有限公司 一种手术导航标尺的导航配准方法及装置
CN117338422A (zh) * 2023-10-30 2024-01-05 赛诺威盛医疗科技(扬州)有限公司 空间注册及运动学解算机器人控制方法、***及装置
CN117338422B (zh) * 2023-10-30 2024-04-05 赛诺威盛医疗科技(扬州)有限公司 空间注册及运动学解算机器人控制方法、***及装置
CN117679178A (zh) * 2023-12-22 2024-03-12 青岛大学附属医院 一种创伤骨科微创手术机器人***
CN117679178B (zh) * 2023-12-22 2024-06-07 青岛大学附属医院 一种创伤骨科微创手术机器人***

Also Published As

Publication number Publication date
WO2022160384A1 (zh) 2022-08-04
CN112451093B (zh) 2021-05-04

Similar Documents

Publication Publication Date Title
CN112451093B (zh) 图像引导机器人微创外科手术的物理空间与图像空间配准方法
US9542743B2 (en) Calibration and transformation of a camera system's coordinate system
WO2018218611A1 (zh) 锥形束计算机断层成像***的几何参数确定方法
US20040171927A1 (en) Method and apparatus for measuring and compensating for subject motion during scanning
CN110464462B (zh) 腹部外科介入手术的图像导航配准***及相关装置
CN112258593B (zh) 单目相机下ct或pet-ct智能定位扫描方法
US20230154019A1 (en) Method and navigation system for registering two-dimensional image data set with three-dimensional image data set of body of interest
WO2024027857A1 (zh) 用于配准手术机器人坐标系与ct机坐标系的方法及***
US20140294276A1 (en) Automatic estimation of anatomical extents
CN112617877B (zh) 移动ct***的自主扫描方法、存储介质和ct扫描装置
WO2001057805A2 (en) Image data processing method and apparatus
CN116883471B (zh) 面向胸腹部经皮穿刺的线结构光无接触点云配准方法
CN109829922B (zh) 一种脑图像重定向方法、装置、设备及存储介质
Martinez et al. Super resolution for improved positioning of an mri-guided spinal cellular injection robot
Banks Model based 3D kinematic estimation from 2D perspective silhouettes: application with total knee prostheses
US8311365B2 (en) Analysis method for regional image
Tomaevič et al. “Gold Standard” 2D/3D registration of X-ray to CT and MR images
CN116452755B (zh) 一种骨骼模型构建方法、***、介质及设备
CN110992406B (zh) 一种基于感兴趣区的放疗患者摆位刚体配准算法
US20230398376A1 (en) Methods and systems for radiation therapy guidance
EP4187496A1 (en) System and method for autonomous identification of heterogeneous phantom regions
Maurer Jr Registration of multimodal three-dimensional medical images using points and surfaces
Al Durgham Photogrammetric Modelling for 3D Reconstruction from a Dual Fluoroscopic Imaging System
Chaoui et al. Virtual movements-based calibration method of ultrasound probe for computer assisted surgery
AU2022389067A1 (en) Method and navigation system for registering two-dimensional image data set with three-dimensional image data set of body of interest

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant