CN112168361A - 一种有效缓解时延影响的导管手术机器人位姿预测方法 - Google Patents
一种有效缓解时延影响的导管手术机器人位姿预测方法 Download PDFInfo
- Publication number
- CN112168361A CN112168361A CN202011176074.2A CN202011176074A CN112168361A CN 112168361 A CN112168361 A CN 112168361A CN 202011176074 A CN202011176074 A CN 202011176074A CN 112168361 A CN112168361 A CN 112168361A
- Authority
- CN
- China
- Prior art keywords
- catheter
- blood vessel
- time
- freedom
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Robotics (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Manipulator (AREA)
Abstract
Description
技术领域
本发明属于主从遥操作力反馈控制技术领域,涉及一种有效缓解时延影响的导管手术机器人位姿预测方法。
背景技术
微创心血管介入手术,以其减少术后疼痛、缩短恢复时间、创伤小等优点广泛使用,其中导管作为关键介入器械要深入到心脏冠状动脉腔壁变狭窄或阻塞处。遥操作医疗机器人***辅助医生在本地为远距离的病人进行手术,使处于新疆等偏远地区或灾区的病人得到及时诊治,同时有效减少手术的费用和时间,保护医生免受术中X射线辐射的危害。遥操作医疗机器人分为主手端和从手端两部分,使用网络进行通信,从端机构把持和操作导管等介入器械,医生则在主端控制导管运动。
时延对透明度的影响已被证实,被列为部分学者的下一步研究计划。位姿预测能够缓解时延对手术机器人力触觉反馈效果的影响,提高力触觉反馈透明度。随着血管介入机器人的发展,对高效的力触觉反馈位姿预测提出了迫切需求。
然而,即使在5G通讯技术下,遥操作手术中仅数据从机器人上传到云端需要约80ms,数据获取和处理、力触觉渲染计算、执行器响应等也会引起时延。时延会显著降低导管位姿预测的准确性,因此如何缓解时延的影响,实现导管位姿的准确预测成为亟待解决的技术问题。
发明内容
本发明的目的是解决现有技术中存在的问题,提供一种有效缓解时延影响的导管手术机器人位姿预测方法。
为达到上述目的,本发明采用的技术方案如下:
一种有效缓解时延影响的导管手术机器人位姿预测方法,分别获取主从手术***总时延、手术操作时间和位移后,将三者结合得到柔性导管位姿的预测结果;
主从手术***总时延由各环节时延测试实验数据加和得到;
然后对医生在血管分岔口进行导管控制的经验数据进行模糊融合得到医生操作导管的控制规律,即不同血管长度等级和血管分岔口角度等级对应的医生操作导管运动时的平移自由度位移-时间关系曲线和旋转自由度角度-时间关系曲线
作为优选的技术方案:
如上所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,各环节包括数据获取和处理、执行器响应、通讯以及力触觉渲染环节。
如上所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,手术操作时间的计算公式如下:
MT=a+b(ID平移+ID旋转);
式中,MT为手术操作时间;a和b是两个经验参数,确定方法为:在与真实手术场景相同的环境和力反馈设备下,通过实验确定不同任务对应的难度系数ID和手术操作时间MT,由线性拟合得到ID和MT的关系,MT=a+b×ID,即得a和b;ID平移为平移方向难度系数;ID旋转为旋转方向难度系数;c为血管路径,由术前病人CT图像数据得到;s为导管位移,经位姿传感器实时测量得到;W(s)为血管宽度,由术前病人CT图像数据得到;θ为旋转角度,经位姿传感器实时测量得到;ω为影响血管宽度参数,经位姿传感器以及病人CT图像数据综合分析判断得到。
如上所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,a和b的确定步骤如下:
(1)使用弹簧-质子模型建立主手端虚拟环境中导管、主动脉、冠状动脉和支血管的几何模型及动力学模型;
(2)确定导管、主动脉、冠状动脉和支血管的几何模型及动力学模型的参数:刚度系数为3×103N/m,粘性系数为240N·s/m,正常人的主动脉内径为25mm,冠状动脉内径为3.2mm,支血管内径为2.3mm;
(3)设定血管长度LE=100mm,200mm,血管内径Wvessel=25mm,3mm,2mm,血管分岔口角度AE=90°,200°,导管外径为0.8mm;
(4)确定典型手术任务需求及其对应的难度系数ID;
(5)测试不同任务需求所需的手术操作时间MT;
(6)线性拟合难度系数ID和手术操作时间MT,得到a和b。
如上所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,位移的获取流程如下:
(2)选择血管长度LE的隶属度函数,将LE分为4个等级,LE∈{LH(长度很大),LM(长度较大),LN(长度较小),LL(长度很小)};
(3)选择血管分岔口角度AE的隶属度函数,将AE分为4个等级,AE∈{AH(角度很大),AM(角度较大),AN(角度较小),AL(角度很小)};
(4)设置模糊融合规则,确定不同LE等级以及不同AE等级的各种组合对应的导管位姿PO的输出向量U,模糊融合规则表具体如下:
(6)在真实手术中根据患者CT得到LE和AE;
(7)根据步骤(2)中LE的隶属度函数确定患者的LE等级及其对应的模糊隶属度z(LE);
(8)根据步骤(3)中AE的隶属度函数确定患者的AE等级及其对应的模糊隶属度z(AE);
(9)根据步骤(4)中模糊融合规则确定患者血管所涉及的U;
其中,v为患者血管所涉及的U的总数;Ui为患者血管所涉及的第i个U;Cp(Ui)为Ui对应的YjCp(Ui)为Ui对应的上时刻j对应的平移自由度位移值;为Ui对应的z(LE);为Ui对应的z(AE);
其中,v为患者血管所涉及的U的总数;Ui为患者血管所涉及的第i个U;CX(Ui)为Ui对应的YjCX(Ui)为Ui对应的上时刻w对应的旋转自由度角度值;为Ui对应的z(LE);为Ui对应的z(AE)。
如上所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,步骤(5)中的拟合的过程为:首先以0.1s为采样周期进行采样,然后将各个采样点数据乘以权值后相加,最后对相加后的数据使用保形插值法进行拟合。
有益效果:
手术机器人存在数据获取和处理、执行器响应及通讯等时延。当前血管介入机器人时延问题的研究主要集中在稳定性方面,透明度的研究被学者列为下一步计划。柔性导管导丝受力弯曲扭转,其位姿难以准确预测。本发明基于Fitts定律,估算导管两自由度协同运动的典型手术操作时间,基于医学经验数据进行多元信息导管位姿模糊融合,实现导管位姿预测,缓解时延影响,提高其主从控制***透明度,能够解决力触觉反馈在血管介入机器人中的应用问题。
附图说明
图1为基于5G网络技术的遥操作手术通讯环节的示意图;
图2为导管在血管中运动的距离和区域大小示意图;
图3为模拟介入手术效果示意图;
图4为难度系数ID和手术操作时间MT线性拟合结果图;
图5为血管信息中输入输出描述图;
图6为血管长度LE的隶属度函数图;
图7为血管分岔口角度AE的隶属度函数图;
图8为血管长度LE、LE等级、模糊隶属度对应关系图;
图9为血管分岔口角度AE、AE等级、模糊隶属度对应关系图;
图10为模糊控制预测导管位姿曲线;
图11为真实交互力与仿真数据对比,其中,(a)为平移自由度位移-时间关系曲线,(b)为旋转自由度位移-时间关系曲线。
具体实施方式
下面结合具体实施方式,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
一种有效缓解时延影响的导管手术机器人位姿预测方法,步骤如下:
(1)获取主从手术***总时延;
主从手术***总时延由数据获取和处理、执行器响应、通讯以及力触觉渲染环节时延测试实验数据加和得到;这四个环节的时间延迟由几十毫秒到几百毫秒不等,在人机交互中,对于不同的硬件配置和软件的限制,延迟是不可避免的;在虚拟现实环境中,30毫秒的微小附加延迟,可能会导致图像不稳定并导致模拟器不适,使得用户感到恶心、头晕,严重降低了人机交互的质量;图1给出了基于5G网络技术的遥操作手术通讯环节的示意图,通讯环节的延时主要发生在从端基站到云的光纤传输中;
(2)获取手术操作时间;
手术操作时间的计算公式如下:
MT=a+b(ID平移+ID旋转);
式中,MT为手术操作时间;a和b是两个经验参数,确定方法为:在与真实手术场景相同的环境和力反馈设备下,通过实验确定不同任务对应的难度系数ID和手术操作时间MT,由线性拟合得到ID和MT的关系,MT=a+b×ID,即得a和b;ID平移为平移方向难度系数;ID旋转为旋转方向难度系数;c为血管路径,由术前病人CT图像数据得到;s为导管位移,经位姿传感器实时测量得到;W(s)为血管宽度,由术前病人CT图像数据得到;θ为旋转角度,经位姿传感器实时测量得到;ω为影响血管宽度参数,经位姿传感器以及病人CT图像数据综合分析判断得到;
具体地,计算公式的推导过程如下:
本发明基于Fitts定律,研究平移、旋转两个自由度协同手术操作的任务难度,估算典型手术操作所需时间的方法,即估算手术操作时间;当前Fitts定律主要用于基于手术操作的目标距离和宽度进行手术操作时间估算,都是单自由度的,而本发明首次使用Fitts定律进行两自由度手术操作时间估算,具体地,本发明根据病人CT获取基于典型手术操作任务中导管进行血管分岔口时平移和旋转行进目标距离和区域大小,使用两自由度协同Fitts定律预测医生完成该操作需要的时间;
Fitts定律定义如下:
MT=a+b·ID;
式中,MT为手术操作时间;ID为难度系数;a和b为经验参数;
ID=log2(A/W+q);
式中q为调节参数;A为起始位置离目标物体的距离;W为目标区域的大小;
如图2所示,具有分叉口血管任务的难度系数ID与平移、旋转都呈正相关函数,本发明将血管介入手术中Fitts定律的改进如下:
MT=a+b(ID平移+ID旋转);
对血管路径c积分,平移方向难度系数为:
对于具有分叉角度的血管路径,根据其旋转角度确定路径宽度为:W(θ)=(θ+ω)3,其中d(θ)=3(θ+ω)2,旋转方向难度系数为:
具体地,a和b的确定步骤如下:
(I)使用弹簧-质子模型建立主手端虚拟环境中导管、主动脉、冠状动脉和支血管的几何模型及动力学模型,模拟介入手术效果如图3所示;
(II)确定导管、主动脉、冠状动脉和支血管的几何模型及动力学模型的参数:刚度系数为3×103N/m,粘性系数为240N·s/m,正常人的主动脉内径为25mm,冠状动脉内径为3.2mm,支血管内径为2.3mm;
(III)设定血管长度LE=100mm,200mm,血管内径Wvessel=25mm,3mm,2mm,血管分岔口角度AE=90°,200°,导管外径为0.8mm,尽管虚拟环境是按比例设计的,但对象之间的所有距离都是用通用单位与物理单位表示的;
(IV)确定典型手术任务需求及其对应的难度系数ID;本发明将导丝沿主动脉经过冠状动脉进入分支血管的过程分成3个阶段:导丝进入主动脉,导丝由主动脉进入冠状动脉,导丝由冠状动脉进入支血管;根据费茨定律将他们分别定义为不同难度系数的等级,不同任务的完成时间不同,一般难度系数越大,完成时间越长;根据每个等级的完成时间,对具有时间延迟的远程介入手术做预测;操作者在经过多次训练以后可以大幅缩短完成时间,这说明操作者本身的熟练程度也会影响完成时间,但是本发明主要研究的是不同手术阶段在虚拟现实设备的难度系数,因此人的因素不在考虑范围;难度系数与任务需求的对应关系具体如表1所示;
表1
(V)测试不同任务需求所需的手术操作时间MT;8位具有手控器操作经验的人员分别通过Omega-7完成,记录从受试者拿起导丝在起始点到达终点的时间,结果见表2;
表2
(VI)线性拟合难度系数ID和手术操作时间MT,得到a和b;对表2的数据进行线行拟合得到的结果如图4所示,两个经验参数a、b分别为-0.89和3.5;
(3)获取位移;
当前的位姿预测采用基于前期状态量进行外推预测,根据医生的可能操作点进行外科手术机器人位姿预测反馈控制,基于受力模型进行轨迹预测;跟以上情况不一样的是,血管介入手术中导管受力弯曲扭转,变换规律相对复杂;本发明首次使用多元信息模糊融合的进行导管形变位姿预测控制,具体地,本发明基于大量医学经验数据,并对血管的多元信息进行有效的融合,将血管特征模糊化后对具有不同特征的血管进行分类,从而可以得到该类血管的位姿变化曲线并将分类后的数据保存在知识库中,面对具体病人时,可以针对该病人的CT,通过多个血管分岔口特征与知识库预测介入手术中导管的位姿变化;
模糊控制是一种基于相关专家的知识建立规则的控制,在设计中不需要建立被控对象制的精确的数学模型,因而模糊控制对那些动态特性不易掌握或变化非常显著的对象非常适用;
血管分叉口的长度直接决定了导管直线位移的大小,分叉口血管角度大小也对导管旋转角位移有重要影响,为了将血管介入手术中导管位姿变化转化为计算机能够接受的算法语言所描述的融合算法,本发明通过模糊推理模型,将血管分岔口的两大因素量化为模糊导管位姿状态,参照一定的规则融合为统一的导管位姿状态;
为得到典型血管分岔口处导管位姿变化,如图5所示,本发明将分岔口血管长度、血管分岔口角度作为模糊控制器的输入,以LE表示分岔口血管长度的语言变量,以AE表示血管分岔口角度的语言变量,以导管位姿作为***的唯一输出量,以PO来表现其语言变量;
获取位移的具体步骤如下:
(3.2)选择血管长度LE的隶属度函数(如图6所示),将LE分为4个等级,LE∈{LH(长度很大),LM(长度较大),LN(长度较小),LL(长度很小)};
(3.3)选择血管分岔口角度AE的隶属度函数(如图7所示),将AE分为4个等级,AE∈{AH(角度很大),AM(角度较大),AN(角度较小),AL(角度很小)};
(3.4)设置模糊融合规则,确定不同LE等级以及不同AE等级的各种组合对应的导管位姿PO的输出向量U,模糊融合规则表具体如下:
(3.5)收集与第f个U即Uf相关的所有的并将其拟合成一条新的平移自由度位移-时间关系曲线同时收集与第f个U即Uf相关的所有的并将其拟合成一条新的旋转自由度角度-时间关系曲线f=1,2,...16;拟合过程为:首先以0.1s为采样周期进行采样,然后将各个采样点数据乘以权值后相加,最后对相加后的数据使用保形插值法进行拟合;
(3.6)在真实手术中根据患者CT得到LE和AE;
(3.7)根据步骤(3.2)中LE的隶属度函数确定患者的LE等级及其对应的模糊隶属度z(LE);
(3.8)根据步骤(3.3)中AE的隶属度函数确定患者的AE等级及其对应的模糊隶属度z(AE);
(3.9)根据步骤(3.4)中模糊融合规则确定患者血管所涉及的U;
(3.10)解模糊得到导管位姿数据zj P,即欲得到的医生操作导管运动时的平移自由度位移-时间关系曲线上时刻j对应的平移自由度位移值,进而得到j的取值区间为[0,XPmax],XPmax为对应的最大横坐标值,解模糊公式如下:
其中,v为患者血管所涉及的U的总数;Ui为患者血管所涉及的第i个U;Cp(Ui)为Ui对应的YjCp(Ui)为Ui对应的上时刻j对应的平移自由度位移值;为Ui对应的z(LE);为Ui对应的z(AE);
其中,v为患者血管所涉及的U的总数;Ui为患者血管所涉及的第i个U;CX(Ui)为Ui对应的YjCX(Ui)为Ui对应的上时刻w对应的旋转自由度角度值;为Ui对应的z(LE);为Ui对应的z(AE);
现结合具体案例对根据患者CT得到位移的过程即上述步骤(3.6)~(3.10)进行说明:
首先,根据患者CT得到血管长度LE(8.8cm)和血管分岔口角度AE(41°);
然后,根据如图8所示的LE的隶属度函数确定患者的LE等级及其对应的模糊隶属度z(LE),LE等级为LL和LN,对应的模糊隶属度z(LE)分别为0.8和0.2;
接着,根据如图9所示的AE的隶属度函数确定患者的AE等级及其对应的模糊隶属度z(AE),AE等级为AL和AN,对应的模糊隶属度z(AE)分别为0.7和0.3;
再者,根据模糊融合规则确定患者血管所涉及的U,由模糊融合规则可知:
IF LE=LL,AE=AL,Then U=U1;
IF LE=LN,AE=AL,Then U=U2;
IF LE=LL,AE=AN,Then U=U5;
IF LE=LN,AE=AN,Then U=U6;
即患者血管所涉及的U为U1、U2、U5、U6;
其中,v为患者血管所涉及的U的总数,取值为4;Ui为患者血管所涉及的第i个U;i=1,Ui为U1;i=2,Ui为U2;i=3,Ui为U5;i=4,Ui为U6;Cp(Ui)为Ui对应的YjCp(Ui)为上时刻j对应的平移自由度位移值;为Ui对应的z(LE);为Ui对应的z(AE);
具体地,zj P=0.8×0.7×YjCp(U1)+0.2×0.7×YjCp(U2)+0.8×0.3×YjCp(U5)+0.2×0.3×YjCp(U6);
根据以上公式可知,上某一时刻对应的平移自由度位移值=0.8×0.7×U1对应的在该时刻对应的平移自由度位移值+0.2×0.7×U2对应的在该时刻对应的平移自由度位移值+0.8×0.3×U5对应的在该时刻对应的平移自由度位移值+0.2×0.3×U6对应的在该时刻对应的平移自由度位移值;
其中,v为患者血管所涉及的U的总数,取值为4;Ui为患者血管所涉及的第i个U;i=1,Ui为U1;i=2,Ui为U2;i=3,Ui为U5;i=4,Ui为U6;CX(Ui)为Ui对应的YwCX(Ui)为上时刻w对应的旋转自由度角度值;为Ui对应的z(LE);为Ui对应的z(AE);
具体地,zw X=0.8×0.7×YwCX(U1)+0.2×0.7×YwCX(U2)+0.8×0.3×YwCX(U5)+0.2×0.3×YwCX(U6);
根据以上公式可知,上某一时刻对应的旋转自由度角度值=0.8×0.7×U1对应的在该时刻对应的旋转自由度角度值+0.2×0.7×U2对应的在该时刻对应的旋转自由度角度值+0.8×0.3×U5对应的在该时刻对应的旋转自由度角度值+0.2×0.3×U6对应的在该时刻对应的旋转自由度角度值;
(4)将主从手术***总时延、手术操作时间和位移结合得到柔性导管位姿的预测结果;
仿真研究实例
(1)使用交互装置通过测量实验得到介入手术交互力,实验中血管长度为8.8cm,血管分岔口角度为41°,经模糊融合控制器预测得导管平移自由度位移-时间关系曲线和旋转自由度位移-时间关系曲线,如图10所示;
(2)虚拟仿真设置血管长度8.8cm,血管分岔口角度41°,经模糊融合后得到的位姿变化数据带入基于弹簧-质子的血管模型中,再经力触觉渲染计算得到输出模拟反馈力F,其计算公式如下:
(3)如图11所示,实线是交互装置测得的介入手术交互力,虚线是虚拟仿真中根据其人体血管数据模糊融合的力,仿真数据和实验中的力有相同的变化趋势,表明基于Fitts定律和医学经验多元信息对导管位姿进行离线模糊融合可以有效地给主手端提供反馈力。
Claims (6)
1.一种有效缓解时延影响的导管手术机器人位姿预测方法,其特征在于,分别获取主从手术***总时延、手术操作时间和位移后,将三者结合得到柔性导管位姿的预测结果;
主从手术***总时延由各环节时延测试实验数据加和得到;
然后对医生在血管分岔口进行导管控制的经验数据进行模糊融合得到医生操作导管的控制规律,即不同血管长度等级和血管分岔口角度等级对应的医生操作导管运动时的平移自由度位移-时间关系曲线和旋转自由度角度-时间关系曲线
2.根据权利要求1所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,其特征在于,各环节包括数据获取和处理、执行器响应、通讯以及力触觉渲染环节。
3.根据权利要求1所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,其特征在于,手术操作时间的计算公式如下:
MT=a+b(ID平移+ID旋转);
式中,MT为手术操作时间;a和b是两个经验参数,确定方法为:在与真实手术场景相同的环境和力反馈设备下,通过实验确定不同任务对应的难度系数ID和手术操作时间MT,由线性拟合得到ID和MT的关系,MT=a+b×ID,即得a和b;ID平移为平移方向难度系数;ID旋转为旋转方向难度系数;c为血管路径,由术前病人CT图像数据得到;s为导管位移,经位姿传感器实时测量得到;W(s)为血管宽度,由术前病人CT图像数据得到;θ为旋转角度,经位姿传感器实时测量得到;ω为影响血管宽度参数,经位姿传感器以及病人CT图像数据综合分析判断得到。
4.根据权利要求3所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,其特征在于,a和b的确定步骤如下:
(1)使用弹簧-质子模型建立主手端虚拟环境中导管、主动脉、冠状动脉和支血管的几何模型及动力学模型;
(2)确定导管、主动脉、冠状动脉和支血管的几何模型及动力学模型的参数:刚度系数为3×103N/m,粘性系数为240N·s/m,正常人的主动脉内径为25mm,冠状动脉内径为3.2mm,支血管内径为2.3mm;
(3)设定血管长度LE=100mm,200mm,血管内径Wvessel=25mm,3mm,2mm,血管分岔口角度AE=90°,200°,导管外径为0.8mm;
(4)确定典型手术任务需求及其对应的难度系数ID;
(5)测试不同任务需求所需的手术操作时间MT;
(6)线性拟合难度系数ID和手术操作时间MT,得到a和b。
5.根据权利要求1所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,其特征在于,位移的获取流程如下:
(2)选择血管长度LE的隶属度函数,将LE分为4个等级,LE∈{LH(长度很大),LM(长度较大),LN(长度较小),LL(长度很小)};
(3)选择血管分岔口角度AE的隶属度函数,将AE分为4个等级,AE∈{AH(角度很大),AM(角度较大),AN(角度较小),AL(角度很小)};
(4)设置模糊融合规则,确定不同LE等级以及不同AE等级的各种组合对应的导管位姿PO的输出向量U;
(6)在真实手术中根据患者CT得到LE和AE;
(7)根据步骤(2)中LE的隶属度函数确定患者的LE等级及其对应的模糊隶属度z(LE);
(8)根据步骤(3)中AE的隶属度函数确定患者的AE等级及其对应的模糊隶属度z(AE);
(9)根据步骤(4)中模糊融合规则确定患者血管所涉及的U;
其中,v为患者血管所涉及的U的总数;Ui为患者血管所涉及的第i个U;Cp(Ui)为Ui对应的YjCp(Ui)为Ui对应的上时刻j对应的平移自由度位移值;为Ui对应的z(LE);为Ui对应的z(AE);
6.根据权利要求5所述的一种有效缓解时延影响的导管手术机器人位姿预测方法,其特征在于,步骤(5)中的拟合的过程为:首先以0.1s为采样周期进行采样,然后将各个采样点数据乘以权值后相加,最后对相加后的数据使用保形插值法进行拟合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011176074.2A CN112168361B (zh) | 2020-10-29 | 2020-10-29 | 一种有效缓解时延影响的导管手术机器人位姿预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011176074.2A CN112168361B (zh) | 2020-10-29 | 2020-10-29 | 一种有效缓解时延影响的导管手术机器人位姿预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112168361A true CN112168361A (zh) | 2021-01-05 |
CN112168361B CN112168361B (zh) | 2021-11-19 |
Family
ID=73916488
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011176074.2A Active CN112168361B (zh) | 2020-10-29 | 2020-10-29 | 一种有效缓解时延影响的导管手术机器人位姿预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112168361B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112947059A (zh) * | 2021-03-31 | 2021-06-11 | 北京邮电大学 | 一种基于模糊pid控制器的主从同步控制方法及装置 |
CN113413213A (zh) * | 2021-07-14 | 2021-09-21 | 广州医科大学附属第一医院(广州呼吸中心) | Ct结果的处理方法、导航处理方法、装置与检测*** |
CN114311031A (zh) * | 2021-12-29 | 2022-04-12 | 上海微创医疗机器人(集团)股份有限公司 | 手术机器人主从端延时测试方法、***、存储介质和设备 |
CN116392257A (zh) * | 2023-06-07 | 2023-07-07 | 北京唯迈医疗设备有限公司 | 一种介入手术机器人***、导丝的塑形方法和存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101320526A (zh) * | 2008-07-11 | 2008-12-10 | 深圳先进技术研究院 | 一种手术预测和训练的设备及其方法 |
CN102207997A (zh) * | 2011-06-07 | 2011-10-05 | 哈尔滨工业大学 | 基于力反馈的机器人微创手术仿真*** |
CN102825603A (zh) * | 2012-09-10 | 2012-12-19 | 江苏科技大学 | 网络遥操作机器人***及时延克服方法 |
CN103006328A (zh) * | 2012-12-03 | 2013-04-03 | 北京航空航天大学 | 血管介入手术机器人***力反馈的模糊融合方法 |
CN103549994A (zh) * | 2013-10-23 | 2014-02-05 | 沈阳工业大学 | 微创血管介入手术导管机器人三维模糊控制装置及方法 |
CN103558759A (zh) * | 2013-10-23 | 2014-02-05 | 沈阳工业大学 | 微创血管介入手术导管机器人***控制装置及方法 |
CN104714449A (zh) * | 2015-03-09 | 2015-06-17 | 湖南工学院 | 获取用于人机交互任务的操作数据的方法和装置 |
CN105096716A (zh) * | 2015-09-01 | 2015-11-25 | 深圳先进技术研究院 | 血管内介入手术模拟*** |
CN109730779A (zh) * | 2019-03-07 | 2019-05-10 | 天津理工大学 | 一种血管介入手术机器人导管导丝协同控制***及方法 |
CN111513855A (zh) * | 2020-04-28 | 2020-08-11 | 绍兴梅奥心磁医疗科技有限公司 | 心脏内科介入导管手术***及其应用方法 |
CN111571594A (zh) * | 2020-05-26 | 2020-08-25 | 南通大学 | 一种提高遥操作机器人透明性和稳定性的方法 |
-
2020
- 2020-10-29 CN CN202011176074.2A patent/CN112168361B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101320526A (zh) * | 2008-07-11 | 2008-12-10 | 深圳先进技术研究院 | 一种手术预测和训练的设备及其方法 |
CN102207997A (zh) * | 2011-06-07 | 2011-10-05 | 哈尔滨工业大学 | 基于力反馈的机器人微创手术仿真*** |
CN102825603A (zh) * | 2012-09-10 | 2012-12-19 | 江苏科技大学 | 网络遥操作机器人***及时延克服方法 |
CN103006328A (zh) * | 2012-12-03 | 2013-04-03 | 北京航空航天大学 | 血管介入手术机器人***力反馈的模糊融合方法 |
CN103549994A (zh) * | 2013-10-23 | 2014-02-05 | 沈阳工业大学 | 微创血管介入手术导管机器人三维模糊控制装置及方法 |
CN103558759A (zh) * | 2013-10-23 | 2014-02-05 | 沈阳工业大学 | 微创血管介入手术导管机器人***控制装置及方法 |
CN104714449A (zh) * | 2015-03-09 | 2015-06-17 | 湖南工学院 | 获取用于人机交互任务的操作数据的方法和装置 |
CN105096716A (zh) * | 2015-09-01 | 2015-11-25 | 深圳先进技术研究院 | 血管内介入手术模拟*** |
CN109730779A (zh) * | 2019-03-07 | 2019-05-10 | 天津理工大学 | 一种血管介入手术机器人导管导丝协同控制***及方法 |
CN111513855A (zh) * | 2020-04-28 | 2020-08-11 | 绍兴梅奥心磁医疗科技有限公司 | 心脏内科介入导管手术***及其应用方法 |
CN111571594A (zh) * | 2020-05-26 | 2020-08-25 | 南通大学 | 一种提高遥操作机器人透明性和稳定性的方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112947059A (zh) * | 2021-03-31 | 2021-06-11 | 北京邮电大学 | 一种基于模糊pid控制器的主从同步控制方法及装置 |
CN113413213A (zh) * | 2021-07-14 | 2021-09-21 | 广州医科大学附属第一医院(广州呼吸中心) | Ct结果的处理方法、导航处理方法、装置与检测*** |
CN114311031A (zh) * | 2021-12-29 | 2022-04-12 | 上海微创医疗机器人(集团)股份有限公司 | 手术机器人主从端延时测试方法、***、存储介质和设备 |
CN114311031B (zh) * | 2021-12-29 | 2024-05-28 | 上海微创医疗机器人(集团)股份有限公司 | 手术机器人主从端延时测试方法、***、存储介质和设备 |
CN116392257A (zh) * | 2023-06-07 | 2023-07-07 | 北京唯迈医疗设备有限公司 | 一种介入手术机器人***、导丝的塑形方法和存储介质 |
CN116392257B (zh) * | 2023-06-07 | 2023-10-10 | 北京唯迈医疗设备有限公司 | 一种介入手术机器人***、导丝的塑形方法和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112168361B (zh) | 2021-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112168361B (zh) | 一种有效缓解时延影响的导管手术机器人位姿预测方法 | |
Yang et al. | A vascular interventional surgical robot based on surgeon’s operating skills | |
Ganji et al. | Catheter kinematics for intracardiac navigation | |
US11547504B2 (en) | Robotic surgical systems with independent roll, pitch, and yaw scaling | |
Patel et al. | Haptic feedback and force-based teleoperation in surgical robotics | |
Sun et al. | Advanced da Vinci surgical system simulator for surgeon training and operation planning | |
L’Orsa et al. | Introduction to haptics for neurosurgeons | |
CN114391953A (zh) | 一种骨科导航定位*** | |
Wang et al. | Surgeons’ operation skill-based control strategy and preliminary evaluation for a vascular interventional surgical robot | |
Guo et al. | Study on robust control for the vascular interventional surgical robot | |
Hu et al. | A method to enhance fidelity of force feedback control in virtual and human-robot micro interaction cardiovascular intervention surgery | |
Meng et al. | Evaluation of an autonomous navigation method for vascular interventional surgery in virtual environment | |
CN107168105B (zh) | 一种虚拟手术混合控制***及其验证方法 | |
Meng et al. | Evaluation of a reinforcement learning algorithm for vascular intervention surgery | |
Korayem et al. | Design, manufacture, and control of a laparoscopic robot via Leap Motion sensors | |
Ivanova et al. | A Smart Laparoscopic Instrument with Different Applications. | |
US20120288838A1 (en) | Method for simulating a catheter guidance system for control, development and training applications | |
CN116531094A (zh) | 一种角膜移植手术机器人视触觉融合导航方法及*** | |
CN114055461B (zh) | 基于肌电接口的机器人力位同步遥操作控制方法及装置 | |
Guo et al. | Force feedback-based robotic catheter training system for the vascular interventional surgery | |
CN114451991B (zh) | 基于虚拟复位碰撞检测的骨折复位路径规划方法 | |
Guo et al. | A novel VR-based simulator for the interventional surgical catheter and guidewire cooperation | |
Aloisio et al. | Computer-based simulator for catheter insertion training | |
Rovers | Haptic feedback: a literature study on the present-day use of haptic feedback in medical robotics | |
Jayender et al. | Bilateral telemanipulation of a flexible catheter in a constrained environment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |