CN112075981B - 静脉穿刺机器人控制方法、装置及计算机可读存储介质 - Google Patents

静脉穿刺机器人控制方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN112075981B
CN112075981B CN202010875880.2A CN202010875880A CN112075981B CN 112075981 B CN112075981 B CN 112075981B CN 202010875880 A CN202010875880 A CN 202010875880A CN 112075981 B CN112075981 B CN 112075981B
Authority
CN
China
Prior art keywords
target
image
blood vessel
visible light
infrared image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010875880.2A
Other languages
English (en)
Other versions
CN112075981A (zh
Inventor
齐鹏
王宇轩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tongji University
Original Assignee
Tongji University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tongji University filed Critical Tongji University
Priority to CN202010875880.2A priority Critical patent/CN112075981B/zh
Publication of CN112075981A publication Critical patent/CN112075981A/zh
Application granted granted Critical
Publication of CN112075981B publication Critical patent/CN112075981B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/34Trocars; Puncturing needles
    • A61B17/3403Needle locating or guiding means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/108Computer aided selection or customisation of medical implants or cutting guides
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Pathology (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种静脉穿刺机器人控制方法、装置及计算机可读存储介质,其中方法包括:分别采集手臂的原始红外图像和原始可见光图像;基于原始红外图像选择靶血管,并在原始红外图像中截取包含该靶血管区域的部分作为目标红外图像;根据目标红外图像在原始可见光图像中截取对应范围的部分作为目标可见光图像,对目标可见光图像进行预处理后,将预处理后的目标可见光图像输入至训练好的识别模型中得到识别结果,其中,识别结果为静脉血管凸出在表皮或静脉血管藏于表皮下;当识别结果为静脉血管凸出在表皮时,控制机器人的血管固定装置固定血管。与现有技术相比,本发明具有提高自动化穿刺的首次成功率等优点。

Description

静脉穿刺机器人控制方法、装置及计算机可读存储介质
技术领域
本发明涉及静脉穿刺机器人控制技术,尤其是涉及一种静脉穿刺机器人控制方法、装置及计算机可读存储介质。
背景技术
静脉血管穿刺治疗在目前人体治疗中是很常见的,现有的静脉穿刺机器人目的大多是为了实现静脉穿刺过程的全自动化。而现有的静脉穿刺机器人的工作步骤均为静脉血管定位,机器穿刺,医生确定穿刺轨迹,完成穿刺。然而静脉穿刺的时候仍需考虑诸多问题,例如有的病人的由于年龄原因皮肤松弛,脂肪层减少导致在未用止血带前,静脉血管已经凸出在皮肤表面,现有的穿刺技术很容易导致血管在皮下滑动而穿刺不成功。在目前的面向穿刺机器人研究的血管显示技术中,没有对静脉血管和皮肤的相对位置的评估和研究。
中国专利CN109584210A公开了一种多光谱三维静脉显像***,包括静脉图像的识别、分割,但是该专利只重建了血管的三维模型,并未能识别出静脉血管和表皮的相对位置,无法帮助穿刺机器人进行判断是否进行固定。
中国专利CN102764109A公布了一种静脉查看***,其利用红外光可以被血液强烈吸收而被其他人体组织散射的特性而定位静脉位置,但该装置仅仅将静脉投影到表皮上,不面向穿刺机器人,并且其不能反映静脉血管的深度,也无法帮助穿刺机器人进行判断是否进行固定。
发明内容
本发明的目的就是为了提供一种静脉穿刺机器人控制方法、装置及计算机可读存储介质,可以实现靶血管的自动选择,以及血管是否凸出在表皮的自动判断,从而可以通过是否固定来降低穿刺过程中血管在皮下滑动的可能性,提高了穿刺的首次成功率。
本发明的目的可以通过以下技术方案来实现:
一种静脉穿刺机器人控制方法,包括:
图像获取步骤:接收到唤醒指令后,控制红外摄像头和ccd相机分别采集手臂的原始红外图像和原始可见光图像;
靶血管提取步骤:基于原始红外图像选择靶血管,并在原始红外图像中截取包含该靶血管区域的部分作为目标红外图像;
模型输入步骤:根据目标红外图像在原始可见光图像中截取对应范围的部分作为目标可见光图像,对目标可见光图像进行预处理后,将预处理后的目标可见光图像输入至训练好的识别模型中得到识别结果,其中,所述识别结果为静脉血管凸出在表皮或静脉血管藏于表皮下;
机器人控制步骤:当识别结果为静脉血管凸出在表皮时,控制机器人的血管固定装置固定血管。
进一步的,所述识别模型为VGG16网络。
更进一步的,所述识别模型训练过程中的训练集中,老年人和身体偏瘦的人的手臂图像占比超过50%。
进一步的,所述靶血管提取步骤具体包括:
基于原始红外图像选择靶血管;
基于靶血管的边界上的各点,在原始红外图像中进行对外扩散,得到目标红外图像:
x2=x1+L sinθ
y2=y1+L cosθ
Figure BDA0002652650080000021
其中,(x1,y1)为靶血管的边界上的点的坐标,(x2,y2)为由靶血管的扩散上的点扩散后的对应点的坐标,L为扩散距离,θ为两点连线与基准坐标y轴之间的夹角。
进一步的,所述方法还包括:
待机唤醒步骤:ccd相机采集预览可见光图像,并将采集得到的预览可见光图像输入至训练好的手臂感知模型,得到手臂感知模型的识别结果,并在所述识别结果为含有手臂时发出用于激活红外摄像头的唤醒指令。
更进一步的,所述手臂感知模型为BP神经网络。
进一步的,所述红外摄像头为单红目近红外摄像头。
进一步的,所述基于原始红外图像选择靶血管的过程具体包括:
对原始红外图像进行灰度化处理;
对灰度化处理后的原始红外图像进行图像分割得到血管图像;
基于预配置的静脉血管的直径和静脉瓣选择要求,选择靶血管。
此外,提供一种静脉穿刺机器人控制装置,包括:
图像获取模块:被配置为接收到唤醒指令后,控制红外摄像头和ccd相机分别采集手臂的原始红外图像和原始可见光图像;
靶血管提取模块:被配置为基于原始红外图像,选择靶血管,并在原始红外图像中截取包含该靶血管区域的部分作为目标红外图像;
模型输入模块:被配置为根据目标红外图像在原始可见光图像中截取对应范围的部分作为目标可见光图像,对目标可见光图像进行预处理后,将预处理后的目标可见光图像输入至训练好的识别模型中得到识别结果,其中,所述识别结果为静脉血管凸出在表皮或静脉血管藏于表皮下;
机器人控制模块:被配置为当识别结果为静脉血管凸出在表皮时,控制机器人的血管固定装置固定血管。
一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如上述的方法。
与现有技术相比,本发明具有以下有益效果:
1)可以实现靶血管的自动选择,以及血管是否凸出在表皮的自动判断,从而可以通过是否固定来降低穿刺过程中血管在皮下滑动的可能性,提高了穿刺的首次成功率,降低了患者的疼痛。
2)VGG16网络具有很高的拟合能力,其通过不断加深网络结构提高学习性能,准确性高。
3)在利用深度学习网络进行图像比对之前已经进行了范围的预处理,排除了表皮其他因素的干扰,鲁棒性强。
4)图像识别过程不仅仅是简单的模型重建,而已经考虑静脉瓣,血管壁厚度等一系列因素,从而保证了穿刺过程的安全,提高了成功率。
附图说明
图1为本发明的流程步骤细分图;
图2为本发明的手臂识别BP神经网络训练原理图;
图3为本发明的范围扩大原理图;
图4为本发明判断血管是否凸起的VGG16网络训练办法。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
一种静脉穿刺机器人控制方法,该方法以计算机程序的形式由计算机***执行实现,如图1所示,包括:
(1)待机唤醒步骤:在患者伸入手臂之前,红外摄像头和ccd相机处于待机状态,算法处于关闭状态,ccd相机采集预览可见光图像,并将采集得到的预览可见光图像输入至训练好的手臂感知模型,得到手臂感知模型的识别结果,并在识别结果为含有手臂时发出用于激活红外摄像头的唤醒指令,其中,手臂感知模型为BP神经网络,红外摄像头为单红目近红外摄像头。
为BP神经网络的训练过程如图2所示,
首先利用已有的手臂图片通过灰度处理后得到像素图片,每个像素点的取值在区间[0,250]之间。将所有照片的像素值分别导入矩阵,并通过标准化将矩阵大小变为250*250,训练该神经网络,令训练时有手臂输出结果为(0,1),无手臂输出结果为(1,0),通过误差迭代运算,从而得出输入层,隐含层和输出层对应的连接权值ωij,ωjk
将ccd相机获得的图片归一化之后的参数导入已经训练好的BP神经网络中,对摄像机拍摄视频中的图片进行分类,类别共两种,分别为“有手臂”(Y1),输出为(0,1)和“无手臂”(Y2),输出为(1,0),当出现“有手臂”类别的图片时(或者“有手臂”类别图片达到规定连续张数n时),视为成功捕捉患者手臂,否则继续待命。
(2)图像获取步骤:接收到唤醒指令后,红外摄像头和ccd相机唤醒对准手臂,同时算法处于激活状态,待手臂稳定之后,控制红外摄像头和ccd相机分别采集手臂的原始红外图像和原始可见光图像;
(3)靶血管提取步骤:基于原始红外图像选择靶血管,并在原始红外图像中截取包含该靶血管区域的部分作为目标红外图像,具体包括:
基于原始红外图像选择靶血管;
如图3所示,考虑到静脉血管凸出表皮时会在其表面产生阴影,基于靶血管的边界上的各点,在原始红外图像中进行对外扩散,得到目标红外图像:
x2=x1+L sinθ
y2=y1+L cosθ
Figure BDA0002652650080000051
其中,(x1,y1)为靶血管的边界上的点的坐标,(x2,y2)为由靶血管的扩散上的点扩散后的对应点的坐标,L为扩散距离,θ为两点连线与基准坐标y轴之间的夹角。
其中基于原始红外图像选择靶血管的过程具体包括:
对原始红外图像进行灰度化处理;
对灰度化处理后的原始红外图像利用Unet网络分割出静脉血管;
基于预配置的静脉血管的直径、血管壁厚和静脉瓣选择要求,选择靶血管。
(54)模型输入步骤:根据目标红外图像在原始可见光图像中截取对应范围的部分作为目标可见光图像,对目标可见光图像进行预处理后,将预处理后的目标可见光图像输入至训练好的识别模型中得到识别结果,其中,识别结果为静脉血管凸出在表皮或静脉血管藏于表皮下。
其中,识别模型为VGG16网络,VGG的输入数据格式是224*224*3的像素数据,经过一系列的卷积神经网络和池化网络处理之后,输出的是一个4096维的特征数据,然后再通过3层全连接的神经网络处理,最终由softmax规范化得到分类结果,原理图如图4所示,下方数字表示为:高*宽*通道数,下面结合原理图详细介绍,
首先在训练之前收集以老年人和身体偏瘦的人为主的手臂图像,具体的,老年人和身体偏瘦的人的手臂图像占比超过50%,其中,优选的,老年人和身体偏瘦的人的手臂图像占比各为40%,身体偏瘦的人为BMI指数低于17-22之间的人,优选为低于19.5的人,老年人为年龄大于50-65岁以上的人,其中优选为大于50岁的人。
VGG16的输入数据格式是224*224*3的像素数据,并且所得的图像大多不是完整手臂图像,而仅仅是血管凸出在皮肤表面的局部图像,所以要对图像进行预先处理,使得数据转化为标注矩阵满足维度要求。此外,VGG16网络中所有的卷积核均为3*3,训练时令静脉血管凸出在皮肤表面的图片预期输出设置为(0,1),正常的静脉血管图像预期输出为(1,0)。
训练完成,开始穿刺前,在止血带还未使用时,患者的手臂已经伸入穿刺机器人中,***收集ccd相机获得的图片,因为此时***拍摄的图片为近乎完整的手臂图片,因此需要结合步骤6划定的范围对图片进行剪辑,剪辑之后将所得图片转化为标准矩阵满足维度要求,继而筛选完成导入已经训练好的VGG16中,其通过最大池化和卷积操作将224*224*3的像素数据转化为4096维的特征数据,继而通过全连接层后对拍摄的图片进行训练,分类公式通过概率分布来实现如下:
Figure BDA0002652650080000061
对于本次分类结果仅有两类,因此输出结果(y1,y2)的结果判断如下:
y1=sign(softmax(y1)-softmax(y2))
y2=1-y1
两种类别分别为″静脉血管凸出在表皮”(0,1)和“静脉血管藏于表皮下”(1,0)。
(5)机器人控制步骤:当识别结果为静脉血管凸出在表皮时,控制机器人的血管固定装置固定血管,并在固定好后进行穿刺工作。

Claims (9)

1.一种静脉穿刺机器人控制方法,其特征在于,包括:
图像获取步骤:接收到唤醒指令后,控制红外摄像头和ccd相机分别采集手臂的原始红外图像和原始可见光图像,
靶血管提取步骤:基于原始红外图像选择靶血管,并在原始红外图像中截取包含该靶血管区域的部分作为目标红外图像,
模型输入步骤:根据目标红外图像在原始可见光图像中截取对应范围的部分作为目标可见光图像,对目标可见光图像进行预处理后,将预处理后的目标可见光图像输入至训练好的识别模型中得到识别结果,其中,所述识别结果为静脉血管凸出在表皮或静脉血管藏于表皮下,
机器人控制步骤:当识别结果为静脉血管凸出在表皮时,控制机器人的血管固定装置固定血管;
所述靶血管提取步骤具体包括:
基于原始红外图像选择靶血管,
基于靶血管的边界上的各点,在原始红外图像中进行对外扩散,得到目标红外图像:
x2=x1+L sinθ
y2=y1+L cosθ
Figure FDA0003079054560000011
其中,(x1,y1)为靶血管的边界上的点的坐标,(x2,y2)为由靶血管的扩散上的点扩散后的对应点的坐标,L为扩散距离,θ为两点连线与基准坐标y轴之间的夹角。
2.根据权利要求1所述的一种静脉穿刺机器人控制方法,其特征在于,所述识别模型为VGG16网络。
3.根据权利要求1或2所述的一种静脉穿刺机器人控制方法,其特征在于,所述识别模型训练过程中的训练集中,老年人和身体偏瘦的人的手臂图像占比超过50%。
4.根据权利要求1所述的一种静脉穿刺机器人控制方法,其特征在于,所述方法还包括:
待机唤醒步骤:ccd相机采集预览可见光图像,并将采集得到的预览可见光图像输入至训练好的手臂感知模型,得到手臂感知模型的识别结果,并在所述识别结果为含有手臂时发出用于激活红外摄像头的唤醒指令。
5.根据权利要求4所述的一种静脉穿刺机器人控制方法,其特征在于,所述手臂感知模型为BP神经网络。
6.根据权利要求1所述的一种静脉穿刺机器人控制方法,其特征在于,所述红外摄像头为单红目近红外摄像头。
7.根据权利要求1所述的一种静脉穿刺机器人控制方法,其特征在于,所述基于原始红外图像选择靶血管的过程具体包括:
对原始红外图像进行灰度化处理;
对灰度化处理后的原始红外图像进行图像分割得到血管图像;
基于预配置的静脉血管的直径和静脉瓣选择要求,选择靶血管。
8.一种静脉穿刺机器人控制装置,其特征在于,包括:
图像获取模块:被配置为接收到唤醒指令后,控制红外摄像头和ccd相机分别采集手臂的原始红外图像和原始可见光图像;
靶血管提取模块:被配置为基于原始红外图像,选择靶血管,并在原始红外图像中截取包含该靶血管区域的部分作为目标红外图像;
模型输入模块:被配置为根据目标红外图像在原始可见光图像中截取对应范围的部分作为目标可见光图像,对目标可见光图像进行预处理后,将预处理后的目标可见光图像输入至训练好的识别模型中得到识别结果,其中,所述识别结果为静脉血管凸出在表皮或静脉血管藏于表皮下;
机器人控制模块:被配置为当识别结果为静脉血管凸出在表皮时,控制机器人的血管固定装置固定血管;
所述靶血管提取模块具体被配置为执行以下步骤:
基于原始红外图像选择靶血管;
基于靶血管的边界上的各点,在原始红外图像中进行对外扩散,得到目标红外图像:
x2=x1+L sinθ
y2=y1+L cosθ
Figure FDA0003079054560000031
其中,(x1,y1)为靶血管的边界上的点的坐标,(x2,y2)为由靶血管的扩散上的点扩散后的对应点的坐标,L为扩散距离,θ为两点连线与基准坐标y轴之间的夹角。
9.一种计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN202010875880.2A 2020-08-27 2020-08-27 静脉穿刺机器人控制方法、装置及计算机可读存储介质 Active CN112075981B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010875880.2A CN112075981B (zh) 2020-08-27 2020-08-27 静脉穿刺机器人控制方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010875880.2A CN112075981B (zh) 2020-08-27 2020-08-27 静脉穿刺机器人控制方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN112075981A CN112075981A (zh) 2020-12-15
CN112075981B true CN112075981B (zh) 2021-09-03

Family

ID=73728711

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010875880.2A Active CN112075981B (zh) 2020-08-27 2020-08-27 静脉穿刺机器人控制方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN112075981B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114287880A (zh) * 2021-12-08 2022-04-08 四川大学华西医院 一种基于红外图像处理的动物实验肿瘤早期成瘤监测方法
CN116746926B (zh) * 2023-08-16 2023-11-10 深圳市益心达医学新技术有限公司 基于图像识别的自动采血方法、装置、设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056594A (zh) * 2016-05-27 2016-10-26 四川桑莱特智能电气设备股份有限公司 一种基于双光谱的可见光图像提取***与方法
CN106510730A (zh) * 2016-12-15 2017-03-22 北京迈纳士手术机器人技术股份有限公司 静脉血管深度测量装置及采血机
CN109044498A (zh) * 2018-06-20 2018-12-21 复旦大学附属中山医院 一种动脉穿刺***和确定动脉穿刺位置的方法
CN109171651A (zh) * 2018-09-07 2019-01-11 东南大学 一种自动采血机器人
WO2019048269A1 (en) * 2017-09-05 2019-03-14 Koninklijke Philips N.V. GUIDING SYSTEM FOR VENOUS PUNCTION AND ARTERIAL LINE WITH INCREASED REALITY

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108836440B (zh) * 2018-03-21 2020-04-14 北京理工大学 一种穿刺辅助机器人的控制决策方法与***
CN111134727B (zh) * 2018-11-02 2022-12-20 无锡祥生医疗科技股份有限公司 基于神经网络的静脉与动脉识别的穿刺引导***
CN111035437A (zh) * 2019-05-28 2020-04-21 上海交通大学医学院附属第九人民医院 血管辅助穿刺***、机器人、方法和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106056594A (zh) * 2016-05-27 2016-10-26 四川桑莱特智能电气设备股份有限公司 一种基于双光谱的可见光图像提取***与方法
CN106510730A (zh) * 2016-12-15 2017-03-22 北京迈纳士手术机器人技术股份有限公司 静脉血管深度测量装置及采血机
WO2019048269A1 (en) * 2017-09-05 2019-03-14 Koninklijke Philips N.V. GUIDING SYSTEM FOR VENOUS PUNCTION AND ARTERIAL LINE WITH INCREASED REALITY
CN109044498A (zh) * 2018-06-20 2018-12-21 复旦大学附属中山医院 一种动脉穿刺***和确定动脉穿刺位置的方法
CN109171651A (zh) * 2018-09-07 2019-01-11 东南大学 一种自动采血机器人

Also Published As

Publication number Publication date
CN112075981A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
CN102542281B (zh) 非接触式生物特征识别方法和***
CN106156754B (zh) 一种基于最大外切矩阵感兴趣区域提取和双边滤波的手指多模态预处理方法
CN107292877B (zh) 一种基于眼底图像特征的左右眼识别方法
CN112075981B (zh) 静脉穿刺机器人控制方法、装置及计算机可读存储介质
CN109637660B (zh) 一种基于深度卷积神经网络的舌诊分析方法及***
CN107066942A (zh) 一种活体人脸识别方法及***
CN105760841B (zh) 一种身份识别方法及***
CN110930374A (zh) 一种基于双深度相机的腧穴定位方法
CN109934118A (zh) 一种手背静脉身份识别方法
CN107358612A (zh) 一种基于分形维数与高斯滤波结合的视网膜血管分割***及方法
CN104688184A (zh) 可见光皮肤图像的静脉显像方法
CN111445640A (zh) 基于虹膜识别的快递取件方法、装置、设备及存储介质
CN111339828B (zh) 基于红外影像和超声多普勒结合的静脉显影识别方法
CN108280448B (zh) 指静脉按压图的判别方法及装置、指静脉识别方法
CN116128814A (zh) 舌诊图像的标准化采集方法及相关装置
CN108921010A (zh) 一种瞳孔检测方法及检测装置
CN112183518B (zh) 静脉靶点自动确定方法、装置和设备
He et al. Automatic venous segmentation in venipuncture robot using deep learning
CN116580033B (zh) 一种基于图像块相似性匹配的多模态医学图像配准方法
CN113506274A (zh) 基于视觉显著性差异图的用于人体认知状况的检测***
CN110866235B (zh) 同时捕获人体脉搏和静脉图像的身份识别方法及装置
CN111626181A (zh) 人脸识别大数据分析方法
CN114898413B (zh) 一种复杂背景下的基于图像轮廓方向场的静脉识别方法
CN112861588A (zh) 一种活体检测的方法、装置
CN110490844A (zh) 一种电磁治疗仪罐印的识别方法、***、装置及治疗仪

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant