CN115359238A - 一种用于静脉穿刺的穿刺靶点识别与定位方法 - Google Patents

一种用于静脉穿刺的穿刺靶点识别与定位方法 Download PDF

Info

Publication number
CN115359238A
CN115359238A CN202210202422.1A CN202210202422A CN115359238A CN 115359238 A CN115359238 A CN 115359238A CN 202210202422 A CN202210202422 A CN 202210202422A CN 115359238 A CN115359238 A CN 115359238A
Authority
CN
China
Prior art keywords
puncture target
target point
feature
matching
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210202422.1A
Other languages
English (en)
Inventor
肖玲
欧阳浩
叶霖
韩斌
陈学东
杨新
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Zhiyihui Intelligent Technology Co ltd
Original Assignee
Wuhan Zhiyihui Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Zhiyihui Intelligent Technology Co ltd filed Critical Wuhan Zhiyihui Intelligent Technology Co ltd
Priority to CN202210202422.1A priority Critical patent/CN115359238A/zh
Publication of CN115359238A publication Critical patent/CN115359238A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种用于静脉穿刺的穿刺靶点识别与定位方法,包括以下步骤:步骤S1、利用双目相机分别获取左右手臂图像,并分别保存为左相机拍摄图像和右相机拍摄图像;步骤S2、将所述左相机拍摄图像和右相机拍摄图像依次进行支持向量机检测、卷积神经网络的特征匹配以及灰度直方图分析得到左右手臂的矩形包络框、匹配特征点以及灰度信息;步骤S3、基于所述左右手臂的矩形包络框、匹配特征点以及灰度信息选取出用于静脉穿刺的最优匹配特征点,再利用所述双目相机的标定参数计算出最优穿刺靶点的三维坐标,以实现所述穿刺靶点的识别。本发明直接对穿刺靶点进行识别和定位,能够高效率和高精度的寻找到最佳的穿刺靶点。

Description

一种用于静脉穿刺的穿刺靶点识别与定位方法
技术领域
本发明涉及生物医药与生命健康技术领域,具体涉及一种用于静脉穿刺的穿刺靶点识别与定位方法。
背景技术
现阶段,在应对重大传染性疾病时,提供诊疗和护理的医务人员主要依靠人工操作对患者实施采样、输液、静脉穿刺等操作。首先,由于跟患者近距离接触,大大提高了这些医务人员的感染风险;其次,频繁的穿刺和采血等操作,容易造成***,增加医护人员血源性感染的风险;此外,***也增加了其他血源性传播疾病的发病风险,如乙肝、梅毒和艾滋等,严重危害护理人员的身心健康。中国专利CN201921953205.6提出了新型的自动静脉注射仪器,能够达到自动注射的目的。但是,其在使用时依旧存在如下问题:全自动静脉穿刺过程中穿刺靶点识别与定位较为困难,不能够准确地找到穿刺靶点,不仅会给患者带来不适,还会影响静脉注射的效率。
发明内容
本发明的目的在于提供一种用于静脉穿刺的穿刺靶点识别与定位方法,以解决现有技术中全自动静脉穿刺过程中穿刺靶点识别与定位较为困难,不能够准确地找到穿刺靶点,不仅会给患者带来不适,还会影响静脉注射的效率的技术问题。
为解决上述技术问题,本发明具体提供下述技术方案:
一种用于静脉穿刺的穿刺靶点识别与定位方法,包括以下步骤:
步骤S1、利用双目相机分别获取左右手臂图像,并分别保存为左相机拍摄图像和右相机拍摄图像;
步骤S2、将所述左相机拍摄图像和右相机拍摄图像依次进行支持向量机检测、卷积神经网络的特征匹配以及灰度直方图分析得到左右手臂的矩形包络框、匹配特征点以及灰度信息;
步骤S3、基于所述左右手臂的矩形包络框、匹配特征点以及灰度信息选取出用于静脉穿刺的最优匹配特征点,再利用所述双目相机的标定参数计算出最优穿刺靶点的三维坐标,以实现所述穿刺靶点的识别。
作为本发明的一种优选方案,在将所述左相机拍摄图像和右相机拍摄图像依次进行靶血管边界框检测和靶血管特征点匹配前,利用SVM算法提取穿刺区域的矩形包络框。通过对矩形包络框内的图像而不是拍摄的完整图像进行后续特征点匹配和基于灰度值的特征点筛选来提高检测效率。
作为本发明的一种优选方案,提出基于神经网络的特征匹配方法进行所述靶血管特征点匹配,所述基于神经网络的特征匹配方法,包括以下步骤:
步骤一、利用SIFT检测拍摄图像中的特征点,依次以每个特征点为中心生成多个特征点块,并依次对每个特征点块施加扰动,所述扰动施加的计算公式为:
x′i=xi+ε,ε~N(0,σ2);
σ2∈(0.01,0.09);
式中,xi表征为原有特征点块,x′i表征为施加扰动后的特征点块,N表征高斯分布函数;
步骤二、从除SIFT检测的所述拍摄图像外的另一拍摄图像中提取特征点块xn。利用深度残差网络Resnet-50对特征点块进行特征提取得到所述特征点块对应的特征向量F(xi),F(x′i)和F(xn)。
步骤三、采用三元组损失进行模型训练,其中,模型训练的约束条件包括F(xi)和F(x′i)的欧拉距离要小于F(xi)和F(xn)的欧拉距离,所述模型训练的损失函数为:
L=max{0,||F(xi)-F(x′i)||-||F(xi)-F(xn)||+μ};
式中,||F(xi)-F(x′i)||表示F(xi)和F(x′i)的欧拉距离,μ为预设常数,设定μ=0.3。
模型训练结束后,利用训练后的模型进行靶血管特征点匹配。
作为本发明的一种优选方案,利用训练后的模型进行靶血管特征点匹配,包括:
针对左相机拍摄图像IL和右相机拍摄图像IR,以每一个像素点为中心,生成预设大小的特征点块,得到IL i和IR j,其中IL i代表左相机拍摄图像的第i 个特征点块,IR j代表右相机拍摄图像的第j个特征点块i,j∈[0,M-1],M是特征点块的数量;
利用训练好的模型提取特征点块的特征向量,并计算IL i和IR j的特征向量的欧拉距离,按照欧拉距离从小到大的方式选择指定数量的特征点块对,所述特征点块对的中心标定为匹配特征点。
作为本发明的一种优选方案,所述基于灰度值信息对提取出的所述匹配特征点进行筛选,包括:
步骤1:对所述矩形包络框内的图像进行灰度直方图分析;
步骤2:在所述矩形包络框内的图像中筛选出灰度值较大的前20%的匹配特征点;
步骤3:在步骤2得到匹配特征点中去除周围特征点较少的孤点,并从剩余特征点中选择最大灰度值对应的匹配特征点作为初始穿刺靶点;
步骤4:若选择的初始穿刺靶点不唯一,则在多个初始穿刺靶点中随机选择一个作为最优穿刺靶点,不作二次选择以提高定位效率;
若选择的初始穿刺靶点唯一,则其为最优穿刺靶点。
作为本发明的一种优选方案,在所述最优穿刺靶点的三维坐标求解值不唯一时,则在所有求解值中随机选取一求解值作为最优穿刺靶点的三维坐标。
作为本发明的一种优选方案,在获取到最优匹配特征点之后,利用张氏标定法基于所述双目相机的标定参数计算出最优穿刺靶点的三维坐标。
作为本发明的一种优选方案,选取高精度视差估计算法提高双目相机的标定参数的求解精度。
作为本发明的一种优选方案,将所述最优穿刺靶点的三维坐标的求解约束条件设定为所述最优穿刺靶点的三维坐标在所述矩形包络框的三维坐标范围内,且所述最优穿刺靶点的灰度值大于灰度阈值g;
优选的,灰度阈值g的预设方法包括:
根据灰度直方图分析结果选取出灰度值最高的峰点Gmax,得到灰度阈值 g的取值区间为Gmax-10<g<Gmax
本发明与现有技术相比较具有如下有益效果:
本发明提出一种基于神经网络的特征匹配方法可以实现对左相机拍摄图像和右相机拍摄图像的匹配特征点进行精确的提取。本发明提出一种穿刺靶点识别与定位方法,该方法可以高精度、高效率地从图像中提取出穿刺靶点。本发明可用于全自动静脉穿刺机器人。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。
图1为本发明实施例提供的穿刺靶点识别与定位方法流程图;
图2为本发明实施例提供的穿刺靶点识别与定位方法的***框图;
图3为本发明实施例提供的特征匹配方法CNN-FM的流程图;
图4为本发明实施例提供的靶血管匹配特征点检测流程图;
图5为本发明实施例提供的穿刺靶点选取算法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-5所示,本发明提供了一种用于静脉穿刺的穿刺靶点识别与定位方法,包括以下步骤:
步骤S1、利用双目相机分别获取左右手臂图像,并分别保存为左相机拍摄图像和右相机拍摄图像;
步骤S2、将所述左相机拍摄图像和右相机拍摄图像依次进行靶血管边界框检测和靶血管特征点匹配得到左右手臂的匹配特征点;
在将所述左相机拍摄图像和右相机拍摄图像依次进行靶血管边界框检测和靶血管特征点匹配前,利用SVM算法提取穿刺区域的矩形包络框。通过对矩形包络框内的图像而不是拍摄的完整图像进行后续特征点匹配和基于灰度值的特征点筛选来提高检测效率。
利用基于神经网络的特征匹配方法进行所述靶血管特征点匹配,所述基于神经网络的特征匹配方法,包括以下步骤:
步骤一、利用SIFT检测拍摄图像中的特征点,依次以每个特征点为中心生成多个特征点块,并依次对每个特征点块施加扰动,所述扰动施加的计算公式为:
x′i=xi+ε,ε~N(0,σ2);
σ2∈(0.01,0.09);
式中,xi表征为原有特征点块,x′i表征为施加扰动后的特征点块,N表征高斯分布函数;
步骤二、从除SIFT检测的所述拍摄图像外的另一拍摄图像中提取特征点块xn。利用深度残差网络Resnet-50对特征点块进行特征提取得到所述特征点块对应的特征向量F(xi),F(x′i)和F(xn)。
步骤三、采用三元组损失进行模型训练,其中,模型训练的约束条件包括F(xi)和F(x′i)的欧拉距离要小于F(xi)和F(xn)的欧拉距离,所述模型训练的损失函数为:
L=max{0,||F(xi)-F(x′i)||-||F(xi)-F(xn)||+μ};
式中,||F(xi)-F(x′i)||表示F(xi)和F(x′i)的欧拉距离,μ为预设常数,设定μ=0.3。
模型训练结束后,利用训练后的模型进行靶血管特征点匹配。
利用训练后的模型进行靶血管特征点匹配,包括:
针对左相机拍摄图像IL和右相机拍摄图像IR,以每一个像素点为中心,生成预设大小的特征点块,比如9×9大小,得到IL i和IR j,其中IL i代表左相机拍摄图像的第i个特征点块,IR j代表右相机拍摄图像的第j个特征点块 i,j∈[0,M-1],M是特征点块的数量,具体的,一个224×224大小的图像可以生成216×216=46656个特征点块;
利用训练好的模型提取特征点块的特征向量,并计算IL i和IR j的特征向量的欧拉距离,按照欧拉距离从小到大的方式选择指定数量的特征点块对,所述特征点块对的中心标定为匹配特征点。
步骤S3、基于灰度值信息对提取出的所述匹配特征点进行筛选得到用于静脉穿刺的最优匹配特征点,再利用所述双目相机的标定参数计算出最优穿刺靶点的三维坐标,以实现所述穿刺靶点的识别。
所述基于灰度值信息对提取出的所述匹配特征点进行筛选,包括:
步骤1:对所述矩形包络框内的图像进行灰度直方图分析;
步骤2:在所述矩形包络框内的图像中筛选出灰度值较大的前20%的匹配特征点;
步骤3:在步骤2得到匹配特征点中去除周围特征点较少的孤点,并从剩余特征点中选择最大灰度值对应的匹配特征点作为初始穿刺靶点;
步骤4:若选择的初始穿刺靶点不唯一,则在多个初始穿刺靶点中随机选择一个作为最优穿刺靶点,不作二次选择以提高定位效率;
若选择的初始穿刺靶点唯一,则其为最优穿刺靶点。
在所述最优穿刺靶点的三维坐标求解值不唯一时,则在所有求解值中随机选取一求解值作为最优穿刺靶点的三维坐标。
在获取到最优匹配特征点之后,利用张氏标定法基于所述双目相机的标定参数计算出最优穿刺靶点的三维坐标。
选取高精度视差估计算法提高双目相机的标定参数的求解精度。
将所述最优穿刺靶点的三维坐标的求解约束条件设定为所述最优穿刺靶点的三维坐标在所述矩形包络框的三维坐标范围内,且所述最优穿刺靶点的灰度值大于灰度阈值g;
优选的,灰度阈值g的预设方法包括:
根据灰度直方图分析结果选取出灰度值最高的峰点Gmax,得到灰度阈值 g的取值区间为Gmax-10<g<Gmax
在所述最优穿刺靶点的三维坐标求解值不唯一时,则在所有求解值中随机选取一求解值作为最优穿刺靶点的三维坐标。
提出一种基于神经网络的特征匹配方法可以实现对左相机拍摄图像和右相机拍摄图像的匹配特征点进行精确的提取。
本发明提供的一种基于神经网络的特征匹配方法可以实现对左相机拍摄图像和右相机拍摄图像的匹配特征点进行精确的提取。本发明提供的穿刺靶点识别与定位方法,可以对穿刺靶点进行识别和定位,能够准确的寻找到最佳的穿刺靶点,从而便于高效率和高精度的完成全自动静脉穿刺。
以上实施例仅为本申请的示例性实施例,不用于限制本申请,本申请的保护范围由权利要求书限定。本领域技术人员可以在本申请的实质和保护范围内,对本申请做出各种修改或等同替换,这种修改或等同替换也应视为落在本申请的保护范围内。

Claims (9)

1.一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于,包括以下步骤:
步骤S1、利用双目相机分别获取左右手臂图像,并分别保存为左相机拍摄图像和右相机拍摄图像;
步骤S2、将所述左相机拍摄图像和右相机拍摄图像依次进行支持向量机检测、卷积神经网络的特征匹配以及灰度直方图分析得到左右手臂的矩形包络框、匹配特征点以及灰度信息;
步骤S3、基于所述左右手臂的矩形包络框、匹配特征点以及灰度信息选取出用于静脉穿刺的最优匹配特征点,再利用所述双目相机的标定参数计算出最优穿刺靶点的三维坐标,以实现所述穿刺靶点的识别。
2.根据权利要求1所述的一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于:在将所述左相机拍摄图像和右相机拍摄图像依次进行靶血管边界框检测和靶血管特征点匹配前,利用SVM算法提取穿刺区域的矩形包络框。通过对矩形包络框内的图像而不是拍摄的完整图像进行后续特征点匹配和基于灰度值的特征点筛选来提高检测效率。
3.根据权利要求1所述的一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于:提出基于神经网络的特征匹配方法进行所述靶血管特征点匹配,所述基于神经网络的特征匹配方法,包括以下步骤:
步骤一、利用SIFT检测拍摄图像中的特征点,依次以每个特征点为中心生成多个特征点块,并依次对每个特征点块施加扰动,所述扰动施加的计算公式为:
x′i=xi+ε,ε~N(0,σ2);
σ2∈(0.01,0.09);
式中,xi表征为原有特征点块,x′i表征为施加扰动后的特征点块,N表征高斯分布函数;
步骤二、从除SIFT检测的所述拍摄图像外的另一拍摄图像中提取特征点块xn。利用深度残差网络Resnet-50对特征点块进行特征提取得到所述特征点块对应的特征向量F(xi),F(x′i)和F(xn)。
步骤三、采用三元组损失进行模型训练,其中,模型训练的约束条件包括F(xi)和F(x′i)的欧拉距离要小于F(xi)和F(xn)的欧拉距离,所述模型训练的损失函数为:
L=max{0,||F(xi)-F(x′i)||-||F(xi)-F(xn)||+μ};
式中,||F(xi)-F(x′i)||表示F(xi)和F(xi′)的欧拉距离,μ为预设常数,设定μ=0.3。
模型训练结束后,利用训练后的模型进行靶血管特征点匹配。
4.根据权利要求3所述的一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于:利用训练后的模型进行靶血管特征点匹配,包括:
针对左相机拍摄图像IL和右相机拍摄图像IR,以每一个像素点为中心,生成预设大小的特征点块,得到IL i和IR j,其中IL i代表左相机拍摄图像的第i个特征点块,IR j代表右相机拍摄图像的第j个特征点块。其中,i,j∈[0,M-1],M是特征点块的数量;
利用训练好的模型提取特征点块的特征向量,并计算IL i和IR j的特征向量的欧拉距离,按照欧拉距离从小到大的方式选择指定数量的特征点块对,所述特征点块对的中心标定为匹配特征点。
5.根据权利要求1所述的一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于:所述基于灰度值信息对提取出的所述匹配特征点进行筛选,包括:
步骤1:对所述矩形包络框内的图像进行灰度直方图分析;
步骤2:在所述矩形包络框内的图像中筛选出灰度值较大的前20%的匹配特征点;
步骤3:在步骤2得到匹配特征点中去除周围特征点较少的孤点,并从剩余特征点中选择最大灰度值对应的匹配特征点作为初始穿刺靶点;
步骤4:若选择的初始穿刺靶点不唯一,则在多个初始穿刺靶点中随机选择一个作为最优穿刺靶点,不作二次选择以提高定位效率;
若选择的初始穿刺靶点唯一,则其为最优穿刺靶点。
6.根据权利要求1所述的一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于:在所述最优穿刺靶点的三维坐标求解值不唯一时,则在所有求解值中随机选取一求解值作为最优穿刺靶点的三维坐标。
7.根据权利要求1所述的一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于,获取到最优匹配特征点之后,利用张氏标定法基于所述双目相机的标定参数计算出最优穿刺靶点的三维坐标。
8.根据权利要求1所述的一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于,选取高精度视差估计算法提高双目相机的标定参数的求解精度。
9.根据权利要求1所述的一种用于静脉穿刺的穿刺靶点识别与定位方法,其特征在于:将所述最优穿刺靶点的三维坐标的求解约束条件设定为所述最优穿刺靶点的三维坐标在所述矩形包络框的三维坐标范围内,且所述最优穿刺靶点的灰度值大于灰度阈值g;
优选的,灰度阈值g的预设方法包括:
根据灰度直方图分析结果选取出灰度值最高的峰点Gmax,得到灰度阈值g的取值区间为Gmax-10<g<Gmax
CN202210202422.1A 2022-03-03 2022-03-03 一种用于静脉穿刺的穿刺靶点识别与定位方法 Pending CN115359238A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210202422.1A CN115359238A (zh) 2022-03-03 2022-03-03 一种用于静脉穿刺的穿刺靶点识别与定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210202422.1A CN115359238A (zh) 2022-03-03 2022-03-03 一种用于静脉穿刺的穿刺靶点识别与定位方法

Publications (1)

Publication Number Publication Date
CN115359238A true CN115359238A (zh) 2022-11-18

Family

ID=84030498

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210202422.1A Pending CN115359238A (zh) 2022-03-03 2022-03-03 一种用于静脉穿刺的穿刺靶点识别与定位方法

Country Status (1)

Country Link
CN (1) CN115359238A (zh)

Similar Documents

Publication Publication Date Title
CN111161290B (zh) 一种图像分割模型的构建方法、图像分割方法及***
CN109859203B (zh) 基于深度学习的缺陷牙齿图像识别方法
EP2888718B1 (en) Methods and systems for automatic location of optic structures in an image of an eye, and for automatic retina cup-to-disc ratio computation
CN108765392B (zh) 一种基于滑动窗口的消化道内镜病变检测和识别方法
CN110338759B (zh) 一种正面疼痛表情数据采集方法
CN111563910B (zh) 眼底图像分割方法及设备
CN108510493A (zh) 医学图像内目标对象的边界定位方法、存储介质及终端
CN110766656A (zh) 筛查眼底黄斑区异常的方法、装置、设备和存储介质
CN109241963A (zh) 基于Adaboost机器学习的胶囊胃镜图像中出血点智能识别方法
CN108898601B (zh) 基于随机森林的股骨头图像分割装置及分割方法
CN110619621B (zh) 识别图像中肋骨区域的方法、装置、电子设备和存储介质
CN115359238A (zh) 一种用于静脉穿刺的穿刺靶点识别与定位方法
CN112704566A (zh) 手术耗材核查方法及手术机器人***
CN110415246B (zh) 一种腹部脂肪成分的分析方法
CN112712016A (zh) 手术器械识别方法、识别平台及医疗机器人***
CN109816665B (zh) 一种光学相干断层扫描图像的快速分割方法及装置
WO2023169108A1 (zh) 目标区域的定位方法、电子设备、介质
EP4082444A1 (en) Automatic frame selection for 3d model construction
WO2023193175A1 (zh) 一种基于超声图像的穿刺针实时检测方法及装置
US20240020823A1 (en) Assistance diagnosis system for lung disease based on deep learning and assistance diagnosis method thereof
CN115239751A (zh) 一种术后影像针道提取方法
CN111292285A (zh) 一种基于朴素贝叶斯与支持向量机的糖网病自动筛查方法
CN114708404A (zh) 基于机器学习的端到端手术穿刺路径自动规划方法及***
Rashmi et al. Extended template matching method for region of interest extraction in cephalometric landmarks annotation
CN113270163A (zh) 基于人工智能的li-rads诊断报告生成***及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination