CN117831082A - 手掌区域检测方法和装置 - Google Patents
手掌区域检测方法和装置 Download PDFInfo
- Publication number
- CN117831082A CN117831082A CN202311874343.6A CN202311874343A CN117831082A CN 117831082 A CN117831082 A CN 117831082A CN 202311874343 A CN202311874343 A CN 202311874343A CN 117831082 A CN117831082 A CN 117831082A
- Authority
- CN
- China
- Prior art keywords
- palm
- corner
- image
- images
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 94
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000012216 screening Methods 0.000 claims abstract description 11
- 238000012549 training Methods 0.000 claims description 70
- 238000004590 computer program Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 10
- 238000000034 method Methods 0.000 description 33
- 230000008569 process Effects 0.000 description 22
- 238000011176 pooling Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 230000036961 partial effect Effects 0.000 description 8
- 210000003811 finger Anatomy 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 230000002441 reversible effect Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 101100412394 Drosophila melanogaster Reg-2 gene Proteins 0.000 description 1
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 101150115304 cls-2 gene Proteins 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 210000004932 little finger Anatomy 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本申请公开了一种手掌区域检测方法和装置,属于图像处理技术领域。所述手掌区域检测方法包括:基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像;第一图像包括候选角点特征;基于第二级网络对各候选角点特征进行类型识别,并基于识别得到的角点类型对多张第一图像进行筛选处理,得到多张第二图像;第二图像包括目标角点特征以及目标角点特征对应的目标位置信息,目标角点特征对应有角点类型;基于各目标角点特征对应的角点类型以及目标位置信息,对初始手掌图像进行区域定位,确定目标手掌区域;目标手掌区域为手掌中包括至少部分掌纹特征的区域。本申请的手掌区域检测方法,检测的精确度和准确度较高。
Description
技术领域
本申请属于图像处理技术领域,尤其涉及一种手掌区域检测方法和装置。
背景技术
在对手掌进行生物特征识别过程中,需要基于手掌图像中的手掌感兴趣区域进行生物特征识别。相关技术中存在基于神经网络进行手掌区域检测的方法,常用的手掌区域检测方法检测精度较低,经常出现误检,另外,常用的神经网络的推理速度较慢,无法满足手掌识别的速度要求。
发明内容
本申请旨在至少解决现有技术中存在的技术问题之一。为此,本申请提出一种手掌区域检测方法和装置,检测的精确度和准确度较高,在保证了精度的同时还提高了网络的推理速度,能够较快地从手掌图像中提取得到手掌区域,从而满足了手掌识别的速度要求。
第一方面,本申请提供了一种手掌区域检测方法,该方法包括:
基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像;所述第一图像包括候选角点特征;所述第一级网络基于第一训练集训练得到;
基于第二级网络对各所述候选角点特征进行类型识别,并基于识别得到的角点类型对所述多张第一图像进行筛选处理,得到多张第二图像;所述第二图像包括目标角点特征以及所述目标角点特征对应的目标位置信息,所述目标角点特征对应有角点类型;所述第二级网络基于第二训练集训练得到;
基于各所述目标角点特征对应的角点类型以及所述目标位置信息,对所述初始手掌图像进行区域定位,确定目标手掌区域;所述目标手掌区域为手掌中包括至少部分掌纹特征的区域。
根据本申请实施例提供的手掌区域检测方法,通过第一级网络对初始手掌图像进行特征提取,能够在整个手掌图中粗略检测出多个潜在的角点目标,并将多个潜在的角点目标输入至第二级网络,第二级网络可以对多个潜在角点目标进行精准判断和位置调整,以得到多个目标角点,从而能够基于目标角点从初始手掌图像中提取出目标手掌区域,通过第一级网络和第二级网络检测得到目标手掌区域,在手掌姿态发生变化的情况下也能够精准检测到目标手掌区域,检测的精确度和准确度较高,在保证了精度的同时还提高了网络的推理速度,能够较快地从手掌图像中提取得到手掌区域,从而满足了手掌识别的速度要求。
本申请一个实施例的手掌区域检测方法,所述基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像,包括:
基于所述初始手掌图像和所述第一级网络,对所述初始手掌图像中多个第一候选角点进行位置预测,得到各所述第一候选角点对应的第一预测像素位置以及第一预测偏移信息;
基于多个第一预测偏移信息和所述第一级网络对应的目标参数,对所述第一预测像素位置进行修正处理,得到所述多张第一图像;所述目标参数包括:下采样倍数和输入尺寸中的至少一种。
本申请一个实施例的手掌区域检测方法,所述基于所述初始手掌图像和所述第一级网络,对所述初始手掌图像中多个第一候选角点进行位置预测,得到各所述第一候选角点对应的第一预测像素位置以及第一预测偏移信息,包括:
基于多个缩放比例,对所述初始手掌图像进行缩放处理,得到多个尺寸不同的第一手掌图像;
将多个所述第一手掌图像中目标手掌图像输入至所述第一级网络,获取所述第一级网络输出的多个第一候选角点图像、各所述第一候选角点图像中所述第一候选角点对应的第一预测偏移信息以及各所述第一候选角点对应的第一预测像素位置;各所述第一候选角点图像对应有第一概率;
所述基于多个第一预测偏移信息和所述第一级网络对应的目标参数,对所述第一预测像素位置进行修正处理,得到所述多张第一图像,包括:
在所述第一概率大于第一阈值的情况下,将所述第一概率对应的第一候选角点确定为第一角点;
基于所述第一级网络对应的下采样倍数、所述目标手掌图像对应的缩放比例、各所述第一角点对应的第一预测偏移信息以及所述第一级网络对应的输入尺寸,对各所述第一角点对应的第一预测像素位置进行修正,得到各所述第一角点在所述初始手掌图像上的第二预测像素位置;
基于多个所述第二预测像素位置对多个所述第一角点对应的图像进行去重处理,得到所述多张第一图像。
本申请一个实施例的手掌区域检测方法,所述基于第二级网络对各所述候选角点特征进行类型识别,并基于识别得到的角点类型对所述多张第一图像进行筛选处理,得到多张第二图像,包括:
基于所述第二级网络的输入尺寸,对所述多张第一图像进行缩放处理,得到多张第四图像;
将所述多张第四图像输入至所述第二级网络,得到所述第二级网络输出的各所述角点类型对应的至少一个第二候选角点图像以及各所述第二候选角点图像中第二候选角点对应的第二预测偏移信息;各所述第二候选角点图像对应有第二概率;
在所述第二概率大于第二阈值的情况下,将所述第二概率对应的第二候选角点确定为第二角点;
基于所述第二角点对应的第二预测偏移信息对所述第二角点对应的第二预测像素位置进行修正,并基于修正后的第二角点对应的图像,得到多张第二图像;所述第二预测像素位置为基于所述第一级网络对所述初始手掌图像进行处理得到的。
本申请一个实施例的手掌区域检测方法,所述第一训练集基于如下步骤获取:
获取样本手掌图像;
对所述样本手掌图像进行手工标记,得到多个第一正样本图像和多个第一负样本图像;所述第一正样本图像包括样本角点特征和所述样本角点特征对应的第一标记;所述第一负样本图像包括背景特征和所述背景特征对应的第二标记;
从所述样本手掌图像中随机确定待标记区域;
分别计算所述待标记区域与各所述第一正样本图像之间的面积交并比,得到多个第一面积交并比值;分别计算所述待标记区域和各所述第一负样本图像之间的面积交并比,得到多个第二面积交并比值;
基于所述多个第一面积交并比值、所述多个第二面积交并比值和目标比值阈值,对各所述待标记区域进行标记,得到多个第二正样本图像、多个第二负样本图像以及多个中间样本图像;所述第二正样本图像包括样本角点特征和所述样本角点特征对应的第一标记;所述第二负样本图像包括背景特征和所述背景特征对应的第二标记;所述中间样本图像包括所述样本角点特征和所述背景特征;
基于所述多个第一正样本图像、所述多个第一负样本图像、多个第二正样本图像、多个第二负样本图像以及多个中间样本图像,得到所述第一训练集;所述多个第一正样本图像、所述多个第一负样本图像、所述多个第二正样本图像、所述多个第二负样本图像以及所述多个中间样本图像的图像尺寸与所述第一级网络的输入尺寸相同。
本申请一个实施例的手掌区域检测方法,所述基于所述多个第一面积交并比值、所述多个第二面积交并比值和目标比值阈值,对各所述待标记区域进行标记,得到多个第二正样本图像、多个第二负样本图像以及多个中间样本图像,包括:
在所述多个第一面积交并比值均不小于第一比值阈值的情况下,将所述待标记区域对应的标记确定为所述第一标记,得到所述第二正样本图像;
在所述多个第一面积交并比值均小于第二比值阈值的情况下,将所述待标记区域对应的标记确定为所述第二标记,得到所述第二负样本图像;所述第二比值阈值小于所述第一比值阈值;
在所述多个第一面积交并比值均不小于第三比值阈值且小于所述第一比值阈值的情况下,将所述待标记区域确定为所述中间样本图像;所述第三比值阈值大于所述第二比值阈值且小于所述第一比值阈值;
在所述多个第二面积交并比值均不小于所述第一比值阈值的情况下,将所述待标记区域对应的标记确定为所述第二标记,得到所述第二负样本图像。
本申请一个实施例的手掌区域检测方法,所述第二级网络基于如下步骤训练得到:
获取所述第二训练集;所述第二训练集包括样本第一图像以及所述样本第一图像对应的标记信息;
对所述样本第一图像进行缩放处理,得到至少一个样本第四图像;
将所述至少一个样本第四图像输入至所述第二级网络,得到所述第二级网络输出的各所述角点类型对应的至少一个第二样本候选角点图像以及各所述第二样本候选角点图像中第二样本候选角点对应的第二位置偏移信息;各所述第二样本候选角点图像对应有第二概率;所述第二位置偏移信息基于所述第二样本候选角点对应的第三预测像素位置以及所述第二样本候选角点对应的第一实际像素位置之间的偏移量确定;所述第三预测像素位置为所述第二级网络输出的所述第二样本候选角点对应的预测像素位置;
在所述第二概率大于第二阈值的情况下,将所述第二概率对应的第二样本候选角点确定为第二样本角点;
基于所述第二样本角点对应的第二位置偏移信息对所述第三预测像素位置进行修正,并基于修正后的第二样本角点对应的图像,得到多张第五图像。
本申请一个实施例的手掌区域检测方法,所述基于各所述目标角点特征对应的角点类型以及所述目标位置信息,对所述初始手掌图像进行区域定位,确定目标手掌区域,包括:
基于各所述目标角点特征对应的角点类型以及各目标角点特征对应的目标位置信息,对目标类型的多个第一角点进行拟合处理,得到目标直线;
基于所述多个目标角点特征中除所述多个第一角点外的第二角点与所述目标直线之间的垂线,计算得到所述垂线与所述初始手掌图像对应的纵轴之间的旋转角度;
基于所述旋转角度,校正所述初始手掌图像,得到第二手掌图像以及所述第二手掌图像中校正后的目标角点特征以及所述校正后的目标角点特征对应的目标位置信息;
基于所述校正后的目标角点特征对应的目标位置信息,对所述初始手掌图像进行区域定位,确定所述目标手掌区域。
第二方面,本申请提供了一种手掌区域检测装置,该装置包括:
第一处理模块,用于基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像;所述第一图像包括候选角点特征;所述第一级网络基于第一训练集训练得到;
第二处理模块,用于基于第二级网络对各所述候选角点特征进行类型识别,并基于识别得到的角点类型对所述多张第一图像进行筛选处理,得到多张第二图像;所述第二图像包括目标角点特征以及所述目标角点特征对应的目标位置信息,所述目标角点特征对应有角点类型;所述第二级网络基于第二训练集训练得到;
第三处理模块,用于基于各所述目标角点特征对应的角点类型以及所述目标位置信息,对所述初始手掌图像进行区域定位,确定目标手掌区域;所述目标手掌区域为手掌中包括至少部分掌纹特征的区域。
根据本申请实施例提供的手掌区域检测装置,通过第一级网络对初始手掌图像进行特征提取,能够在整个手掌图中粗略检测出多个潜在的角点目标,并将多个潜在的角点目标输入至第二级网络,第二级网络可以对多个潜在角点目标进行精准判断和位置调整,以得到多个目标角点,从而能够基于目标角点从初始手掌图像中提取出目标手掌区域,通过第一级网络和第二级网络检测得到目标手掌区域,在手掌姿态发生变化的情况下也能够精准检测到目标手掌区域,检测的精确度和准确度较高,在保证了精度的同时还提高了网络的推理速度,能够较快地从手掌图像中提取得到手掌区域,从而满足了手掌识别的速度要求。
第三方面,本申请提供了一种电子设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上述第一方面所述的手掌区域检测方法。
第四方面,本申请提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的手掌区域检测方法。
第五方面,本申请提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现如上述第一方面所述的手掌区域检测方法。
本申请实施例中的上述一个或多个技术方案,至少具有如下技术效果之一:
通过第一级网络对初始手掌图像进行特征提取,能够在整个手掌图中粗略检测出多个潜在的角点目标,并将多个潜在的角点目标输入至第二级网络,第二级网络可以对多个潜在角点目标进行精准判断和位置调整,以得到多个目标角点,从而能够基于目标角点从初始手掌图像中提取出目标手掌区域,通过第一级网络和第二级网络检测得到目标手掌区域,在手掌姿态发生变化的情况下也能够精准检测到目标手掌区域,检测的精确度和准确度较高,在保证了精度的同时还提高了网络的推理速度,能够较快地从手掌图像中提取得到手掌区域,从而满足了手掌识别的速度要求。
进一步地,通过不同的缩放比例对初始手掌图像进行缩放,以构建得到图像金字塔,在实际应用中,在手掌与采集终端之间的距离发生变化,手掌在手掌图像中所占的比例不同的情况下,第一级网络也能精准输出手掌图像中的潜在角点目标,提高了第一级网络的预测精确度和准确度;通过对图像金字塔中每层所包括的多张第一手掌图像进行非极大值抑制去重处理,能够减少下一级网络的输入数量,减少了数据冗余,进而能够提高网络的推理速度。
更进一步地,通过手工先标注出正样本和负样本,然后通过计算样本手掌图像中的待标记区域与正样本和负样本之间的面积交并比,能够在正样本或负样本附近生成更多的正样本数据、中间样本数据以及负样本数据,结合了手工标注和自动化生成的方式为网络提供了大量有价值的训练样本,通过对负样本进行标注,在手掌闭合的情况下也不会误检,提高了网络的检测精确度和准确度。
本申请的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本申请实施例提供的手掌区域检测方法的流程示意图;
图2是本申请实施例提供的手掌区域检测方法的原理示意图之一;
图3是本申请实施例提供的手掌区域检测方法的原理示意图之二;
图4是本申请实施例提供的手掌区域检测方法的原理示意图之三;
图5是本申请实施例提供的手掌区域检测方法的原理示意图之四;
图6是本申请实施例提供的手掌区域检测方法的原理示意图之五;
图7是本申请实施例提供的手掌区域检测方法的原理示意图之六;
图8是本申请实施例提供的手掌区域检测装置的结构示意图;
图9是本申请实施例提供的电子设备的结构示意图;
图10是本申请实施例提供的手掌区域检测方法的原理示意图之七。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
下面结合附图,通过具体的实施例及其应用场景对本申请实施例提供的手掌区域检测方法、手掌区域检测装置、电子设备和可读存储介质进行详细地说明。
其中,手掌区域检测方法可应用于终端,具体可由,终端中的硬件或软件执行。
该终端包括但不限于具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的移动电话或平板电脑等便携式通信设备。还应当理解的是,在某些实施例中,该终端可以不是便携式通信设备,而是具有触摸敏感表面(例如,触摸屏显示器和/或触摸板)的台式计算机。
以下各个实施例中,描述了包括显示器和触摸敏感表面的终端。然而,应当理解的是,终端可以包括诸如物理键盘、鼠标和控制杆的一个或多个其它物理用户接口设备。
本申请实施例提供的手掌区域检测方法,该手掌区域检测方法的执行主体可以为电子设备或者电子设备中能够实现该手掌区域检测方法的功能模块或功能实体,本申请实施例提及的电子设备包括但不限于手机、平板电脑、电脑、相机和可穿戴设备等,下面以电子设备作为执行主体为例对本申请实施例提供的手掌区域检测方法进行说明。
如图1所示,该手掌区域检测方法包括:步骤110、步骤120和步骤130。
步骤110、基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像;第一图像包括候选角点特征;第一级网络基于第一训练集训练得到。
在该步骤中,在对手掌进行生物特征识别的过程中,需要采集得到用户的手掌图像,例如,在对手掌进行掌纹或掌静脉识别时,需要基于采集终端获取初始手掌图像。
例如,在用户刷掌识别通过地铁闸机口时,采集终端可以为设置于闸机口的识别终端。
采集终端还可以为移动采集终端,例如,采集终端可以为用户的手机等设备。
初始手掌图像可以包括用户手掌的掌纹特征和角点特征等。
对初始手掌图像进行特征提取,可以得到多张第一图像。
第一图像包括候选角点特征,第一图像为潜在的角点目标的图像。
候选角点特征可以包括:角点特征和背景特征。
多张第一图像可以包括:包含全部角点特征的图像以及包含大部分角点特征和小部分背景特征的图像。
如图2所示,角点特征如图中A、B、C和D所示,背景特征如图中N所示。
如图3所示,第一级网络可以为卷积神经网络或者其他任意可以实现本功能的神经网络,本申请不作限定。
在第一级网路为卷积神经网络的情况下,第一级网络可以包括最大池化(MaxPool)层、卷积(conv)层、分类层和坐标回归层。
最大池化层的输出端与卷积层的输入端连接。
卷积层的输出端分别与分类层和坐标回归层的输入端连接。
在对第一级网络的训练过程中,分类层可以使用softmax激活函数进行训练,卷积层可以使用relu激活函数进行训练。
如图3所示,在第一级网络的训练过程中,第一级网络的训练样本均需要缩放至16*16。
例如,可以从样本手掌图像中获取多张样本图像,样本图像中包括样本角点特征或背景特征,然后将样本图像的尺寸缩放为16*16*1,再将样本图像输入至最大池化层,可以得到最大池化层输出的图像,尺寸为7*7*10;
再将最大池化层输出的图像输入至第一级卷积层,可以得到第一级卷积层输出的图像,尺寸为5*5*16;
将第一级卷积层输出的图像输入至第二级卷积层,可以得到第二级卷积层输出的图像,尺寸为3*3*32。
在实际执行过程中,第一级网络可以包括三个卷积层,如图4所示,每相邻的两个卷积层中间可以设置通道注意力模块。
例如,可以在两个卷积层中间设置平均池化(Average Pool)层、全连接(FullConnection)层和缩放(scale)层。
平均池化层的输出端与全连接层的输入端连接。
全连接层的输出端与缩放层的输入端连接。
通道注意力模块可以用于关注图片的不同类型特征,可以对每个通道学习一个权重,然后将各通道对应的权重赋予各通道。
在本申请中,通过在每相邻的两个卷积层中间设置通道注意力模块,通道注意力模块可以自动注意角点区域的特征,在手掌闭合的情况下,对指缝区域特征的误检率较低,提高了手掌旋转或倾斜等手掌姿态变换场景下的检测目标召回率。
第一训练集为用于对第一级网络进行训练的样本数据。
第一训练集可以包括样本图像和样本图像对应的标记信息。
样本图像可以包括正样本图像、负样本图像以及部分样本图像。
正样本图像对应的标记信息可以包括“是角点”等,负样本图像对应的标记信息可以包括“是背景点”等,部分样本图像对应的标记信息可以包括部分样本图像与正样本图像之间的实际偏移量。
在实际执行过程中,可以基于正样本图像以及正样本图像对应的标记信息,和负样本图像以及负样本图像对应的标记信息,对第一级网络的分类层进行训练。
可以基于部分样本图像以及部分样本图像对应的标记信息,对第一级网络的坐标回归层进行训练,例如,可以将部分样本图像,以及部分样本图像与正样本图像之间的实际偏移量输入至第一级网络,获取第一级网络预测的部分样本图像与正样本图像之间的预测偏移量,再基于预测偏移量与实际偏移量训练第一级网络。
在一些实施例中,步骤110可以包括:
基于初始手掌图像和第一级网络,对初始手掌图像中多个第一候选角点进行位置预测,得到各第一候选角点对应的第一预测像素位置以及第一预测偏移信息;
基于多个第一预测偏移信息和第一级网络对应的目标参数,对第一预测像素位置进行修正处理,得到多张第一图像;目标参数包括:下采样倍数和输入尺寸中的至少一种。
在该实施例中,初始手掌图像中包括多个第一候选角点。
第一候选角点可能为角点,或者第一候选角点可能为背景点。
对多个第一候选角点进行位置预测,可以得到第一候选角点在初始手掌图像上的第一预测像素位置,还可以预测得到第一候选角点所在区域的左上角和右下角坐标与真实的角点区域的左上角和右下角之间的偏移量。
第一级网络对应的目标参数可以包括第一级网络的下采样倍数以及第一级网络的输入尺寸。
第一级网络对应的下采样倍数为第一级网络的输入尺寸和输出尺寸之间的比例。
第一级网络的输入尺寸可以为16,或者可以为其他数值,本申请不作限定。
在一些实施例中,基于初始手掌图像和第一级网络,对初始手掌图像中多个第一候选角点进行位置预测,得到各第一候选角点对应的第一预测像素位置以及第一预测偏移信息,可以包括:
基于多个缩放比例,对初始手掌图像进行缩放处理,得到多个尺寸不同的第一手掌图像;
将多个第一手掌图像中目标手掌图像输入至第一级网络,获取第一级网络输出的多个第一候选角点图像、各第一候选角点图像中第一候选角点对应的第一预测偏移信息以及各第一候选角点对应的第一预测像素位置;各第一候选角点图像对应有第一概率;
基于多个第一预测偏移信息和第一级网络对应的目标参数,对第一预测像素位置进行修正处理,得到多张第一图像,可以包括:
在第一概率大于第一阈值的情况下,将第一概率对应的第一候选角点确定为第一角点;
基于第一级网络对应的下采样倍数、目标手掌图像对应的缩放比例、各第一角点对应的第一预测偏移信息以及第一级网络对应的输入尺寸,对各第一角点对应的第一预测像素位置进行修正,得到各第一角点在初始手掌图像上的第二预测像素位置;
基于多个第二预测像素位置对多个第一角点对应的图像进行去重处理,得到多张第一图像。
在该实施例中,第一手掌图像为对初始手掌图像进行缩放处理之后得到的图像,各第一手掌图像对应的缩放比例不同,各第一手掌图像对应的图像尺寸可能也不同。
基于同一个缩放比例,可以将初始手掌图像缩放为一张或多张第一手掌图像,可以基于用户自定义,本申请不作限定。
在对初始手掌图像进行缩放时,可以将初始手掌图像缩放2-3个尺度,例如,在初始手掌图像的尺寸为100*100的情况下,可以将初始手掌图像分别缩放至60*60、50*50和40*40,或者可以将初始手掌图像缩放至其他比例,本申请不作限定。
基于多个尺寸不同的第一手掌图像,可以构建得到图像金字塔,图像金字塔中每层可以包括多张第一手掌图像,同一层的多张样本第一手掌图像的尺寸相同,其中,图像金字塔中最小尺寸的图像的长度和宽度可以大于64。
在本申请中,基于多个缩放比例对初始手掌图像进行缩放处理,以得到多个尺寸不同的第一手掌图像,在实际应用中,在手掌与采集终端之间的距离发生变化,手掌在手掌图像中所占的比例不同的情况下,通过对采集到的初始手掌图像进行缩放,并将缩放得到的多张第一手掌图像均输入至第一级网络,使得第一级网络能精准输出手掌图像中的潜在角点目标,提高了第一级网络的预测精确度和准确度。
目标手掌图像为多个第一手掌图像中任一手掌图像,在实际应用过程中,可以将多个第一手掌图像分别输入至第一级网络。
第一候选角点图像包括第一候选角点,将一张第一手掌图像输入至第一级网络,可以获取第一级网络输出的多张第一候选角点图像。
第一候选角点图像中可以包括全部的角点特征,或者可以包括大部分角点特征和小部分背景特征。
各第一候选角点图像均对应有第一概率。
其中,第一概率用于表征第一候选角点图像为角点图像的概率,例如,在第一候选角点图像包括大部分角点特征和小部分背景特征的情况下,第一候选角点图像对应的第一概率可能为90%。
第一预测偏移信息用于表征第一级网络预测的第一候选角点所在区域的左上角和右下角坐标与真实的角点区域的左上角和右下角之间的偏移量。
将第一手掌图像输入至第一级网络,还可以获取第一级网络输出的第一候选角点在第一手掌图像上的预测像素位置,即第一预测像素位置。
第一预测像素位置可以包括第一候选角点所在区域的左上角和右下角的坐标信息。
第一阈值可以用于对第一候选角点图像进行分类,例如,在第一候选角点图像的第一概率大于第一阈值的情况下,可以将第一候选角点图像确定为角点图像;在第一候选角点图像的第一概率不大于第一阈值的情况下,可以将第一候选角点图像确定为背景图像。
第一阈值可以为85%或90%等,可以基于用户自定义,本申请不作限定。
在第一概率大于第一阈值的情况下,可以将第一概率对应的第一候选角点图像中的第一候选角点确定为第一角点。
基于第一阈值对多个第一候选角点进行筛选,可以得到多个第一角点。
第二预测像素位置为第一级网络输出的第一角点在初始手掌图像上的像素位置。
在得到第一角点对应的第一预测偏移信息的情况下,可以对第一角点对应的第一预测像素位置进行修正,以得到第一角点在初始手掌图像上的第二预测像素位置。
对图像金字塔中每层所包括的第一手掌图像均进行角点分类以及坐标预测,可以得到各第一手掌图像中各第一角点对应的第二预测像素位置。
可以基于多个第二预测像素位置,采用非极大值抑制(Non-Maximum Suppress,NMS)算法对多个第一角点对应的图像进行去重处理,或者可以基于其他算法进行去重处理,本申请不作限定。
在实际执行过程中,第一级网络的推理过程如下:
在实际推理过程中,输入第一级网络的是一整张图片,图片尺寸大于16*16,第一级网络的输出尺寸基于输入尺寸确定。
1)基于缩放比例ri,对初始手掌图像进行缩放处理,得到多个尺寸不同的第一手掌图像,并基于多个第一手掌图像构建图像金字塔Pi,其中,最小尺寸的第一手掌图像的长度Wi和宽度Hi均应大于64。
2)将第一手掌图像Pi输入至第一级网络,可以获取第一级网络输出的分类特征平面Fcls,其尺寸为其中,2表示分类数量(角点和背景点),即第一级网络可以输出多个候选角点图像以及多个背景图像。
第一候选角点图像为第一级网络输出的候选角点图像。
第一级网络还可以输出坐标特征平面Freg,其尺寸为其中,4表示各角点以及背景点所在的目标box的左上角和右下角的坐标相对于真实box的偏移量。
第一位置偏移信息为角点所在的目标box的左上角和右下角的坐标相对于真实box的偏移量。
3)可以设置第一阈值为Th,将大于第一阈值的第一概率对应的第一候选角点确定为第一角点,获取第一角点的坐标(Xi,Yi),第一角点对应的第一位置偏移信息为(X1offset,Y1offset,X2offset,Y2offset),然后基于如下公式计算得到第一角点对应在手掌图像上的第二预测像素位置:
X1=(stride*Xi)/scale
Y1=(stride*Yi)/scale
X2=(stride*Xi+16)/scale
Y2=(stride*Yi+16)/scale
W=X2-X1+1
H=Y2-Y1+1
X3=X1+W*X1offset
Y3=Y1+H*Y1offset
X4=X2+W*X2offset
Y4=Y2+H*Y2offset
其中,(X1,Y1)为第一级网络预测得到的第一角点的初始左上角坐标,(X2,Y2)为第一级网络预测得到的第一角点的初始右下角坐标,(X3,Y3)为修正后的第一角点在手掌图像上的左上角坐标,(X4,Y4)为修正后的第一角点在手掌图像上的右下角坐标,W为第一角点所在的目标box的长度,H为第一角点所在的目标box的宽度,(C1offset,Y1offset)为第一角点对应的左上角坐标的预测偏移信息,(X2offset,Y2offset)为第一角点对应的右下角坐标的预测偏移信息,stride为第一级网络的下采样倍数,scale为第一角点对应的图像所对应的缩放比例,16为第一级网络的输入尺寸,也可以为其他数值,可以基于用户自定义。
4)以基于NMS算法对多个第一角点对应的图像进行去重处理为例,去重步骤如下:
基于各第一角点对应的图像所对应的第一概率,对多个图像进行逆序排序,并将逆序排序得到的集合记为V;
将集合V中第一概率最高的图像放入集合D中,并将该图像从集合V中删除;
遍历集合V中每一个图像Vi,获取Vi与集合D中各图像Di之间的面积交并比值(IOU),在存在至少一个IOU大于第三阈值的情况下,可以将Vi从集合V中删除,在多个IOU均不大于第三阈值的情况下,可以将Vi放入集合D中再删除Vi。
可以重复上述两个步骤,直至集合V为空。
5)对图像金字塔中每层所包括的多张第一手掌图像均执行上述步骤2)-步骤4),以对所有第一手掌图像输出的多个第一角点对应的图像进行去重处理,得到多张第一图像,可以将多张第一图像记为集合S。
根据本申请实施例提供的手掌区域检测方法,通过不同的缩放比例对初始手掌图像进行缩放,以构建得到图像金字塔,在实际应用中,在手掌与采集终端之间的距离发生变化,手掌在手掌图像中所占的比例不同的情况下,第一级网络也能精准输出手掌图像中的潜在角点目标,提高了第一级网络的预测精确度和准确度;通过对图像金字塔中每层所包括的多张第一手掌图像进行非极大值抑制去重处理,能够减少下一级网络的输入数量,减少了数据冗余,进而能够提高网络的推理速度。
步骤120、基于第二级网络对各候选角点特征进行类型识别,并基于识别得到的角点类型对多张第一图像进行筛选处理,得到多张第二图像;第二图像包括目标角点特征以及目标角点特征对应的目标位置信息,目标角点特征对应有角点类型;第二级网络基于第二训练集训练得到。
在该步骤中,角点类型可以包括五类,如图2中A、B、C、D和N所示。
基于角点类型对多张第一图像进行筛选处理,可以将类型为N的第一图像滤除,以得到多张第二图像。
第二图像包括目标角点特征,以及目标角点特征对应的目标位置信息。
目标位置信息用于表征目标角点特征在初始手掌图像中的位置。
目标角点特征对应的角点类型可以为A、B、C或D,可以基于第二级网络识别得到。
第二训练集为用于训练第二级网络的样本数据。
第二训练集可以包括样本图像和样本图像对应的标记信息。
样本图像的数量可以为多张。
样本图像对应的标记信息可以包括样本图像中各特征对应的角点类别。
如图2所示,样本图像对应的标记信息可以包括:A、B、C、D或N。
第二级网络的输入端可以与第一级网络的输出端连接。
如图5所示,第二级网络可以为卷积神经网络或者其他任意可以实现本功能的神经网络,本申请不作限定。
在第二级网路为卷积神经网络的情况下,第二级网络可以包括最大池化(MaxPool)层、卷积(conv)层、全连接层(Fully Connected Layer)分类层和坐标回归层。
最大池化层的输出端与卷积层的输入端连接。
卷积层的输出端与全连接层的输入端连接。
全连接层的输出端分别与分类层和坐标回归层的输入端连接。
在对第二级网络的训练过程中,分类层可以使用softmax激活函数进行训练,卷积层可以使用relu激活函数进行训练。
如图5所示,在训练第二级网络的过程中,第二级网络的训练样本均需要缩放至64*64,可以将样本第一图像的尺寸缩放为64*64*1,将样本第一图像输入至第一级最大池化层,可以得到第一级最大池化层输出的图像,尺寸为31*31*32;
再将第一级最大池化层输出的图像输入至第二级最大池化层,可以得到第二级最大池化层输出的图像,尺寸为14*14*64;
再将第二级最大池化层输出的图像输入至第三级最大池化层,可以得到第三级最大池化层输出的图像,尺寸为6*6*64;
将第三级最大池化层输出的图像输入至卷积层,可以得到卷积层输出的图像,尺寸为4*4*128;
将卷积层输出的图像输入至全连接层,可以得到全连接层输出的图像,尺寸为256。
在实际执行过程中,如图4所示,每相邻的两个卷积层中间可以设置通道注意力模块。
例如,可以在两个卷积层中间设置平均池化(Average Pool)层、全连接(FullConnection)层和缩放(scale)层。
平均池化层的输出端与全连接层的输入端连接。
全连接层的输出端与缩放层的输入端连接。
在一些实施例中,步骤120可以包括:
基于第二级网络的输入尺寸,对多张第一图像进行缩放处理,得到多张第四图像;
将多张第四图像输入至第二级网络,得到第二级网络输出的各角点类型对应的至少一个第二候选角点图像以及各第二候选角点图像中第二候选角点对应的第二预测偏移信息;各第二候选角点图像对应有第二概率;
在第二概率大于第二阈值的情况下,将第二概率对应的第二候选角点确定为第二角点;
基于第二角点对应的第二预测偏移信息对第二角点对应的第二预测像素位置进行修正,并基于修正后的第二角点对应的图像,得到多张第二图像;第二预测像素位置为基于第一级网络对初始手掌图像进行处理得到的。
在该实施例中,可以将第一图像从初始手掌图像中截取出来,再缩放至第二级网络的输入大小,得到第四图像。
各角点类型均对应有至少一张第二候选角点图像。
第二概率用于表征第二候选角点图像为该角点类型的概率。
例如,A类角点可以对应有至少一张第三候选角点图像,B类角点可以对应有至少一张第四候选角点图像,第三候选角点图像对应的第二概率可以用于表征该图像为A类角点的概率,第四候选角点图像对应的第二概率可以用于表征该图像为B类角点的概率。
第二预测偏移信息可以用于表征第二级网络预测的第二候选角点所在区域的左上角和右下角的坐标与真实的角点区域的左上角和右下角的坐标之间的偏移量。
基于第二预测偏移信息,可以对第一级网络预测得到的第二角点对应的第二预测像素位置进行修正。
第二预测像素位置为基于第一级网络对初始手掌图像进行处理得到的。
第二阈值可以用于判断第二候选角点图像所属的角点类别,例如,在第二候选角点图像与A类角点之间第二概率大于第二阈值的情况下,可以将第二候选角点图像确定为A类角点对应的图像。
在第二概率大于第二阈值的情况下,可以将第二候选角点确定为第二角点。
多个第二角点对应的角点类型可能不同。
对第二角点的位置信息进行坐标修正之后,可以得到最终用于区域提取的多个角点,然后将角点所在的区域图像确定为第五图像。
在实际执行过程中,可以将第一图像从手掌图像中截取出来,再缩放至第二级网络的输入大小64,得到至少一张第四图像。
将至少一张第四图像输入至第二级网络,可以得到分类特征平面Fcls2,其大小为5*1,分类特征平面包括5个类别对应的至少一个第二候选角点图像。
例如,将至少一张第四网络输入至第二级网络,可以得到第二级网络输出的A、B、C、D以及N类对应的第二候选角点图像。
将至少一个第四图像输入至第二级网络,还可以得到第二级网络输出的坐标特征平面Freg2,其大小为4*1,坐标特征平面包括各第二候选角点所在的目标box的左上角和右下角的坐标相对于真实box的偏移量。
设置第二阈值为TH2,将大于第二阈值的第二概率对应的第二候选角点确定为第二角点。
获取第二角点对应的第二位置偏移信息(XLoffset,YLoffset,XRoffset,YRoffset),并基于第二预测偏移信息对第二角点对应的第二预测像素位置进行坐标修正:
W=X4-X3+1
H=Y4-Y3+1
X5=X3+W*XLoffset
Y5=Y3+H*YLoffset
X6=X4+W*XRoffset
Y6=Y4+H*YRoffset
其中,(X3,Y3)为第一级网络输出的第二角点在手掌图像上的左上角坐标,(X4,Y4)为第一级网络输出的第二角点在手掌图像上的右下角坐标,(X5,Y5)为修正后的第二角点在手掌图像上的左上角坐标,(X6,Y6)为修正后的第二角点在手掌图像上的右下角坐标,W为第二角点所在的目标box的长度,H为第二角点所在的目标box的宽度,(XLoffset,YLoffset)为第二角点对应的左上角坐标的预测偏移信息,(XRoffset,YRoffset)为第二角点对应的右下角坐标的预测偏移信息。
基于第二角点在手掌图像上的坐标信息,得到最终用于区域提取的A、B、C和D点。
步骤130、基于各目标角点特征对应的角点类型以及目标位置信息,对初始手掌图像进行区域定位,确定目标手掌区域;目标手掌区域为手掌中包括至少部分掌纹特征的区域。
在该步骤中,目标手掌区域为手掌中包括至少部分掌纹特征的区域,例如,目标手掌区域可以为手掌纹路集中的区域,如图6中区域ROI所示。
在实际应用中,对目标手掌区域进行识别,可以完成手掌的生物特征识别。
各目标角点特征均对应有目标位置信息,目标位置信息用于表征目标角点特征在初始手掌图像中的坐标信息。
基于目标角点特征对应的角点类型以及目标位置信息,可以定位得到初始手掌图像中的感兴趣区域(Region of Interest,ROI),并将ROI区域确定为目标手掌区域。
在本申请中,第一级网络和第二级网络均是轻量级神经网络,例如,第一级网络的体积可以为12k,第二级网络的体积可以为500k,嵌入式平台可以控制在10ms以内。
如图7所示,第一级网络和第二级网络的中间层卷积均可以采用通道分离卷积,在保证了网络的预测精度的基础上,还提高了网络的推理速度,进一步可以提高用户在进行手掌生物特征识别时的使用体验。
在实际执行过程中,可以分开训练第一级网络和第二级网络,可以使用同样的训练参数对第一级网络和第二级网络进行训练。
例如,在训练过程中,一次训练所选取的样本数(batchSize)可以为60,所有训练样本训练一次的过程(epoch)可以为10,初始学习率(learning rate)可以为0.01,可以使用MomentumOptimizer作为优化器,学习率分别在[5,7,9]epoch时下降一个数量级。
第一级网络和第二级网络中的分类层损失均可以采用交叉熵损失:
其中,y为输入的标签label(one-hot形式),为网络输出的分类概率(第一概率或第二概率),n为分类数量。
第一级网络和第二级网络的坐标回归层损失均可以采用平方差损失:
其中,b为输入样本的box坐标相对于标注box坐标之间的偏移量,为网络输出值。
最终网络的损失函数为分类层损失和坐标回归层损失之间的加权和:
其中,在训练第一级网络的过程中,α可以为0.7,β可以为0.3;在训练第二级网络的过程中,α可以为0.5,β可以为0.5;为坐标回归层损失,/>为分类层损失。
在本申请中,通过设置不同的参数分别对第一级网络和第二级网络的损失函数进行训练,可以训练第一级网络从初始手掌图像中找到更多潜在的角点目标,并使得第二级网络能够对多个角点目标进行准确分类,同时能够准确回归到角点目标的位置坐标。
根据本申请实施例提供的手掌区域检测方法,通过第一级网络对初始手掌图像进行特征提取,能够在整个手掌图中粗略检测出多个潜在的角点目标,并将多个潜在的角点目标输入至第二级网络,第二级网络可以对多个潜在角点目标进行精准判断和位置调整,以得到多个目标角点,从而能够基于目标角点从初始手掌图像中提取出目标手掌区域,通过第一级网络和第二级网络检测得到目标手掌区域,在手掌姿态发生变化的情况下也能够精准检测到目标手掌区域,检测的精确度和准确度较高,在保证了精度的同时还提高了网络的推理速度,能够较快地从手掌图像中提取得到手掌区域,从而满足了手掌识别的速度要求。
在一些实施例中,步骤130可以包括:
基于各目标角点特征对应的角点类型以及各目标角点特征对应的目标位置信息,对目标类型的多个第一角点进行拟合处理,得到目标直线;
基于多个目标角点特征中除多个第一角点外的第二角点与目标直线之间的垂线,计算得到垂线与初始手掌图像对应的纵轴之间的旋转角度;
基于旋转角度,校正初始手掌图像,得到第二手掌图像以及第二手掌图像中校正后的目标角点特征以及校正后的目标角点特征对应的目标位置信息;
基于校正后的目标角点特征对应的目标位置信息,对初始手掌图像进行区域定位,确定目标手掌区域。
在该实施例中,目标类型可以包括:食指和中指之间的角点、中指和无名指之间的角点以及无名指和小指之间的角点。
对三个第一角点进行拟合处理,可以得到目标直线。
可以采用最小二乘法对三个第一角点进行直线拟合,或者可以基于其他方法进行拟合,本申请不作限定。
第二角点可以为距离拇指根部最近的角点。
第二手掌图像为对初始手掌图像进行校正之后的图像,例如,可以基于旋转角度将初始手掌图像向目标方向旋转,以得到第二手掌图像,第二手掌图像中,第二角点与目标直线之间的垂线与第二手掌图像对应的纵轴平行。
基于第二角点的位置信息,可以判断手掌的左右属性,例如,在手掌为右手掌的情况下,目标方向可以为顺时针。
在实际执行过程中,如图6所示,多个第一角点可以为点B、点C和点D。
可以将目标直线表示为y=bx+a,其中,b为目标直线的斜率,a为目标直线的截距。
将点B、C和D的坐标带入至误差方程并最小化该误差,可以得到斜率b和截距a。
做A点到直线y的垂线l,可以计算得到垂线l和x轴的夹角θ,即为手掌的旋转角度。
基于夹角θ,旋转初始手掌图像,得到第二手掌图像Pθ,并将第二手掌图像中的各个角点记为
基于点和点/>的位置信息,计算得到点/>和点/>之间的距离Dis。
基于距离Dis,得到目标手掌区域的左上角坐标:其中,/>为点/>的坐标,Dis为点/>和点/>之间的距离;
以及目标手掌区域的右下角坐标:其中,/>为点/>的坐标,Dis为点/>和点/>之间的距离。
第一训练集与第二训练集的样本内容可以相同,两种训练集中所包括的图片的尺寸不同,下面以获取第一训练集为例,对训练集的获取方式进行具体说明。
在一些实施例中,获取第一训练集,可以包括:
获取样本手掌图像;
对样本手掌图像进行手工标记,得到多个第一正样本图像和多个第一负样本图像;第一正样本图像包括样本角点特征和样本角点特征对应的第一标记;第一负样本图像包括背景特征和背景特征对应的第二标记;
从样本手掌图像中随机确定待标记区域;
分别计算待标记区域与各第一正样本图像之间的面积交并比,得到多个第一面积交并比值;分别计算待标记区域和各第一负样本图像之间的面积交并比,得到多个第二面积交并比值;
基于多个第一面积交并比值、多个第二面积交并比值和目标比值阈值,对各待标记区域进行标记,得到多个第二正样本图像、多个第二负样本图像以及多个中间样本图像;第二正样本图像包括样本角点特征和样本角点特征对应的第一标记;第二负样本图像包括背景特征和背景特征对应的第二标记;中间样本图像包括样本角点特征和背景特征;
基于多个第一正样本图像、多个第一负样本图像、多个第二正样本图像、多个第二负样本图像以及多个中间样本图像,得到第一训练集;多个第一正样本图像、多个第一负样本图像、多个第二正样本图像、多个第二负样本图像以及多个中间样本图像的图像尺寸与第一级网络的输入尺寸相同。
在该实施例中,样本手掌图像为样本数据中的手掌图像。
样本手掌图像对应的标记信息为样本手掌图像上各特征对应的标记信息,例如,样本手掌图像对应的标记信息可以包括角点特征标记和背景特征标记等。
样本手掌图像的数量可以为多张。
如图2所示,对样本手掌图像进行手工标记,可以在样本手掌图像上对多个特征进行标记,例如,可以对角点特征进行第一标记,对背景特征进行第二标记。
如图2所示,可以对存在黑白交替的区域进行第二标记。
在进行手工标记过程中,还可以手动对闭合手掌的指缝等与角点区域相似度较高的特征进行第二标记。
第一正样本图像可以包括样本角点特征,以及样本角点特征对应的第一标记,例如,第一正样本图像可以包括样本角点特征以及“是角点”标记。
第一负样本图像可以包括背景特征和背景特征对应的第二标记,例如,第一负样本图像可以包括背景特征以及“不是角点”标记。
待标记区域为需要进行标记的区域,需要对待标记区域进行第一标记或第二标记。
待标记区域的数量可以为多个。
可以从样本手掌图像中随机生成一个边长不小于64像素的正方形,将该正方形确定为待标记区域。
面积交并比(Intersection of Union,IOU)用于表征真实框和预测框之间的重合程度,IOU的取值区间为[0,1],IOU越大,表明真实框和预测框之间的重合程度越高。
例如,如图10所示,可以将真实框记为区域A,将预测框记为区域B,将预测框与真实框之间的重合区域记为区域C,区域A和区域B之间的面积交并比可以基于如下公式确定:
其中,IOU为区域A和区域B之间的面积交并比。
第一面积交并比值为待标记区域与第一正样本图像之间的面积交并比。
第二面积交并比值为待标记区域与第一负样本图像之间的面积交并比。
目标比值阈值可以为0.3、0.7或其他数值,可以基于用户自定义,本申请不作限定。
通过计算待标记区域与第一正样本图像之间的面积交并比,可以在手工标注的第一正样本图像附近自动生成多个第二正样本图像、多个第二负样本图像以及多个中间样本图像。
通过计算待标记区域与第一负样本图像之间的面积交并比,可以在手工标注的第一负样本图像附近自动生成多个第二负样本图像。
可以将多个第二正样本图像与多个第一正样本图像作为训练第一级网络的正样本数据。
可以将多个第二负样本图像与多个第一负样本图像作为训练第一级网络的负样本数据。
可以将多个中间样本图像作为训练第一级网络的部分样本数据,中间样本图像包括样本角点特征和背景特征,可以基于中间样本图像与样本角点特征对应的正样本之间的偏移信息等训练第一级网络,以基于第一级网络输出第一位置偏移信息。第一训练集中多个正样本的数量、多个负样本的数量以及多个中间样本的数量相同,或三者之间的数量差小于目标数量阈值,三种样本的数量处于平衡状态。
在一些实施例中,基于多个第一面积交并比值、多个第二面积交并比值和目标比值阈值,对各待标记区域进行标记,得到多个第二正样本图像、多个第二负样本图像以及多个中间样本图像,可以包括:
在多个第一面积交并比值均不小于第一比值阈值的情况下,将待标记区域对应的标记确定为第一标记,得到第二正样本图像;
在多个第一面积交并比值均小于第二比值阈值的情况下,将待标记区域对应的标记确定为第二标记,得到第二负样本图像;第二比值阈值小于第一比值阈值;
在多个第一面积交并比值均不小于第三比值阈值且小于第一比值阈值的情况下,将待标记区域确定为中间样本图像;第三比值阈值大于第二比值阈值且小于第一比值阈值;
在多个第二面积交并比值均不小于第一比值阈值的情况下,将待标记区域对应的标记确定为第二标记,得到第二负样本图像。
在该实施例中,第一比值阈值、第二比值阈值和第三比值阈值可以均不相同。
第三比值阈值大于第二比值阈值,且第三比值阈值小于第一比值阈值。
第一比值阈值、第二比值阈值和第三比值阈值的数值均可以基于用户自定义,例如,第一比值阈值可以为0.7,第二比值阈值可以为0.3,第三比值阈值可以为0.64,或者可以为其他数值,本申请不作限定。
在待标记区域与各第一正样本图像之间的第一面积交并比值均不小于第一比值阈值的情况下,说明待标记区域与第一正样本图像之间的重合程度较高,可以将待标记区域对应的标记确定为第一标记,并基于待标记区域与第一标记得到第二正样本图像。
在待标记区域与各第一正样本图像之间的第一面积交并比值均小于第二比值阈值的情况下,说明待标记区域与第一正样本图像之间的重合程度较低,可以将待标记区域对应的标记确定为第二标记,并基于待标记区域与第二标记得到第二负样本图像。
在待标记区域与各第一正样本图像之间的第一面积交并比值均不小于第三比值阈值且小于第一比值阈值的情况下,说明待标记区域包含大部分的角点特征,可以基于待标记区域得到中间样本图像。
还可以计算待标记区域与各第一负样本图像之间的第二面积交并比值,在多个第二面积交并比值均不小于第一比值阈值的情况下,说明待标记区域与第一负样本图像之间的重合程度较高,可以将待标记区域对应的标记确定为第二标记,并基于待标记区域与第二标记得到第二负样本图像。
在实际执行过程中,如图2所示,可以将四个角点分别标记为A、B、C和D,将四个角点与其对应的标记确定为正样本,并将正样本之外的区域中,存在黑白交替的区域标记为负样本。
对于每张样本手掌图像,基于标注文件,可以得到多个第一正样本图像,记为PositiveRects,以及多个第一负样本图像,记为NegativeRects。
截取PositiveRects所在区域,并缩放至16*16大小,可以得到第二正样本图像,将其确定为第一级网络的正样本训练数据;将PositiveRects所在区域缩放至64*64大小,可以得到第三正样本图像,将其确定为第二级网络的正样本训练数据。
截取NegativeRects所在区域,并缩放至16*16大小,可以得到第二负样本图像,将其确定为第一级网络的负样本训练数据;将NegativeRects所在区域缩放至64*64大小,可以得到第三负样本图像,将其确定为第二级网络的负样本训练数据。
可以在样本手掌图像中随机生成一个边长不小于64像素的正方形,记为Rect1,计算Rect1与正样本矩形区域集合PositiveRects中每一个第一正样本图像之间的IOU;
将第二比值阈值设置为0.3,在IOU<0.3的情况下,可以截取Rect1所在区域,并将该区域缩放至16*16大小,得到第二负样本图像,将第二负样本图像作为训练第一级网络的负样本数据;将该区域缩放至64*64大小,得到第三负样本图像,将第三负样本图像作为训练第二级网络的负样本数据,重复以上步骤直至为每级网络生成的负样本数量>50。
可以在样本手掌图像中随机生成一个边长不小于64像素的正方形,记为Rect2,计算Rect2与正样本矩形集合PositiveRects中每一个第一正样本图像之间的IOU;
将第一比值阈值设置为0.7,在IOU≥0.7的情况下,可以截取Rect2所在区域,并将该区域缩放至16*16大小,得到第二正样本图像,将第二正样本图像作为训练第一级网络的正样本数据;将该区域缩放至64*64大小,得到第三正样本图像,将第三正样本图像作为训练第二级网络的正样本数据,并保存生成的样本相对于各第一正样本图像的坐标偏移量,重复以上步骤直至为每级网络生成的正样本数量>150。
可以在样本手掌图像中随机生成一个边长不小于64像素的正方形,记为Rect3,计算Rect3与正样本矩形集合PositiveRects中每一个第一正样本图像之间的IOU;
将第一比值阈值设置为0.7,将第三比值阈值设置为0.64,在IOU≥0.64且IOU<0.7的情况下,可以截取Rect3所在区域,并将该区域缩放至16*16大小,将其作为训练第一级网络的中间样本数据;将该区域缩放至64*64大小,将其作为训练第二级网络的中间样本数据,并保存生成的样本相对于各第一正样本图像的坐标偏移量,重复以上步骤直至为每级网络生成的中间样本数量>150。
可以在样本手掌图像中随机生成一个边长不小于64像素的正方形,记为Rect4,计算Rect4与负样本矩形集合NegativeRects中每一个第一负样本图像之间的IOU;
将第一比值阈值设置为0.7,在IOU≥0.7的情况下,可以截取Rect4所在区域,并将该区域缩放至16*16大小,得到第二负样本数据,将其作为训练第一级网络的负样本数据;将该区域缩放至64*64大小,得到第三负样本数据,将其作为训练第二级网络的负样本数据,重复以上步骤直至为每级网络生成的负样本数量>100。
根据本申请实施例提供的手掌区域检测方法,通过手工先标注出正样本和负样本,然后通过计算样本手掌图像中的待标记区域与正样本和负样本之间的面积交并比,能够在正样本或负样本附近生成更多的正样本数据、中间样本数据以及负样本数据,结合了手工标注和自动化生成的方式为网络提供了大量有价值的训练样本,通过对负样本进行标注,在手掌闭合的情况下也不会误检,提高了网络的检测精确度和准确度。
下面对本申请提供的手掌区域检测装置进行描述,下文描述的手掌区域检测装置与上文描述的手掌区域检测方法可相互对应参照。
本申请实施例提供的手掌区域检测方法,执行主体可以为手掌区域检测装置。本申请实施例中以手掌区域检测装置执行手掌区域检测方法为例,说明本申请实施例提供的手掌区域检测装置。
本申请实施例还提供一种手掌区域检测装置。
如图8所示,该手掌区域检测装置,包括:第一处理模块810、第二处理模块820和第三处理模块830。
第一处理模块810,用于基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像;第一图像包括候选角点特征;第一级网络基于第一训练集训练得到;
第二处理模块820,用于基于第二级网络对各候选角点特征进行类型识别,并基于识别得到的角点类型对多张第一图像进行筛选处理,得到多张第二图像;第二图像包括目标角点特征以及目标角点特征对应的目标位置信息,目标角点特征对应有角点类型;第二级网络基于第二训练集训练得到;
第三处理模块830,用于基于各目标角点特征对应的角点类型以及目标位置信息,对初始手掌图像进行区域定位,确定目标手掌区域;目标手掌区域为手掌中包括至少部分掌纹特征的区域。
根据本申请实施例提供的手掌区域检测装置,通过第一级网络对初始手掌图像进行特征提取,能够在整个手掌图中粗略检测出多个潜在的角点目标,并将多个潜在的角点目标输入至第二级网络,第二级网络可以对多个潜在角点目标进行精准判断和位置调整,以得到多个目标角点,从而能够基于目标角点从初始手掌图像中提取出目标手掌区域,通过第一级网络和第二级网络检测得到目标手掌区域,在手掌姿态发生变化的情况下也能够精准检测到目标手掌区域,检测的精确度和准确度较高,在保证了精度的同时还提高了网络的推理速度,能够较快地从手掌图像中提取得到手掌区域,从而满足了手掌识别的速度要求。
在一些实施例中,第一处理模块810还可以用于:
基于初始手掌图像和第一级网络,对初始手掌图像中多个第一候选角点进行位置预测,得到各第一候选角点对应的第一预测像素位置以及第一预测偏移信息;
基于多个第一预测偏移信息和第一级网络对应的目标参数,对第一预测像素位置进行修正处理,得到多张第一图像;目标参数包括:下采样倍数和输入尺寸中的至少一种。
在一些实施例中,第一处理模块810还可以用于:
基于多个缩放比例,对初始手掌图像进行缩放处理,得到多个尺寸不同的第一手掌图像;
将多个第一手掌图像中目标手掌图像输入至第一级网络,获取第一级网络输出的多个第一候选角点图像、各第一候选角点图像中第一候选角点对应的第一预测偏移信息以及各第一候选角点对应的第一预测像素位置;各第一候选角点图像对应有第一概率;
在第一概率大于第一阈值的情况下,将第一概率对应的第一候选角点确定为第一角点;
基于第一级网络对应的下采样倍数、目标手掌图像对应的缩放比例、各第一角点对应的第一预测偏移信息以及第一级网络对应的输入尺寸,对各第一角点对应的第一预测像素位置进行修正,得到各第一角点在初始手掌图像上的第二预测像素位置;
基于多个第二预测像素位置对多个第一角点对应的图像进行去重处理,得到多张第一图像。
在一些实施例中,第二处理模块820还可以用于:
基于第二级网络的输入尺寸,对多张第一图像进行缩放处理,得到多张第四图像;
将多张第四图像输入至第二级网络,得到第二级网络输出的各角点类型对应的至少一个第二候选角点图像以及各第二候选角点图像中第二候选角点对应的第二预测偏移信息;各第二候选角点图像对应有第二概率;
在第二概率大于第二阈值的情况下,将第二概率对应的第二候选角点确定为第二角点;
基于第二角点对应的第二预测偏移信息对第二角点对应的第二预测像素位置进行修正,并基于修正后的第二角点对应的图像,得到多张第二图像;第二预测像素位置为基于第一级网络对初始手掌图像进行处理得到的。
在一些实施例中,第一处理模块810还可以用于:
获取样本手掌图像;
对样本手掌图像进行手工标记,得到多个第一正样本图像和多个第一负样本图像;第一正样本图像包括样本角点特征和样本角点特征对应的第一标记;第一负样本图像包括背景特征和背景特征对应的第二标记;
从样本手掌图像中随机确定待标记区域;
分别计算待标记区域与各第一正样本图像之间的面积交并比,得到多个第一面积交并比值;分别计算待标记区域和各第一负样本图像之间的面积交并比,得到多个第二面积交并比值;
基于多个第一面积交并比值、多个第二面积交并比值和目标比值阈值,对各待标记区域进行标记,得到多个第二正样本图像、多个第二负样本图像以及多个中间样本图像;第二正样本图像包括样本角点特征和样本角点特征对应的第一标记;第二负样本图像包括背景特征和背景特征对应的第二标记;中间样本图像包括样本角点特征和背景特征;
基于多个第一正样本图像、多个第一负样本图像、多个第二正样本图像、多个第二负样本图像以及多个中间样本图像,得到第一训练集;多个第一正样本图像、多个第一负样本图像、多个第二正样本图像、多个第二负样本图像以及多个中间样本图像的图像尺寸与第一级网络的输入尺寸相同。
在一些实施例中,第一处理模块810还可以用于:
在多个第一面积交并比值均不小于第一比值阈值的情况下,将待标记区域对应的标记确定为第一标记,得到第二正样本图像;
在多个第一面积交并比值均小于第二比值阈值的情况下,将待标记区域对应的标记确定为第二标记,得到第二负样本图像;第二比值阈值小于第一比值阈值;
在多个第一面积交并比值均不小于第三比值阈值且小于第一比值阈值的情况下,将待标记区域确定为中间样本图像;第三比值阈值大于第二比值阈值且小于第一比值阈值;
在多个第二面积交并比值均不小于第一比值阈值的情况下,将待标记区域对应的标记确定为第二标记,得到第二负样本图像。
在一些实施例中,第三处理模块830还可以用于:
基于各目标角点特征对应的角点类型以及各目标角点特征对应的目标位置信息,对目标类型的多个第一角点进行拟合处理,得到目标直线;
基于多个目标角点特征中除多个第一角点外的第二角点与目标直线之间的垂线,计算得到垂线与初始手掌图像对应的纵轴之间的旋转角度;
基于旋转角度,校正初始手掌图像,得到第二手掌图像以及第二手掌图像中校正后的目标角点特征以及校正后的目标角点特征对应的目标位置信息;
基于校正后的目标角点特征对应的目标位置信息,对初始手掌图像进行区域定位,确定目标手掌区域。
本申请实施例中的手掌区域检测装置可以是电子设备,也可以是电子设备中的部件,例如集成电路或芯片。该电子设备可以是终端,也可以为除终端之外的其他设备。示例性的,电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、移动上网装置(Mobile Internet Device,MID)、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、机器人、可穿戴设备、超级移动个人计算机(ultra-mobilepersonal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,还可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的手掌区域检测装置可以为具有操作***的装置。该操作***可以为安卓(Android)操作***,可以为IOS操作***,还可以为其他可能的操作***,本申请实施例不作具体限定。
本申请实施例提供的手掌区域检测装置能够实现图1至图7的方法实施例实现的各个过程,为避免重复,这里不再赘述。
在一些实施例中,如图9所示,本申请实施例还提供一种电子设备900,包括处理器901、存储器902及存储在存储器902上并可在处理器901上运行的计算机程序,该程序被处理器901执行时实现上述手掌区域检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要说明的是,本申请实施例中的电子设备包括上述所述的移动电子设备和非移动电子设备。
另一方面,本申请还提供一种计算机程序产品,所述计算机程序产品包括存储在非暂态计算机可读存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,计算机能够执行上述手掌区域检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
又一方面,本申请还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述手掌区域检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
又一方面,本申请实施例另提供了一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合,所述处理器用于运行程序或指令,实现上述手掌区域检测方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为***级芯片、***芯片、芯片***或片上***芯片等。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种手掌区域检测方法,其特征在于,包括:
基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像;所述第一图像包括候选角点特征;所述第一级网络基于第一训练集训练得到;
基于第二级网络对各所述候选角点特征进行类型识别,并基于识别得到的角点类型对所述多张第一图像进行筛选处理,得到多张第二图像;所述第二图像包括目标角点特征以及所述目标角点特征对应的目标位置信息,所述目标角点特征对应有角点类型;所述第二级网络基于第二训练集训练得到;
基于各所述目标角点特征对应的角点类型以及所述目标位置信息,对所述初始手掌图像进行区域定位,确定目标手掌区域;所述目标手掌区域为手掌中包括至少部分掌纹特征的区域。
2.根据权利要求1所述的手掌区域检测方法,其特征在于,所述基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像,包括:
基于所述初始手掌图像和所述第一级网络,对所述初始手掌图像中多个第一候选角点进行位置预测,得到各所述第一候选角点对应的第一预测像素位置以及第一预测偏移信息;
基于多个第一预测偏移信息和所述第一级网络对应的目标参数,对所述第一预测像素位置进行修正处理,得到所述多张第一图像;所述目标参数包括:下采样倍数和输入尺寸中的至少一种。
3.根据权利要求2所述的手掌区域检测方法,其特征在于,
所述基于所述初始手掌图像和所述第一级网络,对所述初始手掌图像中多个第一候选角点进行位置预测,得到各所述第一候选角点对应的第一预测像素位置以及第一预测偏移信息,包括:
基于多个缩放比例,对所述初始手掌图像进行缩放处理,得到多个尺寸不同的第一手掌图像;
将多个所述第一手掌图像中目标手掌图像输入至所述第一级网络,获取所述第一级网络输出的多个第一候选角点图像、各所述第一候选角点图像中所述第一候选角点对应的第一预测偏移信息以及各所述第一候选角点对应的第一预测像素位置;各所述第一候选角点图像对应有第一概率;
所述基于多个第一预测偏移信息和所述第一级网络对应的目标参数,对所述第一预测像素位置进行修正处理,得到所述多张第一图像,包括:
在所述第一概率大于第一阈值的情况下,将所述第一概率对应的第一候选角点确定为第一角点;
基于所述第一级网络对应的下采样倍数、所述目标手掌图像对应的缩放比例、各所述第一角点对应的第一预测偏移信息以及所述第一级网络对应的输入尺寸,对各所述第一角点对应的第一预测像素位置进行修正,得到各所述第一角点在所述初始手掌图像上的第二预测像素位置;
基于多个所述第二预测像素位置对多个所述第一角点对应的图像进行去重处理,得到所述多张第一图像。
4.根据权利要求1-3任一项所述的手掌区域检测方法,其特征在于,所述基于第二级网络对各所述候选角点特征进行类型识别,并基于识别得到的角点类型对所述多张第一图像进行筛选处理,得到多张第二图像,包括:
基于所述第二级网络的输入尺寸,对所述多张第一图像进行缩放处理,得到多张第四图像;
将所述多张第四图像输入至所述第二级网络,得到所述第二级网络输出的各所述角点类型对应的至少一个第二候选角点图像以及各所述第二候选角点图像中第二候选角点对应的第二预测偏移信息;各所述第二候选角点图像对应有第二概率;
在所述第二概率大于第二阈值的情况下,将所述第二概率对应的第二候选角点确定为第二角点;
基于所述第二角点对应的第二预测偏移信息对所述第二角点对应的第二预测像素位置进行修正,并基于修正后的第二角点对应的图像,得到多张第二图像;所述第二预测像素位置为基于所述第一级网络对所述初始手掌图像进行处理得到的。
5.根据权利要求1-3任一项所述的手掌区域检测方法,其特征在于,所述第一训练集基于如下步骤获取:
获取样本手掌图像;
对所述样本手掌图像进行手工标记,得到多个第一正样本图像和多个第一负样本图像;所述第一正样本图像包括样本角点特征和所述样本角点特征对应的第一标记;所述第一负样本图像包括背景特征和所述背景特征对应的第二标记;
从所述样本手掌图像中随机确定待标记区域;
分别计算所述待标记区域与各所述第一正样本图像之间的面积交并比,得到多个第一面积交并比值;分别计算所述待标记区域和各所述第一负样本图像之间的面积交并比,得到多个第二面积交并比值;
基于所述多个第一面积交并比值、所述多个第二面积交并比值和目标比值阈值,对各所述待标记区域进行标记,得到多个第二正样本图像、多个第二负样本图像以及多个中间样本图像;所述第二正样本图像包括样本角点特征和所述样本角点特征对应的第一标记;所述第二负样本图像包括背景特征和所述背景特征对应的第二标记;所述中间样本图像包括所述样本角点特征和所述背景特征;
基于所述多个第一正样本图像、所述多个第一负样本图像、多个第二正样本图像、多个第二负样本图像以及多个中间样本图像,得到所述第一训练集;所述多个第一正样本图像、所述多个第一负样本图像、所述多个第二正样本图像、所述多个第二负样本图像以及所述多个中间样本图像的图像尺寸与所述第一级网络的输入尺寸相同。
6.根据权利要求5所述的手掌区域检测方法,其特征在于,所述基于所述多个第一面积交并比值、所述多个第二面积交并比值和目标比值阈值,对各所述待标记区域进行标记,得到多个第二正样本图像、多个第二负样本图像以及多个中间样本图像,包括:
在所述多个第一面积交并比值均不小于第一比值阈值的情况下,将所述待标记区域对应的标记确定为所述第一标记,得到所述第二正样本图像;
在所述多个第一面积交并比值均小于第二比值阈值的情况下,将所述待标记区域对应的标记确定为所述第二标记,得到所述第二负样本图像;所述第二比值阈值小于所述第一比值阈值;
在所述多个第一面积交并比值均不小于第三比值阈值且小于所述第一比值阈值的情况下,将所述待标记区域确定为所述中间样本图像;所述第三比值阈值大于所述第二比值阈值且小于所述第一比值阈值;
在所述多个第二面积交并比值均不小于所述第一比值阈值的情况下,将所述待标记区域对应的标记确定为所述第二标记,得到所述第二负样本图像。
7.根据权利要求1-3任一项所述的手掌区域检测方法,其特征在于,所述基于各所述目标角点特征对应的角点类型以及所述目标位置信息,对所述初始手掌图像进行区域定位,确定目标手掌区域,包括:
基于各所述目标角点特征对应的角点类型以及各目标角点特征对应的目标位置信息,对目标类型的多个第一角点进行拟合处理,得到目标直线;
基于所述多个目标角点特征中除所述多个第一角点外的第二角点与所述目标直线之间的垂线,计算得到所述垂线与所述初始手掌图像对应的纵轴之间的旋转角度;
基于所述旋转角度,校正所述初始手掌图像,得到第二手掌图像以及所述第二手掌图像中校正后的目标角点特征以及所述校正后的目标角点特征对应的目标位置信息;
基于所述校正后的目标角点特征对应的目标位置信息,对所述初始手掌图像进行区域定位,确定所述目标手掌区域。
8.一种手掌区域检测装置,其特征在于,包括:
第一处理模块,用于基于第一级网络对获取的初始手掌图像进行特征提取,得到多张第一图像;所述第一图像包括候选角点特征;所述第一级网络基于第一训练集训练得到;
第二处理模块,用于基于第二级网络对各所述候选角点特征进行类型识别,并基于识别得到的角点类型对所述多张第一图像进行筛选处理,得到多张第二图像;所述第二图像包括目标角点特征以及所述目标角点特征对应的目标位置信息,所述目标角点特征对应有角点类型;所述第二级网络基于第二训练集训练得到;
第三处理模块,用于基于各所述目标角点特征对应的角点类型以及所述目标位置信息,对所述初始手掌图像进行区域定位,确定目标手掌区域;所述目标手掌区域为手掌中包括至少部分掌纹特征的区域。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7任一项所述的手掌区域检测方法。
10.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的手掌区域检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311874343.6A CN117831082A (zh) | 2023-12-29 | 2023-12-29 | 手掌区域检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311874343.6A CN117831082A (zh) | 2023-12-29 | 2023-12-29 | 手掌区域检测方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117831082A true CN117831082A (zh) | 2024-04-05 |
Family
ID=90507636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311874343.6A Pending CN117831082A (zh) | 2023-12-29 | 2023-12-29 | 手掌区域检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117831082A (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345553A (zh) * | 2018-08-31 | 2019-02-15 | 厦门中控智慧信息技术有限公司 | 一种手掌及其关键点检测方法、装置和终端设备 |
CN110427826A (zh) * | 2019-07-04 | 2019-11-08 | 深兰科技(上海)有限公司 | 一种手掌识别方法、装置、电子设备及存储介质 |
US20200125824A1 (en) * | 2018-10-19 | 2020-04-23 | Idemia Identity & Security France | Method of extracting features from a fingerprint represented by an input image |
CN111241947A (zh) * | 2019-12-31 | 2020-06-05 | 深圳奇迹智慧网络有限公司 | 目标检测模型的训练方法、装置、存储介质和计算机设备 |
CN113963158A (zh) * | 2021-11-25 | 2022-01-21 | 佳都科技集团股份有限公司 | 一种掌静脉图像感兴趣区域提取方法及装置 |
CN116311400A (zh) * | 2023-02-10 | 2023-06-23 | 北京迈格威科技有限公司 | 掌纹图像的处理方法、电子设备及存储介质 |
CN116778533A (zh) * | 2023-06-14 | 2023-09-19 | 广东工业大学 | 一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 |
-
2023
- 2023-12-29 CN CN202311874343.6A patent/CN117831082A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109345553A (zh) * | 2018-08-31 | 2019-02-15 | 厦门中控智慧信息技术有限公司 | 一种手掌及其关键点检测方法、装置和终端设备 |
US20200125824A1 (en) * | 2018-10-19 | 2020-04-23 | Idemia Identity & Security France | Method of extracting features from a fingerprint represented by an input image |
CN110427826A (zh) * | 2019-07-04 | 2019-11-08 | 深兰科技(上海)有限公司 | 一种手掌识别方法、装置、电子设备及存储介质 |
CN111241947A (zh) * | 2019-12-31 | 2020-06-05 | 深圳奇迹智慧网络有限公司 | 目标检测模型的训练方法、装置、存储介质和计算机设备 |
CN113963158A (zh) * | 2021-11-25 | 2022-01-21 | 佳都科技集团股份有限公司 | 一种掌静脉图像感兴趣区域提取方法及装置 |
CN116311400A (zh) * | 2023-02-10 | 2023-06-23 | 北京迈格威科技有限公司 | 掌纹图像的处理方法、电子设备及存储介质 |
CN116778533A (zh) * | 2023-06-14 | 2023-09-19 | 广东工业大学 | 一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 |
Non-Patent Citations (2)
Title |
---|
MENGHAN ZHANG 等: "CECNet: Coordinate Encoding Competitive Neural Network For Palm Vein Recognition by Soft Large Margin Centralized Cosine Loss", 《IEEE ACCESS》, vol. 11, 8 December 2023 (2023-12-08), pages 141329 - 141342 * |
孙波: "基于深度学习的掌静脉识别算法研究与识别***", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 02, 15 February 2023 (2023-02-15), pages 138 - 3171 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110287960B (zh) | 自然场景图像中曲线文字的检测识别方法 | |
CN110232311B (zh) | 手部图像的分割方法、装置及计算机设备 | |
CN108520247B (zh) | 对图像中的对象节点的识别方法、装置、终端及可读介质 | |
CN108960211B (zh) | 一种多目标人体姿态检测方法以及*** | |
CN110378297B (zh) | 基于深度学习的遥感图像目标检测方法、装置、及存储介质 | |
CN108399386A (zh) | 饼图中的信息提取方法及装置 | |
CN109343920B (zh) | 一种图像处理方法及其装置、设备和存储介质 | |
US11017210B2 (en) | Image processing apparatus and method | |
CN112784810B (zh) | 手势识别方法、装置、计算机设备和存储介质 | |
CN109740606B (zh) | 一种图像识别方法及装置 | |
CN112801146B (zh) | 一种目标检测方法及*** | |
CN110852311A (zh) | 一种三维人手关键点定位方法及装置 | |
CN110443242B (zh) | 读数框检测方法、目标识别模型训练方法及相关装置 | |
CN111429482A (zh) | 目标跟踪方法、装置、计算机设备和存储介质 | |
CN112800955A (zh) | 基于加权双向特征金字塔的遥感影像旋转目标检测方法及*** | |
CN115375917B (zh) | 一种目标边缘特征提取方法、装置、终端及存储介质 | |
CN105912126A (zh) | 一种手势运动映射到界面的增益自适应调整方法 | |
Zhu et al. | HMFCA-Net: Hierarchical multi-frequency based Channel attention net for mobile phone surface defect detection | |
CN116128883A (zh) | 一种光伏板数量统计方法、装置、电子设备及存储介质 | |
CN111241961A (zh) | 人脸检测方法、装置及电子设备 | |
CN114332927A (zh) | 课堂举手行为检测方法、***、计算机设备和存储介质 | |
US11361589B2 (en) | Image recognition method, apparatus, and storage medium | |
CN117831082A (zh) | 手掌区域检测方法和装置 | |
CN113537158B (zh) | 一种图像目标检测方法、装置、设备及存储介质 | |
CN111913584B (zh) | 一种基于手势识别的鼠标光标控制方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |