CN116935415A - 笔尖定位方法、装置、终端设备及存储介质 - Google Patents
笔尖定位方法、装置、终端设备及存储介质 Download PDFInfo
- Publication number
- CN116935415A CN116935415A CN202210379235.0A CN202210379235A CN116935415A CN 116935415 A CN116935415 A CN 116935415A CN 202210379235 A CN202210379235 A CN 202210379235A CN 116935415 A CN116935415 A CN 116935415A
- Authority
- CN
- China
- Prior art keywords
- pen
- image
- nib
- current frame
- frame image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 238000001514 detection method Methods 0.000 claims abstract description 97
- 238000012545 processing Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 8
- 238000006073 displacement reaction Methods 0.000 claims description 7
- 230000001373 regressive effect Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000002349 favourable effect Effects 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 239000011521 glass Substances 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000004513 sizing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种笔尖定位方法、装置、终端设备及存储介质,该笔尖定位方法可以包括:识别当前帧图像中包含的握笔人手,并从当前帧图像中确定第一图像;其中,第一图像包括笔尖区域和握笔人手的至少部分区域;利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标;其中,笔尖检测模型是由多个第一样本图像及各个第一样本图像对应的标定笔尖坐标训练得到的,第一样本图像包括笔尖区域和握笔人手的至少部分区域。通过实施该方法,可以实现实时且精准的笔尖定位。
Description
技术领域
本申请涉及终端设备技术领域,尤其涉及一种笔尖定位方法、装置、终端设备及存储介质。
背景技术
目前的终端设备大都具备点读、搜题及笔记整理等功能。实践中发现,终端设备在实现这些功能时,往往需要获取用户利用笔进行书写的笔迹、区域等信息,可见,如何高效且精确地定位用户书写过程中笔尖的位置就显得尤为重要。
发明内容
本申请实施例提供了一种笔尖定位方法、装置、终端设备及存储介质,可以实现实时且精准的笔尖定位。
本申请实施例第一方面提供了一种笔尖定位方法,包括:
识别当前帧图像中包含的握笔人手,并从所述当前帧图像中确定第一图像;其中,所述第一图像包括笔尖区域和所述握笔人手的至少部分区域;
利用笔尖检测模型对所述第一图像进行笔尖检测,以得到所述当前帧图像对应的目标笔尖坐标;其中,所述笔尖检测模型是由多个第一样本图像及各个所述第一样本图像对应的标定笔尖坐标训练得到的,所述第一样本图像包括笔尖区域和握笔人手的至少部分区域。
作为一种可选的实施方式,在本申请实施例第一方面中,所述识别当前帧图像中包含的握笔人手,并从所述当前帧图像中确定第一图像,包括:
通过手笔区域检测模型识别当前帧图像中包含的握笔手指,提取所述握笔手指中第一个指节的特征,并根据所述第一个指节的特征确定目标手笔区域;其中,所述手笔区域检测模型是由多个第二样本图像及各个所述第二样本图像对应的标定手笔区域训练得到的,所述第二样本图像包括笔尖区域和握笔人手的整个手部区域;
从所述当前帧图像中截取所述目标手笔区域,以得到第一图像;
其中,所述第一样本图像为所述第二样本图像对应的标定手笔区域内的图像,所述第一样本图像包括笔尖区域和至少部分握笔手指的第一个指节的对应区域。
作为一种可选的实施方式,在本申请实施例第一方面中,所述识别当前帧图像中包含的握笔人手,并从所述当前帧图像中确定第一图像,包括:
识别当前帧图像中包含的握笔人手的第一手部区域;
根据预设的第一尺寸调整参数扩大所述第一手部区域,以确定包括笔尖的第一图像区域;
从所述当前帧图像中截取所述第一图像区域,以得到第一图像;
其中,所述第一样本图像包括笔尖区域和握笔人手的整个手部区域。
作为一种可选的实施方式,在本申请实施例第一方面中,所述识别当前帧图像中包含的握笔人手的第一手部区域,包括:
获取上一帧图像中包含的握笔人手的第二手部区域;
根据预设的位移参数对所述第二手部区域的位置进行调整,以确定当前帧图像中包含的握笔人手的第一手部区域。
作为一种可选的实施方式,在本申请实施例第一方面中,所述利用笔尖检测模型对所述第一图像进行笔尖检测,以得到所述当前帧图像对应的目标笔尖坐标之后,所述方法还包括:
根据所述当前帧图像对应的目标笔尖坐标和上一帧图像对应的目标笔尖坐标,计算笔尖对应的移动距离值;
若所述移动距离值大于移动距离阈值时,则确定所述当前帧图像对应的目标笔尖坐标为无效坐标。
作为一种可选的实施方式,在本申请实施例第一方面中,所述确定所述当前帧图像对应的目标笔尖坐标为无效坐标之后,所述方法还包括:
获取多个目标帧图像对应的目标笔尖坐标;其中,所述目标帧图像为在所述当前帧图像之前采集的图像,且所述目标帧图像对应的目标笔尖坐标均为有效坐标;
利用预设跟踪算法处理各个所述目标帧图像对应的目标笔尖坐标,以获取所述笔尖的运动曲线,并根据所述运动曲线,预测得到所述当前帧图像对应的有效的目标笔尖坐标。
作为一种可选的实施方式,在本申请实施例第一方面中,所述笔尖检测模型包括轻量级骨干网络和回归器,所述利用笔尖检测模型对所述第一图像进行笔尖检测,以得到所述当前帧图像对应的目标笔尖坐标,包括:
通过所述轻量级骨干网络提取所述第一图像的图像特征;
通过所述回归器对所述图像特征进行回归处理,以确定所述当前帧图像对应的目标笔尖坐标。
本申请实施例第二方面提供了一种笔尖定位装置,包括
图像提取单元,用于识别当前帧图像中包含的握笔人手,并从所述当前帧图像中确定第一图像;其中,所述第一图像包括笔尖区域和所述握笔人手的至少部分区域;
笔尖检测单元,用于利用笔尖检测模型对所述第一图像进行笔尖检测,以得到所述当前帧图像对应的目标笔尖坐标;其中,所述笔尖检测模型是由多个第一样本图像及各个所述第一样本图像对应的标定笔尖坐标训练得到的,所述第一样本图像包括笔尖区域和握笔人手的至少部分区域。
本申请实施例第三方面提供了一种终端设备,可以包括:
存储有可执行程序代码的存储器;
以及所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,所述可执行程序代码被所述处理器执行时,使得所述处理器实现如本申请实施例第一方面所述的方法。
本申请实施例第四方面提供一种计算机可读存储介质,其上存储有可执行程序代码,所述可执行程序代码被处理器执行时,实现如本申请实施例第一方面所述的方法。
本申请实施例第五方面公开一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得该计算机执行本申请实施例第一方面公开的任意一种所述的方法。
本申请实施例第六方面公开一种应用发布平台,该应用发布平台用于发布计算机程序产品,其中,当该计算机程序产品在计算机上运行时,使得该计算机执行本申请实施例第一方面公开的任意一种所述的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
在本申请实施例中,识别当前帧图像中包含的握笔人手,并从当前帧图像中确定第一图像;其中,第一图像包括笔尖区域和握笔人手的至少部分区域;利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标;其中,笔尖检测模型是由多个第一样本图像及各个第一样本图像对应的标定笔尖坐标训练得到的,第一样本图像包括笔尖区域和握笔人手的至少部分区域。
通过实施该方法,首先通过识别当前帧图像中的握笔人手,对当前帧图像中包含的笔尖进行粗略定位,以得到笔尖的粗略位置,也即第一图像对应的区域。然后在笔尖的粗略位置的基础上,通过笔尖检测模型以握笔人手为参考进行笔尖的精细定位,极大提高了笔尖的定位精度。进一步的,由于第一图像的像素相对当前帧图像的像素来说较少,有利于提高笔尖检测模型的笔尖检测效率,提高了笔尖定位的实时性。再进一步的,基于图像采集和识别实现对笔尖的定位,无需其额外的辅助硬件,有利于降低成本。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例和现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,还可以根据这些附图获得其它的附图。
图1A是本申请实施例公开的一种笔尖定位方法的场景示意图;
图1B是本申请实施例公开的当前帧图像的一种图示;
图1C是本申请实施例公开的一种笔尖定位方法的流程示意图;
图1D是本申请实施例公开的第一图像的一种图示;
图1E是本申请实施例公开的第一图像的另一种图示;
图2是本申请实施例公开的另一种笔尖定位方法的流程示意图;
图3是本申请实施例公开的又一种笔尖定位方法的流程示意图;
图4是本申请实施例公开的一种笔尖定位装置的结构框图;
图5是本申请实施例公开的一种终端设备的结构框图。
具体实施方式
本申请实施例提供了一种笔尖定位方法、装置、终端设备及存储介质,可以实现实时且精准的笔尖定位。
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,都应当属于本申请保护的范围。
可以理解的是,本申请实施例中所涉及的终端设备可以包括一般的手持有屏电子终端设备,诸如手机、智能电话、便携式终端、终端、个人数字助理(Personal DigitalAssistant,PDA)、便携式多媒体播放器(Personal Media Player,PMP)装置、笔记本电脑、笔记本(Note Pad)、无线宽带(Wireless Broadband,Wibro)终端、平板电脑(PersonalComputer,PC)、智能PC、销售终端(Point of Sales,POS)和车载电脑等。
终端设备也可以包括可穿戴设备。可穿戴设备可以直接穿戴在用户身上,或是整合到用户的衣服或配件的一种便携式电子设备。可穿戴设备不仅仅是一种硬件设备,更可以通过软件支持以及数据交互、云服务器交互来实现强大的智能功能,比如:计算功能、定位功能、报警功能,同时还可以连接手机及各类终端。可穿戴设备可以包括但不限于以手腕为支撑的watch类(比如手表、手腕等产品),以脚为支撑的shoes类(比如鞋、袜子或者其他腿上佩戴产品),以头部为支撑的Glass类(比如眼镜、头盔、头带等)以及智能服装,书包、拐杖、配饰等各类非主流产品形态。
需要说明的是,本申请实施例公开的笔尖定位方法的执行主体可以是终端设备或笔尖定位装置,本申请实施例不做限定。下述实施例主要以终端设备为例进行说明。
请参阅图1A,图1A是本申请实施例公开的一种笔尖定位方法的场景示意图。如图1所示的场景示意图可以包括终端设备10、书写面20、书写笔30及握笔人手40。其中,终端设备10包括摄像头11,在握笔人手40控制书写笔30在书写面20上书写的过程中,终端设备10可以控制前置摄像头11实时采集书写画面,进而基于采集到的书写画面实时定位书写笔30的笔尖在书写面20上的位置。
下述以当前帧图像为例,对书写笔30的笔尖定位方法进行说明。请参阅图1B,图1B是本申请实施例公开的当前帧图像的一种图示。图1B所示的当前帧图像中包括书写笔30、书写面20及握笔人手40。终端设备10可以通过识别当前帧图像中的握笔人手40,对当前帧图像中包含的笔尖进行粗略定位,以得到笔尖的粗略位置,也即第一图像对应的区域,进而在笔尖的粗略位置的基础上,通过笔尖检测模型以握笔人手为参考进行笔尖的精细定位,提高了笔尖的定位精度。进一步的,由于第一图像的像素相对当前帧图像的像素来说较少,有利于提高笔尖检测模型的笔尖检测效率,提高了笔尖定位的实时性。再进一步的,基于图像采集和识别实现对笔尖的定位,无需其额外的辅助硬件,有利于降低成本。
请参阅图1C,图1C是本申请实施例公开的一种笔尖定位方法的流程示意图。如图1C所示的笔尖定位方法可以包括以下步骤:
101、识别当前帧图像中包含的握笔人手,并从当前帧图像中确定第一图像;其中,第一图像包括笔尖区域和握笔人手的至少部分区域。
实践中发现,人手握笔书写时,握笔人手和笔的相对位置关系,或者,握笔手指的第一个指节和笔的相对位置关系往往较为固定。基于此,可以基于当前帧图像中包含的握笔人手的位置,或者握笔手指的第一个指节的位置,辅助定位笔尖在当前帧图像中的位置。
在一些实施例中,识别当前帧图像中包含的握笔人手,并从当前帧图像中确定第一图像,可以包括但不限于以下方式:
方式1、对当前帧图像中包含的整个握笔人手进行识别,并根据整个握笔人手在当前帧图像中的位置,及握笔人手和笔的第一相对位置关系,确定包含握笔人手的整个手部区域及笔尖区域的第一目标区域,以及从当前帧图像中截取第一目标区域得到第一图像。其中,整个握笔人手包含所有握笔手指,第一相对位置关系可以通过统计并分析大量握笔人手和笔的相对位置关系得到。
其中,关于通过方式1确定的第一图像的图示,请参阅图1D。其中,图1D包括整个手部区域50及笔尖区域60。
方式2、对当前帧图像中包含的握笔手指的第一个指节进行识别,并根据握笔手指的第一个指节在当前帧图像中的位置,及握笔手指的第一个指节和笔的第二相对位置关系,确定包含握笔手指的第一个指节的对应区域及笔尖区域的第二目标区域,以及从当前帧图像中截取第二目标区域得到第一图像。其中,第二相对位置关系可以通过统计并分析大量握笔手指的第一个指节和笔的相对位置关系得到。握笔手指的第一个指节为握笔手指最靠近笔尖的指节。
其中,关于通过方式1确定的第一图像的图示,请参阅图1E。其中,图1E包括第一个指节的对应区域70和笔尖区域60。
102、利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标。
其中,笔尖检测模型是由多个第一样本图像及各个第一样本图像对应的标定笔尖坐标训练得到的,第一样本图像包括笔尖区域和握笔人手的至少部分区域。需要说明的是,对于采用不同识别握笔人手的方式所得到的第一图像,由于第一图像中包含的图像内容不同,因此,笔尖检测模型也可采用不同的第一样本图像进行训练。若第一图像通过上述方式1得到,则第一样本图像包括笔尖区域和握笔人手的整个区域。若第一图像通过上述方式2得到,则第一样本图像包括笔尖区域和握笔手指的第一个指节的对应区域。可见,上述两种确定第一图像的方式分别对应不同的笔尖检测模型。
在一些实施例中,利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标,可以包括:利用笔尖检测模型对第一图像进行笔尖检测,以得到笔尖在第一图像上的坐标,并根据第一图像和当前帧图像的位置关系,确定笔尖坐标对应的坐标变换关系,以及根据该坐标变换关系对笔尖在第一图像上的坐标进行坐标转换,以得到当前帧图像对应的目标笔尖坐标。其中,当前帧图像对应的目标笔尖坐标反映的是笔尖在当前帧图像中位置。
在一些实施例中,笔尖检测模型可以为轻量级回归模型或者复杂回归模型,本申请实施例不做限定。
通过实施上述方法,首先通过识别当前帧图像中的握笔人手,对当前帧图像中包含的笔尖进行粗略定位,以得到笔尖的粗略位置,也即第一图像对应的区域。然后在笔尖的粗略位置的基础上,通过笔尖检测模型以握笔人手为参考进行笔尖的精细定位,极大提高了笔尖的定位精度。进一步的,由于第一图像的像素相对当前帧图像的像素来说较少,有利于提高笔尖检测模型的笔尖检测效率,提高了笔尖定位的实时性。再进一步的,基于图像采集和识别实现对笔尖的定位,无需其额外的辅助硬件,有利于降低成本。
请参阅图2,图2是本申请实施例公开的另一种笔尖定位方法的流程示意图。如图2所示的笔尖定位方法可以包括以下步骤:
201、通过手笔区域检测模型识别当前帧图像中包含的握笔手指,提取握笔手指中第一个指节的特征,并根据第一个指节的特征确定目标手笔区域。
第一图像可以是从当前帧图像中截取出的,包括笔尖区域及握笔手指的第一个指节的图像。其中,手笔区域检测模型是由多个第二样本图像及各个第二样本图像对应的标定手笔区域训练得到的,第二样本图像包括笔尖区域和握笔人手的整个手部区域需要说明的是,标定手笔区域是以第二样本图像中的握笔手指的第一个指节为参考标定的,标定手笔区域可以包括笔尖区域和至少部分握笔手指的第一个指节的对应区域。
可以理解的是,目标手笔区域可以包括笔尖区域和至少部分握笔手指的第一个指节的对应区域。
202、从当前帧图像中截取目标手笔区域,以得到第一图像。
203、利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标。
其中,笔尖检测模型是由第二样本图像对应的标定手笔区域内的图像,及对应的标定笔尖坐标训练得到的。笔尖检测模型是结合第一个指节的特征进行笔尖定位的。需要说明的是,在当前帧画面中笔尖的像素通常是比较少的,因而直接在对当前帧图像进行回归,笔尖的定位精度往往不高。而笔尖检测模型可以以第一个指节为参考对笔尖坐标进行回归,可以有效提高笔尖的定位精度。
在一些实施例中,在笔尖检测模型为轻量级回归模型时,笔尖检测模型可以包括轻量级骨干网络和回归器。可选的,利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标,可以包括:通过轻量级骨干网络提取第一图像的图像特征;通过回归器对图像特征进行回归处理,以确定当前帧图像对应的目标笔尖坐标。通过实施该方法,利用轻量级回归模型回归笔尖的坐标,可以简化计算复杂度,有利提高笔尖的定位效率。
在一些实施例中,步骤203之后,还可以根据当前帧图像对应的目标笔尖坐标和上一帧图像对应的目标笔尖坐标,计算笔尖对应的移动距离值;若移动距离值大于移动距离阈值时,则确定当前帧图像对应的目标笔尖坐标为无效坐标。
其中,移动距离值可以指的是笔尖在上一帧图像的采集时间点和当前帧图像的采集时间点之间的移动距离。移动距离阈值可以通过对笔尖在多个相邻的两个图像采集时间点之间的移动距离值,进行统计和分析得到。
在本申请实施例中,若移动距离值小于或等于移动距离阈值时,则确定当前帧图像对应的目标笔尖坐标为有效坐标。
在一些实施例中,在确定当前帧图像对应的目标笔尖坐标为无效坐标之后,还可以获取多个目标帧图像对应的目标笔尖坐标;其中,目标帧图像为在当前帧图像之前采集的图像,且目标帧图像对应的目标笔尖坐标均为有效坐标;利用预设跟踪算法处理各个目标帧图像对应的目标笔尖坐标,以获取笔尖的运动曲线,并根据运动曲线,预测得到当前帧图像对应的有效的目标笔尖坐标。
在一些实施例中,预设跟踪算法可以包括但不限于卡尔曼滤波算法、Camshift算法等。
通过实施该方法,可以对笔尖检测模型得到的当前帧图像对应的目标笔尖坐标进行有效性检测,并在当前帧图像对应的目标笔尖坐标为无效坐标的情况下,可以根据当前帧图像之前的多个图像对应的目标笔尖坐标,预测得到当前帧图像对应的目标笔尖坐标,可以降低笔尖定位的误差程度。
通过上述方法,首先通过手笔区域检测模型对当前帧图像中的手笔区域进行识别,以实现对笔尖的粗定位,然后再通过笔尖检测模型在粗定位的基础上,以第一个指节为参考对笔尖坐标进行回归,有利于提高笔尖的定位精度。
请参阅图3,图3是本申请实施例公开的又一种笔尖定位方法的流程示意图。如图3所示的笔尖定位方法可以包括以下步骤:
301、识别当前帧图像中包含的握笔人手的第一手部区域。
在一些实施例中,识别当前帧图像中包含的握笔人手的第一手部区域,可以包括但不限于以下方式:
方式1、利用握笔人手检测模型识别当前帧图像中包含的握笔人手,以得到握笔人手的第一手部区域。其中,握笔人手检测模型可以由第三样本图像及各个第三样本图像中包含的握笔人手的手部区域训练得到。
方式2、获取上一帧图像中包含的握笔人手的第二手部区域;根据预设的位移参数对第二手部区域的位置进行调整,以确定当前帧图像中包含的握笔人手的第一手部区域。
在一些实施例中,预设的位移参数可以通过对握笔人手在多个相邻的两个图像采集时间点之间的位移,进行统计和分析得到。通过实施该方法,基于上一帧图像中包含的握笔人手的手部区域,确定当前帧图像中包含的握笔人手的手部区域,无需进行复杂的图像识别,进一步提高了笔尖定位的实时性。
302、根据预设的第一尺寸调整参数扩大第一手部区域,以确定包括笔尖的第一图像区域。
其中,第一尺寸调整参数可以包括水平方向对应的调整参数和/或竖直方向上对应的调整参数。第一尺寸调整参数可以是通过统计分析大量握笔人手与笔尖之间的相对关系得到的。
303、从当前帧图像中截取第一图像区域,以得到第一图像。
304、利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标。
其中,用于训练笔尖检测模型的第一样本图像中包括笔尖区域和握笔人手的整个手部区域。笔尖检测模型是以握笔人手为参考进行笔尖定位的,相较于直接对当前帧图像进行回归,以握笔人手为参考的笔尖定位的精度更高。
通过上述方法,首先对当前帧图像中的握笔人手进行识别,以实现对笔尖的粗定位,然后再通过笔尖检测模型在粗定位的基础上,以整个握笔人手为参考对笔尖坐标进行回归,有利于提高笔尖的定位精度。
请参阅图4,图4是本申请实施例公开的一种笔尖定位装置的结构框图。如图4所示的笔尖定位装置可以包括:图像提取单元401和笔尖检测单元402;其中:
图像提取单元401,用于识别当前帧图像中包含的握笔人手,并从当前帧图像中确定第一图像;其中,第一图像包括笔尖区域和握笔人手的至少部分区域;
笔尖检测单元402,用于利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标;其中,笔尖检测模型是由多个第一样本图像及各个第一样本图像对应的标定笔尖坐标训练得到的,第一样本图像包括笔尖区域和握笔人手的至少部分区域。
在一些实施例中,图像提取单元401用于识别当前帧图像中包含的握笔人手,并从当前帧图像中确定第一图像的方式具体可以包括:图像提取单元401,用于通过手笔区域检测模型识别当前帧图像中包含的握笔手指,提取握笔手指中第一个指节的特征,并根据第一个指节的特征确定目标手笔区域;其中,手笔区域检测模型是由多个第二样本图像及各个第二样本图像对应的标定手笔区域训练得到的,第二样本图像包括笔尖区域和握笔人手的整个手部区域;从当前帧图像中截取目标手笔区域,以得到第一图像;其中,第一样本图像为第二样本图像对应的标定手笔区域内的图像,第一样本图像包括笔尖区域和至少部分握笔手指的第一个指节的对应区域。
在一些实施例中,图像提取单元401用于识别当前帧图像中包含的握笔人手,并从当前帧图像中确定第一图像的方式具体可以包括:图像提取单元401,用于识别当前帧图像中包含的握笔人手的第一手部区域;根据预设的第一尺寸调整参数扩大第一手部区域,以确定包括笔尖的第一图像区域;从当前帧图像中截取第一图像区域,以得到第一图像;其中,第一样本图像包括笔尖区域和握笔人手的整个手部区域。
在一些实施例中,图像提取单元401用于识别当前帧图像中包含的握笔人手的第一手部区域的方式具体可以包括:图像提取单元401,用于获取上一帧图像中包含的握笔人手的第二手部区域;根据预设的位移参数对第二手部区域的位置进行调整,以确定当前帧图像中包含的握笔人手的第一手部区域。
在一些实施例中,笔尖检测单元402,还用于利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标之后,根据当前帧图像对应的目标笔尖坐标和上一帧图像对应的目标笔尖坐标,计算笔尖对应的移动距离值;若移动距离值大于移动距离阈值时,则确定当前帧图像对应的目标笔尖坐标为无效坐标。
在一些实施例中,笔尖检测单元402,还用于确定当前帧图像对应的目标笔尖坐标为无效坐标之后,获取多个目标帧图像对应的目标笔尖坐标;其中,目标帧图像为在当前帧图像之前采集的图像,且目标帧图像对应的目标笔尖坐标均为有效坐标;利用预设跟踪算法处理各个目标帧图像对应的目标笔尖坐标,以获取笔尖的运动曲线,并根据运动曲线,预测得到当前帧图像对应的有效的目标笔尖坐标。
在一些实施例中,笔尖检测模型包括轻量级骨干网络和回归器。
可选的,笔尖检测单元402用于利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标的方式具体可以包括:,笔尖检测单元402,用于通过轻量级骨干网络提取第一图像的图像特征;通过回归器对图像特征进行回归处理,以确定当前帧图像对应的目标笔尖坐标。
请参阅图5,图5是本申请实施例公开的一种终端设备的结构框图。如图5所示的终端设备可以包括:处理器501、与处理器501耦合的存储器502,其中存储器502可存储有一个或多个计算机程序。
处理器501可以包括一个或者多个处理核。处理器501利用各种接口和线路连接整个终端设备内的各个部分,通过运行或执行存储在存储器502内的指令、程序、代码集或指令集,以及调用存储在存储器502内的数据,执行终端设备的各种功能和处理数据。可选地,处理器501可以采用数字信号处理(Digital Signal Processing,DSP)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、可编程逻辑阵列(Programmable LogicArray,PLA)中的至少一种硬件形式来实现。处理器501可集成中央处理器(CentralProcessing Unit,CPU)、图像处理器(Graphics Processing Unit,GPU)和调制解调器等中的一种或几种的组合。其中,CPU主要处理操作***、用户界面和应用程序等;GPU用于负责显示内容的渲染和绘制;调制解调器用于处理无线通信。可以理解的是,上述调制解调器也可以不集成到处理器501中,单独通过一块通信芯片进行实现。
存储器502可以包括随机存储器(Random Access Memory,RAM),也可以包括只读存储器(Read-Only Memory,ROM)。存储器502可用于存储指令、程序、代码、代码集或指令集。存储器502可包括存储程序区和存储数据区,其中,存储程序区可存储用于实现操作***的指令、用于实现至少一个功能的指令(比如触控功能、声音播放功能、图像播放功能等)、用于实现上述各个方法实施例的指令等。存储数据区还可以存储终端设备在使用中所创建的数据等。
在本申请实施例中,处理器501还具有以下功能:
识别当前帧图像中包含的握笔人手,并从当前帧图像中确定第一图像;其中,第一图像包括笔尖区域和握笔人手的至少部分区域;
利用笔尖检测模型对第一图像进行笔尖检测,以得到当前帧图像对应的目标笔尖坐标;其中,笔尖检测模型是由多个第一样本图像及各个第一样本图像对应的标定笔尖坐标训练得到的,第一样本图像包括笔尖区域和握笔人手的至少部分区域。
在本申请实施例中,处理器501还具有以下功能:
通过手笔区域检测模型识别当前帧图像中包含的握笔手指,提取握笔手指中第一个指节的特征,并根据第一个指节的特征确定目标手笔区域;其中,手笔区域检测模型是由多个第二样本图像及各个第二样本图像对应的标定手笔区域训练得到的,第二样本图像包括笔尖区域和握笔人手的整个手部区域;
从当前帧图像中截取目标手笔区域,以得到第一图像;
其中,第一样本图像为第二样本图像对应的标定手笔区域内的图像,第一样本图像包括笔尖区域和至少部分握笔手指的第一个指节的对应区域。
在本申请实施例中,处理器501还具有以下功能:
识别当前帧图像中包含的握笔人手的第一手部区域;
根据预设的第一尺寸调整参数扩大第一手部区域,以确定包括笔尖的第一图像区域;
从当前帧图像中截取第一图像区域,以得到第一图像;
其中,第一样本图像包括笔尖区域和握笔人手的整个手部区域。
在本申请实施例中,处理器501还具有以下功能:
获取上一帧图像中包含的握笔人手的第二手部区域;
根据预设的位移参数对第二手部区域的位置进行调整,以确定当前帧图像中包含的握笔人手的第一手部区域。
在本申请实施例中,处理器501还具有以下功能:
根据当前帧图像对应的目标笔尖坐标和上一帧图像对应的目标笔尖坐标,计算笔尖对应的移动距离值;
若移动距离值大于移动距离阈值时,则确定当前帧图像对应的目标笔尖坐标为无效坐标。
在本申请实施例中,处理器501还具有以下功能:
获取多个目标帧图像对应的目标笔尖坐标;其中,目标帧图像为在当前帧图像之前采集的图像,且目标帧图像对应的目标笔尖坐标均为有效坐标;
利用预设跟踪算法处理各个目标帧图像对应的目标笔尖坐标,以获取笔尖的运动曲线,并根据运动曲线,预测得到当前帧图像对应的有效的目标笔尖坐标。
在本申请实施例中,处理器501还具有以下功能:
通过轻量级骨干网络提取第一图像的图像特征;
通过回归器对图像特征进行回归处理,以确定当前帧图像对应的目标笔尖坐标。
本申请实施例公开一种计算机可读存储介质,其存储计算机程序,其中,所述计算机程序被处理器执行时,使得所述处理器实现上述实施例中终端设备执行的部分或全部步骤。
本申请实施例公开了一种计算机程序产品,当所述计算机程序产品在计算机上运行时,使得所述计算机执行上述实施例中终端设备执行的部分或全部步骤。
本申请实施例公开了一种应用发布平台,所述应用发布平台用于发布计算机程序产品,其中,当所述计算机程序产品在计算机上运行时,使得所述计算机执行上述实施例中终端设备执行的部分或全部步骤。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、磁盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态磁盘Solid State Disk(SSD))等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动磁盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (10)
1.一种笔尖定位方法,其特征在于,包括:
识别当前帧图像中包含的握笔人手,并从所述当前帧图像中确定第一图像;其中,所述第一图像包括笔尖区域和所述握笔人手的至少部分区域;
利用笔尖检测模型对所述第一图像进行笔尖检测,以得到所述当前帧图像对应的目标笔尖坐标;其中,所述笔尖检测模型是由多个第一样本图像及各个所述第一样本图像对应的标定笔尖坐标训练得到的,所述第一样本图像包括笔尖区域和握笔人手的至少部分区域。
2.根据权利要求1所述的方法,其特征在于,所述识别当前帧图像中包含的握笔人手,并从所述当前帧图像中确定第一图像,包括:
通过手笔区域检测模型识别当前帧图像中包含的握笔手指,提取所述握笔手指中第一个指节的特征,并根据所述第一个指节的特征确定目标手笔区域;其中,所述手笔区域检测模型是由多个第二样本图像及各个所述第二样本图像对应的标定手笔区域训练得到的,所述第二样本图像包括笔尖区域和握笔人手的整个手部区域;
从所述当前帧图像中截取所述目标手笔区域,以得到第一图像;
其中,所述第一样本图像为所述第二样本图像对应的标定手笔区域内的图像,所述第一样本图像包括笔尖区域和至少部分握笔手指的第一个指节的对应区域。
3.根据权利要求1所述的方法,其特征在于,所述识别当前帧图像中包含的握笔人手,并从所述当前帧图像中确定第一图像,包括:
识别当前帧图像中包含的握笔人手的第一手部区域;
根据预设的第一尺寸调整参数扩大所述第一手部区域,以确定包括笔尖的第一图像区域;
从所述当前帧图像中截取所述第一图像区域,以得到第一图像;
其中,所述第一样本图像包括笔尖区域和握笔人手的整个手部区域。
4.根据权利要求3所述的方法,其特征在于,所述识别当前帧图像中包含的握笔人手的第一手部区域,包括:
获取上一帧图像中包含的握笔人手的第二手部区域;
根据预设的位移参数对所述第二手部区域的位置进行调整,以确定当前帧图像中包含的握笔人手的第一手部区域。
5.根据权利要求1-4任一项所述的方法,其特征在于,所述利用笔尖检测模型对所述第一图像进行笔尖检测,以得到所述当前帧图像对应的目标笔尖坐标之后,所述方法还包括:
根据所述当前帧图像对应的目标笔尖坐标和上一帧图像对应的目标笔尖坐标,计算笔尖对应的移动距离值;
若所述移动距离值大于移动距离阈值时,则确定所述当前帧图像对应的目标笔尖坐标为无效坐标。
6.根据权利要求5所述的方法,其特征在于,所述确定所述当前帧图像对应的目标笔尖坐标为无效坐标之后,所述方法还包括:
获取多个目标帧图像对应的目标笔尖坐标;其中,所述目标帧图像为在所述当前帧图像之前采集的图像,且所述目标帧图像对应的目标笔尖坐标均为有效坐标;
利用预设跟踪算法处理各个所述目标帧图像对应的目标笔尖坐标,以获取所述笔尖的运动曲线,并根据所述运动曲线,预测得到所述当前帧图像对应的有效的目标笔尖坐标。
7.根据权利要求1-4任一项所述的方法,其特征在于,所述笔尖检测模型包括轻量级骨干网络和回归器,所述利用笔尖检测模型对所述第一图像进行笔尖检测,以得到所述当前帧图像对应的目标笔尖坐标,包括:
通过所述轻量级骨干网络提取所述第一图像的图像特征;
通过所述回归器对所述图像特征进行回归处理,以确定所述当前帧图像对应的目标笔尖坐标。
8.一种笔尖检测装置,其特征在于,包括
图像提取单元,用于识别当前帧图像中包含的握笔人手,并从所述当前帧图像中确定第一图像;其中,所述第一图像包括笔尖区域和所述握笔人手的至少部分区域;
笔尖检测单元,用于利用笔尖检测模型对所述第一图像进行笔尖检测,以得到所述当前帧图像对应的目标笔尖坐标;其中,所述笔尖检测模型是由多个第一样本图像及各个所述第一样本图像对应的标定笔尖坐标训练得到的,所述第一样本图像包括笔尖区域和握笔人手的至少部分区域。
9.一种终端设备,其特征在于,包括
存储有可执行程序代码的存储器;
以及所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,所述可执行程序代码被所述处理器执行时,使得所述处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读存储介质,其存储计算机程序,其中,所述计算机程序被处理器执行时,使得所述处理器实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210379235.0A CN116935415A (zh) | 2022-04-12 | 2022-04-12 | 笔尖定位方法、装置、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210379235.0A CN116935415A (zh) | 2022-04-12 | 2022-04-12 | 笔尖定位方法、装置、终端设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116935415A true CN116935415A (zh) | 2023-10-24 |
Family
ID=88377948
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210379235.0A Pending CN116935415A (zh) | 2022-04-12 | 2022-04-12 | 笔尖定位方法、装置、终端设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116935415A (zh) |
-
2022
- 2022-04-12 CN CN202210379235.0A patent/CN116935415A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114303120B (zh) | 虚拟键盘 | |
CN106951484B (zh) | 图片检索方法及装置、计算机设备及计算机可读介质 | |
US10416740B2 (en) | Upsampling sensors to auto-detect a fitness activity | |
CN112926423B (zh) | 捏合手势检测识别方法、装置及*** | |
CN107368820B (zh) | 一种精细化手势识别方法、装置及设备 | |
US10678342B2 (en) | Method of virtual user interface interaction based on gesture recognition and related device | |
WO2019174398A1 (zh) | 一种利用手势模拟鼠标操作的方法、装置及终端 | |
CN112506340A (zh) | 设备控制方法、装置、电子设备及存储介质 | |
CN111625157B (zh) | 指尖关键点检测方法、装置、设备和可读存储介质 | |
CN110163171B (zh) | 用于识别人脸属性的方法和装置 | |
CN113867521B (zh) | 一种基于手势视觉识别的手写输入方法、装置及电子设备 | |
EP3047366B1 (en) | Detecting primary hover point for multi-hover point device | |
CN111401318A (zh) | 动作识别方法及装置 | |
WO2021159935A1 (zh) | 图像显示方法及相关产品 | |
US10514844B2 (en) | Automatically modifying an input area based on a proximity to one or more edges | |
US20200142582A1 (en) | Disambiguating gesture input types using multiple heatmaps | |
CN110796147B (zh) | 图像分割方法及相关产品 | |
US11853483B2 (en) | Image processing method and apparatus for smart pen including pressure switches, and electronic device | |
US20190204931A1 (en) | Sign language inputs to a vehicle user interface | |
WO2015135362A1 (en) | Interaction method and apparatus | |
CN116935415A (zh) | 笔尖定位方法、装置、终端设备及存储介质 | |
CN116449980A (zh) | 信息处理装置以及控制方法 | |
CN115471416A (zh) | 目标识别方法、存储介质及设备 | |
CN111258413A (zh) | 虚拟对象的控制方法和装置 | |
JP2010086367A (ja) | 位置情報入力装置、位置情報入力方法、プログラム、情報処理システム、及び電子装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |