CN111382624B - 动作识别方法、装置、设备及可读存储介质 - Google Patents
动作识别方法、装置、设备及可读存储介质 Download PDFInfo
- Publication number
- CN111382624B CN111382624B CN201811629085.4A CN201811629085A CN111382624B CN 111382624 B CN111382624 B CN 111382624B CN 201811629085 A CN201811629085 A CN 201811629085A CN 111382624 B CN111382624 B CN 111382624B
- Authority
- CN
- China
- Prior art keywords
- frame
- key point
- action
- target object
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/28—Recognition of hand or arm movements, e.g. recognition of deaf sign language
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种动作识别方法、装置、设备及可读存储介质,属于人工智能技术领域。包括:获取多帧图像,检测多帧图像包含的对象的关键点信息;获取多帧图像包含的对象中的目标对象的关键点信息;根据目标对象的关键点信息,生成目标对象的关键点时序图;基于关键点时序图对包含目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果;根据每帧目标图像的动作分类结果和动作进程结果输出目标对象的动作识别结果。本发明可适用于通过单目相机采集的图像,成本较低。可自动检测目标的挥手、握手等动态手势,准确性和效率均较高。在人机交互时,可辅助机器人自动识别人体手势,为作出相应响应提供触发信号。
Description
技术领域
本发明涉及人工智能技术领域,特别涉及一种动作识别方法、装置、设备及可读存储介质。
背景技术
随着人工智能技术的发展,各种新兴的交互方式正逐渐代替传统的输入设备,并在人机交互领域得到了广泛的应用。基于动作识别的人机交互方式,可以让用户摆脱传统便携式硬件的束缚,直接通过动作与机器人进行交互,实现更为自然、便捷的交互体验。
目前,相关技术提供了一种通过手势识别装置进行手势识别的方法,该手势识别装置侦测对象的形状及运动轨迹,当手势识别装置判断手势识别装置中的线材模组装置缠绕于使用者的手上时,手势识别装置进入手势识别模式,根据手势数据查找表以确定当前使用者的手势。
然而,采用手势识别装置进行手势识别时,需要在手部携带线材模组装置,便携性差,识别准确率依赖预存手势数据查找表,漏检率和误检率高。
发明内容
本发明实施例提供了一种动作识别方法、装置、设备及可读存储介质,以解决相关技术中的问题。所述技术方案如下:
一方面,提供了一种动作识别方法,所述方法包括:
获取多帧图像,检测所述多帧图像包含的对象的关键点信息;
获取所述多帧图像包含的对象中的目标对象的关键点信息;
根据所述目标对象的关键点信息,生成所述目标对象的关键点时序图;
基于所述关键点时序图对包含所述目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果;
根据所述每帧目标图像的动作分类结果和动作进程结果输出所述目标对象的动作识别结果。
可选地,所述检测所述多帧图像包含的对象的关键点信息,包括:
获取关键点识别模型,采用所述关键点识别模型对所述多帧图像包含的对象的关键点进行识别,得到所述多帧图像包含的对象的关键点信息。
可选地,所述方法还包括:
对每帧图像进行尺寸调整;
采用所述关键点识别模型对所述多帧图像包含的对象的关键点进行识别,包括:
采用所述关键点识别模型对尺寸调整后的多帧图像包含的对象的关键点进行识别。
可选地,所述获取所述多帧图像包含的对象中的目标对象的关键点信息,包括:
根据所述多帧图像包含的对象的关键点信息确定每个对象的外接矩形框;
根据每个对象的外接矩形框对目标对象进行跟踪匹配,基于跟踪匹配结果得到所述目标对象的关键点信息。
可选地,所述根据所述目标对象的关键点信息,生成所述目标对象的关键点时序图,包括:
对所述目标对象的关键点信息按照时序进行累计,得到所述目标对象的关键点时序图,所述关键点时序图的行数为包含所述目标对象的图像的帧数,所述关键点时序图的列数为关键点个数,所述关键点时序图的通道数为坐标维度。
可选地,所述基于所述关键点时序图对包含所述目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果,包括:
获取动作分类模型,采用所述动作分类模型,基于所述关键点时序图中包含所述目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果;
对于所述关键点时序图中的每帧目标图像,根据动作开始帧、动作结束帧的位置及每帧的位置确定每帧的动作进程,得到每帧目标图像的动作进程结果。
可选地,所述采用所述动作分类模型,基于所述关键点时序图中包含所述目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果,包括:
采用所述动作分类模型提取所述关键点时序图中包含所述目标对象的每帧目标图像的骨架数据,根据每帧目标图像的骨架数据获取每帧目标图像的骨架运动数据;
提取所述骨架运动数据的特征,将提取的特征在通道维度上进行拼接,得到拼接后的特征;
基于拼接后的特征对每帧目标图像进行动作分类。
可选地,所述根据所述每帧目标图像的动作分类结果和所述每帧图像的动作进程结果输出所述目标对象的动作识别结果,包括:
若第一参考数量帧的目标图像中,动作分类结果和动作进程结果均满足条件,且对于相同动作分类结果的图像数量达到第二参考数量帧,则将所述相同的动作分类结果对应的动作作为识别结果进行输出。
还提供了一种动作识别装置,所述装置包括:
第一获取模块,用于获取多帧图像;
检测模块,用于检测所述多帧图像包含的对象的关键点信息;
第二获取模块,用于获取所述多帧图像包含的对象中的目标对象的关键点信息;
生成模块,用于根据所述目标对象的关键点信息,生成所述目标对象的关键点时序图;
分类回归模块,用于基于所述关键点时序图对包含所述目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果;
输出模块,用于根据所述每帧目标图像的动作分类结果和动作进程结果输出所述目标对象的动作识别结果。
可选地,所述检测模块,用于获取关键点识别模型,采用所述关键点识别模型对所述多帧图像包含的对象的关键点进行识别,得到所述多帧图像包含的对象的关键点信息。
可选地,所述装置还包括:
调整模块,用于对每帧图像进行尺寸调整;
所述检测模块,用于采用所述关键点识别模型对尺寸调整后的多帧图像包含的对象的关键点进行识别。
可选地,所述第二获取模块,用于根据所述多帧图像包含的对象的关键点信息确定每个对象的外接矩形框;根据每个对象的外接矩形框对目标对象进行跟踪匹配,基于跟踪匹配结果得到所述目标对象的关键点信息。
可选地,所述生成模块,用于对所述目标对象的关键点信息按照时序进行累计,得到所述目标对象的关键点时序图,所述关键点时序图的行数为包含所述目标对象的图像的帧数,所述关键点时序图的列数为关键点个数,所述关键点时序图的通道数为坐标维度。
可选地,所述分类回归模块,包括:
分类单元,用于获取动作分类模型,采用所述动作分类模型,基于所述关键点时序图中包含所述目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果;
回归单元,用于对于所述关键点时序图中的每帧目标图像,根据动作开始帧、动作结束帧的位置及每帧的位置确定每帧的动作进程,得到每帧目标图像的动作进程结果。
可选地,所述分类单元,用于采用所述动作分类模型提取所述关键点时序图中包含所述目标对象的每帧目标图像的骨架数据,根据每帧目标图像的骨架数据获取每帧目标图像的骨架运动数据;提取所述骨架运动数据的特征,将提取的特征在通道维度上进行拼接,得到拼接后的特征;基于拼接后的特征对每帧目标图像进行动作分类。
可选地,所述输出模块,用于若第一参考数量帧的目标图像中,动作分类结果和动作进程结果均满足条件,且对于相同动作分类结果的图像数量达到第二参考数量帧,则将所述相同的动作分类结果对应的动作作为识别结果进行输出。
一方面,提供了一种动作识别装置,所述装置包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上任一所述的动作识别方法。
一方面,提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如上任一所述的动作识别方法。
本发明实施例提供的技术方案带来的有益效果至少包括:
通过对图像包含的对象的关键点信息进行检测,获取目标对象的关键点信息,再基于目标对象的关键点信息生成目标对象的关键点时序图,然后通过关键点时序图进行动作分类及进程回归,从而据此输出动作识别结果。该方法可适用于通过单目相机采集的图像,成本较低。此外,该方法可以自动检测目标对象的挥手、握手等动态手势,在进行人机交互时,可以辅助机器人自动识别人体手势,为作出相应响应提供触发信号。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种动作识别方法流程图;
图2是本发明实施例提供的一种人体手势关键点示意图;
图3是本发明实施例提供的一种双流动作识别CNN的结构示意图;
图4是本发明实施例提供的一种动作识别整体流程图;
图5是本发明实施例提供的一种动作识别装置的结构示意图;
图6是本发明实施例提供的一种动作识别装置的结构示意图;
图7是本发明实施例提供的一种动作识别装置的结构示意图;
图8是本发明实施例提供的一种终端的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。
随着人工智能技术的发展,语音、手势等新兴交互方式正逐渐代替传统的输入设备,并在人机交互领域得到了广泛的应用。其中,动作识别技术在深度学习的驱动下,取得了重要的进展,而手势识别技术是动作识别技术中比较常见的一种,从表现形式上,可以分成静态手势识别和动态手势识别。静态手势是通过静态手型表达语义,动态手势则是结合手型和手部运动表达语义。从手势数据采集方式上,可以分为单目相机、深度相机和可穿戴设备。
而基于手势识别的人机交互方式,可以让用户摆脱传统便携式硬件的束缚,直接通过手势动作与机器人进行交互,实现更为自然、便捷的交互体验。
然而,动态手势识别是一项极具挑战性的任务,它的主要难点问题如下:1、如何准确地检测跟踪运动的身体部位,并解释运动序列的含义;2、如何适应手势动作因个体变化产生的差异;3、如何实现实时的手势识别方法,达到实时交互的需求。
为此,本发明实施例提供了一种动作识别方法,该方法通过对目标对象的关键点进行检测,可以从单目RGB图像中,准确地定位到目标对象的手臂和手掌的位置,并通过设计分类网络对手臂、手掌的时空位置进行分类,可以有效地进行动态手势识别。本方法仅需要单目相机即可进行数据采集,成本低,且算法性能和效率均较高。该方法可应用于终端中,例如机器人。
参见图1,本发明实施例提供的方法包括步骤如下:
在步骤101中,获取多帧图像,检测多帧图像包含的对象的关键点信息。
在一种可选的实施方式中,检测多帧图像包含的对象的关键点信息,包括:
获取关键点识别模型,采用关键点识别模型对多帧图像包含的对象的关键点进行识别,得到多帧图像包含的对象的关键点信息。
获取关键点识别模型时,先对关键点进行定义、标定和训练得到关键点识别模型,然后采用关键点识别模型对多帧图像所包含的对象的关键点信息进行识别,得到多帧图像包含的对象的关键点信息。
参见图2,以对象为人为例,对关键点进行定义,定义的关键点包括但不限于头、脖子、右肩、右手肘、右手腕、左肩、左手肘、左手腕、右臀、右膝盖、右脚腕、左臀、左膝盖、左脚腕、中心点、右拇指根、右拇指间、右拇指尖、右食指根、右食指间、右食指尖、右中指根、右中指间、右中指尖、右无名指根、右无名指间、右无名指尖、右小指根、右小指间、右小指尖、左拇指根、左拇指间、左拇指尖、左食指根、左食指间、左食指尖、左中指根、左中指间、左中指尖、左无名指根、左无名指间、左无名指尖、左小指根、左小指间、左小指尖,并将前述45个关键点进行标定。之后,通过调整OpenPose算法的通道数至45,从而对45个关键点进行训练得到关键点识别模型。然后采用关键点识别模型对多帧图像包含的对象的关键点进行识别,得到多帧图像包含的对象的关键点信息。
基于上述过程,由于人体手势动作可以看作是由骨架驱动的非刚体运动,因此人体骨架的变化可以充分描述人体运动规律。相比于RGB图像和深度图,基于OpenPose算法提取出来的骨架信息,具备高层语义信息,能更加具体地描述行为动作。因此,相比于直接从原始图像提取特征进行行为识别的方法,基于人体关键点检测的行为识别方法具备更好的性能和更强的鲁棒性。此外,由于骨架信息数据量极小,可以满足实时分析的需求。
进一步地,该方法还包括:
对每帧图像进行尺寸调整;
相应地,采用关键点识别模型对多帧图像包含的对象的关键点进行识别,包括:采用关键点识别模型对尺寸调整后的多帧图像包含的对象的关键点信息进行识别。
通过对每帧图像的尺寸进行调整,将图像调整到适合关键点识别模型处理的大小格式。其中,尺寸大小可以为656×368,本发明实施例对此不加以限制。
在步骤102中,获取多帧图像包含的对象中的目标对象的关键点信息。
可选地,获取多帧图像包含的对象中的目标对象的关键点信息,包括:
根据多帧图像包含的对象的关键点信息确定每个对象的外接矩形框;
根据每个对象的外接矩形框对目标对象进行跟踪匹配,基于跟踪匹配结果得到目标对象的关键点信息。
处理每帧图像时,先运用图像包含的对象的所有关键点信息的坐标分别计算得到每个对象的外接矩形框。然后,运用CMOT算法对目标ID进行匹配,从而实现目标对象跟踪。之后再针对跟踪到的每个图像进行关键点检测。
在步骤103中,根据目标对象的关键点信息,生成目标对象的关键点时序图。
可选地,根据目标对象的关键点信息,生成目标对象的关键点时序图,包括:
对目标对象的关键点信息按照时序进行累计,得到目标对象的关键点时序图,关键点时序图的行数为包含目标对象的图像的帧数,关键点时序图的列数为关键点个数,关键点时序图的通道数为坐标维度。
以目标图像的帧数为12,关键点个数为40,坐标维度为3为例,时序图的第一行为第12帧图像,时序图的最后一行为第1帧图像。每一列对应的关键点分别为头、脖子、右肩、右手肘、右手腕、左肩、左手肘、左手腕、右臀、左臀、右拇指根、右拇指间、右拇指尖、右食指根、右食指间、右食指尖、右中指根、右中指间、右中指尖、右无名指根、右无名指间、右无名指尖、右小指根、右小指间、右小指尖、左拇指根、左拇指间、左拇指尖、左食指根、左食指间、左食指尖、左中指根、左中指间、左中指尖、左无名指根、左无名指间、左无名指尖、左小指根、左小指间、左小指尖,这40种关键点。坐标维度分别为x坐标、y坐标、关键点ID。
此外,本申请对相邻两帧图像的关键点信息的数据做帧差,提取关键点运动信息,然后,在最后一帧补零,得到尺寸为T×M×D的运动信息。最终,将目标对象的关键点信息和关键点运动信息保存在bin文件,为后续动作分类网络提供离线的训练数据。
在步骤104中,基于关键点时序图对包含目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果。
在一种可选的实施方式中,基于关键点时序图对包含目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果,包括:
获取动作分类模型,采用动作分类模型,基于关键点时序图中包含目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果;
对于关键点时序图中的每帧目标图像,根据动作开始帧、动作结束帧的位置及每帧的位置确定每帧的动作进程,得到每帧目标图像的动作进程结果。
进一步地,采用动作分类模型对关键点时序图中每帧目标图像的关键点信息对每帧图像进行动作分类,包括:
采用动作分类模型,基于关键点时序图中包含目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果,包括:采用动作分类模型提取关键点时序图中包含目标对象的每帧目标图像的骨架数据,根据每帧目标图像的骨架数据获取每帧目标图像的骨架运动数据;提取骨架运动数据的特征,将提取的特征在通道维度上进行拼接,得到拼接后的特征;基于拼接后的特征对每帧目标图像进行动作分类。
可选的,基于关键点时序图中每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果。其中,关键点信息包括:目标图像的帧数、关键点个数和坐标维度。
以手势识别为例,本发明实施例提供的动作分类模型的建立方式包括但不限于:采集挥右手、挥左手、握右手、握左手、右手打电话、左手打电话、摆臂、站立等动作视频,并标定类别。然后,采用OpenPose算法生成对应的关键点时序图,并且对每帧目标图像都设立对应的动作类别标签,接着,结合动作类别标签和关键点时序图训练并获得动作分类模型。之后,便可以采用该动作分类模型对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果。
采用动作分类模型提取关键点时序图中每帧图像的骨架数据,其中,骨架数据为该帧图像上骨架对应的x轴和y轴的数据;骨架运动数据为相邻两帧图像之间骨架数据的差值。根据骨架数据和骨架运动数据得到骨架数据图,将骨架数据和骨架运动数据输入动作分类模型继续提取分类特征。
可选的,基于关键点时序图中每帧目标图像的关键点信息对每帧目标图像进行进程回归,得到每帧目标图像的动作进程结果,包括:
对于关键点时序图中的每帧目标图像,根据动作开始帧、动作结束帧的位置及每帧的位置确定每帧的动作进程,得到每帧目标图像的动作进程结果。
可选的,对于关键点时序图中的每帧目标图像,可以根据动作开始帧的位置T1、动作结束帧的位置T2以及每帧的位置T3,按照如下公式确定每帧的动作进程P3:
P3=(T3-T1+1)/(T2-T1+1)。
其中,采用动作分类模型进行上述动作分类和回归进程的处理过程可参见图3所示。将目标对象的关键点信息和关键点运动信息保存在bin文件之后,对bin文件中的数据进行数据切分,分别得到联合数据和运动数据。之后,分别对联合数据和运动数据进行卷积、批量化归一处理、激活函数的激活处理、池化处理等,再经过concat函数结合,如此经过多层处理之后,再通过全连接层进行处理,得到动作分类结果和动作进程回归结果。
在步骤105中,根据每帧目标图像的动作分类结果和动作进程结果输出目标对象的动作识别结果。
在一种可选实施例中,根据每帧目标图像的动作分类结果和每帧图像的动作进程结果输出目标对象的动作识别结果,包括:
若第一参考数量帧的目标图像中,动作分类结果和动作进程结果均满足条件,且对于相同动作分类结果的图像数量达到第二参考数量帧,则将相同的动作分类结果对应的动作作为识别结果进行输出。
可选地,目标图像的动作类别和动作进程均满足条件,将该动作类别缓存;当连续预设帧(第一参考数量帧)的目标图像中,特定的动作类别达到预设数量(第二参考数量帧)时,则输出该动作类别。
综上所述,上述各个步骤的整体流程可参见图4。对于一些视频,得到的是YUV图像,通过对该YUV图像进行图像预处理,得到RGB图像。通过对图像进行人体关键点检测,得到关键点信息。基于关键点信息进行CMOT跟踪,之后得到目标对象的关键点信息。每帧图像都可以认为是目标对象的关键点信息的时序图,通过将各帧时序图拼接,即基于目标对象的关键点信息生成目标对象的关键点时序图。在此基础上,采用CNN神经网络分别进行动作分类和动作进程判别,从而得到动作的状态。之后,通过事件仲裁,输出动作类别。其中,事件仲裁是指确定动作分类结果和动作进程结果是否均满足条件,对于相同动作分类结果的图像数量达到第二参考数量帧,则将相同的动作分类结果对应的动作作为识别结果进行输出。
可选地,得到动作识别结果后,如果某一类动作出现次数超过报警阈值,则可以触发报警,从而对该类动作进行提示。其中,触发报警时的报警阈值可根据经验进行设置,在动作识别过程中还可以进行调整,本发明实施例对此不加以限定。
本发明实施例提供的方法,通过对图像包含的对象的关键点信息进行检测,获取目标对象的关键点信息,再基于目标对象的关键点信息生成目标对象的关键点时序图,然后通过关键点时序图进行动作分类及进程回归,从而据此输出动作识别结果。不仅可以自动检测目标的挥手、握手等动态手势,在进行人机交互时,可以辅助机器人自动识别人体手势,为作出相应响应提供触发信号。
基于相同发明构思,本发明实施例提供了一种动作识别装置,参见图5,该装置包括:
第一获取模块501,用于获取多帧图像;
检测模块502,用于检测多帧图像包含的对象的关键点信息;
第二获取模块503,用于获取多帧图像包含的对象中的目标对象的关键点信息;
生成模块504,用于根据目标对象的关键点信息,生成目标对象的关键点时序图;
分类回归模块505,用于基于关键点时序图对包含目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果;
输出模块506,用于根据每帧目标图像的动作分类结果和动作进程结果输出目标对象的动作识别结果。
可选地,检测模块502,用于获取关键点识别模型,采用关键点识别模型对多帧图像包含的对象的关键点进行识别,得到多帧图像包含的对象的关键点信息。
可选地,参见图6,该装置还包括:
调整模块507,用于对每帧图像进行尺寸调整;
检测模块502,用于采用关键点识别模型对尺寸调整后的多帧图像包含的对象的关键点进行识别。
可选地,第二获取模块503,用于根据多帧图像包含的对象的关键点信息确定每个对象的外接矩形框;根据每个对象的外接矩形框对目标对象进行跟踪匹配,基于跟踪匹配结果得到目标对象的关键点信息。
可选地,生成模块504,用于对目标对象的关键点信息按照时序进行累计,得到目标对象的关键点时序图,关键点时序图的行数为包含目标对象的图像的帧数,关键点时序图的列数为关键点个数,关键点时序图的通道数为坐标维度。
可选地,参见图7,分类回归模块505,包括:
分类单元5051,用于获取动作分类模型,采用动作分类模型,基于关键点时序图中包含目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果;
回归单元5052,用于对于关键点时序图中的每帧目标图像,根据动作开始帧、动作结束帧的位置及每帧的位置确定每帧的动作进程,得到每帧目标图像的动作进程结果。
可选地,分类单元5051,用于采用动作分类模型提取关键点时序图中包含目标对象的每帧目标图像的骨架数据,根据每帧目标图像的骨架数据获取每帧目标图像的骨架运动数据;提取骨架运动数据的特征,将提取的特征在通道维度上进行拼接,得到拼接后的特征;基于拼接后的特征对每帧目标图像进行动作分类。
可选地,输出模块506,用于若第一参考数量帧的目标图像中,动作分类结果和动作进程结果均满足条件,且对于相同动作分类结果的图像数量达到第二参考数量帧,则将相同的动作分类结果对应的动作作为识别结果进行输出。
本发明实施例提供的装置,通过对图像包含的对象的关键点信息进行检测,获取目标对象的关键点信息,再基于目标对象的关键点信息生成目标对象的关键点时序图,然后通过关键点时序图进行动作分类及进程回归,从而据此输出动作识别结果。不仅可以自动检测目标的挥手、握手等动态手势,在进行人机交互时,可以辅助机器人自动识别人体手势,为作出相应响应提供触发信号。
需要说明的是,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的装置与方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
参见图8,其示出了本发明实施例提供的一种请求重试的终端800的结构示意图。该终端800可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(Moving PictureExperts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPicture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端800包括有:处理器801和存储器802。
处理器801可以包括一个或多个处理核心,比如4个核心处理器、5个核心处理器等。处理器801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器801所执行以实现本申请中方法实施例提供的动作识别方法。
在一些实施例中,终端800还可选包括有:***设备接口803和至少一个***设备。处理器801、存储器802和***设备接口803之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口803相连。具体地,***设备包括:射频电路804、触摸显示屏805、摄像头806、音频电路807、定位组件808和电源809中的至少一种。
***设备接口803可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和***设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和***设备接口803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路804还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏805用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏805是触摸显示屏时,显示屏805还具有采集在显示屏805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器801进行处理。此时,显示屏805还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏805可以为一个,设置终端800的前面板;在另一些实施例中,显示屏805可以为至少两个,分别设置在终端800的不同表面或呈折叠设计;在再一些实施例中,显示屏805可以是柔性显示屏,设置在终端800的弯曲表面上或折叠面上。甚至,显示屏805还可以设置成非矩形的不规则图形,也即异形屏。显示屏805可以采用LCD(LiquidCrystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还可以包括耳机插孔。
定位组件808用于定位终端800的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件808可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源809用于为终端800中的各个组件进行供电。电源809可以是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端800还包括有一个或多个传感器88。该一个或多个传感器88包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
加速度传感器88可以检测以终端800建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811可以用于检测重力加速度在三个坐标轴上的分量。处理器801可以根据加速度传感器811采集的重力加速度信号,控制触摸显示屏805以横向视图或纵向视图进行用户界面的显示。加速度传感器811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器812可以检测终端800的机体方向及转动角度,陀螺仪传感器812可以与加速度传感器811协同采集用户对终端800的3D动作。处理器801根据陀螺仪传感器812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器813可以设置在终端800的侧边框和/或触摸显示屏805的下层。当压力传感器813设置在终端800的侧边框时,可以检测用户对终端800的握持信号,由处理器801根据压力传感器813采集的握持信号进行左右手识别或快捷操作。当压力传感器813设置在触摸显示屏805的下层时,由处理器801根据用户对触摸显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,由处理器801根据指纹传感器814采集到的指纹识别用户的身份,或者,由指纹传感器814根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器814可以被设置终端800的正面、背面或侧面。当终端800上设置有物理按键或厂商Logo时,指纹传感器814可以与物理按键或厂商Logo集成在一起。
光学传感器815用于采集环境光强度。在一个实施例中,处理器801可以根据光学传感器815采集的环境光强度,控制触摸显示屏805的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏805的显示亮度;当环境光强度较低时,调低触摸显示屏805的显示亮度。在另一个实施例中,处理器801还可以根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,通常设置在终端800的前面板。接近传感器816用于采集用户与终端800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与终端800的正面之间的距离逐渐变小时,由处理器801控制触摸显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与终端800的正面之间的距离逐渐变大时,由处理器801控制触摸显示屏805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图8中示出的结构并不构成对终端800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
本发明实施例还提供了一种动作识别装置,该装置包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如上任一所述的动作识别方法。
本发明实施例还提供了一种计算机可读存储介质,存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如上任一所述的动作识别方法。
上述所有可选技术方案,可以采用任意结合形成本公开的可选实施例,在此不再一一赘述。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (18)
1.一种动作识别方法,其特征在于,所述方法包括:
获取多帧图像,检测所述多帧图像包含的对象的关键点信息;
获取所述多帧图像包含的对象中的目标对象的关键点信息;
根据所述目标对象的关键点信息,生成所述目标对象的关键点时序图;
基于所述关键点时序图对包含所述目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果;
根据所述每帧目标图像的动作分类结果和动作进程结果输出所述目标对象的动作识别结果;
其中,基于所述关键点时序图对包含所述目标对象的每帧目标图像进行进程回归,得到每帧目标图像的动作进程结果,包括:
对于所述关键点时序图中的每帧目标图像,根据动作开始帧的位置T1、动作结束帧的位置T2及每帧的位置T3,按照如下公式确定每帧的动作进程P3,得到每帧目标图像的动作进程结果:P3=(T3-T1+1)/(T2-T1+1)。
2.根据权利要求1所述的方法,其特征在于,所述检测所述多帧图像包含的对象的关键点信息,包括:
获取关键点识别模型,采用所述关键点识别模型对所述多帧图像包含的对象的关键点进行识别,得到所述多帧图像包含的对象的关键点信息。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
对每帧图像进行尺寸调整;
所述采用所述关键点识别模型对所述多帧图像包含的对象的关键点进行识别,包括:
采用所述关键点识别模型对尺寸调整后的多帧图像包含的对象的关键点进行识别。
4.根据权利要求1所述的方法,其特征在于,所述获取所述多帧图像包含的对象中的目标对象的关键点信息,包括:
根据所述多帧图像包含的对象的关键点信息确定每个对象的外接矩形框;
根据每个对象的外接矩形框对目标对象进行跟踪匹配,基于跟踪匹配结果得到所述目标对象的关键点信息。
5.根据权利要求1所述的方法,其特征在于,所述根据所述目标对象的关键点信息,生成所述目标对象的关键点时序图,包括:
对所述目标对象的关键点信息按照时序进行累计,得到所述目标对象的关键点时序图,所述关键点时序图的行数为包含所述目标对象的图像的帧数,所述关键点时序图的列数为关键点个数,所述关键点时序图的通道数为坐标维度。
6.根据权利要求1所述的方法,其特征在于,基于所述关键点时序图对包含所述目标对象的每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果,包括:
获取动作分类模型,采用所述动作分类模型,基于所述关键点时序图中包含所述目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果。
7.根据权利要求6所述的方法,其特征在于,所述采用所述动作分类模型,基于所述关键点时序图中包含所述目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果,包括:
采用所述动作分类模型提取所述关键点时序图中包含所述目标对象的每帧目标图像的骨架数据,根据每帧目标图像的骨架数据获取每帧目标图像的骨架运动数据;
提取所述骨架运动数据的特征,将提取的特征在通道维度上进行拼接,得到拼接后的特征;
基于拼接后的特征对每帧目标图像进行动作分类。
8.根据权利要求1所述的方法,其特征在于,所述根据所述每帧目标图像的动作分类结果和动作进程结果输出所述目标对象的动作识别结果,包括:
若第一参考数量帧的目标图像中,动作分类结果和动作进程结果均满足条件,且对于相同动作分类结果的图像数量达到第二参考数量帧,则将所述相同的动作分类结果对应的动作作为识别结果进行输出。
9.一种动作识别装置,其特征在于,所述装置包括:
第一获取模块,用于获取多帧图像;
检测模块,用于检测所述多帧图像包含的对象的关键点信息;
第二获取模块,用于获取所述多帧图像包含的对象中的目标对象的关键点信息;
生成模块,用于根据所述目标对象的关键点信息,生成所述目标对象的关键点时序图;
分类回归模块,用于基于所述关键点时序图对包含所述目标对象的每帧目标图像进行动作分类和进程回归,得到每帧目标图像的动作分类结果和动作进程结果;
输出模块,用于根据所述每帧目标图像的动作分类结果和动作进程结果输出所述目标对象的动作识别结果;
其中,所述分类回归模块包括回归单元,所述回归单元,用于对于所述关键点时序图中的每帧目标图像,根据动作开始帧的位置T1、动作结束帧的位置T2及每帧的位置T3,按照如下公式确定每帧的动作进程P3,得到每帧目标图像的动作进程结果:P3=(T3-T1+1)/(T2-T1+1)。
10.根据权利要求9所述的装置,其特征在于,所述检测模块,用于获取关键点识别模型,采用所述关键点识别模型对所述多帧图像包含的对象的关键点进行识别,得到所述多帧图像包含的对象的关键点信息。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
调整模块,用于对每帧图像进行尺寸调整;
所述检测模块,用于采用所述关键点识别模型对尺寸调整后的多帧图像包含的对象的关键点进行识别。
12.根据权利要求9所述的装置,其特征在于,所述第二获取模块,用于根据所述多帧图像包含的对象的关键点信息确定每个对象的外接矩形框;根据每个对象的外接矩形框对目标对象进行跟踪匹配,基于跟踪匹配结果得到所述目标对象的关键点信息。
13.根据权利要求9所述的装置,其特征在于,所述生成模块,用于对所述目标对象的关键点信息按照时序进行累计,得到所述目标对象的关键点时序图,所述关键点时序图的行数为包含所述目标对象的图像的帧数,所述关键点时序图的列数为关键点个数,所述关键点时序图的通道数为坐标维度。
14.根据权利要求9所述的装置,其特征在于,所述分类回归模块,还包括:
分类单元,用于获取动作分类模型,采用所述动作分类模型,基于所述关键点时序图中包含所述目标对象的每帧目标图像的关键点信息对每帧目标图像进行动作分类,得到每帧目标图像的动作分类结果。
15.根据权利要求14所述的装置,其特征在于,所述分类单元,用于采用所述动作分类模型提取所述关键点时序图中包含所述目标对象的每帧目标图像的骨架数据,根据每帧目标图像的骨架数据获取每帧目标图像的骨架运动数据;提取所述骨架运动数据的特征,将提取的特征在通道维度上进行拼接,得到拼接后的特征;基于拼接后的特征对每帧目标图像进行动作分类。
16.根据权利要求9所述的装置,其特征在于,所述输出模块,用于若第一参考数量帧的目标图像中,动作分类结果和动作进程结果均满足条件,且对于相同动作分类结果的图像数量达到第二参考数量帧,则将所述相同的动作分类结果对应的动作作为识别结果进行输出。
17.一种动作识别装置,其特征在于,所述装置包括处理器和存储器,所述存储器中存储有至少一条指令,所述指令由所述处理器加载并执行以实现如权利要求1-8中任一所述的动作识别方法。
18.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令,所述指令由处理器加载并执行以实现如权利要求1-8中任一所述的动作识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811629085.4A CN111382624B (zh) | 2018-12-28 | 2018-12-28 | 动作识别方法、装置、设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811629085.4A CN111382624B (zh) | 2018-12-28 | 2018-12-28 | 动作识别方法、装置、设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111382624A CN111382624A (zh) | 2020-07-07 |
CN111382624B true CN111382624B (zh) | 2023-08-11 |
Family
ID=71220737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811629085.4A Active CN111382624B (zh) | 2018-12-28 | 2018-12-28 | 动作识别方法、装置、设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111382624B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114155594A (zh) * | 2020-08-17 | 2022-03-08 | 中移(成都)信息通信科技有限公司 | 行为识别方法、装置、设备和存储介质 |
CN111986700A (zh) * | 2020-08-28 | 2020-11-24 | 广州繁星互娱信息科技有限公司 | 无接触式操作触发的方法、装置、设备及存储介质 |
CN112115827B (zh) * | 2020-09-09 | 2022-06-07 | 中南大学 | 基于人体姿态动态特征的跌倒行为识别方法 |
CN112527113A (zh) * | 2020-12-09 | 2021-03-19 | 北京地平线信息技术有限公司 | 手势识别及手势识别网络的训练方法和装置、介质和设备 |
CN112580543B (zh) * | 2020-12-24 | 2024-04-16 | 四川云从天府人工智能科技有限公司 | 行为识别方法、***及装置 |
CN112799769B (zh) * | 2021-02-10 | 2022-06-24 | 联想(北京)有限公司 | 一种信息确定方法和装置 |
CN113111939B (zh) * | 2021-04-12 | 2022-09-02 | 中国人民解放军海军航空大学航空作战勤务学院 | 飞行器飞行动作识别方法及装置 |
CN113469081B (zh) * | 2021-07-08 | 2023-06-06 | 西南交通大学 | 一种运动状态识别方法 |
CN113920583A (zh) * | 2021-10-14 | 2022-01-11 | 根尖体育科技(北京)有限公司 | 细粒度行为识别模型构建方法及*** |
CN114475577B (zh) * | 2021-12-17 | 2023-11-03 | 斑马网络技术有限公司 | 车辆控制方法、装置及存储介质 |
CN115311445B (zh) * | 2022-10-12 | 2023-03-28 | 南通红运金属科技有限公司 | 一种用于冶金工艺的渣盒智能检测方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102221369A (zh) * | 2011-04-29 | 2011-10-19 | 韩铮 | 一种球类运动的动作识别方法、装置和动作辅助设备 |
CN104881881A (zh) * | 2014-02-27 | 2015-09-02 | 株式会社理光 | 运动对象表示方法及其装置 |
WO2017088727A1 (zh) * | 2015-11-25 | 2017-06-01 | 腾讯科技(深圳)有限公司 | 一种图像处理方法和装置 |
CN107066983A (zh) * | 2017-04-20 | 2017-08-18 | 腾讯科技(上海)有限公司 | 一种身份验证方法及装置 |
CN107239736A (zh) * | 2017-04-28 | 2017-10-10 | 北京智慧眼科技股份有限公司 | 基于多任务级联卷积神经网络的人脸检测方法及检测装置 |
WO2018069981A1 (ja) * | 2016-10-11 | 2018-04-19 | 富士通株式会社 | 運動認識装置、運動認識プログラムおよび運動認識方法 |
CN108205654A (zh) * | 2017-09-30 | 2018-06-26 | 北京市商汤科技开发有限公司 | 一种基于视频的动作检测方法及装置 |
CN108304819A (zh) * | 2018-02-12 | 2018-07-20 | 北京易真学思教育科技有限公司 | 姿态识别***及方法、存储介质 |
CN108388876A (zh) * | 2018-03-13 | 2018-08-10 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置以及相关设备 |
CN108573246A (zh) * | 2018-05-08 | 2018-09-25 | 北京工业大学 | 一种基于深度学习的时序动作识别方法 |
WO2018184233A1 (zh) * | 2017-04-07 | 2018-10-11 | 深圳市柔宇科技有限公司 | 一种手势识别方法及相关装置 |
CN109063653A (zh) * | 2018-08-07 | 2018-12-21 | 北京字节跳动网络技术有限公司 | 图像处理方法和装置 |
-
2018
- 2018-12-28 CN CN201811629085.4A patent/CN111382624B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102221369A (zh) * | 2011-04-29 | 2011-10-19 | 韩铮 | 一种球类运动的动作识别方法、装置和动作辅助设备 |
CN104881881A (zh) * | 2014-02-27 | 2015-09-02 | 株式会社理光 | 运动对象表示方法及其装置 |
WO2017088727A1 (zh) * | 2015-11-25 | 2017-06-01 | 腾讯科技(深圳)有限公司 | 一种图像处理方法和装置 |
WO2018069981A1 (ja) * | 2016-10-11 | 2018-04-19 | 富士通株式会社 | 運動認識装置、運動認識プログラムおよび運動認識方法 |
WO2018184233A1 (zh) * | 2017-04-07 | 2018-10-11 | 深圳市柔宇科技有限公司 | 一种手势识别方法及相关装置 |
CN107066983A (zh) * | 2017-04-20 | 2017-08-18 | 腾讯科技(上海)有限公司 | 一种身份验证方法及装置 |
CN107239736A (zh) * | 2017-04-28 | 2017-10-10 | 北京智慧眼科技股份有限公司 | 基于多任务级联卷积神经网络的人脸检测方法及检测装置 |
CN108205654A (zh) * | 2017-09-30 | 2018-06-26 | 北京市商汤科技开发有限公司 | 一种基于视频的动作检测方法及装置 |
CN108304819A (zh) * | 2018-02-12 | 2018-07-20 | 北京易真学思教育科技有限公司 | 姿态识别***及方法、存储介质 |
CN108388876A (zh) * | 2018-03-13 | 2018-08-10 | 腾讯科技(深圳)有限公司 | 一种图像识别方法、装置以及相关设备 |
CN108573246A (zh) * | 2018-05-08 | 2018-09-25 | 北京工业大学 | 一种基于深度学习的时序动作识别方法 |
CN109063653A (zh) * | 2018-08-07 | 2018-12-21 | 北京字节跳动网络技术有限公司 | 图像处理方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111382624A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111382624B (zh) | 动作识别方法、装置、设备及可读存储介质 | |
JP2021524957A (ja) | 画像処理方法およびその、装置、端末並びにコンピュータプログラム | |
CN110490179B (zh) | 车牌识别方法、装置及存储介质 | |
CN111127509B (zh) | 目标跟踪方法、装置和计算机可读存储介质 | |
CN108363982B (zh) | 确定对象数量的方法及装置 | |
CN112581358B (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
US11386586B2 (en) | Method and electronic device for adding virtual item | |
CN111754386B (zh) | 图像区域屏蔽方法、装置、设备及存储介质 | |
CN113627413B (zh) | 数据标注方法、图像比对方法及装置 | |
CN110705614A (zh) | 模型训练方法、装置、电子设备及存储介质 | |
CN111027490A (zh) | 人脸属性识别方法及装置、存储介质 | |
CN110647881A (zh) | 确定图像对应的卡片类型的方法、装置、设备及存储介质 | |
CN110991445B (zh) | 竖排文字识别方法、装置、设备及介质 | |
CN113253908A (zh) | 按键功能执行方法、装置、设备及存储介质 | |
CN112989198B (zh) | 推送内容的确定方法、装置、设备及计算机可读存储介质 | |
CN113160031B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111354378B (zh) | 语音端点检测方法、装置、设备及计算机存储介质 | |
CN111860064B (zh) | 基于视频的目标检测方法、装置、设备及存储介质 | |
CN111639639B (zh) | 检测文本区域的方法、装置、设备及存储介质 | |
CN113343709B (zh) | 意图识别模型的训练方法、意图识别方法、装置及设备 | |
CN113592874B (zh) | 图像显示方法、装置和计算机设备 | |
CN111611414A (zh) | 车辆检索方法、装置及存储介质 | |
CN109816047B (zh) | 提供标签的方法、装置、设备及可读存储介质 | |
CN111984738B (zh) | 数据关联方法、装置、设备及存储介质 | |
CN115221888A (zh) | 实体提及的识别方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |