CN117216313B - 姿态评价音频输出方法、装置、电子设备和可读介质 - Google Patents

姿态评价音频输出方法、装置、电子设备和可读介质 Download PDF

Info

Publication number
CN117216313B
CN117216313B CN202311180453.2A CN202311180453A CN117216313B CN 117216313 B CN117216313 B CN 117216313B CN 202311180453 A CN202311180453 A CN 202311180453A CN 117216313 B CN117216313 B CN 117216313B
Authority
CN
China
Prior art keywords
information
motion
video
human body
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311180453.2A
Other languages
English (en)
Other versions
CN117216313A (zh
Inventor
刘忠平
马海伦
王红梅
李浩浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhongguancun Smart City Co Ltd
Original Assignee
Zhongguancun Smart City Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhongguancun Smart City Co Ltd filed Critical Zhongguancun Smart City Co Ltd
Priority to CN202311180453.2A priority Critical patent/CN117216313B/zh
Publication of CN117216313A publication Critical patent/CN117216313A/zh
Application granted granted Critical
Publication of CN117216313B publication Critical patent/CN117216313B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本公开的实施例公开了姿态评价音频输出方法、装置、电子设备和可读介质。该方法的一具体实施方式包括:获取运动姿态视频集合;根据运动姿态视频集合和运动类型识别模型,生成运动类型识别信息;选择姿态视频关键帧提取模型作为目标关键帧提取模型;选择运动姿态视频作为目标运动姿态视频;根据目标关键帧提取模型和目标运动姿态视频,生成关键帧图像序列集合;根据关键帧图像序列集合,生成人体关键点信息序列集合;根据人体关键点信息序列集合,生成针对目标用户的运动姿态评价信息;根据运动姿态评价信息,控制相关联的音频输出设备输出与运动姿态评价信息对应的姿态评价音频。该实施方式可以提高姿态矫正效果,从而提高目标用户的运动安全性。

Description

姿态评价音频输出方法、装置、电子设备和可读介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及姿态评价音频输出方法、装置、电子设备和可读介质。
背景技术
随着人们对体育锻炼的不断重视,体育运动逐渐成为维护身心健康的全民活动,而减少人们在运动过程的因姿态不正确而造成的身体损伤则成为了重中之重。姿态评估和矫正是指对目标用户运动过程中的姿态进行评估,以及基于评估结果矫正运动姿态的一种技术。目前,在对人体运动姿态进行评估和矫正时,通常采用的方式为:人工截取目标用户在运动过程中的运动姿态图像,根据所截取的各个运动姿态图像和运动类型识别模型识别运动项目类型,然后进行姿态评估和矫正。
然而,发明人发现,当采用上述方式进行运动姿态评估和矫正时,经常会存在如下技术问题:
第一,仅通过各个静态的运动姿态图像,对复杂运动项目的识别成功率较低(例如武术、广播体操),从而导致生成的姿态评价信息可用性较差,降低了姿态矫正效果,进而导致目标用户的运动安全性降低。
第二,人工截取运动姿态图像的随机性较强,所截取图像中包含的运动动作与该运动项目的关键动作之间的匹配度可能较低,从而降低了姿态评价信息的准确性,降低了姿态矫正效果,进而导致目标用户的运动安全性降低。
第三,在实际运动过程中动作具有连续性,仅根据各个静态的运动姿态图像进行姿态评估,生成的姿态评价信息可用性较低,从而降低了姿态矫正效果,进而导致目标用户的运动安全性降低。
该背景技术部分中所公开的以上信息仅用于增强对本发明构思的背景的理解,并因此,其可包含并不形成本国的本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了姿态评价音频输出方法、装置、电子设备和可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种姿态评价音频输出方法的方法,该方法包括:获取各个运动姿态视频作为运动姿态视频集合,其中,上述各个运动姿态视频是位于不同角度的各个采集设备针对目标用户采集的;根据上述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息;根据上述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型;从上述运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频,其中,上述评价视角条件与上述运动类型识别信息对应;根据上述目标关键帧提取模型和上述目标运动姿态视频,生成关键帧图像序列集合;根据上述关键帧图像序列集合,生成人体关键点信息序列集合,其中,上述关键帧图像序列集合中的关键帧图像序列对应上述人体关键点信息序列集合中的人体关键点信息序列;根据上述人体关键点信息序列集合,生成针对上述目标用户的运动姿态评价信息;根据上述运动姿态评价信息,控制相关联的音频输出设备输出与上述运动姿态评价信息对应的姿态评价音频,以对上述目标用户的运动姿态进行调整。
第二方面,本公开的一些实施例提供了一种姿态评价音频输出装置,装置包括:获取单元,被配置成获取各个运动姿态视频作为运动姿态视频集合,其中,上述各个运动姿态视频是位于不同角度的各个采集设备针对目标用户采集的;第一生成单元,被配置成根据上述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息;第一选择单元,被配置成根据上述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型;第二选择单元,被配置成从上述运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频,其中,上述评价视角条件与上述运动类型识别信息对应;第二生成单元,被配置成根据上述目标关键帧提取模型和上述目标运动姿态视频,生成关键帧图像序列集合;第三生成单元,被配置成根据上述关键帧图像序列集合,生成人体关键点信息序列集合,其中,上述关键帧图像序列集合中的关键帧图像序列对应上述人体关键点信息序列集合中的人体关键点信息序列;第四生成单元,被配置成根据上述人体关键点信息序列集合,生成针对上述目标用户的运动姿态评价信息;控制单元,被配置成根据上述运动姿态评价信息,控制相关联的音频输出设备输出与上述运动姿态评价信息对应的姿态评价音频,以对上述目标用户的运动姿态进行调整。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的姿态评价音频输出方法可以提高生成的姿态评价信息的可用性,从而可以提高姿态矫正效果,进而提高目标用户的运动安全性。具体来说,造成姿态矫正效果降低和目标用户运动安全性降低的原因在于:仅通过各个静态的运动姿态图像,对复杂运动项目的识别成功率较低(例如武术、广播体操),从而导致生成的姿态评价信息可用性较差,降低了姿态矫正效果,进而导致目标用户的运动安全性降低。基于此,本公开的姿态评价音频输出方法,首先,获取各个运动姿态视频作为运动姿态视频集合。其中,上述各个运动姿态视频是位于不同角度的各个采集设备针对目标用户采集的。由此,可以得到上述目标用户在各个角度下的运动姿态视频。然后,根据上述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息。由此,可以通过各个角度的运动姿态视频对上述目标用户所进行的运动项目类型进行识别,得到表征运动项目类别的运动类型识别信息。之后,根据上述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型。由此,可以确定用于对运动姿态视频进行关键帧提取的目标关键帧提取模型。其次,从上述运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频。其中,上述评价视角条件与上述运动类型识别信息对应。由此,可以从所获取的上述运动姿态视频集合中确定用于提取关键帧的目标运动姿态视频。接着,根据上述目标关键帧提取模型和上述目标运动姿态视频,生成关键帧图像序列集合。由此,可以得到表征上述目标用户在运动过程中各个关键动作的关键帧图像序列集合。之后,根据上述关键帧图像序列集合,生成人体关键点信息序列集合。其中,上述关键帧图像序列集合中的关键帧图像序列对应上述人体关键点信息序列集合中的人体关键点信息序列。由此,可以生成各个表征上述目标用户连续运动姿态的人体关键点信息序列,得到人体关键点信息序列集合。接着,根据上述人体关键点信息序列集合,生成针对上述目标用户的运动姿态评价信息。由此,可以通过各个人体关键点信息序列所表征的各个连续运动姿态,生成对上述各个连续运动姿态进行评价的姿态评价信息。最后,根据上述运动姿态评价信息,控制相关联的音频输出设备输出与上述运动姿态评价信息对应的姿态评价音频,以对上述目标用户的运动姿态进行调整。也因为采用了上述目标用户各个角度下的运动姿态视频,可以从不同的角度对上述目标用户所进行的运动项目类别进行有效识别。从而可以提高生成的姿态评价信息的可用性,可以提高姿态矫正效果,进而提高目标用户的运动安全性。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的姿态评价音频输出方法的一些实施例的流程图;
图2是根据本公开的运动类型识别模型的模型结构的示意图;
图3是根据本公开的关键动作概率预测层的网络结构的示意图;
图4是根据本公开的姿态评价音频输出装置的一些实施例的结构示意图;
图5是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
本公开中所涉及的用户个人信息(例如运动姿态视频集合、用户身份信息)的收集、存储、使用等操作,在执行相应操作之前,相关组织或个人尽到包括开展个人信息安全影响评估、向个人信息主体履行告知义务、事先征得个人信息主体的授权同意等义务。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了根据本公开的姿态评价音频输出方法的一些实施例的流程100。该姿态评价音频输出方法包括以下步骤:
步骤101,获取各个运动姿态视频作为运动姿态视频集合。
在一些实施例中,姿态评价音频输出方法的执行主体(例如计算设备)可以通过各个采集设备获取各个运动姿态视频作为运动姿态视频集合。其中,上述各个运动姿态视频是位于不同角度的上述各个采集设备针对目标用户采集的。上述运动姿态视频集合中的运动姿态视频可以为拍摄的运动过程中的目标用户的视频。上述目标用户可以为正在进行体育运动的用户。上述采集设备可以为摄像头。上述各个不同的采集角度可以为预设的。上述运动姿态视频集合中的各个运动姿态视频对应有各个采集角度标签。上述采集角度标签可以为上述执行主体按照预设采集角度所标记的文本标签。例如,上述目标用户可以为一名正在运动的中学生,上述目标用户正在进行的运动项目可以为“第九套广播体操”,所获取的各个运动姿态视频可以分别为在(以上述目标用户为中心圆点)上述目标用户的正面、上述目标用户的右侧面、上述目标用户的背面和上述目标用户的右侧面45°四个预设采集角度下,对上述目标用户的运动过程进行采集所得到的各个视频。
需要说明的是,上述计算设备可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
可选地,在获取各个运动姿态视频作为运动姿态视频集合之前,上述执行主体还可以执行以下步骤:
第一步,响应于检测到读卡设备读取到用户身份信息,控制相关联的图像采集设备对目标用户进行面部图像采集,得到待验证人脸图像。其中,上述用户身份信息可以包括目标用户人脸图像和目标用户姓名。上述读卡设备可以为IC(Integrated Circuit Card,集成电路卡)卡读卡器。上述图像采集设备可以为摄像头。实践中,上述目标用户可以将IC卡(例如学生卡)放置在上述读卡设备上,以使得上述读卡设备读取上述目标用户对应的用户身份信息。
第二步,根据上述待验证人脸图像和目标用户人脸图像,生成面部相似度。实践中,首先,上述执行主体可以将上述待验证人脸图像输入至预设的人脸特征提取模型,得到待验证人脸特征向量。然后,上述执行主体可以将上述目标用户人脸图像输入至预设的人脸特征提取模型,得到目标用户人脸特征向量。最后,上述执行主体可以通过确定上述待验证人脸特征向量和上述目标用户人脸特征向量之间的余弦距离,以确定面部相似度。其中,上述预设的人脸特征提取模型可以为提取输入的人脸图像对应的人脸图像特征,得到人脸特征向量的模型。上述预设的人脸识别模型可以包括但不限于:ArcFace模型、VGGFace模型和FaceNet模型。
第三步,响应于确定上述面部相似度大于等于预设验证阈值,生成身份验证结果。上述身份验证结果可以表征上述待验证人脸图像对应的用户与上述目标用户人脸图像对应的目标用户是否一致。
第四步,响应于确定上述身份验证结果表征身份验证不通过,控制上述音频输出设备播放预设验证提示音频。实践中,上述身份验证结果可以为布尔类型变量。例如,上述身份验证结果为“FALSE”时,可以表征身份验证不通过。上述身份验证结果为“TRUE”时,可以表征身份验证通过。上述音频输出设备可以包括但不限于音响、扬声器或蓝牙音箱。上述预设验证提示音频可以为用于提示上述目标用户身份验证不通过的音频。例如,上述预设验证提示音频可以为“身份验证失败!请重新放置学生卡,再次进行身份验证!”
第五步,响应于确定上述身份验证结果表征身份验证通过,控制上述音频输出设备播放预设运动姿态视频采集提示音频。上述预设运动姿态视频采集提示音频可以为用于提醒上述目标用户即将进行运动姿态视频采集的音频。例如,上述预设运动姿态视频采集提示音频可以为“【目标用户姓名】身份验证成功!【预设时间】后将进行运动姿态视频采集,请做好准备!”
步骤102,根据运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息。
在一些实施例中,上述执行主体可以根据上述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息。上述预先训练好的运动类型识别模型可以用于对运动姿态视频中上述目标用户所进行的运动项目进行识别。上述运动类型识别模型可以是以上述运动姿态视频集合中各个运动姿态视频对应的视频帧序列为输入,以运动类型识别信息为输出的分类模型。上述运动类型识别信息可以为表征上述各个运动姿态视频中上述目标用户所进行的运动项目类型的文本标签。例如,上述运动类型识别信息可以为“第九套广播体操”,可以表征上述各个运动姿态视频中目标用户所进行的运动项目为“第九套广播体操”。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤根据上述运动姿态视频集合和上述预先训练好的运动类型识别模型,生成运动类型识别信息:
第一步,对于上述运动姿态视频集合中的每个运动姿态视频,执行以下步骤:
第一子步骤,对上述运动姿态视频进行解析处理,得到视频帧序列。实践中,上述执行主体可以通过相关库函数(例如Python中的OpenCV库的cv2.VideoCapture.read()方法)对上述运动姿态视频进行帧捕获,以对上述运动姿态视频进行逐帧解析,得到视频帧序列。
第二子步骤,将上述视频帧序列输入至上述运动类型识别模型包括的预处理层,得到处理后视频帧图像序列。其中,上述运动类型识别模型包括预处理层、视频帧特征提取网络、视频帧时序特征提取网络、全连接层和输出层。
作为示例,上述运动类型识别模型的模型结构可以如图2所示,其中,上述运动类型识别模型包括预处理层201、视频帧特征提取网络202、视频帧时序特征提取网络203、全连接层204和输出层205。实践中,上述预处理层201可以对输入的视频帧序列中的每个视频帧进行平均值灰度化处理和中值滤波处理,输出处理后视频帧图像序列。上述视频帧特征提取网络202可以对输入的处理后视频帧图像序列中各个处理后视频帧图像进行时空特征提取。上述视频帧特征提取网络202可以是以处理后视频帧图像序列为输入,以视频帧特征向量序列为输出的特征提取网络。上述视频帧特征提取网络202可以包括第一三维卷积层2021、第二三维卷积层2022、第三三维卷积层2023和残差单元2024。上述第一三维卷积层2021可以由第一预设数量个的1×1×1卷积核、一个批量归一化(Batch Normalization)层和一个ReLU(Rectified Linear Unit)激活函数组成。上述第二三维卷积层2022可以由第一预设数量个的3×3×3卷积核、一个批量归一化(Batch Normalization)层和一个ReLU(Rectified Linear Unit)激活函数组成。上述第三三维卷积层2023可以由第二预设数量个的1×1×1卷积核、一个批量归一化(Batch Normalization)层和一个ReLU(RectifiedLinear Unit)激活函数组成。上述残差单元2024可以由一个1×1×1卷积核组成。例如,上述第一预设数量可以为64,上述第二预设数量可以为256。上述视频帧时序特征提取网络203可以是用于提取上述视频帧特征向量序列中各个视频帧特征向量之间时序特征的时序神经网络。例如,上述视频帧时序特征提取网络203可以为循环神经网络、长短期记忆网络或Transformer网络。上述全连接层204可以对输入的各个全局时序特征向量进行特征融合处理,得到融合后特征向量。上述特征融合处理可以为对所生成的各个全局时序特征向量取平均,以实现特征融合处理。上述输出层205可以通过Softmax函数对上述融合后特征向量进行分类,得到运动类型识别信息。
第三子步骤,将上述处理后视频帧图像序列输入至上述视频帧特征提取网络,得到视频帧特征向量序列。其中,上述视频帧特征向量序列中的视频帧特征向量对应上述处理后视频帧图像序列中的处理后视频帧图像。
第四子步骤,将上述视频帧特征向量序列输入至上述视频帧时序特征提取网络,得到视频帧时序特征向量序列。
第五子步骤,根据上述视频帧时序特征向量序列,生成全局时序特征向量。实践中,上述执行主体可以通过对上述视频帧时序特征向量序列进行降维(例如PCA算法),生成全局时序特征向量。
第二步,将所生成的各个全局时序特征向量输入至上述全连接层,得到融合后特征向量。
第三步,将上述融合后特征向量输入至上述输出层,得到运动类型识别信息。由此,可以通过上述运动类型识别模型实现对上述运动姿态视频集合中的各个运动姿态视频实现包含的复杂体育运动项目的类型进行有效识别。
步骤103,根据运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型。
在一些实施例中,上述执行主体可以根据上述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型。上述姿态视频关键帧提取模型集合中的姿态视频关键帧提取模型可以为用于从运动姿态视频中提取各个关键帧的模型。上述姿态视频关键帧提取模型集合中的各个姿态视频关键帧提取模型对应有各个预设类型标签。上述预设类型标签可以表征对应的姿态视频关键帧提取模型在模型训练过程中所使用的运动姿态视频对应的运动项目类型。例如,上述姿态视频关键帧提取模型集合中的一个姿态视频关键帧提取模型对应的预设类型标签可以为“第九套广播体操”,可以表征上述一个姿态视频关键帧提取模型在进行模型训练时所使用的各个运动姿态视频对应的运动项目类型均为“第九套广播体操”。上述类型匹配条件可以为姿态视频关键帧提取模型对应的预设类型标签与上述运动类型识别信息相同。
步骤104,从运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频。
在一些实施例中,上述执行主体可以从运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频。其中,上述评价视角条件与上述运动类型识别信息对应。上述运动类型识别信息对应有评价视角标签。上述评价视角标签可以为通过经验分析后预设的,可以表征对上述运动类型识别信息所对应的运动项目进行评价时的视角角度。上述评价视角条件可以为上述运动姿态视频集合中运动姿态视频对应的采集角度标签与上述运动类型识别信息对应的评价视角标签相同。例如,上述运动类型识别信息可以为“第九套广播体操”,对应的评价视角标签可以为“右侧面45°”。由此,可以从上述运动姿态视频集合中选择对应的采集角度标签同样为“右侧面45°”的运动姿态视频作为目标运动姿态视频。
步骤105,根据目标关键帧提取模型和目标运动姿态视频,生成关键帧图像序列集合。
在一些实施例中,上述执行主体可以根据目标关键帧提取模型和上述目标运动姿态视频,生成关键帧图像序列集合。其中,上述关键帧图像序列集合的一个关键帧图像序列可以表征上述目标用户在进行运动时的一个连续的关键动作。
可选的,上述目标关键帧提取模型包括单帧特征提取网络、光流特征提取网络、关键动作概率预测层和关键帧信息输出层。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤根据上述目标关键帧提取模型和上述目标运动姿态视频,生成关键帧图像序列集合:
第一步,对上述目标运动姿态视频进行解析,得到目标视频帧序列。实践中,上述执行主体可以通过相关库函数(例如,OpenCV库中的cv2.VideoCapture.read())对上述目标运动姿态视频进行帧捕获,以对上述目标运动姿态视频进行解析,得到目标视频帧序列。
第二步,根据预设帧段长度,对上述目标视频帧序列进行划分,得到各个目标视频帧子序列。实践中,上述执行主体可以按照预设帧段长度,从上述目标视频帧序列中的第一个目标视频帧开始向后进行帧段划分,得到各个目标视频帧子序列。
第三步,对于上述各个目标视频帧子序列中的每一个目标视频帧子序列,执行以下步骤:
第一子步骤,从上述目标视频帧子序列中选取一个目标视频帧作为待测视频帧。实践中,上述选取方式可以为随机选取。
第二子步骤,根据上述目标视频帧子序列,生成对应上述目标视频帧子序列的光流信息序列。实践中,上述执行主体可以通过相关库函数中方法(例如OpenCV库中cv2.calcOpticalFlowPyrLK()方法)生成上述目标视频帧子序列中每两个相邻的目标视频帧之间的光流信息,得到对应上述目标视频帧子序列的光流信息序列。上述光流信息可以表征上述目标视频帧子序列中每两个相邻的目标视频帧内的各个像素的位移方向和位移量。实践中,通常,光流信息中光流向量的值越大时可以表征上述相邻的两个目标视频帧中包含的目标用户的运动姿态变化越大,光流信息中光流向量的值越小时可以表征上述相邻的两个目标视频帧中包含的目标用户的运动姿态变化越小。由此,可以使用上述光流信息表征上述相邻的两个目标视频帧中包含的目标用户的运动姿态变化幅度,并可以根据上述光流信息将上述目标视频帧序列中包含的目标用户运动姿态变化幅度较大的各个目标视频帧确定为各个关键帧。之后,可以将所确定的各个关键帧中每个关键帧中目标用户的运动姿态确定为一个关键姿态,从而可以将连续的各个关键姿态确定为用于姿态评价的一个关键动作。
第三子步骤,将上述待测视频帧输入至上述单帧特征提取网络,得到单帧特征信息。上述单帧特征提取网络可以为用于提取上述待测视频帧的图像特征的神经网络。例如,上述单帧特征提取网络可以是但不限于以下模型:卷积神经网络、残差网络或稠密网络。上述单帧特征信息可以为对应上述待测视频帧的特征向量。
第四子步骤,将上述光流信息序列输入至上述光流特征提取网络,得到光流特征信息。上述光流特征信息序列可以为光流信息特征向量。上述光流特征提取网络可以用于对上述光流信息序列进行时空特征的提取。上述光流特征提取网络可以由上述第一三维卷积层、GRU单元(Gate Recurrent Unit,门控循环单元)、上述第二三维卷积层、GRU单元和上述第三三维卷积层依次连接组成。
第五子步骤,将上述单帧特征信息和上述光流特征信息输入至上述关键动作概率预测层,得到对应的上述待测视频帧的关键动作概率信息。上述关键动作概率预测层可以用于确定上述目标视频帧子序列中包含关键帧的概率。上述关键动作概率预测层可以是以上述单帧特征信息和上述光流特征信息为输入,以上述关键概率信息为输出的神经网络。
可选的,上述关键动作概率预测层的网络结构可以如图3所示。上述关键动作概率预测层可以包括第一卷积层301、第二卷积层302、第一池化层303、激活层304、概率输出层305和特征融合层306。上述第一卷积层301可以对输入的单帧特征信息或光流特征信息进行第一卷积处理。上述第一卷积层301可以由第三预设数量个的3×3的卷积核和一个ReLU激活函数组成。上述第二卷积层302可以对输入的单帧特征信息或光流特征信息进行第二卷积处理。上述第二卷积层302可以由第四预设数量个的1×1卷积核和一个Sigmoid激活函数组成。上述第一池化层303可以对输入的特征向量进行平均池化处理。上述激活层304可以对输入的处理后特征向量进行分类处理,输出对应上述输入的特征向量的概率分数。上述激活层304可以由Sigmoid激活函数组成。上述特征融合层306可以对经过第一卷积处理的处理后单帧特征信息和处理后的光流特征信息进行求和、取平均,得到融合特征向量。上述概率输出层305可以将处理后单帧特征信息对应的概率分数、处理后光流特征信息对应的概率分数和处理后融合特征向量对应的概率分数进行求和取平均,得到关键动作概率。然后,可以将所得到的关键动作概率确定为关键动作概率信息并输出。例如,上述第三预设数量可以为256,第四预设数量可以为3。
第四步,根据所得到的各个关键动作概率信息,生成关键帧提取阈值。实践中,上述执行主体可以通过以下公式生成关键帧提取阈值:
其中,上述p可以为关键帧提取阈值。上述可以为经验学习率。上述m可以为划分的目标视频帧子序列数量。上述pi可以为第i个目标视频帧子序列中待测视频帧对应的关键动作概率。上述M可以为预设的所要截取的关键帧数量。例如,上述/>可以为0.65。
第五步,将上述关键帧提取阈值和所生成的各个关键动作概率信息输入至上述关键帧信息输出层,得到各个关键帧信息。上述输出层可以用于将所确定的各个关键帧在上述目标运动姿态视频的时间轴上对应的各个时间作为各个关键帧信息输出。实践中,首先,上述输出层可以从上述所生成的各个关键动作概率信息中选择动作概率信息值大于等于上述关键帧提取阈值的各个关键动作概率信息作为各个目标关键动作概率信息。然后,可以将上述各个目标关键动作概率信息中每个目标关键动作概率信息对应的待测视频帧确定为关键帧。最后,可以将所确定的各个关键帧在上述目标运动姿态视频的时间轴上对应的各个时间作为各个关键帧信息并输出。
第六步,根据所得到的各个关键帧信息和上述目标视频帧序列,生成关键帧图像序列集合。实践中,对于上述各个关键帧信息中的每个关键帧信息,上述执行主体可以在上述目标运动姿态视频中,将上述关键帧信息对应的截取时间范围内的各个视频帧确定为关键帧图像序列。上述截取时间范围可以由上述关键帧信息和预设截取时间所组成。例如,关键帧信息可以为(1,2.063),可以表征对应的关键帧在上述目标运动姿态视频中对应的时间为1分2.063秒。预设截取时间可以为0.015秒。则上述关键帧信息对应的截取时间范围的开始时间可以为(1,2.063-0.015)=(1,2.048),可以表征截取时间范围的开始时间可以为1分2.048秒。上述关键帧信息对应的截取时间范围的结束时间可以为(1,2.063+0.015)=(1,2.078),可以表征截取时间范围的结束时间可以为1分2.078秒。上述截取时间范围可以为1分2.048秒至1分2.078秒。
上述第一步至第六步作为本公开的实施例的一个发明点,结合步骤107和步骤108可以解决背景技术提及的技术问题二“人工截取运动姿态图像的随机性较强,所截取图像中包含的运动动作与该运动项目的关键动作之间的匹配度可能较低,从而降低了姿态评价信息的准确性,降低了姿态矫正效果,进而导致目标用户的运动安全性降低”。导致姿态矫正效果下降和目标用户的运动安全性降低的因素往往如下:人工截取运动姿态图像的随机性较强,所截取图像中包含的运动动作与该运动项目的关键动作之间的匹配度可能较低,从而降低了姿态评价信息的准确性,降低了姿态矫正效果,进而导致目标用户的运动安全性降低。为了达到这一效果,本公开引入了目标关键帧提取模型。首先,对上述目标运动姿态视频进行解析,得到目标视频帧序列。之后,根据预设帧段长度,对上述目标视频帧序列进行划分,得到各个目标视频帧子序列。由此,可以将目标视频帧序列划分成各个目标视频帧子序列,以提高对关键帧提取的准确率。然后,对于上述各个目标视频帧子序列中的每一个目标视频帧子序列,执行以下步骤:第一,从上述目标视频帧子序列中选取一个目标视频帧作为待测视频帧。第二,根据上述目标视频帧子序列,生成对应上述目标视频帧子序列的光流信息序列。由此,可以通过上述光流信息序列表征上述目标视频帧子序列中包含的目标用户的连续的运动状态。第三,将上述待测视频帧输入至上述单帧特征提取网络,得到单帧特征信息。由此,可以通过单帧特征信息表征上述待测视频帧的图像特征。第四,将上述光流信息序列输入至上述光流特征提取网络,得到光流特征信息。第五,将上述单帧特征信息和上述光流特征信息输入至上述关键动作概率预测层,得到对应的上述待测视频帧的关键动作概率信息。由此,可以通过上述单帧特征信息和上述光流特征信息,确定上述目标视频帧子序列中包含关键帧的概率。第六,根据所得到的各个关键动作概率信息,生成关键帧提取阈值。由此,可以确定用于从上述目标运动姿态视频中提取关键帧的关键帧提取阈值。第六,将上述关键帧提取阈值和所生成的各个关键动作概率信息输入至上述关键帧信息输出层,得到各个关键帧信息。由此,可以得到上述目标运动姿态视频中各个关键帧对应的各个时间信息。最后,根据所得到的各个关键帧信息和上述目标视频帧序列,生成关键帧图像序列集合。由此,可以通过上述各个关键帧信息确定各个关键帧图像序列集合。通过目标关键帧提取模型可以降低截取运动姿态图像的随机性,从而提高所截取图像中包含的运动动作与该运动项目的关键动作之间的匹配度,结合步骤107后可以提高姿态评价信息的准确性,结合步骤108可以提高姿态矫正效果,进而可以提高目标用户的运动安全性。
步骤106,根据关键帧图像序列集合,生成人体关键点信息序列集合。
在一些实施例中,上述执行主体可以根据关键帧图像序列集合,生成人体关键点信息序列集合。其中,上述关键帧图像序列集合中的关键帧图像序列可以对应上述人体关键点信息序列集合中的人体关键点信息序列,且关键帧图像序列中的关键帧图像可以对应上述人体关键点信息序列中的人体关键点信息。上述人体关键点信息序列集合中的人体关键点信息可以包括上述关键帧图像序列集合中对应的关键帧图像中上述目标用户的各个人体关键点的位置坐标和表征人体关键点关联关系的各个二元组,以表征上述目标用户的一个运动姿态。例如,上述人体关键点信息可以为{("左肩":[80,220],"右肩":[120,220],"左肘":[60,260],"右肘":[140,260],"左手腕":[40,300],"右手腕":[160,300]),(["左肩","右肩"],["左肩","左肘"],["右肩","右肘"],["左肘","左腕"],["右肘","右手腕"])}。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤根据上述关键帧图像序列集合,生成人体关键点信息序列集合:
第一步,对于上述关键帧图像序列集合中的每个关键帧图像序列,执行以下步骤:
第一子步骤,对于上述关键帧图像序列中的每个关键帧图像,执行以下步骤:
子步骤一,对上述关键帧图像进行灰度化处理,得到处理后关键帧图像。实践中,上述执行主体可以通过平均值法对上述关键帧图像进行灰度化处理,得到处理后关键帧图像。
子步骤二,对上述处理后关键帧图像进行滤波处理,得到滤波后关键帧图像。上述滤波处理可以为中值滤波处理。
子步骤三,对上述滤波后关键帧图像进行目标检测,得到目标检测信息。其中,上述目标检测信息包括检测框位置信息。上述检测框位置信息可以表征上述滤波后关键帧图像中上述目标用户的位置。上述检测框位置信息可以为对上述滤波后关键帧图像中上述目标用户进行框定的一个检测框的位置信息。实践中,上述执行主体可以通过预设的目标检测模型对上述滤波后关键帧图像进行目标检测,得到目标检测信息。上述预设的目标检测模型可以为但不限于以下模型:R-CNN(Regions with CNN features,区域卷积神经网络)模型或YOLO模型(例如YOLOv8模型)或SSD(Single Shot MultiBox Detector)模型。
子步骤四,对上述目标检测信息包括的检测框位置信息所表征的图像区域进行关键点检测,以生成人体关键点信息。实践中,上述执行主体可以通过关键点提取算法(例如AlphaPose算法或EfficientPose算法)或关键点提取模型(例如PoseNet模型或HRNet(High-Resolution Network)模型),对上述目标检测信息包括的检测框位置信息所表征的图像区域进行关键点检测,以生成人体关键点信息。上述人体关键点信息可以包括上述目标用户的各个人体关键点的坐标和表征各个人体关键点关联关系的二元组。例如,所生成的人体关键点信息的部分信息可以为{("左肩":[80,220],"右肩":[120,220],"左肘":[60,260],"右肘":[140,260],"左手腕":[40,300],"右手腕":[160,300]),(["左肩","右肩"],["左肩","左肘"],["右肩","右肘"],["左肘","左腕"],["右肘","右手腕"])}。
第二子步骤,将所得到的各个人体关键点信息确定为人体关键点信息序列。实践中,上述执行主体可以将所确定的各个人体关键点信息按照对应的各个关键帧图像在上述关键帧图像序列中的顺序,将所得到的各个人体关键点信息确定为人体关键点信息序列。
第二步,将所确定的各个人体关键点信息序列确定为人体关键点信息序列集合。由此,可以得到表征上述目标用户各个关键动作姿态的人体关键点信息序列集合。
可选地,在上述将所确定的各个人体关键点信息序列确定为人体关键点信息序列集合之前,上述执行主体还可以执行以下步骤:
第一步,对所确定的各个人体关键点信息序列中的每个人体关键点信息序列,执行以下信息验证步骤:
第一子步骤,对于上述人体关键点信息序列中的每个人体关键点信息,响应于确定上述人体关键点信息异常,执行以下步骤:
子步骤一,响应于确定上述人体关键点信息不满足序列位置条件,根据前序人体关键点信息和后序人体关键点信息,对上述人体关键点信息进行第一异常处理,以对上述人体关键点信息进行更新。其中,上述序列位置条件可以为上述人体关键点信息部位是上述人体关键点信息序列中的第一个人体关键点信息或最后一个人体关键点信息。上述前序人体关键点信息为上述人体关键点信息在上述人体关键点信息序列中的前一个正常的人体关键点信息。上述后序人体关键点信息为上述人体关键点信息在上述人体关键点信息序列中后一个正常的人体关键点信息。上述正常的人体关键点信息可以为没有坐标缺失的人体关键点信息。实践中,上述执行主体可以通过确定上述人体关键点信息是否存在数据缺失,以确定上述人体关键点信息是否异常。例如,一个人体关键点信息可以为("左肩":XX,"右肩":[120,220],"左肘":[60,260],"右肘":[140,260],……,"左腕":,"右腕":[160,300],…),上述“XX”可以为空值,则上述执行主体可以确定上述人体关键点信息异常。上述第一异常处理可以为根据上述前序人体关键点信息和上述后序人体关键点信息所进行的填充处理。上述执行主体可以通过以下公式对异常的人体关键点信息中的缺失坐标进行第一异常处理:
/>
其中,上述x可以为上述异常的人体关键点信息中缺失坐标的横坐标。上述y可以为上述异常的人体关键点信息中缺失坐标的纵坐标。上述xpre可以为上述前序人体关键点信息中对应坐标的横坐标。上述ypre可以为上述前序人体关键点信息中对应坐标的纵坐标。上述xnext可以为上述后续人体关键点信息中对应坐标的横坐标。上述ynext可以为上述后续人体关键点信息中对应坐标的纵坐标。实践中,上述执行主体可以将上述xpre和xnext的平均值确定为x,并将x代入上述插值公式确定y,以对上述上述异常的人体关键点信息中缺失坐标进行填充。
需要说明的是,当xpre与xnext值相等时,y可以为ypre和ynext的平均值。
子步骤二,响应于确定上述人体关键点信息满足上述序列位置条件,根据上述前序人体关键点信息或上述后序人体关键点信息,对上述人体关键点信息进行第二异常处理,以对上述人体关键点信息进行更新。上述第二异常处理可以为根据上述前序人体关键点信息或上述后序人体关键点信息所进行的填充处理。
需要说明的是,当上述人体关键点信息为上述人体关键点信息序列中的第一个人体关键点信息时,对应上述人体关键点信息的前序人体关键点信息为空。当上述人体关键点信息为上述人体关键点信息序列中的最后一个人体关键点信息时,对应上述人体关键点信息的后序人体关键点信息为空。
实践中,上述执行主体可以通过以下公式对异常的人体关键点信息中的缺失坐标进行第二异常处理:
其中,上述x可以为上述异常的人体关键点信息中缺失坐标的横坐标。上述y可以为上述异常的人体关键点信息中缺失坐标的纵坐标。
当上述异常的人体关键点信息为上述人体关键点信息序列中第一个人体关键点信息时,上述xt可以为上述异常的人体关键点信息对应的后序人体关键点信息中对应坐标的横坐标。上述yt可以为上述后序人体关键点信息中对应坐标的纵坐标。上述xm可以为上述后序人体关键点信息在上述人体关键点信息序列中的后一个正常的人体关键点信息中对应坐标的横坐标。上述ym可以为后序人体关键点信息在上述人体关键点信息序列中的后一个正常的人体关键点信息中对应坐标的纵坐标。
当上述异常的人体关键点信息为上述人体关键点信息序列中最后一个人体关键点信息时,上述xt可以为上述异常的人体关键点信息对应的前序人体关键点信息中对应坐标的横坐标。上述yt可以为上述前序人体关键点信息中对应坐标的纵坐标。上述xm可以为上述前序人体关键点信息在上述人体关键点信息序列中的前一个正常人体关键点信息中对应坐标的横坐标。上述ym可以为上述前序人体关键点信息在上述人体关键点信息序列中的前一个正常人体关键点信息中对应坐标的纵坐标。上述n可以表征上述后续人体关键点信息或前序人体关键点信息与上述异常的人体关键点信息之间所间隔的人体关键点信息数量。
步骤107,根据人体关键点信息序列集合,生成针对目标用户的运动姿态评价信息。
在一些实施例中,上述执行主体可以根据上述人体关键点信息序列集合,生成针对上述目标用户的运动姿态评价信息。上述运动姿态评价信息可以为用于对上述目标用户的运动姿态进行评价的信息。
在一些实施例的一些可选的实现方式中,上述执行主体可以通过以下步骤根据上述人体关键点信息序列集合,生成针对上述目标用户的运动姿态评价信息:
第一步,对于上述人体关键点信息序列集合中的每个人体关键点信息序列,执行以下步骤:
第一子步骤,对于上述人体关键点信息序列中的每个人体关键点信息,根据上述人体关键点信息生成人体动作信息。其中,上述人体动作信息包括各个关键点角度信息。上述各个关键点角度信息对应有各个关键点角度标签。上述关键点角度标签可以表征对应的关键点角度信息对应的人体部位。实践中,首先,上述执行主体可以通过上述人体关键点信息包括的各个人体关键点坐标和表征各个人体关键点的关联关系的二元组确定各个人体关键点所形成的各个夹角角度,并作为各个关键点角度信息。然后,上述执行主体可以将所确定的各个关键点角度信息确定为人体动作信息。例如,上述人体动作信息包括的一个关键点角度信息可以为“35°”,对应的关键点角度标签可以为“左肩-左肘-左腕”,可以表征人体关键点信息中左肩关键点、左肘关键点和左腕关键点所形成的夹角角度为35°。
第二子步骤,根据所生成各个人体动作信息,生成对应上述人体关键点信息序列的动作范围信息。实践中,首先,上述执行主体可以将各个人体动作信息中对应的关键点角度标签相同的各个关键点角度信息所表征的角度范围确定为对应上述关键点角度标签的角度范围信息。例如,一个关键点角度标签可以为“左肩-左肘-左腕”,第一个人体动作信息中对应的关键点角度信息可以为“35°”。第二个人体动作信息中对应的关键点角度信息可以为“45°”。第三个人体动作信息中对应的关键点角度信息可以为“60°”。则对应上述"左肩-左肘-左腕"这一关键点角度标签对应的角度范围信息可以为(35,60),默认单位可以为度。然后,上述执行主体可以将所确定的各个角度范围信息确定为上述动作范围信息,以表征上述目标用户在对应时间段内运动过程中的肢体角度的变化范围。
第二步,从预先构建的标准运动姿态信息库中获取与上述运动类型识别信息对应的标准运动姿态信息。其中,上述标准运动姿态信息库可以是基于不同运动项目的各个标准运动演示视频所构建的。上述标准运动演示视频可以是专业运动员在进行对应的运动项目时所采集的视频。上述标准运动姿态信息可以为用于对上述目标用户的整体运动姿态进行评估的信息。上述标准运动姿态信息对应有运动项目类型标签。上述运动类型标签可以表征对应的标准运动姿态信息用于评价的运动项目的类型。例如,上述标准运动姿态信息库中的一个标准运动姿态信息对应的运动类型标签可以为“第九套广播体操”,可以表征上述一个标准运动姿态信息用于评价的运动项目为“第九套广播体操”。上述标准运动姿态信息包括各个标准动作姿态信息。上述标准运动姿态信息包括的标准动作姿态信息个数可以与上述生成的动作范围信息的数量相同。上述标准运动姿态信息包括的每个标准动作姿态信息可以表征上述标准运动演示视频中的用户在进行一个关键动作时各个人体关键点角度的变化范围。需要说明的是,生成上述标准动作姿态信息的具体实现方式可以参考生成上述运动范围信息的具体实现方式,在此不再赘述。上述标准动作姿态信息可以包括各个角度范围信息。上述标准动作姿态信息包括的各个角度范围信息同样对应有各个关键点角度标签。
第三步,对于上述标准运动姿态信息包括的每个标准动作姿态信息,执行以下步骤:
第一子步骤,根据上述标准动作姿态信息,从所生成的各个动作范围信息中选择与上述标准动作姿态信息对应的动作范围信息作为目标动作范围信息。需要说明的是,上述所生成的各个动作范围信息对应各个人体关键点信息序列。上述各个人体关键点信息序列对应各个关键帧图像序列。上述各个关键帧图像序列在上述目标视频帧序列中有对应的时间顺序,因此上述各个动作范围信息之间对应有时间顺序,上述标准运动姿态信息包括的各个标准动作姿态信息同样对应有时间顺序。实践中,上述执行主体可以从上述各个动作范围信息中选择与上述标准动作姿态信息对应的时间顺序相同的动作范围信息作为与上述标准动作姿态信息对应的目标动作范围信息。
第二子步骤,根据上述标准动作姿态信息和上述目标动作范围信息,生成针对上述目标用户的局部姿态评价信息。上述局部姿态评价信息可以为对上述目标动作范围信息所表征的目标用户的一个运动姿态进行姿态评价的信息。实践中,首先,对于上述目标动作范围信息中的每个角度范围信息,执行以下步骤:第一步,从上述标准动作姿态信息包括的各个角度范围信息中选择与上述角度范围对应的关键点角度标签相同的角度范围信息作为标准角度范围信息。然后,上述执行主体可以通过以下公式生成针对目标用户的局部姿态评分:
其中,上述C可以为对应上述目标动作范围信息的局部姿态评分。上述A可以为上述所生成的动作范围信息的数量。上述B可以上述目标动作范围信息包括的角度范围信息的数量。上述αi可以为上述目标动作范围信息中的第i个角度范围信息。上述βi可以为上述标准动作姿态信息中与上述αi对应的标准角度范围信息。上述αi∩βi可以为上述βi与上述αi所表征的两个角度范围的交集。上述αi∪βi可以为上述βi与上述αi所表征的两个角度范围的并集。上述count(αi∩βi)可以为上述αi∩βi所表征两个角度范围交集内的角度个数。上述count(αi∪βi)可以为上述αi∪βi所表征两个角度范围并集内的角度个数。例如,上述A可以为4。上述B可以为2。上述目标动作范围信息包括的第一个角度范围信息可以为(25,50),对应的关键点角度标签可以为“左肩-左肘-左腕”,对应的标准角度范围信息可以为(30,50)。第二个角度范围信息可以为(60,80),对应的关键点角度标签可以为“右肩-右肘-右腕”,对应的标准角度范围信息可以为(65,85)。则生成的局部姿态评分可以为17.5。
之后,上述执行主体可以将上述所生成的局部姿态评分、上述目标动作范围信息中各个角度范围信息和与上述目标动作范围信息中各个角度范围信息对应的各个标准角度范围信息、各个关键点角度标签确定为局部姿态评价信息。例如,上述局部姿态评价信息可以为{“局部姿态评分”:17.5,[“角度范围信息”:(25,50),“标准角度范围信息”:(30,50),“关键点角度标签”:“左肩-左肘-左腕”],[“角度范围信息”:(60,80),“标准角度范围信息”:(65,85),“关键点角度标签”:“右肩-右肘-右腕”]}
第四步,根据所生成的各个局部姿态评价信息,生成针对上述目标用户的运动姿态评价信息。实践中,首先,上述执行主体可以将上述所生成的各个局部姿态评价信息中的局部姿态评分之和确定为运动姿态评分。然后,上述执行主体可以将上述运动姿态评分、各个局部姿态评价信息确定为运动姿态评价信息。
上述第一步至第四步作为本公开的实施例的一个发明点,结合步骤108可以解决背景技术提及的技术问题三“在实际运动过程中动作具有连续性,仅根据各个静态的运动姿态图像进行姿态评估,生成的姿态评价信息可用性较低,从而降低了姿态矫正效果,进而导致目标用户的运动安全性降低”。导致姿态矫正效果下降和目标用户的运动安全性降低的因素往往如下:在实际运动过程中动作具有连续性,仅根据各个静态的运动姿态图像进行姿态评估,生成的姿态评价信息可用性较低,从而降低了姿态矫正效果,进而导致目标用户的运动安全性降低。如果解决了上述因素,就能达到提高姿态矫正效果和提高目标用户安全性的效果。为了达到这一效果,本公开引入动作范围信息。通过动作范围信息可以表征上述目标用户在进行连续动作时的姿态角度范围,通过角度范围对用户的运动姿态进行评价,可以提高生成的姿态评价信息可用性,结合步骤108后从而可以提高姿态矫正效果,进而提高目标用户的运动安全性。
步骤108,根据运动姿态评价信息,控制相关联的音频输出设备输出与运动姿态评价信息对应的姿态评价音频。
在一些实施例中,上述执行主体可以根据上述运动姿态评价信息,控制相关联的上述音频输出设备输出与上述运动姿态评价信息对应的姿态评价音频,以对上述目标用户的运动姿态进行调整。上述姿态评价音频可以为对上述目标用户运动姿态进行评价和调整的音频。例如,上述姿态评价音频可以为“整体运动姿态评分为【运动姿态评分】。每个关键动作满分为【100/动作范围信息的数量】,第一个关键动作评分为【局部姿态评分一】,在第一个关键动作中,您【关键点角度标签一】动作角度范围为【对应的角度范围信息】,标准动作角度范围为【对应的标准角度范围信息】;您【关键点角度标签二】动作角度范围为…”。实践中,上述目标用户可以通过上述姿态评价音频调整自身运动姿态。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的姿态评价音频输出方法可以提高生成的姿态评价信息的可用性,从而可以提高姿态矫正效果,进而提高目标用户的运动安全性。具体来说,造成姿态矫正效果降低和目标用户运动安全性降低的原因在于:仅通过各个静态的运动姿态图像,对复杂运动项目的识别成功率较低(例如武术、广播体操),从而导致生成的姿态评价信息可用性较差,降低了姿态矫正效果,进而导致目标用户的运动安全性降低。基于此,本公开的姿态评价音频输出方法,首先,获取各个运动姿态视频作为运动姿态视频集合。其中,上述各个运动姿态视频是位于不同角度的各个采集设备针对目标用户采集的。由此,可以得到上述目标用户在各个角度下的运动姿态视频。然后,根据上述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息。由此,可以通过各个角度的运动姿态视频对上述目标用户所进行的运动项目类型进行识别,得到表征运动项目类别的运动类型识别信息。之后,根据上述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型。由此,可以确定用于对运动姿态视频进行关键帧提取的目标关键帧提取模型。其次,从上述运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频。其中,上述评价视角条件与上述运动类型识别信息对应。由此,可以从所获取的上述运动姿态视频集合中确定用于提取关键帧的目标运动姿态视频。接着,根据上述目标关键帧提取模型和上述目标运动姿态视频,生成关键帧图像序列集合。由此,可以得到表征上述目标用户在运动过程中各个关键动作的关键帧图像序列集合。之后,根据上述关键帧图像序列集合,生成人体关键点信息序列集合。其中,上述关键帧图像序列集合中的关键帧图像序列对应上述人体关键点信息序列集合中的人体关键点信息序列。由此,可以生成各个表征上述目标用户连续运动姿态的人体关键点信息序列,得到人体关键点信息序列集合。接着,根据上述人体关键点信息序列集合,生成针对上述目标用户的运动姿态评价信息。由此,可以通过各个人体关键点信息序列所表征的各个连续运动姿态,生成对上述各个连续运动姿态进行评价的姿态评价信息。最后,根据上述运动姿态评价信息,控制相关联的音频输出设备输出与上述运动姿态评价信息对应的姿态评价音频,以对上述目标用户的运动姿态进行调整。也因为采用了上述目标用户各个角度下的运动姿态视频,可以从不同的角度对上述目标用户所进行的运动项目类别进行有效识别。从而可以提高生成的姿态评价信息的可用性,可以提高姿态矫正效果,进而提高目标用户的运动安全性。
进一步参考图4,作为对各图所示方法的实现,本公开提供了一种姿态评价音频输出装置的一些实施例,这些装置实施例与图1所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,一些实施例的姿态评价音频输出装置400包括:获取单元401、第一生成单元402、第一选择单元403、第二选择单元404、第二生成单元405、第三生成单元406、第四生成单元407和控制单元408。其中,获取单元401被配置成获取各个运动姿态视频作为运动姿态视频集合,其中,上述各个运动姿态视频是位于不同角度的各个采集设备针对目标用户采集的;第一生成单元402被配置成根据上述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息;第一选择单元403被配置成根据上述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型;第二选择单元404被配置成从上述运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频,其中,上述评价视角条件与上述运动类型识别信息对应。第二生成单元405被配置成根据上述目标关键帧提取模型和上述目标运动姿态视频,生成关键帧图像序列集合;第三生成单元406被配置成根据上述关键帧图像序列集合,生成人体关键点信息序列集合,其中,上述关键帧图像序列集合中的关键帧图像序列对应上述人体关键点信息序列集合中的人体关键点信息序列;第四生成单元407被配置成根据上述人体关键点信息序列集合,生成针对上述目标用户的运动姿态评价信息;控制单元408被配置成根据上述运动姿态评价信息,控制相关联的音频输出设备输出与上述运动姿态评价信息对应的姿态评价音频,以对上述目标用户的运动姿态进行调整。
可以理解的是,该装置400中记载的诸单元与参考图1述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置400及其中包含的单元,在此不再赘述。
下面参考图5,其示出了适于用来实现本公开的一些实施例的电子设备500的结构示意图。图5示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图5所示,电子设备500可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置308加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备500操作所需的各种程序和数据。处理装置501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备500与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备500,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图5中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM 502被安装。在该计算机程序被处理装置501执行时,执行本公开的一些实施例的方法中限定的功能。
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
计算机可读介质可以是电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。计算机可读介质承载有一个或者多个程序,当一个或者多个程序被该电子设备执行时,使得该电子设备:获取各个运动姿态视频作为运动姿态视频集合,其中,上述各个运动姿态视频是位于不同角度的各个采集设备针对目标用户采集的;根据上述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息;根据上述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型;从上述运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频,其中,上述评价视角条件与上述运动类型识别信息对应;根据上述目标关键帧提取模型和上述目标运动姿态视频,生成关键帧图像序列集合;根据上述关键帧图像序列集合,生成人体关键点信息序列集合,其中,上述关键帧图像序列集合中的关键帧图像序列对应上述人体关键点信息序列集合中的人体关键点信息序列;根据上述人体关键点信息序列集合,生成针对上述目标用户的运动姿态评价信息;根据上述运动姿态评价信息,控制相关联的音频输出设备输出与上述运动姿态评价信息对应的姿态评价音频,以对上述目标用户的运动姿态进行调整。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、第一生成单元、第一选择单元、第二选择单元、第二生成单元、第三生成单元、第四生成单元和控制单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取各个运动姿态视频作为运动姿态视频集合”的单元。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离发明构思的情况下,由技术特征或其等同特征进行任意组合而形成的其它技术方案。例如特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (7)

1.一种姿态评价音频输出方法,包括:
获取各个运动姿态视频作为运动姿态视频集合,其中,所述各个运动姿态视频是位于不同角度的各个采集设备针对目标用户采集的;
根据所述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息,其中,所述运动类型识别信息是表征所述各个运动姿态视频中所述目标用户所进行的运动项目类型的文本标签,所述根据所述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息,包括:
对于所述运动姿态视频集合中的每个运动姿态视频,执行以下步骤:
对所述运动姿态视频进行解析处理,得到视频帧序列;
将所述视频帧序列输入至所述运动类型识别模型包括的预处理层,得到处理后视频帧图像序列,其中,所述运动类型识别模型包括预处理层、视频帧特征提取网络、视频帧时序特征提取网络、全连接层和输出层;
将所述处理后视频帧图像序列输入至所述视频帧特征提取网络,得到视频帧特征向量序列;
将所述视频帧特征向量序列输入至所述视频帧时序特征提取网络,得到视频帧时序特征向量序列;
根据所述视频帧时序特征向量序列,生成全局时序特征向量;将所生成的各个全局时序特征向量输入至所述全连接层,得到融合后特征向量;
将所述融合后特征向量输入至所述输出层,得到运动类型识别信息;
根据所述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型,所述姿态视频关键帧提取模型集合中的每个姿态视频关键帧提取模型对应有预设类型标签,且所对应的每个预设类型标签表征对应的姿态视频关键帧提取模型在模型训练过程中所使用的运动姿态视频对应的运动项目类型;
从所述运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频,其中,所述评价视角条件与所述运动类型识别信息对应,所述运动类型识别信息对应有评价视角标签,所述评价视角标签为通过经验分析后预设的、表征对所述运动类型识别信息所对应的运动项目进行评价时的视角角度;
根据所述目标关键帧提取模型和所述目标运动姿态视频,生成关键帧图像序列集合,其中,所述目标关键帧提取模型包括单帧特征提取网络、光流特征提取网络、关键动作概率预测层和关键帧信息输出层;以及所述根据所述目标关键帧提取模型和所述目标运动姿态视频,生成关键帧图像序列集合,包括:
对所述目标运动姿态视频进行解析,得到目标视频帧序列;
根据预设帧段长度,对所述目标视频帧序列进行划分,得到各个目标视频帧子序列;
对于所述各个目标视频帧子序列中的每一个目标视频帧子序列,执行以下步骤:
从所述目标视频帧子序列中选取一个目标视频帧作为待测视频帧;
根据所述目标视频帧子序列,生成对应所述目标视频帧子序列的光流信息序列;
将所述待测视频帧输入至所述单帧特征提取网络,得到单帧特征信息;
将所述光流信息序列输入至所述光流特征提取网络,得到光流特征信息;
将所述单帧特征信息和所述光流特征信息输入至所述关键动作概率预测层,得到对应的所述待测视频帧的关键动作概率信息;
根据所得到的各个关键动作概率信息,生成关键帧提取阈值;
将所述关键帧提取阈值和所生成的各个关键动作概率信息输入至所述关键帧信息输出层,得到各个关键帧信息;
根据所得到的各个关键帧信息和所述目标视频帧序列,生成关键帧图像序列集合;
根据所述关键帧图像序列集合,生成人体关键点信息序列集合,其中,所述关键帧图像序列集合中的关键帧图像序列对应所述人体关键点信息序列集合中的人体关键点信息序列;
根据所述人体关键点信息序列集合,生成针对所述目标用户的运动姿态评价信息,其中,所述根据所述人体关键点信息序列集合,生成针对所述目标用户的运动姿态评价信息,包括:
对于所述人体关键点信息序列集合中的每个人体关键点信息序列,执行以下步骤:
对于所述人体关键点信息序列中的每个人体关键点信息,根据所述人体关键点信息生成人体动作信息,其中,所述人体动作信息包括各个关键点角度信息,所述各个关键点角度信息对应有各个关键点角度标签;
根据所生成各个人体动作信息,生成对应所述人体关键点信息序列的动作范围信息;
从预先构建的标准运动姿态信息库中获取与所述运动类型识别信息对应的标准运动姿态信息,其中,所述标准运动姿态信息包括各个标准动作姿态信息;
对于所述标准运动姿态信息包括的每个标准动作姿态信息,执行以下步骤:
根据所述标准动作姿态信息,从所生成的各个动作范围信息中选择与所述标准动作姿态信息对应的动作范围信息作为目标动作范围信息;
根据所述标准动作姿态信息和所述目标动作范围信息,生成针对所述目标用户的局部姿态评价信息;
根据所生成的各个局部姿态评价信息,生成针对所述目标用户的运动姿态评价信息;
根据所述运动姿态评价信息,控制相关联的音频输出设备输出与所述运动姿态评价信息对应的姿态评价音频,以对所述目标用户的运动姿态进行调整。
2.根据权利要求1所述的方法,其中,在所述获取各个运动姿态视频作为运动姿态视频集合之前,所述方法还包括:
响应于检测到读卡设备读取到用户身份信息,控制相关联的图像采集设备对目标用户进行面部图像采集,得到待验证人脸图像,其中,所述用户身份信息包括目标用户人脸图像;
根据所述待验证人脸图像和目标用户人脸图像,生成面部相似度;
响应于确定所述面部相似度大于等于预设验证阈值,生成身份验证结果;
响应于确定所述身份验证结果表征身份验证不通过,控制所述音频输出设备播放预设验证提示音频;
响应于确定所述身份验证结果表征身份验证通过,控制所述音频输出设备播放预设运动姿态视频采集提示音频。
3.根据权利要求2所述的方法,其中,所述根据所述关键帧图像序列集合,生成人体关键点信息序列集合,包括:
对于所述关键帧图像序列集合中的每个关键帧图像序列,执行以下步骤:
对于所述关键帧图像序列中的每个关键帧图像,执行以下步骤:
对所述关键帧图像进行灰度化处理,得到处理后关键帧图像;
对所述处理后关键帧图像进行滤波处理,得到滤波后关键帧图像;
对所述滤波后关键帧图像进行目标检测,得到目标检测信息,其中,所述目标检测信息包括检测框位置信息;
对所述目标检测信息包括的检测框位置信息所表征的图像区域进行关键点检测,以生成人体关键点信息;
将所得到的各个人体关键点信息确定为人体关键点信息序列;
将所确定的各个人体关键点信息序列确定为人体关键点信息序列集合。
4.根据权利要求3所述的方法,其中,在所述将所确定的各个人体关键点信息序列确定为人体关键点信息序列集合之前,所述方法还包括:
对所确定的各个人体关键点信息序列中的每个人体关键点信息序列,执行以下信息验证步骤:
对于所述人体关键点信息序列中的每个人体关键点信息,响应于确定所述人体关键点信息异常,执行以下步骤:
响应于确定所述人体关键点信息不满足序列位置条件,根据前序人体关键点信息和后序人体关键点信息,对所述人体关键点信息进行第一异常处理,以对所述人体关键点信息进行更新,其中,所述序列位置条件为所述人体关键点信息是所述人体关键点信息序列中的第一个人体关键点信息或最后一个人体关键点信息,所述前序人体关键点信息为所述人体关键点信息在所述人体关键点信息序列中的前一个正常的人体关键点信息,所述后序人体关键点信息为所述人体关键点信息在所述人体关键点信息序列中后一个正常的人体关键点信息;
响应于确定所述人体关键点信息满足所述序列位置条件,根据所述前序人体关键点信息或所述后序人体关键点信息,对所述人体关键点信息进行第二异常处理,以对所述人体关键点信息进行更新。
5.一种姿态评价音频输出装置,包括:
获取单元,被配置成获取各个运动姿态视频作为运动姿态视频集合,其中,所述各个运动姿态视频是位于不同角度的各个采集设备针对目标用户采集的;
第一生成单元,被配置成根据所述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息,其中,所述运动类型识别信息是表征所述各个运动姿态视频中所述目标用户所进行的运动项目类型的文本标签,所述根据所述运动姿态视频集合和预先训练好的运动类型识别模型,生成运动类型识别信息,包括:对于所述运动姿态视频集合中的每个运动姿态视频,执行以下步骤:对所述运动姿态视频进行解析处理,得到视频帧序列;将所述视频帧序列输入至所述运动类型识别模型包括的预处理层,得到处理后视频帧图像序列,其中,所述运动类型识别模型包括预处理层、视频帧特征提取网络、视频帧时序特征提取网络、全连接层和输出层;将所述处理后视频帧图像序列输入至所述视频帧特征提取网络,得到视频帧特征向量序列;将所述视频帧特征向量序列输入至所述视频帧时序特征提取网络,得到视频帧时序特征向量序列;根据所述视频帧时序特征向量序列,生成全局时序特征向量;将所生成的各个全局时序特征向量输入至所述全连接层,得到融合后特征向量;将所述融合后特征向量输入至所述输出层,得到运动类型识别信息;
第一选择单元,被配置成根据所述运动类型识别信息,从预先训练好的姿态视频关键帧提取模型集合中选择满足类型匹配条件的姿态视频关键帧提取模型作为目标关键帧提取模型,所述姿态视频关键帧提取模型集合中的每个姿态视频关键帧提取模型对应有预设类型标签,且所对应的每个预设类型标签表征对应的姿态视频关键帧提取模型在模型训练过程中所使用的运动姿态视频对应的运动项目类型;
第二选择单元,被配置成从所述运动姿态视频集合中选择满足评价视角条件的运动姿态视频作为目标运动姿态视频,其中,所述评价视角条件与所述运动类型识别信息对应,所述运动类型识别信息对应有评价视角标签,所述评价视角标签为通过经验分析后预设的、表征对所述运动类型识别信息所对应的运动项目进行评价时的视角角度;
第二生成单元,被配置成根据所述目标关键帧提取模型和所述目标运动姿态视频,生成关键帧图像序列集合,其中,所述目标关键帧提取模型包括单帧特征提取网络、光流特征提取网络、关键动作概率预测层和关键帧信息输出层;以及所述根据所述目标关键帧提取模型和所述目标运动姿态视频,生成关键帧图像序列集合,包括:对所述目标运动姿态视频进行解析,得到目标视频帧序列;根据预设帧段长度,对所述目标视频帧序列进行划分,得到各个目标视频帧子序列;对于所述各个目标视频帧子序列中的每一个目标视频帧子序列,执行以下步骤:从所述目标视频帧子序列中选取一个目标视频帧作为待测视频帧;根据所述目标视频帧子序列,生成对应所述目标视频帧子序列的光流信息序列;将所述待测视频帧输入至所述单帧特征提取网络,得到单帧特征信息;将所述光流信息序列输入至所述光流特征提取网络,得到光流特征信息;将所述单帧特征信息和所述光流特征信息输入至所述关键动作概率预测层,得到对应的所述待测视频帧的关键动作概率信息;根据所得到的各个关键动作概率信息,生成关键帧提取阈值;将所述关键帧提取阈值和所生成的各个关键动作概率信息输入至所述关键帧信息输出层,得到各个关键帧信息;根据所得到的各个关键帧信息和所述目标视频帧序列,生成关键帧图像序列集合;
第三生成单元,被配置成根据所述关键帧图像序列集合,生成人体关键点信息序列集合,其中,所述关键帧图像序列集合中的关键帧图像序列对应所述人体关键点信息序列集合中的人体关键点信息序列;
第四生成单元,被配置成根据所述人体关键点信息序列集合,生成针对所述目标用户的运动姿态评价信息,其中,所述根据所述人体关键点信息序列集合,生成针对所述目标用户的运动姿态评价信息,包括:对于所述人体关键点信息序列集合中的每个人体关键点信息序列,执行以下步骤:对于所述人体关键点信息序列中的每个人体关键点信息,根据所述人体关键点信息生成人体动作信息,其中,所述人体动作信息包括各个关键点角度信息,所述各个关键点角度信息对应有各个关键点角度标签;根据所生成各个人体动作信息,生成对应所述人体关键点信息序列的动作范围信息;从预先构建的标准运动姿态信息库中获取与所述运动类型识别信息对应的标准运动姿态信息,其中,所述标准运动姿态信息包括各个标准动作姿态信息;对于所述标准运动姿态信息包括的每个标准动作姿态信息,执行以下步骤:根据所述标准动作姿态信息,从所生成的各个动作范围信息中选择与所述标准动作姿态信息对应的动作范围信息作为目标动作范围信息;根据所述标准动作姿态信息和所述目标动作范围信息,生成针对所述目标用户的局部姿态评价信息;根据所生成的各个局部姿态评价信息,生成针对所述目标用户的运动姿态评价信息;
控制单元,被配置成根据所述运动姿态评价信息,控制相关联的音频输出设备输出与所述运动姿态评价信息对应的姿态评价音频,以对所述目标用户的运动姿态进行调整。
6.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的方法。
7.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-4中任一所述的方法。
CN202311180453.2A 2023-09-13 2023-09-13 姿态评价音频输出方法、装置、电子设备和可读介质 Active CN117216313B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311180453.2A CN117216313B (zh) 2023-09-13 2023-09-13 姿态评价音频输出方法、装置、电子设备和可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311180453.2A CN117216313B (zh) 2023-09-13 2023-09-13 姿态评价音频输出方法、装置、电子设备和可读介质

Publications (2)

Publication Number Publication Date
CN117216313A CN117216313A (zh) 2023-12-12
CN117216313B true CN117216313B (zh) 2024-06-21

Family

ID=89034794

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311180453.2A Active CN117216313B (zh) 2023-09-13 2023-09-13 姿态评价音频输出方法、装置、电子设备和可读介质

Country Status (1)

Country Link
CN (1) CN117216313B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117710870B (zh) * 2024-02-05 2024-04-30 武汉博特智能科技有限公司 基于大数据技术的互联网内容监测方法、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626137A (zh) * 2020-04-29 2020-09-04 平安国际智慧城市科技股份有限公司 基于视频的运动评估方法、装置、计算机设备及存储介质
CN115223201A (zh) * 2022-07-15 2022-10-21 安徽大学 基于单目序列图像的三维人体关节点估算方法、***及装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108256433B (zh) * 2017-12-22 2020-12-25 银河水滴科技(北京)有限公司 一种运动姿态评估方法及***
CN110782482A (zh) * 2019-10-21 2020-02-11 深圳市网心科技有限公司 运动评估方法、装置、计算机设备及存储介质
CN112819852A (zh) * 2019-11-15 2021-05-18 微软技术许可有限责任公司 对基于姿态的运动进行评估
CN112200041B (zh) * 2020-09-29 2022-08-02 Oppo(重庆)智能科技有限公司 视频动作识别方法、装置、存储介质与电子设备
KR20220124273A (ko) * 2021-04-28 2022-09-13 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 동적 제스처 인식 방법, 장치, 기기 및 저장 매체
CN115482397A (zh) * 2021-06-15 2022-12-16 咪付(广西)网络技术有限公司 一种动作评分***
CN113569753B (zh) * 2021-07-29 2024-05-31 杭州逗酷软件科技有限公司 视频中的动作比对方法、装置、存储介质与电子设备
CN114363623A (zh) * 2021-08-12 2022-04-15 财付通支付科技有限公司 图像处理方法、装置、介质及电子设备
CN114463379A (zh) * 2021-12-28 2022-05-10 天津大学 一种视频关键点的动态捕捉方法及装置
CN115240223A (zh) * 2022-07-21 2022-10-25 中国平安人寿保险股份有限公司 一种用户拍摄姿态矫正提示方法、装置、设备和介质
CN116168799A (zh) * 2022-09-30 2023-05-26 海信视像科技股份有限公司 一种运动评分方法、装置和电子设备
CN116580454A (zh) * 2023-04-27 2023-08-11 上海新近纪智能科技有限公司 一种基于目标检测和人体姿态估计的运动评估方法及装置
CN116311536B (zh) * 2023-05-18 2023-08-08 讯龙(广东)智能科技有限公司 一种视频动作评分方法、计算机可读存储介质及***

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626137A (zh) * 2020-04-29 2020-09-04 平安国际智慧城市科技股份有限公司 基于视频的运动评估方法、装置、计算机设备及存储介质
CN115223201A (zh) * 2022-07-15 2022-10-21 安徽大学 基于单目序列图像的三维人体关节点估算方法、***及装置

Also Published As

Publication number Publication date
CN117216313A (zh) 2023-12-12

Similar Documents

Publication Publication Date Title
EP3382601B1 (en) Face verifying method and apparatus
CN106897658B (zh) 人脸活体的鉴别方法和装置
CN109657533B (zh) 行人重识别方法及相关产品
US7986828B2 (en) People detection in video and image data
US10318797B2 (en) Image processing apparatus and image processing method
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
CN112395979B (zh) 基于图像的健康状态识别方法、装置、设备及存储介质
CN110569731A (zh) 一种人脸识别方法、装置及电子设备
US20170357847A1 (en) Biologically inspired apparatus and methods for pattern recognition
CN108197592B (zh) 信息获取方法和装置
CN110633004B (zh) 基于人体姿态估计的交互方法、装置和***
CN108491823B (zh) 用于生成人眼识别模型的方法和装置
CN110738116B (zh) 活体检测方法及装置和电子设备
CN117216313B (zh) 姿态评价音频输出方法、装置、电子设备和可读介质
CN111310705A (zh) 图像识别方法、装置、计算机设备及存储介质
CN110163171B (zh) 用于识别人脸属性的方法和装置
CN108229375B (zh) 用于检测人脸图像的方法和装置
CN106471440A (zh) 基于高效森林感测的眼睛跟踪
CN108875549B (zh) 图像识别方法、装置、***及计算机存储介质
CN113239849B (zh) 健身动作质量评估方法、***、终端设备及存储介质
CN114783061A (zh) 一种吸烟行为检测方法、装置、设备和介质
KR101204378B1 (ko) 모바일 단말기에서 웃음 치료를 위한 웃음표정 인식 시스템 및 방법
CN109753859A (zh) 在图像中检测人体部件的装置和方法及图像处理***
CN111402987B (zh) 基于可见光视频的用药提醒方法、装置、设备及存储介质
CN117037244A (zh) 人脸安全检测方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant