CN118097765A - 计数方法、装置、电子设备及存储介质 - Google Patents

计数方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN118097765A
CN118097765A CN202211436766.5A CN202211436766A CN118097765A CN 118097765 A CN118097765 A CN 118097765A CN 202211436766 A CN202211436766 A CN 202211436766A CN 118097765 A CN118097765 A CN 118097765A
Authority
CN
China
Prior art keywords
image
images
feature
sample
identified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211436766.5A
Other languages
English (en)
Inventor
林勤
欧阳柏强
杨蕊婷
张博中
刘朋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Chengdu ICT Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Chengdu ICT Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Chengdu ICT Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN202211436766.5A priority Critical patent/CN118097765A/zh
Priority to PCT/CN2023/130256 priority patent/WO2024104223A1/zh
Publication of CN118097765A publication Critical patent/CN118097765A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供一种计数方法,包括:获取测试场地图像;基于所述测试场地图像中的参考对象,确定多个待识别区域;获取目标图像集,所述目标图像集包括至少一个被测试者在所述多个待识别区域的至少一个待识别区域内进行运动的多个图像;对所述目标图像集中每个图像的所述多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数。本申请实施例还提供一种计数装置、电子设备和存储介质。

Description

计数方法、装置、电子设备及存储介质
技术领域
本申请涉及电子技术领域,尤其涉及一种计数方法及装置、电子设备及存储介质。
背景技术
目前,体测计数方法主要分为基于人工、硬件传感器和机器视觉三大类。基于人工的体测计数方法针对每一位被测试者进行实时监督,查看被测试者动作,进行计数,测试结束后将成绩进行登记;基于硬件传感设备的体测计数方法需要在测试场所部署一套硬件设备,测试者佩戴相应硬件,在测试者运动过程中,实时自动计数;基于机器视觉的体测计数方法主要是对视频进行分帧,检测人体的主要关键点,从而判断人体关键点角度来进行实时计数。
但是,基于人工的体测计数方法,十分耗费人力,无法自动得到成绩,测试效率低;基于硬件传感设备的体测计数方法设备成本高,部署复杂,无法防止非被测试者本人进行测试,易被干扰,精度较差;基于机器视觉的体测计数方法,同样无法防止非被测试者本人进行测试,且无法解决画面中出现其他人干扰情况和多人同步计数的问题。
发明内容
本申请实施例提供一种计数方法、计数装置、电子设备及计算机可读存储介质。
本申请的技术方案是这样实现的:
本申请实施例提供一种计数方法,包括:
获取测试场地图像;
基于所述测试场地图像中的参考对象,确定多个待识别区域;获取目标图像集,所述目标图像集包括至少一个被测试者在所述多个待识别区域的至少一个待识别区域内进行运动的多个图像;
对所述目标图像集中每个图像的所述多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数。
本申请实施例提供一种计数装置,包括:
获取单元,用于获取测试场地图像;
识别单元,用于基于所述测试场地图像中的参考对象,确定多个待识别区域;所述获取单元,还用于获取目标图像集,所述目标图像集包括至少一个被测试者在所述多个待识别区域的至少一个待识别区域内进行运动的多个图像;
分类单元,用于对所述目标图像集中每个图像的所述多个待识别区域内的被测试者进行动作识别,确定每个待识别区域内被测试者完成所述运动的个数。
本申请实施例提供一种电子设备,包括处理器和存储器,该存储器用于存储计算机程序,所述处理器用于调用并运行所述存储器中存储的计算机程序,执行上述提供的计数方法。
本申请实施例提供一种计算机可读存储介质,用于存储计算机程序,所述计算机程序使得计算机执行上述提供的计数方法。
在本申请的一些实施例所提供的技术方案中,首先,获取测试场地图像;接着基于测试场地图像中的参考对象,确定多个待识别区域;然后获取至少一个被测试者在多个待识别区域的至少一个待识别区域内进行运动的多个图像,得到目标图像集;最后对目标图像集中每个图像的多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成运动的个数。这样,通过确定多个待识别区域对区域精细化分后,使被测试者在待识别区域内运动并对待识别区域内的被测试者所做运动的姿态自动计数,防止区域外部的干扰,同时,有多个待识别区域可以实现多个被测试者同时进行测试并自动计数,有利于减少人力,物力的消耗,提高体测的效率。
附图说明
图1为本申请实施例提供的一种计数方法流程图一;
图2为本申请实施例提供的一种计数方法流程图二;
图3为本申请实施例提供的一种识别模型架构图;
图4为本申请实施例提供的一种计数方法流程图三;
图5为本申请实施例提供的一种姿态分类模型架构图;
图6为本申请实施例提供的一种计数方法流程图四;
图7为本申请实施例提供的仰卧起坐计数方法流程图;
图8a为本申请实施例提供一种识别模型解析区域示意图;
图8b为本申请实施例提供参考对象的目标框;
图9为本申请实施例提供的一种计数装置的结构组成示意图;
图10为本申请实施例提供的一种电子设备的硬件结构组成示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为便于理解本申请实施例的技术方案,以下对本申请实施例的相关技术进行说明,以下相关技术作为可选方案与本申请实施例的技术方案可以进行任意结合,其均属于本申请实施例的保护范围。
另外,在本申请实施例中,“第一”、“第二”等是用于区别类似的对象,而不必用于特定的顺序或先后次序。
实际应用中,基于人工的体测计数方法虽然可以保证无作弊,但是每个人主观标准和对规则理解不一致从而导致测量出的成绩不一致。特别是在大量测试人员一起参加测试的情况下,十分耗费人力,无法自动得到成绩,测试效率低。基于硬件传感设备的体测计数方法往往是一个人一套设备,十分笨重,设备成本高,部署复杂,无法防止非被测试者本人进行测试,且还需要用户佩戴一定的硬件设备,影响测试效果。另外像红外传感测量对于不同的测试人员,身高、胖瘦等生理条件不一致,易被干扰,精度较差。基于机器视觉的体测计数方法,同样无法防止非被测试者本人进行测试,且无法解决画面中出现其他人干扰情况和多人同步计数的问题。
在进行体测时,监考人员希望能够在最少的人力,物力的情况下,同时能够以统一的主观考核标准对被测试者的体测运动进行自动计数,从而能达到公平公正的原则,提高体测的效率。
基于相关技术存在的问题,本申请实施例提供一种计数方法,该计数方法的执行主体可以是本申请实施例提供的计数装置,或者集成了该技术装置的电子设备,这里的计数装置可以采用硬件或者软件的方式实现。
图1是本申请实施例提供的一种计数方法的流程示意图,如图1所示,该计数方法可以包括:
步骤S110:获取测试场地图像。
可选地,测试场地图像可以是通过集成在电子设备内的前置摄像头或后置摄像头获取的,摄像头可以是单目摄像头,双目摄像头,或者三目摄像头;也可以是独立于电子设备且具有拍摄功能的设备提供的,比如电脑,手机,平板等设备,本申请实施例对获取测试场地图像方式不做限制。
可选地,本申请实施例测试场地图像是以各种角度各种高度拍摄的,本申请实施例不对测试场地的拍摄角度和高度做限制。
在本申请实施例中,电子设备通过自身拍摄或者第三方设备提供测试场地图像,获得测试场地图像。
可选地,测试场地图像可以是被测试者进行测试所在的场地图像,比如操场,室内体育场,室外体育场等任意可以进行测试的场地,本申请实施例对测试场地图像不做限制。
步骤S120:基于所述测试场地图像中的参考对象,确定多个待识别区域;
可选地,测试场地图像中的参考对象是被测试者进行测试时所需的参照物,比如仰卧起坐时被测试者所需的垫子,引体向上时被测试者所需的单杠,做俯卧撑时被测试者所需的垫子等,参考对象与测试场地中的被测试者相关。
可选地,测试场地图像中的参考物的数量可以是一个或者多个,比如,仰卧起坐时测试场地图像中可以有一个或多个垫子,引体向上时测试场地图像中可以有一个或多个单杠,俯卧撑时测试场地图像中可以有一个或多个垫子,本申请实施例对测试场地图像中的参考物的数量不做限制。
可选地,测试场地图像中的参考对象的位置可以随意摆放,摆放后的位置不能改变。
示例的,基于测试场地图像中多个参考对象的不同位置,将测试场地图像中的参考对象以预设的范围进行划分,并对划分的区域标号为1,2,3,……,N(N为参考对象总数)。
应理解,待识别区域是电子设备基于测试场地图像中的参考对象确定的,因为参考对象的数量可以是一个或多个,并且其位置随意摆放,所以待识别区域的数量基于参考对象的数量可以是一个或多个,并且待识别区域的位置基于参考对象的位置可以是随意的,在本申请实施例不根据固定标准确定待识别区域。
本申请实施例,电子设备基于测试场地图像中的参考对象确定多个待识别区域,一个参考对象确定一个待识别区域,多个参考对象确定多个待识别区域。通过确定多个待识别区域,对区域精准划分,防止区域外部干扰,并且多个待识别区域可以实现多个被测试者同时测试。
步骤S130:获取目标图像集,所述目标图像集包括至少一个被测试者在所述多个待识别区域的至少一个待识别区域内进行运动的多个图像。
电子设备在确定多个待识别区域后,电子设备获取至少一个被测试者在待识别区域内进行运动的多个图像,得到目标图像集。
可选地,目标图像集可以是通过集成在电子设备内的前置摄像头或后置摄像头获取的,摄像头可以是单目摄像头,双目摄像头,或者三目摄像头;也可以是独立于电子设备且具有拍摄功能的设备提供的,比如电脑,手机,平板等设备,本申请实施例对目标图像集获取方式不做限制。
可选地,目标图像集可以是连续帧的图像视频,也可以是一段视频中通过截取视频关键帧减少视频冗余,本申请实施例不做具体限定。
可选地,本申请实施例目标图像集是以各种角度各种高度拍摄的,本申请实施例不对测试场地的拍摄角度和高度做限制。
本申请实施例中,电子设备确定多个待识别区域后,获取至少一个被测试者在待识别区域内进行运动的多个图像,得到目标图像集。通过获取待识别区域内的被测试者的运动的多个图像,得到被测试者的运动范围,防止待识别区域外部的干扰。
步骤S140:对所述目标图像集中每个图像的所述多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数。
在本申请实施例中,电子设备在获取目标图像集后,对目标图像集中的每个图像中的多个待识别区域内的测试者的姿态进行识别,根据识别结果对每个待识别区域内被测试者所做的运动进行计数。
可选地,姿态是被测试者完成一个运动时所做的动作,完成一个运动需要连续完成起始姿态,中间姿态,结束姿态,比如:做仰卧起坐时需要有仰卧姿态,中间姿态,起做姿态;做引体向上时需要有测试者头部低于单杠和头部高于单杠两种姿态;做俯卧撑时需要测试者腰部挺直和腰部向前弯曲两种姿态等,本申请实施例对姿态不做限定。
综上所述,电子设备获取测试场地图像,基于测试场地图像中的参考对象,确定多个待识别区域,获取包括至少一个被测试者在待识别区域进行运动的多个图像,得到目标图像集,对目标图像集中每个图像的多个待识别区域进行识别,根据识别结果确定每个待识别区域内被测试者完成运动的个数。通过确定多个待识别区域实现对区域的精细化分,确定被测试者的运动范围,防止区域外部的干扰,同时多个待识别区域可以实现多个被测试者同时进行测试并自动计数。有利于减少人力,物力的消耗,提高体测的效率。
需要说明的是,步骤S120基于所述测试场地图像中的参考对象,确定多个待识别区域的实现方式可以包括对测试场地图像直接进行特征提取,得到测试场地图像的目标特征图。通过对输入的测试场地图像进行特征处理,减少数据存储和输入数据带宽,减少冗余。
特征提取是通过卷积网络对图像进行采样,输出各个阶段的特征图,不同的阶段因为处理程度不同,拥有的分辨率也不相同,得到的目标特征图分辨率也越低。
示例性,分辨率可以是图像分辨,分辨率通常被表示成每一个方向上的像素数量,比如640×480,1080×720等。图像的分辨率越高,所包含的像素就越多,图像就越清晰。至少两种分辨率参数是指图像的两种不同的像素数量,比如4×4,2×2。
通过测试场地图像直接进行特征提取,得到测试场地图像的目标特征图分辨率较低。不利于基于测试场地图像中参考对象,确定多个待识别区域的实现。此时,电子设备可以基于至少两种分辨率对测试场地图像进行特征提取,避免目标特征图分辨率较低导致不利于确定多个待识别区域的问题。
具体地,在本申请一实施例中,参考图2所示,步骤S120基于所述测试场地图像中的参考对象,确定多个待识别区域,还可以通过以下方式实现:
步骤S210:基于至少两种分辨率参数对所述测试场地图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图。
步骤S220:对所述至少两个目标特征图合并处理,得到合并特征图。
步骤S230:对所述合并特征图中所述参考对象进行识别处理,确定所述待识别区域。
其中,至少两种分辨率参数可以是高分辨率,中分辨,低分辨率中任意两种或两种以上的分辨率参数;也可以是任意不同的两种或两种以上的不同分辨率参数,比如至少两种分辨率可以是16×16和8×8,也可以是4×4,2×2,和1×1,本申请对分辨率参数不做限定。
在本申请实施例中,特征提取是通过卷积层对图像中的色彩、亮度、纹理、形状、几何等特征进行提取。
在本申请实施例中,输入测试场地图像后,对测试场地图像进行至少两种不同的采样,得到至少两个目标特征图,其中,至少两个目标特征图的分辨率参数不同,对至少两个目标特征图进行合并,得到合并特征图,对合并特征图中的参考对象进行识别确定待识别区域。
示例性的,输入一张分辨率为8×8的测试场地图像,利用2×2对测试场地图像分辨进行卷积操作和反卷积操作进行2倍的上采样和2倍的下采样,得到分辨率为16×16,4×4的两个目标特征图;将分辨率为16×16,4×4的两个目标特征图进行合并处理,对合并后的特征图中的参考对象进行识别处理,确定待识别区域。
可选地,输入的测试场地图像的大小是可以预先设置,比如16×16,8×8,4×4等,本申请实施例对输入测试场地图像的大小不做限定。
在本申请一实施例中,步骤S210基于至少两种分辨率参数对所述测试场地进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图,还可以通过以下方式实现:
步骤S211:基于所述至少两种分辨率参数,对所述测试场地图像进行采样处理,得到至少两个初始图像;所述至少两个初始图像与所述至少两种分辨率参数一一对应。
初始图像是对测试场地图像进行至少两种不同的采样,得到至少两个初始特征图,即初始图像。初始图像是通过至少两种不同的采样得到的,所以初始图像至少有两种分辨率参数。
示例的,参考图3所示,图3中的俯视高清全景图片是本申请实施例中的测试场地图像,对输入的测试场地图像进行不同的采样处理,分别得到第一分辨率初始图像H(k),第二分辨率初始图像M(k),第三分辨率初始图像L(k),其中,H(k)的分辨率和输入的测试场地图像的分辨率相同,H(k)的分辨率大于M(k)的分辨率,M(k)的分辨率大于L(k)的分辨率;k是经过实验得出网络模型最优时的网络层数,
步骤S212:基于所述至少两种分辨率参数,对所述至少两个初始图像中的每个初始图像进行采样处理,得到每个初始图像对应的至少两个待处理图像。
在本申请实施例中,通过对至少两个初始图象中每个初始图像进行至少两种不同的采样,得到每个初始图像对应的至少两个待处理图像,至少两个待处理图像的分辨率参数不同。
示例的,参考图3中第1层到第2层的处理所示,对得到H(k)进行不同的采样处理,得到H(k)对应的第一分辨率待处理图像,第二分辨率待处理图像,第三分辨率待处理图像,其中,第一分辨率待处理图像的分辨率和H(k)的分辨率相同,第一分辨率待处理图像的分辨率大于第二分辨率待处理图像的分辨率,第二分辨率待处理图像的分辨率大于第三分辨率待处理图像的分辨率。同理,对得到M(k)进行不同的采样处理,得到M(k)对应的第四分辨率待处理图像,第五分辨率待处理图像,第六分辨率待处理图像,其中,第四分辨率待处理图像的分辨率和H(k)的分辨率相同,第五辨率待处理图像的分辨率和M(k)的分辨率相同,第六分辨率待处理图像的分辨率和L(k)的分辨率相同。同理,对得到L(k)进行不同的采样处理,得到M(k)对应的第七分辨率待处理图像,第八分辨率待处理图像,第九分辨率待处理图像,其中,第七分辨率待处理图像和H(k)的分辨率相同,第八分辨率待处理图像和M(k)的分辨率相同,第九分辨率待处理图像和L(k)的分辨率相同。可以理解,对所述至少两个初始图像中的每个初始图像进行采样处理后,得到三个初始图象中每个初始图像对应三种分辨率的九个待处理图像。
步骤S213:对所述至少两个初始图像对应的多个待处理图像分别进行特征提取,并将分辨率参数相同的待处理图像的图像特征进行合并,得到至少两个第一特征图;所述至少两个第一特征图与所述至少两种分辨率参数一一对应。
在本申请实施例中,对多个待处理图像中的每一个待处理图像进行特征提取,将分辨率相同的待处理图像的图像特征进行合并,得到至少两个第一特征图。至少两个第一特征图的分辨率参数不同。
示例性,参考图3第2层到第三层的处理所示,对三个初始图像对应的九个待处理图像分别进行特征提取,将九个待处理图像中具有相同分辨率参数的待处理图像的图像特征进行合并,得到三个第一特征图,其中三个第一特征图与初始图像的分辨率参数一一对应。
步骤S214:继续基于所述至少两种分辨率参数,对所述至少两个第一特征图中的每个第一特征图进行采样处理,得到每个第一特征图对应的至少两个待处理图像,并对所述至少两个第一特征图对应的多个待处理图像中,分辨率参数相同的待处理图像进行合并和特征提取,得到至少两个第二特征图,继续对所述第二特征图进行处理,直至得到至少两个第N特征图;N为大于2的整数。
继续对至少两个第一特征图中的每一个特征图进行至少两种不同的采样,得到每个第一特征图对应的至少两个待处理图像,对分辨率参数相同的待处理图像进行合并和特征提取,得到至少两个第二特征图,继续对第二特征图进行采样,直至得到至少两个第N特征图。
参考图3第3层到第k层之间的处理,重复上述步骤步骤S212,步骤S213得到第N特征图,其中,N为k/2,k为识别效果最好时所需的网络层数。
可以理解的是,电子设备在特征提取的过程中,可以将高分辨率的图像进行下采样,对低分辨率的图像进行转置卷积向上采样,如此,反复交换并行多分辨率子网络中的信息,以提高特征提取的准确性。
通过综合高低不同分辨率的空间信息和单一分辨率下的全局信息,保证了不同分辨率下模型的空间和全局信息的特征提取能力。
步骤S215:将所述至少两个第N特征图作为所述目标特征图。
在本申请实施例中,将经过多次重复处理得到的至少两个第N特征图作为目标特征图。
在本申请实施例中,步骤S213对所述至少两个初始图像对应的多个待处理图像进行特征提取,并将分辨率参数相同的待处理图像的图像进行合并,得到至少两个第一特征图,还可以通过以下方式实现:
步骤S2131:将所述多个待处理图像中具有相同分辨率的待处理特征图中的每一个待处理特征图切分成多个大小相同的图像块。
示例性,参考图3,将九个待处理图像中具有相同分辨率参数的待处理特征图中的每一个待处理特征图切分成多个大小相同的图像块。
步骤S2132:将所述具有相同分辨率的待处理特征图对应的图像块合并成一个图像块序列;得到至少两种分辨率不同的图像块序列。
示例性,参考图3,将具有相同分辨率的待处理特征图对应的图像块合并成一个图像块序列;得到三种分辨率不同的图像块序列。
步骤S2133:对所述图像块序列进行量化加上位置编码信息,得到所述至少两个第一特征图。
示例性,参考图3,对三种分辨率不同的图像块序列中的每一个图像块序列进行量化加上参考对象的位置信息,得到三个第一特征图。
位置编码是一种用位置信息对序列中的每个像素进行二次表示的方法,让输入的数据携带位置信息,使模型能够找到位置特点。
在本申请实施例中,通过对图像块序列加上参考对象的位置信息,使模型能够识别出参考对象的位置,通过综合高低不同分辨率的空间信息和单一分辨率下的全局信息,保证了不同分辨率下模型的空间和全局信息的特征提取能力,从而更准确的确定多个待识别区域。
在本申请一实施例中,参考图3所示,步骤S230中对所述合并特征图识别,确定所述待识别区域,还可以通过以下方式实现:
基于所述合并特征图,确定所述参考对象关键点的位置,将所述参考对象关键点的位置确定为所述待识别区域。
在本申请实施例中,对测试场地图像经过特征提取后得到合并特征图,对合并特征图进行识别得到输出结果,输出结果是参考对象关键点的中心位置和参考对象关键点的中心位置与参考对象真实关键点的中心位置的偏差,利用回归损失函数不断缩小输出的参考对象关键点的中心位置和参考对象真实关键点的中心位置的差异值,输出结果的偏差与真实的偏差之间的差异值,总的损失为将两个差异值的权重设为1进行相加,通过不断更新迭代减小损失值,优化模型,使输出的参考对象关键点位置更准确,从而提高待识别区域的精确度。也更加准确。
需要说明的是,在本申请实施例确定多个待识别区域后,可以直接对待识别区域内的被测试进行姿态识别确定被测试者完成所做运动的个数,但是现有技术中,无法确定参加测试的被测试者是否是本人,并且是否会在测试期间换人,因此,本申请实施例可以对被测试者进行人脸识别和追踪,避免替代被测试者参加测试以及中途换人的情况,以防作弊。
在一些实施例中,上述确定待识别区域的步骤可以通过识别模型实现。具体地,该模型可以基于至少两种分辨率参数对所述测试场地图像进行特征提取,得到与两种分辨率参数关联的至少两个目标特征图;对至少两个目标特征图合并处理,得到合并特征图;对合并特征图中所述参考对象进行识别处理,确定待识别区域。其中,该模型特征提取过程可以反复交换并行多分辨率子网络中的信息,提高特征提取的准确性,模型特征提取过程中反复交换并行多分辨率子网络中信息的方式,与上述实施例中提取特征图的方式相同,为了简洁,此处不再赘述。
模型可以通过预先训练得到,训练过程可以是:获取多个样本图像和所述多个样本图像中每个样本图像对应的样本标签,样本标签用于标识参考对象的位置;基于待训练识别模型对多个样本图像中的每个样本图像进行处理,得到第一输出结果;通过目标损失函数,确定样本标签和第一输出结果之间的第一差异值;基于第一差异值对待训练识别模型进行训练,直到满足训练结束条件时,得到预训练识别模型。
可选地,本申请实施例中目标损失函数可以是均方误差损失函数,平均绝对值误差损失函数,分位数损失函数等,本申请实施例对识别模型的目标损失函数不做限定。
具体地,参考图4所示,本申请以实施例提供的计数方法,还包括以下步骤:
步骤S410:对所述被测试者进行人脸识别,确定所述被测试者是否为预设测试对象。
人脸识别是指利用分析比较人脸视觉特征信息对被测试者身份进行鉴别,确定被测试者是否是预设测试对象,防止代替预设测试对象参加测试,出现作弊现象。
可选地,本申请实施例的人脸识别可以包括几何特征的人脸识别方法,基于特征脸的人脸识别方法,神经网络的人脸识别方法,弹性图匹配的人脸识别方法,线段距离的人脸识别方法,支持向量机的人脸识别方法等任意可以进行人脸识别的方法,本申请实施例对人脸识别方法不做具体限定。
在本申请一实施例中,本申请实施例提供的计数方法,还包括以下步骤:
判断所述多个待识别区域中每个待识别区域内所述被测试者人脸框至少一条边是否超出区域边界,若超出所述区域边界,则发出提示消息,所述提示消息用于提示所述被测试者可能作弊;若没有超出所述区域边界,则直到测试时间结束。
通过判断多个待识别区域中每个待识别区内的被测试者人脸框至少一条边是否超出区域边界确定被测试者是否作弊,若被测试者人脸框至少一条边超出区域边界,则发出提示消息,提示被测试者可能作弊,若没有超出区域边界,对测试者所做的运动进行计数直到测试时间结束,防止被测试者在测试期间换人,出现作弊现象。
目前,预训练姿态分类模型都是采用神经网络模型对待识别对象进行分类,首先需要对输入的样本图像进行特征提取,在现有技术中,神经网络模型直接对输入样本图像进行特征提取,得到样本图像的目标特征图分辨率较低。不利于对目标图像集中每个图像的多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数。此时,电子设备可以基于至少两种分辨率对输入样本进行特征提取,避免目标特征图分辨率较低导致对被测试者姿态分类结果差的问题。
在此基础上,本申请实施例提出了基于至少两种分辨率参数对所述目标图像集中的每个图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;对所述至少两个目标特征图合并处理,得到合并特征图;对所述合并特征图中所述参考对象进行分别处理,确定所述被测试者的姿态。
具体地,步骤S140可以通过以下方式实现:
步骤S141:利用预训练姿态分类模型对所述目标图像集中每个图像的所述多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数;所述预训练姿态分类模型用于基于至少两种分辨率参数对所述目标图像集中的每个图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;对所述至少两个目标特征图合并处理,得到合并特征图;对所述合并特征图中所述参考对象进行分别处理,确定所述被测试者的姿态。
在本申请提供的实施例中,预训练姿态分类模型是预先训练好的图像处理模型。这里,预设姿态分类模型可以是电子设备对样本数据进行训练得到的,也可以是电子设备从其他提供模型的服务器获取的。
在本申请实施例中,被测试者的姿态有多种类别,这里,预训练姿态分类模型是用于确定在待识别区域内的被测试者的姿态类别,因此,预训练姿态分类模型是多分类模型,可以理解的是,预训练姿态分类模型可以是一个多分类处理模型,即预训练姿态分类模型可以对同一个待识别图像进行处理,确定待识别图像中被测试者的姿态类别。
可以理解的是,本申请实施例中预训练姿态分类模型是多分类处理模型,电子设备通过预训练姿态分类模型对一个待识别图像进行一次运算,确定被测试者的姿态类别,如此,可以在姿态分类过程中降低图像处理过程中的计算量,提高图像处理速度。
下面详细介绍预训练姿态分类模型的训练过程,参考图5所示:
步骤S510:获取多个样本图像和所述多个样本图像中每个样本图像对应的样本标签;所述样本标签用于标识所述被测试者的姿态类别。
在本申请提供的实施例中,为了实现对被测试者姿态类别的分类的识别,可以提前训练用于图像分类的模型。在对模型开始训练之前,需要获取多个样本数据。
这里,样本数据包括多个样本图像和所述多个样本图像中每个样本图像对应的样本标签。其中,样本图像是指包含被测试者姿态的图像,可以使训练出的预训练姿态分类模型能够检测出图像中被测试者姿态类别。另外,样本标签可以包括多个样本图像中被测试者姿态类别标签。
需要说明的是,被测试者的姿态大于两个类别,所以本申请提供的实施例中,预训练姿态分类模型是一个多分类处理模型。
在本申请提供的实施例中,样本标签可以是人工标注的,或者通过其他方式获取的。本申请实施例这里不做限定。
步骤S520:基于待训练姿态分类模型对所述多个样本图像中的每个样本图像进行分类处理,得到分类结果;所述待训练姿态分类模型用于基于至少两种分辨率参数对所述样本图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;对所述至少两个目标特征图合并处理,得到合并特征图;对所述合并特征图中所述参考对象进行分类处理,确定所述姿态。
在本申请提供的实施例中,在进行训练时,还需要采用深度学习技术,搭建待训练姿态分类模型;其中,待训练姿态分类模型可以是基于backbone搭建的神经网络模型,也可以是通过其他方式搭建的,本申请实施例这里不做限定。这里,可以将获取的样本图像输入至待训练姿态分类模型中,通过待训练姿态分类模型对样本图像进行处理,得到样本图像的分类结果。这里,待训练姿态分类模型用于基于至少两种分辨率参数对样本图像进行特征提取,得到与两种分辨率参数关联的至少两个目标特征图;对至少两个目标特征图合并处理,得到合并特征图;对合并特征图中参考对象进行分类处理,确定所述姿态。
可以理解的是,待训练姿态分类模型是通过深度学习技术,搭建的初始的用于检测被测试者姿态类型的模型架构。例如,待训练姿态分类模型可以是基于多层卷积层的神经网络模型。
步骤S530:通过分类损失函数,确定所述每个样本图像对应的样本标签和所述分类结果之间的第一差异值。
在本申请提供的实施例中,由于待训练姿态分类模型为搭建的初始模型,因此,通过待训练姿态分类模型对样本数据进行处理后,得到分类结果,分类结果是预测的被测试者的姿态,并不是样本图像中实际被测试者的姿态类别。而样本标签指的样本图像中测试者姿态的类被。因此,样本标签和输出的分类结果之间存在差异。
这里,可以通过分类损失函数,量化样本标签和第一输出结果之间的差异;也就是说,分类损失函数可以是估量待训练姿态分类模型的预测值与真实值不一致程度的函数。通常样本标签和分类结果之间的差异越大,计算得到的第一差异值也越大。第一差异值可以在一定程度上表征待训练姿态分类模型的识别效果。
步骤S540:基于所述第一差异值对所述待训练姿态分类模型进行训练,直到满足训练结束条件时,得到所述预训练姿态分类模型。
在本申请提供的实施例中,在确定了第一差异值之后,能够根据第一差异值和样本图像,对待训练姿态分类模型进行迭代训练,最终训练得到预训练姿态分类模型。
具体地,电子设备可以根据第一差异值,对待训练姿态分类模型中的参数进行调整;即,电子设备在利用分类损失函数对待训练姿态分类模型进行训练时,通过第一差异值进行反向传播,调整待训练姿态分类模型的模型参数。进一步,电子设备基于调整后的待训练姿态分类模型对样本图像进行处理,得到第二分类结果。
进一步,电子设备继续基于分类损失函数,确定样本标签和第二分类结果之间的第二差异值;并且,基于第二差异值对调整后的待训练识别模型进行训练,直到满足训练结束条件时,将训练的调整后的待训练姿态分类模型作为最终训练好的预训练姿态分类模型。
简单来说,电子设备可以初始化待训练姿态分类模型的模型参数,之后将样本图像输入至待训练姿态分类模型中,即将样本图像和模型参数代入至待训练姿态分类模型中进行计算,得到一个分类结果;对待训练姿态分类模型进行训练的目的是为了使得姿态分类模型的分类结果能够与样本图像对应的标签数据无限接近。初始训练时,由于模型参数是人为初始化得到的,分类结果与标签数据相差较大,因此每次得到分类结果后,可以将分类结果和标签数据代入预先设定好的分类损失函数计算得到一个差异值,之后再利用差异值对模型参数进行更新,在利用大量的样本数据重复迭代上述过程后,最终会得到能够使得姿态分类模型的分类结果与标签很接近的一组模型参数。
综上所述,将多个样本图像和所述多个样本图像中每个样本图像对应的样本标签,输入待训练姿态分类模型,得到分类结果,通过分类损失函数将分类结果与样本图像对应的标签的差异不段缩小,使姿态分类模型达到最优,提高姿态分类模型的分类结果。
需要说明的是,本申请实施例在利用预训练姿态分类模型对被测试者姿态进行分类时,可能会遇到两种特别相似的姿态,难以区分导致对被测试者的姿态分类结果不准确,因此,本申请实施例通过利用相似度损失优化所述待训练姿态分类模型。
具体地,本申请一实施例中,步骤S520对合并特征图中参考对象进行分类处理,确定所述姿态之前,还包括以下步骤:
从所述多个样本图像的合并特征图中选取任意三个样本图像的合并特征图,得到第一样本图像特征图,第二样本图像特征图,第三样本图像特征图;所述第一样本图像特征图和所述第二样本图像特征图类别相同,所述第一样本图像特征图和所述第三样本图像特征图类别不同;
计算所述第一样本图像特征图和所述第一样本图像特征图间的相似度,得到第一相似度;计算所述第一样本图像特征图和第三样本图像特征图间的相似度,得到第二相似度;
基于所述第一相似度和所述第二相似度之间的相似度损失,优化所述待训练姿态分类模型。
也就是说,本申请实施例中可以使用三元组损失函数,来优化待训练姿态分类模型。具体地,三元组损失函数是获取三个样本图像,三个样本中包含两种类别,第一样本图像和第二样本图像是相同类别,第一样本和第三样本不同类别,通过计算相同类别的相似度和不同类别的相似度,通过迭代更新使同姿态类别间相似度更小,不同姿态类别间相似度更大。
可以理解的是,本申请实施例中,通过计算第一相似度和第二相似度之间的相似度损失,利用梯度下降对损失不断迭代更新,如此,第一样本图像和第二样本图像之间的相似度更小,第一样本图像和第三样本图像之间的相似度更大,使待训练姿态分类模型达到最优,提高姿态分类模型的分类结果。
在本申请实施例中,参考图6所示,步骤S140中确定每个待识别区域内被测试者完成运动的个数包括以下步骤:
步骤S610、利用所述预训练姿态分类模型识别所述被测试者的姿态类别后,将被测试者完成一个所述运动的所需姿态类别设为姿态子序列。
步骤S620、计算预设时间内所述子序列的个数,得到所述被测试者在所述预设时间内完成所述运动的个数。
姿态子序列是被测试者完成一个运动时所需姿态类别,比如,一个动作可以包括起始姿态,中间姿态,最后姿态,将起始姿态设为0,中间姿态设为1,最后姿态设为2,则被测试者完成一个动作需要起始姿态,中间姿态,最后姿态,中间姿态,起始姿态,即,姿态子序列为“01210”。
进一步,计算预设时间内子序列的个数,即,“01210”的个数,得到被测试者在预设时间内完成运动的个数。
以下结合具体应用场景对本申请实施例提供的技术方法进行详细说明。
需要说明的是,本申请实施例可以用于不同的体测运动中,比如仰卧起坐或者引体向上。应用场景以仰卧起坐为例进行说明,在仰卧起坐教学体测场景下提出了一种基于图像视觉技术的仰卧起坐防作弊和多人抗干扰的体测计数方法,仰卧起坐测试场地的参考对象是软垫,其解决方案主要包括以下几个步骤:
第一步:区域划分。在多个被测试者体测场景中,首先,将多个软垫放于地上,通过软垫识别模型,将地面上中每个软垫位置进行区域划分,形成区域列表。
第二步:人脸识别。在体测准备阶段,被测试者进入测试区域,对区域内每位躺在软垫上的被测试者进行人脸识别,如果人脸识别成功,则获取该人脸框信息至第三步;如人脸识别失败,则利用区域列表,通过摄像头变焦拉近,对识别失败区域内的被测试者再进行人脸识别,直到与身份特征库的人脸信息进行匹配。在人脸识别成功后,扶脚者可进入测试区域,辅助测试;或利用扶脚器,自行进行正式测试。
第三步:头部跟踪。人躺下时的人脸识别成功的人脸框即为头部信息,使用头部跟踪模型,将判断每个区域的被测试者头部框是否超出软垫区域,如果超出则直接结束测试,给出成绩,防止换人作弊;如没有超出则直到测试时间结束,自动给出成绩。
第四步:仰卧起坐计数。通过姿态分类模型,识别每个区域内的被测试者姿态(仰卧姿0、中间姿态1、起坐姿2)。完成一个仰卧起坐动作需要有“01210”。统计测试过程中出现的姿态序列中“01210”的个数,并实时给出被测试者测试成绩。
参考图7所示,图7是仰卧起坐计数方法流程图。
S701:电子设备获取测试场地图像。
S702:电子设备将测试场地图像输入软垫识别模型。
S703:确定软垫待识别区域。
具体地,电子设备通过控制摄像头获取测试场地图像,测试场地图像中包含参考对象,这里,参考对象为软垫,摄像头在俯视下采集地面上包括的全部软垫的图片,软垫摆放位置随意,但放置后位置不发生改变,依据实际情况,设计软垫识别模型,将地面上各软垫区域活动范围进行划分,区域标号为1,2,3,……,N(N为软垫总数)。
在具体实现过程中,软垫识别模型该步骤进一步包括:采集同款式各种角度各种高度拍摄的软垫图片,然后精确地标注软垫在图片中的4个点的位置来制作数据集。为保证模型收敛方向更贴近实际应用场景,验证集使用角度为俯视拍摄的软垫图片。软垫识别模型基于卷积神经网络(Convolutional Neural Network,CNN)和多头注意力机制(multi-head self-attention,MHSA),内部架构高中低分辨率子网以并行的形式,来提取特征获得丰富的特征表示,提升不同分辨率不同尺度下软垫坐标识别的准确性。软垫识别模型架构参考图3所示:
1->2是第1层到第2层间的处理:顶层H(k)采取全高分辨率图像CNN连接,对顶层进行向下采样,获取中层M(k)中分辨率图像CNN连接,同理,可获得底层L(k)低分辨率CNN连接;对位于下层的M(k)和L(k)采样转置卷积,向上采样,将信息输入到高层,在整个过程中会反复交换并行多分辨率子网络中的信息;
2->3是2层到第3层间的处理:使用MHSA中的解码器(decoder)部分。将特征图切分成大小相同的图像块,多个补丁(patch)块,然后组成一个patch块的序列,然后对patch块序列进行量化再加上位置编码信息。依次经过标准化(norm)、MHSA、norm、多层感知机(Multilayer Perceptron,MLP)得到获得全局语义信息特征。
在最后的融合(concat)部分,顶层H(k)使用2->3的方式,提取特征,对于M(k)和L(k)先进行转置卷积,向上采样,然后使用2->3的方式,获得同一大小的高分辨率特征图,定义为f1。在这个过程中,通过综合高低不同分辨率的空间信息和单一分辨率下的全局信息,保证了不同分辨率下模型的空间和全局信息的特征提取能力。
依据软垫识别模型,识别出场地中所有软垫位置,将各软垫区域活动范围进行划分,区域标号为1,2,3,……,N(N为软垫数)。
具体地,参考图8所示,软垫识别模型输出热力图的峰值的位置就是目标的中心点。但中心点周边也会有一定的响应值,为了事先排除它们的干扰,将模型热力图的输出进行通过3x3的卷积核进行最大池化处理,保留局部最大值,输出软垫类的topk个像素点,topk是输出软垫的像素点的数量,通过输出的topk个像素点的位置找到该点对应目标的偏差,最后解析出目标框。参考图8a所示,
xi=x+offset(x) (1)
yi=y+offset(y) (2)
其中xi是输出的参考对象关键点的中心位置的横坐标,x是参考对象真实关键点中心位置的横坐标,offset偏差是参考对象关键点的中心位置与参考对象真实关键点中心位置的横坐标偏差。yi是输出的参考对象关键点的中心位置的纵坐标,y是参考对象真实关键点中心位置的纵坐标,offset偏差是参考对象关键点的中心位置与参考对象真实关键点中心位置的纵坐标偏差。
通过公式(1)和公式(2)计算出目标框。不断更新迭代减小损失值,优化模型,使输出的参考对象关键点位置更准确,从而提高待识别区域的精确度。
参考图8b所示,最后解析出目标框。现在解析出来的目标框的数量是topk个,需要通过阈值(0.3)过滤掉一部分置信度不高的预测结果。
S704:对被测试者进行人脸识别。
具体地,被测试者进入软垫识别区域,对多个软垫识别区域内每一个被测试者进行人脸识别,人脸识别用于确定被测试者是否是预设测试对象。如果人脸识别成果,那么获取被测试者人脸框信息;如果人脸识别失败,则利用区域列表,通过摄像头变焦拉近,对识别失败区域内的被测试者再进行人脸识别,直到与身份特征库的人脸信息进行匹配。在人脸识别成功后,扶脚者可进入软垫区域,辅助测试;或利用扶脚器,自行进行正式测试。这里特别指出,在此过程中画面中可以一直存在其他人群,不会对本发明提出的方法产生干扰。
S705:对被测试者人脸进行跟踪。
具体地,被测试者躺下时的人脸识别成功的人脸框,使用人脸框跟踪模型,将判断每个软垫区域的被测试者人脸框的一条边是否超出软垫区域,如果超出那么发出提示消息,提示消息用于提示被测试可能作弊,直接结束测试,给出成绩,防止换人作弊;如果没有超出则直到测试时间结束,自动给出成绩。这里特别指出,在测试计数过程中配合姿态分类模型中对仰卧姿0状态,进行人脸识别,进一步确认身份的同时还可以校准跟踪的测试被测试者头部框位置信息,防止头部模型发生跟踪丢失情况。
S706:利用姿态分类模型对被测试者的姿态进行识别。
具体地,利用预训练姿态分类模型对所述目标图像集中每个图像的所述多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数。
在具体实现过程中,姿态分类模型该步骤包括:采集被测试者男女各种体型各种角度各种高度拍摄的仰卧起坐运动过程的3种姿态图片,然后精确地标注图片所属的姿态类别来制作数据集。为保证模型收敛方向更贴近实际应用场景,验证集使用角度为俯视拍摄的仰卧起坐运动图片。
姿态分类模型具体实现过程同样是CNN和MHSA,主干网络架构使用高中低分辨率子网以并行的形式,来提取特征获得丰富的特征表示,提升不同分辨率不同尺度下人体姿态分类的准确性。姿态分类模型架构参考图5所示:
1->2:顶层H(k)采取全高分辨率图像CNN连接,对顶层进行向下采样,获取中层M(k)中分辨率图像CNN连接,同理,可获得底层L(k)低分辨率CNN连接;对位于下层的M(k)和L(k)采样转置卷积,向上采样,将信息输入到高层,在整个过程中会反复交换并行多分辨率子网络中的信息。
2->3:使用MHSA中的decoder部分。将特征图切分成大小相同的图像块,多个patch块,然后组成一个patch块的序列,然后对patch块序列进行embedding再加上位置编码信息。依次经过norm、muti-head attention、norm、MLP得到获得全局语义信息特征。
在concat部分,顶层H(k)使用2->3的方式,提取特征,对于M(k)和L(k)先进行转置卷积,向上采样,然后使用2->3的方式,获得同一大小的高分辨率特征图,定义为f2。在这个过程中,通过综合高低不同分辨率的空间信息和单一分辨率下的全局信息,保证了不同分辨率下模型的空间和全局信息的特征提取能力。
在head部分结合度量和表征两种方式进行联合学习。基于cat部分形成的特征图f2,使用三元组损失函数(triplet loss),进行度量学习。具体做法为,从多个样本图像的合并特征图中三个样本图像的合并特征图,得到第一图像特征图,第二样本图像特征图,第三样本图像特征图;所述第一样本图像特征图和所述第二样本图像特征图类别相同,所述第一样本图像特征图和所述第三样本图像特征图类别不同,其中,每次采样2种姿态,每种姿态选取32张图片,计算所述第一样本图像特征图和所述第一样本图像特征图间的相似度,得到第一相似度;计算所述第一样本图像特征图和第三样本图像特征图间的相似度,得到第二相似度;基于所述第一相似度和所述第二相似度之间的相似度损失,将同姿态类的图片距离拉近,不同姿态类间距离拉远,解决3种类别之间差异性较小的问题。
然后后续经过归一化(BatchNorm,BN)得到f-bn,f-bn再通过全连接层(fullyconnected layers,FC)得到的特征向量,基于样本图像的特征向量,使用softmax对样本图像进行分类,得到分类结果,使用交叉熵损失函数(Cross Entropy Loss)进行表征学***衡了f2特征图内各个维度,使后续的Cross EntropyLoss更容易收敛,消除FC层的偏差,加强了同姿态类的紧凑性。
S707:判断被测试者的人脸框的至少一条边是否超出区域。
S708:若超出区域,则发出提示消息,结束测试。
S709:若没有超出区域,则进行仰卧起坐计数。
S710:判断是否超过测试时间。
S711:若没有超过测试时间,则执行步骤S707。
S712:若超过测试时间,则结束测试,输出成绩。
可以理解的是,本申请实施例提供了一种基于图像视觉技术的仰卧起坐防作弊和多人抗干扰的体测计数方法,通过人脸识别、跟踪模型判断是否超出软垫区域实现防作弊,同时通过在场地上方架设摄像头采集更大的测试区域画面,在只需要增加软垫数量的情况下,就能实现多人的同时测试。在仰卧起坐计数时使用姿态分类模型,统计“01210”子序列情况,即可实时得到被测试者成绩个数。最后,实验证明本发明提供的技术方案可以在多位被测试者测试且测试区域存在其他人员情况下实现防作弊的仰卧起坐的自动计数。
示例性,仰卧起坐应用场景中通过使用人脸身份识别、区域划分和头部跟踪相结合达到多人场景下可实现防止被测试者测试作弊的功能。
构建软垫识别模型,利用区域精准划分概念,更精准地获取被测试者的活动范围信息,防止区域外部干扰的同时做到多人同时测试。
构建姿态分类模型,通过计算姿态序列中出现特定子序列,实现一种新的基于机器视觉的仰卧起坐自动计数方法。
与现有最接近的现有计数相比,本申请实施例的优点如下:
1、与基于人工的方法相比,本申请实施例统一了计算标准,在节省人力成本的同时,还可以解决自动计数、后续成绩手动录入的问题。
2、与基于硬件传感设备的方法相比,具备防止被测试者作弊功能,无需佩戴任何电子设备,测试十分简单,放置软垫即可开始测试,且识别精度高。
3、与基于机器视觉的方法相比,本申请实施例可以多人同时测试,还可以防止被测试者作弊,解决了视频画面中出现其他人干扰情况,导致无法计数,或计数精度急剧下降的问题。
本申请技术方案应用于仰卧起坐AI考试,具有防作弊和多人同步测试的两大核心功能,既保证了考试要求的公平公正性,又可以极大的提升考试效率、减少人力成本。且具有抗画面中其他人员干扰的附带功能,也可以应用于平常的课堂教学。本申请技术方案的应用场景同样可用于相似的体育成绩,比如引体向上等,应用场景广泛。
本申请一实施例还提供一种识别装置,参考图9所示,该识别装置可以包括:
获取单元900,用于获取测试场地图像;
识别单元910,用于基于所述测试场地图像中的参考对象,确定多个待识别区域;
所述获取单元900,还用于获取目标图像集,所述目标图像集包括至少一个被测试者在所述多个待识别区域的至少一个待识别区域内进行运动的多个图像;
分类单元920,还用于对所述目标图像集中每个图像的所述多个待识别区域内的被测试者进行动作识别,确定每个待识别区域内被测试者完成所述运动的个数。
所述识别单元910,还用于基于至少两种分辨率参数对所述测试场地图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;对所述至少两个目标特征图合并处理,得到合并特征图;对所述合并特征图中所述参考对象进行识别处理,确定所述待识别区域。
所述识别单元910,还用于基于所述至少两种分辨率参数,对所述测试场地图像进行采样处理,得到至少两个初始图像;所述至少两个初始图像与所述至少两种分辨率参数一一对应;基于所述至少两种分辨率参数,对所述至少两个初始图像中的每个初始图像进行采样处理,得到每个初始图像对应的至少两个待处理图像;对所述至少两个初始图像对应的多个待处理图像分别进行特征提取,并将分辨率参数相同的待处理图像的图像特征进行合并,得到至少两个第一特征图;所述至少两个第一特征图与所述至少两种分辨率参数一一对应;继续基于所述至少两种分辨率参数,对所述至少两个第一特征图中的每个第一特征图进行采样处理,得到每个第一特征图对应的至少两个待处理图像,并对所述至少两个第一图像对应的多个待处理图像中,分辨率参数相同的待处理图像进行合并和特征提取,得到至少两个第二特征图,继续对所述第二特征图进行处理,直至得到至少两个第N特征图;N为大于2的整数;将所述至少两个第N特征图作为所述目标特征图。
所述识别单元910,还用于将所述多个待处理图像中具有相同分辨率的待处理特征图中的每一个待处理特征图切分成多个大小相同的图像块;将所述具有相同分辨率的待处理特征图对应的图像块合并成一个图像块序列;得到至少两种分辨率不同的图像块序列;对所述图像块序列进行量化加上位置编码信息,得到所述至少两个第一特征图。
所述识别单元910,还用于基于所述合并特征图,确定所述参考对象关键点的位置,将所述参考对象关键点的位置确定为所述待识别区域。
所述识别单元910,还用于对所述被测试者进行人脸识别,确定所述被测试者是否为预设测试对象。
所述识别单元910,还用于判断所述多个待识别区域中每个待识别区域内所述被测试者人脸框至少一条边是否超出区域边界,若超出所述区域边界,则发出提示消息,所述提示消息用于提示所述被测试者可能作弊;若没有超出所述区域边界,则直到测试时间结束。
所述分类单元920,还用于利用预训练姿态分类模型对所述目标图像集中每个图像的所述多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数,所述预训练姿态分类模型用于基于至少两种分辨率参数对所述目标图像集中的每个图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;对所述至少两个目标特征图合并处理,得到合并特征图;对所述合并特征图中所述参考对象进行分别处理,确定所述被测试者的姿态。
在本申请提供的实施例中,所述分类单元920还包括训练单元:其中,
所述训练单元,还用于获取多个样本图像和所述多个样本图像中每个样本图像对应的样本标签;所述样本标签用于标识所述被测试者的姿态类别;基于待训练姿态分类模型对所述多个样本图像中的每个样本图像进行分类处理,得到分类结果;所述待训练姿态分类模型用于基于至少两种分辨率参数对所述样本图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;对所述至少两个目标特征图合并处理,得到合并特征图;对所述合并特征图中所述参考对象进行分类处理,确定所述姿态;通过分类损失函数,确定所述每个样本图像对应的样本标签和所述分类结果之间的第一差异值;基于所述第一差异值对所述待训练姿态分类模型进行训练,直到满足训练结束条件时,得到所述预训练姿态分类模型。
所述训练单元,还用于从所述多个样本图像的合并特征图中选取任意三个样本图像的合并特征图,得到第一样本图像特征图,第二样本图像特征图,第三样本图像特征图;所述第一样本图像特征图和所述第二样本图像特征图类别相同,所述第一样本图像特征图和所述第三样本图像特征图类别不同;计算所述第一样本图像特征图和所述第二样本图像特征图间的相似度,得到第一相似度;计算所述第一样本图像特征图和第三样本图像特征图间的相似度,得到第二相似度;基于所述第一相似度和所述第二相似度之间的相似度损失,优化所述待训练姿态分类模型。
所述分类单元920,还用于利用所述预训练姿态分类模型识别所述被测试者的姿态类别后,将被测试者完成一个所述运动的所需姿态类别设为姿态子序列;计算预设时间内所述子序列的个数,得到所述被测试者在所述预设时间内完成所述运动的个数。
可以理解的是,本申请实施例提供的计数装置,通过对输入的待识别图像进行一次运算,即可以确定待识别图像中的被测试者的姿态类别,如此,降低图像处理过程中的计算量,提高图像处理速度。
当然,实际应用时,如图10所示,该电子设备中的各个组件通过总线***102耦合在一起。可理解,总线***102用于实现这些组件之间的连接通信。总线***102除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图10将各种总线都标为总线***102。
可以理解,本实施例中的存储器可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read OnlyMemory,ROM)、可编程只读存储器(Programmable Read-Only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,EPROM)、电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,EEPROM)、磁性随机存取存储器(Ferromagnetic Random Access Memory,FRAM)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(Compact Disc Read-Only Memory,CD-ROM);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(Random AccessMemory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static Random Access Memory,SRAM)、同步静态随机存取存储器(Synchronous Static Random Access Memory,SSRAM)、动态随机存取存储器(DynamicRandom Access Memory,DRAM)、同步动态随机存取存储器(Synchronous Dynamic RandomAccess Memory,SDRAM)、双倍数据速率同步动态随机存取存储器(Double Data RateSynchronous Dynamic Random Access Memory,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced Synchronous Dynamic Random Access Memory,ESDRAM)、同步连接动态随机存取存储器(SyncLink Dynamic Random Access Memory,SLDRAM)、直接内存总线随机存取存储器(Direct Rambus Random Access Memory,DRRAM)。本申请实施例描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
上述本申请实施例揭示的方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、DSP,或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成前述方法的步骤。
本申请实施例还提供了一种计算机存储介质,具体为计算机可读存储介质。其上存储有计算机指令,作为第一种实施方式,在计算机存储介质位于电子设备时,该计算机指令被处理器执行时实现本申请实施例上述计数方法中的任意步骤。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本申请各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以至少两个单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本申请上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本申请各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是:本申请实施例所记载的技术方案之间,在不冲突的情况下,可以任意组合。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (14)

1.一种计数方法,其特征在于,包括:
获取测试场地图像;
基于所述测试场地图像中的参考对象,确定多个待识别区域;获取目标图像集,所述目标图像集包括至少一个被测试者在所述多个待识别区域的至少一个待识别区域内进行运动的多个图像;
对所述目标图像集中每个图像的所述多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数。
2.根据权利要求1所述的方法,其特征在于,所述基于所述测试场地图像中的参考对象,确定多个待识别区域,包括:
基于至少两种分辨率参数对所述测试场地图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;
对所述至少两个目标特征图合并处理,得到合并特征图;
对所述合并特征图中所述参考对象进行识别处理,确定所述待识别区域。
3.根据权利要求2所述的方法,其特征在于,所述基于至少两种分辨率参数对所述测试场地进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图,包括:
基于所述至少两种分辨率参数,对所述测试场地图像进行采样处理,得到至少两个初始图像;所述至少两个初始图像与所述至少两种分辨率参数一一对应;
基于所述至少两种分辨率参数,对所述至少两个初始图像中的每个初始图像进行采样处理,得到每个初始图像对应的至少两个待处理图像;
对所述至少两个初始图像对应的多个待处理图像分别进行特征提取,并将分辨率参数相同的待处理图像的图像特征进行合并,得到至少两个第一特征图;所述至少两个第一特征图与所述至少两种分辨率参数一一对应;
继续基于所述至少两种分辨率参数,对所述至少两个第一特征图中的每个第一特征图进行采样处理,得到每个第一特征图对应的至少两个待处理图像,并对所述至少两个第一图像对应的多个待处理图像中,分辨率参数相同的待处理图像进行合并和特征提取,得到至少两个第二特征图,继续对所述第二特征图进行处理,直至得到至少两个第N特征图;N为大于2的整数;
将所述至少两个第N特征图作为所述目标特征图。
4.根据权利要求3所述的方法,其特征在于,所述对所述至少两个初始图像对应的多个待处理图像进行特征提取,并将分辨率参数相同的待处理图像的图像进行合并,得到至少两个第一特征图,包括:
将所述多个待处理图像中具有相同分辨率的待处理特征图中的每一个待处理特征图切分成多个大小相同的图像块;
将所述具有相同分辨率的待处理特征图对应的图像块合并成一个图像块序列;得到至少两种分辨率不同的图像块序列;
对所述图像块序列进行量化加上位置编码信息,得到所述至少两个第一特征图。
5.根据权利要求2所述的方法,其特征在于,所述对所述合并特征图识别,确定所述待识别区域包括:
基于所述合并特征图,确定所述参考对象关键点的位置,将所述参考对象关键点的位置确定为所述待识别区域。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
对所述被测试者进行人脸识别,确定所述被测试者是否为预设测试对象。
7.根据权利要求1-5任一项所述的方法,其特征在于,所述方法还包括:
判断所述多个待识别区域中每个待识别区域内所述被测试者人脸框至少一条边是否超出区域边界,若超出所述区域边界,则发出提示消息,所述提示消息用于提示所述被测试者可能作弊;若没有超出所述区域边界,则直到测试时间结束。
8.根据权利要求1-5任一项所述的方法,其特征在于,所述方法包括:
利用预训练姿态分类模型对所述目标图像集中每个图像的所述多个待识别区域内的被测试者的姿态进行识别,确定每个待识别区域内被测试者完成所述运动的个数,所述预训练姿态分类模型用于基于至少两种分辨率参数对所述目标图像集中的每个图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;对所述至少两个目标特征图合并处理,得到合并特征图;对所述合并特征图中所述参考对象进行分别处理,确定所述被测试者的姿态。
9.根据权利要求8所述的方法,其特征在于,所述预训练姿态分类模型的训练过程包括:
获取多个样本图像和所述多个样本图像中每个样本图像对应的样本标签;所述样本标签用于标识所述被测试者的姿态类别;
基于待训练姿态分类模型对所述多个样本图像中的每个样本图像进行分类处理,得到分类结果;所述待训练姿态分类模型用于基于至少两种分辨率参数对所述样本图像进行特征提取,得到与所述两种分辨率参数关联的至少两个目标特征图;对所述至少两个目标特征图合并处理,得到合并特征图;对所述合并特征图中所述参考对象进行分类处理,确定所述姿态;
通过分类损失函数,确定所述每个样本图像对应的样本标签和所述分类结果之间的第一差异值;
基于所述第一差异值对所述待训练姿态分类模型进行训练,直到满足训练结束条件时,得到所述预训练姿态分类模型。
10.根据权利要求9所述的方法,其特征在于,在所述对所述合并特征图中所述参考对象进行分类处理,确定所述姿态之前,所述方法还包括:
从所述多个样本图像的合并特征图中选取任意三个样本图像的合并特征图,得到第一样本图像特征图,第二样本图像特征图,第三样本图像特征图;所述第一样本图像特征图和所述第二样本图像特征图类别相同,所述第一样本图像特征图和所述第三样本图像特征图类别不同;
计算所述第一样本图像特征图和所述第二样本图像特征图间的相似度,得到第一相似度;计算所述第一样本图像特征图和第三样本图像特征图间的相似度,得到第二相似度;
基于所述第一相似度和所述第二相似度之间的相似度损失,优化所述待训练姿态分类模型。
11.根据权利要求8所述的方法,其特征在于,所述确定每个待识别区域内被测试者完成所述运动的个数包括:
利用所述预训练姿态分类模型识别所述被测试者的姿态类别后,将被测试者完成一个所述运动的所需姿态类别设为姿态子序列;
计算预设时间内所述子序列的个数,得到所述被测试者在所述预设时间内完成所述运动的个数。
12.一种计数装置,其特征在于,所述装置包括:
获取单元,用于获取测试场地图像;
识别单元,用于基于所述测试场地图像中的参考对象,确定多个待识别区域;所述获取单元,还用于获取目标图像集,所述目标图像集包括至少一个被测试者在所述多个待识别区域的至少一个待识别区域内进行运动的多个图像;
分类单元,用于对所述目标图像集中每个图像的所述多个待识别区域内的被测试者进行动作识别,确定每个待识别区域内被测试者完成所述运动的个数。
13.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,该计算机程序被处理器执行时实现权利要求1至11任一项所述的识别方法。
14.一种电子设备,其特征在于,包括存储器和处理器,所述存储器存储有可在处理器上运行的计算机程序,所述处理器执行所述程序时实现权利要求1至11任一项所述的识别方法。
CN202211436766.5A 2022-11-16 2022-11-16 计数方法、装置、电子设备及存储介质 Pending CN118097765A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202211436766.5A CN118097765A (zh) 2022-11-16 2022-11-16 计数方法、装置、电子设备及存储介质
PCT/CN2023/130256 WO2024104223A1 (zh) 2022-11-16 2023-11-07 计数方法、装置、电子设备、存储介质、程序、及程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211436766.5A CN118097765A (zh) 2022-11-16 2022-11-16 计数方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN118097765A true CN118097765A (zh) 2024-05-28

Family

ID=91083804

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211436766.5A Pending CN118097765A (zh) 2022-11-16 2022-11-16 计数方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN118097765A (zh)
WO (1) WO2024104223A1 (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109876416B (zh) * 2019-03-26 2020-06-19 浙江大学 一种基于图像信息的跳绳计数方法
CN112819852A (zh) * 2019-11-15 2021-05-18 微软技术许可有限责任公司 对基于姿态的运动进行评估
WO2021162305A1 (ko) * 2020-02-15 2021-08-19 김지훈 스포츠 동영상 기반 플랫폼 서비스를 제공하는 서버의 동작 방법
CN111368810B (zh) * 2020-05-26 2020-08-25 西南交通大学 基于人体及骨骼关键点识别的仰卧起坐检测***及方法
CN113139543B (zh) * 2021-04-28 2023-09-01 北京百度网讯科技有限公司 目标对象检测模型的训练方法、目标对象检测方法和设备

Also Published As

Publication number Publication date
WO2024104223A1 (zh) 2024-05-23

Similar Documents

Publication Publication Date Title
WO2021057810A1 (zh) 数据处理、训练、识别方法、装置和存储介质
US11074436B1 (en) Method and apparatus for face recognition
CN107784282B (zh) 对象属性的识别方法、装置及***
JP6664163B2 (ja) 画像識別方法、画像識別装置及びプログラム
JP7311640B2 (ja) 行動予測方法及び装置、歩容認識方法及び装置、電子機器並びにコンピュータ可読記憶媒体
US20060269145A1 (en) Method and system for determining object pose from images
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
CN111639616B (zh) 一种基于深度学习的重身份识别方法
CN113850248B (zh) 运动姿态评估方法、装置、边缘计算服务器及存储介质
KR101288447B1 (ko) 시선 추적 장치와 이를 이용하는 디스플레이 장치 및 그 방법
JP7292492B2 (ja) オブジェクト追跡方法及び装置、記憶媒体並びにコンピュータプログラム
WO2017161734A1 (zh) 通过电视和体感配件矫正人体动作及***
CN110032940B (zh) 一种视频行人重识别的方法和***
CN112669342B (zh) 图像分割网络的训练方法及装置、图像分割方法及装置
CN114269243A (zh) 跌倒风险评价***
CN108280421A (zh) 基于多特征深度运动图的人体行为识别方法
CN111339884A (zh) 图像识别方法以及相关设备、装置
CN115569344A (zh) 立定跳远成绩评测方法、装置、电子设备及存储介质
CN116543455A (zh) 建立帕金森症步态受损评估模型、使用方法、设备及介质
JP7129058B2 (ja) 医用画像診断支援装置、プログラム及び医用画像診断支援方法
CN118097765A (zh) 计数方法、装置、电子设备及存储介质
CN114898447A (zh) 一种基于自注意力机制的个性化注视点检测方法及装置
CN115769276A (zh) 体型识别方法、健康评估获取方法、装置、设备
JP7396364B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7152651B2 (ja) プログラム、情報処理装置、及び情報処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination