CN111428609A - 一种基于深度学习的人体姿态识别方法及*** - Google Patents

一种基于深度学习的人体姿态识别方法及*** Download PDF

Info

Publication number
CN111428609A
CN111428609A CN202010196299.8A CN202010196299A CN111428609A CN 111428609 A CN111428609 A CN 111428609A CN 202010196299 A CN202010196299 A CN 202010196299A CN 111428609 A CN111428609 A CN 111428609A
Authority
CN
China
Prior art keywords
human body
image
network model
feature
body posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010196299.8A
Other languages
English (en)
Inventor
潘斌
郭小明
鲍莹
汤永恒
赵晓颖
张明昕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Shihua University
Original Assignee
Liaoning Shihua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Shihua University filed Critical Liaoning Shihua University
Priority to CN202010196299.8A priority Critical patent/CN111428609A/zh
Publication of CN111428609A publication Critical patent/CN111428609A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度学习的人体姿态识别方法及***。该方法包括:获取多幅带有人体姿态的参考图像;对各所述参考图像进行人体姿态的标记,得到对应的参考标签;根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型;对待识别的人体行为进行拍照,得到待识别图像;根据所述姿态识别网络模型和所述待识别图像,得到所述待识别图像中的人体姿态行为。本发明能够提高人体姿态识别的准确性。

Description

一种基于深度学习的人体姿态识别方法及***
技术领域
本发明涉及图像识别领域,特别是涉及一种基于深度学习的人体姿态识别方法及***。
背景技术
人体姿态识别技术在虚拟现实、移动游戏、医疗保健、人机交互、图像识别等领域有着广泛应用。
人体姿态识别的目的一般是及时准确的将采集到的人体动作特征与完备的人体动作姿态库的动作进行识别分类,匹配出相似度最高的动作姿态。在得知当前动作后,可以对该行为进行分析,以达到人机交互的目的。
然而,目前姿态识别技术主要分为两种:基于RGB图像和基于深度图像。其中,基于RGB图像的识别算法为利用人体躯干的外形特征,如人体躯干各部分的HOG特征的相对位置关系。基于深度图像的识别算法为利用图像的灰度值来表示目标的空间位置及人体轮廓,且不受光照、颜色、阴影和衣着的影响。但是上述两种方法,需要对图像中包含的大量信息进行反复分析和处理,效率低,识别度低。
发明内容
本发明的目的是提供一种基于深度学习的人体姿态识别方法及***,能够提高人体姿态识别的准确性。
为实现上述目的,本发明提供了如下方案:
一种基于深度学习的人体姿态识别方法,包括:
获取多幅带有人体姿态的参考图像;
对各所述参考图像进行人体姿态的标记,得到对应的参考标签;
根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型;
对待识别的人体行为进行拍照,得到待识别图像;
根据所述姿态识别网络模型和所述待识别图像,得到所述待识别图像中的人体姿态行为。
可选的,所述对各所述参考图像进行人体姿态的标记,得到对应的参考标签,具体包括:
建立人体姿态的二维坐标系;
针对每一参考图像,对所述参考图像依次进行裁剪、填充、归一化处理,得到预处理图像;
基于所述二维坐标系,确定所述预处理图像中人体关节点的坐标;
根据各所述人体关节点的坐标,确定所述参考图像对应的人体姿态,所述参考图像对应的人体姿态为参考标签。
可选的,所述根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型,具体包括:
针对每一参考图像,对所述参考图像依次进行裁剪、填充,得到处理图像;
根据所述处理图像进行特征提取,得到对应的H×L×D维度的特征图,各所述特征图由H×L×D个特征子图构成;
从各所述特征子图中进行特征提取,得到人体姿态的局部特征;
将各所述局部特征进行特征加权,得到人体姿态的全局特征;
对所述全局特征进行降维处理,得到降维特征;
对所述降维特征进行归一化处理,得到所述特征图对应的姿态特征;
根据各所述姿态特征及对应的所述参考标签,建立姿态识别网络模型;所述姿态识别网络模型包括依次连接的图像处理层、特征图提取基本卷积网络层、加权层、降维层及归一化层。
可选的,所述根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型,还包括:
基于反向传播算法,计算对比损失值;
根据所述对比损失值,确定收敛的姿态识别网络模型的参数;
根据所述参数,修正所述姿态识别网络模型。
可选的,所述基于反向传播算法,计算对比损失值,具体包括:
基于反向传播算法通过公式
Figure BDA0002417734230000031
计算对比损失值;
其中,E表示对比损失函数,rep(p)表示参考图像p对应的姿态特征,rep′(p)表示参考图像p对应的参考标签,n表示全部参考图像。
一种基于深度学习的人体姿态识别***,包括:
参考图像获取模块,用于获取多幅带有人体姿态的参考图像;
人体姿态标记模块,用于对各所述参考图像进行人体姿态的标记,得到对应的参考标签;
姿态识别网络模型建立模块,用于根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型;
人体行为拍照模块,用于对待识别的人体行为进行拍照,得到待识别图像;
人体姿态行为确定模块,用于根据所述姿态识别网络模型和所述待识别图像,得到所述待识别图像中的人体姿态行为。
可选的,所述人体姿态标记模块,具体包括:
二维坐标系建立单元,用于建立人体姿态的二维坐标系;
预处理图像确定单元,用于针对每一参考图像,对所述参考图像依次进行裁剪、填充、归一化处理,得到预处理图像;
人体关节点坐标确定单元,用于基于所述二维坐标系,确定所述预处理图像中人体关节点的坐标;
参考标签确定单元,用于根据各所述人体关节点的坐标,确定所述参考图像对应的人体姿态,所述参考图像对应的人体姿态为参考标签。
可选的,所述姿态识别网络模型建立模块,具体包括:
处理图像确定单元,用于针对每一参考图像,对所述参考图像依次进行裁剪、填充,得到处理图像;
处理图像特征提取单元,用于根据所述处理图像进行特征提取,得到对应的H×L×D维度的特征图,各所述特征图由H×L×D个特征子图构成;
局部特征确定单元,用于从各所述特征子图中进行特征提取,得到人体姿态的局部特征;
全局特征确定单元,用于将各所述局部特征进行特征加权,得到人体姿态的全局特征;
降维处理单元,用于对所述全局特征进行降维处理,得到降维特征;
归一化处理单元,用于对所述降维特征进行归一化处理,得到所述特征图对应的姿态特征;
姿态识别网络模型建立单元,用于根据各所述姿态特征及对应的所述参考标签,建立姿态识别网络模型;所述姿态识别网络模型包括依次连接的图像处理层、特征图提取基本卷积网络层、加权层、降维层及归一化层。
可选的,所述姿态识别网络模型建立模块,还包括:
对比损失值计算单元,用于基于反向传播算法,计算对比损失值;
姿态识别网络模型参数确定单元,用于根据所述对比损失值,确定收敛的姿态识别网络模型的参数;
修正单元,用于根据所述参数,修正所述姿态识别网络模型。
可选的,所述对比损失值计算单元,具体包括:
基于反向传播算法通过公式
Figure BDA0002417734230000041
计算对比损失值;
其中,E表示对比损失函数,rep(p)表示参考图像p对应的姿态特征,rep′(p)表示参考图像p对应的参考标签,n表示全部参考图像。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明以多幅历史图像为参考,根据参考图像及对应的参考标签建立基于深度学习的姿态识别网络模型,可直接、快速地识别出待识别图像中的人体姿态行为,准确度高。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于深度学习的人体姿态识别方法流程图;
图2为本发明基于深度学习的人体姿态识别***结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于深度学习的人体姿态识别方法及***,能够提高人体姿态识别的准确性。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1为本发明基于深度学习的人体姿态识别方法流程图。如图1所示,一种基于深度学习的人体姿态识别方法包括:
步骤101:获取多幅带有人体姿态的参考图像。
步骤102:对各所述参考图像进行人体姿态的标记,得到对应的参考标签,具体包括:
建立人体姿态的二维坐标系。
针对每一参考图像,对所述参考图像依次进行裁剪、填充、归一化处理,得到预处理图像。
基于所述二维坐标系,确定所述预处理图像中人体关节点的坐标。
根据各所述人体关节点的坐标,确定所述参考图像对应的人体姿态,所述参考图像对应的人体姿态为参考标签。
步骤103:根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型,具体包括:
针对每一参考图像,对所述参考图像依次进行裁剪、填充,得到处理图像。
根据所述处理图像进行特征提取,得到对应的H×L×D维度的特征图,各所述特征图由H×L×D个特征子图构成。
从各所述特征子图中进行特征提取,得到人体姿态的局部特征。
将各所述局部特征进行特征加权,得到人体姿态的全局特征。
对所述全局特征进行降维处理,得到降维特征。
对所述降维特征进行归一化处理,得到所述特征图对应的姿态特征。
根据各所述姿态特征及对应的所述参考标签,建立姿态识别网络模型。所述姿态识别网络模型包括依次连接的图像处理层、特征图提取基本卷积网络层、加权层、降维层及归一化层。所述特征图提取基本卷积网络层的卷积核大小为3×3,激活函数采用ReLU激活函数。
作为一种优选的实施例,步骤103还包括:
基于反向传播算法,计算对比损失值。
根据所述对比损失值,确定收敛的姿态识别网络模型的参数。
根据所述参数,修正所述姿态识别网络模型。
具体可通过以下公式计算对比损失值:
Figure BDA0002417734230000061
其中,E表示对比损失函数,rep(p)表示参考图像p对应的姿态特征,rep′(p)表示参考图像p对应的参考标签,n表示全部参考图像。
本发明使用Adam优化器即自适应时刻估计(Adaptive Moment Estimation)优化器,通过反向传播算法(Backpropagation algorithm,BP)对基于深度学习的姿态识别网络模型的参数进行优化,最小化对比损失,获得收敛的基于深度学习的姿态识别网络模型的参数。
其中,Adam优化器利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学***稳。
步骤104:对待识别的人体行为进行拍照,得到待识别图像。
步骤105:根据所述姿态识别网络模型和所述待识别图像,得到所述待识别图像中的人体姿态行为。
本发明基于深度学习的人体姿态识别方法以多幅历史图像为参考,根据参考图像及对应的参考标签建立基于深度学习的姿态识别网络模型,可直接、快速地识别出待识别图像中的人体姿态行为,准确度高。
本发明还提供一种基于深度学习的人体姿态识别***,图2为本发明基于深度学习的人体姿态识别***结构图。如图2所示,一种基于深度学习的人体姿态识别***包括:
参考图像获取模块201,用于获取多幅带有人体姿态的参考图像。
人体姿态标记模块202,用于对各所述参考图像进行人体姿态的标记,得到对应的参考标签。
姿态识别网络模型建立模块203,用于根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型。
人体行为拍照模块204,用于对待识别的人体行为进行拍照,得到待识别图像。
人体姿态行为确定模块205,用于根据所述姿态识别网络模型和所述待识别图像,得到所述待识别图像中的人体姿态行为。
所述人体姿态标记模块202,具体包括:
二维坐标系建立单元,用于建立人体姿态的二维坐标系。
预处理图像确定单元,用于针对每一参考图像,对所述参考图像依次进行裁剪、填充、归一化处理,得到预处理图像。
人体关节点坐标确定单元,用于基于所述二维坐标系,确定所述预处理图像中人体关节点的坐标。
参考标签确定单元,用于根据各所述人体关节点的坐标,确定所述参考图像对应的人体姿态,所述参考图像对应的人体姿态为参考标签。
所述姿态识别网络模型建立模块203,具体包括:
处理图像确定单元,用于针对每一参考图像,对所述参考图像依次进行裁剪、填充,得到处理图像。
处理图像特征提取单元,用于根据所述处理图像进行特征提取,得到对应的H×L×D维度的特征图,各所述特征图由H×L×D个特征子图构成。
局部特征确定单元,用于从各所述特征子图中进行特征提取,得到人体姿态的局部特征。
全局特征确定单元,用于将各所述局部特征进行特征加权,得到人体姿态的全局特征。
降维处理单元,用于对所述全局特征进行降维处理,得到降维特征。
归一化处理单元,用于对所述降维特征进行归一化处理,得到所述特征图对应的姿态特征。
姿态识别网络模型建立单元,用于根据各所述姿态特征及对应的所述参考标签,建立姿态识别网络模型;所述姿态识别网络模型包括依次连接的图像处理层、特征图提取基本卷积网络层、加权层、降维层及归一化层。
所述姿态识别网络模型建立模块203,还包括:
对比损失值计算单元,用于基于反向传播算法,计算对比损失值。
姿态识别网络模型参数确定单元,用于根据所述对比损失值,确定收敛的姿态识别网络模型的参数。
修正单元,用于根据所述参数,修正所述姿态识别网络模型。
所述对比损失值计算单元,具体包括:
基于反向传播算法通过公式
Figure BDA0002417734230000081
计算对比损失值。
其中,E表示对比损失函数,rep(p)表示参考图像p对应的姿态特征,rep′(p)表示参考图像p对应的参考标签,n表示全部参考图像。
相对于现有技术,本发明基于深度学习的人体姿态识别***与上述基于深度学习的人体姿态识别方法的有益效果相同,在此不再赘述。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于深度学习的人体姿态识别方法,其特征在于,包括:
获取多幅带有人体姿态的参考图像;
对各所述参考图像进行人体姿态的标记,得到对应的参考标签;
根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型;
对待识别的人体行为进行拍照,得到待识别图像;
根据所述姿态识别网络模型和所述待识别图像,得到所述待识别图像中的人体姿态行为。
2.根据权利要求1所述的基于深度学习的人体姿态识别方法,其特征在于,所述对各所述参考图像进行人体姿态的标记,得到对应的参考标签,具体包括:
建立人体姿态的二维坐标系;
针对每一参考图像,对所述参考图像依次进行裁剪、填充、归一化处理,得到预处理图像;
基于所述二维坐标系,确定所述预处理图像中人体关节点的坐标;
根据各所述人体关节点的坐标,确定所述参考图像对应的人体姿态,所述参考图像对应的人体姿态为参考标签。
3.根据权利要求1所述的基于深度学习的人体姿态识别方法,其特征在于,所述根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型,具体包括:
针对每一参考图像,对所述参考图像依次进行裁剪、填充,得到处理图像;
根据所述处理图像进行特征提取,得到对应的H×L×D维度的特征图,各所述特征图由H×L×D个特征子图构成;
从各所述特征子图中进行特征提取,得到人体姿态的局部特征;
将各所述局部特征进行特征加权,得到人体姿态的全局特征;
对所述全局特征进行降维处理,得到降维特征;
对所述降维特征进行归一化处理,得到所述特征图对应的姿态特征;
根据各所述姿态特征及对应的所述参考标签,建立姿态识别网络模型;所述姿态识别网络模型包括依次连接的图像处理层、特征图提取基本卷积网络层、加权层、降维层及归一化层。
4.根据权利要求3所述的基于深度学习的人体姿态识别方法,其特征在于,所述根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型,还包括:
基于反向传播算法,计算对比损失值;
根据所述对比损失值,确定收敛的姿态识别网络模型的参数;
根据所述参数,修正所述姿态识别网络模型。
5.根据权利要求4所述的基于深度学习的人体姿态识别方法,其特征在于,所述基于反向传播算法,计算对比损失值,具体包括:
基于反向传播算法通过公式
Figure FDA0002417734220000021
计算对比损失值;
其中,E表示对比损失函数,rep(p)表示参考图像p对应的姿态特征,rep′(p)表示参考图像p对应的参考标签,n表示全部参考图像。
6.一种基于深度学习的人体姿态识别***,其特征在于,包括:
参考图像获取模块,用于获取多幅带有人体姿态的参考图像;
人体姿态标记模块,用于对各所述参考图像进行人体姿态的标记,得到对应的参考标签;
姿态识别网络模型建立模块,用于根据各所述参考图像及对应的所述参考标签,进行建模,得到基于深度学习的姿态识别网络模型;
人体行为拍照模块,用于对待识别的人体行为进行拍照,得到待识别图像;
人体姿态行为确定模块,用于根据所述姿态识别网络模型和所述待识别图像,得到所述待识别图像中的人体姿态行为。
7.根据权利要求6所述的基于深度学习的人体姿态识别***,其特征在于,所述人体姿态标记模块,具体包括:
二维坐标系建立单元,用于建立人体姿态的二维坐标系;
预处理图像确定单元,用于针对每一参考图像,对所述参考图像依次进行裁剪、填充、归一化处理,得到预处理图像;
人体关节点坐标确定单元,用于基于所述二维坐标系,确定所述预处理图像中人体关节点的坐标;
参考标签确定单元,用于根据各所述人体关节点的坐标,确定所述参考图像对应的人体姿态,所述参考图像对应的人体姿态为参考标签。
8.根据权利要求6所述的基于深度学习的人体姿态识别***,其特征在于,所述姿态识别网络模型建立模块,具体包括:
处理图像确定单元,用于针对每一参考图像,对所述参考图像依次进行裁剪、填充,得到处理图像;
处理图像特征提取单元,用于根据所述处理图像进行特征提取,得到对应的H×L×D维度的特征图,各所述特征图由H×L×D个特征子图构成;
局部特征确定单元,用于从各所述特征子图中进行特征提取,得到人体姿态的局部特征;
全局特征确定单元,用于将各所述局部特征进行特征加权,得到人体姿态的全局特征;
降维处理单元,用于对所述全局特征进行降维处理,得到降维特征;
归一化处理单元,用于对所述降维特征进行归一化处理,得到所述特征图对应的姿态特征;
姿态识别网络模型建立单元,用于根据各所述姿态特征及对应的所述参考标签,建立姿态识别网络模型;所述姿态识别网络模型包括依次连接的图像处理层、特征图提取基本卷积网络层、加权层、降维层及归一化层。
9.根据权利要求8所述的基于深度学习的人体姿态识别***,其特征在于,所述姿态识别网络模型建立模块,还包括:
对比损失值计算单元,用于基于反向传播算法,计算对比损失值;
姿态识别网络模型参数确定单元,用于根据所述对比损失值,确定收敛的姿态识别网络模型的参数;
修正单元,用于根据所述参数,修正所述姿态识别网络模型。
10.根据权利要求9所述的基于深度学习的人体姿态识别***,其特征在于,所述对比损失值计算单元,具体包括:
基于反向传播算法通过公式
Figure FDA0002417734220000041
计算对比损失值;
其中,E表示对比损失函数,rep(p)表示参考图像p对应的姿态特征,rep′(p)表示参考图像p对应的参考标签,n表示全部参考图像。
CN202010196299.8A 2020-03-19 2020-03-19 一种基于深度学习的人体姿态识别方法及*** Pending CN111428609A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010196299.8A CN111428609A (zh) 2020-03-19 2020-03-19 一种基于深度学习的人体姿态识别方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010196299.8A CN111428609A (zh) 2020-03-19 2020-03-19 一种基于深度学习的人体姿态识别方法及***

Publications (1)

Publication Number Publication Date
CN111428609A true CN111428609A (zh) 2020-07-17

Family

ID=71553557

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010196299.8A Pending CN111428609A (zh) 2020-03-19 2020-03-19 一种基于深度学习的人体姿态识别方法及***

Country Status (1)

Country Link
CN (1) CN111428609A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643419A (zh) * 2021-06-29 2021-11-12 清华大学 一种基于深度学习的人体反向动力学求解方法、装置
WO2022047662A1 (en) * 2020-09-02 2022-03-10 Intel Corporation Method and system of neural network object recognition for warpable jerseys with multiple attributes

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108345869A (zh) * 2018-03-09 2018-07-31 南京理工大学 基于深度图像和虚拟数据的驾驶人姿态识别方法
CN108898063A (zh) * 2018-06-04 2018-11-27 大连大学 一种基于全卷积神经网络的人体姿态识别装置及方法
CN109299659A (zh) * 2018-08-21 2019-02-01 中国农业大学 一种基于rgb相机和深度学习的人体姿态识别方法与***
WO2019128646A1 (zh) * 2017-12-28 2019-07-04 深圳励飞科技有限公司 人脸检测方法、卷积神经网络参数的训练方法、装置及介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019128646A1 (zh) * 2017-12-28 2019-07-04 深圳励飞科技有限公司 人脸检测方法、卷积神经网络参数的训练方法、装置及介质
CN108345869A (zh) * 2018-03-09 2018-07-31 南京理工大学 基于深度图像和虚拟数据的驾驶人姿态识别方法
CN108898063A (zh) * 2018-06-04 2018-11-27 大连大学 一种基于全卷积神经网络的人体姿态识别装置及方法
CN109299659A (zh) * 2018-08-21 2019-02-01 中国农业大学 一种基于rgb相机和深度学习的人体姿态识别方法与***

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022047662A1 (en) * 2020-09-02 2022-03-10 Intel Corporation Method and system of neural network object recognition for warpable jerseys with multiple attributes
CN113643419A (zh) * 2021-06-29 2021-11-12 清华大学 一种基于深度学习的人体反向动力学求解方法、装置
CN113643419B (zh) * 2021-06-29 2024-04-23 清华大学 一种基于深度学习的人体反向动力学求解方法

Similar Documents

Publication Publication Date Title
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
CN107742311B (zh) 一种视觉定位的方法及装置
Xu et al. Online dynamic gesture recognition for human robot interaction
JP6411510B2 (ja) 無制約の媒体内の顔を識別するシステムおよび方法
US20140204084A1 (en) Systems and Methods for Animating the Faces of 3D Characters Using Images of Human Faces
CN109685013B (zh) 人体姿态识别中头部关键点的检测方法及装置
CN110659589B (zh) 基于姿态和注意力机制的行人再识别方法、***、装置
CN109117753B (zh) 部位识别方法、装置、终端及存储介质
WO2009055148A1 (en) Hand sign recognition using label assignment
JPWO2012077286A1 (ja) 物体検出装置および物体検出方法
CN107911643B (zh) 一种视频通信中展现场景特效的方法和装置
JP2006228061A (ja) 顔追跡プログラムおよび顔追跡方法
CN104156998A (zh) 一种基于图片虚拟内容融合真实场景的实现方法及***
CN111108508B (zh) 脸部情感识别方法、智能装置和计算机可读存储介质
CN112381061B (zh) 一种面部表情识别方法及***
CN111209867A (zh) 一种表情识别方法及装置
CN111680550B (zh) 情感信息识别方法、装置、存储介质及计算机设备
CN112949440A (zh) 一种提取行人的步态特征的方法、步态识别方法及***
CN111428609A (zh) 一种基于深度学习的人体姿态识别方法及***
CN108174141B (zh) 一种视频通信的方法和一种移动装置
Beg et al. Text writing in the air
CN114445853A (zh) 一种视觉手势识别***识别方法
CN109919128A (zh) 控制指令的获取方法、装置及电子设备
Lee et al. An effective method for detecting facial features and face in human–robot interaction
CN108694348B (zh) 一种基于自然特征的跟踪注册方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200717

RJ01 Rejection of invention patent application after publication