CN110399809A - 多特征融合的人脸关键点检测方法及装置 - Google Patents
多特征融合的人脸关键点检测方法及装置 Download PDFInfo
- Publication number
- CN110399809A CN110399809A CN201910609905.1A CN201910609905A CN110399809A CN 110399809 A CN110399809 A CN 110399809A CN 201910609905 A CN201910609905 A CN 201910609905A CN 110399809 A CN110399809 A CN 110399809A
- Authority
- CN
- China
- Prior art keywords
- key point
- feature
- face
- convolution
- convolution feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种多特征融合的人脸关键点检测方法及装置,该方法包括:获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征;第一关键点为对目标图像进行初步检测得到的关键点;根据标准化图像、人脸热图特征和第一卷积特征生成第二卷积特征,并基于第二卷积特征和第一关键点生成人脸结构特征;人脸结构特征中包括对称和/或相似的人脸信息;对第二卷积特征和人脸结构特征进行融合,并根据融合结果更新第一关键点,得到第二关键点;若第二关键点的准确度和计算复杂度满足预设标准,则将第二关键点作为目标人脸关键点。本发明可以人脸关键点检测的准确率得到提升。
Description
技术领域
本发明涉及图像处理技术领域,尤其是涉及一种多特征融合的人脸关键点检测方法及装置。
背景技术
人脸关键点检测任务就是根据输入的人脸图像,自动运用算法检测出面部的特征点位置,如眼睛、脸部轮廓、嘴巴、眉毛和鼻尖等。该项技术应用方面十分广泛,比如人脸识别、人脸表情识别和面部动作捕捉等方面。随着深度学习技术的飞速发展,基于深度神经网络的人脸关键点检测方法相比较于传统的人脸关键点检测方法已经展现出了巨大的优势,主要原因就是大量训练数据集的开放和深度神经网络对于大规模训练数据中蕴含的特征具有很强的提取和拟合能力。现有的人脸关键点检测方法虽然在人脸关键点检测任务上都取得了一定的效果,但是也给模型留下了一定的提升空间,其检测结果的准确率仍需提高。目前,对于如何提高人脸关键点检测的准确率,尚未提出有更好的解决方案。
发明内容
本发明提供了一种多特征融合的人脸关键点检测方法及装置,以使人脸关键点检测的准确率得到提升。
第一方面,本发明实施例提供了一种多特征融合的人脸关键点检测方法,该方法包括:获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征;所述第一关键点为对所述目标图像进行初步检测得到的关键点;根据所述标准化图像、所述人脸热图特征和所述第一卷积特征生成第二卷积特征;基于所述第二卷积特征和所述第一关键点生成人脸结构特征;所述人脸结构特征中包括对称和/或相似的人脸信息;对所述第二卷积特征和所述人脸结构特征进行融合,并根据融合结果更新所述第一关键点,得到第二关键点;若所述第二关键点的准确度和计算复杂度满足预设标准,则将所述第二关键点作为目标人脸关键点。
第二方面,本发明实施例还提供一种多特征融合的人脸关键点检测装置,该装置包括:获取模块,用于获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征;所述第一关键点为对所述目标图像进行初步检测得到的关键点;特征模块,用于根据所述标准化图像、所述人脸热图特征和所述第一卷积特征生成第二卷积特征,并基于所述第二卷积特征和所述第一关键点生成人脸结构特征;所述人脸结构特征中包括对称和/或相似的人脸特信息;融合模块,用于对所述第二卷积特征和所述人脸结构特征进行融合,并根据融合结果更新所述第一关键点,得到第二关键点;目标模块,用于若所述第二关键点的准确度和计算复杂度满足预设标准,则将所述第二关键点作为目标人脸关键点。
第三方面,本发明实施例还提供一种电子设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述多特征融合的人脸关键点检测方法。
第四方面,本发明实施例还提供一种具有处理器可执行的非易失的程序代码的计算机可读介质,所述程序代码使所述处理器执行上述多特征融合的人脸关键点检测方法。
本发明实施例带来了以下有益效果:本发明实施例提供了一种多特征融合的人脸关键点检测方法及装置,该方法首先获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征,其中,第一关键点为对目标图像进行初步检测得到的关键点,由于第一关键点准确度较低,根据标准化图像、人脸热图特征和第一卷积特征生成第二卷积特征,以基于第二卷积特征和第一关键点得到包括对称和/或相似的人脸结构信息,从而,将第二卷积特征和人脸结构特征进行融合,继而,根据融合结果更新第一关键点,得到第二关键点,若第二关键点的准确度和计算复杂度满足预设标准,则将第二关键点作为目标人脸关键点。本发明实施例通过生成人脸结构特征,将人脸结构的对称和/或相似的信息加入到人脸关键点识别的过程中,通过将人脸结构特征与第二卷积特征等多维度特征进行融合,利用人脸的对称和/或相似的特征,对卷积特征进行丰富,进而对第一关键点进行更新,实现对人脸关键点检测的准确率的提升。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的多特征融合的人脸关键点检测方法流程图;
图2为本发明实施例提供的多阶段级联多特征融合人脸关键点检测模型的构建方法流程示意图;
图3为本发明实施例提供的多阶段级联多特征融合的人脸关键点检测模型网络结构示意图;
图4为本发明实施例提供的多特征转换模块结构示意图;
图5为本发明实施例提供的各回归阶段的前向传播模块网络结构示意图;
图6为本发明实施例提供的人脸结构特征提取实现过程示意图;
图7为本发明实施例提供的关键点预测效果示意图;
图8为本发明实施例提供的多特征融合的人脸关键点检测装置结构框图;
图9为本发明实施例提供的电子设备结构示意框图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,基于深度学习的人脸关键点检测算法大多都是对输入图像的全局表观特征进行一系列计算和处理实现的,还有部分模型方法是提取人脸多个局部区域的特征再分别进行关键点检测最后得到整张人脸图像的关键点位置,这些方法都没有特别考虑到人脸各部位间的结构化信息,而人脸图像是非常结构化的,同一张人脸图像的不同位置部分之间具有对称和相似等特征,为了表征这一信息,借用了前人的思想,将两两关键点对应的人脸局部特征对之间的结构关系加入到模型的训练中,以此来优化模型性能,并且结合人脸图像全局表观特征和深度对齐网络(Deep Alignment Network)模型中提出的热图特征实现多特征融合的级联回归人脸关键点检测算法。
基于此,本发明实施例提供的一种多特征融合的人脸关键点检测方法及装置,可以通过考虑人脸的结构化特征,并融合多维度的特征进行人脸关键点检测,以提高人脸关键点检测的准确性。
为便于对本实施例进行理解,首先对本发明实施例所公开的一种多特征融合的人脸关键点检测方法进行详细介绍。
本发明实施例提供了一种多特征融合的人脸关键点检测方法,在执行人脸关键点检测方法之前,可以使用人脸检测算法对原始图像中的人脸进行检测,原始图像中可以包括一个或多个人脸,可以对每个人脸生成一个检测框。本发明实施例基于得到的检测框中的人脸进行人脸关键点检测。
需要说明的是,本发明实施例通过级联回归的方法来实现人脸关键点检测,在级联回归的第一阶段,可以基于传统的残差网络模型对检测框输出一组关键点,即得到第一关键点,基于第一关键点,本发明实施例继续进行人脸关键点检测。
参见图1所示的多特征融合的人脸关键点检测方法流程图,该方法包括以下步骤:
步骤S102,获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征。
在本发明实施例中,目标图像是被检测框包围的包括人脸的图像。第一关键点是目标图像中人脸上的点,例如眼睛、脸部轮廓、嘴巴、眉毛和鼻尖等部位的多个点,获取第一关键点的坐标信息。标准化图像预先是对目标图像按照预设标准进行处理得到的标准化图像。相对于目标图像,标准化图像中的人脸姿态更加端正,有利于得到更好的关键点检测结果。人脸热图特征是预先基于第一关键点得到的人脸特征信息。第一卷积特征是预先使用人工神经网络对目标图像进行卷积特征提取得到的。
需要说明的是,本发明实施例需要预先在目标图像中选择初始点,例如,初始点可以为目标图像正中间的点。可以预设初始点的个数,例如,可以设置为68个。可以预先根据现有算法对关键点进行初步检测以更新初始点,而第一关键点坐标是通过人脸标准化处理函数对更新后的初始点进行标准化转换得到的。为了能够获得更佳的效果,可以运用旋转、平移、镜像和缩放等数据增强技术对原始训练数据集进行处理扩充从而得到更多的训练数据对模型进行训练,提升模型效果。
进一步需要说明的是,在对目标图像进行标准化处理时,与标准化处理第一关键点时使用相同的规则及参数。
步骤S104,根据标准化图像、人脸热图特征和第一卷积特征生成第二卷积特征,并基于第二卷积特征和第一关键点生成人脸结构特征。
在本发明实施例中,人脸结构特征是根据第一关键点得到的可以用于描述人脸对称和/或相似信息的人脸特征,人脸结构特征是包括两两关键点对应的人脸局部图像对的结构特征。
在本发明实施例中,第一卷积特征在对目标图像进行初步检测阶段生成,基于上一阶段生成的第一卷积特征生成第二卷积特征可以使将上一阶段的全局特征传递至本阶段。人脸热图特征是根据第一关键点确定的用于反映关键点大致位置的坐标热图特征。基于上述不同维度的人脸特征,得到第二卷积特征,再基于第二卷积特征提取人脸结构特征,可以使人脸特征更加准确。
步骤S106,对第二卷积特征和人脸结构特征进行融合,并根据融合结果更新第一关键点,得到第二关键点。
融合是指将第二卷积特征和人脸结构特征共同考虑,作为下一个神经网络层的输入。融合结果是指通过神经网络层对融合后的人脸特征进行回归,得到的关键点位置偏移量结果,该结果是计算出新的关键点坐标位移量,可根据该结果调整第一关键点中各个点的坐标值,以得到第二关键点,其中,第二关键点即为本阶段神经网络的输出。
需要说明的是,第二卷积特征是经过优化的全局特征,人脸结构特征是考虑了人脸对称或相似特点的局部特征,将二者进行融合,可以用于实现对第一关键点检测结果准确度的提升。
步骤S108,若第二关键点的准确度和计算复杂度满足预设标准,则将第二关键点作为目标人脸关键点。
在本发明实施例中,在得到第二关键点之后,判断第二关键点的准确度是否高于预设标准,预设标准可以是指定的值,另外,还应判断得到第二关键点的计算复杂度是否低于预设标准,预设标准可以是指定的另外的值,如果二者同时满足,则将第二关键点作为目标人脸关键点,如果二者不能同时满足,可以将第二关键点作为第一关键点,重新执行步骤S102~步骤S108,以进行本阶段关键点的优化,直到得到满足预设标准的目标人脸关键点。参见图7所示的关键点预测效果示意图,该图显示了满足预设标准的一组目标人脸关键点。
本发明实施例提供了一种多特征融合的人脸关键点检测方法,该方法首先获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征,其中,第一关键点为对目标图像进行初步检测得到的关键点,由于第一关键点准确度较低,根据标准化图像、人脸热图特征和第一卷积特征生成第二卷积特征,以基于第二卷积特征和第一关键点得到包括对称和/或相似的人脸信息,从而,将第二卷积特征和人脸结构特征进行融合,继而,根据融合结果更新第一关键点,得到第二关键点,若第二关键点的准确度和计算复杂度满足预设标准,则将第二关键点作为目标人脸关键点。本发明实施例通过生成人脸结构特征,将人脸结构的对称和/或相似的信息加入到人脸关键点识别的过程中,通过将人脸结构特征与第二卷积特征等多维度特征进行融合,利用人脸的对称和/或相似的特征,对卷积特征进行丰富,进而对第一关键点进行更新,实现对人脸关键点检测准确率的提升。
考虑到人脸图像是非常结构化的,同一张人脸图像的不同位置部分之间具有对称和相似等特征,为了在人脸关键点检测过程中使用这种结构化的特征,需要对人脸结构特征进行提取,在得到第一关键点之后,可以基于第一关键点确定目标图像的人脸结构特征,参见图6所示的人脸结构特征提取实现过程示意图,确认目标图像的人脸结构特征具体包括以下步骤:
(1)根据第一关键点确定第二卷积特征中的多个人脸局部特征向量。
根据第一关键点的关键点坐标信息,利用特征映射(Region Of Interest,ROI)可以获取到各个第一关键点对应的第二卷积特征中的人脸局部特征向量,参见图6,其中,最左边的重叠图像表示人脸图像的第二卷积特征示意图,多张卷积特征示意图表示对应的通道数为多个。当第一关键点中包括N个关键点坐标时,可以将与N个关键点坐标对应的人脸局部特征向量表示为F1={f1,f2,…fN},其中,f为1×m维的向量,m表示图像的通道数,例如,m可以取值为256。
(2)对人脸局部特征向量进行两两连接,得到多个结构向量。
使用连接函数对人脸局部特征向量F1={f1,f2,…fN}中个关键点坐标对应的特征向量进行两两组合,可以表示为Cat(fi,fj),其中,fi,fj分别表示的是第i,j个人脸关键点对应的人脸局部特征向量,Cat()函数表示连接操作。
需要说明的是,可以通过Cat()函数对任意两个关键点对应的人脸局部特征向量进行拼接,例如,人脸左眼上的一个关键点和右嘴角的一个关键点。
进一步需要说明的是,在本发明实施例中,当人脸左眼上的一个关键点对应的人脸局部特征向量为“010101”,右眼上的一个关键点对应的人脸局部特征向量为“101010”,那么将上述两个向量进行连接,可以得到的结构向量为“010101101010”,通过识别连接向量即可识别出人脸的相似或对称信息。
(3)将多个结构向量进行组合,并对组合结果进行归一化处理,得到归一化向量。
将得到的所有连接向量组合到一起,作为整张人脸的结构特征向量,对该整张人脸的结构特征向量进行归一化处理,可以表示为A(Cat(fi,fj)),其中A()表示表示归一化操作,得到归一化向量。
(4)对归一化向量进行特征提取,得到目标图像的人脸结构特征。
可以将归一化向量作为神经网络全连接层的输入,通过神经网络的全连接层对该向量进行特征提取,将提取结果作为目标图像的人脸结构特征。可以表示为PR(I)=Fφ(A(Cat(fi,fj))),其中函数Fφ()表示使用全连接层进行特征提取操作。
为了保证在每个回归阶段都可以生成更准确的全局特征,根据标准化图像、人脸热图特征和第一卷积特征生成第二卷积特征,包括:对标准化图像、人脸热图特征和第一卷积特征进行特征融合,得到融合图像特征;对融合图像特征进行卷积处理,得到第二卷积特征。
在本发明实施例中,由于标准化图像、人脸热图特征和第一卷积特征都是以矩阵形式表示的,例如:标准化图像为a×n1维的矩阵,人脸热图特征为a×n2维的矩阵,第一卷积特征为a×n3维的矩阵,对上述特征进行特征融合得到的融合图像可以表示为a×(n1+n2+n3)维。将得到的融合图像特征作为神经网络层的输入,以进行卷积处理,可以得到第二卷积特征。
需要说明的是,第一卷积特征用于上一阶段人脸关键点坐标偏移量的计算,以得到目标图像的第一关键点,第二卷积特征用于本阶段人脸关键点坐标偏移量的计算,以得到对应本阶段的第二关键点。
为了结合多维度的特征对已经得到的人脸关键点进行融合优化,以得到更加准确的人脸关键点检测结果,本发明实施例中对第二卷积特征和人脸结构特征进行融合,并根据融合结果更新第一关键点,得到第二关键点具体包括以下步骤:
(1)根据第二卷积特征和人脸结构特征,利用目标神经网络层计算关键点偏移量。
将第二卷积特征与人脸结构特征进行融合,具体融合方法可以参考融合图像的生成方法,在此不再赘述。目标神经网络层可以是指目标神经网络的全连接层。将融合后的特征作为目标神经网络全连接层的输入,经目标神经网络全连接层回归生成关键点偏移量,关键点偏移量是关键点位置坐标的偏移量,用于表示关键点位置坐标的移动。需要说明的是,目标神经网络可以使用如VGG网络(Visual Geometry Group Network),残差网络(Residual Networks,ResNets)等不同结构的网络模型。
(2)根据关键点偏移量更新第一关键点以得到第二关键点。
将第一关键点记为T2(S1),将偏移量记为ΔS2,则根据关键点偏移量更新第一关键点可以得到第二关键点为T2(S1)+ΔS2,其中,第二关键点是本阶段的人脸关键点检测结果。
考虑到为了将上一阶段的人脸关键点信息传递到本阶段,以便于融合上一阶段的特征以生成人脸关键点检测结果,有利于提高人脸关键点检测的准确度。获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征之前,还包括以下步骤:
根据第一关键点按照预设规则生成热图值,将热图值作为目标图像的人脸热图特征。
预设规则是指关键点与热图值的对应规则,预设规则可以预先设置,例如,可以将预设规则设置为按照以下公式生成热图值:其中,si是第一关键点中的第i个关键点的坐标,H(x,y)表示的是以si为圆心,指定半径范围内的关键点坐标(x,y)对应的热图中的热值,其中半径取值可以预先进行设置,例如可以设置为16或设置为8,Tt(St-1)表示第t个回归阶段使用的标准化的t-1阶段的关键点,例如,当前进行第二阶段回归,则si从第一阶段生成的关键点T2(S1)中取值,在本发明实施例中,T2(S1)可以表示第一关键点。对第一关键点中的每个关键点生成热图值,即可得到目标图像的人脸热图特征。
由于目标图像中的人脸可能处于多种角度,为了获得正面端正的人脸图像,以提升人脸关键点检测的识别效果,需要对相关数据进行标准化转换,因此,为了保证获取到的第一关键点为标准化关键点,该方法在获取目标图像的第一关键点之前还包括以下步骤:
(1)根据目标图像的第一卷积特征对初始关键点进行更新得到第一原始关键点;
初始关键点是在目标图像中初始化得到的点,可以在目标图像中随机选择多个点作为初始关键点,也可以指定目标图像中的多个点作为初始关键点,例如,指定目标图像中心处的多个点作为初始关键点,将初始关键点记为S0。根据目标图像的第一卷积特征可以得到相对于初始关键点的位置偏移量,记为ΔS1,可以根据以下公式得到第一原始关键点S1=S0+ΔS1,其中S1表示第一原始关键点。
(2)对第一原始关键点进行标准化转换,得到第一关键点。
根据转换函数对第一原始关键点进行标准化转化,得到第一关键点:T2(S1)=T2(S0+ΔS1,)其中T2(S1)表示第一关键点,T2()表示人脸图像转换成标准姿态的转换函数,转换函数的转换规则及转换参数可以按照实际需求进行设定,本发明实施例不作具体限定。
由于基于第一关键点得到的目标关键点是标准化的关键点,为了得到与原始目标图像对应的关键点,该方法还包括将目标关键点进行逆标准化的步骤,具体为:
对目标人脸关键点进行逆标准化转换,得到原始人脸关键点。
可以按照如下公式进行逆标准化转换:St=Tt -1(Tt(St-1)+ΔSt),其中,t表示的是第t个回归阶段,ΔSt代表的是该阶段网络输出的关键点位置偏移量,T()表示的是人脸图像转换成标准姿态的转换函数,T-1()表示的是标准姿态转换的逆变换,St表示的是原始人脸关键点。
需要说明的是,原始人脸关键点是本阶段得到的原始图像上实际人脸关键点坐标。
需要说明的是,为了优化最终的关键点检测效果,可以在每一阶段检测后,根据该阶段生成的关键点调整标准姿态转换函数的参数值,相应的,标准姿态转换的逆变换也需要调整相关参数值,从而实现对标准姿态转换函数的迭代更新。
本发明实施例提供了一种多特征融合的人脸关键点检测方法及装置,参见图3所示的多阶段级联多特征融合的人脸关键点检测模型网络结构示意图,本发明实施例可以预先基于第一回归阶段生成的第一关键点得到用于第二阶段的标准化图像、人脸热图特征和第一卷积特征,基于上述特征,生成第二卷积特征,再基于第二卷积特征和第一关键点得到人脸结构特征,以根据人脸结构特征和第二卷积特征的融合特征计算出新的人脸关键点位置偏移量更新人脸关键点位置得到第二关键点。第二关键点作为第二阶段的输出,判断第二关键点是否满足预设标准,如果满足,第二阶段作为最后一个回归阶段,第二关键点作为目标人脸关键点,完成人脸对齐任务,如果不满足,将第二关键点作为第一关键点,再基于第二关键点生成新的标准化图像、新的人脸热图特征,将第二卷积特征作为第一卷积特征,进行下一阶段的回归,直至得到目标检测结果。本发明实施例在考虑人脸结构特征的基础上,通过对多维度人脸特征的融合,得到阶段性关键点,再对各阶段得到的关键点进行级联优化,得到最终的检测结果,提高了人脸关键点检测的准确性。
需要说明的是,为了实现本发明实施例的人脸关键点检测方法,可以按照如图2所示的多阶段级联多特征融合人脸关键点检测模型的构建方法流程示意图构建人脸关键点检测模型。具体包括以下步骤:
S1,基于传统的残差网络模型结构构建各阶段人脸关键点回归网络的前向传播模块,然后将该模块输出的人脸关键点坐标点作为各阶段多特征转换模块的输入,形成单阶段中多特征融合的人脸关键点检测模型,通过级联的连接方式形成最终的多阶段人脸关键点检测模型。
S2,获取指定数量的包含人脸及其对应人脸关键点标注的数字图像(例如可以根据需要从国际人脸关键点检测比赛中用到的300W公开测试数据集中获取一定数量的人脸数字图像),将其作为训练数据集,并利用该训练数据集对S1中形成的级联多特征融合的人脸关键点检测模型进行训练,得到训练好的可用于人脸关键点检测的级联多特征融合的人脸关键点检测模型。
S3,获取指定数量的包含人脸及其对应人脸关键点标注的数字图像中根据需要获取一定数量的人脸数字图像,并扣取图片中的人脸图像并重新定义大小后作为测试数据集。利用测试数据集对训练后的级联多特征融合的人脸关键点检测模型进行测试,以获取符合指定标准的级联多特征融合的人脸关键点检测模型。
S4,判断测试结果是否符合指定标准;
其中,若测试结果不符合指定标准则,返回执行指定步骤S1中的迭代训练;
若测试结果符合指定标准,则执行S5,保存训练后的级联多特征融合的人脸关键点检测模型以用于人脸检测。其中的制定标准包括:检测的准确度高于一指定的值,以及检测时计算的复杂度低于一指定的值。
整个模型是由多个回归阶段组成的,每个阶段包含一个前向传播模块(FeedForwad NN)和一个多特征转化模块(Transform Module)。其中,前向传播模块主要通过卷积层(Feed Forwad Conv)实现人脸图像深度特征的提取,前向传播模块还可以根据融合、拼接后的特征实现人脸关键点坐标偏移量的计算。多特征转化模块的功能则是为下一个阶段生成神经网络需要的输入人脸特征信息。
模型第一个回归阶段的输入为人脸图像I和初始关键点位置坐标S0,而S0可以初始化在人脸检测框(bounding box)的正中间。模型第一阶段可以用于生成本发明实施例中的第一关键点。除了第一个阶段,模型的其他阶段都有四个特征数据输入:转换成标准姿势形态的人脸图像T(I)、对应于关键点的人脸热力图H、两两关键点对应的局部人脸特征对关系特征P和上一阶段神经网络提取的人脸全局特征F。模型每一个阶段可以输出关键点位置坐标的偏移量,由于每个阶段开始之前都对图像进行了标准姿势形态的转化,所以每阶段计算得到的关键点位置都要经过标准化转换的逆变换才能得到原始人脸图像上的关键点位置。
参见图5所示的各回归阶段的前向传播模块网络结构示意图,网络中每一层都采用了批归一化操作来加快模型收敛速度,网络采用Relu(Rectified Linear Unit,线性整流函数)函数作为激活函数。每个阶段的网络结构中在第一全连接层之前采用了随机失活(dropout层)来防止模型过拟合。
多特征转换模块由1个参数求解函数和5个特征转换函数构成,参见图4所示的多特征转换模块结构示意图,该模块具体包括:图中特征参数求解(Transform Estimation)函数实现的是图像标准化变换函数的参数求解,也就是上文中函数T()的参数求解,且Tt+1 -1=M-1×St,其中St表示的是原人脸图像中的关键点坐标,M表示的是标准化处理之后的关键点坐标,T()就是标准化处理的函数。图像标准化(Image Transform)函数实现的是人脸图像姿态的标准化转换,每次计算得到的关键点位置都要经过标准化转换的逆变换才能得到原始人脸图像上的关键点位置。坐标转化(Landmark Transform)函数实现的是标准化人脸图像上关键点坐标到原人脸图像上的关键点坐标转化,转化公式为:Tt(St-1)。生成热图特征函数(Heatmap Generation)函数实现的是根据关键点预测生成对应的热图特征。生成全局特征函数(Global Feature Generation)函数实现的是人脸全局特征的获取,具体的,例如,可以是根据上个阶段网络中第一个全连接层提取到的人脸一维特征重新上采样为56×56的二维特征矩阵,然后再上采样为112×112的特征矩阵作为人脸全局特征参与人脸关键点检测任务。关键点对特征(Pairwise Feature Generation)函数实现的是两两关键点对应的人脸局部图像对之间的结构特征提取。
本发明实施例还提供一种多特征融合的人脸关键点检测装置,参见图8所示的多特征融合的人脸关键点检测装置结构框图,该装置包括:
获取模块81,用于获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征;第一关键点为对目标图像进行初步检测得到的关键点;特征模块82,用于根据标准化图像、人脸热图特征和第一卷积特征生成第二卷积特征,并基于第二卷积特征和第一关键点生成人脸结构特征;人脸结构特征中包括对称和/或相似的人脸信息;融合模块83,用于对第二卷积特征和人脸结构特征进行融合,并根据融合结果更新第一关键点,得到第二关键点;目标模块84,用于若第二关键点的准确度和计算复杂度满足预设标准,则将第二关键点作为目标人脸关键点。
特征模块,具体用于根据第一关键点确定第二卷积特征中的多个人脸局部特征向量;对人脸局部特征向量进行两两连接,得到多个结构向量;将多个结构进行组合,并对组合结果进行归一化处理,得到归一化向量;对归一化向量进行特征提取,得到人脸结构特征。
特征模块,还用于对标准化图像、人脸热图特征和第一卷积特征进行特征融合,得到融合图像特征;对融合图像特征进行卷积处理,得到第二卷积特征。
融合模块,具体用于根据第二卷积特征和人脸结构特征,利用目标神经网络层计算关键点偏移量;根据关键点偏移量更新第一关键点以得到第二关键点。
该装置还包括预处理模块,具体用于根据第一关键点按照预设规则生成热图值,并将热图值作为目标图像的人脸热图特征。
预处理模块,还用于根据目标图像的第一卷积特征对初始关键点进行更新得到第一原始关键点;按照预设规则对第一原始关键点进行标准化转换,得到第一关键点。
该装置还包括逆标准化模块,用于对目标人脸关键点进行逆标准化转换,得到原始人脸关键点。
本发明实施例还提供一种电子设备,参见图9所示的电子设备结构示意框图,该电子设备包括存储器91、处理器92,存储器中存储有可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述任一种方法的步骤。
本发明实施例提供的电子设备,与上述实施例提供的多特征融合的人脸关键点检测方法具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的电子设备的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本发明实施例还提供一种具有处理器可执行的非易失的程序代码的计算机可读介质,程序代码使处理器执行上述任一种方法的步骤。
本领域内的技术人员应明白,本发明的实施例可提供为方法、***、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种多特征融合的人脸关键点检测方法,其特征在于,包括:
获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征;所述第一关键点为对所述目标图像进行初步检测得到的关键点;
根据所述标准化图像、所述人脸热图特征和所述第一卷积特征生成第二卷积特征,并基于所述第二卷积特征和所述第一关键点生成人脸结构特征;所述人脸结构特征中包括对称和/或相似的人脸信息;
对所述第二卷积特征和所述人脸结构特征进行融合,并根据融合结果更新所述第一关键点,得到第二关键点;
若所述第二关键点的准确度和计算复杂度满足预设标准,则将所述第二关键点作为目标人脸关键点。
2.根据权利要求1所述的方法,其特征在于,基于所述第二卷积特征和所述第一关键点生成人脸结构特征,包括:
根据所述第一关键点确定所述第二卷积特征中的多个人脸局部特征向量;
对所述人脸局部特征向量进行两两连接,得到多个结构向量;
将所述多个结构进行组合,并对组合结果进行归一化处理,得到归一化向量;
对所述归一化向量进行特征提取,得到人脸结构特征。
3.根据权利要求1所述的方法,其特征在于,根据所述标准化图像、所述人脸热图特征和所述第一卷积特征生成第二卷积特征,包括:
对所述标准化图像、所述人脸热图特征和所述第一卷积特征进行特征融合,得到融合图像特征;
对所述融合图像特征进行卷积处理,得到第二卷积特征。
4.根据权利要求1所述的方法,其特征在于,对所述第二卷积特征和所述人脸结构特征进行融合,并根据融合结果更新所述第一关键点,得到第二关键点,包括:
根据所述第二卷积特征和所述人脸结构特征,利用目标神经网络层计算关键点偏移量;
根据所述关键点偏移量更新所述第一关键点以得到第二关键点。
5.根据权利要求1所述的方法,其特征在于,获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征之前,还包括:
根据所述第一关键点按照预设规则生成热图值,并将所述热图值作为目标图像的人脸热图特征。
6.根据权利要求5所述的方法,其特征在于,获取目标图像的第一关键点之前,还包括:
根据所述目标图像的第一卷积特征对初始关键点进行更新得到第一原始关键点;
按照预设规则对所述第一原始关键点进行标准化转换,得到第一关键点。
7.根据权利要求1-6任一项所述的方法,其特征在于,还包括:
对所述目标人脸关键点进行逆标准化转换,得到原始人脸关键点。
8.一种多特征融合的人脸关键点检测装置,其特征在于,包括:
获取模块,用于获取目标图像的第一关键点、标准化图像、人脸热图特征和第一卷积特征;所述第一关键点为对所述目标图像进行初步检测得到的关键点;
特征模块,用于根据所述标准化图像、所述人脸热图特征和所述第一卷积特征生成第二卷积特征,并基于所述第二卷积特征和所述第一关键点生成人脸结构特征;所述人脸结构特征中包括对称和/或相似的人脸信息
融合模块,用于对所述第二卷积特征和所述人脸结构特征进行融合,并根据融合结果更新所述第一关键点,得到第二关键点;
目标模块,用于若所述第二关键点的准确度和计算复杂度满足预设标准,则将所述第二关键点作为目标人脸关键点。
9.一种电子设备,包括存储器、处理器,所述存储器中存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述权利要求1至7任一项所述的方法的步骤。
10.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行所述权利要求1-7任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910609905.1A CN110399809A (zh) | 2019-07-08 | 2019-07-08 | 多特征融合的人脸关键点检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910609905.1A CN110399809A (zh) | 2019-07-08 | 2019-07-08 | 多特征融合的人脸关键点检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110399809A true CN110399809A (zh) | 2019-11-01 |
Family
ID=68322798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910609905.1A Pending CN110399809A (zh) | 2019-07-08 | 2019-07-08 | 多特征融合的人脸关键点检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110399809A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028212A (zh) * | 2019-12-02 | 2020-04-17 | 上海联影智能医疗科技有限公司 | 关键点检测方法、装置、计算机设备和存储介质 |
CN111144369A (zh) * | 2019-12-31 | 2020-05-12 | 北京奇艺世纪科技有限公司 | 一种人脸属性识别方法和装置 |
CN111325190A (zh) * | 2020-04-01 | 2020-06-23 | 京东方科技集团股份有限公司 | 一种表情识别方法、装置、计算机设备及可读存储介质 |
CN111523402A (zh) * | 2020-04-01 | 2020-08-11 | 车智互联(北京)科技有限公司 | 一种视频处理方法、移动终端及可读存储介质 |
CN111553267A (zh) * | 2020-04-27 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 图像处理方法、图像处理模型训练方法及设备 |
CN111626971A (zh) * | 2020-05-26 | 2020-09-04 | 南阳师范学院 | 具有图像语义感知的智慧城市cim实时成像方法 |
CN111753644A (zh) * | 2020-05-09 | 2020-10-09 | 清华大学 | 在三维人脸扫描上检测关键点的方法及装置 |
CN112258564A (zh) * | 2020-10-20 | 2021-01-22 | 推想医疗科技股份有限公司 | 生成融合特征集合的方法及装置 |
CN112464769A (zh) * | 2020-11-18 | 2021-03-09 | 西北工业大学 | 一种基于一致多阶段检测的高分遥感图像目标检测方法 |
CN112528978A (zh) * | 2021-02-10 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 人脸关键点的检测方法、装置、电子设备及存储介质 |
CN112967216A (zh) * | 2021-03-08 | 2021-06-15 | 平安科技(深圳)有限公司 | 人脸图像关键点的检测方法、装置、设备以及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180307897A1 (en) * | 2016-05-28 | 2018-10-25 | Samsung Electronics Co., Ltd. | System and method for a unified architecture multi-task deep learning machine for object recognition |
CN109145783A (zh) * | 2018-08-03 | 2019-01-04 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109241910A (zh) * | 2018-09-07 | 2019-01-18 | 高新兴科技集团股份有限公司 | 一种基于深度多特征融合级联回归的人脸关键点定位方法 |
-
2019
- 2019-07-08 CN CN201910609905.1A patent/CN110399809A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180307897A1 (en) * | 2016-05-28 | 2018-10-25 | Samsung Electronics Co., Ltd. | System and method for a unified architecture multi-task deep learning machine for object recognition |
CN109145783A (zh) * | 2018-08-03 | 2019-01-04 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
CN109241910A (zh) * | 2018-09-07 | 2019-01-18 | 高新兴科技集团股份有限公司 | 一种基于深度多特征融合级联回归的人脸关键点定位方法 |
Non-Patent Citations (2)
Title |
---|
BONG-NAM KANG等: "Pairwise Relational Networks for Face Recognition", 《ECCV 2018: COMPUTER VISION – ECCV 2018》 * |
MAREK KOWALSKI等: "Deep Alignment Network: A convolutional neural network for robust face", 《2017 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111028212A (zh) * | 2019-12-02 | 2020-04-17 | 上海联影智能医疗科技有限公司 | 关键点检测方法、装置、计算机设备和存储介质 |
CN111028212B (zh) * | 2019-12-02 | 2024-02-27 | 上海联影智能医疗科技有限公司 | 关键点检测方法、装置、计算机设备和存储介质 |
CN111144369A (zh) * | 2019-12-31 | 2020-05-12 | 北京奇艺世纪科技有限公司 | 一种人脸属性识别方法和装置 |
CN111325190A (zh) * | 2020-04-01 | 2020-06-23 | 京东方科技集团股份有限公司 | 一种表情识别方法、装置、计算机设备及可读存储介质 |
CN111523402A (zh) * | 2020-04-01 | 2020-08-11 | 车智互联(北京)科技有限公司 | 一种视频处理方法、移动终端及可读存储介质 |
CN111523402B (zh) * | 2020-04-01 | 2023-12-12 | 车智互联(北京)科技有限公司 | 一种视频处理方法、移动终端及可读存储介质 |
CN111325190B (zh) * | 2020-04-01 | 2023-06-30 | 京东方科技集团股份有限公司 | 一种表情识别方法、装置、计算机设备及可读存储介质 |
CN111553267A (zh) * | 2020-04-27 | 2020-08-18 | 腾讯科技(深圳)有限公司 | 图像处理方法、图像处理模型训练方法及设备 |
CN111553267B (zh) * | 2020-04-27 | 2023-12-01 | 腾讯科技(深圳)有限公司 | 图像处理方法、图像处理模型训练方法及设备 |
CN111753644A (zh) * | 2020-05-09 | 2020-10-09 | 清华大学 | 在三维人脸扫描上检测关键点的方法及装置 |
CN111626971A (zh) * | 2020-05-26 | 2020-09-04 | 南阳师范学院 | 具有图像语义感知的智慧城市cim实时成像方法 |
CN111626971B (zh) * | 2020-05-26 | 2021-09-07 | 南阳师范学院 | 具有图像语义感知的智慧城市cim实时成像方法 |
CN112258564B (zh) * | 2020-10-20 | 2022-02-08 | 推想医疗科技股份有限公司 | 生成融合特征集合的方法及装置 |
CN112258564A (zh) * | 2020-10-20 | 2021-01-22 | 推想医疗科技股份有限公司 | 生成融合特征集合的方法及装置 |
CN112464769A (zh) * | 2020-11-18 | 2021-03-09 | 西北工业大学 | 一种基于一致多阶段检测的高分遥感图像目标检测方法 |
CN112528978A (zh) * | 2021-02-10 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 人脸关键点的检测方法、装置、电子设备及存储介质 |
CN112967216B (zh) * | 2021-03-08 | 2023-06-09 | 平安科技(深圳)有限公司 | 人脸图像关键点的检测方法、装置、设备以及存储介质 |
CN112967216A (zh) * | 2021-03-08 | 2021-06-15 | 平安科技(深圳)有限公司 | 人脸图像关键点的检测方法、装置、设备以及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110399809A (zh) | 多特征融合的人脸关键点检测方法及装置 | |
Wang et al. | Mask-pose cascaded cnn for 2d hand pose estimation from single color image | |
US10679046B1 (en) | Machine learning systems and methods of estimating body shape from images | |
CN110458939B (zh) | 基于视角生成的室内场景建模方法 | |
Varol et al. | Learning from synthetic humans | |
CN102999942B (zh) | 三维人脸重建方法 | |
CN107358648A (zh) | 基于单张人脸图像的实时全自动高质量三维人脸重建方法 | |
CN107204010A (zh) | 一种单目图像深度估计方法与*** | |
CN107610209A (zh) | 人脸表情合成方法、装置、存储介质和计算机设备 | |
CN107871106A (zh) | 人脸检测方法和装置 | |
JP6207210B2 (ja) | 情報処理装置およびその方法 | |
CN109993103A (zh) | 一种基于点云数据的人体行为识别方法 | |
CN109086706A (zh) | 应用于人机协作中的基于分割人体模型的动作识别方法 | |
CN109308459A (zh) | 基于手指注意力模型和关键点拓扑模型的手势估计方法 | |
CN106155299B (zh) | 一种对智能设备进行手势控制的方法及装置 | |
CN110310285A (zh) | 一种精确的基于三维人体重建的烧伤面积计算方法 | |
CN112085835B (zh) | 三维卡通人脸生成方法、装置、电子设备及存储介质 | |
Tu et al. | Consistent 3d hand reconstruction in video via self-supervised learning | |
CN109410119A (zh) | 面具图像变形方法及其*** | |
CN114036969B (zh) | 一种多视角情况下的3d人体动作识别算法 | |
CN109407828A (zh) | 一种凝视点估计方法及***、存储介质及终端 | |
CN115880724A (zh) | 一种基于rgb图像的轻量化三维手部姿态估计方法 | |
CN111209811A (zh) | 一种实时检测眼球注意力位置的方法及*** | |
Feng et al. | [Retracted] Research and Application of Multifeature Gesture Recognition in Human‐Computer Interaction Based on Virtual Reality Technology | |
CN109242982A (zh) | 一种网络三维ar动态模板场景技术 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191101 |
|
RJ01 | Rejection of invention patent application after publication |