CN114863539A - 一种基于特征融合的人像关键点检测方法及*** - Google Patents
一种基于特征融合的人像关键点检测方法及*** Download PDFInfo
- Publication number
- CN114863539A CN114863539A CN202210648008.3A CN202210648008A CN114863539A CN 114863539 A CN114863539 A CN 114863539A CN 202210648008 A CN202210648008 A CN 202210648008A CN 114863539 A CN114863539 A CN 114863539A
- Authority
- CN
- China
- Prior art keywords
- feature
- transformer
- portrait
- thermodynamic
- feature fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 32
- 230000004927 fusion Effects 0.000 title claims abstract description 26
- 238000010586 diagram Methods 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 27
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000005520 cutting process Methods 0.000 claims abstract description 3
- 238000004590 computer program Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 7
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 5
- 230000007246 mechanism Effects 0.000 claims description 3
- 230000009191 jumping Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 1
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000009466 transformation Effects 0.000 description 3
- 238000001235 constant-final-state spectroscopy Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241000288110 Fulica Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于特征融合的人像关键点检测方法,该方法包括:S1:将人像图片送入人脸检测网络进行人脸检测并裁剪,将训练数据集中的坐标信息转化为热力图信息;S2:将人像图片送入基于Transformer和Convolution特征融合的回归网络对其进行训练,回归网络为并行结构,通过Convolution捕捉人像图片的低级语义特征,通过Transformer捕捉人像图片中的高级语义特征,将得到的特征图进行跳跃连接,共同编码包含坐标信息的热力图;S3:基于Convolution和Transformer特征融合的回归网络将N个关键点的N个热力图联合在同一个通道,生成具有边界信息的热力图,输出N+1个通道的热力图;S4:将输出的热力图取前N个热力图进行解码,得到精确的N个关键点的坐标信息。该方法及***有利于提高检测精度和运行速度。
Description
技术领域
本发明涉及本发明属于计算机视觉技术领域,具体涉及一种基于特征融合的人像关键点检测方法及***。
背景技术
近年来,随着Convolution网络以及深度学习在计算机视觉领域的蓬勃发展,关于人脸图像的计算机视觉任务也得到了实际应用。其中,基于深度学习的人像关键点检测技术是当前图像检测领域的研究热门之一,人脸关键点检测在虚拟现实,识别表情,人脸重建,人脸追踪,人像美颜等方面发展趋势明显。
而Transformer网络并不是因计算机视觉领域的蓬勃发展而诞生的。Transformer模型是Google团队在2017年所提出,目的是应用于NLP领域(自然语言处理)。Transformer模型中的自我注意机制,不采用RNN的顺序结构,使得Transformer模型可以实现并行化训练,而且能够拥有全局信息。在2020年,Carion提出一种端到端的Transformer物体检测模型,成功将NLP领域中的Transformer模型与计算机视觉领域相结合,从此视觉Transformer开始迅速发展,取得了与传统卷积相当的成绩,甚至有的Transformer网络结构已经实现对传统卷积模型的超越。
人脸关键点检测技术发展迅猛。其中,由Cootes等提出的ASM(Active ShapeModel)算法的特点是基于点分布式的,通过预先标定的训练集,经过网络训练获得特征,再通过关键点的位置实现特点位置的匹配。随后,在2010年,Dollar提出CPR(CascadedPoseRegression,级联姿势回归),CPR通过一系列回归器将一个指定的初始预测值逐步细化,每一个回归器都依靠前一个回归器的输出来执行简单的图像操作,整个***可自动的从训练样本中学习。最后进入了深度学习时代,最为代表性的是Zhang等人提出一种多任务级联卷积神经网络(MTCNN,Multi-task Cascaded Convolutional Networks)用以同时处理人脸检测和人脸关键点定位问题。作者认为人脸检测和人脸关键点检测两个任务之间往往存在着潜在的联系,然而大多数方法都未将两个任务有效的结合起来,本文为了充分利用两任务之间潜在的联系,提出一种多任务级联的人脸检测框架,将人脸检测和人脸关键点检测同时进行。
然而,目前主流的人像关键点检测算法都是采用热力图回归的形式,这一种方法需要渲染高斯热图,因为热力图中的最值点直接对应了关键点,这就导致了两个问题,一是这一类算法都需要维持一个相对高分辨率的热图,导致这一类回归网络具有难以回归的特点。二是这一类算法,热力图中的最值点直接代表了对应的关键点位置,渲染准确的热力图仅仅依靠传统的卷积层个数加深的方法往往是不足的。
发明内容
本发明的目的在于提供一种基于特征融合的人像关键点检测方法及***,该方法及***有利于提高检测精度和运行速度。
为实现上述目的,本发明采用的技术方案是:一种基于特征融合的人像关键点检测方法,包括以下步骤:
步骤S1:将人像数据集中的图片送入轻量化人脸检测网络YOLOV5-n-face进行人脸检测并裁剪,摒弃背景多余信息,得到经过处理后的人像图片,将人像图片中的原有的坐标信息归一化后,通过高斯分布转化为热力图;
步骤S2:将步骤S1得到的人像图片送入基于Transformer和Convolution特征融合的回归网络对其进行训练,将步骤S1得到的热力图用于监督学习,损失函数采用自适应Wing loss;回归网络为并行结构,通过Convolution捕捉人像图片的低级语义特征,通过Transformer捕捉人像图片中的高级语义特征,将Convolution和Transformer得到的特征图进行跳跃连接,即通道相连,共同编码包含坐标信息的热力图;
步骤S3:基于Convolution和Transformer特征融合的回归网络将N个关键点的N个热力图联合在同一个通道,生成一个单通道具有边界信息的热力图,输出N+1个通道、分辨率为64*64的热力图,N为关键点个数,其中每一个通道为关键点的高斯分布图,取其概率最大值则为所求的关键点;
步骤S4:将输出的热力图通过解码函数,取前N个热力图进行解码,得到精确的N个关键点的坐标信息。
进一步地,步骤S2中,通过所述回归网络获得低级语义特征与高级语义特征融合的特征图,其方法为:将Convolution和Transformer并行结构得到不同尺度和不同特征空间的特征图,经过下采样操作后,以跳跃连接,即通道连接方式进行特征融合,从而构造基于Convolution和Transformer特征融合的回归网络;基于Convolution和Transformer特征融合的回归网络的主干模块由CNN卷积神经网络ConvNeXt中的卷积模块blocks构造,辅以Transformer捕捉远距离语义相关信息进一步融合特征。
进一步地,Transformer通过一个Embedding操作,将序列输入转化为Token,格式为(N,C,H*W),其中N为一次训练时输入网络的图片数量,C为图片通道数,H和W分别为图片的高度和宽度;Embedding层利用不同卷积核大小的二维卷积应用于(N,C,H,W)的特征图,再将不同分辨率大小的特征图进行双线性插值变为同一个分辨率大小,利用通道连接的方式得到包含不同分辨率的特征图,将此特征图进行格式变化,从(N,C,H,W)方式转化为(N,C,H*W)再送入Transformer的自我注意机制中。
进一步地,Transformer中的Embedding操作为:送入的特征图并行通过卷积核大小分别为1*1,3*3,7*7,9*9,步长分别为1,1,2,2的二维卷积,得到四种分辨率大小不同的特征图;再将四种分辨率大小不同的特征图通过双线性插值的方法变成四种分辨率大小相同的特征图进行通道连接,最后通过格式变化函数,将特征图的尺寸变为适合Transformer中自我注意层的大小。
进一步地,将Transformer结构中的Self-attention的线性层操作改为位置卷积CoordConv操作,进一步加强自我注意层捕捉远距离高级语义的特征以及通过卷积的形式加入位置信息。
本发明还提供了一种基于特征融合的人像关键点检测***,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现上述的方法步骤。
与现有技术相比,本发明具有以下有益效果:提供了一种基于特征融合的人像关键点检测方法及***,该方法及***设计了结合Convolution模块和Transformer模块的特征融合网络,可以结合Transformer和Convolution的优点,在提取低级语义特征的同时能够捕捉全局信息,同时可以减小了计算量和模型复杂度,在保持高检测精度的同时,减小模型参数量,提高模型的运行速度。
附图说明
图1是本发明实施例的方法实现流程图。
图2是本发明实施例中基于热力图回归的网络结构示意图。
图3是本发明实施例中关键点在图像上的投影示意图。
图4是本发明实施例中编码后具有边界信息的人像热力图。
图5是本发明实施例中CoordConv(位置卷积)结构示意图。
图6是本发明实施例中卷积模块(Conv Blocks)结构示意图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
本实施例提供了一种基于特征融合的人像关键点检测方法,其实现步骤如图1所示,包括:
步骤一:将训练数据集中的二维数字坐标,通过高斯模型编码的方式,编为热力图,热力图中的最大值点代表了此二维数字坐标。有N个二维数字坐标,就有N张热力图。设定输入图像的分辨率为256*256,根据经验,设定输出热力图分辨率为64*64。
步骤二:根据此网络以热力图的方式回归数字坐标,不同的损失函数对训练神经网络的结果有不同的影响,本发明设定Adaptive Wing Loss为损失函数,Adaptive WingLoss将N张热力图的最值点通过描点的方式汇聚到一张图上,如图4所示,达到人脸边界定位准确的效果。
本实施例的网络结构如图2所示,通过卷积预处理网络初步提取特征后,得到的特征图并行进行Convolution操作和Transformer操作,其中Transformer操作中的embedding方式,为二维卷积方式,将输入的特征图进一步分辨率减小,通道数增加。Convolution操作将经过一个Conv Blocks,卷积模块的结构如图6所示,得到的特征图的分辨率是Transformer操作得到的分辨率的两倍,将Convolution操作得到的特征图进行下采样后与Transformer得到的特征图进行跳跃连接,采用通道连接的方式,送入下一个阶段。
本发明在Transformer的自我注意层中引入了Coord Conv(位置卷积)替代普通的线性层操作。位置卷积的结构如图5所示,普通卷积神经网络在进行变换空间表征时存在缺陷,无法学***移不变性或不同程度的平移依赖性,以完美的泛化方法解决坐标变换的问题。
步骤三:网络输出结果为N+1张热力图,通过解码函数,由热力图转换为数字坐标信息。图3为二维关键点坐标在图像上的投影。
所述二维数字坐标通过高斯模型转换为热力图坐标,高斯模型公式为:
所述Adaptive Wing Loss公式为:
C=(θA-ωln(1+(θ/∈)α-y))
A=ω(1/(1+(θ/∈)(α-y)))(α-y)((θ/∈)(α-y-1))(1/∈)
我们将提取到的坐标向量和参考坐标向量做对比论证,通过具体的实验数据验证本方法的正确性。将本方法所得实验结果和现有的算法作对比,其结果如表1、表2所示。
表1在WFLW数据集上,ESR、SDM、CFSS、DVLD和本方法的性能对比
Method | NME |
ESR | 11.13 |
SDM | 10.20 |
CFSS | 9.07 |
DVLD | 6.08 |
本方法 | 4.32 |
表2 SDM、SAN、LAB、PFLD和本方法的网络参数量大小对比
本实施例还提供了一种基于特征融合的人像关键点检测***,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现上述的方法步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、***、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (6)
1.一种基于特征融合的人像关键点检测方法,其特征在于,包括以下步骤:
步骤S1:将人像数据集中的图片送入轻量化人脸检测网络YOLOV5-n-face进行人脸检测并裁剪,摒弃背景多余信息,得到经过处理后的人像图片,将人像图片中的原有的坐标信息归一化后,通过高斯分布转化为热力图;
步骤S2:将步骤S1得到的人像图片送入基于Transformer和Convolution特征融合的回归网络对其进行训练,将步骤S1得到的热力图用于监督学习,损失函数采用自适应Wingloss;回归网络为并行结构,通过Convolution捕捉人像图片的低级语义特征,通过Transformer捕捉人像图片中的高级语义特征,将Convolution和Transformer得到的特征图进行跳跃连接,即通道相连,共同编码包含坐标信息的热力图;
步骤S3:基于Convolution和Transformer特征融合的回归网络将N个关键点的N个热力图联合在同一个通道,生成一个单通道具有边界信息的热力图,输出N+1个通道、分辨率为64*64的热力图,N为关键点个数,其中每一个通道为关键点的高斯分布图,取其概率最大值则为所求的关键点;
步骤S4:将输出的热力图通过解码函数,取前N个热力图进行解码,得到精确的N个关键点的坐标信息。
2.根据权利要求1所述的一种基于特征融合的人像关键点检测方法,其特征在于,步骤S2中,通过所述回归网络获得低级语义特征与高级语义特征融合的特征图,其方法为:将Convolution和Transformer并行结构得到不同尺度和不同特征空间的特征图,经过下采样操作后,以跳跃连接,即通道连接方式进行特征融合,从而构造基于Convolution和Transformer特征融合的回归网络;基于Convolution和Transformer特征融合的回归网络的主干模块由CNN卷积神经网络ConvNeXt中的卷积模块blocks构造,辅以Transformer捕捉远距离语义相关信息进一步融合特征。
3.根据权利要求1所述的一种基于特征融合的人像关键点检测方法,其特征在于,Transformer通过一个Embedding操作,将序列输入转化为Token,格式为(N,C,H*W),其中N为一次训练时输入网络的图片数量,C为图片通道数,H和W分别为图片的高度和宽度;Embedding层利用不同卷积核大小的二维卷积应用于(N,C,H,W)的特征图,再将不同分辨率大小的特征图进行双线性插值变为同一个分辨率大小,利用通道连接的方式得到包含不同分辨率的特征图,将此特征图进行格式变化,从(N,C,H,W)方式转化为(N,C,H*W)再送入Transformer的自我注意机制中。
4.根据权利要求3所述的一种基于特征融合的人像关键点检测方法,其特征在于,Transformer中的Embedding操作为:送入的特征图并行通过卷积核大小分别为1*1,3*3,7*7,9*9,步长分别为1,1,2,2的二维卷积,得到四种分辨率大小不同的特征图;再将四种分辨率大小不同的特征图通过双线性插值的方法变成四种分辨率大小相同的特征图进行通道连接,最后通过格式变化函数,将特征图的尺寸变为适合Transformer中自我注意层的大小。
5.根据权利要求3所述的一种基于特征融合的人像关键点检测方法,其特征在于,将Transformer结构中的Self-attention的线性层操作改为位置卷积CoordConv操作,进一步加强自我注意层捕捉远距离高级语义的特征以及通过卷积的形式加入位置信息。
6.一种基于特征融合的人像关键点检测***,其特征在于,包括存储器、处理器以及存储于存储器上并能够被处理器运行的计算机程序指令,当处理器运行该计算机程序指令时,能够实现如权利要求1-5任一项所述的方法步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210648008.3A CN114863539A (zh) | 2022-06-09 | 2022-06-09 | 一种基于特征融合的人像关键点检测方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210648008.3A CN114863539A (zh) | 2022-06-09 | 2022-06-09 | 一种基于特征融合的人像关键点检测方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114863539A true CN114863539A (zh) | 2022-08-05 |
Family
ID=82625244
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210648008.3A Pending CN114863539A (zh) | 2022-06-09 | 2022-06-09 | 一种基于特征融合的人像关键点检测方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114863539A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115311730A (zh) * | 2022-09-23 | 2022-11-08 | 北京智源人工智能研究院 | 一种人脸关键点的检测方法、***和电子设备 |
CN116188691A (zh) * | 2023-02-27 | 2023-05-30 | 云南大学 | 基于单张图片下三维人脸重建方法 |
CN116310851A (zh) * | 2023-05-26 | 2023-06-23 | 中国科学院空天信息创新研究院 | 遥感图像变化检测方法 |
CN117523645A (zh) * | 2024-01-08 | 2024-02-06 | 深圳市宗匠科技有限公司 | 一种人脸关键点检测方法、装置、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN113591692A (zh) * | 2021-07-29 | 2021-11-02 | 赢识科技(杭州)有限公司 | 一种多视图身份识别方法 |
-
2022
- 2022-06-09 CN CN202210648008.3A patent/CN114863539A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020155873A1 (zh) * | 2019-02-02 | 2020-08-06 | 福州大学 | 一种基于深度表观特征和自适应聚合网络的多人脸跟踪方法 |
CN113591692A (zh) * | 2021-07-29 | 2021-11-02 | 赢识科技(杭州)有限公司 | 一种多视图身份识别方法 |
Non-Patent Citations (1)
Title |
---|
孙锐;阚俊松;吴柳玮;王鹏;: "级联网络和金字塔光流的旋转不变人脸检测", 光电工程, no. 01, 15 January 2020 (2020-01-15), pages 22 - 30 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115311730A (zh) * | 2022-09-23 | 2022-11-08 | 北京智源人工智能研究院 | 一种人脸关键点的检测方法、***和电子设备 |
CN116188691A (zh) * | 2023-02-27 | 2023-05-30 | 云南大学 | 基于单张图片下三维人脸重建方法 |
CN116188691B (zh) * | 2023-02-27 | 2024-02-06 | 云南大学 | 基于单张图片下三维人脸重建方法 |
CN116310851A (zh) * | 2023-05-26 | 2023-06-23 | 中国科学院空天信息创新研究院 | 遥感图像变化检测方法 |
CN116310851B (zh) * | 2023-05-26 | 2023-08-15 | 中国科学院空天信息创新研究院 | 遥感图像变化检测方法 |
CN117523645A (zh) * | 2024-01-08 | 2024-02-06 | 深圳市宗匠科技有限公司 | 一种人脸关键点检测方法、装置、电子设备及存储介质 |
CN117523645B (zh) * | 2024-01-08 | 2024-03-22 | 深圳市宗匠科技有限公司 | 一种人脸关键点检测方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11908244B2 (en) | Human posture detection utilizing posture reference maps | |
CN114863539A (zh) | 一种基于特征融合的人像关键点检测方法及*** | |
CN113158862B (zh) | 一种基于多任务的轻量级实时人脸检测方法 | |
CN113704531A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
WO2023174098A1 (zh) | 一种实时手势检测方法及装置 | |
CN113901909B (zh) | 基于视频的目标检测方法、装置、电子设备和存储介质 | |
WO2023207778A1 (zh) | 数据修复方法、装置、计算机及可读存储介质 | |
JP2023526899A (ja) | 画像修復モデルを生成するための方法、デバイス、媒体及びプログラム製品 | |
CN110633706B (zh) | 一种基于金字塔网络的语义分割方法 | |
CN117218246A (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
CN115713632A (zh) | 一种基于多尺度注意力机制的特征提取方法及装置 | |
CN117237623B (zh) | 一种无人机遥感图像语义分割方法及*** | |
Li et al. | Mapping new realities: Ground truth image creation with pix2pix image-to-image translation | |
CN113033337A (zh) | 基于TensorRT的行人重识别方法及装置 | |
CN113537187A (zh) | 文本识别方法、装置、电子设备及可读存储介质 | |
CN117058392A (zh) | 一种基于卷积局部增强的多尺度Transformer图像语义分割方法 | |
CN114091648A (zh) | 基于卷积神经网络的图像分类方法、装置及卷积神经网络 | |
CN116311455A (zh) | 一种基于改进Mobile-former的表情识别方法 | |
CN116468902A (zh) | 图像的处理方法、装置和非易失性计算机可读存储介质 | |
CN116386105A (zh) | 人脸表情识别方法、电子设备及存储介质 | |
CN113840169B (zh) | 一种视频处理方法、装置、计算设备和存储介质 | |
CN114463734A (zh) | 文字识别方法、装置、电子设备及存储介质 | |
CN111553921A (zh) | 一种基于通道信息共享残差模块的实时语义分割方法 | |
CN117275069B (zh) | 基于可学习向量与注意力机制的端到端头部姿态估计方法 | |
CN116342800B (zh) | 一种多模态位姿优化的语义三维重建方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |