CN108985181B - 一种基于检测分割的端对端人脸标注方法 - Google Patents
一种基于检测分割的端对端人脸标注方法 Download PDFInfo
- Publication number
- CN108985181B CN108985181B CN201810654160.6A CN201810654160A CN108985181B CN 108985181 B CN108985181 B CN 108985181B CN 201810654160 A CN201810654160 A CN 201810654160A CN 108985181 B CN108985181 B CN 108985181B
- Authority
- CN
- China
- Prior art keywords
- sub
- face
- segmentation
- module
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于检测分割的端对端人脸标注方法,包括:标注人脸图像训练集中每张人脸图像需要检测的区域;构建端对端的人脸分割标注神经网络模型,所述神经网络模型包括由共享特征模块、人脸成分检测模块、ROI特征提取模块、三个子网络模块、三分类网络模块组成;基于人脸图像训练集,训练端对端的人脸分割标注神经网络模型,各个模块同步训练;利用训练好的人脸分割标注神经网络模型对测试人脸图像进行分割标注。本发明采用逐级反卷积上采样和高低特征融合获得不同尺度的共享特征,捕捉更多细节信息;通过为分布面积较少的语义类别设计子网络,提高了分割精度;通过统一训练提升整个模型的表达能力。
Description
技术领域
本发明属于人工智能图像信息处理领域,更具体地,涉及一种基于检测分割的端对端人脸标注方法。
背景技术
人脸标注是指对包含人脸的图像进行区域分割,根据需求的不同,将图像分割为3类(头发、背景、面部)或者更多类(对面部继续分割)。人脸标注作为前端处理,已被应用于人脸识别、虚拟美妆、人脸交换等应用中。在这些应用中,人脸标注的精度对相关任务的效果起着非常关键的作用。
随着深度学习技术发展和大数据计算能力的提升,研究人员将深度学习应用到人脸标注,使精度得到了大幅度的提升。基于深度学习的人脸标注方法主要分为基于滑窗的方法和基于全卷积神经网络的方法,由于基于滑窗的方法过程复杂并且相比于全卷积神经网络的方法精度没有优势,现有技术中大都是基于全卷积神经网络的深度学习的人脸标注方法。
专利CN105354565A公开了一种基于全卷积网络人脸五官定位与判别的方法,通过收集人脸图像并手工标注五官形成训练集,使用训练集训练全卷积神经网络,将待测人脸图像输入至训练好的全卷积神经网络,输出像素级别的人脸分割结果及五官定位与标注。虽然其公开了基于全卷积神经网络的人脸五官标注方法,但是并未考虑样本中分布面积较少的语义类别,存在眼睛、嘴巴、鼻子等区域标注不精确的问题。
专利CN107729819A公开了一种基于稀疏全卷积神经网络的人脸标注方法,通过收集人脸图像并手工标注头发、皮肤、背景形成训练集,使用全卷积神经网络语义分割方法和group lasso稀疏方法构成模型,使用训练集对模型训练,然后将待测人脸图像输入至训练好的模型,完成对人脸图像中头发、皮肤和背景的像素级标注。虽然其公开了基于全卷积神经网络的人脸标注算法,但是并未考虑面部五官的分割,存在应用场景不够广泛的问题。
发明内容
针对现有技术的缺陷,本发明的目的在于解决基于人工设计特征的人脸分割方法存在的精度低和鲁棒性差的问题,同时解决传统的基于全卷积神经网络的人脸分割方法存在的输出同质化问题,并且所设计的方法可以很好的处理在人脸分割任务中存在的类别分布不平衡的问题。
为实现上述目的,本发明实施例提供了一种基于检测分割的端对端人脸标注方法,包括以下步骤:
S1.标注人脸图像训练集中每张人脸图像需要检测的区域;
S2.构建一个端对端的人脸分割标注神经网络模型,所述神经网络模型由共享特征模块、人脸成分检测模块、ROI特征提取模块、三个子网络模块、三分类网络模块组成,其中,所述共享特征模块的输入为人脸图像,输出为共享特征图;所述人脸成分检测模块的输入为共享特征图,输出为各需要检测的区域的位置框信息;所述ROI特征提取模块的输入为共享特征图和各位置框信息,输出为各ROI子特征图;所述子网络模块的输入为ROI子特征图,输出为每个子区域的分割结果;所述三分类网络模块的输入为共享特征图,输出为头发、皮肤和背景的分割结果;
S3.基于人脸图像训练集,训练端对端的人脸分割标注神经网络模型,各个模块同步训练;
S4.利用训练好的人脸分割标注神经网络模型对测试人脸图像进行分割标注,三分类网络的分割结果和各子网络的分割结果融合即为分割标注结果。
具体地,步骤S1中所述需要检测的区域包括:左眉毛、右眉毛、左眼睛、右眼睛、鼻子、上嘴唇、口中、下嘴唇、皮肤、头发、背景。
具体地,步骤S2中所述共享特征模块采用编码-解码结构,编码结构通过全卷积神经网络将人脸图像转化为特征图C1-CN;解码结构将特征图C1-CN逐级反卷积上采样和高低特征融合得到共享特征图P1-PN。
具体地,步骤S2中所述人脸成分检测模块输出不同的成分的位置框信息。
具体地,步骤S2中所述ROI特征提取模块在得到ROI位置框信息后,从共享特征图P1-PN中分别截取ROI特征,统一变换为相同的尺寸、特征串接融合、统一变换为相同的通道维数后,得到各ROI子特征图。
具体地,所述三个子网络模块包括眼睛加眉毛子网络模块、鼻子子网络模块、嘴巴子网络模块三类,其负责对相应特征进行进一步处理,并解码输出子区域的分割结果,其中,鼻子区域子网络将子区域分割为鼻子和背景2个语义类别,嘴巴区域子网络将嘴巴区域分割为上嘴唇、口中、下嘴唇和背景4个语义类别,眼睛加眉毛子网络将眼睛加眉毛区域分割为眼睛、眉毛和背景3个语义类别。
具体地,所述三分类网络模块通过反卷积层和卷积层,将特征维度升至输入图像维度,输出皮肤区域、头发区域和背景区域的分割结果。
具体地,训练过程的优化损失函数定义如下:
Lall=Lseg+Ldet+Lreg
其中,Lall为总体优化损失函数,Lreg为正则化损失函数,用于缓解模型过拟合问题,Ldet为人脸成分检测模块损失函数,包含分类损失和位置回归损失,Lseg为分割损失函数,其定义如下:
总体而言,通过本发明所构思的以上技术方案与现有技术相比,具有以下有益效果:
(1)本发明采用逐级反卷积上采样和高低特征融合的方式获得共享特征,相比传统全卷积神经网络模型,可以捕捉更多的细节轮廓信息,缓解同质化问题。同时,由于采用了不同尺度的特征图信息,网络模型可以从数据中学习到更多不同尺度的信息。
(2)本发明采用了子网络结构设计,为在样本中分布面积较少的语义类别单独设计一个子网络结构,避免在训练和测试过程中丢失该类别的信息。通过此项设计,大大缓解了由于样本类别分布不平衡降低分割精度的问题。
(3)本发明的所有模块可以进行端对端的统一训练,无需分阶段或者分模块训练,在统一训练过程中,各个模块之间可以共享特征信息,提升整个模型的表达能力。
附图说明
图1为本发明提供的一种基于检测分割的端对端人脸标注方法流程图。
图2为本发明提供的ROI特征提取模块工作原理示意图。
图3为本发明提供的嘴巴区域子网络流程示意图。
图4为本发明提供一种基于检测分割的端对端人脸标注方法分割结果示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为本发明提供的一种基于检测分割的端对端人脸标注方法流程图。如图1所示,该方法包括以下步骤:
S1.标注人脸图像训练集中每张人脸图像需要检测的区域;
S2.构建一个端对端的人脸分割标注神经网络模型,所述神经网络模型由共享特征模块、人脸成分检测模块、ROI特征提取模块、三个子网络模块、三分类网络模块组成;
S3.基于人脸图像训练集,训练端对端的人脸分割标注神经网络模型,各个模块同步训练;
S4.利用训练好的人脸分割标注神经网络模型对测试人脸图像进行分割标注。
步骤S1中所述需要检测的区域包括:左眉毛、右眉毛、左眼睛、右眼睛、鼻子、上嘴唇、口中、下嘴唇、皮肤、头发、背景。
步骤S2中所述共享特征模块的输入为人脸图像,输出为共享特征图;所述人脸成分检测模块的输入为共享特征图,输出为左眼睛加左眉毛区域、右眼睛加右眉毛区域、鼻子区域、嘴巴区域和面部区域的位置框信息;所述ROI特征提取模块的输入为共享特征图和各位置框信息,输出为各ROI子特征图;所述子网络模块的输入为ROI子特征图,输出为每个子区域的分割结果;所述三分类网络模块的输入为共享特征图,输出为头发、皮肤和背景的分割结果。
步骤S2中所述共享特征模块采用编码-解码结构,编码结构通过全卷积神经网络将人脸图像转化为特征图C1-CN;解码结构将特征图C1-CN逐级反卷积上采样和高低特征融合得到共享特征图P1-PN。
特征图C1-CN逐级反卷积上采样和高低特征融合的过程如下:首先将特征图C1-CN统一为相同的通道维数K,统一通道维数后的特征图CN即为共享特征图PN,再特征图Ci反向卷积后与相邻特征图C(i-1)相加后统一为通道维数K得到共享特征图P(i-1),i=N,...,2,最终得到共享特征图P1-PN。
具体地,编码结构采用Res50网络模块,Res50模块为Kaiming He等人提出的一种具有残差连接结构的卷积神经网络模型,具有较强的特征表达能力和信息传递能力。将Res50中5个卷积块的最后一层卷积层分别记为特征图C1-C5;解码结构首先将对这5个卷积层分别使用1×1大小的卷积核,将通道维数统一降到256,然后从C5开始,逐级使用步长为2的反卷积操作将特征图尺度大小提升2倍,然后与对应的下一级特征图相加,例如,C5提升2倍通道维数后与C4相加,相加后的特征图再次施以3×3的卷积核,通道维数为256,获得最终的共享特征图P1-P5。
步骤S2中所述人脸成分检测模块采用Faster RCNN结构作为检测器,该检测器输出不同的成分的位置框信息,位置框使用5个标明目标所在的矩形区域,格式为矩形区域的左上角x,y和矩形的高和宽。面部区域的不进行特征提取,检测面部区域的目的是使检测器在检测人脸成分的时候有一定的侧重区域,提升了学习模型在人脸成分检测的精度。其他四类区域的位置框信息被用于相应特征的提取。
步骤S2中所述ROI特征提取模块在得到ROI位置框信息后,从共享特征图P1-PN中分别截取ROI特征,统一变换为相同的尺寸、特征串接融合、统一变换为相同的通道维数后,得到各ROI子特征图。
具体地,高层特征一般包含更多的语义信息,低层特征一般包含更多的细节信息,在人脸分割任务中,这两类信息都十分重要。图2为本发明提供的ROI特征提取模块工作原理示意图。如图2所示,为了综合不同层级的特征,本发明在获得某个ROI的位置框信息后,分别从P1-P4四个层级的共享特征图上截取ROI特征。为了便于训练,不同大小的ROI特征被统一变换到相同的尺寸14×14。在获得四组通道为256的子特征图后,将四组子特征图按照P1-P4的顺序串接在一起,然后使用1×1的卷积核将通道维数降维256,获得最终所提取的子特征,该部分即为ROI特征提取模块。所提取的子特征将被输入不同的子网络中去,单独进行处理。
所述子网络模块包括眼睛加眉毛子网络模块、鼻子子网络模块、嘴巴子网络模块三类,其中,眼睛加眉毛子网络模块的输入为左眼睛加左眉毛特征图和右眼睛加右眉毛特征图,输出为左眼睛加左眉毛区域和右眼睛加右眉毛区域;鼻子子网络模块的输入为鼻子特征图,输出为鼻子区域;嘴巴子网络模块的输入为嘴巴子特征图,输出为嘴巴区域。
子网络负责对相应特征进行进一步处理,并且解码输出子区域的分割结果。其中鼻子区域子网络将子区域分割为鼻子和背景2个语义类别,嘴巴区域子网络将嘴巴区域分割为上嘴唇、口中、下嘴唇和背景4个语义类别,眼睛加眉毛子网络将眼睛加眉毛区域分割为眼睛、眉毛和背景3个语义类别。子网络将ROI特征图重新转化为原始ROI尺寸,并且将输出结果放置在对应的位置上,如图3所示。
图3为本发明所提方法中嘴巴区域子网络流程示意图,鼻子区域和眼睛加眉毛区域具有相同的处理流程,三个子网络并行运行,三个子网络均为全卷积神经网络网络模型,具体地,子网络将ROI子特征图4倍升维,输出56×56的结果。
由于皮肤、头发和背景的类别不平衡现象不严重,因此没有必要设计单独的子网络结构。三分类网络模块通过反卷积层和卷积层,将特征维度升至输入图像维度,然后输出皮肤区域、头发区域和背景区域的分割结果。解码器后端部分组成三分类网络模块。
具体地,在C1特征图与C2升维特征图相加之后,卷积层1(256通道、3×3卷积核)、反卷积层1(128通道、步长为2)、卷积层2(128通道、3×3卷积核)和卷积层3(3通道、3×3卷积核)依次叠加,输出头发、皮肤和背景三种类别的分割结果,该部分为三分类网络模型模块。
训练过程中,人脸成分检测模块为每个子网络提供20个相应类别的ROI位置框提议,20个提议位置框所提取的特征经过对应的子网络获得输出结果,然后与对应位置的真值计算交叉熵损失,所有提议的交叉熵损失将组合用于优化网络参数,该真值来自于人工分割人脸分割数据库。
训练过程的优化损失函数定义如下:
Lall=Lseg+Ldet+Lreg
其中,Lall为总体优化损失函数,Lreg为正则化损失函数,用于缓解模型过拟合问题,Ldet为人脸成分检测模块损失函数,该部分损失函数定义取自Faster RCNN模型原始定义,包含分类损失和位置回归损失,Lseg为分割损失函数,其定义如下:
步骤4:使用步骤3中训练好的算法模型对待处理的人脸图像进行分割标注。
三分类网络的分割结果和各个子网络的分割结果融合就获得人脸11分类分割标注结果。在分别获得嘴巴区域、鼻子区域、眼睛加眉毛区域的分割结果后(左眼、右眼、左眉毛、右眉毛、鼻子、上嘴唇、口中、下嘴唇),与三分类网络输出结果(皮肤、头发、背景)相组合,获得最终11个类别(左眼、右眼、左眉毛、右眉毛、鼻子、上嘴唇、口中、下嘴唇、皮肤、头发、背景)分割结果。
图4为本发明提供一种基于检测分割的端对端人脸标注方法分割结果示意图。如图4所示,第一行为输入图像,第二行为分割结果,第三行为对应的真值。所展示样本在头部姿势、发型、肤色、遮挡、表情等方面均具有较大的变化,所提方法模型仍然可以获得较好的分割结果。
以上,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (8)
1.一种基于检测分割的端对端人脸标注方法,其特征在于,包括以下步骤:
S1.标注人脸图像训练集中每张人脸图像需要检测的区域;
S2.构建一个端对端的人脸分割标注神经网络模型,所述神经网络模型由共享特征模块、人脸成分检测模块、ROI特征提取模块、三个子网络模块、三分类网络模块组成,其中,
所述共享特征模块的输入为人脸图像,输出为共享特征图;
所述人脸成分检测模块的输入为共享特征图,输出为各需要检测的区域的位置框信息;
所述ROI特征提取模块的输入为共享特征图和各位置框信息,输出为各ROI子特征图;
所述子网络模块的输入为ROI子特征图,输出为每个子区域的分割结果,三个子网络模块包括眼睛加眉毛子网络模块、鼻子子网络模块、嘴巴子网络模块三类,其中,眼睛加眉毛子网络模块的输入为左眼睛加左眉毛特征图和右眼睛加右眉毛特征图,输出为左眼睛加左眉毛区域和右眼睛加右眉毛区域;鼻子子网络模块的输入为鼻子特征图,输出为鼻子区域;嘴巴子网络模块的输入为嘴巴子特征图,输出为嘴巴区域;
所述三分类网络模块的输入为共享特征图,输出为头发、皮肤和背景的分割结果;
S3.基于人脸图像训练集,训练端对端的人脸分割标注神经网络模型,各个模块同步训练;
S4.利用训练好的人脸分割标注神经网络模型对测试人脸图像进行分割标注,三分类网络的分割结果和各子网络的分割结果融合即为分割标注结果。
2.如权利要求1所述的人脸标注方法,其特征在于,步骤S1中所述需要检测的区域包括:左眉毛、右眉毛、左眼睛、右眼睛、鼻子、上嘴唇、口中、下嘴唇、皮肤、头发、背景。
3.如权利要求1或2所述的人脸标注方法,其特征在于,步骤S2中所述共享特征模块采用编码-解码结构,编码结构通过全卷积神经网络将人脸图像转化为特征图C1-CN;解码结构将特征图C1-CN逐级反卷积上采样和高低特征融合得到共享特征图P1-PN。
4.如权利要求1或2所述的人脸标注方法,其特征在于,步骤S2中所述人脸成分检测模块输出不同的成分的位置框信息。
5.如权利要求4所述的人脸标注方法,其特征在于,步骤S2中所述ROI特征提取模块在得到ROI位置框信息后,从共享特征图P1-PN中分别截取ROI特征,统一变换为相同的尺寸、特征串接融合、统一变换为相同的通道维数后,得到各ROI子特征图。
6.如权利要求1或2所述的人脸标注方法,其特征在于,所述三个子网络模块负责对相应特征进行进一步处理,并解码输出子区域的分割结果,其中,鼻子区域子网络将子区域分割为鼻子和背景2个语义类别,嘴巴区域子网络将嘴巴区域分割为上嘴唇、口中、下嘴唇和背景4个语义类别,眼睛加眉毛子网络将眼睛加眉毛区域分割为眼睛、眉毛和背景3个语义类别。
7.如权利要求1或2所述的人脸标注方法,其特征在于,所述三分类网络模块通过反卷积层和卷积层,将特征维度升至输入图像维度,输出皮肤区域、头发区域和背景区域的分割结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810654160.6A CN108985181B (zh) | 2018-06-22 | 2018-06-22 | 一种基于检测分割的端对端人脸标注方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810654160.6A CN108985181B (zh) | 2018-06-22 | 2018-06-22 | 一种基于检测分割的端对端人脸标注方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108985181A CN108985181A (zh) | 2018-12-11 |
CN108985181B true CN108985181B (zh) | 2020-07-24 |
Family
ID=64538442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810654160.6A Expired - Fee Related CN108985181B (zh) | 2018-06-22 | 2018-06-22 | 一种基于检测分割的端对端人脸标注方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108985181B (zh) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657596A (zh) * | 2018-12-12 | 2019-04-19 | 天津卡达克数据有限公司 | 一种基于深度学习的车辆外观部件识别方法 |
CN109741338A (zh) * | 2018-12-13 | 2019-05-10 | 北京爱奇艺科技有限公司 | 一种人脸分割方法、装置及设备 |
CN109829374A (zh) * | 2018-12-27 | 2019-05-31 | 深圳豪客互联网有限公司 | 图像数据处理方法、装置、计算机设备和存储介质 |
CN109801249A (zh) * | 2018-12-27 | 2019-05-24 | 深圳豪客互联网有限公司 | 图像融合方法、装置、计算机设备和存储介质 |
CN111382746A (zh) * | 2018-12-29 | 2020-07-07 | 杭州光启人工智能研究院 | 数据打标方法、计算机装置及计算机可读存储介质 |
CN109903257A (zh) * | 2019-03-08 | 2019-06-18 | 上海大学 | 一种基于图像语义分割的虚拟头发染色方法 |
CN111723596B (zh) * | 2019-03-18 | 2024-03-22 | 北京市商汤科技开发有限公司 | 注视区域检测及神经网络的训练方法、装置和设备 |
CN110148085B (zh) * | 2019-04-22 | 2023-06-23 | 智慧眼科技股份有限公司 | 人脸图像超分辨率重建方法及计算机可读取的存储介质 |
CN110059768B (zh) * | 2019-04-30 | 2022-11-15 | 福州大学 | 用于街景理解的融合点与区域特征的语义分割方法及*** |
CN110287930B (zh) * | 2019-07-01 | 2021-08-20 | 厦门美图之家科技有限公司 | 皱纹分类模型训练方法及装置 |
CN110378278B (zh) * | 2019-07-16 | 2021-11-02 | 北京地平线机器人技术研发有限公司 | 神经网络的训练方法、对象搜索方法、装置以及电子设备 |
CN110472605B (zh) * | 2019-08-21 | 2022-10-14 | 广州纳丽生物科技有限公司 | 一种基于深度学习人脸分区的皮肤问题分类方法 |
CN112669197A (zh) * | 2019-10-16 | 2021-04-16 | 顺丰科技有限公司 | 图像处理方法、装置、移动终端及存储介质 |
CN111144310A (zh) * | 2019-12-27 | 2020-05-12 | 创新奇智(青岛)科技有限公司 | 一种基于多层信息融合的人脸检测方法及*** |
CN111179287A (zh) * | 2020-01-03 | 2020-05-19 | 厦门美图之家科技有限公司 | 人像实例分割方法、装置、设备及存储介质 |
CN111310718A (zh) * | 2020-03-09 | 2020-06-19 | 成都川大科鸿新技术研究所 | 一种遮挡人脸图像高准确率检测对比方法 |
CN111739025B (zh) * | 2020-05-08 | 2024-03-19 | 北京迈格威科技有限公司 | 一种图像处理方法、装置、终端及存储介质 |
CN111666905B (zh) * | 2020-06-10 | 2022-12-02 | 重庆紫光华山智安科技有限公司 | 模型训练方法、行人属性识别方法和相关装置 |
CN112330696B (zh) * | 2020-12-02 | 2022-08-09 | 青岛大学 | 人脸分割方法、装置及计算机可读存储介质 |
CN112560701B (zh) * | 2020-12-17 | 2022-10-25 | 成都新潮传媒集团有限公司 | 一种人脸图像提取方法、装置及计算机存储介质 |
CN112733632B (zh) * | 2020-12-28 | 2023-02-14 | 华南理工大学 | 一种基于人脸识别与手势识别的机器人控制方法 |
CN113052247A (zh) * | 2021-03-31 | 2021-06-29 | 清华苏州环境创新研究院 | 基于多标签图像识别的垃圾分类方法及垃圾分类器 |
CN113469040B (zh) * | 2021-06-30 | 2023-10-24 | 北京市商汤科技开发有限公司 | 一种图像处理方法、装置、计算机设备和存储介质 |
CN116269285B (zh) * | 2022-11-28 | 2024-05-28 | 电子科技大学 | 一种非接触式常态化心率变异性估计*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100508202B1 (ko) * | 2003-04-14 | 2005-08-17 | 주식회사 윈포넷 | 얼굴 검출을 위한 얼굴특징 추출방법 |
CN105654420A (zh) * | 2015-12-21 | 2016-06-08 | 小米科技有限责任公司 | 人脸图像处理方法及装置 |
CN105869159A (zh) * | 2016-03-28 | 2016-08-17 | 联想(北京)有限公司 | 一种图像分割方法及装置 |
CN107507211A (zh) * | 2017-07-24 | 2017-12-22 | 中国科学院合肥物质科学研究院 | 基于多Agent和MRF的遥感图像分割方法 |
-
2018
- 2018-06-22 CN CN201810654160.6A patent/CN108985181B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100508202B1 (ko) * | 2003-04-14 | 2005-08-17 | 주식회사 윈포넷 | 얼굴 검출을 위한 얼굴특징 추출방법 |
CN105654420A (zh) * | 2015-12-21 | 2016-06-08 | 小米科技有限责任公司 | 人脸图像处理方法及装置 |
CN105869159A (zh) * | 2016-03-28 | 2016-08-17 | 联想(北京)有限公司 | 一种图像分割方法及装置 |
CN107507211A (zh) * | 2017-07-24 | 2017-12-22 | 中国科学院合肥物质科学研究院 | 基于多Agent和MRF的遥感图像分割方法 |
Non-Patent Citations (2)
Title |
---|
Face Parsing via Recurrent Propagation;Sifei,Liu et al.;《ArXiv》;20170831;全文 * |
基于深度学习的人脸表情识别研究;牛新亚;《中国优秀硕士学位论文全文数据库》;20170215;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108985181A (zh) | 2018-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108985181B (zh) | 一种基于检测分割的端对端人脸标注方法 | |
CN110008915B (zh) | 基于掩码-rcnn进行稠密人体姿态估计的***及方法 | |
CN110287849B (zh) | 一种适用于树莓派的轻量化深度网络图像目标检测方法 | |
CN112766160A (zh) | 基于多级属性编码器和注意力机制的人脸替换方法 | |
CN111274921B (zh) | 一种利用姿态掩模进行人体行为识别的方法 | |
CN110490212A (zh) | 钼靶影像处理设备、方法和装置 | |
CN110008832A (zh) | 基于深度学习人物图像自动分割方法、信息数据处理终端 | |
CN112966684A (zh) | 一种注意力机制下的协同学习文字识别方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN109359681A (zh) | 一种基于改进全卷积神经网络的大田作物病虫害识别方法 | |
CN109284738A (zh) | 不规则人脸矫正方法和*** | |
CN111353544A (zh) | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 | |
CN112884758B (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及*** | |
CN115240195A (zh) | 一种药瓶缺陷自动检测方法、装置及存储介质 | |
CN111401293A (zh) | 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法 | |
CN114332942A (zh) | 基于改进YOLOv3的夜间红外行人检测方法及*** | |
CN112365578A (zh) | 基于双摄像机的三维人体模型重构***及方法 | |
CN111209873A (zh) | 一种基于深度学习的高精度人脸关键点定位方法及*** | |
CN116030498A (zh) | 面向虚拟服装走秀的三维人体姿态估计方法 | |
CN110532959B (zh) | 基于双通道三维卷积神经网络的实时暴力行为检测*** | |
CN110717978B (zh) | 基于单张图像的三维头部重建方法 | |
CN110516527B (zh) | 一种基于实例分割的视觉slam回环检测改进方法 | |
CN111881743A (zh) | 一种基于语义分割的人脸特征点定位方法 | |
CN111767826A (zh) | 一种定时定点场景异常检测方法 | |
CN114821742A (zh) | 一种实时识别儿童或青少年面部表情的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20200724 Termination date: 20210622 |