CN112069995B - 一种深度域人脸稠密特征提取方法、***和存储介质 - Google Patents

一种深度域人脸稠密特征提取方法、***和存储介质 Download PDF

Info

Publication number
CN112069995B
CN112069995B CN202010924020.3A CN202010924020A CN112069995B CN 112069995 B CN112069995 B CN 112069995B CN 202010924020 A CN202010924020 A CN 202010924020A CN 112069995 B CN112069995 B CN 112069995B
Authority
CN
China
Prior art keywords
face
depth domain
network model
areas
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010924020.3A
Other languages
English (en)
Other versions
CN112069995A (zh
Inventor
马可
胡新宇
侯宗庆
李慧斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Xitu Zhiguang Intelligent Technology Co ltd
Original Assignee
Xi'an Xitu Zhiguang Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xi'an Xitu Zhiguang Intelligent Technology Co ltd filed Critical Xi'an Xitu Zhiguang Intelligent Technology Co ltd
Priority to CN202010924020.3A priority Critical patent/CN112069995B/zh
Publication of CN112069995A publication Critical patent/CN112069995A/zh
Application granted granted Critical
Publication of CN112069995B publication Critical patent/CN112069995B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

一种深度域人脸稠密特征提取方法、***和存储介质,采集深度域人脸数据集,然后进行预处理,并对深度域人脸数据集进行语义信息标注;将标注后的深度域数据集分为训练集、验证集和测试集;基于目标检测网络结构,建立对人脸几何特征有掩膜约束的检测、分割网络模型;在训练据集上对网络模型进行训练,回归人脸特征的稠密标注,得到最优网络模型;使用训练完成的网络模型在测试集图像上进行测试。通过基于目标检测网络结构建立一个高效的对人脸几何特征有掩膜约束的人脸稠密特征检测、分割网络模型,对深度域人脸图像进行训练,能有效避免因不同环境光照、不同妆容、不同肤色影响人脸检测效果差、定位不准确等问题。

Description

一种深度域人脸稠密特征提取方法、***和存储介质
技术领域
本发明属于计算智能、模式识别和图像处理技术领域,具体涉及一种深度域人脸稠密特征提取方法、***和存储介质。
背景技术
现有人脸特征提取方法中,普遍存在如下问题:
1、大部分通过现有的神经网络结构进行对人脸二维图像的检测,如:用于生成人脸检测模型的方法、人脸检测方法和装置(CN108427941A),进行训练使用的图像序列大多为RGB图像或灰度图像,如:人脸检测小模型优化训练方法、人脸检测方法及计算机***(CN110909688A),这些方法在黑暗或光照变化明显环境下人脸检测的成功率会大幅度下降。
2、提取的人脸特征比较稀疏,当出现遮挡等情况时,难以进行人脸定位、检测。
发明内容
为克服现有技术中的问题,本发明的目的是提供一种深度域人脸稠密特征提取方法。
为实现上述目的,本发明采用如下的技术方案:
一种深度域人脸稠密特征提取方法,包括以下步骤:
步骤1:采集深度域人脸数据集,然后进行预处理,并对深度域人脸数据集进行语义信息标注;将标注后的深度域数据集分为训练集、验证集和测试集;
步骤2:基于目标检测网络结构,建立对人脸几何特征有掩膜约束的检测、分割网络模型;
步骤3:在训练据集上对网络模型进行训练,回归人脸特征的稠密标注,得到最优网络模型;
步骤4:使用训练完成的网络模型在测试集图像上进行测试。
本发明进一步的改进在于,步骤1中,进行语义信息标注具体是标注人脸68个特征点中的脸部轮廓full_face、左眼left_eye、右眼right_eye、鼻子nose、嘴巴内轮廓in_mouth和外轮廓out_mouth六个区域。
本发明进一步的改进在于,步骤2具体过程如下:
步骤2.1:将语义分割网络Mask RCNN中对anchor box的分割改为对bounding box的分割;
步骤2.2:添加对人脸语义信息有掩膜约束的网络头。
本发明进一步的改进在于,对bounding box的分割的具体过程如下:
anchor free的检测网络中网络头包括hm_head、wh_head、reg_head、hps_head、hm_hp_head和hp_offset_head,在anchor free的检测网络中网络头中添加对人脸语义信息有掩膜约束的网络头mask_head,以及针对人脸68个特征点中的full_face、left_eye、right_eye、nose、in_mouth和out_mouth六个区域的掩膜约束Lmask
本发明进一步的改进在于,步骤3中,网络模型的损失函数,包括人脸六个区域中心点坐标Lhm、人脸六个区域bounding box的宽高Lwh、中心点偏移Loff、68个特征点坐标Lhp、人脸六个区域Lhm_hp和68个特征点偏移的损失Lhp_offset;对人脸的六个区域的预测boundingbox和真实target box计算交叉熵,得到掩膜约束Lmask
本发明进一步的改进在于,
人脸六个区域中心点坐标Lhm=FocalLoss(predhm,truthhm);
人脸六个区域bounding box的宽高Lwh=RegL1Loss(predwh,truthreg_mask,turthind,truthwh);
中心点偏移Loff=RegL1Loss(predreg,truthreg_mask,truthind,truthreg);
68个特征点坐标Lhp=RegWeightedL1Loss(predhps,truthhps_mask,truthind,truthdps);人脸六个区域Lhm_hp=FocalLoss(predhm_hp,truthhm_hp);
68个特征点偏移的损失Lhp_offset=RegL1Loss(predhp_offsrt,truthhp_mask,truthind,truthhp_offset);
Lmask=F.binary_cross_entropy(predmask,truthmask);
总损失函数为:
L=Lhm+Lwh+Loff+Lhp+Lhm_hp+Lhp_offset+Lmask
其中,truthind为该区域索引,pred为经过网络结构得到的预测值,truth为标注文件的真实值。
一种深度域人脸稠密特征提取***,包括:
标注模块,用于采集深度域人脸数据集,然后进行预处理,并对深度域人脸数据集进行语义信息标注;将标注后的深度域数据集分为训练集、验证集和测试集;
建立模块,用于基于目标检测网络结构,建立对人脸几何特征有掩膜约束的检测、分割网络模型;
训练模块,用于在训练据集上对网络模型进行训练,回归人脸特征的稠密标注,得到最优网络模型;
测试模块,使用训练完成的网络模型在测试集图像上进行测试。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如上所述的深度域人脸稠密特征提取方法。
与现有技术相比,本发明具有的有益效果:本发明提出一种深度域人脸稠密特征提取方法,通过基于目标检测网络结构建立一个高效的对人脸几何特征有掩膜约束的人脸稠密特征检测、分割网络模型,对深度域人脸图像进行训练,能有效避免因不同环境光照、不同妆容、不同肤色影响人脸检测效果差、定位不准确等问题。
进一步的,对bounding box的分割中对anchor free(无锚点)的检测网络中网络头进行添加能够解决人脸特征检测、分割速度慢等问题。
进一步的,对人脸轮廓、左右眼、鼻子和嘴巴内外轮廓的六个区域的约束,能够解决当人脸部分区域被遮盖或标注信息不全时,仍能准确检测并分割人脸。
附图说明
图1是本发明实施例一种深度域人脸稠密特征提取方法的流程图和示意图。其中,(a)为流程图,(b)为示意图。
图2是本发明实施例人脸68点模型。
图3是本发明人脸检测、分割结果图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
实施例
参照图1中(a)和(b),其示出了本发明实施例所述一种深度域人脸稠密特征提取方法的流程图,本发明包括:
步骤1:采集深度域人脸数据集D{I1,I2,…,Ii},其中,I1为第一张深度人脸图像,I2为第二张深度人脸图像,Ii为第i张深度人脸图像,数据集中包括但不限于人脸的姿态和情绪,然后进行预处理(包括删除采集图像中可用信息较少的图像、对原始图像进行数据增强等),并对深度域人脸数据集中的每张图像进行语义信息标注。
本发明所使用的深度域人脸数据集包含14283张深度图像,其中,train(训练集)占3/5,valid(验证集)和test(测试集)各占1/5,数据集中人脸的姿态和情绪各不相同,根据参照图2对图像进行语义信息标注,标注人脸68个特征点(landmark0-landmark67)中的脸部轮廓full_face(landmark0-landmark26)、鼻子nose(landmark27-landmark35)、右眼right_eye(landmark36-landmark41)、左眼left_eye(landmark42-landmark47)、嘴巴外轮廓out_mouth(landmark48-landmark59)和嘴巴内轮廓in_mouth(landmark60-landmark67)六个区域,生成标注文件。
对标注后的深度域数据集D{I1,I2,…,Ii}进行分类,分为训练集train、验证集valid和测试集test,便于网络模型训练。
步骤2:基于目标检测网络结构,建立对人脸几何特征有掩膜约束Lmask的高效检测、分割网络模型,具体过程如下:
由于所使用的目标检测为速度较快的anchor free检测方法,因此将语义分割网络Mask RCNN中对anchor box的分割改为对bounding box(边界框)的分割,bounding box的坐标为(cx±offx,cy±offy),其中,(cx,cy)和(offx,offy)分别为每个区域的中心点坐标和偏移量,这种方法加快了网络模型对人脸的检测、分割速度;对bounding box的分割的具体过程如下:
anchor free的检测网络中网络头包括hm_head、wh_head、reg_head、hps_head、hm_hp_head和hp_offset_head,在此添加对人脸语义信息有掩膜约束的网络头mask_head,并添加针对人脸68个特征点中的full_face、left_eye、right_eye、nose、in_mouth和out_mouth六个区域的掩膜约束Lmask,损失函数(即掩膜约束Lmask)是计算bounding box的预测值和真实值间的二元交叉熵。
各项损失函数计算为:
人脸六个区域中心点坐标Lhm=FocalLoss(predhm,truthhm);
人脸六个区域bounding box的宽高Lwh
RegL1Loss(predwh,truthreg_mask,truthind,truthwh);
中心点偏移Loff=RegL1Loss(predreg,truthreg_mask,truthind,truthreg);
68个特征点坐标Lhp=RegWeightedL1Loss(predhps,truthhps_mask,truthind,truthhps);人脸六个区域Lhm_hp=FocalLoss(predhm_hp,truthhm_hp);
68个特征点偏移的损失Lhp_offset=RegL1Loss(predhp_offset,truthhp_mask,truthind,truthhp_offset);
Lmask=F.binary_cross_entropy(predmask,truthmask);
总损失函数为:
L=Lhm+Lwh+Loff+Lhp+Lhm_hp+Lhp_offset+Lmask
其中,truthind为该区域索引,pred为经过网络结构得到的预测值,truth为标注文件的真实值。
损失函数:用来衡量模型预测值与真实值之间的差,损失函数越小越好。
损失函数FocalLoss的计算公式为:
其中,α=0.5,为平衡因子,调节正负样本比例,γ=2,用来调节简单样本权重下降速率,y为样本标签。
损失函数RegL1Loss的计算公式为:
其中,n为样本数。
损失函数RegWeighedL1Loss的计算公式为:
二元交叉熵的损失函数F.binary_cross_entropy的计算公式为:
其中,y为样本标签,p(y)指样本y的概率,n为样本数。
步骤3:在训练数据集上对网络模型进行训练,回归人脸特征的稠密标注,得到最优检测模型。
具体的,将训练超参数设置为60epochs,batch size为16,初始学习率设置为1e-2,当epoch为20,40,50时学习率下降10倍,每迭代5个epochs用验证集进行验证,以调整学习率。在该网络下,分别计算各损失函数,再利用优化器Adam对训练集进行训练,使得损失函数最小,得到最优检测模型。
步骤4:使用训练完成的最优检测模型在测试集图像上进行测试,验证对深度域人脸图像的检测和分割效果。
利用训练好的模型对深度域人脸测试数据集中的2856张图像进行检测、分割,测试结果如参照图3所示,结果表明使用本发明所提出的方法能准确提取深度域人脸图像中人脸的几何特征,该方法能有效解决现有技术存在的问题。
本实施例公开了一种深度域人脸稠密特征提取方法,anchor free的设计能对深度域人脸图像进行高效的稠密特征检测和分割,该方法能有效避免因不同环境光照、不同妆容、不同肤色影响人脸检测效果差、定位不准确等问题。
一种深度域人脸稠密特征提取***,包括:
标注模块,用于采集深度域人脸数据集,然后进行预处理,并对深度域人脸数据集进行语义信息标注;将标注后的深度域数据集分为训练集、验证集和测试集;
建立模块,用于基于目标检测网络结构,建立对人脸几何特征有掩膜约束的检测、分割网络模型;
训练模块,用于在训练据集上对网络模型进行训练,回归人脸特征的稠密标注,得到最优网络模型;
测试模块,使用训练完成的网络模型在测试集图像上进行测试。
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如上所述的深度域人脸稠密特征提取方法。
本发明提出了一种深度域人脸稠密特征提取方法,包括采集深度域人脸数据集,对人脸数据集进行语义信息标注;在目标检测网络上添加对人脸几何特征(脸部轮廓、眼睛、鼻子和嘴巴)的掩膜约束,构造高效的检测、分割人脸特征的网络模型;在训练数据集上对网络模型进行训练,回归人脸稠密标注;使用训练完成的模型在测试集图像上进行测试,验证对深度域人脸图像的检测和分割效果。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (5)

1.一种深度域人脸稠密特征提取方法,其特征在于:包括以下步骤:
步骤1:采集深度域人脸数据集,然后进行预处理,并对深度域人脸数据集进行语义信息标注;将标注后的深度域数据集分为训练集、验证集和测试集;其中,进行语义信息标注具体是标注人脸68个特征点中的脸部轮廓、左眼/>、右眼/>、鼻子、嘴巴内轮廓/>和外轮廓/>六个区域;
步骤2:基于目标检测网络结构,建立对人脸几何特征有掩膜约束的检测、分割网络模型;具体过程为:步骤2.1:将语义分割网络Mask RCNN中对anchor box的分割改为对bounding box的分割;
步骤2.2:添加对人脸语义信息有掩膜约束的网络头,得到网络模型;
网络模型的损失函数,包括人脸六个区域中心点坐标、人脸六个区域bounding box的宽高/>、中心点偏移/>、68个特征点坐标/>、人脸六个区域/>和68个特征点偏移的损失/>;对人脸的六个区域的预测bounding box和真实target box计算交叉熵,得到掩膜约束/>;其中,人脸六个区域包括/>、/>、/>、/>和/>六个区域;
步骤3:在训练据集上对网络模型进行训练,回归人脸特征的稠密标注,得到最优网络模型;
步骤4:使用训练完成的网络模型在测试集图像上进行测试。
2. 根据权利要求1所述的一种深度域人脸稠密特征提取方法,其特征在于:对bounding box的分割的具体过程如下:
anchor free的检测网络中网络头包括、/>、/>、/>和/>,在anchor free的检测网络中网络头中添加对人脸语义信息有掩膜约束的网络头/>,以及针对人脸68个特征点中的/>、/>、/>、/>和/>六个区域的掩膜约束/>
3.根据权利要求1所述的一种深度域人脸稠密特征提取方法,其特征在于:
人脸六个区域中心点坐标
人脸六个区域bounding box的宽高
中心点偏移;
68个特征点坐标;
人脸六个区域
68个特征点偏移的损失;
总损失函数为:
其中,为该区域索引,/>为经过网络结构得到的预测值,/>为标注文件的真实值。
4.一种深度域人脸稠密特征提取***,其特征在于,包括:
标注模块,用于采集深度域人脸数据集,然后进行预处理,并对深度域人脸数据集进行语义信息标注;将标注后的深度域数据集分为训练集、验证集和测试集;其中,进行语义信息标注具体是标注人脸68个特征点中的脸部轮廓、左眼/>、右眼/>、鼻子/>、嘴巴内轮廓/>和外轮廓/>六个区域;
建立模块,用于基于目标检测网络结构,建立对人脸几何特征有掩膜约束的检测、分割网络模型;具体过程为:步骤2.1:将语义分割网络Mask RCNN中对anchor box的分割改为对bounding box的分割;
步骤2.2:添加对人脸语义信息有掩膜约束的网络头,得到网络模型;
网络模型的损失函数,包括人脸六个区域中心点坐标、人脸六个区域bounding box的宽高/>、中心点偏移/>、68个特征点坐标/>、人脸六个区域/>和68个特征点偏移的损失/>;对人脸的六个区域的预测bounding box和真实target box计算交叉熵,得到掩膜约束/>;其中,人脸六个区域包括/>、/>、/>、/>和/>六个区域;
训练模块,用于在训练据集上对网络模型进行训练,回归人脸特征的稠密标注,得到最优网络模型;
测试模块,使用训练完成的网络模型在测试集图像上进行测试。
5.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行权利要求1-3中任意一项所述的深度域人脸稠密特征提取方法。
CN202010924020.3A 2020-09-04 2020-09-04 一种深度域人脸稠密特征提取方法、***和存储介质 Active CN112069995B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010924020.3A CN112069995B (zh) 2020-09-04 2020-09-04 一种深度域人脸稠密特征提取方法、***和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010924020.3A CN112069995B (zh) 2020-09-04 2020-09-04 一种深度域人脸稠密特征提取方法、***和存储介质

Publications (2)

Publication Number Publication Date
CN112069995A CN112069995A (zh) 2020-12-11
CN112069995B true CN112069995B (zh) 2024-02-27

Family

ID=73666110

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010924020.3A Active CN112069995B (zh) 2020-09-04 2020-09-04 一种深度域人脸稠密特征提取方法、***和存储介质

Country Status (1)

Country Link
CN (1) CN112069995B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111698B (zh) * 2020-12-30 2022-04-01 无锡乐骐科技股份有限公司 一种基于语义感知损失的人脸标志点检测方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956582A (zh) * 2016-06-24 2016-09-21 深圳市唯特视科技有限公司 一种基于三维数据的人脸识别***
CN105975959A (zh) * 2016-06-14 2016-09-28 广州视源电子科技股份有限公司 基于神经网络的人脸特征提取建模、人脸识别方法及装置
CN107016370A (zh) * 2017-04-10 2017-08-04 电子科技大学 一种基于数据增强的部分遮挡人脸识别方法
KR101986592B1 (ko) * 2019-04-22 2019-06-10 주식회사 펜타게이트 앵커박스 및 cnn 특징 맵을 이용한 차량 번호 인식 장치 및 방법
CN109978754A (zh) * 2017-12-28 2019-07-05 广东欧珀移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN110163207A (zh) * 2019-05-20 2019-08-23 福建船政交通职业学院 一种基于Mask-RCNN船舶目标定位方法及存储设备
CN110298291A (zh) * 2019-06-25 2019-10-01 吉林大学 基于Mask-RCNN的牛脸及牛脸关键点检测方法
CN110599448A (zh) * 2019-07-31 2019-12-20 浙江工业大学 基于MaskScoring R-CNN网络的迁移学习肺部病变组织检测***
CN110852704A (zh) * 2019-10-22 2020-02-28 佛山科学技术学院 基于密集微小人脸识别的考勤方法、***、设备及介质
CN111160269A (zh) * 2019-12-30 2020-05-15 广东工业大学 一种人脸关键点检测方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975959A (zh) * 2016-06-14 2016-09-28 广州视源电子科技股份有限公司 基于神经网络的人脸特征提取建模、人脸识别方法及装置
CN105956582A (zh) * 2016-06-24 2016-09-21 深圳市唯特视科技有限公司 一种基于三维数据的人脸识别***
CN107016370A (zh) * 2017-04-10 2017-08-04 电子科技大学 一种基于数据增强的部分遮挡人脸识别方法
CN109978754A (zh) * 2017-12-28 2019-07-05 广东欧珀移动通信有限公司 图像处理方法、装置、存储介质及电子设备
KR101986592B1 (ko) * 2019-04-22 2019-06-10 주식회사 펜타게이트 앵커박스 및 cnn 특징 맵을 이용한 차량 번호 인식 장치 및 방법
CN110163207A (zh) * 2019-05-20 2019-08-23 福建船政交通职业学院 一种基于Mask-RCNN船舶目标定位方法及存储设备
CN110298291A (zh) * 2019-06-25 2019-10-01 吉林大学 基于Mask-RCNN的牛脸及牛脸关键点检测方法
CN110599448A (zh) * 2019-07-31 2019-12-20 浙江工业大学 基于MaskScoring R-CNN网络的迁移学习肺部病变组织检测***
CN110852704A (zh) * 2019-10-22 2020-02-28 佛山科学技术学院 基于密集微小人脸识别的考勤方法、***、设备及介质
CN111160269A (zh) * 2019-12-30 2020-05-15 广东工业大学 一种人脸关键点检测方法及装置

Also Published As

Publication number Publication date
CN112069995A (zh) 2020-12-11

Similar Documents

Publication Publication Date Title
CN109308476B (zh) 票据信息处理方法、***及计算机可读存储介质
CN112016402B (zh) 基于无监督学习的行人重识别领域自适应方法及装置
CN109919159A (zh) 一种针对边缘图像的语义分割优化方法及装置
CN113762269B (zh) 基于神经网络的中文字符ocr识别方法、***及介质
CN108898138A (zh) 基于深度学习的场景文本识别方法
CN110991258B (zh) 一种人脸融合特征提取方法及***
WO2022218396A1 (zh) 图像处理方法、装置和计算机可读存储介质
CN112069900A (zh) 基于卷积神经网络的票据文字识别方法及***
CN113705579A (zh) 一种视觉显著性驱动的图像自动标注方法
CN111291705B (zh) 一种跨多目标域行人重识别方法
CN114187595A (zh) 基于视觉特征和语义特征融合的文档布局识别方法及***
Jia et al. EMBDN: An efficient multiclass barcode detection network for complicated environments
CN112069995B (zh) 一种深度域人脸稠密特征提取方法、***和存储介质
CN110969101A (zh) 一种基于hog和特征描述子的人脸检测与跟踪方法
CN116597438A (zh) 一种基于Yolov5的改进型水果识别方法及识别***
Liu et al. SLPR: A deep learning based Chinese ship license plate recognition framework
Lin et al. Radical-based extract and recognition networks for Oracle character recognition
CN106980845B (zh) 基于结构化建模的人脸关键点定位方法
CN109145140A (zh) 一种基于手绘轮廓图匹配的图像检索方法及***
CN111062393B (zh) 一种基于谱聚类的自然场景汉字分割方法
CN114708645A (zh) 物件辨识装置及物件辨识方法
CN116543391A (zh) 一种结合图像校正的文本数据采集***及方法
CN113903023B (zh) 基于改进MaskRCNN与SEED框架的自然场景文字检测识别方法
Li Global face pose detection based on an improved PSO-SVM method
CN115527102A (zh) 基于轮廓关键点和注意力机制的鱼类种类识别方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant