CN106803084B - 一种基于端到端循环网络的面部特征点定位方法 - Google Patents

一种基于端到端循环网络的面部特征点定位方法 Download PDF

Info

Publication number
CN106803084B
CN106803084B CN201710120005.1A CN201710120005A CN106803084B CN 106803084 B CN106803084 B CN 106803084B CN 201710120005 A CN201710120005 A CN 201710120005A CN 106803084 B CN106803084 B CN 106803084B
Authority
CN
China
Prior art keywords
face
feature point
model
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710120005.1A
Other languages
English (en)
Other versions
CN106803084A (zh
Inventor
何振梁
阚美娜
张�杰
山世光
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seetatech Beijing Technology Co ltd
Original Assignee
Seetatech Beijing Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seetatech Beijing Technology Co ltd filed Critical Seetatech Beijing Technology Co ltd
Priority to CN201710120005.1A priority Critical patent/CN106803084B/zh
Publication of CN106803084A publication Critical patent/CN106803084A/zh
Application granted granted Critical
Publication of CN106803084B publication Critical patent/CN106803084B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于端到端循环网络的面部特征点定位方法,包括以下步骤:(1)数据准备阶段、(2)端到端的模型设计阶段、(3)模型训练阶段、(4)模型测试,以得到该人脸的面部特征点定位结果的阶段。本发明将内嵌形状信息的深度特征与循环神经网络配合使用,极大地提高了面部特征点定位的精度。此外,本发明使用继承的神经网络特征,模型计算量将会极大减少,在保持较好的面部特征定位精度的条件下,能够达到超实时的面部特征点定位速度。

Description

一种基于端到端循环网络的面部特征点定位方法
技术领域
本发明涉及一种定位方法,尤其涉及一种基于端到端循环网络的面部特征点定位方法。
背景技术
面部特征点定位的主要目标是根据输入的人脸自动定位出面部的关键特征点,比如眼睛、鼻子、嘴巴以及面部轮廓等。该技术广泛应用于人脸识别、表情识别、人脸三维重建以及人脸动画合成等。目前的面部特征点定位方法大多基于深度神经网络框架。主要方法有:
1)基于级联结构或模块划分的由粗到精的面部特征点定位。相关专利:CN105981041A、CN105868769A。其主要技术手段为:利用多级模型级联并以粗到细的方式执行面部特征点定位,逐级精细化面部特征点的位置。问题和缺点:该类方法对大姿态人脸的面部特征点定位不鲁棒,级联或分模块的框架对初始面部特征点的给定较为敏感,一旦初始面部特征点位置离目标位置较远,最终特征点的定位将会离目标有较大偏差;其次,级联的框架在训练过程中比较容易进入较差的局部优化点而导致最终模型性能较差。
2)基于多角度的面部特征点定位方法。相关专利:CN105760836A。其主要技术手段为:将待检测图像输入人脸角度模型进行人脸角度检测,并调用相应角度的面部特征点定位模型进行面部特征点定位。问题和缺点:基于人脸角度的硬分类不一定是最合适面部特征点定位任务的分类方式,而且这种硬分类方法对处于类别边界的样本的面部特征点定位可能不鲁棒。
发明内容
为了解决上述问题中的不足之处,本发明提供了一种基于端到端循环网络的面部特征点定位方法。
为了解决以上技术问题,本发明采用的技术方案是:一种基于端到端循环网络的面部特征点定位方法,包括以下步骤:
(1)数据准备阶段
(1.1)对RGB图像集合中的每一张人脸进行人工面部特征点标注:将所有n个特征点标注记为Sg={Lg_1,Lg_2,…,Lg_n},其中Lg_i=(xg_i,yg_i)表示第i个面部特征点在图像中的坐标;
(1.2)将标注完成的图像集合通过人脸检测器以获得每一张图像中的人脸位置,位置信息为:左上角坐标(x_min,y_min)以及右下角坐标(x_max,y_max);
然后利用左上角以及右下角坐标所形成的矩形区域裁剪出人脸图像,最终获得的N张人脸图像P及其对应的标注Sg,该N个样本组成的集合记为D={(P_1,Sg_1),(P_2,Sg_2),…,(P_N,Sg_N)};
(2)模型设计阶段,端到端的模型设计如下:
(2.1)将整体模型记为M,由两部分组成,分别为深度卷积神经网络A和循环神经网络B,模型输入为人脸图像P,人脸图像边长为d;
(2.2)对输入的人脸图像P,利用深度卷积神经网络A进行特征点向量回归,回归目标为S0={L0_1,L0_2,…,L0_n},其中L0_j=(x0_j,y0_j)表示第j个面部特征点在图像上的坐标;
(2.3)取出网络A某个卷积层输出的深度特征图并记为F,其边长记为fd;
(2.4)继承步骤(2.3)中的深度特征图F并嵌入形状信息St={Lt_1,Lt_2,…,Lt_n},第一次使用的形状信息为S0:以其中一个特征点Lt_i=(xt_i,yt_i)为例,计算该特征点在特征图F处对应的坐标L’t_i=(xt_i*fd/d,yt_i*fd/d),然后在特征图F上以L’t_i为中心获取区域大小为k*k的特征块,并将L’t_1,L’t_2,…,L’t_m对应的m个特征块按列或按行拼接为一个新的特征图,称该新特征图为内嵌形状信息的深度特征SFt;
(2.5)将步骤(2.4)获得的内嵌形状信息的深度特征SFt输入到循环神经网络B以回归面部特征点更新量ΔSt={ΔLt_1,ΔLt_2,…,ΔLt_n},其中ΔLt_i=(Δxt_i,Δyt_i)表示第i个面部特征点的位置更新量,利用ΔSt对St进行更新优化并获得更加精准的面部特征点位置St+1=St+ΔSt;
(2.6)重复步骤(2.4)、(2.5)T次以获得足够精准的面部特征点定位ST;
(2.7)将以上步骤统一到一个整体的端到端的深度神经网络框架中,进行端到端的模型训练;
(3)模型训练阶段
(3.1)将步骤(1.2)获得的带有面部特征点标注的人脸图像集合D分为训练集U和校验集V;
(3.2)将训练集U输入到步骤2设计的端到端的模型M中利用批次随机梯度下降方法进行模型训练,导出信号为特征点标注Sg={Lg_1,Lg_2,…,Lg_n};利用校验集V验证模型训练效果,即当模型在校验集V上获得较好的面部特征点定位精度并且该精度不能随着训练过程再提升时,停止训练;
(3.3)最终训练完成获得模型M’;
(4)模型测试阶段
(4.1)输入图像为包含人脸的图像I;
(4.2)将图像I输入人脸检测器并获得人脸位置,并利用该人脸位置裁剪图像I获得人脸图像P;
(4.3)将人脸图像P输入步骤3.3获得的模型M’中以得到该人脸的面部特征点定位结果。
上述步骤(2.4)中内嵌形状信息的深度特征是通过继承神经网络特征层的特征并嵌入形状相关信息而得到。并且,内嵌形状信息的深度特征可以输入到循环神经网络进一步优化特征点定位结果。
本发明将内嵌形状信息的深度特征与循环神经网络配合使用,极大地提高了面部特征点定位的精度。此外,本发明使用继承的神经网络特征,模型计算量将会极大减少,在保持较好的面部特征定位精度的条件下,能够达到超实时的面部特征点定位速度。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明的实施流程图。
图2是本发明将人脸进行标注完成后的图像。
具体实施方式
如图1所示,本发明具体包括以下步骤:
(1)数据准备阶段
(1.1)对RGB图像集合中的每一张人脸进行人工面部特征点标注:将所有n个特征点标注记为Sg={Lg_1,Lg_2,…,Lg_n}(该集合称为形状),其中Lg_i=(xg_i,yg_i)表示第i个面部特征点在图像中的坐标;
(1.2)将标注完成的图像集合通过人脸检测器以获得每一张图像中的人脸位置,位置信息为:左上角坐标(x_min,y_min)以及右下角坐标(x_max,y_max);
然后利用左上角以及右下角坐标所形成的矩形区域裁剪出人脸图像(即利用该矩形区域内的像素作为人脸图像),最终获得的N张人脸图像P及其对应的标注Sg,该N个样本组成的集合记为D={(P_1,Sg_1),(P_2,Sg_2),…,(P_N,Sg_N)};
(2)模型设计阶段,端到端的模型设计如下:
(2.1)将整体模型记为M,由两部分组成,分别为深度卷积神经网络A和循环神经网络B,模型输入为人脸图像P,人脸图像边长为d;
(2.2)对输入的人脸图像P,利用深度卷积神经网络A进行特征点向量回归,回归目标为S0={L0_1,L0_2,…,L0_n},其中L0_j=(x0_j,y0_j)表示第j个面部特征点在图像上的坐标;
(2.3)取出网络A某个卷积层输出的深度特征图并记为F,其边长记为fd;
(2.4)继承步骤(2.3)中的深度特征图F并嵌入形状信息St={Lt_1,Lt_2,…,Lt_n},(第一次使用的形状信息为S0):以其中一个特征点Lt_i=(xt_i,yt_i)为例,计算该特征点在特征图F处对应的坐标L’t_i=(xt_i*fd/d,yt_i*fd/d),然后在特征图F上以L’t_i为中心获取区域大小为k*k的特征块,并将L’t_1,L’t_2,…,L’t_m对应的m个特征块按列或按行拼接为一个新的特征图,称该新特征图为内嵌形状信息的深度特征SFt;
(2.5)将步骤(2.4)获得的内嵌形状信息的深度特征SFt输入到循环神经网络B以回归面部特征点更新量ΔSt={ΔLt_1,ΔLt_2,…,ΔLt_n},其中ΔLt_i=(Δxt_i,Δyt_i)表示第i个面部特征点的位置更新量,利用ΔSt对St进行更新优化并获得更加精准的面部特征点位置St+1=St+ΔSt;
(2.6)重复步骤(2.4)、(2.5)T次以获得足够精准的面部特征点定位ST;
(2.7)将以上步骤统一到一个整体的端到端的深度神经网络框架中,进行端到端的模型训练;
(3)模型训练阶段
(3.1)将步骤(1.2)获得的带有面部特征点标注的人脸图像集合D分为训练集U和校验集V;
(3.2)将训练集U输入到步骤2设计的端到端的模型M中利用批次随机梯度下降方法进行模型训练,导出信号为特征点标注Sg={Lg_1,Lg_2,…,Lg_n};利用校验集V验证模型训练效果,即当模型在校验集V上获得较好的面部特征点定位精度并且该精度不能随着训练过程再提升时,停止训练;
(3.3)最终训练完成获得模型M’;
(4)模型测试阶段
(4.1)输入图像为包含人脸的图像I;
(4.2)将图像I输入人脸检测器并获得人脸位置,并利用该人脸位置裁剪图像I获得人脸图像P;
(4.3)将人脸图像P输入步骤3.3获得的模型M’中以得到该人脸的面部特征点定位结果。
本发明解决了现有技术中面部特征点定位速度慢并且精度不足的问题,并提出了一种利用内嵌形状信息深度特征的端到端的循环网络面部特征点定位方法及***。其中,内嵌形状信息的深度特征是通继承神经网络特征层的特征并嵌入形状相关信息而得到。该特征可以从神经网络特征层直接继承,或者在原始人脸图像上通过卷积网络学习而得到。利用内嵌形状信息的深度特征可以极大提升面部特征点定位的精度。此外,如果使用继承的神经网络特征,模型计算量将会极大减少,在保持较好的面部特征定位精度的条件下,能够达到超实时的面部特征点定位速度。
本发明内嵌形状信息的深度特征可以输入到循环神经网络进一步优化特征点定位结果。其中,循环神经网络既可以共享网络权重亦可不共享网络权重。其技术效果可配合内嵌形状信息的深度特征逐步优化面部特征点定位结果。此外,本发明端到端的面部特征点定位框架可同时学习人脸形状初始化网络、内嵌形状信息的深度特征与循环神经网络的参数。
上述实施方式并非是对本发明的限制,本发明也并不仅限于上述举例,本技术领域的技术人员在本发明的技术方案范围内所做出的变化、改型、添加或替换,也均属于本发明的保护范围。

Claims (3)

1.一种基于端到端循环网络的面部特征点定位方法,其特征在于,包括以下步骤:
(1)数据准备阶段
(1.1)对RGB图像集合中的每一张人脸进行人工面部特征点标注:将所有n个特征点标注记为Sg={Lg_1,Lg_2,…,Lg_n},其中Lg_i=(xg_i,yg_i)表示第i个面部特征点在图像中的坐标;
(1.2)将标注完成的图像集合通过人脸检测器以获得每一张图像中的人脸位置,位置信息为:左上角坐标(x_min,y_min)以及右下角坐标(x_max,y_max);
然后利用左上角以及右下角坐标所形成的矩形区域裁剪出人脸图像,最终获得的N张人脸图像P及其对应的标注Sg,该N个样本组成的集合记为D={(P_1,Sg_1),(P_2,Sg_2),…,(P_N,Sg_N)};
(2)模型设计阶段,端到端的模型设计如下:
(2.1)将整体模型记为M,由两部分组成,分别为深度卷积神经网络A和循环神经网络B,模型输入为人脸图像P,人脸图像边长为d;
(2.2)对输入的人脸图像P,利用深度卷积神经网络A进行特征点向量回归,回归目标为S0={L0_1,L0_2,…,L0_n},其中L0_j=(x0_j,y0_j)表示第j个面部特征点在图像上的坐标;
(2.3)取出网络A某个卷积层输出的深度特征图并记为F,其边长记为fd;
(2.4)继承步骤(2.3)中的深度特征图F并嵌入形状信息St={Lt_1,Lt_2,…,Lt_n},第一次使用的形状信息为S0:以其中一个特征点Lt_i=(xt_i,yt_i)为例,计算该特征点在特征图F处对应的坐标L’t_i=(xt_i*fd/d,yt_i*fd/d),然后在特征图F上以L’t_i为中心获取区域大小为k*k的特征块,并将L’t_1,L’t_2,…,L’t_m对应的m个特征块按列或按行拼接为一个新的特征图,称该新特征图为内嵌形状信息的深度特征SFt;
(2.5)将步骤(2.4)获得的内嵌形状信息的深度特征SFt输入到循环神经网络B以回归面部特征点更新量ΔSt={ΔLt_1,ΔLt_2,…,ΔLt_n},其中ΔLt_i=(Δxt_i,Δyt_i)表示第i个面部特征点的位置更新量,利用ΔSt对St进行更新优化并获得更加精准的面部特征点位置St+1=St+ΔSt;
(2.6)重复步骤(2.4)、(2.5)T次以获得足够精准的面部特征点定位ST;
(2.7)将以上步骤统一到一个整体的端到端的深度神经网络框架中,进行端到端的模型训练;
(3)模型训练阶段
(3.1)将步骤(1.2)获得的带有面部特征点标注的人脸图像集合D分为训练集U和校验集V;
(3.2)将训练集U输入到步骤2设计的端到端的模型M中利用批次随机梯度下降方法进行模型训练,导出信号为特征点标注Sg={Lg_1,Lg_2,…,Lg_n};利用校验集V验证模型训练效果,即当模型在校验集V上获得较好的面部特征点定位精度并且该精度不能随着训练过程再提升时,停止训练;
(3.3)最终训练完成获得模型M’;
(4)模型测试阶段
(4.1)输入图像为包含人脸的图像I;
(4.2)将图像I输入人脸检测器并获得人脸位置,并利用该人脸位置裁剪图像I获得人脸图像P;
(4.3)将人脸图像P输入步骤3.3获得的模型M’中以得到该人脸的面部特征点定位结果。
2.根据权利要求1所述的基于端到端循环网络的面部特征点定位方法,其特征在于:所述步骤(2.4)中内嵌形状信息的深度特征是通过继承神经网络特征层的特征并嵌入形状相关信息而得到。
3.根据权利要求1或2所述的基于端到端循环网络的面部特征点定位方法,其特征在于:所述内嵌形状信息的深度特征可以输入到循环神经网络进一步优化特征点定位结果。
CN201710120005.1A 2017-03-02 2017-03-02 一种基于端到端循环网络的面部特征点定位方法 Active CN106803084B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710120005.1A CN106803084B (zh) 2017-03-02 2017-03-02 一种基于端到端循环网络的面部特征点定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710120005.1A CN106803084B (zh) 2017-03-02 2017-03-02 一种基于端到端循环网络的面部特征点定位方法

Publications (2)

Publication Number Publication Date
CN106803084A CN106803084A (zh) 2017-06-06
CN106803084B true CN106803084B (zh) 2020-08-07

Family

ID=58988780

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710120005.1A Active CN106803084B (zh) 2017-03-02 2017-03-02 一种基于端到端循环网络的面部特征点定位方法

Country Status (1)

Country Link
CN (1) CN106803084B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107578439B (zh) * 2017-07-19 2020-04-28 创新先进技术有限公司 生成目标图像的方法、装置及设备
CN107491767B (zh) * 2017-08-31 2020-06-12 云从科技集团股份有限公司 端到端的无约束人脸关键点检测方法
CN107808129B (zh) * 2017-10-17 2021-04-16 南京理工大学 一种基于单个卷积神经网络的面部多特征点定位方法
CN108399649B (zh) * 2018-03-05 2021-07-20 中科视拓(北京)科技有限公司 一种基于级联回归网络的单张图片三维人脸重建方法
CN109376593B (zh) * 2018-09-10 2020-12-29 杭州格像科技有限公司 人脸特征点定位方法及***
CN110929792B (zh) * 2019-11-27 2024-05-24 深圳市商汤科技有限公司 图像标注方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731416A (zh) * 2005-08-04 2006-02-08 上海交通大学 快速且精确的人脸特征点定位方法
US8300950B2 (en) * 2008-02-29 2012-10-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and storage medium
CN106022237A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种端到端的卷积神经网络的行人检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10614289B2 (en) * 2010-06-07 2020-04-07 Affectiva, Inc. Facial tracking with classifiers

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731416A (zh) * 2005-08-04 2006-02-08 上海交通大学 快速且精确的人脸特征点定位方法
US8300950B2 (en) * 2008-02-29 2012-10-30 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program, and storage medium
CN106022237A (zh) * 2016-05-13 2016-10-12 电子科技大学 一种端到端的卷积神经网络的行人检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
《Deep Recurrent Regression for Facial Landmark Detection》;Hanjiang Lai,et al.;《Journal & Magazines》;20161031;第28卷(第5期);第1144-1157页 *
《Recurrent neural network for facial landmark detection》;Yu Chen,et al.;《Neurocomputing》;20170105;第219卷;第26-38页 *
《人脸特征点定位算法及其在人脸识别的应用研究》;刘畅翔;《中国优秀硕士学位论文全文数据库 信息科技辑》;20160115(第1期);第I138-819页 *
《基于嘴巴状态约束的人脸特征点定位算法》;师亚亭,等;《智能***学报》;20161031;第11卷(第5期);第576-583页 *

Also Published As

Publication number Publication date
CN106803084A (zh) 2017-06-06

Similar Documents

Publication Publication Date Title
CN106803084B (zh) 一种基于端到端循环网络的面部特征点定位方法
CN107451607B (zh) 一种基于深度学习的典型人物的身份识别方法
CN103824050B (zh) 一种基于级联回归的人脸关键点定位方法
CN107895160A (zh) 人脸检测与识别装置及方法
CN110096925B (zh) 人脸表情图像的增强方法、获取方法和装置
CN106295567A (zh) 一种关键点的定位方法及终端
CN108256431A (zh) 一种手部位置标识方法及装置
CN105139007B (zh) 人脸特征点定位方法和装置
CN109598234A (zh) 关键点检测方法和装置
CN105210085A (zh) 使用最短连线特征的图像标记
CN109886356A (zh) 一种基于三分支神经网络的目标追踪方法
CN108921057A (zh) 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置
CN114279433B (zh) 地图数据自动化生产方法、相关装置及计算机程序产品
CN108256454B (zh) 一种基于cnn模型的训练方法、人脸姿态估测方法及装置
CN111814573A (zh) 一种人脸信息的检测方法、装置、终端设备及存储介质
CN112597850B (zh) 一种身份识别方法及装置
CN112819008B (zh) 实例检测网络的优化方法、装置、介质及电子设备
CN110852257A (zh) 一种人脸关键点的检测方法、装置及存储介质
CN111695431A (zh) 一种人脸识别方法、装置、终端设备及存储介质
CN110689000A (zh) 一种基于生成复杂环境下车牌样本的车辆车牌识别方法
CN112699834A (zh) 交通标识检测方法、装置、计算机设备和存储介质
CN110555339A (zh) 一种目标检测方法、***、装置及存储介质
CN107729827A (zh) 一种人脸特征点定位方法及装置
CN109753922A (zh) 基于稠密卷积神经网络的仿人机器人表情识别方法
CN108549899A (zh) 一种图像识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant