CN111382612A - 动物面部检测方法及装置 - Google Patents

动物面部检测方法及装置 Download PDF

Info

Publication number
CN111382612A
CN111382612A CN201811625637.4A CN201811625637A CN111382612A CN 111382612 A CN111382612 A CN 111382612A CN 201811625637 A CN201811625637 A CN 201811625637A CN 111382612 A CN111382612 A CN 111382612A
Authority
CN
China
Prior art keywords
animal face
image
animal
face
face detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811625637.4A
Other languages
English (en)
Inventor
孙克强
王权
刘庭皓
钱晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN201811625637.4A priority Critical patent/CN111382612A/zh
Publication of CN111382612A publication Critical patent/CN111382612A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本公开是关于动物面部检测方法及装置。所述方法包括:获取动物面部图像;将所述动物面部图像输入至动物面部检测网络中,经所述动物面部检测网络输出所述动物面部图像中的面部关键点;其中,所述动物面部检测网络利用包含多个动物面部样本图像的样本图像集训练得到,所述动物面部样本图像被设置为从包含动物面部的原始图像中截取得到,所述动物面部样本图像的图像截取中心点高于所述原始图像中动物面部的中心点。利用本公开提供的实施例,可以快速准确地识别出动物面部图像中的面部关键点。

Description

动物面部检测方法及装置
技术领域
本公开涉及计算机视觉技术领域,尤其涉及一种动物面部检测方法及装置。
背景技术
随着社会文明和经济水平的快速发展,人们对于宠物的关爱程度也在逐渐提升。无论从身体健康,还是心理健康、安全等方面,人们也越来越愿意花费时间与金钱去改善宠物的生活环境。因此,目前市场上出现一些面向宠物的智能化产品,以助于人们更好地关爱宠物。
动物面部检测技术对于数量庞大的宠物用户是很受欢迎的,动物面部检测技术有助于实现动物面部验证,而动物面部验证可以应用于宠物门禁、宠物身份认证等应用场景,帮助宠物用户管理宠物的健康信息和安全信息等。但是,相关技术中还没有能够准确检测动物面部的技术。
因此,相关技术中亟需一种快速、准确的动物面部检测技术。
发明内容
为克服相关技术中存在的问题,本公开提供一种动物面部检测方法及装置。
根据本公开实施例的第一方面,提供一种动物面部检测方法,包括:
获取动物面部图像;
将所述动物面部图像输入至动物面部检测网络中,经所述动物面部检测网络输出所述动物面部图像中的面部关键点;其中,所述动物面部检测网络利用包含多个动物面部样本图像的样本图像集训练得到,所述动物面部样本图像被设置为从包含动物面部的原始图像中截取得到,所述动物面部样本图像的图像截取中心点高于所述原始图像中动物面部的中心点。
本公开的实施例提供的技术方案可以包括以下有益效果:本公开各个实施例提供的动物面部检测方法,可以从包含动物面部的图像中截取以所述动物面部为中心的动物面部样本图像,并将所述动物面部作为动物面部检测网络的训练样本。在一些需要对动物面部进行精确识别的场景中,在训练动物面部检测网络是则需要足够的动物面部样本图像。利用本公开的各个实施例方法,可以对只要包含动物面部的图像进行处理,这些图像中可以不止包含动物面部。通过上述方式可以为训练动物面部检测网络提供足够的样本数据。
可选的,在本公开的一个实施例中,所述动物面部样本图像被设置为按照下述方式从所述原始图像中截取得到:
确定所述原始图像中所述动物面部的多个特征点;
根据所述多个特征点的位置,计算出图像截取中心点,其中,计算得到的所述图像截取中心点相对于所述动物面部的中心点上移;
以所述图像截取中心点为中心,截取以所述动物面部为中心的所述动物面部样本图像。
本公开的实施例提供的技术方案可以包括以下有益效果:通过本实施例的图像截取方式,可以使得截取的动物面部样本图像中包含动物的整个面部,尤其针对立耳动物,所述动物面部样本图像可以包括动物的耳朵部分。
可选的,在本公开的一个实施例中,所述根据所述多个特征点的位置,计算出图像截取中心点包括:
分别获取所述多个特征点的坐标值;
基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值。
本公开的实施例提供的技术方案可以包括以下有益效果:基于多个特征点的坐标值,可以准确计算得到图像截取中心点的坐标值。
可选的,在本公开的一个实施例中,所述基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值包括:
计算所述多个特征点的坐标值的平均值;
将所述平均值作为图像截取中心点的坐标值。
本公开的实施例提供的技术方案可以包括以下有益效果:利用特征点坐标值的平均值,可以快速、准确地计算得到图像截取中心点的坐标值。
可选的,在本公开的一个实施例中,所述多个特征点包括所述动物面部中的耳尖、眼尾、嘴角、脸颊最宽处。
本公开的实施例提供的技术方案可以包括以下有益效果:选取动物面部中的一些特殊点,可以使得计算得到的图像截取中心点高于动物面部的中心点。
可选的,在本公开的一个实施例中,所述获取动物面部图像包括:
获取待处理图像,从所述待处理图像中截取出动物面部图像。
本公开的实施例提供的技术方案可以包括以下有益效果:扩展动物面部图像的应用场景,即也可以从包含动物面部的待处理图像中截取出动物面部图像。
可选的,在本公开的一个实施例中,所述动物面部检测网络被设置为按照下述方式训练得到:
获取多个包含动物面部的原始图像,并从所述原始图像中截取出动物面部样本图像;
分别在所述动物面部样本图像中标注多个面部关键点,所述多个面部关键点分别用于确定动物面部中不同部位的位置;
将标注有所述多个面部关键点的动物面部样本图像输入至动物面部检测网络中,生成预测结果;
基于所述预测结果与所述多个面部关键点之间的差异,对所述网络参数进行迭代调整,直至所述差异满足预设要求。
本公开的实施例提供的技术方案可以包括以下有益效果:基于神经网络训练得到所述动物面部检测网络。
可选的,在本公开的一个实施例中,所述样本图像集中还包括多个衍生图像,所述衍生图像被设置为对所述动物面部样本图像执行下述至少一种操作转换得到:平移、旋转、放大、缩小、增加背景噪声。
本公开的实施例提供的技术方案可以包括以下有益效果:增加样本图像集中的样本数量,提高所述动物面部检测网络的检测准确性。
可选的,在本公开的一个实施例中,所述样本图像集中还包括多个生成图像,所述生成图像被设置为将多个所述动物面部样本图像作为样本数据输入至对抗生成网络中,经所述对抗生成网络生成的图像。
本公开的实施例提供的技术方案可以包括以下有益效果:增加样本图像集中的样本数量,提高所述动物面部检测网络的检测准确性。
可选的,在本公开的一个实施例中,所述样本图像集中的样本图像还包括动物面部的边缘信息,所述边缘信息被设置为利用边缘检测算法对所述样本图像检测得到。
本公开的实施例提供的技术方案可以包括以下有益效果:减少背景噪声对所述动物面部检测网络的影响。
可选的,在本公开的一个实施例中,所述方法还包括:
基于所述面部关键点,在所述动物面部图像中添加装饰图像。
本公开的实施例提供的技术方案可以包括以下有益效果:将检测出面部关键点的动物面部图像应用于动物装饰的应用场景,满足用户的需求。
可选的,在本公开的一个实施例中,所述动物面部图像、所述动物面部样本图像包括下述类别动物的动物面部图像:猫科动物、犬科动物、兔科动物、鼠类动物。
本公开的实施例提供的技术方案可以包括以下有益效果:本公开技术方案可以应用于多种动物的面部关键点检测中。
根据本公开实施例的第二方面,提供一种动物面部检测装置,包括:
图像获取模块,用于获取动物面部图像;
面部检测模块,用于将所述动物面部图像输入至动物面部检测网络中,经所述动物面部检测网络输出所述动物面部图像中的面部关键点;其中,所述动物面部检测网络利用包含多个动物面部样本图像的样本图像集训练得到,所述动物面部样本图像被设置为从包含动物面部的原始图像中截取得到,所述动物面部样本图像的图像截取中心点高于所述原始图像中动物面部的中心点。
可选的,在本公开的一个实施例中,所述动物面部样本图像被设置为按照下述方式从所述原始图像中截取得到:
确定所述原始图像中所述动物面部的多个特征点;
根据所述多个特征点的位置,计算出图像截取中心点,其中,计算得到的所述图像截取中心点相对于所述动物面部的中心点上移;
以所述图像截取中心点为中心,截取以所述动物面部为中心的所述动物面部样本图像。
可选的,在本公开的一个实施例中,所述根据所述多个特征点的位置,计算出图像截取中心点包括:
分别获取所述多个特征点的坐标值;
基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值。
可选的,在本公开的一个实施例中,所述基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值包括:
计算所述多个特征点的坐标值的平均值;
将所述平均值作为图像截取中心点的坐标值。
可选的,在本公开的一个实施例中,所述多个特征点包括所述动物面部中的耳尖、眼尾、嘴角、脸颊最宽处。
可选的,在本公开的一个实施例中,所述图像获取模块包括:
图像获取子模块,用于获取待处理图像,从所述待处理图像中截取出动物面部图像。
可选的,在本公开的一个实施例中,所述动物面部检测网络被设置为按照下述方式训练得到:
获取多个包含动物面部的原始图像,并从所述原始图像中截取出动物面部样本图像;
分别在所述动物面部样本图像中标注多个面部关键点,所述多个面部关键点分别用于确定动物面部中不同部位的位置;
将标注有所述多个面部关键点的动物面部样本图像输入至动物面部检测网络中,生成预测结果;
基于所述预测结果与所述多个面部关键点之间的差异,对所述网络参数进行迭代调整,直至所述差异满足预设要求。
可选的,在本公开的一个实施例中,所述样本图像集中还包括多个衍生图像,所述衍生图像被设置为对所述动物面部样本图像执行下述至少一种操作转换得到:平移、旋转、放大、缩小、增加背景噪声。
可选的,在本公开的一个实施例中,所述样本图像集中还包括多个生成图像,所述生成图像被设置为将多个所述动物面部样本图像作为样本数据输入至对抗生成网络中,经所述对抗生成网络生成的图像。
可选的,在本公开的一个实施例中,所述样本图像集中的样本图像还包括动物面部的边缘信息,所述边缘信息被设置为利用边缘检测算法对所述样本图像检测得到。
可选的,在本公开的一个实施例中,所述装置还包括:
装饰模块,用于基于所述面部关键点,在所述动物面部图像中添加装饰图像。
可选的,在本公开的一个实施例中,所述动物面部图像、所述动物面部样本图像包括下述类别动物的动物面部图像:猫科动物、犬科动物、兔科动物、鼠类动物。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行上述的动物面部检测方法。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行上述的动物面部检测方法。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的动物面部检测方法的方法流程图。
图2是根据一示例性实施例示出的动物面部检测方法的方法流程图。
图3是根据一示例性实施例示出的一种场景示意图。
图4是根据一示例性实施例示出的一种场景示意图。
图5是根据一示例性实施例示出的一种场景示意图。
图6是根据一示例性实施例示出的动物面部检测方法的方法流程图。
图7是根据一示例性实施例示出的动物面部检测装置的模块结构示意图。
图8是根据一示例性实施例示出的装置模块图。
图9是根据一示例性实施例示出的装置模块图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和装置的例子。
为了方便本领域技术人员理解本公开实施例提供的技术方案,下面先对技术方案实现的技术环境进行说明。
在本公开的一个场景示例中,利用带有美颜装饰功能的拍照APP给宠物(如猫咪、狗狗、仓鼠、兔子)拍照时,将安装该拍照APP的拍照设备(如智能手机)的摄像头对着宠物的脸部,该拍照APP可以自动识别出宠物的脸部关键点。基于该脸部关键点,可以在拍照设备显示的宠物图像上设置装饰小图像。例如,在宠物的头部装饰帽子、蝴蝶结,在脸颊上装饰腮红,在眼睛上装饰眼镜,在下巴下面装饰围巾、铃铛等等。用户按下拍照按钮,可以捕捉到带有装饰的宠物脸部图像。对于用户来说,极大地增加了与宠物之间互动的乐趣感。
由此可见,在上述应用场景中,准确地识别出宠物的脸部关键点是比较重要的环节。若识别出错误的脸部关键点或者识别不出关键点,则会导致拍照APP中脸部装饰功能无法实现,或者将装饰物装饰到错误的位置,都将导致较差的用户体验感,严重时导致该拍照APP的用户流失。
在本公开的实施例中,可以利用动物面部检测网络确定动物面部中的关键点。所述动物面部检测网络可以利用多个标注有面部关键点的动物面部样本图像作为训练样本训练得到。可以发现,在现实生活中,利用美颜功能拍照时,大部分时候只将脸部放置于拍照框中。因此,获取多个动物面部样本图像作为样本数据是训练得到所述动物面部检测网络的必要步骤。但是,动物面部图像并不如人脸图像那么丰富,很多有关动物的图像大部分是动物的全身照。因此,如何从这些已有的动物图像中获取足够的训练样本,是比较重要的问题。
基于类似于上文所述的实际技术需求,本公开提供的动物面部检测方法可以从已有的包含动物面部的图像中获取用于训练动物面部检测网络的训练样本,为训练得到准确的动物面部检测网络提供足够的样本数据。
下面结合附图1对本公开所述的动物面部检测方法进行详细的说明。图1是本公开提供的动物面部检测方法的一种实施例的方法流程图。虽然本公开提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑性上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本公开实施例提供的执行顺序。
具体的,本公开提供的动物面部检测方法的一种实施例如图1所示,所述方法可以包括:
S101:获取动物面部图像。
S103:将所述动物面部图像输入至动物面部检测网络中,经所述动物面部检测网络输出所述动物面部图像中的面部关键点;其中,所述动物面部检测网络利用包含多个动物面部样本图像的样本图像集训练得到,所述动物面部样本图像被设置为从包含动物面部的原始图像中截取得到,所述动物面部样本图像的图像截取中心点高于所述原始图像中动物面部的中心点。
本公开实施例中,所述动物面部图像可以包括以动物面部为中心的图像。在一个实施例中,所述动物面部图像可以包括从待识别图像中截取的图像。
本公开的实施例中,在训练所述动物面部检测网络的过程中,可以获取到包含动物面部的原始图像。所述原始图像例如可以包括动物的全身图像、带有动物面部的远景图像、近景图像、动物面部位于背景物(如草丛、被子、窗户等)中的图像等等。所述原始图像可以利用摄像机捕捉,还可以从网络中、标准图像库或者其他第三方图像库中获取,本公开对于所述原始图像的获取方式不做限制。另外,为了适应所述动物面部的姿态,可以包括正面、侧面、头部仰视、俯视等多种姿态的原始图像,本公开在此不做限制。
本公开实施例中,为了适应一些基于动物面部图像的应用场景,可以从所述原始图像中提取出动物面部样本图像。在很多基于动物面部样本图像的应用场景中,无论动物面部的姿态如何,都是将动物面部作为动物面部样本图像的中心,因此,在本实施例中,截取的动物面部样本图像可以以所述动物面部为中心。
动物面部与人脸的不同在于,人脸中各个部位均比较集中,但是动物面部的部位没那么集中,尤其是耳朵部位,与其他部位的位置关系比较分散。此类动物例如可以包括下述类别的动物:猫科动物、犬科动物、兔科动物、鼠类动物等等。基于此,如图2所示,在本公开的一个实施例中,所述动物面部样本图像被设置为按照下述方式从所述原始图像中截取得到:
S201:确定所述原始图像中所述动物面部的多个特征点。
S203:根据所述多个特征点的位置,计算出图像截取中心点,其中,计算得到的所述图像截取中心点相对于所述动物面部的中心点上移。
S205:以所述图像截取中心点为中心,截取以所述动物面部为中心的所述动物面部样本图像。
在本公开实施例中,可以所述原始图像的所述动物面部中确定多个特征点。然后,根据所述多个特征点的位置,计算出图像截取中心点,其中,计算得到的所述图像截取中心点相对于所述动物面部的中心点上移。基于上述的技术需求,动物面部中各个部位比较分散,尤其是耳朵部位。若要使得所述动物面部(包括位置较高的耳朵)位于所述动物面部样本图像的中心位置,则需要截取的所述动物面部样本图像的中心点位于所述动物面部的中心点之上,否则可能导致截取到的动物面部样本图像中缺失部分的耳朵部位。根据经验可知,所述动物面部的中心点往往位于动物面部中鼻尖上方一点的位置处。在一个实施例中,所述动物面部的中心点可以利用动物面部中全部关键点计算得到,结合附图3所示,所述全部关键点例如可以包括动物面部的耳尖、耳根、眼角、眼尾、鼻尖、嘴角、上唇中心、下唇中心、下巴最低点、脸颊最宽处等多个关键点。基于此,在一个实施例中,动物面部的中心点的坐标位置(xc1,yc1)可以利用下述公式计算得到:
Figure BDA0001927928860000081
其中,N为动物面部中全部关键点的数量,(xi,yi)为所述关键点的坐标位置。
在本公开的一个实施例中,所述多个特征点可以包括从所述动物面部中全部关键点中选取的部分关键点,结合图4所示,所述多个特征点可以包括所述动物面部中的耳尖、眼尾、嘴角、脸颊最宽处。所述图像截取中心点的坐标位置(xc2,yc2)可以利用获取的所述多个特征点的坐标值计算得到,在一个实施例中,可以包括所述多个特征点的坐标值的平均值,表达公式可以为:
Figure BDA0001927928860000091
其中,M为动物面部中所述特征点的数量,(xi,yi)为所述特征点的坐标位置。
例如,如图5所示,利用上述公式(2)计算图4中特征点坐标值的平均值所在的位置为图5中的O点。在本公开的实施例中,在确定所述图像截取中心点之后,可以以所述图像截取中心点为中心,截取以所述动物面部为中心的动物面部样本图像。在一个示例中,基于上述公式(2),可以确定所述动物面部样本图像的左上角和右下角的横纵坐标分别为:
Figure BDA0001927928860000092
Figure BDA0001927928860000093
Figure BDA0001927928860000094
Figure BDA0001927928860000095
其中,L为所述动物面部样本图像的预定义边长。如图5所示,可以利用上述方式截取到边长为L的动物面部样本图像。
需要说明的是,所述多个特征点的选取不限于上述方式,若可以实现计算得到的图像截取中心点位于动物面部中心之上,且可以使得截取的动物面部样本图像包含全部动物面部部位,并将动物面部作为所述动物面部样本图像的中心的方式,均属于本公开实施例所保护的范围。所述图像截取中心点的计算方式也不限于上述方式,例如还可以给所述多个特征点分别设置权重值,再基于所述多个特征点的坐标值以及权重值计算得到所述图像截取中心点的坐标值。另外,以所述图像截取中心点为中心截取所述动物面部样本图像的方式不限于上述方式,例如,还可以截取到长方形、圆形、椭圆形等多种形状的图像,本公开在此不做限制。
本实施例中,所述多个特征点的布局上可以增加动物耳朵的权重,使得图像截取中心点位于动物面部中心的上方。因此,基于所述图像截取中心点截取的动物面部样本图像,可以完全包含动物耳朵等全部动物面部部位,并使得整个动物面部位于所述动物面部样本图像的中心,符合宠物装饰拍照等应用场景。另外,通过上述公式(2)计算得到的图像截取中心点,即使在宠物处于侧脸姿态时,截取的动物面部样本图像仍然可以以动物面部为中心,且包含耳朵等全部动物面部部位。
在本公开的一个实施例中,在获取到所述动物面部样本图像之后,可以将包含所述动物面部样本图像的样本图像集作为所述动物面部检测网络的训练样本,所述动物面部检测网络用于识别动物面部中的面部关键点。如图6所示,在一个实施例中,所述动物面部检测网络可以被设置为按照下述方式训练得到:
S601:获取多个包含动物面部的原始图像,并从所述原始图像中截取出动物面部样本图像。
S603:分别在所述动物面部样本图像中标注多个面部关键点,所述多个面部关键点分别用于确定动物面部中不同部位的位置。
S605:将标注有所述多个面部关键点的动物面部样本图像输入至动物面部检测网络中,生成预测结果。
S607:基于所述预测结果与所述多个面部关键点之间的差异,对所述网络参数进行迭代调整,直至所述差异满足预设要求。
本实施例中,将所述动物面部样本图像作为训练样本训练所述动物面部检测网络的过程中,可以在所述动物面部样本图像中标注多个面部关键点,所述多个面部关键点可以分别用于确定所述动物面部中不同部位的位置。在一个实施例中,所述多个面部关键点可以包括所述全部关键点,如图3所示的猫咪图像,例如可以包括动物面部的耳尖、耳根、眼角、眼尾、鼻尖、嘴角、上唇中心、下唇中心、下巴最低点、脸颊最宽处等多个关键点。在标注所述多个面部关键点之后,可以将标注所述多个面部关键点的所述动物面部样本图像输入至动物面部检测网络中,生成预测结果。所述预测结果可以包括所述动物面部检测网络识别出的多个预测面部关键点。由于标注的所述多个面部关键点可以作为训练过程的监督信息,因此,基于所述预测结果与所述多个面部关键点之间的差异,对所述动物面部检测网络中的网络参数进行迭代调整,直至所述差异满足预设要求。需要说明的是,本公开的所述动物面部检测网络可以基于有监督的机器学习方法,所述机器学习可以包括K近邻、决策树、朴素贝叶斯、逻辑回归、深度神经网络等,本公开对于所述动物面部检测网络的训练方式不做限制。
由于所述动物面部检测网络的检测精度往往依赖于较多的训练样本,但是动物面部样本图像的样本数量较少,较难以获取。因此,可以基于已有的动物面部样本图像扩充所述样本图像集中的样本数量。在本公开的一个实施例中,所述样本图像集中还包括多个衍生图像,所述衍生图像被设置为对所述动物面部样本图像执行下述至少一种操作转换得到:平移、旋转、放大、缩小、增加背景噪声。然后,可以将所述动物面部样本图像和多个所述衍生图像一起作为动物面部检测网络的训练样本,训练得到所述动物面部检测网络。具体的训练方式可以参考上述实施例,本公开在此不再赘述。
在本公开的另一种实施例中,所述样本图像集中还包括多个生成图像,所述生成图像被设置为将多个所述动物面部样本图像作为样本数据输入至对抗生成网络(GAN)中,经所述对抗生成网络生成的图像。在本实施例中,可以将多个所述动物面部样本图像作为样本数据,输入至对抗生成网络中,经所述GAN生成多个生成图像。由于GAN包含生成模型(Generative Model)和判别模型(Discriminative Model),因此,可以生成到比较真实的动物面部样本图像。因此,通过这种方式,可以基于已有的少量的动物面部样本图像,生成更多的样本数据。
在本公开的一个实施例中,由于在猫咪脸部的结构特征,例如猫咪耳朵为距离脸部其他部位较远的点,导致动物面部样本图像中具有较多的背景噪声。因此,动物面部进行边缘提取,减少背景噪声对所述动物面部检测网络的影响,基于此,所述样本图像集中的样本图像还包括动物面部的边缘信息,所述边缘信息被设置为利用边缘检测算法对所述样本图像检测得到。
本实施例中,所述边缘检测算法可以包括图像滤波、图像检测、图像检测、图像定位中的至少一种,所利用的边缘检测算子可以包括差分边缘检测、Roborts算子、Sobel算子、Prewitt算子、Kirsch算子、Laplace算子中的一种,本公开对于边缘检测算法不做限制。
本公开实施例中,将所述动物面部图像输入至所述动物面部检测网络中之后,经所述动物面部检测网络输出所述动物面部图像中的面部关键点。在一个示例中,所述动物面部检测网络可以作为一个模块设置于多种应用中,例如设置于具有摄像功能的电子产品中。在一个典型的应用场景中,可以将所述动物面部检测网络设置于摄像APP中。所述动物面部检测网络可以对拍摄完成或者正在拍摄的待识别动物面部样本图像进行计算处理,确定出所述待识别动物面部样本图像中动物面部的面部关键点。
在本公开的一个实施例中,还可以基于所述面部关键点,在所述待识别动物面部样本图像中添加装饰图像。
本公开各个实施例提供的动物面部检测方法,可以从包含动物面部的图像中截取以所述动物面部为中心的动物面部样本图像,并将所述动物面部作为动物面部检测网络的训练样本。在一些需要对动物面部进行精确识别的场景中,在训练动物面部检测网络是则需要足够的动物面部样本图像。利用本公开的各个实施例方法,可以对只要包含动物面部的图像进行处理,这些图像中可以不止包含动物面部。通过上述方式可以为训练动物面部检测网络提供足够的样本数据。
图7示出根据本公开实施例的动物面部检测装置700的框图,如图7所示,所述装置700包括:
图像获取模块701,用于获取动物面部图像;
面部检测模块703,用于将所述动物面部图像输入至动物面部检测网络中,经所述动物面部检测网络输出所述动物面部图像中的面部关键点;其中,所述动物面部检测网络利用包含多个动物面部样本图像的样本图像集训练得到,所述动物面部样本图像被设置为从包含动物面部的原始图像中截取得到,所述动物面部样本图像的图像截取中心点高于所述原始图像中动物面部的中心点。
可选的,在本公开的一个实施例中,所述动物面部样本图像被设置为按照下述方式从所述原始图像中截取得到:
确定所述原始图像中所述动物面部的多个特征点;
根据所述多个特征点的位置,计算出图像截取中心点,其中,计算得到的所述图像截取中心点相对于所述动物面部的中心点上移;
以所述图像截取中心点为中心,截取以所述动物面部为中心的所述动物面部样本图像。
可选的,在本公开的一个实施例中,所述根据所述多个特征点的位置,计算出图像截取中心点包括:
分别获取所述多个特征点的坐标值;
基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值。
可选的,在本公开的一个实施例中,所述基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值包括:
计算所述多个特征点的坐标值的平均值;
将所述平均值作为图像截取中心点的坐标值。
可选的,在本公开的一个实施例中,所述多个特征点包括所述动物面部中的耳尖、眼尾、嘴角、脸颊最宽处。
可选的,在本公开的一个实施例中,所述图像获取模块包括:
图像获取子模块,用于获取待处理图像,从所述待处理图像中截取出动物面部图像。
可选的,在本公开的一个实施例中,所述动物面部检测网络被设置为按照下述方式训练得到:
获取多个包含动物面部的原始图像,并从所述原始图像中截取出动物面部样本图像;
分别在所述动物面部样本图像中标注多个面部关键点,所述多个面部关键点分别用于确定动物面部中不同部位的位置;
将标注有所述多个面部关键点的动物面部样本图像输入至动物面部检测网络中,生成预测结果;
基于所述预测结果与所述多个面部关键点之间的差异,对所述网络参数进行迭代调整,直至所述差异满足预设要求。
可选的,在本公开的一个实施例中,所述样本图像集中还包括多个衍生图像,所述衍生图像被设置为对所述动物面部样本图像执行下述至少一种操作转换得到:平移、旋转、放大、缩小、增加背景噪声。
可选的,在本公开的一个实施例中,所述样本图像集中还包括多个生成图像,所述生成图像被设置为将多个所述动物面部样本图像作为样本数据输入至对抗生成网络中,经所述对抗生成网络生成的图像。
可选的,在本公开的一个实施例中,所述样本图像集中的样本图像还包括动物面部的边缘信息,所述边缘信息被设置为利用边缘检测算法对所述样本图像检测得到。
可选的,在本公开的一个实施例中,所述装置还包括:
装饰模块,用于基于所述面部关键点,在所述动物面部图像中添加装饰图像。
可选的,在本公开的一个实施例中,所述动物面部图像、所述动物面部样本图像包括下述类别动物的动物面部图像:猫科动物、犬科动物、兔科动物、鼠类动物。
本公开实施例还提出一种电子设备,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为上述各个实施例所述的装置。
所述电子设备可以被提供为终端、服务器或其它形态的设备。
图8是根据一示例性实施例示出的一种电子设备800的框图。例如,电子设备800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图8,电子设备800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制电子设备800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的装置的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在电子设备800的操作。这些数据的示例包括用于在电子设备800上操作的任何应用程序或装置的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为电子设备800的各种组件提供电力。电源组件806可以包括电源管理***,一个或多个电源,及其他与为电子设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述电子设备800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当电子设备800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当电子设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为电子设备800提供各个方面的状态评估。例如,传感器组件814可以检测到电子设备800的打开/关闭状态,组件的相对定位,例如所述组件为电子设备800的显示器和小键盘,传感器组件814还可以检测电子设备800或电子设备800一个组件的位置改变,用户与电子设备800接触的存在或不存在,电子设备800方位或加速/减速和电子设备800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于电子设备800和其他设备之间有线或无线方式的通信。电子设备800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,电子设备800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述装置。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器804,上述计算机程序指令可由电子设备800的处理器820执行以完成上述装置。
图9是根据一示例性实施例示出的一种电子设备1900的框图。例如,电子设备1900可以被提供为一服务器。参照图9,电子设备1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述装置。
电子设备1900还可以包括一个电源组件1926被配置为执行电子设备1900的电源管理,一个有线或无线网络接口1950被配置为将电子设备1900连接到网络,和一个输入输出(I/O)接口1958。电子设备1900可以操作基于存储在存储器1932的操作***,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种非易失性计算机可读存储介质,例如包括计算机程序指令的存储器1932,上述计算机程序指令可由电子设备1900的处理组件1922执行以完成上述装置。
本公开可以是***、装置和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本公开的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本公开操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向物体的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本公开的各个方面。
这里参照根据本公开实施例的装置、装置(***)和计算机程序产品的流程图和/或框图描述了本公开的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本公开的多个实施例的***、装置和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上已经描述了本公开的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术的改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。

Claims (10)

1.一种动物面部检测方法,其特征在于,包括:
获取动物面部图像;
将所述动物面部图像输入至动物面部检测网络中,经所述动物面部检测网络输出所述动物面部图像中的面部关键点;其中,所述动物面部检测网络利用包含多个动物面部样本图像的样本图像集训练得到,所述动物面部样本图像被设置为从包含动物面部的原始图像中截取得到,所述动物面部样本图像的图像截取中心点高于所述原始图像中动物面部的中心点。
2.根据权利要求1所述的动物面部检测方法,其特征在于,所述动物面部样本图像被设置为按照下述方式从所述原始图像中截取得到:
确定所述原始图像中所述动物面部的多个特征点;
根据所述多个特征点的位置,计算出图像截取中心点,其中,计算得到的所述图像截取中心点相对于所述动物面部的中心点上移;
以所述图像截取中心点为中心,截取以所述动物面部为中心的所述动物面部样本图像。
3.根据权利要求2所述的动物面部检测方法,其特征在于,所述根据所述多个特征点的位置,计算出图像截取中心点包括:
分别获取所述多个特征点的坐标值;
基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值。
4.根据权利要求3所述的动物面部检测方法,其特征在于,所述基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值包括:
计算所述多个特征点的坐标值的平均值;
将所述平均值作为图像截取中心点的坐标值。
5.一种动物面部检测装置,其特征在于,包括:
图像获取模块,用于获取动物面部图像;
面部检测模块,用于将所述动物面部图像输入至动物面部检测网络中,经所述动物面部检测网络输出所述动物面部图像中的面部关键点;其中,所述动物面部检测网络利用包含多个动物面部样本图像的样本图像集训练得到,所述动物面部样本图像被设置为从包含动物面部的原始图像中截取得到,所述动物面部样本图像的图像截取中心点高于所述原始图像中动物面部的中心点。
6.根据权利要求5所述的动物面部检测装置,其特征在于,所述动物面部样本图像被设置为按照下述方式从所述原始图像中截取得到:
确定所述原始图像中所述动物面部的多个特征点;
根据所述多个特征点的位置,计算出图像截取中心点,其中,计算得到的所述图像截取中心点相对于所述动物面部的中心点上移;
以所述图像截取中心点为中心,截取以所述动物面部为中心的所述动物面部样本图像。
7.根据权利要求6所述的动物面部检测装置,其特征在于,所述根据所述多个特征点的位置,计算出图像截取中心点包括:
分别获取所述多个特征点的坐标值;
基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值。
8.根据权利要求7所述的动物面部检测装置,其特征在于,所述基于所述多个特征点的坐标值计算得到图像截取中心点的坐标值包括:
计算所述多个特征点的坐标值的平均值;
将所述平均值作为图像截取中心点的坐标值。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:执行权利要求1至4中任意一项所述的动物面部检测方法。
10.一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行权利要求1-4任意一项所述的动物面部检测方法。
CN201811625637.4A 2018-12-28 2018-12-28 动物面部检测方法及装置 Pending CN111382612A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811625637.4A CN111382612A (zh) 2018-12-28 2018-12-28 动物面部检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811625637.4A CN111382612A (zh) 2018-12-28 2018-12-28 动物面部检测方法及装置

Publications (1)

Publication Number Publication Date
CN111382612A true CN111382612A (zh) 2020-07-07

Family

ID=71216419

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811625637.4A Pending CN111382612A (zh) 2018-12-28 2018-12-28 动物面部检测方法及装置

Country Status (1)

Country Link
CN (1) CN111382612A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220101645A1 (en) * 2019-01-25 2022-03-31 Beijing Bytedance Network Technology Co., Ltd. Method and device for processing image having animal face

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267454A (ja) * 2004-03-19 2005-09-29 Seiko Epson Corp 画像トリミング装置及び方法
CN107358157A (zh) * 2017-06-07 2017-11-17 阿里巴巴集团控股有限公司 一种人脸活体检测方法、装置以及电子设备
WO2017215669A1 (zh) * 2016-06-17 2017-12-21 北京市商汤科技开发有限公司 物体识别方法和装置、数据处理装置和计算设备
CN107704817A (zh) * 2017-09-28 2018-02-16 成都品果科技有限公司 一种动物面部关键点的检测算法
CN108073914A (zh) * 2018-01-10 2018-05-25 成都品果科技有限公司 一种动物面部关键点标注方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267454A (ja) * 2004-03-19 2005-09-29 Seiko Epson Corp 画像トリミング装置及び方法
WO2017215669A1 (zh) * 2016-06-17 2017-12-21 北京市商汤科技开发有限公司 物体识别方法和装置、数据处理装置和计算设备
CN107358157A (zh) * 2017-06-07 2017-11-17 阿里巴巴集团控股有限公司 一种人脸活体检测方法、装置以及电子设备
CN107704817A (zh) * 2017-09-28 2018-02-16 成都品果科技有限公司 一种动物面部关键点的检测算法
CN108073914A (zh) * 2018-01-10 2018-05-25 成都品果科技有限公司 一种动物面部关键点标注方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
于奥运;: "基于深度学习的犬种识别研究", 现代计算机(专业版) *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220101645A1 (en) * 2019-01-25 2022-03-31 Beijing Bytedance Network Technology Co., Ltd. Method and device for processing image having animal face

Similar Documents

Publication Publication Date Title
CN108764091B (zh) 活体检测方法及装置、电子设备和存储介质
US10956714B2 (en) Method and apparatus for detecting living body, electronic device, and storage medium
US10264177B2 (en) Methods and systems to obtain desired self-pictures with an image capture device
US10645332B2 (en) Subtitle displaying method and apparatus
CN108197586B (zh) 脸部识别方法和装置
CN105631408B (zh) 基于视频的面孔相册处理方法和装置
CN109257645B (zh) 视频封面生成方法及装置
CN105488527B (zh) 图像分类方法及装置
CN110956061B (zh) 动作识别方法及装置、驾驶员状态分析方法及装置
EP3179408A2 (en) Picture processing method and apparatus, computer program and recording medium
CN107692997B (zh) 心率检测方法及装置
CN111553864B (zh) 图像修复方法及装置、电子设备和存储介质
EP3133527A1 (en) Human face recognition method, apparatus and terminal
CN110287671B (zh) 验证方法及装置、电子设备和存储介质
CN109934275B (zh) 图像处理方法及装置、电子设备和存储介质
CN111241887B (zh) 目标对象关键点识别方法及装置、电子设备和存储介质
CN110211211B (zh) 图像处理方法、装置、电子设备及存储介质
CN110598504A (zh) 图像识别方法及装置、电子设备和存储介质
CN107730448B (zh) 基于图像处理的美颜方法及装置
CN111047526A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN106980840A (zh) 脸型匹配方法、装置及存储介质
CN111144266B (zh) 人脸表情的识别方法及装置
EP3641280A1 (en) Unlocking of a mobile terminal by face-recognition of a slidable camera
CN104580886A (zh) 拍摄控制方法及装置
US11961278B2 (en) Method and apparatus for detecting occluded image and medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination