CN113139486A - 用于处理图像的方法、装置、设备以及存储介质 - Google Patents

用于处理图像的方法、装置、设备以及存储介质 Download PDF

Info

Publication number
CN113139486A
CN113139486A CN202110475236.0A CN202110475236A CN113139486A CN 113139486 A CN113139486 A CN 113139486A CN 202110475236 A CN202110475236 A CN 202110475236A CN 113139486 A CN113139486 A CN 113139486A
Authority
CN
China
Prior art keywords
eye
image
determining
target
key points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110475236.0A
Other languages
English (en)
Inventor
梁柏荣
郭知智
洪智滨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110475236.0A priority Critical patent/CN113139486A/zh
Publication of CN113139486A publication Critical patent/CN113139486A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了用于处理图像的方法、装置、设备以及存储介质,涉及人工智能技术领域,具体涉及计算机视觉和深度学习领域。具体实现方案为:获取目标人脸图像;根据目标人脸图像,确定人脸对象的眼部图像;根据眼部图像以及预先训练的目标模型,确定人脸对象的黑眼圈和眼袋,目标模型用于表征眼部图像与黑眼圈、眼袋的对应关系。本实现方式可以准确地定位黑眼圈和眼袋的轮廓,同时对于同时出现黑眼圈和眼袋且位置重叠的区域也能分别定位,避免出现歧义。

Description

用于处理图像的方法、装置、设备以及存储介质
技术领域
本公开涉及人工智能技术领域,具体涉及计算机视觉和深度学习领域,尤其涉及用于处理图像的方法、装置、设备以及存储介质。
背景技术
在医学美容领域,皮肤分析受到的关注度很高。而在所有皮肤分析项目中,眼部黑眼圈和眼袋分析是重要的一个项目,用户出现黑眼圈和眼袋症状频率较高,因此快速和精准地定位黑眼圈和眼袋的位置成为热门需求。然而,由于黑眼圈和眼袋的区域部位较小,同时黑眼圈和眼袋可能存在重叠区域,因此用分类的方法进行黑眼圈和眼袋图像分类无法很准确的获取黑眼圈和眼袋的边缘轮廓,无法进行症状程度的细分类。
发明内容
提供了一种用于处理图像的方法、装置、设备以及存储介质。
根据第一方面,提供了一种用于处理图像的方法,包括:获取目标人脸图像;根据目标人脸图像,确定人脸对象的眼部图像;根据眼部图像以及预先训练的目标模型,确定人脸对象的黑眼圈和眼袋,目标模型用于表征眼部图像与黑眼圈、眼袋的对应关系。
根据第二方面,提供了一种用于处理图像的装置,包括:图像获取单元,被配置成获取目标人脸图像;眼部确定单元,被配置成根据目标人脸图像,确定人脸对象的眼部图像;图像识别单元,被配置成根据眼部图像以及预先训练的目标模型,确定人脸对象的黑眼圈和眼袋,目标模型用于表征眼部图像与黑眼圈、眼袋的对应关系。
根据第三方面,提供了一种执行用于处理图像的方法的电子设备,包括:至少一个处理器;以及与上述至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,上述指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面所描述的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,上述计算机指令用于使计算机执行如第一方面所描述的方法。
根据第五方面,一种计算机程序产品,包括计算机程序,上述计算机程序在被处理器执行时实现如第一方面所描述的方法。
根据本公开的技术可以准确地定位黑眼圈和眼袋的轮廓,同时对于同时出现黑眼圈和眼袋且位置重叠的区域也能分别定位,避免出现歧义。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开的一个实施例可以应用于其中的示例性***架构图;
图2是根据本公开的用于处理图像的方法的一个实施例的流程图;
图3是根据本公开的用于处理图像的方法的一个应用场景的示意图;
图4是根据本公开的用于处理图像的方法的另一个实施例的流程图;
图5是根据本公开的用于处理图像的方法的又一个实施例的流程图;
图6是根据本公开的用于处理图像的方法的又一个实施例的流程图;
图7是根据本公开的用于处理图像的装置的一个实施例的结构示意图;
图8是用来实现本公开实施例的用于处理图像的方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的用于处理图像的方法或用于处理图像的装置的实施例的示例性***架构100。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如图像浏览类应用、图像处理类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、车载电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103提供的人脸图像进行处理的后台服务器。后台服务器可以利用预先训练的模型对人脸图像进行处理,确定人脸对象的黑眼圈和眼袋位置,并将识别结果反馈给终端设备101、102、103。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开实施例所提供的用于处理图像的方法可以由终端设备101、102、103执行,也可以由服务器105执行。在一些实施例中,一部分步骤可以由终端设备101、102、103执行,另一部分步骤可以由服务器105执行。相应地,用于处理图像的装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。在一些实施例中,装置的一部分可以设置于终端设备101、102、103中,另一部分可以设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本公开的用于处理图像的方法的一个实施例的流程200。本实施例的用于处理图像的方法,包括以下步骤:
步骤201,获取目标人脸图像。
本实施例中,用于处理图像的方法的执行主体(例如图1所示的终端设备101、102、103或服务器105)可以通过各种方式获取目标人脸图像。例如可以通过图像采集装置采集目标人脸图像,或者通过社交平台获取。需要说明的是,本实施例中的目标人脸图像可以来自于公开数据集,或者目标人脸图像的获取是经过了人脸图像对应的用户的授权。
步骤202,根据目标人脸图像,确定人脸对象的眼部图像。
执行主体在获取到目标人脸图像后,可以对目标人脸图像进行分析,确定人脸对象的眼部图像。具体的,执行主体可以提取目标人脸图像的特征,得到特征图。然后,利用预先设置的眼部图像的特征在特征图的各区域滑动,确定各区域的特征与眼部图像的特征的相似度。将相似度最大的区域作为人脸对象的眼部区域。然后从该区域中选取预设尺寸的图像作为眼部图像。或者,执行主体还可以对目标人脸图像进行线条提取,确定眼睛的线条。然后根据眼睛的线条确定出眼睛位置,再根据眼睛位置确定出预设尺寸的眼部图像。
步骤203,根据眼部图像以及预先训练的目标模型,确定人脸对象的黑眼圈和眼袋。
执行主体还可以获取预先训练的目标模型,上述目标模型用于表征眼部图像与黑眼圈、眼袋的对应关系。为了提高计算效率,上述目标模型可以是轻量化网络,例如可以是ICNet(是一个基于PSPNet的实时语义分割网络,设计目的是减少PSPNet推断时期的耗时,ECCV2018收录的论文“ICNet for Real-Time Semantic Segmentation on High-Resolution Images”提出)。执行主体可以将眼部图像输入上述目标模型中,并根据目标模型的输出确定人脸对象的黑眼圈和眼袋。目标模型的输出可以包括眼部图像中黑眼圈的标注结果和眼袋的标注结果。
继续参见图3,其示出了根据本公开的用于处理图像的方法的一个应用场景的示意图。在图3的应用场景中,用户通过手机拍摄一张人脸图像,然后利用手机中的目标模型,可以确定出用户的黑眼圈和眼袋。用户可以对黑眼圈和眼袋部位进行美颜,或者在上妆时针对性的对黑眼圈和眼袋进行遮盖。
本公开的上述实施例提供的用于处理图像的方法,可以准确地定位黑眼圈和眼袋的轮廓。由于目标模型分别输出黑眼圈和眼袋的位置,因此对于同时出现黑眼圈和眼袋且位置重叠的区域也能分别定位,避免出现歧义。
继续参见图4,其示出了根据本公开的用于处理图像的方法的另一个实施例的流程400。本实施例中可以包括以下步骤:
步骤401,获取目标人脸图像。
步骤402,根据目标人脸图像,确定人脸对象的眼部图像。
在本实施例的一些可选的实现方式中,执行主体可以进一步将眼部图像进行分割,分别得到左眼图像和右眼图像,以分别对单只眼睛进行黑眼圈和眼袋检测。在实践中,左眼的黑眼圈、眼袋和右眼的黑眼圈、眼袋并不是对称的,通过本实现方式的分割,可以更针对性地针对单个眼睛周围进行黑眼圈和眼袋识别,提高准确率。
在一些具体的应用中,执行主体还可以分别对左眼图像和右眼图像进行插值,使得插值后左眼图像和右眼图像的尺寸相同,并且达到预设尺寸。
步骤403,将眼部图像输入目标模型,得到目标模型的输出结果。
本实施例中,执行主体可以将眼部图像输入目标模型,得到目标模型的输出结果。上述输出结果可以包括黑眼圈的标注结果和眼袋的标注结果。为了区分黑眼圈和眼袋,可以采用不同颜色标注黑眼圈和眼袋。
步骤404,对输出结果进行形态学处理,确定人脸对象的黑眼圈和眼袋。
为了提高黑眼圈和眼袋的检测准确度,执行主体还可以对输出结果进行形态学处理,以去除小离群点与小孔洞。在具体应用中,目标模型可能将眼部周围的斑点或色素沉积识别为黑眼圈或眼袋,这些斑点或色素沉积可能是单独存在的,其标注面积较小或较远,执行主体可以通过形态学开运算和/或形态学闭运算对输出结果进行处理。开运算能够除去孤立的小点,毛刺和小桥,而总的位置和形状不便。闭运算能够填平小湖(即小孔),弥合小裂缝,而总的位置和形状不变。
在本实施例的一些可选的实现方式中,执行主体还可以获取形态学处理后的黑眼圈识别结果和眼袋识别结果,上述识别结果可以包括边界坐标。执行主体可以根据上述边界坐标,计算边界所围成的区域的面积。然后将面积小于预设阈值的区域去除。最后输出剩余的边界坐标,将其作为黑眼圈识别结果和眼袋识别结果
本公开的上述实施例提供的用于处理图像的方法,可以对模型的输出结果进行进一步的形态学计算,从而提高黑眼圈和眼袋识别的准确性。
继续参见图5,其示出了根据本公开的用于处理图像的方法的另一个实施例的流程500。如图5所示,本实施例的方法可以包括以下步骤:
步骤501,获取第一训练样本集合;将样本眼部图像作为输入,将标注的黑眼圈、标注的眼袋分别作为期望输出,训练得到目标模型。
本实施例中,第一训练样本包括样本眼部图像和标注的黑眼圈、标注的眼袋。具体的,样本眼部图像的尺寸可以相同。执行主体将样本眼部图像作为输入,将标注的黑眼圈、标注的眼袋分别作为期望输出,训练得到目标模型。在训练过程中,执行主体可以计算模型输出的黑眼圈预测结果与标注的黑眼圈之间的Dice损失和BCE损失,同时计算模型输出的眼袋预测结果与标注的眼袋之间的Dice损失和BCE损失(二进制交叉熵损失),迭代训练模型直至收敛。Dice系数(DiceCoefficient)是一种集合相似度度量函数,通常用于计算两个样本的相似度(取值范围为[0,1])。Dice损失和Dice系数的关系是:DiceLoss=1–DiceCoefficient。
上述目标模型可以将ICNet作为网络主干,该模型为轻量级特征提取网络,可以提高计算效率。ICNet可以输出两个分支,分别用于预测黑眼圈和眼袋的掩膜,避免了黑眼圈区域和眼袋区域存在重叠导致无法使用多类别分割的问题。
在一些具体的实现中,样本眼部图像可以包括样本左眼图像和样本右眼图像。执行主体可以将第一训练样本集合中各第一训练样本的样本左眼图像和样本右眼图像作为输入,将标注的黑眼圈、标注的眼袋分别作为期望输出,训练得到目标模型。
需要说明的是,步骤501的执行主体可以与后续步骤的执行主体相同,也可以不相同。在一些具体的实现中,步骤501的执行主体可以为服务器,后续步骤的执行主体可以为终端设备。服务器可以将训练好的目标模型发送给终端设备以供进行图像处理。
步骤502,获取目标人脸图像。
步骤503,确定目标人脸图像,确定人脸区域;对人脸区域进行扩大,得到人脸对象的头部区域;根据头部区域,确定人脸对象的眼部图像。
本实施例中,执行主体可以确定目标人脸图像中的人脸区域。具体的,执行主体可以利用现有的人脸识别算法对目标人脸图像进行人脸识别,从而确定人脸区域。具体的,执行主体可以利用标注框标注人脸区域。然后,执行主体还可以对人脸区域进行扩大,得到人脸对象的头部区域,这样可以避免人脸识别算法确定的人脸区域包括的眼部信息较少的情况。在扩大时,执行主体可以将标注框向四周扩大m倍,或者,将标注框向左右方向扩大m倍。这里,m可以根据实际应用场景进行设定。执行主体可以从头部区域中确定出眼部图像。确定眼部图像的原理可以与步骤202中确定眼部图像的原理相同,此处不再赘述。
步骤504,根据眼部图像以及目标模型,确定人脸对象的黑眼圈和眼袋。
本公开的上述实施例提供的用于处理图像的方法,可以利用轻量化的模型对人脸图像进行处理,可以提高图像的处理效率。
继续参见图6,其示出了根据本公开的用于处理图像的方法的另一个实施例的流程600。如图6所示,本实施例的方法可以包括以下步骤:
步骤601,获取第二训练样本集合;将样本人脸图像作为输入,将与输入的样本人脸图像标注的关键点作为期望输出,训练得到关键点提取模型。
本实施例中,第二训练样本可以包括样本人脸图像以及标注的关键点。每个关键点可以具有标识,上述标识可以是数字。执行主体可以将第二训练样本集合中各第二训练样本的样本人脸图像作为输入,将与输入的样本人脸图像标注的关键点作为期望输出,训练得到关键点提取模型。
在一些具体的应用中,不同的第二训练样本中,同一位置的关键点的标识相同,或者说同一标识的关键点表达的语义相同。例如,左眼眼角处的关键点的标识均为k。
需要说明的是,步骤601的执行主体可以与后续步骤的执行主体相同,也可以不相同。在一些具体的实现中,步骤601的执行主体可以为服务器,后续步骤的执行主体可以为终端设备。服务器可以将训练好的关键点提取模型发送给终端设备以供进行关键点提取。
步骤602,获取目标人脸图像。
步骤603,利用关键点提取模型提取目标人脸的多个关键点;从多个关键点中确定出眼部关键点;根据眼部关键点,确定人脸对象的眼部图像。
执行主体可以利用步骤601得到的关键点提取模型提取目标人脸的多个关键点。每个关键点可以包含人脸五官的位置、轮廓信息与形状信息。然后,从多个关键点中确定出眼部关键点。具体的,执行主体可以预先获取眼部关键点的标识,然后根据上述标识从多个关键点中选取出眼部关键点。或者,执行主体可以根据各关键点的位置,将其与预先设定的眼部关键点位置范围进行对比,确定出眼部关键点。最后,根据眼部关键点,确定人脸对象的眼部图像。具体的,执行主体可以根据各眼部关键点的位置,确定各眼部关键点的包络框,然后对上述包络框进行适当放大处理(例如放大1.1倍),得到的区域即为眼部图像。
在本实施例的一些可选的实现方式中,执行主体可以根据关键点的标识,从所述多个关键点中确定出眼部关键点。如果在关键点提取模型的训练过程中,眼部关键点的标识位于一个数值范围内,则执行主体可以将关键点提取模型针对目标人脸图像输出的多个关键点中、标识位于上述数值范围内的关键点作为眼部关键点。
步骤604,根据眼部图像以及预先训练的目标模型,确定人脸对象的黑眼圈和眼袋。
本公开的上述实施例提供的用于处理图像的方法,可以利用关键点确定出眼部图像,得到的眼部图像更准确。
进一步参考图7,作为对上述各图所示方法的实现,本公开提供了一种用于处理图像的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例的用于处理图像的装置700包括:图像获取单元701、眼部确定单元702和图像识别单元703。
图像获取单元701,被配置成获取目标人脸图像。
眼部确定单元702,被配置成根据目标人脸图像,确定人脸对象的眼部图像。
图像识别单元703,被配置成根据眼部图像以及预先训练的目标模型,确定人脸对象的黑眼圈和眼袋,目标模型用于表征眼部图像与黑眼圈、眼袋的对应关系。
在本实施例的一些可选的实现方式中,图像识别单元703可以进一步被配置成:将眼部图像输入目标模型,得到目标模型的输出结果;对输出结果进行形态学处理,确定人脸对象的黑眼圈和眼袋。
在本实施例的一些可选的实现方式中,装置700还可以进一步包括图7中未示出的第一训练单元,被配置成通过以下第一训练步骤得到目标模型:获取第一训练样本集合,第一训练样本包括样本眼部图像和标注的黑眼圈、标注的眼袋;将样本眼部图像作为输入,将标注的黑眼圈、标注的眼袋分别作为期望输出,训练得到目标模型。
在本实施例的一些可选的实现方式中,眼部确定单元702可以进一步被配置成:确定目标人脸图像,确定人脸区域;对人脸区域进行扩大,得到人脸对象的头部区域;根据头部区域,确定人脸对象的眼部图像。
在本实施例的一些可选的实现方式中,眼部确定单元702可以进一步被配置成:利用预先训练的关键点提取模型提取目标人脸图像的多个关键点;从多个关键点中确定出眼部关键点;根据眼部关键点,确定人脸对象的眼部图像。
在本实施例的一些可选的实现方式中,装置700还可以进一步包括图7中未示出的第二训练单元,被配置成通过以下第二训练步骤得到关键点提取模型:获取第二训练样本集合,第二训练样本包括样本人脸图像以及标注的关键点;将样本人脸图像作为输入,将与输入的样本人脸图像标注的关键点作为期望输出,训练得到关键点提取模型。
在本实施例的一些可选的实现方式中,各第二训练样本同一位置处的关键点的标识相同。
在本实施例的一些可选的实现方式中,眼部确定单元702可以进一步被配置成:根据关键点的标识,从多个关键点中确定出眼部关键点。
应当理解,用于处理图像的装置700中记载的单元701至单元703分别与参考图2中描述的方法中的各个步骤相对应。由此,上文针对用于处理图像的方法描述的操作和特征同样适用于装置700及其中包含的单元,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取、存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图8示出了根据本公开实施例的执行用于处理图像的方法的电子设备800的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图8所示,电子设备800包括处理器801,其可以根据存储在只读存储器(ROM)802中的计算机程序或者从存储器808加载到随机访问存储器(RAM)803中的计算机程序,来执行各种适当的动作和处理。在RAM 803中,还可存储电子设备800操作所需的各种程序和数据。处理器801、ROM 802以及RAM 803通过总线804彼此相连。I/O接口(输入/输出接口)805也连接至总线804。
电子设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储器808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许电子设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器801可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器801的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器801执行上文所描述的各个方法和处理,例如用于处理图像的方法。例如,在一些实施例中,用于处理图像的方法可被实现为计算机软件程序,其被有形地包含于机器可读存储介质,例如存储器808。在一些实施例中,计算机程序的部分或者全部可以经由ROM802和/或通信单元809而被载入和/或安装到电子设备800上。当计算机程序加载到RAM 803并由处理器801执行时,可以执行上文描述的用于处理图像的方法的一个或多个步骤。备选地,在其他实施例中,处理器801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行用于处理图像的方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。上述程序代码可以封装成计算机程序产品。这些程序代码或计算机程序产品可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器801执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读存储介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读存储介质可以是机器可读信号存储介质或机器可读存储介质。机器可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学存储设备、磁存储设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(“Virtual Private Server”,或简称“VPS”)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以是分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开的保护范围之内。

Claims (19)

1.一种用于处理图像的方法,包括:
获取目标人脸图像;
根据所述目标人脸图像,确定人脸对象的眼部图像;
根据所述眼部图像以及预先训练的目标模型,确定所述人脸对象的黑眼圈和眼袋,所述目标模型用于表征眼部图像与黑眼圈、眼袋的对应关系。
2.根据权利要求1所述的方法,其中,所述根据所述眼部图像以及预先训练的目标模型,确定所述人脸对象的黑眼圈和眼袋,包括:
将所述眼部图像输入所述目标模型,得到所述目标模型的输出结果;
对所述输出结果进行形态学处理,确定所述人脸对象的黑眼圈和眼袋。
3.根据权利要求1或2所述的方法,其中,所述目标模型通过以下第一训练步骤得到:
获取第一训练样本集合,所述第一训练样本包括样本眼部图像和标注的黑眼圈、标注的眼袋;
将所述样本眼部图像作为输入,将标注的黑眼圈、标注的眼袋分别作为期望输出,训练得到所述目标模型。
4.根据权利要求1-3任一项所述的方法,所述根据所述目标人脸图像,确定人脸对象的眼部图像,包括:
确定所述目标人脸图像,确定人脸区域;
对所述人脸区域进行扩大,得到人脸对象的头部区域;
根据所述头部区域,确定人脸对象的眼部图像。
5.根据权利要求1-4任一项所述的方法,其中,所述根据所述目标人脸图像,确定人脸对象的眼部图像,包括:
利用预先训练的关键点提取模型提取所述目标人脸的多个关键点;
从所述多个关键点中确定出眼部关键点;
根据所述眼部关键点,确定人脸对象的眼部图像。
6.根据权利要求5所述的方法,其中,所述关键点提取模型通过以下第二训练步骤得到:
获取第二训练样本集合,所述第二训练样本包括样本人脸图像以及标注的关键点;
将所述样本人脸图像作为输入,将与输入的样本人脸图像标注的关键点作为期望输出,训练得到所述关键点提取模型。
7.根据权利要求6所述的方法,其中,各第二训练样本同一位置处的关键点的标识相同。
8.根据权利要求7所述的方法,其中,所述从所述多个关键点中确定出眼部关键点,包括:
根据关键点的标识,从所述多个关键点中确定出眼部关键点。
9.一种用于处理图像的装置,包括:
图像获取单元,被配置成获取目标人脸图像;
眼部确定单元,被配置成根据所述目标人脸图像,确定人脸对象的眼部图像;
图像识别单元,被配置成根据所述眼部图像以及预先训练的目标模型,确定所述人脸对象的黑眼圈和眼袋,所述目标模型用于表征眼部图像与黑眼圈、眼袋的对应关系。
10.根据权利要求9所述的装置,其中,所述图像识别单元进一步被配置成:
将所述眼部图像输入所述目标模型,得到所述目标模型的输出结果;
对所述输出结果进行形态学处理,确定所述人脸对象的黑眼圈和眼袋。
11.根据权利要求9或10所述的装置,其中,所述装置还包括第一训练单元,被配置成通过以下第一训练步骤得到所述目标模型:
获取第一训练样本集合,所述第一训练样本包括样本眼部图像和标注的黑眼圈、标注的眼袋;
将所述样本眼部图像作为输入,将标注的黑眼圈、标注的眼袋分别作为期望输出,训练得到所述目标模型。
12.根据权利要求9-11任一项所述的装置,其中,所述眼部确定单元进一步被配置成:
确定所述目标人脸图像,确定人脸区域;
对所述人脸区域进行扩大,得到人脸对象的头部区域;
根据所述头部区域,确定人脸对象的眼部图像。
13.根据权利要求9-12任一项所述的装置,其中,所述眼部确定单元进一步被配置成:
利用预先训练的关键点提取模型提取所述目标人脸图像的多个关键点;
从所述多个关键点中确定出眼部关键点;
根据所述眼部关键点,确定人脸对象的眼部图像。
14.根据权利要求13所述的装置,其中,所述装置还包括第二训练单元,被配置成通过以下第二训练步骤得到所述关键点提取模型:
获取第二训练样本集合,所述第二训练样本包括样本人脸图像以及标注的关键点;
将所述样本人脸图像作为输入,将与输入的样本人脸图像标注的关键点作为期望输出,训练得到所述关键点提取模型。
15.根据权利要求14所述的装置,其中,各第二训练样本同一位置处的关键点的标识相同。
16.根据权利要求15所述的装置,其中,所述眼部确定单元进一步被配置成:
根据关键点的标识,从所述多个关键点中确定出眼部关键点。
17.一种执行用于处理图像的方法的电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
19.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-8中任一项所述的方法。
CN202110475236.0A 2021-04-29 2021-04-29 用于处理图像的方法、装置、设备以及存储介质 Pending CN113139486A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110475236.0A CN113139486A (zh) 2021-04-29 2021-04-29 用于处理图像的方法、装置、设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110475236.0A CN113139486A (zh) 2021-04-29 2021-04-29 用于处理图像的方法、装置、设备以及存储介质

Publications (1)

Publication Number Publication Date
CN113139486A true CN113139486A (zh) 2021-07-20

Family

ID=76816425

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110475236.0A Pending CN113139486A (zh) 2021-04-29 2021-04-29 用于处理图像的方法、装置、设备以及存储介质

Country Status (1)

Country Link
CN (1) CN113139486A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420721A (zh) * 2021-07-21 2021-09-21 北京百度网讯科技有限公司 标注图像关键点的方法和装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443189A (zh) * 2019-07-31 2019-11-12 厦门大学 基于多任务多标签学习卷积神经网络的人脸属性识别方法
CN111428552A (zh) * 2019-12-31 2020-07-17 深圳数联天下智能科技有限公司 黑眼圈识别方法、装置、计算机设备和存储介质
CN111694954A (zh) * 2020-04-28 2020-09-22 北京旷视科技有限公司 图像分类方法、装置和电子设备
CN111860169A (zh) * 2020-06-18 2020-10-30 北京旷视科技有限公司 皮肤分析方法、装置、存储介质及电子设备
CN111985458A (zh) * 2020-09-16 2020-11-24 深圳数联天下智能科技有限公司 一种检测多目标的方法、电子设备及存储介质
CN112541394A (zh) * 2020-11-11 2021-03-23 上海诺斯清生物科技有限公司 黑眼圈及鼻炎识别方法、***及计算机介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110443189A (zh) * 2019-07-31 2019-11-12 厦门大学 基于多任务多标签学习卷积神经网络的人脸属性识别方法
CN111428552A (zh) * 2019-12-31 2020-07-17 深圳数联天下智能科技有限公司 黑眼圈识别方法、装置、计算机设备和存储介质
CN111694954A (zh) * 2020-04-28 2020-09-22 北京旷视科技有限公司 图像分类方法、装置和电子设备
CN111860169A (zh) * 2020-06-18 2020-10-30 北京旷视科技有限公司 皮肤分析方法、装置、存储介质及电子设备
CN111985458A (zh) * 2020-09-16 2020-11-24 深圳数联天下智能科技有限公司 一种检测多目标的方法、电子设备及存储介质
CN112541394A (zh) * 2020-11-11 2021-03-23 上海诺斯清生物科技有限公司 黑眼圈及鼻炎识别方法、***及计算机介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113420721A (zh) * 2021-07-21 2021-09-21 北京百度网讯科技有限公司 标注图像关键点的方法和装置
CN113420721B (zh) * 2021-07-21 2022-03-29 北京百度网讯科技有限公司 标注图像关键点的方法和装置

Similar Documents

Publication Publication Date Title
CN113780098B (zh) 文字识别方法、装置、电子设备以及存储介质
CN113378712B (zh) 物体检测模型的训练方法、图像检测方法及其装置
CN113221771A (zh) 活体人脸识别方法、装置、设备、存储介质及程序产品
CN113674421A (zh) 3d目标检测方法、模型训练方法、相关装置及电子设备
CN112818227B (zh) 内容推荐方法、装置、电子设备及存储介质
CN114549710A (zh) 一种虚拟形象的生成方法、装置、电子设备及存储介质
CN113378855A (zh) 用于处理多任务的方法、相关装置及计算机程序产品
CN113205041A (zh) 结构化信息提取方法、装置、设备和存储介质
CN113688887A (zh) 图像识别模型的训练与图像识别方法、装置
CN114267375B (zh) 音素检测方法及装置、训练方法及装置、设备和介质
CN113610809B (zh) 骨折检测方法、装置、电子设备以及存储介质
CN113269719A (zh) 模型训练、图像处理方法,装置,设备以及存储介质
CN113657248A (zh) 人脸识别模型的训练方法、装置及计算机程序产品
CN113139486A (zh) 用于处理图像的方法、装置、设备以及存储介质
CN112580666A (zh) 图像特征的提取方法、训练方法、装置、电子设备及介质
CN113177466A (zh) 基于人脸图像的身份识别方法、装置、电子设备及介质
CN112580620A (zh) 标志图片处理方法、装置、设备和介质
CN112560848B (zh) 兴趣点poi预训练模型的训练方法、装置及电子设备
CN113110782B (zh) 图像的识别方法、装置、计算机设备及存储介质
CN115457329A (zh) 图像分类模型的训练方法、图像分类方法和装置
CN115147547A (zh) 人体重建方法和装置
CN114612971A (zh) 人脸检测方法、模型训练方法、电子设备及程序产品
CN114093006A (zh) 活体人脸检测模型的训练方法、装置、设备以及存储介质
CN113781653A (zh) 对象模型生成方法、装置、电子设备及存储介质
CN113378774A (zh) 手势识别方法、装置、设备、存储介质以及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination