CN111932439A - 一种戴口罩人脸图像生成方法及相关装置 - Google Patents
一种戴口罩人脸图像生成方法及相关装置 Download PDFInfo
- Publication number
- CN111932439A CN111932439A CN202010594885.8A CN202010594885A CN111932439A CN 111932439 A CN111932439 A CN 111932439A CN 202010594885 A CN202010594885 A CN 202010594885A CN 111932439 A CN111932439 A CN 111932439A
- Authority
- CN
- China
- Prior art keywords
- mask
- image
- face image
- target
- loss value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 15
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims description 60
- 238000012545 processing Methods 0.000 claims description 18
- 230000007613 environmental effect Effects 0.000 claims description 13
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 6
- 230000001902 propagating effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 9
- 230000003631 expected effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种戴口罩人脸图像生成方法及相关装置,用于解决戴口罩人脸图像数据匮乏的问题。本申请方法包括:获取口罩图像;获取目标人脸图像;将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;确定所述目标人脸图像中的口罩覆盖区域;根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
Description
技术领域
本申请实施例涉及图像处理技术领域,尤其涉及一种戴口罩人脸图像生成方法及相关装置。
背景技术
目前,深度学习的快速发展与完善以及各种场景中对人脸识别的需求的增加,人脸识别技术取得了巨大的进步,并被广泛应用于小区,商场,写字楼等场所以实现非接触式监控和安全认证。
人脸识别主要依赖于对人脸数据的采集和匹配,对戴口罩人脸识别主要依靠深度学***台获取到的数据风格较为单一,丰富性低。因此,现有技术中,能够用于人脸识别模型训练的戴口罩人脸数据较为缺乏。
发明内容
本申请提供了一种戴口罩人脸图像生成方法及相关装置,用于解决在人脸识别模型的训练中戴口罩人脸图像数据匮乏的问题。
本申请实施例第一方面提供一种戴口罩人脸图像生成方法,包括:
获取口罩图像;
获取目标人脸图像;
将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定所述目标人脸图像中的口罩覆盖区域;
根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
可选地,所述获取口罩图像之前,所述戴口罩人脸图像生成方法还包括:
训练预设模型,所述预设模型采用VGG19深度卷积神经网络提取图像的风格特征和内容特征。
可选地,所述训练预设模型,包括:
将第一样本对输入到原始模型中生成初始口罩模板图像,并标记输入次数值,所述第一样本对为样本集中任意一组样本对,所述第一样本对包含一张口罩图像和一张人脸图像;
通过总损失函数计算第一总损失值,所述第一总损失值由内容损失值和风格损失值组成;
当所述第一总损失值大于预设值时,根据所述第一总损失值反向传播更新所述原始模型,将所述第一样本对输入更新后的原始模型,更新输入次数值并重新计算第一总损失值;
当所述第一总损失值小于或等于所述预设值时,将第二样本对输入更新后的原始模型,标记输入次数值并重新计算得到第二总损失值;
当所述第二总损失值小于或等于所述预设值且所述第二样本对的训练次数值为1时,确定更新后的原始模型为预设模型。
可选地,所述训练预设模型还包括:
当所述第二总损失值大于所述预设值时,根据所述第二总损失值反向传播更新所述原始模型,将所述第二样本对输入更新后的原始模型,更新输入次数值并重新计算第二总损失值。
可选地,所述将第一样本对输入到原始模型中生成初始口罩模板图像,包括:
将第一样本对输入到原始模型;
通过所述原始模型中的VGG19深度卷积神经网络提取所述口罩图像的内容特征和所述人脸图像的风格特征;
根据所述口罩图像的内容特征和所述人脸图像的风格特征生成初始口罩模板图像。
可选地,所述通过总损失函数计算第一总损失值,所述第一总损失值由内容损失值和风格损失值组成,包括:
计算内容损失值,所述内容损失值为描述所述初始口罩模板图像与所述口罩图像在内容上的差异的值;
计算风格损失值,所述风格损失值为描述所述初始口罩模板图像与所述人脸图像在环境信息上的差异的值;
计算第一总损失值,所述第一总损失值为所述内容损失值和所述风格损失值分别乘以对应权重并求和得到的值,所述风格损失值的权重大于所述内容损失值的权重。
可选地,所述确定所述目标人脸图像中的口罩覆盖区域,包括:
通过人脸识别算法生成所述目标人脸图像中人脸的若干关键点,所述若干关键点包括若干鼻梁关键点和若干下颚关键点;
根据所述若干鼻梁关键点和若干下颚关键点确定口罩覆盖边界,所述鼻梁关键点至少包括2个,所述鼻梁关键点用于确定对应的不同遮挡程度的口罩覆盖边界;
根据所述口罩覆盖边界确定口罩覆盖区域。
可选地,所述根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像,包括:
将所述目标口罩模板图像进行调整操作,得到与所述覆盖区域的形状和尺寸相适配的目标口罩模板图像,所述调整操作包括旋转、缩放和透视变形;
将进行调整操作后的目标口罩模板图像覆盖到覆盖区域,生成戴口罩人脸图像。
可选地,所述获取口罩图像,包括:
获取视频,所述视频为现实场景中包含有口罩的视频;
对所述视频进行解码,得到包含口罩的图像;
对所述图像进行图像处理,得到口罩图像。
本申请实施例第二方面提供了一种戴口罩人脸图像生成装置,包括:
第一获取单元,用于获取口罩图像;
第二获取单元,用于获取目标人脸图像;
第一生成单元,用于将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定单元,用于确定所述目标人脸图像中的口罩覆盖区域;
第二生成单元,用于根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
可选地,所述戴口罩人脸图像生成装置还包括:
训练单元,用于训练预设模型,所述原始模型采用VGG19深度卷积神经网络提取图像的风格特征和内容特征。
可选地,所述训练单元,包括:
输入模块,用于将第一样本对输入到原始模型;
生成模块,用于生成初始口罩模板图像;
标记模块,用于在生成模块生成初始口罩模板图像之后,标记输入次数值,所述第一样本对为样本集中任意一组样本对,所述第一样本对包含一张口罩图像和一张人脸图像;
计算模块,用于通过总损失函数计算第一总损失值,所述第一总损失值由内容损失值和风格损失值组成;
第一判断模块,用于判断所述第一总损失值是否大于预设值;
第一处理模块,用于当所述第一判断模块确定所述第一总损失值大于预设值时,根据所述第一总损失值反向传播更新所述原始模型,将所述第一样本对输入更新后的原始模型,更新输入次数值并重新计算第一总损失值;
第二处理模块,用于当所述第一判断模块确定所述第一总损失值小于或等于所述预设值时,将第二样本对输入更新后的原始模型,标记输入次数值并重新计算得到第二总损失值;
第二判断模块,用于判断所述第二总损失值是否大于所述预设值;
第二判断模块还用于,判断所述第二样本对的训练次数值是否为1;
第三处理模块,用于第二判断模块确定所述第二总损失值小于或等于所述预设值且所述第二样本对的训练次数值为1时,确定更新后的原始模型为预设模型。
可选地,所述生成模块,包括:
提取子模块,用于通过所述原始模型中的VGG19深度卷积神经网络提取所述口罩图像的内容特征和所述人脸图像的风格特征;
生成子模块,用于根据所述口罩图像的内容特征和所述人脸图像的风格特征生成初始口罩模板图像。
可选地,计算模块,包括:
第一计算子模块,用于计算内容损失值,所述内容损失值为描述所述初始口罩模板图像与所述口罩图像在内容上的差异的值;
第二计算子模块,用于计算风格损失值,所述风格损失值为描述所述初始口罩模板图像与所述人脸图像在环境信息上的差异的值;
第三计算子模块,用于计算第一总损失值,所述第一总损失值为所述内容损失值和所述风格损失值分别乘以对应权重并求和得到的值,所述风格损失值的权重大于所述内容损失值的权重。
可选地,所述确定单元,包括:
生成模块,用于通过人脸识别算法生成所述目标人脸图像中人脸的若干关键点,所述若干关键点包括若干鼻梁关键点和若干下颚关键点;
第一确定模块,用于根据所述若干鼻梁关键点和若干下颚关键点确定口罩覆盖边界;
第二确定模块,用于根据所述口罩覆盖边界确定口罩覆盖区域。
可选地,所述第二生成单元,包括:
调整模块,用于将所述目标口罩模板图像进行调整操作,得到与所述覆盖区域的形状和尺寸相适配的目标口罩模板图像,所述调整操作包括旋转、缩放和透视变形;
覆盖模块,用于将进行调整操作后的目标口罩模板图像覆盖到覆盖区域,生成戴口罩人脸图像。
可选地,所述第一获取单元,包括:
获取模块,用于获取视频,所述视频为现实场景中包含有口罩的视频;
解码模块,用于对所述视频进行解码,得到包含口罩的图像;
处理模块,用于对所述图像进行图像处理,得到口罩图像。
本申请实施例第三方面提供了一种戴口罩人脸图像生成装置,包括:
处理器、存储器、输入输出单元、总线;
所述处理器与所述存储器、所述输入输出单元以及所述总线相连;
所述处理器具体执行如下操作:
获取口罩图像;
获取目标人脸图像;
将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定所述目标人脸图像中的口罩覆盖区域;
根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
可选的,处理器还用于执行第一方面以及第一方面的可选方案中的方法。
本申请实施例第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质上保存有程序,所述程序在计算机上执行时执行第一方面以及第一方面的可选方案中的方法。
从以上技术方案可以看出,本申请具有如下优点:在本申请中,先获取口罩图像和目标人脸图像(未佩戴口罩人脸图像),再将口罩图像和目标人脸图像输入到预设模型中生成目标口罩模板图像,通过该预设模型生成的目标口罩模板图像包含口罩图像的内容信息与目标人脸图像的环境信息,再将目标口罩模板图像与目标人脸图像进行图像合成,生成戴口罩人脸图像。通过本申请的方法及装置可以批量地生成戴口罩人脸图像,有效地解决了在人脸识别模型的训练中戴口罩人脸图像数据匮乏的问题。并且本方法生成的戴口罩人脸图像在环境信息上更好地与目标人脸图像匹配,生成的戴口罩人脸图像更加真实,为戴口罩人脸识别模型的训练提供了有效的数据支持。
附图说明
图1为本申请中戴口罩人脸图像生成方法一个实施例流程示意图;
图2为本申请中戴口罩人脸图像生成方法另一实施例流程示意图;
图3为本申请中戴口罩人脸图像生成方法另一实施例流程示意图;
图4为本申请中戴口罩人脸图像生成装置一个实施例结构示意图;
图5为本申请中戴口罩人脸图像生成装置另一实施例结构示意图;
图6为本申请中戴口罩人脸图像生成装置另一实施例结构示意图;
图7为本申请中戴口罩人脸图像生成装置另一实施例结构示意图。
具体实施方式
本申请提供了一种戴口罩人脸图像生成方法及相关装置,用于解决戴口罩人脸图像数据匮乏的问题。
下面将结合本申请实施例中的附图,对本申请中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的方法可以应用于服务器、终端或者其它具备逻辑处理能力的设备,对此,本申请不作限定。为方便描述,下面以执行主体为服务器为例进行描述。
请参阅图1,本申请中戴口罩人脸图像生成方法一个实施例包括:
101、服务器获取口罩图像;
本方法是通过口罩图像和不戴口罩的人脸图像(目标人脸图像)来合成戴口罩人脸图像,所以在生成戴口罩人脸图像前,服务器需要先获取口罩图像,该口罩图像是指现实场景下口罩在被佩戴状态时的真实口罩图像,以使得服务器生成的戴口罩人脸图像更符合真实情况。在本申请中,对口罩的样式或颜色不作限定,该口罩图像可以为为任意类型的口罩的图像,例如医用无菌口罩、N95口罩等。
102、服务器获取目标人脸图像;
服务器在获取口罩图像后还需要获取目标人脸图像,该目标人脸图像为不戴口罩的人脸图像,需包含清晰的人脸面部特征,以使得后续步骤中服务器得以结合处理后的口罩图像给该目标人脸图像进行佩戴口罩的操作,从而生成戴口罩人脸图像。
在本申请中,需要提取目标人脸图像的环境信息,可选的,为了更好的获取该环境信息,服务器所获取的目标人脸图像包含人脸可见光图像和人脸红外图像两部分。人脸红外图像中包含的目标人脸图像的场景模糊度、光照等环境信息较人脸可见光图像来说更容易被提取,通过提取这些环境信息并将这些环境信息迁移到口罩图像上,可以使得生成的目标口罩模板图像与目标人脸图像在风格上更加匹配。
103、服务器将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
预设模型能够提取口罩图像的内容信息和人脸图像的环境信息,通过该预设模型合成的目标口罩模板图像既包含口罩本身的内容信息,例如口罩的形状、纹理、颜色等,还将学习到人脸图像的环境信息,例如目标人脸图像中的场景模糊度、光照等。
服务器将获取到的口罩图像与目标人脸图像输入至预设模型中生成目标口罩模板图像,相比于现有技术中不处理口罩图像,直接将其复制到人脸图像上的方法,该预设模型生成的目标口罩模板图像与目标人脸图像具有相同的环境信息,能够与目标人脸图像更好地匹配,以使得本方法生成的戴口罩人脸图像更加真实。
104、服务器确定所述目标人脸图像中的口罩覆盖区域;
在实际场景中,人们佩戴口罩的习惯大致相同,大都是将口罩遮盖在口鼻处,本申请需要将口罩模板以合理的方式覆盖在目标人脸图像上,否则生成的戴口罩人脸图像将不具有实际应用意义,因此服务器在生成戴口罩人脸图像前需要先确定目标人脸图像中口罩的覆盖区域,再进行戴口罩人脸图像的生成。
105、服务器根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
当服务器确定好目标人脸图像中口罩覆盖区域后,就可以将目标口罩模板图像和目标人脸图像合成以生成戴口罩人脸图像。
在本申请中,服务器先获取口罩图像和目标人脸图像(未佩戴口罩人脸图像),再将口罩图像和目标人脸图像输入到预设模型中生成目标口罩模板图像,通过该预设模型生成的目标口罩模板图像包含口罩图像的内容信息与目标人脸图像的环境信息,服务器再将目标口罩模板图像与目标人脸图像进行图像合成,生成戴口罩的人脸图像。
通过本申请的方法可以批量地生成戴口罩人脸图像,有效地解决了在人脸识别模型的训练中戴口罩人脸图像数据匮乏的问题。并且本方法生成的戴口罩人脸图像在环境信息上更好地与目标人脸图像匹配,生成的戴口罩人脸图像更加真实,为戴口罩人脸识别模型的训练提供了有效的数据支持。
以上对戴口罩人脸图像的生成方法进行了描述,可选的,在实际应用中,在执行上述实施例之前,服务器还可以先对原始模型进行训练从而得到预设模型。下面将对戴口罩人脸图像生成方法中预设模型的训练过程以及戴口罩人脸图像生成方法进行详细描述。
请参阅图2,本申请中戴口罩人脸图像生成方法另一个实施例包括:
201、服务器将第一样本对输入到原始模型中生成初始口罩模板图像,并标记输入次数值,所述第一样本对为样本集中任意一组样本对,所述第一样本对包含一张口罩图像和一张人脸图像;
原始模型是以VGG19深度卷积神经网络为主干网络的神经网络模型。原始模型是用于处理输入的样本对并输出口罩模板图像的模型,每组样本对包含一张口罩图像和一张人脸图像。该模型对图像的具体处理方式为采用VGG19深度卷积神经网络提取内容图像(口罩图像)的内容特征和风格图像(人脸图像)的风格特征,其中内容特征是指形状、纹理、颜色等信息,风格特征是指场景模糊度、可见光等信息。
步骤201为训练原始模型的第一步,为了得到能满足预期效果的预设模型,要根据原始模型生成的初始口罩模板来不断调整模型中的权值,以使得该模型生成的口罩模板图像能够同时包含口罩图像的内容特征和人脸图像的风格特征,且口罩模板图像的总损失值应小于预设值。
标记输入次数值是指标记该样本对输入该模型的次数值,该输入次数值的作用是后续判断模型训练是否结束。
202、服务器通过总损失函数计算第一总损失值,所述第一总损失值由内容损失值和风格损失值组成;
在计算第一总损失值之前,服务器要先计算内容损失值和风格损失值。对于VGG19深度卷积神经网络而言,浅层网络提取的是较低维的特征,例如颜色信息等,深层网络提取的是较高维的内容信息。可选的,因为内容损失对应的是深层网络特征,所以根据经验选用内容图像(口罩图像)的第4卷积特征层作为内容特征层,而风格损失对应的主要是浅层网络特征,因此选用风格图像(人脸图像)的第1、2、3、4、5卷积特征层作为风格特征层,风格损失函数中会采用gram矩阵来进行计算。
内容损失值是描述初始口罩模板图像与口罩图像在内容上的差异的值,在本实施例中,内容损失LC具体计算如公式(1),定义如下:
其中,是内容损失,描述了原始图像和生成图像在内容上的差异;指对于生成图像Ig在第l层的卷积特征;指原始图像Is在第l层的卷积特征;i,j为卷积滤波器当前计算的图像的中心像素点的位置,其中i表示行,j表示列。
风格损失值是描述初始口罩模板图像与人脸图像在光照、模糊度等环境信息上差异的值,在本实施例中风格损失函数LS计算如公式(2),定义如下:
其中为风格损失函数,Nl和Ml分别指第l层特征的高和宽;i,j为卷积滤波器当前计算的图像的中心像素点的位置,其中i表示行,j表示列;分别指人脸图像和初始口罩模板图像第j层卷积特征的Gram矩阵;分母中的是归一化项,防止风格损失的数量级相比内容损失过大。
总损失函数由内容损失值与风格损失值组成,总损失函数如公式(3),定义如下:
L=λS·LS+λC·LC 公式(3)
其中L、LS和LC分别为网络总损失、风格损失和内容损失;λS为风格损失权重,λC为内容损失权重,在本实施例中,为了保证初始口罩模板图像在内容特征上的稳定,根据经验将风格损失权重赋值较大,将内容损失值权重赋值较小。
服务器通过总损失函数计算得出第一总损失值,第一总损失值反映了模型生成的初始口罩模板是否满足预期效果,预期效果也就是在口罩图像内容特征稳定的情况下还具有与人脸图像相似的风格特征。
203、服务器判断所述第一总损失值是否大于预设值,若是,则执行步骤204,若否,则执行步骤205;
通过判断步骤202计算得出的第一总损失值是否大于预设值来判断原始模型生成的初始口罩模板图像是否满足预期效果,该预设值为经验值。
当第一总损失值大于预设值时,说明生成的初始口罩模板图像不满足预期效果,此时执行步骤204转入反向传播并重新计算第一总损失值,直至第一总损失值小于或等于预设值,此时服务器确定该第一样本对训练结束,执行步骤205将下一组样本对输入至模型中继续训练。
在本实施例中,通过总损失值是否小于或等于预设值来判断样本对的训练是否结束,模型的训练是否结束是通过判断在样本对结束训练时样本对的输入次数值是否为1来判断的。
204、服务器根据所述第一总损失值反向传播更新所述原始模型,将所述第一样本对输入更新后的原始模型,更新输入次数值并重新计算第一总损失值后并返回步骤203;
在本实施例中,对原始模型的训练是一种误差修正型的训练,如果在输出层未得到期望值,则转入反向传播,将损失值沿原来的连接通路返回,通过修改各层神经元的连接权值得到新的损失值,反复循环迭代直到模型输出的损失值达到预期值。
当第一总损失值大于预设值时,说明输出层未得到期望值,也就是生成的初始口罩模板图像不满足预期效果,此时转入反向传播,根据第一总损失值逐层计算并修改原始模型中的相关权值。在模型更新完毕后再将第一样本对输入至更新后的模型中重新计算第一总损失值,并更新输入次数值。如果该样本对第二次输入至该模型中,那么此时的输入次数值为2,模型此时更新了1次。
在重新计算得出模型迭代过后的第一总损失值后,应返回步骤203再次判断第一总损失值与预设值之间的大小关系,以使得在原始模型的训练过程中样本对可以重复训练的过程。
205、服务器将第二样本对输入更新后的原始模型,标记输入次数并重新计算得到第二总损失值;
当第一样本对的第一总损失值小于或等于预设值时,说明误差达到期望值,第一样本对的训练结束,此时服务器将第二样本对输入至更新后的原始模型中计算得出第二总损失值,也就是开始另一组样本对的训练。第二总损失值的实际计算过程与步骤201、202类似,此处不再赘述。
需要说明的是,第二样本对为所有样本集中除第一样本对外任一组样本对,例如,第二样本对可以为模型所训练的第10000组样本对。
206、服务器判断所述第二总损失值是否大于所述预设值,若是,则执行步骤207,若否,则执行步骤208;
服务器判断第二总损失值是否大于预设值,若大于则说明第二样本对的训练未结束,此时执行步骤207将第二总损失值反向传播并更新原始模型,直至第二总损失值小于或等于预设值,说明第二样本对训练结束,此时执行步骤208,通过判断第二样本对的输入次数值是否为1来判断模型的训练是否结束。
207、服务器根据所述第二总损失值反向传播更新所述原始模型,将所述第二样本对输入更新后的原始模型,更新输入次数值并重新计算第二总损失值后返回步骤206;
当第二总损失值大于预设值时,说明第二样本对未训练结束,此时服务器将第二总损失值反向传播更新原始模型中的权值,并将第二样本对重新输入至更新后的原始模型中再次计算第二总损失值,并更新输入次数值。重新计算得出第二总损失值后返回步骤206再次判断第二总损失值是否大于预设值,以使得第二样本对可以重复训练的过程。
208、服务器判断所述第二样本对的训练次数值是否为1,若是则执行步骤209,若否,则执行步骤205;
在本实施例中,判断模型训练结束是通过确定当最新一组样本对输入至模型中,第一次计算该样本对的总损失值就小于或等于预设值时来确定模型训练结束。因此在第二样本对输入至模型后,且第二总损失值小于或等于预设值时,服务器还需要判断第二样本对的训练次数值是否为1,若为1,则确定模型训练结束,执行步骤209。若不为1,则说明仅是样本对训练结束,并非模型训练结束,此时执行步骤205服务器重新输入一组样本对至模型中,继续模型的训练。
209、服务器确定更新后的原始模型为预设模型;
当第二总损失值小于或等于预设值,且第二样本对的训练次数值为1时,就确定模型达到收敛状态,训练结束,确定更新后的原始模型为预设模型。
上述原始模型的训练过程为将大量的样本对依次输入原始模型,并根据该模型的输出结果对该模型进行训练更新,从而得到了收敛状态的预设模型。
例如,将第一组样本对输入原始模型,计算得到的第一组样本对对应的总损失值大于预设值时,将该总损失值反向传播更新原始模型,再将第一组样本对重新输入至更新后的原始模型重新计算总损失值,直至第一组样本对对应的总损失值小于或等于预设值,就将第二组样本对输入至更新后的原始模型中重复训练的过程,直至当第N组样本对第一次输入至更新后的原始模型中时,得到总损失值就小于或等于预设值,就认为更新后的原始模型达到收敛状态,将更新后的原始模型确定为预设模型。此时的预设模型生成的目标口罩模板图像满足预期效果,即可以在保证口罩图像内容信息稳定的情况下还具有与人脸图像相似的环境信息。
210、服务器获取口罩图像;
211、服务器获取目标人脸图像;
212、服务器将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
213、服务器确定所述目标人脸图像中的口罩覆盖区域;
214、服务器根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
本实施例中的步骤210至214与前述实施例中步骤101至105类似,此处不再赘述。
在本实施例中,在使用预设模型前,先训练原始模型,使得方法能直接使用预设模型生成满足预期效果的既包含有口罩图像内容信息,又包含有目标人脸图像环境信息的目标口罩模板图像。在服务器获取口罩图像和目标人脸图像后,预设模型生成目标口罩模板图像,因为预设模型在使用前已经经过大量样本对的训练,通过该预设模型生成的目标口罩模板图像总损失值小,能够与目标人脸图像在环境信息上更加匹配,也使得服务器随后合成的戴口罩人脸图像更加真实,能更好的运用在人脸识别模型训练中,为人脸识别模型训练提供了有效的数据支持。
请参阅图3,本申请中戴口罩人脸图像生成方法另一个实施例包括:
本实施例中的步骤301至309与前述实施例中步骤201至209类似,此处不再赘述。
310、服务器获取视频,所述视频为现实场景中包含有口罩的视频;
从戴口罩场景中录取视频,要求视频清晰、能看到戴口罩的正脸并且可以辨别出人物所戴口罩的类型,可选的,视频中可以包含多个类型的口罩,比如常见的医用口罩和KN系列口罩等,具体此处不做限定。
从真实场景中提取的口罩数据具有被佩戴时的形状,使得服务器生成的戴口罩人脸图像更符合真实情况。
311、服务器对所述视频进行解码,得到包含口罩的图像;
对获得的视频进行视频解码后只截取出正脸戴口罩的图像,保留脸部正对镜头且口罩部分最清晰、轮廓最全的图像,这样得到的口罩图像内容丢失更少。
312、服务器对所述图像进行图像处理,得到口罩图像;
从步骤311保留的图像中通过抠图处理提取出口罩图像,为服务器后续生成人脸戴口罩图片做准备。
313、服务器获取目标人脸图像;
314、服务器将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
本实施例中的步骤313至314与前述实施例中步骤102至103类似,此处不再赘述。
315、服务器通过人脸识别算法生成所述目标人脸图像中人脸的若干关键点,所述若干关键点包括若干鼻梁关键点和若干下颚关键点;
终端通过人脸识别算法获得识别目标人脸时所需的关键点,再选取部分关键点用于确定戴口罩的区域。可选的,服务器通过人脸识别算法获得目标人脸图像中的68个关键点,再从这68个关键点中选取用于确定戴口罩区域的关键点。其中选取鼻梁关键点为两个或两个以上,选取下颚关键点至少包括三个:下颚左边关键点、下颚右边关键点和下颚中点,通过选取的这些关键点可以定位口罩的覆盖区域。
316、服务器根据所述若干鼻梁关键点和若干下颚关键点确定口罩覆盖边界;
服务器通过选取的下颚左边关键点、下颚右边关键点和下颚中点,根据现实中戴口罩的方式可以确定戴口罩区域的左、右和下边界。可选的,鼻梁关键点可以选取4个,通过4个不同的鼻梁关键点可以确定不同的戴口罩区域的上边界,因此通过选取多个鼻梁关键点的方式可以确定不同遮挡程度的口罩覆盖边界,是生成不同遮挡程度的人脸戴口罩图片的前提。
317、服务器根据所述口罩覆盖边界确定口罩覆盖区域;
服务器将选取出的人脸关键点进行连接即可得到预将口罩覆盖至人脸的区域,由于口罩左、右和下边界是固定的,但口罩上边界(鼻梁关键点)有多个,因此可以确定多个口罩覆盖区域。
318、服务器将所述目标口罩模板图像进行调整操作,得到与所述覆盖区域的形状和尺寸相适配的目标口罩模板图像,所述调整操作包括旋转、缩放和透视变形;
服务器将步骤314生成的目标口罩模板图像对应步骤317确定的口罩覆盖区域进行旋转、缩放或透视变形等操作,具体此处不做限定,以使得目标口罩模板图像能与口罩的覆盖区域相适配,具有更逼真的效果。
319、服务器将进行调整操作后的目标口罩模板图像覆盖到覆盖区域,生成戴口罩人脸图像。
由于步骤317可以确定多个口罩覆盖区域,并且该目标口罩模板图像具有目标人脸的环境信息,所以当服务器将大小、角度已经与口罩覆盖区域适配的口罩模板覆盖至该口罩区域后可以得到多张效果逼真的戴口罩人脸图像。
上面对本申请实施例中的戴口罩人脸图像生成方法进行了描述,下面对本申请实施例中的戴口罩人脸图像生成装置进行描述:
请参阅图4,本申请中戴口罩人脸图像生成装置一个实施例包括:
第一获取单元401,用于获取口罩图像;
第二获取单元402,用于获取目标人脸图像;
第一生成单元403,用于将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定单元404,用于确定所述目标人脸图像中的口罩覆盖区域;
第二生成单元405,用于根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
本实施例中,第一获取单元401与第二获取单元402获取到第一生成单元403所需的口罩图像与目标人脸图像后生成带有环境信息的目标口罩模板图像,确定单元404确定目标人脸图像中口罩覆盖的区域,将相关数据传输到第二生成单元405,生成戴口罩的人脸图像,这样的根据第一生成单元403中预先设定好的预设模型生成的戴口罩人脸图像更加真实,为戴口罩人脸识别模型的训练提供了有效的数据支持。
下面对本申请实施例中的戴口罩人脸图像生成装置进行详细描述,请参阅图5,本申请中戴口罩人脸图像生成装置另一实施例包括:
第一获取单元501,用于获取口罩图像;
第二获取单元502,用于获取目标人脸图像;
第一生成单元503,用于将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定单元504,用于确定所述目标人脸图像中的口罩覆盖区域;
第二生成单元505,用于根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像;
训练单元506,用于在第一获取单元501获取到口罩图像之前,训练预设模型,所述原始模型采用VGG19深度卷积神经网络提取图像的风格特征和内容特征。
本实施例中所述训练单元506中包含有:
输入模块5061,用于将第一样本对输入到原始模型;
生成模块5062,用于生成初始口罩模板图像;
标记模块5063,用于在生成模块生成初始口罩模板图像之后,标记输入次数值,所述第一样本对为样本集中任意一组样本对,所述第一样本对包含一张口罩图像和一张人脸图像;
计算模块5064,用于通过总损失函数计算第一总损失值,所述第一总损失值由内容损失值和风格损失值组成;
第一判断模块5065,用于判断所述第一总损失值是否大于预设值;
第一处理模块5066,用于当所述第一判断模块确定所述第一总损失值大于预设值时,根据所述第一总损失值反向传播更新所述原始模型,将所述第一样本对输入更新后的原始模型,更新输入次数值并重新计算第一总损失值;
第二处理模块5067,用于当所述第一判断模块5065确定所述第一总损失值小于或等于所述预设值时,将第二样本对输入更新后的原始模型,标记输入次数值并重新计算得到第二总损失值;
第二判断模块5068,用于判断所述第二总损失值是否大于所述预设值;
第二判断模块5068还用于,判断所述第二样本对的训练次数值是否为1;
第三处理模块5069,用于第二判断模块5068确定所述第二总损失值小于或等于所述预设值且所述第二样本对的训练次数值为1时,确定更新后的原始模型为预设模型。
本实施例中所述生成模块5062包含有:
提取子模块50621,用于通过所述原始模型中的VGG19深度卷积神经网络提取所述口罩图像的内容特征和所述人脸图像的风格特征;
生成子模块50622,用于根据所述口罩图像的内容特征和所述人脸图像的风格特征生成初始口罩模板图像。
本实施例中所述计算模块5064包含有:
第一计算子模块50641,用于计算内容损失值,所述内容损失值为描述所述初始口罩模板图像与所述口罩图像在内容上的差异的值;
第二计算子模块50642,用于计算风格损失值,所述风格损失值为描述所述初始口罩模板图像与所述人脸图像在环境信息上的差异的值;
第三计算子模块50643,用于计算第一总损失值,所述第一总损失值为所述内容损失值和所述风格损失值分别乘以对应权重并求和得到的值,所述风格损失值的权重大于所述内容损失值的权重。
本实施例中,各单元及模块的功能与前述图2所示实施例中的步骤对应,此处不再赘述。
下面对本申请实施例中的戴口罩人脸图像生成装置进行详细描述,请参阅图6,本申请中戴口罩人脸图像生成装置另一实施例包括:
第一获取单元601,用于获取口罩图像;
第二获取单元602,用于获取目标人脸图像;
第一生成单元603,用于将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定单元604,用于确定所述目标人脸图像中的口罩覆盖区域;
第二生成单元605,用于根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像;
训练单元606,用于在第一获取单元601获取到口罩图像之前,训练预设模型,所述原始模型采用VGG19深度卷积神经网络提取图像的风格特征和内容特征。
本实施例中所述确定单元604包含有:
生成模块6041,用于通过人脸识别算法生成所述目标人脸图像中人脸的若干关键点,所述若干关键点包括若干鼻梁关键点和若干下颚关键点;
第一确定模块6042,用于根据所述若干鼻梁关键点和若干下颚关键点确定口罩覆盖边界;
第二确定模块6043,用于根据所述口罩覆盖边界确定口罩覆盖区域。
本实施例中所述第二生成单元605包含有:
调整模块6051,用于将所述目标口罩模板图像进行调整操作,得到与所述覆盖区域的形状和尺寸相适配的目标口罩模板图像,所述调整操作包括旋转、缩放和透视变形;
覆盖模块6052,用于将进行调整操作后的目标口罩模板图像覆盖到覆盖区域,生成戴口罩人脸图像。
本实施例中所述第一获取单元601包含有:
获取模块6011,用于获取视频,所述视频为现实场景中包含有口罩的视频;
解码模块6012,用于对所述视频进行解码,得到包含口罩的图像;
处理模块6013,用于对所述图像进行图像处理,得到口罩图像。
本实施例中,各单元及模块的功能与前述图3所示实施例中的步骤对应,此处不再赘述。
下面对本申请实施例中的戴口罩人脸图像生成装置进行详细描述,请参阅图7,本申请实施例提供了一种戴口罩人脸图像生成装置,包括:
处理器701、存储器702、输入输出单元703、总线704;
所述处理器701与所述存储器702、所述输入输出单元703以及所述总线704相连;
所述处理器701具体执行如下操作:
获取口罩图像;
获取目标人脸图像;
将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定所述目标人脸图像中的口罩覆盖区域;
根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
本实施例中,处理器701的功能与前述图1至图3所示实施例中的步骤对应,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的***,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,read-onlymemory)、随机存取存储器(RAM,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (10)
1.一种戴口罩人脸图像生成方法,其特征在于,包括:
获取口罩图像;
获取目标人脸图像;
将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定所述目标人脸图像中的口罩覆盖区域;
根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
2.根据权利要求1所述的戴口罩人脸图像生成方法,其特征在于,所述获取口罩图像之前,所述戴口罩人脸图像生成方法还包括:
训练预设模型,所述预设模型用于采用VGG19深度卷积神经网络提取图像的风格特征和内容特征。
3.根据权利要求2所述的戴口罩人脸图像生成方法,其特征在于,所述训练预设模型包括:
将第一样本对输入到原始模型中生成初始口罩模板图像,并标记输入次数值,所述第一样本对为样本集中任意一组样本对,所述第一样本对包含一张口罩图像和一张人脸图像;
通过总损失函数计算第一总损失值,所述第一总损失值由内容损失值和风格损失值组成;
当所述第一总损失值大于预设值时,根据所述第一总损失值反向传播更新所述原始模型,将所述第一样本对输入更新后的原始模型,更新输入次数值并重新计算第一总损失值;
当所述第一总损失值小于或等于所述预设值时,将第二样本对输入更新后的原始模型,标记输入次数值并重新计算得到第二总损失值;
当所述第二总损失值小于或等于所述预设值且所述第二样本对的训练次数值为1时,确定更新后的原始模型为预设模型。
4.根据权利要求3所述的戴口罩人脸图像生成方法,其特征在于,所述训练预设模型还包括:
当所述第二总损失值大于所述预设值时,根据所述第二总损失值反向传播更新所述原始模型,将所述第二样本对输入更新后的原始模型,更新输入次数值并重新计算第二总损失值。
5.根据权利要求3所述的戴口罩人脸图像生成方法,其特征在于,所述将第一样本对输入到原始模型中生成初始口罩模板图像包括:
将第一样本对输入到原始模型;
通过所述原始模型中的VGG19深度卷积神经网络提取所述口罩图像的内容特征和所述人脸图像的风格特征;
根据所述口罩图像的内容特征和所述人脸图像的风格特征生成初始口罩模板图像。
6.根据权利要求3所述的戴口罩人脸图像生成方法,其特征在于,所述通过总损失函数计算第一总损失值,所述第一总损失值由内容损失值和风格损失值组成包括:
计算内容损失值,所述内容损失值为描述所述初始口罩模板图像与所述口罩图像在内容上的差异的值;
计算风格损失值,所述风格损失值为描述所述初始口罩模板图像与所述人脸图像在环境信息上的差异的值;
计算第一总损失值,所述第一总损失值为所述内容损失值和所述风格损失值分别乘以对应权重并求和得到的值,所述风格损失值的权重大于所述内容损失值的权重。
7.根据权利要求1至6中任一项所述的戴口罩人脸图像生成方法,其特征在于,所述确定所述目标人脸图像中的口罩覆盖区域,包括:
通过人脸识别算法生成所述目标人脸图像中人脸的若干关键点,所述若干关键点包括若干鼻梁关键点和若干下颚关键点;
根据所述若干鼻梁关键点和若干下颚关键点确定口罩覆盖边界,所述鼻梁关键点至少包括2个,所述鼻梁关键点用于确定对应的不同遮挡程度的口罩覆盖边界;
根据所述口罩覆盖边界确定口罩覆盖区域。
8.根据权利要求1至6中任一项所述的戴口罩人脸图像生成方法,其特征在于,所述根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像,包括:
将所述目标口罩模板图像进行调整操作,得到与所述覆盖区域的形状和尺寸相适配的目标口罩模板图像,所述调整操作包括旋转、缩放和透视变形;
将进行调整操作后的目标口罩模板图像覆盖到覆盖区域,生成戴口罩人脸图像。
9.根据权利要求1至6中任一项所述的戴口罩人脸图像生成方法,其特征在于,所述获取口罩图像包括:
获取视频,所述视频为现实场景中包含有口罩的视频;
对所述视频进行解码,得到包含口罩的图像;
对所述图像进行图像处理,得到口罩图像。
10.一种戴口罩人脸图像生成装置,其特征在于,包括:
第一获取单元,用于获取口罩图像;
第二获取单元,用于获取目标人脸图像;
第一生成单元,用于将所述口罩图像与所述目标人脸图像通过预设模型生成目标口罩模板图像,所述目标口罩模板图像包含所述口罩图像的内容信息与所述目标人脸图像的环境信息;
确定单元,用于确定所述人脸图像中的口罩覆盖区域;
第二生成单元,用于根据所述口罩覆盖区域将所述目标口罩模板图像和所述目标人脸图像进行图像合成,生成戴口罩人脸图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010594885.8A CN111932439A (zh) | 2020-06-28 | 2020-06-28 | 一种戴口罩人脸图像生成方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010594885.8A CN111932439A (zh) | 2020-06-28 | 2020-06-28 | 一种戴口罩人脸图像生成方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111932439A true CN111932439A (zh) | 2020-11-13 |
Family
ID=73317462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010594885.8A Pending CN111932439A (zh) | 2020-06-28 | 2020-06-28 | 一种戴口罩人脸图像生成方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111932439A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435273A (zh) * | 2021-06-15 | 2021-09-24 | 北京的卢深视科技有限公司 | 数据增广方法、装置、电子设备及存储介质 |
CN115527254A (zh) * | 2022-09-21 | 2022-12-27 | 北京的卢深视科技有限公司 | 人脸识别、模型训练方法、装置、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103443772A (zh) * | 2011-04-13 | 2013-12-11 | 塔塔咨询服务有限公司 | 基于多模态信息的人口统计分析的***和方法 |
CN105190562A (zh) * | 2013-03-13 | 2015-12-23 | 英特尔公司 | 用于三维图像编辑的改进的技术 |
CN107609481A (zh) * | 2017-08-14 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 为人脸识别生成训练数据的方法、装置和计算机存储介质 |
CN107767328A (zh) * | 2017-10-13 | 2018-03-06 | 上海交通大学 | 基于少量样本生成的任意风格和内容的迁移方法和*** |
CN108460398A (zh) * | 2017-12-27 | 2018-08-28 | 达闼科技(北京)有限公司 | 图像处理方法、装置、云处理设备和计算机程序产品 |
CN108537720A (zh) * | 2017-03-01 | 2018-09-14 | 杭州九言科技股份有限公司 | 一种图像处理方法和装置 |
CN110852940A (zh) * | 2019-11-01 | 2020-02-28 | 天津大学 | 一种图像处理方法及相关设备 |
CN110909654A (zh) * | 2019-11-18 | 2020-03-24 | 深圳市商汤科技有限公司 | 训练图像的生成方法及装置、电子设备和存储介质 |
CN111311480A (zh) * | 2018-12-11 | 2020-06-19 | 北京京东尚科信息技术有限公司 | 图像融合方法和装置 |
-
2020
- 2020-06-28 CN CN202010594885.8A patent/CN111932439A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103443772A (zh) * | 2011-04-13 | 2013-12-11 | 塔塔咨询服务有限公司 | 基于多模态信息的人口统计分析的***和方法 |
CN105190562A (zh) * | 2013-03-13 | 2015-12-23 | 英特尔公司 | 用于三维图像编辑的改进的技术 |
CN108537720A (zh) * | 2017-03-01 | 2018-09-14 | 杭州九言科技股份有限公司 | 一种图像处理方法和装置 |
CN107609481A (zh) * | 2017-08-14 | 2018-01-19 | 百度在线网络技术(北京)有限公司 | 为人脸识别生成训练数据的方法、装置和计算机存储介质 |
CN107767328A (zh) * | 2017-10-13 | 2018-03-06 | 上海交通大学 | 基于少量样本生成的任意风格和内容的迁移方法和*** |
CN108460398A (zh) * | 2017-12-27 | 2018-08-28 | 达闼科技(北京)有限公司 | 图像处理方法、装置、云处理设备和计算机程序产品 |
CN111311480A (zh) * | 2018-12-11 | 2020-06-19 | 北京京东尚科信息技术有限公司 | 图像融合方法和装置 |
CN110852940A (zh) * | 2019-11-01 | 2020-02-28 | 天津大学 | 一种图像处理方法及相关设备 |
CN110909654A (zh) * | 2019-11-18 | 2020-03-24 | 深圳市商汤科技有限公司 | 训练图像的生成方法及装置、电子设备和存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113435273A (zh) * | 2021-06-15 | 2021-09-24 | 北京的卢深视科技有限公司 | 数据增广方法、装置、电子设备及存储介质 |
CN113435273B (zh) * | 2021-06-15 | 2022-03-25 | 北京的卢深视科技有限公司 | 数据增广方法、装置、电子设备及存储介质 |
CN115527254A (zh) * | 2022-09-21 | 2022-12-27 | 北京的卢深视科技有限公司 | 人脸识别、模型训练方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109255831B (zh) | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 | |
CN112419170B (zh) | 遮挡检测模型的训练方法及人脸图像的美化处理方法 | |
CN106778928B (zh) | 图像处理方法及装置 | |
CN101055647B (zh) | 用于处理图像的方法、装置 | |
CN110096156B (zh) | 基于2d图像的虚拟换装方法 | |
CN107730444B (zh) | 图像处理方法、装置、可读存储介质和计算机设备 | |
CN109952594B (zh) | 图像处理方法、装置、终端及存储介质 | |
CN112419454B (zh) | 一种人脸重建方法、装置、计算机设备及存储介质 | |
JP6025690B2 (ja) | 情報処理装置および情報処理方法 | |
CN104615234B (zh) | 信息处理设备以及信息处理方法 | |
CN112419485B (zh) | 一种人脸重建方法、装置、计算机设备及存储介质 | |
CN112733802B (zh) | 图像的遮挡检测方法、装置、电子设备及存储介质 | |
CN112669447A (zh) | 一种模型头像创建方法、装置、电子设备和存储介质 | |
CN111932439A (zh) | 一种戴口罩人脸图像生成方法及相关装置 | |
CN108460398A (zh) | 图像处理方法、装置、云处理设备和计算机程序产品 | |
JP2015088096A (ja) | 情報処理装置および情報処理方法 | |
JP2015088098A (ja) | 情報処理装置および情報処理方法 | |
CN112562056A (zh) | 虚拟演播室中虚拟灯光的控制方法、装置、介质与设备 | |
CN113963237B (zh) | 模型训练、戴口罩状态检测方法、电子设备及存储介质 | |
CN114894337A (zh) | 一种用于室外人脸识别测温方法及装置 | |
CN113284041B (zh) | 一种图像处理方法、装置、设备及计算机存储介质 | |
CN113435357B (zh) | 语音播报方法、装置、设备及存储介质 | |
CN114742725A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111008577A (zh) | 一种基于虚拟人脸的评分方法、***、装置和存储介质 | |
CN113240811A (zh) | 三维人脸模型创建方法、***、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |