CN111696176A - 图像处理方法、装置、电子设备及计算机可读介质 - Google Patents
图像处理方法、装置、电子设备及计算机可读介质 Download PDFInfo
- Publication number
- CN111696176A CN111696176A CN202010514535.6A CN202010514535A CN111696176A CN 111696176 A CN111696176 A CN 111696176A CN 202010514535 A CN202010514535 A CN 202010514535A CN 111696176 A CN111696176 A CN 111696176A
- Authority
- CN
- China
- Prior art keywords
- image
- target
- processed
- face
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Processing (AREA)
Abstract
本公开提供了一种图像处理方法、装置、电子设备及计算机可读介质。该方法包括:从待处理图像中提取出各个人脸区域图像;分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果;根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效。该方法通过识别图像中人脸表情对应的目标情绪程度,来灵活地在目标区域触发目标特效,使得特效效果与用户状态保持一致,从而让特效的视觉内容更加逼真,提升用户的特效体验。
Description
技术领域
本公开涉及计算机技术领域,具体而言,本公开涉及一种图像处理方法、装置、电子设备及计算机可读介质。
背景技术
随着计算机技术和通信技术的迅猛发展,智能终端的使用得到广泛普及,越来越多的应用程序被开发出来用于方便和丰富人们的工作与生活。目前,不少应用程序致力于为智能终端用户提供更加个性化与视觉感受更佳的视觉特效,例如滤镜效果、贴纸效果、形变效果等等。
但是现有的视觉特效一般都展示出较为固定的效果,例如用户在不同的个人状态下看到的特效形式是相同的,这种特效处理方式时常会引起用户的状态与特效效果不匹配,降低视觉特效的趣味性。
发明内容
为克服上述技术问题或者至少部分地解决上述技术问题,特提出以下技术方案:
第一方面,本公开提供了一种图像处理方法,该方法包括:
从待处理图像中提取出各个人脸区域图像;
分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;
将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果;
根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效。
第二方面,本公开提供了一种图像处理装置,该装置包括:
提取模块,用于从待处理图像中提取出各个人脸区域图像;
表情识别模块,用于分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;
分割模块,用于将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果;
特效添加模块,用于根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效。
第三方面,本公开提供了一种电子设备,本公开提供了一种电子设备,该电子设备包括:
处理器和存储器,该存储器存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如本公开的第一方面所示的方法。
第四方面,本公开提供了一种计算机可读介质,该计算机可读介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如本公开的第一方面所示的方法。
本公开提供的图像处理方法、装置、电子设备及计算机可读介质,采用从待处理图像中提取出各个人脸区域图像;分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果;根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效的特效实现方式,通过识别图像中人脸表情对应的目标情绪程度,来灵活地在目标区域触发目标特效,使得特效效果与用户状态保持一致,从而让特效的视觉内容更加逼真,提升用户的特效体验。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例提供的一种图像处理方法的流程示意图;
图2为本公开实施例提供的一种图像处理装置的结构示意图;
图3为本公开实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
为使本公开的目的、技术方案和优点更加清楚,下面将结合附图对本公开实施方式作进一步地详细描述。
本公开实施例提供了一种图像处理方法,如图1所示,该方法包括:
步骤S110:从待处理图像中提取出各个人脸区域图像;
本公开实施例中,待处理图像可以为人脸图像、人体图像、人流图像等包含人脸的图像,但不限于此,根据应用场景的不同,在其他实施方式中,待处理图像也可以为风景图像、物品图像等。
步骤S120:分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;
本公开实施例中,对人脸区域图像的表情识别,可以识别出人脸区域图像中的人脸表情属于目标情绪的程度,并将识别出的目标情绪程度作为对应的人脸区域图像的表情识别结果输出。
其中,目标情绪可以为快乐、愤怒、恐惧、悲哀等,但不限于此,本领域技术人员可以根据实际情况,以及关联需要激发的特效来设置目标情绪,并学习人脸表情具体属于该目标情绪的何种程度的识别能力。作为示例地,需要激发的为火焰特效,目标情绪可以愤怒,则需要学习人脸表情愤怒程度的识别能力。
本公开实施例中,情绪的程度可以通过数值进行表示,例如0、10、……、100等;也可以通过百分比进行表示,例如0%、50%、100%等;还可以通过等级进行表示,例如零级、一级、二级等,又例如重度、轻度、无等。以及,情绪程度可以分为多种程度类型,例如0、10、……、100等11种类型,又例如零级、一级、二级等3种类型。本领域技术人员可以根据实际情况对情绪程序的表示方式以及类型数量进行设置,本公开实施例在此不做限定。
步骤S130:将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果;
其中,目标区域为需要激发的特效在待处理图像中的相关区域,根据应用场景的不同,目标区域可以包括但不限于头发区域、眼睛区域、眉毛区域、鼻子区域、嘴巴区域、皮肤区域、手部区域等。其中,目标区域的分割可以通过学习分割目标区域的能力来实现。作为示例地,需要在人脸表情足够愤怒时,在头发区域激发火焰特效,则该示例的目标区域为头发区域,需要学习分割头发区域的能力。进一步地,目标区域还可以同时包括多个区域,作为示例地,需要在人脸表情足够愤怒时,同时在头发区域和手部激发火焰特效,则该示例的目标区域可以同时包括头发区域和手部区域,需要学习同时分割头发区域和手部区域的能力。本领域技术人员可以根据特效的实际需求对目标区域进行设置并学习相应区域的分割能力,本申请实施例在此不做限定。在其他实施例中,还可以针对多种区域,分别学习相应的分割能力后,根据用户的请求确定目标区域,并调用相应区域的分割能力对用户指定的目标区域进行分割。
可以理解,待处理图像中的每个人脸都具有对应的目标区域,即每个人脸区域图像都具有对应的目标区域,本公开实施例中,会将每个人脸区域图像分别对应的目标区域均分割出来。
步骤S140:根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效。
其中,目标特效为与目标情绪和目标区域相关的需要激发的特性,作为示例地,需要在人脸表情足够愤怒时,在头发区域激发火焰特效,则该示例的目标特效为火焰特效。根据应用场景的不同,在其他实施方式中,目标特效也可以为眉毛区域的眉毛跳动特效、手部区域的火焰特效等,本领域技术人员可以根据实际情况进行扩展,本公开实施例在此不做限定。
本公开实施例中,待处理图像中的每个人脸都可以根据其对应的目标情绪程度,决定是否触发目标特效。例如待处理图像中表情愤怒的人可以触发其头发区域的火焰特效,而表情平静的人则无需触发。对于需要触发目标特效的至少一个人脸,还可以分别根据其对应的目标情绪程度,触发不同形式的目标特效,例如待处理图像中表情愤怒程度高的人可以在头发区域触发的更鲜艳的火焰特效等。本领域技术人员可以根据实际情况进行扩展,本公开实施例在此不做限定。
本公开实施例提供的图像处理方法,通过识别图像中人脸表情对应的目标情绪程度,来灵活地在目标区域触发目标特效,使得特效效果与用户状态保持一致,从而让特效的视觉内容更加逼真,提升用户的特效体验。
本领域技术人员可以理解的是,本公开实施例中,待处理图像中的人脸数量可以为一个或多个。
具体地,当待处理图像中的人脸数量为一个时,步骤S110至步骤S140可以按如下方式执行:从该待处理图像中提取出人脸区域图像;对该人脸区域图像的进行表情识别,得到目标情绪程度;直接将该待处理图像进行目标区域分割,得到目标区域的分割结果;也可以先将该待处理图像中头部或人体检测出来,例如通过头部检测或人体检测的方式,再基于头部或人体(包含头部框或人体框的待处理图像)进行目标区域的分割;继而根据识别出的目标情绪程度,在该待处理图像中与分割结果相应的位置添加相应的目标特效。
具体地,当待处理图像中的人脸数量为多个时,步骤S110中需要从该待处理图像中提取出每个人脸的人脸区域图像,并且对于每个人脸区域图像,步骤S120至步骤S140均可以按如下方式执行:对每个人脸区域图像均进行表情识别,分别得到每个人脸的目标情绪程度;将该待处理图像进行目标区域分割,得到每个人脸区域图像对应的目标区域的分割结果;其中,可以直接将该待处理图像进行各个目标区域的分割,也可以先将该待处理图像中头部或人体单独分开,例如通过头部检测或人体检测的方式将待处理图像中每个头部或每个人体分开,再基于各个头部或各个人体(包含不同头部框或不同人体框的各个待处理图像)进行目标区域的分割;继而根据每个人脸的目标情绪程度,决定是否在该待处理图像中与分割结果相应的位置添加目标特效,以及添加何种目标特效。
也就是说,步骤S130具体可以包括步骤:将待处理图像进行头部检测(或人脸检测、或人体检测),得到各个头部框(或人脸框、或人体框);基于各个头部框(或人脸框、或人体框),将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果。
本公开实施例中,为步骤S110提供了一种可行的实现方式,具体而言,步骤S110可以包括步骤:
步骤S1101:通过预训练的人脸检测网络,在待处理图像中定位出各个人脸框;
该实施方式中,预先训练了人脸检测网络,将待处理图像输入预训练的人脸检测网络,人脸检测网络可以较精确地定位出待处理图像中的每个人脸的人脸框。
进一步地,对于上述步骤S130需要进行人脸检测的情况,也可以直接采用该步骤S1101得到的各个人脸框。
实际应用中,可以训练人脸检测网络输出的是定位出的人脸框的位置信息。其中,人脸框的位置信息可以表达为人脸框的坐标信息。例如,人脸框可以为矩形框,坐标信息可以是人脸框的四个顶点在坐标系中的坐标等,也可以采用其他定位方式,本公开实施例在此不做限定。
步骤S1102:根据各个人脸框,从待处理图像中提取出各个人脸区域图像。
由于人脸检测网络定位出的人脸框可以将待处理图像中的每个人脸框出来,将各个人脸框框出来的区域从待处理图像中抠出来,即提取出了各个人脸区域图像。
一种可选的实施方式中,可以对各个人脸框进行一定程度的扩张,例如扩张15%,再将扩张后的各个人脸框框出来的区域从待处理图像中抠出来,得到各个人脸区域图像,以此增加各个人脸四周的边缘空间,确保每个人脸区域图像中人脸的完整性。
本公开实施例中,为步骤S120提供了一种可行的实现方式,具体而言,目标情绪程度包括目标情绪程度的属性值,例如将目标情绪程度以0、10、……、100等属性值进行划分。则步骤S120可以包括步骤:通过预训练的表情识别网络,分别对各个人脸区域图像的进行目标情绪程度分类,得到对应的目标情绪程度的属性值。
该实施方式中,预先训练了表情识别网络,将各个人脸区域图像输入预训练的表情识别网络,表情识别网络可以较精确地对每个人脸区域图像所属的目标情绪程度进行分类,输出分类后对应的属性值。
本公开实施例中,表情识别网络可以基于分类网络进行训练。实际应用中,当设定的目标情绪程度仅为两种时,可以训练表情识别网络按照分类算法输出类别,即输入的人脸区域图像是否属于目标情绪;当设定的目标情绪程度仅为至少三种时,可以训练表情识别网络的按照回归算法输出一个属性值,这种情况下,训练表情识别网络所采用的损失函数可以采用绝对损失函数Smooth L1 Loss,即在每次训练会确定出预测值和目标值之间差值,当差值小于等于阈值时,使用平方损失函数L2 Loss来计算损失,以对表情识别网络进行优化;当差值大于阈值时,使用绝对值损失函数L1 Loss来损失,以对表情识别网络进行优化。
本领域技术人员可以理解的是,表情识别网络能够进行分类的目标情绪(例愤怒还是高兴等)、情绪程序的表示方式(例如属性值还是等级等)以及类型数量(例如3种程度或11种程度等)均由对表情识别网络的训练方式决定,可以根据实际情况采用合适的训练方式,在此不再赘述。
本公开实施例中,为步骤S130提供了一种可行的实现方式,具体而言,分割结果包括掩膜图像。则步骤S130可以包括步骤:通过预训练的目标区域分割网络,将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的掩膜图像。
该实施方式中,预先训练了目标区域分割网络,以学习分割目标区域的能力。将待处理图像输入预训练的目标区域分割网络,目标区域分割网络可以较精确地输出每个人脸区域图像所对应的目标区域的mask,即掩膜图像。
或者,预先训练了目标区域分割网络,将待处理图像中检测出的各个头部或各个人体(包含不同头部框或不同人体框的各个待处理图像)分别输入预训练的目标区域分割网络,目标区域分割网络可以较精确地输出每个人脸区域图像所对应的目标区域的mask,即掩膜图像。
其中,针对每个人脸区域图像,掩膜图像可以表示出待处理图像中各像素是否对应的目标区域。例如掩膜图像可以是由0和1组成的二进制图像,1值区域即对应的目标区域,0值区域即其他区域。
可以理解,待处理图像有多少张相关的人脸区域图像,就会对应的输出多少张掩膜图像,每张掩膜图像的大小与待处理图像相同,但每张掩膜图像的1值区域不相同。
那么,针对每个人脸区域图像,基于掩膜图像,就可以很容易地知道需要添加目标特效的位置,即待处理图像中与对应的掩膜图形的1值区域相应的位置。
实际应用中,上述相应的位置可以在对应的目标区域内,也可以包含对应的目标区域,还可以在对应的目标区域的四周,例如上方等,本公开实施例在此不做限定。
本领域技术人员可以理解的是,目标区域分割网络能够进行分割的目标区域是由训练方式决定,可以根据实际情况采用合适的训练方式,以得到所需的目标区域的分割网络,例如当目标区域为头发区域时,可以训练一个头发分割网络。
本公开实施例中,为步骤S140提供了一种可行的实现方式,具体而言,步骤S140具体可以包括步骤:
步骤S1401:根据至少一个人脸区域图像对应的目标情绪程度,将对应的分割结果中的目标区域进行调整;
步骤S1402:在待处理图像中与对应的调整后的分割结果相应的位置添加目标特效。
本公开实施例中,为了提高特效的逼真效果,还可以结合人脸的目标情绪程度,调整目标区域的大小、形态或位置,以匹配不同形式的目标特效,作为示例地,待处理图像中表情愤怒程度高的人可以在头发区域触发的更高的火焰特效等。本领域技术人员可以根据实际情况对目标区域的调整方式进行设置,本公开实施例在此不做限定。
具体地,结合上文所介绍的分割结果包括掩膜图像情况,步骤S1401具体可以是,根据至少一个人脸区域图像对应的目标情绪程度,将对应的掩膜图像中的目标区域掩膜(即1值区域)进行收缩或者扩张,即将人脸区域图像所对应的目标区域进行收缩或者扩张。
实际应用中,可以建立目标情绪程度与目标区域缩放方式的关联关系,那么根据该关联关系,即可由人脸区域图像对应的目标情绪程度,确定出目标区域需要缩放的方式,以对目标区域进行调整。本领域技术人员可以根据实际情况对该关联关系进行设置,本公开实施例在此不做限定。
本公开实施例中,对于步骤S140中的在待处理图像中与对应的分割结果相应的位置添加目标特效的步骤,提供了一种可行的实现方式,具体地,包括:根据至少一个人脸区域图像对应的分割结果,对待处理图像中对应的目标区域进行轮廓描边处理;在各个轮廓描边结果相应的位置添加目标特效。
那么,对于步骤S1402,则需要根据各个调整后的分割结果,对待处理图像中对应的目标区域进行轮廓描边处理;在各个轮廓描边结果相应的位置添加目标特效。
经过对目标区域的轮廓描边处理,可以对分割结果中的错误区域进行抑制,提高目标区域分割的准确性,进一步提高目标特效所要添加的位置的准确性。
对于本公开实施例,特效的处理指令可以通过用户在终端设备上的操作发出。其中,终端设备包括但不限于移动终端、智能终端等,例如移动电话、智能电话、平板电脑、笔记本电脑、个人数字助理、便携式多媒体播放器、导航装置等。本领域技术人员可以理解的是,除了特别用于移动目的的元件之外,根据本公开实施例的构造也能够应用于固定类型的终端,诸如数字电视、台式计算机等。
本公开实施例中,该图像处理方法的执行主体可以为该终端设备,或为安装于该终端设备上的应用程序。具体地,在接收到特效的处理指令后,采用上述任一实施方式进行处理,并将特效结果在显示屏幕上进行展示。
或者,该图像处理方法的执行主体可以为服务器,在接收到终端设备发出特效的处理指令后,采用上述任一实施方式进行处理,并将特效结果发送给终端设备进行展示。
实际应用中,待处理图像的数量可以为一个或多个。当待处理图像的数量为多个时,待处理图像也可以为待处理视频。其中,对于待处理视频中的每一帧图像,都可以采用上述任一实施方式进行处理。
本公开实施例提供的图像处理方法,通过识别图像中人脸表情对应的目标情绪程度,来灵活地在目标区域触发目标特效,使得特效效果与用户状态保持一致,从而让特效的视觉内容更加逼真,提升用户的特效体验。对于图像中包含多个人脸的情况,还可以实现有趣的交互效果,提高特效的可玩性。作为示例地,两个人A和B站在一起,A很生气地看着B,则可以在A的头发区域触发火焰特效,即可通过该特效实现方式实现A和B之间的有趣互动。
本公开实施例还提供了一种图像处理装置,如图2所示,该装置20可以包括:提取模块201、表情识别模块202、分割模块203以及特效添加模块204,其中,
提取模块201用于从待处理图像中提取出各个人脸区域图像;
表情识别模块202用于分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;
分割模块203用于将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果;
特效添加模块204用于根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效。
在一种可选的实现方式中,提取模块201在用于从待处理图像中提取出各个人脸区域图像时,具体用于:
通过预训练的人脸检测网络,在待处理图像中定位出各个人脸框;
根据各个人脸框,从待处理图像中提取出各个人脸区域图像。
在一种可选的实现方式中,目标情绪程度包括目标情绪程度的属性值;
表情识别模块202在用于分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度时,具体用于:
通过预训练的表情识别网络,分别对各个人脸区域图像的进行目标情绪程度分类,得到对应的目标情绪程度的属性值。
在一种可选的实现方式中,分割结果包括掩膜图像;
分割模块203在用于将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果时,具体用于:
通过预训练的目标区域分割网络,将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的掩膜图像。
在一种可选的实现方式中,特效添加模块204在用于根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效时,具体用于:
根据至少一个人脸区域图像对应的目标情绪程度,将对应的分割结果中的目标区域进行调整;
在待处理图像中与对应的调整后的分割结果相应的位置添加目标特效。
在一种可选的实现方式中,若分割结果包括掩膜图像,特效添加模块204在用于将对应的分割结果中的目标区域进行调整时,具体用于:
将对应的掩膜图像中的目标区域掩膜进行收缩或者扩张。
在一种可选的实现方式中,特效添加模块204在用于在待处理图像中与对应的分割结果相应的位置添加目标特效时,具体用于:
根据至少一个人脸区域图像对应的分割结果,对待处理图像中对应的目标区域进行轮廓描边处理;
在各个轮廓描边结果相应的位置添加目标特效。
本公开实施例所提供的图像处理装置,可以为设备上的特定硬件或者安装于设备上的软件或固件等,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,设备实施例部分未提及之处,可参考前述方法实施例中相应内容,在此不再赘述。
本公开实施例所提供的图像处理装置,通过识别图像中人脸表情对应的目标情绪程度,来灵活地在目标区域触发目标特效,使得特效效果与用户状态保持一致,从而让特效的视觉内容更加逼真,提升用户的特效体验。
基于与本公开实施例中的图像处理方法相同的原理,本公开实施例还提供了一种电子设备,该电子设备包括存储器和处理器,存储器存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行本公开上述任一实施例所示的方法。
基于与本公开实施例中的图像处理方法相同的原理,本公开实施例中还提供了一种计算机可读介质,计算机可读介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行本公开上述任一实施例所示的方法。
下面参考图3,其示出了适于用来实现本公开实施例的电子设备30的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图3示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
电子设备包括:存储器以及处理器,其中,这里的处理器可以称为下文的处理装置301,存储器可以包括下文中的只读存储器(ROM)302、随机访问存储器(RAM)303以及存储装置308中的至少一项,具体如下所示:
如图3所示,电子设备30可以包括处理装置(例如中央处理器、图形处理器等)301,其可以根据存储在只读存储器(ROM)302中的程序或者从存储装置308加载到随机访问存储器(RAM)303中的程序而执行各种适当的动作和处理。在RAM 303中,还存储有电子设备30操作所需的各种程序和数据。处理装置301、ROM302以及RAM 303通过总线304彼此相连。输入/输出(I/O)接口305也连接至总线304。
通常,以下装置可以连接至I/O接口305:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置306;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置307;包括例如磁带、硬盘等的存储装置308;以及通信装置309。通信装置309可以允许电子设备30与其他设备进行无线或有线通信以交换数据。虽然图3示出了具有各种装置的电子设备30,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置309从网络上被下载和安装,或者从存储装置308被安装,或者从ROM 302被安装。在该计算机程序被处理装置301执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备执行本公开上述任一实施例所示的图像处理方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的模块或单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,模块或单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上***(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,示例1提供了一种图像处理方法,该方法包括:
从待处理图像中提取出各个人脸区域图像;
分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;
将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果;
根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效。
在一种可选的实现方式中,从待处理图像中提取出各个人脸区域图像,包括:
通过预训练的人脸检测网络,在待处理图像中定位出各个人脸框;
根据各个人脸框,从待处理图像中提取出各个人脸区域图像。
在一种可选的实现方式中,目标情绪程度包括目标情绪程度的属性值;
分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度,包括:
通过预训练的表情识别网络,分别对各个人脸区域图像的进行目标情绪程度分类,得到对应的目标情绪程度的属性值。
在一种可选的实现方式中,分割结果包括掩膜图像;
将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果,包括:
通过预训练的目标区域分割网络,将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的掩膜图像。
在一种可选的实现方式中,根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效,包括:
根据至少一个人脸区域图像对应的目标情绪程度,将对应的分割结果中的目标区域进行调整;
在待处理图像中与对应的调整后的分割结果相应的位置添加目标特效。
在一种可选的实现方式中,分割结果包括掩膜图像时,将对应的分割结果中的目标区域进行调整,包括:
将对应的掩膜图像中的目标区域掩膜进行收缩或者扩张。
在一种可选的实现方式中,在待处理图像中与对应的分割结果相应的位置添加目标特效,包括:
根据至少一个人脸区域图像对应的分割结果,对待处理图像中对应的目标区域进行轮廓描边处理;
在各个轮廓描边结果相应的位置添加目标特效。
根据本公开的一个或多个实施例,示例2提供了示例1的一种图像处理装置,该装置包括:
提取模块,用于从待处理图像中提取出各个人脸区域图像;
表情识别模块,用于分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;
分割模块,用于将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果;
特效添加模块,用于根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效。
在一种可选的实现方式中,提取模块在用于从待处理图像中提取出各个人脸区域图像时,具体用于:
通过预训练的人脸检测网络,在待处理图像中定位出各个人脸框;
根据各个人脸框,从待处理图像中提取出各个人脸区域图像。
在一种可选的实现方式中,目标情绪程度包括目标情绪程度的属性值;
表情识别模块在用于分别对各个人脸区域图像的进行表情识别,得到对应的目标情绪程度时,具体用于:
通过预训练的表情识别网络,分别对各个人脸区域图像的进行目标情绪程度分类,得到对应的目标情绪程度的属性值。
在一种可选的实现方式中,分割结果包括掩膜图像;
分割模块在用于将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的目标区域的分割结果时,具体用于:
通过预训练的目标区域分割网络,将待处理图像进行目标区域分割,分别得到各个人脸区域图像分别对应的掩膜图像。
在一种可选的实现方式中,特效添加模块在用于根据至少一个人脸区域图像对应的目标情绪程度,在待处理图像中与对应的分割结果相应的位置添加目标特效时,具体用于:
根据至少一个人脸区域图像对应的目标情绪程度,将对应的分割结果中的目标区域进行调整;
在待处理图像中与对应的调整后的分割结果相应的位置添加目标特效。
在一种可选的实现方式中,若分割结果包括掩膜图像,特效添加模块在用于将对应的分割结果中的目标区域进行调整时,具体用于:
将对应的掩膜图像中的目标区域掩膜进行收缩或者扩张。
在一种可选的实现方式中,特效添加模块在用于在待处理图像中与对应的分割结果相应的位置添加目标特效时,具体用于:
根据至少一个人脸区域图像对应的分割结果,对待处理图像中对应的目标区域进行轮廓描边处理;
在各个轮廓描边结果相应的位置添加目标特效。
根据本公开的一个或多个实施例,示例3提供了一种电子设备,该电子设备包括:
处理器和存储器,该存储器存储有至少一条指令、至少一段程序、代码集或指令集,该至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如本公开示例1所示的方法。
根据本公开的一个或多个实施例,示例4提供了一种计算机可读介质,该计算机可读介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如本公开示例1所示的方法。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。
Claims (10)
1.一种图像处理方法,其特征在于,包括:
从待处理图像中提取出各个人脸区域图像;
分别对所述各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;
将所述待处理图像进行目标区域分割,分别得到所述各个人脸区域图像分别对应的目标区域的分割结果;
根据至少一个人脸区域图像对应的所述目标情绪程度,在所述待处理图像中与对应的分割结果相应的位置添加目标特效。
2.根据权利要求1所述的图像处理方法,其特征在于,所述从待处理图像中提取出各个人脸区域图像,包括:
通过预训练的人脸检测网络,在待处理图像中定位出各个人脸框;
根据所述各个人脸框,从所述待处理图像中提取出各个人脸区域图像。
3.根据权利要求1所述的图像处理方法,其特征在于,所述目标情绪程度包括所述目标情绪程度的属性值;
所述分别对所述各个人脸区域图像的进行表情识别,得到对应的目标情绪程度,包括:
通过预训练的表情识别网络,分别对所述各个人脸区域图像的进行目标情绪程度分类,得到对应的目标情绪程度的属性值。
4.根据权利要求1所述的图像处理方法,其特征在于,所述分割结果包括掩膜图像;
所述将所述待处理图像进行目标区域分割,分别得到所述各个人脸区域图像分别对应的目标区域的分割结果,包括:
通过预训练的目标区域分割网络,将所述待处理图像进行目标区域分割,分别得到所述各个人脸区域图像分别对应的掩膜图像。
5.根据权利要求1-4任一项所述的图像处理方法,其特征在于,所述根据至少一个人脸区域图像对应的所述目标情绪程度,在所述待处理图像中与对应的分割结果相应的位置添加目标特效,包括:
根据所述至少一个人脸区域图像对应的所述目标情绪程度,将对应的分割结果中的目标区域进行调整;
在所述待处理图像中与对应的调整后的分割结果相应的位置添加目标特效。
6.根据权利要求5所述的图像处理方法,其特征在于,所述分割结果包括掩膜图像时,所述将对应的分割结果中的目标区域进行调整,包括:
将对应的掩膜图像中的目标区域掩膜进行收缩或者扩张。
7.根据权利要求1-4任一项所述的图像处理方法,其特征在于,在所述待处理图像中与对应的分割结果相应的位置添加目标特效,包括:
根据所述至少一个人脸区域图像对应的分割结果,对所述待处理图像中对应的目标区域进行轮廓描边处理;
在各个轮廓描边结果相应的位置添加目标特效。
8.一种图像处理装置,其特征在于,包括:
提取模块,用于从待处理图像中提取出各个人脸区域图像;
表情识别模块,用于分别对所述各个人脸区域图像的进行表情识别,得到对应的目标情绪程度;
分割模块,用于将所述待处理图像进行目标区域分割,分别得到所述各个人脸区域图像分别对应的目标区域的分割结果;
特效添加模块,用于根据至少一个人脸区域图像对应的所述目标情绪程度,在所述待处理图像中与对应的分割结果相应的位置添加目标特效。
9.一种电子设备,其特征在于,包括:
处理器和存储器,所述存储器存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1-7任一项所述的方法。
10.一种计算机可读介质,其特征在于,所述计算机可读介质用于存储计算机指令、程序、代码集或指令集,当其在计算机上运行时,使得计算机执行如权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010514535.6A CN111696176B (zh) | 2020-06-08 | 2020-06-08 | 图像处理方法、装置、电子设备及计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010514535.6A CN111696176B (zh) | 2020-06-08 | 2020-06-08 | 图像处理方法、装置、电子设备及计算机可读介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111696176A true CN111696176A (zh) | 2020-09-22 |
CN111696176B CN111696176B (zh) | 2022-08-19 |
Family
ID=72479814
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010514535.6A Active CN111696176B (zh) | 2020-06-08 | 2020-06-08 | 图像处理方法、装置、电子设备及计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111696176B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112422844A (zh) * | 2020-09-23 | 2021-02-26 | 上海哔哩哔哩科技有限公司 | 在视频中添加特效的方法、装置、设备及可读存储介质 |
CN112465843A (zh) * | 2020-12-22 | 2021-03-09 | 深圳市慧鲤科技有限公司 | 图像分割方法及装置、电子设备和存储介质 |
CN112766189A (zh) * | 2021-01-25 | 2021-05-07 | 北京有竹居网络技术有限公司 | 深度伪造检测方法、装置、存储介质及电子设备 |
CN112822418A (zh) * | 2020-12-31 | 2021-05-18 | 北京字节跳动网络技术有限公司 | 视频处理方法和装置、存储介质和电子设备 |
CN113422910A (zh) * | 2021-05-17 | 2021-09-21 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备和存储介质 |
CN115426505A (zh) * | 2022-11-03 | 2022-12-02 | 北京蔚领时代科技有限公司 | 基于面部捕捉的预设表情特效触发方法及相关设备 |
CN117079324A (zh) * | 2023-08-17 | 2023-11-17 | 厚德明心(北京)科技有限公司 | 一种人脸情绪识别方法、装置、电子设备及存储介质 |
CN117435110A (zh) * | 2023-10-11 | 2024-01-23 | 书行科技(北京)有限公司 | 一种图片处理方法、装置、电子设备和存储介质 |
WO2024041637A1 (zh) * | 2022-08-26 | 2024-02-29 | 北京字跳网络技术有限公司 | 特效图生成方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104703043A (zh) * | 2015-03-26 | 2015-06-10 | 努比亚技术有限公司 | 一种添加视频特效的方法和装置 |
CN108229269A (zh) * | 2016-12-31 | 2018-06-29 | 深圳市商汤科技有限公司 | 人脸检测方法、装置和电子设备 |
CN110162670A (zh) * | 2019-05-27 | 2019-08-23 | 北京字节跳动网络技术有限公司 | 用于生成表情包的方法和装置 |
CN110992247A (zh) * | 2019-11-25 | 2020-04-10 | 杭州趣维科技有限公司 | 一种人像照片头发拉直特效的实现方法及*** |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103854306A (zh) * | 2012-12-07 | 2014-06-11 | 山东财经大学 | 一种高真实感的动态表情建模方法 |
CN109117760B (zh) * | 2018-07-27 | 2021-01-22 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备和计算机可读介质 |
-
2020
- 2020-06-08 CN CN202010514535.6A patent/CN111696176B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104703043A (zh) * | 2015-03-26 | 2015-06-10 | 努比亚技术有限公司 | 一种添加视频特效的方法和装置 |
CN108229269A (zh) * | 2016-12-31 | 2018-06-29 | 深圳市商汤科技有限公司 | 人脸检测方法、装置和电子设备 |
CN110162670A (zh) * | 2019-05-27 | 2019-08-23 | 北京字节跳动网络技术有限公司 | 用于生成表情包的方法和装置 |
CN110992247A (zh) * | 2019-11-25 | 2020-04-10 | 杭州趣维科技有限公司 | 一种人像照片头发拉直特效的实现方法及*** |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112422844A (zh) * | 2020-09-23 | 2021-02-26 | 上海哔哩哔哩科技有限公司 | 在视频中添加特效的方法、装置、设备及可读存储介质 |
WO2022134382A1 (zh) * | 2020-12-22 | 2022-06-30 | 深圳市慧鲤科技有限公司 | 图像分割方法及装置、电子设备和存储介质、计算机程序 |
CN112465843A (zh) * | 2020-12-22 | 2021-03-09 | 深圳市慧鲤科技有限公司 | 图像分割方法及装置、电子设备和存储介质 |
CN112822418A (zh) * | 2020-12-31 | 2021-05-18 | 北京字节跳动网络技术有限公司 | 视频处理方法和装置、存储介质和电子设备 |
CN112822418B (zh) * | 2020-12-31 | 2022-12-06 | 北京字节跳动网络技术有限公司 | 视频处理方法和装置、存储介质和电子设备 |
CN112766189B (zh) * | 2021-01-25 | 2023-08-08 | 北京有竹居网络技术有限公司 | 深度伪造检测方法、装置、存储介质及电子设备 |
CN112766189A (zh) * | 2021-01-25 | 2021-05-07 | 北京有竹居网络技术有限公司 | 深度伪造检测方法、装置、存储介质及电子设备 |
CN113422910A (zh) * | 2021-05-17 | 2021-09-21 | 北京达佳互联信息技术有限公司 | 视频处理方法、装置、电子设备和存储介质 |
WO2024041637A1 (zh) * | 2022-08-26 | 2024-02-29 | 北京字跳网络技术有限公司 | 特效图生成方法、装置、设备及存储介质 |
CN115426505A (zh) * | 2022-11-03 | 2022-12-02 | 北京蔚领时代科技有限公司 | 基于面部捕捉的预设表情特效触发方法及相关设备 |
CN115426505B (zh) * | 2022-11-03 | 2023-03-24 | 北京蔚领时代科技有限公司 | 基于面部捕捉的预设表情特效触发方法及相关设备 |
CN117079324A (zh) * | 2023-08-17 | 2023-11-17 | 厚德明心(北京)科技有限公司 | 一种人脸情绪识别方法、装置、电子设备及存储介质 |
CN117079324B (zh) * | 2023-08-17 | 2024-03-12 | 厚德明心(北京)科技有限公司 | 一种人脸情绪识别方法、装置、电子设备及存储介质 |
CN117435110A (zh) * | 2023-10-11 | 2024-01-23 | 书行科技(北京)有限公司 | 一种图片处理方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111696176B (zh) | 2022-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111696176B (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
CN111368685B (zh) | 关键点的识别方法、装置、可读介质和电子设备 | |
US11436863B2 (en) | Method and apparatus for outputting data | |
CN110162670B (zh) | 用于生成表情包的方法和装置 | |
CN111369427B (zh) | 图像处理方法、装置、可读介质和电子设备 | |
US11443438B2 (en) | Network module and distribution method and apparatus, electronic device, and storage medium | |
US20240221126A1 (en) | Image splicing method and apparatus, and device and medium | |
US20230036338A1 (en) | Method and apparatus for generating image restoration model, medium and program product | |
CN113610034B (zh) | 识别视频中人物实体的方法、装置、存储介质及电子设备 | |
CN113923378B (zh) | 视频处理方法、装置、设备及存储介质 | |
CN112990176B (zh) | 书写质量评价方法、装置和电子设备 | |
CN112738555B (zh) | 视频处理方法及装置 | |
CN110619602B (zh) | 一种图像生成方法、装置、电子设备及存储介质 | |
CN111783677A (zh) | 人脸识别方法、装置、服务器和计算机可读介质 | |
CN110765304A (zh) | 图像处理方法、装置、电子设备及计算机可读介质 | |
US11810336B2 (en) | Object display method and apparatus, electronic device, and computer readable storage medium | |
CN111797873A (zh) | 场景识别方法、装置、存储介质及电子设备 | |
CN113905177B (zh) | 视频生成方法、装置、设备及存储介质 | |
CN115422932A (zh) | 一种词向量训练方法及装置、电子设备和存储介质 | |
CN111291640B (zh) | 用于识别步态的方法和装置 | |
CN112085035A (zh) | 图像处理方法、装置、电子设备和计算机可读介质 | |
CN110263743B (zh) | 用于识别图像的方法和装置 | |
CN115147434A (zh) | 图像处理方法、装置、终端设备及计算机可读存储介质 | |
CN113096134A (zh) | 基于单阶段网络的实时实例分割方法及其***和电子设备 | |
CN112115740A (zh) | 用于处理图像的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |