CN107820027A - 视频人物装扮方法、装置、计算设备及计算机存储介质 - Google Patents

视频人物装扮方法、装置、计算设备及计算机存储介质 Download PDF

Info

Publication number
CN107820027A
CN107820027A CN201711066571.5A CN201711066571A CN107820027A CN 107820027 A CN107820027 A CN 107820027A CN 201711066571 A CN201711066571 A CN 201711066571A CN 107820027 A CN107820027 A CN 107820027A
Authority
CN
China
Prior art keywords
image
processing
video
dressed
effect textures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711066571.5A
Other languages
English (en)
Inventor
程斌
颜水成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Qihoo Technology Co Ltd
Original Assignee
Beijing Qihoo Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Qihoo Technology Co Ltd filed Critical Beijing Qihoo Technology Co Ltd
Priority to CN201711066571.5A priority Critical patent/CN107820027A/zh
Publication of CN107820027A publication Critical patent/CN107820027A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • H04N2005/2726Means for inserting a foreground image in a background image, i.e. inlay, outlay for simulating a person's appearance, e.g. hair style, glasses, clothes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种视频人物装扮方法、装置、计算设备及计算机存储介质,该方法包括:实时获取视频中包含特定对象的当前帧图像;对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像;绘制与面部待装扮区域图像对应的美妆效果贴图;将美妆效果贴图与前景图像进行融合处理,得到帧处理图像;将帧处理图像覆盖当前帧图像得到处理后的视频数据;显示处理后的视频数据。本发明采用了深度学习方法,实现了高效率高精准性地完成场景分割处理,本发明能够精准、快速地为视频中的人物的面部区域添加美化效果,提高了视频数据处理效率,优化了视频数据处理方式,美化了视频数据显示效果。

Description

视频人物装扮方法、装置、计算设备及计算机存储介质
技术领域
本发明涉及图像处理技术领域,具体涉及一种视频人物装扮方法、装置、计算设备及计算机存储介质。
背景技术
随着科技的发展,图像采集设备的技术也日益提高。采集到的图像更加清晰、分辨率、显示效果也大幅提高。但现有录制的视频仅是单调的录制素材本身,可能无法满足用户的需求,用户希望对视频进行个性化处理,例如,用户想要对视频中的人物的面部区域添加美化效果。在现有技术中,大多是采用自适应模糊的方式对视频的帧图像进行处理,从而使其中的人物具有美化效果,然而采用这种方式处理后所得到的视频的显示效果不佳,视频不够清晰,背景虚化,缺乏真实性。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的视频人物装扮方法、装置、计算设备及计算机存储介质。
根据本发明的一个方面,提供了一种视频人物装扮方法,该方法包括:
实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像;
对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像;
绘制与面部待装扮区域图像对应的美妆效果贴图;
将美妆效果贴图与前景图像进行融合处理,得到帧处理图像;
将帧处理图像覆盖当前帧图像得到处理后的视频数据;
显示处理后的视频数据。
进一步地,绘制与面部待装扮区域图像对应的美妆效果贴图进一步包括:
从面部待装扮区域图像中提取出面部待装扮区域的关键信息,根据关键信息绘制美妆效果贴图。
进一步地,从面部待装扮区域图像中提取出面部待装扮区域的关键信息进一步包括:
关键信息为关键点信息;
从面部待装扮区域图像中提取出面部待装扮区域边缘的关键点信息。
进一步地,根据关键信息绘制美妆效果贴图进一步包括:
关键信息为关键点信息;
查找与关键点信息对应的基础美妆效果贴图;或者,获取与用户选择操作对应的基础美妆效果贴图;
根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图。
进一步地,依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图进一步包括:
依据位置信息中的距离信息,对基础美妆效果贴图进行缩放处理。
进一步地,依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图进一步包括:
依据位置信息中的旋转角度信息,对基础美妆效果贴图进行旋转处理。
进一步地,将美妆效果贴图与前景图像进行融合处理,得到帧处理图像进一步包括:
将对当前帧图像进行场景分割处理得到的背景图像或者预设背景图像与美妆效果贴图、前景图像进行融合处理,得到帧处理图像。
进一步地,在得到帧处理图像之后,该方法还包括:
对帧处理图像进行色调处理、光照处理和/或亮度处理。
进一步地,显示处理后的视频数据进一步包括:将处理后的视频数据实时显示;
该方法还包括:将处理后的视频数据上传至云服务器。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
进一步地,将处理后的视频数据上传至云服务器进一步包括:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
根据本发明的另一方面,提供了一种视频人物装扮装置,该装置包括:
获取模块,适于实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像;
分割模块,适于对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像;
贴图处理模块,适于绘制与面部待装扮区域图像对应的美妆效果贴图;
融合处理模块,适于将美妆效果贴图与前景图像进行融合处理,得到帧处理图像;
覆盖模块,适于将帧处理图像覆盖当前帧图像得到处理后的视频数据;
显示模块,适于显示处理后的视频数据。
进一步地,贴图处理模块进一步适于:
从面部待装扮区域图像中提取出面部待装扮区域的关键信息,根据关键信息绘制美妆效果贴图。
进一步地,关键信息为关键点信息;贴图处理模块进一步适于:
从面部待装扮区域图像中提取出面部待装扮区域边缘的关键点信息。
进一步地,关键信息为关键点信息;贴图处理模块进一步适于:
查找与关键点信息对应的基础美妆效果贴图;或者,获取与用户选择操作对应的基础美妆效果贴图;
根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图。
进一步地,贴图处理模块进一步适于:
依据位置信息中的距离信息,对基础美妆效果贴图进行缩放处理。
进一步地,贴图处理模块进一步适于:
依据位置信息中的旋转角度信息,对基础美妆效果贴图进行旋转处理。
进一步地,融合处理模块进一步适于:
将对当前帧图像进行场景分割处理得到的背景图像或者预设背景图像与美妆效果贴图、前景图像进行融合处理,得到帧处理图像。
进一步地,该装置还包括:
图像处理模块,适于对帧处理图像进行色调处理、光照处理和/或亮度处理。
进一步地,显示模块进一步适于:将处理后的视频数据实时显示;
该装置还包括:
上传模块,适于将处理后的视频数据上传至云服务器。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云直播服务器,以供云直播服务器将视频数据实时推送给观看用户客户端。
进一步地,上传模块进一步适于:
将处理后的视频数据上传至云公众号服务器,以供云公众号服务器将视频数据推送给公众号关注客户端。
根据本发明的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,处理器、存储器和通信接口通过通信总线完成相互间的通信;
存储器用于存放至少一可执行指令,可执行指令使处理器执行上述视频人物装扮方法对应的操作。
根据本发明的再一方面,提供了一种计算机存储介质,存储介质中存储有至少一可执行指令,可执行指令使处理器执行如上述视频人物装扮方法对应的操作。
根据本发明提供的技术方案,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像,或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像,接着绘制与面部待装扮区域图像对应的美妆效果贴图,将美妆效果贴图与前景图像进行融合处理,得到帧处理图像,然后将帧处理图像覆盖当前帧图像得到处理后的视频数据,显示处理后的视频数据。本发明采用了深度学习方法,实现了高效率高精准性地完成场景分割处理,本发明提供的技术方案基于所得到的场景分割处理结果能够精准、快速地为视频中的人物的面部区域添加美化效果,提高了视频数据处理效率,优化了视频数据处理方式,美化了视频数据显示效果。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了根据本发明一个实施例的视频人物装扮方法的流程示意图;
图2示出了根据本发明另一个实施例的视频人物装扮方法的流程示意图;
图3示出了根据本发明一个实施例的视频人物装扮装置的结构框图;
图4示出了根据本发明另一个实施例的视频人物装扮装置的结构框图;
图5示出了根据本发明实施例的一种计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1示出了根据本发明一个实施例的视频人物装扮方法的流程示意图,如图1所示,该方法包括如下步骤:
步骤S100,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像。
本实施例中图像采集设备以移动终端为例进行说明。实时获取到移动终端摄像头在录制视频时的当前帧图像或者拍摄视频时的当前帧图像。由于本发明对特定对象进行处理,因此获取当前帧图像时仅获取包含特定对象的当前帧图像。除实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像外,还可以实时获取当前所播放的视频中包含特定对象的当前帧图像。其中,特定对象可为人体等。
步骤S101,对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像。
其中,在对当前帧图像进行场景分割处理时,可以利用深度学习方法。深度学习是机器学习中一种基于对数据进行表征学习的方法。观测值(例如一幅图像)可以使用多种方式来表示,如每个像素强度值的向量,或者更抽象地表示成一系列边、特定形状的区域等。而使用某些特定的表示方法更容易从实例中学习任务(例如,人脸识别或面部表情识别)。可利用深度学习的分割方法对当前帧图像进行场景分割处理,得到与当前帧图像对应的场景分割结果。具体地,可利用深度学习方法得到的场景分割网络等对当前帧图像进行场景分割处理,得到当前帧图像针对于特定对象的前景图像、背景图像以及特定对象的面部待装扮区域图像,其中,该前景图像可以仅包含特定对象,背景图像为当前帧图像中除前景图像之外的图像。以特定对象为人体为例,特定对象的面部待装扮区域图像可以包括人体的五官区域的图像以及脸颊、额头和下巴等部位对应区域的图像等,其中,五官区域可泛指面部区域中眉毛等各部位的区域,具体地,五官区域可包括:眉毛、眼睛、耳朵、鼻子和嘴巴等部位对应的区域。
步骤S102,绘制与面部待装扮区域图像对应的美妆效果贴图。
在得到了面部待装扮区域图像之后,为面部待装扮区域图像绘制与其对应的美妆效果贴图。本领域技术人员可根据实际需要为面部待装扮区域图像设置美妆效果贴图,此处不做限定。例如,若面部待装扮区域图像为眉毛区域图像,则绘制与眉毛区域图像对应的眉型效果贴图;若面部待装扮区域图像为眼睛区域图像,则绘制与眼睛区域图像对应的眼影效果贴图;若面部待装扮区域图像为嘴巴区域图像,则绘制与嘴巴区域图像对应的唇彩效果贴图;若面部待装扮区域图像为脸颊区域图像,则绘制与脸颊区域图像对应的腮红效果贴图。
步骤S103,将美妆效果贴图与前景图像进行融合处理,得到帧处理图像。
在绘制得到了美妆效果贴图之后,将美妆效果贴图与前景图像进行融合处理,使得美妆效果贴图能够真实、精准地与前景图像中的特定对象融合在一起,从而得到帧处理图像。
步骤S104,将帧处理图像覆盖当前帧图像得到处理后的视频数据。
使用帧处理图像直接覆盖掉原来的当前帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到帧处理图像。
在得到帧处理图像时,会将帧处理图像直接覆盖原来的当前帧图像。覆盖时的速度较快,一般在1/24秒之内完成。对于用户而言,由于覆盖处理的时间相对短,人眼没有明显的察觉,即人眼没有察觉到视频数据中的原当前帧图像被覆盖的过程。这样在后续显示处理后的视频数据时,相当于一边拍摄和/或录制和/或播放视频数据时,一边实时显示的为处理后的视频数据,用户不会感觉到视频数据中帧图像发生覆盖的显示效果。
步骤S105,显示处理后的视频数据。
得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
根据本实施例提供的视频人物装扮方法,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像,或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像,接着绘制与面部待装扮区域图像对应的美妆效果贴图,将美妆效果贴图与前景图像进行融合处理,得到帧处理图像,然后将帧处理图像覆盖当前帧图像得到处理后的视频数据,显示处理后的视频数据。本发明采用了深度学习方法,实现了高效率高精准性地完成场景分割处理,本发明提供的技术方案基于所得到的场景分割处理结果能够精准、快速地为视频中的人物的面部区域添加美化效果,提高了视频数据处理效率,优化了视频数据处理方式,美化了视频数据显示效果。
图2示出了根据本发明另一个实施例的视频人物装扮方法的流程示意图,如图2所示,该方法包括如下步骤:
步骤S200,实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像。
步骤S201,对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像。
步骤S202,从面部待装扮区域图像中提取出面部待装扮区域的关键信息,根据关键信息绘制美妆效果贴图。
为方便绘制美妆效果贴图,需要从面部待装扮区域图像中提取出面部待装扮区域的关键信息。该关键信息可以具体为关键点信息、关键区域信息、和/或关键线信息等。本发明的实施例以关键信息为关键点信息为例进行说明,但本发明的关键信息不限于是关键点信息。使用关键点信息可以提高根据关键点信息绘制美妆效果贴图的处理速度和效率,可以直接根据关键点信息绘制美妆效果贴图,不需要再对关键信息进行后续计算、分析等复杂操作。同时,关键点信息便于提取,且提取准确,使得绘制美妆效果贴图的效果更精准。具体地,可从面部待装扮区域图像中提取出面部待装扮区域边缘的关键点信息。以面部待装扮区域图像为嘴巴区域图像为例,从嘴巴区域图像中提取出嘴巴区域边缘的关键点信息。
为了能够方便、快速地绘制出美妆效果贴图,可预先绘制许多的基础美妆效果贴图,那么在绘制与面部待装扮区域图像对应的美妆效果贴图时,就可先找到对应的基础美妆效果贴图,然后对基础美妆效果贴图进行处理,从而快速地得到美妆效果贴图。其中,这些基础美妆效果贴图可包括不同眉型的基础眉型效果贴图、不同颜色的基础眼影效果贴图、不同颜色的基础唇彩效果贴图以及不同颜色的基础腮红效果贴图等。另外,为了便于管理这些基础美妆效果贴图,可建立一个效果贴图库,将这些基础美妆效果贴图存储至该效果贴图库中。
具体地,在从面部待装扮区域图像中提取出面部待装扮区域的关键点信息之后,可查找与关键点信息对应的基础美妆效果贴图,或者,获取与用户选择操作对应的基础美妆效果贴图,接着根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息,然后依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图。通过这种方式能够精准地绘制得到美妆效果贴图。
其中,本方法可以根据提取的关键点信息,自动地从效果贴图库中查找与关键点信息对应的基础美妆效果贴图,以面部待装扮区域图像为嘴巴区域图像为例,提取出的关键点信息是嘴巴的关键点信息,然后从效果贴图库中查找与嘴巴的关键点信息对应的基础美妆效果贴图,也就是相当于查找基础唇彩效果贴图。另外,在实际应用中,为了便于用户使用、更好地满足用户的个性化需求,可向用户展现效果贴图库中所包含的基础美妆效果贴图,用户可根据自己的喜好自行选择基础美妆效果贴图,那么在这种情况下,本方法可获取与用户选择操作对应的基础美妆效果贴图。
以面部待装扮区域图像为眼睛区域图像为例,可计算两个眼角所在位置的关键点之间的位置信息;以面部待装扮区域图像为嘴巴区域图像为例,可计算两个嘴角所在位置的关键点之间的位置信息。其中,位置信息可包括距离信息和旋转角度信息,具体地,可依据具有对称关系的至少两个关键点之间的位置信息中的距离信息,对基础美妆效果贴图进行缩放处理,和/或,依据具有对称关系的至少两个关键点之间的位置信息中的旋转角度信息,对基础美妆效果贴图进行旋转处理,从而得到与面部待装扮区域图像对应的美妆效果贴图。
由于特定对象在录制视频时与图像采集设备的距离不同,导致特定对象在当前帧图像中的大小不一致,从而导致经场景分割处理得到的特定对象的面部待装扮区域图像的大小也不一致。以特定对象为人体为例,当人体在录制视频时与图像采集设备的距离较远时,人体在当前帧图像中呈现较小,那么人体的面部待装扮区域图像也较小;当人体在录制视频时与图像采集设备的距离较近时,人体在当前帧图像中呈现较大,那么人体的面部待装扮区域图像也较大。依据具有对称关系的至少两个关键点之间的位置信息中的距离信息,对基础美妆效果贴图进行缩放处理,以使得到的美妆效果贴图更切合前景图像中特定对象的大小。例如,当经场景分割处理得到的特定对象的面部待装扮区域图像较小时,可以对基础美妆效果贴图进行缩小处理,以更切合前景图像;当经场景分割处理得到的特定对象的面部待装扮区域图像较大时,可以对基础美妆效果贴图进行放大处理,以更切合前景图像。
另外,考虑到特定对象在图像采集设备录制视频时获取到的当前帧图像中可能存在不是正向面对的情况,如人体以扭头的形式在当前帧图像中呈现时,为使美妆效果贴图更切合前景图像,也需要对基础美妆效果贴图进行旋转处理。以面部待装扮区域图像为嘴巴区域图像为例,如果计算出两个嘴角的连线向左旋转了15度,对应的将基础美妆效果贴图向左旋转15度,以更切合前景图像。
步骤S203,将对当前帧图像进行场景分割处理得到的背景图像或者预设背景图像与美妆效果贴图、前景图像进行融合处理,得到帧处理图像。
在绘制得到了美妆效果贴图之后,可将对当前帧图像进行场景分割处理得到的背景图像(即当前帧图像原有的背景图像)与美妆效果贴图、前景图像进行融合处理,得到帧处理图像;也可将预设背景图像与美妆效果贴图、前景图像进行融合处理,得到帧处理图像。其中,预设背景图像可为动态的背景图像,也可为静态的背景图像。本领域技术人员可根据实际需要设置预设背景图像,此处不做限定。
其中,帧处理图像的图层顺序从前往后可依次为美妆效果贴图、前景图像、背景图像,当帧处理图像中还包含其他图层时,其他图层的顺序不影响美妆效果贴图、前景图像、背景图像的前后顺序。
步骤S204,对帧处理图像进行色调处理、光照处理和/或亮度处理。
由于帧处理图像中包含了美妆效果贴图,为使帧处理图像的显示效果更自然真实,可以对帧处理图像进行图像处理。图像处理可以包括对帧处理图像进行色调处理、光照处理、亮度处理等。比如,对帧处理图像进行提高亮度处理,使人物的面部显得嫩白,使其整体的效果更加自然、美观。
步骤S205,将帧处理图像覆盖当前帧图像得到处理后的视频数据。
使用帧处理图像直接覆盖掉原来的当前帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到帧处理图像。
步骤S206,显示处理后的视频数据。
得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
步骤S207,将处理后的视频数据上传至云服务器。
将处理后的视频数据可以直接上传至云服务器,具体的,可以将处理后的视频数据上传至一个或多个的云视频平台服务器,如爱奇艺、优酷、快视频等云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。或者还可以将处理后的视频数据上传至云直播服务器,当有直播观看端的用户进入云直播服务器进行观看时,可以由云直播服务器将视频数据实时推送给观看用户客户端。或者还可以将处理后的视频数据上传至云公众号服务器,当有用户关注该公众号时,由云公众号服务器将视频数据推送给公众号关注客户端;进一步,云公众号服务器还可以根据关注公众号的用户的观看习惯,推送符合用户习惯的视频数据给公众号关注客户端。
根据本实施例提供的视频人物装扮方法,采用了深度学***不做限制,方便大众使用。
图3示出了根据本发明一个实施例的视频人物装扮装置的结构框图,如图3所示,该装置包括:获取模块310、分割模块320、贴图处理模块330、融合处理模块340、覆盖模块350和显示模块360。
获取模块310适于:实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像。
分割模块320适于:对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像。
贴图处理模块330适于:绘制与面部待装扮区域图像对应的美妆效果贴图。
融合处理模块340适于:将美妆效果贴图与前景图像进行融合处理,得到帧处理图像。
覆盖模块350适于:将帧处理图像覆盖当前帧图像得到处理后的视频数据。
覆盖模块350使用帧处理图像直接覆盖掉原当前帧图像,直接可以得到处理后的视频数据。同时,录制的用户还可以直接看到帧处理图像。
显示模块360适于:显示处理后的视频数据。
显示模块360得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
根据本实施例提供的视频人物装扮装置,获取模块实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像,或者,实时获取当前所播放的视频中包含特定对象的当前帧图像,分割模块对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像,贴图处理模块绘制与面部待装扮区域图像对应的美妆效果贴图,融合处理模块将美妆效果贴图与前景图像进行融合处理,得到帧处理图像,覆盖模块将帧处理图像覆盖当前帧图像得到处理后的视频数据,显示模块显示处理后的视频数据。本发明采用了深度学习方法,实现了高效率高精准性地完成场景分割处理,本发明提供的技术方案基于所得到的场景分割处理结果能够精准、快速地为视频中的人物的面部区域添加美化效果,提高了视频数据处理效率,优化了视频数据处理方式,美化了视频数据显示效果。
图4示出了根据本发明另一个实施例的视频人物装扮装置的结构框图,如图4所示,该装置包括:获取模块410、分割模块420、贴图处理模块430、融合处理模块440、图像处理模块450、覆盖模块460、显示模块470和上传模块480。
获取模块410适于:实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像。
分割模块420适于:对当前帧图像进行场景分割处理,得到针对于特定对象的前景图像以及特定对象的面部待装扮区域图像。
贴图处理模块430适于:从面部待装扮区域图像中提取出面部待装扮区域的关键信息,根据关键信息绘制美妆效果贴图。
其中,关键信息可以具体为关键点信息、关键区域信息、和/或关键线信息等。本发明的实施例以关键信息为关键点信息为例进行说明。贴图处理模块430进一步适于:从面部待装扮区域图像中提取出面部待装扮区域边缘的关键点信息。
贴图处理模块430进一步适于:查找与关键点信息对应的基础美妆效果贴图;或者,获取与用户选择操作对应的基础美妆效果贴图;根据关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;依据位置信息,对基础美妆效果贴图进行处理,得到美妆效果贴图。
可选地,贴图处理模块430可依据位置信息中的距离信息,对基础美妆效果贴图进行缩放处理,还可依据位置信息中的旋转角度信息,对基础美妆效果贴图进行旋转处理。
融合处理模块440适于:将对当前帧图像进行场景分割处理得到的背景图像或者预设背景图像与美妆效果贴图、前景图像进行融合处理,得到帧处理图像。
图像处理模块450适于:对帧处理图像进行色调处理、光照处理和/或亮度处理。
覆盖模块460适于:将帧处理图像覆盖当前帧图像得到处理后的视频数据。
显示模块470适于:显示处理后的视频数据。
显示模块470得到处理后的视频数据后,可以将其实时的进行显示,用户可以直接看到处理后的视频数据的显示效果。
上传模块480,适于将处理后的视频数据上传至云服务器。
上传模块480将处理后的视频数据可以直接上传至云服务器,具体地,上传模块480可以将处理后的视频数据上传至一个或多个的云视频平台服务器,如爱奇艺、优酷、快视频等云视频平台服务器,以供云视频平台服务器在云视频平台进行展示视频数据。或者上传模块480还可以将处理后的视频数据上传至云直播服务器,当有直播观看端的用户进入云直播服务器进行观看时,可以由云直播服务器将视频数据实时推送给观看用户客户端。或者上传模块480还可以将处理后的视频数据上传至云公众号服务器,当有用户关注该公众号时,由云公众号服务器将视频数据推送给公众号关注客户端;进一步,云公众号服务器还可以根据关注公众号的用户的观看习惯,推送符合用户习惯的视频数据给公众号关注客户端。
根据本实施例提供的视频人物装扮装置,采用了深度学***不做限制,方便大众使用。
本发明还提供了一种非易失性计算机存储介质,计算机存储介质存储有至少一可执行指令,可执行指令可执行上述任意方法实施例中的视频人物装扮方法。
图5示出了根据本发明实施例的一种计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图5所示,该计算设备可以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:
处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。
通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器502,用于执行程序510,具体可以执行上述视频人物装扮方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行上述任意方法实施例中的视频人物装扮方法。程序510中各步骤的具体实现可以参见上述视频人物装扮实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法和显示不与任何特定计算机、虚拟***或者其它设备固有相关。各种通用***也可以与基于在此的示教一起使用。根据上面的描述,构造这类***所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。

Claims (10)

1.一种视频人物装扮方法,所述方法包括:
实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像;
对所述当前帧图像进行场景分割处理,得到针对于所述特定对象的前景图像以及所述特定对象的面部待装扮区域图像;
绘制与所述面部待装扮区域图像对应的美妆效果贴图;
将所述美妆效果贴图与所述前景图像进行融合处理,得到帧处理图像;
将帧处理图像覆盖所述当前帧图像得到处理后的视频数据;
显示处理后的视频数据。
2.根据权利要求1所述的方法,其中,所述绘制与所述面部待装扮区域图像对应的美妆效果贴图进一步包括:
从所述面部待装扮区域图像中提取出面部待装扮区域的关键信息,根据所述关键信息绘制美妆效果贴图。
3.根据权利要求1或2所述的方法,其中,所述从所述面部待装扮区域图像中提取出所述面部待装扮区域的关键信息进一步包括:
所述关键信息为关键点信息;
从所述面部待装扮区域图像中提取出面部待装扮区域边缘的关键点信息。
4.根据权利要求1-3任一项所述的方法,其中,所述根据所述关键信息绘制美妆效果贴图进一步包括:
所述关键信息为关键点信息;
查找与所述关键点信息对应的基础美妆效果贴图;或者,获取与用户选择操作对应的基础美妆效果贴图;
根据所述关键点信息,计算具有对称关系的至少两个关键点之间的位置信息;
依据所述位置信息,对所述基础美妆效果贴图进行处理,得到美妆效果贴图。
5.根据权利要求1-4任一项所述的方法,其中,所述依据所述位置信息,对所述基础美妆效果贴图进行处理,得到美妆效果贴图进一步包括:
依据所述位置信息中的距离信息,对所述基础美妆效果贴图进行缩放处理。
6.根据权利要求1-5任一项所述的方法,其中,所述依据所述位置信息,对所述基础美妆效果贴图进行处理,得到美妆效果贴图进一步包括:
依据所述位置信息中的旋转角度信息,对所述基础美妆效果贴图进行旋转处理。
7.根据权利要求1-6任一项所述的方法,其中,所述将所述美妆效果贴图与所述前景图像进行融合处理,得到帧处理图像进一步包括:
将对所述当前帧图像进行场景分割处理得到的背景图像或者预设背景图像与所述美妆效果贴图、所述前景图像进行融合处理,得到帧处理图像。
8.一种视频人物装扮装置,所述装置包括:
获取模块,适于实时获取图像采集设备所拍摄和/或所录制的视频中包含特定对象的当前帧图像;或者,实时获取当前所播放的视频中包含特定对象的当前帧图像;
分割模块,适于对所述当前帧图像进行场景分割处理,得到针对于所述特定对象的前景图像以及所述特定对象的面部待装扮区域图像;
贴图处理模块,适于绘制与所述面部待装扮区域图像对应的美妆效果贴图;
融合处理模块,适于将所述美妆效果贴图与所述前景图像进行融合处理,得到帧处理图像;
覆盖模块,适于将帧处理图像覆盖所述当前帧图像得到处理后的视频数据;
显示模块,适于显示处理后的视频数据。
9.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的视频人物装扮方法对应的操作。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的视频人物装扮方法对应的操作。
CN201711066571.5A 2017-11-02 2017-11-02 视频人物装扮方法、装置、计算设备及计算机存储介质 Pending CN107820027A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711066571.5A CN107820027A (zh) 2017-11-02 2017-11-02 视频人物装扮方法、装置、计算设备及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711066571.5A CN107820027A (zh) 2017-11-02 2017-11-02 视频人物装扮方法、装置、计算设备及计算机存储介质

Publications (1)

Publication Number Publication Date
CN107820027A true CN107820027A (zh) 2018-03-20

Family

ID=61604087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711066571.5A Pending CN107820027A (zh) 2017-11-02 2017-11-02 视频人物装扮方法、装置、计算设备及计算机存储介质

Country Status (1)

Country Link
CN (1) CN107820027A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111911A (zh) * 2017-12-25 2018-06-01 北京奇虎科技有限公司 基于自适应跟踪框分割的视频数据实时处理方法及装置
CN109147012A (zh) * 2018-09-20 2019-01-04 麒麟合盛网络技术股份有限公司 图像处理方法和装置
CN109873902A (zh) * 2018-12-29 2019-06-11 努比亚技术有限公司 播放效果展示方法、装置和计算机可读存储介质
CN110060205A (zh) * 2019-05-08 2019-07-26 北京迈格威科技有限公司 图像处理方法及装置、存储介质及电子设备
CN111241886A (zh) * 2018-11-29 2020-06-05 北京市商汤科技开发有限公司 对象关键点识别方法及装置、电子设备和存储介质
CN111626919A (zh) * 2020-05-08 2020-09-04 北京字节跳动网络技术有限公司 图像合成方法、装置、电子设备及计算机可读存储介质
CN112132085A (zh) * 2020-09-29 2020-12-25 联想(北京)有限公司 一种图像处理方法、电子设备
CN112991147A (zh) * 2019-12-18 2021-06-18 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN113450367A (zh) * 2020-03-24 2021-09-28 北京字节跳动网络技术有限公司 图像处理方法及装置
CN113658298A (zh) * 2018-05-02 2021-11-16 北京市商汤科技开发有限公司 特效程序文件包的生成及特效生成方法与装置
CN114155569A (zh) * 2021-08-31 2022-03-08 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质
CN114529445A (zh) * 2020-10-30 2022-05-24 北京字跳网络技术有限公司 妆容特效绘制方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436668A (zh) * 2011-09-05 2012-05-02 上海大学 京剧脸谱自动化妆方法
CN105847728A (zh) * 2016-04-13 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN106302124A (zh) * 2016-08-18 2017-01-04 北京奇虎科技有限公司 一种添加特效的方法及电子设备
CN106791347A (zh) * 2015-11-20 2017-05-31 比亚迪股份有限公司 一种图像处理方法、装置及使用该方法的移动终端
CN107105310A (zh) * 2017-05-05 2017-08-29 广州盈可视电子科技有限公司 一种视频直播中人物形象替换方法、装置和一种录播***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436668A (zh) * 2011-09-05 2012-05-02 上海大学 京剧脸谱自动化妆方法
CN106791347A (zh) * 2015-11-20 2017-05-31 比亚迪股份有限公司 一种图像处理方法、装置及使用该方法的移动终端
CN105847728A (zh) * 2016-04-13 2016-08-10 腾讯科技(深圳)有限公司 一种信息处理方法及终端
CN106302124A (zh) * 2016-08-18 2017-01-04 北京奇虎科技有限公司 一种添加特效的方法及电子设备
CN107105310A (zh) * 2017-05-05 2017-08-29 广州盈可视电子科技有限公司 一种视频直播中人物形象替换方法、装置和一种录播***

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111911A (zh) * 2017-12-25 2018-06-01 北京奇虎科技有限公司 基于自适应跟踪框分割的视频数据实时处理方法及装置
CN108111911B (zh) * 2017-12-25 2020-07-28 北京奇虎科技有限公司 基于自适应跟踪框分割的视频数据实时处理方法及装置
CN113658298A (zh) * 2018-05-02 2021-11-16 北京市商汤科技开发有限公司 特效程序文件包的生成及特效生成方法与装置
CN109147012A (zh) * 2018-09-20 2019-01-04 麒麟合盛网络技术股份有限公司 图像处理方法和装置
CN109147012B (zh) * 2018-09-20 2023-04-14 麒麟合盛网络技术股份有限公司 图像处理方法和装置
CN111241886A (zh) * 2018-11-29 2020-06-05 北京市商汤科技开发有限公司 对象关键点识别方法及装置、电子设备和存储介质
CN109873902A (zh) * 2018-12-29 2019-06-11 努比亚技术有限公司 播放效果展示方法、装置和计算机可读存储介质
CN110060205A (zh) * 2019-05-08 2019-07-26 北京迈格威科技有限公司 图像处理方法及装置、存储介质及电子设备
CN112991147A (zh) * 2019-12-18 2021-06-18 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
US11651529B2 (en) 2019-12-18 2023-05-16 Beijing Bytedance Network Technology Co., Ltd. Image processing method, apparatus, electronic device and computer readable storage medium
CN112991147B (zh) * 2019-12-18 2023-10-27 抖音视界有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN113450367A (zh) * 2020-03-24 2021-09-28 北京字节跳动网络技术有限公司 图像处理方法及装置
CN111626919B (zh) * 2020-05-08 2022-11-15 北京字节跳动网络技术有限公司 图像合成方法、装置、电子设备及计算机可读存储介质
CN111626919A (zh) * 2020-05-08 2020-09-04 北京字节跳动网络技术有限公司 图像合成方法、装置、电子设备及计算机可读存储介质
CN112132085A (zh) * 2020-09-29 2020-12-25 联想(北京)有限公司 一种图像处理方法、电子设备
CN114529445A (zh) * 2020-10-30 2022-05-24 北京字跳网络技术有限公司 妆容特效绘制方法、装置、电子设备及存储介质
CN114155569A (zh) * 2021-08-31 2022-03-08 北京新氧科技有限公司 一种化妆进度检测方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN107820027A (zh) 视频人物装扮方法、装置、计算设备及计算机存储介质
CN107945188A (zh) 基于场景分割的人物装扮方法及装置、计算设备
CN108257084B (zh) 一种基于移动端的轻量级人脸自动化妆方法
CN107483892A (zh) 视频数据实时处理方法及装置、计算设备
CN107507155A (zh) 视频分割结果边缘优化实时处理方法、装置及计算设备
CN107862277A (zh) 直播服饰装扮推荐方法、装置、计算设备及存储介质
CN107613360A (zh) 视频数据实时处理方法及装置、计算设备
CN108109161A (zh) 基于自适应阈值分割的视频数据实时处理方法及装置
CN108111911A (zh) 基于自适应跟踪框分割的视频数据实时处理方法及装置
CN107665482B (zh) 实现双重曝光的视频数据实时处理方法及装置、计算设备
CN107977927A (zh) 基于图像数据的身材调整方法及装置、计算设备
KR101823869B1 (ko) 안면카메라장치를 이용한 증강현실기반 실시간 동영상 메이크업 구현시스템
CN107682731A (zh) 视频数据扭曲处理方法、装置、计算设备及存储介质
CN107770606A (zh) 视频数据扭曲处理方法、装置、计算设备及存储介质
CN107633228A (zh) 视频数据处理方法及装置、计算设备
CN107610149A (zh) 图像分割结果边缘优化处理方法、装置及计算设备
CN107563357A (zh) 基于场景分割的直播服饰装扮推荐方法、装置及计算设备
CN107613161A (zh) 基于虚拟世界的视频数据处理方法及装置、计算设备
CN107766803A (zh) 基于场景分割的视频人物装扮方法、装置及计算设备
CN107566853A (zh) 实现场景渲染的视频数据实时处理方法及装置、计算设备
CN108171716A (zh) 基于自适应跟踪框分割的视频人物装扮方法及装置
CN107563962A (zh) 视频数据实时处理方法及装置、计算设备
CN107743263B (zh) 视频数据实时处理方法及装置、计算设备
CN107705279A (zh) 实现双重曝光的图像数据实时处理方法及装置、计算设备
CN107680105B (zh) 基于虚拟世界的视频数据实时处理方法及装置、计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180320

RJ01 Rejection of invention patent application after publication