CN113727024B - 多媒体信息生成方法、装置、电子设备和存储介质 - Google Patents

多媒体信息生成方法、装置、电子设备和存储介质 Download PDF

Info

Publication number
CN113727024B
CN113727024B CN202111005750.4A CN202111005750A CN113727024B CN 113727024 B CN113727024 B CN 113727024B CN 202111005750 A CN202111005750 A CN 202111005750A CN 113727024 B CN113727024 B CN 113727024B
Authority
CN
China
Prior art keywords
video
effect
predetermined display
display area
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111005750.4A
Other languages
English (en)
Other versions
CN113727024A (zh
Inventor
徐悦然
龚烨菲
闫鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Dajia Internet Information Technology Co Ltd
Original Assignee
Beijing Dajia Internet Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Dajia Internet Information Technology Co Ltd filed Critical Beijing Dajia Internet Information Technology Co Ltd
Priority to CN202111005750.4A priority Critical patent/CN113727024B/zh
Publication of CN113727024A publication Critical patent/CN113727024A/zh
Application granted granted Critical
Publication of CN113727024B publication Critical patent/CN113727024B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开提供多媒体信息生成方法、装置、电子设备、存储介质和程序产品。多媒体信息生成方法包括:获取第一多媒体信息,第一多媒体信息是基于具有多个预定显示区域的拍摄模板来获取的,并且拍摄模板是通过在多个预定显示区域的每个预定显示区域中添加效果标记而生成的,在多个预定显示区域的部分预定显示区域中显示第一对象,并且剩余预定显示区域中的至少一个预定显示区域用于拍摄和显示第二对象;生成第二多媒体信息,在部分预定显示区域中显示第一对象,且在至少一个预定显示区域中显示第二对象。本公开的合拍方式增加了对象之间的互动,使得参与合拍的对象的创作欲望提升、增强了互动性,从而优化了用户体验。

Description

多媒体信息生成方法、装置、电子设备和存储介质
技术领域
本公开涉及多媒体信息处理领域,尤其涉及一种多媒体信息生成方法、装置、电子设备、存储介质和程序产品。
背景技术
在相关技术中,以多媒体信息中包括的视频为例,在第一对象希望与已经发布的第二对象的视频中的第二对象合拍的情况下,目前已存在的拍摄方式是将即将拍摄的第一对象与第二对象的视频并列显示(例如,左侧是即将拍摄的第一对象,右侧是第二对象的视频),第一对象可通过在第二对象的视频拍摄时长内拍摄自己的视频来与第二对象进行合拍,合拍后的视频效果是:在一个显示框中并列显示第一对象拍摄的视频和第二对象的视频。然而,现有技术中的这种合拍模板(例如,合拍位置的排版模板(例如,上述左右并列显示的模板)是固定的,通过这种合拍模板完成合拍的结果是对象(例如,用户)单方面与另一对象的视频拍摄合拍,缺少对象之间的互动,导致对象创作欲望低,互动性不强。
发明内容
本公开提供一种多媒体信息生成方法和装置,以至少解决上述相关技术中的缺少对象之间的互动、对象创作欲望低、互动性不强的问题,也可不解决任何上述问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种多媒体信息生成方法,所述多媒体信息生成方法包括:获取第一多媒体信息,其中,第一多媒体信息是基于具有多个预定显示区域的拍摄模板来获取的,并且所述拍摄模板是通过在所述多个预定显示区域的每个预定显示区域中添加效果标记而生成的,其中,在所述多个预定显示区域的部分预定显示区域中显示第一对象,并且所述多个预定显示区域的剩余预定显示区域中的至少一个预定显示区域用于拍摄和显示第二对象;生成第二多媒体信息,其中,在第二多媒体信息中的所述部分预定显示区域中显示第一对象,且在第二多媒体信息中的所述至少一个预定显示区域中显示第二对象。
可选地,获取第一多媒体信息的步骤可包括:基于所述拍摄模板,生成第一多媒体信息,其中,所述多个预定显示区域的所述部分预定显示区域用于拍摄和显示第一对象。
可选地,所述拍摄模板的生成步骤可包括:在所述多个预定显示区域中的每个预定显示区域中执行以下操作:获取虚拟显示对象,其中,所述虚拟显示对象是基于对象的特征所生成的虚拟对象;确定所述虚拟显示对象的特征位置,其中,所述特征位置是与所述对象的特征对应的位置信息;在所述每个预定显示区域中添加与所述特征位置对应的效果标记。
可选地,多媒体信息的生成步骤可包括:确定预定显示区域中对象的特征位置,其中,所述对象的特征位置是拍摄获取的第一对象或第二对象的特征所对应的位置信息;根据对象的特征位置、用于拍摄对象的预定显示区域中的效果标记所对应的特征位置,将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成,从而生成包括对象的多媒体信息。
可选地,将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成的操作可包括:确定满足预设条件的效果标记的特征点;基于效果标记的特征点,确定与效果标记的特征点相对应的对象特征匹配点;当对象的特征匹配点的位置与相对应的效果标记的特征点位置之间的距离小于或等于预定阈值时,以图层叠加的方式将所述用于拍摄对象的预定显示区域中的效果标记合成到对象上。
可选地,所述确定满足预设条件的效果标记的特征点可包括以下方式:对效果标记的特征点进行采样或者基于对效果标记的特征点的计算处理,确定表征效果标记的特征点。
可选地,所述当对象的特征匹配点与相对应的效果标记的特征点之间的距离小于或等于预定阈值时,还可包括:满足预定数量的对象匹配特征点与相对应的效果标记的特征点之间的距离小于或等于预定阈值。
可选地,第一对象和第二对象可位于不同的显示图层,并且第一对象所位于的显示图层与第二对象所位于的显示图层之间具有预定义顺序关系,其中,所述预定义顺序关系根据不同的对象需求而改变。
可选地,第二对象的拍摄总时长可小于等于第一多媒体信息的总时长。
可选地,所述效果标记可包括涂鸦标记、魔法表情标记、贴纸标记中的至少一种。
根据本公开实施例的第二方面,提供一种多媒体信息生成装置,所述多媒体信息生成装置包括:获取模块,被配置为:获取第一多媒体信息,其中,第一多媒体信息是基于具有多个预定显示区域的拍摄模板来获取的,并且所述拍摄模板是通过在所述多个预定显示区域的每个预定显示区域中添加效果标记而生成的,其中,在所述多个预定显示区域中的部分预定显示区域中显示第一对象,并且所述多个预定显示区域的剩余预定显示区域中的至少一个预定显示区域用于拍摄和显示第二对象;生成模块,被配置为:生成第二多媒体信息,其中,在第二多媒体信息中的所述部分预定显示区域中显示第一对象,且在第二多媒体信息中的所述至少一个预定显示区域中显示第二对象。
可选地,获取模块获取第一多媒体信息的操作可包括:基于所述拍摄模板,生成第一多媒体信息,其中,所述多个预定显示区域的所述部分预定显示区域用于拍摄和显示第一对象。
可选地,所述拍摄模板可通过以下操作来生成:在所述多个预定显示区域中的每个预定显示区域中执行以下操作:获取虚拟显示对象,其中,所述虚拟显示对象是基于对象的特征所生成的虚拟对象;确定所述虚拟显示对象的特征位置,其中,所述特征位置是与所述对象的特征对应的位置信息;在所述每个预定显示区域中添加与所述特征位置对应的效果标记。
可选地,多媒体信息的生成操作可包括:确定预定显示区域中对象的特征位置,其中,所述对象的特征位置是拍摄获取的第一对象或第二对象的特征所对应的位置信息;根据对象的特征位置、用于拍摄对象的预定显示区域中的效果标记所对应的特征位置,将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成,从而生成包括对象的多媒体信息。
可选地,将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成的操作可包括:确定满足预设条件的效果标记的特征点;基于效果标记的特征点,确定与效果标记的特征点相对应的对象特征匹配点;当对象的特征匹配点的位置与相对应的效果标记的特征点位置之间的距离小于或等于预定阈值时,以图层叠加的方式将所述用于拍摄对象的预定显示区域中的效果标记合成到对象上。
可选地,所述确定满足预设条件的效果标记的特征点可包括以下方式:对效果标记的特征点进行采样或者基于对效果标记的特征点的计算处理,确定表征效果标记的特征点。
可选地,所述当对象的特征匹配点与相对应的效果标记的特征点之间的距离小于或等于预定阈值时,还可包括:满足预定数量的对象匹配特征点与相对应的效果标记的特征点之间的距离小于或等于预定阈值。
可选地,第一对象和第二对象可位于不同的显示图层,并且第一对象所位于的显示图层与第二对象所位于的显示图层之间具有预定义顺序关系,其中,所述预定义顺序关系根据不同的对象需求而改变。
可选地,第二对象的拍摄总时长可小于等于第一多媒体信息的总时长。
可选地,所述效果标记可包括涂鸦标记、魔法表情标记、贴纸标记中的至少一种。
根据本公开实施例的第三方面,提供一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器,其中,所述处理器被配置为执行所述指令,以实现如上所述的多媒体信息生成方法。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,当所述计算机可读存储介质中的指令由电子设备/服务器的处理器执行时,使得电子设备/服务器能够执行如上所述的多媒体信息生成方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,所述计算机程序产品包括计算机程序/指令,其特征在于,所述计算机程序/指令被处理器执行时实现如上所述的多媒体信息生成方法。
本公开的实施例提供的技术方案至少带来以下有益效果:通过本公开的多媒体信息生成方法和装置,这种合拍方式增加了对象之间的互动,使得参与合拍的对象的创作欲望提升、增强了互动性,从而优化了用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是本公开的示例性实施例可以应用于其中的示例性***架构图;
图2是示出根据本公开的示例性实施例的一种多媒体信息生成方法的流程图;
图3是示出根据本公开的示例性实施例的多媒体信息生成方法的示例的示意图;
图4是示出根据本公开的示例性实施例的可编辑内容的示意图;
图5是示出根据本公开的示例性实施例的多媒体信息生成方法的示例的示意图;
图6是示出根据本公开的示例性实施例的一种多媒体信息生成装置的框图;
图7是示出根据本公开的示例性实施例的一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在此需要说明的是,在本公开中出现的“若干项之中的至少一项”均表示包含“该若干项中的任意一项”、“该若干项中的任意多项的组合”、“该若干项的全体”这三类并列的情况。例如“包括A和B之中的至少一个”即包括如下三种并列的情况:(1)包括A;(2)包括B;(3)包括A和B。又例如“执行步骤一和步骤二之中的至少一个”,即表示如下三种并列的情况:(1)执行步骤一;(2)执行步骤二;(3)执行步骤一和步骤二。
如本公开背景技术中所提及的,在相关技术中,以多媒体信息中包括的视频为例,当参与合拍的对象希望与已有视频中的对象进行合拍时,参与合拍的对象可以通过预定输入(例如,对合拍功能的访问图标进行点击)进入拍摄窗口,在该拍摄窗口中,窗口的左侧部分是拍摄框,窗口的右侧部分是已有视频,参与合拍的对象可通过在上述拍摄窗口下进行另一预定输入(例如,点击拍摄按钮)拍摄视频,与此同时,已有视频也会响应于另一预定输入开始播放,以完成合拍。但是如上所述的现有的合拍(也可称为一起拍同框)的互动感较弱,参与合拍的对象与原视频对象的连接性差,对原视频作品的拉新和留存无明显的效果。
针对此,根据本公开的示例性实施例,本公开提出了一种多媒体信息生成方法和装置,以多媒体信息中包括的视频为例,通过在拍摄原始视频时设置合拍的坑位数和位置显示区域,排列组合成不同的显示效果,并且使得参与合拍的对象能够在原始视频的拍摄环境下(而不是自己所在的拍摄环境)与原始视频中的对象进行合拍,这样做可能提升参与合拍的对象的感兴趣度,参与合拍的对象的与原始视频中的对象的互动性、连接性都有提升,并且这种方式可允许多个参与合拍的对象加入合拍(即,对原始视频的再次创作),使得可拓展性增强。
以下,将参照图1至图7具体描述根据本公开的示例性实施例的多媒体信息生成方法和装置。
图1是本公开的示例性实施例的可以应用于其中的示例性***架构图。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息(例如多媒体信息(例如视频)数据上传请求、多媒体信息数据获取请求)等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频录制类应用、视频压缩类应用、视频和音频编辑类应用、即时通信工具、邮箱客户端、社交平台软件等。终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且能够进行视频的播放、录制和编辑的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中,其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
终端设备101、102、103可以安装有图像采集装置(例如摄像头)以采集多媒体信息(例如视频)数据,此外,终端设备101、102、103也可以安装有用于将电信号转换为声音的组件(例如扬声器)以播放声音,并且还可以安装有用于将模拟音频信号转换为数字音频信号的装置(例如,麦克风)以采集声音。
终端设备101、102、103可以利用安装于其上的图像采集装置进行多媒体信息(例如视频)数据的采集,利用安装于其上的音频采集装置进行音频数据的采集,并且终端设备101、102、103可以对采集的视频数据和音频数据进行编码、存储和传输,并且可对从另一个终端设备或者从服务器105接收到的经编码的视频和音频进行解码和播放。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上所安装的视频录制类应用、视频压缩类应用、视频编辑类应用等提供支持的后台服务器,也可以是存储终端设备101、102、103上传的经编码的视频和音频,并且可响应于终端设备101、102、103的请求而将存储的经编码的视频和音频发送给终端设备101、102、103的存储服务器。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本申请实施例所提供的多媒体信息生成方法一般由终端设备101、102、103执行,相应地,多媒体信息生成装置一般设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器,本公开对此并无限制。
图2是示出根据本公开的示例性实施例的一种多媒体信息生成方法的流程图。根据本公开的示例性实施例的多媒体信息生成方法200可应用于客户端(例如,图1所示的终端设备101、102、103),但不限于此,该多媒体信息生成方法200也可应用于服务器(例如,图1所示的服务器105)。
参照图2,根据本公开的示例性实施例,在步骤S201,获取第一多媒体信息。具体地,第一多媒体信息是基于具有多个预定显示区域的拍摄模板来获取的,并且拍摄模板是通过在多个预定显示区域的每个预定显示区域中添加效果标记而生成的。在多个预定显示区域的部分预定显示区域中显示第一对象,并且多个预定显示区域的剩余预定显示区域中的至少一个预定显示区域用于拍摄和显示第二对象。
根据本公开的示例性实施例,获取第一多媒体信息的步骤可包括:基于拍摄模板,生成第一多媒体信息。进一步地,多个预定显示区域的部分预定显示区域用于拍摄和显示第一对象。
通过这种方式,通过在拍摄原始视频时预留预定显示区域,能够为后续参与合拍的对象提供在原始视频的拍摄环境下进行合拍的可能性,从而优化了用户体验。
根据本公开的示例性实施例,拍摄模板的生成步骤可包括:在多个预定显示区域中的每个预定显示区域中执行以下操作:获取虚拟显示对象,其中,虚拟显示对象是基于对象的特征所生成的虚拟对象;确定虚拟显示对象的特征位置,其中,特征位置是与对象的特征对应的位置信息;在每个预定显示区域中添加与特征位置对应的效果标记。
可选地,生成拍摄模板的相关操作可在客户端上执行,但不限于此。可选地,生成拍摄模板的相关操作可也可在服务器中执行,在这种情况下,多媒体信息生成方法200在客户端上执行,并且从服务器接收拍摄模板,以实现拍摄模板的获取。
根据本公开的示例性实施例,多媒体信息的生成步骤可包括:确定预定显示区域中对象的特征位置,其中,对象的特征位置是拍摄获取的第一对象或第二对象的特征所对应的位置信息;根据对象的特征位置、用于拍摄对象的预定显示区域中的效果标记所对应的特征位置,将用于拍摄对象的预定显示区域中的效果标记与对象进行合成,从而生成包括对象的多媒体信息。
根据本公开的示例性实施例,将用于拍摄对象的预定显示区域中的效果标记与对象进行合成的操作可包括:确定满足预设条件的效果标记的特征点;基于效果标记的特征点,确定与效果标记的特征点相对应的对象特征匹配点;当对象的特征匹配点的位置与相对应的效果标记的特征点位置之间的距离小于或等于预定阈值时,以图层叠加的方式将用于拍摄对象的预定显示区域中的效果标记合成到对象上。
根据本公开的示例性实施例,确定满足预设条件的效果标记的特征点可包括以下方式:对效果标记的特征点进行采样或者基于对效果标记的特征点的计算处理,确定表征效果标记的特征点。
具体地讲,在基于预设条件确定效果标记的特征点的处理中,预设条件可以是对全部特征点的间隔采样,也可以是基于全部特征点的处理,最终确定预设数量个能够表征效果标记的特征点。
根据本公开的示例性实施例,当对象的特征匹配点与相对应的效果标记的特征点之间的距离小于或等于预定阈值时,还可包括:满足预定数量的对象匹配特征点与相对应的效果标记的特征点之间的距离小于或等于预定阈值。
作为示例,当对象的特征是人的面部特征时,面部特征中的多个特征(例如,至少三个特征)(例如,一对眼睛、鼻子)的距离小于阈值,整个面部才能匹配上(例如,吸附)。可选地,针对每个特征(例如鼻子),满足阈值的数量的鼻子特征点小于阈值时,鼻子才能吸附。
根据本公开的示例性实施例,第一对象和第二对象可位于不同的显示图层,并且第一对象所位于的显示图层与第二对象所位于的显示图层之间具有预定义顺序关系。可选地,预定义顺序关系可根据不同的对象需求而改变。
这里,关于显示图层的设置,假设第一对象是用户A,第二对象是用户B,用户A拍摄的视频称为原始视频,则可存在以下三种示例性情形:
情形一,关于单人图层的设置,即,用户A是一个人,用户B是一个人,并且参与合拍的用户B希望置身在用户A的前面(以用户A与用户B的相对位置为参考)。在这种情况下,当用户B进行拍摄时,将对经过人像分割后的用户B进行正常拍摄,以得到用户B与用户A的合拍视频,以使得用户B加入到用户A的拍摄环境中以完成合拍。这里,原始视频中的预定显示区域为至少两个,并且在合拍视频中,在两个预定显示区域中分别显示用户A和用户B。此外,在该情形下,无需对用户B在拍摄时所具有的图层顺序进行设置,因为在图层叠加显示的相关处理中用户B所在的图层是默认地位于原始视频所在的图层(即,用户A所在的图层)的上面的(即,用户A位于所有图层的底层)。
情形二,关于单人图层的设置,即,用户A是一个人,用户B是一个人,并且参与合拍的用户B希望置身在用户A的后面(以用户A与用户B的相对位置为参考)。在这种情况下,当用户B进行拍摄时,首先对用户A和用户B进行人像分割,并且将用户A和用户B所在的图层的顺序设置为用户B的图层在用户A的图层的下面(即,用户B位于所有图层的底层),将对经过人像分割后和图层顺序设置后的用户B进行拍摄,以得到用户B与用户A的合拍视频,以使得用户B加入到用户A的拍摄环境中以完成合拍。这里,原始视频中的预定显示区域为至少两个,并且在合拍视频中,在两个预定显示区域中分别显示用户A和用户B。
情形三,关于多人图层的设置,即,用户A是至少两个人并且用户B是一个人,或者,用户A是一个人并且用户B是至少两个人,或者,用户A和用户B都是至少两个人。在这种情况下,在用户B正式拍摄视频之前,首先对所有人进行人像分割,并且对每个人所在的图层的顺序进行设置,然后再对经过人像分割后和图层顺序设置后的用户B进行拍摄,以得到用户B与用户A的合拍视频,以使得用户B加入到用户A的拍摄环境中以完成合拍。
此外,作为情形三的示例,当用户A是两个人(即,用户A1和A2)并且用户B是一个人时,在用户B正式拍摄视频之前,首先对用户A1和A2以及用户B分别进行人像分割,并且对用户A1、A2所在的图层(这里,用户A1、A2位于同一个图层)以及用户B所在的图层的顺序进行设置,然后再对经过人像分割后和图层顺序设置后的用户B进行拍摄,以得到用户B与用户A的合拍视频。在这种情况,用户B可与情形一类似地位于用户A1、A2两者的前面,或者,可与情形二类似地位于用户A1、A2两者的后面。
这里,应该理解,以上情形是示例性描述,可进行任意组合以完成图层顺序的设置。
根据本公开的示例性实施例,第二对象的拍摄总时长可小于等于第一多媒体信息的总时长。
根据本公开的示例性实施例,效果标记可包括涂鸦标记、魔法表情标记、贴纸标记中的至少一种。
这里,本公开中的效果标记可由客户端上的应用来提供,也可从其他任何设备接收,或者也可由用户输入(例如,用户制作的效果标记)。
作为示例,多媒体信息可包括视频、图像等任何多媒体形式的信息。为了便于描述,在示例的描述中以视频为例进行相关描述。
根据本公开的示例性实施例,在步骤S202,生成第二多媒体信息。具体地,在第二多媒体信息中的部分预定显示区域中显示第一对象,且在第二多媒体信息中的至少一个预定显示区域中显示第二对象。
根据本公开的示例性实施例,第二多媒体信息的生成步骤与在步骤S201中的描述的多媒体信息的生成步骤类似,这里不再赘述。
可选地,本公开所提及的“对象”可以是诸如人、动物、静物等任何能够用于拍摄的对象。在本公开中的实施例中,以对象是人为例来进行具体说明。
以下参照图3以多媒体信息是视频为例,对多媒体信息生成方法200进行举例说明。图3是示出根据本公开的示例性实施例的多媒体信息生成方法的示例的示意图。在图3的示例中,拍摄模板包括6个预定显示区域,并且每个显示区域中的效果标记都为涂鸦标记。
参照图3,第一步,进入拍摄操作,表示当前显示拍摄窗口。第二步,开始涂鸦操作,即,在正式拍摄视频之前,先设置6个预定显示区域中的第1个显示区域,并设置对应的涂鸦标记。第三步,设置剩余5个预定显示区域以及对应的涂鸦标记。第四步,开始正式的拍摄操作,在该示例中,拍摄对象是三个人,并且在3个不同的预定显示区域中显示拍摄的这三个人,即,每个人都位于不同的一个预定显示区域中。在该示例中,剩余的3个预定显示区域可用于后续拍摄并显示其他人。第五步,原始视频拍摄完成,对该视频进行进一步地编辑,例如,添加其他涂鸦、魔法表情、贴纸、音乐、文字(例如,图4中示出的可编辑内容)等。第六、七步,可对视频相关的信息进行编辑,并且执行个性化设置。第八、九步,对视频进行发布,可选择性地发布到双列或者单列。应该理解,上述的第五至七步是可以省略的,并且可执行第八步和第九步中的一个。
以下通过举例的方式具体说明生成拍摄模板的过程。以上面的示例中的涂鸦方式进行具体说明。生成拍摄模板的具体过程包括:在多个预定显示区域中的每个预定显示区域中执行以下操作:获取虚拟显示对象(例如,人物模特图,以下以此为例进行说明);对人物模特图进行特征点捕捉,识别出人物模特图的特征点位置(以下,以特征点是两眼之间的中点为例进行说明);在每个预定显示区域中添加与特征点位置对应的涂鸦标记。可选地,特征点可以是人物模特图的身体的某个位置对应的点,或者其他任何能够确定人物大致位置的点。
在生成拍摄模板之后,当需要使用该拍摄模板对真人进行拍摄时,拍摄的具体过程可如下:在拍摄过程中,对真人进行特征点捕捉,识别出两眼之间的中点的位置,当真人的特征点位置与人物模特图的特征点位置之间的距离小于或等于预定阈值时,以图层叠加的方式将该预定显示区域中的涂鸦标记合成到该真人上。可选地,以图3的示例为例,存在三个真人和6个涂鸦标记,可通过这种方式将三个真人分别于3个不同的涂鸦标记进行合成显示。
可选地,已经合成的涂鸦标记可随着对应的人的表情变化而变化。
通过以上方式,通过在拍摄原始视频时预留预定显示区域,能够为后续参与合拍的对象提供在原始视频的拍摄环境下进行合拍的可能性,从而优化了用户体验。
根据本公开的实施例,通过设置一系列表情模板(例如,涂鸦后的模板),表情由用户自定义或者在线涂鸦或者是自定义表情模板,合拍对象(例如,合拍用户)通过与表情模板中相应位置表情匹配来完成合拍,从而提升了合拍用户的合拍体验。
以下参照图5以多媒体信息是视频为例,对多媒体信息生成方法200进行举例说明。图5是示出根据本公开的示例性实施例的多媒体信息生成方法的示例的示意图。图5的示例是在图3的示例的基础上进行延续的示例,即,在图5的示例中,拍摄模板也包括6个预定显示区域,每个显示区域中的效果标记都为涂鸦标记,并且原始视频中的拍摄对象是三个人,加入合拍的拍摄对象(以下简称为加入合拍用户)是一个人。
参照图5,第一步,进入加入合拍的拍摄窗口。第二步,开始拍摄视频,即,在正式拍摄视频之前,根据加入合拍用户的需要,在与原始视频的三个已经显示有三个人的3个预定显示区域不同的第4个预定显示区域拍摄加入合拍用户。这里,应该理解,加入合拍用户的显示内容已经经过对象分割处理和图层顺序设置处理,具体处理过程参照前面的描述,这里将不再赘述。第三步,对拍摄完成的视频进行二创,即,对该视频进行进一步地编辑,这里的编辑处理与参照图3描述的第五步类似,这里将不再赘述。第四步和第五步与参照图3描述的第六至九步类似,这里将不再赘述。应该理解,上述的第三步和第四步。
根据本公开的示例性实施例,在步骤S202生成第二多媒体信息(例如,视频)之后,当第二多媒体信息中仍存在剩余的预定显示区域时,可继续实现加入合拍的所有相关操作,以此类推,直到当前多媒体信息中不存在剩余的预定显示区域为止。
下面以表格形式来对上述过程进行举例说明。
表1
作品 作品
原创作者 用户a 生成作品a1 用户aa 生成作品aa1
用户b 生成作品b1 用户ba 生成作品ba1
用户c 生成作品c1 用户ca 生成作品ca1
用户n+1 生成作品(n+1)1 用户(n+1)a 生成作品(n+1)a1
参照表1,原创作者发布原创作品,用户a观看并加入合拍,生成作品a1,完成一次转发。作品被加入合拍后,可以以各种可行方式(例如但不限于私信(支持屏蔽功能)方式)通知原创作者。用户aa观看用户a的二创作品并加入合拍,生成作品aa1,以此类推。由此可见,分享给n个人,可以生成n个不同的作品,发展成为不同的用户线。
这里,应注意,原创作者的视频不可更改,当前拍摄者能够改变的是当前拍摄者相关的可编辑内容,当前拍摄者不能改变先前所有的拍摄者的相关内容,这种设置可通过如上述地对每个拍摄者所在的图层的图层顺序进行设置来实现。通过这种设置,能够保持每个拍摄者拍摄的视频的完整性(即,不被其他拍摄者修改)。
通过表1所示的方式,可以通过加入合拍的方式将例如一个用户的一个视频扩展到更多的人的更多个视频,提升了用户生产内容的兴趣,使得用户的创意能够得到有效地发挥,提升了可扩展性。
根据本公开的示例性实施例,通过本公开的多媒体信息生成方法中的这种合拍方式增加了对象之间的互动,使得参与合拍的对象的创作欲望提升、增强了互动性,从而优化了用户体验。
此外,根据本公开的示例性实施例,在进行合拍的拍摄时,效果标记(例如,涂鸦表情、贴纸、魔法表情等))自动吸附对象的预定区域(例如,人的脸部),效果标记(例如,各种表情等)与对象互动,使得合拍视频具有趣味性。通过不断增加新的对象,实现对象之间的虚拟互动,激发了对象的创作灵感,增加了视频的趣味性。
图6是示出根据本公开的示例性实施例的一种多媒体信息生成装置的框图。
参照图6,多媒体信息生成装置600包括获取模块601和生成模块602。具体地,获取模块601被配置为:获取第一多媒体信息,其中,第一多媒体信息是基于具有多个预定显示区域的拍摄模板来获取的,并且拍摄模板是通过在多个预定显示区域的每个预定显示区域中添加效果标记而生成的,其中,在多个预定显示区域中的部分预定显示区域中显示第一对象,并且多个预定显示区域的剩余预定显示区域中的至少一个预定显示区域用于拍摄和显示第二对象。生成模块602被配置为:生成第二多媒体信息,其中,在第二多媒体信息中的部分预定显示区域中显示第一对象,且在第二多媒体信息中的至少一个预定显示区域中显示第二对象。
根据本公开的示例性实施例,获取模块获取第一多媒体信息的操作可包括:基于拍摄模板,生成第一多媒体信息,其中,多个预定显示区域的部分预定显示区域用于拍摄和显示第一对象。
通过这种方式,通过在拍摄原始视频时预留预定显示区域,能够为后续参与合拍的对象提供在原始视频的拍摄环境下进行合拍的可能性,从而优化了用户体验。
根据本公开的示例性实施例,拍摄模板可通过以下操作来生成:在多个预定显示区域中的每个预定显示区域中执行以下操作:获取虚拟显示对象,其中,虚拟显示对象是基于对象的特征所生成的虚拟对象;确定虚拟显示对象的特征位置,其中,特征位置是与对象的特征对应的位置信息;在每个预定显示区域中添加与特征位置对应的效果标记。
根据本公开的示例性实施例,多媒体信息的生成操作可包括:确定预定显示区域中对象的特征位置,其中,对象的特征位置是拍摄获取的第一对象或第二对象的特征所对应的位置信息;根据对象的特征位置、用于拍摄对象的预定显示区域中的效果标记所对应的特征位置,将用于拍摄对象的预定显示区域中的效果标记与对象进行合成,从而生成包括对象的多媒体信息。
根据本公开的示例性实施例,将用于拍摄对象的预定显示区域中的效果标记与对象进行合成的操作可包括:确定满足预设条件的效果标记的特征点;基于效果标记的特征点,确定与效果标记的特征点相对应的对象特征匹配点;当对象的特征匹配点的位置与相对应的效果标记的特征点位置之间的距离小于或等于预定阈值时,以图层叠加的方式将用于拍摄对象的预定显示区域中的效果标记合成到对象上。
根据本公开的示例性实施例,确定满足预设条件的效果标记的特征点可包括以下方式:对效果标记的特征点进行采样或者基于对效果标记的特征点的计算处理,确定表征效果标记的特征点。
根据本公开的示例性实施例,当对象的特征匹配点与相对应的效果标记的特征点之间的距离小于或等于预定阈值时,还可包括:满足预定数量的对象匹配特征点与相对应的效果标记的特征点之间的距离小于或等于预定阈值。
根据本公开的示例性实施例,第一对象和第二对象可位于不同的显示图层,并且第一对象所位于的显示图层与第二对象所位于的显示图层之间具有预定义顺序关系。可选地,预定义顺序关系可根据不同的对象需求而改变。
根据本公开的示例性实施例,第二对象的拍摄总时长可小于等于第一多媒体信息的总时长。
根据本公开的示例性实施例,效果标记可包括涂鸦标记、魔法表情标记、贴纸标记中的至少一种。
以上已经参照图2对上述各个模块的具体执行的处理以及相关处理信息进行了描述,在此不再重复描述。
通过以上方式,根据本公开的示例性实施例的多媒体信息生成装置的这种合拍方式增加了对象之间的互动,使得参与合拍的对象的创作欲望提升、增强了互动性,从而优化了用户体验。
此外,上述实施例提供的装置在实现其功能时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图7是示出根据本公开的示例性实施例的一种电子设备700的框图。该电子设备700例如可以是:智能手机、平板电脑、笔记本电脑或台式电脑。电子设备700还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,电子设备700包括有:处理器701和存储器702。
处理器701可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器701可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(FieldProgrammable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器701也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器701可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器701还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器702可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器702还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器702中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器701所执行以实现本公开的如图2所示的方法。
在一些实施例中,电子设备700还可选包括有:***设备接口703和至少一个***设备。处理器701、存储器702和***设备接口703之间可以通过总线或信号线相连。各个***设备可以通过总线、信号线或电路板与***设备接口703相连。具体地,***设备包括:射频电路704、触摸显示屏705、摄像头组件706、音频电路707、定位组件708和电源709中的至少一种。
***设备接口703可被用于将I/O(Input/Output,输入/输出)相关的至少一个***设备连接到处理器701和存储器702。在一些实施例中,处理器701、存储器702和***设备接口703被集成在同一芯片或电路板上;在一些其他实施例中,处理器701、存储器702和***设备接口703中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路704用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路704通过电磁信号与通信网络以及其他通信设备进行通信。射频电路704将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路704包括:天线***、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路704可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路704还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本公开对此不加以限定。
显示屏705用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏705是触摸显示屏时,显示屏705还具有采集在显示屏705的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器701进行处理。此时,显示屏705还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏705可以为一个,设置在电子设备700的前面板;在另一些实施例中,显示屏705可以为至少两个,分别设置在电子设备700的不同表面或呈折叠设计;在再一些实施例中,显示屏705可以是柔性显示屏,设置在电子设备700的弯曲表面上或折叠面上。甚至,显示屏705还可以设置成非矩形的不规则图形,也即异形屏。显示屏705可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件706用于采集图像或视频。可选地,摄像头组件706包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件706还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路707可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器701进行处理,或者输入至射频电路704以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备700的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器701或射频电路704的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路707还可以包括耳机插孔。
定位组件708用于定位电子设备700的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件708可以是基于美国的GPS(GlobalPositioning System,全球定位***)、中国的北斗***、俄罗斯的格雷纳斯***或欧盟的伽利略***的定位组件。
电源709用于为电子设备700中的各个组件进行供电。电源709可以是交流电、直流电、一次性电池或可充电电池。当电源709包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备700还包括有一个或多个传感器710。该一个或多个传感器710包括但不限于:加速度传感器711、陀螺仪传感器712、压力传感器713、指纹传感器714、光学传感器715以及接近传感器716。
加速度传感器711可以检测以电子设备700建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器711可以用于检测重力加速度在三个坐标轴上的分量。处理器701可以根据加速度传感器711采集的重力加速度信号,控制触摸显示屏705以横向视图或纵向视图进行用户界面的显示。加速度传感器711还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器712可以检测电子设备700的机体方向及转动角度,陀螺仪传感器712可以与加速度传感器711协同采集用户对电子设备700的3D动作。处理器701根据陀螺仪传感器712采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器713可以设置在电子设备700的侧边框和/或触摸显示屏705的下层。当压力传感器713设置在电子设备700的侧边框时,可以检测用户对电子设备700的握持信号,由处理器701根据压力传感器713采集的握持信号进行左右手识别或快捷操作。当压力传感器713设置在触摸显示屏705的下层时,由处理器701根据用户对触摸显示屏705的压力操作,实现对UI上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器714用于采集用户的指纹,由处理器701根据指纹传感器714采集到的指纹识别用户的身份,或者,由指纹传感器714根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器701授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器714可以被设置电子设备700的正面、背面或侧面。当电子设备700上设置有物理按键或厂商Logo时,指纹传感器714可以与物理按键或厂商Logo集成在一起。
光学传感器715用于采集环境光强度。在一个实施例中,处理器701可以根据光学传感器715采集的环境光强度,控制触摸显示屏705的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏705的显示亮度;当环境光强度较低时,调低触摸显示屏705的显示亮度。在另一个实施例中,处理器701还可以根据光学传感器715采集的环境光强度,动态调整摄像头组件706的拍摄参数。
接近传感器716,也称距离传感器,通常设置在电子设备700的前面板。接近传感器716用于采集用户与电子设备700的正面之间的距离。在一个实施例中,当接近传感器716检测到用户与电子设备700的正面之间的距离逐渐变小时,由处理器701控制触摸显示屏705从亮屏状态切换为息屏状态;当接近传感器716检测到用户与电子设备700的正面之间的距离逐渐变大时,由处理器701控制触摸显示屏705从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图7中示出的结构并不构成对电子设备700的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
根据本公开的实施例,还可提供一种存储指令的计算机可读存储介质,其中,当指令被至少一个处理器运行时,促使至少一个处理器执行根据本公开的多媒体信息生成方法。这里的计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取可编程只读存储器(PROM)、电可擦除可编程只读存储器(EEPROM)、随机存取存储器(RAM)、动态随机存取存储器(DRAM)、静态随机存取存储器(SRAM)、闪存、非易失性存储器、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、蓝光或光盘存储器、硬盘驱动器(HDD)、固态硬盘(SSD)、卡式存储器(诸如,多媒体卡、安全数字(SD)卡或极速数字(XD)卡)、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘以及任何其他装置,所述任何其他装置被配置为以非暂时性方式存储计算机程序以及任何相关联的数据、数据文件和数据结构并将所述计算机程序以及任何相关联的数据、数据文件和数据结构提供给处理器或计算机使得处理器或计算机能执行所述计算机程序。上述计算机可读存储介质中的计算机程序可在诸如客户端、主机、代理装置、服务器等计算机设备中部署的环境中运行,此外,在一个示例中,计算机程序以及任何相关联的数据、数据文件和数据结构分布在联网的计算机***上,使得计算机程序以及任何相关联的数据、数据文件和数据结构通过一个或多个处理器或计算机以分布式方式存储、访问和执行。
根据本公开的实施例中,还可提供一种计算机程序产品,该计算机程序产品中的指令可由计算机设备的处理器执行以完成上述的多媒体信息生成方法。
根据本公开的实施例的多媒体信息生成方法能够增加对象之间的互动,使得参与合拍的对象的创作欲望提升、增强了互动性,从而优化了用户体验。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (20)

1.一种视频生成方法,其特征在于,包括:
获取第一视频,其中,第一视频是基于具有多个预定显示区域的拍摄模板来获取的,并且所述拍摄模板是通过在所述多个预定显示区域的每个预定显示区域中添加效果标记而生成的,其中,在所述多个预定显示区域的部分预定显示区域中显示第一对象,并且所述多个预定显示区域的剩余预定显示区域中的至少一个预定显示区域用于拍摄和显示第二对象;
生成第二视频,其中,在第二视频中的所述部分预定显示区域中显示第一对象,且在第二视频中的所述至少一个预定显示区域中显示第二对象,
其中,视频的生成步骤包括:
确定预定显示区域中对象的特征位置,其中,所述对象的特征位置是拍摄获取的第一对象或第二对象的特征所对应的位置信息;
根据对象的特征位置、用于拍摄对象的预定显示区域中的效果标记所对应的特征位置,将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成,从而生成包括对象的视频,其中,在将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成的过程中,所述用于拍摄对象的预定显示区域中的效果标记自动吸附对象的预定区域。
2.如权利要求1所述的视频生成方法,其特征在于,获取第一视频的步骤包括:
基于所述拍摄模板,生成第一视频,其中,所述多个预定显示区域的所述部分预定显示区域用于拍摄和显示第一对象。
3.如权利要求1所述的视频生成方法,其特征在于,所述拍摄模板的生成步骤包括:
在所述多个预定显示区域中的每个预定显示区域中执行以下操作:
获取虚拟显示对象,其中,所述虚拟显示对象是基于对象的特征所生成的虚拟对象;
确定所述虚拟显示对象的特征位置,其中,所述特征位置是与所述对象的特征对应的位置信息;
在所述每个预定显示区域中添加与所述特征位置对应的效果标记。
4.如权利要求1所述的视频生成方法,其特征在于,将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成的操作包括:
确定满足预设条件的效果标记的特征点;
基于效果标记的特征点,确定与效果标记的特征点相对应的对象特征匹配点;
当对象的特征匹配点的位置与相对应的效果标记的特征点位置之间的距离小于或等于预定阈值时,以图层叠加的方式将所述用于拍摄对象的预定显示区域中的效果标记合成到对象上。
5.如权利要求4所述的视频生成方法,其特征在于,所述确定满足预设条件的效果标记的特征点包括以下方式:对效果标记的特征点进行采样或者基于对效果标记的特征点的计算处理,确定表征效果标记的特征点。
6.如权利要求4所述的视频生成方法,其特征在于,所述当对象的特征匹配点与相对应的效果标记的特征点之间的距离小于或等于预定阈值时,还包括:满足预定数量的对象匹配特征点与相对应的效果标记的特征点之间的距离小于或等于预定阈值。
7.如权利要求1所述的视频生成方法,其特征在于,第一对象和第二对象位于不同的显示图层,并且第一对象所位于的显示图层与第二对象所位于的显示图层之间具有预定义顺序关系,其中,所述预定义顺序关系根据不同的对象需求而改变。
8.如权利要求1所述的视频生成方法,其特征在于,第二对象的拍摄总时长小于等于第一视频的总时长。
9.如权利要求1所述的视频生成方法,其特征在于,所述效果标记包括涂鸦标记、魔法表情标记、贴纸标记中的至少一种。
10.一种视频生成装置,其特征在于,包括:
获取模块,被配置为:获取第一视频,其中,第一视频是基于具有多个预定显示区域的拍摄模板来获取的,并且所述拍摄模板是通过在所述多个预定显示区域的每个预定显示区域中添加效果标记而生成的,其中,在所述多个预定显示区域中的部分预定显示区域中显示第一对象,并且所述多个预定显示区域的剩余预定显示区域中的至少一个预定显示区域用于拍摄和显示第二对象;
生成模块,被配置为:生成第二视频,其中,在第二视频中的所述部分预定显示区域中显示第一对象,且在第二视频中的所述至少一个预定显示区域中显示第二对象,
其中,视频的生成操作包括:
确定预定显示区域中对象的特征位置,其中,所述对象的特征位置是拍摄获取的第一对象或第二对象的特征所对应的位置信息;
根据对象的特征位置、用于拍摄对象的预定显示区域中的效果标记所对应的特征位置,将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成,从而生成包括对象的视频,其中,在将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成的过程中,所述用于拍摄对象的预定显示区域中的效果标记自动吸附对象的预定区域。
11.如权利要求10所述的视频生成装置,其特征在于,获取模块获取第一视频的操作包括:
基于所述拍摄模板,生成第一视频,其中,所述多个预定显示区域的所述部分预定显示区域用于拍摄和显示第一对象。
12.如权利要求11所述的视频生成装置,其特征在于,所述拍摄模板通过以下操作来生成:
在所述多个预定显示区域中的每个预定显示区域中执行以下操作:
获取虚拟显示对象,其中,所述虚拟显示对象是基于对象的特征所生成的虚拟对象;
确定所述虚拟显示对象的特征位置,其中,所述特征位置是与所述对象的特征对应的位置信息;
在所述每个预定显示区域中添加与所述特征位置对应的效果标记。
13.如权利要求10所述的视频生成装置,其特征在于,将所述用于拍摄对象的预定显示区域中的效果标记与对象进行合成的操作包括:
确定满足预设条件的效果标记的特征点;
基于效果标记的特征点,确定与效果标记的特征点相对应的对象特征匹配点;
当对象的特征匹配点的位置与相对应的效果标记的特征点位置之间的距离小于或等于预定阈值时,以图层叠加的方式将所述用于拍摄对象的预定显示区域中的效果标记合成到对象上。
14.如权利要求13所述的视频生成装置,其特征在于,所述确定满足预设条件的效果标记的特征点包括以下方式:对效果标记的特征点进行采样或者基于对效果标记的特征点的计算处理,确定表征效果标记的特征点。
15.如权利要求13所述的视频生成装置,其特征在于,所述当对象的特征匹配点与相对应的效果标记的特征点之间的距离小于或等于预定阈值时,还包括:满足预定数量的对象匹配特征点与相对应的效果标记的特征点之间的距离小于或等于预定阈值。
16.如权利要求10所述的视频生成装置,其特征在于,第一对象和第二对象位于不同的显示图层,并且第一对象所位于的显示图层与第二对象所位于的显示图层之间具有预定义顺序关系,其中,所述预定义顺序关系根据不同的对象需求而改变。
17.如权利要求10所述的视频生成装置,其特征在于,第二对象的拍摄总时长小于等于第一视频的总时长。
18.如权利要求10所述的视频生成装置,其特征在于,所述效果标记包括涂鸦标记、魔法表情标记、贴纸标记中的至少一种。
19.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器,
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至9中的任意一项所述的视频生成方法。
20.一种计算机可读存储介质,当所述计算机可读存储介质中的指令由电子设备/服务器的处理器执行时,使得电子设备/服务器能够执行如权利要求1至9中的任意一项所述的视频生成方法。
CN202111005750.4A 2021-08-30 2021-08-30 多媒体信息生成方法、装置、电子设备和存储介质 Active CN113727024B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111005750.4A CN113727024B (zh) 2021-08-30 2021-08-30 多媒体信息生成方法、装置、电子设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111005750.4A CN113727024B (zh) 2021-08-30 2021-08-30 多媒体信息生成方法、装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
CN113727024A CN113727024A (zh) 2021-11-30
CN113727024B true CN113727024B (zh) 2023-07-25

Family

ID=78679203

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111005750.4A Active CN113727024B (zh) 2021-08-30 2021-08-30 多媒体信息生成方法、装置、电子设备和存储介质

Country Status (1)

Country Link
CN (1) CN113727024B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114584599B (zh) * 2022-03-18 2023-05-16 北京字跳网络技术有限公司 游戏数据处理方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103832A (ja) * 2015-12-21 2016-06-02 フリュー株式会社 写真シール作成装置、写真シール作成方法、およびプログラム
CN109218630A (zh) * 2017-07-06 2019-01-15 腾讯科技(深圳)有限公司 一种多媒体信息处理方法及装置、终端、存储介质
CN110868639A (zh) * 2019-11-28 2020-03-06 北京达佳互联信息技术有限公司 视频合成方法及装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104580930B (zh) * 2013-10-28 2019-09-27 腾讯科技(深圳)有限公司 合影方法及***
KR20160097844A (ko) * 2015-02-10 2016-08-18 신유원 단체 인물 사진 보정 시스템
CN110166799A (zh) * 2018-07-02 2019-08-23 腾讯科技(深圳)有限公司 直播互动方法、装置及存储介质
CN109068055B (zh) * 2018-08-10 2021-01-08 维沃移动通信有限公司 一种构图方法、终端和存储介质
CN109089059A (zh) * 2018-10-19 2018-12-25 北京微播视界科技有限公司 视频生成的方法、装置、电子设备及计算机存储介质
CN112188074B (zh) * 2019-07-01 2022-08-05 北京小米移动软件有限公司 图像处理方法及装置、电子设备、可读存储介质
CN110458916A (zh) * 2019-07-05 2019-11-15 深圳壹账通智能科技有限公司 表情包自动生成方法、装置、计算机设备及存储介质
CN116320721A (zh) * 2019-08-29 2023-06-23 腾讯科技(深圳)有限公司 一种拍摄方法、装置、终端及存储介质
CN110602396B (zh) * 2019-09-11 2022-03-22 腾讯科技(深圳)有限公司 智能合影方法、装置、电子设备及存储介质
CN112004034A (zh) * 2020-09-04 2020-11-27 北京字节跳动网络技术有限公司 合拍方法、装置、电子设备及计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103832A (ja) * 2015-12-21 2016-06-02 フリュー株式会社 写真シール作成装置、写真シール作成方法、およびプログラム
CN109218630A (zh) * 2017-07-06 2019-01-15 腾讯科技(深圳)有限公司 一种多媒体信息处理方法及装置、终端、存储介质
CN110868639A (zh) * 2019-11-28 2020-03-06 北京达佳互联信息技术有限公司 视频合成方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
范凯熹.《动态构成》.中国海洋大学出版社,2013,第84-89页. *

Also Published As

Publication number Publication date
CN113727024A (zh) 2021-11-30

Similar Documents

Publication Publication Date Title
CN109600678B (zh) 信息展示方法、装置及***、服务器、终端、存储介质
CN110992493B (zh) 图像处理方法、装置、电子设备及存储介质
WO2020253655A1 (zh) 多虚拟角色的控制方法、装置、设备及存储介质
CN108270794B (zh) 内容发布方法、装置及可读介质
CN109327608B (zh) 歌曲分享的方法、终端、服务器和***
CN108965757B (zh) 视频录制方法、装置、终端及存储介质
CN109640125B (zh) 视频内容处理方法、装置、服务器及存储介质
CN112118477B (zh) 虚拟礼物展示方法、装置、设备以及存储介质
CN109167937B (zh) 视频发布方法、装置、终端及存储介质
CN109144346B (zh) 歌曲分享方法、装置及存储介质
CN110533585B (zh) 一种图像换脸的方法、装置、***、设备和存储介质
CN112181573A (zh) 媒体资源展示方法、装置、终端、服务器以及存储介质
CN112363660B (zh) 封面图像的确定方法、装置、电子设备及存储介质
CN110147503B (zh) 信息发布方法、装置、计算机设备和存储介质
CN112788359B (zh) 直播处理方法、装置、电子设备及存储介质
CN113490010B (zh) 基于直播视频的互动方法、装置、设备及存储介质
WO2019137166A1 (zh) 视频制作方法、装置、存储介质及电子设备
CN111221457A (zh) 多媒体内容的调整方法、装置、设备及可读存储介质
CN112581358A (zh) 图像处理模型的训练方法、图像处理方法及装置
CN111628925A (zh) 歌曲交互方法、装置、终端及存储介质
CN111083526B (zh) 视频转场方法、装置、计算机设备及存储介质
CN114245218B (zh) 音视频播放方法、装置、计算机设备及存储介质
CN112417180B (zh) 生成影集视频的方法、装置、设备及介质
CN110209316B (zh) 类别标签显示方法、装置、终端及存储介质
CN111818367A (zh) 音频文件的播放方法、装置、终端、服务器及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant