CN108875670A - 信息处理方法、装置和存储介质 - Google Patents

信息处理方法、装置和存储介质 Download PDF

Info

Publication number
CN108875670A
CN108875670A CN201810688665.4A CN201810688665A CN108875670A CN 108875670 A CN108875670 A CN 108875670A CN 201810688665 A CN201810688665 A CN 201810688665A CN 108875670 A CN108875670 A CN 108875670A
Authority
CN
China
Prior art keywords
data
cover
image data
video data
frame image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810688665.4A
Other languages
English (en)
Inventor
吴嘉旭
黄慧滢
曾艺婷
王�琦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIGU Animation Co Ltd
MIGU Comic Co Ltd
Original Assignee
MIGU Animation Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIGU Animation Co Ltd filed Critical MIGU Animation Co Ltd
Priority to CN201810688665.4A priority Critical patent/CN108875670A/zh
Publication of CN108875670A publication Critical patent/CN108875670A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明公开了一种信息处理方法,包括:获得第一视频数据;在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;根据所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。本发明还公开了一种信息处理装置和计算机可读存储介质。

Description

信息处理方法、装置和存储介质
技术领域
本发明涉及信息处理技术,尤其涉及一种信息处理方法、装置和计算机可读存储介质。
背景技术
现有的短视频创作应用程序(APP)提供有短视频拍摄、短视频编辑等功能,有的也提供有视频封面选取的功能。现有的视频封面选取方法一般包括以下步骤:在封面选取页面展示一系列图片帧;由用户拖动图片帧上的光标进行封面起始点的选取;按默认的封面规格(所述封面规格可以包括帧率、尺寸等)设置选取的封面,并预览当前选取的封面效果;如图1所示,提供了几种现有APP的封面选取页面。但上述视频封面选取方法也存在以下问题:只能按预先定义的封面选取规则进行封面选取,不支持用户定制并自由抽帧组合成动态封面。
发明内容
有鉴于此,本发明的主要目的在于提供一种信息处理方法、装置和计算机可读存储介质。
为达到上述目的,本发明的技术方案是这样实现的:
本发明实施例提供了一种信息处理方法,所述方法包括:
获得第一视频数据;
在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;
根据所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
上述方案中,所述从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据,包括:
获得第一输入操作,基于所述第一输入操作从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;或者,
分析所述第一视频数据,获得所述第一视频数据中的目标对象;
从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据,生成备选封面数据集;
从所述备选封面数据集中确定至少一帧图像数据。
上述方案中,所述方法还包括:实时获得用户的面部图像,根据所述面部图像确定用户的表情特征;根据保存的表情特征和图像风格的对应关系,确定所述表情特征对应的图像风格;
根据所述图像风格对所述至少一帧图像数据进行图像处理;
所述根据所述至少一帧图像数据生成封面数据,包括:根据图像处理后的至少一帧图像数据生成封面数据。
上述方案中,所述根据所述至少一帧图像数据生成封面数据,包括:
根据所述至少一帧图像数据生成初始封面数据;
在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;所述图像处理包括以下至少之一:在所述初始封面数据中添加素材数据、改变所述初始封面数据的显示属性参数。
上述方案中,所述从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据,包括:
从所述第一视频数据包括的多帧图像数据中确定多组帧图像数据;每组帧图像数据中包括至少一帧图像数据;
所述根据所述至少一帧图像数据生成封面数据,包括:
根据所述多组帧图像数据中的每组帧图像数据生成封面数据,获得多个封面数据。
上述方案中,所述将所述封面数据与所述第一视频数据合并,生成第二视频数据,包括:
确定所述第二视频数据的发送对象,根据所述发送对象的属性从所述多个封面数据中选择目标封面数据;
将所述目标封面数据与所述第一视频数据合并,生成第二视频数据。
本发明实施例还提供了一种信息处理装置,所述装置包括:第一处理模块、第二处理模块和第三处理模块;其中,
所述第一处理模块,用于获得第一视频数据;
所述第二处理模块,用于在处于第一模式下,从所述第一处理模块获得的所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;
所述第三处理模块,用于根据所述第二处理模块确定的所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
上述方案中,所述第二处理模块,具体用于获得第一输入操作,基于所述第一输入操作从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;或者,
分析所述第一视频数据,获得所述第一视频数据中的目标对象;
从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据,生成备选封面数据集;
从所述备选封面数据集中确定至少一帧图像数据。
上述方案中,所述第一处理模块,还用于实时获得用户的面部图像,根据所述面部图像确定用户的表情特征;根据保存的表情特征和图像风格的对应关系,确定所述表情特征对应的图像风格;根据所述图像风格对所述至少一帧图像数据进行图像处理;
所述第三处理模块,用于根据所述第一处理模块进行图像处理后的至少一帧图像数据生成封面数据。
上述方案中,所述第三处理模块,具体用于根据所述至少一帧图像数据生成初始封面数据;在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;所述图像处理包括以下至少之一:在所述初始封面数据中添加素材数据、改变所述初始封面数据的显示属性参数。
上述方案中,所述第二处理模块,具体用于从所述第一视频数据包括的多帧图像数据中确定多组帧图像数据;每组帧图像数据中包括至少一帧图像数据;
所述第三处理模块,用于根据所述多组帧图像数据中的每组帧图像数据生成封面数据,获得多个封面数据。
上述方案中,所述第三处理模块,具体用于确定所述第二视频数据的发送对象,根据所述发送对象的属性从所述多个封面数据中选择目标封面数据;将所述目标封面数据与所述第一视频数据合并,生成第二视频数据。
本发明实施例还提供了一种信息处理装置,所述装置包括:处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序时,执行以上所述的任意一种信息处理方法的步骤。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以上所述的任意一种信息处理方法的步骤。
本发明实施例所提供的信息处理方法、装置和计算机可读存储介质,获得第一视频数据;在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;根据所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。本发明实施例通过在处于第一模式下支持从多帧图像数据中选择至少一帧图像数据生成封面数据,实现了视频封面的自定义制作,大大提升了用户的操作体验。
附图说明
图1(a)至图1(d)均为本发明实施例提供的现有APP的封面选取页面的示意图;
图2为本发明实施例提供的一种信息处理方法的流程示意图;
图3为本发明实施例提供的另一种信息处理方法的流程示意图;
图4(a)至图4(b)分别为本发明实施例提供的图像数据选择页面的示意图;
图5为本发明实施例提供的添加贴纸和滤镜页面的示意图;
图6为本发明实施例提供的一种信息处理装置的结构示意图;
图7为本发明实施例提供的另一种信息处理装置的结构示意图。
具体实施方式
在本发明的各种实施例中,获得第一视频数据;在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;根据所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
下面结合实施例对本发明再作进一步详细的说明。
图2为本发明实施例提供的一种信息处理方法的流程示意图;如图2所示,所述信息处理方法可以应用于移动终端,所述移动终端可以为手机、平板、计算机等智能设备;所述方法包括:
步骤101、获得第一视频数据。
具体地,所述获取第一视频数据,可以包括:
接收用户输入的拍摄操作,根据所述拍摄操作录制视频,录制后获得的视频数据作为所述第一视频数据;或者;
接收用户输入的读取操作,根据所述读取操作从移动终端本地存储的至少一个视频数据中选择任一视频数据,作为所述第一视频数据。
步骤102、在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据。
这里,所述第一模式指封面数据制作模式;作为一种实施方式,当移动终端获得第一视频数据后,即可进入到所述第一模式。作为另一种实施方式,检测到封面数据制作指令,进入所述第一模式;其中,所述封面数据制作指令可通过检测到针对特定功能按键的操作获得,或者可通过检测到包含该指令的手势操作获得,或者可通过检测到包含该指令的语音数据获得。在处于所述第一模式下,获得所述第一视频数据包括的多帧图像数据,并采用特定显示方式显示该多帧图像数据。
其中,所述采用特定显示方式显示该多帧图像数据,包括:按照所述多帧图像数据的时间先后顺序排列、采用缩略图的方式显示该多帧图像数据;其中,缩略图可以是缩小后的帧图像数据,也可以是帧图像数据的部分图像数据,例如仅包含帧图像数据的关键特征,如人脸图像。
具体地,所述从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据,包括:
获得第一输入操作,基于所述第一输入操作从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据。
这里,所述第一输入操作可以为用户向移动终端输入的用于选择至少一帧图像数据的操作。
当移动终端通过人机交互界面显示所述第一视频数据包括的多帧图像数据后,用户可以从所述多帧图像数据中选择至少一帧图像数据。
具体地,所述从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据,包括:
分析所述第一视频数据,获得所述第一视频数据中的目标对象;
从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据,生成备选封面数据集;
从所述备选封面数据集中确定至少一帧图像数据。
具体来说,移动终端对所述第一视频数据进行视频抽帧处理,获得所述第一视频数据包括的多帧图像数据;分析所述多帧图像数据(如进行图像识别),获得所述第一视频数据中的目标对象(所述目标对象可以为某一个人、某一个物体等);从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据(如包含某一个人的部分帧图像数据),生成备选封面数据集;从所述备选封面数据集中确定至少一帧图像数据。
需要说明的是,确定一帧图像数据时,生成静态图像作为所述封面数据;确定多帧图像数据时,根据所述多帧图像数据获得动态图像,如图像互换格式(GIF,GraphicsInterchange Format)图像,所述动态图像作为封面数据。
本实施例中,支持用户选择多帧图像数据定制动态图像,打破现有的封面规则、即只采用静态图像作为封面的规则,增加了用户的自由度,也可激发用户的创作欲望。
步骤103、根据所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
具体地,所述方法还包括:
实时获得用户的面部图像,根据所述面部图像确定用户的表情特征;根据保存的表情特征和图像风格的对应关系,确定所述表情特征对应的图像风格;根据所述图像风格对所述至少一帧图像数据进行图像处理;
所述根据所述至少一帧图像数据生成封面数据,包括:根据图像处理后的至少一帧图像数据生成封面数据。
这里,所述表情特征和图像风格的对应关系可以预先设定并保存;所述表情特征可以包括:微笑、沮丧等,对应的图像风格可以包括:暖色调、冷色调等;
各种图像风格通过具体地图像参数设定,所述图像参数可以包括:亮度、冷色调、暖色调、饱和度、对比度等参数。当确定所述表情特征后,确定所述表情特征对应的图像风格,按所述图像风格对应的图像参数应用到图像数据中,即可完成所述根据图像风格对所述至少一帧图像数据进行图像处理。
这里,可以由所述移动终端的图像采集组件(如摄像头)实时采集用户的面部图像,也可能是由与移动终端建立通信连接的图像采集设备采集并发送给移动终端,从而所述移动终端获得用户的面部图像。
具体地,所述根据所述至少一帧图像数据生成封面数据,包括:
根据所述至少一帧图像数据生成初始封面数据;
在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;所述图像处理包括以下至少之一:在所述初始封面数据中添加素材数据、改变所述初始封面数据的显示属性参数。
这里,所述第二模式指二次编辑模式;在此模式下,可以对初始封面数据进行编辑。
作为一种实施方式,检测到编辑指令后,则进入到第二模式;其中,所述编辑指令可以通过检测到特定功能按键的操作获得(例如,移动终端的人机交互界面可以显示有编辑按钮,当用户点击所述编辑按钮,移动终端对应接收到输入的编辑指令,根据所述编辑指令进入到第二模式下);也可以通过检测到包含编辑指令的手势操作获得,还可以通过检测到包含编辑指令的语音数据获得。
这里,所述移动终端可以保存有不同的素材数据,如贴纸、表情包等;
所述在所述初始封面数据中添加素材数据,可以包括:
接收用户输入的添加操作,根据所述添加操作确定待添加的素材数据和待添加的位置;执行所述添加操作,将所述待添加的素材数据添加至对应的所述待添加的位置。
这里,所述改变所述初始封面数据的显示属性参数,可以包括:
接收用户输入的调整操作,根据所述调整操作确定针对所述初试封面数据的大小和/或滤镜的调整参数,根据所述调整参数改变所述初始封面数据的显示属性参数。
需要说明的是,移动终端可以提供有不同的滤镜,每种滤镜对应有不同的亮度、冷色调、暖色调、饱和度等参数值;调整所述滤镜实际是将所述亮度、冷色调、暖色调、饱和度等参数值应用到所述初始封面数据中。
通过对封面数据进行二次编辑,如添加贴纸、滤镜等,融合用户的二次创作,获得更符合用户要求的视频封面,提升用户的操作体验。
本实施例中,所述步骤102中,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据,还可以包括:
从所述第一视频数据包括的多帧图像数据中确定多组帧图像数据;每组帧图像数据中包括至少一帧图像数据;
所述根据所述至少一帧图像数据生成封面数据,包括:
根据所述多组帧图像数据中的每组帧图像数据生成封面数据,获得多个封面数据。
这里,通过上述步骤可以提供多个封面数据,所述多个封面数据可以针对不同的应用场景。
相应的,所述将所述封面数据与所述第一视频数据合并,生成第二视频数据,包括:
确定所述第二视频数据的发送对象,根据所述发送对象的属性从所述多个封面数据中选择目标封面数据;
将所述目标封面数据与所述第一视频数据合并,生成第二视频数据。
具体来说,所述发送对象的属性可以包括:待发送到的平台(如微信、微博)、待发送到的用户等。
当提供有多个封面数据时,不同的封面数据对应不同的发送对象的属性;确定待发送对象后,根据所述待发送对象的属性确定对应的某组封面数据;将确定的某组封面数据与所述第一视频数据合并,生成第二视频数据。
这里,针对同一第一视频数据可以关联有多个封面数据,所述多个封面数据可以应用于不同的场景下,形成“千人千面”的效果,使得用户发布的视频更具有多变性和吸引力,进而也可激发用户的创作欲望。
具体地,所述方法还包括:保存所述封面数据至封面数据集合中,和/或将所述封面数据发送至服务器;
所述将所述封面数据与所述第一视频数据合并,包括:
从存储的所述封面数据集合中获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并;或者,
从服务器获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并。
这里,所述第一视频数据与封面数据集合中的某个封面数据存在关联关系,且所述第一视频数据与服务器中的某个封面数据存在关联关系。当移动终端无法读取本地所述封面数据集合中的所述封面数据时,可以向所述服务器发送获取所述封面数据的请求;接收所述服务器反馈的封面数据,将所述服务器反馈的封面数据与所述第一视频数据合并,生成第二视频数据。
具体地,所述方法还包括:
在所述封面数据集合中未存储与所述第一视频数据关联的封面数据、且无法连接服务器时,生成提示信息,所述提示信息用于提示用户检查网络后再次请求服务器以获得与所述第一视频数据关联的封面数据。
具体来说,当用户更换了移动终端且更换后的移动终端无法连接网络,可能发生封面数据集合中未存储与所述第一视频数据关联的封面数据、且移动终端无法连接服务器的情况,此时,移动终端可以生成提示信息,用以告知用户此刻无法连接服务器,并提示用户检查网络后再次请求服务器以获得与所述第一视频数据关联的封面数据。
通过上述方法,可以从视频中选择至少一帧图像数据生成静态封面或动态封面;除此之外,还可以对选取的封面数据进行二次编辑、也可设置针对不同场景的多套封面。
图3为本发明实施例提供的另一种信息处理方法的流程示意图;如图3所示,所述方法可以包括:
步骤201、录制视频,获得第一视频数据;
这里,用户在使用移动终端或者采用所述信息处理方法的应用软件录制一段视频,获得所述第一视频数据。
步骤202、在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;
这里,移动终端的人机交互界面显示有封面选取按钮,用户点击封面选取按钮后,移动终端接收到封面数据制作指令,即可进入所述第一模式。
步骤203、根据所述至少一帧图像数据生成初始封面数据;
这里,当用户选择一帧图像数据时,则生成静态图像作为所述初始封面数据;当用户选择多帧图像数据时,则可以根据所述多帧图像数据获得动态图像(如GIF图像),作为初始封面数据。
具体来说,在第一模式下,用户可选取某一帧图像数据,制作静态的初始封面数据,或者,点击制作动态封面数据的按钮,制作动态的初始封面数据。
结合图4(a)所示,当用户点击制作动态封面数据的按钮后,移动终端接收到制作动态封面数据指令,进入动态封面数据的制作页面;用户可在由该第一视频数据抽帧铺成的多帧图像数据(可以是缩略图组的形式显示)中选择至少一帧图像数据(如5帧图像数据),被选取的图像帧可以高亮显示以表示被选取,如图4(b)所示,若再次点击已被选取的图像帧表示取消选择;用户选取完成并点击生成按钮后,移动终端根据确定的多帧图像数据合并生成动态的初始封面数据,如GIF图像。
步骤204、在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;
这里,在处于第二模式下,用户可对所述初始封面数据进行二次编辑;包括:叠加贴纸、滤镜等;二次编辑页面可以如图5所示。
具体来说,当生成初始封面数据后,则可进入第二模式;用户可以点击某一款贴纸时,默认在预览区域中心点展示该贴纸,用户可将贴纸的拖动、缩放、旋转;和/或,用户可以点击某一款滤镜时,移动终端接收到用户输入的点击操作,确定选择的滤镜的滤镜标识,并为所述初始封面数据叠加上滤镜标识对应的图像处理效果(如黑白化、欧式田园等)。
这里,用户通过相应的按钮或手势进行如上任意操作,移动终端即可获得相应的指令;根据获得的指令,所述移动终端完成针对初始封面数据的编辑。
步骤205、将所述封面数据与所述第一视频数据合并,生成第二视频数据。
具体地,所述步骤205还可以包括:
将确定的封面数据保存在本地的封面数据集合中,和/或将所述封面数据发送至服务器。
所述将所述封面数据与所述第一视频数据合并,包括:
从存储的所述封面数据集合中获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并;或者,
从服务器获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并。
本实施例中,所述方法还可以包括:
移动终端将用户每次对初始封面数据进行选取、编辑后的封面数据存入至所述第一视频数据对应的封面数据集合;
将所述多张封面数据配置为所述第一视频数据对应的轮播封面;当浏览的用户执行刷新操作时或多次分享第二视频数据时,封面数据可进行随机轮换,呈现“千人千面”的效果。
图6为本发明实施例提供的一种信息处理装置的结构示意图;如图6所示,所述装置包括:第一处理模块301、第二处理模块302和第三处理模块303;其中,
所述第一处理模块301,用于获得第一视频数据;
所述第二处理模块302,用于在处于第一模式下,从所述第一处理模块301获得的所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;
所述第三处理模块303,用于根据所述第二处理模块302确定的所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
具体地,所述第二处理模块302,具体用于获得第一输入操作,基于所述第一输入操作从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;或者,
分析所述第一视频数据,获得所述第一视频数据中的目标对象;
从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据,生成备选封面数据集;
从所述备选封面数据集中确定至少一帧图像数据。
具体地,所述第一处理模块301,还用于实时获得用户的面部图像,根据所述面部图像确定用户的表情特征;根据保存的表情特征和图像风格的对应关系,确定所述表情特征对应的图像风格;根据所述图像风格对所述至少一帧图像数据进行图像处理;
所述第三处理模块303,用于根据所述第一处理模块301进行图像处理后的至少一帧图像数据生成封面数据。
具体地,所述第三处理模块303,具体用于根据所述至少一帧图像数据生成初始封面数据;在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;所述图像处理包括以下至少之一:在所述初始封面数据中添加素材数据、改变所述初始封面数据的显示属性参数。
具体地,所述第二处理模块302,具体用于从所述第一视频数据包括的多帧图像数据中确定多组帧图像数据;每组帧图像数据中包括至少一帧图像数据;
所述第三处理模块303,用于根据所述多组帧图像数据中的每组帧图像数据生成封面数据,获得多个封面数据。
具体地,所述第三处理模块303,具体用于确定所述第二视频数据的发送对象,根据所述发送对象的属性从所述多个封面数据中选择目标封面数据;将所述目标封面数据与所述第一视频数据合并,生成第二视频数据。
具体地,所述装置还可以包括:通迅模块;
所述第三处理模块303,还用于保存所述封面数据至封面数据集合中;还用于从存储的所述封面数据集合中获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并。
所述通讯模块,用于将所述封面数据发送至服务器;还用于从服务器获得与所述第一视频数据关联的封面数据;
所述第三处理模块303,还用于将所述封面数据与所述第一视频数据合并。
具体地,所述装置还可以包括:提醒模块;所述提醒模块,用于在所述封面数据集合中未存储与所述第一视频数据关联的封面数据、且所述通讯模块无法连接服务器时,生成提示信息,所述提示信息用于提示用户检查网络后再次请求服务器以获得与所述第一视频数据关联的封面数据。
需要说明的是:上述实施例提供的信息处理装置在进行信息处理时,仅以上述各程序模块的划分进行举例说明,实际应用中,可以根据需要而将上述处理分配由不同的程序模块完成,即将装置的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分处理。另外,上述实施例提供的信息处理装置与信息处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图7为本发明实施例提供的另一种信息处理装置的结构示意图;所述信息处理装置可以应用于移动终端,如图7所示,所述装置40包括:处理器401和用于存储能够在所述处理器上运行的计算机程序的存储器402;其中,所述处理器401用于运行所述计算机程序时,执行:获得第一视频数据;在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;根据所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
在一实施例中,所述处理器401还用于运行所述计算机程序时,执行:获得第一输入操作,基于所述第一输入操作从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;或者,分析所述第一视频数据,获得所述第一视频数据中的目标对象;从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据,生成备选封面数据集;从所述备选封面数据集中确定至少一帧图像数据。
在一实施例中,所述处理器401还用于运行所述计算机程序时,执行:实时获得用户的面部图像,根据所述面部图像确定用户的表情特征;根据保存的表情特征和图像风格的对应关系,确定所述表情特征对应的图像风格;根据所述图像风格对所述至少一帧图像数据进行图像处理;所述根据所述至少一帧图像数据生成封面数据,包括:根据图像处理后的至少一帧图像数据生成封面数据。
在一实施例中,所述处理器401还用于运行所述计算机程序时,执行:根据所述至少一帧图像数据生成初始封面数据;在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;所述图像处理包括以下至少之一:在所述初始封面数据中添加素材数据、改变所述初始封面数据的显示属性参数。
在一实施例中,所述处理器401还用于运行所述计算机程序时,执行:从所述第一视频数据包括的多帧图像数据中确定多组帧图像数据;每组帧图像数据中包括至少一帧图像数据;根据所述多组帧图像数据中的每组帧图像数据生成封面数据,获得多个封面数据。
在一实施例中,所述处理器401还用于运行所述计算机程序时,执行:确定所述第二视频数据的发送对象,根据所述发送对象的属性从所述多个封面数据中选择目标封面数据;将所述目标封面数据与所述第一视频数据合并,生成第二视频数据。
在一实施例中,所述处理器401还用于运行所述计算机程序时,执行:保存所述封面数据至封面数据集合中,和/或将所述封面数据发送至服务器;从存储的所述封面数据集合中获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并;或者,从服务器获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并。
需要说明的是:上述实施例提供的信息处理装置与信息处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
实际应用时,所述装置40还可以包括:至少一个网络接口403。信息处理装置40中的各个组件通过总线***404耦合在一起。可理解,总线***404用于实现这些组件之间的连接通信。总线***404除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图7中将各种总线都标为总线***404。
其中,所述处理器404的个数可以为至少一个。
网络接口403用于信息处理装置40与其他设备之间有线或无线方式的通信。
本发明实施例中的存储器402用于存储各种类型的数据以支持语音处理装置40的操作。
上述本发明实施例揭示的方法可以应用于处理器401中,或者由处理器401实现。处理器401可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器401中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器401可以是通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器401可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器402,处理器401读取存储器402中的信息,结合其硬件完成前述方法的步骤。
在示例性实施例中,信息处理装置40可以被一个或多个应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,ProgrammableLogic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)、通用处理器、控制器、微控制器(MCU,Micro Controller Unit)、微处理器(Microprocessor)、或其他电子元件实现,用于执行前述方法。
本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器运行时,执行:获得第一视频数据;在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;根据所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
在一实施例中,所述计算机程序被处理器运行时,执行:获得第一输入操作,基于所述第一输入操作从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;或者,分析所述第一视频数据,获得所述第一视频数据中的目标对象;从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据,生成备选封面数据集;从所述备选封面数据集中确定至少一帧图像数据。
在一实施例中,所述计算机程序被处理器运行时,执行:实时获得用户的面部图像,根据所述面部图像确定用户的表情特征;根据保存的表情特征和图像风格的对应关系,确定所述表情特征对应的图像风格;根据所述图像风格对所述至少一帧图像数据进行图像处理;所述根据所述至少一帧图像数据生成封面数据,包括:根据图像处理后的至少一帧图像数据生成封面数据。
在一实施例中,所述计算机程序被处理器运行时,执行:根据所述至少一帧图像数据生成初始封面数据;在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;所述图像处理包括以下至少之一:在所述初始封面数据中添加素材数据、改变所述初始封面数据的显示属性参数。
在一实施例中,所述计算机程序被处理器运行时,执行:从所述第一视频数据包括的多帧图像数据中确定多组帧图像数据;每组帧图像数据中包括至少一帧图像数据;根据所述多组帧图像数据中的每组帧图像数据生成封面数据,获得多个封面数据。
在一实施例中,所述计算机程序被处理器运行时,执行:确定所述第二视频数据的发送对象,根据所述发送对象的属性从所述多个封面数据中选择目标封面数据;将所述目标封面数据与所述第一视频数据合并,生成第二视频数据。
在一实施例中,所述计算机程序被处理器运行时,执行:保存所述封面数据至封面数据集合中,和/或将所述封面数据发送至服务器;从存储的所述封面数据集合中获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并;或者,从服务器获得与所述第一视频数据关联的封面数据,将所述封面数据与所述第一视频数据合并。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种信息处理方法,其特征在于,所述方法包括:
获得第一视频数据;
在处于第一模式下,从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;
根据所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
2.根据权利要求1所述的方法,其特征在于,所述从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据,包括:
获得第一输入操作,基于所述第一输入操作从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;或者,
分析所述第一视频数据,获得所述第一视频数据中的目标对象;
从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据,生成备选封面数据集;
从所述备选封面数据集中确定至少一帧图像数据。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:实时获得用户的面部图像,根据所述面部图像确定用户的表情特征;根据保存的表情特征和图像风格的对应关系,确定所述表情特征对应的图像风格;根据所述图像风格对所述至少一帧图像数据进行图像处理;
所述根据所述至少一帧图像数据生成封面数据,包括:根据图像处理后的至少一帧图像数据生成封面数据。
4.根据权利要求1至3任一项所述的方法,其特征在于,所述根据所述至少一帧图像数据生成封面数据,包括:
根据所述至少一帧图像数据生成初始封面数据;
在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;所述图像处理包括以下至少之一:在所述初始封面数据中添加素材数据、改变所述初始封面数据的显示属性参数。
5.根据权利要求1至3任一项所述的方法,其特征在于,所述从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据,包括:
从所述第一视频数据包括的多帧图像数据中确定多组帧图像数据;每组帧图像数据中包括至少一帧图像数据;
所述根据所述至少一帧图像数据生成封面数据,包括:
根据所述多组帧图像数据中的每组帧图像数据生成封面数据,获得多个封面数据。
6.根据权利要求5所述的方法,其特征在于,所述将所述封面数据与所述第一视频数据合并,生成第二视频数据,包括:
确定所述第二视频数据的发送对象,根据所述发送对象的属性从所述多个封面数据中选择目标封面数据;
将所述目标封面数据与所述第一视频数据合并,生成第二视频数据。
7.一种信息处理装置,其特征在于,所述装置包括:第一处理模块、第二处理模块和第三处理模块;其中,
所述第一处理模块,用于获得第一视频数据;
所述第二处理模块,用于在处于第一模式下,从所述第一处理模块获得的所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;
所述第三处理模块,用于根据所述第二处理模块确定的所述至少一帧图像数据生成封面数据,将所述封面数据与所述第一视频数据合并,生成第二视频数据。
8.根据权利要求7所述的装置,其特征在于,所述第二处理模块,具体用于获得第一输入操作,基于所述第一输入操作从所述第一视频数据包括的多帧图像数据中确定至少一帧图像数据;或者,
分析所述第一视频数据,获得所述第一视频数据中的目标对象;
从所述第一视频数据中包括的多帧图像数据中获得包含所述目标对象的至少部分帧图像数据,生成备选封面数据集;
从所述备选封面数据集中确定至少一帧图像数据。
9.根据权利要求7所述的装置,其特征在于,所述第一处理模块,还用于实时获得用户的面部图像,根据所述面部图像确定用户的表情特征;根据保存的表情特征和图像风格的对应关系,确定所述表情特征对应的图像风格;根据所述图像风格对所述至少一帧图像数据进行图像处理;
所述第三处理模块,用于根据所述第一处理模块进行图像处理后的至少一帧图像数据生成封面数据。
10.根据权利要求7至9任一项所述的装置,其特征在于,所述第三处理模块,具体用于根据所述至少一帧图像数据生成初始封面数据;在处于第二模式下,对所述初始封面数据进行图像处理生成封面数据;所述图像处理包括以下至少之一:在所述初始封面数据中添加素材数据、改变所述初始封面数据的显示属性参数。
11.根据权利要求7至9任一项所述的装置,其特征在于,所述第二处理模块,具体用于从所述第一视频数据包括的多帧图像数据中确定多组帧图像数据;每组帧图像数据中包括至少一帧图像数据;
所述第三处理模块,用于根据所述多组帧图像数据中的每组帧图像数据生成封面数据,获得多个封面数据。
12.根据权利要求11所述的装置,其特征在于,所述第三处理模块,具体用于确定所述第二视频数据的发送对象,根据所述发送对象的属性从所述多个封面数据中选择目标封面数据;将所述目标封面数据与所述第一视频数据合并,生成第二视频数据。
13.一种信息处理装置,其特征在于,所述装置包括:处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序时,执行权利要求1至6任一所述方法的步骤。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6任一所述方法的步骤。
CN201810688665.4A 2018-06-28 2018-06-28 信息处理方法、装置和存储介质 Pending CN108875670A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810688665.4A CN108875670A (zh) 2018-06-28 2018-06-28 信息处理方法、装置和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810688665.4A CN108875670A (zh) 2018-06-28 2018-06-28 信息处理方法、装置和存储介质

Publications (1)

Publication Number Publication Date
CN108875670A true CN108875670A (zh) 2018-11-23

Family

ID=64296573

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810688665.4A Pending CN108875670A (zh) 2018-06-28 2018-06-28 信息处理方法、装置和存储介质

Country Status (1)

Country Link
CN (1) CN108875670A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110045958A (zh) * 2019-04-17 2019-07-23 腾讯科技(深圳)有限公司 纹理数据生成方法、装置、存储介质及设备
CN111918131A (zh) * 2020-08-18 2020-11-10 北京达佳互联信息技术有限公司 视频生成方法及装置

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105159639A (zh) * 2015-08-21 2015-12-16 小米科技有限责任公司 音频封面显示方法及装置
CN105931178A (zh) * 2016-04-15 2016-09-07 乐视控股(北京)有限公司 一种图像处理方法及装置
CN106210608A (zh) * 2015-04-29 2016-12-07 中国电信股份有限公司 基于移动侦测实现监控点位动态封面的方法、装置和***
CN106599208A (zh) * 2016-12-15 2017-04-26 腾讯科技(深圳)有限公司 一种内容分享方法及用户客户端
CN106658141A (zh) * 2016-11-29 2017-05-10 维沃移动通信有限公司 一种视频处理方法及移动终端
CN106686402A (zh) * 2016-11-29 2017-05-17 维沃移动通信有限公司 一种视频处理方法及移动终端
CN106998477A (zh) * 2017-04-05 2017-08-01 腾讯科技(深圳)有限公司 直播视频的封面显示方法和装置
CN107577768A (zh) * 2017-09-05 2018-01-12 广州阿里巴巴文学信息技术有限公司 导入文件封面的处理方法、装置以及智能终端设备

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106210608A (zh) * 2015-04-29 2016-12-07 中国电信股份有限公司 基于移动侦测实现监控点位动态封面的方法、装置和***
CN105159639A (zh) * 2015-08-21 2015-12-16 小米科技有限责任公司 音频封面显示方法及装置
CN105931178A (zh) * 2016-04-15 2016-09-07 乐视控股(北京)有限公司 一种图像处理方法及装置
CN106658141A (zh) * 2016-11-29 2017-05-10 维沃移动通信有限公司 一种视频处理方法及移动终端
CN106686402A (zh) * 2016-11-29 2017-05-17 维沃移动通信有限公司 一种视频处理方法及移动终端
CN106599208A (zh) * 2016-12-15 2017-04-26 腾讯科技(深圳)有限公司 一种内容分享方法及用户客户端
CN106998477A (zh) * 2017-04-05 2017-08-01 腾讯科技(深圳)有限公司 直播视频的封面显示方法和装置
CN107577768A (zh) * 2017-09-05 2018-01-12 广州阿里巴巴文学信息技术有限公司 导入文件封面的处理方法、装置以及智能终端设备

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110045958A (zh) * 2019-04-17 2019-07-23 腾讯科技(深圳)有限公司 纹理数据生成方法、装置、存储介质及设备
CN111918131A (zh) * 2020-08-18 2020-11-10 北京达佳互联信息技术有限公司 视频生成方法及装置
WO2022037348A1 (zh) * 2020-08-18 2022-02-24 北京达佳互联信息技术有限公司 视频生成方法及装置

Similar Documents

Publication Publication Date Title
CN108205467A (zh) 重复动作的智能辅助
CN106709762A (zh) 直播间中虚拟礼物的推荐方法、装置及移动终端
CN106844659A (zh) 一种多媒体数据处理方法和装置
US12015615B2 (en) Apparatus and method for coordinating the matching and initial communications between individuals in a dating application
CN111930994A (zh) 视频编辑的处理方法、装置、电子设备及存储介质
US11792504B2 (en) Personalized videos
CN102801652B (zh) 通过表情数据添加联系人的方法、客户端及***
US11558561B2 (en) Personalized videos featuring multiple persons
CN108196751A (zh) 群聊头像的更新方法、终端和计算机可读存储介质
EP4243427A1 (en) Video generation method and apparatus, device, and storage medium
CN109992227A (zh) 用户界面显示控制方法、装置、终端及计算机存储介质
CN108875670A (zh) 信息处理方法、装置和存储介质
CN109857505A (zh) 操作的执行方法、装置、终端及存储介质
EP4145268A1 (en) Electronic device and inter-device screen collaboration method and medium thereof
CN109766155A (zh) 一种弹框生成方法、装置及存储介质
CN109710779A (zh) 多媒体文件截取方法、装置、设备及存储介质
KR20150123429A (ko) 전자장치 및 컨텐츠 제공 방법
US11967344B2 (en) Video processing method and apparatus, device and computer readable storage medium
CN106650365A (zh) 一种启用不同工作模式的方法及装置
CN104731466B (zh) 一种信息输入方法及电子设备
CN107343090A (zh) 图片处理方法及装置
JP6750094B2 (ja) 画像評価装置,画像評価方法および画像評価プログラム
CN115248891A (zh) 一种页面展示方法、装置、电子设备和存储介质
KR102563026B1 (ko) 아바타 기반의 의류 매칭 정보를 제공하는 방법, 이를 이용하는 서버 및 프로그램
WO2024087533A1 (zh) 表情图像的共享方法、装置、计算机设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20181123