CN110276232A - 一种基于社交场景的数据处理方法、*** - Google Patents

一种基于社交场景的数据处理方法、*** Download PDF

Info

Publication number
CN110276232A
CN110276232A CN201810220928.9A CN201810220928A CN110276232A CN 110276232 A CN110276232 A CN 110276232A CN 201810220928 A CN201810220928 A CN 201810220928A CN 110276232 A CN110276232 A CN 110276232A
Authority
CN
China
Prior art keywords
characteristic data
user
data
dynamic image
expression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810220928.9A
Other languages
English (en)
Inventor
杨维
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastern Union Animation Co Ltd
Original Assignee
Eastern Union Animation Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastern Union Animation Co Ltd filed Critical Eastern Union Animation Co Ltd
Priority to CN201810220928.9A priority Critical patent/CN110276232A/zh
Publication of CN110276232A publication Critical patent/CN110276232A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本说明书实施例公开了基于社交场景的数据处理方法、***,所述方法包括:获取第一用户的表情特征数据和第二用户的动作特征数据;根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象。用户通过利用采集设备,可以获取不同用户的表情特征数据和动作特征数据,进一步,根据用户指定的风格类型,对用户的表情特征数据或动作特征数据进行合成,以便得到合成后的动态形象。用户可以将该动态形象应用于社交场景,共享给一个或者多个指定的用户或者聊天群,能够有效提升用户之间互动的趣味性,提高用户使用的体验效果。

Description

一种基于社交场景的数据处理方法、***
技术领域
本说明书涉及计算机技术领域,尤其涉及一种基于社交场景的数据处理方法、***。
背景技术
随着即时通讯(IM)软件、微博等社交软件的普及,越来越多的用户通过社交软件进行沟通,以便满足用户日常的工作、生活的社交需求。
在现有技术中,为了满足用户之间相互沟通时的趣味性,可以发送颜文字、静态/动态表情、声音等。进一步地,还可以基于预设的表情类型,通过图像采集设备获取用户的面部表情动作,并将用户面部表情动作转换为预设类型的表情,比如,可以将用户面部表情转换为各种类型的动物头像的表情。在现有技术中基于表情进行交互的方式过于单一。
基于现有技术,需要能够提升用户社交的体验效果的方案。
发明内容
本说明书实施例提供基于社交场景的数据处理方法、***,用于解决以下技术问题:需要能够提升用户社交的体验效果的方案。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供的一种基于社交场景的数据处理方法,包括:
获取第一用户的表情特征数据和第二用户的动作特征数据;
根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象。
本说明书实施例提供的另一种基于社交场景的数据处理方法,包括:
获取第一用户的表情特征数据;
根据预设的数据处理方式,基于预先存储的动作特征数据和所述表情特征数据生成动态形象,以便与指定的用户共享所述动态形象。
本说明书实施例提供的再一种基于社交场景的数据处理方法,包括:
获取第二用户的动作特征数据;
根据预设的数据处理方式,基于预先存储的表情特征数据和所述动作特征数据生成动态形象,以便与指定的用户共享所述动态形象。
本说明书实施例提供的一种基于社交场景的数据处理***,包括:
采集设备,用于采集第一用户的表情特征数据和第二用户的动作特征数据;
处理设备,根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象。
本说明书实施例提供的另一种基于社交场景的数据处理***,包括:
第一获取设备,获取第一用户的表情特征数据;
第一数据处理设备,根据预设的数据处理方式,基于预先存储的动作特征数据和所述表情特征数据生成动态形象,以便与指定的用户共享所述动态形象。
本说明书实施例提供的再一种基于社交场景的数据处理***,包括:
第二获取设备,获取第二用户的动作特征数据;
第二数据处理设备,根据预设的数据处理方式,基于预先存储的表情特征数据和所述动作特征数据生成动态形象,以便与指定的用户共享所述动态形象。
本说明书实施例提供的一种电子设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取第一用户的表情特征数据和第二用户的动作特征数据;
根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象。
本说明书实施例采用的上述至少一个技术方案能够达到以下有益效果:
用户通过利用采集设备,可以获取不同用户的表情特征数据和动作特征数据,进一步,根据用户指定的风格类型,对用户的表情特征数据或动作特征数据进行合成,以便得到合成后的动态形象。用户可以将该动态形象应用于社交场景,共享给一个或者多个指定的用户或者聊天群,能够有效提升用户之间互动的趣味性,提高用户使用的体验效果。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书的方案在实际应用场景下涉及的基于集群进行基于社交场景的数据处理的示意图;
图2为本说明书实施例提供的一种基于社交场景的数据处理方法的流程示意图;
图3为本说明书实施例提供的另一种基于社交场景的数据处理方法的流程示意图;
图4为本说明书实施例提供的基于APP进行动态形象处理的示意图;
图5为本说明书实施例提供的再一种基于社交场景的数据处理方法的流程示意图;
图6为本说明书实施例提供的一种基于群聊的基于社交场景的数据处理***的结构示意图;
图7为本说明书实施例提供的另一种基于群聊的基于社交场景的数据处理***的结构示意图;
图8为本说明书实施例提供的再一种基于群聊的基于社交场景的数据处理***的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
图1为本说明书的方案在一种实际应用场景下涉及的基于社交场景的数据处理的示意图。本说明书技术方案实际应用场景可以是基于IM(Instant Messaging,即时通讯软件)实现的,在即时通讯软件中,仅通过表情实现用户之间的沟通,方式比较单一,因此,可以将通过第一采集设备采集到的第一用户表情特征数据与通过第二采集设备采集到的第二用户的动作特征数据生成指定风格类型动态形象;当然,也可以是由用户提供表情特征数据或者动作特征数据,由服务器端设备或者本地设备提供动作特征数据或者表情特征数据,进一步生成动态形象。还可以将用户提供的或者预先存储的声音特征数据与所述表情特征数据和所述动作特征数据进行合成,从而可以有效提升用户的体验效果。需要说明的是,在实际应用中,可以实时获取并合成表情特征数据和动作特征数据;当然,也可以实时获取部分特征数据,例如,实时获取表情特征数据或者动作特征数据,再进行合成,得到实时合成的动态形象。
这里所说的动态形象,可以是动态的虚拟形象或者现实形象。具体而言,虚拟形象可以基于增强现实(Augmented Reality,AR)、虚拟现实(Virtual Reality,VR)、全息影像、混合现实(Mixed Reality,MR)或3D渲染技术进行渲染构建的图像形象或者视频形象。动态形象的内容,可以是人、动物、植物,例如,可以是小孩、小狗、花朵(比如,具有面部和肢体的拟人化的花朵);还可以是非现实世界的、创作出来的形象,例如,卡通人物、游戏角色等现实中不存在的形象。
而现实形象则可以是在实际拍摄所得到的未经渲染的图像形象或者视频形象。值得注意的是,现实形象通常并不会改变被拍摄对象(通常是用户的身体或面部表情)的呈现效果,即“所见即所得”的形象。
需要说明的是,这里所说的第一采集设备或第二采集设备可以包括:手机、智能手表、可穿戴设备、笔记本电脑等可移动终端设备,或非移动式的摄像头、相机等具有图像采集功能的设备;也可以包括:专业的用于对用户的表情或者动作特征进行采集的设备。为了便于理解,下面以第一采集设备为手机为例进行举例说明。展示动态形象的设备可以是手机、电脑、电视、3D荧幕、全息影像、MR设备、AR设备或VR设备等能够显示视频动画的显示设备。为了便于理解,下面以手机为例进行说明。
本说明书实施例提供一种基于社交场景的数据处理方法,如图2为本说明书实施例提供的一种基于社交场景的数据处理方法的流程示意图,具体可以包括:
步骤S202:获取第一用户的表情特征数据和第二用户的动作特征数据。
获取表情特征数据和动作特征数据的先后顺序是不确定的,可以根据用户的实际应用需求进行确定。一般来说,表情特征数据和动作特征数据的采集方式不同,需要通过不同的采集设备分别进行采集。特征数据的获取和采集可以是通过不同的设备完成的,也可以通过相同的设备完成,例如,可以通过手机实现实时采集特征数据、获取特征数据以及处理特征数据的操作。
需要说明的是,这里所说的表情特征数据,包括:用户的眼部动作特征数据、嘴部特征数据、眉毛特征数据、面部轮廓特征数据等。在获取到对应的表情特征数据之后,可以根据预设的风格类型,得到对应风格的表情形象。动作特征数据可以理解为肢体动作特征数据或者手势动作特征数据,可以是利用图像采集设备(例如,手机或者专用设备)基于肢体动作特征或者手势动作特征得到;将表情特征或者动作特征转换为表情或者动作特征数据,可以利用预设算法实现,如果有必要,还可以借助专业设备采集所需特征。
步骤S204:根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象。
数据处理的指令可以是由用户发出数据处理指令,也可以是由生成设备(例如,手机)根据用户指定的表情特征数据和动作特征数据,利用预设的生成方式进行生成。
在实际应用中,基于用户的表情特征和动作特征获取分别对应的表情特征数据和动作特征数据的过程,可以是分开进行的,也就是,基于用户的表情特征利用预设的机器学习模型得到所需的表情特征数据,基于用户的动作特征利用预设的机器学习模型得到所需的动作特征数据,进一步地将表情特征数据和动作特征数据进行合成,得到动态形象。当然,为了简化操作,还可以同时采集用户的动作特征和表情特征,直接生成同时包含动作特征数据和表情特征数据的动态形象。例如,可以预设一个包括面部和肢体的完整动态形象模型,当采集到用户的动作特征和表情特征之后,基于训练好的机器学习模型,可以直接基于动作特征和表情特征生成动态形象。
第一用户利用其手机得到的动态形象之后,可以将该动态形象通过即时通讯软件发送给指定的一个或者多个用户,当然也可以在聊天群中发送。此外,第一用户得到动态形象后,也可以通过其他方式进行动态形象的共享,例如,通过网页共享、通过微博或者朋友圈共享。
基于上述实施例可以了解到,用户通过利用采集设备,可以获取不同用户的表情特征数据和动作特征数据,进一步,根据用户指定的风格类型,对用户的表情特征数据或动作特征数据进行合成,以便得到合成后的动态形象。用户可以将该动态形象应用于社交场景,实时共享给一个或者多个指定的用户或者聊天群,能够有效提升用户之间互动的趣味性,提高用户使用的体验效果。
在本说明书一个或者多个实施例中,所述表情特征数据和所述动作特征数据的采集方式:通过第一采集设备采集第一用户的表情特征数据;通过第二采集设备采集第二用户的动作特征数据。
需要说明的是,这里所说的第一采集设备和第二采集设备可以是同一个采集设备,也可以是不同的采集设备。第一用户和第二用户代表同一用户或不同的两个用户。一般性的,第一用户的数量既可以是一个也可以是多个,同样地,对于第二用户而言,其数量也可以是一个或多个,在此并不针对用户的数量进行限定。
例如,第一用户与第二用户分别是不同的两个用户,第一用户表情表演能力较好,第二用户的动作表演能力较好。第一用户可以通过第一采集设备获取其自身的表情特征数据,第二用户通过第二采集设备采集到的第二用户的动作特征数据,进一步地将所述动作特征数据与第一用户提供的表情特征数据相结合,得到合成后的动态形象,即,具有第一用户表情形象和第二用户动作形象的动态图像或视频。
在本说明书一个或者多个实施例中,获取第一用户的表情特征数据和第二用户的动作特征数据之后,还可以包括:存储所述表情特征数据和所述动作特征数据到本地存储设备,或者,存储到服务器端存储设备;其中,所述本地存储设备包括:第一用户端存储设备、第二用户端存储设备。
在实际应用中,表情特征数据和动作特征数据在使用前后都需要进行存储,一种比较简便的存储方式是存储在本地存储设备,但是如果特征数据占用存储空间过大,也可以存储在服务器端存储设备中,该服务器端存储设备能够为多个用户提供很多的表情特征数据和动作特征数据;同时,用户可以根据自己的需要随意组合,得到不同的动态形象。例如,表情特征数据和动作特征数据的原文件存储在服务器端存储设备中,对应的经过压缩的数据(例如,缩略图)可以存储在本地存储设备中,以便用户选择所需的数据。
在本说明书一个或者多个实施例中,所述根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象,具体可以包括:本地处理设备或服务器端处理设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
如果对表情特征数据和动作特征数据进行合成的操作比较简单时,可以利用手机完成该合成操作,进一步地,用户可以通过手机发送动态形象给指定的用户或者分享到指定的聊天群;当然,为了获得更好的合成效果和更高的合成效率,可以由服务器来实现对表情特征数据与动作特征数据的合成,进一步地,服务器将合成好的动态形象再发送给发出请求合成的用户端(例如,手机)。
在本说明书一个或者多个实施例中,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
这里所说的实际形象包括采集到的用户本身具有的所见即所得的形象,不需要对该形象特征做进一步处理。虚拟形象包括基于采集到的原始形象的特征数据,经过图像处理或虚构出的形象,例如,卡通形象等。组合形象可以理解为基于实际形象与虚拟形象相结合,例如,在获得的所见即所得的人物实际面部表情的基础上进行美化处理。
这里所说的风格形象,可以是卡通风格、水墨风格、VR或者素描风格等等。例如,预设的风格形象中,还包括水墨风格的背景,进一步地将人物的表情和肢体动作转换为水墨风格,与水墨背景共同构成动态形象。
在本说明书一个或者多个实施例中,还包括:通过所述第一采集设备或所述第二采集设备,获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
需要说明的是,这里所说的声音特征数据的获取方式,可以通过采集第一用户或者第二用户声音获取,也可以通过网络获取,以便配合表情特征数据和动作特征数据,增加趣味性,提升用户体验效果。采集声音特征数据可以利用第一采集设备或者第二采集设备获取。该声音可以是语音或者音乐等各种类型的声音。
基于同样的思路,本说明书实施例还提供另一种基于社交场景的数据处理方法,如图3所示为本说明书实施例提供的另一种基于社交场景的数据处理方法的流程示意图,具体步骤包括:
步骤S302:获取第一用户的表情特征数据。
需要说明的是,在本实施例中,表情特征数据可以通过采集设备实时采集得到,动作特征数据不需要用户采集,可以直接从本地设备或者服务器端设备获取。有利于简化用户合成动态形象的操作步骤。关于表情特征数据和动作特征数据的含义,在上述实施例中已经进行了解释说明,具体可参考上述实施例。
步骤S304:根据预设的数据处理方式,基于预先存储的动作特征数据和所述表情特征数据生成动态形象,以便与指定的用户共享所述动态形象。
需要说明的是,在本实施例中,动作特征数据是预先得到的,包括:用户预先录制好的、或者通过网络获取的,将该动作特征数据预先存储在本地设备或者服务器端设备,当用户需要时可以随时获取。
在本说明书一个或者多个实施例中,所述表情特征数据的采集方式,可以包括:通过第一采集设备采集第一用户的表情特征数据。
例如,第一用户利用手机采集自己的面部表情特征,获得一段包含第一用户面部表情特征的一段视频,进一步地,可以基于该视频利用预先训练好的机器学习模型提取得到第一用户的表情特征数据。
假设,如图4所示为本说明书实施例提供的基于APP进行动态形象处理的示意图,用户基于一款社交APP,在该APP中提供预设的表情包或动作包,还提供录制控件;若用户想要自己制作动态形象,用户可以点击录制控件,录制用户的表情特征数据,然后用户点击动态形象控件中的动作控件,用户可以选择其所需的动作标签,得到合成后的动态形象。需要说明的是,表情包或动作包中包含的表情或者动作可以是图片(例如,GIF、JPG等格式),也可以是视频(例如,MP4、AVI等格式)。
在本说明书一个或者多个实施例中,所述表情特征数据存储到本地设备,或者,存储到服务器端设备。
作为一种简便的存储方式,可以将获取的表情特征数据存储到本地设备中。如果多个表情特征数据所占用的存储空间过大,就需要将表情特征数据存储到服务器端设备,可以减轻本地设备的存储压力;同时,也有利于基于服务器端设备实现表情特征数据的共享,其他用户可以根据自己的需求从服务器中获取其所需的表情特征数据。
在本说明书一个或者多个实施例中,所述根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象,具体可以包括:本地设备或服务器端设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
如果是比较简单的对表情特征数据和动作特征数据进行合成的操作,可以利用手机完成合成,进一步地,用户可以通过手机发送动态形象给指定的用户或者分享到指定的聊天群;当然,为了获得更好的合成效果和更高的合成效率,可以由服务器来实现对表情特征数据与动作特征数据的合成,进一步地,服务器将合成好的动态形象再发送给发出请求合成的用户端(例如,手机)。
在本说明书一个或者多个实施例中,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
这里所说的实际形象,不需要基于该形象特征进行进一步处理,通过指定的采集设备采集到的用户本身具有的所见即所得的形象。虚拟形象包括基于采集到的原始形象的特征数据,经过图像处理或虚构出的形象,例如,卡通形象等。组合形象可以理解为基于实际形象与虚拟形象相结合,例如,在获得的所见即所得的人物实际表情的基础上,对其面部表情进行美化处理。
这里所说的风格形象,可以是卡通风格、水墨风格、VR或者素描风格等等。例如,预设的风格形象中,还包括水墨风格的背景,进一步地将人物的表情和肢体动作转换为水墨风格,与水墨背景共同构成动态形象。
在本说明书一个或者多个实施例中,还包括:通过所述第一采集设备获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
该声音特征数据,可以利用第一采集设备基于第一用户或者其他用户获取,也可以通过网络获取,以便配合表情特征数据和动作特征数据,增加趣味性,提升用户体验效果。这里所说的声音特征数据,可以是语音或者音乐等各种类型的声音。
基于同样的思路,本说明书实施例还提供再一种基于社交场景的数据处理方法,如图5所示为本说明书实施例提供的再一种基于社交场景的数据处理方法的流程示意图,具体步骤包括:
步骤S502:获取第二用户的动作特征数据。
需要说明的是,在本实施例中,动作特征数据可以通过采集设备实时采集得到,表情特征数据不需要用户采集,可以直接从本地设备或者服务器端设备获取。有利于简化用户合成动态形象的操作步骤。关于表情特征数据和动作特征数据的含义,在上述实施例中已经进行了解释说明,具体可参考上述实施例。
动作特征数据可以理解为肢体动作特征数据或者手势动作特征数据,可以是利用图像采集设备(例如,手机或者专用设备)基于肢体动作特征或者手势动作特征得到;将动作特征转换为动作特征数据,可以利用预设算法实现,如果有必要,还可以借助专业设备采集所需特征。
步骤S504:根据预设的数据处理方式,基于预先存储的表情特征数据和所述动作特征数据生成动态形象,以便与指定的用户共享所述动态形象。
需要说明的是,在本实施例中,表情特征数据是预先得到的,包括:用户预先录制好的、或者通过网络获取的,将该表情特征数据预先存储在本地设备或者服务器端设备,当用户需要时可以随时获取。
在本说明书一个或者多个实施例中,所述动作特征数据的采集方式,包括:通过第二采集设备采集第二用户的动作特征数据。
例如,第二用户利用手机采集自己的动作特征,获得一段包含第二用户肢体动作特征的一段视频,进一步地,可以基于该视频利用预先训练好的机器学习模型提取得到第二用户的动作特征数据。
在本说明书一个或者多个实施例中,所述动作特征数据存储到本地设备,或者,存储到服务器端设备。
作为一种简便的存储方式,可以将获取的表情特征数据存储到本地设备中。如果多个表情特征数据所占用的存储空间过大,就需要将表情特征数据存储到服务器端设备,可以减轻本地设备的存储压力;同时,也有利于基于服务器端设备实现表情特征数据的共享,其他用户可以根据自己的需求从服务器中获取其所需的表情特征数据。
在本说明书一个或者多个实施例中,所述根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象,具体可以包括:本地设备或服务器端设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
如果是比较简单的对表情特征数据和动作特征数据进行合成的操作,可以利用手机完成合成,进一步地,用户可以通过手机发送动态形象给指定的用户或者分享到指定的聊天群;当然,为了获得更好的合成效果和更高的合成效率,可以由服务器来实现对表情特征数据与动作特征数据的合成,进一步地,服务器将合成好的动态形象再发送给发出请求合成的用户端(例如,手机)。
在本说明书一个或者多个实施例中,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
这里所说的实际形象,不需要基于该形象特征进行进一步处理,通过指定的采集设备采集到的用户本身具有的所见即所得的形象。虚拟形象包括基于采集到的原始形象的特征数据,经过图像处理或虚构出的形象,例如,卡通形象等。组合形象可以理解为基于实际形象与虚拟形象相结合,例如,在获得的所见即所得的人物实际表情的基础上,对其面部表情进行美化处理。
这里所说的风格形象,可以是卡通风格、水墨风格、VR或者素描风格等等。例如,预设的风格形象中,还包括水墨风格的背景,进一步地将人物的表情和肢体动作转换为水墨风格,与水墨背景共同构成动态形象。
在本说明书一个或者多个实施例中,还包括:通过所述第二采集设备获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
该声音特征数据,可以利用第一采集设备基于第一用户或者其他用户获取,也可以通过网络获取,以便配合表情特征数据和动作特征数据,增加趣味性,提升用户体验效果。这里所说的声音特征数据,可以是语音或者音乐等各种类型的声音。
基于同样的思路,本说明书实施例还提供一种基于社交场景的数据处理***,如图6所示为本说明书实施例提供的一种基于群聊的基于社交场景的数据处理***的结构示意图,具体包括:
采集设备610,用于采集第一用户的表情特征数据和第二用户的动作特征数据;
处理设备620,根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象。
在采集设备610采集得到表情特征数据和动作特征数据后,发送给处理设备620,利用处理设备620基于预设的数据处理方式,生成动态形象。
需要说明的是,这里所说的采集设备610和处理设备620,可以是同一设备,例如,都可以是用户的手机。
进一步地,所述采集设备610包括:第一采集设备611和第二采集设备612;
所述第一采集设备611用于采集第一用户的表情特征数据,所述第二采集设备用于采集第二用户的动作特征数据。
进一步地,还包括:存储设备630,用于存储所述表情特征数据和动作特征数据;其中,所述存储设备630包括:本地存储设备631、服务器端存储设备632。
进一步地,所述处理设备620包括:本地处理设备621和服务器端处理设备622;
所述本地处理设备621或服务器端处理设备622根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
进一步地,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
进一步地,采集设备610还包括用于采集声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
基于同样的思路,本说明书实施例还提供另一种基于社交场景的数据处理***,如图7所示为本说明书实施例提供的另一种基于群聊的基于社交场景的数据处理***的结构示意图,具体包括:
第一获取设备710,获取第一用户的表情特征数据;
第一数据处理设备720,根据预设的数据处理方式,基于预先存储的动作特征数据和所述表情特征数据生成动态形象,以便与指定的用户共享所述动态形象。
进一步地,还包括:第一采集设备611;
通过第一采集设备611采集第一用户的表情特征数据。需要说明的是,第一获取设备710与第一采集设备611可以是同一台设备,也可以分别是不同的设备。
进一步地,还包括:第一存储设备730;其中,第一存储设备730包括:第一本地设备731、第一服务器端设备732中至少一个;所述表情特征数据存储到第一本地设备731,或者,存储到第一服务器端设备732。
进一步地,所述第一数据处理设备720包括:第一本地数据处理设备721、第一服务器端数据处理设备722中至少一个;
第一本地数据处理设备721或第一服务器端数据处理设备722根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
进一步地,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
进一步地,还包括:通过所述第一采集设备获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
基于同样的思路,本说明书实施例还提供再一种基于社交场景的数据处理***,如图8所示为本说明书实施例提供的再一种基于群聊的基于社交场景的数据处理***的结构示意图,具体包括:
第二获取设备810,获取第二用户的动作特征数据;
第二数据处理设备820,根据预设的数据处理方式,基于预先存储的表情特征数据和所述动作特征数据生成动态形象,以便与指定的用户共享所述动态形象。
进一步地,还包括:第二采集设备612;
通过第二采集设备612采集第二用户的动作特征数据。
进一步地,还包括:第二存储设备830;其中,第二存储设备830包括:第二本地存储设备831或第二服务器端存储设备832;所述动作特征数据存储到第二本地存储设备831,或者,存储到第二服务器端存储设备832。
进一步地,所述第二数据处理设备820包括:第二本地数据处理设备821、第二服务器端数据处理设备822中至少一个;
第二本地数据处理设备821或第二服务器端数据处理设备822根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
进一步地,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
进一步地,还包括:通过所述第二采集设备612获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、电子设备、非易失性计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书实施例提供的装置、电子设备、非易失性计算机存储介质与方法是对应的,因此,装置、电子设备、非易失性计算机存储介质也具有与对应方法类似的有益技术效果,由于上面已经对方法的有益技术效果进行了详细说明,因此,这里不再赘述对应装置、电子设备、非易失性计算机存储介质的有益技术效果。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书实施例可提供为方法、***、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (36)

1.一种基于社交场景的数据处理方法,包括:
获取第一用户的表情特征数据和第二用户的动作特征数据;
根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象。
2.如权利要求1所述的方法,所述表情特征数据和所述动作特征数据的采集方式:
通过第一采集设备采集第一用户的表情特征数据;通过第二采集设备采集第二用户的动作特征数据。
3.如权利要求1所述的方法,获取第一用户的表情特征数据和第二用户的动作特征数据之后,还包括:
存储所述表情特征数据和所述动作特征数据到本地存储设备,或者,存储到服务器端存储设备;其中,所述本地存储设备,包括:第一用户端存储设备、第二用户端存储设备。
4.如权利要求1所述的方法,所述根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象,具体包括:
本地处理设备或服务器端处理设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
5.如权利要求1所述的方法,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
6.如权利要求1所述的方法,还包括:通过所述第一采集设备或所述第二采集设备,获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
7.一种基于社交场景的数据处理方法,包括:
获取第一用户的表情特征数据;
根据预设的数据处理方式,基于预先存储的动作特征数据和所述表情特征数据生成动态形象,以便与指定的用户共享所述动态形象。
8.如权利要求7所述的方法,所述表情特征数据的采集方式,包括:通过第一采集设备采集第一用户的表情特征数据。
9.如权利要求7所述的方法,所述表情特征数据存储到第一本地存储设备,或者,存储到第一服务器端存储设备。
10.如权利要求7所述的方法,所述根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象,具体包括:
第一本地数据处理设备或第一服务器端数据处理设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
11.如权利要求7所述的方法,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
12.如权利要求7所述的方法,还包括:通过所述第一采集设备获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
13.一种基于社交场景的数据处理方法,包括:
获取第二用户的动作特征数据;
根据预设的数据处理方式,基于预先存储的表情特征数据和所述动作特征数据生成动态形象,以便与指定的用户共享所述动态形象。
14.如权利要求13所述的方法,所述动作特征数据的采集方式,包括:通过第二采集设备采集第二用户的动作特征数据。
15.如权利要求13所述的方法,所述动作特征数据存储到第二本地存储设备,或者,存储到第二服务器端存储设备。
16.如权利要求13所述的方法,所述根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象,具体包括:
第二本地数据处理设备或第二服务器端数据处理设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
17.如权利要求13所述的方法,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
18.如权利要求13所述的方法,还包括:通过所述第二采集设备获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
19.一种基于社交场景的数据处理***,包括:
采集设备,用于采集第一用户的表情特征数据和第二用户的动作特征数据;
处理设备,根据预设的数据处理方式,基于所述表情特征数据和所述动作特征数据生成动态形象,以便与指定用户共享所述动态形象。
20.如权利要求19所述的***,所述采集设备包括:第一采集设备和第二采集设备;
所述第一采集设备用于采集第一用户的表情特征数据,所述第二采集设备用于采集第二用户的动作特征数据。
21.如权利要求19所述的***,还包括:存储设备,用于存储所述表情特征数据和动作特征数据;
其中,所述存储设备包括:本地存储设备、服务器端存储设备。
22.如权利要求19所述的***,所述处理设备包括:本地处理设备和服务器端处理设备;
所述本地处理设备或服务器端处理设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
23.如权利要求19所述的***,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
24.如权利要求19所述的***,采集设备还包括用于采集声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
25.一种基于社交场景的数据处理***,包括:
第一获取设备,获取第一用户的表情特征数据;
第一数据处理设备,根据预设的数据处理方式,基于预先存储的动作特征数据和所述表情特征数据生成动态形象,以便与指定的用户共享所述动态形象。
26.如权利要求25所述的***,还包括:第一采集设备;
通过第一采集设备采集第一用户的表情特征数据。
27.如权利要求25所述的***,还包括:第一存储设备;其中,所述第一存储设备包括:第一本地存储设备或第一服务器端存储设备;所述表情特征数据存储到第一本地存储设备,或者,存储到第一服务器端存储设备。
28.如权利要求25所述的***,所述第一数据处理设备,包括:第一本地数据处理设备、第一服务器端数据处理设备中至少一个;
第一本地数据处理设备或第一服务器端数据处理设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
29.如权利要求25所述的***,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
30.如权利要求25所述的***,还包括:通过所述第一采集设备获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
31.一种基于社交场景的数据处理***,包括:
第二获取设备,获取第二用户的动作特征数据;
第二数据处理设备,根据预设的数据处理方式,基于预先存储的表情特征数据和所述动作特征数据生成动态形象,以便与指定的用户共享所述动态形象。
32.如权利要求31所述的***,还包括:第二采集设备;
通过第二采集设备采集第二用户的动作特征数据。
33.如权利要求31所述的***,还包括:第二存储设备;其中,第二存储设备包括:第二本地存储设备或第二服务器端存储设备;所述动作特征数据存储到第二本地存储设备,或者,存储到第二服务器端存储设备。
34.如权利要求31所述的***,所述第二数据处理设备包括:第二本地数据处理设备、第二服务器端数据处理设备中至少一个;
第二本地数据处理设备或第二服务器端数据处理设备根据预设的数据处理方式,将所述表情特征数据与所述动作特征数据进行合成,得到动态形象,以便与指定用户共享所述动态形象。
35.如权利要求31所述的***,所述动态形象包括:实际形象、虚拟形象及所述实际形象与所述虚拟形象的组合中至少一个;所述动态形象对应多种风格形象。
36.如权利要求31所述的***,还包括:通过所述第二采集设备获取声音特征数据,以便与获取的所述表情特征数据和所述动作特征数据生成所述动态形象。
CN201810220928.9A 2018-03-16 2018-03-16 一种基于社交场景的数据处理方法、*** Pending CN110276232A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810220928.9A CN110276232A (zh) 2018-03-16 2018-03-16 一种基于社交场景的数据处理方法、***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810220928.9A CN110276232A (zh) 2018-03-16 2018-03-16 一种基于社交场景的数据处理方法、***

Publications (1)

Publication Number Publication Date
CN110276232A true CN110276232A (zh) 2019-09-24

Family

ID=67958684

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810220928.9A Pending CN110276232A (zh) 2018-03-16 2018-03-16 一种基于社交场景的数据处理方法、***

Country Status (1)

Country Link
CN (1) CN110276232A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115150555A (zh) * 2022-07-15 2022-10-04 北京字跳网络技术有限公司 视频录制方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1672178A (zh) * 2002-07-31 2005-09-21 引程私人有限公司 动画通信
CN104079468A (zh) * 2013-03-25 2014-10-01 腾讯科技(深圳)有限公司 动画传输方法和***
US20160307028A1 (en) * 2015-04-16 2016-10-20 Mikhail Fedorov Storing, Capturing, Updating and Displaying Life-Like Models of People, Places And Objects
CN106713811A (zh) * 2015-11-17 2017-05-24 腾讯科技(深圳)有限公司 视频通话方法和装置
CN107465885A (zh) * 2016-06-06 2017-12-12 中兴通讯股份有限公司 一种实现视频通讯的方法和装置
WO2018031146A1 (en) * 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1672178A (zh) * 2002-07-31 2005-09-21 引程私人有限公司 动画通信
CN104079468A (zh) * 2013-03-25 2014-10-01 腾讯科技(深圳)有限公司 动画传输方法和***
US20160307028A1 (en) * 2015-04-16 2016-10-20 Mikhail Fedorov Storing, Capturing, Updating and Displaying Life-Like Models of People, Places And Objects
CN106713811A (zh) * 2015-11-17 2017-05-24 腾讯科技(深圳)有限公司 视频通话方法和装置
CN107465885A (zh) * 2016-06-06 2017-12-12 中兴通讯股份有限公司 一种实现视频通讯的方法和装置
WO2018031146A1 (en) * 2016-08-11 2018-02-15 Jibjab Media Inc. Combining user images and computer-generated illustrations to produce personalized animated digital avatars

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115150555A (zh) * 2022-07-15 2022-10-04 北京字跳网络技术有限公司 视频录制方法、装置、设备及介质
CN115150555B (zh) * 2022-07-15 2023-12-19 北京字跳网络技术有限公司 视频录制方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
KR102658960B1 (ko) 얼굴 재연을 위한 시스템 및 방법
CN108010112B (zh) 动画处理方法、装置及存储介质
US20240119653A1 (en) Avatar animation system
JP7228682B2 (ja) 動画解析のためのゲーティングモデル
CN104782120B (zh) 化身动画制作方法、计算设备和存储介质
EP3815042B1 (en) Image display with selective depiction of motion
CN108024071B (zh) 视频内容生成方法、视频内容生成装置及存储介质
KR20220051376A (ko) 메시징 시스템에서의 3d 데이터 생성
CN108846886B (zh) 一种ar表情的生成方法、客户端、终端和存储介质
CN111476871A (zh) 用于生成视频的方法和装置
CN113362263B (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
CN112868224B (zh) 捕获和编辑动态深度图像的方法、装置和存储介质
US20180143741A1 (en) Intelligent graphical feature generation for user content
CN114330631A (zh) 数字人生成方法、装置、设备及存储介质
CN110288703A (zh) 图像处理方法、装置、设备以及存储介质
CN111179392A (zh) 一种基于5g通信的虚拟偶像综艺直播的方法及***
CN118096961B (zh) 图像处理方法和装置
CN111274489B (zh) 信息处理方法、装置、设备及存储介质
CN110276232A (zh) 一种基于社交场景的数据处理方法、***
CN107609051A (zh) 一种图像渲染方法、装置以及电子设备
CN111327816A (zh) 图像处理方法及其装置、电子设备以及计算机存储介质
US20240282016A1 (en) Machine learning diffusion model with image encoder trained for synthetic image generation
CN116774902A (zh) 虚拟摄像机的配置方法、装置、设备及存储介质
CN118469798A (zh) 一种写真生成方法、装置、电子设备、存储介质及程序产品
KR20230163907A (ko) 이미지를 캐릭터 이미지로 카툰화시키는 변환 모델의 구축 방법 및 시스템과, 변환 모델을 사용하는 이미지 변환 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20190924