CN112734889A - 一种2d角色的口型动画实时驱动方法和*** - Google Patents
一种2d角色的口型动画实时驱动方法和*** Download PDFInfo
- Publication number
- CN112734889A CN112734889A CN202110188571.2A CN202110188571A CN112734889A CN 112734889 A CN112734889 A CN 112734889A CN 202110188571 A CN202110188571 A CN 202110188571A CN 112734889 A CN112734889 A CN 112734889A
- Authority
- CN
- China
- Prior art keywords
- mouth shape
- animation
- phoneme
- mouth
- duration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明公开了一种2D角色的口型动画实时驱动方法和***,其中方法包括:定义2D角色的基本口型动作集合;定义所述基本口型动作集合中的元素的权重变化曲线;设计不同音素对应的口型动画;获取输入音频流对应的音素序列;将所述音素序列中的每个所述音素映射到对应的所述口型动画上;将各所述口型动画相互拼接,最终得到所述音频流驱动的2D角色的完整口型动画。本发明通过事先定义的基本口型动作集合以及基本口型动作集合中的每个元素的权重变化曲线,将输入的音频流对应的音素序列映射到口型动画片段上,然后将各个口型动画片段互相拼接,最终输出音频流实时驱动的具有高逼真度、高自然度的2D角色口型动画。
Description
技术领域
本发明涉及数据处理技术领域,具体涉及一种2D角色的口型动画实时驱动方法和***。
背景技术
口型是角色面部动画的关键视点,口型动画是否逼真、自然直接影响到角色面部整体动画的真实度,因此,口型动画的制作在电影、游戏以及虚拟现实等人机交互方式中占据着重要地位。
通过语音驱动口型动画是当下生成口型动画的一种主要方法。语音驱动口型动画即以一段语音信号为输入,生成一段与该信号同步的口型动画。语音驱动口型动画的原理为,将语音信号转化为由一串发音单元(音素)构成的序列,然后将这些音素表达为口型的可视化形态(视素),最后将这些可视化形态拼接为口型动画。但现有的语音驱动口型动画的方法存在音素过渡不自然等问题,最主要的是由于口型动画生成过程复杂,口型动画与音频输入存在延时,无法将输入的音频流实时转化为口型动画,导致口型动画不够逼真、自然。
发明内容
本发明的目的在于提供一种2D角色的口型动画实时驱动方法,通过事先定义的基本口型动作集合以及基本口型动作集合中的每个元素的权重变化曲线,将输入的音频流对应的音素序列映射到口型动画片段上,然后将各个口型动画片段互相拼接,最终输出音频流实时驱动的具有高逼真度、高自然度的2D角色口型动画。
为达此目的,本发明采用以下技术方案:
提供一种2D角色的口型动画实时驱动方法,具体步骤包括:
1)定义2D角色的基本口型动作集合;
2)定义所述基本口型动作集合中的元素的权重变化曲线;
3)设计不同音素对应的口型动画;
4)获取输入音频流对应的音素序列;
5)将所述音素序列中的每个所述音素映射到对应的所述口型动画上;
6)将各所述口型动画相互拼接,最终得到所述音频流驱动的2D角色的完整口型动画。
作为本发明的一种优选方案,步骤1)中,选取FaceGen脸部模型创建软件中预设的其中6种口型动作作为2D角色的基本口型动作组成所述基本口型动作集合。
作为本发明的一种优选方案,步骤2)中,定义的所述基本口型动作集合中的各所述元素对应的所述权重变化曲线可通过以下公式表达:
上式中,i表示所述基本口型动作集合中的第i个所述元素;
“6”表示所述元素的数量;
音素b为当前音素a的后继音素,音素a和音素b组成的所述音素序列对应一段所述口型动画。
作为本发明的一种优选方案,每段所述口型动画的持续时间为100ms。
作为本发明的一种优选方案,步骤5)中,将所述音素序列映射到所述口型动画上的方法步骤具体包括:
5.1)将所述音素序列中的每个所述音素与事先定义好的所述口型动画相关联;
5.2)判断的当前音素在发声变化阶段的持续时间是否大于或等于一预设的时长阈值,
若是,则将所关联的所述口型动画中处于稳定阶段的动画按照当前音素在发声稳定阶段的时长进行相应的尺度缩放,并将所关联的所述口型动画中处于变化阶段的动画填充到当前音素的发声变化阶段;
若否,则直接将所关联的所述口型动画中处于变化阶段的动画填充到目标位置,以使得填充后的动画片段与当前音素的前驱音素在时间轴上互相重叠。
本发明还提供了一种2D角色的口型动画实时驱动***,可实现所述的口型动画实时驱动方法,所述***包括:
口型动作定义模块,用于提供给设计师定义2D角色的基本口型动作,并形成基本口型动作集合;
权重变化曲线定义模块,用于提供给所述设计师定义所述基本口型动作集合中的每个元素的权重变化曲线;
口型动画设计模块,用于提供给所述设计师设计不同音素对应的口型动画;
音频流获取模块,用于实时获取输入的音频流;
音频流转换模块,连接所述音频流获取模块,用于将所述音频流转换为对应的音素序列;
口型动画映射模块,分别连接所述音频流转换模块和所述口型动画设计模块,用于将所述音素序列映射到对应的口型动画上;
口型动画拼接模块,连接所述口型动画映射模块,用于将各所述口型动画互相拼接,输出所述音频流驱动的2D角色口型动画。
作为本发明的一种优选方案,所述口型动画映射模块中包括:
口型动画匹配单元,用于将所述音素序列中的每个音素与事先定义好的所述口型动画相匹配;
时长阈值设置单元,用于提供给所述设计师预设一时长阈值;
音素发声变化持续时长计算单元,用于计算当前音素在发声变化阶段的持续时间是否大于预设的时长阈值;
时长判断单元,分别连接所述时长阈值设置单元和所述音素发声变化持续时长计算单元,用于判断当前音素在发声变化阶段的持续时间是否大于或等于预设的所述时长阈值;
尺度缩放单元,连接所述时长判断单元,用于在判断到当前音素在发声变化阶段的持续时间大于或等于预设的所述时长阈值时,将与当前音素具有匹配关系的所述口型动画中处于稳定阶段的动画按照当前音素的在发声稳定阶段的时长进行相应的尺度缩放;
动画填充单元,连接所述尺度缩放单元,用于将经尺度缩放后的动画以及未经尺度缩放的动画填充到对应的目标位置,以使得填充后的动画片段与当前音素的前驱音素在时间轴上互相重叠。
本发明通过事先定义的基本口型动作集合以及基本口型动作集合中的每个元素的权重变化曲线,将输入的音频流对应的音素序列映射到口型动画片段上,然后将各个口型动画片段互相拼接,最终输出音频流实时驱动的具有高逼真度、高自然度的2D角色口型动画。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍。显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一实施例提供的2D角色的口型动画实时驱动方法的实现步骤图;
图2是将音素序列映射到口型动画上的方法步骤图;
图3是本发明一实施例提供的2D角色的口型动画实时驱动***的结构示意图;
图4是口型动画实时驱动***中的口型动画映射模块的内部结构示意图;
图5是实现口型动画实时驱动方法的原理图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本发明的技术方案。
其中,附图仅用于示例性说明,表示的仅是示意图,而非实物图,不能理解为对本专利的限制;为了更好地说明本发明的实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;对本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
本发明实施例的附图中相同或相似的标号对应相同或相似的部件;在本发明的描述中,需要理解的是,若出现术语“上”、“下”、“左”、“右”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语的具体含义。
在本发明的描述中,除非另有明确的规定和限定,若出现术语“连接”等指示部件之间的连接关系,该术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个部件内部的连通或两个部件的相互作用关系。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
本发明一实施例提供的一种2D角色的口型动画实时驱动方法,如图1和图5所示,具体包括:
步骤1)定义2D角色的基本口型动作集合;
步骤2)定义基本口型动作集合中的每个元素(基本口型动作)的权重变化曲线(每个基本口型动作的权重随时间的变化规律);
步骤3)设计不同音素(语音信号可被转化为由一串发音单元构成的序列,这些发音单元被称为音素)对应的口型动画;
步骤4)获取输入音频流对应的音素序列;
步骤5)将音素序列中的每个音素映射到对应的口型动画上;
步骤6)将各口型动画相互拼接,最终得到音频流驱动的2D角色的完整口型动画。
在定义2D角色的基本口型动作集合之前,本发明首先对音素进行了分类。Timit语音库是目前声学语音研究中常用的语音数据库。Timit语音库包含由八种主要美国英文方言组成的630个扬声器的宽带录音,每个方言都有10个语音丰富的句子。Timit语音库定义了46种不同的音素。设计师在设计每个音素对应的口型动画时,需要考虑其后继音素的每种可能情况,因此,对于这46种音素,设计师需要设计2000多段不同的口型动画,这个工作量无疑是非常庞大的。所以为了减少口型动画的设计数量,本发明将表现为相似口型动作的不同音素归为一类,通过这种归类方法将46种音素归纳为16个音素类别,设计师仅需要对这16个音素类别设计对应的口型动画,工作量大幅降低,而且有利于后续口型动画映射的速度,进而大幅提升2D角色的完整口型动画的生成速度。
步骤1)中,本发明选取FaceGen脸部模型创建软件中预设的其中6种口型动作作为2D角色的基本口型动作组成基本口型动作集合。
一段口型动画由两个音素决定,比如该段口型动画中正在发音的音素为a,音素a的后继音素为b,则该段口型动画可表示为A(a,b)。每段口型动画由6条权重变化曲线构成,每条权重变化曲线对应表示6种口型动作中的其中一种口型动作在该段口型动画中按时间轴的变化趋势。基本口型动作中的各元素对应的权重变化曲线可通过以下公式表示:
上式中,i表示基本口型动作集合中的第i个元素;
“6”表示元素的数量;
音素b为当前音素a的后继音素,音素a和音素b组成的音素序列对应一段口型动画。
为了保证2D角色口型动画的流畅性,提升2D角色口型动画的真实度,优选地,每段口型动画的持续时间为100ms。
人类在发声的时候,其唇部会迅速做出相应的动作,然后在这个动作上稳定下来,并且开始发声。基于这个特点,本发明将2D角色的发声过程分为两个阶段:稳定阶段和变化阶段。在稳定阶段,唇部拥有与当前正在发音的音素相对应的稳定的动作。在变化阶段,唇部的动作则迅速向下一个音素对应的动作转化。一般情况下,发音稳定阶段的持续时间受语速快慢等多种因素影响,而变化阶段的持续时间接近,可视为是恒定的。
每段口型动画都包含发音稳定阶段和变化阶段。稳定阶段表示当前音素对应的口型动作,变化阶段则表示当前因素向其后继音素进行过度的口型动作。由于发音稳定阶段的持续时长通常并不一致,所以需要对口型动画进行尺度缩放,以与发音的时长相匹配,让2D角色的口型动画看起来更加的自然、逼真。因此,如图2所示,步骤5)中,将音素序列映射到口型动画上的方法步骤具体包括:
步骤5.1)将音素序列中的每个音素与事先定义好的口型动画相关联;
步骤5.2)判断当前音素在发声变化阶段的持续时间是否大于或等于一预设的时长阈值(优选为30~50ms),
若是,则将所关联的口型动画中处于稳定阶段的动画按照当前音素在发声稳定阶段的时长进行相应的尺度缩放,并将所关联的口型动画中处于变化阶段的动画填充到当前音素的发声变化阶段;
若否,则直接将所关联的口型动画中处于变化阶段的动画填充到目标位置,以使得填充后的动画片段与当前音素的前驱音素在时间轴上互相重叠。
综上,本发明通过事先定义的基本口型动作集合以及基本口型动作集合中的每个元素的权重变化曲线,将输入的音频流对应的音素序列映射到口型动画片段上,然后将各个口型动画片段互相拼接,最终输出音频流实时驱动的具有高逼真度、高自然度的2D角色口型动画。
本发明还提供了一种2D角色的口型动画实时驱动***,可实现上述的口型动画实时驱动方法,如图3所示,该***包括:
口型动作定义模块,用于提供给设计师定义2D角色的基本口型动作,并形成基本口型动作集合;本发明优选选取FaceGen脸部模型创建软件中预设的其中6种口型动作作为2D角色的基本口型动作。
权重变化曲线定义模块,用于提供给设计师定义基本口型动作集合中的每个元素的权重变化曲线;关于权重变化曲线的计算方法和功能作用在上述的口型动画实时驱动方法中作了具体阐述,在此不再赘述。
口型动画设计模块,用于提供给设计师设计不同音素对应的口型动画;
音频流获取模块,用于实时获取输入的音频流;
音频流转换模块,连接音频流获取模块,用于将输入的音频流转换为对应的音素序列;
口型动画映射模块,分别连接音频流转换模块和口型动画设计模块,用于将音素序列映射到对应的口型动画上;
口型动画拼接模块,连接口型动画映射模块,用于将各口型动画互相拼接,输出音频流驱动的2D角色口型动画。
如图4所示,口型动画映射模块中具体包括:
口型动画匹配单元,用于将音素序列中的每个音素与事先定义好的口型动画相匹配;
时长阈值设置单元,用于提供给设计师预设一时长阈值;
音素发声变化持续时长计算单元,用于计算当前音素在发声变化阶段的持续时间是否大于预设的时长阈值;
时长判断单元,分别连接时长阈值设置单元和音素发声变化持续时长计算单元,用于判断当前音素在发声变化阶段的持续时间是否大于或等于预设的时长阈值;
尺度缩放单元,连接时长判断单元,用于在判断到当前音素在发声变化阶段的持续时间大于或等于预设的时长阈值时,将与当前音素具有匹配关系的口型动画中处于稳定阶段的动画按照当前音素的在发声稳定阶段的时长进行相应的尺度缩放;
动画填充单元,连接尺度缩放单元,用于将经尺度缩放后的动画以及未经尺度缩放的动画填充到目标位置,以使得填充后的动画片段与当前音素的前驱音素在时间轴上互相重叠。
需要声明的是,上述具体实施方式仅仅为本发明的较佳实施例及所运用技术原理。本领域技术人员应该明白,还可以对本发明做各种修改、等同替换、变化等等。但是,这些变换只要未背离本发明的精神,都应在本发明的保护范围之内。另外,本申请说明书和权利要求书所使用的一些术语并不是限制,仅仅是为了便于描述。
Claims (7)
1.一种2D角色的口型动画实时驱动方法,其特征在于,具体步骤包括:
1)定义2D角色的基本口型动作集合;
2)定义所述基本口型动作集合中的元素的权重变化曲线;
3)设计不同音素对应的口型动画;
4)获取输入音频流对应的音素序列;
5)将所述音素序列中的每个所述音素映射到对应的所述口型动画上;
6)将各所述口型动画相互拼接,最终得到所述音频流驱动的2D角色的完整口型动画。
2.根据权利要求1所述的口型动画实时驱动方法,其特征在于,步骤1)中,选取FaceGen脸部模型创建软件中预设的其中6种口型动作作为2D角色的基本口型动作组成所述基本口型动作集合。
4.根据权利要求3所述的口型动画实时驱动方法,其特征在于,每段所述口型动画的持续时间为100ms。
5.根据权利要求1所述的口型动画实时驱动方法,其特征在于,步骤5)中,将所述音素序列映射到所述口型动画上的方法步骤具体包括:
5.1)将所述音素序列中的每个所述音素与事先定义好的所述口型动画相关联;
5.2)判断的当前音素在发声变化阶段的持续时间是否大于或等于一预设的时长阈值,
若是,则将所关联的所述口型动画中处于稳定阶段的动画按照当前音素在发声稳定阶段的时长进行相应的尺度缩放,并将所关联的所述口型动画中处于变化阶段的动画填充到当前音素的发声变化阶段;
若否,则直接将所关联的所述口型动画中处于变化阶段的动画填充到目标位置,以使得填充后的动画片段与当前音素的前驱音素在时间轴上互相重叠。
6.一种2D角色的口型动画实时驱动***,可实现如权利要求1-5任意一项所述的口型动画实时驱动方法,其特征在于,所述***包括:
口型动作定义模块,用于提供给设计师定义2D角色的基本口型动作,并形成基本口型动作集合;
权重变化曲线定义模块,用于提供给所述设计师定义所述基本口型动作集合中的每个元素的权重变化曲线;
口型动画设计模块,用于提供给所述设计师设计不同音素对应的口型动画;
音频流获取模块,用于实时获取输入的音频流;
音频流转换模块,连接所述音频流获取模块,用于将所述音频流转换为对应的音素序列;
口型动画映射模块,分别连接所述音频流转换模块和所述口型动画设计模块,用于将所述音素序列映射到对应的口型动画上;
口型动画拼接模块,连接所述口型动画映射模块,用于将各所述口型动画互相拼接,输出所述音频流驱动的2D角色口型动画。
7.根据权利要求6所述的口型动画实时驱动***,其特征在于,所述口型动画映射模块中包括:
口型动画匹配单元,用于将所述音素序列中的每个音素与事先定义好的所述口型动画相匹配;
时长阈值设置单元,用于提供给所述设计师预设一时长阈值;
音素发声变化持续时长计算单元,用于计算当前音素在发声变化阶段的持续时间是否大于预设的时长阈值;
时长判断单元,分别连接所述时长阈值设置单元和所述音素发声变化持续时长计算单元,用于判断当前音素在发声变化阶段的持续时间是否大于或等于预设的所述时长阈值;
尺度缩放单元,连接所述时长判断单元,用于在判断到当前音素在发声变化阶段的持续时间大于或等于预设的所述时长阈值时,将与当前音素具有匹配关系的所述口型动画中处于稳定阶段的动画按照当前音素的在发声稳定阶段的时长进行相应的尺度缩放;
动画填充单元,连接所述尺度缩放单元,用于将经尺度缩放后的动画以及未经尺度缩放的动画填充到对应的目标位置,以使得填充后的动画片段与当前音素的前驱音素在时间轴上互相重叠。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110188571.2A CN112734889A (zh) | 2021-02-19 | 2021-02-19 | 一种2d角色的口型动画实时驱动方法和*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110188571.2A CN112734889A (zh) | 2021-02-19 | 2021-02-19 | 一种2d角色的口型动画实时驱动方法和*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112734889A true CN112734889A (zh) | 2021-04-30 |
Family
ID=75596697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110188571.2A Pending CN112734889A (zh) | 2021-02-19 | 2021-02-19 | 一种2d角色的口型动画实时驱动方法和*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112734889A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113539240A (zh) * | 2021-07-19 | 2021-10-22 | 北京沃东天骏信息技术有限公司 | 动画生成方法、装置、电子设备和存储介质 |
CN113870396A (zh) * | 2021-10-11 | 2021-12-31 | 北京字跳网络技术有限公司 | 一种口型动画生成方法、装置、计算机设备及存储介质 |
CN114359450A (zh) * | 2022-01-17 | 2022-04-15 | 小哆智能科技(北京)有限公司 | 一种模拟虚拟人物说话的方法及装置 |
CN116721191A (zh) * | 2023-08-09 | 2023-09-08 | 腾讯科技(深圳)有限公司 | 口型动画处理方法、装置及存储介质 |
CN116863046A (zh) * | 2023-07-07 | 2023-10-10 | 广东明星创意动画有限公司 | 一种虚拟口型生成方法、装置、设备及存储介质 |
CN116912376A (zh) * | 2023-09-14 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 口型动画生成方法、装置、计算机设备和存储介质 |
WO2024027307A1 (zh) * | 2022-08-04 | 2024-02-08 | 腾讯科技(深圳)有限公司 | 口型动画生成方法、装置、设备和介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190027129A1 (en) * | 2017-07-18 | 2019-01-24 | Baidu Online Network Technology (Beijing) Co., Ltd | Method, apparatus, device and storage medium for switching voice role |
CN109377540A (zh) * | 2018-09-30 | 2019-02-22 | 网易(杭州)网络有限公司 | 面部动画的合成方法、装置、存储介质、处理器及终端 |
CN110853614A (zh) * | 2018-08-03 | 2020-02-28 | Tcl集团股份有限公司 | 虚拟对象口型驱动方法、装置及终端设备 |
CN111260761A (zh) * | 2020-01-15 | 2020-06-09 | 北京猿力未来科技有限公司 | 一种生成动画人物口型的方法及装置 |
CN111915707A (zh) * | 2020-07-01 | 2020-11-10 | 天津洪恩完美未来教育科技有限公司 | 一种基于音频信息的口型动画展示方法、装置及存储介质 |
-
2021
- 2021-02-19 CN CN202110188571.2A patent/CN112734889A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190027129A1 (en) * | 2017-07-18 | 2019-01-24 | Baidu Online Network Technology (Beijing) Co., Ltd | Method, apparatus, device and storage medium for switching voice role |
CN110853614A (zh) * | 2018-08-03 | 2020-02-28 | Tcl集团股份有限公司 | 虚拟对象口型驱动方法、装置及终端设备 |
CN109377540A (zh) * | 2018-09-30 | 2019-02-22 | 网易(杭州)网络有限公司 | 面部动画的合成方法、装置、存储介质、处理器及终端 |
CN111260761A (zh) * | 2020-01-15 | 2020-06-09 | 北京猿力未来科技有限公司 | 一种生成动画人物口型的方法及装置 |
CN111915707A (zh) * | 2020-07-01 | 2020-11-10 | 天津洪恩完美未来教育科技有限公司 | 一种基于音频信息的口型动画展示方法、装置及存储介质 |
Non-Patent Citations (1)
Title |
---|
范鑫鑫 等: "语音驱动的口型同步算法", 《东华大学学报 自然科学版》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113539240A (zh) * | 2021-07-19 | 2021-10-22 | 北京沃东天骏信息技术有限公司 | 动画生成方法、装置、电子设备和存储介质 |
CN113870396A (zh) * | 2021-10-11 | 2021-12-31 | 北京字跳网络技术有限公司 | 一种口型动画生成方法、装置、计算机设备及存储介质 |
CN113870396B (zh) * | 2021-10-11 | 2023-08-15 | 北京字跳网络技术有限公司 | 一种口型动画生成方法、装置、计算机设备及存储介质 |
CN114359450A (zh) * | 2022-01-17 | 2022-04-15 | 小哆智能科技(北京)有限公司 | 一种模拟虚拟人物说话的方法及装置 |
WO2024027307A1 (zh) * | 2022-08-04 | 2024-02-08 | 腾讯科技(深圳)有限公司 | 口型动画生成方法、装置、设备和介质 |
CN116863046A (zh) * | 2023-07-07 | 2023-10-10 | 广东明星创意动画有限公司 | 一种虚拟口型生成方法、装置、设备及存储介质 |
CN116863046B (zh) * | 2023-07-07 | 2024-03-19 | 广东明星创意动画有限公司 | 一种虚拟口型生成方法、装置、设备及存储介质 |
CN116721191A (zh) * | 2023-08-09 | 2023-09-08 | 腾讯科技(深圳)有限公司 | 口型动画处理方法、装置及存储介质 |
CN116721191B (zh) * | 2023-08-09 | 2024-02-02 | 腾讯科技(深圳)有限公司 | 口型动画处理方法、装置及存储介质 |
CN116912376A (zh) * | 2023-09-14 | 2023-10-20 | 腾讯科技(深圳)有限公司 | 口型动画生成方法、装置、计算机设备和存储介质 |
CN116912376B (zh) * | 2023-09-14 | 2023-12-22 | 腾讯科技(深圳)有限公司 | 口型动画生成方法、装置、计算机设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112734889A (zh) | 一种2d角色的口型动画实时驱动方法和*** | |
CN108447474B (zh) | 一种虚拟人物语音与口型同步的建模与控制方法 | |
CN111145322B (zh) | 用于驱动虚拟形象的方法、设备和计算机可读存储介质 | |
US8224652B2 (en) | Speech and text driven HMM-based body animation synthesis | |
JP3664474B2 (ja) | 視覚的スピーチの言語透過的合成 | |
US20020024519A1 (en) | System and method for producing three-dimensional moving picture authoring tool supporting synthesis of motion, facial expression, lip synchronizing and lip synchronized voice of three-dimensional character | |
EP1269465B1 (en) | Character animation | |
KR102116309B1 (ko) | 가상 캐릭터와 텍스트의 동기화 애니메이션 출력 시스템 | |
JP2518683B2 (ja) | 画像合成方法及びその装置 | |
CN110880315A (zh) | 一种基于音素后验概率的个性化语音和视频生成*** | |
KR20120130627A (ko) | 아바타를 이용한 애니메이션 생성 장치 및 방법 | |
CN113538641A (zh) | 动画生成方法及装置、存储介质、电子设备 | |
CN113781610A (zh) | 一种虚拟人脸的生成方法 | |
CN111145777A (zh) | 一种虚拟形象展示方法、装置、电子设备及存储介质 | |
CN114895817B (zh) | 交互信息处理方法、网络模型的训练方法及装置 | |
CN113383384A (zh) | 语音动画的实时生成 | |
KR20110081364A (ko) | 캐릭터의 발화와 감정표현 제공 시스템 및 방법 | |
CN113609255A (zh) | 一种面部动画的生成方法、***及存储介质 | |
CN113077537A (zh) | 一种视频生成方法、存储介质及设备 | |
CN112002301A (zh) | 一种基于文本的自动化视频生成方法 | |
CN114255737B (zh) | 语音生成方法、装置、电子设备 | |
Tang et al. | Humanoid audio–visual avatar with emotive text-to-speech synthesis | |
KR100813034B1 (ko) | 캐릭터 형성방법 | |
Tang et al. | Real-time conversion from a single 2D face image to a 3D text-driven emotive audio-visual avatar | |
JP2003058908A (ja) | 顔画像制御方法および装置、コンピュータプログラム、および記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210430 |