CN113920559A - 一种虚拟角色的面部表情、肢体动作的生成方法和装置 - Google Patents

一种虚拟角色的面部表情、肢体动作的生成方法和装置 Download PDF

Info

Publication number
CN113920559A
CN113920559A CN202111083019.3A CN202111083019A CN113920559A CN 113920559 A CN113920559 A CN 113920559A CN 202111083019 A CN202111083019 A CN 202111083019A CN 113920559 A CN113920559 A CN 113920559A
Authority
CN
China
Prior art keywords
sample
limb
words
text data
virtual character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111083019.3A
Other languages
English (en)
Inventor
胡瑛皓
赵明璧
李锋
银星茜
谢柳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Pudong Development Bank Co Ltd
Original Assignee
Shanghai Pudong Development Bank Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Pudong Development Bank Co Ltd filed Critical Shanghai Pudong Development Bank Co Ltd
Priority to CN202111083019.3A priority Critical patent/CN113920559A/zh
Publication of CN113920559A publication Critical patent/CN113920559A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开涉及一种虚拟角色的面部表情、肢体动作的生成方法和装置。包括:获取文本数据;将所述文本数据输入至韵律模型,经所述韵律模型,输出与所述文本数据相匹配的面部表情或肢体动作,其中,所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得;将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。相较于现有技术中,语义信息更能传达出表达着的情感或意图信息,因此,能够准确的预测出虚拟角色的面部表情或肢体动作。

Description

一种虚拟角色的面部表情、肢体动作的生成方法和装置
技术领域
本公开涉及计算机技术领域,尤其涉及一种虚拟角色的面部表情、肢体动作的生成方法和装置。
背景技术
在虚拟现实、游戏娱乐、可视电话、和电影特效等行业常常会创建虚拟角色,在虚拟角色的创建过程中,需要利用人像驱动技术为虚拟角色配置与讲话的内容相匹配的面部表情和肢体动作。相关技术中,基于基底动画的模式,为虚拟角色匹配相应的表情或动作,例如,预先采集一些动作片段,然后随机重读播放某个动作片段,该方式生成的面部表情或肢体动作极不自然。还有采用基于规则的表情、动作的生成方法,该方法会根据语音信号,基于一些特定的规则,触发对应的表情,由于触发条件比较固定,仍然会造成面部表情或肢体动作的不自然。
因此,亟需一种能够准确的生成虚拟角色面部表情、肢体动作的生成方法。
发明内容
为克服相关技术中存在的至少一个问题,本公开提供一种虚拟角色的面部表情、肢体动作的生成方法和装置。
根据本公开实施例的第一方面,提供一种一种虚拟角色的面部表情、肢体动作的生成方法,包括:
获取文本数据;
将所述文本数据输入至韵律模型,经所述韵律模型,输出与所述文本数据相匹配的面部表情或肢体动作,其中,所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得;
将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,所述将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
获取所述文本数据对应的音频数据;
根据所述音频数据词语的时间信息,确定与所述词语相匹配的面部表情、肢体动作的时间信息;
根据所述时间信息,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
获取与所述面部表情相匹配的表情参数和与所述肢体动作相匹配的动作参数;
根据所述表情参数和所述动作参数调整视频序列中虚拟角色的像素位置,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,所述将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
在所述文本数据中连续多个词语均存在匹配的面部表情或肢体动作的情况下,调整所述面部表情或所述肢体动作;
将调整后的所述面部表情或所述肢体动作配准到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,所述调整所述面部表情或所述肢体动作,包括:
获取所述连续多个词语中预设位置的词语所匹配的面部表情或肢体动作,剔除除所述预设位置以外的词语所匹配的面部表情或肢体动作。
在一种可能的实现方式中,所述调整所述面部表情或所述肢体动作,包括:
从所述连续多个词语中获取词语所匹配的预设优先级别最高的面部表情或肢体动作,剔除除所述词语以外的词语所匹配的面部表情或肢体动作。
在一种可能的实现方式中,所述韵律模型被设置为根据样本文本数据的语义特征与样本面部表情、样本肢体动作的对应关系训练获得,包括:
获取样本文本数据,所述样本文本数据包括多个标注有面部表情、肢体动作的样本词语;
构建韵律模型,所述韵律模型中设置有训练参数;
将所述样本词语输入至所述韵律模型,生成预测结果;
基于所述预测结果与标注的样本面部表情、样本肢体动作之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求,得到所述韵律模型。
在一种可能的实现方式中,所述样本文本数据集合包括多个标注有面部表情、肢体动作的样本词语,其中,在样本词语上标注面部表情、肢体动作的方法,包括:
获取与样本文本数据相匹配的样本音频数据;
根据样本文本数据的语义信息,在样本词语上标注面部表情、肢体动作,得到初始标注样本词语;
根据所述样本音频数据的音量信息和语速信息,对所述初始样本标注词语进行补充,得到标注样本词语。;
根据本公开实施例的第二方面,提供一种一种虚拟角色的面部表情、肢体动作的生成装置,包括:
获取模块,用于获取文本数据;
预测模块,用于将所述文本数据输入至韵律模型,经所述韵律模型,输出与所述文本数据相匹配的面部表情或肢体动作,其中,所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得;
生成模块,用于将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,所述生成模块包括:
获取子模块,用于获取所述文本数据对应的音频数据;
确定子模块,用于根据所述音频数据词语的时间信息,确定与所述词语相匹配的面部表情、肢体动作的时间信息;
生成子模块,用于根据所述时间信息,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,所述韵律模型被设置为根据样本文本数据的语义特征与样本面部表情、样本肢体动作的对应关系训练获得,包括:
获取样本文本数据,所述样本文本数据包括多个标注有面部表情、肢体动作的样本词语;
构建韵律模型,所述韵律模型中设置有训练参数;
将所述样本词语输入至所述韵律模型,生成预测结果;
基于所述预测结果与标注的样本面部表情、样本肢体动作之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求,得到所述韵律模型。
在一种可能的实现方式中,所述样本文本数据集合包括多个标注有面部表情、肢体动作的样本词语,其中,在样本词语上标注面部表情、肢体动作的方法,包括:
获取与样本文本数据相匹配的样本音频数据;
根据样本文本数据的语义信息,在样本词语上标注面部表情、肢体动作,得到初始标注样本词语;
根据所述样本音频数据的音量信息和语速信息,对所述初始样本标注词语进行补充,得到标注样本词语。
根据本公开实施例的第三方面,提供一种虚拟角色的面部表情、肢体动作的生成装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行本公开实施例任一项所述的方法。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行根据本公开实施例任一项所述的方法。
本公开的实施例提供的技术方案可以包括以下有益效果:本公开实施例中所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得,相较于现有技术中,语义信息更能传达出表达着的情感或意图信息,因此,能够准确的预测出虚拟角色的面部表情或肢体动作。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种虚拟角色的面部表情、肢体动作的生成方法的流程图。
图2是根据一示例性实施例示出的一种韵律模型的示意框图。
图3是根据一示例性实施例示出的一种虚拟角色的面部表情、肢体动作的生成装置的示意框图。
图4是根据一示例性实施例示出的一种虚拟角色的面部表情、肢体动作的生成装置的示意框图。
图5是根据一示例性实施例示出的一种虚拟角色的面部表情、肢体动作的生成装置的示意框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
为了方便本领域技术人员理解本公开实施例提供的技术方案,下面先对技术方案实现的技术环境进行说明。
人像驱动技术是指利用计算机生成开口说话或行为动作的虚拟人物的技术。相关技术中利用音频与面部表情、肢体动作的相关性,基于人工智能算法训练预测模型。由于音频信号所传达的信息较少,因此,预测出的面部表情、肢体动作还不够准确。
基于类似于上文所述的实际技术需求,本公开提供了一种虚拟角色的面部表情、肢体动作的生成方法和装置。
下面结合附图1对本公开所述的虚拟角色的面部表情、肢体动作的生成方法进行详细的说明。图1是本公开提供的一种虚拟角色的面部表情、肢体动作的生成方法的一种实施例的方法流程图。虽然本公开提供了如下述实施例或附图所示的方法操作步骤,但基于常规或者无需创造性的劳动在所述方法中可以包括更多或者更少的操作步骤。在逻辑性上不存在必要因果关系的步骤中,这些步骤的执行顺序不限于本公开实施例提供的执行顺序。
具体的,本公开提供的虚拟角色的面部表情、肢体动作的生成方法一种实施例如图1所示,所述方法可以应用于终端或服务器,包括:
步骤S101,获取文本数据。
本公开实施例中,所述文本数据可以包括虚拟角色说话内容,所述文本数据还可以包括从音频文件或视频文件中提取出的文字信息。例如,在一个面试场景中,为虚拟角色预播报的内容可以包括:“欢迎参加我们X公司的线上面试!我是本轮的面试官,我会带领你完成今天所有的面试流程,该环节大约需要四十五分钟,请您寻找一处安静、网络稳定的环境完成测试,并务必确保摄像头和麦克风可以正常运行”。
步骤S102,将所述文本数据输入至韵律模型,经所述韵律模型,输出与所述文本数据相匹配的面部表情或肢体动作,其中,所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得。
本公开实施例中,所述韵律模型可以包括基于机器学习的神经网络模型例如卷积神经网络(CNN),递归神经网络(RNN),图论神经网络(GNN)和注意力机制等。还可以包括在一些基本模型,例如预训练语言PLM,(PretrainedLanguageModel)的基础上进行调试,所述PLM模型可以包括BERT系列及其衍生版本或GPT系列及其衍生版本等模型,本公开不做限制。在一个示例中,所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得。其中,训练的方法可以包括深度学习中有监督的学习方法或自监督的学习方法,例如,在训练样本上标注预设的面部表情或肢体动作,将文本数据输入上述韵律模型中,得到文本数据中的词语在每种面部表情或肢体动作的概率大小,基于预测结果与标注结果,对韵律模型进行调参。在一个示例中,将所述文本数据输入至韵律模型,可以包括对所述文本数据进行分词处理,并提取词语的词向量表示,将所述词向量输入所述韵律模型,输出该词向量对应的面部表情和/或肢体动作。例如,对于上述面试场景中,输出的结果可以表示为:“迎参加我们X公司的线面试!我是本轮的面试官,会带领你完成今天所有的面试流程,该环节大约需要四十五分钟,请您寻找一处静、络稳定的环境完成测试,并务必确保像头和麦克风可以常运行”。其中,带下划线的词语表示需要添加面部表情或动作的词语,未带有下划线的词语表示不需要添加面部表情或动作的词语。
步骤S103,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
本公开实施例中,可以预先设置多种面部表情或肢体动作的所述虚拟角色,根据模型预测的面部表情或肢体动作,从预设的面部表情或肢体动作的虚拟角色中匹配出对应的***视频序列角色中。还可以预先确定与所述面部表情或肢体动作相对应的动画参数,根据所述动画参数,生成带有所述面部表情或肢体动作的图像,将所述图像***到视频序列中。
本公开实施例中所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得,相较于现有技术中,语义信息更能传达出表达着的情感或意图信息,因此,能够准确的预测出虚拟角色的面部表情或肢体动作,并且本公开实施例中的将面部表情和肢体动作进行融合,使得训练出的模型可以同时对面部表情和肢体动作进行预测。
在一种可能的实现方式中,所述将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
获取所述文本数据对应的音频数据;
根据所述音频数据词语的时间信息,确定与所述词语相匹配的面部表情、肢体动作的时间信息;
根据所述时间信息,将述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
本公开实施例中,所述获取所述文本数据对应的音频数据,在一个示例中,可以利用基于深度学习的TTS(Text-To-Speech)模型,输入所述文本数据,输出与该文本数据相对应的音频数据。在另一示例中,还可以根据所述文本数据,人工录制相匹配的音频数据,本公开在此不做限制。
本公开实施例中,所述时间信息包括播放该词语的开始时刻和结束时刻,所述词语的时间信息与面部表情、肢体动作是一致的。在一个示例中,表1示出了文本数据的时间信息与面部表情、肢体动作的对应关系。根据所述时间信息,将对应的面部表情和肢体动作查到视频序列的虚拟角色中。本公开实施例中,视频序列有一部分随机因子,或者为了配合文字的出现,需要对动画序列的时间进行调整,可以采用插值的方式,计算每个面部表情帧或肢体动作帧在其新伸缩位置的数值即可,在该数值处***角色的面部表情或肢体动作。
表1文本数据的时间信息与面部表情、肢体动作的对应关系
文字内容 开始时间(秒) 结束时间(秒) 点头 摇头 抬头
1.03 1.17 Y
1.17 1.51
1.64 1.89 Y
1.89 2.06
2.06 2.31
2.31 2.55 Y
2.55 2.75
2.75 2.84
2.84 3.01 Y
3.01 3.21
3.21 3.43
3.43 3.60 Y
3.60 3.76
3.76 3.99 Y
3.99 4.15
4.15 4.27
4.27 4.50
4.50 4.64 Y
本公开实施例,利用音频数据的时间信息,确定面部表情或肢体动作的***点,具有实现便捷、且能够较为准确对准到视频序列的***时间点。
在一种可能的实现方式中,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
获取与所述面部表情相匹配的表情参数和与所述肢体动作相匹配的动作参数;
根据所述表情参数和所述动作参数调整视频序列中虚拟角色的像素位置,生成所述虚拟角色的面部表情、肢体动作。
本公开实施例中,所述表情参数可以包括用于制作表情的软件中的参数,如Character Builder、blendshape等,还可以包括生成动画中三维捕捉的一些表情参数,本公开不做限制。通过设置所述表情参数的参数值,例如调整blendshape中的Semotion,blendshape’=blendshape×(1.0+semotion),得到对应的表情,如微笑、哭泣、愤怒等。所述动作参数可以与肢体动作相关的一些参数,例如俯仰(pitch)、偏摆(yaw)、翻滚(roll)等,可以根据拉伸系数sbody做适当参数化,其中roll’、pitch’、yaw’分别表示调整后的俯仰参数、偏摆参数和翻滚参数。
roll’=roll×(1.0+sbody,roll) (1)
pitch’=pitch×(1.0+sbody,pitch) (2)
yaw’=yaw×(1.0+sbody,yaw) (3)
在一种可能的实现方式中,所述将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
在所述文本数据中连续多个词语均存在匹配的面部表情或肢体动作的情况下,调整所述面部表情或所述肢体动作;
将调整后的所述面部表情或所述肢体动作配准到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,所述将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
在所述文本数据中连续多个词语均存在匹配的面部表情或肢体动作的情况下,调整所述面部表情或所述肢体动作;
将调整后的所述面部表情或所述肢体动作配准到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
本公开实施例中,对于多个连续词语均存在匹配的面部表情或肢体动作,例如“欢迎参加我们X公司的线上面试!”其中,若所述韵律模型预测为“欢迎”对应肢体动作“点头”,“参加”对应肢体动作“抬头”,“我们”对应肢体动作“微微抬起”,对于连续多个词语均存在对应面部表情或肢体动作的情况下,表情或动作的***就不是连贯,因此,对所述面部表情或肢体动作进行调整。在一个示例中,调整所述面部表情或所述肢体动作,包括:获取所述连续多个词语中预设位置的词语所匹配的面部表情或肢体动作,剔除除所述预设位置以外的词语所匹配的面部表情或肢体动作,例如,对于多个词语,剔除除第一个词语以外的其他词语对应的面部表情或肢体动作。在另一个示例中,调整所述面部表情或所述肢体动作,包括:从所述连续多个词语中获取词语所匹配的预设优先级别最高的面部表情或肢体动作,剔除除所述词语以外的词语所匹配的面部表情或肢体动作。例如,在连续的多个词语中有“重读”的表情,这个表情的优先级别较其他词语高,因此可以剔除除所述词语以外的词语所匹配的面部表情或肢体动作。
本公开实施例,对预测的面部表情或肢体动作进行调整,对连续多个词语均存在面部表情、肢体动作的情况下,其中的面部表情和肢体动作做删减,以起到表情、动作自然的有益效果。
在一种可能的实现方式中,所述韵律模型被设置为根据样本文本数据的语义特征与样本面部表情、样本肢体动作的对应关系训练获得,包括:
获取样本文本数据,所述样本文本数据包括多个标注有面部表情、肢体动作的样本词语;
构建韵律模型,所述韵律模型中设置有训练参数;
将所述样本词语输入至所述韵律模型,生成预测结果;
基于所述预测结果与标注的样本面部表情、样本肢体动作之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求,得到所述韵律模型。
本公开实施例中,所述获取样本文本数据可以通过如下方式进行:获取一段视频,分离出其中的图像数据和音频数据,根据所述音频数据得到对应的文本数据,可以表示为如下数组形式:数组1(词语、开始时刻、结束时刻)。从图像数据中通过人脸检测、肢体检测获取相关的面部表情、肢体动作的开始和结束等时间信息,可以表示成如下数组形式:数组2(面部表情、肢体动作、开始时刻、结束时刻)。综合两组数据,将数组1和数组2在时间上进行对齐,得到标注有面部表情、肢体动作的样本词语。
图2是根据一示例性实施例示出的一种韵律模型的示意框图。参考图2所示,构建韵律模型,所述韵律模型中设置有训练参数。本公开实施例中所述韵律模型可以基于预训练的语音模型(PLM),对所述文本数据进行分词处理,提取词向量,将所述词向量输入至PLM模型,获取PLM最后一层的输出,在PLM后追加预设个个数的全连接层,进入逻辑回归层,所述逻辑回归层包括logistic回归和softmax回归,其中,logistic回归表示各个面部表情、肢体动作类型的概率分布,利用softmax回归输出相应的预测标签,利用交叉熵损失函数层计算预测结果与标注的样本面部表情、样本肢体动作之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求,得到所述韵律模型。
本公开实施例利用预训练的语音模型(PLM)提取词语中的语义信息,并对获取的词语进行面部表情和肢体动作的分类,由于语义信息对肢体动作和面部表情是高度相关的,因此,本公开实施例训练出的韵律模型具有预测更为准确的有益效果。
在一种可能的实现方式中,所述样本文本数据集合包括多个标注有面部表情、肢体动作的样本词语,其中,在样本词语上标注面部表情、肢体动作的方法,包括:
获取与样本文本数据相匹配的样本音频数据;
根据样本文本数据的语义信息,在样本词语上标注面部表情、肢体动作,得到初始标注样本词语;
根据所述样本音频数据的音量信息和语速信息,对所述初始样本标注词语进行补充,得到标注样本词语。
本公开实施例中,获取与样本文本数据相匹配的样本音频数据的方法可以包括利用上述实施例中从一段视频,分离出其中的音频数据,还可以包括根据所述样本数据利用TTS算法合成相关的音频数据。所述根据样本文本数据的语义信息,在样本词语上标注面部表情、肢体动作,得到初始标注样本词语。可以包括利用上述实施例中的将分离出的图像数据中的面部表情、肢体动作和音频数据中的词语相对齐的方式进行标注,得到初始标注样本词语。
本公开实施例中,所述音量信息表示音量的大小。所述音量信息可以通过下述方式衡量,例如,词语所在的位置计算的词语的音量是否超过某一预设值volthreshold,在一个示例中,所述预设值的选取可以通过统计的方法计算,例如多个词语的分位数volthreshold=quantile(vol,N),其中N的取值是根据相关头部运动出现的概率来确定的,可以选取60-90之间的一个数据。如果音量信息大于所述预设值,可以匹配对应的面部表情或行为动作,如点头,或招手等。音量小于某一个预设值,说话声音变轻对应一定的面部表情或行为动作。利用该音量信息对初始标注样本词语进行补充,可以获得更多的标注样本词语。在另一个示例中,说话的语速也能够反应出说话者的轻重缓急等表情信息。可以根据语速信息对应的面部表情、肢体动作对初始标注样本词语进行补充,可以获得更多的标注样本词语。
本公开实施例,从音量信息、语速信息的维度,对样本标注词语进行扩充,获得更多的标注样本词语,有利于提高韵律模型的预测的准确性。
图3是根据一示例性实施例示出的一种虚拟角色的面部表情、肢体动作的生成装置的示意框图。参照图3,该装置包括获取模块301,预测模块302和生成模块303。
获取模块301,用于获取文本数据;
预测模块302,用于将所述文本数据输入至韵律模型,经所述韵律模型,输出与所述文本数据相匹配的面部表情或肢体动作,其中,所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得;
生成模块303,用于将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,所述生成模块包括:
获取子模块,用于获取所述文本数据对应的音频数据;
确定子模块,用于根据所述音频数据词语的时间信息,确定与所述词语相匹配的面部表情、肢体动作的时间信息;
生成子模块,用于根据所述时间信息,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
在一种可能的实现方式中,所述韵律模型被设置为根据样本文本数据的语义特征与样本面部表情、样本肢体动作的对应关系训练获得,包括:
获取样本文本数据,所述样本文本数据包括多个标注有面部表情、肢体动作的样本词语;
构建韵律模型,所述韵律模型中设置有训练参数;
将所述样本词语输入至所述韵律模型,生成预测结果;
基于所述预测结果与标注的样本面部表情、样本肢体动作之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求,得到所述韵律模型。
在一种可能的实现方式中,所述样本文本数据集合包括多个标注有面部表情、肢体动作的样本词语,其中,在样本词语上标注面部表情、肢体动作的方法,包括:
获取与样本文本数据相匹配的样本音频数据;
根据样本文本数据的语义信息,在样本词语上标注面部表情、肢体动作,得到初始标注样本词语;
根据所述样本音频数据的音量信息和语速信息,对所述初始样本标注词语进行补充,得到标注样本词语。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图4是根据一示例性实施例示出的一种一种虚拟角色的面部表情、肢体动作的生成的装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图4,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件806为装置800的各种组件提供电力。电源组件806可以包括电源管理***,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜***或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和***接口模块之间提供接口,上述***接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如所述组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理***的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图5是根据一示例性实施例示出的一种虚拟角色的面部表情、肢体动作的生成装置1900的框图。例如,装置1900可以被提供为一服务器。参照图5,装置1900包括处理组件1922,其进一步包括一个或多个处理器,以及由存储器1932所代表的存储器资源,用于存储可由处理组件1922的执行的指令,例如应用程序。存储器1932中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1922被配置为执行指令,以执行上述方法。
装置1900还可以包括一个电源组件1926被配置为执行装置1900的电源管理,一个有线或无线网络接口1950被配置为将装置1900连接到网络,和一个输入输出(I/O)接口1958。装置1900可以操作基于存储在存储器1932的操作***,例如WindowsServerTM,MacOSXTM,UnixTM,LinuxTM,FreeBSDTM或类似。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1932,上述指令可由装置1900的处理组件1922执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (14)

1.一种虚拟角色的面部表情、肢体动作的生成方法,其特征在于,包括:
获取文本数据;
将所述文本数据输入至韵律模型,经所述韵律模型,输出与所述文本数据相匹配的面部表情或肢体动作,其中,所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得;
将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
2.根据权利要求1所述的方法,其特征在于,所述将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
获取所述文本数据对应的音频数据;
根据所述音频数据词语的时间信息,确定与所述词语相匹配的面部表情、肢体动作的时间信息;
根据所述时间信息,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
3.根据权利要求1所述的方法,其特征在于,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
获取与所述面部表情相匹配的表情参数和与所述肢体动作相匹配的动作参数;
根据所述表情参数和所述动作参数调整视频序列中虚拟角色的像素位置,生成所述虚拟角色的面部表情、肢体动作。
4.根据权利要求1所述的方法,其特征在于,所述将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作,包括:
在所述文本数据中连续多个词语均存在匹配的面部表情或肢体动作的情况下,调整所述面部表情或所述肢体动作;
将调整后的所述面部表情或所述肢体动作配准到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
5.根据权利要求4所述的方法,其特征在于,所述调整所述面部表情或所述肢体动作,包括:
获取所述连续多个词语中预设位置的词语所匹配的面部表情或肢体动作,剔除除所述预设位置以外的词语所匹配的面部表情或肢体动作。
6.根据权利要求4所述的方法,其特征在于,所述调整所述面部表情或所述肢体动作,包括:
从所述连续多个词语中获取词语所匹配的预设优先级别最高的面部表情或肢体动作,剔除除所述词语以外的词语所匹配的面部表情或肢体动作。
7.根据权利要求1所述的方法,其特征在于,所述韵律模型被设置为根据样本文本数据的语义特征与样本面部表情、样本肢体动作的对应关系训练获得,包括:
获取样本文本数据,所述样本文本数据包括多个标注有面部表情、肢体动作的样本词语;
构建韵律模型,所述韵律模型中设置有训练参数;
将所述样本词语输入至所述韵律模型,生成预测结果;
基于所述预测结果与标注的样本面部表情、样本肢体动作之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求,得到所述韵律模型。
8.根据权利要求7所述的方法,其特征在于,所述样本文本数据集合包括多个标注有面部表情、肢体动作的样本词语,其中,在样本词语上标注面部表情、肢体动作的方法,包括:
获取与样本文本数据相匹配的样本音频数据;
根据样本文本数据的语义信息,在样本词语上标注面部表情、肢体动作,得到初始标注样本词语;
根据所述样本音频数据的音量信息和语速信息,对所述初始样本标注词语进行补充,得到标注样本词语。
9.一种虚拟角色的面部表情、肢体动作的生成装置,其特征在于,包括:
获取模块,用于获取文本数据;
预测模块,用于将所述文本数据输入至韵律模型,经所述韵律模型,输出与所述文本数据相匹配的面部表情或肢体动作,其中,所述韵律模型被设置为根据样本文本数据的语义特征与面部表情、肢体动作的对应关系训练获得;
生成模块,用于将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
10.根据权利要求9所述的装置,其特征在于,所述生成模块包括:
获取子模块,用于获取所述文本数据对应的音频数据;
确定子模块,用于根据所述音频数据词语的时间信息,确定与所述词语相匹配的面部表情、肢体动作的时间信息;
生成子模块,用于根据所述时间信息,将所述面部表情和所述肢体动作***到视频序列的虚拟角色中,生成所述虚拟角色的面部表情、肢体动作。
11.根据权利要求10所述的装置,其特征在于,所述韵律模型被设置为根据样本文本数据的语义特征与样本面部表情、样本肢体动作的对应关系训练获得,包括:
获取样本文本数据,所述样本文本数据包括多个标注有面部表情、肢体动作的样本词语;
构建韵律模型,所述韵律模型中设置有训练参数;
将所述样本词语输入至所述韵律模型,生成预测结果;
基于所述预测结果与标注的样本面部表情、样本肢体动作之间的差异,对所述训练参数进行迭代调整,直至所述差异满足预设要求,得到所述韵律模型。
12.根据权利要求11所述的装置,所述样本文本数据集合包括多个标注有面部表情、肢体动作的样本词语,其中,在样本词语上标注面部表情、肢体动作的方法,包括:
获取与样本文本数据相匹配的样本音频数据;
根据样本文本数据的语义信息,在样本词语上标注面部表情、肢体动作,得到初始标注样本词语;
根据所述样本音频数据的音量信息和语速信息,对所述初始样本标注词语进行补充,得到标注样本词语。
13.一种虚拟角色的面部表情、肢体动作的生成装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为执行权利要求1至8中任一项所述的方法。
14.一种非临时性计算机可读存储介质,当所述存储介质中的指令由处理器执行时,使得处理器能够执行根据权利要求1至8中任一项所述的方法。
CN202111083019.3A 2021-09-15 2021-09-15 一种虚拟角色的面部表情、肢体动作的生成方法和装置 Pending CN113920559A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111083019.3A CN113920559A (zh) 2021-09-15 2021-09-15 一种虚拟角色的面部表情、肢体动作的生成方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111083019.3A CN113920559A (zh) 2021-09-15 2021-09-15 一种虚拟角色的面部表情、肢体动作的生成方法和装置

Publications (1)

Publication Number Publication Date
CN113920559A true CN113920559A (zh) 2022-01-11

Family

ID=79235179

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111083019.3A Pending CN113920559A (zh) 2021-09-15 2021-09-15 一种虚拟角色的面部表情、肢体动作的生成方法和装置

Country Status (1)

Country Link
CN (1) CN113920559A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898018A (zh) * 2022-05-24 2022-08-12 北京百度网讯科技有限公司 数字对象的动画生成方法、装置、电子设备及存储介质
CN115908722A (zh) * 2023-01-05 2023-04-04 杭州华鲤智能科技有限公司 一种生成3d人脸建模的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898018A (zh) * 2022-05-24 2022-08-12 北京百度网讯科技有限公司 数字对象的动画生成方法、装置、电子设备及存储介质
CN115908722A (zh) * 2023-01-05 2023-04-04 杭州华鲤智能科技有限公司 一种生成3d人脸建模的方法

Similar Documents

Publication Publication Date Title
CN109599128B (zh) 语音情感识别方法、装置、电子设备和可读介质
CN109189985B (zh) 文本风格处理方法、装置、电子设备及存储介质
CN109871896B (zh) 数据分类方法、装置、电子设备及存储介质
CN107291690B (zh) 标点添加方法和装置、用于标点添加的装置
CN107221330B (zh) 标点添加方法和装置、用于标点添加的装置
CN110210310B (zh) 一种视频处理方法、装置和用于视频处理的装置
CN112185389B (zh) 语音生成方法、装置、存储介质和电子设备
CN109819288B (zh) 广告投放视频的确定方法、装置、电子设备及存储介质
CN107133354B (zh) 图像描述信息的获取方法及装置
CN109961791B (zh) 一种语音信息处理方法、装置及电子设备
CN113920559A (zh) 一种虚拟角色的面部表情、肢体动作的生成方法和装置
CN111210844B (zh) 语音情感识别模型的确定方法、装置、设备及存储介质
CN111753895A (zh) 数据处理方法、装置及存储介质
CN112037756A (zh) 语音处理方法、装置和介质
CN111144101A (zh) 错别字处理方法和装置
CN112735396A (zh) 语音识别纠错方法、装置及存储介质
CN113095085A (zh) 文本的情感识别方法、装置、电子设备和存储介质
CN112036174B (zh) 一种标点标注方法及装置
CN110619325A (zh) 一种文本识别方法及装置
CN111723606A (zh) 一种数据处理方法、装置和用于数据处理的装置
CN113553946A (zh) 信息提示方法及装置、电子设备和存储介质
CN111400443B (zh) 信息处理方法、装置及存储介质
CN110858099B (zh) 候选词生成方法及装置
CN110930977A (zh) 一种数据处理方法、装置和电子设备
CN112331194A (zh) 一种输入方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination