CN111862280A - 虚拟角色控制方法、***、介质及电子设备 - Google Patents
虚拟角色控制方法、***、介质及电子设备 Download PDFInfo
- Publication number
- CN111862280A CN111862280A CN202010868850.9A CN202010868850A CN111862280A CN 111862280 A CN111862280 A CN 111862280A CN 202010868850 A CN202010868850 A CN 202010868850A CN 111862280 A CN111862280 A CN 111862280A
- Authority
- CN
- China
- Prior art keywords
- virtual character
- information
- action
- expression
- virtual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000009471 action Effects 0.000 claims abstract description 163
- 230000014509 gene expression Effects 0.000 claims abstract description 122
- 230000000694 effects Effects 0.000 claims abstract description 25
- 230000033001 locomotion Effects 0.000 claims description 95
- 210000001508 eye Anatomy 0.000 claims description 18
- 230000008921 facial expression Effects 0.000 claims description 17
- 230000004424 eye movement Effects 0.000 claims description 6
- 210000005252 bulbus oculi Anatomy 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 2
- 230000003190 augmentative effect Effects 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 30
- 230000001960 triggered effect Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 10
- 230000001276 controlling effect Effects 0.000 description 8
- 230000004397 blinking Effects 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000001815 facial effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004418 eye rotation Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/57—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for processing of video signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本公开实施例提供了一种虚拟角色控制方法、虚拟角色控制***、计算机可读介质及电子设备,涉及虚拟现实、增强现实技术领域。该虚拟角色控制方法包括:提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征;接收用户控制端对于所述虚拟角色的动作控制指令,根据所述动作控制指令的类型确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息;结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。本公开实施例的技术方案对于虚拟角色的控制更加精细,能够提升虚拟角色的真实感。
Description
技术领域
本公开涉及虚拟现实以及增强现实技术领域,具体而言,涉及一种虚拟角色控制方法、虚拟角色控制***、计算机可读介质及电子设备。
背景技术
随着图像处理技术的不断发展,虚拟偶像逐渐扩展到直播以及家庭、娱乐等各个领域。虚拟偶像指的是通过计算机软件图形制作技术制作的虚拟的角色形象。
虚拟偶像的实现主要是通过动作捕捉设备以及面部表情捕捉设置来获得动作以及表情数据,进而与观众们进行互动。动作捕捉设备与面部表情捕捉设备需要捕捉真人扮演者的动作和表情,因此虚拟角色呈现的表情和动作极大地依赖于真人扮演者,导致虚拟偶像的表现形式比较局限,观众的交互体验大大降低。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开实施例的目的在于提供一种虚拟角色控制方法、虚拟角色控制***、计算机可读介质及电子设备,进而至少在一定程度上克服虚拟角色表现形式单一造成观众交互体验差的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开实施例的第一方面,提供了一种虚拟角色控制方法,所述方法可以包括:提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征;接收用户控制端对于所述虚拟角色的动作控制指令,根据所述动作控制指令确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息;结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。
在本公开的一种示例性实施例中,所述虚拟角色的动作信息包括:眼部动作信息和/或表情动画信息。
在本公开的一种示例性实施例中,所述获取所述动作控制指令对应的眼部动作信息,包括:根据所述动作控制指令确定所述虚拟角色的眼球转动方向,以获得所述眼部动作信息。
在本公开的一种示例性实施例中,还包括:若所述表情动作信息为表情动画,则通过所述表情动画确定所述虚拟角色的嘴部特征。
在本公开的一种示例性实施例中,所述对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征包括:生成多个嘴型动画;对所述音频控制信息进行解析,确定所述音频控制信息对应的目标嘴型动画。
在本公开的一种示例性实施例中,所述通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果包括:通过所述表情特征显示所述虚拟角色的脸部表情;通过所述肢体动作信息确定所述虚拟角色的手部动作;根据所述脸部表情和所述手部动作确定所述虚拟角色的展示效果。
在本公开的一种示例性实施例中,所述肢体动作信息包括虚拟道具信息,所述通过所述肢体动作信息确定所述虚拟角色的手部动作,包括:基于所述虚拟道具信息对应的虚拟道具显示所述虚拟角色的手部动作。
在本公开的一种示例性实施例中,所述接收对于所述虚拟角色的动作控制指令,根据所述动作控制指令的类型确定所述虚拟角色的动作信息,包括:通过所述虚拟角色的用户控制端实时更新所述动作控制指令,以更新所述虚拟角色的动作信息。
根据本公开实施例的第二方面,提供了一种虚拟角色控制***,包括:嘴部控制模块,用于提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征;动作控制模块,用于接收用户控制端对于所述虚拟角色的动作控制指令,根据所述动作控制指令的类型确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息;虚拟角色展示模块,用于结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。
在本公开的一种示例性实施例中,所述表情动作信息包括:眼部动作信息和/或表情动画信息。
在本公开的一种示例性实施例中,动作控制模块可以用于:根据所述动作控制指令确定所述虚拟角色的眼球转动方向,以获得所述眼部动作信息。
在本公开的一种示例性实施例中,嘴部控制模块包括:动画生成单元,用于生成多个嘴型动画;目标动画确定单元,用于对所述音频控制信息进行解析,确定所述音频控制信息对应的目标嘴型动画。
在本公开的一种示例性实施例中,嘴部控制模块可以用于:通过所述表情动画信息确定所述虚拟角色的表情特征。
在本公开的一种示例性实施例中,虚拟角色展示模块可以具体包括:表情显示单元,用于通过所述表情特征显示所述虚拟角色的脸部表情;道具显示单元,用于通过所述肢体动作信息确定所述虚拟角色的手部动作;展示效果确定单元,用于根据所述脸部表情和所述手部动作确定所述虚拟角色的展示效果。
在本公开的一种示例性实施例中,所述肢体动作信息包括虚拟道具信息,道具显示单元可以用于:基于所述虚拟道具信息对应的虚拟道具显示所述虚拟角色的手部动作。
在本公开的一种示例性实施例中,动作控制模块可以用于:通过所述虚拟角色的用户控制端实时更新所述动作控制指令,以更新所述虚拟角色的动作信息。
在本公开的一种示例性实施例中,虚拟角色展示模块可以用于:将所述表情特征以及所述肢体动作信息传入三维引擎中,以渲染出所述虚拟角色的展示效果。
根据本公开实施例的第三方面,提供了一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现如上述实施例中第一方面所述的虚拟角色控制方法。
根据本公开实施例的第四方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中第一方面所述的虚拟角色控制方法。
本公开实施例提供的技术方案可以包括以下有益效果:
在本公开的一些实施例所提供的技术方案中,一方面,通过音频控制信息确定虚拟角色的嘴部特征,通过动作控制指令确定虚拟角色的动作信息,无需依赖真人扮演者的表情和动作,能够降低人力成本;另一方面,通过嘴部特征、表情动作以及肢体动作可以更加精细地对虚拟角色进行控制,从而增强虚拟角色的真实性;同时,还可以增加虚拟角色的表现形式,从而提高用户体验。
以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示意性示出了本公开的实施例的虚拟角色控制方法的第一个流程图;
图2示意性示出了本公开的实施例的虚拟角色控制方法的第二个流程图;
图3示意性示出了根据本公开的实施例的虚拟角色控制***的框图;
图4示出了本实施例中一种用于实现上述方法的电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
本实施例中首先提出一种虚拟角色控制方法,该虚拟角色控制方法的执行主体可以是具有计算处理功能以及显示功能的终端设备,例如手机、电脑、平板电脑等。
如图1所示,该虚拟角色控制方法可以包括步骤S110、步骤S120以及步骤S130。具体的:
步骤S110:提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征。
步骤S120:接收对于所述虚拟角色的动作控制指令,根据所述动作控制指令确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息。
步骤S130:结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。
在本公开的示例性实施例所提供的技术方案中,一方面,通过音频控制信息确定虚拟角色的嘴部特征,通过动作控制指令确定虚拟角色的动作信息,无需依赖真人扮演者的表情和动作,能够降低人力成本;另一方面,通过嘴部特征、表情动作以及肢体动作可以更加精细地对虚拟角色进行控制,从而增强虚拟角色的真实性;同时,还可以增加虚拟角色的表现形式,从而提高用户体验。
下面,结合图1至图2对本实施例提供的虚拟角色控制方法的各个步骤的具体实施例进行更加详细的说明。
参考图1,在步S110中,提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征。
虚拟角色可以包括虚拟的人物形象,例如虚拟偶像等,也可以包括其他的角色形象,例如虚拟动物、虚拟游戏角色等等。以虚拟偶像为例。音频控制信息中可以包括用于对虚拟偶像进行控制的音频文件,例如,wav文件、cda文件、mp3文件等等。提取音频控制信息的方式可以包括多种,举例而言,从特定的存储目录中可以提取得到音频控制信息;通过提取声音采集设备采集到的音频可以得到音频控制信息,例如通过麦克风采集音频控制信息等。为了保证虚拟角色互动的实时性,可以通过控制人员佩戴录音设备进行录音,生成音频控制信息,然后提取该录音设备中保存的音频控制信息;或者,通过机器学习模型可以确定当前的语境,从而根据当前的语境从对应的数据库中提取出符合当前语境的音频,从而得到音频控制信息。
嘴部特征可以包括虚拟角色的三维角色模型中嘴部模型的形状,例如,口型1、口型2等;也可以包括音频控制信息中的发音特征,例如“A”、“E”。通过音频处理工具可以对得到的音频控制信息进行解析,确定音频控制信息中包含发音,以及该发音对应的口型。例如,通过Lipsync工具可以解析音频控制信息,预测模型口型的变化。示例性的,预先可以生成多个不同的嘴型动画,每个嘴型动画可以与一种发音绑定,通过对音频控制信息进行解析,确定音频控制信息中包含的发音,进而可以得到发音对应的目标嘴型动画,目标嘴型动画可以作为虚拟角色的嘴部特征。示例性,将虚拟角色的三维角色模型导入三维引擎中,并将解析出的虚拟角色的嘴部特征传入该三维引擎中,通过该三维引擎可以渲染出该三维角色模型的嘴部特征,比便于为用户呈现相应的嘴部显示效果。
在步骤S120中,接收用户控制端对于所述虚拟角色的动作控制指令,根据所述动作控制指令确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息。
其中,表情动作信息可以包括虚拟角色的脸部模型的信息,例如模型的名称、标识号等,或者脸部模型的变化动画,例如开心的表情、微笑的表情等;示例性的,表情动作信息可以包括虚拟角色的眼部动作信息和/或表情动画信息。相应的,肢体动作信息可以包括虚拟角色的肢体骨骼的动作数据,例如,走路、跑步、跳跃等。动作控制指令可以通过用户控制端的用户操作触发,检测到该动作控制指令时可以确定该指令的类型,不同的动作控制指令可以对应不同的动作信息。举例而言,通过鼠标事件、键盘事件可以触发动作控制指令,例如,当鼠标点击屏幕的特定区域时可以触发动作控制指令,检测到动作控制指令后可以对该动作控制指令进行解析确定指令的类型,从而得到类型对应的动作信息。在本实施方式中,预先需要将不同类型的动作控制指令分别与动作信息进行绑定,例如,键盘A键与动作1进行绑定,键盘B与动作2进行绑定等,检测到动作控制指令后通过判断该动作控制指令的触发按键可以确定对应的动作信息。
示例性的实施方式中,该方法可以包括步骤S210、步骤S220以及步骤S230,如图2所示。
在步骤S210中,在所述动作控制指令为第一类型时,获取所述动作控制指令对应的眼部动作信息,作为所述表情动作信息。例如,如果动作控制指令为鼠标触发时,可以确定动作控制指令为第一类型;或者当动作控制指令为“Q”键时可以确定控制指令为第一类型等。然后获取与第一类型的动作控制指令对应的眼部动作信息。第一类型可以指对虚拟角色眼部模型进行设置的指令。眼部动作信息可以包括眼部模型数据,例如眼部模型的名称、文件目录等;还可以包括眼部模型的其他参数,例如模型的眨眼频率等。
示例性的,如果动作控制指令为第一类型,则可以通过该动作控制指令确定虚拟角色的眼球转动方向,从而得到眼部动作信息。本实施方式中,用户可以通过图形用户界面输入动作控制指令,当动作控制指令为第一类型时可以解析出动作控制指令中包含的数据,从而得到眼部模型眼球转动方向。具体的,如果动作控制指令为鼠标操作触发的指令,则可以确定动作控制指令为第一类型,从而根据动作控制指令中鼠标操作对应的点击位置确定虚拟角色的眼球转动方向。例如,将屏幕中的特定区域分为四部分,分别为左上、左下、右上、右下,如果鼠标操作的点击位置为左上则确定眼球转动方向为左上。此外,本实施方式中,眼部动作信息还可以包括眨眼频率。通过输入框、选择框等页面组件可以选择眼部模型的眨眼频率,用户点击确认之后触发动作控制指令,通过解析该指令可以获取该界面中输入的信息,从而获得眨眼频率。虚拟角色的眨眼频率也可以默认为特定值,例如每3秒眨眼一次、每5秒眨眼一次、随机眨眼等。
在步骤S220中,在所述动作控制指令为第二类型时,获取所述动作控制指令对应的手部动作信息,作为所述肢体动作信息。本实施方式中,虚拟角色的手部动作信息可以包括手部的交互动作的类型,例如双手抱拳动作、比心动作等;也可以包括手持道具的信息,例如手持道具的名称、类型等;本实施方式不限于此。举例而言,当动作控制指令为键盘“A”键触发的指令时,可以确认该指令为第二类型,从而获取与“A”键绑定的手部动作。
在步骤S230中,在所述动作控制指令为第三类型时,获取所述动作控制指令对应的表情动画信息,作为所述表情动作信息。检测到动作控制指令时判断该动作控制指令是否为第三类型,如果为第三类型则可以确认该动作控制指令对应的数据为表情动画信息。表情动画信息可以包括虚拟角色脸部的表情变化的动画,例如表情动画可以为微笑,则虚拟角色的脸部模型可以显示该微信动画。
本实施方式中,动作控制指令的类型可以通过触发该动作控制指令的触发操作来确定,每一种触发操作可以对应一种类型,举例来说,触摸触发操作可以对应第一类型、鼠标触发操作可以对应第二类型、键盘触发操作可以对应第三类型;或者,不同的按键触发的动作控制指令可以对应不同的类型,例如“A”键触发的动作控制指令为第一类型、“C”键触发的动作控制指令为第二类型、“Q”键触发的动作控制指令为第三类型等。将不同的触发操作分别与对应的动作信息进行绑定,在接收到动作控制指令时可以通过该动作控制指令对应的触发操作来获取对应的动作信息。通过不同的动作控制指令可以控制虚拟角色的眼部、手部、通过解析音频控制信息可以控制虚拟角色的嘴部,可以对虚拟角色的控制更加精确,使得虚拟角色更加具有真实感;并且,虚拟角色在实际场景中需要展示特殊表情时,例如夸张的动漫表情等,可以预先生成特殊表情动画,通过触发对应的动作控制指令来获取特殊表情,进而使得虚拟角色能够显示特殊表情,可以满足用户的需求,提高用户体验。
通过三维引擎可以预先制作虚拟角色的各个部位的多种模型变化,将虚拟角色的三维模型划分为眼部、手部、嘴部等多个部分,分别进行控制,可以使得虚拟角色的表现形式更加丰富,更加真实。
在步骤S130中,结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。
表情特征指的是虚拟角色的脸部表情数据,可以包括脸部模型的多种参数,例如眼睛数据、嘴巴数据、眉毛数据等等、通过表情特征虚拟角色的模型可以显示不同的表情。具体的,根据表情动作信息可以确定虚拟角色的脸部表情数据,例如表情动作信息为微笑表情时可以获取预设的微笑表情的数据,控制脸部模型显示微笑表情。同时,根据嘴部特征可以确定脸部表情中嘴巴部分的数据,例如嘴部特征为“口型A”时,控制模型显示对应的口型,通过该嘴部特征可以将表情动作信息中的原始的嘴部数据进行替换,从而确定脸部模型的表情特征。在三维引擎中可以根据表情特征对虚拟角色的三维角色模型进行渲染,使得三维角色模型呈现出丰富的脸部表情。
示例性的,如果表情动作信息为表情动画信息,则可以通过表情动画信息确定虚拟角色的表情特征。举例而言,表情动作信息可以分为静态和动态,如果表情动作信息为静态则可以集合嘴部特征以及表情动作信息确定虚拟角色的表情特征;如果表情动作信息为一表情动画,即动态表情,则可以直接将该表情动画作为虚拟角色的表情特征。例如,表情动作信息为表情A时,将该表情A的数据中嘴巴部分替换为音频控制信息解析出的嘴部特征,替换后的数据作为表情特征;表情动作信息为表情动画B时,则将该表情动画作为虚拟角色的表情特征。
得到表情特征后可以通过表情特征控制虚拟角色显示脸部表情,并通过肢体动作信息控制虚拟角色显示动作。具体的,以虚拟偶像为例,将虚拟偶像的三维角色模型导入三维引擎中,并将表情特征以及肢体动作信息传入该三维引擎中,从而通过该三维引擎渲染出虚拟偶像的脸部表情以及显示动作。示例性的,通过肢体动作信息可以确定虚拟偶像的手持道具,不同的手持道具可以对应不同的手部动作,因此确定虚拟偶像的手持道具后可以控制虚拟偶像播放对应的手部动作。预选可以生成多个手持道具,并为每一个手持道具设置不同的出场动作以及消失动作,在显示或者取消显示手持道具时可以播放对应的动作,能够丰富虚拟角色的表现形式。
在本实施方式中,通过动作控制指令可以确定虚拟角色的手持道具。具体的,可以预先设置手持道具的触发操作,例如特定按键等,如果接收到由该触发操作触发的动作控制指令时,可以获取一手持道具。并且,还可以通过道具切换指令来切换虚拟角色当前的手持道具。举例而言,在虚拟角色当前显示的手持道具为R时,检测到道具切换指令,则将该手持道具R切换为手持道具T。预先可以生成多个手持道具,并将该手持道具按照一定的顺序进行排列,每接收一次道具切换指令则将当前的手持道具切换为下一个手持道具。此外,每一个手持道具可以绑定不同的触发操作,例如,按键1绑定手持道具R,按键2绑定手持道具T等。
在虚拟角色的展示过程中,控制虚拟角色展示的用户控制端可以实时触发动作控制指令,根据该实时触发的动作控制指令可以实时更新对应的动作信息,从而控制虚拟角色进行变化。举例而言,在没有接收到动作控制指令之前,可以通过默认的表情特征与嘴部特征显示虚拟角色的脸部表情,默认的表情特征可以为用户提前预设的一种表情,也就是说,虚拟角色当前的展示效果为默认表情与嘴部特征的叠加效果,当检测到动作控制指令时,根据该动作控制指令控制虚拟角色显示对应的表情动作或者肢体动作,从而使得虚拟角色的展示效果更新为肢体动作加表情动作。例如,当前的虚拟角色显示为表情A和手持道具B的手部动作,当检测到按键1的触发操作时,可以确定接收到道具切换指令,若手持道具B的下一个为C,可以更新虚拟角色显示为表情A和手持道具C的手部动作。
本示例性实施方式中,虚拟角色的表情不需要依赖于真人扮演,可以通过音频控制信息确定嘴部特征,通过用户控制端的动作控制指令确定动作信息,从而使得虚拟角色的控制更加简单灵活;并且,通过嘴部特征、表情动作以及肢体动作可以更加精细地对虚拟角色进行控制,从而增强虚拟角色的真实性,提高用户的沉浸式体验。
进一步的,本公开还提供一种虚拟角色控制***,可以用于执行本公开上述的虚拟角色控制方法。如图3所示,该虚拟角色控制***300可以包括嘴部控制模块310、动作控制模块320以及虚拟角色展示模块330。具体的:
嘴部控制模块310,用于提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征;
动作控制模块320,用于接收用户控制端对于所述虚拟角色的动作控制指令,根据所述动作控制指令的类型确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息;
虚拟角色展示模块330,用于结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。
在本公开的一种示例性实施例中,所述表情动作信息包括:眼部动作信息和/或表情动画信息。
在本公开的一种示例性实施例中,动作控制模块320可以用于:根据所述动作控制指令确定所述虚拟角色的眼球转动方向,以获得所述眼部动作信息。
在本公开的一种示例性实施例中,嘴部控制模块310包括:动画生成单元,用于生成多个嘴型动画;目标动画确定单元,用于对所述音频控制信息进行解析,确定所述音频控制信息对应的目标嘴型动画。
在本公开的一种示例性实施例中,嘴部控制模块310可以用于:通过所述表情动画信息确定所述虚拟角色的表情特征。
在本公开的一种示例性实施例中,虚拟角色展示模块330可以具体包括:表情显示单元,用于通过所述表情特征显示所述虚拟角色的脸部表情;道具显示单元,用于通过所述肢体动作信息确定所述虚拟角色的手部动作;展示效果确定单元,用于根据所述脸部表情和所述手部动作确定所述虚拟角色的展示效果。
在本公开的一种示例性实施例中,所述肢体动作信息包括虚拟道具信息,道具显示单元可以用于:基于所述虚拟道具信息对应的虚拟道具显示所述虚拟角色的手部动作。
在本公开的一种示例性实施例中,动作控制模块320可以用于:通过所述虚拟角色的用户控制端实时更新所述动作控制指令,以更新所述虚拟角色的动作信息。
在本公开的一种示例性实施例中,虚拟角色展示模块330可以用于:将所述表情特征以及所述肢体动作信息传入三维引擎中,以渲染出所述虚拟角色的展示效果。
由于本公开的示例实施例的虚拟角色控制***的各个功能模块与上述虚拟角色控制方法的示例实施例的步骤对应,因此对于本公开***实施例中未披露的细节,请参照本公开上述的虚拟角色控制方法的实施例。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为***、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
本公开的示例性实施例还提供了一种计算机可读介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
本公开的示例性实施例还提供用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本公开的示例性实施例还提供了一种能够实现上述方法的电子设备。下面参照图4来描述根据本公开的这种示例性实施例的电子设备400。图4显示的电子设备400仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400可以以通用计算设备的形式表现。电子设备400的组件可以包括但不限于:上述至少一个处理单元410、上述至少一个存储单元420、连接不同***组件(包括存储单元420和处理单元410)的总线430、显示单元440。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元410执行,使得所述处理单元410执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,所述处理单元410可以执行如图1中所示的:步骤S110,提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征;步骤S120,接收用户控制端对于所述虚拟角色的动作控制指令,根据所述动作控制指令确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息;步骤S130,结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。
存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。
存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备400也可以与一个或多个外部设备500(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备400交互的设备通信,和/或与使得该电子设备400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口450进行。并且,电子设备400还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器460通过总线430与电子设备400的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (12)
1.一种虚拟角色控制方法,其特征在于,包括:
提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征;
接收用户控制端对于所述虚拟角色的动作控制指令,根据所述动作控制指令确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息;
结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。
2.根据权利要求1所述的虚拟角色控制方法,其特征在于,所述表情动作信息包括眼部动作信息和/或表情动画信息。
3.根据权利要求2所述的虚拟角色控制方法,其特征在于,所述根据所述动作控制指令确定所述虚拟角色的动作信息,包括:
根据所述动作控制指令确定所述虚拟角色的眼球转动方向,以获得所述眼部动作信息。
4.根据权利要求2所述的虚拟角色控制方法,其特征在于,还包括:
通过所述表情动画信息确定所述虚拟角色的表情特征。
5.根据权利要求1所述的虚拟角色控制方法,其特征在于,所述对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征包括:
生成多个嘴型动画;
对所述音频控制信息进行解析,确定所述音频控制信息对应的目标嘴型动画。
6.根据权利要求1所述的虚拟角色控制方法,其特征在于,所述通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果包括:
通过所述表情特征显示所述虚拟角色的脸部表情;
通过所述肢体动作信息确定所述虚拟角色的手部动作;
根据所述脸部表情和所述手部动作确定所述虚拟角色的展示效果。
7.根据权利要求6所述的方法,其特征在于,所述肢体动作信息包括虚拟道具信息,所述通过所述肢体动作信息确定所述虚拟角色的手部动作,包括:
基于所述虚拟道具信息对应的虚拟道具显示所述虚拟角色的手部动作。
8.根据权利要求1所述的虚拟角色控制方法,其特征在于,所述接收对于所述虚拟角色的动作控制指令,根据所述动作控制指令的类型确定所述虚拟角色的动作信息,包括:
通过所述虚拟角色的用户控制端实时更新所述动作控制指令,以更新所述虚拟角色的动作信息。
9.根据权利要求1所述的方法,其特征在于,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果包括:
将所述表情特征以及所述肢体动作信息传入三维引擎中,以渲染出所述虚拟角色的展示效果。
10.一种虚拟角色控制***,其特征在于,包括:
嘴部控制模块,用于提取对于虚拟角色的音频控制信息,并对提取到的所述音频控制信息进行解析,以确定所述虚拟角色的嘴部特征;
动作控制模块,用于接收用户控制端对于所述虚拟角色的动作控制指令,根据所述动作控制指令的类型确定所述虚拟角色的动作信息,其中,所述动作信息包括表情动作信息和肢体动作信息;
虚拟角色展示模块,用于结合所述嘴部特征以及所述表情动作信息确定所述虚拟角色的表情特征,通过所述表情特征以及所述肢体动作信息控制所述虚拟角色的展示效果。
11.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至9中任一项所述的虚拟角色控制方法。
12.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至9中任一项所述的虚拟角色控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010868850.9A CN111862280A (zh) | 2020-08-26 | 2020-08-26 | 虚拟角色控制方法、***、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010868850.9A CN111862280A (zh) | 2020-08-26 | 2020-08-26 | 虚拟角色控制方法、***、介质及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111862280A true CN111862280A (zh) | 2020-10-30 |
Family
ID=72967228
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010868850.9A Pending CN111862280A (zh) | 2020-08-26 | 2020-08-26 | 虚拟角色控制方法、***、介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111862280A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112328085A (zh) * | 2020-11-12 | 2021-02-05 | 广州博冠信息科技有限公司 | 虚拟角色的控制方法、装置、存储介质与电子设备 |
CN112396679A (zh) * | 2020-11-20 | 2021-02-23 | 北京字节跳动网络技术有限公司 | 虚拟对象显示方法及装置、电子设备、介质 |
CN113327311A (zh) * | 2021-05-27 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 基于虚拟角色的显示方法、装置、设备、存储介质 |
CN113327312A (zh) * | 2021-05-27 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 虚拟角色的驱动方法、装置、设备以及存储介质 |
CN114356090A (zh) * | 2021-12-31 | 2022-04-15 | 北京字跳网络技术有限公司 | 一种控制方法、装置、计算机设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6577998B1 (en) * | 1998-09-01 | 2003-06-10 | Image Link Co., Ltd | Systems and methods for communicating through computer animated images |
CN1427626A (zh) * | 2001-12-20 | 2003-07-02 | 松下电器产业株式会社 | 虚拟电视通话装置 |
CN102693091A (zh) * | 2012-05-22 | 2012-09-26 | 深圳市环球数码创意科技有限公司 | 一种三维虚拟角色的实现方法及其*** |
CN107274465A (zh) * | 2017-05-31 | 2017-10-20 | 珠海金山网络游戏科技有限公司 | 一种虚拟现实的主播方法、装置和*** |
CN108227903A (zh) * | 2016-12-21 | 2018-06-29 | 深圳市掌网科技股份有限公司 | 一种虚拟现实语言交互***与方法 |
CN110147196A (zh) * | 2018-12-04 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 交互控制方法和装置、存储介质及电子装置 |
CN110650354A (zh) * | 2019-10-12 | 2020-01-03 | 苏州大禹网络科技有限公司 | 虚拟动漫角色直播方法、***、设备及存储介质 |
CN111033611A (zh) * | 2017-03-23 | 2020-04-17 | 乔伊森安全***收购有限责任公司 | 使嘴部图像与输入指令关联的***和方法 |
-
2020
- 2020-08-26 CN CN202010868850.9A patent/CN111862280A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6577998B1 (en) * | 1998-09-01 | 2003-06-10 | Image Link Co., Ltd | Systems and methods for communicating through computer animated images |
CN1427626A (zh) * | 2001-12-20 | 2003-07-02 | 松下电器产业株式会社 | 虚拟电视通话装置 |
CN102693091A (zh) * | 2012-05-22 | 2012-09-26 | 深圳市环球数码创意科技有限公司 | 一种三维虚拟角色的实现方法及其*** |
CN108227903A (zh) * | 2016-12-21 | 2018-06-29 | 深圳市掌网科技股份有限公司 | 一种虚拟现实语言交互***与方法 |
CN111033611A (zh) * | 2017-03-23 | 2020-04-17 | 乔伊森安全***收购有限责任公司 | 使嘴部图像与输入指令关联的***和方法 |
CN107274465A (zh) * | 2017-05-31 | 2017-10-20 | 珠海金山网络游戏科技有限公司 | 一种虚拟现实的主播方法、装置和*** |
CN110147196A (zh) * | 2018-12-04 | 2019-08-20 | 腾讯科技(深圳)有限公司 | 交互控制方法和装置、存储介质及电子装置 |
CN110650354A (zh) * | 2019-10-12 | 2020-01-03 | 苏州大禹网络科技有限公司 | 虚拟动漫角色直播方法、***、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
MISS_INGS: "《会说话的汤姆猫有什么玩法》", 《百度知道HTTPS://ZHIDAO.BAIDU.COM/QUESTION/204967827930056965.HTML?FR=WWWT&WORD=%BB%E1%CB%B5%BB%B0%B5%C4%CC%C0%C4%B7%C3%A8%D4%F5%C3%B4%CD%E6&IE=GBK&DYTABSTR=MCW0LDISMSW1LDMSNIW3LDGSOQ==》, pages 1 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112328085A (zh) * | 2020-11-12 | 2021-02-05 | 广州博冠信息科技有限公司 | 虚拟角色的控制方法、装置、存储介质与电子设备 |
CN112396679A (zh) * | 2020-11-20 | 2021-02-23 | 北京字节跳动网络技术有限公司 | 虚拟对象显示方法及装置、电子设备、介质 |
WO2022105846A1 (zh) * | 2020-11-20 | 2022-05-27 | 北京字节跳动网络技术有限公司 | 虚拟对象显示方法及装置、电子设备、介质 |
CN113327311A (zh) * | 2021-05-27 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 基于虚拟角色的显示方法、装置、设备、存储介质 |
CN113327312A (zh) * | 2021-05-27 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 虚拟角色的驱动方法、装置、设备以及存储介质 |
CN113327312B (zh) * | 2021-05-27 | 2023-09-08 | 百度在线网络技术(北京)有限公司 | 虚拟角色的驱动方法、装置、设备以及存储介质 |
CN113327311B (zh) * | 2021-05-27 | 2024-03-29 | 百度在线网络技术(北京)有限公司 | 基于虚拟角色的显示方法、装置、设备、存储介质 |
CN114356090A (zh) * | 2021-12-31 | 2022-04-15 | 北京字跳网络技术有限公司 | 一种控制方法、装置、计算机设备及存储介质 |
CN114356090B (zh) * | 2021-12-31 | 2023-11-07 | 北京字跳网络技术有限公司 | 一种控制方法、装置、计算机设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111862280A (zh) | 虚拟角色控制方法、***、介质及电子设备 | |
US11983807B2 (en) | Automatically generating motions of an avatar | |
US10860345B2 (en) | System for user sentiment tracking | |
KR101851356B1 (ko) | 3d 디지털액터에 의한 지능형 사용자 인터페이스 제공방법 | |
WO2023279705A1 (zh) | 直播方法、装置、***、计算机设备、存储介质及程序 | |
CN112560605B (zh) | 交互方法、装置、终端、服务器和存储介质 | |
CN112135160A (zh) | 直播中虚拟对象控制方法及装置、存储介质和电子设备 | |
CN110868635A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
WO2023030010A1 (zh) | 交互方法、电子设备及存储介质 | |
CN112241203A (zh) | 三维虚拟角色的控制装置及方法、存储介质及电子设备 | |
CN114327182B (zh) | 特效显示方法及装置、计算机存储介质、电子设备 | |
JP2022500795A (ja) | アバターアニメーション | |
CN111881395A (zh) | 页面的呈现方法、装置、设备及计算机可读存储介质 | |
CN111760272A (zh) | 游戏信息显示方法及装置、计算机存储介质、电子设备 | |
CN112424736A (zh) | 机器交互 | |
CN112631814A (zh) | 游戏剧情对白播放方法和装置、存储介质、电子设备 | |
CN112348932A (zh) | 口型动画录制方法及装置、电子设备、存储介质 | |
CN114092608B (zh) | 表情的处理方法及装置、计算机可读存储介质、电子设备 | |
CN110604918B (zh) | 界面元素调整方法与装置、存储介质、电子设备 | |
CN115687816A (zh) | 资源处理方法及装置 | |
CN112755510A (zh) | 一种移动端云游戏控制方法、***和计算机可读存储介质 | |
CN105677060A (zh) | 通过输入法进行输入的方法和装置 | |
EP4246987A1 (en) | A system and method of application implemented as video | |
TWI814318B (zh) | 用於使用模擬角色訓練模型以用於將遊戲角色之臉部表情製成動畫之方法以及用於使用三維(3d)影像擷取來產生遊戲角色之臉部表情之標籤值之方法 | |
CN116993868A (zh) | 动画生成方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |