CN116433808A - 角色动画的生成方法、动画生成模型的训练方法及装置 - Google Patents
角色动画的生成方法、动画生成模型的训练方法及装置 Download PDFInfo
- Publication number
- CN116433808A CN116433808A CN202111661942.0A CN202111661942A CN116433808A CN 116433808 A CN116433808 A CN 116433808A CN 202111661942 A CN202111661942 A CN 202111661942A CN 116433808 A CN116433808 A CN 116433808A
- Authority
- CN
- China
- Prior art keywords
- animation
- information
- key frame
- dimension
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 61
- 238000002372 labelling Methods 0.000 claims description 69
- 210000000988 bone and bone Anatomy 0.000 claims description 19
- 238000004891 communication Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 13
- 239000012530 fluid Substances 0.000 claims description 11
- 230000002452 interceptive effect Effects 0.000 claims description 11
- 238000007499 fusion processing Methods 0.000 claims description 9
- 230000000875 corresponding effect Effects 0.000 description 84
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 23
- 230000009471 action Effects 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 239000002131 composite material Substances 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000002787 reinforcement Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009183 running Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000005452 bending Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009184 walking Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及虚拟现实领域,具体公开了一种角色动画的生成、动画生成模型的训练方法及装置,该方法包括:响应于接收到的角色配置请求,提取所述角色配置请求中包含的配置参数;获取与所述配置参数相匹配的动画特征信息,生成对应于所述动画特征信息的动画数据;通过所述动画数据驱动目标角色的角色模型,得到所述目标角色的角色动画。由此可见,该方式能够基于配置参数与动画特征信息之间的关联关系,自动生成与配置参数匹配的角色动画,大幅提升了动画数据的生成效率。
Description
技术领域
本发明实施例涉及人工智能领域,具体涉及一种角色动画的生成方法、动画生成模型的训练方法及装置。
背景技术
在动画技术领域中,需要获取各种动画形象的动画数据,才能通过渲染得到相应的动画。现有技术中,通常需要动画师提供动画形象的动画数据,以使所形成的动画形象更加逼真。
然而,由于不同的人物角色具有各自不同的性格特征、行为特征,因此,不同人物角色的动画数据也应该是风格迥异的,若单纯依靠动画师制作各个人物角色的动画数据,需要耗费大量的时间成本。如何能够更加高效的生成更多风格迥异的角色动画,是动画技术领域中亟待解决的问题。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种角色动画的生成、动画生成模型的训练方法及装置。
根据本发明的一个方面,提供了一种角色动画的生成方法,包括:
响应于接收到的角色配置请求,提取所述角色配置请求中包含的配置参数;
获取与所述配置参数相匹配的动画特征信息,生成对应于所述动画特征信息的动画数据;
通过所述动画数据驱动目标角色的角色模型,得到所述目标角色的角色动画。
可选的,所述获取与所述配置参数相匹配的动画特征信息,生成对应于所述动画特征信息的动画数据包括:
将所述配置参数输入动画生成模型,通过所述动画生成模型确定与所述配置参数相匹配的动画特征信息,以生成对应于所述动画特征信息的动画数据。
可选的,所述角色动画为骨骼蒙皮动画,且所述骨骼蒙皮动画中包含与各个肢体部位相对应的骨骼节点,则所述动画特征信息包括以下中的至少一项:
各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。
可选的,所述配置参数包括至少一个维度参数,且各个维度参数包括至少一个维度子参数;其中,所述维度参数包括以下中的至少一个:标签维度参数、属性维度参数以及场景维度参数;
并且,在角色配置请求中包含的维度参数为多个的情况下,所述获取与所述配置参数相匹配的动画特征信息包括:
分别确定与各个维度参数相对应的维度特征信息,针对多个维度特征信息进行融合处理,得到所述动画特征信息。
可选的,所述角色配置请求中进一步包括:通过配置界面中的权重配置入口输入的对应于各个维度参数的参数权重值;
则所述分别确定与各个维度参数相对应的维度特征信息包括:分别针对各个维度参数,根据该维度参数的参数权重值确定与该维度参数相对应的维度特征信息。
可选的,所述标签维度参数包括以下至少一个维度子参数:力量子参数、速度子参数、熟练度子参数、以及积极度子参数;
所述属性维度参数包括以下至少一个维度子参数:特征子参数、性格子参数、爱好子参数、职业子参数、以及地域子参数;
场景维度参数包括以下至少一个维度子参数:对应于交互对象的对象属性子参数、用于描述流体介质的介质属性子参数、以及用于描述服饰信息的服饰属性子参数。
根据本发明的又一个方面,提供了一种动画生成模型的训练方法,包括:
从各个动画数据样本中提取关键帧;
分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息;
根据各个关键帧的动画特征信息以及标注信息,生成训练样本集;
针对所述训练样本集进行训练,得到所述动画生成模型。
可选的,所述从各个动画数据样本中提取关键帧包括:分别针对各个动画数据样本,将该动画数据样本划分为多个动画区间,分别针对各个动画区间设置区间标签,并分别从各个动画区间中提取关键帧;
所述分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息包括:
分别针对各个关键帧,结合包含该关键帧的动画区间中的相邻帧,确定该关键帧的动画特征信息,并根据该关键帧的动画区间的区间标签确定该关键帧的标注信息。
可选的,所述根据各个关键帧的动画特征信息以及标注信息,生成训练样本集包括:
将各个关键帧划分为多组关键帧集合;
分别针对每组关键帧集合,获取该组关键帧集合的动画特征信息以及标注信息,得到对应于该组关键帧集合的样本特征数据;
根据各组关键帧集合的样本特征数据生成所述训练样本集。
可选的,所述关键帧的动画特征信息包括:各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。
可选的,所述标注信息包括以下中的至少一种:标签类标注信息、属性类标注信息以及场景类标注信息;
其中,所述标签类标注信息包括以下至少一个:力量类标注信息、速度类标注信息、熟练度类标注信息、以及积极度类标注信息;
所述属性类标注信息包括以下至少一个:特征类标注信息、性格类标注信息、爱好类标注信息、职业类标注信息、以及地域类标注信息;
所述场景类标注信息包括以下至少一个:对应于交互对象的对象属性类标注信息、用于描述流体介质的介质属性类标注信息、以及用于描述服饰信息的服饰类标注信息。
根据本发明的又一个方面,提供了一种角色动画的生成装置,包括:
参数提取模块,适于响应于接收到的角色配置请求,提取所述角色配置请求中包含的配置参数;
获取模块,适于获取与所述配置参数相匹配的动画特征信息,生成对应于所述动画特征信息的动画数据;
动画模块,适于通过所述动画数据驱动目标角色的角色模型,得到所述目标角色的角色动画。
可选的,所述获取模块具体适于:
将所述配置参数输入动画生成模型,通过所述动画生成模型确定与所述配置参数相匹配的动画特征信息,以生成对应于所述动画特征信息的动画数据。
可选的,所述角色动画为骨骼蒙皮动画,且所述骨骼蒙皮动画中包含与各个肢体部位相对应的骨骼节点,则所述动画特征信息包括以下中的至少一项:
各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。
可选的,所述配置参数包括至少一个维度参数,且各个维度参数包括至少一个维度子参数;其中,所述维度参数包括以下中的至少一个:标签维度参数、属性维度参数以及场景维度参数;
并且,在角色配置请求中包含的维度参数为多个的情况下,所述获取模块具体适于:
分别确定与各个维度参数相对应的维度特征信息,针对多个维度特征信息进行融合处理,得到所述动画特征信息。
可选的,所述角色配置请求中进一步包括:通过配置界面中的权重配置入口输入的对应于各个维度参数的参数权重值;
则所述获取模块具体适于:分别针对各个维度参数,根据该维度参数的参数权重值确定与该维度参数相对应的维度特征信息。
可选的,所述标签维度参数包括以下至少一个维度子参数:力量子参数、速度子参数、熟练度子参数、以及积极度子参数;
所述属性维度参数包括以下至少一个维度子参数:特征子参数、性格子参数、爱好子参数、职业子参数、以及地域子参数;
场景维度参数包括以下至少一个维度子参数:对应于交互对象的对象属性子参数、用于描述流体介质的介质属性子参数、以及用于描述服饰信息的服饰属性子参数。
根据本发明的又一个方面,提供了一种动画生成模型的训练装置,包括:
关键帧提取模块,适于从各个动画数据样本中提取关键帧;
特征提取模块,适于分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息;
生成模块,适于根据各个关键帧的动画特征信息以及标注信息,生成训练样本集;
训练模块,适于针对所述训练样本集进行训练,得到所述动画生成模型。
可选的,所述关键帧提取模块具体适于:分别针对各个动画数据样本,将该动画数据样本划分为多个动画区间,分别针对各个动画区间设置区间标签,并分别从各个动画区间中提取关键帧;
所述特征提取模块具体适于:分别针对各个关键帧,结合包含该关键帧的动画区间中的相邻帧,确定该关键帧的动画特征信息,并根据该关键帧的动画区间的区间标签确定该关键帧的标注信息。
可选的,所述生成模块具体适于:
将各个关键帧划分为多组关键帧集合;
分别针对每组关键帧集合,获取该组关键帧集合的动画特征信息以及标注信息,得到对应于该组关键帧集合的样本特征数据;
根据各组关键帧集合的样本特征数据生成所述训练样本集。
可选的,所述关键帧的动画特征信息包括:各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。
可选的,所述标注信息包括以下中的至少一种:标签类标注信息、属性类标注信息以及场景类标注信息;
其中,所述标签类标注信息包括以下至少一个:力量类标注信息、速度类标注信息、熟练度类标注信息、以及积极度类标注信息;
所述属性类标注信息包括以下至少一个:特征类标注信息、性格类标注信息、爱好类标注信息、职业类标注信息、以及地域类标注信息;
所述场景类标注信息包括以下至少一个:对应于交互对象的对象属性类标注信息、用于描述流体介质的介质属性类标注信息、以及用于描述服饰信息的服饰类标注信息。
依据本发明的再一方面,提供了一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如上述的角色动画的生成、动画生成模型的训练方法及装置方法和/或编辑方法对应的操作。
依据本发明实施例的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述的角色动画的生成、动画生成模型的训练方法及装置方法和/或编辑方法对应的操作。
在本发明提供的角色动画的生成、动画生成模型的训练方法及装置中,能够根据角色配置请求中包含的配置参数,获取与该配置参数相匹配的动画特征信息,从而生成对应于该动画特征信息的动画数据,并通过动画数据驱动目标角色的角色模型,得到目标角色的角色动画。由此可见,该方式能够基于配置参数与动画特征信息之间的关联关系,自动生成与配置参数匹配的角色动画,大幅提升了动画数据的生成效率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明一个实施例提供的一种角色动画的生成方法的流程图;
图2示出了本发明又一实施例提供的一种动画生成模型的训练方法的流程图;
图3示出了本发明的一个示例的执行装置的模块示意图;
图4示出了本实施例提供的角色动画的生成装置的结构示意图;
图5示出了本实施例提供的动画生成模型的训练装置的结构示意图;
图6示出了本发明又一实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
图1示出了本发明一个实施例提供的一种角色动画的生成方法的流程图。如图1所示,该方法包括:
步骤S110:响应于接收到的角色配置请求,提取角色配置请求中包含的配置参数。
其中,角色配置请求用于针对目标角色进行配置,可以在需要创建一个新的人物角色时触发。角色配置请求中包含的配置参数用于描述目标角色的特征,具体可以为各种类型的配置参数。另外,为了便于描述各个维度下细分的特征,各个维度参数还可以进一步包括至少一个维度子参数。
在一种可选的实现方式中,配置参数包括至少一个维度参数,每个维度参数用于描述对应维度的特征。例如,维度参数包括以下中的至少一个:标签维度参数、属性维度参数以及场景维度参数。其中,标签维度参数用于以标签方式描述目标角色的特征,属性维度参数用于描述目标角色的属性特征,场景维度参数用于描述目标角色所处的场景的相关信息。
具体实施时,配置参数可以仅包括标签维度参数,从而以标签方式便捷描述人物特征,标签的取值可以为:可爱、冷漠、高傲等性格类特征,也可以为运动、休闲等爱好类特征,本发明对标签的具体形式不做限定。
步骤S120:获取与配置参数相匹配的动画特征信息,生成对应于动画特征信息的动画数据。
其中,预先建立配置参数与动画特征信息之间的映射关系。例如,对应于可爱类标签的配置参数所对应的动画特征信息应为举止乖萌的动作特征。具体的,配置参数与动画特征信息之间的映射关系可通过多种方式建立。
在一种可选的实现方式中,预先训练动画生成模型,相应的,将配置参数输入动画生成模型,通过动画生成模型确定与配置参数相匹配的动画特征信息,以生成对应于动画特征信息的动画数据。其中,该动画生成模型预先通过训练方式学习得到配置参数与动画特征信息之间的映射关系,从而能够动态确定与配置参数相匹配的动画特征信息。
另外,在角色配置请求中包含的维度参数为多个的情况下,分别确定与各个维度参数相对应的维度特征信息,针对多个维度特征信息进行融合处理,得到动画特征信息。另外,当角色配置请求中进一步包括通过配置界面中的权重配置入口输入的对应于各个维度参数的参数权重值时,在分别确定与各个维度参数相对应的维度特征信息时,分别针对各个维度参数,根据该维度参数的参数权重值确定与该维度参数相对应的维度特征信息。具体的,可通过配置界面中包含的参数配置入口以及权重配置入口接收用户输入的维度参数及其权重值。
另外,本实施例中的角色动画可以为骨骼蒙皮动画,且骨骼蒙皮动画中包含与各个肢体部位相对应的骨骼节点,相应的,动画特征信息包括以下中的至少一项:各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。其中,各个骨骼节点的运动速度用于反映角色的各个肢体部位的动作快慢。骨骼节点的运动轨迹用于反映角色的各个肢体部位的活动轨迹。各个肢体部位对应的骨骼节点之间的相对位置关系包括:左手与右手之间的距离、手部与脸部之间的距离、左脚与右脚之间的距离、身体的弯曲幅度(具体可通过背部与脚部的距离表示)等。通过动画特征信息,能够描述角色动画中的各个肢体部位的运动方式。
其中,当角色配置请求中包含的维度参数为多个时,各个维度参数可以对应于同一维度,也可以对应于不同维度。当各个维度参数对应于同一维度时,角色配置请求中可包括多个标签维度参数,例如,可爱类标签以及傲娇类标签,相应的,分别获取与第一类标签(如可爱类标签)相对应的第一维度特征信息,以及与第二类标签(如傲娇类标签)相对应的第二维度特征信息,从而针对第一维度特征信息以及第二维度特征信息进行融合处理,以得到动画特征信息。其中,在执行融合处理时,可根据各个维度参数的权重进行融合。相应的,在角色配置请求中进一步包含各个维度参数的参数权重值的情况下,当第一类标签的权重值为第一权重,且第二类标签的权重值为第二权重时,从第一维度特征信息中提取与第一权重相对应的第一局部特征信息,从第二维度特征信息中提取与第二权重相对应的第二局部特征信息,相应的,将第一局部特征信息与第二局部特征信息相互融合,得到动画特征信息。同理,当各个维度参数对应于不同维度时,也可以通过类似的方式进行融合处理。总之,通过融合处理,能够得到与复合参数相匹配的动画特征信息。
在本实施例中,各个维度参数可由本领域技术人员灵活设置。例如,在一种可选的实现方式中,标签维度参数包括以下至少一个维度子参数:力量子参数、速度子参数、熟练度子参数、以及积极度子参数。
属性维度参数包括以下至少一个维度子参数:特征子参数、性格子参数、爱好子参数、职业子参数、武器类型子参数以及地域子参数(用于标识出身地区、活动地区等)。
场景维度参数包括以下至少一个维度子参数:对应于交互对象的对象属性子参数、用于描述流体介质的介质属性子参数、以及用于描述服饰信息的服饰属性子参数。另外,场景维度参数还可以包括对应于以下信息的维度子参数:重力、风力、地面摩擦力、地面角度、地面材质、水的浮力阻力、交互物与角色的距离、天气环境等。总之,应用过程中的各类场景参数均可作为场景维度参数,包括但不限于场景物体及其参数以及其他影响参数比如天气***等实时环境参数等。
步骤S130:通过动画数据驱动目标角色的角色模型,得到目标角色的角色动画。
其中,目标角色的角色模型可以为蒙皮骨骼模型,相应的,动画数据也为骨骼动画数据,因此,可以直接通过骨骼动画数据驱动目标角色的蒙皮骨骼模型做出对应的动作,得到目标角色的角色动画。
由此可见,该方式能够基于配置参数与动画特征信息之间的关联关系,自动生成与配置参数匹配的角色动画,大幅提升了动画数据的生成效率。并且,通过合理设置角色配置请求中包含的各个配置参数以及参数权重值,能够灵活融合得到各种类型的角色动画,满足个性化动画的设置需求。
图2示出了本发明又一实施例提供的一种动画生成模型的训练方法的流程示意图。该实施例用于训练上一实施例中使用的动画生成模型。如图2所示,该方法包括:
步骤S210:从各个动画数据样本中提取关键帧。
其中,动画数据样本可以为已经由动画师制作完毕的各个角色的动画数据。由于不同角色的行动特点各异,因此,收集各个已有角色的动画数据,即可得到大量的动画数据样本。其中,各个已有角色的动画数据也叫关键帧数据,具体包括与多个关键帧相对应的数据。相应的,为了准确标注各个样本,需要分别从各个动画数据样本中提取关键帧。
步骤S220:分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息。
其中,针对各个关键帧进行分析,以提取其中包含的动画特征信息。关键帧的动画特征信息包括:各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系等。另外,动画特征信息还包括:各个肢体部位对应的骨骼节点的旋转信息、位移信息以及缩放信息。
另外,关键帧的标注信息用于标注关键帧的类型,具体包括以下中的至少一种:标签类标注信息、属性类标注信息(也叫人物属性标签)以及场景类标注信息。其中,标签类标注信息包括以下至少一个:力量类标注信息、速度类标注信息、熟练度类标注信息、以及积极度类标注信息。属性类标注信息包括以下至少一个:特征类标注信息、性格类标注信息、爱好类标注信息、职业类标注信息、以及地域类标注信息。场景类标注信息包括以下至少一个:对应于交互对象的对象属性类标注信息、用于描述流体介质的介质属性类标注信息、以及用于描述服饰信息的服饰类标注信息。其中,标签类标注信息也可以称作动画表现标签,并且,标签类标注信息具有分值信息,例如,每个标签类标注信息具有1-10分的分值范围,用以标识其程度,并且,标签类标注信息通常为必要标签。
其中,骨骼每帧之间的运动速度的大小会反应出动画的速度感,运动停顿之后的后坐力会反应出动画的力量感等,另外,通过收集手与脸部的距离,双手之间的距离,双脚之间的距离,身体的弯曲幅度等能够准确反映人物的动作特点,总之,通过全方位的收集动画特征,能够准确建立标注信息与动画特征之间的关联关系。
步骤S230:根据各个关键帧的动画特征信息以及标注信息,生成训练样本集。
具体的,将各个关键帧划分为多组关键帧集合;分别针对每组关键帧集合,获取该组关键帧集合的动画特征信息以及标注信息,得到对应于该组关键帧集合的样本特征数据,根据各组关键帧集合的样本特征数据生成训练样本集。
其中,由于一组动作将持续一段时长,从而需由多个关键帧依次呈现,因此,可根据动作之间的衔接关系划分关键帧集合。相应的,一组关键帧集合由至少两个时间相邻的关键帧构成,用于共同表示一组动作,如下蹲、抬手等。相应的,分别针对每组关键帧集合,获取该组关键帧集合的动画特征信息以及标注信息,根据该组关键帧集合的动画特征信息生成对应于该组关键帧集合的动画特征向量,再根据该组关键帧集合的标注信息对该动画特征向量进行标注,从而得到对应于该组关键帧集合的样本特征数据。由此可见,训练样本集中包含多个样本特征数据。另外,通过划分关键帧集合,便于确定存在关联关系的多个关键帧,从而基于存在关联关系的多个关键帧之间的时序特征或骨骼位移/旋转速度特征准确反映动作特点。
具体实施时,可以预先将动画数据样本划分为多个动画区间,从而根据动画区间提取关键帧,并分别针对各个动画区间设置标注信息。相应的,在从各个动画数据样本中提取关键帧时,分别针对各个动画数据样本,将该动画数据样本划分为多个动画区间,分别针对各个动画区间设置区间标签,以分别从各个动画区间中提取关键帧。并且,在分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息时,分别针对各个关键帧,结合包含该关键帧的动画区间中的相邻帧,确定该关键帧的动画特征信息,并根据该关键帧的动画区间的区间标签确定该关键帧的标注信息。其中,动画区间可根据动作之间的衔接关系或动作类型进行划分。另外,上述的关键帧集合也可以基于动画区间划分,即:将属于同一个动画区间的若干个关键帧确定为一组关键帧集合。
步骤S240:针对训练样本集进行训练,得到动画生成模型。
其中,可通过多种机器学习算法进行训练。例如,可通过深度学习算法或强化学习算法进行训练。其中,深度学习用于根据数据模拟最优的类似信息,具体通过人工智能的机器学习、深度学习、强化训练等方式,将收集得到的大量数据交由AI计算,得到一组动画数据方案。
总之,本发明不限定具体的训练算法,只要能够学习得到动画特征与标注信息之间的对应关系即可。相应的,最终生成的动画生成模型能够基于用户输入的对应于标注信息的配置参数,输出与配置参数匹配的动画数据。
综上可知,本实施例中的方式能够通过机器学习方式,自动学习得到各类标注信息与动画特征数据之间的对应关系,从而能够自动输出动画数据。并且,当用户输入的配置参数为包含多个维度的复合配置参数时,该动画生成模型能够自动输出与复合配置参数相匹配的动画数据,即:能够针对复合配置参数所对应的各个动画特征数据进行拟合处理,从而得到拟合后的动画数据,该拟合后的动画数据与复合配置参数相匹配。通过该方式,能够利用数据库中已有的角色的动画数据,自动拟合出各种自定义类型的动画数据,从而便于灵活高效地生成个性化的动画数据。
为了便于理解,下面以一个具体示例为例,详细介绍本发明中的实现方式:
首先,收集用于训练的动画数据。其中,动画数据可以为已经制作的人物角色的动画数据。并且,根据人物角色的角色特征,对动画数据进行标注,从而根据标注结果得到训练样本集。
然后,通过深度学习算法或强化训练方法,对训练样本集进行训练。其中,当采用深度学习算法时,需要从样本数据库中归纳整理出n组核心参数的数据,从而根据用户输入的配置参数,查询数据库内的各个样本资源的姿态匹配度、速度、运动趋势等,自动从样本数据库中选择动画数据来合成新的动画播放。强化训练的训练过程与深度学习类似,可以通过增加奖励机制进行训练,从而得到一组计算公式,以便通过该组计算公式确定与用户输入的配置参数相匹配的动画数据。其中,该组计算公式可以为一个多元多次的方程,且方程中的参数包括但不限于:画面权重值、摄像机FOV(field angle;angle of view,视场角)数值、摄像机位置、摄像机看点位置、以及用于判定主体是否在摄像机视野内的参数。相应的,通过公式计算,得出最合适的动画姿态。
图3示出了该示例的执行装置的模块示意图,如图3所示,动画数据库中存储有走、跑、挥手、游泳、潜水、跳跃等各种类型的动画数据。相应的,经过数据预处理模块,得到处理后的数据(即训练样本集),通过训练模块对训练样本集进行训练,并通过验证模块验证训练结果是否准确,最后,通过动画生成模块输出合适的动画数据。其中,动画生成模块具有拟合功能,能够针对与多个配置参数相对应的动画特征数据进行拟合处理,得到个性化的动画数据。
上述示例的动画数据库中存储的作为样本的动画数据通常为携带骨骼信息的骨骼动画数据。在上述示例的改进方式中,还可以在动画数据库中进一步存储不携带骨骼信息的常规动画数据作为训练样本。相应的,在后期通过预设算法生成与常规动画数据相对应的骨骼动画数据。
另外,由于常规动画数据通常为2D动画数据,因此,能够从中提取到更加丰富的附加信息,包括:描述流体介质的介质属性类标注信息,例如,场景信息中的水流信息,具体包括水流,水压,浮力和阻力等。并且,提取的动画特征数据中除包含各个肢体部位的动作特征之外,还进一步包括:表情特征数据以及服饰特征数据。由此可见,借助于2D动画数据能够提取出更多附加信息的优势,可以进一步学习得到水流信息等场景信息与角色的表情或服饰之间的关联关系,进而使最终生成的动画数据中的人物表情和服饰能够随场景变化而动态调整。或者,可以进一步学习得到水流信息、服饰信息等场景信息与角色的表情之间的关联关系,进而使最终生成的动画数据中的人物表情能够随场景中的水流变化或服饰变化而动态调整。
具体实施时,在一种可选的方式中,可以根据水流信息(如水流,水压,浮力和阻力等)作用于躯干骨骼,根据动画数据库中的数据计算对应的躯干动画。在又一种可选的方式中,可以根据水流信息(如水流,水压,浮力和阻力等)、衣服信息(如质感参数,质量,弹力等)以及动画数据库中的姿态数据,计算得到对应的表情动画。其中,在通过姿态模拟方式生成上述动画数据库中的数据时,通过视频逐帧分析,采用连续的动作识别出人物动作,如走路、跑步、蹲下等。
另外,还可以通过运动捕捉设备识别玩家用户的手、脚、躯干、头部等关节位置,通过尺寸测量、物理空间里物体的定位及方位测定等手段,由计算机直接计算出运动数据,从而将大量的动捕数据转换成动画数据库中的训练样本。例如,针对躯干部分,定义游戏世界内的水的水流、水压、浮力和阻力,定义游戏角色各个骨骼关节的质量与旋转角度限制。当玩家受到物理力的作用时,计算每个关节的受力方向和大小,从而模拟牛顿力学模型,根据水流、水压、浮力和阻力等输入变量,计算并对比姿态数据库内的数据,从而实现模拟出不同情况下躯干骨骼的动画效果。又如,针对表情部分,定义游戏世界内的水的水流、水压、浮力和阻力,定义角色衣服的质感参数,质量,弹力。当玩家受到物理力的作用时,计算角色衣服的受力方向和大小,从而模拟牛顿力学模型,根据水流、水压、浮力和阻力等输入变量,通过计算并对比动画数据库内的数据,能够实现模拟出不同情况下角色表情的效果。
图4示出了本发明又一实施例提供的一种角色动画的生成装置的结构示意图,该生成装置包括:
参数提取模块41,适于响应于接收到的角色配置请求,提取所述角色配置请求中包含的配置参数;
获取模块42,适于获取与所述配置参数相匹配的动画特征信息,生成对应于所述动画特征信息的动画数据;
动画模块43,适于通过所述动画数据驱动目标角色的角色模型,得到所述目标角色的角色动画。
可选的,所述获取模块具体适于:
将所述配置参数输入动画生成模型,通过所述动画生成模型确定与所述配置参数相匹配的动画特征信息,以生成对应于所述动画特征信息的动画数据。
可选的,所述角色动画为骨骼蒙皮动画,且所述骨骼蒙皮动画中包含与各个肢体部位相对应的骨骼节点,则所述动画特征信息包括以下中的至少一项:
各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。
可选的,所述配置参数包括至少一个维度参数,且各个维度参数包括至少一个维度子参数;其中,所述维度参数包括以下中的至少一个:标签维度参数、属性维度参数以及场景维度参数;
并且,在角色配置请求中包含的维度参数为多个的情况下,所述获取模块具体适于:
分别确定与各个维度参数相对应的维度特征信息,针对多个维度特征信息进行融合处理,得到所述动画特征信息。
可选的,所述角色配置请求中进一步包括:通过配置界面中的权重配置入口输入的对应于各个维度参数的参数权重值;
则所述获取模块具体适于:分别针对各个维度参数,根据该维度参数的参数权重值确定与该维度参数相对应的维度特征信息。
可选的,所述标签维度参数包括以下至少一个维度子参数:力量子参数、速度子参数、熟练度子参数、以及积极度子参数;
所述属性维度参数包括以下至少一个维度子参数:特征子参数、性格子参数、爱好子参数、职业子参数、以及地域子参数;
场景维度参数包括以下至少一个维度子参数:对应于交互对象的对象属性子参数、用于描述流体介质的介质属性子参数、以及用于描述服饰信息的服饰属性子参数。
图5示出了本发明又一实施例提供的一种动画生成模型的训练装置的结构示意图,该训练装置包括:
关键帧提取模块51,适于从各个动画数据样本中提取关键帧;
特征提取模块52,适于分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息;
生成模块53,适于根据各个关键帧的动画特征信息以及标注信息,生成训练样本集;
训练模块54,适于针对所述训练样本集进行训练,得到所述动画生成模型。
可选的,所述关键帧提取模块具体适于:分别针对各个动画数据样本,将该动画数据样本划分为多个动画区间,分别针对各个动画区间设置区间标签,并分别从各个动画区间中提取关键帧;
所述特征提取模块具体适于:分别针对各个关键帧,结合包含该关键帧的动画区间中的相邻帧,确定该关键帧的动画特征信息,并根据该关键帧的动画区间的区间标签确定该关键帧的标注信息。
可选的,所述生成模块具体适于:
将各个关键帧划分为多组关键帧集合;
分别针对每组关键帧集合,获取该组关键帧集合的动画特征信息以及标注信息,得到对应于该组关键帧集合的样本特征数据;
根据各组关键帧集合的样本特征数据生成所述训练样本集。
可选的,所述关键帧的动画特征信息包括:各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。
可选的,所述标注信息包括以下中的至少一种:标签类标注信息、属性类标注信息以及场景类标注信息;
其中,所述标签类标注信息包括以下至少一个:力量类标注信息、速度类标注信息、熟练度类标注信息、以及积极度类标注信息;
所述属性类标注信息包括以下至少一个:特征类标注信息、性格类标注信息、爱好类标注信息、职业类标注信息、以及地域类标注信息;
所述场景类标注信息包括以下至少一个:对应于交互对象的对象属性类标注信息、用于描述流体介质的介质属性类标注信息、以及用于描述服饰信息的服饰类标注信息。
上述各个模块的具体结构和工作原理可参照方法实施例相应部分的描述,此处不再赘述。
本申请又一实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的角色动画的生成、动画生成模型的训练方法及装置方法。可执行指令具体可以用于使得处理器执行上述方法实施例中对应的各个操作。
图6示出了根据本发明又一实施例的一种电子设备的结构示意图,本发明具体实施例并不对电子设备的具体实现做限定。
如图6所示,该电子设备可以包括:处理器(processor)502、通信接口(Communications Interface)506、存储器(memory)504、以及通信总线508。
其中:
处理器502、通信接口506、以及存储器504通过通信总线508完成相互间的通信。
通信接口506,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器502,用于执行程序510,具体可以执行上述角色动画的生成、动画生成模型的训练方法及装置方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。电子设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器504,用于存放程序510。存储器504可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行上述方法实施例中对应的各个操作。
在此提供的算法和显示不与任何特定计算机、虚拟装置或者其它设备固有相关。各种通用装置也可以与基于在此的示教一起使用。根据上面的描述,构造这类装置所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (15)
1.一种角色动画的生成方法,包括:
响应于接收到的角色配置请求,提取所述角色配置请求中包含的配置参数;
获取与所述配置参数相匹配的动画特征信息,生成对应于所述动画特征信息的动画数据;
通过所述动画数据驱动目标角色的角色模型,得到所述目标角色的角色动画。
2.根据权利要求1所述的方法,其中,所述获取与所述配置参数相匹配的动画特征信息,生成对应于所述动画特征信息的动画数据包括:
将所述配置参数输入动画生成模型,通过所述动画生成模型确定与所述配置参数相匹配的动画特征信息,以生成对应于所述动画特征信息的动画数据。
3.根据权利要求1或2所述的方法,其中,所述角色动画为骨骼蒙皮动画,且所述骨骼蒙皮动画中包含与各个肢体部位相对应的骨骼节点,则所述动画特征信息包括以下中的至少一项:
各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。
4.根据权利要求1-3任一所述的方法,其中,所述配置参数包括至少一个维度参数,且各个维度参数包括至少一个维度子参数;其中,所述维度参数包括以下中的至少一个:标签维度参数、属性维度参数以及场景维度参数;
并且,在角色配置请求中包含的维度参数为多个的情况下,所述获取与所述配置参数相匹配的动画特征信息包括:
分别确定与各个维度参数相对应的维度特征信息,针对多个维度特征信息进行融合处理,得到所述动画特征信息。
5.根据权利要求4所述的方法,其中,所述角色配置请求中进一步包括:通过配置界面中的权重配置入口输入的对应于各个维度参数的参数权重值;
则所述分别确定与各个维度参数相对应的维度特征信息包括:分别针对各个维度参数,根据该维度参数的参数权重值确定与该维度参数相对应的维度特征信息。
6.根据权利要求4或5所述的方法,其中,所述标签维度参数包括以下至少一个维度子参数:力量子参数、速度子参数、熟练度子参数、以及积极度子参数;
所述属性维度参数包括以下至少一个维度子参数:特征子参数、性格子参数、爱好子参数、职业子参数、以及地域子参数;
场景维度参数包括以下至少一个维度子参数:对应于交互对象的对象属性子参数、用于描述流体介质的介质属性子参数、以及用于描述服饰信息的服饰属性子参数。
7.一种动画生成模型的训练方法,包括:
从各个动画数据样本中提取关键帧;
分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息;
根据各个关键帧的动画特征信息以及标注信息,生成训练样本集;
针对所述训练样本集进行训练,得到所述动画生成模型。
8.根据权利要求7所述的方法,其中,所述从各个动画数据样本中提取关键帧包括:分别针对各个动画数据样本,将该动画数据样本划分为多个动画区间,分别针对各个动画区间设置区间标签,并分别从各个动画区间中提取关键帧;
所述分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息包括:
分别针对各个关键帧,结合包含该关键帧的动画区间中的相邻帧,确定该关键帧的动画特征信息,并根据该关键帧的动画区间的区间标签确定该关键帧的标注信息。
9.根据权利要求7或8所述的方法,其中,所述根据各个关键帧的动画特征信息以及标注信息,生成训练样本集包括:
将各个关键帧划分为多组关键帧集合;
分别针对每组关键帧集合,获取该组关键帧集合的动画特征信息以及标注信息,得到对应于该组关键帧集合的样本特征数据;
根据各组关键帧集合的样本特征数据生成所述训练样本集。
10.根据权利要求7-9任一所述的方法,其中,所述关键帧的动画特征信息包括:各个肢体部位对应的骨骼节点的运动速度和/或运动轨迹,各个肢体部位对应的骨骼节点之间的相对位置关系。
11.根据权利要求7-10任一所述的方法,其中,所述标注信息包括以下中的至少一种:标签类标注信息、属性类标注信息以及场景类标注信息;
其中,所述标签类标注信息包括以下至少一个:力量类标注信息、速度类标注信息、熟练度类标注信息、以及积极度类标注信息;
所述属性类标注信息包括以下至少一个:特征类标注信息、性格类标注信息、爱好类标注信息、职业类标注信息、以及地域类标注信息;
所述场景类标注信息包括以下至少一个:对应于交互对象的对象属性类标注信息、用于描述流体介质的介质属性类标注信息、以及用于描述服饰信息的服饰类标注信息。
12.一种角色动画的生成装置,包括:
参数提取模块,适于响应于接收到的角色配置请求,提取所述角色配置请求中包含的配置参数;
获取模块,适于获取与所述配置参数相匹配的动画特征信息,生成对应于所述动画特征信息的动画数据;
动画模块,适于通过所述动画数据驱动目标角色的角色模型,得到所述目标角色的角色动画。
13.一种动画生成模型的训练装置,包括:
关键帧提取模块,适于从各个动画数据样本中提取关键帧;
特征提取模块,适于分别针对各个关键帧,提取该关键帧的动画特征信息,并获取该关键帧的标注信息;
生成模块,适于根据各个关键帧的动画特征信息以及标注信息,生成训练样本集;
训练模块,适于针对所述训练样本集进行训练,得到所述动画生成模型。
14.一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-6中任一项所述的角色动画的生成、动画生成模型的训练方法及装置方法和/或权利要求7-11中任一项所述的角色动画的生成、动画生成模型的训练方法及装置方法对应的操作。
15.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-6中任一项所述的角色动画的生成、动画生成模型的训练方法及装置方法和/或权利要求7-11中任一项所述的角色动画的生成、动画生成模型的训练方法及装置方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111661942.0A CN116433808A (zh) | 2021-12-30 | 2021-12-30 | 角色动画的生成方法、动画生成模型的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111661942.0A CN116433808A (zh) | 2021-12-30 | 2021-12-30 | 角色动画的生成方法、动画生成模型的训练方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116433808A true CN116433808A (zh) | 2023-07-14 |
Family
ID=87091253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111661942.0A Pending CN116433808A (zh) | 2021-12-30 | 2021-12-30 | 角色动画的生成方法、动画生成模型的训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116433808A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215930A (zh) * | 2020-10-19 | 2021-01-12 | 珠海金山网络游戏科技有限公司 | 一种数据处理方法与装置 |
-
2021
- 2021-12-30 CN CN202111661942.0A patent/CN116433808A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112215930A (zh) * | 2020-10-19 | 2021-01-12 | 珠海金山网络游戏科技有限公司 | 一种数据处理方法与装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11113860B2 (en) | Particle-based inverse kinematic rendering system | |
US10679044B2 (en) | Human action data set generation in a machine learning system | |
US11373354B2 (en) | Techniques for rendering three-dimensional animated graphics from video | |
US6552729B1 (en) | Automatic generation of animation of synthetic characters | |
JP6082101B2 (ja) | 身体動作採点装置、ダンス採点装置、カラオケ装置及びゲーム装置 | |
CN110827383B (zh) | 三维模型的姿态模拟方法、装置、存储介质和电子设备 | |
US11244489B2 (en) | Method and system for determining identifiers for tagging video frames | |
CN107423398A (zh) | 交互方法、装置、存储介质和计算机设备 | |
US11562523B1 (en) | Enhanced animation generation based on motion matching using local bone phases | |
CN112270734A (zh) | 一种动画生成方法、可读存储介质和电子设备 | |
US20230177755A1 (en) | Predicting facial expressions using character motion states | |
Ribet et al. | Survey on style in 3d human body motion: Taxonomy, data, recognition and its applications | |
Guo et al. | Action2video: Generating videos of human 3d actions | |
CN116433808A (zh) | 角色动画的生成方法、动画生成模型的训练方法及装置 | |
CN116700471A (zh) | 一种增强虚拟现实***用户体验的方法及*** | |
KR102171319B1 (ko) | 동작 교본 저작 장치, 동작 자가 학습 장치 및 방법 | |
US8933940B2 (en) | Method and system for creating animation with contextual rigging | |
CN115797517B (zh) | 虚拟模型的数据处理方法、装置、设备和介质 | |
Etemad et al. | Modeling and transformation of 3D human motion | |
Usman et al. | Skeleton-based motion prediction: A survey | |
Malek-Podjaski et al. | Adversarial Attention for Human Motion Synthesis | |
US20240135618A1 (en) | Generating artificial agents for realistic motion simulation using broadcast videos | |
KR102342760B1 (ko) | 인공지능 기반의 골프 영상 학습장치, 그 방법 및 그 기록매체 | |
CA2770759C (en) | Method and system for creating animation with contextual rigging | |
Tong et al. | A Fitness Education and Scoring System Based on 3D Human Body Reconstruction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |