CN115908664B - 人机交互的动画生成方法、装置、计算机设备、存储介质 - Google Patents

人机交互的动画生成方法、装置、计算机设备、存储介质 Download PDF

Info

Publication number
CN115908664B
CN115908664B CN202310024522.4A CN202310024522A CN115908664B CN 115908664 B CN115908664 B CN 115908664B CN 202310024522 A CN202310024522 A CN 202310024522A CN 115908664 B CN115908664 B CN 115908664B
Authority
CN
China
Prior art keywords
muscle
musculoskeletal
animation
target
target character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310024522.4A
Other languages
English (en)
Other versions
CN115908664A (zh
Inventor
陆树梁
张心欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Zesen Software Technology Co ltd
Original Assignee
Shenzhen Zesen Software Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Zesen Software Technology Co ltd filed Critical Shenzhen Zesen Software Technology Co ltd
Priority to CN202310024522.4A priority Critical patent/CN115908664B/zh
Publication of CN115908664A publication Critical patent/CN115908664A/zh
Application granted granted Critical
Publication of CN115908664B publication Critical patent/CN115908664B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

本申请涉及一种人机交互的动画生成方法、装置、计算机设备、存储介质和计算机程序产品。方法包括:响应于在动画编辑页面触发的选取操作,显示与目标角色对应的肌肉骨骼模板;响应于对肌肉骨骼模板的触发操作,对目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的目标角色;对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色;确定调整后的目标角色中各肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色;肌肉纤维在目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的目标角色的编辑操作,生成与目标角色对应的骨骼动画。采用本方法能够提高骨骼动画的生成效率。

Description

人机交互的动画生成方法、装置、计算机设备、存储介质
技术领域
本申请涉及计算机技术领域,特别是涉及一种人机交互的动画生成方法、装置、计算机设备、存储介质和计算机程序产品。
背景技术
随着计算机技术以及互联网技术的发展,计算机动画在计算机视觉等领域发挥着越来越重要的作用,骨骼动画是计算机动画中的一种技术,在骨骼动画中,模型具有由互相连接的骨骼组成的骨架结构,通过改变骨骼的位置与朝向生成模型相应动画。
然而,目前的骨骼动画生成方式中,通常需要设计人员在一个三维立体场景中,对物体模型中的每一个顶点进行骨骼绑定,并采用笔刷的方式,对每个绑定点的影响权重进行设置,然后通过在一个二维的时间轴上创建关键帧,来设计对应的骨骼动画。在实际场景中,对于不同场景的骨骼动画,如卡通角色的游戏动画、人体模型的公益动画等,采用上述的动画生成方式,需要设计人员针对每个不同的物体模型进行手动设计,由于需要重新独立开发,且开发周期长,因此,容易导致骨骼动画的生成效率较低。
发明内容
基于此,有必要针对上述技术问题,提供一种能够有效提高骨骼动画生成效率的人机交互的动画生成方法、装置、计算机设备、计算机可读存储介质和计算机程序产品。
第一方面,本申请提供了一种人机交互的动画生成方法。所述方法包括:响应于在动画编辑页面触发的选取操作,在所述动画编辑页面中显示与目标角色对应的肌肉骨骼模板;所述肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;所述形变控制点用于对所述肌肉骨骼模板的几何形状进行调整;响应于对所述肌肉骨骼模板的触发操作,对所述目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色;响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色;确定调整后的所述目标角色中各个肌肉区域的肌肉纤维方向,并基于所述肌肉纤维方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色;所述肌肉纤维在所述目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的所述目标角色的编辑操作,生成与所述目标角色对应的骨骼动画。
第二方面,本申请还提供了一种人机交互的动画生成装置。所述装置包括:显示模块,用于响应于在动画编辑页面触发的选取操作,在所述动画编辑页面中显示与目标角色对应的肌肉骨骼模板;所述肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;所述形变控制点用于对所述肌肉骨骼模板的几何形状进行调整;填充模块,用于响应于对所述肌肉骨骼模板的触发操作,对所述目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色;调整模块,用于响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色;生成模块,用于确定调整后的所述目标角色中各个肌肉区域的肌肉纤维方向,并基于所述肌肉纤维方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色;所述肌肉纤维在所述目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的所述目标角色的编辑操作,生成与所述目标角色对应的骨骼动画。
第三方面,本申请还提供了一种计算机设备。所述计算机设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:响应于在动画编辑页面触发的选取操作,在所述动画编辑页面中显示与目标角色对应的肌肉骨骼模板;所述肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;所述形变控制点用于对所述肌肉骨骼模板的几何形状进行调整;响应于对所述肌肉骨骼模板的触发操作,对所述目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色;响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色;确定调整后的所述目标角色中各个肌肉区域的肌肉纤维方向,并基于所述肌肉纤维方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色;所述肌肉纤维在所述目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的所述目标角色的编辑操作,生成与所述目标角色对应的骨骼动画。
第四方面,本申请还提供了一种计算机可读存储介质。所述计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:响应于在动画编辑页面触发的选取操作,在所述动画编辑页面中显示与目标角色对应的肌肉骨骼模板;所述肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;所述形变控制点用于对所述肌肉骨骼模板的几何形状进行调整;响应于对所述肌肉骨骼模板的触发操作,对所述目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色;响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色;确定调整后的所述目标角色中各个肌肉区域的肌肉纤维方向,并基于所述肌肉纤维方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色;所述肌肉纤维在所述目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的所述目标角色的编辑操作,生成与所述目标角色对应的骨骼动画。
第五方面,本申请还提供了一种计算机程序产品。所述计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现以下步骤:响应于在动画编辑页面触发的选取操作,在所述动画编辑页面中显示与目标角色对应的肌肉骨骼模板;所述肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;所述形变控制点用于对所述肌肉骨骼模板的几何形状进行调整;响应于对所述肌肉骨骼模板的触发操作,对所述目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色;响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色;确定调整后的所述目标角色中各个肌肉区域的肌肉纤维方向,并基于所述肌肉纤维方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色;所述肌肉纤维在所述目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的所述目标角色的编辑操作,生成与所述目标角色对应的骨骼动画。
上述人机交互的动画生成方法、装置、计算机设备、存储介质和计算机程序产品,通过响应于在动画编辑页面触发的选取操作,在动画编辑页面中显示与目标角色对应的肌肉骨骼模板;肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;形变控制点用于对肌肉骨骼模板的几何形状进行调整;响应于对所述肌肉骨骼模板的触发操作,对目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的目标角色;响应于对形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色;确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色;肌肉纤维在目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的目标角色的编辑操作,生成与目标角色对应的骨骼动画。由于自动化生成的各个肌肉区域的肌肉纤维在目标角色的骨骼运动时会产生对应的形变,故在目标角色进行骨骼运动的过程中,肌肉会沿着肌肉纤维方向膨胀,产生自然的形变,可以显示出更加逼真的动画效果,即本申请中提供的人机交互的动画生成方法,能够解决传统技术中在对骨骼模型进行运动展示的过程中展示的运动效果较差的问题;同时,本申请提供的方法实现了自动化计算肌肉纤维方向,减轻了艺术家逐个对肌肉纤维进行建模的负担,实现自动化肌肉纤维的生成,有效提高了三维角色模型的构建效率,从而能够有效提高骨骼动画的生成效率。
附图说明
图1为一个实施例中人机交互的动画生成方法的应用环境图;
图2为一个实施例中人机交互的动画生成方法的流程示意图;
图3为一个实施例中肌肉骨骼模板的显示示意图;
图4为一个实施例中将人体模板塞入目标角色的皮肤中的显示示意图;
图5为一个实施例中调整前的目标角色与调整后的目标角色的对比示意图;
图6为一个实施例中肌肉纤维建模界面的显示示意图;
图7为一个实施例中肌肉发力编辑界面的显示示意图;
图8为一个实施例中不同发力值所对应的骨骼动画的显示示意图;
图9为另一个实施例中肌肉纤维建模界面的显示示意图;
图10为另一个实施例中将人体肌肉骨骼模板塞入目标角色皮肤中的显示示意图;
图11为一个实施例中骨骼动画编辑界面的显示示意图;
图12为一个实施例中角色动画编辑界面的显示示意图;
图13为一个实施例中人机交互的动画生成装置的结构框图;
图14为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请实施例提供的人机交互的动画生成方法,可以应用于如图1所示的应用环境中。其中,终端102通过网络与服务器104进行通信。数据存储***可以存储服务器104需要处理的数据。数据存储***可以集成在服务器104上,也可以放在云上或其他服务器上。终端102可以从本地获取与目标角色对应的肌肉骨骼模板,终端102也可以从服务器104获取与目标角色对应的肌肉骨骼模板,即终端102响应于在动画编辑页面触发的选取操作,终端102可以从服务器104获取与目标角色对应的肌肉骨骼模板,并在动画编辑页面中显示与目标角色对应的肌肉骨骼模板;肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;形变控制点用于对肌肉骨骼模板的几何形状进行调整;终端102 响应于对肌肉骨骼模板的触发操作,利用该肌肉骨骼模板对目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的目标角色;终端102响应于对形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色;终端102确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色;肌肉纤维在目标角色的骨骼运动时会产生对应的形变;终端102响应于对包含肌肉纤维的目标角色的编辑操作,生成与目标角色对应的骨骼动画。
其中,终端102可以但不限于是各种台式计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现。可以理解,本申请实施例提供的人机交互的动画生成方法也可以是由服务器执行的。
在一个实施例中,如图2所示,提供了一种人机交互的动画生成方法,该方法可以由服务器或终端单独执行,也可以由服务器和终端共同执行,以该方法应用于图1中的终端为例进行说明,包括以下步骤:
步骤202,响应于在动画编辑页面触发的选取操作,在动画编辑页面中显示与目标角色对应的肌肉骨骼模板;肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;形变控制点用于对肌肉骨骼模板的几何形状进行调整。
其中,动画编辑页面是指用于编辑动画的界面,例如,建模视窗页面,即本申请中的动画编辑页面可以是动画制作程序中的一个建模视窗页面。
选取操作是指用户触发的用于选取肌肉骨骼模板的操作,用户的触发操作可以触发终端中的触发事件即屏幕输入事件(Input事件)。触发事件可以包括单击事件(click事件)、触摸事件(touch类事件)、触碰事件(tap类事件)、滑动事件(swipe类事件)等,也就是用户可以对终端设备进行不同的触发操作,例如,选取操作可以包括点击操作、滑动操作、长按操作以及摇一摇等触发操作。
目标角色是指需要创建动画的各个角色,例如,某个游戏动画场景中需要创建一只猫咪和一个小孩的骨骼动画,可以将猫咪和小孩分别作为目标角色。
肌肉骨骼模板是指不同目标角色对应的模板,例如,人物角色对应的肌肉骨骼模板可以是人体模板,动物角色对应的肌肉骨骼模板可以是动物模板,即不同类型的目标角色对应不同的肌肉骨骼模板,每一种类型的角色可以对应一个模板,或者每一个角色对应一个模板。本申请中的肌肉骨骼模板可以包括几何形状、肌肉、骨骼和形变控制点。
具体地,终端响应于用户在动画编辑页面触发的选取操作,在动画编辑页面中显示与目标角色对应的肌肉骨骼模板。即用户可以通过触发操作登录动画编辑***或者动画编辑应用中,进一步的,用户可以在动画编辑应用显示的界面中,采用不同的方式快速获取到与目标角色对应的肌肉骨骼模板。例如,用户可以通过触发模板选取操作,向动画编辑应用的后台服务器发送模板获取请求,以从服务器的数据库中获取到与目标角色对应的肌肉骨骼模板,用户也可以在动画编辑应用显示的界面中,通过触发模板选取操作,从本地直接获取与目标角色对应的肌肉骨骼模板。本申请中的肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点,形变控制点用于对肌肉骨骼模板的几何形状进行调整,例如,用户可以通过拖动形变控制点,来对目标角色内的肌肉骨骼模板进行调整,以使得目标角色内的肌肉骨骼模板与目标角色的外部皮肤更加贴合。
例如,如图3所示,为肌肉骨骼模板的显示示意图。图3所示的人体肌肉骨骼模板中包含骨骼、肌肉和多个形变控制点,例如,图3中人体肌肉骨骼模板中的手腕关节控制点、肩关节处的肩关节控制点、脚踝处的踝关节控制点。图3中所示的形变控制点可以包括拖拽控制点、旋转控制点、拉伸控制点和整体缩放控制点。
假设目标角色为人物A,则用户可以通过触发操作启动终端中的动画编辑应用程序A,并通过输入账号和密码的方式登录该动画编辑应用程序A中,进一步的,用户可以在动画编辑应用程序A显示的动画编辑页面中,用户A通过点击“模板选取”这个控件,终端向该动画编辑应用A的后台服务器发送人物模板获取请求,以使得终端从该后台服务器的数据库中获取到与目标角色即人物A对应的肌肉骨骼模板。例如,终端获取到的与目标角色即人物A对应的肌肉骨骼模板为如图3所示的人体肌肉骨骼模板。
步骤204,响应于对肌肉骨骼模板的触发操作,对目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的目标角色。
其中,皮肤是指通过物理仿真模拟出的不同角色外部的皮肤,皮肤下包裹着肌肉骨骼模板。本申请中包含肌肉骨骼的目标角色是指,将肌肉骨骼模板填充至目标角色的皮肤中,以使得肌肉骨骼模板与目标角色的皮肤完全贴合,模拟出包含肌肉、骨骼和皮肤的目标角色。
具体的,终端响应于用户在动画编辑页面触发的选取操作,在动画编辑页面中显示与目标角色对应的肌肉骨骼模板之后,终端可以获取目标角色对应的皮肤,终端响应于用户对肌肉骨骼模板的触发操作,利用肌肉骨骼模板对目标角色的皮肤进行肌肉骨骼的填充,即将肌肉骨骼模板与目标角色的皮肤进行融合,即可得到包含肌肉、骨骼、皮肤的目标角色。其中,目标角色的皮肤可以是预先绘制好的存储在数据库中的皮肤,也可以是建模师设定的特定皮肤。
例如,如图4所示,为将人体模板塞入目标角色的皮肤中的显示示意图。假设目标角色为人物A,终端响应于用户在动画编辑页面触发的选取操作,在动画编辑页面中显示如图3所示的与人物A对应的肌肉骨骼模板之后,终端可以获取人物A对应的目标皮肤,假设终端获取到如图4中所示的人物A的目标皮肤为人物皮肤A,用户可以通过对图4中所示的人体肌肉骨骼模板的拖动操作,将人体肌肉骨骼模板填充至人物皮肤A中,以得到如图4所示的包含肌肉骨骼的人物A。
步骤206,响应于对形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色。
触发操作是指可以触发终端中的触发事件即屏幕输入事件的操作,例如,触发操作可以包括点击操作、滑动操作、长按操作以及摇一摇等。
具体地,终端响应于对肌肉骨骼模板的触发操作,对目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的目标角色之后,终端响应于用户对肌肉骨骼模板中的形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,以得到调整后的目标角色。可以理解,本申请中的形变控制点可以包括不同类型的控制点,例如,形变控制点可以分为全局控制点和局部控制点。
例如,如图5所示,为调整前的目标角色与调整后的目标角色的对比示意图。图5中调整前的目标角色内的肌肉骨骼模板为初始模板,调整后的目标角色内的肌肉骨骼模板为形变后的模板,用户可以通过对肌肉骨骼模板中的多个形变控制点进行缩放、旋转和平移等操作,以使得终端响应于用户的上述触发操作,对目标角色内的肌肉骨骼模板进行调整,使得肌肉骨骼模板与目标角色的皮肤完全贴合,即可得到调整后的目标角色。
步骤208,确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色;肌肉纤维在目标角色的骨骼运动时会产生对应的形变。
其中,肌肉区域是指目标角色中所包含的各个肌肉,例如,当目标角色为人体时,目标角色中的肌肉区域可以包括手臂肌肉区域、腿部肌肉区域、胸部肌肉区域等。本申请实施例中终端将目标角色中的骨骼作为碰撞体,肌肉作为弹性体,在目标角色进行骨骼运动的过程中,肌肉会沿着肌肉纤维方向膨胀,产生自然的形变,以显示出更加逼真的动画效果。
具体地,终端响应于用户对肌肉骨骼模板中的形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色之后,终端可以确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,即可得到包含肌肉纤维的所述目标角色,以使得肌肉纤维在目标角色进行骨骼运动时会产生对应的形变。即用户可以在调整后的目标角色中设置各个肌肉区域的肌肉纤维方向或者直接获取预设的各个肌肉区域的肌肉纤维方向,以使得终端可以基于预设算法和肌肉纤维方向,自动生成各肌肉区域对应的肌肉纤维。例如,如图6所示,为肌肉纤维建模界面的显示示意图。图6中所示的肌肉纤维的生成方式为:基于主方向模式生成肌肉区域对应的肌肉纤维,即用户可以在调整后的目标角色中设置该肌肉区域的主方向为如图6中(1)所示的箭头方向,则终端可以基于预设算法和该主方向,自动生成如图6中(2)所示的该肌肉区域对应的肌肉纤维。
步骤210,响应于对包含肌肉纤维的目标角色的编辑操作,生成与目标角色对应的骨骼动画。
其中,骨骼动画是计算机动画中的一种技术,其中将角色分为两个部分:用于绘制角色的表面表示(称为网格或蒙皮)和一组互连的部分骨骼,并共同形成骨骼或装备,这是一种用于对网格进行动画处理(姿势和关键帧)的虚拟骨架。本申请中目标角色的骨骼动画可以展示出目标角色在骨骼运动过程中肌肉所产生的自然形变,具有更加逼真的动画效果。
具体地,终端确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色之后,终端响应于用户对包含肌肉纤维的目标角色的各控制点的编辑操作,生成与目标角色对应的骨骼动画。即用户可以逐帧对包含肌肉纤维的目标角色中的各个控制点的发力值进行编辑,以使得终端根据目标角色中各个控制点的发力值,生成与目标角色对应的骨骼动画,即在终端显示的目标角色对应的骨骼动画中,目标角色中的肌肉会产生很自然的形变效果,给用户提供更加逼真的动画效果。可以理解,本申请中的控制点可以为肌肉骨骼模板中形变控制点,也可以为自定义设置的肌肉骨骼模板中的区别于形变控制点的独立的控制点。
本实施例中,通过响应于在动画编辑页面触发的选取操作,在动画编辑页面中显示与目标角色对应的肌肉骨骼模板;肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;形变控制点用于对肌肉骨骼模板的几何形状进行调整;响应于对肌肉骨骼模板的触发操作,利用肌肉骨骼模板,对目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的目标角色;响应于对形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色;确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色;肌肉纤维在目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的目标角色的各控制点的编辑操作,生成与目标角色对应的骨骼动画。由于自动化生成的各个肌肉区域的肌肉纤维在目标角色的骨骼运动时会产生对应的形变,故在目标角色进行骨骼运动的过程中,肌肉会沿着肌肉纤维方向膨胀,产生自然的形变,可以显示出更加逼真的动画效果,即本申请中提供的人机交互的动画生成方法,能够解决传统技术中在对骨骼模型进行运动展示的过程中展示的运动效果较差的问题;同时,本申请提供的方法实现了自动化计算肌肉纤维方向,减轻了艺术家逐个对肌肉纤维进行建模的负担,实现自动化肌肉纤维的生成,有效提高了三维角色模型的构建效率,从而能够有效提高骨骼动画的生成效率。
在一个实施例中,响应于对包含肌肉纤维的目标角色的编辑操作,生成与目标角色对应的骨骼动画之后,所述方法还包括:
响应于对调整后的目标角色的选取操作,显示与选取操作对应的肌肉区域的发力曲线编辑界面;
响应于在发力曲线编辑界面中的编辑操作,在发力曲线编辑界面中显示编辑后的肌肉区域的发力曲线图;
基于编辑后的肌肉区域的发力曲线图,在发力形变显示窗口中显示肌肉区域对应的骨骼动画。
终端响应于用户对包含肌肉纤维的目标角色的各控制点的编辑操作,生成与目标角色对应的骨骼动画之后,用户还可以针对目标角色不同的肌肉区域设置不同发力值,以使目标角色在进行骨骼运动的过程中,基于不同的发力值产生不同程度的自然形变。具体的,如图7所示,为肌肉发力编辑界面的显示示意图。假设用户选取了调整后的目标角色中位于右手手臂的区域,则终端响应于用户对调整后的目标角色的上述选取操作,显示与选取操作对应的大拇指区域的肌肉发力曲线编辑界面,以及同时显示与该肌肉发力曲线对应的动画预览显示的显示界面;进一步的,在该肌肉发力曲线编辑界面中,用户可以通过触发操作,逐帧编辑手臂区域的控制点的发力强度,即编辑手臂区域每一帧的控制点的发力强度,则终端响应于用户在肌肉发力曲线编辑界面中的编辑操作,在发力曲线编辑界面中显示如图7中所示的编辑后的肌肉区域的发力曲线图;进一步的,终端可以基于如图7中所示的编辑后的肌肉区域的发力曲线图,在该界面中的发力形变显示窗口中显示如图7中所示的手臂区域对应的骨骼动画。
本实施例中,通过逐帧编辑目标角色的各个肌肉区域的控制点的发力强度,将目标角色中的骨骼作为碰撞体,肌肉作为弹性体,在目标角色进行骨骼运动的过程中,肌肉会沿着肌肉纤维方向膨胀,产生自然的形变,可以显示出更加逼真的动画效果,即本申请中提供的人机交互的动画生成方法,能够解决传统技术中在对骨骼模型进行运动展示的过程中展示的运动效果较差的问题。
在其中一个实施例中,骨骼动画包括皮肤动画和肌肉动画;基于编辑后的肌肉区域的发力曲线图,在发力形变显示窗中显示肌肉区域对应的骨骼动画的步骤,包括:
基于发力曲线图中时间轴与发力强度之间的关系,在发力形变显示窗口中,显示肌肉区域对应的皮肤动画和肌肉动画。
其中,皮肤动画是指显示目标区域对应的皮肤动画演示。
肌肉动画是指显示目标区域对应的肌肉动画演示。
具体地,如图8所示,为不同发力值所对应的骨骼动画的显示示意图。图8中所示的(1)和(3)为动画预览显示的显示界面示意图,也可称为发力形变显示窗,在图8所示的(1)和(3)为动画预览显示的显示界面中,包含皮肤显示和肌肉显示,即图8中所示的(1)和(3)中的(a)表示皮肤发力形变的显示示意图,图8中所示的(1)和(3)中的(b)表示肌肉发力形变的显示示意图;图8中所示的(2)和(4)为发力曲线编辑框的显示示意图,图8中所示的(2)和(4)中的横坐标为时间轴,纵坐标为发力强度,发力曲线可以称为控制线,控制线由多个控制点组成。
假设用户选取了包含肌肉纤维的目标角色中位于右手大拇指的区域,则终端响应于用户对包含肌肉纤维的目标角色的上述选取操作,显示如图8中(2)所示的与选取操作对应的大拇指区域的肌肉发力曲线编辑界面,以及同时显示与该图8中(2)所示的肌肉发力曲线对应的动画预览显示的显示界面如图8中(1)所示;进一步的,在该肌肉发力曲线编辑界面中,用户可以通过触发操作,编辑每一帧大拇指区域的控制点的发力强度,则终端响应于用户在肌肉发力曲线编辑界面中的编辑操作,在发力曲线编辑界面中显示如图8中(4)所示的编辑后的肌肉区域的发力曲线图;进一步的,终端可以基于编辑后的肌肉区域的发力曲线图,在发力形变显示窗口中显示如图8中(3)所示的大拇指区域对应的骨骼动画,即在如图8所示的(3)中同时显示皮肤发力形变的动画和肌肉发力形变的动画。
例如,图8中(2)所示的发力曲线图中,当横坐标为5时,纵坐标为3,表示在第5帧时该控制点所对应的发力值为3,终端可以基于图8中(2)所示的发力曲线图中时间轴与发力强度之间的关系,在发力形变显示窗口中,显示如图8中(1)所示大拇指区域对应的皮肤动画演示(a)和肌肉动画演示(b)。进一步的,用户还可以基于如图8中(1)所示大拇指区域对应的皮肤动画演示和肌肉动画演示,对如图8中(2)所示的肌肉区域的发力曲线图进行修改,即用户可以在如图8中(2)所示的肌肉发力曲线编辑界面中,将如图8中(2)所示的肌肉区域的发力曲线图中第5帧的发力值编辑为5,即将纵坐标的发力值由3修改为5,表示在第5帧时该控制点所对应的发力值为5,得到如图8中(4)所示的发力曲线图,则终端可以基于图8中(4)所示的发力曲线图中时间轴与发力强度之间的关系,在发力形变显示窗口中,显示如图8中(3)所示大拇指区域对应的皮肤动画演示(a)和肌肉动画演示(b)。由于图8中(2)和(4)所示的发力曲线图中第5帧的发力值不同,因此,在发力形变显示窗口中,显示的皮肤动画演示和肌肉动画演示中的肌肉形变也是不同的。
本实施例中,通过逐帧编辑目标角色的各个肌肉区域的控制点的发力强度,并在发力形变显示窗口中,动态的显示皮肤动画演示和肌肉动画演示,使得动画师可以根据显示的皮肤动画演示和肌肉动画演示,动态的修改不同控制点的发力强度,以使在目标角色进行骨骼运动的过程中,肌肉会沿着肌肉纤维方向膨胀,产生自然的形变,可以显示出更加逼真的动画效果,即本申请中提供的人机交互的动画生成方法,在提高骨骼动画生成效率的同时又有效提升了骨骼动画的动画效果,可以显示出更加逼真的动画效果。
在一个实施例中,形变控制点包括全局控制点和局部控制点;响应于对形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色的步骤,包括:
响应于对全局控制点的缩放操作、旋转操作和平移操作,对目标角色内的肌肉骨骼模板进行调整,得到全局调整后的目标角色;
响应于对局部控制点的缩放操作、旋转操作和平移操作,对全局调整后的目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色。
其中,全局控制点是指用于调整肌肉骨骼模板整体的控制点,例如,整体缩放控制点。
局部控制点是指用于调整肌肉骨骼模板局部的控制点,例如,肩关节控制点、手肘关节控制点等。
具体地,终端响应于用户对肌肉骨骼模板的触发操作,对目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色之后,用户可以对肌肉骨骼模板中的各个形变控制点进行缩放操作、旋转操作和平移操作,以使得终端对目标角色内的肌肉骨骼模板进行调整,得到的调整后的目标角色。在调整后的中的目标角色中,肌肉骨骼模板与目标角色的皮肤之间更加贴合,即本申请实施例中对肌肉骨骼模板中的各个形变控制点进行缩放操作、旋转操作和平移操作,是为了使得肌肉骨骼模板更好的贴合不同的目标角色的皮肤,快速得到包含骨骼肌肉的目标角色。
举个例子,如图4所示,为将人体模板塞入目标角色的皮肤中的显示示意图。用户可以通过对全局控制点的控制操作,实现对目标角色内的肌肉骨骼模板整体进行调整,全局控制点可以为图4中所示的整体缩放控制点,即终端响应于用户对如图4中所示的整体缩放控制点的缩放操作、旋转操作和平移操作,对目标角色内的肌肉骨骼模板进行调整,得到全局调整后的目标角色;进一步的,用户还可以通过对局部控制点的控制操作,实现对目标角色内的肌肉骨骼模板进行局部调整,局部控制点可以为图4中所示的不同区域的形变控制点1、形变控制点2和形变控制点3,比如,终端响应于用户对局部控制点即图4中所示的形变控制点1即肩关节控制点的旋转操作,对全局调整后的目标角色内的肌肉骨骼模板的手臂进行调整,以得到调整后的目标角色,即调整后的目标角色中的肌肉骨骼模板的手臂与目标角色的手臂皮肤对齐。
本实施例中,通过将肌肉骨骼模板快速的填充至目标角色的皮肤中,以使得肌肉骨骼模板与目标角色的皮肤完全贴合,能够模拟出包含肌肉、骨骼和皮肤的目标角色,提高骨骼动画生成效率的同时又能够生成更加逼真的动画效果。
在一个实施例中,确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色的步骤,包括:
响应于对调整后的目标角色的选取操作,显示与选取操作对应的肌肉区域的肌肉纤维建模界面;
在肌肉纤维建模界面中确定肌肉区域的肌肉纤维主方向;
基于肌肉纤维主方向和预设算法,生成肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色。
具体的,终端响应于用户对肌肉骨骼模板中的形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色之后,终端可以确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,即可得到包含肌肉纤维的目标角色,以使得肌肉纤维在目标角色进行骨骼运动时会产生对应的形变。即用户可以在调整后的目标角色中设置各个肌肉区域的肌肉纤维方向,以使得终端可以基于预设算法和肌肉纤维方向,自动生成各肌肉区域对应的肌肉纤维。例如,如图6所示,为肌肉纤维建模界面的显示示意图。图6中所示的肌肉纤维的生成方式为:基于主方向模式生成肌肉区域对应的肌肉纤维,即用户可以通过主方向控制器控制肌肉区域对应的肌肉纤维主方向,假设用户预先通过主方向控制器控制该肌肉区域对应的肌肉纤维主方向为如图6中(1)所示的箭头方向,则终端可以基于预设算法和该主方向,自动生成如图6中(2)所示的该肌肉区域对应的肌肉纤维。由此使得,实现了自动化计算肌肉纤维方向,减轻了艺术家逐个对肌肉纤维进行建模的负担,实现自动化肌肉纤维的生成,有效提高了三维角色模型的构建效率,也使得最终构建的三维角色模型具有更好的可控性和稳定性。
在一个实施例中,在肌肉纤维建模界面中确定肌肉区域的肌肉纤维主方向的步骤,包括:
响应于在肌肉纤维建模界面中的选取操作,确定肌肉区域对应的第一端点和第二端点;
基于第一端点、第二端点确定肌肉区域的肌肉纤维主方向。
具体的,终端响应于用户对肌肉骨骼模板中的形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色之后,终端可以确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,即可得到包含肌肉纤维的所述目标角色,以使得肌肉纤维在目标角色进行骨骼运动时会产生对应的形变。
举个例子,如图9所示,为肌肉纤维建模界面的显示示意图。图9中所示的肌肉纤维的生成方式为:基于标定模式生成肌肉区域对应的肌肉纤维,即用户可以通过触发操作选取调整后的目标角色中的某个肌肉区域,则终端响应于用户对调整后的目标角色的选取操作,显示与用户触发的选取操作对应的肌肉区域的肌肉纤维建模界面如图9所示;进一步的,用户可以依次选取肌肉区域中的第一端点和第二端点,则终端响应于用户的上述端点选取操作,在肌肉纤维建模界面中确定肌肉区域对应的第一端点和第二端点如图9中(1)所示,并基于第一端点、第二端点确定该肌肉区域的肌肉纤维主方向为从第一端点到第二端点的方向,即自下而上的方向为主方向,进而使得终端可以基于预设算法和该主方向,自动生成如图9中(2)所示的该肌肉区域对应的肌肉纤维。由此使得,实现了自动化计算肌肉纤维方向,减轻了艺术家逐个对肌肉纤维进行建模的负担,实现自动化肌肉纤维的生成,有效提高了三维角色模型的构建效率,也使得最终构建的三维角色模型具有更好的可控性和稳定性。
本申请还提供一种应用场景,该应用场景应用上述的人机交互的动画生成方法。具体地,该人机交互的动画生成方法在该应用场景的应用如下:
当动画师或者建模人员需要对不同业务场景中的动画角色进行建模时,可以采用上述的人机交互的动画生成方法,即动画师或者建模人员可以登录终端中的动画***之后,动画师或者建模人员可以通过触发操作进入动画编辑界面中,即动画师可以逐帧对不同动画角色的骨骼动画进行编辑,在编辑过程中,动画师可以通过选取操作获取人形生物的肌肉骨骼模板,并使用获取到的肌肉骨骼模板快速的对建模师给定的角色皮肤进行肌肉骨骼的填充,无需动画师逐一对各个角色的肌肉骨骼进行建模和位姿摆放。可以理解,本申请中的肌肉骨骼模板除了包含基本的肌肉骨骼几何形状之后,还包含有用于对肌肉骨骼进行自然形变的绑定控制点,在此基础上动画师或者建模人员只需要简单的操作各个控制点即可将肌肉骨骼的位姿以及形态与目标角色的皮肤进行贴合,得到包含肌肉骨骼的目标角色;进一步的,终端响应于动画师或者建模人员对形变控制点的触发操作,对目标角色内的肌肉骨骼模板进行调整,得到调整后的目标角色,确定调整后的目标角色中各个肌肉区域的肌肉纤维方向,并基于肌肉纤维方向生成各肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色;终端响应于动画师或者建模人员对包含肌肉纤维的目标角色的各控制点的编辑操作,生成与目标角色对应的骨骼动画。由于本申请中自动化生成的各个肌肉区域的肌肉纤维在目标角色的骨骼运动时会产生对应的形变,因此,本申请提供的方法,通过将目标角色中的骨骼作为碰撞体,肌肉作为弹性体,在目标角色进行骨骼运动的过程中,肌肉会沿着肌肉纤维方向膨胀,产生自然的形变,可以显示出更加逼真的动画效果,即本申请中提供的人机交互的动画生成方法,能够解决传统技术中在对骨骼模型进行运动展示的过程中展示的运动效果较差的问题;同时,本申请提供的方法实现了自动化计算肌肉纤维方向,减轻了艺术家逐个对肌肉纤维进行建模的负担,实现自动化肌肉纤维的生成,有效提高了三维角色模型的构建效率,也使得最终构建的三维角色模型具有更好的可控性和稳定性。
本申请实施例提供的方法,可以应用于各种动画场景中,如卡通角色游戏动画、动物动画、人物公益动画的场景中,以下以应用于人物动画场景为例,对本申请实施例提供的人机交互的动画生成方法进行说明。
传统方式中,通常需要设计人员针对每个不同的物体模型进行手动设计,由于需要重新独立开发,且开发周期长,因此,容易导致骨骼动画的生成效率较低。
为了解决上述问题,本申请提供了一种人机交互的动画生成方法,该方法中通过GPU并行的有限元以及碰撞解算***,让动画师可以逐帧地对骨骼动画进行编辑,能够提高骨骼动画生成效率的同时又有效提升了骨骼动画的动画效果,可以显示出更加逼真的动画效果,即本申请中提供的人机交互的动画生成方法,也能够解决传统技术中在对骨骼模型进行运动展示的过程中展示的运动效果较差的问题。
如图10所示,为将人体肌肉骨骼模板塞入目标角色皮肤中的显示示意图。假设目标角色为人物A,终端响应于动画师在动画编辑页面触发的选取操作,在动画编辑页面中显示如图10中(a)所示的与人物A对应的人体模板之后,终端可以获取人物A对应的皮肤,假设终端获取到如图10中(b)所示的人物A的皮肤,动画师可以通过对如图10中(a)所示的人体肌肉骨骼模板的拖动操作,将人体肌肉骨骼模板填充至人物A对应的皮肤中,以得到如图10中(c)所示的包含肌肉骨骼的目标角色-人物A;进一步的,动画师可以通过对该人体肌肉骨骼模板中的多个形变控制点进行缩放、旋转和平移等操作,以使得终端响应于动画师的上述触发操作,对目标角色内的肌肉骨骼模板进行调整,使得肌肉骨骼模板与目标角色的皮肤完全贴合,即可得到调整后的目标角色如图10中(d)所示。
如图11所示,为骨骼动画编辑界面的显示示意图,在如图11所示的肌肉发力曲线编辑界面中,动画师可以通过触发操作,编辑每一帧手臂区域的控制点的发力强度,则终端响应于用户在肌肉发力曲线编辑界面中的编辑操作,在发力曲线编辑界面中显示如图11中(2)所示的编辑后的肌肉区域的发力曲线图;进一步的,终端可以基于如图11中(2)所示的编辑后的肌肉区域的发力曲线图,在该界面中的发力形变显示窗口中显示如图11中(1)中所示的手臂区域对应的骨骼动画。可以理解,从如图11中(1)中所示的手臂区域对应的肌肉动画演示中可以看出,设置的发力值不同,肌肉动画演示中的肌肉形变也是不同的。
如图12所示,为角色动画编辑界面的显示示意图。图12中初始目标角色是指未对目标角色内的肌肉骨骼模板进行调整、也未生成目标角色中各个肌肉区域对应的肌肉纤维、也未对目标角色进行骨骼动画编辑操作,图12中编辑后的目标角色是指对目标角色内的肌肉骨骼模板进行调整、并自动生成目标角色中各个肌肉区域对应的肌肉纤维,得到包含肌肉纤维的目标角色、同时对包含肌肉纤维的目标角色的各个控制点的发力值进行了编辑后得到的。
应该理解的是,虽然如上所述的各实施例所涉及的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,如上所述的各实施例所涉及的流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
基于同样的发明构思,本申请实施例还提供了一种用于实现上述所涉及的人机交互的动画生成方法的人机交互的动画生成装置。该装置所提供的解决问题的实现方案与上述方法中所记载的实现方案相似,故下面所提供的一个或多个人机交互的动画生成装置实施例中的具体限定可以参见上文中对于人机交互的动画生成方法的限定,在此不再赘述。
在一个实施例中,如图13所示,提供了一种人机交互的动画生成装置,包括:显示模块1302、填充模块1304、调整模块1306和生成模块1308,其中:
显示模块1302,用于响应于在动画编辑页面触发的选取操作,在所述动画编辑页面中显示与目标角色对应的肌肉骨骼模板;所述肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;所述形变控制点用于对所述肌肉骨骼模板的几何形状进行调整。
填充模块1304,用于响应于对所述肌肉骨骼模板的触发操作,对所述目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色。
调整模块1306,用于响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色。
生成模块1308,用于确定调整后的所述目标角色中各个肌肉区域的肌肉纤维方向,并基于所述肌肉纤维方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色;所述肌肉纤维在所述目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的所述目标角色的编辑操作,生成与所述目标角色对应的骨骼动画。
在一个实施例中,显示模块还用于响应于对调整后的所述目标角色的选取操作,显示与所述选取操作对应的肌肉区域的发力曲线编辑界面;响应于在所述发力曲线编辑界面中的编辑操作,在所述发力曲线编辑界面中显示编辑后的所述肌肉区域的发力曲线图;基于编辑后的所述肌肉区域的发力曲线图,在发力形变显示窗口中显示所述肌肉区域对应的骨骼动画。
在一个实施例中,所述骨骼动画包括皮肤动画和肌肉动画;显示模块还用于基于所述发力曲线图中时间轴与发力强度之间的关系,在所述发力形变显示窗口中,显示所述肌肉区域对应的皮肤动画和肌肉动画。
在一个实施例中,所述形变控制点包括全局控制点和局部控制点;调整模块还用于响应于对所述全局控制点的缩放操作、旋转操作和平移操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到全局调整后的所述目标角色;响应于对所述局部控制点的缩放操作、旋转操作和平移操作,对全局调整后的所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色。
在一个实施例中,所述装置还包括:确定模块。显示模块还用于响应于对调整后的所述目标角色的选取操作,显示与所述选取操作对应的肌肉区域的肌肉纤维建模界面;确定模块,用于在所述肌肉纤维建模界面中确定所述肌肉区域的肌肉纤维主方向;生成模块还用于基于所述肌肉纤维主方向和预设算法,生成所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色。
在一个实施例中,确定模块还用于响应于在所述肌肉纤维建模界面中的选取操作,确定所述肌肉区域对应的第一端点和第二端点;基于所述第一端点、所述第二端点确定所述肌肉区域的肌肉纤维主方向。
上述人机交互的动画生成装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图14所示。该计算机设备包括处理器、存储器、输入/输出接口、通信接口、显示单元和输入装置。其中,处理器、存储器和输入/输出接口通过***总线连接,通信接口、显示单元和输入装置通过输入/输出接口连接到***总线。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***和计算机程序。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的输入/输出接口用于处理器与外部设备之间交换信息。该计算机设备的通信接口用于与外部的终端进行有线或无线方式的通信,无线方式可通过WIFI、移动蜂窝网络、NFC(近场通信)或其他技术实现。该计算机程序被处理器执行时以实现一种人机交互的动画生成方法。该计算机设备的显示单元用于形成视觉可见的画面,可以是显示屏、投影装置或虚拟现实成像装置,显示屏可以是液晶显示屏或电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图14中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,该计算机程序被处理器执行时实现上述各方法实施例中的步骤。
在一个实施例中,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述各方法实施例中的步骤。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、数据库或其它介质的任何引用,均可包括非易失性和易失性存储器中的至少一种。非易失性存储器可包括只读存储器(Read-OnlyMemory,ROM)、磁带、软盘、闪存、光存储器、高密度嵌入式非易失性存储器、阻变存储器(ReRAM)、磁变存储器(Magnetoresistive Random Access Memory,MRAM)、铁电存储器(Ferroelectric Random Access Memory,FRAM)、相变存储器(Phase Change Memory,PCM)、石墨烯存储器等。易失性存储器可包括随机存取存储器(Random Access Memory,RAM)或外部高速缓冲存储器等。作为说明而非局限,RAM可以是多种形式,比如静态随机存取存储器(Static Random Access Memory,SRAM)或动态随机存取存储器(Dynamic RandomAccess Memory,DRAM)等。本申请所提供的各实施例中所涉及的数据库可包括关系型数据库和非关系型数据库中至少一种。非关系型数据库可包括基于区块链的分布式数据库等,不限于此。本申请所提供的各实施例中所涉及的处理器可为通用处理器、中央处理器、图形处理器、数字信号处理器、可编程逻辑器、基于量子计算的数据处理逻辑器等,不限于此。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请的保护范围应以所附权利要求为准。

Claims (10)

1.一种人机交互的动画生成方法,其特征在于,所述方法包括:
响应于在动画编辑页面触发的选取操作,在所述动画编辑页面中显示与目标角色对应的肌肉骨骼模板;所述肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;所述形变控制点用于对所述肌肉骨骼模板的几何形状进行调整;
响应于对所述肌肉骨骼模板的触发操作,利用所述肌肉骨骼模板对所述目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色;
响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色;
确定调整后的所述目标角色中各个肌肉区域的肌肉纤维主方向,并基于所述肌肉纤维主方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色;所述肌肉纤维在所述目标角色的骨骼运动时会产生对应的形变;
响应于对包含肌肉纤维的所述目标角色的编辑操作,生成与所述目标角色对应的骨骼动画;所述骨骼动画包括皮肤动画和肌肉动画;
响应于对调整后的所述目标角色的选取操作,显示与所述选取操作对应的肌肉区域的发力曲线编辑界面;
响应于在所述发力曲线编辑界面中的编辑操作,在所述发力曲线编辑界面中显示编辑后的所述肌肉区域的发力曲线图;
基于编辑后的所述肌肉区域的发力曲线图中时间轴与发力强度之间的关系,在发力形变显示窗口中显示所述肌肉区域对应的所述皮肤动画和所述肌肉动画。
2.根据权利要求1所述的方法,其特征在于,所述形变控制点包括全局控制点和局部控制点;
所述响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色,包括:
响应于对所述全局控制点的缩放操作、旋转操作和平移操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到全局调整后的所述目标角色;
响应于对所述局部控制点的缩放操作、旋转操作和平移操作,对全局调整后的所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色。
3.根据权利要求1所述的方法,其特征在于,所述确定调整后的所述目标角色中各个肌肉区域的肌肉纤维方向,并基于所述肌肉纤维方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色,包括:
响应于对调整后的所述目标角色的选取操作,显示与所述选取操作对应的肌肉区域的肌肉纤维建模界面;
在所述肌肉纤维建模界面中确定所述肌肉区域的肌肉纤维主方向;
基于所述肌肉纤维主方向和预设算法,生成所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色。
4.根据权利要求3所述的方法,其特征在于,所述在所述肌肉纤维建模界面中确定所述肌肉区域的肌肉纤维主方向,包括:
响应于在所述肌肉纤维建模界面中的选取操作,确定所述肌肉区域对应的第一端点和第二端点;
基于所述第一端点、所述第二端点确定所述肌肉区域的肌肉纤维主方向。
5.一种人机交互的动画生成装置,其特征在于,所述装置包括:
显示模块,用于响应于在动画编辑页面触发的选取操作,在所述动画编辑页面中显示与目标角色对应的肌肉骨骼模板;所述肌肉骨骼模板包括几何形状、肌肉、骨骼和形变控制点;所述形变控制点用于对所述肌肉骨骼模板的几何形状进行调整;
填充模块,用于响应于对所述肌肉骨骼模板的触发操作,利用所述肌肉骨骼模板对所述目标角色的皮肤进行肌肉骨骼的填充,得到包含肌肉骨骼的所述目标角色;
调整模块,用于响应于对所述形变控制点的触发操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色;
生成模块,用于确定调整后的所述目标角色中各个肌肉区域的肌肉纤维主方向,并基于所述肌肉纤维主方向生成各所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色;所述肌肉纤维在所述目标角色的骨骼运动时会产生对应的形变;响应于对包含肌肉纤维的所述目标角色的编辑操作,生成与所述目标角色对应的骨骼动画;所述骨骼动画包括皮肤动画和肌肉动画;
所述显示模块还用于响应于对调整后的所述目标角色的选取操作,显示与所述选取操作对应的肌肉区域的发力曲线编辑界面;响应于在所述发力曲线编辑界面中的编辑操作,在所述发力曲线编辑界面中显示编辑后的所述肌肉区域的发力曲线图;基于编辑后的所述肌肉区域的发力曲线图中时间轴与发力强度之间的关系,在发力形变显示窗口中显示所述肌肉区域对应的所述皮肤动画和所述肌肉动画。
6.根据权利要求5所述的人机交互的动画生成装置,其特征在于,所述形变控制点包括全局控制点和局部控制点;调整模块还用于响应于对所述全局控制点的缩放操作、旋转操作和平移操作,对所述目标角色内的所述肌肉骨骼模板进行调整,得到全局调整后的所述目标角色;响应于对所述局部控制点的缩放操作、旋转操作和平移操作,对全局调整后的所述目标角色内的所述肌肉骨骼模板进行调整,得到调整后的所述目标角色。
7.根据权利要求5所述的人机交互的动画生成装置,其特征在于,所述装置还包括:
所述显示模块还用于响应于对调整后的所述目标角色的选取操作,显示与所述选取操作对应的肌肉区域的肌肉纤维建模界面;
确定模块,用于在所述肌肉纤维建模界面中确定所述肌肉区域的肌肉纤维主方向;
所述生成模块还用于基于所述肌肉纤维主方向和预设算法,生成所述肌肉区域对应的肌肉纤维,得到包含肌肉纤维的所述目标角色。
8.根据权利要求7所述的人机交互的动画生成装置,其特征在于,所述确定模块还用于响应于在所述肌肉纤维建模界面中的选取操作,确定所述肌肉区域对应的第一端点和第二端点;基于所述第一端点、所述第二端点确定所述肌肉区域的肌肉纤维主方向。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4中任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的方法的步骤。
CN202310024522.4A 2023-01-09 2023-01-09 人机交互的动画生成方法、装置、计算机设备、存储介质 Active CN115908664B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310024522.4A CN115908664B (zh) 2023-01-09 2023-01-09 人机交互的动画生成方法、装置、计算机设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310024522.4A CN115908664B (zh) 2023-01-09 2023-01-09 人机交互的动画生成方法、装置、计算机设备、存储介质

Publications (2)

Publication Number Publication Date
CN115908664A CN115908664A (zh) 2023-04-04
CN115908664B true CN115908664B (zh) 2023-08-15

Family

ID=86484732

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310024522.4A Active CN115908664B (zh) 2023-01-09 2023-01-09 人机交互的动画生成方法、装置、计算机设备、存储介质

Country Status (1)

Country Link
CN (1) CN115908664B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117876549A (zh) * 2024-02-02 2024-04-12 广州一千零一动漫有限公司 基于三维角色模型和动作捕捉的动画生成方法与***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8902236B1 (en) * 2011-07-25 2014-12-02 Lucasfilm Entertainment Company Ltd. Implicit surface deformer in a defined direction
CN105894555A (zh) * 2016-03-30 2016-08-24 腾讯科技(深圳)有限公司 一种动画模型的肢体动作模拟方法和装置
CN111260764A (zh) * 2020-02-04 2020-06-09 腾讯科技(深圳)有限公司 一种制作动画的方法、装置及存储介质
CN115049768A (zh) * 2022-08-17 2022-09-13 深圳泽森软件技术有限责任公司 创建角色动画模型方法、装置、计算机设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070268293A1 (en) * 2006-05-19 2007-11-22 Erick Miller Musculo-skeletal shape skinning
US8610710B2 (en) * 2009-12-18 2013-12-17 Electronics And Telecommunications Research Institute Method for automatic rigging and shape surface transfer of 3D standard mesh model based on muscle and nurbs by using parametric control
US10140745B2 (en) * 2015-01-09 2018-11-27 Vital Mechanics Research Inc. Methods and systems for computer-based animation of musculoskeletal systems
US11282253B2 (en) * 2019-09-30 2022-03-22 Snap Inc. Matching audio to a state-space model for pseudorandom animation

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8902236B1 (en) * 2011-07-25 2014-12-02 Lucasfilm Entertainment Company Ltd. Implicit surface deformer in a defined direction
CN105894555A (zh) * 2016-03-30 2016-08-24 腾讯科技(深圳)有限公司 一种动画模型的肢体动作模拟方法和装置
CN111260764A (zh) * 2020-02-04 2020-06-09 腾讯科技(深圳)有限公司 一种制作动画的方法、装置及存储介质
CN115049768A (zh) * 2022-08-17 2022-09-13 深圳泽森软件技术有限责任公司 创建角色动画模型方法、装置、计算机设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MPEG的3D人体动画框架;关景火等;有线电视技术;第49-51页 *

Also Published As

Publication number Publication date
CN115908664A (zh) 2023-04-04

Similar Documents

Publication Publication Date Title
Wilhelms et al. Anatomically based modeling
US7307633B2 (en) Statistical dynamic collisions method and apparatus utilizing skin collision points to create a skin collision response
Jin et al. General constrained deformations based on generalized metaballs
US9892485B2 (en) System and method for mesh distance based geometry deformation
Miranda et al. Sketch express: A sketching interface for facial animation
CN115908664B (zh) 人机交互的动画生成方法、装置、计算机设备、存储介质
US8358311B1 (en) Interpolation between model poses using inverse kinematics
Alexe et al. Shape modeling by sketching using convolution surfaces
Orvalho et al. Transferring the rig and animations from a character to different face models
US20230377268A1 (en) Method and apparatus for multiple dimension image creation
US8289331B1 (en) Asymmetric animation links
WO2023077972A1 (zh) 图像数据处理方法、数字虚拟人的构建方法、装置、设备、存储介质及计算机程序产品
Li The influence of digital twins on the methods of film and television creation
Tejera et al. Space-time editing of 3d video sequences
Huang et al. Detail-preserving controllable deformation from sparse examples
CN115023742A (zh) 具有详细褶皱的面部网格变形
Thalmann et al. The Making of the Xian terra-cotta Soldiers
Han et al. Customizing blendshapes to capture facial details
US8890889B1 (en) System and method for generating a pose of an object
US8077183B1 (en) Stepmode animation visualization
US8704828B1 (en) Inverse kinematic melting for posing models
McDonnell et al. Virtual clay: Haptics-based deformable solids of arbitrary topology
KR100636381B1 (ko) 인간과 유사한 신체 반응을 가지도록 하기 위한 캐릭터애니메이션 시스템 및 그 방법
CN117557699B (zh) 动画数据生成方法、装置、计算机设备和存储介质
Zhao Research on virtual human animation based on motion capture data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: C2C, Building C2, TCL science park, No. 1001, Zhongshan Garden Road, Shuguang Community, Xili Street, Nanshan District, Shenzhen, Guangdong 518051

Applicant after: Shenzhen Zesen Software Technology Co.,Ltd.

Address before: 518051 Room 506, Building 10, Shenzhen Bay Science and Technology Ecological Park, No. 10, Gaoxin South 9th Road, Gaoxin District Community, Yuehai Street, Nanshan District, Shenzhen, Guangdong Province

Applicant before: Shenzhen Zesen Software Technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant