CN111080756B - 一种交互动画生成方法、装置、设备及介质 - Google Patents
一种交互动画生成方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN111080756B CN111080756B CN201911318408.2A CN201911318408A CN111080756B CN 111080756 B CN111080756 B CN 111080756B CN 201911318408 A CN201911318408 A CN 201911318408A CN 111080756 B CN111080756 B CN 111080756B
- Authority
- CN
- China
- Prior art keywords
- target
- interaction
- animation
- interactive
- motion parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明实施例公开了一种交互动画生成方法、装置、设备及介质,所述方法包括:响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;根据所述交互运动参数生成所述交互目标的目标动画;根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息。本发明实施例所提供的交互动画生成方法可以根据交互行为生成相应的交互动画,实现了无需提前制作完整的动画即可实现行为交互,减少了动画制作量,提高了交互动画的展现效果。
Description
技术领域
本发明实施例涉及交互动画生成领域,尤其涉及一种交互动画生成方法、装置、设备及介质。
背景技术
随着网络技术的发展,人们对游戏中游戏画面的体验要求越来越高。例如,在游戏过程中,游戏画面是否真实会影响用户的游戏体验。
示例性的,当用户操作角色对怪物进行攻击时,需要展示怪物被攻击的动画。现有的实现方案为:直接做出怪物在各种状态下动画,使用预先制作的动画实现所有的动作。因此,在游戏制作过程中需要制作攻击者(角色)和受攻击者(怪物)对应的动作,且攻击者和被攻击者的动作要对上(完美契合),才能有比较好的效果。因此,现有技术中抓投动作制作量大,校准麻烦,工作量大。
发明内容
本发明实施例提供了一种交互动画生成方法、装置、设备及介质,以实现提高交互动画生成的灵活性,降低***维护难度。
第一方面,本发明实施例提供了一种交互动画生成方法,包括:
响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;
根据所述交互运动参数生成所述交互目标的目标动画;
根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息。
第二方面,本发明实施例还提供了一种交互动画生成装置,包括:
交互参数获取模块,用于响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;
目标动画生成模块,用于根据所述交互运动参数生成所述交互目标的目标动画;
交互动画响应模块,根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息。
第三方面,本发明实施例还提供了一种计算机设备,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任意实施例所提供的交互动画生成方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所提供的交互动画生成方法。
本发明实施例通过响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;根据所述交互运动参数生成所述交互目标的目标动画;根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息,通过可以根据交互行为生成相应的交互动画,实现了无需提前制作完整的动画即可实现行为交互,减少了动画制作量,提高了交互动画的展现效果。
附图说明
图1是本发明实施例一所提供的一种交互动画生成方法的流程图;
图2是本发明实施例二所提供的一种交互动画生成方法的流程图;
图3是本发明实施例三所提供的一种交互动画生成方法的流程图;
图4是本发明实施例四所提供的一种交互动画生成装置的结构示意图;
图5是本发明实施例五所提供的计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一所提供的一种交互动画生成方法的流程图。本实施例可适用于在根据玩家交互行为,进行交互动画生成时的情形。该方法可以由交互动画生成装置执行,该交互动画生成装置可以采用软件和/或硬件的方式实现,例如,该交互动画生成装置可配置于计算机设备中。如图1所示,所述方法包括:
S110、响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数。
在本实施例中,交互行为可以为用户通过角色执行的抓投攻击行为,即角色对怪物执行的抓投攻击行为。示例性的,用户可以确定攻击目标后,通过操作游戏终端展示出的抓投技能触发控件触发抓投攻击行为,交互动画生成装置检测到用户触发的抓投攻击行为,确定检测到的抓投攻击行为的攻击目标以及用户触发抓投攻击行为时的运动信息,并将攻击目标作为交互目标,将用户触发攻击行为时的运动信息作为交互运动参数。可选的,交互运动参数可以为用户触发攻击行为时用户所操作的角色所执行的交互动作的的运动速度及加速度。示例性的,若交互行为为抓投行为,则交互运动参数为玩家抓投的运动速度及加速度。
可以理解的是,不同行为交互情形下,交互运动参数可能不同。示例性的,当角色执行的技能顺序不同,或执行技能的时刻不同时,角色的各技能对应的运动姿势的连接方式不同,从而导致在玩家执行交互动作时的交互运动参数不同。
S120、根据所述交互运动参数生成所述交互目标的目标动画。
在本实施例中,无需预先制作交互目标(即被攻击者)的被攻击动画,只需制作交互目标的几个基础姿势,在用户触发交互行为后,根据交互运动参数将预先制作的几个基础姿势融合,即可得到交互目标与交互运动参数对应的目标动画。可选的,确定交互运动参数后,可以通过blend算法,根据交互运动参数将基础姿势融合,得到交互目标的目标动画。
可选的,基础姿势可以包括极限姿势。极限姿势可以为交互目标在遭到攻击时所能展现的极限姿势,其中极限姿势可以包括交互目标四肢的倾斜角度等信息。以抓投攻击为例,极限姿势可以包括抓取极限姿势和投掷极限姿势。抓取极限姿势为交互目标被抓取时所展示出的极限姿势,如胳膊向后倾斜60度,腿向后倾斜30度。投掷极限姿势为交互目标被投掷时所展示出的极限姿势,如胳膊向前倾斜90度,腿向后倾斜40度。当确定交互运动参数后,可以根据交互运动参数确定交互目标的目标姿势,根据极限姿势融合出交互目标的目标姿势,根据目标姿势得到交互目标的目标动画。
可选的,基础姿势还可以包括标准姿势,标准姿势可以为交互目标在未被攻击的情形下的姿势。将标准姿势和极限姿势共同作为基础姿势,可以使姿势融合的融合过程更加简单。
S130、根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息。
在本实施例中,确定交互目标的目标动画后,将目标动画与交互界面中的其他物体的动画融合,得到包含交互界面中所有物体的交互动画,将交互动画发作为交互行为的响应信息,发送至触发交互行为的游戏终端,以使游戏客户终端将交互动画进行展示。
本发明实施例通过响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;根据所述交互运动参数生成所述交互目标的目标动画;根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息,通过可以根据交互行为生成相应的交互动画,实现了无需提前制作完整的动画即可实现行为交互,减少了动画制作量,提高了交互动画的展现效果。
实施例二
图2是本发明实施例二所提供的一种交互动画生成方法的流程图。本实施例在上述实施例的基础上,对根据所述交互运动参数生成所述交互目标的目标动画进行了进一步的具体化。如图2所示,所述方法包括:
S210、响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数。
S220、根据所述交互运动参数确定所述交互目标的目标运动参数。
在本实施例中,确定角色的交互运动参数后,可以根据交互行为的行为特点计算交互目标的目标运动参数。可选的,交互运动参数可以为玩家的运动速度及加速度,目标运动参数可以为交互目标的运动速度及加速度。
示例性的,当交互行为为抓投攻击行为时,可以根据抓投攻击行为的物理特性以及角色的运动速度及加速度计算得到交互目标的运动速度及加速度,以根据交互目标的运动速度及加速度生成交互目标的目标动画。
S230、根据所述目标运动参数生成所述目标动画。
在本实施例中,根据交互目标的运动速度及加速度生成交互目标的运动动画,作为交互目标的目标动画。
在本发明的一种实施方式中,所述根据所述目标运动参数生成所述目标动画,包括:根据所述目标运动参数生成所述交互目标的肢体主体动画;根据所述目标运动参数生成所述交互目标的肢体末端动画;将所述肢体主体动画和所述肢体末端动画进行拼接,得到所述目标动画。
可选的,为了使交互目标的目标动画更加真实,如为了展现出交互目标在被抓投后的运动过程中肢体末端的轻微摆动状态,可以根据动画生成算法的特点,通过不同的动画生成算法生成交互目标的肢体主体动画和肢体末端动画,然后将肢体主体动画和肢体末端动画拼接,得到交互目标的目标动画。示例性的,可以根据blend算法将交互目标的基础姿势进行融合,得到肢体主体动画,根据动态骨骼算法模拟出肢体末端的轻微摆动动画,得到肢体末端动画。
可选的,在上述方案的基础上,所述根据所述目标运动参数生成所述交互目标的肢体主体动画,包括:根据所述目标运动参数计算所述交互目标的目标姿势参数;根据融合标识确定所述交互目标的融合区域,在所述融合区域内根据所述目标姿势参数将标准姿势和极限姿势融合,得到所述交互目标的目标姿势;根据所述目标运动参数、所述标准姿势以及所述目标姿势,得到所述肢体主体动画。
在本实施例中,可以预先将交互目标中的区域进行标注,根据标识确定交互目标各区域的融合方式。可选的,标注标识可以包括融合标识,融合标识用于指示该标识对应的肢体区域的动画通过blend算法实现。在进行动画生成时,将融合标识对应的区域作为融合区域,在融合区域内通过blend算法根据目标姿势参数将标准姿势和极限姿势融合,得到交互目标的目标姿势,然后根据目标运动参数,得到由标准姿势运动至目标姿势的运动动画,作为肢体主体动画。
可选的,在上述方案的基础上,所述目标运动参数包括所述交互目标的运动速度和所述交互目标的运动加速度,所述根据所述目标运动参数计算所述交互目标的目标姿势参数,包括:根据所述运动速度和所述运动加速度计算所述交互目标的运动幅度和目标姿势;相应的,所述在所述融合区域内根据所述目标姿势参数将标准姿势和极限姿势融合,得到所述交互目标的目标姿势,包括:根据所述运动幅度和所述目标姿势确定所述标准姿势和所述极限姿势之间的融合比例;在所述融合区域内根据所述融合比例将所述标准姿势和极限姿势融合,得到所述目标姿势。
具体的,可以基于运动规律,根据交互目标的运动速度和运动加速度计算出交互目标的运动幅度和目标姿势,作为交互目标的目标姿势参数,然后根据计算出的运动幅度和目标姿势确定标准姿势和极限姿势的融合比例,根据融合比例将标准姿势和极限姿势融合得到目标姿势。示例性的,假设根据计算出的运动幅度和目标姿势确定标准姿势的融合百分比为30%,抓取极限姿势的融合百分比为70%,则将标准姿势与极限姿势以3:7的比例进行融合,得到目标姿势。
可选的,在上述方案的基础上,所述根据所述目标运动参数生成所述交互目标的肢体末端动画,包括:根据动态骨骼标识确定所述交互目标的动态骨骼区域;基于动态骨骼算法,根据所述目标运动参数得到所述动态骨骼区域内的肢体末端动画。
可选的,标注标识还可以包括动态骨骼标识,动态骨骼标识用于指示该标识对应的肢体区域的动画通动态骨骼算法实现。在进行动画生成时,将动态骨骼标识对应的区域作为动态骨骼区域,在动态骨骼区域内通过动态骨骼算法根据交互目标的运动速度或玩家的交互速度模拟出动态骨骼区域内的肢体末端轻微摆动的肢体末端动画。
S240、根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息。
本发明实施例将根据所述交互运动参数生成所述交互目标的目标动画进行了具体化,通过根据所述交互运动参数确定所述交互目标的目标运动参数,根据所述目标运动参数生成所述目标动画,使得生成的目标动画与玩家的交互行为更加匹配,从而提高了交互动画的展示效果。
实施例三
图3是本发明实施例三所提供的一种交互动画生成方法的流程图。本实施例在上述实施例的基础上,提供了一种优选实施例。本实施例提供的交互动画生成方法可以通过交互动画生成***实现。可选的,交互动画生成***可以包括动画模块、物理状态监测模块和动态骨骼模块,其中,物理状态监测用于实时获取当前的速度和加速度,动画模块用于根据当前的速度,在多个不同的姿势之间做融合(Blend),动态骨骼模块用于根据最后各个肢体的运动做小幅摆动调整。如图3所示,所述方法包括:
S310、检测用户触发的抓投行为。
S320、根据抓投者的动作,计算被抓投者的速度和加速度。
基于物理规律,根据玩家动作,计算被抓投者的运动速度及加速度。
S330、根据被抓投者的速度和加速度计算blend的幅度以及各基础姿势的融合百分比。
S340、根据各基础姿势的百分比融合出最终的姿势。
S350、将抓取速度传输到动态骨骼模块中。
S360、动态骨骼模块根据抓取速度模拟出对应的物理效果。
S370、将动画模块的输出和动态骨骼模块的输出拼接,得到最终姿势。
本发明实施例提供的交互动画生成方法不需要预先制做完整的动画,只需通过几个基础姿势即可融合得到被抓投者的目标动画,减少了目标动画的制作量,提高了交互动画的展现效果。
实施例四
图4是本发明实施例四所提供的一种交互动画生成装置的结构示意图。该交互动画生成装置可以采用软件和/或硬件的方式实现,例如该交互动画生成装置可以配置于计算机设备中。如图4所示,所述装置包括交互参数获取模块410、目标动画生成模块420和交互动画响应模块430,其中:
交互参数获取模块410,用于响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;
目标动画生成模块420,用于根据所述交互运动参数生成所述交互目标的目标动画;
交互动画响应模块430,根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息。
本发明实施例通过交互参数获取模块响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;目标动画生成模块根据所述交互运动参数生成所述交互目标的目标动画;交互动画响应模块根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息,通过可以根据交互行为生成相应的交互动画,实现了无需提前制作完整的动画即可实现行为交互,减少了动画制作量,提高了交互动画的展现效果。
可选的,在上述方案的基础上,所述目标动画生成模块420具体用于:
根据所述交互运动参数确定所述交互目标的目标运动参数;
根据所述目标运动参数生成所述目标动画。
可选的,在上述方案的基础上,所述目标动画生成模块420具体用于:
根据所述目标运动参数生成所述交互目标的肢体主体动画;
根据所述目标运动参数生成所述交互目标的肢体末端动画;
将所述肢体主体动画和所述肢体末端动画进行拼接,得到所述目标动画。
可选的,在上述方案的基础上,所述目标动画生成模块420具体用于:
根据所述目标运动参数计算所述交互目标的目标姿势参数;
根据融合标识确定所述交互目标的融合区域,在所述融合区域内根据所述目标姿势参数将标准姿势和极限姿势融合,得到所述交互目标的目标姿势;
根据所述目标运动参数、所述标准姿势以及所述目标姿势,得到所述肢体主体动画。
可选的,在上述方案的基础上,所述目标运动参数包括所述交互目标的运动速度和所述交互目标的运动加速度,所述目标动画生成模块420具体用于:
根据所述运动速度和所述运动加速度计算所述交互目标的运动幅度和目标姿势;
根据所述运动幅度和所述目标姿势确定所述标准姿势和所述极限姿势之间的融合比例;
在所述融合区域内根据所述融合比例将所述标准姿势和极限姿势融合,得到所述目标姿势。
可选的,在上述方案的基础上,所述目标动画生成模块420具体用于:
根据动态骨骼标识确定所述交互目标的动态骨骼区域;
基于动态骨骼算法,根据所述目标运动参数得到所述动态骨骼区域内的肢体末端动画。
可选的,在上述方案的基础上,所述交互行为为抓投攻击行为。
本发明实施例所提供的交互动画生成装置可执行任意实施例所提供的交互动画生成方法,具备执行方法相应的功能模块和有益效果。
实施例五
图5是本发明实施例五所提供的计算机设备的结构示意图。图5示出了适于用来实现本发明实施方式的示例性计算机设备512的框图。图5显示的计算机设备512仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,计算机设备512以通用计算设备的形式表现。计算机设备512的组件可以包括但不限于:一个或者多个处理器516,***存储器528,连接不同***组件(包括***存储器528和处理器516)的总线518。
总线518表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器516或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
计算机设备512典型地包括多种计算机***可读介质。这些介质可以是任何能够被计算机设备512访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
***存储器528可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)530和/或高速缓存存储器532。计算机设备512可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储装置534可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线518相连。存储器528可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块542的程序/实用工具540,可以存储在例如存储器528中,这样的程序模块542包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块542通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备512也可以与一个或多个外部设备514(例如键盘、指向设备、显示器524等)通信,还可与一个或者多个使得用户能与该计算机设备512交互的设备通信,和/或与使得该计算机设备512能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口522进行。并且,计算机设备512还可以通过网络适配器520与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器520通过总线518与计算机设备512的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备512使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理器516通过运行存储在***存储器528中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的交互动画生成方法,该方法包括:
响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;
根据所述交互运动参数生成所述交互目标的目标动画;
根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息。
当然,本领域技术人员可以理解,处理器还可以实现本发明任意实施例所提供的交互动画生成方法的技术方案。
实施例六
本发明实施例六还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的交互动画生成方法,该方法包括:
响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数;
根据所述交互运动参数生成所述交互目标的目标动画;
根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息。
当然,本发明实施例所提供的一种计算机可读存储介质,其上存储的计算机程序不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的交互动画生成方法中的相关操作。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (7)
1.一种交互动画生成方法,其特征在于,包括:
响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数,其中,所述交互目标为攻击目标;
根据所述交互运动参数确定所述交互目标的目标运动参数,其中,所述目标运动参数包括所述交互目标的运动速度和所述交互目标的运动加速度;
根据所述目标运动参数生成所述交互目标的目标动画,其中,所述交互目标的目标动画通过所述交互运动参数将预先制作的多个基础姿势融合得到,所述基础姿势包括标准姿势和极限姿势;
根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息;
其中,所述根据所述目标运动参数生成所述目标动画,包括:
根据所述运动速度和所述运动加速度计算所述交互目标的目标姿势参数;
根据融合标识确定所述交互目标的融合区域;根据所述目标姿势参数确定所述标准姿势和所述极限姿势之间的融合比例;
在所述融合区域内根据所述融合比例将所述标准姿势和极限姿势融合,得到所述目标姿势;
根据所述目标运动参数、所述标准姿势以及所述目标姿势,得到所述肢体主体动画。
2.根据权利要求1所述的方法,其特征在于,所述根据所述目标运动参数生成所述目标动画,包括:
根据所述目标运动参数生成所述交互目标的肢体末端动画;
将所述肢体主体动画和所述肢体末端动画进行拼接,得到所述目标动画。
3.根据权利要求2所述的方法,其特征在于,所述根据所述目标运动参数生成所述交互目标的肢体末端动画,包括:
根据动态骨骼标识确定所述交互目标的动态骨骼区域;
基于动态骨骼算法,根据所述目标运动参数得到所述动态骨骼区域内的肢体末端动画。
4.根据权利要求1-3任一项所述的方法,其特征在于,所述交互行为为抓投攻击行为。
5.一种交互动画生成装置,其特征在于,包括:
交互参数获取模块,用于响应于检测到的交互行为,获取所述交互行为对应的交互目标及交互运动参数,其中,所述交互目标为攻击目标;
目标动画生成模块,用于根据所述交互运动参数确定所述交互目标的目标运动参数,其中,所述目标运动参数包括所述交互目标的运动速度和所述交互目标的运动加速度;根据所述目标运动参数生成所述交互目标的目标动画,其中,所述交互目标的目标动画通过所述交互运动参数将预先制作的多个基础姿势融合得到,所述基础姿势包括标准姿势和极限姿势;
交互动画响应模块,根据所述目标动画生成交互动画,将所述交互动画作为所述交互行为的响应信息;
其中,所述目标动画生成模块,具体用于:
根据所述运动速度和所述运动加速度计算所述交互目标的目标姿势参数;
根据融合标识确定所述交互目标的融合区域;根据所述目标姿势参数确定所述标准姿势和所述极限姿势之间的融合比例;
在所述融合区域内根据所述融合比例将所述标准姿势和极限姿势融合,得到所述目标姿势;
根据所述目标运动参数、所述标准姿势以及所述目标姿势,得到所述肢体主体动画。
6.一种计算机设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-4中任一所述的交互动画生成方法。
7.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-4中任一所述的交互动画生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911318408.2A CN111080756B (zh) | 2019-12-19 | 2019-12-19 | 一种交互动画生成方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911318408.2A CN111080756B (zh) | 2019-12-19 | 2019-12-19 | 一种交互动画生成方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111080756A CN111080756A (zh) | 2020-04-28 |
CN111080756B true CN111080756B (zh) | 2023-09-08 |
Family
ID=70315848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911318408.2A Active CN111080756B (zh) | 2019-12-19 | 2019-12-19 | 一种交互动画生成方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111080756B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111710314B (zh) * | 2020-06-23 | 2022-08-26 | 深圳创维-Rgb电子有限公司 | 一种显示画面的调整方法、智能终端及可读存储介质 |
CN117708373B (zh) * | 2024-02-06 | 2024-04-05 | 成都数之联科技股份有限公司 | 一种动画交互方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010027015A1 (ja) * | 2008-09-05 | 2010-03-11 | 国立大学法人東京大学 | モーションキャプチャ装置 |
CN104252712A (zh) * | 2013-06-27 | 2014-12-31 | 卡西欧计算机株式会社 | 图像生成装置及图像生成方法 |
CN107908281A (zh) * | 2017-11-06 | 2018-04-13 | 北京小米移动软件有限公司 | 虚拟现实交互方法、装置及计算机可读存储介质 |
-
2019
- 2019-12-19 CN CN201911318408.2A patent/CN111080756B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2010027015A1 (ja) * | 2008-09-05 | 2010-03-11 | 国立大学法人東京大学 | モーションキャプチャ装置 |
CN104252712A (zh) * | 2013-06-27 | 2014-12-31 | 卡西欧计算机株式会社 | 图像生成装置及图像生成方法 |
CN107908281A (zh) * | 2017-11-06 | 2018-04-13 | 北京小米移动软件有限公司 | 虚拟现实交互方法、装置及计算机可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111080756A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10282882B2 (en) | Augmented reality simulation continuum | |
US20130010071A1 (en) | Methods and systems for mapping pointing device on depth map | |
US9824478B2 (en) | Dynamic remapping of components of a virtual skeleton | |
CN102135798A (zh) | 仿生学运动 | |
US11146661B2 (en) | Systems and methods for detecting collaborative virtual gestures | |
CN111080756B (zh) | 一种交互动画生成方法、装置、设备及介质 | |
US20150378440A1 (en) | Dynamically Directing Interpretation of Input Data Based on Contextual Information | |
US9021369B2 (en) | User matching in a virtual environment | |
CN111880877A (zh) | 一种动画切换方法、装置、设备及存储介质 | |
CN108854064B (zh) | 交互控制方法、装置、计算机可读介质及电子设备 | |
CN111045777B (zh) | 一种渲染方法、装置、存储介质及电子设备 | |
US20190302255A1 (en) | Accessibility of Virtual Environments Via Echolocation | |
JP6596919B2 (ja) | 計算実行方法、計算処理システム及びプログラム | |
CN109603154A (zh) | 游戏界面测试方法、客户端、托管服务器及*** | |
CN110992453B (zh) | 场景物件的显示方法、装置、电子设备和存储介质 | |
WO2023116562A1 (zh) | 图像展示方法、装置、电子设备及存储介质 | |
WO2023066005A1 (zh) | 虚拟场景的构建方法、装置、电子设备、介质和产品 | |
CN112473138B (zh) | 游戏的显示控制方法及装置、可读存储介质、电子设备 | |
US10976805B2 (en) | Controlling the provision of a warning in a virtual environment using a virtual reality system | |
CN109726026B (zh) | 一种交互数据处理方法、装置、设备及存储介质 | |
CN113318441A (zh) | 游戏场景的显示控制方法及装置、电子设备、存储介质 | |
US20230154126A1 (en) | Creating a virtual object response to a user input | |
CN111494955A (zh) | 基于游戏的角色互动方法、装置、服务器及介质 | |
CN107050848B (zh) | 基于体域网的体感游戏实现方法以及装置 | |
CN111027348A (zh) | 抽奖方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |