CN112827162A - 一种三维演示动画交互式体验方法及装置 - Google Patents

一种三维演示动画交互式体验方法及装置 Download PDF

Info

Publication number
CN112827162A
CN112827162A CN202011439619.4A CN202011439619A CN112827162A CN 112827162 A CN112827162 A CN 112827162A CN 202011439619 A CN202011439619 A CN 202011439619A CN 112827162 A CN112827162 A CN 112827162A
Authority
CN
China
Prior art keywords
user
virtual character
hand
dimensional animation
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202011439619.4A
Other languages
English (en)
Inventor
桑亚杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yantai Nanshan University
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202011439619.4A priority Critical patent/CN112827162A/zh
Publication of CN112827162A publication Critical patent/CN112827162A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/216Input arrangements for video game devices characterised by their sensors, purposes or types using geographical information, e.g. location of the game device or player using GPS
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及三维动画交互技术领域。公开了一种三维演示动画交互式体验方法及装置,方法包括获取现实场景中的用户的位置信息,并根据所述用户的位置信息在三维动画场景中同步虚拟角色的位置信息;识别所述用户的身体动作,并根据所述用户的身体动作同步所述三维动画场景中的所述虚拟角色的身体动作;若所述用户的位置发生移动,控制所述三维动画场景中的所述虚拟角色的位置随所述用户的位置同步移动;获取所述用户的手部位置信息,并在所述三维动画场景中同步所述虚拟角色的手部位置信息。本发明可以提升用户的交互体验,并能够进一步促进三维动画技术在交互式游戏中的发展。

Description

一种三维演示动画交互式体验方法及装置
技术领域
本发明涉及三维动画交互技术领域,更具体而言,涉及一种三维演示动画交互式体验方法及装置。
背景技术
随着计算机技术的不断发展与进步,三维动画技术开始逐渐应用于游戏行业,促进了VR游戏行业的繁荣与发展,而目前用户在VR游戏的体验中,仍然需要使用三维动画场景中预设的GUI(图形用户界面)或NUI(自然用户界面)来进行交互,尤其是在动作类VR游戏中,用户的动作切换、技能释放等需要依靠GUI或NUI完成,从而破坏了VR游戏的代入感;同时这种三维动画交互方式也严重影响用户在进行VR游戏时的体验,限制了VR游戏行业的进一步发展。
发明内容
本发明申请的一种三维演示动画交互式体验方法及装置旨在解决上述提到的问题。
为了实现上述目的,本发明提供了一种三维演示动画交互式体验方法,包括:
获取现实场景中的用户的位置信息,并根据所述用户的位置信息在三维动画场景中同步虚拟角色的位置信息;
识别所述用户的身体动作,并根据所述用户的身体动作同步所述三维动画场景中的所述虚拟角色的身体动作;
若所述用户的位置发生移动,控制所述三维动画场景中的所述虚拟角色的位置随所述用户的位置同步移动;
获取所述用户的手部位置信息,并在所述三维动画场景中同步所述虚拟角色的手部位置信息;
识别所述用户的手部手势动作,并根据所述手势动作对所述虚拟角色的手部进行技能或武器的匹配;
若所述用户的手部位置发生移动,则根据所述用户的手部移动速度判断战斗交互状态并使虚拟角色与目标虚拟角色进行交互;
若判断为战斗交互状态,识别所述用户的面部表情,并根据所述用户的面部表情调整所述虚拟角色的战斗参数。
作为本发明的一种优选方案,所述识别所述用户的身体动作,并根据所述用户的身体动作同步所述三维动画场景中的所述虚拟角色的身体动作,具体包括:采集所述用户的躯干及四肢构成的图形,并和预设身体动作图形集进行匹配;根据匹配结果向所述三维动画场景中的所述虚拟角色发送对应身体指令,从而使所述虚拟角色执行所述对应身体指令对应的身体动作。
作为本发明的另一种优选方案,所述识别用户面部表情,具体包括:识别用户的眼部表情和嘴部表情,根据所述眼部表情和所述嘴部表情在面部表情图形集中进行匹配;根据匹配结果向所述三维动画场景中的所述虚拟角色发送表情指令,从而使所述虚拟角色执行所述表情指令对应的面部表情,根据所述表情指令调整所述虚拟角色的战斗参数。
作为本发明的又一种优选方案,所述识别所述用户的手部手势动作,并根据所述手势动作对所述虚拟角色的手部进行技能或武器的匹配,具体还包括:采集所述用户的手掌和手指构成的图形,并和预设手势动作图形集进行匹配;根据匹配结果向所述虚拟角色发送手势指令,从而使所述虚拟角色的手部执行所述手势指令对应的技能动作或持有所述手势指令对应的武器。
作为本发明的又一种优选方案,所述若所述用户的手部位置发生移动,根据所述用户的手部移动速度判断战斗交互状态并与目标虚拟角色进行交互,具体包括:判断所述用户的手部位置的移动速度是否超过阈值,当所述移动速度未超过阈值时,判定为处于非战斗状态,此时所述虚拟角色和所述目标虚拟角色进行非战斗交互;当所述移动速度超过阈值时,判定为处于战斗状态,此时所述虚拟角色和所述目标虚拟角色进行战斗交互。
作为上述优选方案的改进,所述当所述移动速度超过阈值时,判定为处于战斗状态,此时所述虚拟角色和所述目标虚拟角色进行战斗交互,具体还包括:根据所述用户的手部手势动作,在所述三维动画场景中生成对应的技能特效。
本发明还提供了一种三维演示动画交互式体验装置,包括:
第一位置获取模块,用于获取现实场景中的用户的位置信息;
第一识别模块,用于识别所述用户的身体动作;
第一控制模块,用于根据所述用户的位置信息在所述三维动画场景中同步所述虚拟角色的位置信息,并根据所述用户的身体动作同步所述三维动画场景中的所述虚拟角色的身体动作,同时获取所述用户的位置移动信息,并控制所述三维动画场景中的所述虚拟角色的位置随所述用户的位置同步移动;
第二位置获取模块,用于获取所述用户的手部位置信息;
第二识别模块,用于识别所述用户的手部手势动作;
速度判断模块,用户获取所述用户的手部移动速度,并根据所述手部移动速度判断所述虚拟角色的交互状态;
第三识别模块,用于若判断为战斗交互状态,识别所述用户的面部表情;
第二控制模块,用于根据所述用户的手部位置信息在所述三维动画场景中同步所述虚拟角色的手部位置信息,并根据所述用户的手部手势动作对所述虚拟角色的手部进行技能或武器的匹配,同时根据所述用户的面部表情调整所述虚拟角色的战斗攻击力参数;
显示模块,用于接收所述第一控制模块和所述第二控制模块发送的显示参数,并显示三维动画场景。
作为本发明的改进,本装置还包括储存模块,所述储存模块内部设置有身体动作图形集单元、面部表情图形集单元、手势动作图形集单元以及指令集单元,所述身体动作图形集单元中储存有身体动作图形,所述面部表情图形集单元中储存有面部表情图形,所述手势动作图形集单元中储存有手势动作图形,所述指令集单元中储存有和所述身体动作图形、所述面部表情图形以及所述手势动作图形对应的指令编码。
作为本发明的进一步改进,所述第一识别模块、所述第二识别模块和所述第三识别模块均包括:采集单元,用于采集身体动作、手势动作或面部表情;匹配单元,用于根据所述采集单元采集的信息在所述储存模块中进行图形匹配;指令单元,用于根据所述匹配单元的匹配结果向所述第一控制模块或所述第二控制模块发送匹配的指令编码。
作为本发明的更进一步改进,所述技能展示模块,用于根据所述第二识别模块识别的用户手部手势动作,在所述三维动画场景中生成对应的技能特效,并在所述三维动画场景中进行展示。
与现有技术相比,本发明的有益效果在于:
本发明在用户进行三维动画交互体验时,可以通过手部手势动作来进行技能或武器的切换,而无需再通过GUI或者NUI来完成,因此可以在体验的时候代入感更完美;同时,通过手部移动速度来进行交互状态的判定,从而可以更真实的模拟人类的格斗动作,可以使三维动画交互时更真实、更贴近真人实战,因此可以提升用户的交互体验,并能够进一步促进三维动画技术在交互式游戏中的发展。
附图说明
图1是本发明的一种三维演示动画交互式体验方法的流程图;
图2是本发明的另一种三维演示动画交互式体验方法的流程图;
图3是本发明的一种三维演示动画交互式体验装置的结构示意图;
图4是图3中的储存模块的结构示意图。
其中,图1至图4中附图标记与部件名称之间的对应关系为:
201、第一位置获取模块;202、第一识别模块;203、第一控制模块;204、第二识别模块;205、第三识别模块;206、第二位置获取模块;207、第二控制模块;208、速度判断模块;209、技能展示模块;210、储存模块;2101、身体动作图形集单元;2102、面部表情图形集单元;2103、手势动作图形集单元;2104、指令集单元;211、显示模块。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互结合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
下面参照附图1至图4的描述本发明的一些实施例。
如图1所示的一种三维演示动画交互式体验方法,包括
步骤101,获取现实场景中的用户的位置信息,并根据用户的位置信息在三维动画场景中同步虚拟角色的位置信息。
具体地,现实场景可以指用户进行交互体验的空间,用户的位置以交互体验空间的中心为坐标原点,以用户的躯干几何中心作为用户位置的坐标参考点;在三维动画场景中以虚拟角色的位置作为三维动画场景的坐标原点,以虚拟角色的躯干几何中心作为虚拟角色位置的坐标参考点。
步骤102,识别用户的身体动作,并根据用户的身体动作同步三维动画场景中的虚拟角色的身体动作。
具体地,在识别用户的身体动作时,首先包括采集用户的躯干及四肢构成的图形,并和预设身体动作图形集进行匹配,其中,预设身体动作图形集储存在预先设定的储存模块中;
其次包括根据匹配结果向三维动画场景中的虚拟角色发送对应的身体指令,从而使虚拟角色执行该身体指令对应的身体动作,其中,身体指令可以由虚拟角色的身体的***轮廓的坐标值组成,根据此身体指令可以使虚拟角色的身体***轮廓依照坐标值完成和用户相应的身体动作。
步骤103,若用户的位置发生移动,控制三维动画场景中的虚拟角色的位置随用户的位置同步移动。
具体地,虚拟角色的位置可以实时随用户在现实场景中的位置的移动而移动,比如,用户的位置在第一时刻时的坐标为(1,1,1),在第二时刻时的坐标为(1,2,1),在第三时刻时的坐标为(3,5,1)……第五十时刻的坐标为(100,200,1),则虚拟角色的会实时根据用户的位置从第一时刻时的坐标(1,1,1),依次经坐标(1,2,1)、(3,5,1)……移动至第五十时刻的坐标(100,200,1),从而使虚拟角色保持和用户同样的运动轨迹。
步骤104,获取用户的手部位置信息,并在三维动画场景中同步虚拟角色的手部位置信息;
具体地,用户的手部位置信息以手部位置坐标和用户的位置坐标的相对值作为参数,比如,在第一时刻用户的位置坐标为(1,1,1),而此时的手部位置坐标为(2,6,6),则此时的用户的手部位置信息为(1,4,4),在第二时刻用户的位置坐标为(1,2,1),而此时的手部位置坐标为(3,4,6),则此时的用户的手部位置信息为(2,2,5),在此过程中,虚拟角色的手部位置信息则会保持和(1,4,4)、(2,2,5)保持一致,从而使虚拟角色的手部位移和用户的手部位移保持一致。
步骤105,识别用户的手部手势动作,并根据手势动作对虚拟角色的手部进行技能或武器的匹配;
具体地,在识别用户的手部手势动作时,首先需要采集用户的手掌和手指构成的图形,并和预设手势动作图形集进行匹配;其中,预设手势动作图形集储存在预先设定的储存模块中。
其次需要根据匹配结果向虚拟角色发送手势指令,从而使虚拟角色的手部执行手势指令对应的技能动作或持有手势指令对应的武器。具体地,当用户的手部手势动作在预设手势动作图形集中匹配到相应图形后,会根据该图形对应的手势指令来控制虚拟角色的手部手势动作。需要说明的是,手势指令可以对应为控制虚拟角色执行和用户的手势动作相对应的技能动作,还可以对应为控制虚拟角色执行拿取和用户手势动作相对应的武器。
步骤106,若用户的手部位置发生移动,则根据用户的手部移动速度判断交互状态并使虚拟角色与目标虚拟角色进行交互;
具体地,根据用户的手部位置信息的变化来认定用户的手部位置是否发生移动,当发生移动时,根据在固定时间内用户手部位置信息的变化量来判定用户的手部移动速度,当手部移动速度超过阈值时,则判断为战斗状态,而当手部移动速度未超过阈值时,则判断为非战斗状态;同时在虚拟角色与目标虚拟角色进行交互时,根据虚拟角色的外形轮廓的坐标以及目标虚拟角色的外形轮廓的坐标是否重合,来进行交互,比如,当坐标出现重合时,则说明虚拟角色和目标虚拟角色发生接触,此时即可以进行相应的接触交互,而在进行接触交互时,如判断为战斗状态,则接触交互时则为战斗交互,此时需要对目标虚拟角色的生命值进行相应调低,同时使目标虚拟角色执行受击打动作。
步骤107,若判断为战斗交互状态,识别用户的面部表情,并根据用户的面部表情调整虚拟角色的战斗参数。
具体地,在识别用户的面部表情时,首先包括识别用户的眼部表情和嘴部表情,根据用户的眼部表情和嘴部表情和预设面部表情图形集进行匹配;需要说明的是,在进行匹配时主要针对用户的眉毛的皱眉状态以及嘴部张合状态进行匹配。
其次包括根据匹配结果向三维动画场景中的虚拟角色发送表情指令,从而使虚拟角色执行该表情指令对应的面部表情,之后根据该表情指令对虚拟角色的战斗参数进行调整。
具体地,在进行战斗参数的调整时,要根据匹配到的表情对应的加成比例进行计算新的战斗参数。其中战斗参数包括攻击力参数、防御力参数以及攻击距离等参数。
在一种具体的实施例中,如图2所示,本实施例中的一种三维演示动画交互式体验方法,还包括:
步骤108,根据用户的手部手势动作,在三维动画场景中生成对应的技能特效。
具体地,根据步骤105中的用户的手势动作,使三维动画场景中的虚拟角色的按照对应的手势指令执行手部手势动作的同时,还会根据步骤107中判断的交互状态来确定对应的技能特效。需要说明的是,技能特效已预先设定,并且每个技能特效都对应一组指令编码,根据用户不同的手势动作以及手势速度是否超过阈值,均可以对应一组指令编码,根据该指令编码可以调取对应的技能特效并予以展示。
如图3所示的一种三维演示动画交互式体验装置,包括:
第一位置获取模块201,用于获取现实场景中的用户的位置信息;
第一识别模块202,用于识别用户的身体动作;
第一控制模块203,用于根据用户的位置信息在三维动画场景中同步虚拟角色的位置信息,并根据用户的身体动作同步三维动画场景中的虚拟角色的身体动作,同时获取用户的位置移动信息,并控制三维动画场景中的虚拟角色的位置随用户的位置同步移动;
第二位置获取模块206,用于获取用户的手部位置信息;
第二识别模块204,用于识别用户的手部手势动作;
速度判断模块208,用户获取用户的手部移动速度,并根据手部移动速度判断虚拟角色的交互状态;
第三识别模块205,用于若判断为战斗交互状态,识别用户的面部表情;
第二控制模块207,用于根据用户的手部位置信息在三维动画场景中同步虚拟角色的手部位置信息,并根据用户的手部手势动作对虚拟角色的手部进行技能或武器的匹配,同时根据用户的面部表情调整虚拟角色的战斗攻击力参数。同时速度判断模块208判断出的交互状态也会发送给第二控制模块207。
第一控制模块203和第二控制模块207根据各模块发送的信息进行集合处理,然后将信息参数发送至显示模块211,以在显示模块211中显示处理后的三维场景。
具体地,本装置还包括储存模块210,如图4所示,储存模块210内部设置有身体动作图形集单元2101、面部表情图形集单元2102、手势动作图形集单元2103以及指令集单元2104,身体动作图形集单元2101中储存有身体动作图形,面部表情图形集单元2102中储存有面部表情图形,手势动作图形集单元2103中储存有手势动作图形,指令集单元2104中储存有和身体动作图形、面部表情图形以及手势动作图形对应的指令编码。
需要说明的是,第一识别模块202、第二识别模块204和第三识别模块205均包括:
采集单元,用于采集身体动作、手势动作或面部表情;
匹配单元,用于根据采集单元采集的信息在储存模块210中进行图形匹配;
指令单元,用于根据匹配单元的匹配结果向第一控制模块203或第二控制模块207发送匹配的指令编码。
具体地,本装置还包括技能展示模块209,技能展示模块209用于根据第二识别模块204识别的用户手部手势动作,在三维动画场景中生成对应的技能特效,并在三维动画场景中进行展示。
在本发明中,术语“第一”、“第二”、“第三”仅用于描述的目的,而不能理解为指示或暗示相对重要性;术语“安装”、“相连”、“连接”、“固定”等术语均应做广义理解,例如,“连接”可以是固定连接,也可以是可拆卸连接,或一体地连接;“相连”可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
在本发明中,术语“上部”、“下部”、“左”、“右”、“中”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。

Claims (10)

1.一种三维演示动画交互式体验方法,其特征在于,包括:
获取现实场景中的用户的位置信息,并根据所述用户的位置信息在三维动画场景中同步虚拟角色的位置信息;
识别所述用户的身体动作,并根据所述用户的身体动作同步所述三维动画场景中的所述虚拟角色的身体动作;
若所述用户的位置发生移动,控制所述三维动画场景中的所述虚拟角色的位置随所述用户的位置同步移动;
获取所述用户的手部位置信息,并在所述三维动画场景中同步所述虚拟角色的手部位置信息;
识别所述用户的手部手势动作,并根据所述手势动作对所述虚拟角色的手部进行技能或武器的匹配;
若所述用户的手部位置发生移动,则根据所述用户的手部移动速度判断交互状态并使虚拟角色与目标虚拟角色进行交互;
若判断为战斗交互状态,识别所述用户的面部表情,并根据所述用户的面部表情调整所述虚拟角色的战斗参数。
2.根据权利要求1所述的一种三维演示动画交互式体验方法,其特征在于,所述识别所述用户的身体动作,并根据所述用户的身体动作同步所述三维动画场景中的所述虚拟角色的身体动作,具体包括:
采集所述用户的躯干及四肢构成的图形,并和预设身体动作图形集进行匹配;
根据匹配结果向所述三维动画场景中的所述虚拟角色发送对应身体指令,从而使所述虚拟角色执行所述对应身体指令对应的身体动作。
3.根据权利要求1所述的一种三维演示动画交互式体验方法,其特征在于,所述识别用户面部表情,具体包括:
识别用户的眼部表情和嘴部表情,根据所述眼部表情和所述嘴部表情在面部表情图形集中进行匹配;
根据匹配结果向所述三维动画场景中的所述虚拟角色发送表情指令,从而使所述虚拟角色执行所述表情指令对应的面部表情,
根据所述表情指令调整所述虚拟角色的战斗参数。
4.根据权利要求1所述的一种三维演示动画交互式体验方法,其特征在于,所述识别所述用户的手部手势动作,并根据所述手势动作对所述虚拟角色的手部进行技能或武器的匹配,具体还包括:
采集所述用户的手掌和手指构成的图形,并和预设手势动作图形集进行匹配;
根据匹配结果向所述虚拟角色发送手势指令,从而使所述虚拟角色的手部执行所述手势指令对应的技能动作或持有所述手势指令对应的武器。
5.根据权利要求1所述的一种三维演示动画交互式体验方法,其特征在于,所述若所述用户的手部位置发生移动,根据所述用户的手部移动速度判断战斗交互状态并与目标虚拟角色进行交互,具体包括:
判断所述用户的手部位置的移动速度是否超过阈值,当所述移动速度未超过阈值时,判定为处于非战斗状态,此时所述虚拟角色和所述目标虚拟角色进行非战斗交互;当所述移动速度超过阈值时,判定为处于战斗状态,此时所述虚拟角色和所述目标虚拟角色进行战斗交互。
6.根据权利要求5所述的一种三维演示动画交互式体验方法,其特征在于,所述当所述移动速度超过阈值时,判定为处于战斗状态,此时所述虚拟角色和所述目标虚拟角色进行战斗交互,具体还包括:
根据所述用户的手部手势动作,在所述三维动画场景中生成对应的技能特效。
7.一种三维演示动画交互式体验装置,其特征在于,包括
第一位置获取模块,用于获取现实场景中的用户的位置信息;
第一识别模块,用于识别所述用户的身体动作;
第一控制模块,用于根据所述用户的位置信息在所述三维动画场景中同步所述虚拟角色的位置信息,并根据所述用户的身体动作同步所述三维动画场景中的所述虚拟角色的身体动作,同时获取所述用户的位置移动信息,并控制所述三维动画场景中的所述虚拟角色的位置随所述用户的位置同步移动;
第二位置获取模块,用于获取所述用户的手部位置信息;
第二识别模块,用于识别所述用户的手部手势动作;
速度判断模块,用户获取所述用户的手部移动速度,并根据所述手部移动速度判断所述虚拟角色的交互状态;
第三识别模块,用于若判断为战斗交互状态,识别所述用户的面部表情;
第二控制模块,用于根据所述用户的手部位置信息在所述三维动画场景中同步所述虚拟角色的手部位置信息,并根据所述用户的手部手势动作对所述虚拟角色的手部进行技能或武器的匹配,同时根据所述用户的面部表情调整所述虚拟角色的战斗攻击力参数;
显示模块,用于接收所述第一控制模块和所述第二控制模块发送的显示参数,并显示三维动画场景。
8.根据权利要求7所述的一种三维演示动画交互式体验装置,其特征在于,还包括储存模块,所述储存模块内部设置有身体动作图形集单元、面部表情图形集单元、手势动作图形集单元以及指令集单元,所述身体动作图形集单元中储存有身体动作图形,所述面部表情图形集单元中储存有面部表情图形,所述手势动作图形集单元中储存有手势动作图形,所述指令集单元中储存有和所述身体动作图形、所述面部表情图形以及所述手势动作图形对应的指令编码。
9.根据权利要求8所述的一种三维演示动画交互式体验装置,其特征在于,所述第一识别模块、所述第二识别模块和所述第三识别模块均包括:
采集单元,用于采集身体动作、手势动作或面部表情;
匹配单元,用于根据所述采集单元采集的信息在所述储存模块中进行图形匹配;
指令单元,用于根据所述匹配单元的匹配结果向所述第一控制模块或所述第二控制模块发送匹配的指令编码。
10.根据权利要求7所述的一种三维演示动画交互式体验装置,其特征在于,还包括技能展示模块,所述技能展示模块用于根据所述第二识别模块识别的用户手部手势动作,在所述三维动画场景中生成对应的技能特效,并在所述三维动画场景中进行展示。
CN202011439619.4A 2020-12-10 2020-12-10 一种三维演示动画交互式体验方法及装置 Withdrawn CN112827162A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011439619.4A CN112827162A (zh) 2020-12-10 2020-12-10 一种三维演示动画交互式体验方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011439619.4A CN112827162A (zh) 2020-12-10 2020-12-10 一种三维演示动画交互式体验方法及装置

Publications (1)

Publication Number Publication Date
CN112827162A true CN112827162A (zh) 2021-05-25

Family

ID=75923505

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011439619.4A Withdrawn CN112827162A (zh) 2020-12-10 2020-12-10 一种三维演示动画交互式体验方法及装置

Country Status (1)

Country Link
CN (1) CN112827162A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114779948A (zh) * 2022-06-20 2022-07-22 广东咏声动漫股份有限公司 基于面部识别的动画人物即时交互控制方法、装置及设备
CN114900738A (zh) * 2022-06-02 2022-08-12 咪咕文化科技有限公司 一种观影互动方法、装置及计算机可读存储介质
CN115129164A (zh) * 2022-08-31 2022-09-30 江西科技学院 基于虚拟现实的交互控制方法、***及虚拟现实设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114900738A (zh) * 2022-06-02 2022-08-12 咪咕文化科技有限公司 一种观影互动方法、装置及计算机可读存储介质
CN114779948A (zh) * 2022-06-20 2022-07-22 广东咏声动漫股份有限公司 基于面部识别的动画人物即时交互控制方法、装置及设备
CN115129164A (zh) * 2022-08-31 2022-09-30 江西科技学院 基于虚拟现实的交互控制方法、***及虚拟现实设备
CN115129164B (zh) * 2022-08-31 2022-12-09 江西科技学院 基于虚拟现实的交互控制方法、***及虚拟现实设备

Similar Documents

Publication Publication Date Title
CN112827162A (zh) 一种三维演示动画交互式体验方法及装置
EP2451544B1 (en) Visual representation expression based on player expression
RU2554548C2 (ru) Воплощение визуального представления с помощью изученного ввода от пользователя
CN108983636B (zh) 人机智能共生平台***
EP2674204A1 (en) Method for controlling man-machine interaction and application thereof
CN116909407B (zh) 基于虚拟现实的触控显示屏全景交互方法及控制***
JP4848515B2 (ja) アバター動作制御システム、そのプログラム及び方法
CN112198962B (zh) 一种与虚拟现实设备交互的方法及虚拟现实设备
EP2395454A2 (en) Image generation system, shape recognition method, and information storage medium
JP2011215922A (ja) プログラム、情報記憶媒体及び画像生成システム
CN111383642B (zh) 基于神经网络的语音应答方法、存储介质以终端设备
CN107918482A (zh) 沉浸式vr***中避免过度刺激的方法与***
CN105975072A (zh) 识别手势动作的方法、装置及***
Kirakosian et al. Near-contact person-to-3d character dance training: Comparing ar and vr for interactive entertainment
Reale et al. Using eye gaze, head pose, and facial expression for personalized non-player character interaction
Spanogianopoulos et al. Human computer interaction using gestures for mobile devices and serious games: A review
CN116785683A (zh) 一种ar多人交互***、头显设备、方法和存储介质
JPH09311945A (ja) 3次元cgにおけるモデル感情表現装置
CN109917907B (zh) 一种基于卡片的动态故事板交互方法
CN111882672A (zh) 一种vr游戏中可绘制3d图形识别3d虚拟物件的方法
WO2023079847A1 (ja) 情報処理装置、情報処理方法および記憶媒体
CN118001736B (zh) 云游戏的虚拟现实交互控制方法、装置及电子设备
EP4385592A1 (en) Computer-implemented method for controlling a virtual avatar
Han et al. Simulating anthropomorphic upper body actions in virtual reality using head and hand motion data
US20230244313A1 (en) Information processing apparatus, tactile sense providing system, and program

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
TA01 Transfer of patent application right

Effective date of registration: 20210623

Address after: No.1, Nanshan Middle Road, Longkou City, Yantai City, Shandong Province

Applicant after: Yantai Nanshan University

Address before: 265700 33-1-102, area a, Nanshan city garden, Longkou City, Yantai City, Shandong Province

Applicant before: Sang Yajie

TA01 Transfer of patent application right
DD01 Delivery of document by public notice

Addressee: Wang Zhiming

Document name: Fee Reduction Approval Notice

DD01 Delivery of document by public notice
WW01 Invention patent application withdrawn after publication

Application publication date: 20210525

WW01 Invention patent application withdrawn after publication