CN112451967A - 基于3d屏幕交互的游戏交互方法、装置和计算机设备 - Google Patents

基于3d屏幕交互的游戏交互方法、装置和计算机设备 Download PDF

Info

Publication number
CN112451967A
CN112451967A CN202011464233.9A CN202011464233A CN112451967A CN 112451967 A CN112451967 A CN 112451967A CN 202011464233 A CN202011464233 A CN 202011464233A CN 112451967 A CN112451967 A CN 112451967A
Authority
CN
China
Prior art keywords
ray
handle
game
interactive object
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011464233.9A
Other languages
English (en)
Inventor
夏露辉
许秋子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huaibei Ruilishi Intelligent Technology Co ltd
Shenzhen Realis Multimedia Technology Co Ltd
Original Assignee
Huaibei Ruilishi Intelligent Technology Co ltd
Shenzhen Realis Multimedia Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huaibei Ruilishi Intelligent Technology Co ltd, Shenzhen Realis Multimedia Technology Co Ltd filed Critical Huaibei Ruilishi Intelligent Technology Co ltd
Priority to CN202011464233.9A priority Critical patent/CN112451967A/zh
Publication of CN112451967A publication Critical patent/CN112451967A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • A63F13/533Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game for prompting the player, e.g. by displaying a game menu
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及一种基于3D屏幕交互的游戏交互方法、装置、计算机设备和存储介质,所述方法包括:创建游戏角色和以及虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给虚拟游戏手柄;添加射线通道,在射线通道上生成可交互物体;生成虚拟游戏手柄的射线,添加虚拟游戏手柄的箭头组件;若通过射线检测到射线通道上的可交互物体,记录每帧射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当用户触发无线手柄中的按键时,调用点击按钮函数。上述方法能够满足3D游戏项目的信息交互的需求。

Description

基于3D屏幕交互的游戏交互方法、装置和计算机设备
技术领域
本发明涉及游戏交互技术领域,特别是涉及一种基于3D屏幕交互的游戏交互方法、装置、计算机设备和存储介质。
背景技术
UE4是美国Epic游戏公司研发的一款3A级次时代游戏引擎,渲染效果强大,采用物理材质***,是开发者最喜爱的引擎之一。UE4画面效果完全达到3A游戏水准,光照和物理渲染效果强大。UE4蓝图***让游戏策划也能编辑代码,各种官方插件齐全也让开发者不用在自编第三方插件并担心兼容接口问题。更重要的是针对虚拟现实游戏,UE4为手柄、VR控制器提供了良好的支持。
目前,在3D的项目开发中,需要设置玩家用户和游戏场景的交互,因此需要提供一种3D屏幕交互的游戏交互方法,以满足3D游戏项目的信息交互的需求。
发明内容
本发明的目的在于克服现有技术的不足,提供了一种基于3D屏幕交互的游戏交互方法、装置、计算机设备和存储介质,能够满足3D游戏项目的信息交互的需求。
为了解决上述中至少一个技术问题,本发明实施例提供了一种基于3D屏幕交互的游戏交互方法,所述方法包括:
在UE4项目中创建游戏角色和以及所述游戏角色操作的虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄;
在UE4项目设置中添加射线通道,在所述射线通道上生成可交互物体;
生成所述虚拟游戏手柄的射线,所述射线的起点为虚拟游戏手柄的位置,添加所述虚拟游戏手柄的箭头组件,所述箭头组件用于调节所述射线相对于所述虚拟游戏手柄的方向;
当用户操控所述无线手柄以控制所述虚拟游戏手柄发射射线时,若通过射线检测到所述射线通道上的可交互物体,记录每帧所述射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当所述用户触发所述无线手柄中的按键时,调用点击按钮函数。
在其中一个实施例中,所述方法还包括:
通过光学相机定位捕捉***获取用户的3D眼镜上的感光球的位置,根据所述3D眼镜上的感光球的位置获得所述用户眼睛在游戏场景中的位置信息以及旋转信息。
在其中一个实施例中,所述方法还包括:
通过光学相机定位捕捉***获取所述无线手柄上的感光球的位置,根据所述无线手柄上的感光球的位置获得所述用户手上的无线手柄的位置信息以及旋转信息。
在其中一个实施例中,所述方法还包括:
创建蓝图的接口,在所述接口上声明所述射线离开函数、所述射线进入函数、所述点击按钮函数、选中函数和释放函数。
在其中一个实施例中,所述可交互物体包括静态可交互物体,所述方法还包括:
创建所述静态可交互物体,设置所述静态可交互物体的碰撞属性,在所述静态可交互物体的碰撞属性上添加所述射线通道。
在其中一个实施例中,所述可交互物体包括动态可交互物体,所述方法还包括:
创建所述动态可交互物体,设置所述动态可交互物体的按钮的碰撞属性,在所述按钮的碰撞属性上添加所述射线通道,
在其中一个实施例中,所述方法还包括:
在所述动态可交互物体的骨骼模型上添加碰撞框,在所述碰撞框上添加所述射线通道。
另外,本发明实施例还提供了一种基于3D屏幕交互的游戏交互装置,所述装置包括:
创建模块,用于在UE4项目中创建游戏角色和以及所述游戏角色操作的虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄;
添加模块,用于在UE4项目设置中添加射线通道,在所述射线通道上生成可交互物体;
生成模块,用于生成所述虚拟游戏手柄的射线,所述射线的起点为虚拟游戏手柄的位置,添加所述虚拟游戏手柄的箭头组件,所述箭头组件用于调节所述射线相对于所述虚拟游戏手柄的方向;
交互模块,用于当用户操控所述无线手柄以控制所述虚拟游戏手柄发射射线时,若通过射线检测到所述射线通道上的可交互物体,记录每帧所述射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当所述用户触发所述无线手柄中的按键时,调用点击按钮函数。
另外,本发明实施例还提供了一种计算机设备,其包括:存储器、处理器及存储在存储器上并可在处理器上运行的应用程序,处理器执行应用程序时实现上述任一实施例方法的步骤。
另外,本发明实施例还提供了一种计算机可读存储介质,其上存储有应用程序,应用程序被处理器执行时实现上述任一实施例方法的步骤。
在本发明实施例中,通过实施上述方法,在UE4项目中创建游戏角色和以及所述游戏角色操作的虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄;在UE4项目设置中添加射线通道,在所述射线通道上生成可交互物体;生成所述虚拟游戏手柄的射线,所述射线的起点为虚拟游戏手柄的位置,添加所述虚拟游戏手柄的箭头组件,所述箭头组件用于调节所述射线相对于所述虚拟游戏手柄的方向;当用户操控所述无线手柄以控制所述虚拟游戏手柄发射射线时,若通过射线检测到所述射线通道上的可交互物体,记录每帧所述射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当所述用户触发所述无线手柄中的按键时,调用点击按钮函数。因此,通过提供设置玩家用户与UE4项目中创建游戏角色的信息交互,实现了可在3D屏幕交互的游戏交互方法。
附图说明
图1是本发明实施例中的一种基于3D屏幕交互的游戏交互方法的流程示意图;
图2是本发明实施例中的一种基于3D屏幕交互的游戏交互装置的结构示意图;
图3是本发明实施例中的计算机设备的结构组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
本发明实施例提供了一种基于3D屏幕交互的游戏交互方法,如图1所示,该一种基于3D屏幕交互的游戏交互方法包括以下步骤:
S102,在UE4项目中创建游戏角色和以及所述游戏角色操作的虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄。
在本实施例中,在UE4项目中创建一个游戏角色Pawn,代表游戏玩家角色。以及,创建一个虚拟游戏手柄BP_MyController,代表玩家的虚拟游戏手柄。基于光学相机定位动作捕捉***,将真实世界中3D眼镜和手柄的位置以及旋转分别赋予游戏中的Pawn和BP_MyController。因此,可实现将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄,从而实现将真实世界中用户的相关信息赋值到虚拟的游戏场景中,初步实现游戏交互中信息的交互,提高游戏中用户的体验。
在一实施例中,S102之前,还包括:通过光学相机定位捕捉***获取用户的3D眼镜上的感光球的位置,根据所述3D眼镜上的感光球的位置获得所述用户眼睛在游戏场景中的位置信息以及旋转信息。
在一实施例中,S102之前,还包括:通过光学相机定位捕捉***获取所述无线手柄上的感光球的位置,根据所述无线手柄上的感光球的位置获得所述用户手上的无线手柄的位置信息以及旋转信息。
具体地,3D显示屏平躺放置,设置光学相机定位捕捉***。在3D眼镜和无线手柄上装上感光球,通过光学相机定位捕捉***获取3D眼镜上的感光球的位置以获得所述用户眼睛在游戏场景中的位置信息以及旋转信息,以及通过光学相机定位捕捉***获取无线手柄上的感光球的位置以获得用户手上的无线手柄的位置信息以及旋转信息,从而可实时获取到玩家用户眼睛和无线手柄在游戏场景中的位置以及旋转,将3D眼镜的位置和旋转赋值给游戏角色Pawn。此时在虚拟游戏场景中游戏角色Pawn会跟随真实场景中3D眼镜的位置的走动可观察到不同视角的游戏场景。此外,创建一个蓝图继承自UE4中的游戏物品Actor,作为玩家用户的虚拟游戏手柄,虚拟游戏手柄命名为BP_MyController,将玩家用户手上的无线手柄上的位置和旋转赋值给虚拟游戏手柄BP_MyController,此时虚拟游戏手柄BP_MyController会跟随真实场景中玩家用户的手的位置变动。因此,可实现玩家用户与游戏的交互,提升游戏中用户的体验。
S104,在UE4项目设置中添加射线通道,在所述射线通道上生成可交互物体。
在本实施例中,在UE4项目设置中添加射线通道,命名为MyControl。此外,在射线通道上生成和虚拟游戏手柄进行交互的可交互物体。可交互物体可为静态虚拟物体和动态虚拟物体。动态虚拟物体包括拥有骨骼动画的骨骼模型和按钮。
在一实施例中,所述可交互物体包括静态可交互物体,S104之前还包括:创建所述静态可交互物体,设置所述静态可交互物体的碰撞属性,在所述静态可交互物体的碰撞属性上添加所述射线通道。
在一实施例中,所述可交互物体包括动态可交互物体,S104之前还包括:创建所述动态可交互物体,设置所述动态可交互物体的按钮的碰撞属性,在所述按钮的碰撞属性上添加所述射线通道,
在一实施例中,创建所述动态可交互物体之后,还包括:在所述动态可交互物体的骨骼模型上添加碰撞框,在所述碰撞框上添加所述射线通道。
具体地,创建供射线检测的静态可交互物体的方式为:创建一个蓝图继承自UE4中的游戏物品Actor,命名为BP_InterStaticActor,并继承接口BP_TraceInterface。创建一个S组件taticMesh作为跟组件,将跟组件的碰撞检测设置也设为自定义,可碰撞,检测响应中的射线通道MyControl设为Block,使其可被射线检测到。
创建供射线检测的播放骨骼动画的动态可交互物体的骨骼模型的方式为:创建一个蓝图继承自UE4中的游戏物品Actor,命名为BP_InterSkeletalActor,并继承的接口BP_TraceInterface。创建一个组件SkeletalMesh作为跟组件,再创建一个碰撞框Box,将碰撞框Box的碰撞检测设置也设为自定义,可碰撞,检测响应中的射线通道MyControl设为Block,使其可被射线检测到。调节碰撞框Box的大小,使其大致能包住骨骼模型,再在骨骼模型的根节点上创建一个插槽Socket,调节Socket位置,在BeginPlay事件中使用UE4的函数AttachComponentToComponent将碰撞框连接到骨骼模型上,调节Socket位置,使碰撞框和骨骼模型能贴合起来,防止因骨骼动画幅度太大,脱离了碰撞框。
创建供射线检测的按钮Button的方式为:创建一个蓝图继承自UE4中的游戏物品Actor,命名为BP_Button,并继承接口BP_TraceInterface。创建一个组件StaticMesh作为跟组件,将跟组件的碰撞检测设置也设为自定义,可碰撞,检测响应中的射线通道MyControl设为Block,使其可被射线检测到。
S106,生成所述虚拟游戏手柄的射线,所述射线的起点为虚拟游戏手柄的位置,添加所述虚拟游戏手柄的箭头组件,所述箭头组件用于调节所述射线相对于所述虚拟游戏手柄的方向。
在本实施例中,生成所述虚拟游戏手柄的射线以及添加虚拟游戏手柄的箭头组件,用于调节射线相对于BP_MyController的方向。具体地,调用UE4函数LineTraceByChannel发射一条射线,射线的起点为虚拟游戏手柄BP_MyController的位置,射线方向为箭头组件TraceArrow的朝向。在虚拟游戏手柄BP_MyController发射射线时,通过射线会检测到添加在射线通道的可交互物体,也即是UE4中的游戏物品。
例如,创建虚拟交互射线的方式为:在UE4项目设置中添加射线通道TraceChannels,命名为MyControl,默认响应设置为忽略Ignore。在BP_MyController中添加一个箭头组件Arrow,命名为TraceArrow。通过调节TraceArrow的旋转,使玩家用户正确操作无线手柄时,TraceArrow的朝向与玩家用户无线手柄保持一致。因此,可实现将真实世界中用户的操作映射到虚拟的游戏场景中,提高用户的体验。具体地,实时调用UE4函数LineTraceByChannel发射一条射线,射线的起点为BP_MyController的位置,射线方向为TraceArrow的朝向,射线的长度可根据需求调节,由于本项目射线检测区域较小,故将长度设为1000。射线的检测通道设置为上述射线通道MyControl,且忽略自身的碰撞。其中,只有碰撞检测设置中,该射线通道设为Block的组件才能被射线检测到。为了能在游戏场景中看到该射线,可添加一个特效组件ParticleSystem,并使用UE4的函数SetBeamSourcePoint函数和SetBeamTargetPoin函数将射线的起点和终点作为参数输入,即可获得一段和射线长度方向保持一致的特效。因此,可提高射线的可视度。
S108,当用户操控所述无线手柄以控制所述虚拟游戏手柄发射射线时,若通过射线检测到所述射线通道上的可交互物体,记录每帧所述射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当所述用户触发所述无线手柄中的按键时,调用点击按钮函数。
在本实施例中,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄。因此,在虚拟游戏场景中游戏角色能够跟随真实场景的位置,即用户能通过走动可观察到不同视角的游戏场景。此时,若用户操作无线手柄以控制所述虚拟游戏手柄在虚拟游戏场景发射射线,当通过射线检测到所述射线通道上的可交互物体时,***记录并存储每一帧射线与可交互物体碰撞的信息。同时,判断上一帧和当前帧的射线检测到可交互物体是否不同,如果不同,则说明射线由一个可交互物体进入另一个可交互物体,调用上一帧的可交互物体的OnEndOverlap函数(射线离开函数)和当前帧的可交互物体的OnBeginOverlap函数(射线进入函数),此时用户按一下无线手柄按键,即可调用按钮的OnClick函数(点击按钮函数),实现用户与游戏之间的交互,保证用户体验。
在一实施例中,S108之前,还包括:创建蓝图的接口,在所述接口上声明所述射线离开函数、所述射线进入函数、所述点击按钮函数、选中函数和释放函数。
具体地,创建一个蓝图的接口,接口命名为BP_TraceInterface。在接口中声明几个处理交互的函数,如OnClick函数(点击按钮函数),OnBeginOverlap函数(射线进入函数),OnEndOverlap函数(射线离开函数),OnSelect函数(选中函数),OnRelease函数(释放函数)。可交互物体和射线交互时可以直接调用上述函数响应交互事件。上述函数包括射线离开函数、射线进入函数、点击按钮函数、选中函数和释放函数。接口的作用是把交互需要的基本函数在接口中声明,其他蓝图需要实现时可直接继承重写即可,不需要每个蓝图都重新声明一次这些函数。
通过实施上述方法,在UE4项目中创建游戏角色和以及所述游戏角色操作的虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄;在UE4项目设置中添加射线通道,在所述射线通道上生成可交互物体;生成所述虚拟游戏手柄的射线,所述射线的起点为虚拟游戏手柄的位置,添加所述虚拟游戏手柄的箭头组件,所述箭头组件用于调节所述射线相对于所述虚拟游戏手柄的方向;当用户操控所述无线手柄以控制所述虚拟游戏手柄发射射线时,若通过射线检测到所述射线通道上的可交互物体,记录每帧所述射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当所述用户触发所述无线手柄中的按键时,调用点击按钮函数。因此,通过提供设置玩家用户与UE4项目中创建游戏角色的信息交互,实现了可在3D屏幕交互的游戏交互方法。
针对上述一种基于3D屏幕交互的游戏交互方法,提供一具体实施场景以说明该基于3D屏幕交互的游戏交互方法的基础交互功能:
上述BP_MyController有两种状态,一种是未选中可交互物体的自由状态,一种是选中了一个物体的锁定状态,声明一个布尔变量IsTraceFree来区分两种状态。BP_MyController在每一帧都会发射射线,与第一个射线路径上的可交互物体发生碰撞,返回碰撞信息。碰撞信息中包括表征是否碰撞到可交互物体的BlockingHit信息,表征发生碰撞点的位置Location信息,与射线碰撞的可交互物体的HitActor信息。射线在自由状态,如果射线击中了可交互物体,将碰撞检测通道MyControl设置为Block的可交互物体。将射线的终点设置为Location。将HitActor设置为变量CurrentHitActor进行储存。声明一个变量LastHitActor,如果LastHitActor!=CurrentHitActor,则说明射线与一个新的可交互物体发生碰撞,进入了CurrentHitActor,离开了LastHitActor,调用CurrentHitActor的OnBeginOverlap函数和LastHitActor的OnEndOverlap函数,这两个函数接口中已进行声明,且被BP_InterStaticActor,BP_InterSkeletalActor,BP_Button重写。此时再让CurrentHitActor赋值给LastHitActor。也即是,每一帧判断射线碰撞的可交互物体和上一帧碰撞的可交互物体是否一致,如果不一致,说明射线检测到了新的可交互物体,离开了上一个可交互物体LastHitActor,调用上一个可交互物体LastHitActor的OnEndOverlap函数,进入了当前可交互物体CurrentHitActor,调用当前可交互物体CurrentHitActor的OnBeginOverlap函数。因此,实现了游戏场景中射线的转移,从而为游戏交互提供了技术基础。
此外,在项目设置中设置操作映射。如果按下对应按键,射线的BlockingHit为true,则将BP_MyControllers设为锁定状态,即将IsTraceFree设为fa1se,此时调用CurrentHitActor的OnSelect函数以及OnClick函数。如果释放该按键,射线的BlockingHit为true,则将BP_MyControllers设为自由状态,即将IsTraceFree设为true,此时调用CurrentHitActor的OnRelease函数。
因此,实现了射线进入可交互物体的事件OnBeginOverlap函数,离开可交互物体的事件OnEndOverlap函数,选中可交互物体的事件OnSelect函数,释放可交互物体的事件OnRelease函数,点击可交互物体的事件OnRelease函数,这些交互的基本功能。只需要在对应的可交互物体上实现这些函数,将交互内容写上去,即可用来开发基本的项目了。因此,可采用上述一种基于3D屏幕交互的游戏交互方法来实现基础的游戏交互的项目。
在一实施例中,本发明还提供一种基于3D屏幕交互的游戏交互装置。如图2所示,该装置包括:
创建模块12,用于在UE4项目中创建游戏角色和以及所述游戏角色操作的虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄;
添加模块14,用于在UE4项目设置中添加射线通道,在所述射线通道上生成可交互物体;
生成模块16,用于生成所述虚拟游戏手柄的射线,所述射线的起点为虚拟游戏手柄的位置,添加所述虚拟游戏手柄的箭头组件,所述箭头组件用于调节所述射线相对于所述虚拟游戏手柄的方向;
交互模块18,用于当用户操控所述无线手柄以控制所述虚拟游戏手柄发射射线时,若通过射线检测到所述射线通道上的可交互物体,记录每帧所述射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当所述用户触发所述无线手柄中的按键时,调用点击按钮函数。
关于一种基于3D屏幕交互的游戏交互装置的具体限定可以参见上文中对于一种基于3D屏幕交互的游戏交互方法的限定,在此不再赘述。上述一种基于3D屏幕交互的游戏交互置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本发明实施例提供的一种计算机可读存储介质,所述计算机可读存储介质上存储有应用程序,该程序被处理器执行时实现上述实施例中任意一个实施例的一种基于3D屏幕交互的游戏交互方法。其中,所述计算机可读存储介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、CD-ROM、和磁光盘)、ROM(Read-Only Memory,只读存储器)、RAM(RandomAcceSS Memory,随即存储器)、EPROM(EraSable Programmable Read-Only Memory,可擦写可编程只读存储器)、EEPROM(Electrically EraSable ProgrammableRead-Only Memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,存储设备包括由设备(例如,计算机、手机)以能够读的形式存储或传输信息的任何介质,可以是只读存储器,磁盘或光盘等。
本发明实施例还提供了一种计算机应用程序,其运行在计算机上,该计算机应用程序用于执行上述中任意一个实施例的一种基于3D屏幕交互的游戏交互方法。
此外,图3是本发明实施例中的计算机设备的结构组成示意图。
本发明实施例还提供了一种计算机设备,如图3所示。所述计算机设备包括处理器302、存储器303、输入单元304以及显示单元305等器件。本领域技术人员可以理解,图3示出的设备结构器件并不构成对所有设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件。存储器303可用于存储应用程序301以及各功能模块,处理器302运行存储在存储器303的应用程序301,从而执行设备的各种功能应用以及数据处理。存储器可以是内存储器或外存储器,或者包括内存储器和外存储器两者。内存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)、快闪存储器、或者随机存储器。外存储器可以包括硬盘、软盘、ZIP盘、U盘、磁带等。本发明所公开的存储器包括但不限于这些类型的存储器。本发明所公开的存储器只作为例子而非作为限定。
输入单元304用于接收信号的输入,以及接收用户输入的关键字。输入单元304可包括触控面板以及其它输入设备。触控面板可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并根据预先设定的程序驱动相应的连接装置;其它输入设备可以包括但不限于物理键盘、功能键(比如播放控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。显示单元305可用于显示用户输入的信息或提供给用户的信息以及终端设备的各种菜单。显示单元305可采用液晶显示器、有机发光二极管等形式。处理器302是终端设备的控制中心,利用各种接口和线路连接整个设备的各个部分,通过运行或执行存储在存储器303内的软件程序和/或模块,以及调用存储在存储器内的数据,执行各种功能和处理数据。
作为一个实施例,所述计算机设备包括:一个或多个处理器302,存储器303,一个或多个应用程序301,其中所述一个或多个应用程序301被存储在存储器303中并被配置为由所述一个或多个处理器302执行,所述一个或多个应用程序301配置用于执行上述实施例中的任意一实施例中的一种基于3D屏幕交互的游戏交互方法。
另外,以上对本发明实施例所提供的一种基于3D屏幕交互的游戏交互方法、装置、计算机设备和存储介质进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种基于3D屏幕交互的游戏交互方法,其特征在于,所述方法包括:
在UE4项目中创建游戏角色和以及所述游戏角色操作的虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄;
在UE4项目设置中添加射线通道,在所述射线通道上生成可交互物体;
生成所述虚拟游戏手柄的射线,所述射线的起点为虚拟游戏手柄的位置,添加所述虚拟游戏手柄的箭头组件,所述箭头组件用于调节所述射线相对于所述虚拟游戏手柄的方向;
当用户操控所述无线手柄以控制所述虚拟游戏手柄发射射线时,若通过射线检测到所述射线通道上的可交互物体,记录每帧所述射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当所述用户触发所述无线手柄中的按键时,调用点击按钮函数。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过光学相机定位捕捉***获取用户的3D眼镜上的感光球的位置,根据所述3D眼镜上的感光球的位置获得所述用户眼睛在游戏场景中的位置信息以及旋转信息。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
通过光学相机定位捕捉***获取所述无线手柄上的感光球的位置,根据所述无线手柄上的感光球的位置获得所述用户手上的无线手柄的位置信息以及旋转信息。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
创建蓝图的接口,在所述接口上声明所述射线离开函数、所述射线进入函数、所述点击按钮函数、选中函数和释放函数。
5.根据权利要求1所述的方法,其特征在于,所述可交互物体包括静态可交互物体,所述方法还包括:
创建所述静态可交互物体,设置所述静态可交互物体的碰撞属性,在所述静态可交互物体的碰撞属性上添加所述射线通道。
6.根据权利要求1所述的方法,其特征在于,所述可交互物体包括动态可交互物体,所述方法还包括:
创建所述动态可交互物体,设置所述动态可交互物体的按钮的碰撞属性,在所述按钮的碰撞属性上添加所述射线通道。
7.根据权利要求6所述的方法,其特征在于,所述方法还包括:
在所述动态可交互物体的骨骼模型上添加碰撞框,在所述碰撞框上添加所述射线通道。
8.一种基于3D屏幕交互的游戏交互装置,其特征在于,所述装置包括:
创建模块,用于在UE4项目中创建游戏角色和以及所述游戏角色操作的虚拟游戏手柄,将用户眼睛在游戏场景中的位置信息以及旋转信息赋值给所述游戏角色,将用户手上的无线手柄的位置信息以及旋转信息赋值给所述虚拟游戏手柄;
添加模块,用于在UE4项目设置中添加射线通道,在所述射线通道上生成可交互物体;
生成模块,用于生成所述虚拟游戏手柄的射线,所述射线的起点为虚拟游戏手柄的位置,添加所述虚拟游戏手柄的箭头组件,所述箭头组件用于调节所述射线相对于所述虚拟游戏手柄的方向;
交互模块,用于当用户操控所述无线手柄以控制所述虚拟游戏手柄发射射线时,若通过射线检测到所述射线通道上的可交互物体,记录每帧所述射线接触到可交互物体,判断上一帧和当前帧检测到的可交互物体是否相同,若否,调用上一帧的可交互物体的射线离开函数且调用当前帧的可交互物体的射线进入函数,当所述用户触发所述无线手柄中的按键时,调用点击按钮函数。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的应用程序,其特征在于,所述处理器执行所述应用程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有应用程序,其特征在于,所述应用程序被处理器执行时实现权利要求1至7中任一项所述方法的步骤。
CN202011464233.9A 2020-12-11 2020-12-11 基于3d屏幕交互的游戏交互方法、装置和计算机设备 Pending CN112451967A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011464233.9A CN112451967A (zh) 2020-12-11 2020-12-11 基于3d屏幕交互的游戏交互方法、装置和计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011464233.9A CN112451967A (zh) 2020-12-11 2020-12-11 基于3d屏幕交互的游戏交互方法、装置和计算机设备

Publications (1)

Publication Number Publication Date
CN112451967A true CN112451967A (zh) 2021-03-09

Family

ID=74803529

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011464233.9A Pending CN112451967A (zh) 2020-12-11 2020-12-11 基于3d屏幕交互的游戏交互方法、装置和计算机设备

Country Status (1)

Country Link
CN (1) CN112451967A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052982A (zh) * 2021-03-23 2021-06-29 深圳市瑞立视多媒体科技有限公司 工业模型中配件拆装方法、装置、计算机设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020097223A1 (en) * 1998-06-23 2002-07-25 Immersion Corporation Haptic feedback stylus and othef devices
CN105913497A (zh) * 2016-05-27 2016-08-31 杭州映墨科技有限公司 用于虚拟看房的虚拟现实空间移动定位***及方法
CN108008816A (zh) * 2017-12-01 2018-05-08 华中师范大学 一种基于Kinect的土家织锦虚拟织造方法及***
CN110609622A (zh) * 2019-09-18 2019-12-24 深圳市瑞立视多媒体科技有限公司 结合3d与虚拟现实技术实现多人交互方法、***及介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020097223A1 (en) * 1998-06-23 2002-07-25 Immersion Corporation Haptic feedback stylus and othef devices
CN105913497A (zh) * 2016-05-27 2016-08-31 杭州映墨科技有限公司 用于虚拟看房的虚拟现实空间移动定位***及方法
CN108008816A (zh) * 2017-12-01 2018-05-08 华中师范大学 一种基于Kinect的土家织锦虚拟织造方法及***
CN110609622A (zh) * 2019-09-18 2019-12-24 深圳市瑞立视多媒体科技有限公司 结合3d与虚拟现实技术实现多人交互方法、***及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052982A (zh) * 2021-03-23 2021-06-29 深圳市瑞立视多媒体科技有限公司 工业模型中配件拆装方法、装置、计算机设备和存储介质
CN113052982B (zh) * 2021-03-23 2023-11-28 深圳市瑞立视多媒体科技有限公司 工业模型中配件拆装方法、装置、计算机设备和存储介质

Similar Documents

Publication Publication Date Title
WO2018192394A1 (zh) 虚拟现实场景的交互方法和装置、存储介质及电子装置
US20240078703A1 (en) Personalized scene image processing method, apparatus and storage medium
CN110262791B (zh) 一种可视化编程方法、装置及运行器、可读存储介质
CN112711458A (zh) 虚拟场景中道具资源的展示方法及装置
CN113610984B (zh) 一种基于Hololens2全息眼镜的增强现实方法
WO2023138192A1 (zh) 控制虚拟对象拾取虚拟道具的方法、终端及存储介质
CN112451967A (zh) 基于3d屏幕交互的游戏交互方法、装置和计算机设备
CN106126213B (zh) 一种基于IFML的Android开发建模方法
WO2023066005A1 (zh) 虚拟场景的构建方法、装置、电子设备、介质和产品
CN112206525B (zh) Ue4引擎中手拧虚拟物品的信息处理方法和装置
CN114931746A (zh) 基于笔式和触屏交互的3d游戏的交互方法、装置及介质
CN109903362B (zh) 基于Unity3D的2D坐标映射操作3D角色模型注视的方法及装置
CN112598772A (zh) 基于ue4的人体器官管理方法、装置和***
CN113157455A (zh) 内存管理方法、装置、电子设备及计算机可读存储介质
CN113052982A (zh) 工业模型中配件拆装方法、装置、计算机设备和存储介质
Lu et al. Interactive augmented reality application design based on mobile terminal
Farias et al. CIDA: an interaction devices management platform
Zhang et al. Calar: A c++ engine for augmented reality applications on android mobile devices
US20240127521A1 (en) Safety policy for contact interactions between avatars
CN112973126B (zh) 绳索两端连接可交互物体的控制方法、装置和计算机设备
JP2008535070A (ja) 少なくとも1つのポインタオブジェクトを備えるマルチメディアシーンを構成する方法、並びに対応するシーンレンダリング方法、端末、コンピュータプログラム、サーバ及びポインタオブジェクト
CN112206524A (zh) Ue4引擎中拾取虚拟物品的信息处理方法和装置
KR100692210B1 (ko) 게임 엔진에서 소정의 오브젝트를 렌더링하는 방법 및 상기랜더링 방법을 수행하는 프로그램이 기록된 기록 매체
CN116540867A (zh) 操作模式更新方法、装置和计算机设备
CN118161846A (zh) 游戏交互方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210309

RJ01 Rejection of invention patent application after publication