CN108765541A - 一种3d场景对象显示方法、装置、设备及存储介质 - Google Patents

一种3d场景对象显示方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN108765541A
CN108765541A CN201810505730.5A CN201810505730A CN108765541A CN 108765541 A CN108765541 A CN 108765541A CN 201810505730 A CN201810505730 A CN 201810505730A CN 108765541 A CN108765541 A CN 108765541A
Authority
CN
China
Prior art keywords
scenes
target object
depth value
objects
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810505730.5A
Other languages
English (en)
Other versions
CN108765541B (zh
Inventor
孟亚州
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Goertek Techology Co Ltd
Original Assignee
Goertek Techology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Goertek Techology Co Ltd filed Critical Goertek Techology Co Ltd
Priority to CN201810505730.5A priority Critical patent/CN108765541B/zh
Priority to PCT/CN2018/099404 priority patent/WO2019223119A1/zh
Publication of CN108765541A publication Critical patent/CN108765541A/zh
Application granted granted Critical
Publication of CN108765541B publication Critical patent/CN108765541B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种3D场景对象显示方法、装置、设备及存储介质,涉及显示技术领域,用于解决现有3D场景中目标对象被遮挡的问题,包括:确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染;将所述目标对象设置为一直通过深度测试;对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。本申请在进行渲染之前,已将目标对象的渲染顺序设置为最后渲染,并且将目标对象设置为一直通过深度测试,由此可以使得后续在进行渲染时,将会对目标对象进行最后渲染,并且会一直通过深度测试,这样将会使得目标对象被强制性地显示在3D场景的最前面,从而避免了目标对象被3D场景中的其他对象遮挡。

Description

一种3D场景对象显示方法、装置、设备及存储介质
技术领域
本申请涉及显示技术领域,特别涉及一种3D场景对象显示方法、装置、设备及存储介质。
背景技术
现有的三维游戏场景等3D场景中,通常会包含多种场景对象,如游戏角色等处于运动状态的对象以及处于静止状态的背景画面,另外还可能包含状态栏、场景地图或游戏得分信息栏等对象。
在正常的显示过程中,三维游戏场景中诸如状态栏、场景地图或游戏得分信息栏等对象需要显示在三维游戏场景的前面,避免被场景中的其他对象遮挡,具体如图1所示。然而,由于三维游戏场景中的某些对象是处于运动状态的,致使这些对象在场景中的深度值也发生动态的变化,在有些情况下这些对象在场景中的深度值会小于上述状态栏、场景地图和得分信息栏等对象在场景中的深度值,从而出现如图2所示的处于运动状态的对象覆盖在状态栏和场景地图之上的现象,导致用户无法完整地看清状态栏和场景地图上的信息。
发明内容
有鉴于此,本申请的目的在于提供一种3D场景对象显示方法、装置、设备及存储介质,能够避免目标对象被3D场景中的其他对象遮挡。其具体方案如下:
第一方面,本申请公开了一种3D场景对象显示方法,包括:
确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染;
将所述目标对象设置为一直通过深度测试;
对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。
可选的,所述可视化3D场景中,所述目标对象至少部分覆盖所述目标对象以外的至少一个对象。
可选的,所述确定3D场景中不同对象的渲染顺序之前,还包括:
从所述3D场景的所有对象中确定出所述目标对象。
可选的,所述从所述3D场景的所有对象中确定出所述目标对象,包括:
确定所述3D场景中每个对象的对象类型,将所述3D场景中对象类型为预设类型的对象确定为所述目标对象;
或者,获取通过预设的对象选取接口触发的对象选取指令;根据所述对象选取指令,从所述3D场景中选取相应的对象作为所述目标对象;
或者,获取每个对象在所述3D场景中的深度值,根据对象的深度值从所述3D场景中确定出所述目标对象。
可选的,所述对当前所述3D场景进行渲染,包括:
在渲染过程的深度测试阶段中,利用预设函数控制与所述目标对象对应的深度测试;
其中,所述预设函数为预先设定的用于强制要求对相应对象一直通过深度测试的函数。
可选的,所述对当前所述3D场景进行渲染,包括:
在渲染过程的深度测试阶段中,获取当前所述3D场景中所述目标对象的深度值以及其他对象的深度值;
若当前所述目标对象的深度值不小于所述其他对象的深度值,则调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
可选的,所述调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值,包括:
调整所述目标对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值;
或者,调整其他对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
第二方面,本申请公开了一种3D场景对象显示装置,包括:
顺序确定模块,用于确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染;
参数预设模块,用于将所述目标对象设置为一直通过深度测试;
场景渲染模块,用于对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。
第三方面,本申请公开了一种3D场景对象显示设备,包括处理器和存储器;其中,所述处理器执行所述存储器中保存的计算机程序时实现前述公开的3D场景对象显示方法。
可选的,所述3D场景对象显示设备为VR设备、MR设备或AR设备。
可选的,所述3D场景对象显示设备,还包括:
用于对所述处理器得到的可视化3D场景进行显示的显示屏幕;
其中,所述目标对象在所述显示屏幕上显示时对应的物理位置与所述目标对象以外的至少一个对象在所述显示屏幕上显示时对应的物理位置至少部分重叠。
第四方面,本申请公开了一种计算机可读存储介质,用于存储计算机程序,所述计算机程序被处理器执行时实现前述公开的3D场景对象显示方法。
可见,本申请先确定出3D场景中不同对象的渲染顺序,其中目标对象的渲染顺序是最后渲染,并且将目标对象设置为一直通过深度测试,然后对3D场景进行渲染,也即,本申请在进行渲染之前,已针对目标对象进行了特定的参数设置,以指示目标对象的渲染顺序为最后渲染以及后续在对目标对象进行深度测试时将会一直通过深度测试,由此可以使得后续在进行渲染时,将会对目标对象进行最后渲染,并且会一直通过深度测试,这样将会使得目标对象被强制性地显示在3D场景的最前面,从而使得3D场景中所显示的其他对象均不会覆盖在目标对象之上,也即,实现了避免目标对象被3D场景中的其他对象遮挡的目的。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为正常的三维游戏场景显示示意图;
图2为异常的三维游戏场景显示示意图;
图3为本申请实施例公开的一种3D场景对象显示方法流程图;
图4为将Unity3D技术中的显示方案应用到双眼模式后的三维游戏场景显示示意图;
图5为本申请实施例公开的一种具体的3D场景对象显示方法流程图;
图6为本申请实施例公开的一种具体的3D场景对象显示方法流程图;
图7为本申请实施例公开的一种3D场景对象显示装置结构示意图;
图8为本申请实施例公开的一种3D场景对象显示设备结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例公开了一种3D场景对象显示方法,参见图3所示,该方法包括:
步骤S11:确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染。
本实施例中,上述3D场景既可以是游戏领域中的3D场景,如结合VR技术(VR,即Virtual Reality,虚拟现实)、MR技术(MR,即Mixed Reality,混合现实)或AR技术(AR,即Augmented Reality,增强现实)开发的游戏中的3D场景,也可以是其他领域中的3D场景,如电子商务领域中的3D场景和科教领域中的3D场景等。
需要指出的是,本实施例中的3D场景对象显示方法既可以应用于单眼模式下的3D场景,也可以应用于双眼模式下的3D场景。当本实施例中的3D场景对象显示方法应用于双眼模式下的3D场景时,具体是将该方法分别应用到双眼模式中的左眼场景和右眼场景中,也即在双眼模式下的两个场景中,均分别独立应用本实施例中的3D场景对象显示方法来进行对象的显示处理。
可以理解的是,在步骤S11之前,需要创建上述3D场景以及上述3D场景中的对象,其中,上述3D场景中的对象包括游戏角色、人物等处于运动状态的对象以及状态栏、场景地图等对象。本实施例中的目标对象是指需要在上述3D场景的前景区域进行显示的对象,如状态栏、场景地图等,以避免被场景中的其他对象遮挡。
进一步的,在创建完上述3D场景和3D场景中的对象之后,本实施例还需要从所述3D场景的所有对象中确定出所述目标对象。
在第一种具体实施方式中,所述从所述3D场景的所有对象中确定出所述目标对象,具体可以包括:确定所述3D场景中每个对象的对象类型,将所述3D场景中对象类型为预设类型的对象确定为所述目标对象。可见,这种目标对象的确定方式是基于对象类型来进行的,能够由***自动完成,这样可以提升目标对象的确定效率,避免目标对象确定过程消耗过多的时间,只需在确定目标对象之前,预先设置好能够被确定为目标对象的对象类型,后续进行类型比对即可确定出目标对象,如预先将状态栏、场景地图和游戏得分信息栏等对象的对象类型确定为上述预设类型,然后根据预设类型从3D场景中选取出相应类型的对象作为目标对象。
在第二种具体实施方式中,所述从所述3D场景的所有对象中确定出所述目标对象,具体可以包括:获取通过预设的对象选取接口触发的对象选取指令;根据所述对象选取指令,从所述3D场景中选取相应的对象作为所述目标对象。也即,本实施例可以预先创建对象选取接口,当用户希望将3D场景中的某些对象显示在3D场景的前景区域时,可以通过上述对象选取接口来选中相应的对象,以触发相应的对象选取指令,后台***根据上述对象选取指令,从3D场景中选取相应的对象作为所述目标对象,这样可以使得用户能够参与到目标对象的确定过程中,增加了用户与***之间的交互性,有利于提升用户的使用体验。可以理解的是,根据实际应用需要,上述对象选取接口的接口类型既可以为物理接口,也可以是虚拟接口,并且上述对象选取接口的数量不限于一个,也可以有多个。
比如,上述对象选取接口可以包括用于选取长期显示在场景前面的对象的第一选取接口和用于选取短期内显示在场景前面的对象的第二选取接口。当用户希望将3D场景中的某些对象长期地显示在场景的前景区域时,可以通过上述第一选取接口来选中相应的对象,以触发相应的第一选取指令,后台***根据上述第一选取指令,从3D场景中选取相应的对象作为待长期显示在场景前面的目标对象。例如,通过上述第一选取接口选取状态栏和场景地图作为需长期显示在场景前面的目标对象。当用户希望将3D场景中的某些对象短期内显示在场景的前景区域时,可以通过上述第二选取接口来选中相应的对象,以触发相应的第二选取指令,后台***根据上述第二选取指令,从3D场景中选取相应的对象作为待短期显示在场景前面的目标对象。例如,假设当前场景中有些处于运动状态的游戏角色被场景中的其他对象遮挡住,而用户恰好这时候对上述游戏角色非常感兴趣,想能够清楚完整地看到当前该游戏角色的运动状态,但又不希望该游戏角色长期地显示于场景的前景区域,那么便可以通过上述第二选取接口选取上述游戏角色作为需在短期内显示在场景前面的目标对象,这样能够在短期内满足用户对某些特定对象的运动状态的好奇心,提高了用户体验。另外,上述所谓的长期和短期各自对应的时间期限长度可以由后台***进行自行设定,也可以由用户通过预设设定的时间设置接口来进行设置,具体数值在此不进行限定,例如,可以将本实施例中长期对应的时间期限长度设为无限长,将短期对应的时间期限长度设置为5秒等。
当然,考虑到通过上述第二选取接口所选取的对象在整个场景中的大小尺寸相对过小,容易使得用户最终很难看清该对象的细节,为此,在用户通过上述第二选取接口选取相应的对象之后,后续可以在场景显示界面上自动创建一个局部放大显示区域,通过该局部放大显示区域来对当前场景中的被上述第二选取接口选中的对象进行放大显示,这样便可使得用户能够在短期内清楚地看到不受其他对象遮挡并且经过图像放大处理之后的对象的运动情况。
在第三种具体实施方式中,所述从所述3D场景的所有对象中确定出所述目标对象,具体可以包括:获取每个对象在所述3D场景中的深度值,根据对象的深度值从所述3D场景中确定出所述目标对象。具体的,在获取每个对象在所述3D场景中的深度值之后,可以根据对象在3D场景中的深度值的绝对大小以及变化情况来从所述3D场景中确定出需显示在场景前面的目标对象。例如,像状态栏、场景地图和游戏得分信息栏这些对象,它们的深度值相对于其他类型的对象来说是比较小的,并且它们的深度值相对是比较固定的,不会像处于运动状态的对象那样深度值经常发生变化,因此,当后台***监测到3D场景中某些对象的深度值比较小,并且深度值相对比较稳定,那么便可将这些对象确定为所述目标对象,这样也能够提高目标对象的确定效率,减少确定过程所需的时间。
本实施例在创建完3D场景以及场景内的对象,并确定出场景中的目标对象之后,接着设定3D场景中不同对象的渲染顺序,其中目标对象的渲染顺序被设置为最后渲染。
步骤S12:将所述目标对象设置为一直通过深度测试。
具体的,本实施例可以通过为目标对象配置一个预设参数的方式,以实现将目标对象设置为一直通过深度测试的目的。本实施例中,当目标对象被分配了上述预设参数,则后续在对该目标对象进行实际的深度测试时,将会控制该目标对象一直通过深度测试。
步骤S13:对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。
需要指出的是,深度测试过程是包含在渲染的进程当中的,也即,本实施例在渲染的过程中,将会对3D场景进行深度测试。由于在上述步骤S13之前,已经将目标对象的渲染顺序设定为最后渲染以及将目标对象设置为一直通过深度测试,所以在步骤S13的渲染过程中,目标对象将会在最后进行渲染,并且控制目标对象一直通过深度测试,由此使得目标对象被强制性地显示在上述可视化3D场景的最前面,此时可视化3D场景中的其他对象均不会覆盖在目标对象上进行显示,从而消除了目标对象被3D场景中的其他对象遮挡的可能性。
本实施例中,基于上述3D场景对象显示方法的显示实例会有多种情况,例如,在一种具体的显示实例中,所述可视化3D场景中,所述目标对象至少部分覆盖所述目标对象以外的至少一个对象,也即所述目标对象可以部分覆盖或者全部覆盖其他对象中的至少一个对象,比如作为目标对象的状态栏覆盖显示在作为非目标对象的游戏角色上;在另一种具体的显示实例中,所述可视化3D场景中,所述目标对象与其他对象之间不存在重叠的显示区域。
需要进一步指出的是,为了避免诸如状态栏和场景地图等信息被3D场景中的其他对象遮挡,其实现有技术中也公开了一些具体的解决方案,比如,Unity3D游戏开发引擎选择将场景地图、状态栏、游戏得分信息栏等画面绘制在Canvas上,并将Canvas的RenderMode设置为Screen Space-Overlay,这样可以实现对场景地图、状态栏、游戏得分信息栏等对象进行Overlay显示(Overlay显示,即叠加显示)的目的。然而,上述叠加显示方式仅仅适用于单眼模式,并不适用于双眼模式,如果在双眼模式下使用上述叠加显示方式,将会出现如图4所示的显示错误,也即原本左眼场景和右眼场景均各自拥有一组状态栏、场景地图和游戏得分信息栏,现在变成了左眼场景和右眼场景一共只有一组状态栏、场景地图和游戏得分信息栏,并且这组状态栏、场景地图和游戏得分信息栏非常生硬的横跨于左眼场景和右眼场景,严重影响了用户体验。而本实施例中的3D场景对象显示方法,既可以正常地应用于单眼模式,也能够正常地应用于双眼模式,不会出现如图4所示的显示错误。
本实施例中,通过上述步骤S13得到渲染后的可视化3D场景之后,可以将渲染后的可视化3D场景传输至显示设备的显示界面上进行显示。其中,上述显示设备具体可以包括但不限于VR设备或MR设备或AR设备。
可见,本申请实施例先确定出3D场景中不同对象的渲染顺序,其中目标对象的渲染顺序是最后渲染,并且将目标对象设置为一直通过深度测试,然后对3D场景进行渲染,也即,本申请在进行渲染之前,已针对目标对象进行了特定的参数设置,以指示目标对象的渲染顺序为最后渲染以及后续在对目标对象进行深度测试时将会一直通过深度测试,由此可以使得后续在进行渲染时,将会对目标对象进行最后渲染,并且会一直通过深度测试,这样将会使得目标对象被强制性地显示在3D场景的最前面,从而使得3D场景中所显示的其他对象均不会覆盖在目标对象之上,也即,实现了避免目标对象被3D场景中的其他对象遮挡的目的。
参见图5所示,本申请实施例公开了一种具体的3D场景对象显示方法,包括:
步骤S21:确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染。
步骤S22:将所述目标对象设置为一直通过深度测试。
关于上述步骤S21和步骤S22的具体内容可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S23:对当前所述3D场景进行渲染以得到渲染后的可视化3D场景,并且在渲染过程的深度测试阶段中,利用预设函数控制与所述目标对象对应的深度测试;其中,所述预设函数为预先设定的用于强制要求对相应对象一直通过深度测试的函数。
需要指出的是,上述预设函数是一种强制性的控制函数,被该控制函数作用的对象在渲染过程的深度测试阶段中,将会一直通过深度测试。本实施例在对3D场景进行渲染时,当监测到目标对象预先被设置为一直通过深度测试,将会调用上述预设函数,并将该预设函数作用于目标对象,从而达到控制目标对象一直通过深度测试的效果。
参见图6所示,本申请实施例公开了一种具体的3D场景对象显示方法,包括:
步骤S31:确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染。
步骤S32:将所述目标对象设置为一直通过深度测试。
关于上述步骤S31和步骤S32的具体内容可以参考前述实施例中公开的相应内容,在此不再进行赘述。
步骤S33:对当前所述3D场景进行渲染以得到渲染后的可视化3D场景,并且在渲染过程的深度测试阶段中,获取当前所述3D场景中所述目标对象的深度值以及其他对象的深度值;若当前所述目标对象的深度值不小于所述其他对象的深度值,则调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
本实施例中,具体是通过调整对象深度值的方式来控制目标对象一直通过深度测试的。调整对象深度值的目的是在于确保调整后所述目标对象的深度值小于其他对象的深度值。由于对于参与深度测试的对象来说,若其深度值越大,则其深度测试会越早失败,同理,若其深度值越小,则其深度测试会越晚失败,由此可知,若某个对象的深度值最小,则该对象的深度测试将会持续通过。所以,本实施例通过调整对象深度值的方式来保证目标对象的深度值小于其他对象的深度值,从而使得目标对象一直通过深度测试。
在一种具体实施方式中,所述调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值,可以包括:调整所述目标对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
在另一种具体实施方式中,所述调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值,可以包括:调整其他对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
例如,假设在深度测试过程中目标对象的深度值为0.1,其他对象的深度值包括对象A的深度值0.09、对象B的深度值0.2以及对象C的深度值0.5,可见此时目标对象的深度值大于对象A的深度值,为此,本实施例可以选择调整目标对象的深度值,以使得调整之后目标对象的深度值小于对象A的深度值,比如可以将目标对象的深度值调整为0.08;当然,本实施例也可以选择调整对象A的深度值,以使得调整之后目标对象的深度值小于对象A的深度值,比如可以将对象A的深度值调整为0.11。
相应的,本申请实施例还公开了一种3D场景对象显示装置,参见图7所示,该3D场景对象显示装置包括:
顺序确定模块11,用于确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染;
参数预设模块12,用于将所述目标对象设置为一直通过深度测试;
场景渲染模块13,用于对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。
本实施例中,上述3D场景既可以是游戏领域中的3D场景,如结合VR技术、MR技术或AR技术开发的游戏中的3D场景,也可以是其他领域中的3D场景,如电子商务领域中的3D场景和科教领域中的3D场景等。
需要指出的是,本实施例中的技术方案既可以应用于单眼模式下的3D场景,也可以应用于双眼模式下的3D场景。当本实施例中的技术方案应用于双眼模式下的3D场景时,具体是将该技术方案分别应用到双眼模式中的左眼场景和右眼场景中,也即在双眼模式下的两个场景中,均分别独立应用本实施例中的3D场景对象显示方案来进行对象的显示处理。
进一步的,本实施例中的3D场景对象显示装置还包括:
对象确定模块,用于在所述顺序确定模块11确定3D场景中不同对象的渲染顺序之前,从所述3D场景的所有对象中确定出所述目标对象。
其中,所述对象确定模块,具体可以用于确定所述3D场景中每个对象的对象类型,将所述3D场景中对象类型为预设类型的对象确定为所述目标对象;或者,获取通过预设的对象选取接口触发的对象选取指令;根据所述对象选取指令,从所述3D场景中选取相应的对象作为所述目标对象;或者,获取每个对象在所述3D场景中的深度值,根据对象的深度值从所述3D场景中确定出所述目标对象。
在一种具体实施方式中,所述场景渲染模块13具体用于在渲染过程的深度测试阶段中,利用预设函数控制与所述目标对象对应的深度测试;其中,所述预设函数为预先设定的用于强制要求对相应对象一直通过深度测试的函数。
在另一种具体实施方式中,所述场景渲染模块13具体用于在渲染过程的深度测试阶段中,获取当前所述3D场景中所述目标对象的深度值以及其他对象的深度值;若当前所述目标对象的深度值不小于所述其他对象的深度值,则调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。其中,所述场景渲染模块13调整对象深度值的过程,具体可以包括调整所述目标对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值;或者,调整其他对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
本实施例中,基于上述3D场景对象显示装置的显示实例会有多种情况,例如,在一种具体的显示实例中,所述可视化3D场景中,所述目标对象至少部分覆盖所述目标对象以外的至少一个对象,也即所述目标对象可以部分覆盖或者全部覆盖其他对象中的至少一个对象,比如作为目标对象的状态栏覆盖显示在作为非目标对象的游戏角色上;在另一种具体的显示实例中,所述可视化3D场景中,所述目标对象与其他对象之间不存在重叠的显示区域。
可见,本申请实施例先确定出3D场景中不同对象的渲染顺序,其中目标对象的渲染顺序是最后渲染,并且将目标对象设置为一直通过深度测试,然后对3D场景进行渲染,也即,本申请在进行渲染之前,已针对目标对象进行了特定的参数设置,以指示目标对象的渲染顺序为最后渲染以及后续在对目标对象进行深度测试时将会一直通过深度测试,由此可以使得后续在进行渲染时,将会对目标对象进行最后渲染,并且会一直通过深度测试,这样将会使得目标对象被强制性地显示在3D场景的最前面,从而使得3D场景中所显示的其他对象均不会覆盖在目标对象之上,也即,实现了避免目标对象被3D场景中的其他对象遮挡的目的。
进一步的,参见图8所示,本申请实施例还公开了一种3D场景对象显示设备20,包括处理器21和存储器22;其中,所述处理器21执行所述存储器22中保存的计算机程序时实现以下步骤:
确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染;将所述目标对象设置为一直通过深度测试;对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。
本实施例中,上述3D场景既可以是游戏领域中的3D场景,如结合VR技术、MR技术或AR技术开发的游戏中的3D场景,也可以是其他领域中的3D场景,如电子商务领域中的3D场景和科教领域中的3D场景等。
需要指出的是,本实施例中的技术方案既可以应用于单眼模式下的3D场景,也可以应用于双眼模式下的3D场景。当本实施例中的技术方案应用于双眼模式下的3D场景时,具体是将该技术方案分别应用到双眼模式中的左眼场景和右眼场景中,也即在双眼模式下的两个场景中,均分别独立应用本实施例中的3D场景对象显示方案来进行对象的显示处理。
本实施例中,所述可视化3D场景中,所述目标对象至少部分覆盖所述目标对象以外的至少一个对象。
本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:确定3D场景中不同对象的渲染顺序之前,从所述3D场景的所有对象中确定出所述目标对象。
本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:确定所述3D场景中每个对象的对象类型,将所述3D场景中对象类型为预设类型的对象确定为所述目标对象;或者,获取通过预设的对象选取接口触发的对象选取指令;根据所述对象选取指令,从所述3D场景中选取相应的对象作为所述目标对象;或者,获取每个对象在所述3D场景中的深度值,根据对象的深度值从所述3D场景中确定出所述目标对象。
本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:在渲染过程的深度测试阶段中,利用预设函数控制与所述目标对象对应的深度测试;其中,所述预设函数为预先设定的用于强制要求对相应对象一直通过深度测试的函数。
本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:在渲染过程的深度测试阶段中,获取当前所述3D场景中所述目标对象的深度值以及其他对象的深度值;若当前所述目标对象的深度值不小于所述其他对象的深度值,则调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
本实施例中,所述处理器21执行所述存储器22中保存的计算机子程序时,可以具体实现以下步骤:调整所述目标对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值;或者,调整其他对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
可见,本申请实施例先确定出3D场景中不同对象的渲染顺序,其中目标对象的渲染顺序是最后渲染,并且将目标对象设置为一直通过深度测试,然后对3D场景进行渲染,也即,本申请在进行渲染之前,已针对目标对象进行了特定的参数设置,以指示目标对象的渲染顺序为最后渲染以及后续在对目标对象进行深度测试时将会一直通过深度测试,由此可以使得后续在进行渲染时,将会对目标对象进行最后渲染,并且会一直通过深度测试,这样将会使得目标对象被强制性地显示在3D场景的最前面,从而使得3D场景中所显示的其他对象均不会覆盖在目标对象之上,也即,实现了避免目标对象被3D场景中的其他对象遮挡的目的。
另外,处理器21中还可以集成其他功能的处理单元,用于对外界输入的不同类型的数据相应的处理。例如,处理器21中还可以集成用于对图像数据进行处理的处理单元、用于对声音数据进行处理的处理单元以及用于对传感器采集的数据进行处理的处理单元。
本实施例中,3D场景对象显示设备20具体可以是穿戴式设备,如VR设备、MR设备或AR设备等。其中,上述穿戴式设备包括但不限于智能眼镜、智能头盔等。
进一步的,本实施例中的3D场景对象显示设备20还可以包括:
显示单元23,用于对处理器21发送过来的数据进行显示,显示单元23上包括用于对所述处理器21得到的可视化3D场景进行显示的显示屏幕,在一种具体的显示实例中,所述目标对象在所述显示屏幕上显示时对应的物理位置与所述目标对象以外的至少一个对象在所述显示屏幕上显示时对应的物理位置至少部分重叠。本实施例中,显示单元23可以为一整块显示面板或者为分别对应于用户左眼和右眼的第一显示面板和第二显示面板。另外,上述显示面板具体可以是电致发光元件或液晶显示面板。当然,本实施例中的显示单元23也可以是激光扫描式显示器,或者是能够直接将显示画面投射至用户视网膜的投影仪。
输入接口24,用于获取外界导入的计算机程序,也可以用于获取外界输入的各种数据和指令,并将获取到的数据保存至存储器22中。比如,通过输入接口24可以获取外界终端传输过来的参数设置指令和对象选取指令等。
传感器25,用于采集数据,并将采集到的数据发送至处理器21进行相应的处理。本实施例中,传感器25可以包括但不限于心率传感器、加速度传感器、陀螺仪、GPS(全球定位***)传感器、地磁传感器、多普勒效应传感器、红外传感器、温度传感器和射频场强度传感器。传感器25在采集相应的原始传感数据之后,由处理器21对原始传感数据进行进一步的分析处理,得到相应的分析处理结果,根据上述分析处理结果,可以判断出当前用户所处的各种状态,例如,可以判断出当前用户的使用操作状态,如判断出当前用户是否佩带穿戴式设备,也可以判断出当前用户所处的运动状态,如行走、奔跑、静止等状态,还可以判断出当前用户某个身体部位的姿势状态,如手或指尖的姿势状态、眼睛的开合状态、视线方向和瞳孔尺寸等,甚至可以判断出用户的精神状态,如判断出当前用户是否处于兴奋状态或伤心状态,或者判断出当前用户是否全神贯注地沉浸在穿戴式设备所产生的虚拟场景中。
通信单元26,用于获取外界终端发送的数据,然后发送至处理器21进行处理分析。例如,可以通过通信单元26获取外界终端发送的数据。另外,处理器21还可以将处理后得到的各种结果通过通信单元26发送至预设的各种数据接收终端。本实施例中,上述通信单元26所采用的通信技术可以是有线通信技术或无线通信技术,如移动高清链接技术(MHL)、通用串行总线(USB)、高清多媒体接口(HDMI)、无线保真技术(WiFi)、蓝牙通信技术、低功耗蓝牙通信技术、基于IEEE802.11s的通信技术等。另外,通信单元26具体可以根据宽带码分多址(W-CDMA)、长期演进(LTE)和类似标准操作的窝蜂无线收发器。
图像采集器27,用于对位于拍摄方向上的场景进行图像采集,然后将采集到的图像发送至处理器21进行数据处理分析,后续处理器21可以将图像处理结果发送至显示单元23进行显示,或者可以传输至存储器22进行保存,又或者可以通过通信单元26将图像处理结果发送至预设的数据接收终端。
声音采集和播放器28,用于采集环境中的声音,然后将采集到的声音信号发送至处理器21进行数据处理分析,后续处理器21可以将声音处理结果发送至声音采集和播放器28进行播放,或者可以传输至存储器22进行保存,又或者可以通过通信单元26将声音处理结果发送至预设的数据接收终端。
进一步的,本申请实施例还公开了一种计算机可读存储介质,用于存储计算机程序,所述计算机程序被处理器执行时实现以下步骤:
确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染;将所述目标对象设置为一直通过深度测试;对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。
可见,本申请在进行渲染之前,已针对目标对象进行了特定的参数设置,以指示目标对象的渲染顺序为最后渲染以及后续在对目标对象进行深度测试时将会一直通过深度测试,由此可以使得后续在进行渲染时,将会对目标对象进行最后渲染,并且会一直通过深度测试,这样将会使得目标对象被强制性地显示在3D场景的最前面,从而使得3D场景中所显示的其他对象均不会覆盖在目标对象之上,也即,实现了避免目标对象被3D场景中的其他对象遮挡的目的。
本实施例中,上述3D场景既可以是游戏领域中的3D场景,如结合VR技术、MR技术或AR技术开发的游戏中的3D场景,也可以是其他领域中的3D场景,如电子商务领域中的3D场景和科教领域中的3D场景等。
需要指出的是,本实施例中的技术方案既可以应用于单眼模式下的3D场景,也可以应用于双眼模式下的3D场景。当本实施例中的技术方案应用于双眼模式下的3D场景时,具体是将该技术方案分别应用到双眼模式中的左眼场景和右眼场景中,也即在双眼模式下的两个场景中,均分别独立应用本实施例中的3D场景对象显示方案来进行对象的显示处理。
本实施例中,所述可视化3D场景中,所述目标对象至少部分覆盖所述目标对象以外的至少一个对象。
本实施例中,所述计算机可读存储介质存储的计算机程序被处理器执行时,可以具体实现以下步骤:确定3D场景中不同对象的渲染顺序之前,从所述3D场景的所有对象中确定出所述目标对象。
本实施例中,所述计算机可读存储介质存储的计算机程序被处理器执行时,可以具体实现以下步骤:确定所述3D场景中每个对象的对象类型,将所述3D场景中对象类型为预设类型的对象确定为所述目标对象;或者,获取通过预设的对象选取接口触发的对象选取指令;根据所述对象选取指令,从所述3D场景中选取相应的对象作为所述目标对象;或者,获取每个对象在所述3D场景中的深度值,根据对象的深度值从所述3D场景中确定出所述目标对象。
本实施例中,所述计算机可读存储介质存储的计算机程序被处理器执行时,可以具体实现以下步骤:在渲染过程的深度测试阶段中,利用预设函数控制与所述目标对象对应的深度测试;其中,所述预设函数为预先设定的用于强制要求对相应对象一直通过深度测试的函数。
本实施例中,所述计算机可读存储介质存储的计算机程序被处理器执行时,可以具体实现以下步骤:在渲染过程的深度测试阶段中,获取当前所述3D场景中所述目标对象的深度值以及其他对象的深度值;若当前所述目标对象的深度值不小于所述其他对象的深度值,则调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
本实施例中,所述计算机可读存储介质存储的计算机程序被处理器执行时,可以具体实现以下步骤:调整所述目标对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值;或者,调整其他对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本申请所提供的一种3D场景对象显示方法、装置、设备及存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (12)

1.一种3D场景对象显示方法,其特征在于,包括:
确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染;
将所述目标对象设置为一直通过深度测试;
对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。
2.根据权利要求1所述的3D场景对象显示方法,其特征在于,所述可视化3D场景中,所述目标对象至少部分覆盖所述目标对象以外的至少一个对象。
3.根据权利要求1所述的3D场景对象显示方法,其特征在于,所述确定3D场景中不同对象的渲染顺序之前,还包括:
从所述3D场景的所有对象中确定出所述目标对象。
4.根据权利要求3所述的3D场景对象显示方法,其特征在于,所述从所述3D场景的所有对象中确定出所述目标对象,包括:
确定所述3D场景中每个对象的对象类型,将所述3D场景中对象类型为预设类型的对象确定为所述目标对象;
或者,获取通过预设的对象选取接口触发的对象选取指令;根据所述对象选取指令,从所述3D场景中选取相应的对象作为所述目标对象;
或者,获取每个对象在所述3D场景中的深度值,根据对象的深度值从所述3D场景中确定出所述目标对象。
5.根据权利要求1至4任一项所述的3D场景对象显示方法,其特征在于,所述对当前所述3D场景进行渲染,包括:
在渲染过程的深度测试阶段中,利用预设函数控制与所述目标对象对应的深度测试;
其中,所述预设函数为预先设定的用于强制要求对相应对象一直通过深度测试的函数。
6.根据权利要求1至4任一项所述的3D场景对象显示方法,其特征在于,所述对当前所述3D场景进行渲染,包括:
在渲染过程的深度测试阶段中,获取当前所述3D场景中所述目标对象的深度值以及其他对象的深度值;
若当前所述目标对象的深度值不小于所述其他对象的深度值,则调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
7.根据权利要求6所述的3D场景对象显示方法,其特征在于,所述调整对象深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值,包括:
调整所述目标对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值;
或者,调整其他对象的深度值,以确保调整之后所述目标对象的深度值小于所述其他对象的深度值。
8.一种3D场景对象显示装置,其特征在于,包括:
顺序确定模块,用于确定3D场景中不同对象的渲染顺序;其中,所述3D场景中目标对象的渲染顺序为最后渲染;
参数预设模块,用于将所述目标对象设置为一直通过深度测试;
场景渲染模块,用于对当前所述3D场景进行渲染,得到渲染后的可视化3D场景。
9.一种3D场景对象显示设备,其特征在于,包括处理器和存储器;其中,所述处理器执行所述存储器中保存的计算机程序时实现如权利要求1至7任一项所述的3D场景对象显示方法。
10.根据权利要求9所述的3D场景对象显示设备,其特征在于,所述3D场景对象显示设备为VR设备、MR设备或AR设备。
11.根据权利要求9或10所述的3D场景对象显示设备,其特征在于,还包括:
用于对所述处理器得到的可视化3D场景进行显示的显示屏幕;
其中,所述目标对象在所述显示屏幕上显示时对应的物理位置与所述目标对象以外的至少一个对象在所述显示屏幕上显示时对应的物理位置至少部分重叠。
12.一种计算机可读存储介质,其特征在于,用于存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的3D场景对象显示方法。
CN201810505730.5A 2018-05-23 2018-05-23 一种3d场景对象显示方法、装置、设备及存储介质 Active CN108765541B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201810505730.5A CN108765541B (zh) 2018-05-23 2018-05-23 一种3d场景对象显示方法、装置、设备及存储介质
PCT/CN2018/099404 WO2019223119A1 (zh) 2018-05-23 2018-08-08 一种3d场景对象显示方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810505730.5A CN108765541B (zh) 2018-05-23 2018-05-23 一种3d场景对象显示方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN108765541A true CN108765541A (zh) 2018-11-06
CN108765541B CN108765541B (zh) 2020-11-20

Family

ID=64005283

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810505730.5A Active CN108765541B (zh) 2018-05-23 2018-05-23 一种3d场景对象显示方法、装置、设备及存储介质

Country Status (2)

Country Link
CN (1) CN108765541B (zh)
WO (1) WO2019223119A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857288A (zh) * 2018-12-18 2019-06-07 维沃移动通信有限公司 一种显示方法及终端
CN110276840A (zh) * 2019-06-21 2019-09-24 腾讯科技(深圳)有限公司 多虚拟角色的控制方法、装置、设备及存储介质
CN111354089A (zh) * 2020-02-21 2020-06-30 上海米哈游天命科技有限公司 多层级的特效排序方法、装置、设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102436677A (zh) * 2011-10-24 2012-05-02 克拉玛依红有软件有限责任公司 一种基于深度缓冲地表开挖的三维可视化方法
CN102668573A (zh) * 2009-11-16 2012-09-12 Lg电子株式会社 图像显示装置及其操作方法
CN104183005A (zh) * 2013-05-24 2014-12-03 三星电子株式会社 图形处理单元和基于图块的渲染方法
CN106951067A (zh) * 2017-02-13 2017-07-14 歌尔科技有限公司 一种虚拟现实场景的生成方法及设备

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101295408A (zh) * 2007-04-27 2008-10-29 新奥特硅谷视频技术有限责任公司 一种3d图文渲染方法和渲染***
CN102063734B (zh) * 2009-11-18 2015-06-17 新奥特(北京)视频技术有限公司 一种三维图像的呈现方法和装置
CN105631923B (zh) * 2015-12-25 2018-10-23 网易(杭州)网络有限公司 一种渲染方法和装置
CN106296785B (zh) * 2016-08-09 2017-12-15 腾讯科技(深圳)有限公司 一种图片渲染方法及图片渲染设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102668573A (zh) * 2009-11-16 2012-09-12 Lg电子株式会社 图像显示装置及其操作方法
CN102436677A (zh) * 2011-10-24 2012-05-02 克拉玛依红有软件有限责任公司 一种基于深度缓冲地表开挖的三维可视化方法
CN104183005A (zh) * 2013-05-24 2014-12-03 三星电子株式会社 图形处理单元和基于图块的渲染方法
CN106951067A (zh) * 2017-02-13 2017-07-14 歌尔科技有限公司 一种虚拟现实场景的生成方法及设备

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109857288A (zh) * 2018-12-18 2019-06-07 维沃移动通信有限公司 一种显示方法及终端
CN110276840A (zh) * 2019-06-21 2019-09-24 腾讯科技(深圳)有限公司 多虚拟角色的控制方法、装置、设备及存储介质
WO2020253655A1 (zh) * 2019-06-21 2020-12-24 腾讯科技(深圳)有限公司 多虚拟角色的控制方法、装置、设备及存储介质
KR20210113333A (ko) * 2019-06-21 2021-09-15 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
JP2022537614A (ja) * 2019-06-21 2022-08-29 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
CN110276840B (zh) * 2019-06-21 2022-12-02 腾讯科技(深圳)有限公司 多虚拟角色的控制方法、装置、设备及存储介质
KR102497683B1 (ko) * 2019-06-21 2023-02-07 텐센트 테크놀로지(센젠) 컴퍼니 리미티드 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체
JP7344974B2 (ja) 2019-06-21 2023-09-14 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
US11962930B2 (en) 2019-06-21 2024-04-16 Tencent Technology (Shenzhen) Company Limited Method and apparatus for controlling a plurality of virtual characters, device, and storage medium
CN111354089A (zh) * 2020-02-21 2020-06-30 上海米哈游天命科技有限公司 多层级的特效排序方法、装置、设备及存储介质
CN111354089B (zh) * 2020-02-21 2023-08-15 上海米哈游天命科技有限公司 多层级的特效排序方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN108765541B (zh) 2020-11-20
WO2019223119A1 (zh) 2019-11-28

Similar Documents

Publication Publication Date Title
US10976821B2 (en) Information processing device, information processing method, and program for controlling output of a tactile stimulus to a plurality of tactile stimulus units
WO2019205839A1 (zh) 位置指示信息显示方法、电子装置及存储介质
JP5973795B2 (ja) 頭部装着型表示装置、画像表示システム及びプログラム
KR102235410B1 (ko) 머리-장착형 디스플레이에서의 메뉴 내비게이션
CN108765541A (zh) 一种3d场景对象显示方法、装置、设备及存储介质
US20130252216A1 (en) Monitoring physical therapy via image sensor
CN108241213A (zh) 头戴式显示器及其控制方法
CN108854068A (zh) 游戏中的显示控制方法和装置、存储介质和终端
US20130260800A1 (en) Information processing apparatus, information processing method, and program
CN108388434A (zh) 特效程序文件包的生成及特效生成方法与装置、电子设备
CN110300994A (zh) 图像处理装置、图像处理方法以及图像***
KR20180013892A (ko) 가상 현실을 위한 반응성 애니메이션
CN108196669A (zh) 游戏角色模型的修正方法、装置、处理器及头戴式显示设备
KR20160119811A (ko) 화상처리장치, 화상처리방법 및 프로그램
KR20180034278A (ko) 시지각 트레이닝을 제공하는 컴퓨팅 장치, 헤드마운트 디스플레이 장치 기반의 시지각 트레이닝 제공방법 및 프로그램
Sharma et al. Evaluating display modalities using a mixed reality game
CN112619160A (zh) 图像处理方法、装置、非易失性存储介质及电子装置
GB2562815A (en) Methods and systems for viewing and editing computer-based designs
JP2019160033A (ja) 表示制御装置およびプログラム
Lee et al. Life chasing: A location-based game prototype for elderly health promotion
CN115793918A (zh) 壁纸显示方法、装置和电子设备
EP3420889B1 (en) Apparatus for checking the eyesight of a user
CN104182979A (zh) 一种视力障碍模拟方法及装置
CN108564059A (zh) 穿戴式设备及其数据处理方法、装置、设备、存储介质
CN104809323A (zh) 健康状况的个性虚拟化的方法和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Meng Yazhou

Inventor after: Jiang Bin

Inventor after: Chi Xiaoyu

Inventor before: Meng Yazhou

CB03 Change of inventor or designer information
TA01 Transfer of patent application right

Effective date of registration: 20201012

Address after: 261031 north of Yuqing street, east of Dongming Road, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronic office building)

Applicant after: GoerTek Optical Technology Co.,Ltd.

Address before: 266100 Qingdao, Laoshan District, North House Street investment service center room, Room 308, Shandong

Applicant before: GOERTEK TECHNOLOGY Co.,Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20221124

Address after: 266104 No. 500, Songling Road, Laoshan District, Qingdao, Shandong

Patentee after: GOERTEK TECHNOLOGY Co.,Ltd.

Address before: 261031 north of Yuqing street, east of Dongming Road, high tech Zone, Weifang City, Shandong Province (Room 502, Geer electronics office building)

Patentee before: GoerTek Optical Technology Co.,Ltd.

TR01 Transfer of patent right