CN111462339A - 增强现实中的显示方法和装置、介质和电子设备 - Google Patents

增强现实中的显示方法和装置、介质和电子设备 Download PDF

Info

Publication number
CN111462339A
CN111462339A CN202010239234.7A CN202010239234A CN111462339A CN 111462339 A CN111462339 A CN 111462339A CN 202010239234 A CN202010239234 A CN 202010239234A CN 111462339 A CN111462339 A CN 111462339A
Authority
CN
China
Prior art keywords
entity
target
scene
virtual target
anchor point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010239234.7A
Other languages
English (en)
Other versions
CN111462339B (zh
Inventor
于茜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN202010239234.7A priority Critical patent/CN111462339B/zh
Publication of CN111462339A publication Critical patent/CN111462339A/zh
Application granted granted Critical
Publication of CN111462339B publication Critical patent/CN111462339B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/53Controlling the output signals based on the game progress involving additional visual information provided to the game scene, e.g. by overlay to simulate a head-up display [HUD] or displaying a laser sight in a shooting game
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本公开涉及计算机技术领域,提供了一种增强现实中的显示方法及装置、计算机可读存储介质和电子设备。其中,上述方法包括:获取终端设备在当前视角下的实体场景,并在实体场景中确定符合预设条件的目标面;根据目标面确定虚拟目标的锚点,锚点用于在实体场景中定位虚拟目标,以使得虚拟目标在当前视角下至少部分的被实体场景中的实体遮挡;以及,基于终端设备与锚点之间的相对位置关系,在实体场景中渲染虚拟目标。本公开的技术方案能够在玩家视觉上遮挡虚拟目标的效果,从而增加游戏趣味性,同时,有利于提升玩家的沉浸感和游戏的代入感。

Description

增强现实中的显示方法和装置、介质和电子设备
技术领域
本公开涉及计算机技术领域,具体而言,涉及一种增强现实中的显示方法、增强现实中的显示装置、计算机可读存储介质及电子设备。
背景技术
基于终端设备的目标寻找游戏中,例如玩家在游戏场景中寻找某一虚拟目标,如宝箱、红包等,现有游戏场景的处理方案一般是在玩家的可见范围内直接创建虚拟目标模型。也就是说,玩家一般会很轻易地确定虚拟目标的位置,而不易体验寻找虚拟目标的乐趣。可见,现有方案创建的游戏场景的游戏趣味性有待提高,以提升游戏的代入感。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种增强现实中的显示方法及装置、计算机可读存储介质及电子设备,进而至少在一定程度上提升游戏趣味性,并进一步地提升游戏的代入感。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的第一方面,提供了一种增强现实中的显示方法,包括:
获取终端设备在当前视角下的实体场景,并在上述实体场景中确定符合预设条件的目标面;根据上述目标面确定虚拟目标的锚点,上述锚点用于在上述实体场景中定位上述虚拟目标,以使得上述虚拟目标在上述当前视角下至少部分的被上述实体场景中的实体遮挡;以及,基于上述终端设备与上述锚点之间的相对位置关系,在上述实体场景中渲染上述虚拟目标。
在本公开的一些实施例中,基于前述方案,
上述获取终端设备在当前视角下的实体场景,包括:根据上述终端设备的摄像部件获取当前视角下的实体,得到在上述当前视角下的实体场景;
上述在上述实体场景中确定符合预设条件的目标面,包括:基于预训练的场景识别机器学***面面积大于预设阈值的实体面作为上述目标面。
在本公开的一些实施例中,基于前述方案,上述根据上述目标面确定虚拟目标的锚点,包括:
获取上述目标面与上述实体场景中的基础参考面的交界线的端点集;以及,获取在上述端点集中端点处于上述目标面具有接触关系的相邻实体面,并根据上述相邻实体面、上述目标面以及上述终端设备之间的位置关系,筛选上述端点集得到上述锚点。
在本公开的一些实施例中,基于前述方案,上述基于上述终端设备与上述锚点之间的相对位置关系,在上述实体场景中渲染上述虚拟目标,包括:
在上述锚点的目标方向上创建上述虚拟目标,其中上述目标方向为远离上述终端设备的方向;以及,对上述目标面采用第一优先级进行渲染,对上述虚拟目标采用低于上述第一优先级的第二优先级进行渲染,以使渲染后得上述虚拟目标在上述当前视角下至少部分的被上述实体场景中的实体遮挡。
在本公开的一些实施例中,基于前述方案,在上述基于上述终端设备与上述锚点之间的相对位置关系,在上述实体场景中渲染上述虚拟目标之后,上述方法还包括:
获取在上述锚点处与上述目标面具有接触关系的相邻实体面,以及获取上述相邻实体面在上述实体场景中所处的位置信息,得到上述虚拟目标的环境信息;以及,根据上述环境信息调整上述虚拟目标的摆放角度,以使上述虚拟目标不被上述实景场景中的实体隔断。
在本公开的一些实施例中,基于前述方案,,上述基于上述终端设备与上述锚点之间的相对位置关系,在上述实体场景中渲染上述虚拟目标,包括:
多次获取上述终端设备、上述锚点以及上述目标面之间的角度值,并随着上述角度值的变化调整对上述虚拟目标的渲染面积。
在本公开的一些实施例中,基于前述方案,上述随着上述角度值的变化调整对上述虚拟目标的渲染面积,包括:
响应于上述角度值增大,则增大对上述虚拟目标的渲染面积;或,响应于上述角度值减小,则减小对上述虚拟目标的渲染面积。
根据本公开的第二方面,提供了一种增强现实中的显示装置,该装置包括:目标面获取模块、锚点确定模块,以及渲染模块。其中:
上述目标面获取模块,被配置为用于获取终端设备在当前视角下的实体场景,并在上述实体场景中确定符合预设条件的目标面;上述锚点确定模块,被配置为用于根据上述目标面确定虚拟目标的锚点,上述锚点用于在上述实体场景中定位上述虚拟目标,以使得上述虚拟目标在上述当前视角下至少部分的被上述实体场景中的实体遮挡;以及,上述渲染模块,被配置为用于基于上述终端设备与上述锚点之间的相对位置关系,在上述实体场景中渲染上述虚拟目标。
根据本公开的第三方面,提供了一种计算机可读存储介质,其上存储有计算机程序,上述程序被处理器执行时实现如上述实施例中第一方面上述的增强现实中的显示方法。
根据本公开实施例的第四方面,提供了一种电子设备,包括:处理器;以及,存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中第一方面所述的增强现实中的显示方法。
由上述技术方案可知,本公开示例性实施例中的增强现实中的显示方法、增强现实中的显示装置,以及实现所述增强现实中的显示方法的计算机可读存储介质及电子设备,至少具备以下优点和积极效果:
在本公开的一些实施例所提供的技术方案中,获取终端设备在当前视角下的实体场景,并在实体场景中确定符合预设条件的目标面,并根据目标面确定虚拟目标的锚点来实现对虚拟目标的定位。进一步地,基于终端设备与锚点之间的相对位置关系,对目标面和所述虚拟目标进行渲染,从而在实体场景中构渲染出上述虚拟目标。一方面,本技术方案首先确定目标面,并基于目标面对虚拟目标在实体场景中的位置进行定位,从而达到在玩家视觉上隐藏虚拟目标的效果,有利于增加游戏趣味性。另一方面,本技术方案基于终端设备与上述锚点之间的相对位置关系,对目标面和所述虚拟目标进行渲染,从而在实体场景中构渲染出上述虚拟目标,同时使得该虚拟目标在当前视角下至少部分的被实体场景中的实体遮挡。其中,考虑到终端设备(即玩家)在游戏场景中的位置,并基于此进行渲染。可见,本技术方案提供的游戏场景构建过程中考虑了玩家的位置因素,有利于提升玩家的沉浸感和游戏的代入感。
本公开应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出本公开一示例性实施例中增强现实中的显示方法的流程示意图;
图2示出本公开一示例性实施例中终端设备游戏场景的构建场景的示意图;
图3示出本公开一示例性实施例中锚点的确定方法的流程示意图;
图4示出本公开一示例性实施例中游戏场景的构建场景的示意图;
图5示出了根据本公开一示例性实施例中渲染方法的流程示意图;
图6a示出本公开一示例性实施例中虚拟目标创建位置的平面示意图;
图6b示出本公开一示例性实施例中虚拟目标创建位置的立体示意图;
图7示出本公开另一示例性实施例中游戏场景的构建场景的示意图;
图8示出本公开一示例性实施例中增强现实中的显示装置的结构示意图;
图9示出本公开示例性实施例中计算机存储介质的结构示意图;以及,
图10示出本公开示例性实施例中电子设备的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
本说明书中使用用语“一个”、“一”、“该”和“所述”用以表示存在一个或多个要素/组成部分/等;用语“包括”和“具有”用以表示开放式的包括在内的意思并且是指除了列出的要素/组成部分/等之外还可存在另外的要素/组成部分/等;用语“第一”和“第二”等仅作为标记使用,不是对其对象的数量限制。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。
在本公开的实施例中,首先提供了一种游戏场景同步方法,至少在一定程度上克服现有技术中存在的缺陷。以下先对本公开方法实施例的技术方案进行详细阐述:
图1示出本公开一示例性实施例中增强现实中的显示方法的流程示意图。具体的,参考图1,该实施例所示方法包括:
步骤S110,获取终端设备在当前视角下的实体场景,并在所述实体场景中确定符合预设条件的目标面;
步骤S120,根据所述目标面确定虚拟目标的锚点,所述锚点用于在所述实体场景中定位所述虚拟目标,以使得所述虚拟目标在所述当前视角下至少部分的被所述实体场景中的实体遮挡;以及,
步骤S130,基于所述终端设备与所述锚点之间的相对位置关系,在所述实体场景中渲染所述虚拟目标。
在图1所示实施例所提供的技术方案中,一方面,本技术方案首先确定目标面,并基于目标面对虚拟目标在实体场景中的位置进行定位,从而达到在玩家视觉上隐藏虚拟目标的效果,有利于增加游戏趣味性。另一方面,本技术方案基于终端设备与上述锚点之间的相对位置关系,对目标面和所述虚拟目标进行渲染,从而在实体场景中构渲染出上述虚拟目标,同时使得该虚拟目标在当前视角下至少部分的被实体场景中的实体遮挡。其中,考虑到终端设备(即玩家)在游戏场景中的位置,并基于此进行渲染。可见,本技术方案提供的游戏场景构建过程中考虑了玩家的位置因素,有利于提升玩家的沉浸感和游戏的代入感。
本技术方案的适用场景可以是虚拟现实游戏,其中,上述终端设备包含有摄像部件以及显示器,如手机等。示例性的,通过本技术方案构建的目标游戏场景可以显示于该显示器。从而,玩家可以通过显示器显示的画面参与至游戏中。
具体的,以下对图1所示实施例中各步骤的实施方式进行详细阐述:
在步骤S110中先终端设备在当前视角下的获取实体场景。示例性的,参考图2示出的游戏场景的示意图,当玩家携带终端设备进入房间之后,可以通过移动设备的摄像部件实时获取在当前视角下的各种实体,例如,该房间中至少包括以下实体:电视机、茶几、沙发、墙壁等。并将各种实体显示至终端设备的显示器中以确定上述实体场景。需要说明的是,本实施例中所述的“实体场景”中不包含虚拟目标22以及虚拟目标23。而是通过进一步地技术方案将虚拟目标布置于“实体场景”得到最终供玩家游戏的游戏场景。
进一步地,确定实体场景之后,在上述实体场景中确定符合预设条件的目标面。
在示例性的实施例中,基于预训练的场景识别机器学***面面积大于预设阈值的实体面作为目标面。其中,用于场景识别机器学习模型可以采用决策树模型、贝叶斯模型、K最近邻(k-NearestNeighbor,简称:kNN)分类模型、随机森林模型或支持向量机(Support Vector Machine,简称:SVM)。
示例性的,该预训练后的场景识别机器学习模型既可以存储在该终端设备,也可以存储在服务端,从而增加方案实施的灵活性。具体的,当场景识别机器学习模型存储在该终端设备,则终端设备将获取上述实体场景后,基于终端设备本地处理器识别出目标面。示例性的,当预训练的场景识别机器学习模型也可以存储在服务端,从而终端设备将获取上述实体场景发送至该服务端,并基于服务端处理器识别出目标面。
示例性的,在实体场景中确定的目标面基本上成平面状态即可。也就是说,目标面中可以包含尺寸较小的凸起、凹陷、台阶状等,例如,实体墙面包含尺寸小于预设值的凸起或实体家具面上包含尺寸小于预设值的凸起、凹陷等均可以作为上述目标面。参考图2,获取到墙面21的平面面积大于上述预设阈值,则可以作为该实体场景中的目标面。
在步骤S120:根根据所述目标面确定虚拟目标的锚点,所述锚点用于在所述实体场景中定位所述虚拟目标,以使得所述虚拟目标在所述当前视角下至少部分的被所述实体场景中的实体遮挡。
具体的,图3示出本公开一示例性实施例中锚点的确定方法的流程示意图。参考图3,该实施例所示方法包括步骤S310和步骤S320。
在步骤S310中,获取所述目标面与所述实体场景中的基础参考面的交界线的端点集。
在示例性的实施例中,上述基础参考面是指摆放虚拟目标的平面,为了增加游戏的真实感,鉴于虚拟目标一般置放于实体场景中的水平面上,因此可以将实体场景中的地面或面积较大的水平面作为上述基础参考面。参考图4,以地面该实体场景中的基础面为例,假如上述目标面31与地面的交界线为L,则可以获取到该交界线上的端点集为:[A,B]。以进一步地在上述端点集[A,B]中筛选出用于定位虚拟目标的锚点。
继续参考图3,在步骤S320中,获取在所述端点集中端点处与所述目标面具有接触关系的相邻实体面。例如目标平面为实体墙面X,而相邻实体面则可以是与实体墙面X具有夹角的另一墙面Y。
在示例性的实施例中,获取在上述端点集[A,B]处与目标面21具有接触关系的相邻实体面。参考图4,相邻实体面与上述基础参考面交界线为M、另一相邻实体面与上述基础参考面交界线为N。
需要说明的是,在上述端点集中的任意一个端点处,包含目标面与基础面形成的一条交界线(如记作第一交界线),还包含相邻实体面与基础面形成的一条交界线(如记作第二交界线),且第一交界线与第二交界线相交于该端点处。如图4中的端点A处,包含目标面与基础面形成的交界线L,还包含相邻实体面与基础面形成的交界线M,且交界线L和交界线N相交于端点A。
在步骤S320中,还根据所述相邻实体面、所述目标面以及所述终端设备之间的位置关系,筛选所述端点集得到所述锚点。
示例性的,基于玩家当前的位置,上述端点集[A,B]中的端点可能是“凹陷点”(即玩家当前处于该端点对应的第一交界线和第二交界线形成的较小的夹角中),上述端点集[A,B]中的端点可能是“凸出点”(即玩家当前处于该端点的对应的第一交界线和第二交界线形成的较大的夹角中)。且对于玩家当前的位置来说,若“凹陷点”用作定位虚拟目标的锚点,则目标面无法起到遮挡虚拟目标的视觉效果。因此,需要从端点集中筛选出相对于玩家当前的位置来说是“凸出点”的端点作为上述锚点。
则进一步地,可以通过预训练的场景识别机器学习模型判断:玩家是否处于交界线L与交界线M形成的较大的夹角中,以判断相对于玩家当前的位置来说A点是否是“凸出点”。
具体的,参考图4,交界线L与交界线M形成两个夹角:较大的夹角β以及较小的夹角α,则上述预训练的场景识别机器学习模型判断玩家是否处于较大的夹角β的范围中。若玩家处于较大的夹角β的范围中,则交界线L与交界线M的交点A对于该玩家来说是一个“凸出点”;若玩家处于较小的夹角α的范围中,则交界线L与交界线M的交点A对于该玩家来说是一个“凹陷点”。本实施例中,对于玩家40来说交界线L与交界线M的交点A是一个“凸出点”,也是适用于作为定位虚拟目标的锚点。
继续参考图4,而交界线L与交界线N形成两个夹角:较大的夹角θ以及较小的夹角ξ,则基于上述预训练的场景识别机器学习模型判断到玩家40处于较小的夹角ξ的范围中。说明交界线L与交界线N的交点B对于该玩家40来说是一个“凹陷点”,并不适用于作为定位虚拟目标的锚点。
从而本技术方案基于预训练的场景识别机器学习模型,并结合玩家当前位置在上述端点集[A,B]中筛选出用于定位虚拟目标的锚点A。其中,玩家的当前位置可以通过终端设备的摄像部件与目标面的相对位置关系确定,即目标场景构建过程中考虑了玩家的位置因素,有利于提升玩家的沉浸感和游戏的代入感。
继续参考图1,在步骤S230中:基于所述终端设备与所述锚点之间的相对位置关系,在所述实体场景中渲染所述虚拟目标。示例性的,图5示出了根据本公开一示例性实施例中渲染方法的流程示意图。参考图5,该图所示实施例包括步骤S510和步骤S520。
在步骤S510中,在所述锚点的目标方向上创建所述虚拟目标,其中所述目标方向为远离所述终端设备的方向。
在示例性的实施例中,参考图6a,其中目标面的边界拐点A作为定位虚拟目标的锚点。进一步地,在步骤S510中,上述锚点的目标方向是指远离玩家40当前的位置(可以通过终端设备的位置确定)的方向。具体确定该方向的实施例如下:确定锚点A与玩家40当前的位置之间的连线P,然后确定垂直于连线P且过锚点A的直线Q,从而,直线Q不包含该玩家40的一侧(即角ε)即为上述目标方向。从而,可以绕锚点A且在角ε的方位内创建虚拟目标23。
为了更加清楚地说明创建虚拟目标23的位置,可以参考图6b示出的虚拟目标创建位置的立体示意图,可见根据上述技术方案创建虚拟目标23之后,在玩家的当前位置来看,墙体能够对虚拟目标23起到遮挡作用。参考图2,相较于现有技术中在玩家的可见范围内直接创建虚拟目标模型22。本技术方案能够在玩家视觉上隐藏虚拟目标的效果,从而增加有利于趣味性。
在步骤S520中,对所述目标面采用第一优先级进行渲染,对所述虚拟目标采用低于所述第一优先级的第二优先级进行渲染,以使渲染后得所述虚拟目标在所述当前视角下至少部分的被所述实体场景中的实体遮挡。
在示例性的实施例中,为了避免游戏场景中不同对象之间产生交叉、穿墙等不真实感,本技术方案采用分层渲染的方式对虚拟目标和目标面进行渲染处理。示例性的,为了达到在玩家视觉上将虚拟目标23的至少一部分隐藏于墙体之后的效果,对目标面采用第一优先级进行渲染,对虚拟目标采用低于所述第一优先级的第二优先级进行渲染。也就是说,在画面渲染的时候,将距离终端设备较近的目标面渲染在显示界面的顶层,并将距离终端设备较远的虚拟目标渲染在显示界面的顶层的下一层,从而形成远处的虚拟目标被近处的目标面(墙面)遮挡的视觉效果。
在示例性的实施例中,为了使得玩家身临其境的效果,在玩家靠近或远离虚拟目标的过程中,虚拟目标被遮蔽的面积是不断变化的。因此,可以多次获取其终端设备、锚点以及目标面之间的角度值(参考图6a,即连线P、锚点A与直线L之间的夹角σ),并随着所述角度值的变化调整对所述虚拟目标的渲染面积。具体地,响应于所述角度值增大,则增大对所述虚拟目标的渲染面积;或,响应于所述角度值减小,则减小对所述虚拟目标的渲染面积。从而达到在玩家靠近虚拟目标的过程中,虚拟目标被遮蔽的面积应该越来越小,反之,在玩家远离虚拟目标的过程中,虚拟目标被遮蔽的面积应该越来越大。
继续参考图5,在步骤S530中:获取在所述锚点处与所述目标面具有接触关系的相邻实体面,以及获取所述相邻实体面在所述实体场景中所处的位置信息,得到所述虚拟目标的环境信息。在步骤S540中:根据所述环境信息调整所述虚拟目标的摆放角度,以使所述虚拟目标不被所述实景场景中的实体隔断。
在示例性的实施例中,获取与目标面具有接触关系的相邻实体面的具体实施方式与上述步骤S320的具体实施方式相同,在此不再赘述。
本实施例中,由于位于目标面之后空间的实体的位置信息是不确定的,因此本技术方案根据玩家向前行进的过程中镜头获取更多背后信息并进行场景识别,从而根据场景识别结果将虚拟目标延锚点水平角度的微调,以提升游戏场景与现实的契合度。例如,参考图7,确定目标面L在锚点A处的相邻实体面M’,进而获取相邻实体面M’与目标面L之间的夹角,从而获取到虚拟目标23的环境信息。进一步地,根据该环境信息调整虚拟目标23的摆放角度,从而避免穿墙等不真实场景或虚拟目标不被所述实景场景中的实体隔断等问题的出现,提升游戏的代入感。
本领域技术人员可以理解实现上述实施方式的全部或部分步骤被实现为由处理器(包含CPU和GPU)执行的计算机程序。在该计算机程序被CPU执行时,执行本公开提供的上述方法所限定的上述功能。所述的程序可以存储于一种计算机可读存储介质中,该存储介质可以是只读存储器,磁盘或光盘等。
此外,需要注意的是,上述附图仅是根据本公开示例性实施方式的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
以下介绍本公开的增强现实中的显示装置实施例,可以用于执行本公开上述的增强现实中的显示方法。
图8示出了根据本公开的实施例的增强现实中的显示装置的结构示意图,参考图8,本实施例提供的增强现实中的显示装置800,包括:目标面获取模块801、锚点确定模块802、以及渲染模块803。其中:
上述目标面获取模块801,被配置为用于获取终端设备在当前视角下的实体场景,并在上述实体场景中确定符合预设条件的目标面;
上述锚点确定模块802,被配置为用于根据上述目标面确定虚拟目标的锚点,上述锚点用于在上述实体场景中定位上述虚拟目标,以使得上述虚拟目标在上述当前视角下至少部分的被上述实体场景中的实体遮挡;以及,
上述渲染模块803,被配置为用于基于上述终端设备与上述锚点之间的相对位置关系,在上述实体场景中渲染上述虚拟目标。
在本公开的一些实施例中,基于前述方案,上述目标面获取模块801,包括:获取单元和确定单元。其中:
上述获取单元,被配置为用于:根据上述终端设备的摄像部件获取当前视角下的实体,得到在上述当前视角下的实体场景;
上述确定单元,被配置为用于:基于预训练的场景识别机器学***面面积大于预设阈值的实体面作为上述目标面。
在本公开的一些实施例中,基于前述方案,上述锚点确定模块802,被具体配置为用于:
获取上述目标面与上述实体场景中的基础参考面的交界线的端点集;以及,获取在上述端点集中端点处与上述目标面具有接触关系的相邻实体面,并根据上述相邻实体面、上述目标面以及上述终端设备之间的位置关系,筛选上述端点集得到上述锚点。
在本公开的一些实施例中,基于前述方案,上述渲染模块803,包括:创建单元和渲染单元。其中:
上述创建单元被配置为用于:在上述锚点的目标方向上创建上述虚拟目标,其中上述目标方向为远离上述终端设备的方向;以及,
上述渲染单元被配置为用于:对上述目标面采用第一优先级进行渲染,对上述虚拟目标采用低于上述第一优先级的第二优先级进行渲染,以使渲染后得上述虚拟目标在上述当前视角下至少部分的被上述实体场景中的实体遮挡。
在本公开的一些实施例中,基于前述方案,上述增强现实中的显示装置800,还包括:角度调整模块。其中:
上述角度调整模块,被配置为用于:在上述渲染单元上述基于上述终端设备与上述锚点之间的相对位置关系,在上述实体场景中渲染上述虚拟目标之后:获取在上述锚点处与上述目标面具有接触关系的相邻实体面,以及获取上述相邻实体面在上述实体场景中所处的位置信息,得到上述虚拟目标的环境信息;以及,根据上述环境信息调整上述虚拟目标的摆放角度,以使上述虚拟目标不被上述实景场景中的实体隔断。
在本公开的一些实施例中,基于前述方案,上述渲染模块803,包括:角度值获取单元和渲染面积调整单元。其中:
上述角度值获取单元,被配置为用于:多次获取上述终端设备、上述锚点以及上述目标面之间的角度值;以及,
上述角渲染面积调整单元,被配置为用于:随着上述角度值的变化调整对上述虚拟目标的渲染面积。
在本公开的一些实施例中,基于前述方案,上述角渲染面积调整单元,被具体配置为用于:
响应于上述角度值增大,则增大对上述虚拟目标的渲染面积;或,响应于上述角度值减小,则减小对上述虚拟目标的渲染面积。
由于本公开的示例实施例的增强现实中的显示装置的各个功能模块与上述增强现实中的显示方法的示例实施例的步骤对应,因此对于本公开装置实施例中未披露的细节,请参照本公开上述的增强现实中的显示方法的实施例。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
在本公开示例性实施方式中,还提供了一种能够实现上述方法的计算机存储介质。其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当上述程序产品在终端设备上运行时,上述程序代码用于使上述终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
参考图9所示,描述了根据本公开的实施方式的用于实现上述方法的程序产品900,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
上述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为***、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
下面参照图10来描述根据本公开的这种实施方式的电子设备1000。图10显示的电子设备1000仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图10所示,电子设备1000以通用计算设备的形式表现。电子设备1000的组件可以包括但不限于:上述至少一个处理单元1010、上述至少一个存储单元1020、连接不同***组件(包括存储单元1020和处理单元1010)的总线1030。
其中,上述存储单元存储有程序代码,上述程序代码可以被上述处理单元1010执行,使得上述处理单元1010执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。例如,上述处理单元1010可以执行如图1中所示的:步骤S110,获取终端设备在当前视角下的实体场景,并在所述实体场景中确定符合预设条件的目标面;步骤S120,根据所述目标面确定虚拟目标的锚点,所述锚点用于在所述实体场景中定位所述虚拟目标,以使得所述虚拟目标在所述当前视角下至少部分的被所述实体场景中的实体遮挡;以及,步骤S130基于所述终端设备与所述锚点之间的相对位置关系,在所述实体场景中渲染所述虚拟目标。
示例性的,上述处理单元1010还可以执行如图1至图5中任意一图所示的增强现实中的显示方法。
存储单元1020可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)10201和/或高速缓存存储单元10202,还可以进一步包括只读存储单元(ROM)10203。
存储单元1020还可以包括具有一组(至少一个)程序模块10205的程序/实用工具10204,这样的程序模块10205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1030可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1000也可以与一个或多个外部设备1100(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备1000交互的设备通信,和/或与使得该电子设备1000能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1050进行。并且,电子设备1000还可以通过网络适配器1070与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公用网络,例如因特网)通信。如图所示,网络适配器1060通过总线1030与电子设备1000的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1000使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
此外,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。

Claims (10)

1.一种增强现实中的显示方法,其特征在于,所述方法包括:
获取终端设备在当前视角下的实体场景,并在所述实体场景中确定符合预设条件的目标面;
根据所述目标面确定虚拟目标的锚点,所述锚点用于在所述实体场景中定位所述虚拟目标,以使得所述虚拟目标在所述当前视角下至少部分的被所述实体场景中的实体遮挡;
基于所述终端设备与所述锚点之间的相对位置关系,在所述实体场景中渲染所述虚拟目标。
2.根据权利要求1所述的方法,其特征在于,
所述获取终端设备在当前视角下的实体场景,包括:
根据所述终端设备的摄像部件获取当前视角下的实体,得到在所述当前视角下的实体场景;
所述在所述实体场景中确定符合预设条件的目标面,包括:
基于预训练的场景识别机器学***面面积大于预设阈值的实体面作为所述目标面。
3.根据权利要求1所述的方法,其特征在于,所述根据所述目标面确定虚拟目标的锚点,包括:
获取所述目标面与所述实体场景中的基础参考面的交界线的端点集;
获取在所述端点集中端点处与所述目标面具有接触关系的相邻实体面,并根据所述相邻实体面、所述目标面以及所述终端设备之间的位置关系,筛选所述端点集得到所述锚点。
4.根据权利要求1至3中任意一项所述的方法,其特征在于,所述基于所述终端设备与所述锚点之间的相对位置关系,在所述实体场景中渲染所述虚拟目标,包括:
在所述锚点的目标方向上创建所述虚拟目标,其中所述目标方向为远离所述终端设备的方向;
对所述目标面采用第一优先级进行渲染,对所述虚拟目标采用低于所述第一优先级的第二优先级进行渲染,以使渲染后得所述虚拟目标在所述当前视角下至少部分的被所述实体场景中的实体遮挡。
5.根据权利要求1或2所述的方法,其特征在于,在所述基于所述终端设备与所述锚点之间的相对位置关系,在所述实体场景中渲染所述虚拟目标之后,所述方法还包括:
获取在所述锚点处与所述目标面具有接触关系的相邻实体面,以及获取所述相邻实体面在所述实体场景中所处的位置信息,得到所述虚拟目标的环境信息;
根据所述环境信息调整所述虚拟目标的摆放角度,以使所述虚拟目标不被所述实景场景中的实体隔断。
6.根据权利要求1至3中任意一项所述的方法,其特征在于,所述基于所述终端设备与所述锚点之间的相对位置关系,在所述实体场景中渲染所述虚拟目标,包括:
多次获取所述终端设备、所述锚点以及所述目标面之间的角度值,并随着所述角度值的变化调整对所述虚拟目标的渲染面积。
7.根据权利要求6所述的方法,其特征在于,所述随着所述角度值的变化调整对所述虚拟目标的渲染面积,包括:
响应于所述角度值增大,则增大对所述虚拟目标的渲染面积;或,
响应于所述角度值减小,则减小对所述虚拟目标的渲染面积。
8.一种增强现实中的显示装置,其特征在于,所述装置包括:
目标面获取模块,被配置为用于获取终端设备在当前视角下的实体场景,并在所述实体场景中确定符合预设条件的目标面;
锚点确定模块,被配置为用于根据所述目标面确定虚拟目标的锚点,所述锚点用于在所述实体场景中定位所述虚拟目标,以使得所述虚拟目标在所述当前视角下至少部分的被所述实体场景中的实体遮挡;
渲染模块,被配置为用于基于所述终端设备与所述锚点之间的相对位置关系,在所述实体场景中渲染所述虚拟目标。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的增强现实中的显示方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的增强现实中的显示方法。
CN202010239234.7A 2020-03-30 2020-03-30 增强现实中的显示方法和装置、介质和电子设备 Active CN111462339B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010239234.7A CN111462339B (zh) 2020-03-30 2020-03-30 增强现实中的显示方法和装置、介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010239234.7A CN111462339B (zh) 2020-03-30 2020-03-30 增强现实中的显示方法和装置、介质和电子设备

Publications (2)

Publication Number Publication Date
CN111462339A true CN111462339A (zh) 2020-07-28
CN111462339B CN111462339B (zh) 2023-08-08

Family

ID=71681733

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010239234.7A Active CN111462339B (zh) 2020-03-30 2020-03-30 增强现实中的显示方法和装置、介质和电子设备

Country Status (1)

Country Link
CN (1) CN111462339B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111921203A (zh) * 2020-08-21 2020-11-13 腾讯科技(深圳)有限公司 虚拟场景中的互动处理方法、装置、电子设备及存储介质
CN111930240A (zh) * 2020-09-17 2020-11-13 平安国际智慧城市科技股份有限公司 基于ar交互的运动视频采集方法、装置、电子设备及介质
CN112819969A (zh) * 2021-02-08 2021-05-18 广东三维家信息科技有限公司 虚拟场景路径的生成方法、装置、电子设备及存储介质
CN114596348A (zh) * 2021-12-08 2022-06-07 北京蓝亚盒子科技有限公司 基于屏幕空间的环境遮挡计算方法、装置及运行器、可读存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268608A1 (en) * 2017-03-15 2018-09-20 Facebook, Inc. Visual Editor For Designing Augmented-Reality Effects and Configuring Rendering Parameters
CN108830940A (zh) * 2018-06-19 2018-11-16 广东虚拟现实科技有限公司 遮挡关系处理方法、装置、终端设备及存储介质
CN109471521A (zh) * 2018-09-05 2019-03-15 华东计算技术研究所(中国电子科技集团公司第三十二研究所) Ar环境下的虚实遮挡交互方法及***
CN110221690A (zh) * 2019-05-13 2019-09-10 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180268608A1 (en) * 2017-03-15 2018-09-20 Facebook, Inc. Visual Editor For Designing Augmented-Reality Effects and Configuring Rendering Parameters
CN108830940A (zh) * 2018-06-19 2018-11-16 广东虚拟现实科技有限公司 遮挡关系处理方法、装置、终端设备及存储介质
CN109471521A (zh) * 2018-09-05 2019-03-15 华东计算技术研究所(中国电子科技集团公司第三十二研究所) Ar环境下的虚实遮挡交互方法及***
CN110221690A (zh) * 2019-05-13 2019-09-10 Oppo广东移动通信有限公司 基于ar场景的手势交互方法及装置、存储介质、通信终端

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111921203A (zh) * 2020-08-21 2020-11-13 腾讯科技(深圳)有限公司 虚拟场景中的互动处理方法、装置、电子设备及存储介质
CN111930240A (zh) * 2020-09-17 2020-11-13 平安国际智慧城市科技股份有限公司 基于ar交互的运动视频采集方法、装置、电子设备及介质
CN111930240B (zh) * 2020-09-17 2021-02-09 平安国际智慧城市科技股份有限公司 基于ar交互的运动视频采集方法、装置、电子设备及介质
CN112819969A (zh) * 2021-02-08 2021-05-18 广东三维家信息科技有限公司 虚拟场景路径的生成方法、装置、电子设备及存储介质
CN114596348A (zh) * 2021-12-08 2022-06-07 北京蓝亚盒子科技有限公司 基于屏幕空间的环境遮挡计算方法、装置及运行器、可读存储介质
CN114596348B (zh) * 2021-12-08 2023-09-01 北京蓝亚盒子科技有限公司 基于屏幕空间的环境遮挡计算方法、装置及运行器、可读存储介质

Also Published As

Publication number Publication date
CN111462339B (zh) 2023-08-08

Similar Documents

Publication Publication Date Title
CN111462339A (zh) 增强现实中的显示方法和装置、介质和电子设备
US10460512B2 (en) 3D skeletonization using truncated epipolar lines
US8542250B2 (en) Entertainment device, system, and method
CN109743892B (zh) 虚拟现实内容的显示方法和装置
WO2020248900A1 (zh) 全景视频的处理方法、装置及存储介质
US10573060B1 (en) Controller binding in virtual domes
US10957103B2 (en) Dynamic mapping of virtual and physical interactions
US20170186219A1 (en) Method for 360-degree panoramic display, display module and mobile terminal
KR20230044401A (ko) 확장 현실을 위한 개인 제어 인터페이스
CN109189302B (zh) Ar虚拟模型的控制方法及装置
CN112138386A (zh) 一种体积渲染方法、装置、存储介质及计算机设备
US10740957B1 (en) Dynamic split screen
CN116057577A (zh) 用于增强现实的地图
CN113791687B (zh) Vr场景中的交互方法、装置、计算设备及存储介质
US11100723B2 (en) System, method, and terminal device for controlling virtual image by selecting user interface element
WO2023065949A1 (zh) 虚拟场景中的对象控制方法、装置、终端设备、计算机可读存储介质、计算机程序产品
CN108986228B (zh) 用于虚拟现实中界面显示的方法及装置
CN116501209A (zh) 编辑视角的调整方法、装置、电子设备及可读存储介质
CN107248138B (zh) 虚拟现实环境中的人类视觉显著性预测方法
CN111507139A (zh) 图像效果生成方法、装置和电子设备
CN112435318B (zh) 一种游戏中的防穿模方法、装置、电子设备及存储介质
CN112473138B (zh) 游戏的显示控制方法及装置、可读存储介质、电子设备
CN110750227B (zh) 投影画面的处理方法、装置、终端设备及存储介质
CN116057580A (zh) 用于增强现实中的锚点的辅助数据
CN113041616A (zh) 游戏中控制跳字显示的方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant