CN108885522A - 渲染3d环境中的内容 - Google Patents
渲染3d环境中的内容 Download PDFInfo
- Publication number
- CN108885522A CN108885522A CN201780019148.1A CN201780019148A CN108885522A CN 108885522 A CN108885522 A CN 108885522A CN 201780019148 A CN201780019148 A CN 201780019148A CN 108885522 A CN108885522 A CN 108885522A
- Authority
- CN
- China
- Prior art keywords
- virtual objects
- environment
- user
- party content
- group
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optics & Photonics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
用于渲染3D环境中的内容的***、方法、设备和其他技术。在一些实施方式中,该***包括存储器子***、通信接口、渲染引擎、输入处理装置和虚拟对象管理器。存储器子***存储第一数据,该第一数据(i)定义的三维(3D)环境并且(ii)识别3D环境中的虚拟对象。通信接口通过网络发送对第三方内容的请求,以与3D环境中的虚拟对象一起显示,并响应于请求接收第三方内容。渲染引擎使用来自存储器子***的第一数据来渲染3D环境用于在显示设备上呈现,包括以虚拟对象显示第一组第三方内容的第一模式在3D环境的指定位置处渲染虚拟对象。
Description
背景技术
本说明书涉及数据处理,包括用于减少未使用的第三方内容的传输以及用于有效地渲染(render)3D环境中的第三方内容的技术。
已经开发了能够渲染三维(three-dimensional,3D)虚拟环境的各种计算***。作为示例,虚拟现实(virtual reality,VR)***可以渲染呈现给佩戴头戴式显示器的用户的3D环境。头戴式显示器可以包括用户通过该光学透镜观看屏幕和显示的3D环境的电子显示屏和光学透镜。该***可以在屏幕上立体地渲染3D环境,当通过头戴式显示器的镜透镜观察时,其为用户创建立体感。一些VR***提供沉浸式用户体验,因此用户感觉好像他或她实际存在于虚拟环境中。一些VR***允许用户环视3D环境、在3D环境中移动、并且在3D环境中操纵虚拟对象。
发明内容
该文档描述了用于减少网络上未使用的第三方内容的传输以及用于有效地渲染3D环境中的第三方内容的***、方法、设备和其他技术。通常,诸如虚拟现实***或增强现实***的客户端计算***可以呈现包括一个或多个合格的第三方内容(third-partycontent eligible,3PCE)虚拟对象的3D环境。3PCE虚拟对象是被配置为在3D环境的指定位置呈现第三方内容(例如,由实体提供的内容(该实体不同于提供3D环境的实体))的对象(例如,诸如立方体、球体、圆柱体或其他几何形状的3D对象)。3PCE虚拟对象可以在任何给定时间以与该对象相关联的多种显示模式中的一个来显示。当检测到触发事件(诸如,用户与3PCE虚拟对象的交互)时,***可以(诸如,通过将对象从一个显示模式转换到另一显示模式)更新虚拟对象。在一些实施方式中,用户与3PCE虚拟对象的交互使得对象显示一组新的第三方内容,以改变由对象显示的第三方内容的类型,以打开到与所显示的第三方内容(例如,网站或应用)相关联的外部资源(也被称为“门户资源”)的门户或者在3D环境外的外部环境中生成与所显示的第三方内容相关的通知。
本文描述的主题的一些实施方式包括计算***。该计算***包括存储器子***、通信接口、渲染引擎、输入处理装置和虚拟对象管理器。存储器子***被配置为存储第一数据,该第一数据(i)定义三维(3D)环境,以及(ii)识别3D环境中的虚拟对象。通信接口被配置为通过网络发送用于第三方内容的请求,以与3D环境中的虚拟对象一起显示,并响应于请求接收第三方内容。渲染引擎被配置为使用来自存储器子***的第一数据来渲染3D环境,用于在耦合到计算***的显示器设备上呈现,这包括以虚拟对象显示第一组第三方内容的第一模式在3D环境的特定位置渲染虚拟对象。输入处理装置被配置为检测用户与3D环境中的虚拟对象的交互。虚拟对象管理器被配置为从输入处理装置接收第一用户与3D环境中的虚拟对象的交互的指示,并且作为响应,命令渲染引擎将虚拟对象从虚拟对象显示第一组第三方内容的第一模式转换到虚拟对象显示第二组第三方内容的第二模式。
这些和其他实施方式可以可选地包括以下特征中的一个或多个。
显示器可以是头戴式显示器。3D环境可以是被配置成使用该头戴式显示器观看的虚拟现实(VR)环境。
渲染引擎可以被配置为在***已获得第二组第三方内容之前以第一模式渲染虚拟对象。通信接口可以被配置为基于(i)识别用户与虚拟对象的交互即将发生或者(ii)识别第一用户与虚拟对象的交互已经发生来发送对第二组第三方内容的请求。
第一组第三方内容可以包括图像的集合。在第一模式中,虚拟对象可以包括形成3D几何形状的多边形表面的集合。渲染引擎可以被配置为通过在多边形表面的集合的每个多边形表面上显示来自图像集合的相应图像来以第一模式渲染虚拟对象。
当以第一模式渲染虚拟对象时,虚拟对象的多边形表面的集合可以形成立方体。
响应于从虚拟对象管理器接收将虚拟对象从第一模式转换到第二模式的指令,渲染引擎可以被配置为使立方体动画化以展现第二组第三方内容。
图像的集合可以各自描绘与相同主题或实体相关的内容。
输入处理装置可以被配置为接收用户输入以在3D环境内移动用户的当前观看位置,并且检测用户的当前观看位置与3D环境中的虚拟对象的位置之间的关系。
虚拟对象管理器可以被配置为基于用户的当前观看位置与3D环境中的虚拟对象的位置之间的关系满足一个或多个标准的确定,将虚拟对象从第一模式转换到第二模式。
用户当前观看位置与虚拟对象的位置之间的关系可以是用户当前观看位置与虚拟对象位置之间的距离,其中虚拟对象管理器被配置为基于用户当前观看位置和虚拟对象在3D环境中的位置之间的距离小于阈值距离的确定,将虚拟对象从第一模式转换到第二模式。
输入处理装置可以被配置为监视3D环境中用户注视的方向,并且基于识别用户的注视在虚拟对象的方向上来检测第一用户交互。
虚拟对象管理器可以被配置为基于识别用户的注视已经在虚拟对象的方向上保持预定的时间长度来将虚拟对象从第一模式转换到第二模式。
输入处理装置可以被配置为在用户的注视在3D环境中的虚拟对象的方向上的同时,从基于手的控制器接收输入并且基于从基于手的控制器接收的第一输入来检测第一用户交互。
虚拟对象管理器还可以被配置为响应于从输入处理装置接收到第一用户与虚拟对象交互的指示,以在3D环境外触发生成用户通知,该用户通知与第一组第三方内容相关联的主题或实体相关。
虚拟对象以第二模式显示的第二组第三方内容的类型可以与虚拟对象以第一模式显示的第一组第三方内容的类型不同。
虚拟对象以第一模式显示的第一组第三方内容的类型可以是图像。虚拟对象以第二模式显示的第二组第三方内容的类型可以是视频或3D模型。
本文公开的主题的一些实施方式包括由计算***执行的方法。该方法可以包括在计算***的显示器上显示三维(3D)环境;由计算***识别位于3D环境中的虚拟对象是合格的以呈现第三方内容;由计算***获得虚拟对象的第一组第三方内容;由计算***以虚拟对象呈现第一组第三方内容的第一模式渲染3D环境中的虚拟对象;识别用户与3D环境中的虚拟对象的交互满足一组预定标准;以及响应于识别出用户与3D环境中的虚拟对象的交互满足一组预定标准,以虚拟对象呈现不同于第一组第三方内容的第二组第三方内容的第二模式重新渲染3D环境中的虚拟对象。
这些和其他实施方式可以可选地包括以下特征中的一个或多个。显示器可以是头戴式显示器。3D环境可以是被配置成使用该头戴式显示器观看的虚拟现实(VR)环境。***可以在已获得第二组第三方内容之前以第一模式渲染虚拟对象。该方法还可以包括基于(i)识别用户与虚拟对象的交互即将发生或者(ii)识别第一用户与虚拟对象的交互已经发生来发送对第二组第三方内容的请求。在第一模式中,虚拟对象可以包括形成3D几何形状的多边形表面的集合。第一组第三方内容可以包括图像的集合。以第一模式渲染虚拟对象可以包括在多边形表面的集合的每个多边形表面上渲染来自图像的集合的相应图像。以第一模式渲染虚拟对象可以包括渲染立方体,该立方体展示来自立方体的每个面上的图像集合的相应图像。第二组第三方内容可以包括视频,并且以第二模式重新呈现虚拟对象包括在3D环境中播放视频。以第二模式重新渲染虚拟对象可以包括使立方体动画化以展现第二组第三方内容。图像的集合可以各自描绘与相同主题或实体相关的内容。该方法可以进一步包括接收用户输入以在3D环境内移动用户的当前观看位置,以及检测用户的当前观看位置与3D环境中的虚拟对象的位置之间的关系。可以基于用户的当前观看位置与3D环境中的虚拟对象的位置之间的关系满足一个或多个标准的确定以第二模式重新渲染虚拟对象。用户的当前观看位置与虚拟对象的位置之间的关系可以是用户的当前观看位置与虚拟对象的位置之间的距离,其中以第二模式重新渲染虚拟对象可以基于用户的当前观看位置与3D环境中虚拟对象的位置之间的距离小于阈值距离的确定。该方法可以进一步包括监视3D环境中用户的注视方向,并基于识别用户的注视在虚拟对象的方向上来检测第一用户交互。可以基于识别用户的注视已经在虚拟对象的方向上保持预定的时间长度以第二模式重新渲染虚拟对象。该方法可以进一步包括在用户的注视在3D环境中的虚拟对象的方向上的同时,从基于手的控制器接收输入并基于从基于手的控制器接收的第一输入检测第一用户交互。该方法还可以包括响应于接收到第一用户与虚拟对象的交互的指示,在3D环境外触发生成用户通知,该用户通知与第一组第三方内容相关联的主题或实体相关。虚拟对象以第二模式显示的第二组第三方内容的类型可以与虚拟对象以第一模式显示的第一组第三方内容的类型不同。虚拟对象以第一模式显示的第一组第三方内容的类型可以是图像。虚拟对象在第二模式中显示的第二组第三方内容的类型可以是视频或3D模型
***可以响应于识别用户与3D环境中的虚拟对象的交互或另一用户交互,从与计算***分离的服务器中检索第二组内容。
本文公开的主题的一些实施方式包括具有存储其上的指令一个或多个非暂时性计算机可读介质,当这些指令由一个或多个处理器执行时,使得一个或多个处理器执行本文公开的任何方法。
在某些情况下,本文描述的主题的一些实施方式可以实现以下优点中的一个或多个。首先,计算***可以通过约束在初始渲染内容时(例如,在将对象转换到不同显示状态的触发事件发生之前)用于在对象上显示的内容的类型和/或格式是合格的来更有效地渲染包含3D环境中的第三方内容的虚拟对象。例如,在一些实施方式中,***可以在用户与对象交互以对所显示的图像表达兴趣之前在对象上仅显示不超过最大尺寸约束的图像。可以在以对象的初始显示模式在对象上显示的一组主要内容中禁止超大图像或其他类型的媒体格式(例如,音频、视频)。这样的约束可以通过减少渲染对象所需的计算需求来帮助更有效地渲染3D环境中的对象。此外,由于类型和/或格式约束,可以减少合格的第三方内容的文件大小,这加速了从内容分发***的远程服务器传送第三方内容。
其次,通过延迟某些格式或类型的第三方内容的呈现直到发生触发事件,可以减少对渲染3D环境的客户端***的计算需求。例如,用户可能希望在探索3D环境的同时看到复杂的3D模型项目,但是渲染3D环境中的3D模型可能在计算上是昂贵的。为了避免在立即显示复杂3D模型时耗尽计算资源,可以仅在用户首次与具有第一模式的图像的虚拟对象交互之后显示3D模型,其使用较轻的足迹模型(例如,在具有相对较少的多边形的立方体或其他对象上显示图像)为用户预览3D模型。
第三,通过推迟对与虚拟对象的次要显示模式相关联的第三方内容的请求,直到检测到触发事件(例如,与虚拟对象的用户交互或与虚拟对象的预期用户交互)已经发生,可以避免或减少未使用的第三方内容的传输。例如,如果虚拟对象被配置为在用户与对象交互之后呈现视频,则视频可能不会立即从内容分发***的服务器发送到客户端***。相反,仅在用户与3D环境中的对象已经交互之后,才可以在一些实施方式中发送视频。
第四,通过合并多条用于在虚拟对象上显示第三方内容以及通过向3D环境外的用户生成外部通知,可以减少对3D环境中的用户的体验的干扰。例如,如本文所讨论的使用虚拟对象呈现第三方内容的技术可以减少对沉浸式VR体验的干扰。
附图说明
图1是示例框架的框图,在该示例框架中第三方内容被分发用于在3D环境中与虚拟对象一起呈现。
图2A至图2D描绘了3D环境中的示例性的合格的第三方内容(3PCE)虚拟对象的图示。
图3描绘了示例客户端计算***的框图,该客户端计算***被配置为渲染示出由内容分发***指定的第三方内容的3D环境。
图4A和图4B描绘了用于渲染3D环境中的虚拟对象的示例过程的流程图。
图5描绘了示出客户VR***和内容分发***之间的示例过程中的交互的泳道图。
图6描绘了用于基于与由于用户与3PCE虚拟对象的交互而生成的外部通知相关联的转换来评估3D环境中的第三方内容选择的示例过程的流程图。
图7是计算机***的示意图,该计算机***可用于执行结合本文描述的计算机实施的方法、***、设备和其他技术描述的操作。
具体实施方式
图1是示例框架100的框图,在该示例框架中第三方内容被分发,用于在3D环境(诸如虚拟现实环境)中与虚拟对象一起呈现。示例框架100包括网络102,诸如局域网(localarea network,LAN)、广域网(wide area network,WAN)、因特网或其组合。网络102连接3D应用服务器104、用户设备106、第三方内容服务器108和第三方内容分发***110(也称为内容分发***)。示例框架100可以包括许多不同的3D应用服务器104、用户设备106和第三方内容服务器108。
用户设备106是能够通过网络102请求和接收资源(例如,3D应用)的电子设备。示例用户设备106包括个人计算机、移动通信设备和可以通过网络102传送和接收数据的其他设备。用户设备106通常包括用户应用(诸如web浏览器)以便于通过网络102传送和接收数据,但是由用户设备106执行的本机应用(native application)也可以促进通过网络102传送和接收数据。
3D资源(例如,3D应用或3D环境的定义文件)是针对在用户设备106上渲染3D环境的资源。3D资源的示例包括虚拟现实应用、视频游戏、混合现实应用、增强现实应用以及可以在任何这些类型的应用中显示的3D环境的定义。3D资源可以包括定义3D环境内的一个或多个3D环境和虚拟对象的数据。3D应用服务器104可以向用户设备106提供3D资源。例如,3D应用服务器104可以包括托管发布者网站的服务器。在该示例中,用户设备106可以发起针对给定3D资源的请求,并且托管给定3D资源的3D应用服务器104可以通过将3D资源发送到用户设备106来响应该请求。在一些实施方式中,3D应用服务器可以向用户设备106提供一个或多个定义文件。定义文件包括表示3D环境的数据,该3D环境可以由安装在用户设备106上的3D应用程序处理以渲染3D环境。
在一些情况下,给定3D资源可以包括引用第三方内容分发***110的第第三方脚本或第三方标签。在这些情况下,当由用户设备106处理给定3D资源时,用户设备106执行第三方标签或第三方脚本。第三方标签或第三方脚本的执行将用户设备106配置为生成对通过网络102被发送到第三方内容分发***110的第三方内容112的请求。例如,第三方标签或第三方脚本可以使得用户设备106能够生成包括报头和有效载荷数据的分组化的数据请求。请求112可以包括诸如从其请求第三方内容的服务器的名称(或网络位置)、请求设备(例如,用户设备106)的名称(或网络位置)的数据和/或第三方内容分发***110可用于选择响应于该请求而提供的第三方内容的信息。用户设备106通过网络102(例如,电信网络)将请求112发送到第三方内容分发***110的服务器。
请求112可以包括指定3D资源的数据、指定要在其上呈现第三方内容的虚拟对象的特性的数据以及指定虚拟对象出现的3D环境的特性的数据。例如,可以向内容分发***110提供指定将在其上呈现第三方内容的虚拟对象的形状或几何形状、虚拟对象的尺寸(例如,长度、宽度、高度和/或体积)、虚拟对象在3D环境中的位置、可以接收第三方内容的虚拟对象上合格的表面的数量、与3D环境相关联的描述性关键字和/或对于在虚拟对象上呈现是合格的媒体类型的数据。
请求112还可以包括与其他信息有关的数据,诸如用户已提供的信息、指示提交请求的状态或区域的地理信息、或者为将显示第三方内容的环境提供上下文的其他信息。还可以在请求112中提供指定用户设备106的特性的数据,诸如识别用户设备106的模型的信息、设备106的选择能力(例如,基于手的控件是否可用于选择虚拟对象、用户可以点击以选择3D环境中渲染的项的耳机本身上的控件是否可用)、用户设备106的配置、电子显示器的类型(例如,用于VR设备106的触摸屏或头戴式显示器)。例如,可以通过分组化的网络发送请求112,并且可以将请求112本身格式化为具有报头和有效载荷数据的分组化数据。报头可以指定分组的目的地,并且有效载荷数据可以包括以上讨论的任何信息。
第三方内容分发***110响应于接收到请求112和/或使用包括在请求112中的信息,选择将在3D环境中的虚拟对象上或附近呈现的第三方内容。
在一些实施方式中,第三方内容分发***110在分布式计算***中实施,该分布式计算***包括例如服务器和一组多个计算设备114,它们互连并且响应于请求112识别和分发第三方内容。例如,该组多个计算设备114一起操作以从数百万个可用第三方内容(3PC1-x)的语料库中识别是合格的而被与3PCE虚拟对象一起呈现一组第三方内容。例如,可以在第三方语料库数据库116中索引数百万个可用的第三方内容项。每个第三方内容索引条目可以引用相应的第三方内容和/或包括调节相应第三方内容分发的分发参数(DP1-DPx)(例如,选择标准)。
在一些实施方式中,特定第三方内容的分发参数(例如,选择标准)可以包括必须匹配的分发关键字(例如,由请求112中指定的3D资源或术语)以便第三方内容是合格的以进行呈现。分发参数还可以要求请求112包括指定特定地理区域(例如,国家或州)的信息和/或指定请求112源自特定类型的用户设备106的信息以便第三方内容是合格的以进行呈现。分发参数还可以指定用于分发特定第三方内容的出价和/或预算。
可以将合格的第三方内容的识别分段为多个任务117a-117c,然后在一组多个计算设备114内的计算设备之间分配这些任务。例如,组114中的不同计算设备可以各自分析第三方语料库数据库116的不同部分,以识别具有与请求112中包括的信息匹配的分发参数的各种第三方内容。在一些实施方式中,组114中的每个给定计算设备可以分析不同的数据维度(或维度组)并且将分析的结果(Res1-Res3)118a-118c传递回第三方内容分发***110。例如,由组中的计算设备中的每一个提供的结果118a-118c可以识别响应于请求而是合格的以用于分发的第三方内容的子集和/或具有某些分发参数或属性的第三方内容的子集。
第三方内容分发***110聚合从一组多个计算设备114接收的结果118a-118c,并使用与聚合的结果相关联的信息来选择将响应于请求112而提供的第三方内容的一个或多个实例。例如,第三方内容分发***110可以基于一个或多个内容评估过程的结果来选择一组获胜的第三方内容,如以下进一步详细讨论的那样。反过来,第三方内容分发***110可以通过网络102生成并发送回复数据120(例如,表示回复的数字数据),使得用户设备106能够将该组获胜的第三方内容成到3D环境当中,例如,用于在3D环境中的合格虚拟对象上呈现。
在一些实施方式中,用户设备106执行包括在回复数据120中的指令,该指令配置并使得用户设备106能够从一个或多个第三方内容服务器获得该组获胜的第三方内容。例如,回复数据120中的指令可以包括网络位置(例如,统一资源定位符(Uniform ResourceLocator,URL))和脚本,该脚本使得用户设备106向第三方内容服务器108发送第三方请求(3PR)121,以从第三方内容服务器108获得给定的获胜第三方内容。响应于该请求,第三方内容服务器108将向用户设备106发送第三方数据(TP数据)122,该第三方数据122使得给定的获胜第三方内容被合并到3D环境中并在用户设备106处呈现。
图2A至图2D描绘了3D环境中的示例性第三方内容合格(3PCE)虚拟对象202的图示。通常,3PCE对象是被布置为呈现3D环境中的第三方内容的虚拟对象。在3PCE对象上呈现的内容可以被创建并且可用于一个或多个第三方实体(例如,个人、企业、组织)分发,这些第三方实体不同于并且独立于开发呈现第三方内容的3D环境的一个或多个实体。例如,虚拟现实游戏可以包括3PCE虚拟对象以呈现独立于游戏本身及其3D环境生成的第三方内容(例如,广告)。
当渲染3D环境中的3PCE虚拟对象时,3PCE虚拟对象可以具有多个显示模式。对于每个显示模式,虚拟对象可呈现不同组的第三方内容、可采用定义虚拟对象的形状的不同3D模型、可触发3D环境内外的不同事件(例如,外部通知)或这些的组合。在一些实施方式中,不同的显示模式提供不同类型或格式的第三方内容以在虚拟对象上显示(或以其他方式与虚拟对象结合)。例如,在第一显示模式中,可以在定义虚拟对象的形状的3D模型的表面上显示一组第三方图像。相反,第二显示模式可以以要与虚拟对象一起呈现的另一种媒体格式提供文本、视频或内容。用户可以与3PCE虚拟对象交互,例如,通过选择对象、注视对象、接近对象或这些的组合。在一些实施方式中,检测到的与3PCE对象的用户交互通过从一个活动的显示模式转换到另一活动的显示模式来触发对象改变显示模式。因此,如果用户对以第一显示模式在虚拟对象上呈现的第三方内容感兴趣,则用户可以选择该对象以观看与最初呈现的第三方内容的相同主题相关的附加内容或不同内容。在一些实施方式中,***推迟获得或呈现附加内容,直到用户通过与虚拟对象交互来指示他或她对内容的兴趣,从而减少来自内容分发***的、不会在3D环境中渲染的第三方内容的传输。
转到图2A,以第一显示模式示出3PCE虚拟对象202。这里,对象202具有基于立方体形状的3D模型的立方几何。在一些实施方式中,虚拟对象202的形状符合第三方内容分发标准,以确保虚拟对象202可以正确地显示也根据分发标准格式化的一组第三方内容。例如,可以通过分发标准来指定第三方媒体内容的分辨率和文件类型,并且可以对虚拟对象进行整形以便在其表面上正确地显示第三方媒体内容。如图2A所示,在第一显示模式中,虚拟对象202在立方体的每个面上展示相应的图像(例如,202a-c)。以第一显示模式呈现在立方体上的图像集合构成一组主要的第三方内容,该第三方内容是第一次渲染3D环境时最初显示在对象202上的一组第三方内容。在一些实施方式中,虚拟对象202在3D环境中缓慢旋转以允许用户观看对象的所有侧面以及在对象的每一侧上呈现的内容。
当用户与3D环境中的虚拟对象202交互时,虚拟对象202可以从第一显示模式转换到与对象202相关联的另一显示模式。图2B至图2D示出了虚拟对象202可以响应于检测到的与对象202的用户交互而转换的可替换的显示模式的示例表示。2B至图2D中的显示模式中的每一个可以由相应的转换状态模型定义,该转换状态模型指示对象202如何以显示模式显示第三方内容以及指示与显示模式相关联的任何补充的操作(例如,在3D环境外生成通知)。例如,当虚拟对象202转换到第二显示模式时,如图2B中所示的那样,立方体模型被动画化以便打开立方体并展现第二3D模型204。第二3D模型204可以与已经在立方体的侧面上显示的一组主要的第三方内容主题相关。例如,如果立方体侧面上的图像显示跑车,则在立方体内部展现的第二3D模型204可以是相同跑车的3D模型。
作为另一示例,图2C示出了虚拟对象202的第三显示模式,其中当立方体响应于用户与对象202的交互而打开时,在立方体内部展现视频播放器206。视频播放器206可以以视频的形式呈现次要第三方内容。可以基于视频内容与以第一显示模式在立方体的面上显示的主要内容之间的主题关系来选择视频。
作为另一示例,图2D示出了虚拟对象202的第四显示模式。在第四模式中,在其上渲染3D环境的客户端***、内容分发***或两者生成与3D环境之外的第三方内容相关的通知。当用户以第一显示模式与对象202交互时,可以将通知消息自动发送到用户的一个或多个账户。通知消息可以包括例如关于在一组主要的第三方内容中展出的产品或服务的附加信息或者关于提供第三方内容的一组主要的第三方内容提供商的附加信息。通知消息有时可以包括到与一组主要的第三方内容相关联或与第三方内容提供商相关联的外部资源(例如,网站或应用)的链接。开发者、分销商、内容提供商和终端用户有时可能更喜欢直接在3D环境中呈现的第三方内容的外部通知,以便最小化来自3D环境中呈现的本机内容的干扰。在一些实施方式中,弹出通知消息208还可以在虚拟对象202上或附近的3D环境内显示。弹出通知消息208可以包含在外部通知中传送的相同消息、可以包含已经传送的外部通知的确认或者两者。
图3描绘了示例客户端计算***300的框图,该客户端计算***300被配置为渲染展出由内容分发***350指定的第三方内容的3D环境。在一些实施方式中,客户端计算***300是用户设备,例如,来自图1的用户设备106。内容分发***350可以被配置为来自图1的第三方内容分发***110、来自图1的第三方内容服务器108或者可以包括***108和110两者的方面。内容分发***350一般可以被实施为一个或多个位置中的一个或多个计算机的***。客户端计算***300通过网络(例如,因特网、局域网、无线宽带网络)与内容分发***350通信。尽管未在图3中示出,但是出于各种目的,客户端计算***300除了内容分发***350之外还可以与其他***通信。例如,客户端计算***300可以与用于在线应用商店的服务器或开发者服务器通信,以获得使得***300能够渲染3D环境的虚拟现实、增强现实和/或混合现实应用。同样地,客户端计算***300可以通信用于在线应用商店的服务器或开发者服务器以获得3D环境(例如,沉浸式虚拟现实游戏)的定义文件。
客户端计算***300可以是被配置并启用以渲染具有合并的第三方内容的3D环境的各种计算***中的任何一种。在一些示例中,客户端计算***被配置为呈现虚拟现实类型的3D环境,用户经由头戴式显示器观看该3D环境。在其他示例中,客户端计算***300被配置为在传统的二维屏幕上呈现其他类型的3D环境,诸如增强现实环境、混合现实环境或游戏环境。***300可以被集成到一个设备中,或者可以在一个或多个位置中包括多个单独连接的组件。在一些实施方式中,客户端计算***300包括显示器304、存储器子***306、3D环境渲染引擎308、输入处理器310、虚拟对象管理器312和网络接口314。
显示器304是电子显示器,其被配置为向用户可视地显示3D环境。显示器304可以采用各种形式用于不同类型的***。例如,在虚拟现实***中,显示器304可以是头戴式显示器,其中显示器304的观看屏幕被固定在用户眼睛前方几英寸的位置。在VR***中,显示器304可以提供3D环境的立体呈现。当用户通过一组透镜观看3D环境的立体呈现时,3D环境看起来具有深度,因此用户感觉好像他或她沉浸在3D环境中。在一些实施方式中,屏幕是头戴式显示器的整体组件。在其他实施方式中,智能手机或其他移动单元可拆卸地固定到头部单元以形成头戴式显示器,该头戴式显示器使用移动单元的屏幕作为头戴式显示器的屏幕。显示器304可以是例如液晶显示器(liquid-crystal display,LCD)、有机发光二极管显示器(organic light-emitting diode display,OLED)或有源矩阵OLED(active matrixOLED,AMOLED)显示器。
存储器子***306包括存储表征3D环境的数据的一个或多个存储设备。3D环境是能够在三维中渲染的虚拟环境。3D环境的示例包括3D游戏和视频环境(例如,现场或记录的事件流,诸如3D音乐会或运动事件流)。在一些情况下,客户端计算***302的用户可以通过移动他或她的头以环顾环境(例如,在虚拟现实***中)、通过在环境中移动、通过操纵环境中的对象或这些的组合来探索虚拟3D环境。客户端计算***302的其他组件可以访问存储器子***306以从存储设备读取、写入或删除数据。
在一些实施方式中,由存储器子***306存储的、表征3D环境的数据包括对一个或多个合格第三方内容(3PCE)虚拟对象的声明。可以使用各种合适的编程技术中的任何一种来声明针对3D环境的3PCE虚拟对象。在一些实施方式中,开发者可以将标签、脚本或可执行代码***到3D环境的(多个)定义文件,当标签、脚本或可执行代码被执行时根据其中指定的任何参数实例化3D环境中的3PCE虚拟对象。例如,当由客户端计算***302处理***的标签,脚本或可执行代码时,***的标签,脚本或可执行代码可以使客户端计算***302访问特定3D模型(例如,立方体或球体),以从内容分发***350请求第三方内容,并且利用从内容分发***350返回(或者从由内容分发***350识别的一个或多个其他第三方内容服务器返回)的第三方内容来渲染3D模型。开发者可以手动将标签,脚本或可执行代码***到3D环境的定义(例如,源代码或可执行代码)中,或者可以通过开发者用来创建3D环境(例如,所见即所得(What You See Is What You Get,WYSIWYG)开发环境)的编程或设计环境自动地***代码。
在一些实施方式中,声明3PCE虚拟对象的标签、脚本或可执行代码可以包括指定对象的一个或多个属性的一个或多个参数。例如,3PCE虚拟对象的属性可以指示对象在3D环境中的显示方式、对象位于3D环境中的位置、对象的合格类型或几何形状、对可以被选择用于在对象上显示的第三方内容的约束、与对象相关联的交互模型、与对象相关联的转换状态模型、或者这些中的两个或更多个的组合。在一些实施方式中,3PCE虚拟对象可以高度定制具有许多开发者可指定的属性。在其他实施方式中,可以用相对较少的开发者指定的属性来声明3PCE虚拟对象,并且可选地,可以向开发者提供较少的定制选项。例如,开发者可以通过标记、脚本或可执行代码声明3PCE虚拟对象,该标记、脚本或可执行代码仅指定对象将放置在虚拟环境中的位置,并且在某些实例中,还指定对象的大小(例如,物体的长度、宽度、高度和/或体积)。可以由客户端计算***302、内容分发***350或两者基于默认设置或基于与对象相关联的上下文自动选择未在对象声明中指定的虚拟对象的特性。与3PCE虚拟对象相关联的上下文可以包括例如,对象放置其中的3D环境的特性、客户端计算***302的特性、用户或观看3D环境的用户的帐户的特性、3D环境的开发者的特性或偏好、或者这些上下文中的两个或更多个的组合。
3D环境渲染引擎308是客户端计算***302的子***,其被配置为从存储器子***306读取3D环境的定义并且渲染3D环境以经由显示器304并且可选地使用一个或多个附加***输出设备(例如,扬声器、手控制器、触觉反馈设备)呈现给用户。渲染引擎308可以包括被配置和启动以执行本文描述的操作的一个或多个数据处理装置(例如,处理器)。数据处理装置可以专用于渲染引擎308,或者可以至少部分地与客户端计算***302的其他组件共享。在一些实施方式中,渲染引擎308包括处理3D环境定义文件并渲染环境的3D呈现的一个或多个图形处理单元(graphics processing units,GPU)。例如,用于虚拟现实***的渲染引擎308可以处理用于3D环境的一个或多个定义文件以生成3D环境的立体显示,当用户通过特殊配置的镜头观看该立体显示时,其向用户提供沉浸式3D体验。
输入处理器310是客户端计算***302的子***,其被配置为监测一个或多个输入通道,用于在为用户渲染3D环境的同时接收的用户输入。输入处理器310可以包括被配置和启动以执行本文描述的操作的一个或多个数据处理装置(例如,处理器)。输入处理器310可以根据客户端计算***302的特定配置来检测各种类型的用户输入。例如,基本虚拟现实(VR)***可以基于来自头戴式显示器单元中的一个或多个方位传感器和运动传感器的信号来检测用户输入。方位传感器和运动传感器可包括一个或多个加速度计、罗盘、陀螺仪、磁力计或这些传感器的组合。方位传感器和运动传感器可以实时地生成指示用户在3D VR环境内的注视的方向的信号,并且这些信号可以由输入处理器310解释以实时跟踪用户注视的方向。此外,客户端计算***302可以包括例如在基于手的控制器上或在头戴式显示器上的一个或多个按钮或开关,其可以由用户致动以向***302提供输入。更先进的VR***可以提供附加的用户输入通道,诸如位于头戴式显示器外部的运动跟踪传感器,其跟踪头戴式显示器上的基准点的移动。输入处理器310可以解释来自外部运动传感器的信号以确定用户在六个自由度中的运动,例如包括旋转和平移。
在一些实施方式中,输入处理器310包括用于检测3D环境内的预定用户动作的逻辑。预定用户动作可以包括与3D环境中的3PCE虚拟对象的交互,或者指示用户可能即将与3PCE虚拟对象交互的动作。例如,渲染引擎308可以在3D环境的显示器中绘制识别用户凝视的方向标线(reticle)。标线可以是小的,以便不会混淆3D环境的显示或分散VR***中的沉浸式体验,但是标线可以为用户提供有用的反馈,以基于用户的注视方向可视化地识别3D环境中的目标对象。在一些实施方式中,输入处理器310可以使用标线来检测用户与3PCE虚拟对象的交互。例如,如果输入处理器310检测到标线已经在3D环境中的虚拟对象上保持位置达预定的时间长度(例如,预先指定的阈值时间间隔),则输入处理器310可以标示(register)发生用户与虚拟对象的交互,并将用户与对象的交互的通知推送到虚拟对象管理器312。在一些实施方式中,当输入按钮或开关被激活时,输入处理器310基于识别标线位于虚拟对象上方来检测用户与虚拟对象的交互。在一些实施方式中,输入处理器310基于识别用户的凝视指向对象(例如,当用户在3D环境中的当前观看位置在3D环境中的对象的位置的阈值距离内时,通过识别标线位于虚拟对象上方)来检测用户与虚拟对象的交互。渲染引擎308还可以在3PCE虚拟对象上、在对象附近或者以其他方式在3D环境中绘制进度条,进度条指示用户必须注视对象以触发动作的时间,例如直到对象转换显示模式的时间。
在一些实施方式中,***302可以监视用户输入的模式,该模式指示用户可能即将与3PCE虚拟对象交互。输入处理器310可以存储表示指示用户可能即将与3PCE虚拟对象交互的预定用户动作(例如,用户输入的模式)的规则或其他逻辑。当输入处理器310检测到与预定用户输入模式中的一个匹配的用户输入模式时,输入处理器310可以抛出标记并向虚拟对象管理器312推送指示用户可能即将与对象交互的通知。例如,如下面关于虚拟对象管理器314进一步讨论的,当***抛出指示可能与虚拟对象的用户交互的标志时,该标志可以触发检索次要第三方内容,以虚拟对象的次要模式与对象一起显示。这样,可以在用户与对象的实际交互之前检索次要内容,但是次要内容被推迟,直到用户的动作指示与对象实际交互以显示次要内容的意图。因此,可以通过推迟次要内容的传输,直到输入处理器310检测到用户已经与虚拟对象交互或者可能与虚拟对象交互来减少对次要内容的网络传输和本地存储要求。
虚拟对象管理器312是客户端计算***302的子***,虚拟对象管理器312管理出现在3D环境中的3PCE虚拟对象。虚拟对象管理器312可以被实施为被编程以执行本文描述的操作的一个或多个位置中的一个或多个数据处理装置(例如,处理器)。数据处理装置可以专用于虚拟对象管理器312,或者可以在虚拟对象管理器312和客户端计算***302的一个或多个其他组件之间共享。
在一些实施方式中,当最初在***302上加载并渲染3D环境时,渲染引擎308解析3D环境的(多个)定义文件、识别被声明出现在3D环境中的任何3PCE虚拟对象、以及调用虚拟对象管理器312来实例化每个3PCE虚拟对象。在调用虚拟对象管理器312时,渲染引擎308可以将对象声明中指定的任何参数的值传递给管理器312。对于每个对象,虚拟对象管理器312至少获得最初显示在对象上的相应第一组第三方内容,诸如要在对象的外表面上显示的一组第三方图像。在一些实施方式中,虚拟对象管理器312使用网络接口314请求第三方内容来从内容分发***350获得要在对象上呈现的第三方内容。然后,虚拟对象管理器312返回到渲染引擎308,用以在3D环境中呈现表示3PCE虚拟对象的几何形状和已被选择用于在对象上显示的第三方内容的3D模型。在一些实施方式中,第三方内容是文本。在一些实施方式中,第三方内容是一个或多个图像、视频或两者。然后,渲染引擎308绘制3D环境中的虚拟3D对象用以呈现给用户。
在一些实施方式中,虚拟对象管理器312还被配置为处理对检测到的与3D虚拟环境中的3PCE虚拟对象的用户交互的响应。例如,在检测到用户在虚拟环境中的动作与指示用户已经与3PCE虚拟对象交互或可能即将交互的一组预定用户动作匹配时,输入处理器310可以调用虚拟对象管理器312确定如何响应与对象的用户交互或预期的用户交互。在对虚拟对象管理器312的调用中,输入处理器310可以传递作为交互或预期交互的目标的对象的标识符,并且还可以传递表征与对象的交互类型的信息(例如,凝视和选择、扩展凝视、基于手的对象操纵)。虚拟对象管理器312可以使用从输入处理器310传递的信息来确定如何响应给定用户与对象的交互或如何响应与对象的预期用户交互。在一些实施方式中,虚拟对象管理器312维持已经在虚拟环境中检测到的用户与3PCE对象的交互或预期用户交互的日志,该日志被自动且周期地报告给内容分发***350或分析3D虚拟环境中用户与3PCE对象的交互的模式的另一***。因此,当虚拟对象管理器312从输入处理器310接收到与3PCE虚拟对象的用户交互或预期用户交互的指示时,虚拟对象管理器312可以向日志中添加捕捉关于交互的显著信息的条目,例如交互的时间戳、交互的目标对象以及与交互相关联的上下文。
可以在与对象相关联的多个模式中的一个中激活3PCE虚拟对象。在一些实施方式中,3PCE对象具有主要模式和次要模式。在主要模式下,对象显示一组主要的第三方内容。在次要模式中,对象使用从一组可能的转换状态模型选择的特定转换状态模型向客户端计算***302的用户提供信息。如下面参考图4B进一步详细讨论的那样,每个转换状态模型表示相应的技术,通过该技术对象以第二模式呈现与一组主要的第三方内容相关的附加信息。
例如,使用第一转换状态模型,3PCE虚拟对象被配置为呈现一组次要的第三方内容。一组次要的第三方内容可以不同于一组主要的第三方内容,但是仍然与一组主要的第三方内容相关联的相同主题或实体相关。一组次要的第三方内容也可以具有与第一组第三方内容不同的类型(例如,媒体格式)。例如,在第一模式中,3PCE虚拟对象可以将与特定产品或服务相关的图像集合展示为一组主要的第三方内容。在第二模式中,可以用关于特定产品或服务的视频将主要内容替换为一组次要的第三方内容。视频可以是2D视频,或者在一些实施方式中可以是沉浸式360度视频。
可替换地,使用第二转换状态模型,3PCE虚拟对象被配置为生成关于与一组主要的第三方内容相关联的主题或实体的外部通知。外部通知是在3D环境的外部(例如,在不同的应用中和/或在不同的设备上)提供给用户的通知,诸如短消息服务(short-messageservice,SMS)文本消息中的通知、社交媒体消息、电子邮件消息或在智能手机或其他移动设备或计算***的通知列表中显示的通知。
可替换地,使用第三转换状态模型,3PCE虚拟对象被配置为向与一组主要的第三方内容相关的主题或实体相关联的外部目的地提供门户。例如,对象可以呈现展示与关于一组主要的第三方内容的主题或实体相关联的指定网站的弹出框架、呈现展示与关于一组主要的第三方内容的主题或实体相关联的应用的弹出框架,或者可以将用户引导到与关于一组主要的第三方内容的主题或实体相关联的不同3D环境。在一些实施方式中,3PCE虚拟对象的次要模式可以提供两个或更多个转换状态模型的方面,诸如既呈现一组次要的第三方内容又向用户传送外部通知的虚拟对象。
分配给给定3PCE对象的(多个)转换状态模型可以由客户端计算***302的虚拟对象管理器312、内容分发***350的转换状态模型选择器368、或两者来选择。在一些实施方式中,响应于从输入处理器310接收到用户与3PCE虚拟对象的交互的指示同时对象以第一模式显示一组主要的第三方内容,虚拟对象管理器312识别分配给该对象的转换状态模型和与该转换状态模型相关联的参数(例如,一组次要的第三方内容、通知消息、指向外部环境的指针)。然后,虚拟对象管理器312命令渲染引擎308使用所识别的转换状态模型和所识别的转换状态模型的参数将3PCE对象从第一模式转换到第二模式。作为响应,渲染引擎308使用所识别的转换状态模型并根据与转换状态模型相关联的指定参数,以第二模式重新渲染对象。例如,使用第一转换状态模型并且响应于用户与3D环境中的3PCE对象的交互,渲染引擎308可以使虚拟对象动画化以变形或以其他方式从第一模式转换到第二模式。可以移除在3D几何模型的表面上显示的主要第三方内容(例如,图像),并利用次要第三方内容(例如,视频)来替换。
客户端计算***302向内容分发***350发送消息并从内容分发***350接收消息。内容分发***350可以被实施为一个或多个位置中的一个或多个计算机(例如,数据处理装置)。通常,内容分发***350被配置为选择第三方内容以在客户端计算***302处的3D环境中与3PCE虚拟对象一起显示。内容分发***350使所选择的第三方内容可用于客户端计算***302,例如,通过经由诸如因特网或局域网的网络将内容发送到客户端***302。内容分发***350可以包括前端服务器352、第三方内容数据库354、内容选择器366、转换状态模型选择器368、存储选择标准的第一数据仓库370、存储终端用户账户和简档信息的第二数据仓库372、以及存储第三方内容提供商账户和简档信息的第三数据仓库374中的一个或多个。
前端服务器352被配置为从内容分发***350接收和发送信息。前端服务器352为内容分发***350提供接口,以通过通信网络(例如,因特网)与其他计算机交互。例如,图3示出了与客户端计算***352通信时的前端服务器352。前端服务器304接收对第三方内容的请求、执行接收到的请求的初始处理、将从请求导出的信息转发到内容分发***350的其他适当组件、并发送***350响应于请求而生成的响应。在一些实施方式中,前端服务器350包括提供内容分发***350与一个或多个网络之间的互连的网络接口,该网络可以是公共的(例如,因特网)或私有的(例如,局域网)。网络接口可以包括一个或多个网络接口卡,例如,被配置为通过分组化网络发送和接收数据的网络接口卡。
内容数据库354是维持第三方内容的索引的数据库或其他类型的数据仓库。第三方内容本身也可以由内容数据库354存储、可以由内容分发***350(但是在内容数据库354的外部的)存储、或者可以被存储在内容分发***350外部的一个或多个其他***上。通常,内容数据库354识别可用于内容分发***350以响应于对第三方内容的请求(例如,用于在3PCE虚拟对象上呈现)而返回给客户端***的一组第三方内容。在一些实施方式中,第三方内容由第三方内容提供商(例如,广告商)独立创建,然后被提交给内容分发***350用于目标性地分发给终端用户。在一些实施方式中,内容提供商可以使用内容分发***350的内容创建平台或服务来创建第三方内容。第三方内容可以作为文本、图像、视频或以其他媒体格式来提供。
在一些实施方式中,内容数据库354分别包括用于主要第三方内容356和次要第三方内容的索引358。主要第三方内容是当对象处于第一模式时指定用于在虚拟对象上呈现的内容。次要第三方内容是当对象处于第二模式时指定用于在虚拟对象上呈现的内容。在一些实施方式中,3PCE虚拟对象的第一模式是“低功率”模式,其中在3D环境中以相对低的计算开销为客户端计算***302呈现对象。低功率模式可以至少部分地通过仅在对象上显示主要第三方内容来实现,其符合主要第三方内容的一个或多个指定约束。例如,约束可以定义主要第三方内容的可接受格式和大小。例如,具有指定分辨率的图像可被视为可接受的主要第三方内容,但视频可被视为不可接受的主要第三方内容。相反,例如视频可能仅被允许作为次要第三方内容。因此,与次要第三方内容相比,向客户端计算***302发送主要第三方内容可能花费更少的带宽。此外,在3D环境中呈现主要第三方内容对于客户端计算***302来说可能比呈现次要第三方内容计算密集更小。
主要第三方内容索引356和次要第三方内容索引358可以将各个内容项分组为一组相关的内容项。例如,在第一显示模式中,3PCE虚拟对象可以具有立方体几何形状并且在立方体的六个面中的每一个上显示相应的主要第三方内容项。内容分发***350可以选择相关或重复的内容项以显示在全部或一些立方体面上。例如,由特定第三方内容提供者提交的一组相关图像可以被返回到客户端计算***302用于在立方体上显示,或者已经在算法上被确定为与公共主题或实体相关的一组相关图像可以使用主要第三方内容索引356来选择并且被返回,以在立方体上显示。在一些实施方式中,内容数据库354可以将主要第三方内容映射到次要第三方内容。如果在第一显示模式中选择用于在3PCE虚拟对象上显示的一组特定主要第三方内容,则内容选择器366可以在第二显示模式中为相同的虚拟对象仅选择次要第三方内容,该次要第三方内容被映射到为该对象选择的一组特定主要第三方内容。例如,一组次要的第三方内容可以包括与第三方内容提供商提供的产品或服务相关的一组图像,并且映射的次要第三方内容项可以是关于相同产品或服务的一个或多个视频。内容选择器366可以选择映射的次要第三方内容项中的一个或多个来返回以在第二显示模式中与虚拟对象一起显示,从而保持由给定虚拟对象呈现的主要和次要第三方内容之间的主题关系。
在一些实施方式中,除了相应的第三方内容索引356和358之外,内容数据库354还存储数据。例如,内容数据库354可以存储表示第三方内容属性360、外部通知362、门户参数364或这些中的多个的数据结构。
第三方内容属性数据存储360存储指示在索引356、358中表示的第三方内容项的属性的数据。作为示例,给定第三方内容项的属性可以包括第三方内容项的描述性关键字、提交内容项的第三方内容提供商的唯一标识符、内容项的格式或类型(例如,文本、音频、图像、视频)和内容项的历史性能度量(例如,印象、点击率、转换率)。可以将属性分配给单个内容项或内容项组群(group)。属性可以由内容分发***350自动确定,或者手动输入(例如,由内容分发***350的代理或相对应的第三方内容提供商的代理)。在一些实施方式中,内容选择器366使用来自数据存储360的属性来响应于第三方内容请求来选择(多个)第三方内容项。例如,从客户端计算***302发送的对第三方内容的请求可以包括指示关于客户端***302的终端用户的信息的上下文数据、其中第三方内容将在虚拟对象上渲染的3D环境、其中执行3D环境的应用和/或客户端***302的硬件配置的信息。内容选择器366可以将第三方请求的上下文与由数据存储360指示的第三方内容属性进行比较,作为用于选择“获胜”第三方内容的过程的部分,即响应于请求返回的第三方内容。
外部通知数据存储362存储表示与第三方内容项相关联的外部通知的数据。如果客户端***302已采用了利用外部通知向用户提供关于展示在虚拟对象上的主要第三方内容项目中的主题或实体的附加信息的转换状态模型,则内容分发***350可以向客户端***302和/或向与客户端***302的用户相关联的一个或多个账户返回外部通知。数据存储362可以包括定义一个或多个通知消息和数据,并且数据将通知消息映射到相对应的第三方内容项、第三方内容项组群或第三方内容提供商。在第一显示模式中接收到与3PCE虚拟对象的用户交互的指示时,内容分发***350从数据存储362中选择通知消息以提供给用户。所选择的通知消息可以被映射到显示在虚拟对象上的一组次要的第三方内容,或者一组次要的第三方内容和所选择的通知消息可以至少基于它们与相同的第三方内容提供商的相互连接而间接相关。例如,基于用户在第一显示模式中与3PCE立方体交互的指示(在其中立方体展示表示产品或服务的第三方图像),内容分发***350的通知控制器可以发送通知消息,用于经由一个或多个频道(例如,电子邮件、SMS、应用级通知服务、操作***级通知服务)呈现给用户。
在一些实施方式中,数据存储362包括定义通知消息的模板的数据。模板可以包括文本消息中的字段,这些字段可以用特定于终端用户的信息或者基于特定用户与3PCE虚拟对象交互的上下文来填充。例如,写着“$name:不要错过这个激动人心的机会!访问我们的网站www.example.com!的通知模板包括$name字段,该字段可以用客户端计算***302的终端用户(该终端用户与对象的交互触发了通知)的姓来填充(例如,替换)。在一些实施方式中,通知可以包括指定例如网页的目标URL的超链接、或者指定例如安装在用户的电话或其他设备上的特定应用的目标URI的超链接。通知控制器可以生成目标URL,该目标URL包括唯一地识别与3PCE虚拟对象的特定用户交互的签名,该签名导致生成在其中放置了具有目标URL的超链接的外部通知消息。当用户选择目标URL时,可以将包括唯一签名的请求发送到内容分发***350。内容分发***350可以记录用户已经选择了URL然后将指令(例如,脚本)返回给将设备重定向到目的地资源(诸如,由相对应的第三方内容提供商运营的网站)的用户设备(例如,客户端***302)。
门户参数数据存储364包括识别与主要第三方内容或第三方内容提供商相关联的门户资源的数据。分发***350响应于来自客户端***302的对门户资源的请求,访问数据存储364以选择门户资源或指向门户资源的指针并将其返回给客户端计算***302。客户端***302可以例如,响应于在第一显示模式中检测到与3PCE虚拟对象的用户交互而请求门户资源。门户资源一般是与提供对资源的门户的对象的3D环境分离并且在3D环境内的窗口中渲染或者被渲染为与3D环境分开的资源。例如,门户资源可以是当用户与3D环境中的3PCE虚拟对象交互时,在web浏览器中自动启动的网站。网站可以在3D环境中的web浏览器窗口中呈现,或者可以在3D环境外分离地启动。在一些实施方案中,门户资源是安装在客户端***302上的第三方应用。当用户与3D环境中的3PCE虚拟对象交互时,应用可以在3D环境的窗口内启动,或者用户可以被自动地从3D环境带出并被带到应用中。在一些实施方式中,门户资源是另一3D环境。例如,当用户在第一3D环境中与3PCE虚拟对象交互时,客户端***302可以自动离开第一3D环境,并且渲染与当用户与对象交互发生时在对象上展示的主要内容所识别的主题或实体相关的第二3D环境。数据存储364存储与门户资源相关的参数以及将门户资源链接(例如,映射)到索引356和358中引用的第三方内容的数据。内容分发***352的门户控制器可以访问数据存储364,以确定合格的门户资源,从该资源中选择特定资源,例如,基于被映射到与用户交互的虚拟对象上示出的第三方内容来引导客户端***302。
内容选择器366是内容分发***350的组件,内容选择器366为请求选择获胜的第三方内容,例如,与3PCE虚拟对象一起显示的主要第三方内容或次要第三方内容。为了确定获胜的第三方内容,内容选择器366针对与请求相关联的各种选择标准评估合格的第三方内容项。选择标准可以包括请求中指定的关键字或其他上下文数据。在一些实施方式中,选择标准包括指示客户端***302的终端用户的兴趣和偏好的简档数据、第三方内容提供商的简档数据、以及关于在其中呈现虚拟对象的3D环境的信息。选择标准324还可以包括由第三方内容提供商提出的出价,该出价指示第三方内容提供商为响应于请求而被选择并被返回用于在3PCE虚拟对象上显示或由3PCE虚拟对象显示的提供商的第三方内容愿意支付的价格。内容选择器366将选择标准324应用于给定的第三方内容请求,并执行评估过程以选择获胜的第三方内容。
内容分发***350还可以包括转换状态模型选择器368。转换状态模型选择器368被配置为将转换状态模型分配给3D环境中的3PCE虚拟对象。转换状态模型表示当3PCE虚拟对象从第一显示模式改变为第二显示模式时执行的操作类型。虚拟对象的第二显示模式一般是不活动的(例如,隐藏的),直到用户与对象发生交互,然后该交互触发执行由分配给对象的转换状态模型定义的操作。例如,第一转换状态模型可以提供响应于用户与虚拟对象的交互而将在虚拟对象上显示的次要第三方内容。第二转换状态模型可以响应于用户与对象的交互,提供要发送给3D环境外的用户的外部通知。第三转换状态模型可以响应于用户与对象的交互而提供要被启动的门户资源。转换状态模型选择器368确定将哪个或哪些转换状态模型应用于3PCE虚拟对象。在一些实施方式中,转换状态模型选择器368随机选择分配给对象的转换状态模型。在一些实施方式中,转换状态模型选择器368基于与对象相关联的上下文来选择分配给对象的转换状态模型。可以基于客户端***302的能力、终端用户偏好、第三方内容提供商偏好、放置对象的3D环境的开发者偏好或这些上下文中的多个来选择合适的转换状态模型。
在一些实施方式中,转换状态模型选择器368应用一组规则来选择分配给对象的转换状态模型。例如,转换状态模型选择器368可以首先检查是否已经在客户端***302处安装了启动门户资源所需的插件(例如,通过轮询客户端***以获得关于已安装的插件的信息、查找包括客户端***到已安装插件的映射的索引、或从内容请求获取关于已安装插件的信息)。如果已经安装了插件,则转换状态模型选择器368可以将使用门户资源的转换状态模型分配给对象。如果未安装插件,则可以选择另一转换状态模型。在一些实施方式中,第三方内容或开发者可以指定哪个转换状态模型应该应用于给定对象或者应该与一组主要第三方内容相关联。
图4A和图4B描绘了用于渲染3D环境中的虚拟对象的示例过程400的流程图。客户端过程400可以由诸如客户端***302(图3)的客户端计算***来执行。在一些实施方式中,客户端计算***是通过头戴式显示器呈现的渲染沉浸式3D环境的虚拟现实***。
在阶段402处,客户端***加载3D环境。3D环境是能够在三维中渲染的虚拟环境。3D环境的示例包括3D游戏和视频环境(例如,现场或记录的事件流,诸如3D音乐会或运动事件流)。在一些情况下,用户可以通过移动他或她的头来环顾环境(例如,在虚拟现实***中)、通过在环境中移动、通过操纵环境中的对象、或者这些的组合来探索虚拟3D环境。可以在存储在客户端的存储器子***中的一个或多个定义文件中定义3D环境。在一些实施方式中,定义文件由渲染引擎解释或执行以生成可以在特定类型的客户端***的适当的显示器上呈现的3D环境的可视显示(阶段404)。例如,头戴式显示器可以用于虚拟现实***中。
在阶段406处,客户端***识别位于3D环境中的合格的第三方内容(3PCE)虚拟对象。可以通过在3D环境的定义文件中提供例如标签、脚本或可执行代码来声明3PCE虚拟对象。当客户端***解释或以其他方式执行标签、脚本或可执行代码时,渲染引擎可以根据其中指定的任何参数实例化3D环境中的3PCE虚拟对象。例如,开发者可以指定指示3D环境中的虚拟对象的形状、尺寸和位置的参数值。这些和其他属性可以由内容分发***处的内容选择器、客户端***或内容分发***处的转换状态模型选择器或两者分别用于选择与对象一起呈现的第三方内容或为对象选择转换状态模型。
3PCE对象可以与多个显示模式相关联,其中每个显示模式对应于相应的转换状态模型,该相应的转换状态模型定义对象显示第三方内容的方式或者在激活显示模式时以其他方式定义与对象相关联的操作。在一些实施方式中,最初在默认显示模式下激活3PCE对象。例如,在默认显示模式中,3PCE虚拟对象可以展示相对基本的一组主要的第三方内容(例如,图像),该组主要的第三方内容可以在3D环境中以相对低的计算花销来渲染。在检测到预定事件(例如持续用户与对象的交互)时,对象可以转换到一个或多个其他显示模式。
在阶段408处,客户端***在第一显示模式中获得在虚拟对象上显示的一组主要的第三方内容。为了检索一组次要的第三方内容,客户端***生成请求并将其发送到内容分发***。该请求可以包括用于选择第三方内容和上下文数据的任何显式约束,内容分发***处的内容选择器可以使用该约束来促进选择一组次要的第三方内容。在一些实施方式中,一组主要的第三方内容是内容项的组群,每个内容项可由相同的第三方内容提供商分发。作为示例,虚拟对象可以是在第一显示模式中在其每个面上呈现相应图像的立方体。一组次要的第三方内容可以包括被分配用于在立方体的每个面上显示的相应图像,其中每个图像涉及共同主题(例如,由第三方内容提供者推销的产品或服务)。
在阶段410处,渲染引擎生成3D环境中的虚拟对象的显示。***最初可以以其第一显示模式渲染对象,该第一显示模式呈现从内容分发***检索的一组主要的第三方内容。
在阶段412处,客户端***检测到用户已经向***提供输入以在第一显示模式中与虚拟对象交互。客户端***可以包括监测用户输入的一个或多个模式的输入处理器,并且如果确定用户输入被定向到3PCE虚拟对象,则***可以向虚拟对象管理器发出警报。例如,在VR***中,输入处理器可以检测用户的显示器的标线是否在对象上保持聚焦至少阈值时间长度。如果标线聚焦在对象上至少达到阈值时间长度(指示用户的凝视在对象的方向上保持至少阈值时间长度),则输入处理器可以将指示已经检测到用户与虚拟对象交互的消息传递给虚拟对象管理器。
在阶段414处,响应于从输入处理器接收到指示用户已经与3D环境中的虚拟对象交互的消息,虚拟对象管理器确定虚拟对象从第一显示模式到第二显示模式的转换。图4B描绘了阶段414的展开视图,其示出了虚拟对象的若干可能转换。客户端***或内容分发***处的转换状态选择器可以基于例如由提交一组次要的第三方内容的终端用户、3D环境开发者和/或第三方内容提供商指定的任何显式约束来确定哪个转换模型适用于给定虚拟对象。此外或替代地,转换状态选择器可以随机地或基于与对象相关联的隐式上下文、3D环境以及客户端***的技术能力来确定哪个转换模型适用于给定虚拟对象。例如,在第一模型(416)下,虚拟对象可以通过用不同的一组次要的第三方内容替换一组次要的第三方内容来从第一显示模式转换。在阶段418处,客户端***从内容分发***获得一组次要的第三方内容。在阶段420处,客户端***的渲染引擎重新渲染虚拟对象以展示一组次要的第三方内容。在一些实施方式中,一组次要的第三方内容的类型或格式可以与一组主要的第三方内容的类型或格式不同。在一些实施方式中,定义虚拟对象的几何形状的3D模型可以与由对象呈现的该组第三方内容一起改变。例如,具有更多多边形表面的更复杂的虚拟对象可以在第二显示模式中而不是在第一显示模式中被渲染。客户端***可以从内容分发***请求和接收新的3D模型。在一些实施方式中,虚拟对象的第一显示模式和第二显示模式之间的转换包括使虚拟对象动画化以平滑地改变对象的可视化外观。
在第二转换模型(422)下,用户与虚拟对象的交互触发客户端***、内容分发***或两者以生成一个或多个外部通知。外部通知是在3D环境外被提供给客户端***的用户的通知,该3D环境包括用户与之交互以触发通知的虚拟对象。因为用户倾向于在3D环境中偏爱最小的干扰,特别是在沉浸式3D虚拟现实环境中,所以外部通知可以是用户完成他或她在3D环境中的会话后,提醒用户在3D环境中遇到的第三方内容的有效方式。例如,可以将通知消息推送到用户的电子邮件帐户、文本消息收发帐户、RSS订阅源、OS级通知服务、应用级通知服务或这些中的多个。特别地,在阶段424处,用户与虚拟对象的交互触发生成通知并向一个或多个外部环境发送通知。在一些实施方式中,在阶段426处,可以在虚拟对象上或虚拟对象附近显示确认消息,以确认通知消息正在或已经被发送到(多个)用户的账户。
在第三转换模型(428)下,用户与虚拟对象的交互触发客户端***到外部资源的门户(阶段430)。可以在内容分发***处指定对象的外部资源,该对象可以例如响应于检测到用户与对象的交互,在首次实例化虚拟对象时或在另一时间识别客户端***的资源。作为示例,客户端***可以通过自动启动呈现外部资源的应用(例如,web浏览器)来进入外部资源。在一些实施方式中,3D环境被关闭并且注意力被重定向到外部资源(例如,在web浏览器中显示的网站)。外部资源可以与虚拟对象在第一显示模式下显示的一组主要的第三方内容相关。在一些实施方式中,客户端***通过启动不同的3D环境来进入外部资源,该3D环境例如已经被提交虚拟对象上展示的一组主要的第三方内容的相同第三方内容提供商提交用于分发。
图5描绘了展示客户VR***502和内容分发***504之间的示例过程500中的交互的泳道图。
在阶段506处,VR***502识别出3PCE虚拟对象被声明存在于3D环境中。例如,可以通过用于3D环境的一个或多个定义文件中的标签、脚本或可执行代码来声明该对象。
在阶段508处,VR***502生成并向内容分发***504发送对第三方内容的请求。例如,识别的虚拟对象可以与显示不同的第三方内容的多个显示模式相关联。在一些实施方式中,VR***502最初仅检索在第三方对象的初始激活的显示模式中显示的一组次要的第三方内容。可以推迟在其他显示模式被激活时可以显示的其他组的第三方内容的检索,直到用户与虚拟对象交互、或者直到***502检测到用户可能即将与虚拟对象交互。这样,虚拟对象最初可以更快地加载,并且直到实际需要(或者可能需要)时才会检索到次要第三方内容,从而避免了第三方内容从内容分发***504到VR***502的不必要的传输。
在阶段510处,内容分发***504接收对第三方内容的请求,并在初始显示模式中为虚拟对象选择一组次要的第三方内容。在阶段512处,内容分发***504通过网络将第三方内容发送到VR***502。在阶段514处,VR***接收选择的主要内容并渲染用主要第三方内容纹理化的虚拟对象。
在阶段516处,内容分发***504确定虚拟对象的第二显示模式的参数。第二模式参数指示虚拟对象将如何从第一显示模式转换到第二显示模式以及转换到第二显示模式的结果。在一些实施方式中,第二模式参数指定应该应用于虚拟对象的一个或多个转换模型。例如,内容分发***的转换模型选择器可以将选择的转换模型分配给虚拟对象,该选择的转换模型指示当对象从第一显示模式转换到第二模式时次要第三方内容是否将替换虚拟对象上的主要第三方内容;当对象从第一显示模式转换到第二显示模式时,是否会产生外部通知;以及当虚拟对象从第一显示模式转换到第二显示模式时,虚拟对象是否将提供从初始3D环境到外部资源的门户。
在阶段518处,内容分发***518将第二模式参数发送到第三方内容服务器504。在一些实施方式中,VR***502包括用于承载可能的转换模型中的每一个的本地逻辑。然后,被发送到VR***502的第二模式参数可以简单地包括选择的转换模型的指示。在其他实施方式中,VR***502可以响应于检测到用户与虚拟对象的交互,利用执行代码的指令将脚本或其他可执行代码发送到VR***502。在一些实施方式中,如图5中所示,内容分发***500在用户与虚拟对象交互之前执行阶段516和518。因此,VR***在检测到用户与对象的交互时准备根据第二模式参数立即转换对象。以这种方式,***可以减少响应于用户与对象的交互并将对象转换到第二显示模式的等待时间。然而,在其他实施方式中,在实际检测到用户与虚拟对象的交互之后或者在VR***502检测到即将发生用户与对象的交互之后,VR***502可以从内容分发***504请求第二模式参数。
在阶段520处,VR***520检测到用户与虚拟对象的交互,并且用户交互的条目被记录在VR***520的日志中(阶段522)。在阶段524处,基于识别到用户与虚拟对象的交互,VR***502根据第二模式参数将虚拟对象从第一显示模式转换到第二显示模式。VR***502可以周期性地向内容分发***报告用户交互以用于分析。因此,在阶段526处,将用户交互的日志发送到内容分发***504,该日志可以被分析趋势并评估第三方内容项的性能度量(阶段528)。
在一些实施方式中,内容分发***可以通过跟踪响应于用户与3D环境中的虚拟对象的交互而生成的外部通知的转化来评估与3PCE虚拟对象相关联的第三方内容的性能。“转化”是指用户可以针对来源于与3D环境中的3PCE虚拟对象的交互的通知采取的特殊动作。例如,如果用户查看通知,如果用户选择通知中提供的超链接,或者如果用户完成了与通知中描述的产品或服务相关的交易(例如,购买交易),则可以标示转化。
为此,图6描绘了用于基于与由于用户与3PCE虚拟对象的交互生成的外部通知相关联的转化来评估3D环境中的第三方内容选择的示例过程600的流程图。在一些实施方式中,由诸如内容分发***350(图3)的内容分发***执行过程600。
在阶段602处,***识别用户已经在3D环境中与3PCE虚拟对象交互。***确定适用于虚拟对象的转换状态模型。如果由转换状态模型指定,则***可以生成外部通知以提供关于在3D环境中的对象上显示的一组次要的第三方内容的附加信息(阶段604)。在一些实施方式中,***将条目记录到日志(例如,在数据库子***中)中,该日志识别生成的外部通知、导致生成外部通知的用户交互、以及与用户交互相关联的上下文数据。稍后,***可以接收与通知相关联的转化动作的指示(阶段606)。例如,用户对通知消息中的超链接的选择可以使客户端***向内容分发***发送指示用户对超链接的选择的消息。在接收到转化动作的指示时,***将转化动作与相对应的通知消息以及与触发通知消息的用户交互事件相关联(阶段608)。在一些实施方式中,基于指示的转化动作,***调整分配给在发生用户与3D环境中的对象交互时在虚拟对象上显示的第三方内容的分数。内容选择器可以在确定在未来第三方内容请求中返回的内容时使用该分数。在一些实施方式中,调整分数以增加内容分发***选择作为转化动作的结果被分配给分数的第三方内容的可能性(阶段610)。
图7是计算机***700的示意图。根据一些实施方式,***700可用于执行与任何计算机实施的方法、***、设备和先前描述的其他技术相关联地描述的操作。***700旨在包括各种形式的数字计算机,诸如膝上型计算机、台式计算机、工作站、个人数字助理、服务器、刀片式服务器、大型机和其他合适的计算机。***700还可以包括移动设备,诸如个人数字助理、蜂窝电话、智能手机和其他类似的计算设备。此外,该***可以包括便携式存储介质,诸如通用串行总线(Universal Serial Bus,USB)闪速驱动器。例如,USB闪速驱动器可以存储操作***和其他应用。USB闪速驱动器可以包括输入/输出组件,诸如可以***到另一计算设备的USB端口当中的无线发送器或USB连接器。***700包括处理器710、存储器720、存储设备730和输入/输出设备740。组件710、720、730和740中的每一个使用***总线750互连。处理器710能够处理用于在***700内执行的指令。处理器可以使用多个架构中的任何一个来设计。例如,处理器710可以是CISC(Complex Instruction Set Computer,复杂指令集计算机)处理器、RISC(Reduced Instruction Set Computer,精简指令集计算机)处理器或MISC(Minimal Instruction Set Computer,最小指令集计算机)处理器。
在一些实施方式中,处理器710是单线程处理器。在另一实施方式中,处理器710是多线程处理器。处理器710能够处理存储在存储器720或存储设备730上的指令,以在输入/输出设备740上显示用户界面的图形信息。
存储器720存储***700内的信息。在一个实施方式中,存储器720是计算机可读介质。在一个实施方式中,存储器720是易失性存储器单元。在另一实施方式中,存储器720是非易失性存储器单元。
存储设备730能够为***400提供大容量存储。在一个实施方式中,存储设备730是计算机可读介质。在各种不同的实施方式中,存储设备730可以是软盘设备、硬盘设备、光盘设备或磁带设备。
输入/输出设备740为***400提供输入/输出操作。在一个实施方式中,输入/输出设备740包括键盘和/或指示设备。在另一实施方式中,输入/输出设备740包括用于显示图形用户界面的显示单元。
所描述的特征可以在数字电子电路中实施,或者在计算机硬件、固件、软件或它们的组合中实施。该装置可以在有形地体现在信息载体中的计算机程序产品中实施,例如在机器可读存储设备中由可编程处理器执行;并且可以由运行指令的程序的可编程处理器执行方法步骤,以通过对输入数据进行操作并生成输出来执行所描述的实施方式的功能。所描述的特征可以有利地在可编程***上可执行的一个或多个计算机程序中实施,该可编程***包括至少一个可编程处理器(其被耦合以从数据存储***接收数据和指令,并将数据和指令发送到数据存储***)、至少一个输入设备和至少一个输出设备。计算机程序是一组指令,其可以直接或间接地在计算机中使用以执行某种活动或产生某种结果。计算机程序可以以包括编译或解释语言的任何形式的编程语言写入,并且其可以以(包括作为独立程序或作为模块、组件、子程序或适合在计算环境中使用的其他单元)任何形式部署。
作为示例,用于运行指令程序的合适的处理器包括通用和专用微处理器,以及任何类型的计算机的唯一处理器或多个处理器中的一个。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于运行指令的处理器和用于存储指令和数据的一个或多个存储器。通常,计算机还将包括一个或多个用于存储数据文件的大容量存储设备,或者可操作地被耦合以与这些设备通信;这种设备包括磁盘,诸如内部硬盘和可移动磁盘;磁光盘;和光盘。适合于有形地体现计算机程序指令和数据的存储设备包括所有形式的非易失性存储器,作为示例包括半导体存储器设备(诸如,EPROM、EEPROM和闪存设备);磁盘(诸如,内部硬盘和可移动磁盘、磁光盘、CD-ROM和DVD-ROM磁盘)。处理器和存储器可以由ASIC(application-specific integrated circuits,专用集成电路)补充或被并入其中。
为了提供与用户的交互,这些特征可以在具有用于向用户显示信息的显示设备(诸如,CRT(cathode ray tube,阴极射线管)或LCD(液晶显示器)监视器)的计算机上实施,以及用户可以通过其向计算机提供输入的键盘和定点设备,诸如鼠标或轨迹球。此外,这些活动可以通过触摸屏平板显示器和其他适当的机构来实施。
这些特征可以在包括后端组件(诸如数据服务器)、或者包括中间件组件(诸如应用服务器或互联网服务器)、或者包括前端组件(诸如具有图形用户界面或互联网浏览器的客户端计算机)、或者它们的任意组合的计算机***中实施。***的组件可以通过任何形式或介质的数字数据通信(诸如通信网络)来连接。通信网络的示例包括局域网(local areanetwork,“LAN”)、广域网(wide area network,“WAN”)、对等网络(具有ad-hoc或静态成员)、网格计算基础设施和因特网。
计算机***可以包括客户端和服务器。客户端和服务器一般彼此远离并且通常通过网络(例如所描述的网络)进行交互。客户端和服务器的关系由于在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序而产生。
虽然本说明书包含许多具体的实施方式细节,但是这些不应被解释为对任何发明或可能要求保护的范围的限制,而是作为特定于特殊发明的特殊实施方式的特征的描述。本说明书中在单独的实施方式中的上下文中描述的某些特征也可以在单一实施方案中组合实施。相反,在单一实施方式中的上下文中描述的各种特征也可以单独地或以任何合适的子组合在多个实施方式中实施。而且,尽管以上可以将特征描述为以某些组合起作用甚至这些特征由此最初要求保护,但是在某些情况下来自要求保护的组合的一个或多个特征可以从该组合中删去,并且要求保护的组合可以指向子组合或子组合的变体。
类似地,虽然在附图中以特殊的顺序描绘了操作,但是这不应该被理解为要求以所示的特殊的顺序或按顺次的顺序来执行这些操作、或者执行所有示出的操作以实现期望的结果。在某些情况下,多任务处理和并行处理可以是有利的。而且,上述实施方式中的各种***组件的分离不应被理解为在所有实施方式中都需要这种分离,并且应当理解的是,描述的程序组件和***一般可以在单一软件产品中集成在一起或者被封装到多个软件产品当中。
因此,已经描述了主题的特殊的实施方式。其他实施方式在所附权利要求的范围内。在一些情况下,权利要求中记载的动作可以以不同的顺序执行并且仍然实现期望的结果。此外,附图中描绘的过程不一定要求所示的特殊的顺序或顺次的顺序来实现期望的结果。在某些实施方式中,多任务和并行处理可能是有利的。
Claims (20)
1.一种计算***,包括:
存储器子***,被配置为存储第一数据,所述第一数据(i)定义三维(3D)环境,以及(ii)识别所述3D环境中的虚拟对象;
通信接口,被配置为通过网络发送对第三方内容的请求以与3D环境中的所述虚拟对象一起显示,以及响应于所述请求接收第三方内容;
渲染引擎,包括一个或多个处理器,所述渲染引擎被配置为使用来自存储器子***的第一数据来渲染所述3D环境以在耦合到所述计算***的显示设备上呈现,包括以所述虚拟对象显示第一组第三方内容的第一模式在所述3D环境的指定位置处渲染所述虚拟对象;
输入处理装置,包括一个或多个处理器,所述输入处理装置被配置为检测用户与所述3D环境中的虚拟对象的交互;和
虚拟对象管理器,包括一个或多个处理器,所述虚拟对象管理器被配置为从所述输入处理装置接收与在所述3D环境中的虚拟对象的第一用户交互的指示,并且作为响应,命令所述渲染引擎将所述虚拟对象从所述虚拟对象显示第一组第三方内容的第一模式转换到所述虚拟对象显示第二组第三方内容的第二模式。
2.如权利要求1所述的计算***,其中:
所述显示器是头戴式显示器;并且
所述3D环境是被配置为使用所述头戴式显示器来观看的虚拟现实(VR)环境。
3.如权利要求1或2所述的计算***,其中:
所述渲染引擎被配置为在***已经获得第二组第三方内容之前以第一模式渲染所述虚拟对象;并且
所述通信接口被配置为基于(i)识别用户与所述虚拟对象的交互即将发生或者(ii)识别第一用户与所述虚拟对象的交互已经发生来发送对第二组第三方内容的请求。
4.如任意一项前述权利要求所述的计算***,其中:
第一组第三方内容包括图像的集合;
在第一模式中,所述虚拟对象包括形成3D几何形状的多边形表面的集合;并且
所述渲染引擎被配置为通过在所述多边形表面的集合中的每个多边形表面上显示来自所述图像集合的相应图像来以第一模式渲染所述虚拟对象。
5.如权利要求4所述的计算***,其中,当以第一模式渲染所述虚拟对象时,所述虚拟对象的多边形表面的集合形成立方体。
6.如权利要求4或5所述的计算***,其中,响应于从所述虚拟对象管理器接收将所述虚拟对象从第一模式转换到第二模式的指令,将所述渲染引擎配置为使所述立方体动画化以展现第二组第三方内容。
7.根据权利要求4至6中的任意一项所述的计算***,其中,所述图像集合每个都描绘与相同主题或实体相关的内容。
8.如任意一项前述权利要求所述的计算***,其中:
所述输入处理装置被配置为接收用户输入以在3D环境内移动用户的当前观看位置并且检测所述用户的当前观看位置与3D环境中的所述虚拟对象的位置之间的关系;并且
所述虚拟对象管理器被配置为基于所述用户的当前观看位置与3D环境中的所述虚拟对象的位置之间的关系满足一个或多个标准的确定,将所述虚拟对象从第一模式转换到第二模式。
9.如权利要求8所述的计算***,其中,所述用户的当前观看位置与所述虚拟对象的位置之间的关系是所述用户的当前观看位置与所述虚拟对象的位置之间的距离,其中,所述虚拟对象管理器被配置为基于所述用户的当前观看位置和所述虚拟对象在所述3D环境中的位置之间的距离小于阈值距离的确定,将所述虚拟对象从第一模式转换到第二模式。
10.如任意一项前述权利要求所述的计算***,其中,所述输入处理装置被配置为监测所述3D环境中的用户注视的方向,并且基于识别出所述用户的注视在所述虚拟对象的方向上来检测第一用户交互。
11.如权利要求10所述的计算***,其中,所述虚拟对象管理器被配置为基于识别出所述用户的注视已经在所述虚拟对象的方向上保持预定的时间长度,将所述虚拟对象从第一模式转换到第二模式。
12.如任意一项前述权利要求所述的计算***,其中,所述输入处理装置被配置为从基于手的控制器接收输入,并且在用户的注视在3D环境中的虚拟对象的方向上的同时,基于从基于手的控制器接收的第一输入来检测第一用户交互。
13.如任意一项前述权利要求所述的计算***,其中,所述虚拟对象管理器还被配置为响应于从所述输入处理装置接收到与所述虚拟对象的第一用户交互的指示,触发在所述3D环境外用户通知的生成,所述用户通知与与第一组第三方内容相关联的主题或实体相关。
14.如任意一项前述权利要求所述的计算***,其中所述虚拟对象以第二模式显示的第二组第三方内容的类型与所述虚拟对象以第一模式显示的第一组第三方内容的类型不同。
15.如权利要求14所述的计算***,其中,所述虚拟对象以第一模式显示的第一组第三方内容的类型是图像,其中,所述虚拟对象以第二模式显示的第二组第三方内容的类型是视频或3D模型。
16.一种计算机实施的方法,包括:
在计算***的显示器上显示三维(3D)环境;
由所述计算***识别位于所述3D环境中的合格的虚拟对象以呈现第三方内容;
由所述计算***获得所述虚拟对象的第一组第三方内容;
由所述计算***以第一模式渲染所述3D环境中的虚拟对象,其中所述虚拟对象呈现第一组第三方内容;
识别用户与3D环境中的虚拟对象的交互满足一组预定标准;和
响应于识别出用户与所述3D环境中的虚拟对象的交互满足所述一组预定标准,以第二模式重新渲染所述3D环境中的虚拟对象,其中所述虚拟对象呈现与第一组第三方内容不同的第二组第三方内容。
17.如权利要求16所述的计算机实施的方法,其中,第一组第三方内容包括图像的集合,并且以第一模式渲染所述虚拟对象包括渲染立方体,所述立方体在所述立方体的每个面上显示来自所述图像集合的相应图像,其中第二组第三方内容包括视频,并且以第二模式重新渲染所述虚拟对象包括在所述3D环境中播放所述视频。
18.如权利要求16或17所述的计算机实施的方法,还包括:响应于识别与3D环境中的虚拟对象的用户交互或另一用户交互,从与所述计算***分离的服务器检索第二组内容。
19.一种计算机***,包括:
一个或多个处理器;和
一个或多个计算机可读介质,其上具有存储的指令,当所述指令由所述一个或多个处理器执行时,使得所述一个或多个处理器执行包括以下操作的操作:
提供三维(3D)环境用于显示;
识别位于所述3D环境中的合格的虚拟对象以呈现第三方内容;
获得所述虚拟对象的第一组第三方内容;
以第一模式渲染所述3D环境中的虚拟对象,其中所述虚拟对象呈现第一组第三方内容;
识别用户与所述3D环境中的虚拟对象的交互满足一组预定标准;和
响应于识别出用户与所述3D环境中的虚拟对象的交互满足所述一组预定标准,以第二模式重新渲染在所述3D环境中的虚拟对象,其中所述虚拟对象呈现与第一组第三方内容不同的第二组第三方内容。
20.根据权利要求19所述的计算***,其中,第一组第三方内容包括图像的集合,并且以第一模式渲染所述虚拟对象包括渲染立方体,所述立方体在立方体的每个面上显示来自所述图像集合的相应图像,其中第二组第三方内容包括视频,并且以第二模式重新渲染所述虚拟对象包括在所述3D环境中播放所述视频。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110804683.6A CN113419635B (zh) | 2016-12-30 | 2017-08-30 | 计算机实施的方法和计算*** |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/396,125 US10621773B2 (en) | 2016-12-30 | 2016-12-30 | Rendering content in a 3D environment |
US15/396,125 | 2016-12-30 | ||
PCT/US2017/049321 WO2018125295A1 (en) | 2016-12-30 | 2017-08-30 | Rendering content in a 3d environment |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110804683.6A Division CN113419635B (zh) | 2016-12-30 | 2017-08-30 | 计算机实施的方法和计算*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108885522A true CN108885522A (zh) | 2018-11-23 |
CN108885522B CN108885522B (zh) | 2021-07-06 |
Family
ID=59895368
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780019148.1A Active CN108885522B (zh) | 2016-12-30 | 2017-08-30 | 渲染3d环境中的内容 |
Country Status (6)
Country | Link |
---|---|
US (2) | US10621773B2 (zh) |
EP (1) | EP3469472A1 (zh) |
JP (2) | JP6657421B2 (zh) |
KR (2) | KR102199807B1 (zh) |
CN (1) | CN108885522B (zh) |
WO (1) | WO2018125295A1 (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112911356A (zh) * | 2020-05-29 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 一种虚拟现实vr视频的播放方法及相关设备 |
CN113661471A (zh) * | 2019-04-09 | 2021-11-16 | 微软技术许可有限责任公司 | 混合渲染 |
CN114450967A (zh) * | 2020-02-28 | 2022-05-06 | 谷歌有限责任公司 | 用于由图像识别触发的增强现实内容的回放的***和方法 |
CN114730546A (zh) * | 2019-11-12 | 2022-07-08 | 奇跃公司 | 具有定位服务和基于位置的共享内容的交叉现实*** |
Families Citing this family (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10950020B2 (en) * | 2017-05-06 | 2021-03-16 | Integem, Inc. | Real-time AR content management and intelligent data analysis system |
US10621773B2 (en) | 2016-12-30 | 2020-04-14 | Google Llc | Rendering content in a 3D environment |
US11157131B2 (en) * | 2017-02-24 | 2021-10-26 | Vrad Inc. | Virtual reality-based radiology practice apparatus and method |
US10719987B1 (en) | 2017-06-28 | 2020-07-21 | Kilburn Live, Llc | Augmented reality in a virtual reality environment |
WO2019055703A2 (en) * | 2017-09-13 | 2019-03-21 | Magical Technologies, Llc | VIRTUAL DISPLAY PANEL, FACILITATION OF COLLABORATION, AND MESSAGE OBJECTS FOR FACILITATING COMMUNICATION SESSIONS IN AN INCREASED REALITY ENVIRONMENT |
WO2019079826A1 (en) | 2017-10-22 | 2019-04-25 | Magical Technologies, Llc | DIGITAL ASSISTANT SYSTEMS, METHODS AND APPARATUSES IN AN INCREASED REALITY ENVIRONMENT AND LOCAL DETERMINATION OF VIRTUAL OBJECT PLACEMENT AND SINGLE OR MULTIDIRECTIONAL OBJECTIVES AS GATEWAYS BETWEEN A PHYSICAL WORLD AND A DIGITAL WORLD COMPONENT OF THE SAME ENVIRONMENT OF INCREASED REALITY |
CN107977586B (zh) * | 2017-12-22 | 2021-04-13 | 联想(北京)有限公司 | 显示内容处理方法、第一电子设备以及第二电子设备 |
US10904374B2 (en) | 2018-01-24 | 2021-01-26 | Magical Technologies, Llc | Systems, methods and apparatuses to facilitate gradual or instantaneous adjustment in levels of perceptibility of virtual objects or reality object in a digital scene |
US11398088B2 (en) | 2018-01-30 | 2022-07-26 | Magical Technologies, Llc | Systems, methods and apparatuses to generate a fingerprint of a physical location for placement of virtual objects |
EP3599538B1 (en) * | 2018-07-24 | 2023-07-19 | Nokia Technologies Oy | Method and apparatus for adding interactive objects to a virtual reality environment |
US10331462B1 (en) * | 2018-11-06 | 2019-06-25 | Cloudflare, Inc. | Cloud computing platform that executes third-party code in a distributed cloud computing network |
US11288733B2 (en) * | 2018-11-14 | 2022-03-29 | Mastercard International Incorporated | Interactive 3D image projection systems and methods |
US11854148B2 (en) * | 2018-11-16 | 2023-12-26 | Microsoft Technology Licensing, Llc | Virtual content display opportunity in mixed reality |
CN111225233A (zh) * | 2018-11-27 | 2020-06-02 | 深圳桑菲消费通信有限公司 | 一种多维环境渲染***及渲染方法 |
US11467656B2 (en) | 2019-03-04 | 2022-10-11 | Magical Technologies, Llc | Virtual object control of a physical device and/or physical device control of a virtual object |
US11087560B2 (en) | 2019-05-15 | 2021-08-10 | Microsoft Technology Licensing, Llc | Normalization of objects for a 3D environment within an authoring application |
US11287947B2 (en) * | 2019-05-15 | 2022-03-29 | Microsoft Technology Licensing, Llc | Contextual input in a three-dimensional environment |
US11164395B2 (en) | 2019-05-15 | 2021-11-02 | Microsoft Technology Licensing, Llc | Structure switching in a three-dimensional environment |
US11798118B2 (en) | 2019-12-20 | 2023-10-24 | Intel Corporation | Asset caching in cloud rendering computing architectures |
US11455769B2 (en) * | 2020-01-22 | 2022-09-27 | Vntana, Inc. | Container for physically based rendering |
US11176755B1 (en) | 2020-08-31 | 2021-11-16 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
US11227445B1 (en) | 2020-08-31 | 2022-01-18 | Facebook Technologies, Llc | Artificial reality augments and surfaces |
CN112230766A (zh) * | 2020-09-30 | 2021-01-15 | 北京图灵智慧科技有限公司 | 一种基于ar与ai结合的购物方法及*** |
US11409405B1 (en) | 2020-12-22 | 2022-08-09 | Facebook Technologies, Llc | Augment orchestration in an artificial reality environment |
US11099709B1 (en) | 2021-04-13 | 2021-08-24 | Dapper Labs Inc. | System and method for creating, managing, and displaying an interactive display for 3D digital collectibles |
US11210844B1 (en) | 2021-04-13 | 2021-12-28 | Dapper Labs Inc. | System and method for creating, managing, and displaying 3D digital collectibles |
USD991271S1 (en) | 2021-04-30 | 2023-07-04 | Dapper Labs, Inc. | Display screen with an animated graphical user interface |
US11227010B1 (en) | 2021-05-03 | 2022-01-18 | Dapper Labs Inc. | System and method for creating, managing, and displaying user owned collections of 3D digital collectibles |
US11533467B2 (en) * | 2021-05-04 | 2022-12-20 | Dapper Labs, Inc. | System and method for creating, managing, and displaying 3D digital collectibles with overlay display elements and surrounding structure display elements |
US11170582B1 (en) | 2021-05-04 | 2021-11-09 | Dapper Labs Inc. | System and method for creating, managing, and displaying limited edition, serialized 3D digital collectibles with visual indicators of rarity classifications |
KR102565481B1 (ko) | 2021-06-23 | 2023-08-09 | (주) 올림플래닛 | 웹 기반 가상 공간 3d 컨텐츠 패키징 및 스트리밍 서비스 제공 방법, 이를 위한 장치 및 시스템 |
US11762952B2 (en) | 2021-06-28 | 2023-09-19 | Meta Platforms Technologies, Llc | Artificial reality application lifecycle |
US11798247B2 (en) | 2021-10-27 | 2023-10-24 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US11748944B2 (en) | 2021-10-27 | 2023-09-05 | Meta Platforms Technologies, Llc | Virtual object structures and interrelationships |
US20230196766A1 (en) * | 2021-12-22 | 2023-06-22 | Meta Platforms Technologies, Llc | Artificial Reality Applications Through Virtual Object Definitions and Invocation |
KR102605698B1 (ko) * | 2022-02-11 | 2023-11-24 | 주식회사 유룸 | 이벤트 생성 기능을 갖는 3d 웹사이트 제작 플랫폼 제공 시스템, 방법 및 프로그램 |
US11928078B2 (en) * | 2022-03-04 | 2024-03-12 | Lemon Inc. | Creating effect assets while avoiding size inflation |
GB2622668A (en) * | 2022-07-06 | 2024-03-27 | Journee Tech Gmbh | Systems and methods for the interactive rendering of a virtual environment on a user device with limited computational capacity |
US11995787B2 (en) | 2022-07-06 | 2024-05-28 | Journee Technologies Gmbh | Systems and methods for the interactive rendering of a virtual environment on a user device with limited computational capacity |
WO2024043611A1 (ko) * | 2022-08-26 | 2024-02-29 | 삼성전자주식회사 | 디스플레이 모듈 제어 방법 및 상기 방법을 수행하는 전자 장치 |
US11869136B1 (en) | 2022-12-16 | 2024-01-09 | Google Llc | User-context aware rendering dataset selection |
CN116679830A (zh) * | 2023-06-05 | 2023-09-01 | 苏州萤火空间科技有限公司 | 一种用于混合现实的人机交互***、方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009000028A1 (en) * | 2007-06-22 | 2008-12-31 | Global Coordinate Software Limited | Virtual 3d environments |
CN101465957A (zh) * | 2008-12-30 | 2009-06-24 | 应旭峰 | 一种虚拟三维场景中实现遥控互动的*** |
US20100169837A1 (en) * | 2008-12-29 | 2010-07-01 | Nortel Networks Limited | Providing Web Content in the Context of a Virtual Environment |
CN104699247A (zh) * | 2015-03-18 | 2015-06-10 | 北京七鑫易维信息技术有限公司 | 一种基于机器视觉的虚拟现实交互***及方法 |
US20150325026A1 (en) * | 2014-05-07 | 2015-11-12 | Google Inc. | Methods and Systems for Adjusting Animation Duration |
CN105188516A (zh) * | 2013-03-11 | 2015-12-23 | 奇跃公司 | 用于增强和虚拟现实的***与方法 |
CN105511618A (zh) * | 2015-12-08 | 2016-04-20 | 北京小鸟看看科技有限公司 | 三维输入装置、头戴式装置及三维输入方法 |
US9478109B2 (en) * | 2014-12-29 | 2016-10-25 | Immersion Corporation | Virtual sensor in a virtual environment |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080140722A1 (en) * | 2006-11-20 | 2008-06-12 | Vivalog Llc | Interactive viewing, asynchronous retrieval, and annotation of medical images |
US20100128112A1 (en) * | 2008-11-26 | 2010-05-27 | Samsung Electronics Co., Ltd | Immersive display system for interacting with three-dimensional content |
JP2013538522A (ja) | 2010-08-27 | 2013-10-10 | インテル コーポレイション | オブジェクトに基づく動作のための技術 |
US9606992B2 (en) | 2011-09-30 | 2017-03-28 | Microsoft Technology Licensing, Llc | Personal audio/visual apparatus providing resource management |
US9335888B2 (en) * | 2011-12-27 | 2016-05-10 | Intel Corporation | Full 3D interaction on mobile devices |
JP5966834B2 (ja) | 2012-02-29 | 2016-08-10 | 株式会社Jvcケンウッド | 画像処理装置、画像処理方法及び画像処理プログラム |
US20130263059A1 (en) * | 2012-03-28 | 2013-10-03 | Innovative Icroms, S.L. | Method and system for managing and displaying mutlimedia contents |
KR101537651B1 (ko) * | 2013-05-09 | 2015-07-17 | 주식회사 라임페이퍼 | 가상 메뉴 제공시스템 및 방법 |
KR101687017B1 (ko) * | 2014-06-25 | 2016-12-16 | 한국과학기술원 | 머리 착용형 컬러 깊이 카메라를 활용한 손 위치 추정 장치 및 방법, 이를 이용한 맨 손 상호작용 시스템 |
US20160180798A1 (en) * | 2014-12-22 | 2016-06-23 | Elwha Llc | Systems, methods, and devices for controlling content update rates |
JP6250592B2 (ja) | 2015-06-02 | 2017-12-20 | 株式会社ソニー・インタラクティブエンタテインメント | ヘッドマウントディスプレイ、情報処理装置、表示制御方法及びプログラム |
US20170316387A1 (en) * | 2016-04-29 | 2017-11-02 | Microsoft Technology Licensing, Llc | Automation of workflow events |
CN116778367A (zh) * | 2016-06-03 | 2023-09-19 | 奇跃公司 | 增强现实身份验证 |
US10621773B2 (en) | 2016-12-30 | 2020-04-14 | Google Llc | Rendering content in a 3D environment |
-
2016
- 2016-12-30 US US15/396,125 patent/US10621773B2/en active Active
-
2017
- 2017-08-30 CN CN201780019148.1A patent/CN108885522B/zh active Active
- 2017-08-30 WO PCT/US2017/049321 patent/WO2018125295A1/en active Application Filing
- 2017-08-30 EP EP17768547.6A patent/EP3469472A1/en not_active Ceased
- 2017-08-30 KR KR1020187025484A patent/KR102199807B1/ko active IP Right Grant
- 2017-08-30 KR KR1020207038045A patent/KR102280719B1/ko active IP Right Grant
- 2017-08-30 JP JP2018549842A patent/JP6657421B2/ja active Active
-
2020
- 2020-02-04 JP JP2020016998A patent/JP6978528B2/ja active Active
- 2020-03-03 US US16/807,779 patent/US11113863B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009000028A1 (en) * | 2007-06-22 | 2008-12-31 | Global Coordinate Software Limited | Virtual 3d environments |
US20100169837A1 (en) * | 2008-12-29 | 2010-07-01 | Nortel Networks Limited | Providing Web Content in the Context of a Virtual Environment |
CN101465957A (zh) * | 2008-12-30 | 2009-06-24 | 应旭峰 | 一种虚拟三维场景中实现遥控互动的*** |
CN105188516A (zh) * | 2013-03-11 | 2015-12-23 | 奇跃公司 | 用于增强和虚拟现实的***与方法 |
US20150325026A1 (en) * | 2014-05-07 | 2015-11-12 | Google Inc. | Methods and Systems for Adjusting Animation Duration |
US9478109B2 (en) * | 2014-12-29 | 2016-10-25 | Immersion Corporation | Virtual sensor in a virtual environment |
CN104699247A (zh) * | 2015-03-18 | 2015-06-10 | 北京七鑫易维信息技术有限公司 | 一种基于机器视觉的虚拟现实交互***及方法 |
CN105511618A (zh) * | 2015-12-08 | 2016-04-20 | 北京小鸟看看科技有限公司 | 三维输入装置、头戴式装置及三维输入方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113661471A (zh) * | 2019-04-09 | 2021-11-16 | 微软技术许可有限责任公司 | 混合渲染 |
CN113661471B (zh) * | 2019-04-09 | 2023-11-24 | 微软技术许可有限责任公司 | 混合渲染 |
CN114730546A (zh) * | 2019-11-12 | 2022-07-08 | 奇跃公司 | 具有定位服务和基于位置的共享内容的交叉现实*** |
CN114450967A (zh) * | 2020-02-28 | 2022-05-06 | 谷歌有限责任公司 | 用于由图像识别触发的增强现实内容的回放的***和方法 |
CN112911356A (zh) * | 2020-05-29 | 2021-06-04 | 腾讯科技(深圳)有限公司 | 一种虚拟现实vr视频的播放方法及相关设备 |
CN112911356B (zh) * | 2020-05-29 | 2022-04-05 | 腾讯科技(深圳)有限公司 | 一种虚拟现实vr视频的播放方法及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
JP6657421B2 (ja) | 2020-03-04 |
US20200279429A1 (en) | 2020-09-03 |
KR102280719B1 (ko) | 2021-07-22 |
JP6978528B2 (ja) | 2021-12-08 |
WO2018125295A1 (en) | 2018-07-05 |
KR20180108786A (ko) | 2018-10-04 |
JP2019520618A (ja) | 2019-07-18 |
EP3469472A1 (en) | 2019-04-17 |
KR102199807B1 (ko) | 2021-01-07 |
CN108885522B (zh) | 2021-07-06 |
US20180190003A1 (en) | 2018-07-05 |
KR20210002768A (ko) | 2021-01-08 |
US10621773B2 (en) | 2020-04-14 |
US11113863B2 (en) | 2021-09-07 |
JP2020098618A (ja) | 2020-06-25 |
CN113419635A (zh) | 2021-09-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108885522A (zh) | 渲染3d环境中的内容 | |
US20210166300A1 (en) | Virtual reality platform for retail environment simulation | |
US10423988B2 (en) | System and method for item inquiry and information presentation via standard communication paths | |
CN101437024B (zh) | 用于在虚拟共享空间中自动生成引用标记的方法和设备 | |
CN112565804B (zh) | 一种直播互动方法、设备、存储介质及*** | |
US20150170256A1 (en) | Systems and Methods for Presenting Information Associated With a Three-Dimensional Location on a Two-Dimensional Display | |
US9117193B2 (en) | Method and system for dynamic detection of affinity between virtual entities | |
US20100164956A1 (en) | Method and Apparatus for Monitoring User Attention with a Computer-Generated Virtual Environment | |
Yang | Mobile applications and 4G wireless networks: a framework for analysis | |
CN107113339A (zh) | 增强的推送消息传递 | |
CN104580348B (zh) | 访问基于位置的内容 | |
CN107182209A (zh) | 检测数字内容可见性 | |
CN104541260A (zh) | 多装置屏幕捕获 | |
Lee et al. | Design patterns for situated visualization in augmented reality | |
CN110366736A (zh) | 使用基于直方图的分析的管理事件数据库 | |
CN112269917A (zh) | 一种媒体资源展示方法及装置、设备、***、存储介质 | |
MacColl et al. | Shared visiting in EQUATOR city | |
EP2860686A1 (en) | Method of handling digital contents in a social network | |
CN113419635B (zh) | 计算机实施的方法和计算*** | |
Khan et al. | Dreamstore: A data platform for enabling shared augmented reality | |
KR20230050856A (ko) | 3d 환경에서 콘텐츠 렌더링 | |
US20230351438A1 (en) | Product conversion rate zone performance | |
Hemström et al. | A Comparison of WebVR and Native VR: Impacts on Performance and User Experience | |
US20230196766A1 (en) | Artificial Reality Applications Through Virtual Object Definitions and Invocation | |
CN112130726A (zh) | 页面操作方法、装置、电子设备和计算机可读介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |