CN109997098B - 装置、相关联的方法和相关联的计算机可读介质 - Google Patents

装置、相关联的方法和相关联的计算机可读介质 Download PDF

Info

Publication number
CN109997098B
CN109997098B CN201780072810.XA CN201780072810A CN109997098B CN 109997098 B CN109997098 B CN 109997098B CN 201780072810 A CN201780072810 A CN 201780072810A CN 109997098 B CN109997098 B CN 109997098B
Authority
CN
China
Prior art keywords
user
world object
physical real
virtual reality
real world
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780072810.XA
Other languages
English (en)
Other versions
CN109997098A (zh
Inventor
A·勒蒂涅米
A·埃罗南
J·勒帕南
J·阿拉斯维奥里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Technologies Oy
Original Assignee
Nokia Technologies Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Technologies Oy filed Critical Nokia Technologies Oy
Publication of CN109997098A publication Critical patent/CN109997098A/zh
Application granted granted Critical
Publication of CN109997098B publication Critical patent/CN109997098B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/96Management of image or video recognition tasks
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一种装置被配置为基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容和所识别的物理现实世界对象,其中被呈现给用户的虚拟现实视图提供对虚拟现实内容的查看;提供对象图像的显示,对象图像至少包括被覆盖在虚拟现实视图中所呈现的虚拟现实内容上的所识别的物理现实世界对象的表示,对象图像被显示在虚拟现实空间中与所识别的物理现实世界对象相对于用户的现实世界位置相对应的位置处,对象图像还至少包括另外的物理现实世界对象的表示,该另外的物理现实世界对象的表示被识别为潜在地阻碍对上述所识别的物理现实世界对象的物理用户接近。

Description

装置、相关联的方法和相关联的计算机可读介质
技术领域
本公开涉及虚拟现实领域,并且具体地涉及示出所识别的现实世界对象和另外的现实世界对象的表示的对象图像的显示。还公开了相关联的方法、计算机程序和装置。所公开的某些方面/示例涉及便携式电子设备。
背景技术
虚拟现实(VR)可以为用户提供沉浸式体验,从而损害用户对用户周围的现实世界中的对象的位置的鉴别。
在本说明书中列出或讨论先前公布的文档或任何背景不应当被视为承认该文档或背景是现有技术的一部分或是公知常识。本公开的一个或多个方面/示例可以解决或不解决一个或多个背景问题。
发明内容
在第一示例方面,提供了一种装置,该装置包括:
至少一个处理器;以及
包括计算机程序代码的至少一个存储器,
至少一个存储器和计算机程序代码被配置为与至少一个处理器一起使装置至少执行以下操作:
基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容和所识别的物理现实世界对象,其中被呈现给用户的虚拟现实视图提供对虚拟现实内容的查看;
提供对象图像的显示,对象图像至少包括被覆盖在虚拟现实视图中所呈现的虚拟现实内容上的所识别的物理现实世界对象的表示,对象图像被显示在虚拟现实空间中与所识别的物理现实世界对象相对于用户的现实世界位置相对应的位置处,对象图像还至少包括另外的物理现实世界对象的表示,该另外的物理现实世界对象的表示被识别为潜在地阻碍对上述所识别的物理现实世界对象的物理用户接近。
在一个或多个示例中,虚拟现实视图可以由虚拟现实显示器(诸如头戴式显示器)提供,虚拟现实显示器部分地或基本上完全地遮挡用户对现实世界的查看。
在一个或多个示例中,对象图像在虚拟现实视图中的位置对应于当前现实世界位置,当前现实世界位置可以由一个或多个传感器和/或相机跟踪。
在一个或多个实施例中,如果另外的物理现实世界对象满足以下中的一项或多项,则另外的物理现实世界对象被识别为潜在地阻碍对所识别的物理现实世界对象的物理用户接近:
i)在所识别的物理现实世界对象的预定距离内;
ii)在所识别的物理现实世界对象的预定距离内并且相对于用户在所识别的物理现实世界对象前面;
iii)在将连接用户和所识别的物理现实世界对象的线的预定距离内;
iv)在通过用户的骨架分析而被识别的预定区域内,骨架分析用以识别在考虑到用户的位置和定向以及物理现实世界对象和另外的物理现实世界对象的相对位置的情况下用户能够到达的运动范围;
v)是由用户识别的;以及
vi)是在用户被呈现虚拟现实内容的同时由除了用户之外的人识别的。
在一个或多个实施例中,基于物理现实世界对象和另外的物理现实世界对象的相对位置,对象图像还包括引导箭头,引导箭头被配置为向用户建议要在现实世界中采取以与物理现实世界对象进行交互并同时避开另外的物理现实世界对象的路径。
在一个或多个实施例中,由引导箭头提供的引导基于以下中的一项或多项:
i)对物理现实世界对象和另外的物理现实世界对象的相对位置的分析以识别到物理现实世界对象的、同时避开另外的物理现实世界对象的最短路径;
ii)用户的左右手使用习惯;
iii)对用户相对于物理现实世界对象和另外的物理现实世界对象的骨架分析以识别到物理现实世界对象的路线,该路线与在给出物理现实世界对象和另外的物理现实世界对象的相对位置的情况下用户能够到达的运动范围兼容。
在一个或多个实施例中,对象图像基于以下中的一项或多项:
i)来自相机的物理现实世界对象和另外的物理现实世界对象中的一个或多个对象的相机图像,该相机安装有被配置为向用户提供虚拟现实视图的虚拟现实显示器;
ii)来自具有围绕用户的区域的视图的相机的物理现实世界对象和另外的物理现实世界对象中的一个或多个对象的相机图像。
在一个或多个示例中,虚拟现实视图示出虚拟现实空间中的虚拟现实内容的总空间范围的空间部分,并且基于虚拟现实空间中的对象图像的上述位置位于被虚拟现实视图覆盖的区域外部,提供指示符图像的显示,该指示符图像被配置为示出相对于用户的当前定向朝向所识别的物理现实世界对象的方向。在一个或多个示例中,该装置被进一步使得提供另外的指示符图像的显示,该外的指示符图像被配置为示出相对于用户的当前定向朝向另外的物理现实世界对象的方向。
在一个或多个实施例中,对象图像的显示基于所检测到的用户与所识别的现实世界对象交互的运动。
相应地,在一个或多个示例中,该装置可以被引起基于所检测到的运动来提供对象图像的显示,并且如果没有检测到这样的运动,则从显示中移除对象图像,诸如在缺少上述运动的预定时间之后。在一个或多个示例中,运动可以是任何运动,或者可以是包括从用户的身体和/或朝向对象伸出手的运动。
在一个或多个示例中,以透明效果显示对象图像中的另外的物理现实世界对象的表示,使得用户可以通过另外的所识别的现实世界对象的表示来看到所识别的现实世界对象的表示。
在一个或多个实施例中,基于所检测到的现实世界用户运动,提供在虚拟现实空间中的位置处用户的手的表示的显示,该位置与用户的手在现实世界中的位置相对应。
在一个或多个示例中,基于上述所检测到的现实世界用户运动,可以临时增加对象图像的大小以提供对现实世界对象周围的区域的显示以在用户的手接近所识别的现实世界对象时提供对手的图像的显示。
在一个或多个实施例中,基于检测到用户已经将他们的手移动到另外的物理现实世界对象之外,提供以下各项:另外的物理现实世界对象从中被移除的表示中的一个或多个表示的对象图像的显示;透明效果;以及视觉效果,以提供对被另外的物理现实世界对象遮挡的所识别的现实世界对象的至少一部分的查看。
在一个或多个实施例中,基于检测到用户已经拾取所识别的现实世界对象,提供表面图像的显示,表面图像包括所识别的现实世界对象在被拾取之前位于其上的现实世界表面的表示。
在一个或多个示例中,可以在表面图像的显示期间从显示器移除对象图像。
在一个或多个实施例中,表面图像包括另外的物理现实世界对象在虚拟现实空间中位置处的表示,该位置与另外的物理现实世界对象的现实世界位置相对应。
在一个或多个实施例中,基于表面和另外的物理现实世界对象的相对位置,表面图像还包括引导箭头,引导箭头被配置为向用户建议要在现实世界中采取以使所识别的现实世界对象返回到表面并且同时避开另外的物理现实世界对象的路径。
在一个或多个实施例中,在对象图像中被呈现的所识别的物理现实世界对象和另外的物理现实世界对象的相对大小基于物理现实世界对象和另外的物理现实世界对象关于用户的相对现实世界位置。
在一个或多个示例中,被提供用于显示的对象图像的大小动态地基于用户与所识别的现实世界对象之间的距离。
因此,在一个或多个示例中,对象的相对大小和可选的定向对应于它们在现实世界中的相对位置,这可以提高用户在继续观看VR内容时可以交互或拾取对象的容易性,这因此可以表示他们不必移除他们的VR显示器或头戴式耳机(headset)。
在一个或多个实施例中,所识别的物理现实世界对象是以下中的一个或多个:
i)用户识别的物理现实世界对象,该用户识别的物理现实世界对象由用户在用户输入之后识别给装置;
ii)自动识别的物理现实世界对象,该自动识别的物理现实世界对象通过用户周围的现实世界区域的对象识别而被识别给装置。
在一个或多个示例中,用户识别的物理现实世界对象通过以下中的一个或多个来识别:朝向或接触现实世界对象的用户姿势;对在用户周围的区域的相机捕获图像中的对象的选择,现实世界对象在该区域中是可见的;通过名称或位置识别现实世界对象的语音或文本输入,其提供在用户周围的现实世界区域的相机图像中的所识别的对象的自动识别。
在一个或多个实施例中,对象图像包括以下中的至少一个:
i)表示物理现实世界对象的图标;
ii)物理现实世界对象的照片;
iii)物理现实世界对象的实况图像;以及
以下中的至少一个:
iv)表示另外的物理现实世界对象的图标;
v)另外的物理现实世界对象的照片;
vi)另外的物理现实世界对象的实况图像。
在一个或多个示例中,基于包括以下中的至少一个的对象图像:
i)物理现实世界对象的照片;
ii)物理现实世界对象的实况图像;
iii)另外的物理现实世界对象的照片;以及
iv)另外的物理现实世界对象的实况图像;
该装置被使得提供基本上从围绕它的现实世界的任何图像中被切出的物理现实世界对象和另外的物理现实世界对象中的一个或多个的显示。
在第二示例方面,提供了一种方法,该方法包括:
基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容和所识别的物理现实世界对象,其中被呈现给用户的虚拟现实视图提供对虚拟现实内容的查看;
提供对象图像的显示,对象图像至少包括被覆盖在虚拟现实视图中所呈现的虚拟现实内容上的所识别的物理现实世界对象的表示,对象图像被显示在虚拟现实空间中与所识别的物理现实世界对象相对于用户的现实世界位置相对应的位置处,对象图像还至少包括另外的物理现实世界对象的表示,该另外的物理现实世界对象的表示被识别为潜在地阻碍对上述所识别的物理现实世界对象的物理用户接近。
在第三示例方面,提供了一种计算机可读介质,其包括被存储在其上的计算机程序代码,该计算机可读介质和计算机程序代码被配置为当在至少一个处理器上运行时执行以下方法:
基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容和所识别的物理现实世界对象,其中被呈现给用户的虚拟现实视图提供对虚拟现实内容的查看;
提供对象图像的显示,对象图像至少包括被覆盖在虚拟现实视图中所呈现的虚拟现实内容上的所识别的物理现实世界对象的表示,对象图像被显示在虚拟现实空间中与所识别的物理现实世界对象相对于用户的现实世界位置相对应的位置处,对象图像还至少包括另外的物理现实世界对象的表示,该另外的物理现实世界对象的表示被识别为潜在地阻碍对上述所识别的物理现实世界对象的物理用户接近。
在第四示例方面,提供了一种装置,其具有用于以下操作的部件:
基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容和所识别的物理现实世界对象,其中被呈现给用户的虚拟现实视图提供对虚拟现实内容的查看;
提供对象图像的显示,对象图像至少包括被覆盖在虚拟现实视图中所呈现的虚拟现实内容上的所识别的物理现实世界对象的表示,对象图像被显示在虚拟现实空间中与所识别的物理现实世界对象相对于用户的现实世界位置相对应的位置处,对象图像还至少包括另外的物理现实世界对象的表示。该另外的物理现实世界对象的表示被识别为潜在地阻碍对上述所识别的物理现实世界对象的物理用户接近。
根据本公开的另一方面,提供了一种***,其包括第一方面的装置、用于提供虚拟现实视图的虚拟现实装置、以及被配置为在用户消费VR内容时跟踪用户周围的一个或多个对象以提供所识别的物理现实世界对象和另外的物理现实世界对象的相对位置的确定的传感器。
本公开独立地或以各种组合包括一个或多个对应方面、示例或特征,而无论其是否以该组合或独立地具体陈述(包括要求保护的)。用于执行一个或多个所讨论的功能的对应部件和对应的功能单元(例如,功能启动器、视点确定器、显示设备、虚拟现实显示装置、现实世界对象跟踪元件、图像识别和跟踪元件)也在本公开内。
用于实现所公开的一种或多种方法的对应计算机程序也在本公开内,并且被一个或多个所描述的示例所涵盖。
以上概述旨在仅是示例性而非限制性的。
附图说明
现在仅通过示例参考附图给出描述,在附图中:
图1图示了示例装置;
图2示出了现实世界中的用户与对象以及被提供给用户的VR视图;
图3示出了用户拾取对象;
图4示出了所识别的物理现实世界对象和另外的物理现实世界对象;
图5示出了示例实施例,该实施例示出了被提供给用户的对象图像;
图6示出了用户拾取物理现实世界对象;
图7示出了用户已经拾取了物理现实世界对象;
图8示出了说明示例方法的流程图;以及
图9示出了计算机可读介质。
具体实施方式
虚拟现实(VR)可以使用VR显示器,VR显示器包括头戴式耳机,诸如眼镜或护目镜或虚拟视网膜显示器或者围绕用户的用以向用户提供沉浸式虚拟体验的一个或多个显示屏。使用VR显示器的虚拟现实装置可以向用户呈现表示场景的多媒体VR内容以模拟用户实际存在于场景内。虚拟现实场景可以复制现实世界场景以模拟用户物理地存在于现实世界位置处,或者虚拟现实场景可以是计算机生成的或者是计算机生成的和现实世界多媒体内容的组合。虚拟现实场景可以由全景视频(诸如全景实况直播或预先录制的内容)提供,包括具有宽视场或360°视场(或更多,诸如水平定向视场的上方和/或下方)的视频。然后可以向用户呈现场景的VR视图,并且可以诸如通过VR显示器(即,头戴式耳机)的移动来移动VR视图以环顾场景。相应地,可以提供三维虚拟现实空间,其中显示有虚拟现实内容并且用户可以在其中环顾四周并且可选地通过VR空间进行转换来探索。
例如,被提供给用户的VR内容可以包括由VR内容捕获装置捕获的现实世界的实况或录制图像。由于VR场景通常大于用户利用在任何时间在VR显示器上所呈现的VR视图可以观看的部分,因此VR装置可以基于用户的头部或眼睛的移动来提供在VR场景中的VR视图周围的平移。例如,VR显示器的水平平面中的视场可以是大约120°,但是VR内容可以提供360°视频图像。因此,由VR显示器提供的VR视图的视场可以小于VR内容的总空间范围。
可以向虚拟现实内容提供具有方向属性的空间音频,使得感知到音频源自VR空间中的点,该点可以被链接到VR内容的图像。可以通过向多声道音频布置的每个声道呈现音频的程度来提供音频的空间定位。当通过耳机收听时,可以通过利用适当的头部相关传递函数(HRFT)滤波器针对左耳和右耳的音频信号进行滤波来创建定向音频感知。
VR内容捕获设备被配置为捕获VR内容以用于显示给一个或多个用户。VR内容捕获设备可以包括被配置为从视点捕获周围的视觉和听觉场景的一个或多个相机以及一个或多个(例如,定向和/或环境)麦克风。示例VR内容捕获设备是Nokia Technologies Oy的Nokia OZO相机。因此,可以使用VR内容捕获设备来捕获(和记录)音乐表演,该VR内容捕获设备可以被放置在舞台上,其中表演者在其周围移动或者从观众成员的视点来看移动。在每种情况下,VR内容的消费者可以能够使用VR装置的VR显示器环顾四周以在捕获位置的视点处体验表演,就好像它们在场一样。
VR内容的消费可以提供沉浸式体验,该体验可以使得难以理解在用户附近的现实世界中发生的事情。特别地,物理对象在现实世界中的位置可能难以定位或记忆,或者在正在消费VR内容的同时可能易于被敲入。在一个或多个示例中尤其如此,其中VR显示器覆盖用户的眼睛,诸如由于头戴式显示器,该显示器部分地或基本上完全遮挡了用户对现实世界的查看。相应地,在一个或多个示例中,可能期望在沉浸于虚拟现实内容中的同时帮助鉴别现实世界物理对象的位置。
参考图1,装置100可以形成VR装置101的一部分或与VR装置101通信以用于向用户呈现VR内容。存储库102被示出为表示当VR内容被VR装置101捕获和接收时被存储在存储介质中或瞬时存在于数据传输总线上的VR内容。VR内容可以由至少一个VR内容捕获设备捕获并且可能是实况或录制的。用户可以使用VR头戴式耳机103或其他VR显示器来查看VR内容。装置100可以包括与其相关联的一个或多个传感器以用于识别和/或跟踪用户周围区域中的物理对象。在一个或多个示例中,一个或多个传感器可以包括与VR显示器103相关联的相机104。相机104可以从用户的视点提供图像,即用户安装的相机,诸如被安装到VR显示器103。来自相机104的视图可以基本上等同于用户周围的视图,就像他们没有佩戴VR显示器103一样。在一个或多个示例中,提供可以包括相机105的第二传感器。相机105被配置为捕获用户周围的视图并且可选地还捕获用户200的视图。因此,总之,可以包括相机的一个或多个传感器可以被配置为使用视觉或其他对象跟踪方法捕获关于VR装置101的用户周围的区域中的对象的信息。一个或多个传感器中的一个或多个可以包括能够确定场景中的深度的相机。一个或多个传感器可以被配置为从用户的视点捕获信息。一个或多个传感器可以被配置为从远离用户的视点捕获用户及其周围环境的视图。一个或多个传感器可以包括一个或多个相机(可见光相机或任何其他波长);方向和测距设备,诸如基于雷达或声纳的传感器;用以通过无线信令来计算附接到用户周围的区域中的对象的标签的位置的***标签传感器、和用于感测用户周围的区域中的对象的任何其他适当的传感器。
装置100可以被配置为提供对象图像的显示(下面结合图2至图7更详细地描述),对象图像的显示至少包括其看起来叠加在呈现于VR显示器103的虚拟现实视图中的虚拟现实内容上的所识别的物理现实世界对象的表示。
装置100可以在用户使用VR显示器103观看VR内容的同时基于来自传感器104、105的信息向用户显示对象图像。相应地,VR装置101可以向装置100提供信令以指示用户正在观看VR空间中的哪个位置以便可以确定在哪个位置提供对象图像的显示。在一个或多个示例中,装置100可以提供用户周围的一个或多个对象的位置的确定,并且基于用户在VR空间中观看的位置来提供对覆盖VR内容的相对应定位的对象图像的显示。在一个或多个示例中,对象图像可以被认为是通过VR显示器103的虚拟窗口,使得用户可以在不中断VR内容的查看的情况下看到所识别的现实世界对象。
在该实施例中,上述装置100可以仅具有一个处理器101A和一个存储器101B,但是应当理解,其他实施例可以利用多于一个处理器和/或多于一个存储器(例如,相同或不同的处理器/存储器类型)。另外,装置100可以是专用集成电路(ASIC)。装置100可以与VR装置101分离并且与VR装置101通信,或者如图1中那样,可以与VR装置101集成。
处理器101A可以是专用于根据以计算机程序代码的形式存储在存储器上的指令来执行/处理从诸如VR装置101和装置100等其他组件接收的信息的通用处理器。由处理器的这种操作生成的输出信令被提供给诸如VR设备101等其他组件以用于向用户显示对象图像。
存储器101B(不一定是单个存储器单元)是存储计算机程序代码的计算机可读介质(在该示例中为固态存储器,但可以是诸如硬盘驱动器、ROM、RAM、闪存等其他类型的存储器)。当程序代码在处理器上运行时,该计算机程序代码存储由处理器可执行的指令。在一个或多个示例实施例中,存储器与处理器之间的内部连接可以被理解为在处理器与存储器之间提供主动耦合以允许处理器接近被存储在存储器上的计算机程序代码。
在该示例中,处理器101A和存储器101B都在内部彼此电连接以允许相应组件之间的电通信。在该示例中,所有组件都彼此靠近地定位以便一起形成为ASIC,换言之,以便被集成在一起作为可以被安装到电子设备中的单个芯片/电路。在其他示例中,一个或多个或所有组件可以彼此分离地定位。
图2示出了用户200在该示例中使用头戴式VR显示器103消费VR内容。应当理解,可以使用其他类型的VR显示器。图2还示出了用户200的现实世界环境的至少一部分,其恰好包括物理对象,该物理对象包括咖啡杯201。示出了包括篮球比赛的虚拟现实内容的虚拟现实视图202,以图示被提供给用户的内容以用于通过装置100和VR装置101经由VR显示器103在虚拟现实中查看。
对象201可以被识别为用户在消费VR内容的同时可能希望跟踪的对象。物理现实世界对象可以通过以下中的一个或多个来识别:用以向装置100识别对象201的用户输入;以及通过对象识别实现的向装置100或由装置100进行的自动识别。应当理解,可以将一个或多个对象201识别为用户可能希望跟踪的对象。
在对象201是用户识别的对象的一个或多个示例中,装置100可以被配置为通过以下中的一个或多个来提供对象的识别:朝向或触摸现实世界对象的检测到的用户姿势(诸如手势);对用户周围的区域的图像中的对象的选择,诸如从相机104或105,现实世界对象在该区域中是可见的;以及通过名称或位置来识别现实世界对象的语音或文本输入。装置100可以基于语音或文本输入来提供来自一个或多个相机104、105和/或其他传感器的信息或图像中的上述输入对象的对象识别。一个或多个相机可以被配置为确定它们捕获的图像中的深度,并且因此朝向对象201的姿势可以是可识别的。用户对对象201的识别可以在用户佩戴VR显示器/头戴式耳机103之前由用户执行。对象的自动识别可以通过自动识别用户周围的对象并且识别用户可能希望被跟踪的对象的至少子集来实现。例如,该装置可以提供对处于以下情况中的一个或多个情况的对象的自动识别:不稳定地放置;可移动的,诸如固定在固定表面上;在用户的预定距离内;以及基于预定对象列表。
在该示例中,用户200可以通过敲击它来向装置100识别咖啡杯。装置100可以被配置为将诸如敲击等姿势解释为物理现实世界对象201的识别。
图2示出了包括覆盖在VR视图202中的VR内容上的所识别的物理现实世界对象201的图像或表示204的对象图像203。在图2所示的示例中,对象图像203仅包括物理现实对象201。对象图像203可以被显示在虚拟现实空间中与所识别的物理现实世界对象201相对于用户的现实世界位置相对应的位置处。因此,在该示例中,咖啡杯201恰好位于用户200的前面并且略微向右并且低于用户的头部。对象201的位置可以基于来自一个或多个传感器104、105的信息来确定,并且用户的查看方向的定向可以由VR显示器103和/或VR装置101的传感器确定。相应地,装置100可以在VR视图202中的对应位置处提供对象图像203的显示,该位置在用户200的前面并且略微向右并且低于用户的视线的中心。对象图像203的定位可以允许用户确定现实世界中他们可以与对象201交互或拾取对象201的位置。
在一个或多个示例中,对象图像203可以包括基于由一个或多个相机104、105捕获的图像的所识别的物理现实世界对象201的实况图像。然而,对象图像可以包括表示物理现实世界对象的图标,该图标可以是通用的并且从而独立于对象的外观或者可以包括对象的图标。例如,对象201可以被识别为咖啡杯,并且因此图标可以包括通用咖啡杯的图像,诸如从图标存储库或互联网检索的图像。在一个或多个示例中,对象图像可以包括物理现实世界对象201的照片,诸如来自相机104、105,并且可以在对象201的识别上被捕获。在一个或多个示例中,对象图像可以包括物理现实世界对象的实况图像,诸如来自相机104、105中的一个或多个。提供实况图像的相机可以基于用户正在查看的位置以及对象是否在相机的视场内来选择。
对象图像201还可以包括围绕对象201的现实世界空间区域的图像205。在一个或多个示例中,装置100可以提供对基本上从围绕它的任何现实世界空间区域切出的物理现实世界对象201的显示。
图3图示了用户用他们的手300伸到对象201。装置100可以被配置为提供对象图像203的显示以及用户的手的图像以使得他们能够看到他们自己(即,他们的手)拾取对象201。如果对象图像是从诸如来自相机104的实况相机图像导出的,则对象图像可以包括用户的手300的实况图像301。如果对象图像203包括对象201的图标,则该装置可以提供用户手的图标的显示作为对象图像203的一部分。应当理解,可以提供对象和用户手的实况图像、图标和照片的任何组合作为对象图像203的一部分。另外,用户可以使用手指、触控笔或任何其他对象而不是用户的手来与对象201交互,其可以被提供用于显示为对象图像203的一部分,如本文中针对用户的手所述。
另外,图3示出了大小增大以适应用户的手300的视图的对象图像203。相应地,对象图像201的大小或者至少是被提供用于显示的对象201周围的区域的大小可以动态地基于用户(例如,他们的手)与所识别的现实世界对象201之间的距离。因此,在一个或多个示例中,尽管对象图像203中的表示204的大小可以基于对象201与用户200之间的相对距离,但是对象图像的大小可以基于朝向对象201的检测到的用户移动。
图4示出了用户200经由VR显示器103消费VR内容以及物理现实世界对象201。恰好在该示例中包括一碗爆米花的另外的物理现实世界对象400被放置在用户200周围的区域中。用户200可能不知道另外的物理现实世界对象400已经被放置在附近,或者可能知道它到达但不知道它的位置。另外的物理现实世界对象400可能潜在地阻碍对物理现实世界对象201的物理接近,因为它在该示例中已经被放置在用户200与物理现实世界对象201之间。
在用户200与对象201之间放置另外的对象可以包括多个条件中的一个,该多个条件可以确定另外的对象是否潜在地阻碍对上述物理现实世界对象201的物理用户接近。装置100可以提供使用一个或多个相机104、105或传感器来识别可能潜在地妨碍对上述识别的物理现实世界对象201的物理用户接近的其他对象。例如,如果该装置被配置为通过将它们定位在用户200与对象201之间来识别另外的对象,则装置100可以被配置为使用来自相机104的信息来提供对另外的对象400的识别,相机104可以被安装到VR显示器103。应当理解,可以使用一个或多个其他传感器或相机或其组合来识别另外的对象400。
在一个或多个示例中,如果另外的物理现实世界对象在所识别的物理现实世界对象的预定距离内,则将其识别为潜在地阻碍对上述识别的物理现实世界对象的物理用户接近。相应地,装置100可以提供对对象201周围的预定距离的确定,并且提供对在上述预定距离内的对象的识别。例如,可以被配置为测量其捕获的场景内的深度的相机105可以被用来识别一个或多个另外的对象400。在一个或多个示例中,装置100可以被配置为基于另外的对象400是否在距对象201的预定距离内并且还相对于用户在其前面来提供另外的对象是否潜在地阻碍接近的确定。在一个或多个示例中,装置100可以基于另外的对象400是否在将连接用户和所识别的物理现实世界对象201的线的预定距离内来提供另外的对象是否潜在地阻碍接近的确定。可以认为距假想线的这种距离定义了当到达对象201时用户的手臂和手可以穿过的体积,并且因此该体积内的任何其他对象可能妨碍接近。在一个或多个示例中,如果另外的对象400位于通过用户的骨架分析而识别的预定区域内,则装置100可以提供另外的对象400是否潜在地阻碍接近的确定,其中骨架分析用以识别在给定用户的位置和定向以及物理现实世界对象201和另外的物理现实世界对象400的相对位置的情况下用户能够到达的运动范围。相应地,装置100可以提供关于以下各项的信息的收集:用户的肢体的位置和/或定向、用户身体的定向、距对象201的距离(诸如通过传感器104、105),并且通过关于骨骼运动范围的预定数据,识别用户周围的区域,当拾取对象201时他们的肢体可能偏离该区域。可以确定该区域中的任何另外的对象400潜在地阻碍对对象201的接近。在一个或多个示例中,另外的对象400可以由用户200识别。例如,当爆米花被放置在附近时,用户可以向装置100提供用户输入。基于用户输入,装置100可以提供对另外的对象400的识别和对另外的对象400的位置的跟踪。因此,用户可以知道有人在附近放置了一碗爆米花,并且可以发出语音命令“跟踪爆米花”,装置100可以向其提供在用户周围的空间内包括一碗爆米花的对象的识别。在一个或多个示例中,在向用户呈现虚拟现实内容的同时,可以由除了用户200之外的人向装置100识别另外的对象400。例如,如果另外的对象被另一人放置在用户附近,则该人可以向装置100提供输入以提供对象400的识别,诸如通过语音、文本、姿势或其他输入手段。基于来自除了用户之外的人的输入,装置100可以被配置为识别另外的对象400并且提供对另外的对象400的位置的跟踪。来自用户或除了用户之外的人的用户输入可以是通过姿势、语音或文本输入或任何其他输入方法。因此,将另外的对象400识别为潜在地阻碍接近可以由用户200执行,或者也可以不由用户200执行。当不由用户执行时,装置100可以被配置为提供对另外的(多个)对象的自动识别(使用一个或多个相机/传感器104、105)和/或基于来自除了用户之外的人的输入。应当理解,可以使用用于识别另外的对象400的上述条件/方法的组合。
图5通过虚线箭头500示出,在现实世界中,用户200对咖啡杯201的视图将被爆米花碗400遮挡。在VR视图202中,如前所述,对象图像包括被覆盖在虚拟现实视图202中所呈现的虚拟现实内容上的所识别的物理现实世界对象201的表示204。另外,如前所述,对象图像203被显示在虚拟现实空间中与所识别的物理现实世界对象相对于用户200的现实世界位置相对应的位置处。在图5所示的本发明的一个方面的示例性实施例中,对象图像203还至少包括被识别为潜在地阻碍对上述识别的物理现实世界对象201的物理用户接近的另外的物理现实世界对象400的表示501。
表示501还可以被显示在虚拟现实空间中与另外的物理现实世界对象400相对于用户200和所识别的物理现实世界对象201的现实世界位置相对应的位置处。
类似于关于对象201的表示204所述,表示501可以包括以下中的至少一个:另外的物理现实世界对象400的实况图像、另外的物理现实世界对象400的图标表示和另外的物理现实世界对象400的照片。包括表示204和表示501的对象图像203可以从由相机104拍摄的图像提供,并且因此可以自然地包括对象201和另外的对象400两者的图像。在一个或多个示例中,在确定对象201在从用户安装的相机104拍摄的图像中被隐藏的情况下,装置100可以提供包括来自两个或更多个其他相机/传感器105的信息的合成对象图像203的显示。例如,来自不同相机105的图像可以被用来示出对象201的表示204,和/或来自一个或多个其他相机/传感器105的信息可以被用来定位对象201,并且可以提供图标或其他表示。在一个或多个示例中,可以以透明效果呈现另外的对象400的表示501,使得表示204在对象图像203中可见。另外,对象图像201还可以包括围绕另外的对象400的现实世界空间的区域的图像。在一个或多个示例中,装置100可以提供从围绕它的现实世界空间的任何区域基本上切出的另外的物理现实世界对象400的显示。
在一个或多个示例中,所识别的物理现实世界对象201的表示204和另外的物理现实世界对象400的表示501的相对大小基于物理现实世界对象201和另外的物理现实世界对象400关于用户200的相对现实世界位置。相应地,装置100可以提供用户200与物理现实世界对象201和另外的物理现实世界对象400之间的相对距离的确定。基于相对距离,装置100可以提供表示204、501以使其被适当地调节大小以与基于用户在现实世界中的视角而感知到它们的大小相对应。相对距离可以基于来自一个或多个相机/传感器104、105的信息来确定。另外,表示204、501中的一个或多个可以复制对象201和另外的对象400的定向。在一个或多个示例中,提供对象201和另外的对象400的准确表示204、501可以改进用户可以在继续观看VR内容的同时与对象201交互或拾取对象201的容易性,这因此可以表示他们不必移除它们的VR显示器头戴式耳机103。这些表示可以利用基于对象201/另外的对象400距用户200的现实世界距离的视觉3-D深度效果来显示。
在一个或多个示例中,装置100可以提供对对象201和另外的对象400的位置的跟踪,并且提供VR视图中的相应定位的对象图像的显示,该显示通过表示204、501示出对象201和另外的对象400的当前位置。相应地,当用户200围绕现实世界空间移动时,装置100可以提供可能潜在地妨碍对上述识别的物理现实世界对象201的物理用户接近的一个或多个(新的)另外的对象400的主动识别,并且提供相应定位的(新的)表示204、501的显示。因此,当用户200正在消费VR内容并且在现实世界空间中四处移动时,用户周围的对象可以有资格或不再有资格作为潜在地阻碍对上述识别的物理现实世界对象201的物理用户接近的对象,并且装置100可以提供仅包括当前潜在地阻碍对对象201的物理用户接近的另外的对象400的表示501的对象图像203的显示。
在一个或多个示例中,装置100可以提供引导箭头502的显示作为对象图像203的一部分,其图示了用于用户采取以到达物理现实世界对象201的建议路径。装置100可以被配置为提供引导箭头,该引导箭头在基于物理现实世界对象201和另外的物理现实世界对象400的相对位置的方向上引导用户,该方向可以由一个或多个传感器/相机104、105确定。该装置可以确定针对用以图示的引导箭头502的路径,该路径包括到达对象201的最短距离,同时避开另外的物理现实世界对象400。然而,装置100可以被配置为基于检测到的用户的左右手使用习惯来确定路径,其可以因此考虑用户在到达对象201时将优选使用的手。左右手使用习惯可以由用户200a输入作为用户偏好,或者可以由装置100基于传感器/相机104、105观察来自动检测。装置100可以基于用户200相对于物理现实世界对象201和另外的物理现实世界对象400的骨架分析来确定针对引导箭头502的路径,该骨架分析用以识别与在给出物理现实世界对象和另外的物理现实世界对象的相对位置的情况下用户200能够到达的运动范围兼容的到物理现实世界对象201的路径。因此,在考虑到给定用户的身体和肢体的定向时对用户可用的运动范围的情况下,可以提供图示有利路径的引导箭头502。
引导箭头502本身可以采取任何视觉形式,诸如线、箭头,并且可以是动画的。另外,可以动态地确定引导箭头502所示的路径,使得用户200和对象201以及另外的对象400的相对位置的改变可以提供由引导箭头502所图示的路径的改变。
在一个或多个示例中,虚拟现实视图202示出了虚拟现实空间中的虚拟现实内容的总空间范围的空间部分。相应地,假定对象图像203被显示在虚拟现实空间中与对象201和另外的对象400的现实世界位置相对应的位置处,则当用户正在远离对象201和另外的对象400的方向上观看时,在VR视图202中没有对象图像可见。因此,在一个或多个示例中,针对对象图像201在虚拟现实空间中的上述位置在被虚拟现实视图201覆盖的区域之外的情况下,装置100可以提供指示符图像的显示,该指示符图像被配置为示出相对于用户200的当前定向朝向所识别的物理现实世界对象201的方向。指示符图像可以包括在朝向对象201的方向上指向或引导的箭头或其他图形,或者可以包括在VR视图201的最靠近对象201相对于用户200的位置的一侧施加的视觉效果,诸如发光效果。在一个或多个示例中,装置100进一步被使得提供另外的指示符图像的显示,该另外的指示符图像被配置为示出相对于用户的当前定向朝向另外的物理现实世界对象400的方向。相应地,装置100可以通过指示符图像提供用户朝向所识别的对象的引导。在一个或多个示例中,代替或者除了指示符图像,装置100还可以通过呈现定向音频来提供用户朝向所识别的对象的引导。
上述示例中的对象图像203的显示被示出为“窗口”,在该“窗口”内显示有表示204、501以及任何引导箭头502。然而,在一个或多个其他示例中,对象图像203可以包括一个或多个间隔开的部分,诸如与表示501间隔开的表示204,其间显示有“底层”VR内容。应当理解,“窗口”的大小或表示204和表示501的间隔可以基于用户200、所识别的物理现实世界对象201和另外的对象400的当前相对位置。
在一个或多个示例中,即使所识别的物理现实世界对象201和另外的对象400相对于用户200定位使得它们将出现在VR视图中,也可以不一直显示对象图像203。例如,如果用户200没有移动或没有到达对象201,则装置100可以被配置为从显示中移除对象图像203。因此,对象图像203的显示可以基于用以与所识别的现实世界对象201交互的用户200的所检测到的运动。运动可以由一个或多个传感器/相机104、105检测。在没有运动的情况下,或者在没有检测到运动的预定时间之后,或者基于用户200与对象201之间的距离大于阈值量(即,用户可能不能够快速到达对象),装置100可以提供从显示中移除对象图像,诸如通过使对象图像203淡出。响应于用户的所检测到的运动或检测到特定的预定姿势,诸如到达姿势,装置100可以提供对象图像203的显示。预定姿势可以是任何可检测的姿势,和/或可以由用户200设置。
图6示出了用户200用他们的手300到达现实世界中的咖啡杯201。用户200可以遵循由引导箭头502建议的路径。装置100可以提供用户的手300的表示301的显示作为对象图像203的一部分。表示301的显示可以响应于所检测到的现实世界用户运动,该运动可以包括朝向对象201的运动,诸如与所识别的现实世界对象201交互。在该示例中,表示301的位置位于虚拟现实空间中与用户的手在现实世界中的当前位置相对应的位置。因此,装置100可以提供表示301的主动定位,使得用户可以鉴别他们的手300和对象201的当前相对位置。
在图6中,已经移除了另外的对象400的表示501。这可以提供对象201的更清晰的视图以用于拾取它。装置100可以被配置为基于检测到用户200已经将他们的手300移动到另外的物理现实世界对象400之外来提供从中移除了另外的物理现实世界对象400的表示501的对象图像203的显示。装置100可以被配置为使用来自传感器/相机104、105中的一个或多个的信息或图像来确定用户的手位置以及用户何时可以将他们的手移动到另外的对象400之外。在一个或多个示例中,除了从显示被移除之外,另外的对象400的表示501可以用更透明的透明效果来显示,或者可以以虚线或任何其他视觉效果来显示以表示用户的手移动超出它。
对象图像203的大小和/或被提供用于在上述对象图像203中显示的对象201周围的现实世界空间的区域的大小可以是动态的。因此,对象图像的大小可以基于所检测到的与对象201的所尝试的用户交互来增加,并且可以基于所检测到的与对象201的所尝试的用户交互的缺失来减小。可以将任何用户运动确定为“所尝试的用户交互”,或者可以将所检测到的用户手臂的到达确定为“所尝试的用户交互”。在一个或多个示例中,当用户的手300接近所识别的现实世界对象201时,基于上述所检测到的现实世界用户运动,可以临时增加对象图像203的大小以提供对现实世界对象201周围的区域的显示以提供用户的手300的表示301的显示。
图7示出了用户200在仍然消费VR内容的同时拾取咖啡杯201。装置100可以提供用户200何时拾取所识别的现实世界对象201的检测。基于检测到用户201已经拾取所识别的现实世界对象201,该装置可以提供表面图像700的显示,表面图像700包括所识别的现实世界对象在被拾取之前位于其上的现实世界表面的表示。在一个或多个示例中,可以在表面图像700的显示期间从显示中移除对象图像203。表面图像700(类似于对象图像)可以被显示在虚拟现实空间中与现实世界表面相对于用户200的位置相对应的位置处。相应地,用户200能够在已经完成与对象201的交互时鉴别对象201的放置位置,而不必移除VR显示器103。
表面图像700可以包括另外的对象的表示501。表面图像700可以包括指示用户应当遵循的路径的引导箭头502。因此,引导箭头可以被配置为向用户建议要在现实世界中采取以便将所识别的现实世界对象201返回到表面同时避开另外的物理现实世界对象400的路径。
在上述示例中,用户用手与对象201交互,然而任何其他工具可以被使用、跟踪,并且提供了显示以适当地引导用户与对象201交互或拾取对象201同时避免另外的对象400的表示。
参考图1,还公开了一种***110,该***110包括装置100、用于提供虚拟现实视图的虚拟现实设备101和至少一个传感器104、105,至少一个传感器104、105被配置为在用户消费VR内容时跟踪用户周围的一个或多个对象,并且提供所识别的物理现实世界对象201和另外的物理现实世界对象400的相对位置的确定使得装置100可以向用户提供上述对象图像203的显示。
图8示出了说明以下步骤的流程图:基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容和所识别的物理现实世界对象,其中被呈现给用户的虚拟现实视图提供对虚拟现实内容的查看;提供对象图像的显示801,对象图像至少包括被覆盖在虚拟现实视图中所呈现的虚拟现实内容上的所识别的物理现实世界对象的表示,对象图像被显示在虚拟现实空间中与所识别的物理现实世界对象相对于用户的现实世界位置相对应的位置处,对象图像还至少包括另外的物理现实世界对象的表示,该另外的物理现实世界对象的表示被识别为潜在地阻碍对上述识别的物理现实世界对象的物理用户接近。
图9示意性地图示了根据示例的提供程序的计算机/处理器可读介质800。在该示例中,计算机/处理器可读介质是诸如数字通用盘(DVD)或压缩盘(CD)等盘。在一些示例中,计算机可读介质可以是已经以能够执行发明功能的方式编程的任何介质。计算机程序代码可以分布在相同类型的多个存储器之间,或者分布在不同类型的多个存储器之间,诸如ROM、RAM、闪存、硬盘、固态盘等。
用户输入可以是包括以下中的一个或多个在内的姿势:敲击、轻扫、滑动、按压、保持、旋转手势、靠近设备的用户界面的静态悬停姿势、靠近设备的移动悬停手势、弯曲设备的至少一部分、挤压设备的至少一部分、多指姿势、使设备倾斜、或翻转控制设备。另外,姿势可以是使用用户身体的任何自由空间用户姿势,诸如他们的手臂、手或触控笔或适合于执行自由空间用户姿势的其他元素。用户输入还可以包括语音或文本命令。
上述示例中所示的装置可以是便携式电子设备、膝上型计算机、移动电话、智能电话、平板计算机、个人数字助理、数码相机、智能手表、智能眼镜、基于笔的计算机、非便携式电子设备、台式计算机、显示器、家用电器、智能电视、服务器、可穿戴装置、虚拟现实装置或针对其中的一个或多个的模块/电路装置。
任何提到的装置和/或提到的特定装置的其他特征可以由如下装置提供:这些装置被布置为使得它们被配置为仅在启用(例如,打开等)时执行期望的操作。在这种情况下,它们可能不一定具有在非启用(例如,关闭状态)下被加载到活动存储器中的适当软件,并且仅在启用(例如,开启状态)下加载适当的软件。该装置可以包括硬件电路装置和/或固件。该装置可以包括被加载到存储器上的软件。这样的软件/计算机程序可以被记录在相同的存储器/处理器/功能单元上和/或一个或多个存储器/处理器/功能单元上。
在一些示例中,提到的特定装置可以用适当的软件预编程以执行期望的操作,并且其中可以启用适当的软件以供用户下载“密钥”使用,例如,以解锁/启用软件及其相关联的功能。与这样的示例相关联的优点可以包括当设备需要其他功能时减少下载数据的要求,并且这在设备被感知为具有足够容量来存储这样的预编程软件以用于可能不由用户启用的功能的示例中是有用的。
除了所提到的功能之外,任何提到的装置/电路装置/元件/处理器可以具有其他功能,并且这些功能可以由相同的装置/电路装置/元件/处理器执行。一个或多个公开的方面可以包括相关联的计算机程序和被记录在适当的载体(例如,存储器、信号)上的计算机程序(其可以是源/运输编码的)的电子分发。
本文中描述的任何“计算机”可以包括一个或多个个体处理器/处理元件的集合,其可以位于或不位于同一电路板或电路板的同一区域/位置或甚至同一设备上。在一些示例中,任何提到的处理器中的一个或多个可以分布在多个设备上。相同或不同的处理器/处理元件可以执行本文中描述的一个或多个功能。
术语“信令”可以是指作为一系列传送和/或接收的电/光信号而被传送的一个或多个信号。该系列信号可以包括一个、两个、三个、四个或甚至更多个个体信号分量或不同信号以构成上述信令。这些个体信号中的一些或全部可以通过无线或有线通信同时、依次被传送/接收,和/或使得它们在时间上彼此重叠。
参考任何提到的计算机和/或处理器和存储器(例如,包括ROM、CD-ROM等)的任何讨论,这些可以包括计算机处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)和/或已经以这种方式编程以执行本发明功能的其他硬件组件。
申请人在此独立地公开了本文所述的每个个体特征以及两个或更多个这样的特征的任何组合,只要这些特征或组合能够鉴于本领域技术人员的公知常识基于本说明书作为整体来执行,而不管这些特征或特征的组合是否解决了本文中公开的任何问题,并且不限制权利要求的范围。申请人指出,所公开的各方面/示例可以包括任何这样的个体特征或特征的组合。鉴于前面的描述,对于本领域技术人员很清楚的是,可以在本公开的范围内进行各种修改。
尽管已经示出和描述并且指出了应用于其示例的基本新颖特征,但是应当理解,在不脱离本公开的范围的情况下,本领域技术人员可以对所描述的设备和方法的形式和细节进行各种省略和替换以及改变。例如,明确地意图的是,以基本相同的方式执行基本相同的功能以实现相同结果的那些元件和/或方法步骤的所有组合都在本公开的范围内。此外,应当认识到,结合任何公开的形式或示例而示出和/或描述的结构和/或元件和/或方法步骤可以作为设计选择的一般事项并入任何其他公开的或描述的或建议的形式或示例中。此外,在权利要求中,装置加功能的条款旨在覆盖本文中描述的执行所述功能的结构,并且不仅包括结构等同物,还包括等同结构。因此,尽管钉子和螺钉可能不是结构等同物,因为钉子采取圆柱形表面将木质部件固定在一起,而螺钉采取螺旋表面,但是在紧固木质部件的环境中,钉子和螺钉可能是等同结构。

Claims (14)

1.一种用于虚拟现实的装置,包括:
至少一个处理器;以及
至少一个存储器,包括计算机程序代码,
所述至少一个存储器和所述计算机程序代码被配置为与所述至少一个处理器一起使所述装置至少执行以下操作:
基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容、并且基于所识别的物理现实世界对象,其中被呈现给所述用户的虚拟现实视图提供对所述虚拟现实内容的查看,其中由虚拟现实显示器提供的所述虚拟现实视图部分地或完全地遮挡用户对所述所识别的物理现实世界对象的查看;
使用一个或多个相机或传感器来标识另外的物理现实世界对象,所述另外的物理现实世界对象潜在地阻碍所述用户向所述所识别的物理现实世界对象的物理用户接近;
提供对象图像的显示,所述对象图像至少包括被覆盖在所述虚拟现实视图中所呈现的所述虚拟现实内容上的所述所识别的物理现实世界对象的表示,所述对象图像被显示在所述虚拟现实空间中与所述所识别的物理现实世界对象相对于所述用户的现实世界位置相对应的位置处,所述对象图像还至少包括另外的物理现实世界对象的表示和引导箭头,所述引导箭头被配置为向用户建议要在所述现实世界中采取以与所述物理现实世界对象进行交互并同时避开所述另外的物理现实世界对象的路径,其中利用所述引导箭头所建议的所述路径至少部分地基于所述用户相对于所识别的所述物理现实世界对象和所述另外的物理现实世界对象的骨架分析,以识别用户用于用户与所识别的所述物理现实世界对象进行交互的到达手势。
2.根据权利要求1所述的装置,其中如果所述另外的物理现实世界对象满足以下中的一项或多项,则所述另外的物理现实世界对象被识别为潜在地阻碍对所述所识别的物理现实世界对象的物理用户接近:
i)在所述所识别的物理现实世界对象的预定距离内;
ii)在所述所识别的物理现实世界对象的预定距离内并且相对于所述用户在所述所识别的物理现实世界对象前面;
iii)在将连接所述用户和所述所识别的物理现实世界对象的线的预定距离内;
iv)在通过对所述用户的骨架分析而被识别的预定区域内,所述骨架分析用以识别在考虑到所述用户的位置和定向以及所述物理现实世界对象和所述另外的物理现实世界对象的相对位置的情况下所述用户能够到达的运动范围;
v)是由所述用户识别的;以及
vi)是在所述用户被呈现所述虚拟现实内容的同时由除了所述用户之外的人识别的。
3.根据权利要求1所述的装置,其中由所述引导箭头提供的引导基于以下中的一项或多项:
i)对所述物理现实世界对象和所述另外的物理现实世界对象的相对位置的分析以识别到所述物理现实世界对象的、同时避开所述另外的物理现实世界对象的最短路径;
ii)所述用户的左右手使用习惯;
iii)对所述用户相对于所述物理现实世界对象和所述另外的物理现实世界对象的骨架分析以识别到所述物理现实世界对象的路线,所述路线与在考虑到所述物理现实世界对象和所述另外的物理现实世界对象的相对位置的情况下所述用户能够到达的运动范围兼容。
4.根据权利要求1所述的装置,其中所述对象图像基于以下中的一项或多项:
i)来自相机的所述物理现实世界对象和所述另外的物理现实世界对象中的一个或多个对象的相机图像,所述相机安装有被配置为向所述用户提供所述虚拟现实视图的虚拟现实显示器;
ii)来自具有围绕所述用户的区域的视图的相机的所述物理现实世界对象和所述另外的物理现实世界对象中的一个或多个对象的相机图像。
5.根据权利要求1所述的装置,其中基于所检测到的现实世界用户运动,提供在所述虚拟现实空间中的位置处所述用户的手的表示的显示,所述位置与所述用户的所述手在所述现实世界中的位置相对应。
6.根据权利要求1所述的装置,其中基于检测到所述用户已经将他们的手移动到所述另外的物理现实世界对象之外,提供以下各项:所述另外的物理现实世界对象从中被移除的表示中的一个或多个表示的所述对象图像的显示;透明效果;以及视觉效果,以提供对被所述另外的物理现实世界对象遮挡的所述所识别的现实世界对象的至少一部分的查看。
7.根据权利要求1所述的装置,其中基于检测到所述用户已经拾取所述所识别的现实世界对象,提供表面图像的显示,所述表面图像包括所述所识别的现实世界对象在被拾取之前位于其上的现实世界表面的表示。
8.根据权利要求7所述的装置,其中所述表面图像包括所述另外的物理现实世界对象在所述虚拟现实空间中的位置处的表示,所述位置与所述另外的物理现实世界对象的现实世界位置相对应。
9.根据权利要求7所述的装置,其中基于所述表面和所述另外的物理现实世界对象的相对位置,所述表面图像还包括引导箭头,所述引导箭头被配置为向所述用户建议要在所述现实世界中采取以使所述所识别的现实世界对象返回到所述表面并且同时避开所述另外的物理现实世界对象的路径。
10.根据权利要求1所述的装置,其中在所述对象图像中被呈现的所述所识别的物理现实世界对象和所述另外的物理现实世界对象的相对大小基于所述物理现实世界对象和所述另外的物理现实世界对象关于所述用户的相对现实世界位置。
11.根据权利要求1所述的装置,其中所述所识别的物理现实世界对象是以下中的一个或多个:
i)用户识别的物理现实世界对象,所述用户识别的物理现实世界对象由所述用户在用户输入之后识别给所述装置;
ii)自动识别的物理现实世界对象,所述自动识别的物理现实世界对象通过所述用户周围的现实世界区域的对象识别而被识别给所述装置。
12.根据权利要求1-11中任一项所述的装置,其中所述对象图像包括以下中的至少一个:
i)表示所述物理现实世界对象的图标;
ii)所述物理现实世界对象的照片;
iii)所述物理现实世界对象的实况图像;以及
以下中的至少一个:
iv)表示所述另外的物理现实世界对象的图标;
v)所述另外的物理现实世界对象的照片;
vi)所述另外的物理现实世界对象的实况图像。
13.一种用于虚拟现实的方法,包括:
基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容、并且基于所识别的物理现实世界对象,其中被呈现给所述用户的虚拟现实视图提供对所述虚拟现实内容的查看,其中由虚拟现实显示器提供的所述虚拟现实视图部分地或完全地遮挡用户对所述所识别的物理现实世界对象的查看;
使用一个或多个相机或传感器来标识另外的物理现实世界对象,所述另外的物理现实世界对象潜在地阻碍所述用户向所述所识别的物理现实世界对象的物理用户接近;
提供对象图像的显示,所述对象图像至少包括被覆盖在所述虚拟现实视图中所呈现的所述虚拟现实内容上的所述所识别的物理现实世界对象的表示,所述对象图像被显示在所述虚拟现实空间中与所述所识别的物理现实世界对象相对于所述用户的现实世界位置相对应的位置处,所述对象图像还至少包括所述另外的物理现实世界对象的表示和引导箭头,所述引导箭头被配置为向用户建议要在所述现实世界中采取以与所述物理现实世界对象进行交互并同时避开所述另外的物理现实世界对象的路径,其中利用所述引导箭头所建议的所述路径至少部分地基于所述用户相对于所识别的所述物理现实世界对象和所述另外的物理现实世界对象的骨架分析,以识别用户用于用户与所识别的所述物理现实世界对象进行交互的到达手势。
14.一种计算机可读介质,包括存储在其上的计算机程序代码,所述计算机可读介质和所述计算机程序代码被配置为当在至少一个处理器上运行时执行以下方法:
基于用于在虚拟现实空间中呈现给用户以用于在虚拟现实中查看的虚拟现实内容、并且基于所识别的物理现实世界对象,其中被呈现给所述用户的虚拟现实视图提供对所述虚拟现实内容的查看,其中由虚拟现实显示器提供的所述虚拟现实视图部分地或完全地遮挡用户对所述所识别的物理现实世界对象的查看;
使用一个或多个相机或传感器来标识另外的物理现实世界对象,所述另外的物理现实世界对象潜在地阻碍所述用户向所述所识别的物理现实世界对象的物理用户接近;
提供对象图像的显示,所述对象图像至少包括被覆盖在所述虚拟现实视图中所呈现的所述虚拟现实内容上的所述所识别的物理现实世界对象的表示,所述对象图像被显示在所述虚拟现实空间中与所述所识别的物理现实世界对象相对于所述用户的现实世界位置相对应的位置处,所述对象图像还至少包括所述另外的物理现实世界对象的表示和引导箭头,所述引导箭头被配置为向用户建议要在所述现实世界中采取以与所述物理现实世界对象进行交互并同时避开所述另外的物理现实世界对象的路径,其中利用所述引导箭头所建议的所述路径至少部分地基于所述用户相对于所识别的所述物理现实世界对象和所述另外的物理现实世界对象的骨架分析,以识别用户用于用户与所识别的所述物理现实世界对象进行交互的到达手势。
CN201780072810.XA 2016-11-25 2017-11-21 装置、相关联的方法和相关联的计算机可读介质 Active CN109997098B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP16200755.3A EP3327544B1 (en) 2016-11-25 2016-11-25 Apparatus, associated method and associated computer readable medium
EP16200755.3 2016-11-25
PCT/FI2017/050798 WO2018096207A1 (en) 2016-11-25 2017-11-21 An apparatus, associated method and associated computer readable medium

Publications (2)

Publication Number Publication Date
CN109997098A CN109997098A (zh) 2019-07-09
CN109997098B true CN109997098B (zh) 2022-12-06

Family

ID=57442480

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780072810.XA Active CN109997098B (zh) 2016-11-25 2017-11-21 装置、相关联的方法和相关联的计算机可读介质

Country Status (4)

Country Link
US (1) US11169602B2 (zh)
EP (1) EP3327544B1 (zh)
CN (1) CN109997098B (zh)
WO (1) WO2018096207A1 (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10949670B1 (en) * 2018-03-12 2021-03-16 United Services Automobile Association (Usaa) Augmented reality item obscuring
US11163999B2 (en) * 2018-05-21 2021-11-02 Ptc Inc. Augmented reality-based capture, processing and transfer of occupational knowledge
JP7238456B2 (ja) * 2019-02-21 2023-03-14 セイコーエプソン株式会社 表示システム、情報処理装置の制御プログラム、及び情報処理装置の制御方法
US11816757B1 (en) * 2019-12-11 2023-11-14 Meta Platforms Technologies, Llc Device-side capture of data representative of an artificial reality environment
US20220051013A1 (en) * 2020-08-11 2022-02-17 Disney Enterprises, Inc. Item location tracking via image analysis and projection
CN112462937B (zh) * 2020-11-23 2022-11-08 青岛小鸟看看科技有限公司 虚拟现实设备的局部透视方法、装置及虚拟现实设备
CN115774588A (zh) * 2021-09-07 2023-03-10 北京字跳网络技术有限公司 扩展现实环境中对象追踪方法、装置、设备及介质
US20230421983A1 (en) * 2022-06-24 2023-12-28 Rovi Guides, Inc. Systems and methods for orientation-responsive audio enhancement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1111451A2 (en) * 1996-04-30 2001-06-27 Fuji Photo Film Co., Ltd. Photothermographic material
CN1707523A (zh) * 2004-06-07 2005-12-14 西门子公司 医学图像显示和处理方法、ct设备、工作站及程序产品
JP2013101526A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
CN104081307A (zh) * 2012-02-10 2014-10-01 索尼公司 图像处理装置、图像处理方法和程序

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6558873B1 (en) * 1999-10-05 2003-05-06 Fuji Photo Film Co., Ltd. Lithographic printing plate precursor
US6903752B2 (en) * 2001-07-16 2005-06-07 Information Decision Technologies, Llc Method to view unseen atmospheric phenomenon using augmented reality
US7814041B2 (en) * 2007-03-20 2010-10-12 Caporale John L System and method for control and training of avatars in an interactive environment
WO2009094646A2 (en) * 2008-01-24 2009-07-30 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for image guided ablation
US20120190456A1 (en) * 2011-01-21 2012-07-26 Rogers Henk B Systems and methods for providing an interactive multiplayer story
US8881059B2 (en) * 2011-03-15 2014-11-04 Panasonic Intellectual Property Corporation Of America Object control device, object control method, computer-readable recording medium, and integrated circuit
US10559019B1 (en) * 2011-07-19 2020-02-11 Ken Beauvais System for centralized E-commerce overhaul
US20130328867A1 (en) * 2012-06-06 2013-12-12 Samsung Electronics Co. Ltd. Apparatus and method for providing augmented reality information using three dimension map
US20130339864A1 (en) * 2012-06-15 2013-12-19 Nokia Corporation Method and apparatus for providing mixed-reality connectivity assistance
US20140045593A1 (en) * 2012-08-07 2014-02-13 Microsoft Corporation Virtual joint orientation in virtual skeleton
US11662818B2 (en) * 2012-08-31 2023-05-30 Blue Goji Llc. System and method for evaluation, detection, conditioning, and treatment of neurological functioning and conditions
JP2016502694A (ja) * 2012-10-04 2016-01-28 ディズニー エンタープライゼス インコーポレイテッド 没入型環境用のインタラクティブ型オブジェクト
US9908048B2 (en) * 2013-06-08 2018-03-06 Sony Interactive Entertainment Inc. Systems and methods for transitioning between transparent mode and non-transparent mode in a head mounted display
US20160217617A1 (en) * 2013-08-30 2016-07-28 Hewlett-Packard Development Company, L.P. Augmented reality device interfacing
US10586395B2 (en) * 2013-12-30 2020-03-10 Daqri, Llc Remote object detection and local tracking using visual odometry
WO2015159561A1 (ja) * 2014-04-16 2015-10-22 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US20150379770A1 (en) * 2014-06-27 2015-12-31 David C. Haley, JR. Digital action in response to object interaction
EP2996017B1 (en) 2014-09-11 2022-05-11 Nokia Technologies Oy Method, apparatus and computer program for displaying an image of a physical keyboard on a head mountable display
US9713871B2 (en) * 2015-04-27 2017-07-25 Microsoft Technology Licensing, Llc Enhanced configuration and control of robots
US9704298B2 (en) * 2015-06-23 2017-07-11 Paofit Holdings Pte Ltd. Systems and methods for generating 360 degree mixed reality environments
EP3236345A1 (en) 2016-04-22 2017-10-25 Nokia Technologies Oy An apparatus and associated methods
US11017601B2 (en) * 2016-07-09 2021-05-25 Doubleme, Inc. Mixed-reality space map creation and mapping format compatibility-enhancing method for a three-dimensional mixed-reality space and experience construction sharing system
US10818088B2 (en) * 2018-07-10 2020-10-27 Curious Company, LLC Virtual barrier objects

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1111451A2 (en) * 1996-04-30 2001-06-27 Fuji Photo Film Co., Ltd. Photothermographic material
CN1707523A (zh) * 2004-06-07 2005-12-14 西门子公司 医学图像显示和处理方法、ct设备、工作站及程序产品
JP2013101526A (ja) * 2011-11-09 2013-05-23 Sony Corp 情報処理装置、表示制御方法、およびプログラム
CN104081307A (zh) * 2012-02-10 2014-10-01 索尼公司 图像处理装置、图像处理方法和程序

Also Published As

Publication number Publication date
WO2018096207A1 (en) 2018-05-31
US11169602B2 (en) 2021-11-09
EP3327544B1 (en) 2021-06-23
US20190369722A1 (en) 2019-12-05
CN109997098A (zh) 2019-07-09
EP3327544A1 (en) 2018-05-30

Similar Documents

Publication Publication Date Title
CN109997098B (zh) 装置、相关联的方法和相关联的计算机可读介质
US11093045B2 (en) Systems and methods to augment user interaction with the environment outside of a vehicle
US11676349B2 (en) Wearable augmented reality devices with object detection and tracking
CN108604175B (zh) 装置和关联方法
CN107077169B (zh) 扩增现实中的空间交互
US20170287215A1 (en) Pass-through camera user interface elements for virtual reality
EP3495921A1 (en) An apparatus and associated methods for presentation of first and second virtual-or-augmented reality content
CN110546601B (zh) 信息处理装置、信息处理方法和程序
JP6932206B2 (ja) 空間オーディオの提示のための装置および関連する方法
CN105474070B (zh) 头戴式显示设备及其控制方法
EP3343348A1 (en) An apparatus and associated methods
EP3236336B1 (en) Virtual reality causal summary content
US11367416B1 (en) Presenting computer-generated content associated with reading content based on user interactions
JP2020520576A5 (zh)
CN110968187A (zh) 由***设备启用的远程触摸检测
TW202324041A (zh) 與遠端設備的使用者互動
EP3190503B1 (en) An apparatus and associated methods
US11934584B2 (en) Finger orientation touch detection
US20230065077A1 (en) Displaying a Rendered Volumetric Representation According to Different Display Modes
US11281337B1 (en) Mirror accessory for camera based touch detection
WO2023069591A1 (en) Object-based dual cursor input and guiding system
NO20111183A1 (no) Videokonferansesystem, metode og dataprogramlagringsenhet

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant