CN113129358A - 用于呈现虚拟对象的方法和*** - Google Patents

用于呈现虚拟对象的方法和*** Download PDF

Info

Publication number
CN113129358A
CN113129358A CN201911390717.0A CN201911390717A CN113129358A CN 113129358 A CN113129358 A CN 113129358A CN 201911390717 A CN201911390717 A CN 201911390717A CN 113129358 A CN113129358 A CN 113129358A
Authority
CN
China
Prior art keywords
virtual object
observer
display device
rendering
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911390717.0A
Other languages
English (en)
Inventor
张俏
李江亮
方俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Whyhow Information Technology Co Ltd
Original Assignee
Beijing Whyhow Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Whyhow Information Technology Co Ltd filed Critical Beijing Whyhow Information Technology Co Ltd
Priority to CN201911390717.0A priority Critical patent/CN113129358A/zh
Publication of CN113129358A publication Critical patent/CN113129358A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

提供了用于呈现虚拟对象的方法,所述方法包括:获取观察者的观察位置;获取待呈现的虚拟对象的空间位置;根据所述观察者的观察位置、所述待呈现的虚拟对象的空间位置以及显示设备的位置确定所述虚拟对象在所述显示设备上的呈现位置;基于所述呈现位置将所述虚拟对象呈现在所述显示设备上。

Description

用于呈现虚拟对象的方法和***
技术领域
本发明属于虚拟现实及增强现实技术领域,尤其涉及一种用于呈现虚拟对象的方法和***。
背景技术
本部分的陈述仅仅是为了提供与本发明相关的背景信息,以帮助理解本发明,这些背景信息并不一定构成现有技术。
虚拟现实(Virtual Reality)技术是一种可以创建和体验虚拟世界的计算机仿真技术,它利用计算机生成一种包含虚拟对象(例如,图标、图片、文字、表情符号、虚拟的三维物体、三维场景模型、一段动画、一段视频、等等)的模拟环境,使用户能够沉浸到该环境中。增强现实(Augmented Reality)技术也被称为混合现实技术,其通过计算机技术将虚拟对象应用到现实场景,使得现实场景和虚拟对象实时地呈现到同一个画面或空间中,从而增强用户对现实世界的感知。
为了使用户能够体验到虚拟现实或者增强现实效果,通常需要用户携带或佩戴电子设备(例如,手机、平板电脑、智能眼镜、AR眼镜、智能头盔、智能手表等),并通过该电子设备来观察所呈现的虚拟对象。这种方案虽然可以实现虚拟现实或增强现实效果,但比较繁琐且成本高昂,也在一定程度上影响了用户对虚拟现实或增强现实效果的体验的真实性和灵活性。
发明内容
本发明的一个方面涉及一种用于呈现虚拟对象的方法,所述方法包括:获取观察者的观察位置;获取待呈现的虚拟对象的空间位置;根据所述观察者的观察位置、所述待呈现的虚拟对象的空间位置以及显示设备的位置确定所述虚拟对象在所述显示设备上的呈现位置;基于所述呈现位置将所述虚拟对象呈现在所述显示设备上。
可选的,其中,所述观察者的观察位置和所述虚拟对象的空间位置位于所述显示设备的同一侧;或者所述观察者的观察位置和所述虚拟对象的空间位置分别位于所述显示设备的两侧。
可选的,其中,根据所述观察者的观察位置、所述待呈现的虚拟对象的空间位置以及显示设备的位置确定所述虚拟对象在所述显示设备上的呈现位置包括:根据所述观察者的观察位置与所述虚拟对象的空间位置的连线或连线的延长线与所述显示设备的交点确定所述虚拟对象在所述显示设备上的呈现位置。
可选的,其中,所述观察者为观察人员或观察设备,所述观察者的观察位置包括:所述观察人员的头部的位置、面部的位置或眼睛的位置;或所述观察设备的图像采集器件的位置。
可选的,其中,所述虚拟对象的空间位置包括:默认的位置;预先设定的位置;和/或基于与所述虚拟对象相关联的现实目标的位置确定的位置。
可选的,上述方法还包括:持续获取所述观察者的观察位置和/或所述虚拟对象的空间位置;根据所述观察者的观察位置、所述待呈现的虚拟对象的空间位置以及显示设备的位置,更新所述虚拟对象在所述显示设备上的呈现位置。
可选的,上述方法还包括:确定所述虚拟对象在所述显示设备上的呈现姿态;基于所述虚拟对象的呈现姿态将所述虚拟对象呈现在所述显示设备上;其中,所述虚拟对象的呈现姿态包括:默认的姿态;预先设定的姿态;或基于所述观察者的观察位置和所述虚拟对象的空间位置确定的姿态。
可选的,上述方法还包括:确定所述虚拟对象在所述显示设备上的成像大小;基于所述虚拟对象的成像大小将所述虚拟对象呈现在所述显示设备上;其中,所述虚拟对象的成像大小包括:默认的成像大小;预先设定的成像大小;基于与虚拟对象相关联的现实目标的大小确定所述虚拟对象的成像大小;或基于所述观察者的观察位置与所述虚拟对象的空间位置之间的距离确定所述虚拟对象的成像大小。
可选的,其中,所述显示设备是透明或半透明的显示设备。
可选的,上述方法还包括:接收所述观察者的指示信息;根据所述观察者的指示信息对所述虚拟对象执行相应的操作。
本发明的另一方面涉及一种呈现虚拟对象的***,包括:传感器,用于检测观察者的观察位置;显示设备,用于呈现虚拟对象;以及计算设备,用于实现上述任一方法。
本发明的另一方面涉及一种存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现上述任一方法。
本发明的另一方面涉及一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时,能够用于实现上述任一方法。
附图说明
以下参照附图对本发明实施例作进一步说明,其中:
图1A示出了根据一个实施例的包含用于呈现虚拟对象的***的场景;
图1B示出了根据另一个实施例的包含用于呈现虚拟对象的***的场景;
图2示出了根据一个实施例的用于呈现虚拟对象的***;
图3示出了根据一个实施例的用于呈现虚拟对象的方法;
图4A示出了根据一个实施例的确定虚拟对象呈现位置的示意图;
图4B示出了根据另一个实施例的确定虚拟对象呈现位置的示意图;
图5示出了根据另一个实施例的用于呈现虚拟对象的方法;
图6示出了根据另一个实施例的用于呈现虚拟对象的方法。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1A示出了根据一个实施例的包含用于呈现虚拟对象的***的场景。该场景例如可以是博物馆的展柜(台)或是商店里的橱窗。图1A中以“☆”示出了虚拟对象的空间位置,如图1A所示,虚拟对象的空间位置位于显示设备的一侧,观察者位于该显示设备的另一侧,观察者例如可以是参观者或消费者。显示设备可以是透明或半透明的,参观者或消费者可以透过该透明或半透明的显示设备观察到位于显示设备另一侧的展柜(台)或橱窗,也可以观察到呈现在该透明或半透明显示设备上的虚拟对象。展柜(台)或橱窗里可以陈列有展品或商品,也可以是空置的,没有任何展品。所陈列的展品或商品可以是静止的,也可以是移动的,例如走秀的模特或旋转的首饰配件等。观察者可以是人员,也可以是机器,例如用来摄影或录像的设备。观察者可以是静止的,也可以是移动的。
图1B示出了根据另一个实施例的包含用于呈现虚拟对象的***的场景。如图1B所示,虚拟对象的空间位置与观察者可以位于显示设备的同一侧,例如展柜(台)或橱窗与参观者或消费者位于显示设备的同一侧,此时,参观者或消费者可以直接观察到展柜(台)或橱窗中的展品或商品,也可以观察到呈现在显示设备上的虚拟对象。
在本申请的一些实施例中,以增强现实应用为例进行了描述,但可以理解,这并非限制,本申请的方案也可以适用于虚拟现实应用。在本申请的一些实施例中以上述展柜(台)或橱窗以及参观者或消费者为场景示例进行描述,但可以理解,这并非限制,本申请的方案也可以适用于其他场景。在本申请的一些实施例中,以虚拟对象的空间位置和观察者分别位于显示设备的两侧为例进行了描述,但可以理解,这并非限制,本申请的方案也可以适用于虚拟对象的空间位置和观察者位于显示设备的同一侧的情况。
图2示出了根据一个实施例的应用于上述场景中的、用于呈现虚拟对象的***,其至少可以包括:传感器、计算设备以及显示设备。其中,传感器可以用于获取观察者的位置信息。传感器例如可以是超声波传感器、红外传感器、视觉传感器、声音传感器或者其他探测设备。视觉传感器例如可以是单目摄像头、双目摄像头、或者其他形式的摄像头。可以使用摄像头通过现有技术中的各种方法来跟踪观察者位置。例如,对于使用单个单目摄像头的情况,可以结合场景信息(例如,场景中的人或物体所处的平面的信息)来确定场景中的观察者的位置信息。对于使用双目摄像头的情况,可以根据观察者在摄像头视野中的位置以及观察者的深度信息,来确定其位置信息。对于使用多个摄像头的情况,可以根据观察者在各个摄像头视野中的位置,来确定其位置信息。在一些实施例中,传感器还可以获取观察者的姿态信息;或者获取与虚拟对象相关联的现实目标的位置信息和/或姿态信息(以下简称位姿信息);或者可以检测观察者的指示,例如手势、语音等指示,等等。传感器可以安装于固定位置(例如展柜(台)或橱窗附近)并且可以具有固定朝向(例如以某一特定的角度朝向某一特定区域),但可以理解,传感器也可以是可移动的(例如,可以改变位置或调整方向)。在一些实施例中,传感器可以仅获取位于特定区域内的观察者的位置信息或接收其指示信息,或者仅获取特定观察者的位置信息或仅接收其指示信息。例如,传感器可以仅获取在先出现的观察者的位置信息或仅接收在先出现的观察者的指示信息,而对其后出现的观察者的位置信息或指示信息予以屏蔽,直至前者离开。在一些实施例中,可以包括不止一个或一种传感器。
计算设备耦合到传感器和显示设备,并可以从传感器接收信息以及将需要显示的图像的相关信息传输到显示设备。计算设备可以根据观察者的观察位置、虚拟对象的空间位置以及显示设备的位置来确定虚拟对象在显示设备上的呈现位置。在一些实施例中,计算设备也可以用于计算观察者与虚拟对象之间的相对距离,并基于该相对距离确定虚拟对象在显示设备上的成像大小。在一些实施例中,计算设备还可以根据观察者与虚拟对象的相对位置信息或相对位姿信息确定虚拟对象在显示设备上的呈现姿态,等等。
所述显示设备用于呈现虚拟对象,其可以是透明、半透明或者不透明的显示设备。在一些实施例中,显示设备可以是透明或半透明的显示设备,使得观察者可以透过所述透明或半透明的显示设备看见位于显示设备另一侧的真实场景,也可以看见呈现于该显示设备上的虚拟对象,实现虚拟与现实相结合,进而达到增强现实的效果。透明或半透明的显示设备可以是透明或半透明的全息膜,可以使用投影仪将虚拟对象投影到该全息膜上。透明或半透明的显示设备也可以是透明或半透明的电子显示屏,例如旋转叶片显示器。显示设备的显示屏幕面积可以较大,例如可以覆盖全部或大部分的展柜(台)或橱窗,完全遮挡参观者或消费者的视线;也可以面积较小,例如仅遮挡或覆盖所述展品或商品的某一局部或细节。在一些实施例中,显示设备可以根据虚拟对象的属性信息呈现该虚拟对象。
图3示出了根据一个实施例的用于呈现虚拟对象的方法,其可以使用上述***中的计算设备来实现,并且可以包括如下步骤:
步骤301:计算设备获取观察者的位置信息。
在一个实施例,可以通过使用传感器(例如摄像头)采集观察者的位置信息并发送给计算设备。观察者的位置信息可以是观察人员的头部的位置信息、面部的位置信息或者是眼睛的位置信息,也可以是观察设备的图像采集器的位置信息。观察者的位置信息可以是观察者相对于传感器的位置信息,也可以是观察者在场景坐标系或世界坐标系中的位置信息。传感器定位技术属于本领域的现有技术,在此不再赘述。
在一个实施例中,传感器还可以采集观察者的姿态信息,例如观察者的头部姿态信息。在一个实施例中,传感器可以跟踪并持续采集观察者的位置信息,并获得观察者的新的位置信息并作为跟踪结果提供给计算设备。
步骤302:计算设备获取待显示的虚拟对象的空间位置信息。
待显示的虚拟对象例如可以是文字、图标、图形、表情符号、动画、视频、虚拟的三维物体或三维模型等等。虚拟对象的空间位置是在真实场景中设置的虚拟对象的位置信息,该位置信息例如可以是场景坐标系中某一三维坐标位置,或者是世界坐标系中的某一三维坐标位置,也可以是虚拟对象在现实场景中相对于显示设备的位置信息。
在一个实施例中,虚拟对象的空间位置可以是默认的位置或者预先设置的位置,例如一个虚拟的飞机模型的空间位置可以默认为展台中央的位置,也可以通过用户自定义设置一个特定的位置。虚拟对象的空间位置信息可以存储于计算设备,也可以存储于能够被计算设备访问的其他设备(例如服务器)。在一个实施例中,可以根据与虚拟对象相关联的现实目标(真实的物体或人员)的位置确定该虚拟对象的位置,例如可以将虚拟对象的空间位置确定为与该虚拟对象相关联的某个真实物体的空间位置,观察者通过透明或半透明的显示设备可以看到该虚拟对象总是呈现或者覆盖在该真实物体上;或者,可以将虚拟对象的空间位置确定为位于与该虚拟对象相关联的某个真实物体附近(例如,在真实物体的上方),以呈现该真实物体的相关信息。虚拟对象的空间位置可以是静止的,或者可变化的。在一个实施例中,可以将虚拟对象与一个可移动的物体或者人员(例如走秀的模特)相关联,虚拟对象的空间位置可以随着该物体或者人员的位置变化而不断更新。可以通过传感器(例如摄像头)持续获得与虚拟对象相关联的移动的物体或人员的位置信息,也可以在获得物体或人员的初始位置信息之后,使用加速度传感器、陀螺仪、摄像头等通过本领域已知的方法(例如,惯性导航、视觉里程计、SLAM、VSLAM、SFM等)来测量或跟踪该移动物体或人员的位置变化,进而持续更新与其相关联的虚拟对象的空间位置。
步骤303:计算设备根据观察者的观察位置、待显示的虚拟对象的空间位置以及显示设备的位置确定该虚拟对象在显示设备上的呈现位置。
显示设备的位置例如可以是显示设备的屏幕在空间中的位置,与该位置有关的信息可以存储于计算设备,也可以存储于能够被计算设备访问的其他设备(例如服务器)。
图4A示出了根据一个实施例的确定虚拟对象呈现位置的示意图,其中,观察者与虚拟对象的空间位置分别位于显示设备的两侧。在这种情况下,可以根据观察者的观察位置(例如眼睛的位置)与待显示的虚拟对象的空间位置之间的连线与显示设备的交点确定该虚拟对象在该显示设备上的呈现位置。
图4B示出了根据一个实施例的确定虚拟对象呈现位置的示意图,其中,观察者与虚拟对象的空间位置位于显示设备的同一侧。在这种情况下,可以根据观察者的观察位置(例如眼睛的位置)与待显示的虚拟对象的空间位置之间的连线的延长线与显示设备的交点确定该虚拟对象在该显示设备上的呈现位置。
在一些实施例中,计算设备还可以确定虚拟对象在显示设备上的呈现姿态。虚拟对象的呈现姿态信息可以基于虚拟对象相对于观察者的位置来设置,但也可以通过其他方式来设置。在一个实施例中,设备可以根据观察者的位置信息以及所述虚拟对象的空间位置信息,确定观察者与虚拟对象之间的相对位置关系或者相对角度,从而确定所述虚拟对象在所述透明或半透明显示设备上的呈现姿态。在一个实施例中,可以基于显示设备的位姿或与虚拟对象相关联的现实目标的位姿设置该虚拟对象的呈现姿态,例如,虚拟对象的呈现姿态始终面向显示设备。
在一些实施例中,可以设置虚拟对象呈现在显示设备上的成像大小。虚拟对象的成像大小可以是默认的或预先设定的,也可以依据观察者与虚拟对象的之间的相对距离确定虚拟对象在显示设备上的图像大小。在增强现实的应用中,也可以基于与虚拟对象相关联的现实目标的大小确定该虚拟对象在显示设备上呈现的图像的大小。
步骤304:计算设备基于呈现位置将所述虚拟对象呈现在显示设备上。
在一个实施例中,计算设备可以根据虚拟对象的呈现位置确定要由显示设备显示的包含虚拟对象的图像,并将与该图像有关的信息发送给显示设备进行显示。
在一些实施例中,虚拟对象的呈现位置可以随着观察者和/或与虚拟对象相关联的现实目标位置的改变而发生变化。以上述虚拟的飞机模型为例,当观察者在显示设备前移动时,该飞机模型在显示设备上的呈现位置也会相应地移动,从而使得用户感觉到在真实三维空间中的某个位置处存在一个三维飞机模型。再以正在走秀的模特为例,在观察者的位置不发生改变的情况下,显示设备中与正在走秀的模特相关联的虚拟对象(例如服饰的品牌、材质、图片等)可以随着模特移动而发生相应地移动,例如始终呈现在该模特的右方。
在一些实施例中,可以根据虚拟对象的属性信息在显示设备上呈现出相应的虚拟对象。虚拟对象的属性信息包括虚拟对象中包含的图片、文字、数字、图标等,也可以包括虚拟对象的形状信息、颜色信息、尺寸信息、姿态信息等。在一个实施例中,可以根据与虚拟对象相关联的人员或物品的有关的信息来配置该虚拟对象的属性信息。例如,与商品相关联的虚拟对象例如可以包括商品的名称、价格、型号等;与走秀的模特相关联的虚拟对象例如可以包括该模特所穿的服饰的品牌、设计者、设计灵感、材质等。在一个实施例中,可以根据观察者的有关信息来配置虚拟对象的属性信息。可以根据传感器的跟踪结果来获得与观察者有关的信息。例如,可以根据摄像头的跟踪结果判断观察者是人还是物体,是成人还是孩子,是移动的还是静止的,等等。这些与观察者有关的信息可以用于配置对应于该观察者正在或即将观察到的虚拟对象的相关信息。在另一个实施例中,也可以通过其他设施来获得与观察人员有关的信息。例如,可以通过指纹或静脉采集设备、人脸识别设备、身份证读取设备等设施来获得观察人员的身份信息,可以通过读卡器等设施来获得观察人员的性别信息、职业信息、会员卡信息等。可以从设施接收观察人员的上述信息并将该信息与摄像头当前所跟踪的位于预定位置(例如,这些设施的前方、后方、左侧、右侧、上方、下方、附近等)的观察人员建立联系,从而可以使用该观察人员的信息(例如,国籍信息、身份信息、职业信息、会员卡信息等)来配置与该观察人员对应的虚拟对象的相关信息。类似地,也可以通过场景中的设施来获得观察设备的相关信息,并用该信息配置与该观察设备对应的虚拟对象的相关信息。
在一些实施例中,还可以基于虚拟对象的呈现姿态信息将其显示在显示设备上。虚拟对象的呈现姿态可以是变化的,也可以固定不变。在一个实施例中,虚拟对象的呈现姿态可以随着观察者与虚拟对象位置变化而发生相应地改变。如此,使得观察者在不同位置时能够以不同的视角观察虚拟对象。以虚拟的飞机模型为例,随着观察者的移动,该观察者可以在显示屏幕上看到飞机模型正面、侧面或背面。通过该方式,可以进一步提高虚拟对象的真实感。在另一个实施例中,虚拟对象的呈现姿态可以随着观察者的位置和姿态而调整,使得该虚拟对象的某个方向(例如虚拟对象的正面方向)始终朝向该观察者。在另一个实施例中,虚拟对象的呈现姿态与观察者无关,例如,虚拟对象的呈现姿态始终面向显示设备。
在一些实施例中,可以确定虚拟对象在显示设备上的成像的大小。虚拟对象的成像大小可以是变化的,也可以固定不变。在一个实施例中,虚拟对象的在显示设备上的成像大小可以根据观察者与虚拟对象之间相对距离的改变而发生变化,当观察者的观察位置与虚拟对象的空间位置之间的相对距离逐渐变小时,该虚拟对象在显示设备上呈现的图像可以相应地增大;当观察者的观察位置与虚拟对象的空间位置之间的相对距离逐渐增大时,该虚拟对象在显示设备上呈现的图像可以相应地变小。通过该方式,可以进一步提高虚拟对象的真实感。
图5示出了根据本申请的另一个实施例的用于呈现虚拟对象的方法,该方法包括如下步骤(其中步骤501-504与图3中所示的步骤类似,在此不再赘述):
步骤501:计算设备获取观察者的位置。
步骤502:计算设备获取待显示的虚拟对象的空间位置。
步骤503:计算设备根据观察者的位置、待显示的虚拟对象的空间位置以及显示设备的位置确定该虚拟对象在显示设备上的呈现位置。
步骤504:计算设备基于呈现位置将所述虚拟对象呈现在显示设备上。
步骤505:接收观察者的指示信息。
观察者可以通过发出指示信息对虚拟对象执行交互操作。在一个实施例中,观察者可以通过在显示设备上直接操作发出指示信息。例如观察者可以单击、双击、滑动显示屏幕中呈现的某个虚拟对象来选择或删除该虚拟对象。在一个实施例中,观察者也可以通过手势、语音等方式发出指示。例如观察者可以在空中进行点击、滑动等手势选中某个特定的虚拟对象。可以通过传感器(例如leapmotion)获得观察者的胳膊或手指的指向,根据观察者手指的指向与显示设备的交点来确定观察者所要操作的虚拟对象。
步骤506:根据观察者的指示信息对呈现在显示设备上的虚拟对象执行相应的操作。
观察者可以通过其指示信息选择特定的虚拟对象、查阅虚拟对象的详情、改变虚拟对象的位置、姿态、大小、改变虚拟对象的大小或颜色、在虚拟对象上添加标注或者删除虚拟对象的部分或全部信息,等等。在一个实施例中,在观察者改变了虚拟对象的有关信息之后,计算设备可以基于修改后的有关信息来更新呈现在显示设备上的虚拟对象。
图6示出了根据本申请的另一个实施例的用于呈现虚拟对象的方法,该方法包括如下步骤(其中部分步骤与图3、图5中所示的步骤类似,在此不再赘述):
步骤601:设定检测区域。
检测区域可以设定在显示设备附近或可以观察到显示设备的其他任何位置。检测区域可以是固定的,也可以是移动的。传感器能够覆盖所述检测区域。
步骤602:计算设备获取位于检测区域内的观察者的位置。
计算设备可以通过传感器获取位于检测区域内的观察者的位置。在一个实施例中,当检测区域内有若干个观察者时,计算设备可以仅获取位于检测区域内的特定的观察者的位置信息,例如,仅获取首先进入检测区域的一个观察者的位置信息,而忽略位于该检测区域内的其他观察者。只有当进入该检测区域内的第一位观察者离开后,计算设备才获取进入该检测区域内的下一位观察者的位置信息。
步骤603:计算设备获取待呈现虚拟对象的空间位置。
步骤604:计算设备根据位于检测区域内的观察者的位置、待呈现的虚拟对象的空间位置以及显示设备的位置,确定该虚拟对象在显示屏幕上的呈现位置。
步骤605:计算设备基于虚拟对象的呈现位置将该虚拟对象呈现在显示设备上。
步骤606:接收位于检测区域内的观察者的指示信息。
在观察者通过手势、语音等方式发送指示信息的情况下,设备可以仅接收位于检测区域内的观察者的指示信息,并根据位于检测区域内的观察者的指示信息对虚拟对象进行交互操作。在一个实施例中,当检测区域内有若干个观察者时,设备可以仅接收位于检测区域内的特定的观察者的指示信息,例如,仅接收首先进入检测区域的一个观察者的指示信息,而忽略位于该检测区域内的其他观察者。只有当进入该检测区域内的第一位观察者离开后,设备才接收进入该检测区域内的下一位观察者的指示信息,并基于该指示信息执行以下步骤。
步骤607:根据位于检测区域内的观察者的指示信息对虚拟对象执行相应的操作。
在本发明的一个实施例中,可以以计算机程序的形式来实现本发明。计算机程序可以存储于各种存储介质(例如,硬盘、光盘、闪存等)中,当该计算机程序被处理器执行时,能够用于实现本发明的方法。
在本发明的另一个实施例中,可以以电子设备的形式来实现本发明。该电子设备包括处理器和存储器,在存储器中存储有计算机程序,当该计算机程序被处理器执行时,能够用于实现本发明的方法。
本文中针对“各个实施例”、“一些实施例”、“一个实施例”、或“实施例”等的参考指代的是结合所述实施例所描述的特定特征、结构、或性质包括在至少一个实施例中。因此,短语“在各个实施例中”、“在一些实施例中”、“在一个实施例中”、或“在实施例中”等在整个本文中各处的出现并非必须指代相同的实施例。此外,特定特征、结构、或性质可以在一个或多个实施例中以任何合适方式组合。因此,结合一个实施例中所示出或描述的特定特征、结构或性质可以整体地或部分地与一个或多个其他实施例的特征、结构、或性质无限制地组合,只要该组合不是不符合逻辑的或不能工作。本文中出现的类似于“根据A”、“基于A”、“通过A”或“使用A”的表述意指非排他性的,也即,“根据A”可以涵盖“仅仅根据A”,也可以涵盖“根据A和B”,除非特别声明其含义为“仅仅根据A”。在本申请中为了清楚说明,以一定的顺序描述了一些示意性的操作步骤,但本领域技术人员可以理解,这些操作步骤中的每一个并非是必不可少的,其中的一些步骤可以被省略或者被其他步骤替代。这些操作步骤也并非必须以所示的方式依次执行,相反,这些操作步骤中的一些可以根据实际需要以不同的顺序执行,或者并行执行,只要新的执行方式不是不符合逻辑的或不能工作。
由此描述了本发明的至少一个实施例的几个方面,可以理解,对本领域技术人员来说容易地进行各种改变、修改和改进。这种改变、修改和改进意于在本发明的精神和范围内。虽然本发明已经通过优选实施例进行了描述,然而本发明并非局限于这里所描述的实施例,在不脱离本发明范围的情况下还包括所作出的各种改变以及变化。

Claims (13)

1.一种用于呈现虚拟对象的方法,所述方法包括:
获取观察者的观察位置;
获取待呈现的虚拟对象的空间位置;
根据所述观察者的观察位置、所述待呈现的虚拟对象的空间位置以及显示设备的位置确定所述虚拟对象在所述显示设备上的呈现位置;
基于所述呈现位置将所述虚拟对象呈现在所述显示设备上。
2.根据权利要求1所述的方法,其中,
所述观察者的观察位置和所述虚拟对象的空间位置位于所述显示设备的同一侧;或者
所述观察者的观察位置和所述虚拟对象的空间位置分别位于所述显示设备的两侧。
3.根据权利要求1所述的方法,其中,根据所述观察者的观察位置、所述待呈现的虚拟对象的空间位置以及显示设备的位置确定所述虚拟对象在所述显示设备上的呈现位置包括:
根据所述观察者的观察位置与所述虚拟对象的空间位置的连线或连线的延长线与所述显示设备的交点确定所述虚拟对象在所述显示设备上的呈现位置。
4.根据权利要求1所述的方法,其中,所述观察者为观察人员或观察设备,所述观察者的观察位置包括:
所述观察人员的头部的位置、面部的位置或眼睛的位置;或
所述观察设备的图像采集器件的位置。
5.根据权利要求1所述的方法,其中,所述虚拟对象的空间位置包括:
默认的位置;
预先设定的位置;和/或
基于与所述虚拟对象相关联的现实目标的位置确定的位置。
6.根据权利要求1所述的方法,还包括:
持续获取所述观察者的观察位置和/或所述虚拟对象的空间位置;
根据所述观察者的观察位置、所述待呈现的虚拟对象的空间位置以及显示设备的位置,更新所述虚拟对象在所述显示设备上的呈现位置。
7.根据权利要求1所述的方法,还包括:
确定所述虚拟对象在所述显示设备上的呈现姿态;
基于所述虚拟对象的呈现姿态将所述虚拟对象呈现在所述显示设备上;
其中,所述虚拟对象的呈现姿态包括:
默认的姿态;
预先设定的姿态;或
基于所述观察者的观察位置和所述虚拟对象的空间位置确定的姿态。
8.根据权利要求1所述的方法,还包括:
确定所述虚拟对象在所述显示设备上的成像大小;
基于所述虚拟对象的成像大小将所述虚拟对象呈现在所述显示设备上;
其中,所述虚拟对象的成像大小包括:
默认的成像大小;
预先设定的成像大小;
基于与虚拟对象相关联的现实目标的大小确定的所述虚拟对象的成像大小;或
基于所述观察者的观察位置与所述虚拟对象的空间位置之间的距离确定的所述虚拟对象的成像大小。
9.根据权利要求1所述的方法,其中,所述显示设备是透明或半透明的显示设备。
10.根据权利要求1所述的方法,还包括:
接收所述观察者的指示信息;
根据所述观察者的指示信息对所述虚拟对象执行相应的操作。
11.一种用于呈现虚拟对象的***,包括:
传感器,用于检测观察者的观察位置;
显示设备,用于呈现虚拟对象;以及
计算设备,用于实现权利要求1-10中任一所述的方法。
12.一种存储介质,其中存储有计算机程序,在所述计算机程序被处理器执行时,能够用于实现权利要求1-10中任一所述的方法。
13.一种电子设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时,能够用于实现权利要求1-10中任一所述的方法。
CN201911390717.0A 2019-12-30 2019-12-30 用于呈现虚拟对象的方法和*** Pending CN113129358A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911390717.0A CN113129358A (zh) 2019-12-30 2019-12-30 用于呈现虚拟对象的方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911390717.0A CN113129358A (zh) 2019-12-30 2019-12-30 用于呈现虚拟对象的方法和***

Publications (1)

Publication Number Publication Date
CN113129358A true CN113129358A (zh) 2021-07-16

Family

ID=76767342

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911390717.0A Pending CN113129358A (zh) 2019-12-30 2019-12-30 用于呈现虚拟对象的方法和***

Country Status (1)

Country Link
CN (1) CN113129358A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060050069A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Virtual reality presentation device and information processing method
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
CN104571532A (zh) * 2015-02-04 2015-04-29 网易有道信息技术(北京)有限公司 一种实现增强现实或虚拟现实的方法及装置
CN106710002A (zh) * 2016-12-29 2017-05-24 深圳迪乐普数码科技有限公司 基于观察者视角定位的ar实现方法及其***
CN109213728A (zh) * 2017-06-29 2019-01-15 深圳市掌网科技股份有限公司 基于增强现实的文物展示方法及***
CN109213834A (zh) * 2017-06-29 2019-01-15 深圳市掌网科技股份有限公司 一种基于增强现实的导游方法和***

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060050069A1 (en) * 2004-09-07 2006-03-09 Canon Kabushiki Kaisha Virtual reality presentation device and information processing method
NL1035303C2 (nl) * 2008-04-16 2009-10-19 Virtual Proteins B V Interactieve virtuele reality eenheid.
CN104571532A (zh) * 2015-02-04 2015-04-29 网易有道信息技术(北京)有限公司 一种实现增强现实或虚拟现实的方法及装置
CN106710002A (zh) * 2016-12-29 2017-05-24 深圳迪乐普数码科技有限公司 基于观察者视角定位的ar实现方法及其***
CN109213728A (zh) * 2017-06-29 2019-01-15 深圳市掌网科技股份有限公司 基于增强现实的文物展示方法及***
CN109213834A (zh) * 2017-06-29 2019-01-15 深圳市掌网科技股份有限公司 一种基于增强现实的导游方法和***

Similar Documents

Publication Publication Date Title
Kim et al. Augmented-reality survey: From concept to application
US8878846B1 (en) Superimposing virtual views of 3D objects with live images
CN105612478B (zh) 用户接口程序化的缩放
Azuma et al. Recent advances in augmented reality
KR20230025914A (ko) 음성 및 텍스트 캡션들을 사용한 증강 현실 경험들
CN110716645A (zh) 一种增强现实数据呈现方法、装置、电子设备及存储介质
US11854147B2 (en) Augmented reality guidance that generates guidance markers
US11468643B2 (en) Methods and systems for tailoring an extended reality overlay object
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和***
US20150378158A1 (en) Gesture registration device, gesture registration program, and gesture registration method
CN108351522A (zh) 注视方向映射
EP3106963B1 (en) Mediated reality
US11954268B2 (en) Augmented reality eyewear 3D painting
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
US11582409B2 (en) Visual-inertial tracking using rolling shutter cameras
CN111679742A (zh) 基于ar的交互控制方法、装置、电子设备及存储介质
US11675198B2 (en) Eyewear including virtual scene with 3D frames
CN114153548A (zh) 一种展示方法、装置、计算机设备及存储介质
Broll Augmented reality
US20230367118A1 (en) Augmented reality gaming using virtual eyewear beams
CN113168228A (zh) 用于在大面积透明触摸界面中进行视差校正的***和/或方法
CN113129358A (zh) 用于呈现虚拟对象的方法和***
CN112535392B (zh) 基于光通信装置的物品陈列***和信息提供方法、设备及介质
CN114299263A (zh) 增强现实ar场景的展示方法及装置
CN111915742A (zh) 一种虚拟场景呈现***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination