CN111752511A - Ar眼镜远程交互方法、装置和计算机可读介质 - Google Patents
Ar眼镜远程交互方法、装置和计算机可读介质 Download PDFInfo
- Publication number
- CN111752511A CN111752511A CN202010318402.1A CN202010318402A CN111752511A CN 111752511 A CN111752511 A CN 111752511A CN 202010318402 A CN202010318402 A CN 202010318402A CN 111752511 A CN111752511 A CN 111752511A
- Authority
- CN
- China
- Prior art keywords
- information
- glasses
- cloud server
- sending
- data processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1454—Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Transfer Between Computers (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明提供了一种AR眼镜远程交互方法、装置和计算机可读介质,涉及增强现实的技术领域,本方法应用于云端服务器,云端服务器通过网络与AR眼镜通信连接;方法包括以下步骤:接收第一信息,第一信息是由AR眼镜发送的;根据第一信息,生成第二信息;将第二信息发送至AR眼镜。本发明能够使AR眼镜与云端服务器通过网络通信,增加了AR眼镜的显示内容,增强了与外界的互动性和用户的趣味性。
Description
技术领域
本发明涉及增强现实技术领域,尤其是涉及一种AR眼镜远程交互方法、装置和计算机可读介质。
背景技术
AR眼镜具有处理功能和显示功能,就像一台小型电脑,能够在体积允许的情况下处理器进行一些简单的计算、传输等等功能,例如:AR眼镜的处理器对图片进行整合、渲染、传送等等。然而,由于AR眼镜自带的处理器功能有限,导致AR眼镜所使用的资源较少,显示内容并不丰富。同时,AR眼镜是单机状态,与外界其他设备几乎没有互动,降低了用户的趣味性。
发明内容
有鉴于此,本发明的目的在于提供AR眼镜远程交互方法、装置和计算机可读介质,能够使AR眼镜与云端服务器通过网络通信,增加了AR眼镜的显示内容,增强了与外界的互动性和用户的趣味性。
第一方面,本发明实施例提供了一种AR眼镜远程交互方法,应用于云端服务器,所述云端服务器通过网络与所述AR眼镜通信连接;所述方法包括以下步骤:
接收第一信息,所述第一信息是由所述AR眼镜发送的;
根据所述第一信息,生成第二信息;
将所述第二信息发送至所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述第一信息包括服务请求、生命流信息、真实世界的环境信息、虚拟人像、用户信息、3D模型信息、更新信息、游戏信息、视频信息或交互信息中的至少一项;
所述第二信息包括生活服务信息、游戏信息、视频信息、第三视角增强信息或虚拟人像社交信息中的至少一项;
所述交互信息包括:视觉交互数据、手柄控制交互数据、位置交互数据、手势交互数据或语音交互数据中的至少一项;
所述生命流信息包括位置信息或图像信息中的至少一项。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,接收第一信息的步骤包括,接收AR眼镜发送的生命流信息;
根据所述第一信息,生成第二信息的步骤包括,根据所述生命流信息,生成所述生活服务信息;
将所述第二信息发送至所述AR眼镜的步骤包括,将所述生活服务信息发送至所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,接收第一信息的步骤包括,接收AR眼镜发送的服务请求;
根据所述第一信息,生成第二信息的步骤包括,根据所述服务请求,生成所述游戏信息或所述视频信息;
将所述第二信息发送至所述AR眼镜的步骤包括,将所述游戏信息或所述视频信息发送至所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中,接收第一信息的步骤包括,接收AR眼镜发送的更新信息;所述更新信息是根据AR眼镜中存储有游戏数据需要更新时使用的;
根据所述第一信息,生成第二信息的步骤包括,根据所述更新信息,生成游戏信息;
将所述第二信息发送至所述AR眼镜的步骤包括,将所述游戏信息发送至所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第五种可能的实施方式,其中,在所述将所述游戏信息发送至所述AR眼镜的步骤之后,所述方法还包括:
同步或存储融合数据;所述融合数据为所述AR眼镜的手势识别模块采集用户的交互信息和所述游戏信息融合处理后得到的。
结合第一方面,本发明实施例提供了第一方面的第六种可能的实施方式,其中,当所述云端服务器至少与两个AR眼镜相连时,
接收第一信息的步骤包括,接收其中一个AR眼镜发送的交互信息,并接收另一个所述AR眼镜采集其中一个所述AR眼镜的真实世界的环境信息;
根据所述第一信息,生成第二信息的步骤包括,根据所述交互信息和所述真实世界的环境信息,生成所述第三视角增强信息;
将所述第二信息发送至所述AR眼镜的步骤包括,将所述第三视角增强信息发送至其中一个所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第七种可能的实施方式,其中,当所述云端服务器与至少两个AR眼镜相连时,所述方法还包括:
接收第一信息的步骤包括,接收其中一个所述AR眼镜发送的所述3D模型信息和/或游戏信息和/或视频信息;
发送第一信息的步骤包括,将所述3D模型信息和/或游戏信息和/或视频信息发送至另一个所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第八种可能的实施方式,其中,当所述云端服务器至少与两个AR眼镜相连时,
接收第一信息的步骤包括,接收每个AR眼镜发送的所述服务信息;
根据所述第一信息,生成第二信息的步骤包括,根据所述服务信息,生成所述3D模型信息、和/或游戏信息和/或视频信息;
将所述第二信息发送至所述AR眼镜的步骤包括,发送所述3D模型信息、和/或游戏信息和/或视频信息至所述至少两个AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第九种可能的实施方式,其中,所述方法还包括:
接收其中一个所述AR眼镜发送的修改信息,所述修改信息包括修改3D模型信息、和/或修改游戏数据和/或修改视频数据;
将所述修改信息发送至每个所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十种可能的实施方式,其中,当所述云端服务器至少与两个AR眼镜相连时,
接收第一信息的步骤包括,接收至少两个所述AR眼镜发送各自的虚拟人像和各自的用户信息;所述各自的用户信息为至少两个所述AR眼镜通过采集装置采集的;
根据所述第一信息,生成第二信息的步骤包括,将至少两个所述AR眼镜中的每一个AR眼镜发送的虚拟人像和用户信息进行整合,得到多个具有用户信息的虚拟人像,对多个具有用户信息的虚拟人像进行整合,生成虚拟人像社交信息;
将所述第二信息发送至所述AR眼镜的步骤包括,将所述虚拟人像社交信息发送至每个所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十一种可能的实施方式,其中,当所述云端服务器的一端与外部设备相连,所述云端服务器的另一端通过网络与所述AR眼镜通信连接时,所述方法还包括:
从外部设备中获取实时数据;
根据实时数据,生成第三信息;
将所述第三信息发送至所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十二种可能的实施方式,其中,从外部设备中获取实时数据的步骤包括,从外部设备中获取环境数据;
根据实时数据,生成第三信息的步骤包括,根据环境数据,生成推荐信息;
将所述第三信息发送至所述AR眼镜的步骤包括,将所述推荐信息发送至所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十三种可能的实施方式,其中,从外部设备中获取实时数据的步骤包括,从外部设备中获取图像信息和声音信息;
根据实时数据,生成第三信息的步骤包括,根据图像信息和声音信息,生成第一直播现场影像;
将所述第三信息发送至所述AR眼镜的步骤包括,将所述直播现场影像发送至所述AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十四种可能的实施方式,其中,所述方法还包括:
从外部设备中获取实时数据的步骤包括,从外部设备中获取生理指标信息、或运行状态信息、或图像信息;
发送实时数据的步骤包括,将所述生理指标信息、或运行状态信息、或图像信息发送至AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十五种可能的实施方式,其中,当所述云端服务器的一端分别与至少两个AR眼镜,所述云端服务器的另一端与外部设备相连时,所述方法还包括:
接收眼镜数据的步骤,接收其中一个AR眼镜采集的外界真实图像信息;
根据实时数据和眼镜数据,生成第四信息的步骤,将所述外界真实图像信息和所述生理指标信息、或所述外界真实图像信息和运行状态信息进行整合,生成第二直播现场影像;所述第二直播现场影像中的内容至少包括所述外界真实图像信息和所述生理指标信息或者运行状态信息;
发送第四信息至AR眼镜的步骤,将所述第二直播现场影像发送给另一个AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十六种可能的实施方式,其中,根据实时数据和眼镜数据,生成第四信息的步骤,包括:将所述外界真实图像信息进行整合,生成虚拟模型,将所述虚拟模型和所述生理指标信息、或所述虚拟模型和运行状态信息进行整合,生成第三直播现场影像;所述第三直播现场影像中的内容至少包括所述虚拟模型和所述生理指标信息、或者所述虚拟模型和运行状态信息;
发送第四信息至AR眼镜的步骤,将第三直播现场影像发送给另一个AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十七种可能的实施方式,其中,发送第四信息至AR眼镜的步骤之后,所述方法还包括:
接收其中一个AR眼镜的交互信息与虚拟模型,将所述交互信息与所述虚拟模型进行融合,生成第五信息,将所述第五信息发送给另一个AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十八种可能的实施方式,其中,当实时数据包括多张图像时,
根据实时数据,生成第三信息的步骤包括,将多张图像进行构图和拼接,生成实时3D人像;
将所述第三信息发送至所述AR眼镜的步骤包括,将所述实时3D人像发送给所述至少两个AR眼镜。
结合第一方面,本发明实施例提供了第一方面的第十九种可能的实施方式,其中,将多张图像进行构图和拼接,生成实时3D人像的步骤,包括:
生成第三信息的步骤包括,根据多张图像,分析图像变化情况,确定预设特效,将所述预设特效与所述实时3D人像结合,生成影像信息。
第二方面,本发明实施例还提供了一种AR眼镜远程交互方法,应用于AR眼镜,所述AR眼镜通过网络与云端服务器通信连接;所述方法包括以下步骤:
发送第一信息,将第一信息发送给所述云端服务器;
接收第二信息,接收所述云端服务器发送的第二信息。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述第一信息包括服务请求、生命流信息、真实世界的环境信息、虚拟人像、用户信息、3D模型信息、更新信息、游戏信息、视频信息、交互信息;
所述第二信息包括生活服务信息、游戏信息、视频信息、第三视角增强信息、虚拟人像社交信息;
所述交互信息包括:视觉交互数据、手柄控制交互数据、位置交互数据、手势交互数据、语音交互数据;
所述生命流信息包括位置信息或图像信息。
结合第二方面,本发明实施例提供了第二方面的第二种可能的实施方式,其中,所述方法包括:
在发送第一信息之前,存储所述游戏数据至本地;
发送第一信息的步骤包括:将游戏更新信息发送给所述云端服务器;
接收第二信息的步骤包括:接收所述游戏更新信息对应的更新数据,以通过更新数据更新存储在所述本地的所述游戏数据。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,在发送第一信息之前,通过手势识别模块采集用户的交互信息,融合处理所述交互信息和所述游戏数据;
发送第一信息的步骤包括,将融合处理后的数据发送至所述云端服务器,以使所述云端服务器对所述融合处理后的数据进行计算、同步或储存。
结合第二方面,本发明实施例提供了第二方面的第四种可能的实施方式,其中,在接收第二信息的步骤之后,所述方法还包括:播放接收到的所述第二信息。
结合第二方面,本发明实施例提供了第二方面的第五种可能的实施方式,其中,在接收第二信息的步骤之后,所述方法还包括:通过空间定位算法将所述3D模型信息和/或游戏数据和/或视频数据和/或虚拟图像和/或从不同外部设备中的运行状态信息固定在所述AR眼镜的物理空间中。
结合第二方面,本发明实施例提供了第二方面的第六种可能的实施方式,其中,所述方法还包括:生成虚拟图像,将所述虚拟图像发送至所述云端服务器,用于将所述虚拟图像发送给另一个所述AR眼镜。
第三方面,本发明实施例还提供了一种AR眼镜远程交互装置,应用于云端服务器,所述云端服务器通过网络与所述AR眼镜通信连接;所述装置包括:
接收模块,用于接收第一信息,所述第一信息是由所述AR眼镜发送的;
生成模块,用于根据所述第一信息,生成第二信息;
发送模块,用于将所述第二信息发送至所述AR眼镜。
第四方面,本发明实施例还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质,所述程序代码使所述处理器执行上述第一方面实施例任一所述方法。
第五方面,本发明实施例还提供了一种AR眼镜远程交互装置,应用于AR眼镜,所述AR眼镜通过网络与云端服务器通信连接;所述装置包括:
发送模块,用于发送第一信息,将第一信息发送给所述云端服务器;
接收模块,用于接收第二信息,接收所述云端服务器发送的第二信息。
第六方面,本发明实施例还提供了一种具有处理器可执行的非易失的程序代码的计算机可读介质,所述程序代码使所述处理器执行上述第二方面任一所述方法。
本发明实施例带来了以下有益效果:云端服务器能够接受AR眼镜发送的第一信息,云端服务器通过网络与AR眼镜通信连接,然后根据第一信息,生成第二信息,将第二信息发送至AR眼镜。本发明能够使AR眼镜与云端服务器通过网络通信,增加了AR眼镜的显示内容,增强了与外界的互动性和用户的趣味性。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一个实施例提供的眼镜远程交互***的结构图;
图2为一种应用在一个实施例提供的眼镜远程交互***中的AR眼镜远程交互方法的流程图;
图3为本发明另一个实施例提供的眼镜远程交互***的结构图;
图4为本发明再一个实施例提供的眼镜远程交互***的结构图;
图5为一种应用在再一个实施例提供的眼镜远程交互***中的AR眼镜远程交互方法的流程图;
图6为本发明又一个实施例提供的眼镜远程交互***的结构图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,由于AR眼镜自带的处理器功能有限,导致AR眼镜所使用的资源较少,显示内容并不丰富。同时,AR眼镜是单机状态,与外界其他设备几乎没有互动,降低了用户的趣味性。基于此,本发明实施例提供的一种AR眼镜远程交互方法、装置和计算机可读介质,可以使得AR眼镜通过网络与云端服务器互动,增加了AR眼镜的显示内容,增强了与外界的互动性和用户的趣味性。
为便于对本发明进行理解,通过以下四个实施例对本发明进行详细介绍。
第一实施例
本实施例提供了第一种AR眼镜远程交互***,AR眼镜远程交互***包括AR眼镜和云端服务器。作为一个示例,结合图1所示,AR眼镜远程交互***包括一个AR眼镜10,一个AR眼镜10通过通信器与云端服务器20进行网络通信,一个AR眼镜10与云端服务器20实现远程交互。
其中,云端服务器20具有存储着各种各样的格式的海量数据信息以及拥有着比终端强大数倍的运算能力,本发明可以使AR眼镜通过无线传输方式获取这些数据信息作为内容或者将AR眼镜获取的数据通过无线的方式传送到云端利用云端的计算能力进行融合运算。云端服务器中包括服务器的个数为一个或多个。即云端服务器20广义上讲可以是任何拥有一定计算能力与内容存储的设备,甚至单台或多台手机、PC。云端服务器20通常认为是集总的计算与存储平台、服务器或服务器集群、分布在世界各地的终端云计算设备,因为对增强现实***来讲,需要存储并交互的数据流量很大,对计算平台的计算能力和运算实时性要求很高。AR眼镜一般为拥有主流硬件配置与数据采集能力的增强现实眼镜设备。
通信器采用的通信技术可以为无线连接或有线连接网络的方式,使得AR眼镜与云端服务器之间通过网络通信,同时可以根据不同的数据带宽需求可以使用不同的无线传输方案,以此增加AR眼镜显示内容的多样性,提高了趣味性。比如,一些简单的音视频浏览应用,通过目前的4G或Wifi即可实现;一些重度的增强现实场景应用,可能需要WiGig或者新一代的5G等高带宽通信标准实现。
基于图1中提供的AR眼镜远程交互***,结合图2所示,示出了一种应用在图1所示的***中的AR眼镜远程交互方法,本方法包括:
S110:AR眼镜发送第一信息,将第一信息发送给所述云端服务器。
其中,所述第一信息包括服务请求、生命流信息、真实世界的环境信息、虚拟人像、用户信息、3D模型信息、更新信息、游戏信息、视频信息或交互信息中的至少一项。所述生命流信息包括位置信息或图像信息中的至少一项。所述交互信息包括:视觉交互数据、手柄控制交互数据、位置交互数据、手势交互数据或语音交互数据中的至少一项。
其中,服务请求可以为通过采集装置采集用户输入的需求信息,根据需求信息生成,其中,AR眼镜的采集装置可以包括语音采集装置、或者视频采集装置、或者手柄控制装置等等,通过用户的手势、语音、位置等等将用户的需求信息输入到AR眼镜中,在AR眼镜中,根据需求信息生成服务请求。
其中,AR眼镜发送的服务请求除了根据用户的需求信息生成的外,可以请求云端服务器进行一些运算的请求,例如:在AR眼镜的处理器处理不了的一些运算过程,同样的,生成第一信息,发送给云端服务器,请求云端服务器进行一些运算,云端服务器将运算结果发送给AR眼镜,减少了AR眼镜的运算负担。
S120:云端服务器接收第一信息,第一信息是由AR眼镜发送的。
S130:云端服务器根据第一信息,生成第二信息。其中,所述第二信息包括生活服务信息、游戏信息、视频信息、第三视角增强信息或虚拟人像社交信息中的至少一项。
S140:云端服务器将第二信息发送至AR眼镜。
S150:AR眼镜接收所述云端服务器发送的第二信息。
本实施例提供的AR眼镜远程交互方法可以实现诸多应用场景:
例如:应用在生活推荐中:
云端服务器接收第一信息的步骤包括,接收AR眼镜发送的生命流信息;
云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述生命流信息,生成所述生活服务信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述生活服务信息发送至所述AR眼镜。
具体来讲:用户配戴AR眼镜,AR眼镜将当前所处位置信息、通过AR眼镜的图像数据采集模块收集用户的“生命流”信息(去了哪里,看过什么等)视频信息等整合成互动行为请求发送给云端服务器;云端服务器分析AR眼镜上传的“生命流”信息,并生成关于相关的生活服务内容的互动内容通过网络发送给AR眼镜。例如,当用户在逛街时,眼镜通过与云端的交互,向用户推荐常去的品牌店面的位置。
例如,应用在游戏中:
云端服务器接收第一信息的步骤包括,接收AR眼镜发送的服务请求;
云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述服务请求,生成所述游戏信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述游戏信息发送至所述AR眼镜。
可选的,AR眼镜在发送第一信息之前,存储所述游戏数据至本地;
AR眼镜发送第一信息的步骤包括:将游戏更新信息发送给所述云端服务器;
云端服务器接收第一信息的步骤包括,接收AR眼镜发送的更新信息;所述更新信息是根据AR眼镜中存储有游戏数据需要更新时使用的;
云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述更新信息,生成游戏信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述游戏信息发送至所述AR眼镜。
AR眼镜接收第二信息的步骤包括:接收所述游戏更新信息对应的更新数据,以通过更新数据更新存储在所述本地的所述游戏数据。
即,所述AR眼镜可以存储游戏数据至本地;与云端服务器建立连接,下载更新数据至AR眼镜;通过更新数据将游戏数据进行升级。
进一步的,AR眼镜通过空间定位算法将游戏数据固定在所述AR眼镜的物理空间中。
在一些实施例中,在所述将所述游戏信息发送至所述AR眼镜的步骤之后,所述方法还包括:
AR眼镜在发送第一信息之前,通过手势识别模块采集用户的交互信息,融合处理所述交互信息和所述游戏数据;
AR眼镜发送第一信息的步骤包括,将融合处理后的数据发送至所述云端服务器,以使所述云端服务器对所述融合处理后的数据进行计算、同步或储存。
云端服务器同步或存储融合数据;所述融合数据为所述AR眼镜的手势识别模块采集用户的交互信息和所述游戏信息融合处理后得到的。
可以理解为:用户配戴AR眼镜,玩单机版游戏时(类似于愤怒的小鸟);通过与云端服务器网络通信,AR眼镜发出请求下载游戏内容、更新以及主体的游戏画面等等的互动行为请求,云端服务器接收后,生成关于下载游戏内容、更新以及主体的游戏画面等等的数据包的互动内容,并将其发送给AR眼镜,存储在AR眼镜的存储模块。进一步的,AR眼镜可以在游戏时与云端服务器交互操作,并反馈信息。AR眼镜的手势识别模块可以识别用户的交互信息,例如手势,对手势数据进行计算,将交互信息与游戏信息打包成数据包或者其他文件形式,将数据包发送至云端服务器,云端服务器对该数据进行融合计算,识别出手势数据的含义,例如:用户利用手势上扬代表游戏中的跳跃,将关于跳跃的互动内容发送给AR眼镜进行同步操作,同时并将此互动行为存储在云端服务器中。
应用在增强现实观影中:
云端服务器接收第一信息的步骤包括,接收AR眼镜发送的服务请求;
云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述服务请求,生成所述视频信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述视频信息发送至所述AR眼镜。
AR眼镜播放接收到的所述第二信息。
进一步的,AR眼镜通过空间定位算法将视频数据固定在所述AR眼镜的物理空间中。
基于上述方式的示例为:用户佩戴AR眼镜,AR眼镜通过无线连接模块连接至云端服务器;AR眼镜发送请求调取云端服务器中的视频资源的互动行为请求,云端服务器将视频资源发送给AR眼镜,AR眼镜将视频资源存储在存储模块中以便随时观看,或者实时播放存在云端服务器的视频资源;视频屏幕可以跟随用户视野移动,也可以通过SLAM算法固定在空间当中,在用户眼前构建出增强现实影院环境。
第二实施例
本实施例还提供了第二种AR眼镜远程交互***,结合图3所示,AR眼镜远程交互***包括多个AR眼镜10(1到n个AR眼镜)和云端服务器20,1到n个AR眼镜10分别与云端服务器20联网通信,以通过云端服务器20进行远程共享交互。其中,本实施例提供的AR眼镜远程交互***中的AR眼镜、云端服务器、通信方式与第一实施例中的相同,为了减少赘述,本实施例提供的AR眼镜远程交互***中的AR眼镜、云端服务器、通信方式可以参考第一实施例中的描述。
基于图3的***,实现诸多应用场景:
例如应用第三视角增强现实记录中:
云端服务器接收第一信息的步骤包括,接收其中一个AR眼镜发送的交互信息,并接收另一个所述AR眼镜采集其中一个所述AR眼镜的真实世界的环境信息;
云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述交互信息和所述真实世界的环境信息,生成所述第三视角增强信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述第三视角增强信息发送至其中一个所述AR眼镜。
具体来讲,用户1佩戴AR眼镜,与视野中的虚拟图像进行一定程度的互动(例如:观看、手柄控制交互、位置交互、手势交互、语音交互等);用户2佩戴另一AR眼镜可以通过云端服务器,获取用户1的互动信息(包含用户1的位置信息变化、用户1与虚拟物体的交互信息等);用户2佩戴的AR眼镜中的图像采集模块捕捉包含用户1在内真实世界图像;在云端服务器的融合处理用户2佩戴的AR眼镜中的图像采集模块捕捉的真实图像与从云端服务器获取的虚拟物体,将融合的视觉结果再传给用户2的AR眼镜和/或者用户1的AR眼镜。对于用户2的AR眼镜来说,就实现了对用户1的增强现实“拍摄”记录。
应用3D设计的多人协作实现中:可以具有如下两种方式获得:
第一种,由一个AR眼镜用户将3D模型信息分享给另一个AR眼镜用户,具体步骤为:云端服务器接收第一信息的步骤包括,接收其中一个所述AR眼镜发送的所述3D模型信息;
云端服务器发送第一信息的步骤包括,将所述3D模型信息发送至另一个所述AR眼镜。
第二种,由一个AR眼镜用户向云端服务器请求3D模型信息给至少一个AR眼镜用户,具体步骤为:云端服务器接收第一信息的步骤包括,接收每个AR眼镜发送的所述服务信息;
云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述服务信息,生成所述3D模型信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,发送所述3D模型信息至所述至少两个AR眼镜。
进一步的,上述两种方式,云端服务器还可以包括接收其中一个所述AR眼镜发送的修改信息,所述修改信息包括修改3D模型信息;
云端服务器将所述修改信息发送至每个所述AR眼镜。
每个AR眼镜通过空间定位算法将所述3D模型信息固定在所述每个AR眼镜的物理空间中。
具体来讲,用户1和2(可处在同一物理空间,也可处在不同的物理空间中)均佩戴混合现实眼镜,在用户1的视野中呈现3D模型,该3D模型同时发送至云端服务器,云端服务器将3D模型传送至用户2,实现两人视野内出现同一3D模型,或者用户1和用户2向云端服务器请求生成3D模型,生成3D模型发给用户1和用户2,该模型通过SLAM算法固定在各自物理空间中的固定位置;用户1在其物理空间中(常通过手势识别)对3D模型进行编辑修改,以上操作信息被用户1眼镜端的深度识别模块以及图像采集模块捕捉,上传至云端服务器,再传给用户2的眼镜,并在用户2的视野中实时同步成像,从而实现多人对同一设计的协作编辑。
应用增强现实竞技游戏中:与应用3D设计的多人协作实现中类似,可以具有如下两种方式获得:
第一种,由一个AR眼镜用户将游戏信息分享给另一个AR眼镜用户,具体步骤为:云端服务器接收第一信息的步骤包括,接收其中一个所述AR眼镜发送的所述游戏信息;
云端服务器发送第一信息的步骤包括,将所述游戏信息发送至另一个所述AR眼镜。
第二种,由一个AR眼镜用户向云端服务器请求游戏信息给至少一个AR眼镜用户,具体步骤为:云端服务器接收第一信息的步骤包括,接收每个AR眼镜发送的所述服务信息;
云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述服务信息,生成所述游戏信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,发送所述游戏信息至所述至少两个AR眼镜。
进一步的,上述两种方式,云端服务器还可以包括接收其中一个所述AR眼镜发送的修改信息,所述修改信息包括修改游戏数据;
云端服务器将所述修改信息发送至每个所述AR眼镜。
所述方法还包括以下步骤:空间定位,通过空间定位算法将游戏数据固定在每个所述AR眼镜的物理空间中。
具体来讲,用户1与2(可处在同一物理空间,也可处在不同的物理空间中)均佩戴AR眼镜,用户1和用户2其中一个请求同一沙盘棋盘,或者用户1和用户2其中一个将自己的沙盘棋盘通过云端服务器发送给另一个人,两人视野内出现同一沙盘棋盘(从云端服务器时时获取),该沙盘棋盘通过SLAM算法固定在各自物理空间中的固定位置;用户1佩戴的AR眼镜通过对用户1进行手势识别、视线追踪、触控等操作方式的识别,控制沙盘棋盘上的棋子移动,该移动操作上传至云端服务器,并云端服务器将移动操作传输至用户2佩戴的AR眼镜。对于同时佩戴的多个AR眼镜亦如此,从而实现棋牌类竞技游戏。这种方案同时也适用于任何多人实时游戏的实现,例如《王者荣耀》。
应用在虚拟人像社交中:
云端服务器接收第一信息的步骤包括,接收至少两个所述AR眼镜发送各自的虚拟人像和各自的用户信息;所述各自的用户信息为至少两个所述AR眼镜通过采集装置采集的;
云端服务器根据所述第一信息,生成第二信息的步骤包括,将至少两个所述AR眼镜中的每一个AR眼镜发送的虚拟人像和用户信息进行整合,得到多个具有用户信息的虚拟人像,对多个具有用户信息的虚拟人像进行整合,生成虚拟人像社交信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述虚拟人像社交信息发送至每个所述AR眼镜。
AR眼镜通过空间定位算法将虚拟图像固定在所述AR眼镜的物理空间中。
进一步的,方法还包括以下步骤:信息修改与同步,修改其中一个所述AR眼镜中的用户信息,将修改结果同步到另一个所述AR眼镜中。
具体来讲,处在不同物理空间的用户1和2乃至用户n,通过各自眼镜上的***预先构建各自的虚拟人像;虚拟人像可以包含用户当前的相对位置、表情、动作信息,以及与各用户当前场景结合的功能(例如发送语音、弹幕、表情等);以上两部分信息通过各用户眼镜上传至云端服务器,并通过云端服务器接收到一个或多个AR眼镜上传的聊天信息,并将多个聊天信息整合到一起,发送给各个用户,完成各个用户端出的AR眼镜的实时信息同步,从而达到用户1可以看到面前其他用户虚拟人像的状态改变,从而实现虚拟人像间的社交沟通。
应用多人观影中:
可以具有如下两种方式获得:
第一种,由一个AR眼镜用户将视频信息分享给另一个AR眼镜用户,具体步骤为:云端服务器接收第一信息的步骤包括,接收其中一个所述AR眼镜发送的所述视频信息;
云端服务器发送第一信息的步骤包括,将所述视频信息发送至另一个所述AR眼镜。
第二种,由一个AR眼镜用户向云端服务器请求视频信息给至少一个AR眼镜用户,具体步骤为:云端服务器接收第一信息的步骤包括,接收每个AR眼镜发送的所述服务信息;
云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述服务信息,生成所述视频信息;
云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,发送所述视频信息至所述至少两个AR眼镜。
进一步的,上述两种方式,云端服务器还可以包括接收其中一个所述AR眼镜发送的修改信息,所述修改信息包括修改视频数据;
云端服务器将所述修改信息发送至每个所述AR眼镜。
进一步的,方法还包括以下步骤:
所述AR眼镜生成虚拟图像,将所述虚拟图像发送至所述云端服务器,云端服务器将所述虚拟图像发送给另一个所述AR眼镜;
另一个所述AR眼镜通过空间定位算法,固定所述视频数据和所述虚拟图像在同一视野中。
具体来讲,用户1和用户2乃至用户n(可处在同一物理空间,也可处在不同的物理空间中)均佩戴AR眼镜,每个用户视野内出现一块屏幕,该屏幕通过SLAM算法固定在各自物理空间中的固定位置,并从云端服务器同步调用播放同一多媒体内容,实现多人共享观影体验;在观影过程中,用户1可以通过操作,对内容作出实时反应(例如向其他用户发送表情、弹幕、语音、注释等信息),并将这些操作发送给云端服务器,云端服务器将以上操作信息处理后发送给多个用户,并在其视野中呈现;也可结合每个用户端的虚拟画像,将其他用户的虚拟画像通过云端服务器传给用户1,用户1再用SLAM算法根据自己眼前的观影环境将其他用户的虚拟画像呈现在视界中。
第三实施例
本实施例还提供了第三种AR眼镜远程交互***,结合图4所示,AR眼镜远程交互***包括一个AR眼镜10、云端服务器20和外部设备,一个AR眼镜10通过通信器与云端服务器20进行联网通信,外部设备与云端服务器20相连,外部设备用于采集待采集对象的实时数据,通过云端服务器20将实时数据发送给AR眼镜10。外部设备采集的实时数据可以为图像、声音、温度、湿度等信息,这样云端服务器提供的数据不仅仅是已经存储在云端服务器中的数据,云端服务器还可以获取实时数据,并且实时数据根据需要进行融合运算后发送给AR眼镜,增强了现实用户可以实现对异地现场环境的实时感知甚至重建。其中,本实施例提供的AR眼镜远程交互***中的AR眼镜、云端服务器、通信方式与第一实施例中的相同,为了减少赘述,本实施例提供的AR眼镜远程交互***中的AR眼镜、云端服务器、通信方式可以参考第一实施例中的描述。
基于图4中提供的AR眼镜远程交互***,结合图5所示,示出了一种AR眼镜远程交互方法,本方法包括:
S510:云端服务器从外部设备中获取实时数据;
S520:云端服务器根据实时数据,生成第三信息;
S530:云端服务器将所述第三信息发送至所述AR眼镜。
本实施例提供的AR眼镜远程交互***可以实现诸多应用场景,
云端服务器从外部设备中获取实时数据的步骤包括,从外部设备中获取环境数据;
云端服务器根据实时数据,生成第三信息的步骤包括,根据环境数据,生成推荐信息;
云端服务器将所述第三信息发送至所述AR眼镜的步骤包括,将所述推荐信息发送至所述AR眼镜。
例如,应用智能家庭构建中:
各个智能家居设备上的环境数据传感器采集环境数据(例如房间中空气质量传感器探测PM2.5含量、温度传感器收集房间温度、光线传感器感知房间亮度等等),并上传至云端服务器;云端服务器对上传的信息进行整合分析运算,形成(指示用户操作或其他类的)推荐信息,并推送给发送数据请求的AR眼镜;用户配戴AR眼镜,视野中就会出现云端服务器推送的推荐信息提示,例如天黑了开灯、房间空气污染浓度超标提示打开空气净化器等。
应用在混合现实直播中:
云端服务器从外部设备中获取实时数据的步骤包括,从外部设备中获取图像信息和声音信息;
云端服务器根据实时数据,生成第三信息的步骤包括,根据图像信息和声音信息,生成第一直播现场影像;
云端服务器将所述第三信息发送至所述AR眼镜的步骤包括,将所述直播现场影像发送至所述AR眼镜。
具体来说,可以通过图像采集器、声音采集器等设备采集直播现场的信息;信息上传至云端服务器,云端服务器整合处理后发送至AR眼镜上;用户佩戴AR眼镜,身临其境地观看现场直播内容。
应用在多医生远程医疗、或者工业远程协助、或者全系通讯中:
云端服务器从外部设备中获取实时数据的步骤包括,从外部设备中获取生理指标信息、或运行状态信息、或图像信息;
云端服务器发送实时数据的步骤包括,将所述生理指标信息、或运行状态信息、或图像信息发送至AR眼镜。
第四实施例
本实施例提供了一种AR眼镜远程交互***,结合图6所示,AR眼镜远程交互***包括多个AR眼镜10(1到n个AR眼镜)、云端服务器20和采集器。1到n个AR眼镜10分别与云端服务器20联网通信,以通过云端服务器20进行远程共享交互,采集器与云端服务器20相连。其中,本实施例提供的AR眼镜远程交互***中的AR眼镜、云端服务器、通信方式与第一实施例中的相同,为了减少赘述,本实施例提供的AR眼镜远程交互***中的AR眼镜、云端服务器、通信方式可以参考第一实施例中的描述。本实施例提供的AR眼镜远程交互***中的采集器与第三实施例中的相同,为了减少赘述,本实施例提供的AR眼镜远程交互***中的采集器可以参考第三实施例中的描述。
基于图6中提供的AR眼镜远程交互***,本实施例提供的AR眼镜远程交互方法可以实现诸多应用场景,
例如,应用多医生远程医疗中:
云端服务器从外部设备中获取实时数据的步骤包括,从外部设备中获取生理指标信息;
云端服务器发送实时数据的步骤包括,将所述生理指标信息发送至AR眼镜。
云端服务器接收眼镜数据的步骤,接收其中一个AR眼镜采集的外界真实图像信息;
云端服务器根据实时数据和眼镜数据,生成第四信息的步骤,将所述外界真实图像信息和所述生理指标信息进行整合,生成第二直播现场影像;所述第二直播现场影像中的内容至少包括所述外界真实图像信息和所述生理指标信息;
云端服务器发送第四信息至AR眼镜的步骤,将所述第二直播现场影像发送给另一个AR眼镜。
进一步的,云端服务器根据实时数据和眼镜数据,生成第四信息的步骤,包括:将所述外界真实图像信息进行整合,生成虚拟模型,将所述虚拟模型和所述生理指标信息进行整合,生成第三直播现场影像;所述第三直播现场影像中的内容至少包括所述虚拟模型和所述生理指标信息;
云端服务器发送第四信息至AR眼镜的步骤,将第三直播现场影像发送给另一个AR眼镜。
进一步的,所述方法还包括:
云端服务器接收其中一个AR眼镜的交互信息与虚拟模型,将所述交互信息与所述虚拟模型进行融合,生成第五信息,将所述第五信息发送给另一个AR眼镜。
作为一个示例,患者在手术室通过穿戴设备或其他种类的生理信息采集器(外部设备)被实时监测生理指标(例如心电图、脉搏、血压、体温等数据1~n),这些数据实时上传至云端服务器;云端服务器将生理指标信息发送给佩戴AR眼镜的远程医生,远程医生根据生理指标信息可以辅助也佩戴着AR眼镜的现场医生对患者诊断救治。进一步的,现场医生通过佩戴的混合现实眼镜收集到的患者及其周边医疗条件的外界真实图像信息以视频或3D扫描影像的形式实时传输给云端服务器,云端服务器将所述外界真实图像信息和所述生理指标信息进行整合,生成直播现场影像,将直播现场影像发给远程医生;远程医生的AR眼镜中呈现手术室内病人的相关信息,并实时观测手术进程,同时远程医生通过AR眼镜的识别模块采集远程医生的交互信息(例如,手势、手柄、眼球识别、语音),为现场医生提供辅助;也可将手术室内患者的待处理部位以外界真实图像信息的形式上传至云端服务器,云端服务器对图像进行建模重构并以可操作的虚拟模型传给远程医生,远程医生通过AR眼镜中(通过手势识别,图像识别,深度识别等方式)进行示范性的治疗操作动作,然后,将一系列的操作动作结合实时***作的虚拟模型上传至云端服务器,将所述交互信息与所述虚拟模型发送至所述云端服务器,云端服务器整合运算处理后将这些转化成虚拟视频的形式(第四信息)传给现场医生。以上远程医生可以是不同地点的多个佩戴混合现实眼镜的医生,现场也可以是多个佩戴混合现实眼镜的医生。
应用工业远程协助中:
云端服务器从外部设备中获取实时数据的步骤包括,从外部设备中获取运行状态信息;
云端服务器发送实时数据的步骤包括,将所述运行状态信息发送至AR眼镜。
云端服务器接收眼镜数据的步骤,接收其中一个AR眼镜采集的外界真实图像信息;
云端服务器根据实时数据和眼镜数据,生成第四信息的步骤,将所述外界真实图像信息和所述运行状态信息进行整合,生成第二直播现场影像;所述第二直播现场影像中的内容至少包括所述外界真实图像信息和所述运行状态信息;
云端服务器发送第四信息至AR眼镜的步骤,将所述第二直播现场影像发送给另一个AR眼镜。
进一步的,云端服务器根据实时数据和眼镜数据,生成第四信息的步骤,包括:将所述外界真实图像信息进行整合,生成虚拟模型,将所述虚拟模型和所述运行状态信息进行整合,生成第三直播现场影像;所述第三直播现场影像中的内容至少包括所述虚拟模型和所述运行状态信息;
云端服务器发送第四信息至AR眼镜的步骤,将第三直播现场影像发送给另一个AR眼镜。
进一步的,所述方法还包括:
云端服务器接收其中一个AR眼镜的交互信息与虚拟模型,将所述交互信息与所述虚拟模型进行融合,生成第五信息,将所述第五信息发送给另一个AR眼镜。
AR眼镜通过空间定位算法将从不同外部设备中的运行状态信息固定在所述AR眼镜的物理空间中。
具体来讲,工业产线设备诸多机械设备运行采集器采集设备多种运行状态信息(数据1~n,比如温度,零件使用状态、损坏状况),将运行状态信息上传至云端服务器,云端服务器将运行状态信息发送给设备监控员佩戴的AR眼镜上,通过SLAM算法,定位许多显示屏,其上显示对应不同设备的各种运行状态信息;云端服务器对运行状态信息进行实时分析运算,某一时刻出现异常后,云端服务器发送报警信息(第三信息)给AR眼镜,AR眼镜为监控员提示异常状态信息,提示维修;当现场工人维修设备时,工人可以佩戴AR眼镜,其上图像采集等模块采集现场维修过程信息等外界真实图像信息,并将外界真实图像信息实时上传至云端服务器;云端服务器将维修过程信息等直播现场影像传送给同样佩戴AR眼镜的远程专家,远程专家通过语音、图像标记等交互信息,为现场工人提供维修指导;也可将维修过程或设备损坏部位以真实视频或图像信息等外界真实图像信息上传至云端服务器,云端服务器对视频或图像进行建模重构并以可操作的虚拟模型的形式传给远程专家,远程专家在AR眼镜中(通过手势识别,图像识别,深度识别等方式)进行示范性的维修操作动作,然后,将一系列的操作动作结合时时***作的虚拟模型上传至云端服务器,云端服务器整合运算处理后将这些转化成虚拟视频的形式(第四信息)传给现场的操作员。
应用全息通讯中:
云端服务器当实时数据包括多张图像时,
云端服务器根据实时数据,生成第三信息的步骤包括,将多张图像进行构图和拼接,生成实时3D人像;
云端服务器将所述第三信息发送至所述AR眼镜的步骤包括,将所述实时3D人像发送给所述至少两个AR眼镜。
其中,将多张图像进行构图和拼接,生成实时3D人像的步骤,包括:
云端服务器生成第三信息的步骤包括,根据多张图像,分析图像变化情况,确定预设特效,将所述预设特效与所述实时3D人像结合,生成影像信息。
具体来讲,处在不同物理空间的用户1和用户2乃至用户n,通过各自环境中的(不同位置)图像采集模块阵列(采集图像数据1~n)将多张不同角度的图像或视频上传至云端服务器,云端服务器通过构图和拼接等算法,形成各自的实时3D人像;实时3D人像互相通过云端服务器传送至其他用户中,用户在眼前看到其他用户的全息人像(包括实时动作),通过SLAM算法固定在各自空间的位置;此外,云端服务器还可以对实时输入的人像图像或视频进行运算分析,在人像作出特定动作时,云端服务器触发生成特定效果,例如,当用户1作出张开手的手势时,用户2看到用户1张开手的人像动作,同时云端服务器按照程序触发撒钱的预设特效呈现在用户1或用户2的眼前。
本发明实施例还提供一种AR眼镜远程交互装置,应用于云端服务器,所述云端服务器通过网络与所述AR眼镜通信连接;所述装置包括:
接收模块,用于接收第一信息,所述第一信息是由所述AR眼镜发送的;
生成模块,用于根据所述第一信息,生成第二信息;
发送模块,用于将所述第二信息发送至所述AR眼镜。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例还提供一种具有处理器可执行的非易失的程序代码的计算机可读介质,所述程序代码使所述处理器执行实施例任一所述的方法。该方法应用于云端服务器。
本发明实施例还提供一种AR眼镜远程交互装置,应用于AR眼镜,所述AR眼镜通过网络与云端服务器通信连接;所述装置包括:
发送模块,用于发送第一信息,将第一信息发送给所述云端服务器;
接收模块,用于接收第二信息,接收所述云端服务器发送的第二信息。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本发明实施例还提供一种具有处理器可执行的非易失的程序代码的计算机可读介质,所述程序代码使所述处理器执行上述实施例任一所述方法。其中,该方法应用于云端服务器或AR眼镜。
除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对步骤、数字表达式和数值并不限制本发明的范围。
在这里示出和描述的所有示例中,任何具体值应被解释为仅仅是示例性的,而不是作为限制,因此,示例性实施例的其他示例可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
附图中的流程图和框图显示了根据本发明的多个实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (28)
1.一种AR眼镜远程交互方法,其特征在于,应用于云端服务器,所述云端服务器通过网络与所述AR眼镜通信连接;所述方法包括以下步骤:
所述云端服务器接收第一信息,所述第一信息是由所述AR眼镜发送的;
所述云端服务器根据所述第一信息,生成第二信息;
所述云端服务器将所述第二信息发送至所述AR眼镜;
所述第一信息包括服务请求、生命流信息、真实世界的环境信息、虚拟人像、用户信息、3D模型信息、更新信息、游戏信息、视频信息或交互信息中的至少一项;
所述第二信息包括生活服务信息、游戏信息、视频信息、第三视角增强信息或虚拟人像社交信息中的至少一项;
所述交互信息包括:视觉交互数据、手柄控制交互数据、位置交互数据、手势交互数据或语音交互数据中的至少一项;
所述生命流信息包括位置信息或图像信息中的至少一项;
当所述云端服务器至少与一个AR眼镜和一个远程数据处理设备相连时,
所述云端服务器接收第一信息的步骤包括,接收所述AR眼镜和/或所述远程数据处理设备发送各自的虚拟人像和各自的用户信息;所述各自的用户信息为所述AR眼镜和/或所述远程数据处理设备通过采集装置采集的;
所述云端服务器根据所述第一信息,生成第二信息的步骤包括,将所述AR眼镜和/或所述远程数据处理设备发送的虚拟人像和用户信息进行整合,得到多个具有用户信息的虚拟人像,对多个具有用户信息的虚拟人像进行整合,生成虚拟人像社交信息;
所述云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述虚拟人像社交信息发送至每个所述AR眼镜和/或每个所述远程数据处理设备。
2.根据权利要求1所述的方法,其特征在于,
所述云端服务器接收第一信息的步骤包括,接收AR眼镜发送的生命流信息;
所述云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述生命流信息,生成所述生活服务信息;
所述云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述生活服务信息发送至所述AR眼镜。
3.根据权利要求1所述的方法,其特征在于,
所述云端服务器接收第一信息的步骤包括,接收AR眼镜发送的服务请求;
所述云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述服务请求,生成所述游戏信息或所述视频信息;
所述云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述游戏信息或所述视频信息发送至所述AR眼镜。
4.根据权利要求1所述的方法,其特征在于,
所述云端服务器接收第一信息的步骤包括,接收AR眼镜发送的更新信息;所述更新信息是根据AR眼镜中存储有游戏数据需要更新时使用的;
所述云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述更新信息,生成游戏信息;
所述云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述游戏信息发送至所述AR眼镜。
5.根据权利要求3或4所述的方法,其特征在于,在所述将所述游戏信息发送至所述AR眼镜的步骤之后,所述方法还包括:
同步或存储融合数据;所述融合数据为所述AR眼镜的手势识别模块采集用户的交互信息和所述游戏信息融合处理后得到的。
6.根据权利要求1所述的方法,其特征在于,当所述云端服务器至少与一个AR眼镜和一个远程数据处理设备相连时,
所述云端服务器接收第一信息的步骤包括,接收所述AR眼镜发送的交互信息,并接收所述远程数据处理设备采集其中所述AR眼镜的真实世界的环境信息;
所述云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述交互信息和所述真实世界的环境信息,生成所述第三视角增强信息;
所述云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述第三视角增强信息发送至其中所述AR眼镜和/或所述远程数据处理设备。
7.根据权利要求1所述的方法,其特征在于,当所述云端服务器与至少一个AR眼镜和至少一个远程数据处理设备相连时,所述方法还包括:
所述云端服务器接收第一信息的步骤包括,接收所述AR眼镜和/或所述远程数据处理设备发送的所述3D模型信息和/或游戏信息和/或视频信息;
所述云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,将所述3D模型信息和/或游戏信息和/或视频信息发送至所述AR眼镜和/或所述远程数据处理设备。
8.根据权利要求1所述的方法,其特征在于,当所述云端服务器至少与一个AR眼镜和一个远程数据处理设备相连时,
所述云端服务器接收第一信息的步骤包括,接收每个AR眼镜和/或每个远程数据处理设备发送的所述服务信息;
所述云端服务器根据所述第一信息,生成第二信息的步骤包括,根据所述服务信息,生成所述3D模型信息、和/或游戏信息和/或视频信息;
所述云端服务器将所述第二信息发送至所述AR眼镜的步骤包括,发送所述3D模型信息、和/或游戏信息和/或视频信息至所述AR眼镜和/或所述远程数据处理设备。
9.根据权利要求7或8所述的方法,其特征在于,所述方法还包括:
接收所述AR眼镜和/或所述远程数据处理设备发送的修改信息,所述修改信息包括修改3D模型信息、和/或修改游戏数据和/或修改视频数据;
将所述修改信息发送至每个所述AR眼镜和/或每个远程数据处理设备。
10.根据权利要求1所述的方法,其特征在于,当所述云端服务器的一端与外部设备相连,所述云端服务器的另一端通过网络与所述AR眼镜和所述远程数据处理设备通信连接时,所述方法还包括:
从外部设备中获取实时数据;
根据实时数据,生成第三信息;
将所述第三信息发送至所述AR眼镜和/或所述远程数据处理设备。
11.根据权利要求10所述的方法,其特征在于,
从外部设备中获取实时数据的步骤包括,从外部设备中获取环境数据;
根据实时数据,生成第三信息的步骤包括,根据环境数据,生成推荐信息;
将所述第三信息发送至所述AR眼镜和/或所述远程数据处理设备的步骤包括,将所述推荐信息发送至所述AR眼镜和/或所述远程数据处理设备。
12.根据权利要求10所述的方法,其特征在于,
从外部设备中获取实时数据的步骤包括,从外部设备中获取图像信息和声音信息;
根据实时数据,生成第三信息的步骤包括,根据图像信息和声音信息,生成第一直播现场影像;
将所述第三信息发送至所述AR眼镜和/或所述远程数据处理设备的步骤包括,将所述直播现场影像发送至所述AR眼镜和/或所述远程数据处理设备。
13.根据权利要求10所述的方法,其特征在于,所述方法还包括:
从外部设备中获取实时数据的步骤包括,从外部设备中获取生理指标信息、运行状态信息或图像信息;
发送实时数据的步骤包括,将所述生理指标信息、运行状态信息、或图像信息中的至少一项发送至所述AR眼镜和/或所述远程数据处理设备。
14.根据权利要求13所述的方法,其特征在于,当所述云端服务器的一端分别与至少一个AR眼镜和至少一个远程数据处理设备连接,所述云端服务器的另一端与外部设备相连时,所述方法还包括:
接收眼镜数据的步骤,接收所述AR眼镜和/或所述远程数据处理设备采集的外界真实图像信息;
根据实时数据以及AR眼镜和/或远程数据处理设备采集的数据,生成第四信息的步骤,将所述外界真实图像信息和所述生理指标信息、所述外界真实图像信息或运行状态信息中的至少两项进行整合,生成第二直播现场影像;
发送第四信息至AR眼镜和/或远程数据处理设备的步骤,将所述第二直播现场影像发送给所述AR眼镜和/或所述远程数据处理设备。
15.根据权利要求14所述的方法,其特征在于,
根据实时数据以及AR眼镜和/或远程数据处理设备采集的数据,生成第四信息的步骤,包括:将所述外界真实图像信息进行整合,生成虚拟模型,将所述虚拟模型和所述生理指标信息、所述虚拟模型或运行状态信息中的至少两项进行整合,生成第三直播现场影像;
发送第四信息至AR眼镜和/或远程数据处理设备的步骤,将第三直播现场影像发送给所述AR眼镜和/或所述远程数据处理设备。
16.根据权利要求15所述的方法,其特征在于,发送第四信息至AR眼镜和/或远程数据处理设备的步骤之后,所述方法还包括:
接收所述AR眼镜和/或所述远程数据处理设备的交互信息与虚拟模型,将所述交互信息与所述虚拟模型进行融合,生成第五信息,将所述第五信息发送给所述AR眼镜和/或所述远程数据处理设备。
17.根据权利要求10所述的方法,其特征在于,当实时数据包括多张图像时,
根据实时数据,生成第三信息的步骤包括,将多张图像进行构图和拼接,生成实时3D人像;
将所述第三信息发送至所述AR眼镜和/或所述远程数据处理设备的步骤包括,将所述实时3D人像发送给所述AR眼镜和/或所述远程数据处理设备。
18.根据权利要求17所述的方法,其特征在于,将多张图像进行构图和拼接,生成实时3D人像的步骤,包括:
生成第三信息的步骤包括,根据多张图像,分析图像变化情况,确定预设特效,将所述预设特效与所述实时3D人像结合,生成影像信息。
19.一种AR眼镜远程交互方法,其特征在于,应用于AR眼镜,所述AR眼镜通过网络与云端服务器通信连接;所述方法包括以下步骤:
所述AR眼镜发送第一信息,将第一信息发送给所述云端服务器;
所述AR眼镜接收第二信息,接收所述云端服务器发送的第二信息;
所述第一信息包括服务请求、生命流信息、真实世界的环境信息、虚拟人像、用户信息、3D模型信息、更新信息、游戏信息、视频信息、交互信息;
所述第二信息包括生活服务信息、游戏信息、视频信息、第三视角增强信息、虚拟人像社交信息;
所述交互信息包括:视觉交互数据、手柄控制交互数据、位置交互数据、手势交互数据、语音交互数据;
所述生命流信息包括位置信息或图像信息;
所述AR眼镜发送第一信息的步骤包括,所述AR眼镜发送自己的虚拟人像和自己的用户信息以使所述云端服务器将所述虚拟人像和所述用户信息处理为虚拟人像社交信息;所述用户信息为所述AR眼镜通过采集装置采集的;
所述AR眼镜接收第二信息的步骤包括,所述AR眼镜接收所述虚拟人像社交信息。
20.根据权利要求19所述的方法,其特征在于,所述方法包括:
在发送第一信息之前,存储所述游戏数据至本地;
所述AR眼镜发送第一信息的步骤包括:将游戏更新信息发送给所述云端服务器;
所述AR眼镜接收第二信息的步骤包括:接收所述游戏更新信息对应的更新数据,以通过更新数据更新存储在所述本地的所述游戏数据。
21.根据权利要求20所述的方法,其特征在于,所述方法还包括:
在发送第一信息之前,通过手势识别模块采集用户的交互信息,融合处理所述交互信息和所述游戏数据;
所述AR眼镜发送第一信息的步骤包括,将融合处理后的数据发送至所述云端服务器,以使所述云端服务器对所述融合处理后的数据进行计算、同步或储存。
22.根据权利要求20所述的方法,其特征在于,在接收第二信息的步骤之后,所述方法还包括:播放接收到的所述第二信息。
23.根据权利要求19所述的方法,其特征在于,在接收第二信息的步骤之后,所述方法还包括:通过空间定位算法将所述3D模型信息和/或游戏数据和/或视频数据和/或虚拟图像和/或从不同外部设备中的运行状态信息固定在所述AR眼镜的物理空间中。
24.根据权利要求19所述的方法,其特征在于,所述方法还包括:生成虚拟图像,将所述虚拟图像发送至所述云端服务器,用于将所述虚拟图像发送给另一个所述AR眼镜和/或远程数据处理设备。
25.一种AR眼镜远程交互装置,其特征在于,应用于云端服务器,所述云端服务器通过网络至少与一个所述AR眼镜和一个远程数据处理设备通信连接;所述装置包括:
接收模块,用于接收第一信息,所述第一信息是由所述AR眼镜发送的;
生成模块,用于根据所述第一信息,生成第二信息;
发送模块,用于将所述第二信息发送至所述AR眼镜;
所述第一信息包括服务请求、生命流信息、真实世界的环境信息、虚拟人像、用户信息、3D模型信息、更新信息、游戏信息、视频信息或交互信息中的至少一项;
所述第二信息包括生活服务信息、游戏信息、视频信息、第三视角增强信息或虚拟人像社交信息中的至少一项;
所述交互信息包括:视觉交互数据、手柄控制交互数据、位置交互数据、手势交互数据或语音交互数据中的至少一项;
所述生命流信息包括位置信息或图像信息中的至少一项;
接收模块,用于接收所述AR眼镜和/或所述远程数据处理设备发送各自的虚拟人像和各自的用户信息;所述各自的用户信息为所述AR眼镜和/或所述远程数据处理设备通过采集装置采集的;
生成模块,用于将所述AR眼镜和/或所述远程数据处理设备发送的虚拟人像和用户信息进行整合,得到多个具有用户信息的虚拟人像,对多个具有用户信息的虚拟人像进行整合,生成虚拟人像社交信息;
发送模块,用于将所述虚拟人像社交信息发送至每个所述AR眼镜和/或每个所述远程数据处理设备。
26.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行所述权利要求1-18任一所述方法。
27.一种AR眼镜远程交互装置,其特征在于,应用于AR眼镜,所述AR眼镜通过网络与云端服务器通信连接;所述装置包括:
发送模块,用于发送第一信息,将第一信息发送给所述云端服务器;
接收模块,用于接收第二信息,接收所述云端服务器发送的第二信息;
所述第一信息包括服务请求、生命流信息、真实世界的环境信息、虚拟人像、用户信息、3D模型信息、更新信息、游戏信息、视频信息、交互信息;
所述第二信息包括生活服务信息、游戏信息、视频信息、第三视角增强信息、虚拟人像社交信息;
所述交互信息包括:视觉交互数据、手柄控制交互数据、位置交互数据、手势交互数据、语音交互数据;
所述生命流信息包括位置信息或图像信息;
发送模块,用于所述AR眼镜发送自己的虚拟人像和自己的用户信息以使所述云端服务器将所述虚拟人像和所述用户信息处理为虚拟人像社交信息;所述用户信息为所述AR眼镜通过采集装置采集的;
接收模块,用于所述AR眼镜接收所述虚拟人像社交信息。
28.一种具有处理器可执行的非易失的程序代码的计算机可读介质,其特征在于,所述程序代码使所述处理器执行所述权利要求19-24任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010318402.1A CN111752511A (zh) | 2019-03-27 | 2019-03-27 | Ar眼镜远程交互方法、装置和计算机可读介质 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010318402.1A CN111752511A (zh) | 2019-03-27 | 2019-03-27 | Ar眼镜远程交互方法、装置和计算机可读介质 |
CN201910239145.XA CN109976690B (zh) | 2019-03-27 | 2019-03-27 | Ar眼镜远程交互方法、装置和计算机可读介质 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910239145.XA Division CN109976690B (zh) | 2019-03-27 | 2019-03-27 | Ar眼镜远程交互方法、装置和计算机可读介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111752511A true CN111752511A (zh) | 2020-10-09 |
Family
ID=67081062
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010318402.1A Pending CN111752511A (zh) | 2019-03-27 | 2019-03-27 | Ar眼镜远程交互方法、装置和计算机可读介质 |
CN201910239145.XA Active CN109976690B (zh) | 2019-03-27 | 2019-03-27 | Ar眼镜远程交互方法、装置和计算机可读介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910239145.XA Active CN109976690B (zh) | 2019-03-27 | 2019-03-27 | Ar眼镜远程交互方法、装置和计算机可读介质 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111752511A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112306240A (zh) * | 2020-10-29 | 2021-02-02 | ***通信集团黑龙江有限公司 | 虚拟现实数据处理方法、装置、设备及存储介质 |
CN112968787A (zh) * | 2021-02-01 | 2021-06-15 | 杭州光粒科技有限公司 | 一种会议控制方法、ar设备及会议*** |
CN113724398A (zh) * | 2021-09-01 | 2021-11-30 | 北京百度网讯科技有限公司 | 增强现实方法、装置、设备以及存储介质 |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110312142A (zh) * | 2019-07-23 | 2019-10-08 | 东华大学 | 一种基于5g技术的ar直播*** |
CN111352243A (zh) * | 2020-03-31 | 2020-06-30 | 北京塞傲时代信息技术有限公司 | 一种基于5g网络的ar远程渲染***及方法 |
CN111443814B (zh) * | 2020-04-09 | 2023-05-05 | 深圳市瑞云科技有限公司 | 一种基于云渲染的ar眼镜*** |
CN113705278A (zh) * | 2020-05-20 | 2021-11-26 | 深圳市看见智能科技有限公司 | 用于智能眼镜的人体行为识别***及方法 |
CN111638785A (zh) * | 2020-05-29 | 2020-09-08 | 熙迈(上海)检测技术服务有限公司 | 一种ar模块的实时互动方法 |
CN111765890B (zh) * | 2020-06-28 | 2023-08-15 | 山东浪潮科学研究院有限公司 | 一种基于云端图像识别和ar的室内导航***的导航方法 |
CN111938608A (zh) * | 2020-09-15 | 2020-11-17 | 安徽理工大学 | 一种老人智能监护用ar眼镜、监护***、监护方法 |
CN113010009B (zh) * | 2021-02-08 | 2022-07-22 | 北京蜂巢世纪科技有限公司 | 对象共享方法及装置 |
CN112992381A (zh) * | 2021-03-10 | 2021-06-18 | 张志宏 | 一种手术诊疗mr协同分享通信*** |
CN113566829A (zh) * | 2021-07-19 | 2021-10-29 | 上海极赫信息技术有限公司 | 基于高精度定位技术的混合现实的导览方法、***及mr设备 |
CN114063771A (zh) * | 2021-10-14 | 2022-02-18 | 内蒙古雲图计算机软件开发有限公司 | 一种基于ar技术的园区场景互动展示*** |
CN114038260A (zh) * | 2021-10-28 | 2022-02-11 | 徐州嘉恒智能科技有限公司 | 一种基于ar眼镜煤矿安全作业培训的方法 |
CN114268784A (zh) * | 2021-12-31 | 2022-04-01 | 东莞仲天电子科技有限公司 | 一种提升ar设备近眼显示体验效果的方法 |
CN114584610A (zh) * | 2022-01-20 | 2022-06-03 | 北京释限创新科技有限公司 | Ar眼镜消息推送服务方法及***、服务器、存储介质 |
CN117994472A (zh) * | 2022-03-18 | 2024-05-07 | 郑州泽正技术服务有限公司 | 利用虚拟场景进行真实社交的方法、***及ar眼镜 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106354248A (zh) * | 2016-05-16 | 2017-01-25 | 刘瑞雪 | 用于获取用户信息的增强现实***、交互***以及方法 |
CN106791699A (zh) * | 2017-01-18 | 2017-05-31 | 北京爱情说科技有限公司 | 一种远程头戴交互式视频共享*** |
CN106997235A (zh) * | 2016-01-25 | 2017-08-01 | 亮风台(上海)信息科技有限公司 | 用于实现增强现实交互和展示的方法、设备 |
CN107315919A (zh) * | 2017-07-18 | 2017-11-03 | 苏州国科康成医疗科技有限公司 | 远程医疗重现*** |
CN107678538A (zh) * | 2017-09-05 | 2018-02-09 | 北京原力创新科技有限公司 | 增强现实***和其中的信息处理方法、存储介质、处理器 |
CN108983974A (zh) * | 2018-07-03 | 2018-12-11 | 百度在线网络技术(北京)有限公司 | Ar场景处理方法、装置、设备和计算机可读存储介质 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及*** |
WO2019055679A1 (en) * | 2017-09-13 | 2019-03-21 | Lahood Edward Rashid | METHOD, APPARATUS, AND COMPUTER-READABLE MEDIA FOR DISPLAYING INCREASED REALITY INFORMATION |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108427498A (zh) * | 2017-02-14 | 2018-08-21 | 深圳梦境视觉智能科技有限公司 | 一种基于增强现实的交互方法和装置 |
-
2019
- 2019-03-27 CN CN202010318402.1A patent/CN111752511A/zh active Pending
- 2019-03-27 CN CN201910239145.XA patent/CN109976690B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106997235A (zh) * | 2016-01-25 | 2017-08-01 | 亮风台(上海)信息科技有限公司 | 用于实现增强现实交互和展示的方法、设备 |
CN106354248A (zh) * | 2016-05-16 | 2017-01-25 | 刘瑞雪 | 用于获取用户信息的增强现实***、交互***以及方法 |
CN106791699A (zh) * | 2017-01-18 | 2017-05-31 | 北京爱情说科技有限公司 | 一种远程头戴交互式视频共享*** |
CN107315919A (zh) * | 2017-07-18 | 2017-11-03 | 苏州国科康成医疗科技有限公司 | 远程医疗重现*** |
CN107678538A (zh) * | 2017-09-05 | 2018-02-09 | 北京原力创新科技有限公司 | 增强现实***和其中的信息处理方法、存储介质、处理器 |
WO2019055679A1 (en) * | 2017-09-13 | 2019-03-21 | Lahood Edward Rashid | METHOD, APPARATUS, AND COMPUTER-READABLE MEDIA FOR DISPLAYING INCREASED REALITY INFORMATION |
CN108983974A (zh) * | 2018-07-03 | 2018-12-11 | 百度在线网络技术(北京)有限公司 | Ar场景处理方法、装置、设备和计算机可读存储介质 |
CN109086726A (zh) * | 2018-08-10 | 2018-12-25 | 陈涛 | 一种基于ar智能眼镜的局部图像识别方法及*** |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112306240A (zh) * | 2020-10-29 | 2021-02-02 | ***通信集团黑龙江有限公司 | 虚拟现实数据处理方法、装置、设备及存储介质 |
CN112968787A (zh) * | 2021-02-01 | 2021-06-15 | 杭州光粒科技有限公司 | 一种会议控制方法、ar设备及会议*** |
CN113724398A (zh) * | 2021-09-01 | 2021-11-30 | 北京百度网讯科技有限公司 | 增强现实方法、装置、设备以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109976690A (zh) | 2019-07-05 |
CN109976690B (zh) | 2020-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109976690B (zh) | Ar眼镜远程交互方法、装置和计算机可读介质 | |
US10593025B2 (en) | Method and system for reconstructing obstructed face portions for virtual reality environment | |
KR102362001B1 (ko) | 사용자 거동에 관한 눈 추적 기반 정보를 제공하기 위한 방법 및 시스템, 클라이언트 디바이스, 서버 및 컴퓨터 프로그램 제품 | |
US9606363B2 (en) | Head mounted device (HMD) system having interface with mobile computing device for rendering virtual reality content | |
EP3265864B1 (en) | Tracking system for head mounted display | |
EP3691280B1 (en) | Video transmission method, server, vr playback terminal and computer-readable storage medium | |
EP3888764A1 (en) | Filtering and parental control methods for restricting visual activity on a head mounted display | |
CN109445103B (zh) | 显示画面的更新方法及装置、储存介质、电子装置 | |
US20130308827A1 (en) | System and Method for Managing Spatiotemporal Uncertainty | |
CN111862348B (zh) | 视频显示方法、视频生成方法、装置、设备及存储介质 | |
CN108983974B (zh) | Ar场景处理方法、装置、设备和计算机可读存储介质 | |
EP3302740A1 (en) | Reactive animation for virtual reality | |
CN111768478A (zh) | 一种图像合成方法、装置、存储介质和电子设备 | |
Viola et al. | VR2Gather: A collaborative, social virtual reality system for adaptive, multiparty real-time communication | |
CN113965773A (zh) | 直播展示方法和装置、存储介质及电子设备 | |
CN116017014A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
CN109474819B (zh) | 图像的呈现方法及装置 | |
Ryskeldiev et al. | ReactSpace: Spatial-Aware User Interactions for Collocated Social Live Streaming Experiences | |
JP7344084B2 (ja) | コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム | |
KR102149608B1 (ko) | 가상 현실 및 증강 현실을 이용한 혼합 렌더링 콘텐츠 제공 방법 및 이를 이용한 시스템 | |
JP7458731B2 (ja) | 画像生成システム、画像処理装置、情報処理装置、画像生成方法、及びプログラム | |
US9609313B2 (en) | Enhanced 3D display method and system | |
CN114915735A (zh) | 视频数据的处理方法 | |
CN116980556A (zh) | 虚拟形象的显示方法、装置和存储介质及电子设备 | |
CN118118717A (zh) | 屏幕共享方法、装置、设备和介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |