CN118264784A - 一种用于增强现实协同的***及方法 - Google Patents
一种用于增强现实协同的***及方法 Download PDFInfo
- Publication number
- CN118264784A CN118264784A CN202211695951.6A CN202211695951A CN118264784A CN 118264784 A CN118264784 A CN 118264784A CN 202211695951 A CN202211695951 A CN 202211695951A CN 118264784 A CN118264784 A CN 118264784A
- Authority
- CN
- China
- Prior art keywords
- electronic device
- image sequence
- model
- display
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 87
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 39
- 230000015654 memory Effects 0.000 claims description 31
- 230000036544 posture Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 230000009466 transformation Effects 0.000 claims 1
- 230000003993 interaction Effects 0.000 abstract description 26
- 230000006870 function Effects 0.000 description 52
- 238000004891 communication Methods 0.000 description 36
- 230000006854 communication Effects 0.000 description 36
- 238000005516 engineering process Methods 0.000 description 36
- 238000009877 rendering Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 26
- 230000005540 biological transmission Effects 0.000 description 24
- 238000007726 management method Methods 0.000 description 21
- 239000010410 layer Substances 0.000 description 19
- 238000012545 processing Methods 0.000 description 18
- 230000005236 sound signal Effects 0.000 description 13
- 238000010295 mobile communication Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 12
- 230000000694 effects Effects 0.000 description 10
- 230000000007 visual effect Effects 0.000 description 10
- 210000000988 bone and bone Anatomy 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 8
- 230000001360 synchronised effect Effects 0.000 description 8
- 238000013461 design Methods 0.000 description 5
- 230000002452 interceptive effect Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000009467 reduction Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 235000012054 meals Nutrition 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 230000003416 augmentation Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000012792 core layer Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000010985 leather Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002138 osteoinductive effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000010349 pulsation Effects 0.000 description 1
- 239000002096 quantum dot Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000003238 somatosensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本申请提供了一种用于增强现实协同的***和方法,该***包括第一电子设备和第二电子设备,其中,第二电子设备用于向第一电子设备发送第二指令和第二真实场景图像序列;第一电子设备用于根据第一指令、第二指令以及第二AR模型确定第三AR模型;第一电子设备还用于根据第二真实场景图像序列、第二视口信息以及第三AR模型,确定第二显示图像序列;第一电子设备还用于向第二电子设备发送第二显示图像序列;第二电子设备还用于显示第二显示图像序列。上述实施例中,第二电子设备只要具备拍摄功能、交互功能,就能够与第一电子设备进行增强现实协同,如此能够提高增强现实协同的普适性。
Description
技术领域
本申请涉及增强现实领域,尤其涉及一种用于增强现实协同的***和方法。
背景技术
随着增强现实技术的发展,市场上出现越来越丰富的用于增强现实(AugmentedReality,AR)的应用程序,而这些AR应用程序中也包含各种各样的用于多设备协同的AR应用程序,例如AR多人游戏等。这些用于多设备协同的AR应用程序需要让多个电子设备处于同一个世界坐标中,这样每一位用户的操作才能够被彼此精准获取,从而能够让不同的用户在不同的视角上进行精准互动。
现有技术中,在多个设备之间开展AR协同的技术前提有两个:一是多个电子设备必须拥有相同的技术能力,如同步定位与地图构建技术(Simultaneous Localization andMapping,SLAM)、锚点技术等;二是每一个开展AR协同的电子设备都必须安装有相同的AR应用程序。但是,不同品牌的电子设备之间或者不同类型的电子设备之间大多数情况下并不具备相同的技术能力,在这种条件下这些设备无法进行AR协同。
发明内容
本申请实施例提供了一种用于增强现实协同的***和方法,只需要一个电子设备具备AR技术能力和安装AR应用,其他电子设备只需要具备摄像拍照、交互和视频编解码等基础能力,消除了多设备之间进行AR协同的技术壁垒,提高了多设备进行AR协同的普适性。
第一方面,提供了一种用于增强现实协同的***,该***包括第一电子设备和第二电子设备,其中,第二电子设备,用于向第一电子设备发送第二指令和第二真实场景图像序列,第二指令为第二用户对第二电子设备进行操作的指令;第一电子设备,用于根据第一指令、第二指令以及第二AR模型确定第三AR模型,第二AR模型为第一电子设备预置的三维AR模型,第三AR模型为第二AR模型变换后的模型,第一指令为第一用户对第一电子设备进行操作的指令;第一电子设备,还用于根据第二真实场景图像序列、第二视口信息以及第三AR模型,确定第二显示图像序列,第二视口信息用于确定第二电子设备的视口;第一电子设备,还用于向第二电子设备发送第二显示图像序列;第二电子设备,还用于显示第二显示图像序列。
在上述技术方案中,仅第一电子设备需要部署AR技术能力和AR应用,第二电子设备不需要具备AR技术能力,也不需要安装AR应用,只需要具备基础的拍摄功能、交互功能,即可实现第一电子设备与第二电子设备间的AR协同,打破了现有技术中对双方设备均有技术要求的限制,让AR协同场景普适性更强。
结合第一方面,在第一方面的某些实现方式中,第一电子设备还用于:根据第一指令、第二指令以及第一AR模型确定第四AR模型,第一AR模型与第二AR模型相同,第四AR模型为第一AR模型变换后的模型;根据第一真实场景图像序列、第一视口信息以及第四AR模型,确定第一显示图像序列,第一视口信息用于确定第一电子设备的视口;显示第一显示图像序列。
在上述技术方案中,当AR应用本身不支持多视口渲染能力时,在第一电子设备中启动第一AR应用中的第一AR模型和第二AR应用中的第二AR模型,以供两个设备的用户对各自的AR模型进行操作,使用第一电子设备的用户对第一AR模型的操作能够同步至第二AR模型上,使用第二电子设备的用户对自己第二AR模型的操作同样能够同步至第一AR模型上,这样能够保第一AR模型与第二AR模型在空间中的位置、形状与大小永远保持一致,从而保证第一电子设备与第二电子设备的协同性。
结合第一方面,在第一方面的某些实现方式中,第一电子设备还用于:根据第一真实场景图像序列、第一视口信息以及第三AR模型,确定第一显示图像序列,第一视口信息用于确定第一电子设备的视口;显示第一真实场景图像序列。
在上述技术方案中,当AR应用支持多视口渲染能力时,只启动一个AR应用来完成和第二电子设备的AR协同,降低了协同误差。
结合第一方面,在第一方面的某些实现方式中,第一电子设备还用于:获取第二电子设备与第一电子设备的位置与姿态;根据第二电子设备的位置与姿态,获取第二视口信息;根据第一电子设备的位置与姿态,获取第一视口信息。
在上述技术方案中,第一电子设备可以根据实时获取的第二电子设备的位置与姿态,获取到第二电子设备的第二视口信息,根据该信息可以知晓第二电子设备在AR场景中实时观察AR模型的视角,提高了第二电子设备显示的实时性与真实度。
结合第一方面,在第一方面的某些实现方式中,第一电子设备具体用于:根据第一真实场景图像序列或所述第二真实场景图像序列,获取环境地图;根据环境地图与第二真实场景图像序列,获取第二电子设备的位置与姿态;根据环境地图与第一真实场景图像序列,获取第一电子设备的位置与姿态。
在上述技术方案中,使用第一电子设备内生成的环境地图去同时匹配第一电子设备和第二电子设备在该环境地图中的位置和姿态信息,保证了数据来源的一致性,从而大大降低了协同误差。
结合第一方面,在第一方面的某些实现方式中,第一电子设备,还用于向第二电子设备发送第二显示图像序列,具体包括:对第二显示图像序列进行编码,以得到第二显示视频流;向第二电子设备发送第二显示视频流;第二电子设备,还用于显示第二显示图像序列,具体包括:接收第一电子设备发送的第二显示视频流;对第二显示视频流进行解码,以得到第二显示图像序列。
在上述技术方案中,通过将第二显示图像序列进行编码,将之压缩成视频流格式,再进行两设备间的传输,最后解压该视频流以恢复至第二显示图像序列,减少了数据传输量,这样能够减少传输时间,进而提高第一电子设备与第二电子设备之间的协同一致性。
第二方面,提供了一种增强现实场景协同的方法,该方法适用于第一电子设备,该方法包括:接收第二电子设备发送的第二指令和第二真实场景图像序列,第二指令为第二用户对第二电子设备进行操作的指令;根据第一指令、第二指令以及第二AR模型确定第三AR模型,第二AR模型为第一电子设备预置的三维AR模型,第三AR模型为第二AR模型变换后的模型,第一指令为第一用户对第一电子设备进行操作的指令;根据第二真实场景图像序列、第二视口信息以及第三AR模型,确定第二显示图像序列,第二视口信息用于确定第二电子设备的视口;向第二电子设备发送第二显示图像序列。
在上述技术方案中,仅第一电子设备(即主设备)需要部署AR技术能力和AR应用,第二电子设备(即协同设备)不需要有AR技术能力和AR应用,只需要具备基础的摄像拍照、交互功能与视频编解码功能,借用第一电子设备来实现自身所需要的AR技术即可。打破了现有技术中对双方设备均有技术要求的限制,让AR协同场景普适性更强。
结合第二方面,在第二方面的某些实现方式中,获取第二电子设备的位置与姿态;根据第二电子设备的位置与姿态,获取第二视口信息。
在上述技术方案中,第一电子设备可以根据实时获取的第二电子设备的位置与姿态,获取到第二电子设备的第二视口信息,根据该信息可以知晓第二电子设备在AR场景中实时观察AR模型的视角,提高了第二电子设备显示的实时性与真实度。
结合第二方面,在第二方面的某些实现方式中,获取第二电子设备的位置与姿态,包括:根据第一真实场景图像序列或所述第二真实场景图像序列,获取环境地图;根据环境地图与第二真实场景图像序列,获取第二电子设备的位置与姿态。
在上述技术方案中,使用第一电子设备内生成的环境地图去匹配第二电子设备在该环境地图中的位置和姿态信息,保证了两设备环境地图数据来源的一致性,从而大大降低了协同误差。
结合第二方面,在第二方面的某些实现方式中,向第二电子设备发送第二显示图像序列,包括:对第二显示图像序列进行编码,以得到第二显示视频流;向第二电子设备发送第二显示视频流。
在上述技术方案中,第一电子设备通过将第二显示图像序列进行编码,将之压缩成视频流格式,再传输至第二电子设备,这样由于减少了数据传输量,因此能够减少传输时间,进而提高第一电子设备与第二电子设备之间的协同一致性。
结合第二方面,在第二方面的某些实现方式中,根据第一指令、第二指令以及第一AR模型确定第四AR模型,第一AR模型与第二AR模型相同,第四AR模型为第一AR模型变换后的模型;根据第一真实场景图像序列、第一视口信息以及第四AR模型,确定第一显示图像序列,第一视口信息用于确定第一电子设备的视口;显示第一显示图像序列。
在上述技术方案中,当AR应用本身不支持多视口渲染能力时,在第一电子设备中启动第一AR应用中的第一AR模型和第二AR应用中的第二AR模型,以供两个设备的用户对各自的AR模型进行操作,使用第一电子设备的用户对第一AR模型的操作能够同步至第二AR模型上,第二电子设备的用户对自己第二AR模型的操作同样能够同步至第一AR模型上,这样能够保第一AR模型与第二AR模型在空间中的位置、形状与大小保持一致,从而保证第一电子设备与第二电子设备的协同性。
结合第二方面,在第二方面的某些实现方式中,方法还包括:根据第一真实场景图像序列、第一视口信息以及第三AR模型,确定第一显示图像序列,第一视口信息用于确定第一电子设备的视口;显示第一显示图像序列。
在上述技术方案中,当AR应用支持多视口渲染能力时,只启动一个AR应用来完成和第二电子设备的AR协同,降低了协同误差。
结合第二方面,在第二方面的某些实现方式中,方法还包括:获取第一电子设备的位置与姿态;根据第一电子设备的位置与姿态,获取第一视口信息。
在上述技术方案中,第一电子设备可以根据实时获取的自身的位置与姿态,获取到自身的第一视口信息,根据该信息可以知晓第一电子设备在AR场景中实时观察AR模型的视角,提高了第一电子设备显示的实时性与真实度。
结合第二方面,在第二方面的某些实现方式中,获取第一电子设备的位置与姿态,包括:根据第一真实场景图像序列或第二真实场景图像序列,获取环境地图;根据环境地图与第一真实场景图像序列,获取第一电子设备的位置与姿态。
在上述技术方案中,使用第一电子设备内生成的环境地图去匹配第一电子设备在该环境地图中的位置和姿态信息,保证了第一电子设备和第二电子设备地图数据来源的一致性,从而大大降低了协同误差。
第三方面,提供了一种增强现实场景协同的方法,方法用于第二电子设备,该方法包括:采集第二真实场景图像序列;向第一电子设备发送第二指令和第二真实场景图像序列,第二指令为用户对第二电子设备进行操作的指令;接收第一电子设备发送的第二显示图像序列;显示第二显示图像序列。
在上述技术方案中,仅第一电子设备(即主设备)需要部署AR技术能力和AR应用,第二电子设备(即协同设备)不需要有AR技术能力和AR应用,只需要具备基础的摄像拍照、交互功能与视频编解码功能,以采集第二真实场景图像,再将之传输给第一电子设备,再借用第一电子设备来处理第二真实场景图像,最后将处理后得到的第二显示图像序列传输回第二电子设备,最终物理显示在用户界面上。本申请实施例打破了现有技术中对双方设备均有技术要求的限制,让AR协同场景普适性更强。
结合第三方面,在第三方面的某些实现方式中,接收第一电子设备发送的第二显示图像序列,包括:接收第一电子设备发送的第二显示视频流;对第二显示视频流进行解码,以得到所示第二显示图像序列。
在上述技术方案中,通过将第二显示图像序列进行编码,将之压缩成视频流格式,再进行两设备间的传输,最后解压该视频流以恢复至第二显示图像序列,减少了数据传输量,这样能够减少传输时间,进而提高第一电子设备与第二电子设备之间的协同一致性。
第四方面,提供了一种用于增强现实协同的装置,该装置应用于第一电子设备,包括用于实现第二方面或第二方面中的任意一种实现方式的模块。
第五方面,提供了一种用于增强现实协同的装置,该装置应用于第二电子设备,包括用于实现第三方面或第三方面中的任意一种实现方式的模块。
第六方面,提供了一种电子设备,该电子设备包括:一个或多个处理器;一个或多个存储器;一个或多个存储器存储有一个或者多个计算机程序,一个或者多个计算机程序包括指令,当指令被一个或多个处理器执行时,使得电子设备执行如第二方面或第二方面中的任意一种实现方式中的方法。
第七方面,提供了一种电子设备,该电子设备包括:一个或多个处理器;一个或多个存储器;一个或多个存储器存储有一个或者多个计算机程序,一个或者多个计算机程序包括指令,当指令被一个或多个处理器执行时,使得电子设备执行如第三方面或第三方面中的任意一种实现方式中的方法。
第八方面,提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机指令,当计算机指令在电子设备上运行时,使得电子设备执行如第二方面或第二方面中的任意一种实现方式中的方法;或当计算机指令在电子设备上运行时,使得电子设备执行如第三方面或第三方面中的任意一种实现方式中的方法。
上述第四方面至第八方面中所涉及的装置的有益效果可以参考第一方面,为简洁,不再赘述。
附图说明
图1是本申请实施例提供的一电子设备的示意性结构图。
图2是本申请实施例提供的一电子设备的软件结构框图。
图3是本申请实施例提供的一应用场景的示意图。
图4是本申请实施例提供的一种用于AR协同的示意性结构图。
图5是本申请实施例提供的主设备的示意性工作流程图。
图6是本申请实施例提供的一种用于AR协同的示意***互图。
图7是本申请实施例提供的一种用于AR协同的示意性流程图。
图8是本申请实施例提供的另一种用于AR协同的示意***互图。
图9是本申请实施例提供的另一种用于AR协同的示意性流程图。
图10是本申请实施例提供的一种用于AR协同的方法的示意性框图。
图11是本申请实施例提供的一种用于AR协同的方法的另一示意性框图。
图12是本申请实施例提供的一种用于AR协同的装置的示意性框图。
图13是本申请实施例提供的一种用于AR协同的装置的另一示意性框图。
图14是本申请实施例提供的一种电子设备的示意性结构图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请实施例的描述中,除非另有说明,“/”表示或的意思,例如,A/B可以表示A或B;本文中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,在本申请实施例的描述中,“多个”是指两个或多于两个。
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
本申请实施例提供的增强现实(Augmented Reality,AR)协同***中的第一电子设备(即主设备)可以是具备AR技术能力(例如:AR姿态计算、AR渲染、AR环境感知等)并安装有AR协同应用的手机、平板电脑、可穿戴设备、增强现实设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本等电子设备,本申请实施例对第一电子设备的具体类型不作任何限制。
示例性的,图1示出了第一电子设备100的结构示意图。第一电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,移动通信模块150,无线通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,显示屏194,以及用户标识模块(subscriber identification module,SIM)卡接口195等。其中传感器模块180可以包括压力传感器180A,陀螺仪传感器180B,气压传感器180C,磁传感器180D,加速度传感器180E,距离传感器180F,接近光传感器180G,指纹传感器180H,温度传感器180J,触摸传感器180K,环境光传感器180L,骨传导传感器180M等。
可以理解的是,本申请实施例示意的结构并不构成对第一电子设备100的具体限定。在本申请另一些实施例中,第一电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是第一电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了***的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器180K,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器180K,使处理器110与触摸传感器180K通过I2C总线接口通信,实现第一电子设备100的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与无线通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向无线通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。I2S接口和PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与无线通信模块160。例如:处理器110通过UART接口与无线通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向无线通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与显示屏194,摄像头193等***器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(displayserial interface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现第一电子设备100的拍摄功能。处理器110和显示屏194通过DSI接口通信,实现第一电子设备100的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,显示屏194,无线通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为第一电子设备100充电,也可以用于第一电子设备100与***设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对第一电子设备100的结构限定。在本申请另一些实施例中,第一电子设备100也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过第一电子设备100的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为第一电子设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,显示屏194,摄像头193,和无线通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
第一电子设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。第一电子设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
移动通信模块150可以提供应用在第一电子设备100上的包括2G/3G/4G/5G等无线通信的解决方案。移动通信模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noise amplifier,LNA)等。移动通信模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。移动通信模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,移动通信模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,移动通信模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过显示屏194显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与移动通信模块150或其他功能模块设置在同一个器件中。
无线通信模块160可以提供应用在第一电子设备100上的包括无线局域网(wireless local area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星***(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。无线通信模块160可以是集成至少一个通信处理模块的一个或多个器件。无线通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。无线通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,第一电子设备100的天线1和移动通信模块150耦合,天线2和无线通信模块160耦合,使得第一电子设备100可以通过无线通信技术与网络以及其他设备通信。无线通信技术可以包括全球移动通讯***(global system for mobilecommunications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(code division multiple access,CDMA),宽带码分多址(wideband codedivision multiple access,WCDMA),时分码分多址(time-division code divisionmultiple access,TD-SCDMA),长期演进(long term evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。GNSS可以包括全球卫星定位***(global positioning system,GPS),全球导航卫星***(global navigation satellite system,GLONASS),北斗卫星导航***(beidou navigation satellite system,BDS),准天顶卫星***(quasi-zenithsatellite system,QZSS)和/或星基增强***(satellite based augmentation systems,SBAS)。
第一电子设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,第一电子设备100可以包括1个或N个显示屏194,N为大于1的正整数。
第一电子设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,第一电子设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当第一电子设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。第一电子设备100可以支持一种或多种视频编解码器。这样,第一电子设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现第一电子设备100的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展第一电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行第一电子设备100的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作***,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储第一电子设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
第一电子设备100可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。第一电子设备100可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当第一电子设备100接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。第一电子设备100可以设置至少一个麦克风170C。在另一些实施例中,第一电子设备100可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,第一电子设备100还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
压力传感器180A用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器180A可以设置于显示屏194。压力传感器180A的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。电容式压力传感器可以是包括至少两个具有导电材料的平行板。当有力作用于压力传感器180A,电极之间的电容改变。第一电子设备100根据电容的变化确定压力的强度。当有触摸操作作用于显示屏194,第一电子设备100根据压力传感器180A检测触摸操作强度。第一电子设备100也可以根据压力传感器180A的检测信号计算触摸的位置。在一些实施例中,作用于相同触摸位置,但不同触摸操作强度的触摸操作,可以对应不同的操作指令。例如:当有触摸操作强度小于第一压力阈值的触摸操作作用于短消息应用图标时,执行查看短消息的指令。当有触摸操作强度大于或等于第一压力阈值的触摸操作作用于短消息应用图标时,执行新建短消息的指令。
陀螺仪传感器180B可以用于确定第一电子设备100的运动姿态。在一些实施例中,可以通过陀螺仪传感器180B确定第一电子设备100围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器180B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器180B检测第一电子设备100抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消第一电子设备100的抖动,实现防抖。陀螺仪传感器180B还可以用于导航,体感游戏场景。
气压传感器180C用于测量气压。在一些实施例中,第一电子设备100通过气压传感器180C测得的气压值计算海拔高度,辅助定位和导航。
磁传感器180D包括霍尔传感器。第一电子设备100可以利用磁传感器180D检测翻盖皮套的开合。在一些实施例中,当第一电子设备100是翻盖机时,第一电子设备100可以根据磁传感器180D检测翻盖的开合。进而根据检测到的皮套的开合状态或翻盖的开合状态,设置翻盖自动解锁等特性。
加速度传感器180E可检测第一电子设备100在各个方向上(一般为三轴)加速度的大小。当第一电子设备100静止时可检测出重力的大小及方向。还可以用于识别第一电子设备姿态,应用于横竖屏切换,计步器等应用。
距离传感器180F,用于测量距离。第一电子设备100可以通过红外或激光测量距离。在一些实施例中,拍摄场景,第一电子设备100可以利用距离传感器180F测距以实现快速对焦。
接近光传感器180G可以包括例如发光二极管(LED)和光检测器,例如光电二极管。发光二极管可以是红外发光二极管。第一电子设备100通过发光二极管向外发射红外光。第一电子设备100使用光电二极管检测来自附近物体的红外反射光。当检测到充分的反射光时,可以确定第一电子设备100附近有物体。当检测到不充分的反射光时,第一电子设备100可以确定第一电子设备100附近没有物体。第一电子设备100可以利用接近光传感器180G检测用户手持第一电子设备100贴近耳朵通话,以便自动熄灭屏幕达到省电的目的。接近光传感器180G也可用于皮套模式,口袋模式自动解锁与锁屏。
环境光传感器180L用于感知环境光亮度。第一电子设备100可以根据感知的环境光亮度自适应调节显示屏194亮度。环境光传感器180L也可用于拍照时自动调节白平衡。环境光传感器180L还可以与接近光传感器180G配合,检测第一电子设备100是否在口袋里,以防误触。
指纹传感器180H用于采集指纹。第一电子设备100可以利用采集的指纹特性实现指纹解锁,访问应用锁,指纹拍照,指纹接听来电等。
温度传感器180J用于检测温度。在一些实施例中,第一电子设备100利用温度传感器180J检测的温度,执行温度处理策略。例如,当温度传感器180J上报的温度超过阈值,第一电子设备100执行降低位于温度传感器180J附近的处理器的性能,以便降低功耗实施热保护。在另一些实施例中,当温度低于另一阈值时,第一电子设备100对电池142加热,以避免低温导致第一电子设备100异常关机。在其他一些实施例中,当温度低于又一阈值时,第一电子设备100对电池142的输出电压执行升压,以避免低温导致的异常关机。
触摸传感器180K,也称“触控面板”。触摸传感器180K可以设置于显示屏194,由触摸传感器180K与显示屏194组成触摸屏,也称“触控屏”。触摸传感器180K用于检测作用于其上或附近的触摸操作。触摸传感器可以将检测到的触摸操作传递给应用处理器,以确定触摸事件类型。可以通过显示屏194提供与触摸操作相关的视觉输出。在另一些实施例中,触摸传感器180K也可以设置于第一电子设备100的表面,与显示屏194所处的位置不同。
骨传导传感器180M可以获取振动信号。在一些实施例中,骨传导传感器180M可以获取人体声部振动骨块的振动信号。骨传导传感器180M也可以接触人体脉搏,接收血压跳动信号。在一些实施例中,骨传导传感器180M也可以设置于耳机中,结合成骨传导耳机。音频模块170可以基于骨传导传感器180M获取的声部振动骨块的振动信号,解析出语音信号,实现语音功能。应用处理器可以基于骨传导传感器180M获取的血压跳动信号解析心率信息,实现心率检测功能。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。第一电子设备100可以接收按键输入,产生与第一电子设备100的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于显示屏194不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过***SIM卡接口195,或从SIM卡接口195拔出,实现和第一电子设备100的接触和分离。第一电子设备100可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时***多张卡。多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。第一电子设备100通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,第一电子设备100采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在第一电子设备100中,不能和第一电子设备100分离。
第一电子设备100的软件***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构。本申请实施例以分层架构的Android***为例,示例性说明第一电子设备100的软件结构。
图2是本申请实施例的第一电子设备100的软件结构框图。分层架构将软件分成若干个层,每一层都有清晰的角色和分工。层与层之间通过软件接口通信。在一些实施例中,将Android***分为四层,从上至下分别为应用程序层,应用程序框架层,安卓运行时(Android runtime)和***库,以及内核层。应用程序层可以包括一系列应用程序包。
如图2所示,应用程序包可以包括相机,图库,日历,通话,地图,导航,WLAN,蓝牙,音乐,视频,短信息等应用程序。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。
如图2所示,应用程序框架层可以包括窗口管理器,内容提供器,视图***,电话管理器,资源管理器,通知管理器等。
窗口管理器用于管理窗口程序。窗口管理器可以获取显示屏大小,判断是否有状态栏,锁定屏幕,截取屏幕等。
内容提供器用来存放和获取数据,并使这些数据可以被应用程序访问。数据可以包括视频,图像,音频,拨打和接听的电话,浏览历史和书签,电话簿等。
视图***包括可视控件,例如显示文字的控件,显示图片的控件等。视图***可用于构建应用程序。显示界面可以由一个或多个视图组成的。例如,包括短信通知图标的显示界面,可以包括显示文字的视图以及显示图片的视图。
电话管理器用于提供第一电子设备100的通信功能。例如通话状态的管理(包括接通,挂断等)。
资源管理器为应用程序提供各种资源,比如本地化字符串,图标,图片,布局文件,视频文件等等。
通知管理器使应用程序可以在状态栏中显示通知信息,可以用于传达告知类型的消息,可以短暂停留后自动消失,无需用户交互。比如通知管理器被用于告知下载完成,消息提醒等。通知管理器还可以是以图表或者滚动条文本形式出现在***顶部状态栏的通知,例如后台运行的应用程序的通知,还可以是以对话窗口形式出现在屏幕上的通知。例如在状态栏提示文本信息,发出提示音,电子设备振动,指示灯闪烁等。
Android Runtime包括核心库和虚拟机。Android runtime负责安卓***的调度和管理。
核心库包含两部分:一部分是java语言需要调用的功能函数,另一部分是安卓的核心库。
应用程序层和应用程序框架层运行在虚拟机中。虚拟机将应用程序层和应用程序框架层的java文件执行为二进制文件。虚拟机用于执行对象生命周期的管理,堆栈管理,线程管理,安全和异常的管理,以及垃圾回收等功能。
***库可以包括多个功能模块。例如:表面管理器(surface manager),媒体库(media libraries),三维图形处理库(例如:OpenGL ES),2D图形引擎(例如:SGL)等。
表面管理器用于对显示子***进行管理,并且为多个应用程序提供了2D和3D图层的融合。
媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,例如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。
三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。
2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。内核层至少包含显示驱动,摄像头驱动,音频驱动,传感器驱动。
硬件层可以包括各类传感器,例如图1中介绍的各类传感器,在本申请实施例中涉及的传感器有接近传感器、图像传感器、毫米波雷达传感器、激光雷达传感器、超声波雷达传感器、重力传感器、陀螺仪传感器等。
应理解,本申请实施例可以适用于Android、IOS或者鸿蒙等***中。
以上结合图1和图2说明了适用于本申请的第一电子设备的硬件和软件的结构图,以下结合图3至图14详细说明本申请的一种用于增强现实协同的***和方法。
为了使本申请的技术问题、技术方案和技术效果更加清楚,首先对本申请涉及的若干个专有名词进行简介:
一、增强现实(Augmented Reality,AR)
增强现实是指将虚拟信息与真实世界进行巧妙融合。例如,通过电子设备的摄像头或其他装置实时采集真实场景的视频或者图像,接着利用例如SLAM算法对采集到的视频或者图像进行处理并生成真实场景环境地图,再将实时采集的真实场景的视频或者图像传入电子设备后台的处理单元,处理单元将对其进行分析和重构,并结合真实场景环境地图来分析虚拟场景和真实场景的相对位置,实现坐标系的对齐并进行虚拟场景和真实场景的实时叠加,同时,虚实结合后的场景可以实时地显示在用户眼前,用户可以通过交互设备对虚实结合场景进行交互操作。
二、协同式增强现实(collaborative augmented reality,CAR)
CAR是增强现实技术的重要组成部分,它能够使多个用户感受虚拟对象与真实场景融为一体的共享增强现实场景,并在各自的电子设备上进行各种交互操作和协同工作,共同完成预定任务。为有助于理解CAR技术,以下结合具体例子进行举例说明。
(1)利用协同式增强现实技术研制的“书本”,既可以让老师和同学们直接阅读书中文字,也可以在增强现实显示设备上观察真实场景,感知由书本内容生成的虚拟对象事件过程,还可以协同操作书中的各种虚拟对象,进行各种互动式交流。
(2)在基于协同式增强现实的产品设计***中,分布在不同地点的用户在不同的视点观察增强现实场景,交流并试验各种产品设计思想,在真实的设计实验环境(视频图像控件)中协同设计虚拟产品。
(3)利用协同式增强现实技术可以实现多位用户协同AR点餐,多位用户中的一位用户利用电子设备点餐后,该餐品会出现在该用户的电子设备显示屏上,其余用户也可通过各自的电子设备看到该餐品,从而实现协同式AR点餐。
三、同步定位与地图构建(Simultaneous Localization and Mapping,SLAM)
电子设备从未知环境的未知地点出发,在移动过程中通过重复观测到的地图特征(比如:墙角、柱子等)定位自身位置和姿态,再根据自身位置增量式的构建真实场景地图,从而达到同时定位自身和构建真实场景地图的目的。
四、视口
视口由电子设备在AR场景中的位置和姿态而确定,可以反映使用该电子设备的用户在AR场景中的视角,即电子设备的拍摄视角,从而将虚拟的3D模型变换为电子设备拍摄视角下的二维图片。
图3示出了本申请实施例提供的一种用于AR协同的***和方法的应用场景的示意图。
如图3所示,两个用户进行AR协同,其中,A用户手持第一电子设备,B用户手持第二电子设备,两位用户都处于同一个真实场景中,但处于不同的位置,例如两位用户都手持各自的电子设备站在同一个房间中,A用户站在房间偏西的位置,B用户则站在同一个房间偏东的位置。
值得注意的是,本申请实施例提供的用于AR协同的***和方法并不限于两位用户,即可以实现第一电子设备和第二电子设备之间的协同,也可实现两位以上用户即多设备之间的AR协同。
图4示出了本申请实施例提供的一种用于AR协同的***和方法的示意性结构图。
如图4所示,该用于AR协同的***由第一电子设备与第二电子设备组成,其中第一电子设备具备AR技术能力(例如:AR姿态计算、AR渲染、AR环境感知等)并安装有AR协同应用,第二电子设备不需要具备AR技术能力,也不需要安装AR协同应用。
具体地,第一电子设备(即主设备)具备AR姿态计算、AR渲染、AR环境感知等AR技术能力,以及拍摄、AR交互、视频编解码等基础能力,还安装有AR协同应用。第二电子设备(即协同设备)具备拍摄、AR交互以及视频编解码等大部分智能电子设备都拥有的基础能力。
以下详细介绍在本申请实施例的第一电子设备与第二电子设备中各个模块在AR协同中的功能。
1、拍摄:利用如图1中第一电子设备的摄像头193和第二电子设备的摄像头对用户所处的真实场景进行实时拍摄,并将拍摄到的图像序列传输到其他模块中。
一个实施例中,可以利用每秒传输15帧、30帧或60帧的摄像头来拍摄用户所处的真实场景。
2、AR环境感知:通过例如SLAM算法对摄像头实时拍摄到的能反映真实场景的图像序列进行分析,以得到该图像序列的视觉特征,之后估计出该图像序列的深度信息,进而构建出基于摄像头实时拍摄的当前真实场景的地图,该地图可以用于后续AR姿态计算和AR渲染。
可以理解,由于拍摄是实时进行的,真实场景的地图可以随着摄像头拍摄场景的扩大而不断得到扩充,也就是说AR协同的真实场景范围可以不断扩大。
一个实施例中,当前真实场景的地图可以是稀疏地图,也可以是稠密地图。
3、AR协同应用:就是安装在第一电子设备(即主设备)上的用于AR协同的一种应用程序(application,APP),不同的协同业务需要靠不同的AR协同应用来完成。
4、AR渲染:将虚拟的三维空间(3Dimensions,3D)的场景转化为二维图像的过程,该二维图像是需要叠加在真实场景图上的虚拟画面,在叠加后虚拟画面和真实场景图有重叠的部分,要保证虚拟画面能够遮挡住后面的真实场景图。
5、AR交互:主要指用户对AR模型中的某个或几个对象或整个AR模型进行选中、拖拽、缩放和旋转等常见的交互操作。
6、视频编解码:编码指将图像序列压缩成视频,可以显著降低数据大小;解码指将压缩好的视频再解压缩成图像序列。
本申请实施例中视频编解码的对象可以是通用格式为H264或H265的视频。
本申请实施例提供的用于AR协同的***和方法并不限于两位用户,即并不限于第一电子设备和第二电子设备之间的协同,也可以实现两位以上用户,即多个电子设备之间的AR协同。在这种情况下,依旧只需要一个设备具备AR技术能力和安装AR应用,其余的设备都可称之为协同设备,只需要具备基础的拍摄、AR交互以及视频编解码能力即可。
由于本申请实施例的AR技术都由第一电子设备(即主设备)来承担,以下将对第一电子设备的技术过程展开说明。
图5示出了本申请实施例提供的第一电子设备(即主设备)的示意性工作流程图。
在两个智能设备开展AR协同之前,需要先建立起数据连接来实现两设备之间的数据传输。
示例性的,可以通过无线局域网(wireless fidelity,Wi-Fi)或者Wi-Fi直连设备间组网来实现两设备之间的数据传输,也可以通过其他通信方式实现两设备之间的数据传输,本申请对此不做限制。
如图5所示,第一电子设备(即主设备)可以通过拍摄实时采集真实场景的图像序列,可以称之为第一真实场景图像序列,再将第一真实场景图像序列导入AR环境感知单元中,通过分析该实时采集到的第一真实场景图像序列,抽取视觉关键点,进而生成真实场景地图,也可以称之为环境地图。得到环境地图后,电子设备可以结合实时采集到的第一真实场景图像序列和环境地图,识别出其中的锚点,进而计算出第一电子设备自身的位置与姿态,这里位置具体是指第一电子设备处在环境地图中的位置,姿态具体是指第一电子设备在环境地图中的朝向。
AR协同应用接收实时采集的真实场景图像序列,同时AR协同应用也提供预置好的AR模型,用户通过AR交互可以对虚拟的3D场景进行变换,具体可以是对AR模型中的一个虚拟对象、多个虚拟对象或者整个AR模型进行选中、拖拽、旋转、缩放等操作,变换后的AR模型将导入AR渲染中,主设备将根据锚点以及设备自身的位置与姿态生成合适的视口,在该视口下将虚拟的AR模型渲染成二维画面,再与实时拍摄到的真实场景图像序列相叠加。若叠加后的画面是用于显示在第二电子设备上的画面,则主设备可以将叠加后的图像进行编码,将之压缩成视频,以减少数据大小,再将视频传输至第二电子设备。
以下将结合图6至图9对两个设备如何进行AR协同进行说明。
图6示出了本申请实施例提供的一种用于AR协同的示意***互图。
第一电子设备(即主设备)具备AR技术能力并安装有AR协同应用,无论是第一电子设备最终呈现在用户面前的显示画面还是第二电子设备最终呈现在用户面前的显示画面都是由第一电子设备中的AR协同应用渲染得到的,但是许多AR协同应用是不支持多视口渲染的,即既要以第一电子设备的视口对虚拟3D场景中的AR模型进行渲染,同时又要以第二电子设备(即协同设备)的视口对同一个AR模型进行渲染。在这种情况下,如图6所示,第一电子设备需要安装两个AR协同应用,即第一AR应用与第二AR应用,第一AR应用在前台显示,用于以第一电子设备的视口对AR模型进行渲染,第二AR应用在后台运行,用于以第二电子设备的视口对AR模型进行渲染。
具体地,如图6所示,第一AR应用所使用的真实场景图像序列是通过第一电子设备的摄像头所采集的,第一AR应用输出的渲染画面是第一电子设备最终显示在用户面前的,且该画面会直接显示在第一电子设备的物理显示屏上。第二AR应用所使用的真实场景图像序列是通过第二电子设备的摄像头所采集的,再传输至第二AR应用中,第二AR应用输出的渲染画面是第二电子设备最终显示在用户面前的,但是该渲染画面还需要由第一电子设备传输至第二电子设备,最后在第二电子设备的物理显示屏上显示。
图7是本申请实施例提供的一种AR协同的示意性流程图。
第一电子设备利用自身的摄像头或外接摄像头等拍摄装置对第一电子设备(即主设备)所在的空间进行实时拍摄,以采集到第一电子设备所在空间的真实场景图像序列,即第一真实场景图像序列。第一电子设备利用第一真实场景图像序列对拍摄到的空间进行扫描和计算,以识别出第一真实场景图像序列中的关键视觉特征和空间信息,接着利用关键视觉特征和空间信息来生成真实场景的地图,即环境地图。
值得注意的是,拍摄可以是实时进行的,第一电子设备会不断接收到新的第一真实场景图像序列,后续也将根据这些实时拍摄到的新的图像序列来不断补充或扩充环境地图。
可以理解,上述的第一真实环境图像序列除了用于获取真实环境地图,还可以用于当做后续渲染的真实环境背景。
与第一电子设备类似,第二电子设备也会利用自身的摄像头等拍摄装置对第二电子设备所在的空间进行拍摄,以采集到第二电子设备所在空间的真实场景图像序列,即第二真实场景图像序列。但是由于第二电子设备并不具备AR技术能力,也未安装用于协同的AR应用,因此第二电子设备还需将第二真实场景图像序列传输至第一电子设备中,利用第一电子设备的AR技术能力和AR应用对第二真实场景图像序列进一步处理。
可以理解,上述第二真实环境图像序列用于当做后续第二AR应用渲染虚拟的AR模型的真实环境背景。
值得注意的是,第一电子设备与第二电子设备处在同一个空间中,但是两个电子设备在同一个空间中的不同位置。两个电子设备在拍摄同一个空间中的同一个对象时,拍摄的角度有所不同,因此最终呈现在用户面前的画面并不相同。
一个实施例中,考虑到图像序列数据量较大,因此在传输之前,第二电子设备可以先将第二真实图像序列进行编码,将之压缩为视频流,再利用Wi-Fi等近场传输方式传输给第一电子设备,这样可以明显降低需要传输的数据量,从而提升传输速度。
对应地,第一电子设备在接收该视频流之前,需要先将该视频流进行解码,将之恢复至第二真实图像序列,再对该图像序列进行AR处理。
如图7所示,在得到环境地图后,第一电子设备将实时拍摄到的第一真实环境图像序列、来自于第二电子设备的第二真实图像序列分别与环境地图进行比对,并进行匹配计算,从而计算出当前第一电子设备与第二电子设备各自在环境地图中的位置与姿态。
第一电子设备得到两电子设备各自在真实环境中的位置与姿态后,第一电子设备会将之转换成两设备各自的视口信息,即第一电子设备的第一视口信息和第二电子设备的第二视口信息。
由于第一电子设备和第二电子设备处于同一个真实空间,即基于同一个环境地图,因此对于第一电子设备和第二电子设备来说,它们的世界坐标系本质来说是同一个,因此两设备在观测环境地图中的同一个对象时,观测对象在第一电子设备和第二电子设备各自的世界坐标系中的坐标、大小以及形状是一致的,只是由于第一电子设备和第二电子设备所处的位置不一样,所以观测视口不一致。
第一电子设备利用第一AR应用可以根据第一视口信息渲染在第一电子设备视角下第一AR模型,得到二维的第一AR模型的图像后,将之与实时拍摄到的第一真实图像序列进行叠加,以得到第一显示图像序列,后续该图像序列会直接显示在第一电子设备的物理显示屏上。
类似的,第一电子设备中的第二AR应用还需要根据第二视口信息渲染在第二电子设备视角下第二AR模型,得到第二AR模型的二维图像后,再将之与实时拍摄到的第二真实图像序列进行叠加,以得到第二显示图像序列。由于第二显示图像序列是需要显示在第二电子设备上的,所以在第一电子设备得到第二显示图像序列后,先以虚拟显示的形式存在于第一电子设备中,后续还需要将第二显示图像序列传输至第二电子设备,这样第二电子设备才能在自己的物理显示屏上显示第二显示图像序列。
其中,第一AR模型和第二AR模型可以相同,这里的相同指AR模型中虚拟对象的数量、大小、形状均相同,且所有虚拟对象的相对位置也相同。
一个实施例中,考虑到第二显示图像序列数据量较大,因此在传输之前,第一电子设备可以先将该第二显示图像序列进行编码,将之压缩为视频流,再利用Wi-Fi等近场传输方式传输给第二电子设备,这样可以明显降低需要传输的数据量,从而提升传输速度。
对应地,第二电子设备在接收该视频流之后,需要先将该视频流进行解码,即将之恢复至第二显示图像序列,再在第二电子设备的物理显示屏上显示第二显示图像序列。
看到电子设备上的显示画面后,用户可以选中显示画面上AR模型中的虚拟对象,也可以进一步旋转或者拖拽该虚拟对象,还可以缩小或者放大该虚拟对象。
一个实施例中,用户可以使用触屏方式选中AR模型中的虚拟对象,也可以使用鼠标等输入装置点击AR模型中的虚拟对象以选中该虚拟对象,选中方式根据第一电子设备的类型做适应性变化,本申请对此不做限制。
一个实施例中,用户可以对AR模型中的一个或多个虚拟对象进行诸如选中、旋转、拖拽或缩放操作,也可以对该AR模型整体上进行同样的操作,本申请对此不做限制。
对于使用第一电子设备的用户来说,用户通过触屏等方式可以对第一AR模型进行上述的任何操作,该操作会以第一指令的形式传入第一AR应用,第一AR应用会根据该第一指令对第一AR模型进行相应的变化或者更新。
类似地,对于使用第二电子设备的用户来说,用户也可以通过触屏等方式对第二AR模型进行上述选中、旋转、拖拽或缩放等任何操作,该操作会以第二指令的形式传入第二AR应用。与第一指令有所不同的是,第二电子设备需要先将第二指令传输给第一电子设备,第一电子设备才能将第二指令传入第二AR应用,接着,第二AR应用会根据该第二指令对第二AR模型进行相应的变化或者更新。
可以理解,想要实现两位或多位用户之间精准的AR协同,必须保证这些用户所看到的AR模型是一致的,只是观测角度不一样,即任意一个用户对模型所做的变化另一个用户都需要同步看到。
示例性地,当使用第一电子设备的用户通过第一AR应用对第一AR模型中的某个虚拟对象做了旋转以及拖拽操作后,该虚拟对象在这个世界坐标系中的姿态以及坐标都发生了改变,若不同步该变化至第二AR应用中的第二AR模型,那么使用第二电子设备的用户在物理显示屏上将看不到此变化,也就无法完成AR协同,所以两个AR应用各自的AR模型在空间中的位置、形状以及大小都要保持一致。
因此,第一指令也会影响第二AR应用中的第二AR模型,即第一AR应用会将对第一AR模型所做的任何变化或者更新都同步给第二AR应用,第二AR应用会把上述所有的变化或者更新都同步在第二AR模型上。
类似地,第二指令也会影响第一AR应用中的第一AR模型,即第二AR应用将对第二AR模型所做的任何变化或者更新都同步给第一AR应用,第一AR应用会把上述所有的变化或者更新都同步在第一AR模型上。
变化或者更新后的AR模型仍旧会被渲染,直至最终呈现在用户面前,照此不断来实现多用户之间的AR协同。
可以理解,利用本申请实施例提供的用于AR协同的方法,也可以实现三个或三个以上电子设备间的AR协同,在此情况下,至少需要一个电子设备(即主设备)具备AR技术能力并安装有AR协同应用,其他电子设备(即协同设备)可以不需要具备AR技术能力以及安装AR协同应用,只需要具备拍摄、AR交互以及视频编解码等基础能力,同样可以借用主设备的AR技术能力和与协同设备数量相同的AR协同应用来实现多设备间的AR协同,本申请对此不做限制。
在本申请实施例中,只需要第一电子设备(即主设备)具备AR渲染、AR环境感知、AR姿态计算等AR技术能力并安装AR协同应用,其它设备只需要具备非常基础的交互功能、拍摄功能以及视频编解码功能便可实现两个或者多个电子设备之间的AR协同,打破了现有技术中对双方设备均有技术要求的限制,显著提高了AR协同的普适性与便利性。另外,使用同一个真实环境地图分别获取第一电子设备和第二电子设备的视口信息,这样不存在协同误差,提高了用户的使用体验。
图8示出了本申请实施例提供的另一种用于AR协同的***的示意***互图。
在本申请实施例中,与上一个实施例相同的部分是:第一电子设备(即主设备)具备AR技术能力,无论是第一电子设备最终呈现在用户面前的显示画面还是第二电子设备最终呈现在用户面前的显示画面都是第一电子设备中的AR协同应用渲染得到的;与上一个实施例不同的是:本实施例中的AR协同应用支持多视口渲染,即既要以第一电子设备的视口对虚拟3D场景中的AR模型进行渲染,同时又要以第二电子设备的视口对同一个AR模型进行渲染。在这种情况下,如图8所示,第一电子设备只需要安装一个AR协同应用。
具体地,如图8所示,当安装在第一电子设备中的AR协同应用支持多视口渲染时,AR协同应用同时启用两个视口对虚拟3D场景进行渲染,因此该AR协同应用将会输出两种用于显示的图像序列,即第一显示图像序列和第二显示图像序列,第一显示图像序列将会直接显示在第一电子设备的物理显示屏上,而第二显示图像序列还需要传输至第二电子设备,在第二电子设备的物理显示屏上显示。
图9是本申请实施例提供的另一种AR协同的示意性流程图。
第一电子设备利用自身的摄像头等拍摄装置对第一电子设备(即主设备)所在的空间进行实时拍摄,以采集到第一电子设备所在空间的真实场景图像序列,即第一真实场景图像序列。第一电子设备利用第一真实场景图像序列对拍摄到的空间进行扫描和计算,以识别出第一真实场景图像序列的关键视觉特征和空间信息,接着利用该关键视觉特征和空间信息来生成真实环境地图,即环境地图。
值得注意的是,拍摄可以是实时进行的,第一电子设备会不断接收到新的第一真实场景图像序列,后续也将根据这些实时拍摄到的新的图像序列来不断补充或扩充环境地图。
可以理解,上述的第一真实环境图像序列除了用于获取真实环境地图,还可以用于当做后续渲染的真实环境背景。
与第一电子设备类似,第二电子设备也会利用自身的摄像头等拍摄装置对第二电子设备所在的空间进行拍摄,以采集到第二电子设备所在空间的真实场景图像序列,即第二真实场景图像序列。但是由于第二电子设备并不具备AR技术能力,也未安装AR协同应用,因此还需将该第二真实场景图像序列传输至第一电子设备中,由第一电子设备利用其AR技术能力和AR协同应用对第二真实场景图像序列进一步处理。
可以理解,上述第二真实环境图像序列可以用于后续AR协同应用渲染AR模型的真实环境背景。
值得注意的是,第一电子设备与第二电子设备处在同一个空间中,但是两个电子设备在同一个空间中的不同位置。两个电子设备在拍摄同一个空间中的同一个对象时,拍摄的角度有所不同,因此最终呈现在用户面前的画面并不相同。
一个实施例中,考虑到图像序列数据量较大,因此在传输之前,第二电子设备可以先将该第二真实图像序列进行编码,将之压缩为视频流,再利用Wi-Fi等近场传输方式传输给第一电子设备,这样可以明显降低需要传输的数据量,从而提升传输速度。
对应地,第一电子设备在接收该视频流之前,需要先将该视频流进行解码,将之恢复至第二真实图像序列,再对该图像序列进行处理。
如图9所示,在得到环境地图后,第一电子设备将实时拍摄到的第一真实环境图像序列、来自于第二电子设备的第二真实图像序列分别与真实环境地图进行比对,并进行匹配计算,从而计算出当前第一电子设备与第二电子设备各自在环境地图中的位置与姿态。
第一电子设备得到两电子设备各自在真实环境中的位置与姿态后,第一电子设备会将之转换成两设备各自的视口信息,即第一电子设备的第一视口信息和第二电子设备的第二视口信息。
由于第一电子设备和第二电子设备处于同一个真实空间,即基于同一个环境地图,因此对于第一电子设备和第二电子设备来说,它们的世界坐标系本质来说是同一个,因此两设备在观测环境地图中的同一个对象时,观测对象在第一电子设备和第二电子设备各自的世界坐标系中的坐标、大小以及形状是一致的,只是观测视口不一致。
第一电子设备利用AR协同应用可以根据第一视口信息渲染在第一电子设备视角下AR模型,得到二维AR模型的图像后,将之与实时拍摄到的第一真实图像序列进行叠加,以得到第一显示图像序列,后续该图像序列会直接显示在第一电子设备的物理显示屏上。
类似的,第一电子设备中的AR协同应用还需要根据第二视口信息渲染在第二电子设备视角下的AR模型,与上一个实施例不同的是,这里根据第二视口信息渲染该AR模型时,需要采用离屏渲染的方式。得到二维AR模型的图像后,再将之与实时拍摄到的第二真实图像序列进行叠加,以得到第二显示图像序列。由于第二显示图像序列是需要显示在第二电子设备上的,所以在得到第二显示图像序列后,它先以虚拟显示的形式存在于第一电子设备中,即不直接显示,后续还需要将第二显示图像序列传输至第二电子设备,这样第二电子设备才能在自己的物理显示屏上显示第二显示图像序列。
与上一个实施例不同的是,本实施例中的AR协同应用具备多视口渲染能力,因此,只需要以两个视口分别对同一个AR模型进行渲染即可。
一个实施例中,考虑到第二显示图像序列数据量较大,因此在传输之前,第一电子设备可以先将该第二显示图像序列进行编码,将之压缩为视频流,再利用Wi-Fi等近场传输方式传输给第二电子设备,这样可以明显降低需要传输的数据量,从而提升传输速度。
对应地,第二电子设备在接收该视频流之前,需要先将该视频流进行解码,将之恢复至第二显示图像序列,再在第二电子设备的物理显示屏上显示该图像序列。
看到电子设备上的显示画面后,用户可以点击选中显示画面上AR模型中的虚拟对象,也可以进一步旋转或者拖拽该虚拟对象,还可以缩小或者放大该虚拟对象。
一个实施例中,用户可以使用触屏方式选中AR模型中的虚拟对象,也可以使用鼠标等输入装置点击AR模型中的虚拟对象以选中该虚拟对象,选中方式根据第一电子设备的类型做适应性变化,本申请对此不做限制。
一个实施例中,用户可以对AR模型中的一个或多个虚拟对象进行诸如选中、旋转、拖拽或缩放操作,也可以对该AR模型整体上进行以上操作,本申请对此不做限制。
对于使用第一电子设备的用户来说,用户通过触屏等方式可以对AR模型进行上述的任何操作,该操作会以第一指令的形式传入AR协同应用,AR协同应用会根据该第一指令对AR模型进行相应的变化或者更新。
类似地,对于使用第二电子设备的用户来说,用户也可以通过触屏等方式对AR模型进行上述选中、旋转、拖拽或缩放等任何操作,该操作会以第二指令的形式传入AR协同应用。与第一指令有所不同的是,第二指令需要先由第二电子设备传输给第一电子设备,第一电子设备才能将该第二指令传入AR协同应用,接着,第一电子设备中的AR协同应用会根据该第二指令对AR模型进行相应的变化或者更新。
示例性地,由于使用第一电子设备的用户与使用第二电子设备的用户是以不同的视角来观测同一个AR模型的,因此交互的角度也有所不同,即第一电子设备收到来自于第二电子设备的第二指令后,可以先根据第二电子设备在同一空间中所处的位置与姿态将第二指令映射成与第一电子设备同一交互角度下的交互指令,再根据该交互指令对AR模型进行相应的变化或者更新。
变化或者更新后的AR模型仍旧会被渲染,直至最终呈现在用户面前,照此不断来实现多用户之间的AR协同。
可以理解,利用本申请实施例提供的用于AR协同的方法,也可以实现三个或三个以上电子设备间的AR协同,在此情况下,至少需要一个电子设备(即主设备)具备AR技术能力并安装有AR协同应用,其他电子设备(即协同设备)不需要具备AR技术能力以及安装AR协同应用,只需要具备拍摄、AR交互以及视频编解码等基础能力,同样可以借用主设备的AR技术能力和AR协同应用来实现多设备间的AR协同,本申请对此不做限制。
在本申请实施例中,只需要第一电子设备(即主设备)具备AR渲染、AR环境感知、AR姿态计算等AR技术能力并安装AR协同应用,其它设备(即协同设备)只需要具备非常基础的交互功能、拍摄功能以及视频编解码功能便可实现两个或多个电子设备之间的AR协同,打破了现有技术中对双方设备均有技术要求的限制,显著提高了AR协同的普适性与便利性。另外,使用同一个真实环境地图同时去获取第一电子设备和第二电子设备的视口信息,这样不存在协同误差,提高了用户的使用体验。最后,本申请实施例只需要启用一个AR应用便可实现两设备间的AR协同,能够节省第一电子设备的***资源开销。
图10示出了本申请实施例提供的一种用于AR协同的方法的示意图。
如图10所示的方法200由上述实施例中的第一电子设备执行,第一电子设备可以是图1所示的第一电子设备100。如图10所示,该方法200包括步骤S210至步骤S240。
S210,接收第二电子设备发送的第二指令和第二真实场景图像序列,第二指令为第二用户对第二电子设备进行操作的指令。
可选地,接收第二电子设备发送的第二真实场景图像序列,包括:接收第二电子设备发送的第二真实场景视频流;对第二真实场景视频流进行解码,以得到第二真实场景图像序列。
S220,根据第一指令、第二指令以及第二AR模型确定第三AR模型,第二AR模型为第一电子设备预置的三维AR模型,第三AR模型为第二AR模型变换后的模型,第一指令为第一用户对第一电子设备进行操作的指令。
S230,根据第二真实场景图像序列、第二视口信息以及第三AR模型,确定第二显示图像序列,第二视口信息用于确定第二电子设备的视口。
可选地,方法200还包括:获取第二电子设备的位置与姿态;根据第二电子设备的位置与姿态,获取第二视口信息。
本申请实施例中,第一电子设备可以根据第二电子设备实时获取的第二电子设备的位置与姿态,获取到第二电子设备的第二视口信息,根据该信息可以知晓第二电子设备在AR场景中实时观察AR模型的视角,提高了第二电子设备显示的实时性与真实性。
可选地,第二视口信息也可以是以其他方式所获取的,本申请对此不做限制。
可选地,获取第二电子设备的位置与姿态,包括:根据第一真实场景图像序列,获取环境地图;根据环境地图与第二真实场景图像序列,获取第二电子设备的位置与姿态。
本申请实施例中,使用第一电子设备内生成的环境地图去匹配第二电子设备在该环境地图中的位置和姿态信息,保证了两设备环境地图数据来源的一致性,从而大大降低了协同误差。
可选地,还可以根据第二电子设备所拍摄的第二真实场景图像序列获取环境地图,本申请对此不做限制。
S240,向第二电子设备发送第二显示图像序列。
可选地,向第二电子设备发送第二显示图像序列,包括:对第二显示图像序列进行编码,以得到第二显示视频流;向第二电子设备发送第二显示视频流。
本申请实施例中,第一电子设备通过将第二显示图像序列进行编码,将之压缩成视频流格式,再传输至第二电子设备,这样减少了数据传输量,因此能够减少传输时间,进而提高第一电子设备与第二电子设备之间协同的一致性。
可以理解,在数据传输通道传输图像序列所用时间短的情况下,也可以直接向第二电子设备发送第二显示图像序列,本申请对此不做限制。
可选地,该方法还可以包括:根据第一指令、第二指令以及第一AR模型确定第四AR模型;根据第一真实场景图像序列、第一视口信息以及第四AR模型确定第一显示图像序列;显示第一显示图像序列。其中,第一视口信息用于确定第一电子设备的视口,第一AR模型与第二AR模型相同,第四AR模型为第一AR模型变换后的模型。
本申请实施例中,仅第一电子设备需要部署AR技术能力和AR应用,第二电子设备不需要具备AR技术能力,也不需要安装AR应用,只需要具备基础的拍摄功能、交互功能与视频编解码功能,即可实现第一电子设备与第二电子设备间的AR协同,打破了现有技术中对双方设备均有技术要求的限制,让AR协同场景普适性更强。可选地,该方法还可以包括:根据第一真实场景图像序列、第一视口信息以及第三AR模型,确定第一显示图像序列;显示第一显示图像序列。其中,第一视口信息用于确定第一电子设备的视口。
本申请实施例中,当AR应用支持多视口渲染能力时,只启动一个AR应用来完成和第二电子设备的AR协同,降低了协同误差。
可选地,该方法还包括:获取第一电子设备的位置与姿态;根据第一电子设备的位置与姿态,获取第一视口信息。
本申请实施例中,第一电子设备可以根据实时获取的自身的位置与姿态,获取到自身的第一视口信息,根据该信息可以知晓第一电子设备在AR场景中实时观察AR模型的视角,提高了第一电子设备显示的实时性与真实度。
可选地,第一视口信息也可以是以其他方式所获取的,本申请对此不做限制。
可选地,获取第一电子设备的位置与姿态,包括:根据第一真实场景图像序列,获取环境地图;根据环境地图与第一真实场景图像序列,获取第一电子设备的位置与姿态。
本申请实施例中,使用第一电子设备内生成的环境地图去匹配第一电子设备在该环境地图中的位置和姿态信息,保证了第一电子设备和第二电子设备地图数据来源的一致性,从而大大降低了协同误差。
可选地,还可以根据第二电子设备所拍摄的第二真实场景图像序列获取环境地图,本申请对此不做限制。
本申请实施例提供的用于AR协同的方法200中,仅第一电子设备(即主设备)需要部署AR技术能力和AR应用,第二电子设备(即协同设备)不需要有AR技术能力和AR应用,只需要具备基础的摄像拍照、交互功能与视频编解码功能,借用第一电子设备来实现自身所需要的AR技术即可实现两个电子设备之间的AR协同,打破了现有技术中对双方设备均有技术要求的限制,让AR协同场景普适性更强。
图11示出了本申请实施例提供的一种用于AR协同的方法的另一示意性框图。
如图11所示的方法300由第二电子设备执行,第二电子设备可以是任何具备拍摄功能、交互功能与视频编解码功能的电子设备,本申请对此不做限制。如图11所示,该方法300包括步骤S310至步骤S340。
S310,采集第二真实场景图像序列;
S320,向第一电子设备发送第二指令和第二真实场景图像序列,第二指令为用户对第二电子设备进行操作的指令;
S330,接收第一电子设备发送的第二显示图像序列;
S340,显示第二显示图像序列。
可选地,接收第一电子设备发送的第二显示图像序列,包括:接收第一电子设备发送的第二显示视频流;对第二显示视频流进行解码,以得到所示第二显示图像序列。
可以理解的是,第一电子设备和第二电子设备为了实现上述功能,其包含了执行各个功能相应的硬件和/或软件模块。结合本文中所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以结合实施例对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本实施例可以根据上述方法示例对电子设备进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
在采用对应各个功能划分各个功能模块的情况下,图12示出了本申请实施例提供的装置1200的示意性框图。该装置1200可以设置于上述方法实施例中的第一电子设备中,该装置1200包括:
接收模块1210,用于接收第二电子设备发送的第二指令和第二真实场景图像序列,第二指令为第二用户对第二电子设备进行操作的指令;
第一确定模块1220,用于根据第一指令、第二指令以及第二AR模型确定第三AR模型,第二AR模型为第一电子设备预置的三维AR模型,第三AR模型为变换后的第二AR模型,第一指令为第一用户对第一电子设备进行操作的指令;
第二确定模块1230,用于根据第二真实场景图像序列、第二视口信息以及第三AR模型,确定第二显示图像序列,第二视口信息用于确定第二电子设备的视口;
发送模块1240,用于向第二电子设备发送第二显示图像序列。
可选地,第二确定模块1230还用于获取第二电子设备的位置与姿态;根据第二电子设备的位置与姿态,获取第二视口信息。
可选地,第二确定模块1230还用于根据第一真实场景图像序列,获取环境地图;和根据环境地图与第二真实场景图像序列,获取第二电子设备的位置与姿态。
可选地,发送模块1240还用于对第二显示图像序列进行编码,以得到第二显示视频流;向第二电子设备发送第二显示视频流。
可选地,当第一电子设备中的第二AR应用不具备多视口渲染能力时:第一确定模块1220还用于根据第一指令、第二指令以及第一AR模型确定第四AR模型,第一AR模型与第二AR模型相同,第四AR模型为变换后的第一AR模型;第二确定模块1230还用于根据第一真实场景图像序列、第一视口信息以及第四AR模型,确定第一显示图像序列,第一视口信息用于确定第一电子设备的视口;装置1200还可以包括显示模块1250,用于显示第一显示图像序列。
可选地,当第一电子设备中的第二AR应用具备多视口渲染能力时:第二确定模块1230还用于根据第一真实场景图像序列、第一视口信息以及第三AR模型,确定第一显示图像序列,第一视口信息用于确定第一电子设备的视口;装置1200还可以包括显示模块1250,用于显示第一显示图像序列。
可选地,第二确定模块1230还可以用于获取第一电子设备的位置与姿态;根据第一电子设备的位置与姿态,获取第一视口信息。
可选地,第二确定模块1230还可以用于根据第一真实场景图像序列,获取环境地图;根据环境地图与第一真实场景图像序列,获取第一电子设备的位置与姿态。
图13示出了本申请实施例提供的装置1300的示意性框图。该装置1300可以设置于上述方法实施例中的第二电子设备中,该装置1300包括:
获取模块1310,用于采集第二真实场景图像序列;
发送模块1320,用于向第一电子设备发送第二指令和第二真实场景图像序列,第二指令为用户对第二电子设备进行操作的指令;
接收模块1330,用于接收第一电子设备发送的第二显示图像序列;
显示模块1340,用于显示第二显示图像序列。
可选地,发送模块1320还用于接收第一电子设备发送的第二显示视频流;对第二显示视频流进行解码,以得到第二显示图像序列。
图14示出了本申请实施例提供的电子设备1400的示意性结构图。如图14所示,该电子设备包括:一个或多个处理器1410,一个或多个存储器1420,该一个或多个存储器存储1420存储有一个或多个计算机程序,该一个或多个计算机程序包括指令。当该指令被一个或多个处理器1410运行时,使得第一电子设备或者第二电子设备执行上述实施例中的技术方案。
本申请实施例提供了一种***,包括第一电子设备与第二电子设备,该***用于执行上述实施例中的技术方案。其实现原理和技术效果与上述方法实施例类似,此处不再赘述。
本申请实施例提供一种计算机程序产品,当计算机程序产品在第一电子设备上运行时,使得第一电子设备执行上述实施例中对应的技术方案。其实现原理和技术效果与上述方法实施例类似,此处不再赘述。
本申请实施例提供一种计算机程序产品,当计算机程序产品在第二电子设备上运行时,使得第二电子设备执行上述实施例中对应的技术方案。其实现原理和技术效果与上述方法实施例类似,此处不再赘述。
本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机指令,当计算机指令在第一电子设备上运行时,使得第一电子设备执行上述实施例中对应的技术方案。其实现原理和技术效果与上述方法实施例类似,此处不再赘述。
本申请实施例提供一种计算机可读存储介质,该计算机可读存储介质存储有计算机指令,当计算机指令在第二电子设备上运行时,使得第二电子设备执行上述实施例中对应的技术方案。其实现原理和技术效果与上述方法实施例类似,此处不再赘述。
通过以上实施方式的描述,所属领域的技术人员可以了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (21)
1.一种用于增强现实协同的***,其特征在于,所述***包括第一电子设备和第二电子设备,其中,
所述第二电子设备,用于向所述第一电子设备发送第二指令和第二真实场景图像序列,所述第二指令为第二用户对第二电子设备进行操作的指令;
所述第一电子设备,用于根据第一指令、所述第二指令以及第二AR模型确定第三AR模型,所述第二AR模型为所述第一电子设备预置的三维AR模型,所述第三AR模型为所述第二AR模型变换后的模型,所述第一指令为第一用户对所述第一电子设备进行操作的指令;
所述第一电子设备,还用于根据所述第二真实场景图像序列、第二视口信息以及所述第三AR模型,确定第二显示图像序列,所述第二视口信息用于确定所述第二电子设备的视口;
所述第一电子设备,还用于向所述第二电子设备发送所述第二显示图像序列;
所述第二电子设备,还用于显示所述第二显示图像序列。
2.根据权利要求1所述的***,其特征在于,所述第一电子设备还用于:
根据所述第一指令、所述第二指令以及第一AR模型确定第四AR模型,所述第一AR模型与所述第二AR模型相同,所述第四AR模型为所述第一AR模型变换后的模型;
根据第一真实场景图像序列、第一视口信息以及所述第四AR模型,确定第一显示图像序列,所述第一视口信息用于确定所述第一电子设备的视口;
显示所述第一显示图像序列。
3.根据权利要求1所述的***,其特征在于,所述第一电子设备还用于:
根据第一真实场景图像序列、第一视口信息以及所述第三AR模型,确定第一显示图像序列,所述第一视口信息用于确定所述第一电子设备的视口;
显示所述第一显示图像序列。
4.根据权利要求2或3所述的***,其特征在于,所述第一电子设备还用于:
获取所述第二电子设备与所述第一电子设备的位置与姿态;
根据所述第二电子设备的位置与姿态,获取所述第二视口信息;
根据所述第一电子设备的位置与姿态,获取所述第一视口信息。
5.根据权利要求4所述的***,其特征在于,所述第一电子设备具体用于:
根据所述第一真实场景图像序列或所述第二真实场景图像序列,获取环境地图;
根据所述环境地图与所述第二真实场景图像序列,获取所述第二电子设备的位置与姿态;
根据所述环境地图与所述第一真实场景图像序列,获取所述第一电子设备的位置与姿态。
6.根据权利要求1至5中任一项所述的***,其特征在于,所述第一电子设备,还用于向所述第二电子设备发送所述第二显示图像序列,具体包括:对所述第二显示图像序列进行编码,以得到第二显示视频流;
向所述第二电子设备发送所述第二显示视频流;
所述第二电子设备,还用于显示所述第二显示图像序列,具体包括:
接收所述第一电子设备发送的所述第二显示视频流;
对所述第二显示视频流进行解码,以得到第二显示图像序列。
7.一种用于增强现实协同的方法,其特征在于,所述方法用于第一电子设备,包括:
接收第二电子设备发送的第二指令和第二真实场景图像序列,所述第二指令为第二用户对所述第二电子设备进行操作的指令;
根据第一指令、所述第二指令以及第二AR模型确定第三AR模型,所述第二AR模型为所述第一电子设备预置的三维AR模型,所述第三AR模型为所述第二AR模型变换后的模型,所述第一指令为第一用户对所述第一电子设备进行操作的指令;
根据所述第二真实场景图像序列、第二视口信息以及所述第三AR模型,确定第二显示图像序列,所述第二视口信息用于确定所述第二电子设备的视口;
向所述第二电子设备发送所述第二显示图像序列。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
获取所述第二电子设备的位置与姿态;
根据所述第二电子设备的位置与姿态,获取所述第二视口信息。
9.根据权利要求8所述的方法,其特征在于,所述获取所述第二电子设备的位置与姿态,包括:
根据第一真实场景图像序列或所述第二真实场景图像序列,获取环境地图;
根据所述环境地图与所述第二真实场景图像序列,获取所述第二电子设备的位置与姿态。
10.根据权利要求7至9中任一项所述的方法,其特征在于,所述向所述第二电子设备发送所述第二显示图像序列,包括:
对所述第二显示图像序列进行编码,以得到第二显示视频流;
向所述第二电子设备发送所述第二显示视频流。
11.根据权利要求7所述的方法,其特征在于,所述方法还包括:
根据所述第一指令、所述第二指令以及第一AR模型确定第四AR模型,所述第一AR模型与所述第二AR模型相同,所述第四AR模型为所述第一AR模型变换后的模型;
根据所述第一真实场景图像序列、第一视口信息以及所述第四AR模型,确定第一显示图像序列,所述第一视口信息用于确定所述第一电子设备的视口;
显示所述第一显示图像序列。
12.根据权利要求7所述的方法,其特征在于,所述方法还包括:
根据所述第一真实场景图像序列、第一视口信息以及所述第三AR模型,确定第一显示图像序列,所述第一视口信息用于确定所述第一电子设备的视口;
显示所述第一显示图像序列。
13.根据权利要求11或12所述的方法,其特征在于,所述方法还包括:
获取所述第一电子设备的位置与姿态;
根据所述第一电子设备的位置与姿态,获取所述第一视口信息。
14.根据权利要求13所述的方法,其特征在于,所述获取所述第一电子设备的位置与姿态,包括:
根据所述第一真实场景图像序列,获取环境地图;
根据所述环境地图与所述第一真实场景图像序列,获取所述第一电子设备的位置与姿态。
15.一种用于增强现实协同的方法,其特征在于,所述方法用于第二电子设备,包括:
采集第二真实场景图像序列;
向第一电子设备发送第二指令和所述第二真实场景图像序列,所述第二指令为第二用户对第二电子设备进行操作的指令;
接收所述第一电子设备发送的第二显示图像序列;
显示所述第二显示图像序列。
16.根据权利要求15所述的方法,其特征在于,所述接收所述第一电子设备发送的第二显示图像序列,包括:
接收所述第一电子设备发送的第二显示视频流;
对所述第二显示视频流进行解码,以得到所述第二显示图像序列。
17.一种用于增强现实协同的装置,其特征在于,所述装置应用于第一电子设备,包括用于执行如权利要求7至14中任一项所述的方法的模块。
18.一种用于增强现实协同的装置,其特征在于,所述装置应用于第二电子设备,包括用于执行如权利要求15或16所述的方法的模块。
19.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
一个或多个存储器;
所述一个或多个存储器存储有一个或者多个计算机程序,所述一个或者多个计算机程序包括指令,当所述指令被所述一个或多个处理器执行时,使得所述电子设备执行如权利要求7至14中任一项所述的方法。
20.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
一个或多个存储器;
所述一个或多个存储器存储有一个或者多个计算机程序,所述一个或者多个计算机程序包括指令,当所述指令被所述一个或多个处理器执行时,使得所述电子设备执行如权利要求15或16所述的方法。
21.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求7至14中任一项所述的方法;或
当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求15或16所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211695951.6A CN118264784A (zh) | 2022-12-28 | 2022-12-28 | 一种用于增强现实协同的***及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211695951.6A CN118264784A (zh) | 2022-12-28 | 2022-12-28 | 一种用于增强现实协同的***及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118264784A true CN118264784A (zh) | 2024-06-28 |
Family
ID=91609765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211695951.6A Pending CN118264784A (zh) | 2022-12-28 | 2022-12-28 | 一种用于增强现实协同的***及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118264784A (zh) |
-
2022
- 2022-12-28 CN CN202211695951.6A patent/CN118264784A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112130742B (zh) | 一种移动终端的全屏显示方法及设备 | |
CN115866121B (zh) | 应用界面交互方法、电子设备和计算机可读存储介质 | |
CN115473957B (zh) | 一种图像处理方法和电子设备 | |
CN113448382B (zh) | 多屏幕显示电子设备和电子设备的多屏幕显示方法 | |
CN114650363B (zh) | 一种图像显示的方法及电子设备 | |
CN114089932B (zh) | 多屏显示方法、装置、终端设备及存储介质 | |
WO2023284715A1 (zh) | 一种物体重建方法以及相关设备 | |
CN112087649B (zh) | 一种设备搜寻方法以及电子设备 | |
CN116048358B (zh) | 悬浮球的控制方法和相关装置 | |
CN115147451A (zh) | 目标跟踪方法及其装置 | |
CN115914461B (zh) | 位置关系识别方法和电子设备 | |
CN116389884B (zh) | 缩略图显示方法及终端设备 | |
CN116051351B (zh) | 一种特效处理方法和电子设备 | |
CN116708751B (zh) | 一种拍照时长的确定方法、装置和电子设备 | |
CN116048831B (zh) | 一种目标信号处理方法和电子设备 | |
CN114283195B (zh) | 生成动态图像的方法、电子设备及可读存储介质 | |
CN115686182B (zh) | 增强现实视频的处理方法与电子设备 | |
CN115482143B (zh) | 应用的图像数据调用方法、***、电子设备及存储介质 | |
CN114812381B (zh) | 电子设备的定位方法及电子设备 | |
CN114691248B (zh) | 显示虚拟现实界面的方法、装置、设备和可读存储介质 | |
CN118264784A (zh) | 一种用于增强现实协同的***及方法 | |
CN116700578B (zh) | 图层合成方法、电子设备以及存储介质 | |
CN116703741B (zh) | 一种图像对比度的生成方法、装置和电子设备 | |
CN114205318B (zh) | 头像显示方法及电子设备 | |
CN116095512B (zh) | 终端设备的拍照方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination |