CN114594855A - 一种头显设备的多机交互方法、***、终端设备及存储介质 - Google Patents
一种头显设备的多机交互方法、***、终端设备及存储介质 Download PDFInfo
- Publication number
- CN114594855A CN114594855A CN202111673020.1A CN202111673020A CN114594855A CN 114594855 A CN114594855 A CN 114594855A CN 202111673020 A CN202111673020 A CN 202111673020A CN 114594855 A CN114594855 A CN 114594855A
- Authority
- CN
- China
- Prior art keywords
- data
- head display
- display device
- display equipment
- central
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000000007 visual effect Effects 0.000 claims abstract description 106
- 238000004891 communication Methods 0.000 claims abstract description 17
- 210000003128 head Anatomy 0.000 claims description 270
- 230000033001 locomotion Effects 0.000 claims description 29
- 230000002452 interceptive effect Effects 0.000 claims description 13
- 210000005252 bulbus oculi Anatomy 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 230000008447 perception Effects 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 4
- 230000003190 augmentative effect Effects 0.000 description 6
- 210000004087 cornea Anatomy 0.000 description 5
- 210000001508 eye Anatomy 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- QPFMBZIOSGYJDE-UHFFFAOYSA-N 1,1,2,2-tetrachloroethane Chemical compound ClC(Cl)C(Cl)Cl QPFMBZIOSGYJDE-UHFFFAOYSA-N 0.000 description 1
- 229920013660 Cellon Polymers 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
- G06F3/1407—General aspects irrespective of display type, e.g. determination of decimal point position, display with fixed or driving decimal point, suppression of non-significant zeros
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
本申请涉及一种头显设备的多机交互方法、***、终端设备及存储介质,涉及头戴显示设备通讯技术领域,其包括:获取场景信息数据与场景信息数据内所有头显设备的可视范围数据,每一可视范围数据对应一中心头显设备;确定所有头显设备中每一个中心头显设备外其他头显设备是否在该中心头显设备的可视范围数据内;根据其他头显设备是否在可视范围数据内,约束各其他头显设备与该中心头显设备之间的信息交互。本申请具有提高同场景中多头显设备之间交互的真实感的效果。
Description
技术领域
本申请涉及头戴显示设备通讯技术领域,尤其是涉及一种头显设备的多机交互方法、***、终端设备及存储介质。
背景技术
头戴式显示器(HMD),即头显。通过各种头显,向眼睛发送光学信号,可以实现虚拟现实(VR)、增强现实(AR)、混合现实(MR)等不同效果。
目前,头戴式显示器多用于单人头显设备佩戴者进行虚拟现实(VR)、增强现实(AR)、混合现实(MR)等不同效果场景的体验,而多头显设备佩戴者位于同一场景时的多机交互则较为困难,多级交互的真实感较为一般。
发明内容
为了提高同场景中多头显设备之间交互的真实感,本申请提供一种头显设备的多机交互方法、***、终端设备及存储介质。
第一方面,本申请提供的一种头显设备的多机交互方法,采用如下的技术方案:
一种头显设备的多机交互方法,包括获取场景信息数据与所述场景信息数据内所有头显设备的可视范围数据,每一可视范围数据对应一中心头显设备;
确定所有头显设备中每一个中心头显设备外其他头显设备是否在该中心头显设备的可视范围数据内;
根据其他头显设备是否在可视范围数据内,约束各其他头显设备与该中心头显设备之间的信息交互。
通过采用上述技术方案,发明人发现,在头显设备多机交互过程中,结合场景信息数据获取一中心头显设备的可视范围数据,在该可视范围内的其他头显设备佩戴者的形态在现实场景中是应该被中心头显设备的佩戴者获取的,而不在该可视范围内的其他头显设备的佩戴者的情况中心头显设备佩戴者是无法察觉的,通过可视范围数据约束同一场景中的不同头显设备间的信息交互,可极大的提高头显设备还原现实场景中信息交互的真实情况,大大提高多个头显设备佩戴者在同一模拟场景中交互的真实感。
可选的,所述获取场景信息数据与所述场景信息数据内所有头显设备的可视范围数据,每一可视范围数据对应一中心头显设备,包括,
随机或指定多个所述头显设备中的每一个中心头显设备以所述场景信息数据中一点为初始位置;
采集多个所述头显设备中每一个中心头显设备的姿态数据、运动数据以及视角数据;
基于所述初始位置以及所述姿态数据、运动数据、视角数据获取该中心头显设备在所述场景信息数据中的可视范围数据。
通过采用上述技术方案,以初始位置的数据加上运动数据、姿态数据以及视角数据,结合场景信息数据可确定中心头显设备的可视范围数据。同时该中心头显设备相对其他任意一头显设备而言,又属于一其他头显设备,其运动数据、姿态数据以及视角数据也是作为交互信息被发送至能看到其的头显设备内。
可选的,所述基于所述初始位置以及所述姿态数据、运动数据、视角数据获取该中心头显设备在所述场景信息数据中的可视范围数据,包括:
基于所述初始位置以及所述运动数据获取所述中心头显设备的实时位置数据以及所述实时位置数据与所述场景信息数据中各数据之间的相对位置关系;
基于所述姿态数据以及所述实时位置数据获取所述头显设备的朝向数据;
基于所述视角数据以及所述朝向数据获取所述头显设备的视角范围数据;
基于所述视角范围数据以及所述实时位置数据与所述场景信息数据中各数据之间的相对位置关系获取所述中心头显设备的可视范围数据。
通过采用上述技术方案,可通过各确定信息的数据,获得中心头显设备的可视范围数据。
可选的,所述确定所有头显设备中每一个中心头显设备外其他头显设备是否在该中心头显设备的可视范围数据内,进一步包括:
确定所有位于中心头显设备可视范围数据内的其他头显设备的个数;
比较可视范围数据内各所述其他头显设备之间距离,距离该中心头显设备位置最近的其他头显设备配置为第一优先处理头显设备;
根据该中心头显设备的可视范围数据与所述第一优先处理头显设备的姿态数据,确定该中心头显设备的可视第一更新范围数据;
比较该中心头显设备的可视第一更新范围数据内所有其他头显设备距离距离该中心头显设备的距离,进一步获得可视第二更新范围数据,直至该中心头显设备可视范围数据内所有其他头显设备均获得处理。
通过采用上述技术方案,在中心头显设备可视范围数据内,距离最近的其他头显设备即为上述第一优先处理头显设备,根据第一优先处理头显设备的姿态数据实时更新中心头显设备的可视范围,即为上述可视第一更新范围数据。接着基于可视第一更新范围数据再得到距离最近的其他头显设备并获得可视第二更新范围数据,直至所有其他头显设备被遍历处理。此条方法是模拟真实场景中远处认为被近处认为遮挡的情况,进而进一步提高头显设备还原现实场景中信息交互的真实情况,提高多个头显设备佩戴者在同一模拟场景中交互的真实感。
可选的,所述根据该中心头显设备的可视范围数据与所述第一优先处理头显设备的姿态数据,确定该中心头显设备的可视第一更新范围数据,包括:
获取所述第一优先处理头显设备的姿态数据位于所述可视范围数据内的姿态部分数据;
获取所述可视范围数据内位于所述第一优先处理头显设备姿态部分数据后的盲区部分数据;
根据所述可视范围数据、姿态部分数据与所述盲区部分数据确定可视第一更新范围数据。
通过采用上述技术方案,使得中心头显设备的可视范围数据基于其他头显设备的姿态数据进行实时更新。
可选的,所述根据其他头显设备是否在可视范围数据内,约束各其他头显设备与该中心头显设备之间的信息交互,具体为:
在所述中心头显设备可视范围数据外的其他头显设备与该中心头显设备无信息交互;
在所述中心头显设备可视范围数据内的其他头显设备的运动数据、姿态数据以及视角数据实时发送至该中心头显设备。
通过采用上述技术方案,约束了同一场景中多头显设备之间交互的通讯规则。
可选的,所述场景信息数据设置为虚拟场景信息数据或现实场景信息数据或现实虚拟相结合场景信息数据。
通过采用上述技术方案,此头显设备多机交互方法适用于不同场景,在虚拟现实头显设备、增强现实头显设备以及混合现实头显设备中均可应用。虚拟现实头显设备可直接读取虚拟现实场景数据,增强现实头显设备可预先输入或实时获取现实场景数据,混合现实头显设备则是读取虚拟现实场景数据加上获取现实场景数据。
第二方面,本申请提供了一种头显设备的交互***,采用如下技术方案:
一种头显设备的交互***,包括包括:感知模块、通讯模块、控制模块以及显示模块;
所述控制模块包括存储单元以及处理单元,所述存储单元存储有上述方法中任意一项所述的一种头显设备的多机交互方法所对应的程序指令;
所述感知模块电连接于所述控制模块,包括环境感知单元、位置感知单元,运动感知单元,姿态感知单元以及视角感知单元;所述环境感知单元用于获取头显设备所处的环境信息,所述位置感知单元用于检测头显设备佩戴者的位置信息,所述运动感知单元用于检测头显设备佩戴者的运动状态信息,所述姿态感知单元用于检测头显设备佩戴者的身体姿态信息,所述视角感知单元用于检测头显设备佩戴者的眼球视角信息。
所述通讯模块电连接于所述控制模块,用于与外界***信息进行交互;
所述显示模块电连接于所述控制模块,用于显示所述感知模块的感知数据与所述通讯模块的交互数据经所述控制模块处理后的数据结果。
通过采用上述技术方案,感知模块获取自身状态数据以及周围场景数据,用于控制模块确定自身可视范围数据。同时自身状态数据又通过通讯模块发送至可看到其的其他头显设备中。显示模块将周围场景数据以及接收到的其他头显设备的状态数据可视化至佩戴者眼前。从而完成头显设备的多机交互工作。
第三方面,本申请提供了一种终端设备,采用如下技术方案:
一种终端设备,包括存储器及处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器实现如上述方法中任意一项所述的一种头显设备的多机交互方法。
通过采用上述技术方案:在终端设备中集成存储器与处理器,使得一种头显设备的多机交互方法得以在终端加以应用。
第四方面,本申请提供了一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时实现上述方法中任意一项所述的一种头显设备的多机交互方法。
通过采用上述技术方案:将上述一种头显设备的多机交互方法存储至计算机可读存储介质内,便于该方法的推广与使用。
综上所述,本申请包括以下至少一种有益技术效果:
1. 在头显设备多机交互过程中,结合场景信息数据获取一中心头显设备的可视范围数据,在该可视范围内的其他头显设备佩戴者的形态在现实场景中是应该被中心头显设备的佩戴者获取的,而不在该可视范围内的其他头显设备的佩戴者的情况中心头显设备佩戴者是无法察觉的,通过可视范围数据约束同一场景中的不同头显设备间的信息交互,可极大的提高头显设备还原现实场景中信息交互的真实情况,大大提高多个头显设备佩戴者在同一模拟场景中交互的真实感;
2. 在中心头显设备可视范围数据内,距离最近的其他头显设备即为上述第一优先处理头显设备,根据第一优先处理头显设备的姿态数据实时更新中心头显设备的可视范围,即为上述可视第一更新范围数据。接着基于可视第一更新范围数据再得到距离最近的其他头显设备并获得可视第二更新范围数据,直至所有其他头显设备被遍历处理。此条方法是模拟真实场景中远处认为被近处认为遮挡的情况,进而进一步提高头显设备还原现实场景中信息交互的真实情况,提高多个头显设备佩戴者在同一模拟场景中交互的真实感;
3. 此头显设备多机交互方法适用于不同场景,在虚拟现实头显设备、增强现实头显设备以及混合现实头显设备中均可应用。虚拟现实头显设备可直接读取虚拟现实场景数据,增强现实头显设备可预先输入或实时获取现实场景数据,混合现实头显设备则是读取虚拟现实场景数据加上获取现实场景数据。
附图说明
图1是本申请实施例一种头显设备的多机交互方法的结构框图。
图2是本申请实施例一种头显设备的多机交互方法的流程框图。
图3是本申请实施例一种头显设备的多机交互方法在虚拟场景时应用原理图。
图4是本申请实施例一种头显设备的交互***的结构框图。
附图标记说明:1、感知模块;11、环境感知单元;12、位置感知单元;13、运动感知单元;14、姿态感知单元;15、视角感知单元;2、通讯模块;3、控制模块;31、存储单元;32、处理单元;4、显示模块。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例中所述的方法步骤,其执行顺序可以按照具体实施方式中所述的顺序执行,也可以根据实际需要,在能够解决技术问题的前提下,调整各步骤的执行顺序,在此不一一列举。
下面结合说明书附图对本申请实施例作进一步详细描述。
本申请实施例公开一种头显设备的多机交互方法。
参照图1,一种头显设备的多机交互方法包括以下步骤:
S1,获取场景信息数据与该场景信息数据内所有头显设备的可视范围数据,每一可视范围数据对应一中心头显设备。
S2,确定所有头显设备中每一个中心头显设备外其他头显设备是否在该中心头显设备的可视范围数据内。
S3,根据其他头显设备是否在可视范围数据内,约束各其他头显设备与该中心头显设备之间的信息交互。
参照图2,具体的,步骤S1包括以下三个子步骤:
S11, 随机或指定多个头显设备中的每一个中心头显设备以场景信息数据中一点为初始位置。在本实施例中,头显设备的个数设定为五个,且五头显设备所在的场景设定为一虚拟场景。参照图3,该虚拟场景模拟一货轮甲板,A所指区域为货轮甲板,货轮甲板上不规则的摆放有多个集装箱B,指定货轮甲板上五个点分别为五个头显设备的初始位置。在其他一些实施例中,场景信息可设置为商场、公园甚至博物馆等任意场景,这些场景信息与本实施例的场景信息区别仅在场景信息数据量的大小,其多机交互方式是一致的。
S12,采集多个头显设备中每一个中心头显设备的姿态数据、运动数据以及视角数据。在本实施例中,通过头显设备内置的陀螺仪以及惯导传感器进行姿态数据以及运动姿态的获取。视角数据通过头显设备内的微型眼动仪传感器芯片获取。在其他一些实施例中,还可使用其他传感器或得其他其他状态数据或者更精确的状态数据。
S13,基于初始位置以及姿态数据、运动数据、视角数据获取该中心头显设备在场景信息数据中的可视范围数据。其具体包括以下四个步骤:
S131,基于初始位置以及运动数据获取中心头显设备的实时位置数据以及实时位置数据与场景信息数据中各数据之间的相对位置关系。中心头显设备佩戴者在货轮甲板初始位置上开始移动时,货轮甲板上各物品与头显设备佩戴者的相对位置关系随实时位置的变化而不断变化,本实施例通过坐标转换关系实时求出头显设备佩戴者所在的实施位置数据与场景信息数据中各数据点之间的相对位置关系;
S132,基于姿态数据以及实时位置数据获取头显设备的朝向数据。在步骤S131中获得头部设备佩戴者在货轮甲板实时位置数据的基础上,根据获取到的姿态数据可确定头显设备佩戴者在货轮甲板上的朝向数据。
S133,基于视角数据以及朝向数据获取头显设备的视角范围数据。在步骤3132中获得头显设备佩戴者在货轮甲板上的朝向数据的基础上,根据获取到的视角数据可确定头显设备佩戴者在货轮甲板上的视角范围数据。
S134,基于视角范围数据以及实时位置数据与场景信息数据中各数据之间的相对位置关系获取中心头显设备的可视范围数据。在步骤S133,步骤131中得到的视角范围数据以及相对位置关系,即可确定头显设备佩戴者在货轮甲板上的可视范围数据,佩戴者视角范围内无场景数据信息的位置点即为可视范围数据,如图3中C所示。
具体的,步骤S2包括以下四个步骤:
S21,确定位于中心头显设备可视范围数据内的其他头显设备的个数,根据可视范围数据内的其他头显设备的个数来更新可视范围数据。
S22,比较可视范围数据内各所述其他头显设备之间距离,距离该中心头显设备位置最近的其他头显设备配置为第一优先处理头显设备;
S23,根据该中心头显设备的可视范围数据与所述第一优先处理头显设备的姿态数据,确定该中心头显设备的可视第一更新范围数据;
S24,比较该中心头显设备的可视第一更新范围数据内所有其他头显设备距离距离该中心头显设备的距离,进一步获得可视第二更新范围数据,直至该中心头显设备可视范围数据内所有其他头显设备均获得处理。
其中,步骤S23具体包括以下三个子步骤:
S231,获取第一优先处理头显设备的姿态数据位于可视范围数据内的姿态部分数据;
S232,获取可视范围数据内位于第一优先处理头显设备姿态部分数据后的盲区部分数据,如图3中D所指区域;
S233,根据可视范围数据、姿态部分数据与盲区部分数据确定可视第一更新范围数据。
具体的,步骤S3的交互规则为在中心头显设备可视范围数据外的其他头显设备与该中心头显设备无信息交互;在中心头显设备可视范围数据内的其他头显设备的运动数据以及姿态数据实时发送至该中心头显设备。
此外,在本实施例中上述场景信息数据被设置为虚拟场景信息数据,例如应用在虚拟场景信息中的VR设备的多机交互。而在其他实施例中,场景信息数据可设置为现实场景信息数据,例如应用在真实场景信息中AR设备的多机交互。在另外一些实施例中,场景信息数据还可设置为现实虚拟相结合场景信息数据,例如应用在混合现实场景信息中MR设备的多机交互。
本申请实施例还公开一种头显设备的交互***,
参照图4,一种头显设备的交互***,包括感知模块1、通讯模块2、控制模块3以及显示模块4。
控制模块3包括存储单元31以及处理单元32,存储单元31存储有上述实施例中所述的一种头显设备的多机交互方法所对应的程序指令。在本实施例中,控制模块3选用为高通骁龙XR2芯片,存储单元31选用为6GB大小的RAM内存外加可扩展的256GB大小的UFS3.0闪存。
感知模块1电连接于控制模块3,包括环境感知单元11、位置感知单元12,运动感知单元13,姿态感知单元14以及视角感知单元15。
环境感知单元11在需要获得现实场景信息的头显设备上配备,配置为四鱼眼摄像头,用于获取头显设备所处的环境信息。位置感知单元12与运动感知单元13配置为1KHz采样频率的九轴传感器,用于检测头显设备佩戴者的位置信息与运动状态信息,所述姿态感知单元14配置为头部6Dof定位传感器,用于检测头显设备佩戴者的头部姿态信息。视角感知单元15在本实施例中包括红外光源与摄像头,红外光源相头显设备佩戴者的眼睛发射人眼无法感觉到的红外光线,并经过眼球角膜进行反射。由于光源和摄像头的位置是固定的,在眼球运动的过程中,光源发射的光线在眼球角膜上的反射点是不变的,光线在眼球角膜的反射会在眼球角膜的表面上形成绝对位置不变的普尔钦斑(Purkinje image),该普尔钦斑即为眼球角膜上的亮光点。眼球角膜表面上的普尔钦斑的绝对位置不会随眼球运动而产生变化,但是相对于眼球的位置则是不断变化的。例如,当头显设备佩戴者的视线方向为正视摄像头时,普尔钦斑位于头显设备佩戴者瞳孔的正中间,当头显设备佩戴者的视线方向相对摄像头向上时,普尔钦斑位于头显设备佩戴者瞳孔的下方位置,从而获得头显设备佩戴者的眼球视角信息。
通讯模块2在本实施例中包括Wi-Fi 6E无线传输单元、2.4G/5G双频数据传输单元以及5.1蓝牙通讯单元,具体通讯模块2的配置在本实施例中不做限定。通讯电连接于控制模块3,用于与其他头显设备的信息进行交互。
显示模块4包括透镜与显示屏幕,透镜在本实施例中选用为菲涅尔透镜,屏幕选用为刷新率为72/90Hz,分辨率为3664×1920的TFT屏幕。屏幕电连接于控制模块3,用于显示感知模块1的感知数据与通讯模块2的交互数据经控制模块3处理后的数据结果。
本申请实施例还公开了一种终端设备,包括存储器及处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器实现如上述实施例所述的一种头显设备的多机交互方法。
本申请实施例还公开了一种计算机可读存储介质,具体来说,该计算机可读存储介质,其存储有能够被处理器加载并执行如上述一种头显设备的多机交互方法的计算机程序,该计算机可读存储模块例如包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(RandomAccessMemory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上均为本申请的较佳实施例,并非依此限制本申请的保护范围,故:凡依本申请的结构、形状、原理所做的等效变化,均应涵盖于本申请的保护范围之内。
Claims (10)
1.一种头显设备的多机交互方法,其特征在于,包括:
获取场景信息数据与所述场景信息数据内所有头显设备的可视范围数据,每一可视范围数据对应一中心头显设备;
确定所有头显设备中每一个中心头显设备外其他头显设备是否在该中心头显设备的可视范围数据内;
根据其他头显设备是否在可视范围数据内,约束各其他头显设备与该中心头显设备之间的信息交互。
2.根据权利要求1所述的一种头显设备的多机交互方法,其特征在于,所述获取场景信息数据与所述场景信息数据内所有头显设备的可视范围数据,每一可视范围数据对应一中心头显设备,包括,
随机或指定多个所述头显设备中的每一个中心头显设备以所述场景信息数据中一点为初始位置;
采集多个所述头显设备中每一个中心头显设备的姿态数据、运动数据以及视角数据;
基于所述初始位置以及所述姿态数据、运动数据、视角数据获取该中心头显设备在所述场景信息数据中的可视范围数据。
3.根据权利要求2所述的一种头显设备的多机交互方法,其特征在于,所述基于所述初始位置以及所述姿态数据、运动数据、视角数据获取该中心头显设备在所述场景信息数据中的可视范围数据,包括:
基于所述初始位置以及所述运动数据获取所述中心头显设备的实时位置数据以及所述实时位置数据与所述场景信息数据中各数据之间的相对位置关系;
基于所述姿态数据以及所述实时位置数据获取所述头显设备的朝向数据;
基于所述视角数据以及所述朝向数据获取所述头显设备的视角范围数据;
基于所述视角范围数据以及所述实时位置数据与所述场景信息数据中各数据之间的相对位置关系获取所述中心头显设备的可视范围数据。
4.根据权利要求2所述的一种头显设备的多机交互方法,其特征在于,所述确定所有头显设备中每一个中心头显设备外其他头显设备是否在该中心头显设备的可视范围数据内,包括:
确定位于中心头显设备可视范围数据内的其他头显设备的个数;
比较可视范围数据内各所述其他头显设备之间距离,距离该中心头显设备位置最近的其他头显设备配置为第一优先处理头显设备;
根据该中心头显设备的可视范围数据与所述第一优先处理头显设备的姿态数据,确定该中心头显设备的可视第一更新范围数据;
比较该中心头显设备的可视第一更新范围数据内所有其他头显设备距离距离该中心头显设备的距离,进一步获得可视第二更新范围数据,直至该中心头显设备可视范围数据内所有其他头显设备均获得处理。
5.根据权利要求4所述的一种头显设备的多机交互方法,其特征在于,所述根据该中心头显设备的可视范围数据与所述第一优先处理头显设备的姿态数据,确定该中心头显设备的可视第一更新范围数据,包括:
获取所述第一优先处理头显设备的姿态数据位于所述可视范围数据内的姿态部分数据;
获取所述可视范围数据内位于所述第一优先处理头显设备姿态部分数据后的盲区部分数据;
根据所述可视范围数据、姿态部分数据与所述盲区部分数据确定可视第一更新范围数据。
6.根据权利要求2所述的一种头显设备的多机交互方法,其特征在于,所述根据其他头显设备是否在可视范围数据内,约束各其他头显设备与该中心头显设备之间的信息交互,具体为:
在所述中心头显设备可视范围数据外的其他头显设备与该中心头显设备无信息交互;
在所述中心头显设备可视范围数据内的其他头显设备的运动数据以及姿态数据实时发送至该中心头显设备。
7.根据权利要求1所述的一种头显设备的多机交互方法,其特征在于,所述场景信息数据设置为虚拟场景信息数据或现实场景信息数据或现实虚拟相结合场景信息数据。
8.一种头显设备的交互***,其特征在于,包括:感知模块(1)、通讯模块(2)、控制模块(3)以及显示模块(4);
所述控制模块(3)包括存储单元(31)以及处理单元(32),所述存储单元(31)存储有如权利要求1-7任意一项所述的一种头显设备的多机交互方法所对应的程序指令;
所述感知模块(1)电连接于所述控制模块(3),包括环境感知单元(11)、位置感知单元(12),运动感知单元(13),姿态感知单元(14)以及视角感知单元(15)中的一个或多个单元;所述环境感知单元(11)用于获取头显设备所处的环境信息,所述位置感知单元(12)用于检测头显设备佩戴者的位置信息,所述运动感知单元(13)用于检测头显设备佩戴者的运动状态信息,所述姿态感知单元(14)用于检测头显设备佩戴者的身体姿态信息,所述视角感知单元(15)用于检测头显设备佩戴者的眼球视角信息;
所述通讯模块(2)电连接于所述控制模块(3),用于与外界***信息进行交互;
所述显示模块(4)电连接于所述控制模块(3),用于显示所述感知模块(1)的感知数据与所述通讯模块(2)的交互数据经所述控制模块(3)处理后的数据结果。
9.一种终端设备,其特征在于:包括存储器及处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器实现如权利要求1-7任意一项所述的一种头显设备的多机交互方法。
10.一种计算机可读存储介质,其特征在于:存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-7任意一项所述的一种头显设备的多机交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111673020.1A CN114594855B (zh) | 2021-12-31 | 一种头显设备的多机交互方法、***、终端设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111673020.1A CN114594855B (zh) | 2021-12-31 | 一种头显设备的多机交互方法、***、终端设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114594855A true CN114594855A (zh) | 2022-06-07 |
CN114594855B CN114594855B (zh) | 2024-06-28 |
Family
ID=
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507280A (zh) * | 2017-07-20 | 2017-12-22 | 广州励丰文化科技股份有限公司 | 基于mr头显设备的vr模式与ar模式的切换方法及*** |
CN107589848A (zh) * | 2017-09-25 | 2018-01-16 | 京东方科技集团股份有限公司 | 一种交互显示方法、终端及交互显示*** |
US20180307304A1 (en) * | 2017-04-20 | 2018-10-25 | Microsoft Technology Licensing, Llc | Vestibular anchoring |
CN109671118A (zh) * | 2018-11-02 | 2019-04-23 | 北京盈迪曼德科技有限公司 | 一种虚拟现实多人交互方法、装置及*** |
US20200124845A1 (en) * | 2018-10-23 | 2020-04-23 | Dell Products L.P. | Detecting and mitigating motion sickness in augmented and virtual reality systems |
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180307304A1 (en) * | 2017-04-20 | 2018-10-25 | Microsoft Technology Licensing, Llc | Vestibular anchoring |
CN107507280A (zh) * | 2017-07-20 | 2017-12-22 | 广州励丰文化科技股份有限公司 | 基于mr头显设备的vr模式与ar模式的切换方法及*** |
CN107589848A (zh) * | 2017-09-25 | 2018-01-16 | 京东方科技集团股份有限公司 | 一种交互显示方法、终端及交互显示*** |
US20200124845A1 (en) * | 2018-10-23 | 2020-04-23 | Dell Products L.P. | Detecting and mitigating motion sickness in augmented and virtual reality systems |
CN109671118A (zh) * | 2018-11-02 | 2019-04-23 | 北京盈迪曼德科技有限公司 | 一种虚拟现实多人交互方法、装置及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10096167B2 (en) | Method for executing functions in a VR environment | |
US11756229B2 (en) | Localization for mobile devices | |
CN107209950B (zh) | 从现实世界材料自动生成虚拟材料 | |
CN107111370B (zh) | 现实世界对象的虚拟表示 | |
CA2913650C (en) | Virtual object orientation and visualization | |
US10133073B2 (en) | Image generation apparatus and image generation method | |
US9395543B2 (en) | Wearable behavior-based vision system | |
KR20220110205A (ko) | 헤드 장착식 디스플레이들에 대한 컨텐츠 안정화 | |
US10999412B2 (en) | Sharing mediated reality content | |
WO2016118388A1 (en) | Augmented reality field of view object follower | |
US20170153700A1 (en) | Method of displaying an image, and system therefor | |
US11244496B2 (en) | Information processing device and information processing method | |
US11022794B2 (en) | Visual indicators of user attention in AR/VR environment | |
JP2014071277A (ja) | ヘッドマウントディスプレイ、それを作動させる方法およびプログラム | |
CN114594855B (zh) | 一种头显设备的多机交互方法、***、终端设备及存储介质 | |
CN114594855A (zh) | 一种头显设备的多机交互方法、***、终端设备及存储介质 | |
US20240210678A1 (en) | Head-mounted display apparatus and operating method thereof | |
US10621789B1 (en) | Tracking location and resolving drift in augmented reality head mounted displays with downward projection | |
US10885716B1 (en) | Mixed reality system user interface placement | |
JP2023172180A (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP2024012898A (ja) | 電子機器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |