CN109979016A - 一种ar设备显示光场影像的方法、ar设备和存储介质 - Google Patents
一种ar设备显示光场影像的方法、ar设备和存储介质 Download PDFInfo
- Publication number
- CN109979016A CN109979016A CN201910234289.6A CN201910234289A CN109979016A CN 109979016 A CN109979016 A CN 109979016A CN 201910234289 A CN201910234289 A CN 201910234289A CN 109979016 A CN109979016 A CN 109979016A
- Authority
- CN
- China
- Prior art keywords
- focal plane
- dummy object
- image
- viewpoint
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/012—Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2004—Aligning objects, relative positioning of parts
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Processing Or Creating Images (AREA)
Abstract
本文公开了一种AR设备显示光场影像的方法、AR设备和存储介质,用于解决光场影像显示的问题,方法包括:确定视点相对于虚拟物体的在真实环境中的空间位置关系;根据用户注视焦点确定焦平面位置;根据所述焦平面位置、所述视点和虚拟物体的空间位置关系,计算虚拟物体在焦平面上的投影对应的第一图像;控制光学元件将第一图像显示于所述焦平面位置;其中,在所述第一图像中,所述虚拟物体对应的映射像素的渲染分辨率与所述空间位置关系对应。本发明可以提供较好的增强现实体验。
Description
技术领域
本发明涉及增强现实领域,具体而言,涉及增强现实设备显示光场影像的方法。
背景技术
最近火热的增强现实(Augmented Reality,AR)应用包括宜家应用Ikea Catalog、优衣库的试衣魔镜(Magic Mirror)。
宜家应用Ikea Catalog借助于这个由Metaio公司开发的AR应用,消费者可以使用移动设备把所选的数字版宜家家具“放置”在自己家客厅里,从而更方便地测试家具的尺寸、风格、颜色摆在某个位置是否合适。该应用还允许用户调整每一个部件的尺寸和颜色。
但这种方式用户看到的是屏幕中的三维家具,而由于屏幕本身材质、大小等限制,以及屏幕本身的平面属性,导致用户在观察家具的效果时,无法真实的感受到家具和用户同处于一个空间内。
发明内容
有鉴于此,本发明的目的在于提供一种AR显示和显示光场影像的方法,用以提供更真实的增强现实体验。
在一个实施例中,提供一种显示光场影像的方法,包括:
确定视点相对于虚拟物体的在真实环境中的空间位置关系;
根据用户注视焦点确定焦平面位置;
根据所述焦平面位置、所述视点和虚拟物体的空间位置关系,计算虚拟物体在焦平面上的投影对应的第一图像;
控制光学元件将第一图像显示于所述焦平面位置;
其中,在所述第一图像中,所述虚拟物体对应的映射像素的渲染分辨率与所述空间位置关系对应。
在另一实施例中,还包括:
根据第一图像中虚拟物体的映射轮廓,确定遮蔽层对应的像素的遮光状态。
本发明内容中以简化的形式介绍,本发明内容并非旨在标识出要求保护的主题的关键特征或必要特征,亦非旨在用作辅助确定要求的保护的主题范围。
根据用户的视线焦点确定焦平面的位置,根据焦平面的位置生成第一图像,并控制对应的光学元件组,将第一图像显示于所述焦平面位置,一方面避免了所显示虚拟图像的位置与双眼视轴交点不匹配而引起辐辏冲突的问题。另一方面避免生成过多的焦平面,从而简化光学元件组合,节约生产和设计成本。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本发明的一种AR设备的***示意图;
图2示出了本发明的一个实施例中真实场景的三维坐标示意图;
图3示出了本发明的一个实施例中用户视场在地面上的投影示意图;
图4示出了本发明的一个实施例中用户注视物体301时,光的传播示意图;
图5示出了本发明的一个实施例中用户注视物体302时,光的传播示意图。
图6示出了本发明的一个实施例中焦平面的位置;
图7示出了本发明的一个实施例中物体在焦平面的投影示意图;
图8示出了本发明的一个实施例中获得的第一图像示意图;
图9示出了本发明的一个实施例中距离实现焦点不同距离的虚拟物体;
图10示出了本发明的一个实施例中获得的第一图像示意图,图中不同的物体与实现焦点的距离不同,对应的使用不同的渲染分辨率。
图11示出了本发明的一个实施例中具有屏蔽层的AR设备的***示意图;
图12示出了本发明的一个实施例中,具有屏蔽层的AR设备的工作示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
参看图1示出了AR设备100形式的示例设备,其可以包含如本文所公开的光学***。光学***用于提供光学***的技术,该光学***包括一个或多个第一图像光谱生成单元108,用于计算对应于真实世界环境的用户视角的第一图像,还包括与第一图像光谱生成单元对应的光学部件,光学部件用于将第一图像的光谱导入用户眼睛中。
在一个实施例中,AR设备的光学部件包括微型投影机构、1/4波片、第一偏振反光板、远心镜、第二偏振分光板、波导镜片。微型投影机构用于产生第一图像的光谱;第一图像的光谱经过1/4波片,偏振方向改变;随后第一图像的光谱经过第一偏振分光板反射和远心透镜组汇准直达可变形反射镜;根据焦平面位置调整变形反射镜的曲率;第一图像的光谱经过可变形反射镜射入第二偏振分光板,经过第二偏振分光板全反射注入波导镜片。其中可变形反射镜位于远心透镜组的焦平面处。
在一个实施例中,AR设备100还包括三维扫描部件,三维扫描部件将真实环境中实物的立体信息转换为计算机能直接处理的数字信号,分析这些数字信号获得实体对应的数字化的信息,这些数字化的信息包括地形或实体对象的位置、尺寸甚至纹理信息,例如可以是房屋内地面、墙壁、桌子、椅子等的边缘和纹理信息。
在另一些实施例中,三维扫描部件部署执行动态扫描,以获得真实世界中动态物体的位置、尺寸甚至纹理信息。动态物体可以是一个或多个感兴趣的对象,例如用户的手、脚等。
在一些实施例中,所述三维扫描部件可以是基于结构光、ToF(飞行时间)或双目视觉等原理制造的三维扫描部件。通过上述三维扫描部件,实时场景扫描和重建,动态的存储和利用以三维方式映射真实世界环境的数字化信息。
在一些实施例中,三维扫描部件包括一个或多个三维扫描传感器101和相应的三维环境数据分析单元1072,相应的三维环境数据分析单元可以是独立于主处理单元107的处理芯片也可以是主处理单元中执行的代码逻辑。三维环境数据分析单元利用三维扫描传感器扫描获得的数据以确定真实世界中的对象的一个或多个特征,例如确定对象相对于三维扫描部件的位置、对象的边缘信息和纹理信息等。
在一些实施例中,AR设备100的靠近眼睛的一侧还设置有视线焦点检测传感器102,例如在一个实施例中,在AR设备朝向脸的一侧设置有超声法或非接触式光学生物测量仪器,以测量单眼晶状体的厚度,根据晶状体厚度的变化获得单眼视线焦点位置。在本文的一个实施例中,所述非接触式光学生物测量仪基于低相干光反射(Optical Low-CoherenceReflectometry,OLCR)原理,采用波长为820nm的光源,光谱宽度20-30nm,相干长度大约30μm,可一次操作获得角膜曲率、角膜直径、中央角膜厚度、前房深度、瞳孔直径、晶状体厚度、眼轴长度、视网膜厚度、眼轴偏心距等生物参数。在另一个实施例中在AR设备朝向脸的一侧设置多个红外光源和一至多个红外摄像头作为视线焦点检测传感器,用于根据用户眼睛角膜反射的红外光斑和瞳孔的关系确定视轴的的指向。
参考图1,三维扫描传感器101的朝向与用户面部朝向相同,三维扫描传感器的位置与光学传送部件的位置相对固定,可以理解的是图1中仅示出了波导镜片105,而未示出其他光学部件。在一些实施例中,AR设备仅为单眼提供增强现实体验,仅具有对应一个眼睛的第一图像光谱生成单元和光学部件。在另一些实施例中,AR设备为双眼提供增强现实体验,对应的为左右两个眼睛分别部署对应的第一图像光谱生成单元和光学部件。
通过三维扫描传感器扫描真实环境,确定真实世界的三维模型,三维模型可以用线框模型表示也可以用网格数据表示。确定视点和虚拟物体在真实世界的三维模型中的位置,确定视点相对于虚拟物体的在真实环境中空间位置关系;
视线焦点检测单元根据用户注视焦点确定焦平面位置;
根据所述焦平面位置、所述视点和虚拟物体的空间位置关系,计算虚拟物体在焦平面上的投影对应的第一图像;
将第一图像显示于所述焦平面位置;
其中,在所述第一图像中,所述虚拟物体对应的映射像素的渲染分辨率与所述空间位置关系对应。
根据用户的视线焦点确定焦平面的位置,根据焦平面的位置生成第一图像,并控制对应的光学元件组,将第一图像显示于所述焦平面位置,一方面避免了所显示虚拟图像的位置与双眼视轴交点不匹配而引起辐辏冲突的问题。另一方面避免生成过多的焦平面,从而简化光学元件组合,节约生产和设计成本。
图2示出了在一个三维坐标系,该三维坐标中真实世界的对象的一个或多个特征依赖于三维扫描部件获得(图中未示出)。图2中虚拟物体201、虚拟物体202是计算机渲染得到的。在一些实施例中通过用户发出的定位指令确定虚拟物体在真实世界中的位置。在另一些实施例中,或者通过三维环境数据分析单元分析三维扫描传感器获得的数据后确定符合预设属性的位置作为虚拟物体的定位点。可以理解的是,虚拟物体可以是2D的也可以是3D的。虚拟物体可以是静止的,也可以是相对于特定的静止对象或者运动对象(例如用户的手)作相对运动。用户依赖于AR设备感知虚拟物体的物像。
在一些实施例中,虚拟物体为通过光场相机拍摄获得的真实物体的物像,该物像通过AR设备投影,观看该投影的用户感知对应与该真实物体处于同一时空内。如图1所示,光场相机作为输入设备,为AR设备提供虚拟物体信息,光场相机拍摄获得的真实物体的物像,指定真实物体的物像在真实世界的三维坐标中的坐标位置,并根据视点、焦平面、真实物体物像的位置关系,计算投影到焦平面上的第一图像,第一图像即光场影像(image outof light field)。
以单眼视觉为例说明AR设备显示虚拟物体对应第一图像的方法,图2中O点示出了人眼的位置,该位置即视点,图中201、202示出了虚拟物体。根据用户视点与虚拟物体的空间关系,以及用户面部转动偏移确定用户单眼处于O点时的FOV(Field of View,视场)。在另一些实施例中,根据用户视点与虚拟物体的空间关系、用户面部转动以及用户视轴方向确定用户眼睛处于O点时的视场。在一个实施例中,视场在地面的投影视图如图3,所示FOV的中轴即用户的视轴方向。可以理解的是图3所示的为FOV的截面,在三维真实环境中FOV是一个以用户视点为顶点的椎体,图3中截面的顶角大小对应于用户眼睛的视角范围,图3中的横线示意不同的视觉深度。用户眼睛的聚焦的深度可以随时调整,以感知不同视觉深度的物体的细节。
在一个实施例中,视场中存在于不同视觉深度上的物体,如图4、图5所示,相对于人眼303的位置,第一物体301和第二物体302处于不同的视觉深度平面。第一物体301远于第二物体302,第一物体301、第二物体302可以是真实环境的物体也可以是虚拟物体。用户在注视第一物体301时,用户晶状体的表面曲率变小,用户的晶状体状态如图4所示;当用户注视第二物体302时,用户晶状体表面的曲率变大,用户的晶状体状态如图5所示。
以第一物体A是虚拟物体,第二物体B是真实物体为例,说明根据所述焦平面位置、所述视点和虚拟物体的空间位置关系,计算虚拟物体在焦平面上的投影对应的第一图像。
在一个实施例中,如图6所示,当用户晶状体状态改变时,根据用户的晶状体状态计算得到用户注视的深度平面的位置,该深度平面即焦平面根据用户注视深度平面确定投影映射视窗的位置,根据虚拟物体、投影映射视窗和用户眼睛的位置在投影映射视窗平面中映射生成投影图像,即第一图像。根据左眼视轴和左眼视线深度确定左眼焦平面位置,计算虚拟物体映射于所述左眼焦平面、对应于所述左眼视点的第一图像A;根据右眼视轴和右眼视线深度确定右眼焦平面位置,计算虚拟物体映射于所述右眼焦平面,对应于所述右眼视点的第一图像B。在一些实施例中,AR设备仅提供一只眼睛的增强现实体验,在计算第一图像时,仅计算虚拟物体映射于所述右眼焦平面,对应于所述右眼视点的第一图像B,或仅计算虚拟物体映射于所述左眼焦平面,对应于所述左眼视点的第一图像B。在双眼的情况下,通过检测晶状体的状态确定焦平面位置并根据焦平面位置生成虚拟图像,由于晶状体的状态变化与视觉深度正相关,经过校准后,晶状体确定视觉深度的误差小,避免了显示虚拟图像的位置与双眼视轴交点不匹配而引起辐辏冲突的问题。
在一个实施例中,当用户双眼视轴改变时,根据左眼和右眼的视轴的交点的确定焦平面的位置。根据所述焦平面位置、所述左眼视点和虚拟物体的空间位置关系,计算虚拟物体在所述焦平面上的投影对应的第一图像C;根据所述焦平面位置、所述右眼视点和虚拟物体的空间位置关系,计算虚拟物体在所述焦平面上的投影对应的第一图像D。通过双眼视轴焦点确定焦平面位置,避免了显示虚拟图像的位置与双眼视轴交点不匹配而引起辐辏冲突的问题。人眼对于焦平面位置误差的感知在近眼距离内非常敏感,即在近眼范围内显示第一图像时,若焦平面位置的确定存在误差,眼睛很容易感觉到,并引起疲劳、昏眩等。根据视轴确定焦平面位置时的误差与两个视轴的误差之和正相关,在用户聚焦近距离物体,焦平面位置时的误差可能超过可接受的范围,在此时焦平面位置与物体在真实三维环境中的位置不匹配,则容易引起辐辏冲突效应,引起疲劳、昏眩感觉。
应当理解,需要渲染的虚拟物体可能有多个,用户注视的深度平面可能位于用户眼睛和所有虚拟物体的任一位置。例如所有的虚拟物***于用户注视的深度平面之后;在另一些情况下,用户注视的深度平面位于所有虚拟物体之前;在另一些情况下,用户注视的深度平面位于部分虚拟物体之前,部分虚拟物体之后。
图7示出了对于不同情况下焦平面中映射生成投影图像的示意图;虚拟物体403位于焦平面410之前,则根据用户视线与虚拟物体403交点的延长线,确定虚拟物体403在焦平面中的显示坐标,该显示坐标对应的像素值与经过虚拟物体403表面对应的点的反射且进入人眼的光线的信息相关,如图7所示,虚拟物体403对应在投影区域坐标位于4051标识所指示的区域;虚拟物体405位于焦平面410之后,则根据用户视线与焦平面的交点作为虚拟物体405在焦平面中的显示坐标,该显示坐标对应的像素值与经过虚拟物体405表面对应某点的反射且进入人眼的光线的信息相关,如图7所示,虚拟物体405对应在投影区域坐标位于4051标识所指示的区域。遍历视场内所有的虚拟物体,获得视场内所有虚拟物体对应的映射点的显示坐标,对应于图7的场景中,虚拟物体在焦平面上的投影如图8所示。其中虚拟物体201在焦平面上的投影区域对应于标识2011所指示的区域,虚拟物体202在焦平面上的投影区域对应于标识2021所指示的区域,虚拟物体405在焦平面的投影区域对应于标识405所指示的区域,虚拟物体403在焦平面上的投影区域对应于标识4031所指示的区域。通过遍历用户视场内所有的虚拟物体,并渲染视场内所有虚拟物体对应的映射点,而不是只投影位于焦平面附近或者焦平面之后的虚拟物体对应的映射点,使得在用户向虚拟物体移动的过程中,特别是在用户趋近虚拟物体,即使距离较近时,用户的视野中一直存在近距离虚拟物体的影像,而不会出现用户还未靠近虚拟物体,虚拟物体已被截断不显示在用户的视野中的情况。
通过三维扫描确定用户四周真实环境,并根据位置指令,确定虚拟物体在真实环境中的相对位置,根据用户所处的位置和用户头部朝向确定用户的视点位置,在根据用户的单眼睛的视轴的指向,确定用户视场范围,用户的视场范围为以用户眼睛为顶点,以眼睛可视角度为顶角的锥体;在一些实施例中,根据用户的AR设备的光导镜片的可视范围确定用户的视场范围,例如光导镜片的视场范围为水平方向40度,垂直方向30度棱锥体,则用户的视场为对应的棱锥体。根据用户晶状体的状态确定用户视线焦点的位置,再根据用户视线焦点确定焦平面位置,将虚拟物体映射到焦平面显示。此方法一方面在满足用户实现焦点切换时用户能准确的看到焦点对应物体的清晰像的情况下,避免了为显示多个焦平面而设计复杂的光路结构,节约设计和设备成本;另一方面根据用户晶状体的状态计算用户眼睛注视焦点从而确定焦平面的位置,使得单眼的情况下显示界面的焦点与用户的晶状体状态相匹配,避免了晕眩的情况。
在另一些实施例中,还根据虚拟物体与注视焦点的距离,控制虚拟物体在投影映射视窗平面中对应的映射像素的渲染分辨率。例如在一些实施例中,如图9所示,距离用户注视焦点半径为R1的空间范围内的虚拟物体表面所对应的焦平面的投影映射点以第一分辨率渲染;若位于用户注视焦点半径R1的三维空间范围外的虚拟物体的表面在焦平面上的投影则以第二分辨率渲染。在另一实施例中以第一分辨率渲染距离用户注视焦点半径R1内的虚拟物体的表面在焦平面上的投影点,使用第二分辨率渲染对应于用户注视焦点半径为R1之外,距离用户注视焦点半径为R2之范围内的虚拟物体表所对的映射点,以第三分辨率渲染距离用户注视焦点半径R2外的虚拟物体表面在焦平面上的投影,依次类推。可以理解的是R1小于R2,第一分辨率大于第二分辨率,第二分辨率大于第一分辨率;R1和R2与第一分辨率和第二分辨率的对应关系可以是线性的,也可以是其他的对应方式。在一个实施例中,如图9所述,虚拟物体605、603距离用户注视焦点的距离超过R1,小于R2,则使用对应的第二分辨率渲染虚拟物体605、603在焦平面上的投影5051和5031;虚拟物体602距离用户注视焦点的距离超过R2,则使用对应的第三分辨率渲染虚拟物体602在焦平面上的投影5021.渲染得到的第一图像如图10所示。在另一些实施例中,位于视场中心的第一预设的视角范围内且与注视焦点的距离小于预设第一距离的虚拟物体表面所对应的映射点使用第一分辨率渲染,预设的视角范围可以是10度到20度内任一角度。将位于视场中心第一预设角度范围内且与注视焦点的距离大于第一距离的虚拟物体表面所对应的映射点使用第二分辨率渲染,将位于视场中第一预设角度范围外的虚拟物体表面所对应的映射点使用第二分辨率渲染。在一些实施例中包括以多个级别的分辨率渲染对应的映射点,根据映射点所对应的虚拟物体表面与注视焦点的距离,以及对应的虚拟物体与视场中心的夹角大小,将映射点对应分类,采用对应级别的分辨率渲染对应的映射点。例如将位于视场中心的第一预设的视角范围内且与注视焦点的距离小于预设第一距离的虚拟物体表面所对应的映射点使用第一分辨率渲染,第一预设的视角范围可以是10度到20度内任一角度。将位于视场中心第一预设角度范围内且与注视焦点的距离大于第一距离且小于第二距离的虚拟物体表面所对应的映射点使用第二分辨率渲染,将位于视场中第一预设角度范围外且处于第二预设视角内的虚拟物体表面所对应的映射点使用第二分辨率渲染,将位于视场中处于第二预设视角外的虚拟物体表面对应映射点使用第三分辨率渲染,将位于视场中心第二预设视角之外且与注视焦点的距离大于第二距离的虚拟物体表面对应的映射点使用第四分辨率渲染。
根据虚拟物体表面的像素点与用户的注视焦点中心的距离以及与视轴的夹角确定渲染对应映射点的渲染分辨率,使得第一图像中心以第一分辨率渲染的区域匹配中央凹区,而第一图像非注视焦点区域则以分配低分辨率渲染,从而刺激人眼准确判断虚拟物体之间的静态深度关系,以及判读虚拟物体与真实物体之间的深度关系。
如图11所示,在一实施例中,计算机生成的第一图像通过光学镜片将虚拟物体对应第一图像的光谱导引进入人眼。在光学镜片背离人眼的一侧,设置有遮蔽层106。遮蔽层106依次包括后偏光片、薄膜晶体管、液晶层、前偏光片,用于有选择的透过环境光。后偏光层位于背离人眼的一侧,前偏关层位于靠近人眼的一侧。遮蔽层对应的驱动电路设置于AR设备内。如图12所示,驱动电路的工作流程如下:
对应于701、驱动电路根据虚拟物体对应的第一图像,生成对应的控制信号,该控制信号用于根据第一图像中虚拟物体对应的像素值控制遮蔽层对应液晶分子的偏转状态。驱动电路将生成的控制信号输入真实影像模块。真实影像模块根据所述控制信号控制薄膜晶体管的开关状态。例如在一个实施例中,遮蔽层中对应于第一图像中虚拟物体轮廓内的像素点的薄膜晶体管所对应开关控制信号为on,该像素点对应的薄膜晶体管接受到该开关控制信号后,控制对应的液晶分子切换为偏转状态,从而屏蔽环境光穿过液晶层;遮蔽层中对应于第一图像中虚拟物体轮廓外的像素点的薄膜晶体管所对应的开关控制信号为off,在该像素点对应的薄膜晶体管接受到该开关控制信号后,控制对应的液晶分子处于未偏转状态,从而环境光能穿透液晶层。
对应于702,后偏光片将所接收到的环境光转化为对应的偏振光,将偏振光和各控制信号作用于薄膜晶体管。
对应于703,根据控制信号,对薄膜晶体管施以对应的电压。
对应于704,薄膜晶体管根据电压值,控制各对应液晶层中液晶分子的偏转状态。若薄膜晶体管所对应开关控制信号为on,则该薄膜晶体管接受到该开关控制信号后,控制对应的液晶分子切换为偏转状态,从而屏蔽环境光穿过液晶层;若薄膜晶体管所对应的开关控制信号为off,则薄膜晶体管接受到该开关控制信号后,控制对应的液晶分子处于未偏转状态,从而环境光能穿透液晶层。
对应于705,前偏光片将透过液晶层的处于偏振状态的环境光转化为自然状态的环境光。
对应于706,驱动电路生成第一图像对应的光谱,并通过光学镜片导入人眼。
在上述实施例中,通过增加遮蔽层,根据第一图像中虚拟物体的影像有选择的屏蔽环境光,避免从光学镜片导入人眼的第一图像的光谱叠加环境光后,使得虚拟物体会出现呈现“鬼影”、“透明”现象,增加了虚拟物物体的实体感,从而提高了真实世界与虚拟世界的融合体验。解决了AR设备在光照强度高的环境中使用的问题。
本发明实施例所提供的装置,其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,前述描述的***、装置和单元的具体工作过程,均可以参考上述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的实施例中,应该理解到,所揭露装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明提供的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释,此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围。都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (13)
1.一种AR设备显示光场影像的方法,其特征在于,包括:
确定视点相对于虚拟物体的在真实环境中的空间位置关系;
根据用户注视焦点确定焦平面位置;
根据所述焦平面位置、所述视点和所述虚拟物体的所述空间位置关系,计算所述虚拟物体在焦平面上的投影对应的第一图像;
控制光学元件将所述第一图像显示于所述焦平面位置;
其中,在所述第一图像中,所述虚拟物体对应的映射像素的渲染分辨率与所述空间位置关系对应。
2.根据权利要求1所述的方法,其特征在于,所述确定视点相对于虚拟物体的在真实环境中的空间位置关系,包括:
通过三维传感器扫描真实环境,构建真实环境的三维模型;
根据位置指令确定所述虚拟物体在所述真实环境的三维模型中的定位;
获得用户头部转动偏移;
根据用户头部在所述真实环境的三维模型中的定位、所述虚拟物体在所述真实环境的三维模型中的定位,以及所述用户头部转动偏移确定视点相对于虚拟物体的空间位置关系。
3.根据权利要求2所述的方法,其特征在于,在所述根据用户注视焦点确定焦平面位置之前,还包括:
根据单眼晶状体的状态确定单眼的注视深度。
4.根据权利要求3所述的方法,其特征在于,所述根据用户注视焦点确定焦平面位置包括:
根据单眼视轴和注视深度确定焦平面位置。
5.根据权利要求4所述的方法,其特征在于,
所述视点包括左眼视点和右眼视点;
所述根据所述焦平面位置、所述视点和虚拟物体的所述空间位置关系,计算所述虚拟物体在焦平面上的投影对应的第一图像,包括:
根据左眼视轴和左眼视线深度确定左眼焦平面位置,计算虚拟物体映射于所述左眼焦平面位置、对应于所述左眼视点的第一图像A;
根据右眼视轴和右眼视线深度确定右眼焦平面位置,计算虚拟物体映射于所述右眼焦平面位置,对应于所述右眼视点的第一图像B。
6.根据权利要求2所述的方法,其特征在于,所述根据用户注视焦点确定焦平面位置,包括:
根据左眼和右眼的视轴的交点确定焦平面的位置。
7.根据权利要求6所述的方法,其特征在于,所述视点包括左眼视点和右眼视点;
所述根据所述焦平面位置、所述视点和虚拟物体的空间位置关系,计算虚拟物体在焦平面上的投影对应的第一图像,包括:
根据所述焦平面位置、所述左眼视点和虚拟物体的空间位置关系,计算虚拟物体在所述焦平面上的投影对应的第一图像C;
根据所述焦平面位置、所述右眼视点和虚拟物体的空间位置关系,计算虚拟物体在所述焦平面上的投影对应的第一图像D。
8.根据权利要求1所述的方法,其特征在于,还包括:
根据所述第一图像中所述虚拟物体的映射轮廓,确定遮蔽层对应的像素的遮光状态。
9.根据权利要求1所述的方法,其特征在于,所述根据所述焦平面位置、所述视点和虚拟物体的空间位置关系,计算虚拟物体在焦平面上的投影对应的第一图像,包括:
根据所述注视焦点与所述虚拟物体表面各像素的距离关系,计算焦平面中所述虚拟物体表面各像素所对应映射点的渲染分辨率;
根据所述注视焦点确定焦平面的空间位置,根据视点、焦平面和虚拟物体的空间位置关系,以对应的渲染分辨率渲染所述虚拟物体映射于焦平面的第一图像。
10.根据权利要求1所述的方法,其特征在于,所述根据所述焦平面位置、所述视点和虚拟物体的空间位置关系,计算虚拟物体在焦平面上的投影对应的第一图像,包括:
根据所述虚拟物体表面中各像素点所在的深度平面与焦平面的距离确定对应的渲染分辨率;
根据所述注视焦点确定焦平面的空间位置,根据视点、焦平面和虚拟物体的空间位置关系,以对应的渲染分辨率渲染所述虚拟物体映射于焦平面的第一图像。
11.根据权利要求1所述的方法,其特征在于,所示控制光学元件将第一图像显示于所述焦平面位置,包括:
将投影成像单元产生的第一图像的光谱经过1/4波片改变偏振方向;
第一图像的光谱经过第一偏振分光板反射和远心透镜组汇准直达可变形反射镜;
根据焦平面位置调整变形反射镜的曲率;第一图像的光谱经过可变形反射镜射入第二偏振分光板,经过第二偏振分光板全反射注入波导镜片。
其中可变形反射镜位于远心透镜组的焦平面处。
12.一种AR显示设备,其特征在于,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现如权利要求1-10中任一项所述的方法。
13.一种存储介质,其上存储有计算机程序指令,其特征在于,当所述计算机程序指令被处理器执行时实现如权利要求1-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910234289.6A CN109979016B (zh) | 2019-03-26 | 2019-03-26 | 一种ar设备显示光场影像的方法、ar设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910234289.6A CN109979016B (zh) | 2019-03-26 | 2019-03-26 | 一种ar设备显示光场影像的方法、ar设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109979016A true CN109979016A (zh) | 2019-07-05 |
CN109979016B CN109979016B (zh) | 2023-03-21 |
Family
ID=67080681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910234289.6A Active CN109979016B (zh) | 2019-03-26 | 2019-03-26 | 一种ar设备显示光场影像的方法、ar设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109979016B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910482A (zh) * | 2019-11-29 | 2020-03-24 | 四川航天神坤科技有限公司 | 视频数据组织调度的方法、***及可读存储介质 |
CN111880654A (zh) * | 2020-07-27 | 2020-11-03 | 歌尔光学科技有限公司 | 一种图像显示方法、装置、穿戴设备及存储介质 |
CN112270766A (zh) * | 2020-10-14 | 2021-01-26 | 浙江吉利控股集团有限公司 | 虚拟现实***的控制方法、***、设备及存储介质 |
CN112950688A (zh) * | 2019-11-26 | 2021-06-11 | 七鑫易维(深圳)科技有限公司 | 注视深度的确定方法、装置、ar设备及存储介质 |
CN114442319A (zh) * | 2020-11-05 | 2022-05-06 | 群创光电股份有限公司 | 影像的显示方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106412556A (zh) * | 2016-10-21 | 2017-02-15 | 京东方科技集团股份有限公司 | 一种图像生成方法及装置 |
US20180120573A1 (en) * | 2016-10-31 | 2018-05-03 | Dolby Laboratories Licensing Corporation | Eyewear devices with focus tunable lenses |
-
2019
- 2019-03-26 CN CN201910234289.6A patent/CN109979016B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106412556A (zh) * | 2016-10-21 | 2017-02-15 | 京东方科技集团股份有限公司 | 一种图像生成方法及装置 |
US20180120573A1 (en) * | 2016-10-31 | 2018-05-03 | Dolby Laboratories Licensing Corporation | Eyewear devices with focus tunable lenses |
Non-Patent Citations (1)
Title |
---|
周雅等: "可寻址光线屏蔽机制光学透视式增强现实显示***研究", 《仪器仪表学报》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112950688A (zh) * | 2019-11-26 | 2021-06-11 | 七鑫易维(深圳)科技有限公司 | 注视深度的确定方法、装置、ar设备及存储介质 |
CN110910482A (zh) * | 2019-11-29 | 2020-03-24 | 四川航天神坤科技有限公司 | 视频数据组织调度的方法、***及可读存储介质 |
CN110910482B (zh) * | 2019-11-29 | 2023-10-31 | 四川航天神坤科技有限公司 | 视频数据组织调度的方法、***及可读存储介质 |
CN111880654A (zh) * | 2020-07-27 | 2020-11-03 | 歌尔光学科技有限公司 | 一种图像显示方法、装置、穿戴设备及存储介质 |
CN112270766A (zh) * | 2020-10-14 | 2021-01-26 | 浙江吉利控股集团有限公司 | 虚拟现实***的控制方法、***、设备及存储介质 |
CN114442319A (zh) * | 2020-11-05 | 2022-05-06 | 群创光电股份有限公司 | 影像的显示方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109979016B (zh) | 2023-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109979016A (zh) | 一种ar设备显示光场影像的方法、ar设备和存储介质 | |
US11231592B2 (en) | Augmented reality head-mounted display with a focus-supporting projector for pupil steering | |
US20200117140A1 (en) | Holographic image display system | |
Kramida | Resolving the vergence-accommodation conflict in head-mounted displays | |
US7533989B2 (en) | Sight-line detection method and device, and three-dimensional view-point measurement device | |
Coutinho et al. | Improving head movement tolerance of cross-ratio based eye trackers | |
KR20210049868A (ko) | 눈의 시선 방향을 검출하기 위한 방법 | |
CN107427208B (zh) | 用于通过透镜***提供无漂移的眼部跟踪的头戴式眼部跟踪设备和方法 | |
US20160173864A1 (en) | Pickup of objects in three-dimensional display | |
US20200201038A1 (en) | System with multiple displays and methods of use | |
US20210231963A1 (en) | Device apparatus for projecting a laser beam for generating an image on the retina of an eye |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |