发明内容
本发明的目的旨在至少解决所述技术缺陷之一。
为此,本发明的目的在于提出一种Inside-Out空间定位的AR立体显示装置。
为了实现上述目的,本发明的实施例提供一种Inside-Out空间定位的AR立体显示装置,包括:头圈、摄像头、IMU单元、数据采集及处理模块、显示屏、半透射/半反射显示板、信号及电源线、高速媒体数据传输线和麦克风,其中,
所述头圈用于将AR立体显示装置固定于使用者的头部;
所述摄像头安装于所述头圈的前端,用于实时采集当前场景的图像,并发送至所述数据采集及处理模块;
所述IMU单元安装于所述头圈的前端,用于实时采集使用者的线性运动加速度及旋转角速度数据,并发送至所述数据采集处理模块;
所述数据采集及处理模块用于对来自所述摄像头的图像进行实时分析,获取场景中的物体特征信息及背景特征信息,并将所述场景中的物体特征信息及背景特征信息与来自所述IMU单元的线性运动加速度及旋转角速度数据进行数据融合,获取当前场景内的三维坐标及姿态信息,并将融合后的数据通过所述信号线发送至终端设备,以由所述终端设备根据所述三维坐标及姿态信息,生成对应位置和方向的虚拟物体;
所述麦克风用于实时采集使用者语音及环境的音频信号;
所述显示屏安装于所述头圈的前端,用于通过所述高速媒体数据传输线接收高速视音频信号,并显示所述终端设备生成的虚拟物体或所需的叠加物体影像;
所述半透射/半反射显示板安装于所述显示屏的下方,用于在透射场景中的物体的同时,将虚拟物体或所需的叠加物体影像反射到使用者的眼中,与透射的场景中实际物体的影像叠加,以产生增强现实AR的效果。
进一步,还包括:安装于所述头圈后端的头圈宽度调节器和头圈辅助固定框。
进一步,所述摄像头和IMU单元在工作之前进行校准,其中,
对所述摄像机进行校准,包括:获取所述摄像机内、外部参数和畸变参数,利用所述摄像机内、外部参数和畸变参数用于后续计算时去除镜头畸变;
对所述IMU单元进行校准,包括:获取加速度计和陀螺仪的零偏参数,用于消除后续数据采集时的***误差。
进一步,所述数据采集处理模块对来自摄像机的每一帧图像进行特征点提取,对相邻帧进行特征匹配,保留包含预设数量的匹配特征点及新特征点的帧,作为关键帧,利用相邻若干所述关键帧中的特征点,通过三角测量,推算出场景的三维坐标及摄像头姿态,实现运动姿态估算;
所述数据采集及处理模块,对所述摄像头采集的图像出现模糊,或相邻帧间重叠区域过少无法匹配的情况,利用来自所述IMU单元采集的数据估算出姿态和快速运动信息,完成位置和姿态估计。
进一步,所述数据采集处理模块对位置和姿态估计结果进行局部优化,包括:通过线性或非线性方法,根据所述关键帧对运动姿态估算结果进行优化,得到更准确的结果,得到位置姿态数据,并发送至所述终端设备;
所述数据采集处理模块进一步将上述局部优化的结果进行下一步的全局优化,建立场景中完整运动的所有特征点。
进一步,所述数据采集及处理模块,利用长时间运动时路径出现与之前轨迹相交形成闭路的情况,进行位置、姿态的修正,调用全局优化中之前运动过程相似位置的数据,经过校准以消除***产生的累加误差。
进一步,所述终端设备生成两路影像,根据所述终端设备生成的虚拟物体模型,使用两个不同位置、不同角度的虚拟相机,实时生成同一虚拟物体的不同影像,并通过显示屏、半透视/半反射板投影到使用者眼中,使用者双眼经视网膜合成形成立体影像,并将该立体影像同时叠加在现实的场景和实物影像上。
进一步,所述终端设备采用个人计算机PC或移动终端。
根据本发明实施例的Inside-Out空间定位的AR立体显示装置,通过摄像头采集的视频获取视觉特征信息,与集成惯性传感器获取的运动、姿态信息,采用融合算法,得到实时的空间坐标与姿态,实现定位功能;所有数据的采集与融合计算,由嵌入式计算机完成,定位功能的实现无需借助额外的计算设备或环境设置。本发明可根据应用,通过输出两路存在视差的视频影像,提供虚拟物体的立体影像,并与真实场景、物体的影像叠加,使得增强现实效果更加逼真。
本发明实施例的Inside-Out空间定位的AR立体显示装置,具有以下优点:
1)实时定位功能实现可由装置单机实现,无需借助额外的设备或环境中标识物的设置,具有更高的灵活性和更强的适应性;
2)采用单目摄像机和集成IMU传感器,成本较低;
3)多传感器融合,针对高速、低速的运动都能准确跟踪、定位,不受使用者自由行走及头部转动的影响,从而实现虚拟物体与真实空间更精准的叠加效果;
4)可针对不同AR应用灵活地叠加实时视频,并具有立体显示功能;
5)采用头戴式设计,方便佩戴。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
本发明提出一种Inside-Out空间定位的AR立体显示装置,基于多传感器融合的空间定位技术,通过实时计算,获取使用者的三维位置和姿态信息,为应用的虚拟视觉信息提供目标位置、朝向信息,实现场景中真实物体与虚拟物体的准确叠加。本装置利用人眼的双目视差原理,通过提供两路不同的实时视频,使得使用者看到的虚拟影像具有立体效果。
下面对后文中提及到几个相关技术术语进行说明:
虚拟现实:虚拟现实(Virtual Reality,简称VR),是一种可以创建和体验虚拟世界的计算机仿真***,它利用计算机生成一种模拟环境,是一种多信息融合的交互式的三维动态视景和实体行为的***仿真,使用户沉浸到该环境中。
AR:增强现实(Augmented Reality,简称AR),是一种通过计算机将虚拟信息(物体、图片、视频、声音等)实时融合到现实环境中,丰富现实世界的技术,它使得虚拟与现实世界合为一体,并能实现与虚拟世界的互动。
Inside-out:虚拟现实和增强现实中一种定位、跟踪方式,将摄像头等传感器固定于使用者身体的某部位(通常在头部),使用时传感器向外部的环境获取位置及姿态变化信息,通过计算实时得到相对于环境的运动信息,并确定虚拟环境中对应的位置与姿态,其实现方式既可借助于环境中预先设置的特定标识物,也可直接利用环境本身具有的突出特征(例如局部的形状、边缘、纹理等)信息。相对于在环境中固定多个传感器,通过外部传感器获取使用者位置、姿态信息的Outside-In方式,对于环境的要求及设备安装的成本更低,实现应用区域扩展更灵活方便。
IMU:惯性测量单元(Inertial Measurement Unit,简称IMU),是测量物体运动及姿态的传感器组合。通常包含三轴加速度计用于测量物体在空间三个轴向的加速度,和三轴陀螺仪,以测量物体在三维空间旋转的角速度。
如图1所示,本发明实施例的Inside-Out空间定位的AR立体显示装置,包括:头圈1、摄像头2、IMU单元、数据采集处理模块、显示屏4、半透射/半反射显示板5、信号及电源线6、高速媒体数据传输线7和麦克风10。其中,IMU单元和数据采集处理模块共同记为标记3。
具体的,头圈1用于将AR立体显示装置固定于使用者的头部。
此外,本发明的Inside-Out空间定位的AR立体显示装置,还包括:安装于头圈1后端的头圈宽度调节器8和头圈辅助固定框9。
其中,头圈宽度调节器8可调节头圈1尺寸以适应使用者头部大小,达到最佳佩戴效果。头圈辅助固定框9可以配合头圈1达到更好的固定效果。
摄像头2安装于头圈1的前端,用于实时采集当前场景的图像,并发送至数据采集及处理模块。
IMU单元安装于头圈1的前端,用于实时采集使用者的线性运动加速度及旋转角速度数据,并发送至数据采集及处理模块。
在本发明的一个实施例中,如图2所示,***运行时,由数据采集及处理模块对摄像头2和IMU单元在工作之前需要进行校准。
具体的,对摄像机进行校准,包括如下步骤:获取摄像机内、外部参数和畸变参数,利用摄像机内、外部参数和畸变参数用于后续计算时去除镜头畸变。
对IMU单元进行校准,包括如下步骤:获取加速度计和陀螺仪的零偏参数,用于消除后续数据采集时的***误差。
在经过数据采集处理模块完成对摄像头2和IMU单元的校准后,控制摄像机和IMU分别进行数据采集,摄像机采集的实时视频,经数据采集处理模块提取特征值,IMU单元实时采集加速度和角速度值,即各自分别完成对应的工作。
在本发明的一个实施例中,传感器组合可进行变更,例如摄像头2不限于单目,也可采用多摄像头;IMU单元可不仅限于加速度计和陀螺仪,根据应用也可添加磁力计或气压计等。这都可根据用户实际需求进行选取,在此不再赘述。
数据采集及处理模块用于对来自摄像头2的图像进行分析,获取场景中的物体特征信息及背景特征信息,并将场景中的物体特征信息及背景特征信息与来自IMU单元的线性运动加速度及旋转角速度数据进行数据融合,获取当前场景内的三维坐标及姿态信息,并将融合后的数据通过信号及电源线6发送至终端设备,以由终端设备根据三维坐标及姿态信息,生成特定位置和方向的虚拟物体。
在本发明的一个实施例中,数据采集及处理模块可以采用嵌入式处理计算机。
需要说明的是,本发明中的信号及电源线6分为信号线和电源线两部分,其中,信号线提供嵌入式计算机与后端PC或移动计算机之间的信号传输,包括各种控制信号,以及嵌入式计算机生成的三维坐标和姿态数据;电源线为嵌入式计算机、显示屏4、摄像头2、IMU等供电。
具体的,数据采集及处理模块对来自摄像机的每一帧图像进行特征点提取,对相邻帧进行特征匹配,保留具有预设数量的匹配特征点及新特征点的帧,作为关键帧。特征匹配用于解决数据关联问题,即当前场景与之前场景之间的对应关系,特征匹配保证了三维坐标的计算和运动状态的跟踪。然后利用若干相邻关键帧中的特征点,通过三角测量,推算出场景的三维坐标及摄像头2姿态,实现运动姿态估算。
数据采集及处理模块,对于摄像头2采集图像出现模糊,(例如,由于摄像头2高速运动状态下采集图像模糊情况)或相邻帧间因重叠区域过少出现无法匹配的情况,利用来自IMU单元采集的数据估算出姿态和快速运动信息,完成位置和姿态估计。
图4为由数据处理模块中定位程序的流程图。
如图4所示,数据采集处理模块对位置和姿态估计结果先进行局部优化,包括:通过线性或非线性方法,根据最新若干个关键帧,对运动姿态估算结果进行优化,得到更准确的结果,得到的位置姿态数据,并发送至终端设备,以确定虚拟物体生成的位置和方向。
数据采集及处理模块进一步将上述局部优化的结果进行下一步的全局优化,建立场景中完整运动的所有特征点,由于受到嵌入式***运算能力和存储容量的限制,为满足实时处理的要求,***只保留一定数量的连续关键帧,在后续运动中,随着新关键帧的输入,最早的关键帧被逐步去除,这样只使用当前保存的若干特征点,测量和计算中的误差会累积,使得长时间运动时计算的坐标、姿态偏差逐步增大,重复运动的轨迹由于偏差的增大,无法满足一致性,不再重合,通过全局优化建图后,对于较大的场景,可避免局部优化的不足。
并且,数据采集处理模块执行回环检测,包括利用长时间运动时路径出现与之前相交形成闭路的情况,进行位置、姿态的修正,调用全局优化中之前运动过程相似位置的数据,经过校准以消除***产生的累加误差,而在运动过程中由于采集数据不准难以进行准确跟踪时,也可利用回环检测进行重新定位。
对于场景很大的应用,为了兼顾准确性和实时性,生成的全局图也可传输到后端的终端设备,作为全景建图的一部分,运动过程中,可根据当前区域调用全局图的相关部分,下载到嵌入式计算机里,以节省其运算量和存储空间。
此外,本发明还提供补偿校准功能,根据摄像机和IMU单元各自特点,当一种传感器采集的数据估算的结果不准确或数据不能获取时,根据另一种采集获取的结果进行补偿:头戴式装置快速运动时摄像机采集结果出现模糊,或场景中出现快速运动的物体时也会出现模糊,前者可根据IMU单元高速采集获取的姿态信息得到较好的姿态估计,后者可由IM U单元的姿态信息判断出场景的高速变化,是源于摄像机本身运动,或是场景中存在高速运动的物体,从而分别进行处理。。IMU单元本身在静止或慢速运动时,自身存在漂移,累积的结果会造成误差的增大,而摄像机静止或慢速运动时位姿信息可靠,同时也可用于对IMU姿态信息的校准。
麦克风10用于实时采集使用者语音及环境的音频信号。显示屏4安装于头圈1的前端,用于通过高速媒体数据传输线7接收终端设备实时生成的高速视音频信号,并实时显示,其内容即为虚拟物体或所需叠加物体的影像,显示屏的输出影像,通过半透射/半反射板5,和场景中的实际物体叠加,产生增强现实的效果。
半透射/半反射板5安装于显示屏4的下方,用于在透射场景中背景和物体的同时,将显示屏4产生的虚拟物体或所需的叠加物体影像反射到使用者的眼中,与透射的场景中实际物体的影像叠加,以产生增强现实AR的效果。
即,通过高速媒体传输线,数据采集处理模块生成的影像传送到显示屏4,通过半透射/半反射板5,与实景中的物体和环境进行光学叠加,形成使用者看到的实时叠加影像,即增强现实影像。
需要说明的是,本发明中数据采集及处理的软件模块,可根据应用做一些改变或者更新,例如针对一些应用需要实体与对应的模型精确叠加,可增加相应的匹配功能,以实现两者高精度融合的显示效果。
终端设备根据接收到的来自数据采集处理模块的实时坐标及姿态信息,生成相应位置和姿态的虚拟物体或根据应用生成需要显示的物体影像
终端设备生成两路影像,根据数据采集及处理模块生成的虚拟物体,使用两个不同位置、不同角度的虚拟相机,实时生成同一虚拟物体的不同影像,并通过显示屏4、半透射/半反射板5投影到使用者眼中,使用者双眼经视网膜合成形成立体影像,同时通过半透射/半反射板5,现实世界的场景和实物也直接投射在使用者视网膜上,这样就实现了该立体影像在现实的场景和实物影像上的叠加。
在本发明的一个实施例中,终端设备采用个人计算机PC或移动终端。
图3为根据本发明实施例的利用视差进行立体显示的原理图。
立体成像的原理基于人眼的立体成像原理:左右眼间的瞳距约65mm(成年人),双眼看到的同一物体在视网膜所成的像存在微小的差异,根据这些差异视神经***合成的图像不仅包含了彩色、明暗等信息,也形成了所见物体中各点的距离信息,即整合形成了三维立体图像。如果在不同位置拍摄同一场景的视频,将视频分别同时输入左右眼,则眼前会呈现立体影像,这便是立体电影、立体电视的成像原理。
如图3所示,图3中实物30经双眼形成的像35,不仅包含了实物30的颜色和亮度信息,而且包含了深度信息,即实物30距离双眼的距离。左眼33对实物30成像为31,而右眼34对实物30的成像为32,由于左眼33与右眼34的瞳孔间存在一定的距离,即瞳距(成年人平均瞳距为65mm),这样大脑利用视网膜所成的像31与32的细微差异,最终合成的像35就包含了实物30的立体信息。
根据本发明实施例的Inside-Out空间定位的AR立体显示装置,通过摄像头采集的视频获取视觉特征信息,与集成惯性传感器获取的运动、姿态信息,采用融合算法,得到实时的空间坐标与姿态,实现定位功能;所有数据的采集与融合计算,由嵌入式计算机完成,定位功能的实现无需借助额外的计算设备或环境设置。本发明可根据应用,通过输出两路存在视差的视频影像,提供虚拟物体的立体影像,并与真实场景、物体叠加,使得增强现实效果更加逼真。
本发明实施例的Inside-Out空间定位的AR立体显示装置,具有以下优点:
1)实时定位功能实现可由装置单机实现,无需借助额外的设备或环境中标识物的设置,具有更高的灵活性和更强的适应性;
2)采用单目摄像机和集成IMU传感器,成本较低;
3)多传感器融合,针对高速、低速的运动都能准确跟踪、定位,不受使用者自由行走及头部转动的影响,从而实现虚拟物体与真实空间更精准的叠加效果;
4)可针对不同AR应用灵活地叠加实时视频,并具有立体显示功能;
5)采用头戴式设计,方便佩戴。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管上面已经示出和描述了本发明的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在不脱离本发明的原理和宗旨的情况下在本发明的范围内可以对上述实施例进行变化、修改、替换和变型。本发明的范围由所附权利要求及其等同限定。