CN105809654B - 目标对象跟踪方法、装置和立体显示设备及方法 - Google Patents

目标对象跟踪方法、装置和立体显示设备及方法 Download PDF

Info

Publication number
CN105809654B
CN105809654B CN201410837239.4A CN201410837239A CN105809654B CN 105809654 B CN105809654 B CN 105809654B CN 201410837239 A CN201410837239 A CN 201410837239A CN 105809654 B CN105809654 B CN 105809654B
Authority
CN
China
Prior art keywords
mark point
target object
point
spatial position
standard picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410837239.4A
Other languages
English (en)
Other versions
CN105809654A (zh
Inventor
郁树达
蒋凌锋
邢旭
李东方
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Super Technology Co Ltd
Original Assignee
Shenzhen Super Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Super Technology Co Ltd filed Critical Shenzhen Super Technology Co Ltd
Priority to CN201410837239.4A priority Critical patent/CN105809654B/zh
Publication of CN105809654A publication Critical patent/CN105809654A/zh
Application granted granted Critical
Publication of CN105809654B publication Critical patent/CN105809654B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明属于立体显示技术领域,提供一种目标对象跟踪方法,所述目标对象跟踪方法包括以下步骤:S1对应目标对象的空间位置设置标记点;S2获取所述标记点的位置信息;S3依据所述标记点的位置信息,重新构建所述目标对象的空间位置。本发明还提供目标对象跟踪设备,和立体显示方法以及立体显示设备。本发明与现有技术相比,具有稳定性好,捕捉人眼的位置信息的准确度高、成本低廉且对跟踪设备与目标对象之间的距离远近没有要求等优点。

Description

目标对象跟踪方法、装置和立体显示设备及方法
技术领域
本发明涉及立体显示技术领域,具体而言,涉及一种目标对象跟踪方法,跟踪装置,和立体显示设备及立体显示方法。
背景技术
近几年,立体显示技术发展迅速,成为人们研究的热点。立体显示技术已经越来越广泛应用于医疗、广告、军事、展览、游戏及车载显示等各个领域。立体显示技术包括佩戴眼镜式立体显示技术和无需眼镜的裸眼立体显示技术。其中,佩戴眼镜式立体显示技术发展很早,目前已经技术比较成熟,在很多领域中仍在使用;而裸眼立体显示技术起步较晚,其技术难度比佩戴眼镜式的难度要高,目前虽在相关领域有运用,但显示效果还不能满足人们的需求。尤其是目前裸眼立体显示技术应用到如球赛实况转播、医疗手术现场等实时播放的领域时,其实时播放的效果较差,无法满足观看的需要。因此,在这些领域,目前多数采用佩戴眼镜式的立体显示技术,还没有裸眼立体显示技术的应用。
此外,在目前的裸眼立体显示装置中,通常采用摄像机等人眼跟踪设备捕捉人眼的位置,然后依据人的左右眼的位置自适应的调节分光器件或对显示面板的像素进行排列,使得人在一定范围内自由移动,同时还不会影响到观看立体图像的显示效果。然而,现有的摄像机等人眼跟踪设备需要对拍摄到的含有人眼位置的二维图像进行特征分析,以获取人眼位置信息。采用这种方式,很难保证其稳定性和准确性。若没有获取到准确的人眼位置信息,这将严重影响立体显示效果,带来较差的用户体验。尤其是在需要实时播放立体显示图像的领域,比如在医疗领域,医生依据显示的立体图像进行手术时,医生需要不时且观看立体显示图像,如果跟踪的人眼位置信息不准确,将影响到医生的操作,严重者,会影响到手术的成功。又如在球赛实况转播时,对于实时性要求较高,图像在传输和处理方 面需要及时满足观看者观看立体图像的需要,这就对立体显示装置在跟踪和排图方面提出了更高的要求。
因此,如何准确获取到人眼的位置信息成为亟待解决的技术问题。
发明内容
本发明的目的在于提供一种立体显示装置,旨在解决由现有技术的局限和缺点引起的上述一个或多个技术问题。
本发明提供一种目标对象跟踪方法,所述目标对象跟踪方法包括以下步骤:
S1对应目标对象的空间位置设置标记点;
S2获取所述标记点的位置信息;
S3依据所述标记点的位置信息,重新构建所述目标对象的空间位置。
进一步地,所述S2进一步包括:S21预设一标准图像,所述标准图像中设有参考标记点,并获取所述参考标记点在所述标准图像中的空间坐标和平面坐标;
S22获取包含所述目标对象及所述标记点的当前图像,及所述标记点在所述当前图像的平面坐标;
S23将所述当前图像中的标记点与所述标准图像的所述参考标记点进行匹配。
进一步地,当所述标记点的数量不超过四个,且采用单目摄像机获取所述标记点的位置信息时,所述S3进一步包括:
S31依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标以及所述目标对象所在场景的假定条件计算所述当前图像与所述标准图像之间的单应变换关系;
S32根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点在当前时刻的空间位置计算所述目标对象当前的空间位置。
进一步地,当所述标记点的数量为五个以上,且采用单目摄像机获取所述标记点的位置信息时,所述S3进一步包括:
S33依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标,计算所述当前图像与所述标准图像之间的单应变换关系;
S34根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
进一步地,采用双目摄像机或多目摄像机获取所述标记点的位置信息时,所述S3进一步包括:
S35采用双目或多目三维重建原理,计算每一个标记点在当前时刻的空间位置;
S36根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
进一步地,在所述S1之前还包括:S0对用于获取所述标记点的位置信息的摄像机进行标定。
进一步地,所述标记点为红外LED灯。
进一步地,所述红外LED灯发出规则形状的光斑。
进一步地,在所述S1与S2之间还包括:
S4采集所述标记点;
S5从所述标记点中筛选目标标记点。
进一步地,在所述S5采用特征提取函数H进行筛选获取标记点组合F,所述筛选通过下述数学表达式实现:
S(x,y)=H(I(x,y))
F={arg(x,y)(S(x,y)>s0)}
其中,H是特征提取函数,I(x,y)是每一个像素(x,y)所对应的图像值,S(x,y)是每一个像素(x,y)经过特征提取后的特征分数,s0是一个特征分数阈值,F是标记点集合。
本发明还提供一种立体显示方法,所述显示方法包括:获取观看者的空间位置信息;根据所述位置信息调整立体图像的显示内容;其特征在于:所述获取观看者的空间位置信息采用前述的目标对象跟踪方法获得。
本发明还提供一种目标对象跟踪装置,包括:
标记点设置单元,对应目标对象的空间位置设置标记点;
获取单元,获取所述标记点的位置信息;
重新构建单元,依据所述标记点的位置信息,重新构建所述目标对象的空间位置。
进一步地,所述获取单元包括:
预设模块,预设一标准图像,所述标准图像中设有参考标记点,并获取所述参考标记点在所述标准图像中的空间坐标和平面坐标;
获取模块,获取包含所述目标对象及所述标记点的当前图像,及所述标记点在所述当前图像的平面坐标;
匹配模块,将所述当前图像中的标记点与所述标准图像的所述参考标记点进行匹配。
进一步地,当所述标记点的数量不超过四个,且采用单目摄像机获取所述标记点的位置信息时,所述重新构建单元还包括:
第一计算模块,用于依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标以及所述目标对象所在场景的假定条件计算所述当前图像与所述标准图像之间的单应变换关系;
第一重构模块,用于根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点在当前时刻的空间位置计算所述目标对象当前的空间位置。
进一步地,当所述标记点的数量为五个以上,且采用单目摄像机获取所述标记点的位置信息时,所述重新构建单元还包括:
第二计算模块,用于依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标,计算所述当前图像与所述标准图像之间的单应变换关系;
第二重构模块,用于根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
进一步地,当采用双目摄像机或多目摄像机获取所述标记点的位置信息时,所述重新构建单元还包括:
第三计算模块,用于采用双目或多目三维重建原理,计算每一个标记点在当前时刻的空间位置;
第三重构模块,用于根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
进一步地,所述目标对象跟踪装置还包括:摄像机标定单元,对用于获取所述标记点的位置信息的摄像机进行标定。
进一步地,所述标记点为红外LED灯。
进一步地,所述红外LED灯发出规则形状的光斑。
进一步地,所述目标对象跟踪装置还包括:
采集单元,采集所述标记点;
筛选单元,从所述标记点中筛选目标标记点。
进一步地,所述筛选单元采用特征提取函数H进行筛选获取标记点组合F,所述筛选通过下述数学表达式实现:
S(x,y)=H(I(x,y))
F={arg(x,y)(S(x,y)>s0)}
其中,H是特征提取函数,I(x,y)是每一个像素(x,y)所对应的图像值,S(x,y)是每一个像素(x,y)经过特征提取后的特征分数,s0是一个特征分数阈值,F是标记点集合。
进一步地,所述目标对象跟踪装置还包括一定位支架,所述定位支架设置有所述标记点。
进一步地,所述定位支架包括:横梁、固定部、支撑部,所述横梁上设置有所述标记点;所述支撑部设置于横梁上,支撑所述横梁;所述固定部与所述横梁的端部枢轴连接。
进一步地,所述标记点为可发光的光源。
本发明还提供一种立体显示设备,包括:跟踪装置和显示单元,所述跟踪装置用于获取观看者的空间位置信息;所述显示单元根据所述位置信息调整立体图像的显示内容,所述跟踪装置为前述的目标对象跟踪装置。
本发明提供的目标对象跟踪方法,跟踪装置和立体显示设备及显示方法,通过获取对应目标对象的标记点的位置信息,并依据该位置信息,重新构建出目标对象的空间位置。与现有技术中使用摄像机作为人眼捕捉设备需要对二维图像进行特征分析从而获取人眼位置或者使用其他利用人眼虹膜反射效果的人眼捕捉设备获取人眼位置相比较,具有稳定性好,捕捉人眼的位置信息的准确度高、成本低廉且对跟踪设备与目标对象之间的距离远近没有要求等优点。
附图说明
图1示出了本发明实施方式一的目标对象跟踪方法的流程示意图;
图2示出了本发明实施方式一的目标对象跟踪方法中S2的具体流程示意图;
图3示出了本发明实施方式一的目标对象跟踪方法中第一变形实施例的具体流程示意图;
图4示出了本发明实施方式一的目标对象跟踪方法中第二变形实施例的具体流程示意图;
图5示出了本发明实施方式一的目标对象跟踪方法中第三变形实施例的具体流程示意图;
图6示出了本发明实施方式三的目标对象跟踪装置的较佳实施例的结构示意图;
图7示出了图6中的获取单元的具体结构示意图;
图8示出了图6中的重新构建单元的第一变形实施例的具体结构示意图;
图9示出了图6中的重新构建单元的第二变形实施例的具体结构示意图;
图10示出了图6中的重新构建单元的第二变形实施例的具体结构示意图;
图11示出了一种具体的目标对象跟踪装置中对应目标对象设置标记点的定位支架的结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施方式及实施方式中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施方式的限制。
实施方式一
请参见图1,图1示出了本发明实施方式一的目标对象跟踪方法的流程示意图。如图1所示,本发明实施方式一的目标对象跟踪方法,主要是为获取目标对象的位置信息,这些目标对象例如为人眼、人的头部、人的面部或者人体的上半身等与人观看相关的部位,也可以是检测立体显示装置跟踪技术水平的机器设备。上述目标对象跟踪方法主要包括以下步骤:
S1对应目标对象的空间位置设置标记点;这里的标记点可以设置目标对象上,也可以不设置于目标对象上,而是设置在与目标对象有相对位置关系,与目标对象同步移动的物体上也可。例如,目标对象是人眼,则可以在人眼的眼眶周围设置标记点;或者在人眼周围配置类似眼镜的框架结构,将标记点设在镜框上,又或者将标记点设在与人眼位置关系相对固定的人的耳朵上。该标记点可以是发送信号的红外发射传感器,LED灯,GPS传感器,激光定位传感器等各种部件,也可以是其它能够被摄像机捕捉的物理标识,例如是具有形状特征和/或颜色特征的物体。较佳地,为避免外界杂光的干扰,提高标记点追踪的鲁棒性,优选使用频谱较为狭窄的红外LED灯作为标记点,并使用只能通过红外LED灯所使用频谱的相应的红外摄像机对标记点进行捕捉。考虑到外界杂光多为不规则的形状且亮 度分布不均匀,可以将标记点设置成可以发出规则形状的光斑,发光强度较高,亮度均匀。另外还可以设置多个标记点,每个标记点对应一个光斑,各个标记点组成规则的几何形状,如三角形,四边形等,从而易于跟踪到标记点,获得标记点的空间位置信息,并提高光斑提取的准确性。
S2获取该标记点的位置信息;这可以是通过接收标记点发出的信号,来确定标记点的位置信息,也可以是采用摄像机来拍摄含有标记点的图像,对图像中的标记点进行提取。通过图像处理算法来获得标记点的位置信息。
S3依据该标记点的位置信息,重新构建该目标对象的空间位置。当获得到该标记点的位置信息后,重新构建出标记点的空间位置,然后依据标记点与目标对象的相对位置关系,将标记点的空间位置转换到目标对象的空间位置(例如人的左右两眼的空间位置)。
本发明实施方式一的目标对象跟踪方法通过获取对应目标对象的标记点的位置信息,并依据该位置信息,重新构建出目标对象的空间位置。与现有技术中使用摄像机作为人眼捕捉设备需要对二维图像进行特征分析从而获取人眼位置或者使用其他利用人眼虹膜反射效果的人眼捕捉设备获取人眼位置相比较,具有稳定性好,捕捉人眼的位置信息的准确度高、成本低廉且对跟踪设备与目标对象之间的距离远近没有要求等优点。
请参见图2,图2示出了本发明实施方式一的目标对象跟踪方法中S2的具体流程示意图。该目标对象跟踪方法中,上述步骤S2进一步包括:
S21预设一标准图像,所述标准图像中设有参考标记点,并获取所述参考标记点的空间坐标和平面坐标;标准图像例如可以是通过图像采集设备采集的一个标准图像,获取参考标记点的图像坐标,并使用其他精确的立体测量设备如激光扫描仪,结构光扫描仪(如Kinect等)等设备获取标准图像中参考标记点的空间坐标及平面坐标。
S22获取包含所述目标对象及所述标记点的当前图像,及所述标记点在所述当前图像的平面坐标;
S23将所述当前图像中的标记点与所述标准图像的所述参考标记点进行匹配。这里要先将标记点在所述当前图像的平面坐标与参考标记点在标 准图像的平面坐标之间建立对应关系,然后将标记点与参考标记点进行匹配。
通过设置标准图像及参考标记点是便于在获取当前图像的空间位置时能有一个参照物,这进一步保证了本发明实施方式的目标跟踪方法的稳定性和准确性。
进一步地,在上述步骤S1之前还包括:S0对用于获取所述标记点的位置信息的摄像机进行标定。
上述标定有分以下几种情况:
(1)所述S0的摄像机为单目摄像机时,可以采用常见的张氏棋盘格标定算法,例如采用以下公式进行标定:
sm′=A[R|t]M′ (1)
式(1)中,A为内部参数,R为外部参数,t为平移向量,m’像点在图像中的坐标,M’为物点的空间坐标(即在空间中的三维坐标);其中A、R和t分别由以下公式确定:
平移向量
当然对于摄像机的标定算法有很多种,还可以采用其它业界常用的标定算法,本发明不作限定,主要是运用标定算法,以提高本发明的目标对象跟踪方法的准确性。
(2)所述S0的摄像机为双目摄像机或多目摄像机时,采用以下步骤进行标定:
S01先对所述双目摄像机或多目摄像机中的任一目摄像机进行标定,也是采用常见的张氏棋盘格标定算法,例如采用以下公式:
sm′=A[R|t]M′ (1)
式(1)中,A为内部参数,R为外部参数,t为平移向量,m’像点在图像中的坐标,M’为物点的空间坐标;其中A、R和t分别由以下公式确定:
平移向量
S02计算所述双目摄像机或所述多目摄像机之间的相对旋转矩阵和相 对平移量,采用以下公式:
相对旋转矩阵和相对平移量
当然上述针对双目摄像机或多目摄像机的标定算法只是其中较常见的一种,还可以采用其它业界常用的标定算法,本发明不作限定,主要是运用标定算法,以提高本发明的目标对象跟踪方法的准确性。
进一步地,在上述S1与S2之间还包括:
S4采集所述标记点;
S5从所述标记点中筛选目标标记点。
具体来说,当标记点的数量为多个时,采用摄像机采集对应目标对象的所有标记点,从所有标记点中选取与目标对象最相关的标记点,然后使用相应的图像处理算法对图像上的标记点进行提取,该提取需要根据标记点的特征来进行。总的来讲,对该标记点的特征进行提取的方法是对图像I使用特征提取函数H,获取图像中每个点的特征分数,并筛选出特征值足够高的标记点。这里可以用下述公式归纳表示:
S(x,y)=H(I(x,y))
F={arg(x,y)(S(x,y)>s0)}
上述式中,H是特征提取函数,I(x,y)是每一个像素(x,y)所对应的图像值,可以是灰度值或三通道的颜色能量值等,S(x,y)是每一个像素(x,y)经过特征提取后的特征分数,s0是一个特征分数阈值,大于s0的S(x,y)可以被认为是标记点,F是标记点集合。较佳地,本发明实施例使用红外标记点以及红外摄像机所成图像的能量特征较为明显。由于使用窄带LED红外灯,以及相应的红外摄像机,摄像机所成图像的大多数像素能量很低,仅有标记点对应的像素具有高能量。因此相应的函数H(x,y)可以是对使用阈值分割算子后的图像B(x,y)进行区域增长获取若干子图像,并对获得到的子图像进行重心提取。该特征提取函数H(x,y),可以是Harris,SIFT,FAST等特征点函数,也可以是圆形光斑提取等图像处理函数。同时,根据环境光中能在红外摄像机中成像的杂光,我们可在红外标记点提取过程中添加诸如标记点所成光斑面积,标记点在二维图像中 的位置关系等约束条件对提取出的标记点进行筛选。
当摄像机数目大于1时,需要对不同摄像机在同一时刻或接近同一时刻获取的图像进行标记点匹配,从而为后续的标记点三维重建提供条件。标记点匹配的方法需要根据特征提取函数H而定。我们可以使用一些经典的基于图像灰度梯度图的特征点提取算子和与之相配的匹配方法如Harris,SIFT,FAST等方法获取并匹配标记点。也可以使用极限约束,标记点的先验条件等方式进行标记点匹配。这里使用极限约束进行匹配筛选的方法是:根据同一个点在两个不同摄像机图像上的投影都处于同一平面这个原理,对于某一个摄像机c0中的某一个标记点p0,我们都可以在其他摄像机c1中计算一条极线方程,标记点p0对应于该其它摄像机c1上的标记点p1符合下述关系:
[p1;1]TF[p0;1]=0
上述式中,F是摄像机c0到摄像机c1的基础矩阵。通过使用上述关系,我们可以大大缩少标记点p1的候选个数,提高匹配准确度。
此外,我们可以使用标记点的先验条件是标记点的空间顺序,标记点的尺寸等。比如根据两个摄像机的相互位置关系使其所拍摄的图像上的每一对对应同一空间点的两个像素在某一个维度比如y轴上相等,这个过程也被称为图像校准(rectification)。则此时标记点的匹配也就可以根据标记点的x轴顺序执行,即最小x对应最小x,依次类推,最大的x对应最大的x。
以下依据用于跟踪的摄像机数目的多少,来详细介绍本发明的目标跟踪方法。
实施例1
请参见图3,图3示出了本发明实施方式一的目标对象跟踪方法中第一变形实施例的具体流程示意图。如图3所示,在本实施例1中,该目标对象跟踪方法跟踪的目标对象对应的标记点不超过四个,且采用单目摄像机来获取标记点的位置信息时,前述步骤S3进一步包括:
S31依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标以及所述目标对象所在场景的假定条件计算所述当 前图像与所述标准图像之间的单应变换关系;将当前图像的标记点与标准图像中的参考标记点进行匹配,并根据二者各自的平面坐标计算当前图像与标准图像之间的单应变换关系。所谓单应变换是对应几何中的单应性,是计算机视觉领域中常用的一种变换方法。
S32根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点在当前时刻的空间位置计算所述目标对象当前的空间位置。
具体来讲,对于场景的假定条件,我们可以假定场景中的标记点的刚性变换时的某一维度的数值不变,比如三维空间场景中,空间坐标为x、y、z,x和y分别与摄像头的图像坐标(平面坐标)中x轴和y轴平行,z轴是垂直于摄像头的图像,假定条件可以是标记点在z轴上的坐标不变,也可以是标记点在x轴和/或y轴上的坐标不变。不同的场景假设条件,所使用的推测方法也不尽相同。又例如,在另一种假定条件下,假设目标对象的朝向与摄像头朝向之间的旋转角度在使用过程中始终保持不变,则可根据当前图像中的标记点互相之间的距离与标准图像上的标记点互相之间的距离之间的比例推测目标对象当前的空间位置。
通过以上的计算方法,可以实现单目摄像机对标记点的数量不超过四个时重新构建所述目标对象的空间位置,其操作简单,且跟踪结果也较准确,由于采用单目,降低了目标对象跟踪的成本。
实施例2
上述使用单个摄像机采集图像来恢复物体三维坐标的方法中,由于获取的图像信息较少,因此需要增加标记点的数目来提供更多的图像信息从而计算物体的三维坐标。根据机器视觉理论,要从单幅图像推算出场景的立体信息,需要至少确定图像中的五个标定点。因此,单目方案增加了标记点数量,也增加了设计的复杂性,但同时,只需要一个摄像机从而降低了图像采集的复杂性,降低了成本。
请参见图4,图4示出了本发明实施方式一的目标对象跟踪方法中第二变形实施例的具体流程示意图。如图4所示,在本实施例中,当所述标 记点的数量为五个以上,且采用单目摄像机获取所述标记点的位置信息时,所述S3进一步包括:
S33依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标,计算所述当前图像与所述标准图像之间的单应变换关系;
S34根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
具体来说,首先采集一幅标准图像,使用精确的深度摄像机或激光扫描仪等器件测量出参考标记点的空间位置,并获取此时的参考标记点的二维图像坐标(即平面坐标)。
在使用过程中,摄像机不断捕捉含有目标对象的当前图像中的所有标记点的二维图像坐标,并根据此时二维图像坐标与标准图像参考标记点的二维坐标计算出当前状态下的标记点与拍摄标准图像时的标记点之间的刚性变换,在假设标记点之间相对位置不变的情况下,进而计算出出此时标记点相对于标准图像时的空间位置变换,从而计算出当前标记点的空间位置。
这里,使用五个点以上的点可以计算出当前标记点与拍摄标准图像时标记点的空间位置刚性变换[R|T],优选的,该五个以上的点不在一个平面上,且摄像头的投影矩阵P被事先标定好。计算[R|T]的具体方式如下:
每一个标记点在标准图像和当前图像的齐次坐标分别为X0,Xi。二者满足极限约束,即X0P-1[R|T]P=Xi。所有标记点组成一个未知参量为[R|T]的方程组。当标记点数量大于5时,可以对[R|T]求解;当标记点数量大于6时,可以对[R|T]求最优解,其方法可以使用奇异值分解SVD,和/或使用迭代的方法计算非线性最优解。当计算出标记点空间位置以后,我们可以根据事先标定好的标记点与目标对象(例如人眼)之间的相互位置关系推测出目标对象(如人眼)的空间位置。
本实施例2只用一个摄像机,使用五个或五个以上的标记点,就可以准确地构建出目标对象的空间位置,不仅操作简单,而且成本低廉。
实施例3
请参见图5,图5示出了本发明实施方式一的目标对象跟踪方法中第三变形实施例的具体流程示意图。如图5所示,本实施例3使用两个或两个以上的摄像机,一个或一个以上的标记点。采用双目摄像机或多目摄像机获取所述标记点的位置信息时,所述S3进一步包括:
S35采用双目或多目三维重建原理,计算每一个标记点在当前时刻的空间位置;所谓双目或三目重建原理可以采用以下方法,例如采用左、右摄像头匹配的标记点之间的视差,计算每一个标记点在当前时刻的空间位置。或者是采用其它现有的常见方法来实现。
S36根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
具体地,首先使用多目摄像机校准的方法对每个摄像机之间的相互位置关系进行标定。然后在使用过程中,对每个摄像机获取到的图像提取标记点坐标,并对每个标记点进行匹配,即获取其在每个摄像机对应的标记点,然后使用匹配的标记点以及摄像机之间相互位置关系计算出标记点的空间位置。
在一个具体的例子中,使用多目摄像机(即摄像机数量大于等于2)来拍摄标记点,实现立体重建。已知一个标记点在某一摄像机所拍摄图像上的坐标u和该摄像机参数矩阵M,我们可以计算出一条射线,这个标记点在空间中处于此射线上。
αjuj=MjX j=1…n(其中n为大于等于2的自然数)
同理,依据上述公式,此标记点在其它摄像机上也可以计算出对应该其它摄像机的射线。理论上讲,这两条射线汇聚在一个点上,即此标记点的空间位置。实际上由于摄像机的数字化误差,摄像机内参和外参标定的误差等等,这些射线并不能汇聚于一点,因此需要使用三角测量(triangululation)的方法近似计算出标记点的空间位置。比如可以使 用最小二乘判断准则确定距离所有光线最近的点作为物点。
当计算出标记点空间位置以后,我们可以根据事先标定好的标记点与目标对象(如人眼)之间的相互位置关系推测出目标对象(人眼)的空间位置。
在上述使用多目摄像机实现立体重建的方法中,较佳的方法是使用双目相机计算。其原理与前述多目摄像机重建原理一样,都是根据两摄像机的相互位置关系以及标记点在两摄像机成像的二维坐标计算标记点空间位置。其微小差别是双目摄像机平行摆放,根据简单的标定后对两个摄像机的图像做如前文所述的图像校准,使得两个互相匹配的二维标记点在y(或x)轴上相等,则此时标记点距摄像机的深度可由校准后的二维标记点在x(或y)轴上的差距计算得出。此方法可看成是多目立体重建在双目情况下的特殊方法,其简化了立体重建的步骤且在设备硬件上较容易实现。
实施方式二
基于上述实施方式一的目标对象跟踪方法,相应地,本发明实施方式二还提出一种将上述目标对象跟踪方法应用于立体显示中的立体显示方法。该立体显示方法主要包括:获取观看者的空间位置信息;根据所述位置信息调整立体图像的显示内容。其中,获取观看者的空间位置信息主要采用实施方式一中所述的目标对象跟踪方法来获得。该空间位置信息主要是观看者在空间中的三维坐标信息。
本发明实施方式二的立体显示方法中通过获取观看者在空间中的三维坐标信息,与现有技术中使用摄像机作为人眼捕捉设备需要对二维图像进行特征分析从而获取人眼位置或者使用其他利用人眼虹膜反射效果的人眼捕捉设备获取人眼位置相比较,具有稳定性好,准确度高、成本低廉且对跟踪设备与目标对象之间的距离远近没有要求的优点,有效地保证立体显示的效果。
实施方式三
请参见图6,图6示出了本发明实施方式三的目标对象跟踪装置的较佳实施例的结构示意图。如图6所示,本发明的目标对象跟踪装置包括:
标记点设置单元1,用于对应目标对象的空间位置设置标记点;这里的标记点可以设置目标对象上,也可以不设置于目标对象上,而是设置在与目标对象有相对位置关系,与目标对象同步移动的物体上也可。例如,目标对象是人眼,则可以在人眼的眼眶周围设置标记点;或者在人眼周围配置眼镜,将标记点设在眼镜的镜框上,又或者将标记点设在与人眼位置关系相对固定的人的耳朵上。该标记点可以是发送信号的红外发射传感器,LED灯,GPS传感器,激光定位传感器等各种部件,也可以是其它能够被摄像机捕捉的物理标识,例如是具有形状特征和/或颜色特征的物体。较佳地,为避免外界杂光的干扰,提高标记点追踪的鲁棒性,优选使用频谱较为狭窄的红外LED灯作为标记点,并使用只能通过红外LED所使用频谱的相应的红外摄像机对标记点进行捕捉。考虑到外界杂光多为不规则的形状且亮度分布不均匀,可以将标记点设置成可以发出规则形状的光斑,发光强度较高,亮度均匀。另外还可以设置多个标记点,每个标记点对应一个光斑,各个标记点组成规则的几何形状,如三角形,四边形等,从而易于跟踪到标记点,获得标记点的空间位置信息,并提高光斑提取的准确性。
获取单元2,用于获取该标记点的位置信息;这可以是通过接收标记点发出的信号,来确定标记点的位置信息,也可以是采用摄像机来拍摄含有标记点的图像,对图像中的标记点进行提取。通过图像处理算法来获得标记点的位置信息。
重新构建单元3,用于依据该标记点的位置信息,重新构建该目标对象的空间位置。当获得到该标记点的位置信息后,重新构建出标记点的空间位置,然后依据标记点与目标对象的相对位置关系,将标记点的空间位置转换到目标对象的空间位置(例如人的左右两眼的空间位置)。
本发明实施方式三的目标对象跟踪装置通过获取对应目标对象的标记点的位置信息,并依据该位置信息,重新构建出目标对象的空间位置。 与现有技术中使用摄像机作为人眼捕捉设备需要对二维图像进行特征分析从而获取人眼位置或者使用其他利用人眼虹膜反射效果的人眼捕捉设备获取人眼位置相比较,具有稳定性好,准确度高、成本低廉且对跟踪设备与目标对象之间的距离远近没有要求的优点。
请参见图7,图7示出了图6中的获取单元的具体结构示意图。前述获取单元进一步包括:
预设模块21,用于预设一标准图像,所述标准图像中设有参考标记点,并获取所述参考标记点的空间坐标和平面坐标;标准图像例如可以是通过图像采集设备采集的一个标准图像,获取参考标记点的图像坐标,并使用其他精确的立体测量设备如激光扫描仪,结构光扫描仪(如Kinect等)等设备获取标准图像中参考标记点的空间坐标及平面坐标。
获取模块22,用于获取包含所述目标对象及所述标记点的当前图像,及所述标记点在所述当前图像的平面坐标;
匹配模块23,用于将所述当前图像中的标记点与所述标准图像的所述参考标记点进行匹配。这里要先将标记点在所述当前图像的平面坐标与参考标记点在标准图像的平面坐标之间建立对应关系,然后将标记点与参考标记点进行匹配。
通过设置标准图像及参考标记点是便于在获取当前图像的空间位置时能有一个参照物,这进一步保证了本发明实施方式的目标跟踪装置的稳定性和准确性。
进一步地,该目标对象跟踪装置还包括:
采集单元,用于采集所述标记点;
筛选单元,从所述标记点中筛选目标标记点。
具体来说,当标记点的数量为多个时,采用摄像机采集对应目标对象的所有标记点,从所有标记点中选取与目标对象最相关的标记点,然后使用相应的图像处理算法对图像上的标记点进行提取,该提取需要根据标记点的特征来进行。总的来讲,对该标记点的特征进行提取的方法是对图像I使用特征提取函数H,获取图像中每个点的特征分数,并筛选出特征值足够高的标记点。这里可以用下述公式归纳表示:
S(x,y)=H(I(x,y))
F={arg(x,y)(S(x,y)>s0)}
上述式中,H是特征提取函数,I(x,y)是每一个像素(x,y)所对应的图像值,可以是灰度值或三通道的颜色能量值等,S(x,y)是每一个像素(x,y)经过特征提取后的特征分数,s0是一个特征分数阈值,大于s0的S(x,y)可以被认为是标记点,F是标记点集合。较佳地,本发明实施例使用红外标记点以及红外摄像机所成图像的能量特征较为明显。由于使用窄带LED红外灯,以及相应的红外摄像机,摄像机所成图像的大多数像素能量很低,仅有标记点对应的像素具有高能量。因此相应的函数H(x,y)可以是对使用阈值分割算子后的图像B(x,y)进行区域增长获取若干子图像,并对获得到的子图像进行重心提取。同时,根据环境光中能在红外摄像机中成像的杂光,我们可在红外标记点提取过程中添加诸如标记点所成光斑面积,标记点在二维图像中的位置关系等约束条件对提取出的标记点进行筛选。
当摄像机数目大于1时,需要对不同摄像机在同一时刻或接近同一时刻获取的图像进行标记点匹配,从而为后续的标记点三维重建提供条件。标记点匹配的方法需要根据特征提取函数H而定。我们可以使用一些经典的基于图像灰度梯度图的特征点提取算子和与之相配的匹配方法如Harris,SIFT,FAST等方法获取并匹配标记点。也可以使用极限约束,标记点的先验条件等方式进行标记点匹配。这里使用极限约束进行匹配筛选的方法是:根据同一个点在两个不同摄像机图像上的投影都处于同一平面这个原理,对于某一个摄像机c0中的某一个标记点p0,我们都可以在其他摄像机c1中计算一条极线方程,标记点p0对应于该其它摄像机c1上的标记点p1符合下述关系:
[p1;1]TF[p0;1]=0
上述式中,F是摄像机c0到摄像机c1的基础矩阵。通过使用上述关系,我们可以大大缩少标记点p1的候选个数,提高匹配准确度。
此外,我们可以使用标记点的先验条件是标记点的空间顺序,标记点的尺寸等。比如根据两个摄像机的相互位置关系使其所拍摄的图像上的每 一对对应同一空间点的两个像素在某一个维度比如y轴上相等,这个过程也被称为图像校准(rectification)。则此时标记点的匹配也就可以根据标记点的x轴顺序执行,即最小x对应最小x,依次类推,最大的x对应最大的x。
以下依据用于跟踪的摄像机数目的多少,来详细介绍本发明的目标跟踪装置。
实施例4
请参见图8,图8示出了图6中的重新构建单元的具体结构示意图。如图8所示,在本实施例中,该目标对象跟踪装置跟踪的目标对象对应的标记点不超过四个,且采用单目摄像机来获取标记点的位置信息时,重新构建单元进一步包括:
第一计算模块31,用于依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标以及所述目标对象所在场景的假定条件计算所述当前图像与所述标准图像之间的单应变换关系;将当前图像的标记点与标准图像中的参考标记点进行匹配,并根据二者各自的平面坐标计算当前图像与标准图像之间的单应变换关系。所谓单应变换是对应几何中的单应性,是计算机视觉领域中常应用的一种变换方法。
第一重构模块32,用于根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点在当前时刻的空间位置计算所述目标对象当前的空间位置。
具体来讲,对于场景的假定条件,我们可以假定场景中的标记点的刚性变换时的某一维度的数值不变,比如三维空间场景中,空间坐标为x、y、z,x和y分别与摄像头的图像坐标(平面坐标)中x轴和y轴平行,z轴是垂直于摄像头的图像,假定条件可以是标记点在z轴上的坐标不变,也可以是标记点在x轴和/或y轴上的坐标不变。不同的场景假设条件,所使用的推测方法也不尽相同。又例如,在另一种假定条件下,假设目标对象的朝向与摄像头朝向之间的旋转角度在使用过程中始终保持不变,则可根据当前图像中的标记点互相之间的距离与标准图像上的标记点 互相之间的距离之间的比例推测目标对象当前的空间位置。
通过以上的计算方法,可以实现单目摄像机对标记点的数量不超过四个时重新构建所述目标对象的空间位置,其操作简单,且跟踪结果也较准确,由于采用单目,降低了目标对象跟踪的成本。
实施例5
上述使用单个摄像机采集图像来恢复物体三维坐标的方法中,由于获取的图像信息较少,因此需要增加标记点的数目来提供更多的图像信息从而计算物体的三维坐标。根据机器视觉理论,要从单幅图像推算出场景的立体信息,需要至少确定图像中的五个标定点。因此,单目方案增加了标记点数量,也增加了设计的复杂性,但同时,只需要一个摄像机从而降低了图像采集的复杂性,降低了成本。
请参见图9,图9示出了图6中的重新构建单元的第二变形实施例的具体结构示意图。如图9所示,在本实施例中,当所述标记点的数量为五个以上,且采用单目摄像机获取所述标记点的位置信息时,所述重新构建单元进一步包括:
第二计算模块33,用于依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标,计算所述当前图像与所述标准图像之间的单应变换关系。
第二重构模块34,用于根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
首先采集一幅标准图像,使用精确的深度摄像机或激光扫描仪等器件测量出参考标记点的空间位置,并获取此时的参考标记点的二维图像坐标(即平面坐标)。
在使用过程中,摄像机不断捕捉含有目标对象的当前图像中的所有标记点的二维图像坐标,并根据此时二维图像坐标与标准图像参考标记点的二维坐标计算出当前状态下的标记点与拍摄标准图像时的标记点之间的刚性变换,在假设标记点之间相对位置不变的情况下,进而计算出出此时标 记点相对于标准图像时的空间位置变换,从而计算出当前标记点的空间位置。
这里,使用五个点以上的点可以计算出当前标记点与拍摄标准图像时标记点的空间位置刚性变换[R|T],优选的,该五个以上的点不在一个平面上,且摄像头的投影矩阵P被事先标定好。计算[R|T]的具体方式如下:
每一个标记点在标准图像和当前图像的齐次坐标分别为X0,Xi。二者满足极限约束,即X0P-1[R|T]P=Xi。所有标记点组成一个未知参量为[R|T]的方程组。当标记点数量大于5时,可以对[R|T]求解;当标记点数量大于6时,可以对[R|T]求最优解,其方法可以使用奇异值分解SVD,和/或使用迭代的方法计算非线性最优解。当计算出标记点空间位置以后,我们可以根据事先标定好的标记点与目标对象(例如人眼)之间的相互位置关系推测出目标对象(如人眼)的空间位置。
本实施例5只用一个摄像机,使用五个或五个以上的标记点,就可以准确地构建出目标对象的空间位置,不仅操作简单,而且成本低廉。
实施例6
请参见图10,图10示出了图6中的重新构建单元的第二变形实施例的具体结构示意图。如图10所示,本实施例6使用两个或两个以上的摄像机,一个或一个以上的标记点。采用双目摄像机或多目摄像机获取所述标记点的位置信息时,所述重新构建单元进一步包括:
第三计算模块35,采用双目或多目三维重建原理,计算每一个标记点在当前时刻的空间位置;所谓双目或三目重建原理可以采用以下方法,例如采用左、右摄像头匹配的标记点之间的视差,计算每一个标记点在当前时刻的空间位置。或者是采用其它现有的常见方法来实现。
第三重构模块36,根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
具体地,首先使用多目摄像机校准的方法对每个摄像机之间的相互位置关系进行标定。然后在使用过程中,对每个摄像机获取到的图像提取标 记点坐标,并对每个标记点进行匹配,即获取其在每个摄像机对应的标记点,然后使用匹配的标记点以及摄像机之间相互位置关系计算出标记点的空间位置。
在一个具体的例子中,使用多目摄像机(即摄像机数量大于等于2)来拍摄标记点,实现立体重建。已知一个标记点在某一摄像机所拍摄图像上的坐标u和该摄像机参数矩阵M,我们可以计算出一条射线,这个标记点在空间中处于此射线上。
αjuj=MjX j=1…n(其中n为大于等于2的自然数)
同理,依据上述公式,此标记点在其它摄像机上也可以计算出对应该其它摄像机的射线。理论上讲,这两条射线汇聚在一个点上,即此标记点的空间位置。实际上由于摄像机的数字化误差,摄像机内参和外参标定的误差等等,这些射线并不能汇聚于一点,因此需要使用三角测量(triangululation)的方法近似计算出标记点的空间位置。比如可以使用最小二乘判断准则确定距离所有光线最近的点作为物点。
当计算出标记点空间位置以后,我们可以根据事先标定好的标记点与目标对象(如人眼)之间的相互位置关系推测出目标对象(人眼)的空间位置。
在上述使用多目摄像机实现立体重建的方法中,较佳的方法是使用双目相机计算。其原理与前述多目摄像机重建原理一样,都是根据两摄像机的相互位置关系以及标记点在两摄像机成像的二维坐标计算标记点空间位置。其微小差别是双目摄像机平行摆放,根据简单的标定后对两个摄像机的图像做如前文所述的图像校准,使得两个互相匹配的二维标记点在y(或x)轴上相等,则此时标记点距摄像机的深度可由校准后的二维标记点在x(或y)轴上的差距计算得出。此方法可看成是多目立体重建在双目情况下的特殊方法,其简化了立体重建的步骤且在设备硬件上较容易实现。
实施方式四
本发明实施方式四提出一种立体显示设备,其包括:跟踪装置和显示单元,该跟踪装置用于获取观看者的空间位置信息;显示单元根据该位置信息调整立体图像的显示内容。该跟踪装置采用实施方式三中的目标对象跟踪装置去获取观看者的空间位置信息。该空间位置信息主要是观看者在空间中的三维坐标信息。
本发明实施方式四的立体显示设备中通过获取观看者在空间中的三维坐标信息,与现有技术中使用摄像机作为人眼捕捉设备需要对二维图像进行特征分析从而获取人眼位置或者使用其他利用人眼虹膜反射效果的人眼捕捉设备获取人眼位置相比较,具有稳定性好,准确度高、成本低廉且对跟踪设备与目标对象之间的距离远近没有要求的优点,有效地保证立体显示的效果。
实施方式五
请参见图11,图11示出了一种具体的目标对象跟踪装置中对应目标对象设置标记点的定位支架的结构示意图。如图11所示,本发明实施例1提供一种定位支架,该定位支架位于人眼前方,结构与眼镜相似,其佩戴类似于眼镜,包括:横梁11、固定部12、支撑部13以及控制部14,横梁11设置有标记点111;支撑部13设置于横梁11上;固定部12与横梁11的端部枢轴连接。其中标记点111设置的位置与人眼(目标对象)的位置相对应,通过获取标记点111的空间位置信息,然后据此计算人眼的空间位置信息。当人的头部发生移动时,相应地,与人眼对应的标记点111也发生移动,摄像机跟踪标记点111的移动,然后采用前述实施方式一的目标对象跟踪方法的方案获取标记点111的空间位置信息,利用标记点111与人眼的相对空间位置关系,重新构建出人眼(目标对象)的空间位置(即在空间中的三维坐标)。
在本实施例中,横梁11为一长条形,且具有一定的弧度,其弧度与人的额头弧度近似,以方便使用。横梁11包括上表面112、与其相对的下表面、设置在上表面112与下表面之间的第一表面114以及第二表面。
在本实施例中,标记点111为三个LED灯,其间隔均匀地设置在横梁11的第一表面114上。可以理解的是,标记点111也可以为一个、两个或者更多个,且可以为任意光源,包括LED灯、红外灯或紫外灯等。并且,所述标记点111的排列方式与设置位置也可以根据需要进行调整。
可以理解的是,横梁11也可以根据需要设计成直线形或者其他形状。
本实施例中,固定部12有两个,分别与横梁11的两端通过枢轴连接,且两个固定部12可相对向内折叠,同时,两个固定部12可分别向外展开至与横梁11呈100°左右的内角,具体的,可以根据实际操作需求调整内角的大小。可以理解的,固定部12也可以为一个。
固定部12远离横梁11的一端沿支撑部13的延伸方向弯折设置,以用于将固定部12的端部固定于人的耳朵上。
本实施例中,支撑部13呈条状,设置在横梁11的下表面113的中部且向下延伸。进一步,支撑部13远离横梁11的端部设置有鼻托131,以用于将定位装置配合鼻梁,并将定位装置设置于人眼上方。可以理解的,在其他实施例中,若不设置鼻托131,则支撑部13可设置成倒“Y”型,并沿横梁11的中部且向下延伸,用以将定位装置配合鼻梁,并将定位装置设置于人眼上方。
控制部14呈圆角长方体,设置在固定部12上。控制部14用于给所述LED灯,红外灯或紫外灯提供电源、及/或者控制所述LED灯,红外灯或紫外灯的使用状态,其包括电源开关141、电源指示灯和充电指示灯。可以理解的是,控制部14不限定形状,其可以为任意形状,也可以为一集成芯片。并且,控制部14也可以设置在其他位置,如横梁11上。
使用时,打开电源开关141,电源指示灯显示LED处于供电状态,LED灯被点亮;当电量不足时,充电指示灯提示电量不足;关闭电源开关,电源指示灯熄灭,表示LED处于关闭状态,LED灯熄灭。
由于人的瞳距范围为58mm~64mm,可近似认为人的瞳距为定值,本发明提供的定位支架类似于眼镜架,且固定于人眼上方,类似于眼镜 架,根据需要,将标记点设置在定位装置的预定位置,从而可以简单方便地根据标记点的位置确定人眼的位置。定位装置结构简单,设计与使用方便。
以上所述仅为本发明的优选实施方式而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (21)

1.一种目标对象跟踪方法,其特征在于,所述目标对象跟踪方法包括以下步骤:
S1对应目标对象的空间位置设置标记点;
S2获取所述标记点的位置信息;
S3依据所述标记点的位置信息,重新构建所述目标对象的空间位置;
其中,所述S2进一步包括:S21预设一标准图像,所述标准图像中设有参考标记点,并获取所述参考标记点在所述标准图像中的空间坐标和平面坐标;
S22获取包含所述目标对象及所述标记点的当前图像,及所述标记点在所述当前图像的平面坐标;
S23将所述当前图像中的标记点与所述标准图像的所述参考标记点进行匹配;
当所述标记点的数量不超过四个,且采用单目摄像机获取所述标记点的位置信息时,所述S3进一步包括:
S31依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标以及所述目标对象所在场景的假定条件计算所述当前图像与所述标准图像之间的单应变换关系;
S32根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点在当前时刻的空间位置计算所述目标对象当前的空间位置。
2.如权利要求1所述的目标对象跟踪方法,其特征在于,当所述标记点的数量为五个以上,且采用单目摄像机获取所述标记点的位置信息时,所述S3进一步包括:
S33依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标,计算所述当前图像与所述标准图像之间的单应变换关系;
S34根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
3.如权利要求1所述的目标对象跟踪方法,其特征在于,当采用双目摄像机或多目摄像机获取所述标记点的位置信息时,所述S3进一步包括:
S35采用双目或多目三维重建原理,计算每一个标记点在当前时刻的空间位置;
S36根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
4.如权利要求1所述的目标对象跟踪方法,其特征在于,在所述S1之前还包括:S0对用于获取所述标记点的位置信息的摄像机进行标定。
5.如权利要求1所述的目标对象跟踪方法,其特征在于,所述标记点为红外LED灯。
6.如权利要求5所述的目标对象跟踪方法,其特征在于,所述红外LED灯发出规则形状的光斑。
7.如权利要求1至6任一项所述的目标对象跟踪方法,其特征在于,在所述S1与S2之间还包括:
S4采集所述标记点;
S5从所述标记点中筛选目标标记点。
8.如权利要求7所述的目标对象跟踪方法,其特征在于,在所述S5采用特征提取函数H进行筛选获取标记点组合F,所述筛选通过下述数学表达式实现:
S(x,y)=H(I(x,y))
F={arg(x,y)(S(x,y)>s0)}
其中,H是特征提取函数,I(x,y)是每一个像素(x,y)所对应的图像值,S(x,y)是每一个像素(x,y)经过特征提取后的特征分数,s0是一个特征分数阈值,F是标记点集合。
9.一种立体显示方法,所述显示方法包括:获取观看者的空间位置信息;根据所述位置信息调整立体图像的显示内容;其特征在于:所述获取观看者的空间位置信息采用如权利要求1至8任一项所述的目标对象跟踪方法获得。
10.一种目标对象跟踪装置,其特征在于,包括:
标记点设置单元,对应目标对象的空间位置设置标记点;
获取单元,获取所述标记点的位置信息;
重新构建单元,依据所述标记点的位置信息,重新构建所述目标对象的空间位置;
其中,所述获取单元包括:
预设模块,预设一标准图像,所述标准图像中设有参考标记点,并获取所述参考标记点在所述标准图像中的空间坐标和平面坐标;
获取模块,获取包含所述目标对象及所述标记点的当前图像,及所述标记点在所述当前图像的平面坐标;
匹配模块,将所述当前图像中的标记点与所述标准图像的所述参考标记点进行匹配;
当所述标记点的数量不超过四个,且采用单目摄像机获取所述标记点的位置信息时,所述重新构建单元还包括:
第一计算模块,用于依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标以及所述目标对象所在场景的假定条件计算所述当前图像与所述标准图像之间的单应变换关系;
第一重构模块,用于根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点在当前时刻的空间位置计算所述目标对象当前的空间位置。
11.如权利要求10所述的目标对象跟踪装置,其特征在于,当所述标记点的数量为五个以上,且采用单目摄像机获取所述标记点的位置信息时,所述重新构建单元还包括:
第二计算模块,用于依据所述当前图像中的标记点的平面坐标与所述标准图像的所述参考标记点的平面坐标,计算所述当前图像与所述标准图像之间的单应变换关系;
第二重构模块,用于根据所述单应变换关系计算出所述标记点在拍摄所述标准图像时刻的空间位置到当前时刻的空间位置的刚性变换,然后计算所述标记点在当前时刻的空间位置,并根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
12.如权利要求10所述的目标对象跟踪装置,其特征在于,当采用双目摄像机或多目摄像机获取所述标记点的位置信息时,所述重新构建单元还包括:
第三计算模块,用于采用双目或多目三维重建原理,计算每一个标记点在当前时刻的空间位置;
第三重构模块,用于根据所述标记点当前时刻的空间位置计算目标对象当前的空间位置。
13.如权利要求10所述的目标对象跟踪装置,其特征在于,所述目标对象跟踪装置还包括:摄像机标定单元,对用于获取所述标记点的位置信息的摄像机进行标定。
14.如权利要求10所述的目标对象跟踪装置,其特征在于,所述标记点为红外LED灯。
15.如权利要求14所述的目标对象跟踪装置,其特征在于,所述红外LED灯发出规则形状的光斑。
16.如权利要求10至15任一项所述的目标对象跟踪装置,其特征在于,所述目标对象跟踪装置还包括:
采集单元,采集所述标记点;
筛选单元,从所述标记点中筛选目标标记点。
17.如权利要求16所述的目标对象跟踪装置,其特征在于,所述筛选单元采用特征提取函数H进行筛选获取标记点组合F,所述筛选通过下述数学表达式实现:
S(x,y)=H(I(x,y))
F={arg(x,y)(S(x,y)>s0)}
其中,H是特征提取函数,I(x,y)是每一个像素(x,y)所对应的图像值,S(x,y)是每一个像素(x,y)经过特征提取后的特征分数,s0是一个特征分数阈值,F是标记点集合。
18.如权利要求10所述的目标对象跟踪装置,其特征在于,所述目标对象跟踪装置还包括一定位支架,所述定位支架设置有所述标记点。
19.如权利要求18所述的目标对象跟踪装置,其特征在于,所述定位支架包括:横梁、固定部、支撑部,所述横梁上设置有所述标记点;所述支撑部设置于横梁上,支撑所述横梁;所述固定部与所述横梁的端部枢轴连接。
20.如权利要求18或19所述的目标对象跟踪装置,其特征在于,所述标记点为可发光的光源。
21.一种立体显示设备,包括:跟踪装置和显示单元,所述跟踪装置用于获取观看者的空间位置信息;所述显示单元根据所述位置信息调整立体图像的显示内容,其特征在于,所述跟踪装置采用如权利要求10至20所述的目标对象跟踪装置。
CN201410837239.4A 2014-12-29 2014-12-29 目标对象跟踪方法、装置和立体显示设备及方法 Active CN105809654B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410837239.4A CN105809654B (zh) 2014-12-29 2014-12-29 目标对象跟踪方法、装置和立体显示设备及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410837239.4A CN105809654B (zh) 2014-12-29 2014-12-29 目标对象跟踪方法、装置和立体显示设备及方法

Publications (2)

Publication Number Publication Date
CN105809654A CN105809654A (zh) 2016-07-27
CN105809654B true CN105809654B (zh) 2018-11-23

Family

ID=56980819

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410837239.4A Active CN105809654B (zh) 2014-12-29 2014-12-29 目标对象跟踪方法、装置和立体显示设备及方法

Country Status (1)

Country Link
CN (1) CN105809654B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108257181A (zh) * 2016-12-29 2018-07-06 深圳超多维光电子有限公司 一种空间定位方法及装置
CN108616753B (zh) * 2016-12-29 2020-08-04 深圳超多维科技有限公司 一种裸眼立体显示方法及装置
CN108616736A (zh) * 2016-12-29 2018-10-02 深圳超多维科技有限公司 用于立体显示的跟踪定位方法及装置
CN107478227B (zh) * 2017-07-11 2020-06-16 厦门博尔利信息技术有限公司 交互式大型空间的定位算法
CN107633528A (zh) * 2017-08-22 2018-01-26 北京致臻智造科技有限公司 一种刚体识别方法及***
CN107633526B (zh) 2017-09-04 2022-10-14 腾讯科技(深圳)有限公司 一种图像跟踪点获取方法及设备、存储介质
CN108257110B (zh) * 2017-11-21 2021-03-23 北京工业大学 一种红外全景监控中目标的跟踪显示方法
CN109903308B (zh) * 2017-12-08 2021-02-26 百度在线网络技术(北京)有限公司 用于获取信息的方法及装置
CN110555879B (zh) * 2018-05-31 2023-09-08 京东方科技集团股份有限公司 一种空间定位方法、其装置、其***及计算机可读介质
CN109089106A (zh) * 2018-08-30 2018-12-25 宁波视睿迪光电有限公司 裸眼3d显示***及裸眼3d显示调节方法
CN110148173B (zh) * 2019-05-21 2021-08-06 北京百度网讯科技有限公司 车路协同中目标定位的方法和装置、电子设备、介质
CN110958445B (zh) * 2019-11-12 2022-03-15 中山大学 一种用于智能跟踪摄像头模块的校准***

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102176243A (zh) * 2010-12-30 2011-09-07 浙江理工大学 一种基于可见光和红外摄像机的目标测距方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101371387B1 (ko) * 2013-01-18 2014-03-10 경북대학교 산학협력단 트랙킹 시스템 및 이를 이용한 트랙킹 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102176243A (zh) * 2010-12-30 2011-09-07 浙江理工大学 一种基于可见光和红外摄像机的目标测距方法

Also Published As

Publication number Publication date
CN105809654A (zh) 2016-07-27

Similar Documents

Publication Publication Date Title
CN105809654B (zh) 目标对象跟踪方法、装置和立体显示设备及方法
CN105791800B (zh) 立体显示***及立体显示方法
US11199706B2 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
CN106168853B (zh) 一种自由空间头戴式视线跟踪***
CN105094337B (zh) 一种基于虹膜和瞳孔的三维视线估计方法
US11030975B2 (en) Information processing apparatus and information processing method
CN109919876B (zh) 一种三维真脸建模方法及三维真脸照相***
TWI591378B (zh) 擴增實境系統之光學透視頭戴式顯示器之校準方法及非暫態電腦可讀媒體
US20180101989A1 (en) Headset removal in virtual, augmented, and mixed reality using an eye gaze database
CN106101689B (zh) 利用手机单目摄像头对虚拟现实眼镜进行增强现实的方法
JP2020516090A (ja) ヘッドマウントディスプレイのための光照射野キャプチャおよびレンダリング
CN106773080B (zh) 立体显示装置及显示方法
CN109510977A (zh) 使用同心观察圆来生成立体光场全景
CN107071384B (zh) 虚拟主动视差计算补偿的双目渲染方法及***
US20200228792A1 (en) Test method and system for wearable device
CN105812774B (zh) 基于插管镜的立体显示***及方法
CN107545537A (zh) 一种从稠密点云生成3d全景图片的方法
CN204578692U (zh) 立体显示***
CN105812772B (zh) 医疗图像立体显示***及方法
Hu et al. Alignment-free offline calibration of commercial optical see-through head-mounted displays with simplified procedures
CN204377059U (zh) 基于软镜的立体显示***
CN110909571A (zh) 一种高精度面部识别空间定位方法
CN204539353U (zh) 医疗图像立体显示***
CN107423720A (zh) 目标跟踪***和立体显示设备
CN204377058U (zh) 基于硬镜的立体显示***

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20180716

Address after: 518000 Room 201, building A, No. 1, Qian Wan Road, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong (Shenzhen Qianhai business secretary Co., Ltd.)

Applicant after: Shenzhen super Technology Co., Ltd.

Address before: 518053 East Guangdong H-1 East 101, overseas Chinese town, Nanshan District, Shenzhen.

Applicant before: Shenzhen SuperD Photoelectronic Co., Ltd.

GR01 Patent grant
GR01 Patent grant