CN103177468A - 一种基于无标记的三维运动物体增强现实注册方法 - Google Patents

一种基于无标记的三维运动物体增强现实注册方法 Download PDF

Info

Publication number
CN103177468A
CN103177468A CN2013101084902A CN201310108490A CN103177468A CN 103177468 A CN103177468 A CN 103177468A CN 2013101084902 A CN2013101084902 A CN 2013101084902A CN 201310108490 A CN201310108490 A CN 201310108490A CN 103177468 A CN103177468 A CN 103177468A
Authority
CN
China
Prior art keywords
dimensional motion
motion object
image
dimensional
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2013101084902A
Other languages
English (en)
Inventor
赵越
闵海燕
陈超
周红
徐鑫
赵焱
李峰
王彬
杨丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bohai University
Original Assignee
Bohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bohai University filed Critical Bohai University
Priority to CN2013101084902A priority Critical patent/CN103177468A/zh
Publication of CN103177468A publication Critical patent/CN103177468A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供一种基于无标记的三维运动物体增强现实注册方法,属于计算机视觉领域,具体包括建立模型数据库;拍摄当前三维运动物体,获取视频图像;对当前帧图像中的三维运动物体进行检测;进行基于3D不变量的三维运动物体识别;利用Harris角点检测算法对已识别的三维运动物体进行特征点检测;特征点跟踪;特征点重建;剔除误匹配图像对;确定摄像头位姿,对三维运动物体进行实时增强现实注册。本发明通过提取空间复杂物体的多种3D不变量消除物体成像形状随着视点位置、视角、目标姿态等成像参数的变化而带来的剧烈影响,使得对三维运动物体的增强现实注册更加稳定。

Description

一种基于无标记的三维运动物体增强现实注册方法
技术领域
本发明属于计算机视觉领域,具体涉及一种基于无标记的三维运动物体增强现实注册方法。
背景技术
增强现实(AR-Augmented Reality)于20世纪90年代初期首次被提出。增强现实是将计算机产生的信息(包括图像、文字、三维模型和光照等)叠加在真实场景上,将虚实信息进行无缝融合,呈现给人们一个信息更加丰富、感观效果真实的新环境,达到对现实世界增强的效果。由于增强现实在军事、工业、医疗、教育、文化、娱乐等领域具有广泛的应用前景,因此,近年来受到研究者越来越多的关注。
三维注册是增强现实技术中的基础环节也是重要环节。其所要完成的任务为实时检测出摄像机的位置以及视线方向,以此确定所要叠加的虚拟信息在真实场景中的映射位置,并在屏幕的正确位置实时显示出这些虚拟信息。
从待注册对象的维度来划分,将增强现实注册方法分为平面物体注册方法和三维物体注册方法。从是否使用了标志物来划分,将增强现实注册方法分为基于标志物的注册方法和无标志物注册方法。对于增强现实***来说,无论哪种增强现实注册方法,注册的鲁棒性与实时性都是至关重要的。
在增强现实领域中,针对平面物体及有标志的物体的注册方法已经取得了很好的发展与应用。但是,针对三维物体的识别与定位仍然是一个困难的、开放的问题。
2009年,学者M.Ulrich等(文献1.Ulrich,Markus;Wiedemann,Christian;Steger,Carsten.“Cad-based recognition of3d objects in monocular images”,IEEE International Conference onRobotics and Automation,2009,pp.2090-2097.)为能够正确识别三维物体,保存了大量参考视图,通过点特征匹配方法来对三维物体进行识别,但该算法计算量非常大,无法满足增强现实的实时性要求。2004年,学者Carmichael,O等(文献2.Carmichael,O;Hebert,M.“Shape-based recognition of wiry objects”,IEEE Transactions On Pattern Analysis And MachineIntelligence,2004,26(12):1537-1552.)提出了基于边缘特征的注册方法,将输入图像中提取的相应特征与对应的三维物体边缘特征相匹配,而后根据匹配对应关系对物体的三维位姿进行计算。但该方法将产生巨大的搜索空间的问题,难以满足增强现实的实时性要求。
发明内容
针对现有技术存在的问题,本发明提供一种基于无标记的三维运动物体增强现实注册方法。
本发明的技术方案是:
一种基于无标记的三维运动物体增强现实注册方法,包括以下步骤:
步骤1:建立模型数据库;
步骤1.1:拍摄各个待识别三维物体,获取各个待识别三维物体的不同角度的多张视图;
步骤1.2:对获取的多张视图进行数据处理,包括特征提取和特征匹配,得到各个视图的特征匹配结果;
步骤1.3:利用2D射影变换求解特征匹配的元素集合的3D不变量;
步骤1.4:将得到的3D不变量与哈希表相结合,得到一个以3D不变量为索引的模型数据库;
步骤2:拍摄当前三维运动物体,获取视频图像;
步骤3:采用自适应背景差法对当前帧图像中的三维运动物体进行检测;
步骤4:对检测出的三维运动物体进行基于3D不变量的三维运动物体识别;
步骤4.1:根据当前视频帧图像和上一视频帧图像,利用2D射影变换求解得到三维运动物体的3D不变量集合;
步骤4.2:对三维运动物体的3D不变量集合进行模型数据库索引表访问,对该数据库的各索引中的各个3D不变量进行投票并对各索引中的得票进行统计;
步骤4.3:得票的统计结果超过阈值的索引在模型数据库中所对应的模型即当前三维运动物体的匹配模型,此时完成基于3D不变量的三维物体识别;
步骤5:利用Harris角点检测算法对已识别的三维运动物体进行特征点检测;
步骤6:利用光流跟踪算法对特征点检测后的三维运动物体进行特征点跟踪:若跟踪上的特征点个数大于F个,20<F<60,执行步骤7,否则返回步骤5;
步骤7:通过极几何约束进行特征点重建,得到宽基线条件下的角点匹配图像对;
步骤8:剔除宽基线条件下的角点匹配图像对中的误匹配图像对;
步骤9:通过计算真实摄像头参数确定摄像头位姿,对三维运动物体进行实时增强现实注册。
所述特征提取包括特征点提取和特征线提取,特征匹配包括特征点匹配和特征线匹配。
所述步骤1.2对获取的多张视图进行数据处理,包括特征提取和特征匹配,得到各个视图的特征匹配结果,具体按如下步骤进行:
步骤1.2.1:对获取的多张视图去除噪声并进行灰度处理;
步骤1.2.2:提取特征点和特征线;
步骤1.2.3:对同一待识别三维物体的多张视图进行特征匹配,得到各个待识别三维物体不同视图的特征匹配结果;
步骤1.2.3.1:特征点匹配;
首先,采用灰度相关匹配法,对特征点进行模糊匹配,得到初始的匹配点集合;
然后采用松弛迭代法去除初始的匹配点集合中重复的匹配点;
步骤1.2.3.2:特征线匹配:采用位置相近准则、角度相似性准则、灰度相近性准进行特征线匹配;
步骤1.2.4:得到各个待识别三维物体不同视图的特征匹配结果,即特征匹配的元素集合。
所述步骤1.3利用2D射影变换求解特征匹配的元素集合的3D不变量,具体按如下步骤进行:
步骤1.3.1:从特征匹配的元素集合中选取实元素(即可见元素或具有物理意义的元素),确定基准平面,做共面性检验,确立2D射影变换矩阵;
步骤1.3.2:构造特征匹配的元素集合中的虚元素,包括虚点元素和虚线元素,虚点元素即直线与平面的交点,虚线元素即平面与平面的交线;
步骤1.3.3:利用实元素和虚元素求解特征匹配的元素集合的3D不变量。
所述步骤3采用自适应背景差法对当前帧图像中的三维运动物体进行检测,具体按如下步骤进行:
步骤3.1:对获取的视频图像进行预处理,包括去噪处理及灰度处理;
步骤3.2:对去噪处理及灰度处理后的视频图像,建立自适应背景模型;
步骤3.3:用当前帧图像与背景图像相减得到三维运动物体的前景图像并对其进行二值化处理,得到二值化的前景图像;
步骤3.4:利用腐蚀算子去除前景图像中孤立的噪声点;
步骤3.5:利用膨胀算子填补前景图像中的小孔,从而检测出完整的三维运动物体,得到完整的三维运动物体前景图像。
所述步骤9通过计算真实摄像头参数确定摄像头位姿,对三维运动物体进行实时增强现实注册,具体按如下步骤进行:
步骤9.1:计算真实摄像头内参和外参,内参即世界坐标系与虚拟坐标系之间的变换矩阵,外参,即世界坐标系与摄像头坐标系之间的变换矩阵;
使用ARToolKit对摄像头进行标定进而获得摄像头内参;
步骤9.2:用真实摄像头的内外参设定虚拟摄像头的内外参,对虚拟三维运动物体进行投影,并通过显示设备输出;
步骤9.3:对每一帧图像执行步骤9.1~9.2,更新注册信息,实现跟踪注册;
步骤9.4:完成对基于无标记的三维运动物体的增强现实注册。
有益效果:
(1)通过拍摄不同三维物体的各个角度得到计算出来的3D不变量来建立数据库的索引表。在索引表的基础上使用哈希表,省去了在查找时要求的物体特征与模型特征间的匹配计算,显著的提高了三维运动物体识别的效率。
(2)基于3D不变量的三维运动物体识别的方法,通过提取空间复杂物体的多种3D不变量消除了物体成像形状随着视点位置、视角、目标姿态等成像参数的变化而带来的剧烈影响,使得对三维运动物体的增强现实注册更加稳定。
(3)使用Harris局部角点检测与跟踪,由于只对图像局部(即识别出的三维运动物体)进行Harris角点检测特征点,大大节省了特征点检测时间,提高了实时更新注册信息的速度。
(4)用KLT算法对检测到的三维运动物体特征点进行跟踪,使得三维运动物体特征点的信息能够实时更新,从而进一步提高了增强现实注册的实时性。
(5)通过极几何约束进行特征点重建,得到宽基线条件下的角点匹配图像对,用RANSAC优化算法消除误匹配,从而可以获得精确的重建结果,进而能够得到更精确的注册效果。
附图说明
图1为本发明具体实施方式的基于无标记的三维运动物体增强现实注册方法流程图;
图2为本发明具体实施方式的建立模型数据库的流程图;
图3为本发明具体实施方式的特征点相关性的示意图;
图4为本发明具体实施方式的特征线匹配的示意图;
图5为本发明具体实施方式中例举的多种组合形式下的空间元素几何求解3D不变量示意图;
图6为本发明具体实施方式的采用自适应背景差法对当前帧图像中的三维运动物体进行检测流程图;
图7为本发明具体实施方式的用于摄像头标定的标定板图像。
具体实施方式
下面结合附图对本发明的具体实施方式做详细说明。
本实施方式中,实施基于无标记的三维运动物体增强现实注册方法时,采用一个分辨率为640×480的定点摄像头,摄像头所拍摄场景为一住宅小区大门口,对摄像头中出现的三维运动物体进行检测,并对识别出的轿车A、轿车B、面包车C进行增强现实注册。
如图1所示,基于无标记的三维运动物体增强现实注册方法,包括以下步骤:
步骤1:建立模型数据库;
如图2所示,建立模型数据库的步骤如下:
步骤1.1:拍摄各个待识别三维物体,获取各个待识别三维物体的不同角度的多张视图;
使用照相机拍摄待识别的轿车A、轿车B和面包车C,获取大量不同角度的多张视图;
步骤1.2:对获取的多张视图进行数据处理,包括特征提取和特征匹配,得到各个视图的特征匹配结果;
具体按如下步骤进行:
步骤1.2.1:对获取的多张视图去除噪声并进行灰度处理;
采用中值滤波法对获取的多张视图去除噪声,这种方法以局部中值代替局部均值,即它将每一像素点的灰度值设置为该点某邻域窗口内的所有像素点灰度值的中值。
在灰度图像p中以像素(x,y)为中心的M×M屏蔽窗口(M=3,5,7,…)内,首先把这M×M个像素点的灰度值按大小进行排序,然后选取该窗口内的所有像素点灰度值的中值,令该像素点灰度值P(x,y)=a,这样,窗口中的像素点的某一邻域中像素灰度值的中值作为该像素点的灰度的估计值。
灰度处理即进行色彩***变换,将24位的真彩色图像处理成灰度图像只需对彩色图像的3个分量进行权值计算,采用如下转换公式:
Y=0.299×R+0.587×G+0.114×B  (1)
其中,Y表示灰度值,R表示红色分量,G表示绿色分量,B表示蓝色分量;
步骤1.2.2:提取特征点和特征线;
本实施方式采用Forstner算子提取特征点,该算子通过计算各像素的Robert’s梯度和以每个像素(c,r)为中心的一个窗口(如5×5窗口,7×7窗口)的灰度协方差矩阵,在图像中寻找具有尽可能小而接近圆的误差椭圆的点作为特征点。
采用Forstner算子提取特征点的步骤为:
(1)计算各像素的Robert’s梯度;
(2)利用差分算子提取初选点:计算像素(c,r)在上下左右四个方向的灰度差分绝对值,若这四个绝对值中第二大的那个数值大于给定的阈值,则该像素点为一个初选点,否则不是特征点;
(3)计算协方差矩阵,以初选点为中心,根据像素的Robert’s梯度计算窗口中灰度的协方差矩阵;
(4)以权值作为依据:如果某个像素的权值是以该像素为中心的一适当的窗口(如3×3)中的极大值,则该像素便为像素级特征点。
本实施方式采用canny边缘检测法对图像进行处理,对于一幅m×m的图像,按照如下步骤进行特征线提取:
(1)确定特征线起始端点:遍历整幅图像,直到搜索(x,y)处为提取的边缘,将(x,y)作为特征线的起始端点;
(2)在(x,y)邻域内搜索边缘点:在四邻域里除了(x-1,y-1)像素处搜索边缘点,如果搜索到边缘点,记录下该边缘点的位置(xi,yi)。如果在四邻域里没有找到边缘点,则在八邻域两个角点(x-1,y+1)和(x+1,y+1)寻找边缘点,如果找到边缘点,记录下该边缘点的位置xi(xi,yi);
(3)计算特征线的直线方程:将边缘点xi(xi,yi)与先前确定的构成特征线的所有点共同进行直线拟合,采用最小二乘原理求得拟合的直线方程
L:ax+by+c=0
其中a,b,c是直线方程的系数。
(4)计算误差:计算xi(xi,yi)与构成特征线的所有点到拟合直线L的误差RMS;
(5)求取点集:如果RMS(TRMS是RMS的阀值),将xi(xi,yi)纳入构成特征线的点集;
(6)寻找特征点:如果(x,y)的邻域内有边缘点或者误差RMS<TRMS,则返回步骤(2),重新在(x,y)邻域内搜索边缘点;
(7)记录特征线:如果拟合直线的数据点多于TN(TN是特征线最小长度的阈值)个,则记录下该特征线,记录特征线的参数,包括记录该特征线的直线方程参数、特征线的端点位置及特征线左右两侧灰度值的中值,然后执行步骤(1),继续提取下一特征线。
步骤1.2.3:对同一待识别三维物体的多张视图进行特征匹配,得到各个待识别三维物体不同视图的特征匹配结果;
步骤1.2.3.1:特征点匹配;
首先,采用灰度相关匹配法,对特征点进行模糊匹配,得到初始的匹配点对集合;
对特征点进行模糊匹配的目标是要确定一个候选匹配点对集合T,它允许包含大量错误的匹配对,也允许一个特征点同时对应多个匹配点,但这些都将会在后续的鲁棒性匹配过程中被去除。
如图3所示,对于每一个特征点m1属于图像I1,m2属于图像I2,设特征点m1,m2的图像坐标分别为(u1,v1),(u2,v2),给定以m为中心的相关性窗口(2n+1)×(2m+1),按公式(2)在图像I2中相应于m1的位置选定(2du+1)×(2dv+1)的搜索窗口,计算所有在搜索窗口内的特征点m2与m1的相关性系数。
Score ( m 1 , m 2 ) = Σ i = - n n Σ j = - m m [ I 1 ( u 1 + i , v 1 + j ) - I 1 ( u 1 , v 1 ) ‾ ] × [ I 2 ( u 2 + i , v 2 + j ) - I 2 ( u 2 , v 2 ) ‾ ] ( 2 n + 1 ) ( 2 m + 1 ) σ 2 ( I 1 ) × σ 2 ( I 2 ) - - - ( 2 )
其中,Score(m1,m2)表示m2与m1的相关性系数,
Figure BDA00002986174100072
表示图像I1在点(u,v)处的灰度平均值, I 1 ( u , v ) ‾ = Σ i = - n n Σ i = - m m I 1 ( u + i , v + j ) / ( 2 n + 1 ) ( 2 m + 1 ) , 表示图像I2在点(u,v)处的灰度平均值, I 2 ( u , v ) ‾ = Σ i = - n n Σ i = - m m I 2 ( u + i , v + j ) / ( 2 n + 1 ) ( 2 m + 1 ) , σ(I1)表示图像I1在以点(u,v)为中心、大小为(2n+1)(2m+1)的相关窗口内的标准偏差, σ ( I 1 ) = Σ i = - n n Σ j = - m m I 1 2 ( u + i , v + j ) ( 2 n + 1 ) ( 2 m + 1 ) - ( I 1 ( u , v ) ) 2 ‾ , σ(I2)表示图像I2在以点(u,v)为中心、大小为(2n+1)(2m+1)的相关窗口内的标准偏差, σ ( I 2 ) = Σ i = - n n Σ j = - m m I 2 2 ( u + i , v + j ) ( 2 n + 1 ) ( 2 m + 1 ) - ( I 2 ( u , v ) ) 2 ‾ ;
从公式(2)中可以得出,相关性系数Score(m1,m2)的取值范围从-1到1,特征点m1与m2越相似,相关性系数Score(m1,m2)也就越大。在实际特征匹配过程中,首先确定一个有效的相关性系数的阈值,当用某个特征点m2计算出来的相关性系数Score(m1,m2)大于该阈值时,则认为该特征点m2是特征点m1的一个候选匹配点,用此方法先求出图像I1上所有角点在图像I2中的候选匹配点,然后反过来求出图像I2上的所有角点在图像I1中的候选匹配点,经过这两个过程后,得到一些初始的匹配点对集合T。
在本实施方式中,m=n=6,搜索半径为图像中宽度和高度的最小值的四分之一,相关性系数的阈值为0.75。
然后采用松弛迭代法去除初始的匹配点对集合中重复的匹配点;
初始匹配得到的集合T中存在一个特征点同时对应多个匹配点的情况,利用松弛法(relaxation)可以去除掉大部分这类模糊匹配。
采用松弛迭代法去除初始的匹配点对集合中重复的匹配点,具体步骤是:首先将初始的匹配点对集合T中的初始匹配点对表示为(m1i,m2j),其中m1i是图像I1上的角点,m2j是图像I1上的角点,然后再定义两个分别以点m1i和m2j为中心、以R为半径的邻域N(m1i)和N(m2j)。根据“连续性”准则,如果(m1i,m2j)是一个正确的匹配点对,那么在邻域N(m1i)和N(m2j)内就必然存在更多的正确匹配点对(n1k,n2I),其中n1k∈N(m1i),n2I∈N(m2j),而且点n1k相对于点m1i的位置关系应和点n2l相对于点m2j的位置关系相似;而如果(m1i,m2j)是错误的匹配点对,那么在邻域N(m1i)和N(m2j)内就只有很少的匹配点对甚至没有。根据上述性质,定义匹配强度SM,如公式(3)所示,
S M ( m 1 i , m 2 j ) = c ij Σ n 1 k ∈ N ( m 1 i ) [ max n 2 i ∈ N ( m 2 j ) c kl δ ( m 1 i , m 2 j ; n 1 k , n 2 l ) 1 + dist ( m 1 i , m 2 j ; n 1 k , n 2 l ) ] - - - ( 3 )
其中,cij和ckl是初始匹配点对(m1i,m2j)和(n1k,n2l)的相关性系数,dist(m1i,m2j;n1k,n2l)是初始匹配点对(m1i,m2j)和(n1k,n2l)的平均距离,dist(m1i,m2j;n1k,n2l)=|d(m1i,m2j)+d(n1k,n2l)|/2,其中d(m1i,m2j)表示点m1i与点m2j再欧式空间下的距离;
δ的取值为
Figure BDA00002986174100082
公式(4)中,r表示点的相对距离偏差,其表达式为:
r = | d ( m 1 i , n 1 k ) + d ( m 2 j , n 2 l ) | dist ( m 1 i , m 2 j ; n 1 k , n 2 l ) - - - ( 5 )
εr是相对距离偏差的一个阈值,当r<εr时,δ的取值为e-r/c,在其它情况下都取为0。这样,通过公式(4)可以求出每一对初始匹配点的匹配强度。当(m1,m2)邻域内的候选匹配对较多时,SM(m1,m2)相应较大,所以SM(m1,m2)实际上衡量了邻域内的特征点对该匹配对的支持程度。
在本实施方式中,取er=0.25,邻域半径R取为所输入的二维图像的高度和宽度的最小值的八分之一。
通过上述方法得到每一对初始匹配点的匹配强度,通过对这些匹配强度进行松驰迭代来去除模糊的匹配点对。松弛过程必须兼顾到连续性和唯一性,为此构造了两个数组As,Ap,其中As存储T中SM(m1i,m2j)值最大的p对候选匹配对,Ap存储SM(m1i,m2j)值最大的q对候选匹配对。每次循环时,选取同时位于As,Ap前65%的匹配对作为最后的输出,这些匹配对可以被认为在一定程度上兼顾了连续性和唯一性,即这些匹配对为特征点匹配的结果。
步骤1.2.3.2:特征线匹配:采用位置相近准则、角度相似性准则、灰度相近性准则进行特征线匹配;
位置相近性准则:对于两图像上的同名线,它们在各自所在图像上的位置相差不应超过一定范围,即对于一对同名线s和s’,s’应该在s周围某一范围内,而不应该超出该范围,同理,s所在位置也应该在s’附近某一范围内,也不应该超出这个范围。该准则判断方法简单,能有效减少参与计算的线数目。;
角度相似性准则:对于两图像上的同名线,它们在各自所在图像坐标系下的角度应该相近;
灰度相近性准则:对于两图像上的同名线,它们两侧的灰度分布应该相同(或相近)。
如图4所示,两图像上分别有四条特征线,运用上述三个准则寻找出Image1上特征线s在Image2上的匹配线s’。根据位置相近准则,s’应该在s周围某一范围内,图中用虚线矩形框表示了这个范围。从图中可以看到在s’,s1’矩形范围内,s2’只有部分在矩形范围内,而s3’在矩形范围外,这样就能排除s2’、s3’与s匹配的可能性,只需要在S’,s1’中寻找s的最佳匹配即可。计算s与s’的夹角以及s与s1’的夹角,根据角度相似性准则,如果夹角小于闭值,则判断该组匹配有可能是正确的,否则认为该组匹配是错误的。角度相似性准则同位置相近准则一样,它并不能够确定哪组匹配是最佳的,只是判断出哪组匹配是错误的,从而缩小搜索最佳匹配的范围。假设s与s’的夹角以及s与s1’的夹角都小于阈值,即都可能是正确匹配,下一步就要运用灰度相近准则在s’,s1’中搜索出最佳匹配。将s’,s1’两侧灰度分别与s两侧的灰度值进行比较,与s两侧灰度最相近的便是最佳匹配。
步骤1.2.4:得到各个待识别三维物体不同视图的特征匹配结果,即特征匹配的元素集合。
本实施方式得到轿车A、轿车B和面包车C的不同视图相匹配的元素集合。
步骤1.3:利用2D射影变换求解特征匹配的元素集合的3D不变量;
两射影平面的四点对应唯一确定一个2D射影变换。
在射影平面U和V上,考虑U上的一点p(x1,x2,x3)T到V上的一点q(y1,y2,y3)T的一个对应
ky 1 = t 11 x 1 + t 12 x 2 + t 13 x 3 ky 2 = t 21 x 1 + t 22 x 2 + t 23 x 3 ky 3 = t 31 x 1 + t 32 x 2 + t 33 x 3 - - - ( 6 )
其中, T = t 11 t 12 t 13 t 21 t 22 t 23 t 31 t 32 t 33 , k≠0,且det(T)=|ti,j|≠0,tij为T中的元素。
这样的一种映射关系称为由射影平面U到V的2D射影对应,它所体现的变换称为2D射影变换,矩阵T称为2D射影变换矩阵。
射影几何的知识表明:共线四点的交比、共面五点的交比等是射影变换下保持不变的特征量,它们也是3D不变量。以此为基础,可推导出共面情况下的多种交比计算方法,如:共线4点、共点4线、共面5点、共面5线、共面2点2线、共面3点2线、共面2点3线、共面4点1线、共面1点4线等。
不经重建来求解空间3D不变量,需要把空间关系合理转化成共面关系,再利用共面条件下的交比计算方法来计算空间元素集合的3D不变量。
本实施方式中,求解特征匹配的元素集合的3D不变量时,引入两个术语:实元素,代指图像中那些可见的或具有明确物理意义的关键元素;虚元素,代指图像中那些不可见的不是目标自身具备的或不具有物理意义的关键元素,虚元素往往是空间元素的交点、交线等。
步骤1.3.1:从特征匹配的元素集合中选取实元素(即可见元素或具有物理意义的元素),确定基准平面,做共面性检验,确立2D射影变换矩阵;
步骤1.3.2:构造特征匹配的元素集合中的虚元素,包括虚点元素和虚线元素,虚点元素即直线与平面的交点,虚线元素即平面与平面的交线;
虚点元素:直线与平面的交点
空间内一条直线与空间内一平面的交点:已知空间平面在两个图像的成像分别为平面P和平面Q,二者所形成的2D射影变换矩阵为T。空间一直线L在两个图像的成像分别为I1和I2,设L与平面Φ的空间交点是D,D在两个图像中的成像分别是D1和D2。则
交点D在图像I2中的成像坐标为
d 2 ≅ [ ( T - 1 ) T · I 1 ] ^ I 2 - - - ( 7 )
交点D在图像I1中的成像坐标为
d 1 ≅ [ ( T - 1 ) T · I 2 ] ^ I 1 - - - ( 8 )
虚线元素:两平面的交线
空间内的两个平面的交线:已知空间平面,在两图像的成像分别为平面P和平面Q,二者所形成的2D射影变换矩阵为T。空间内另一平面
Figure BDA00002986174100103
上的不共线三点D、E、F,在两图像中的成像分别为d1,e1,f和d2,e2,f2。分别求空间直线DE、DF与平面Φ的交点M,N的成像,空间直线DE与平面Φ的交点记为m1,n1,空间直线DF与平面Φ的交点记为m2,n2。则连线m1^n1和m2^n2分别表示两平面的交线在图像I1和图像I2的成像直线。
步骤1.3.3:利用实元素和构造出的虚元素求解特征匹配的元素集合的3D不变量。
计算得到的3D不变量尽管以1D或2D的不变量形式出现,由于体现空间交点或交线关系的虚元素的介入,其本质还是反映空间几何元素的3D关系。如图5所示,例举一些由多种组合形式下的空间元素集合求解3D不变量。
步骤1.4:将得到的3D不变量与哈希表相结合,得到一个以3D不变量为索引的模型数据库;
分别计算出几种不同品牌不同款的轿车A、轿车B及面包车C的多种3D不变量,最后建立一个以3D不变量为索引的数据库,如表1所示。
表1轿车A、轿车B、面包车C的模型数据库
Figure BDA00002986174100111
步骤2:拍摄当前三维运动物体,获取视频图像;
步骤3:采用自适应背景差法对当前帧图像中的三维运动物体进行检测;
对于场景中存在光线等各种变化造成的干扰,建立自适应背景模型,确保检测的准确性。
如图6所示,采用自适应背景差法对当前帧图像中的三维运动物体进行检测,步骤如下:
步骤3.1:对获取的视频图像进行预处理,包括去噪处理及灰度处理;
采用中值滤波法对获取的多张视图去除噪声,再对图像进行灰度处理即进行色彩***变换,将24位的真彩色图像处理成灰度图像只需对彩色图像的3个分量进行权值计算。
步骤3.2:对去噪处理及灰度处理后的视频图像,建立自适应背景模型;
为保证背景图像能随着光线的变化而变化,确保检测的准确性,本实施方式采用Karmann(卡尔曼)提出的基于卡尔曼滤波的更新公式来改进图像平均模型。在背景估计的初始化阶段,首先选取一个初始的背景,然后用公式(9)所示的自适应背景模型更新背景:
Bk+1(i)=Bk(i)+(α1×Mk(i)+α2×(1-Mk(i)))(Ck(i)-Bk(i))  (9)
式中,Bk(i)为当前背景中像素i的值,Bk+1(i)为更新后的背景中像素i的值,Ck(i)为当前图像中像素i的值,α1、α2为更新系数。
定义Mk(i)如下:
Figure BDA00002986174100121
其中,T为阈值,依据“正确的阈值T应该能消除大部分噪声”的原则,由试验测试得阈值T在本实施方式的特定的应用背景下选在5~15之间。
由于噪声的存在以及背景的变化,Mk(i)的取值为1或者0,当|Ck(i)-Bk(i)|<T时,认为当前的图像值就是背景,Mk(i)取值为1,否则当前的图像值为前景,Mk(i)=0。根据当前的图像值是背景还是前景取不同的更新系数:α1和α2。当前的图像值为背景时,用α1更新,当前的图像值为前景时,用α2更新,且前景图像中存在小孔。赋予静止的背景点较大的更新系数α1=0.2,而赋予运动的前景点(运动物体)较小的更新系数α2=0.02,经过这种改进后,可以在保护自适应背景模型不受运动物体影响的同时迅速响应背景的变化。这样,自适应背景模型在每一时刻不断的得到更新,尽可能跟实际环境保持一致。
步骤3.3:用当前帧图像与背景图像相减得到三维运动物体的前景图像并对其进行二值化处理,得到二值化的前景图像;
步骤3.4:利用腐蚀算子去除前景图像中孤立的噪声点;
步骤3.5:利用膨胀算子填补前景图像中的小孔,从而检测出完整的三维运动物体,得到完整的三维运动物体前景图像。
步骤4:对检测出的三维运动物体进行基于3D不变量的三维运动物体识别;
对于检测出的运动物体,根据当前视频帧图像In和上一帧图像In-1计算得到其3D不变量。由于一般情况下,由物体及其图像中计算得到的不变量可能有多个,所以,当得到的3D不变量进行数据库索引表访问时,首先需要对索引表中的每一个3D不变量进行投票(即与3D不变量进行比对,如果比值接近1,则认为该模型获得一票),然后对模型得票数进行统计,将统计结果与阈值(85%)相比较,如果超过85%则认为该模型为匹配模型。此时,输入视频帧图像中的三维运动物体已被识别,如果统计结果小于85%,即三维运动物体没有被识别,则重新采用自适应背景差法对当前帧图像中的三维运动物体进行检测。
步骤4.1:根据当前视频帧图像和上一视频帧图像,利用2D射影变换求解得到三维运动物体的3D不变量集合;
步骤4.2:对三维运动物体的3D不变量集合进行模型数据库索引表访问,对该数据库的各索引中的各个3D不变量进行投票并对各索引中的得票进行统计;
步骤4.3:得票的统计结果超过阈值的索引在模型数据库中所对应的模型即当前三维运动物体的匹配模型,此时完成基于3D不变量的三维物体识别;
本实施方式中,在视频图像中分别出现了轿车A、大卡车D和自行车E,分别求解它们的3D不变量,结果如表2所示,与表1模型数据库索引表相比较可得出只有轿车A的3D不变量基本一致,统计结果大于85%,因此,轿车A被识别。而大卡车D与自行车E不能被识别,因为大卡车D与自行车E不在模型数据库中,所以不能被识别出来。
表2检测到的三维运动物体的3D不变量
Figure BDA00002986174100131
步骤5:利用Harris角点检测算法对已识别的三维运动物体进行特征点检测;
步骤4已获得视频图像中的被识别出的三维运动物体的初步位置,因此对图像局部(即识别出的三维物体部分)进行Harris角点检测特征点,如检测成功则进行特征点跟踪,否则重新进行角点检测。
特征检测主要是为***提供特征在图像中的精确位置,为特征跟踪提供数据来源。运用Harris角点检测算法对已识别出的三维运动物体进行特征点检测,具体方法如下:
Harris角点检测算法的角点度量公式如式(11)所示,
V u , v ( x , y ) = Σ i = 1 N 2 w i [ u ∂ I i ∂ x + v ∂ I i ∂ y ] 2 = u v M u v - - ( 11 )
其中,Vu,v(x,y)表示像素点(x,y)在(u,v)方向上的灰度变化量,wi为高斯窗口中位置i的权值,窗口大小为N×N,
Figure BDA00002986174100133
分别表示窗口位置i处像素点在x和y方向的导数。投影矩阵 M = A C C B , 其中,矩阵元素 A = I x 2 ⊗ w , B = I y 2 ⊗ w , C = I x I y ⊗ w . 最终可以通过矩阵M的特征值λ1和λ2量化某点的灰度变化量:当二者都很小时,定义为平坦区域;当一个较大另一个较小时,则该点属于边缘;当两者都较大时,则认为是角点。
角点计算公式如下:
C(x,y)=det(M)-k(trace(M))2  (12)
其中,det()和trace()分别表示求矩阵的行列式和迹,k取0.05。当C(x,y)大于85%并在某邻域取得局部极值时,则认为点(x,y)为角点。
步骤6:利用光流跟踪算法(KLT)对特征点检测后的三维运动物体进行特征点跟踪:若跟踪上的特征点个数大于30个,执行步骤7,否则返回步骤5;
为了满足增强现实的实时注册性,对于角点检测成功的特征点,使用KLT算法进行跟踪。如果跟踪成功,实时提取特征点边角变化信息,对特征点进行重建,从而得到每帧图像对应的摄像头投影矩阵。跟踪是获得同一场景在宽基线条件下两帧图像的匹配关系,为特征点的重建提供匹配点对,计算结果的精确与否将决定后续计算的精度,而且跟踪将为后续帧的注册提供保障。
假定在t时刻处于图像坐标(x,y)位置的点,在t时刻该像素点的灰度值为I(x,y,t),由于三维运动物体在t+dt时刻出现在图像坐标的(x+dx,y+dy)位置,该像素点在t+dt时刻的灰度值为I(x+dx,y+dy,t+dt),dt很小,根据假设,认为此点在移动过程中灰度值不变,即I(x+dx,y+dy,t+dt)=I(x,y,t),经泰勒公式展开消去I(x,y,t)并忽略极小项O(dt2),得光流约束方程:
Figure BDA00002986174100141
其中,是图像I在点m的梯度,vm=(vx,vy)T为时间间隔dt内点m的运动速度,
Figure BDA00002986174100143
这些微分可以由图像序列求得,通过求解光流约束方程的速度向量实现对特征点的跟踪。
如果跟踪上的特征点个数少于30个,则重新进行特征点角点检测,以保证有足够有效的特征点进行摄像头外参的计算。
步骤7:通过极几何约束进行特征点重建,得到宽基线条件下的角点匹配图像对,记为I和I′;
宽基线条件下的角点匹配图像对I和I′,相应的存在匹配点对集合
Figure BDA00002986174100145
pi、p′i分别为空间点P(X,Y,Z)在图像I和I′上的投影,称它们为对应点,记为
Figure BDA00002986174100146
n为匹配点对个数,为了便于后期坐标系的建立,使用归一化坐标作为输入数据,相应的归一化齐次坐标集合为
Figure BDA00002986174100147
分别为pi、p′i的归一化齐次坐标,理想情况下,对于D1中的任意点对,都应满足公式(13),
x ~ ni ′ T F x ~ ni = 0 - - - ( 13 )
其中, F = [ m ‾ ] × M 1 ′ M 1 - 1 为基本矩阵,为一个3×3秩2矩阵, m ‾ = m ′ - M 1 ′ M 1 - 1 m ,
Figure BDA00002986174100153
的反对称矩阵。M、M′分别为图像I和I′对应的摄像头投影矩阵,为3×4矩阵。M=(M1m),M′=(M1′m′),M1,M1′分别为M、M′的左侧3×3部分,m,m′分别为M、M′的右侧3×1部分。
步骤8:剔除宽基线条件下的角点匹配图像对中的误匹配图像对;
由于可能存在误匹配,使得一部分点对不满足公式(13),引入RANSAC优化算法计算基本矩阵,以消除误匹配,从而可以获得精确的重建结果,最终将得到的基本矩阵进行分解,得到每帧图像对应的摄像头投影矩阵,再根据公式(14)计算三维点位置。
λ u v 1 = K R t X w Y w Z w 1 = M X w Y w Z w 1 - - - ( 14 )
其中,λ=Zc为比例因子,(u,v)为P点投影点坐标,K为3×3摄像头内参矩阵,[R  t]为摄像头外部参数, X w Y w Z w 1 为世界坐标系。
步骤9:通过计算真实摄像头参数确定摄像头位姿,对三维运动物体进行实时增强现实注册。
实现注册的前提是获取注册信息,其实质为两个变换矩阵:世界坐标系与摄像头坐标系之间的变换矩阵和世界坐标系与虚拟坐标系之间的变换矩阵。前者即为摄像头的外参,后者将虚拟坐标系中虚拟物体的几何描述变换为世界坐标系中的几何描述(一般设为重合,即将矩阵S设为单位矩阵)。对于内参,可将其设为已知,认为在***运行过程中不变,从而也可以简化注册信息的获取,所以实现注册的关键在于摄像头外参的计算。
步骤9.1:计算真实摄像头内参和外参,内参即世界坐标系与虚拟坐标系之间的变换矩阵,外参,即世界坐标系与摄像头坐标系之间的变换矩阵;
使用ARToolKit对所采用的摄像头进行标定获得其内参数。标定板如图7所示,该标定板上为4×6网格点阵,各点与相邻点之间的距离是等同的。用摄像头拍摄标定板,得到的图像要保证24个点全部包含其中,最终求得内参数K如下:
K = 1687.23 0.00 524.00 0.00 1126.83 193.00 0.00 0.00 1.00
据式(14),设摄像头外参中的 R = [ R 1 R 2 R 3 ] = r 11 r 12 r 13 r 21 r 22 r 23 r 31 r 32 r 33 , t=(tx,ty,tz)T,投影矩阵 M = m 11 m 12 m 13 m 14 m 21 m 22 m 23 m 24 m 31 m 32 m 33 m 34 ,
由世界坐标系的建立方式可知,所使用的空间点在该坐标系下的Z坐标为0,并使用归一化坐标,则有可进一步将公式(14)可写为式(15)的形式。
λ x n y n 1 = r 11 r 12 t x r 21 r 22 t y t 31 r 32 t z X w Y w 1 - - - ( 15 )
由公式(15)得两个有效方程,如式(16)所示。
x n = r 11 X w + r 12 Y w + t x r 31 X w + r 32 Y w + t z y n = r 21 X w + r 22 Y w + t y r 31 X w + r 32 Y w + t z - - - ( 16 )
其中,tz为比例因子,则式(16)只有8个未知参数。只需根据四个角点和成像点的对应关系联立方程组进行求解,如式(17)所示。
X w 1 Y w 1 1 0 0 0 - X w 1 x n 1 - Y w 1 x n 1 X w 2 Y w 2 1 0 0 0 - X w 2 x n 2 - Y w 2 x n 2 X w 3 Y w 3 1 0 0 0 - X w 3 x n 3 - Y w 3 x n 3 X 4 Y w 4 1 0 0 0 - X w 4 x n 4 - Y w 4 x n 4 0 0 0 X w 1 Y w 1 1 - X w 1 y n 1 - Y w 1 y n 1 0 0 0 X w 2 Y w 2 1 - X w 2 y n 2 - Y w 2 y n 2 0 0 0 X w 3 Y w 3 1 - X w 3 y n 3 - Y w 3 y n 3 0 0 0 X w 4 Y w 4 1 - X w 4 y n 4 - Y w 4 y n 4 r 11 ′ r 12 ′ t x ′ r 21 ′ r 22 ′ t y ′ r 31 ′ r 32 ′ = x n 1 x n 2 x n 3 x n 4 y n 1 y n 2 y n 3 y n 4 - - - ( 17 )
由该方程组得R′1、R′2和t′,由变换矩阵中旋转分量的正交性。可进一步求得R′3=R′1×R′2,根据R的单位正交性,||R1||=||tZR′1||=tZ||R′1||=1,则[R  t]=(1/||R′1||)[R′t′],从而得到摄像头坐标系和参考坐标系之间的变换关系——摄像头外参,即为三维注册矩阵。
步骤9.2:用真实摄像头的内外参设定虚拟摄像头的内外参,对虚拟三维运动物体进行投影,并通过显示设备输出;
此时用真实摄像头的内外参设定虚拟摄像头的内外参,对虚拟物体(本实施方式为正方体模型)进行投影,并通过显示设备(本实施方式为显示器)输出,然后对每一帧图像用本方法更新注册信息,便可以实现跟踪注册,达到对真实场景的增强效果。本实施方式增强现实注册结果通过显示器输出,在识别出的三维运动物体(轿车A)上叠加显示正方体模型。
步骤9.3:对每一帧图像执行步骤9.1~9.2,更新注册信息,实现跟踪注册;
步骤9.4:完成对基于无标记的三维运动物体的增强现实注册。

Claims (6)

1.一种基于无标记的三维运动物体增强现实注册方法,其特征在于:包括以下步骤:
步骤1:建立模型数据库;
步骤1.1:拍摄各个待识别三维物体,获取各个待识别三维物体的不同角度的多张视图;
步骤1.2:对获取的多张视图进行数据处理,包括特征提取和特征匹配,得到各个视图的特征匹配结果;
步骤1.3:利用2D射影变换求解特征匹配的元素集合的3D不变量;
步骤1.4:将得到的3D不变量与哈希表相结合,得到一个以3D不变量为索引的模型数据库;
步骤2:拍摄当前三维运动物体,获取视频图像;
步骤3:采用自适应背景差法对当前帧图像中的三维运动物体进行检测;
步骤4:对检测出的三维运动物体进行基于3D不变量的三维运动物体识别;
步骤4.1:根据当前视频帧图像和上一视频帧图像,利用2D射影变换求解得到三维运动物体的3D不变量集合;
步骤4.2:对三维运动物体的3D不变量集合进行模型数据库索引表访问,对该数据库的各索引中的各个3D不变量进行投票并对各索引中的得票进行统计;
步骤4.3:得票的统计结果超过阈值的索引在模型数据库中所对应的模型即当前三维运动物体的匹配模型,此时完成基于3D不变量的三维物体识别;
步骤5:利用Harris角点检测算法对已识别的三维运动物体进行特征点检测;
步骤6:利用光流跟踪算法对特征点检测后的三维运动物体进行特征点跟踪:若跟踪上的特征点大于F个,20<F<60,执行步骤7,否则返回步骤5;
步骤7:通过极几何约束进行特征点重建,得到宽基线条件下的角点匹配图像对;
步骤8:剔除宽基线条件下的角点匹配图像对中的误匹配图像对;
步骤9:通过计算真实摄像头参数确定摄像头位姿,对三维运动物体进行实时增强现实注册。
2.根据权利要求1所述的基于无标记的三维运动物体增强现实注册方法,其特征在于:所述特征提取包括特征点提取和特征线提取,特征匹配包括特征点匹配和特征线匹配。
3.根据权利要求1所述的基于无标记的三维运动物体增强现实注册方法,其特征在于:所述步骤1.2对获取的多张视图进行数据处理,包括特征提取和特征匹配,得到各个视图的特征匹配结果,具体按如下步骤进行:
步骤1.2.1:对获取的多张视图去除噪声并进行灰度处理;
步骤1.2.2:提取特征点和特征线;
步骤1.2.3:对同一待识别三维物体的多张视图进行特征匹配,得到各个待识别三维物体不同视图的特征匹配结果;
步骤1.2.3.1:特征点匹配;
首先,采用灰度相关匹配法,对特征点进行模糊匹配,得到初始的匹配点集合;
然后采用松弛迭代法去除初始的匹配点集合中重复的匹配点;
步骤1.2.3.2:特征线匹配:采用位置相近准则、角度相似性准则、灰度相近性准则进行特征线匹配;
步骤1.2.4:得到各个待识别三维物体不同视图的特征匹配结果,即特征匹配的元素集合。
4.根据权利要求1所述的基于无标记的三维运动物体增强现实注册方法,其特征在于:所述步骤1.3利用2D射影变换求解特征匹配的元素集合的3D不变量,具体按如下步骤进行:
步骤1.3.1:从特征匹配的元素集合中选取实元素即可见元素或具有物理意义的元素,确定基准平面,做共面性检验,确立2D射影变换矩阵;
步骤1.3.2:构造特征匹配的元素集合中的虚元素,包括虚点元素和虚线元素,虚点元素即直线与平面的交点,虚线元素即平面与平面的交线;
步骤1.3.3:利用实元素和虚元素求解特征匹配的元素集合的3D不变量。
5.根据权利要求1所述的基于无标记的三维运动物体增强现实注册方法,其特征在于:所述步骤3采用自适应背景差法对当前帧图像中的三维运动物体进行检测,具体按如下步骤进行:
步骤3.1:对获取的视频图像进行预处理,包括去噪处理及灰度处理;
步骤3.2:对去噪处理及灰度处理后的视频图像,建立自适应背景模型;
步骤3.3:用当前帧图像与背景图像相减得到三维运动物体的前景图像并对其进行二值化处理,得到二值化的前景图像;
步骤3.4:利用腐蚀算子去除前景图像中孤立的噪声点;
步骤3.5:利用膨胀算子填补前景图像中的小孔,从而检测出完整的三维运动物体,得到完整的三维运动物体前景图像。
6.根据权利要求1所述的基于无标记的三维运动物体增强现实注册方法,其特征在于:所述步骤9通过计算真实摄像头参数确定摄像头位姿,对三维运动物体进行实时增强现实注册,具体按如下步骤进行:
步骤9.1:计算真实摄像头内参和外参,内参即世界坐标系与虚拟坐标系之间的变换矩阵,外参,即世界坐标系与摄像头坐标系之间的变换矩阵;
使用 ARToolKit对摄像头进行标定进而获得摄像头内参;
步骤9.2:用真实摄像头的内外参设定虚拟摄像头的内外参,对虚拟三维运动物体进行投影,并通过显示设备输出;
步骤9.3:对每一帧图像执行步骤9.1~9.2,更新注册信息,实现跟踪注册;
步骤9.4:完成对基于无标记的三维运动物体的增强现实注册。
CN2013101084902A 2013-03-29 2013-03-29 一种基于无标记的三维运动物体增强现实注册方法 Pending CN103177468A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2013101084902A CN103177468A (zh) 2013-03-29 2013-03-29 一种基于无标记的三维运动物体增强现实注册方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2013101084902A CN103177468A (zh) 2013-03-29 2013-03-29 一种基于无标记的三维运动物体增强现实注册方法

Publications (1)

Publication Number Publication Date
CN103177468A true CN103177468A (zh) 2013-06-26

Family

ID=48637296

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2013101084902A Pending CN103177468A (zh) 2013-03-29 2013-03-29 一种基于无标记的三维运动物体增强现实注册方法

Country Status (1)

Country Link
CN (1) CN103177468A (zh)

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103839277A (zh) * 2014-02-21 2014-06-04 北京理工大学 一种户外大范围自然场景的移动增强现实注册方法
CN103854283A (zh) * 2014-02-21 2014-06-11 北京理工大学 一种基于在线学习的移动增强现实跟踪注册方法
CN103996015A (zh) * 2013-09-26 2014-08-20 深圳市云立方信息科技有限公司 一种对3d图像识别的方法及装置
CN105223888A (zh) * 2015-10-14 2016-01-06 成都智控科技有限公司 一种基于虚拟现实技术的停车场监控***
CN104183014B (zh) * 2014-08-13 2017-01-18 浙江大学 一种面向城市增强现实的高融合度信息标注方法
CN106774870A (zh) * 2016-12-09 2017-05-31 武汉秀宝软件有限公司 一种增强现实交互方法及***
CN106952312A (zh) * 2017-03-10 2017-07-14 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于线特征描述的无标识增强现实注册方法
CN107038758A (zh) * 2016-10-14 2017-08-11 北京联合大学 一种基于orb算子的增强现实三维注册方法
CN107369183A (zh) * 2017-07-17 2017-11-21 广东工业大学 面向mar的基于图优化slam的跟踪注册方法及***
CN107464257A (zh) * 2017-05-04 2017-12-12 中国人民解放军军械工程学院 宽基线匹配方法及装置
CN107967496A (zh) * 2017-12-22 2018-04-27 华中科技大学 一种基于几何约束与gpu级联哈希的图像特征匹配方法
CN108053491A (zh) * 2017-12-12 2018-05-18 重庆邮电大学 动态视角条件下实现平面目标三维跟踪和增强现实的方法
CN108108748A (zh) * 2017-12-08 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
WO2018133130A1 (en) * 2017-01-23 2018-07-26 Hong Kong Applied Science and Technology Research Institute Company Limited 3d marker model construction and real-time tracking using monocular camera
CN108364302A (zh) * 2018-01-31 2018-08-03 华南理工大学 一种无标记的增强现实多目标注册跟踪方法
CN108629843A (zh) * 2017-03-24 2018-10-09 成都理想境界科技有限公司 一种实现增强现实的方法及设备
CN108694348A (zh) * 2017-04-07 2018-10-23 中山大学 一种基于自然特征的跟踪注册方法及装置
CN108805903A (zh) * 2018-05-24 2018-11-13 讯飞幻境(北京)科技有限公司 一种基于ar引擎的多标记点识别方法和装置
CN109101985A (zh) * 2018-06-03 2018-12-28 东南大学 一种基于自适应邻域测试的图像误匹配点对剔除方法
CN109211102A (zh) * 2017-07-03 2019-01-15 北京信息科技大学 亚像素级角点的检测方法及***
CN110009681A (zh) * 2019-03-25 2019-07-12 中国计量大学 一种基于imu辅助的单目视觉里程计位姿处理方法
CN110320928A (zh) * 2018-03-29 2019-10-11 科隆应用技术大学 控制无人驾驶运输工具的方法和改造可远程控制的无人驾驶运输工具的附加模块
CN110335351A (zh) * 2019-07-02 2019-10-15 北京百度网讯科技有限公司 多模态ar处理方法、装置、***、设备及可读存储介质
CN111126304A (zh) * 2019-12-25 2020-05-08 鲁东大学 一种基于室内自然场景图像深度学习的增强现实导航方法
US11112934B2 (en) 2013-05-14 2021-09-07 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
CN113552943A (zh) * 2021-07-20 2021-10-26 深圳市博乐信息技术有限公司 一种用于卫生健康科普的ar交互***及装置
CN115645044A (zh) * 2022-11-04 2023-01-31 福州大学 一种基于无标记物的口腔种植图像叠加方法
CN117912116A (zh) * 2024-01-24 2024-04-19 北京林业大学 一种真实场景下野生动物姿态估计方法
CN118135159A (zh) * 2024-05-06 2024-06-04 中国人民解放军国防科技大学 面向虚实协同训练的增强现实三维注册方法、装置及设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976461A (zh) * 2010-10-25 2011-02-16 北京理工大学 一种新的户外增强现实无标跟踪注册算法
CN102254345A (zh) * 2011-06-30 2011-11-23 上海大学 基于云计算的自然特征注册方法
CN102360504A (zh) * 2011-10-20 2012-02-22 北京航空航天大学 一种基于多自然特征的自适应虚实三维注册方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101976461A (zh) * 2010-10-25 2011-02-16 北京理工大学 一种新的户外增强现实无标跟踪注册算法
CN102254345A (zh) * 2011-06-30 2011-11-23 上海大学 基于云计算的自然特征注册方法
CN102360504A (zh) * 2011-10-20 2012-02-22 北京航空航天大学 一种基于多自然特征的自适应虚实三维注册方法
CN102568026A (zh) * 2011-12-12 2012-07-11 浙江大学 一种多视点自由立体显示的三维增强现实方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
朱孔春: "增强现实中基于视觉的三维注册技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
林佳乙: "基于网络监控图像的运动检测研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
秦国辉: "基于3D不变量的三维物体识别", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11880541B2 (en) 2013-05-14 2024-01-23 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US11112934B2 (en) 2013-05-14 2021-09-07 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
CN103996015A (zh) * 2013-09-26 2014-08-20 深圳市云立方信息科技有限公司 一种对3d图像识别的方法及装置
WO2015043301A1 (zh) * 2013-09-26 2015-04-02 深圳市亿思达科技集团有限公司 一种对3d图像识别的方法及装置
CN103996015B (zh) * 2013-09-26 2016-09-07 深圳市云立方信息科技有限公司 一种对3d图像识别的方法及装置
CN103839277A (zh) * 2014-02-21 2014-06-04 北京理工大学 一种户外大范围自然场景的移动增强现实注册方法
CN103854283A (zh) * 2014-02-21 2014-06-11 北京理工大学 一种基于在线学习的移动增强现实跟踪注册方法
CN103854283B (zh) * 2014-02-21 2017-04-05 北京理工大学 一种基于在线学习的移动增强现实跟踪注册方法
CN104183014B (zh) * 2014-08-13 2017-01-18 浙江大学 一种面向城市增强现实的高融合度信息标注方法
CN105223888A (zh) * 2015-10-14 2016-01-06 成都智控科技有限公司 一种基于虚拟现实技术的停车场监控***
CN107038758B (zh) * 2016-10-14 2020-07-17 北京联合大学 一种基于orb算子的增强现实三维注册方法
CN107038758A (zh) * 2016-10-14 2017-08-11 北京联合大学 一种基于orb算子的增强现实三维注册方法
CN106774870A (zh) * 2016-12-09 2017-05-31 武汉秀宝软件有限公司 一种增强现实交互方法及***
WO2018133130A1 (en) * 2017-01-23 2018-07-26 Hong Kong Applied Science and Technology Research Institute Company Limited 3d marker model construction and real-time tracking using monocular camera
CN106952312A (zh) * 2017-03-10 2017-07-14 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于线特征描述的无标识增强现实注册方法
CN106952312B (zh) * 2017-03-10 2020-06-05 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于线特征描述的无标识增强现实注册方法
CN108629843B (zh) * 2017-03-24 2021-07-13 成都理想境界科技有限公司 一种实现增强现实的方法及设备
CN108629843A (zh) * 2017-03-24 2018-10-09 成都理想境界科技有限公司 一种实现增强现实的方法及设备
CN108694348A (zh) * 2017-04-07 2018-10-23 中山大学 一种基于自然特征的跟踪注册方法及装置
CN107464257B (zh) * 2017-05-04 2020-02-18 中国人民解放军陆军工程大学 宽基线匹配方法及装置
CN107464257A (zh) * 2017-05-04 2017-12-12 中国人民解放军军械工程学院 宽基线匹配方法及装置
CN109211102B (zh) * 2017-07-03 2020-10-27 北京信息科技大学 亚像素级角点的检测方法及***
CN109211102A (zh) * 2017-07-03 2019-01-15 北京信息科技大学 亚像素级角点的检测方法及***
CN107369183A (zh) * 2017-07-17 2017-11-21 广东工业大学 面向mar的基于图优化slam的跟踪注册方法及***
CN108108748A (zh) * 2017-12-08 2018-06-01 联想(北京)有限公司 一种信息处理方法及电子设备
CN108053491A (zh) * 2017-12-12 2018-05-18 重庆邮电大学 动态视角条件下实现平面目标三维跟踪和增强现实的方法
CN107967496B (zh) * 2017-12-22 2020-05-19 华中科技大学 一种基于几何约束与gpu级联哈希的图像特征匹配方法
CN107967496A (zh) * 2017-12-22 2018-04-27 华中科技大学 一种基于几何约束与gpu级联哈希的图像特征匹配方法
CN108364302B (zh) * 2018-01-31 2020-09-22 华南理工大学 一种无标记的增强现实多目标注册跟踪方法
CN108364302A (zh) * 2018-01-31 2018-08-03 华南理工大学 一种无标记的增强现实多目标注册跟踪方法
CN110320928A (zh) * 2018-03-29 2019-10-11 科隆应用技术大学 控制无人驾驶运输工具的方法和改造可远程控制的无人驾驶运输工具的附加模块
CN108805903A (zh) * 2018-05-24 2018-11-13 讯飞幻境(北京)科技有限公司 一种基于ar引擎的多标记点识别方法和装置
CN108805903B (zh) * 2018-05-24 2021-07-27 讯飞幻境(北京)科技有限公司 一种基于ar引擎的多标记点识别方法和装置
CN109101985A (zh) * 2018-06-03 2018-12-28 东南大学 一种基于自适应邻域测试的图像误匹配点对剔除方法
CN110009681A (zh) * 2019-03-25 2019-07-12 中国计量大学 一种基于imu辅助的单目视觉里程计位姿处理方法
CN110335351A (zh) * 2019-07-02 2019-10-15 北京百度网讯科技有限公司 多模态ar处理方法、装置、***、设备及可读存储介质
CN111126304A (zh) * 2019-12-25 2020-05-08 鲁东大学 一种基于室内自然场景图像深度学习的增强现实导航方法
CN111126304B (zh) * 2019-12-25 2023-07-07 鲁东大学 一种基于室内自然场景图像深度学习的增强现实导航方法
CN113552943A (zh) * 2021-07-20 2021-10-26 深圳市博乐信息技术有限公司 一种用于卫生健康科普的ar交互***及装置
CN115645044A (zh) * 2022-11-04 2023-01-31 福州大学 一种基于无标记物的口腔种植图像叠加方法
CN117912116A (zh) * 2024-01-24 2024-04-19 北京林业大学 一种真实场景下野生动物姿态估计方法
CN118135159A (zh) * 2024-05-06 2024-06-04 中国人民解放军国防科技大学 面向虚实协同训练的增强现实三维注册方法、装置及设备

Similar Documents

Publication Publication Date Title
CN103177468A (zh) 一种基于无标记的三维运动物体增强现实注册方法
CN103020945B (zh) 一种多源传感器的遥感图像配准方法
Bourdev et al. Detecting people using mutually consistent poselet activations
Xiong et al. A critical review of image registration methods
CN105139412A (zh) 一种高光谱图像角点检测方法与***
Yilmaz et al. A differential geometric approach to representing the human actions
Merad et al. Fast people counting using head detection from skeleton graph
Krotosky et al. Mutual information based registration of multimodal stereo videos for person tracking
Cai et al. Perspective-SIFT: An efficient tool for low-altitude remote sensing image registration
Kim et al. 3D object recognition in range images using visibility context
Evangelidis et al. Efficient subframe video alignment using short descriptors
Choi et al. Robust feature point matching by preserving local geometric consistency
Luo et al. A unified framework for alignment and correspondence
Fan et al. New point matching algorithm using sparse representation of image patch feature for SAR image registration
CN103839277A (zh) 一种户外大范围自然场景的移动增强现实注册方法
Meger et al. Explicit Occlusion Reasoning for 3D Object Detection.
CN104318559A (zh) 用于视频图像匹配的特征点快速检测方法
CN103679720A (zh) 一种基于小波分解与Harris角点检测的快速图像配准方法
CN104732546A (zh) 区域相似性和局部空间约束的非刚性sar图像配准方法
Huang et al. Pixel-wise weighted region-based 3D object tracking using contour constraints
Cao et al. Detection method for auto guide vehicle’s walking deviation based on image thinning and Hough transform
Huo et al. Three-dimensional mechanical parts reconstruction technology based on two-dimensional image
Moreno et al. Stereo vision specific models for particle filter-based SLAM
Jiazhen et al. A novel dense descriptor based on structure tensor voting for multi-modal image matching
Li et al. Adaptive regional multiple features for large-scale high-resolution remote sensing image registration

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C12 Rejection of a patent application after its publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20130626