CN104077596A - 一种无标志物跟踪注册方法 - Google Patents
一种无标志物跟踪注册方法 Download PDFInfo
- Publication number
- CN104077596A CN104077596A CN201410274521.6A CN201410274521A CN104077596A CN 104077596 A CN104077596 A CN 104077596A CN 201410274521 A CN201410274521 A CN 201410274521A CN 104077596 A CN104077596 A CN 104077596A
- Authority
- CN
- China
- Prior art keywords
- image
- point
- unique point
- censure
- tracking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种无标志物跟踪注册方法,属于增强现实技术领域。本发明针对现有技术不足,通过构造随机森林分类模型,对CenSurE算法提取的特征点进行快速初始匹配,同时结合现有特征点连续跟踪技术对匹配特征点进行连续跟踪,从而在大幅度减少特征匹配所需计算的同时,提高了所选取特征点的稳定性;并进一步对光流特征跟踪方法进行改进,对错误跟踪点进行筛选,提高了跟踪注册的准确性和效率,提高了增强现实***的实时性。相比现有技术,本发明方法能够有效提高跟踪注册的准确性和效率,进而提升增强现实***的实时性。
Description
技术领域
本发明涉及增强现实技术领域,尤其涉及一种无标志物跟踪注册方法。
背景技术
增强现实(Augmented Reality,简称AR)是为了解决虚拟现实与真实环境完全隔离,不能贴近现实世界而出现的一项新技术。增强现实主要通过借助模式识别、多媒体、传感器、计算机视觉等技术,在真实场景之上叠加由计算机创建的虚拟的三维物体或者二维的信息,利用显示设备呈现出具有良好视觉效果的虚实结合环境,帮助用户对真实世界进行更好地理解和认知。
在增强现实***中,跟踪注册技术是实现图像融合必需的条件,对精确实现“虚实融合”至关重要。跟踪注册技术,又被称为虚实配准技术,主要通过实时检测、跟踪目标场景在真实环境中与摄像机的相对位置关系,对虚拟物体的位置进行准确定位,完成虚实融合。目前,根据注册技术采用的方法和设备不同,常见的跟踪注册技术主要有三种:基于硬件、基于视觉和不同方案混合的跟踪注册技术。基于硬件的跟踪注册技术,根据采用的传感器不同,有电磁、超声波、光学和惯性设备等。它主要通过测量和分析反馈信号,动态地跟踪使用者的位置和方向,完成虚拟物体的叠加,具有注册简单,跟踪速度较快的优点,但是普遍存在受环境干扰影响大,长时间跟踪困难的问题。基于计算机视觉的跟踪注册,主要通过采集处理场景的图像信息,进行识别和跟踪,计算摄像机相对于目标场景的位姿关系。与基于硬件的注册技术相比,成本低廉,实现方便,而且注册精度更高,是当前AR研究中应用最广泛的技术。而混合跟踪注册技术是当某一种策略无法达到预期效果时,通过结合不同种类的注册技术,使注册定位更加精确。混合跟踪***一般精确性较高,但是***构建复杂、花费代价高昂,并不适合大规模应用。
目前,基于视觉的跟踪注册研究中,比较成熟的是基于人工标识物(Marker)的注册。此项技术通过提取场景中的标识物进行识别定位,实现增强现实。但是该方法应用的前提是目标场景中必须存在特定的、完整的人工标识,如果不能满足上述条件,就容易造成注册失败。因此,无标识物的跟踪注册技术成为影响增强现实发展的一个重要问题。增强现实技术对稳定性、精确性和实时性的要求较高,而目前基于视觉的常见注册方法,例如Ke Xu采用单应关系计算注册矩阵的方法,Andrew通过事先计算场景模型完成注册的方法,Yuko利用包含多平面结构的真实场景的视觉注册等方法,在检测特征的稳定性与实时性方面不能同时兼顾,如果检测不到稳定的特征点,就无法完成注册。而且由于特征提取的运算一般比较复杂,目前主要的解决办法是通过对特征点进行跟踪减少计算,提高效率。这种策略也面临着一个问题:提取的特征在尺度和环境适应性方面稳定性不强,可重复性较弱,当场景发生变形时,容易产生误匹配和跟踪失败的问题,影响了增强现实***运行的稳定,同时降低了***的运行效率。
发明内容
本发明所要解决的技术问题在于克服现有无标识物的跟踪注册技术,提供一种无标志物跟踪注册方法,能够有效提高跟踪注册的准确性和效率,进而提升增强现实***的实时性。
一种无标志物跟踪注册方法,包括以下步骤:
步骤1、获取目标场景的一幅图像作为模板图像,并利用一系列不同的仿射参数对模板图像进行仿射变换,得到一组变换图像;
步骤2、分别检测出模板图像和各变换图像中的CenSurE特征点,并从中筛选出稳定特征点,具体包括:
将各变换图像中的CenSurE特征点按照相应的仿射参数进行逆仿射变换,并比较各变换图像中的每一个CenSurE特征点经逆仿射变换后的坐标与模板图像中和其相对应的CenSurE特征点的坐标之间的偏差,如偏差大于预设范围,则将该变换图像中的这个CenSurE特征点剔除,最后剩余的模板图像和各变换图像中的CenSurE特征点即为稳定特征点;
步骤3、对每一个稳定特征点,提取以其为中心的相同大小的邻域图像块;模板图像中的每一个稳定特征点的邻域图像块各自构成单独的一类,各变换图像中和该稳定特征点相对应的其它稳定特征点的邻域图像块属于该模板图像中稳定特征点的邻域图像块所在的类;以所提取出的所有邻域图像块作为训练样本集,训练随机森林分类器;
步骤4、对于跟踪注册的目标视频的第一个图像帧,利用以下方法将其与模板图像进行特征点匹配:
首先检测其中的CenSurE特征点,并按照步骤3中的方法提取所检测出的各CenSurE特征点的邻域图像块,并利用训练好的随机森林分类器对这些邻域图像块进行分类,假设第一个图像帧中的CenSurE特征点fi的领域图像块被分类为类别c,则类别c所对应的模板图像中的稳定特征点即为fi的匹配点;
步骤5、对于后续的图像帧,对匹配点进行连续跟踪;如果跟踪失败,利用步骤4中的方法将当前帧与模板图像重新进行特征点匹配,然后继续对重新得到的匹配点进行连续跟踪,从而实现对目标视频的连续跟踪;
步骤6、结合摄像机内部参数得到投影矩阵,将虚拟物体模型绘制叠加到真实场景中。
为了进一步提升所选择的特征点的稳定性,作为本发明的进一步改进方案,所述步骤2与步骤3之间还包括对步骤2所得到的稳定特征点进行再筛选的步骤,具体如下:以步骤2所筛选出的稳定特征点作为初步稳定特征点,对统计模板图像中的所有初步稳定特征点根据其所对应的变换图像中初步稳定特征点的数量从大到小进行排序,选出最前面的一部分,最后以这一部分统计模板图像中的初步稳定特征点及其所对应的变换图像中的初步稳定特征点作为最终的稳定特征点。
上述技术方案中可采用现有的各种方法实现对匹配点的连续跟踪,作为本发明的另一优选技术方案,所述对匹配点进行连续跟踪,具体按照以下方法:首先利用光流特征跟踪方法得到当前帧的粗匹配点;然后将偏移向量的模大于预设阈值的粗匹配点作为错误匹配点,对于每一个错误匹配点,在以其为中心的N×N的检测窗口中检测是否存在偏移向量的模大于预设阈值的新的CenSurE特征点,如存在,则以其中距离该错误匹配点最近的新的CenSurE特征点取代该错误匹配点,如不存在,则剔除该错误匹配点;然后对下一图像帧重复以上过程。
相比现有技术,本发明具有以下有益效果:
1、本发明引入了新的CenSurE特征提取算法,CenSurE特征具有的尺度不变特性,可以很好的描述不同变换下的场景,提高了对复杂场景的表达能力和适应性;同时,在保证稳定性的前提下,具有比SIFT和SURF更高的提取效率。
2、本发明采用了随机森林分类的方法,将特征匹配转化为模式识别的问题,通过对分类器进行训练和识别,提高了特征的匹配效率和准确性,为后续注册矩阵的计算提供了准确的识别结果,保证了跟踪注册的顺利完成。
3、本发明将特征点的匹配有机地与基于光流的跟踪相结合,对特征点的位置进行跟踪和预测,提高了跟踪注册的快速性;对跟踪的特征点进行筛选,避免了累积误差,提高了跟踪的准确性。
附图说明
图1为一种采用本发明跟踪注册方法的增强现实***的结构框图;
图2为随机森林分类器的训练及测试过程示意图;
图3为具体实施方式中增强现实***的工作过程示意图。
具体实施方式
下面结合附图对本发明的技术方案进行详细说明:
本发明针对现有技术不足,通过构造随机森林分类模型,对CenSurE算法提取的特征点进行快速初始匹配,同时结合现有特征点连续跟踪技术对匹配特征点进行连续跟踪,从而在大幅度减少特征匹配所需计算的同时,提高了所选取特征点的稳定性;并进一步对光流特征跟踪方法进行改进,对错误跟踪点进行筛选,提高了跟踪注册的准确性和效率,提高了增强现实***的实时性。
图1显示了一种采用本发明跟踪注册方法的增强现实***的结构框图,如图所示,该增强显示***包括:
***参数初始化模块,用于计算摄像机内部参数,初始化视频窗口;
图像采集处理模块,用于对图像进行实时采集和处理;
随机森林特征识别模块,在离线阶段中用于提取模板图像,检测特征点构建训练样本,并对随机森林分类模型进行训练;在线运行时对特征点进行分类预测,得到初始匹配点集合;
跟踪注册模块,用于对特征点进行连续跟踪,筛选去除错误跟踪点,计算每一帧的三维注册矩阵;
虚实融合模块,用于生成虚拟的物体或者信息,将其根据注投影模型叠加显示到真实场景中。
下面结合图1所示增强现实***的工作过程,来对本发明技术方案进行详细描述。
该***的工作过程具体包括以下步骤:
步骤A、***参数初始化模块计算所采用的摄像机的内部参数,初始化***环境及参数;步骤B、随机森林特征识别模块与跟踪注册模块相结合,实现跟踪注册,具体包括以下子步骤:
步骤B1、获取目标场景的一幅图像作为模板图像,并利用一系列不同的仿射参数对模板图像进行仿射变换,得到一组变换图像;
上述模板图像可以通过对真实场景进行拍摄得到,也可以通过从目标视频中截取一个图像帧得到。然后根据模板图像,利用仿射变换生成旋转、尺度、光照、模糊等不同情况下的变换图像。
仿射变换公式为:
(q1-p1)=A(q0-p0)+t
其中,p0和q0表示原始图像中的特征点坐标;p1和q1为仿射变换后的特征点坐标,t=[tu,tv]T则为平移矩阵;A=RθRφ -1SRφ,Rθ表示位置旋转矩阵,Rφ为尺度变换轴旋转矩阵,θ和φ的变化范围分别为[-π,π]和[-π,2π];S=diag[λ1,λ2]表示图像的尺度变化对角矩阵。这样,通过选用一系列不同的仿射变换参数分别对模板图像进行处理,即可得到一组模仿旋转、尺度、光照、模糊等不同情况下的变换图像。
步骤B2、分别检测出模板图像和各变换图像中的CenSurE特征点,并从中筛选出稳定特征点;
CenSurE特征点的提取为现有技术,其基本过程为:计算当前图像的积分图像,根据积分图像计算近似LOG的双层中心环绕滤波器的滤波响应,在各个尺度空间中检测特征点的局部极值,采用Harris矩阵滤除不稳定的边缘或线上的特征点。关于CenSurE特征提取更详细的内容可参考文献[Agrawal,M.,K.Konolige and M.R.Blas.CenSurE:Center surround extremas for realtime feature detection and matching[C].ComputerVision-ECCV2008,Proceedings of10th European Conference on Computer Vision.Berlin:Springer,2008:102-115.]。
在进行稳定特征点的筛选时,本实施例中首先利用以下方法对稳定特征点进行初步筛选:将各变换图像中的CenSurE特征点按照相应的仿射参数进行逆仿射变换,并比较各变换图像中的每一个CenSurE特征点经逆仿射变换后的坐标与模板图像中和其相对应的CenSurE特征点的坐标之间的偏差,如偏差大于预设范围,则将该变换图像中的这个CenSurE特征点剔除,最后剩余的模板图像和各变换图像中的CenSurE特征点即为初步稳定特征点。
然后对初步稳定特征点进行进一步筛选,具体如下:对统计模板图像中的所有初步稳定特征点根据其所对应的变换图像中初步稳定特征点的数量从大到小进行排序,选出最前面的一部分,最后以这一部分统计模板图像中的初步稳定特征点及其所对应的变换图像中的初步稳定特征点作为最终的稳定特征点。
步骤B3、对每一个稳定特征点,提取以其为中心的相同大小的邻域图像块;模板图像中的每一个稳定特征点的邻域图像块各自构成单独的一类,各变换图像中和该稳定特征点相对应的其它稳定特征点的邻域图像块属于该模板图像中稳定特征点的邻域图像块所在的类;以所提取出的所有邻域图像块作为训练样本集,训练随机森林分类器;
邻域图像块的大小可根据实际情况选择,本实施例中采用32×32像素大小的图像块。假设模板图像中的稳定特征点为n个,则所有稳定特征点的邻域图像块可组成集合K={k1,k2,...,kn},集合中的任意一个子集ki(i=1,2,...,n)中的元素为模板图像中的第i个稳定特征点的邻域图像块以及所有变换图像中与该特征点对应的其它稳定特征点的邻域图像块。集合K中每个子集的标号与类别集合C={-1,1,2,...,n}中的类别号为一一对应关系,其中-1为默认值,表示不属于集合K中任何一个子集所对应的类别。
以集合K中所有元素所构成的训练样本集对随机森林分类模型进行训练,得到随机森林分类器。以模板特征点及仿射变换后的稳定特征点的邻域图像块,即ki中包含的特征点及其邻域块作为分类单位,输入到分类器中对随机森林分类模型进行训练。在每个内节点,选择二值测试判断类别的特征属性,对内节点进行***,将特征点划分到不同的子节点中。为了提高***效率,该测试依据灰度值不同进行判别:
test(v,(p1,p2))=[G(v,p1)≤G(v,p2)]
p1和p2为邻域内任意选取的点,G(v,p)表示像素点p处的像素值。每个内结点进行上述测试,直到到达叶子节点,每棵树的叶子结点存储了某一类别的特征点的后验概率:
p(c|l(t,v))=pt(c,v)
c表示类别集合C中的一个类别,l(t,v))表示特征点的邻域块v在树t中所到达的叶子结点。概率值的大小由训练集中到达叶子结点l中属于类别c的图像块数量与所有到达结点l的图像块数量之比来表示。
以上各步骤均为离线阶段。
步骤B4、对于跟踪注册的目标视频的第一个图像帧,利用以下方法将其与模板图像进行特征点匹配:首先检测其中的CenSurE特征点,并按照步骤B3中的方法提取所检测出的各CenSurE特征点的邻域图像块,并利用训练好的随机森林分类器对这些邻域图像块进行分类,假设第一个图像帧中的CenSurE特征点fi的领域图像块被分类为类别c,则类别c所对应的模板图像中的稳定特征点即为fi的匹配点;
在线运行时,对于增强现实的目标视频,为了降低运算量,仅对第一帧图像以及跟踪失败的当前图像帧利用训练好的随机森林分类器进行特征点匹配,后续的图像帧则利用现有的特征点跟踪方法,例如,利用纹理特征的基于区域匹配的跟踪方法,基于跟踪物体轮廓的跟踪方法,利用状态空间模型的跟踪方法,采用Kalman滤波和粒子滤波等的状态估计的跟踪方法,以及基于KLT的特征点跟踪方法等,进行连续跟踪。
对于目标视频的第一帧图像,提取其中的CenSurE特征点,然后分别以所提取的特征点为中心选取32×32像素的邻域块,将其输入随机森林进行预测分类:假设待匹配点fi输入到了第k棵决策树中,经过内结点***,最终到达叶子结点,对待匹配特征点fi的分类有两种情况:
类似地,对所有待匹配特征点利用N棵决策树进行分类,最终经过投票,当
时,认为待匹配点的类别为c,集合K中类别同样为c的特征点,就是点fi所对应的匹配点。图2显示了随机森林分类器的训练及测试过程。
这样,即完成了第一帧图像的特征点匹配。
步骤B5、对于后续的图像帧,对匹配点进行连续跟踪;如果跟踪失败,利用步骤4中的方法将当前帧与模板图像重新进行特征点匹配,然后继续对重新得到的匹配点进行连续跟踪,从而实现对目标视频的连续跟踪;
在进行图像帧的连续跟踪时,可采用现有的各种方法实现。本发明为了进一步增强跟踪的准确性,利用改进的KLT跟踪方法进行匹配特征点的连续跟踪。改进的KLT跟踪方法具体如下:
步骤1、假设相邻帧之间图像灰度基本不变,特征点可以用二维刚体运动模型描述;根据随机森林识别分类获得初始的匹配特征点,以此作为基础对后续图像帧进行连续跟踪;引入图像金字塔,采用分层的尺度策略,在每一层图像中首先确定特征点的位置,再利用KLT算法通过计算。假设t时刻图像I上一个特征点p(x,y),在t+1时刻运动到了p'(x-dx,y-dy)的位置,因为特征点的灰度值相等,有I(p',t+1)=I(p-d,t),其中d=(dx,dy)表示特征点的偏移向量。由于噪声影响,该模型并不完全准确,因此定义了一个SSD误差ε,使p在跟踪窗口W的范围内误差最小,误差的定义如下:
其中,I(p')为t时刻的灰度值,I(p-d)为t+1时刻的值,有I(p')≈I(p-d),d=(dx,dy)表示特征点的偏移向量。当导数为0时,误差也就最小。因此,对上式进行求导处理,,简化得到:
Gd=H
其中,G表示梯度矩阵,可以通过计算特征点所在窗口W内的任一像素点沿X和Y轴方向上的梯度获得。计算相邻两帧跟踪窗口包含的所有像素点的灰度差即为向量H。于是,就能够偏移向量d就可以求得。
建立图像金字塔,同时初始化光流偏移向量d0=[0,0],定位当前图像中的特征点,计算梯度矩阵。在各个尺度的图像上利用前述KLT算法进行迭代计算,计算出当前层的偏移向量dcurrent,将其代入下一尺度图像中继续进行跟踪,直到算出最终的偏移向量d;
步骤2、由d得到当前帧的粗匹配点,对粗匹配的特征点进行筛选优化,具体步骤为:
步骤2-1:利用分层KLT算法对特征点进行跟踪,获得初始的跟踪点集合F;
步骤2-2:计算F中点的偏移向量的模|di|,如果点fi的模|di|大于阈值tF,认为此点为错误跟踪的点;
步骤2-3:以点fi为中心建立N×N的检测窗口,检测是否存在新的特征点,如果存在一个特征点fi',则重复步骤52),判断是否为正确的跟踪点,如果满足,则fi'替代特征点fi作为匹配点;如果不是则从F中去除点fi,并更新集合F。
步骤2-4:利用RANSAC校正匹配点集合,跟踪下一帧图像,从而实现对视频图像的连续跟踪。
步骤B6、结合摄像机内部参数得到投影矩阵,将虚拟物体模型绘制叠加到真实场景中;
本步骤为现有成熟技术,下面仅简单给出其基本过程,更详细内容可参考文献[朱孔春.增强先中基于视觉的三维注册技术研究[D].沈阳航空航天大学,2011]
步骤B6-1首先求解初始注册矩阵,具体方法为:匹配点对x和x'之间满足极几何约束关系,用方程x'TFx=0描述,F为一个3×3的矩阵,称为基础矩阵,求解基本矩阵F,假设x所在的摄像机坐标系为世界坐标系,然后重新定义坐标系,计算匹配点在世界坐标系下坐标;结合摄像机的内部参数,利用4个匹配点对构造方程组,采用奇异值分解的方法求得摄像机的外参,得到初始的配准注册矩阵;
步骤B6-2、在后续***运行阶段,根据两匹配图像之间的单应关系
可以快速计算当前帧的注册矩阵,结合初始注册矩阵当前图像的注册矩阵通过下述公式计算:
将当前图像与初始帧的位置联系起来,避免了KLT累积误差的影响;
步骤B6-3、在每一帧图像中利用匹配点进行上述运算,结合摄像机的内参,将生成的虚拟物体模型投影叠加到自定义的坐标平面上,就可以实现虚实融合。
图3显示了上述增强现实***的工作过程。
本发明提取的特征点稳定性强,提高了增强现实***运行的实时性和精确性,对旋转、模糊、尺度和光照具有很好的适应性,避免了误差的累积。可将本发明方法应用于复杂环境的场景增强中,可以提高增强现实***运行的实时性和稳定性。
Claims (5)
1.一种无标志物跟踪注册方法,其特征在于,包括以下步骤:
步骤1、获取目标场景的一幅图像作为模板图像,并利用一系列不同的仿射参数对模板图像进行仿射变换,得到一组变换图像;
步骤2、分别检测出模板图像和各变换图像中的CenSurE特征点,并从中筛选出稳定特征点,具体包括:
将各变换图像中的CenSurE特征点按照相应的仿射参数进行逆仿射变换,并比较各变换图像中的每一个CenSurE特征点经逆仿射变换后的坐标与模板图像中和其相对应的CenSurE特征点的坐标之间的偏差,如偏差大于预设范围,则将该变换图像中的这个CenSurE特征点剔除,最后剩余的模板图像和各变换图像中的CenSurE特征点即为稳定特征点;
步骤3、对每一个稳定特征点,提取以其为中心的相同大小的邻域图像块;模板图像中的每一个稳定特征点的邻域图像块各自构成单独的一类,各变换图像中和该稳定特征点相对应的其它稳定特征点的邻域图像块属于该模板图像中稳定特征点的邻域图像块所在的类;以所提取出的所有邻域图像块作为训练样本集,训练随机森林分类器;
步骤4、对于跟踪注册的目标视频的第一个图像帧,利用以下方法将其与模板图像进行特征点匹配:
首先检测其中的CenSurE特征点,并按照步骤3中的方法提取所检测出的各CenSurE特征点的邻域图像块,并利用训练好的随机森林分类器对这些邻域图像块进行分类,假设第一个图像帧中的CenSurE特征点 的领域图像块被分类为类别c,则类别c所对应的模板图像中的稳定特征点即为的匹配点;
步骤5、对于后续的图像帧,对匹配点进行连续跟踪;如果跟踪失败,利用步骤4中的方法将当前帧与模板图像重新进行特征点匹配,然后继续对重新得到的匹配点进行连续跟踪,从而实现对目标视频的连续跟踪;
步骤6、结合摄像机内部参数得到投影矩阵,将虚拟物体模型绘制叠加到真实场景中。
2.如权利要求1所述无标志物跟踪注册方法,其特征在于,所述对匹配点进行连续跟踪,具体按照以下方法:首先利用光流特征跟踪方法得到当前帧的粗匹配点;然后将偏移向量的模大于预设阈值的粗匹配点作为错误匹配点,对于每一个错误匹配点,在以其为中心的N×N的检测窗口中检测是否存在偏移向量的模大于预设阈值的新的CenSurE特征点,如存在,则以其中距离该错误匹配点最近的新的CenSurE特征点取代该错误匹配点,如不存在,则剔除该错误匹配点;然后对下一图像帧重复以上过程。
3.如权利要求1所述无标志物跟踪注册方法,其特征在于,所述步骤2与步骤3之间还包括对步骤2所得到的稳定特征点进行再筛选的步骤,具体如下:以步骤2所筛选出的稳定特征点作为初步稳定特征点,对统计模板图像中的所有初步稳定特征点根据其所对应的变换图像中初步稳定特征点的数量从大到小进行排序,选出最前面的一部分,最后以这一部分统计模板图像中的初步稳定特征点及其所对应的变换图像中的初步稳定特征点作为最终的稳定特征点。
4.如权利要求1所述无标志物跟踪注册方法,其特征在于,所述模板图像是通过对真实场景进行拍摄得到,或者通过从目标视频中截取一个图像帧得到。
5.如权利要求1所述无标志物跟踪注册方法,其特征在于,所述邻域图像块的大小为32×32像素。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410274521.6A CN104077596A (zh) | 2014-06-18 | 2014-06-18 | 一种无标志物跟踪注册方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410274521.6A CN104077596A (zh) | 2014-06-18 | 2014-06-18 | 一种无标志物跟踪注册方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104077596A true CN104077596A (zh) | 2014-10-01 |
Family
ID=51598842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410274521.6A Pending CN104077596A (zh) | 2014-06-18 | 2014-06-18 | 一种无标志物跟踪注册方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104077596A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488541A (zh) * | 2015-12-17 | 2016-04-13 | 上海电机学院 | 增强现实***中基于机器学习的自然特征点识别方法 |
CN105646882A (zh) * | 2016-02-24 | 2016-06-08 | 金发科技股份有限公司 | 一种光扩散粒子及其制备方法和由其组成的热塑性光扩散材料与应用 |
CN105809707A (zh) * | 2014-12-30 | 2016-07-27 | 江苏慧眼数据科技股份有限公司 | 一种基于随机森林算法的行人跟踪方法 |
CN106952312A (zh) * | 2017-03-10 | 2017-07-14 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于线特征描述的无标识增强现实注册方法 |
CN107169458A (zh) * | 2017-05-18 | 2017-09-15 | 深圳云天励飞技术有限公司 | 数据处理方法、装置及存储介质 |
CN107220580A (zh) * | 2016-03-22 | 2017-09-29 | 敦泰电子有限公司 | 基于投票决策和最小二乘法的图像识别随机取样一致算法 |
CN107248169A (zh) * | 2016-03-29 | 2017-10-13 | 中兴通讯股份有限公司 | 图像定位方法及装置 |
CN108416846A (zh) * | 2018-03-16 | 2018-08-17 | 北京邮电大学 | 一种无标识三维注册算法 |
CN108648224A (zh) * | 2018-05-18 | 2018-10-12 | 杭州电子科技大学 | 一种基于人工神经网络的实时场景布局识别及重建的方法 |
CN109361880A (zh) * | 2018-11-30 | 2019-02-19 | 三星电子(中国)研发中心 | 一种展示静态图片对应的动态图片或视频的方法及*** |
CN109753940A (zh) * | 2019-01-11 | 2019-05-14 | 京东方科技集团股份有限公司 | 图像处理方法及装置 |
CN109919971A (zh) * | 2017-12-13 | 2019-06-21 | 北京金山云网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN110097573A (zh) * | 2018-01-31 | 2019-08-06 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的混合跟踪方法和*** |
CN107644413B (zh) * | 2017-08-25 | 2019-11-01 | 西安电子科技大学 | 基于邻域比值和自步学习的sar图像变化区域检测方法 |
CN111345023A (zh) * | 2017-11-03 | 2020-06-26 | 深圳市柔宇科技有限公司 | 图像消抖方法、装置、终端及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101976461A (zh) * | 2010-10-25 | 2011-02-16 | 北京理工大学 | 一种新的户外增强现实无标跟踪注册算法 |
CN102360504A (zh) * | 2011-10-20 | 2012-02-22 | 北京航空航天大学 | 一种基于多自然特征的自适应虚实三维注册方法 |
US20120148097A1 (en) * | 2010-12-14 | 2012-06-14 | Electronics And Telecommunications Research Institute | 3d motion recognition method and apparatus |
-
2014
- 2014-06-18 CN CN201410274521.6A patent/CN104077596A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101976461A (zh) * | 2010-10-25 | 2011-02-16 | 北京理工大学 | 一种新的户外增强现实无标跟踪注册算法 |
US20120148097A1 (en) * | 2010-12-14 | 2012-06-14 | Electronics And Telecommunications Research Institute | 3d motion recognition method and apparatus |
CN102360504A (zh) * | 2011-10-20 | 2012-02-22 | 北京航空航天大学 | 一种基于多自然特征的自适应虚实三维注册方法 |
Non-Patent Citations (3)
Title |
---|
张栩: "未知环境重建及摄像机位姿计算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
胡佳,汤光明,孙恰峰,刘佳: "基于CenSurE特征的虚实配准方法研究", 《计算机应用研究》 * |
隋建凯,刘惠义,严烁: "一种基于随机森林的特征匹配方法", 《计算机与现代化》 * |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105809707B (zh) * | 2014-12-30 | 2018-11-27 | 江苏慧眼数据科技股份有限公司 | 一种基于随机森林算法的行人跟踪方法 |
CN105809707A (zh) * | 2014-12-30 | 2016-07-27 | 江苏慧眼数据科技股份有限公司 | 一种基于随机森林算法的行人跟踪方法 |
CN105488541A (zh) * | 2015-12-17 | 2016-04-13 | 上海电机学院 | 增强现实***中基于机器学习的自然特征点识别方法 |
CN105646882A (zh) * | 2016-02-24 | 2016-06-08 | 金发科技股份有限公司 | 一种光扩散粒子及其制备方法和由其组成的热塑性光扩散材料与应用 |
CN105646882B (zh) * | 2016-02-24 | 2019-01-22 | 金发科技股份有限公司 | 一种光扩散粒子及其制备方法和由其组成的热塑性光扩散材料与应用 |
CN107220580B (zh) * | 2016-03-22 | 2022-08-09 | 敦泰电子有限公司 | 基于投票决策和最小二乘法的图像识别随机取样一致算法 |
CN107220580A (zh) * | 2016-03-22 | 2017-09-29 | 敦泰电子有限公司 | 基于投票决策和最小二乘法的图像识别随机取样一致算法 |
CN107248169B (zh) * | 2016-03-29 | 2021-01-22 | 中兴通讯股份有限公司 | 图像定位方法及装置 |
CN107248169A (zh) * | 2016-03-29 | 2017-10-13 | 中兴通讯股份有限公司 | 图像定位方法及装置 |
CN106952312A (zh) * | 2017-03-10 | 2017-07-14 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于线特征描述的无标识增强现实注册方法 |
CN106952312B (zh) * | 2017-03-10 | 2020-06-05 | 广东顺德中山大学卡内基梅隆大学国际联合研究院 | 一种基于线特征描述的无标识增强现实注册方法 |
CN107169458A (zh) * | 2017-05-18 | 2017-09-15 | 深圳云天励飞技术有限公司 | 数据处理方法、装置及存储介质 |
CN107644413B (zh) * | 2017-08-25 | 2019-11-01 | 西安电子科技大学 | 基于邻域比值和自步学习的sar图像变化区域检测方法 |
CN111345023B (zh) * | 2017-11-03 | 2021-07-20 | 深圳市柔宇科技股份有限公司 | 图像消抖方法、装置、终端及计算机可读存储介质 |
CN111345023A (zh) * | 2017-11-03 | 2020-06-26 | 深圳市柔宇科技有限公司 | 图像消抖方法、装置、终端及计算机可读存储介质 |
CN109919971A (zh) * | 2017-12-13 | 2019-06-21 | 北京金山云网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN109919971B (zh) * | 2017-12-13 | 2021-07-20 | 北京金山云网络技术有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN110097573A (zh) * | 2018-01-31 | 2019-08-06 | 深圳市掌网科技股份有限公司 | 一种基于增强现实的混合跟踪方法和*** |
CN108416846A (zh) * | 2018-03-16 | 2018-08-17 | 北京邮电大学 | 一种无标识三维注册算法 |
CN108648224B (zh) * | 2018-05-18 | 2021-07-13 | 杭州电子科技大学 | 一种基于人工神经网络的实时场景布局识别及重建的方法 |
CN108648224A (zh) * | 2018-05-18 | 2018-10-12 | 杭州电子科技大学 | 一种基于人工神经网络的实时场景布局识别及重建的方法 |
CN109361880A (zh) * | 2018-11-30 | 2019-02-19 | 三星电子(中国)研发中心 | 一种展示静态图片对应的动态图片或视频的方法及*** |
US11343591B2 (en) | 2018-11-30 | 2022-05-24 | Samsung Electronics Co., Ltd. | Method and system of presenting moving images or videos corresponding to still images |
CN109753940A (zh) * | 2019-01-11 | 2019-05-14 | 京东方科技集团股份有限公司 | 图像处理方法及装置 |
US11288838B2 (en) | 2019-01-11 | 2022-03-29 | Beijing Boe Optoelectronics Technology Co., Ltd. | Image processing method and apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104077596A (zh) | 一种无标志物跟踪注册方法 | |
CN110097568B (zh) | 一种基于时空双分支网络的视频对象检测与分割方法 | |
Wang et al. | Automatic laser profile recognition and fast tracking for structured light measurement using deep learning and template matching | |
CN108596974B (zh) | 动态场景机器人定位建图***及方法 | |
CN108182413B (zh) | 一种矿井移动目标检测与跟踪识别方法 | |
Yuan et al. | Vision-based defect detection for mobile phone cover glass using deep neural networks | |
CN104574445B (zh) | 一种目标跟踪方法 | |
CN105869178B (zh) | 一种基于多尺度组合特征凸优化的复杂目标动态场景无监督分割方法 | |
CN102473307B (zh) | 用于轨迹估计的方法和装置以及用于分割的方法 | |
CN108346159A (zh) | 一种基于跟踪-学习-检测的视觉目标跟踪方法 | |
CN108334881B (zh) | 一种基于深度学习的车牌识别方法 | |
CN108257154B (zh) | 基于区域信息和cnn的极化sar图像变化检测方法 | |
CN104268538A (zh) | 一种易拉罐点阵喷码字符在线视觉检测方法 | |
CN110969166A (zh) | 一种巡检场景下小目标识别方法和*** | |
CN109341703A (zh) | 一种全周期采用CNNs特征检测的视觉SLAM算法 | |
CN103854283A (zh) | 一种基于在线学习的移动增强现实跟踪注册方法 | |
CN103839277A (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN103903013A (zh) | 一种无标记平面物体识别的优化算法 | |
CN114155527A (zh) | 一种场景文本识别方法和装置 | |
Lu et al. | A cnn-transformer hybrid model based on cswin transformer for uav image object detection | |
CN108320306A (zh) | 融合tld和kcf的视频目标跟踪方法 | |
CN106846367B (zh) | 一种基于运动约束光流法的复杂动态场景的运动物体检测方法 | |
CN107590821A (zh) | 一种基于轨迹优化的目标跟踪方法及*** | |
CN109740609A (zh) | 一种轨距检测方法及装置 | |
CN102663777A (zh) | 基于多视点视频的目标跟踪方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20141001 |