CN105488541A - 增强现实***中基于机器学习的自然特征点识别方法 - Google Patents
增强现实***中基于机器学习的自然特征点识别方法 Download PDFInfo
- Publication number
- CN105488541A CN105488541A CN201510956768.0A CN201510956768A CN105488541A CN 105488541 A CN105488541 A CN 105488541A CN 201510956768 A CN201510956768 A CN 201510956768A CN 105488541 A CN105488541 A CN 105488541A
- Authority
- CN
- China
- Prior art keywords
- unique point
- image
- point
- target image
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种增强现实***中基于机器学***面物体的正面影像作为目标图像;利用透视变换来模拟组合观察条件下的目标图像,以合成样本图像;收集合成的样本图像中特征点和特征向量作为机器学习的训练样本;通过机器学习对目标图像的自然特征点的特征向量进行建模;根据建模结果将目标图像中的多个自然特征点作为相应数量的不同的类别,分别判断场景图像中的每个特征点是否属于任一类别。
Description
技术领域
本发明涉及一种增强现实***中基于机器学习的自然特征点识别方法。
背景技术
近年来随着计算机视觉、光学、显示等技术的飞速发展,为增强现实技术的发展提供了强有力的技术支撑,然而作为增强现实***关键技术之一的三维注册技术,一直没有飞跃性突破,注册精度不够高一直制约着增强现实技术应用于室外***的开发应用,可以说三维注册直接关系到一个增强现实***的成功与否,因而对增强现实中的三维注册算法研究也就有着极为重要的现实和深远意义。
现有技术中提出了一种基于自然特征的注册方法。在初始化阶段,取两幅不同视角的图像作为参考帧,匹配参考帧的角点特征,并使用基于标记的方法进行精确标定。在实时阶段,通过当前帧与前一帧的比较解决了特征点的宽基线匹配问题,并以二视图算法计算出当前帧和参考帧之间的基础变换矩阵。然后以这些初始的运动估计作为非线性优化的起点,以特征点位置的二视图及三视图约束偏差作为代价函数,最小化此代价函数来估计相机的位置,最后以类似卡尔曼滤波的方法来使得计算更加稳定。
现有技术中还提出了基于纹理的注册方法。该方法也是利用标记进行跟踪初始化,并需要事先分析被跟踪的物体,提取基于纹理的特征作为匹配模板,其余过程与基于标识的方法基本一致。
现有技术中又提出了基于投影重建的自然特征跟踪技术。该方法主要由两步构成:嵌入和渲染。其中嵌入包括指定4个点来建立虚拟物体所在的世界坐标系。渲染时使用Kanade-Lucas-Tomasi(简称KLT)特征检测子来追踪实时视频中对应的自然特征。这些特征被归一化并作为输入来估计投影矩阵。该方法无需事先定义的基准标识并且能应用于室外AR***。人们在典型的AR应用中使用了目前领先的特征描述符Sift的一个简化的Fern分类方法。其中以事先已知的平面纹理物体作为跟踪目标,建立了训练数据集,直接利用当前的手机上内置的摄像进行头视频捕捉,实现了6自由度频率为20Hz的实时跟踪。
但是,上述现有技术的方法一般匹配正确率不高,或者处理复杂而导致特征匹配较慢。
发明内容
本发明所要解决的技术问题是针对现有技术中存在上述缺陷,提供一种增强现实中基于机器学习的自然特征点识别方法,以达到初始匹配点较少、匹配正确率较高、有利于目标图像的精确跟踪和注册的目的。
为了实现上述技术目的,根据本发明,提供了一种增强现实***中基于机器学习的自然特征点识别方法,包括:
第一步骤:选取一幅平面物体的正面影像作为目标图像;
第二步骤:利用透视变换来模拟组合观察条件下的目标图像,以合成样本图像;
第三步骤:收集合成的样本图像中特征点和特征向量作为机器学习的训练样本;
第四步骤:通过机器学习对目标图像的自然特征点的特征向量进行建模;
第五步骤:根据建模结果将目标图像中的多个自然特征点作为相应数量的不同的类别,分别判断场景图像中的每个特征点是否属于任一类别。
优选地,所述组合观察条件包括角度和/或距离和/或光照。
优选地,第二步骤包括:
将目标图像局部坐标到成像平面的投影的透视变换矩阵表示为:
p=CM,
其中,C为相机内部参数,M为外部参数矩阵,R为旋转矩阵,其采用三维图形学和机器人运动学中的欧拉角表示为R=Ryaw、Rpitch、Rroll;T=[TxTyTz]为平移向量;其中Ryaw、Rpitch确定了相机和目标图像平面法线之间的夹角,Rroll表示了目标图像在成像平面内的旋转,Tz进行表示目标与相机光心的垂直距离,其作为尺度因子,Tx表示相机和目标图像平面的水平横向距离,Ty表示相机和目标图像平面的水平纵向距离;当相机内部参数C不变时,通过外部参数Ryaw、Rpitch、Rroll、Tx、Ty、Tz进行均匀的采样,以模拟对目标图像在不同的角度、距离、光照及其组合下的观察图像作为合成图像。
优选地,第三步骤中的收集合成的样本图像中特征点和特征向量作为机器学习的训练样本包括针对每个样本图像执行下述步骤:
计算目标图像I的特征点K及其特征向量D;
更新透视变换矩阵P(t);
根据透视变换矩阵P(t)合成样本图像I(t)=P(t)*I;
计算样本图像I(t)的特征点K(t)及其相应的特征向量D(t);
根据几何约束K(t)=P(t)*K+μ进行匹配特征点,其中μ为特征提取算法引入的误差,其中“*”表示乘法符号;
将匹配的特征点加入训练样本数据集。
优选地,在第三步骤还包括进一步对训练样本进行筛选处理;所述筛选处理包括采用自相关检测特征点的独特性,以从样本图像的特征点中排除样本图像中的相似或重复子区域的相似特征点。
优选地,所述筛选处理包括:令I0=I为目标图像,It=ptI为第t幅样本图像,pt为透视变换矩阵,Kt,i,Lt,i,Dt,i,Nt分别为样本图像It的特征点、特征点坐标、特征向量和特征点数目,i,j为特征点序号;当t=0时,p0=E为单位矩阵,I0=I,特征点的自相关检测计算任意两个特征点的特征向量距离Ui,j=|D0,i-D0,j|,i,j∈0,1,2...N0;当时Ui,j<ε时,拒绝第i,j个特征点序号作为类别标签,同时拒绝该特征点K0,i以及拒绝特征点K0,i在训练图像上的匹配点作为训练样本,其中,N0表示特征点的数目,ε为特征向量距离阈值;该自相关检测的特征点集合表示为SetK=<K0,i|Ui,j>ε,i,j∈0,1,2...N0,i≠j>;从特征点集合通过筛选选取特征向量间距较大的预定数量的特征点作为训练样本数据集。
优选地,在第三步骤还包括检测特征点的可重现性;
其中,计算特征点K0,i在样本图像It中的可重现性公式
式中ε、μ为特征提取算法引入的误差,Dt,j为第t幅样本图像的特征向量,D0,i为投影特征点的向量,dist(Dt,j,D0,i)为Dt,j与D0,i的距离,Lt,j表示第t幅样本图像的特征点坐标,L0,i为投影特征点坐标,|Lt,j-ptL0,i|表示样本图像与投影的特征点的距离;当特征点K0,i满足时,保留特征点K0,i及其匹配点作为训练样本;当特征点K0,i不满足时,将特征点K0,i从训练样本集合中排除;其中T为样本图像的总数,ω为可重现性系数。
优选地,在第三步骤还包括利用高斯混合模型排除误匹配;
其中,通过统计特征点Ki的特征向量集合将目标图像上的N个特征点的特征向量集合作为高斯混合分布模型
式中,D表示向量集合,ak,Sk,πk分别表示均值矩阵、协方差矩阵、每个单高斯模型在混合模型中占的比例,πk≥0,φ(D;akSk)表示数据的概率分布密度函数,d为特征向量的维数,将中的特征向量作为核密度估计的采样点,通过期望值最大化公式估计参数θ:
L(D,θ)表示期望值或均值;
根据高斯混合模型,得到特征点K与Ki匹配的概率表示如下:
以上述概率公式作为判断特征匹配是否正确的依据,当时,若则认为特征点K不符合Ki的分布模型,此时,将K从训练样本中排除。
与现有技术相比,本发明采用了大量的样本为每个目标图像的特征点建立数学模型。根据选择合适的特征使得同一类别中的样本特征向量具有某种不变性是构造有效分类器的原则,本发明将特征向量间的一一映射关系转化为模式识别中的分类问题,在保证正确率的前提下进一步提高了特征匹配的速度,并在此基础上实现了对平面目标的实时跟踪和位姿估计。
在特征向量匹配阶段,本发明将特征点特征向量的匹配作为分类问题,提出了基于机器学习的特征匹配方法,将特征向量间的一一映射关系转化为模式识别中的分类问题,替代了特征向量的最近邻匹配,从而将计算负担从实时阶段转移到训练阶段。实验表明本发明的方法相对于传统的KD树和BBF方法具有特征识别准确、鲁棒性高的优点。
附图说明
结合附图,并通过参考下面的详细描述,将会更容易地对本发明有更完整的理解并且更容易地理解其伴随的优点和特征,其中:
图1示意性地示出了根据本发明优选实施例的增强现实***中基于机器学习的自然特征点识别方法的流程图。
需要说明的是,附图用于说明本发明,而非限制本发明。注意,表示结构的附图可能并非按比例绘制。并且,附图中,相同或者类似的元件标有相同或者类似的标号。
具体实施方式
为了使本发明的内容更加清楚和易懂,下面结合具体实施例和附图对本发明的内容进行详细描述。
图1示意性地示出了根据本发明优选实施例的增强现实***中基于机器学习的自然特征点识别方法的流程图。
如图1所示,根据本发明优选实施例的增强现实***中基于机器学习的自然特征点识别方法包括在增强现实***中执行下述步骤:
第一步骤S1:选取一幅平面物体的正面影像作为目标图像;
第二步骤S2:利用透视变换来模拟组合观察条件下的目标图像,以合成样本图像;其中,组合观察条件包括角度和/或距离和/或光照。
具体地,在第二步骤S2中,目标图像局部坐标到成像平面的投影的透视变换矩阵可表示为:
p=CM,
其中,C为相机内部参数,M为外部参数矩阵,R为旋转矩阵,其采用三维图形学和机器人运动学中的欧拉角表示为R=Ryaw、Rpitch、Rroll;T=[TxTyTz]为平移向量;其中Ryaw、Rpitch确定了相机和目标图像平面法线之间的夹角,Rroll表示了目标图像在成像平面内的旋转,Tz进行表示目标与相机光心的垂直距离,其作为尺度因子,Tx表示相机和目标图像平面的水平横向距离,Ty表示相机和目标图像平面的水平纵向距离;当相机内部参数C不变时,通过外部参数Ryaw、Rpitch、Rroll、Tx、Ty、Tz进行均匀的采样,以模拟对目标图像在不同的角度、距离、光照及其组合下的观察图像作为合成图像。
第三步骤S3:收集合成的样本图像中特征点和特征向量作为机器学习的训练样本;
具体地,例如,第三步骤S3中的收集合成的样本图像中特征点和特征向量作为机器学习的训练样本可包括针对每个样本图像执行下述步骤:
计算目标图像I的特征点K及其特征向量D;
更新透视变换矩阵P(t);
根据透视变换矩阵P(t)合成样本图像I(t)=P(t)*I;
计算样本图像I(t)的特征点K(t)及其相应的特征向量D(t);
根据几何约束K(t)=P(t)*K+μ进行匹配特征点,其中μ为特征提取算法引入的误差,其中“*”表示乘法符号;
将匹配的特征点加入训练样本数据集。
优选地,在第三步骤S3还包括进一步对训练样本进行筛选处理。所述筛选处理包括采用自相关检测特征点的独特性,以从样本图像的特征点中排除样本图像中的相似或重复子区域的相似特征点,以提高分类器的正确率。
例如,令I0=I为原目标图像,It=ptI为第t幅样本图像,pt为透视变换矩阵,Kt,i,Lt,i,Dt,i,Nt分别为样本图像It的特征点,特征点坐标,特征向量和特征点数目,i,j为特征点序号;当t=0时,p0=E为单位矩阵,I0=I,特征点的自相关检测计算任意两个特征点的特征向量距离Ui,j=|D0,i-D0,j|,i,j∈0,1,2...N0;当时Ui,j<ε时,拒绝第i,j个特征点序号作为类别标签,同时拒绝该特征点K0,i以及拒绝特征点K0,i在训练图像上的匹配点作为训练样本,其中,N0表示特征点的数目,ε为特征向量距离阈值;该自相关检测的特征点集合表示为SetK=<K0,i|Ui,j>ε,i,j∈0,1,2...N0,i≠j>;通过该特征点集合选取特征向量间距较大的特征点,这样可以排除相似特征点以提高分类器的正确率(例如,从特征点集合通过筛选选取特征向量间距较大的预定数量的特征点,作为训练样本数据集)。
此外,优选地,在第三步骤S3还包括检测特征点的可重现性。
具体地,计算特征点K0,i在样本图像It中的可重现性公式
式中ε,μ为特征提取算法引入的误差,Dt,j为第t幅样本图像的特征向量,D0,i为投影特征点的向量,dist(Dt,j,D0,i)为Dt,j与D0,i的距离,Lt,j表示第t幅样本图像的特征点坐标,L0,i为投影特征点坐标,|Lt,j-ptL0,i|表示样本图像与投影的特征点的距离;当特征点K0,i满足时,认为特征点K0,i具有较高的可重现性,保留特征点K0,i及其匹配点作为训练样本;反之,将较低的可重现性的特征点从训练样本集合中排除;其中T为样本图像的总数,ω为可重现性系数。
优选地,在第三步骤S3还包括利用高斯混合模型排除误匹配,具体地,:
通过统计特征点Ki的特征向量集合将目标图像上的N个特征点的特征向量集合作为高斯混合分布模型
式中,D表示向量集合,ak,Sk,πk分别表示均值矩阵、协方差矩阵、每个单高斯模型在混合模型中占的比例,πk≥0,φ(D;akSk)表示数据的概率分布密度函数,d为特征向量的维数,将中的特征向量作为核密度估计的采样点,通过期望值最大化公式估计参数θ:
L(D,θ)表示期望值或均值;
根据高斯混合模型,特征点K与Ki匹配的概率可表示如下:
以上述概率公式(1-6)作为判断特征匹配是否正确的依据,当时,若则认为特征点K不符合Ki的分布模型,此时,将K从训练样本中排除,以提高分类器的正确率。
第四步骤S4:通过机器学习对目标图像的自然特征点的特征向量进行建模;
第五步骤S5:根据建模结果将目标图像中的多个自然特征点作为相应数量的不同的类别,分别判断场景图像中的每个特征点是否属于任一类别。
例如,令t为场景图像中的特征点,class(t)为分类器对场景图像中的特征点t的响应函数为class(t)∈{-1,0,1...n-1},其中0,1,2…n-1表示目标图像特征点与场景图像中的特征点t相匹配的目标图像特征点的类别序号,-1表示没有目标图像特征点与场景图像中的特征点t相匹配;其中n,m均为正整数。
根据机器学习的无免费午餐理论,不存在通用的最佳分类器。在实际问题中各种分类器在计算速度、内存空间需求等方面各有所长。因此本发明对各种分类器(决策树,随机树,支持向量机,K近邻等)进行测试,以选择最适合特征点匹配的最佳方法。
实际上,本发明去除了相似特征点(例如,在一幅分辨率为640*480且细节较为丰富的图像上通常可以检测到1000-1500个特征点,而本发明通过训练样本的筛选后保留作为分类的特征点数目约为150-200),减少了干扰,从而提高了匹配正确率,而且可以更精确地完成目标图像的跟踪和注册。
在具体应用中,根据针孔相机模型和目标特征点处于同一平面的前提,本发明使用基于RANSAC的方法估计两幅图像间的单应矩阵H,并以单应矩阵H作为判断特征点匹配与否的依据,特征点坐标的偏移误差取为1.5个像素(此时实验测试效果较好)。
需要说明的是,除非特别说明或者指出,否则说明书中的术语“第一”、“第二”、“第三”等描述仅仅用于区分说明书中的各个组件、元素、步骤等,而不是用于表示各个组件、元素、步骤之间的逻辑关系或者顺序关系等。
可以理解的是,虽然本发明已以较佳实施例披露如上,然而上述实施例并非用以限定本发明。对于任何熟悉本领域的技术人员而言,在不脱离本发明技术方案范围情况下,都可利用上述揭示的技术内容对本发明技术方案作出许多可能的变动和修饰,或修改为等同变化的等效实施例。因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。
Claims (8)
1.一种增强现实***中基于机器学习的自然特征点识别方法,其特征在于包括:
第一步骤:选取一幅平面物体的正面影像作为目标图像;
第二步骤:利用透视变换来模拟组合观察条件下的目标图像,以合成样本图像;
第三步骤:收集合成的样本图像中特征点和特征向量作为机器学习的训练样本;
第四步骤:通过机器学习对目标图像的自然特征点的特征向量进行建模;
第五步骤:根据建模结果将目标图像中的多个自然特征点作为相应数量的不同的类别,分别判断场景图像中的每个特征点是否属于任一类别。
2.根据权利要求1所述的方法,其特征在于,组合观察条件包括角度和/或距离和/或光照。
3.根据权利要求1或2所述的方法,其特征在于,在第二步骤包括:
将目标图像局部坐标到成像平面的投影的透视变换矩阵表示为:
其中,C为相机内部参数,M为外部参数矩阵,R为旋转矩阵,其采用三维图形学和机器人运动学中的欧拉角表示为R=Ryaw、Rpitch、Rroll;T=[TxTyTz]为平移向量;其中Ryaw、Rpitch确定了相机和目标图像平面法线之间的夹角,Rroll表示了目标图像在成像平面内的旋转,Tz进行表示目标与相机光心的垂直距离,其作为尺度因子,Tx表示相机和目标图像平面的水平横向距离,Ty表示相机和目标图像平面的水平纵向距离;当相机内部参数C不变时,通过外部参数Ryaw、Rpitch、Rroll、Tx、Ty、Tz进行均匀的采样,以模拟对目标图像在不同的角度、距离、光照及其组合下的观察图像作为合成图像。
4.根据权利要求1或2所述的方法,其特征在于,第三步骤中的收集合成的样本图像中特征点和特征向量作为机器学习的训练样本包括针对每个样本图像执行下述步骤:
计算目标图像I的特征点K及其特征向量D;
更新透视变换矩阵P(t);
根据透视变换矩阵P(t)合成样本图像I(t)=P(t)*I;
计算样本图像I(t)的特征点K(t)及其相应的特征向量D(t);
根据几何约束K(t)=P(t)*K+μ进行匹配特征点,其中μ为特征提取算法引入的误差,其中“*”表示乘法符号;
将匹配的特征点加入训练样本数据集。
5.根据权利要求1或2所述的方法,其特征在于,在第三步骤还包括进一步对训练样本进行筛选处理;所述筛选处理包括采用自相关检测特征点的独特性,以从样本图像的特征点中排除样本图像中的相似或重复子区域的相似特征点。
6.根据权利要求5所述的方法,其特征在于,所述筛选处理包括:令I0=I为目标图像,It=ptI为第t幅样本图像,pt为透视变换矩阵,Kt,i,Lt,i,Dt,i,Nt分别为样本图像It的特征点、特征点坐标、特征向量和特征点数目,i,j为特征点序号;当t=0时,p0=E为单位矩阵,I0=I,特征点的自相关检测计算任意两个特征点的特征向量距离Ui,j=|D0,i-D0,j|,i,j∈0,1,2...N0;当时Ui,j<ε时,拒绝第i,j个特征点序号作为类别标签,同时拒绝该特征点K0,i以及拒绝特征点K0,i在训练图像上的匹配点作为训练样本,其中,N0表示特征点的数目,ε为特征向量距离阈值;该自相关检测的特征点集合表示为SetK=<K0,i|Ui,j>ε,i,j∈0,1,2...N0,i≠j>;从特征点集合通过筛选选取特征向量间距较大的预定数量的特征点作为训练样本数据集。
7.根据权利要求1或2所述的方法,其特征在于,在第三步骤还包括检测特征点的可重现性;
其中,计算特征点K0,i在样本图像It中的可重现性公式
式中ε、μ为特征提取算法引入的误差,Dt,j为第t幅样本图像的特征向量,D0,i为投影特征点的向量,dist(Dt,j,D0,i)为Dt,j与D0,i的距离,Lt,j表示第t幅样本图像的特征点坐标,L0,i为投影特征点坐标,|Lt,j-ptL0,i|表示样本图像与投影的特征点的距离;当特征点K0,i满足时,保留特征点K0,i及其匹配点作为训练样本;当特征点K0,i不满足时,将特征点K0,i从训练样本集合中排除;其中T为样本图像的总数,ω为可重现性系数。
8.根据权利要求1或2所述的方法,其特征在于,在第三步骤还包括利用高斯混合模型排除误匹配;
其中,通过统计特征点Ki的特征向量集合将目标图像上的N个特征点的特征向量集合作为高斯混合分布模型
式中,D表示向量集合,ak,Sk,πk分别表示均值矩阵、协方差矩阵、每个单高斯模型在混合模型中占的比例,πk≥0,φ(D;akSk)表示数据的概率分布密度函数,d为特征向量的维数,将中的特征向量作为核密度估计的采样点,通过期望值最大化公式估计参数θ:
L(D,θ)表示期望值或均值;
根据高斯混合模型,得到特征点K与Ki匹配的概率表示如下:
以上述概率公式作为判断特征匹配是否正确的依据,当时,若则认为特征点K不符合Ki的分布模型,此时,将K从训练样本中排除。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510956768.0A CN105488541A (zh) | 2015-12-17 | 2015-12-17 | 增强现实***中基于机器学习的自然特征点识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510956768.0A CN105488541A (zh) | 2015-12-17 | 2015-12-17 | 增强现实***中基于机器学习的自然特征点识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105488541A true CN105488541A (zh) | 2016-04-13 |
Family
ID=55675512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510956768.0A Pending CN105488541A (zh) | 2015-12-17 | 2015-12-17 | 增强现实***中基于机器学习的自然特征点识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105488541A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228142A (zh) * | 2016-07-29 | 2016-12-14 | 西安电子科技大学 | 基于卷积神经网络和贝叶斯决策的人脸验证方法 |
CN106302444A (zh) * | 2016-08-16 | 2017-01-04 | 深圳市巴古科技有限公司 | 智能云识别方法 |
CN107464290A (zh) * | 2017-08-07 | 2017-12-12 | 上海白泽网络科技有限公司 | 三维信息展示方法、装置和移动终端 |
CN108416846A (zh) * | 2018-03-16 | 2018-08-17 | 北京邮电大学 | 一种无标识三维注册算法 |
CN108446615A (zh) * | 2018-03-05 | 2018-08-24 | 天津工业大学 | 基于光照字典的一般性物体识别方法 |
TWI645366B (zh) * | 2016-12-13 | 2018-12-21 | 國立勤益科技大學 | Image semantic conversion system and method applied to home care |
CN109117773A (zh) * | 2018-08-01 | 2019-01-01 | Oppo广东移动通信有限公司 | 一种图像特征点检测方法、终端设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102592124A (zh) * | 2011-01-13 | 2012-07-18 | 汉王科技股份有限公司 | 文本图像的几何校正方法、装置和双目立体视觉*** |
US20120212405A1 (en) * | 2010-10-07 | 2012-08-23 | Benjamin Zeis Newhouse | System and method for presenting virtual and augmented reality scenes to a user |
CN103530881A (zh) * | 2013-10-16 | 2014-01-22 | 北京理工大学 | 适用于移动终端的户外增强现实无标志点跟踪注册方法 |
CN104077596A (zh) * | 2014-06-18 | 2014-10-01 | 河海大学 | 一种无标志物跟踪注册方法 |
CN105069754A (zh) * | 2015-08-05 | 2015-11-18 | 意科赛特数码科技(江苏)有限公司 | 基于在图像上无标记增强现实的***和方法 |
-
2015
- 2015-12-17 CN CN201510956768.0A patent/CN105488541A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120212405A1 (en) * | 2010-10-07 | 2012-08-23 | Benjamin Zeis Newhouse | System and method for presenting virtual and augmented reality scenes to a user |
CN102592124A (zh) * | 2011-01-13 | 2012-07-18 | 汉王科技股份有限公司 | 文本图像的几何校正方法、装置和双目立体视觉*** |
CN103530881A (zh) * | 2013-10-16 | 2014-01-22 | 北京理工大学 | 适用于移动终端的户外增强现实无标志点跟踪注册方法 |
CN104077596A (zh) * | 2014-06-18 | 2014-10-01 | 河海大学 | 一种无标志物跟踪注册方法 |
CN105069754A (zh) * | 2015-08-05 | 2015-11-18 | 意科赛特数码科技(江苏)有限公司 | 基于在图像上无标记增强现实的***和方法 |
Non-Patent Citations (2)
Title |
---|
FENG ZHOU: "Trends in Augmented Reality Tracking, Interaction and Display: A Review of Ten Years of ISMAR", 《IEEE/ACM INTERNATIONAL SYMPOSIUM ON MIXED & AUGMENTED REALITY》 * |
黄诗华 等: "基于机器学习的自然特征匹配方法", 《计算机工程》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106228142A (zh) * | 2016-07-29 | 2016-12-14 | 西安电子科技大学 | 基于卷积神经网络和贝叶斯决策的人脸验证方法 |
CN106228142B (zh) * | 2016-07-29 | 2019-02-15 | 西安电子科技大学 | 基于卷积神经网络和贝叶斯决策的人脸验证方法 |
CN106302444A (zh) * | 2016-08-16 | 2017-01-04 | 深圳市巴古科技有限公司 | 智能云识别方法 |
TWI645366B (zh) * | 2016-12-13 | 2018-12-21 | 國立勤益科技大學 | Image semantic conversion system and method applied to home care |
CN107464290A (zh) * | 2017-08-07 | 2017-12-12 | 上海白泽网络科技有限公司 | 三维信息展示方法、装置和移动终端 |
CN108446615A (zh) * | 2018-03-05 | 2018-08-24 | 天津工业大学 | 基于光照字典的一般性物体识别方法 |
CN108416846A (zh) * | 2018-03-16 | 2018-08-17 | 北京邮电大学 | 一种无标识三维注册算法 |
CN109117773A (zh) * | 2018-08-01 | 2019-01-01 | Oppo广东移动通信有限公司 | 一种图像特征点检测方法、终端设备及存储介质 |
WO2020024744A1 (zh) * | 2018-08-01 | 2020-02-06 | Oppo广东移动通信有限公司 | 一种图像特征点检测方法、终端设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105488541A (zh) | 增强现实***中基于机器学习的自然特征点识别方法 | |
CN111695522B (zh) | 一种平面内的旋转不变人脸检测方法、装置及存储介质 | |
CN108427924B (zh) | 一种基于旋转敏感特征的文本回归检测方法 | |
CN107067415B (zh) | 一种基于图像匹配的目标定位方法 | |
CN105069746B (zh) | 基于局部仿射和颜色迁移技术的视频实时人脸替换方法及其*** | |
CN104867126B (zh) | 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法 | |
Sirmacek et al. | A probabilistic framework to detect buildings in aerial and satellite images | |
Cai et al. | Perspective-SIFT: An efficient tool for low-altitude remote sensing image registration | |
CN104599258B (zh) | 一种基于各向异性特征描述符的图像拼接方法 | |
CN104063702B (zh) | 一种基于遮挡修复和局部相似性匹配的三维步态识别方法 | |
CN105809198B (zh) | 基于深度置信网络的sar图像目标识别方法 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
CN109284704A (zh) | 基于cnn的复杂背景sar车辆目标检测方法 | |
CN109949340A (zh) | 基于OpenCV的目标尺度自适应跟踪方法 | |
CN105160310A (zh) | 基于3d卷积神经网络的人体行为识别方法 | |
CN106355147A (zh) | 一种活体人脸检测头部姿态回归器的获取方法及检测方法 | |
CN102495998B (zh) | 基于视觉选择性注意计算模型的静态目标检测方法 | |
CN103839277A (zh) | 一种户外大范围自然场景的移动增强现实注册方法 | |
CN103903013A (zh) | 一种无标记平面物体识别的优化算法 | |
CN107516322A (zh) | 一种基于对数极空间的图像物体大小和旋转估计计算方法 | |
CN105279769A (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
Bu et al. | Mask-CDNet: A mask based pixel change detection network | |
CN108550165A (zh) | 一种基于局部不变特征的图像匹配方法 | |
Yang et al. | Visual tracking with long-short term based correlation filter | |
CN103985143A (zh) | 基于字典学习的视频中判别性在线目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160413 |
|
WD01 | Invention patent application deemed withdrawn after publication |