CN107085731A - 一种基于rgb‑d融合特征与稀疏编码的图像分类方法 - Google Patents

一种基于rgb‑d融合特征与稀疏编码的图像分类方法 Download PDF

Info

Publication number
CN107085731A
CN107085731A CN201710328468.7A CN201710328468A CN107085731A CN 107085731 A CN107085731 A CN 107085731A CN 201710328468 A CN201710328468 A CN 201710328468A CN 107085731 A CN107085731 A CN 107085731A
Authority
CN
China
Prior art keywords
image
feature
mrow
fusion
msub
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710328468.7A
Other languages
English (en)
Other versions
CN107085731B (zh
Inventor
周彦
向程谕
王冬丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiangtan University
Original Assignee
Xiangtan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xiangtan University filed Critical Xiangtan University
Priority to CN201710328468.7A priority Critical patent/CN107085731B/zh
Publication of CN107085731A publication Critical patent/CN107085731A/zh
Application granted granted Critical
Publication of CN107085731B publication Critical patent/CN107085731B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于RGB‑D融合特征与稀疏编码的图像分类方法,具体实现步骤为:1)提取彩色图像与深度图像的dense SIFT特征和PHOG特征;(2)对两种图像提取的特征采用线性串联的形式进行特征融合,最终得到四种不同的融合特征;(3)使用K‑means++聚类方法对不同的融合特征进行聚类处理得到四种不同的视觉字典;(4)在每个视觉字典上进行局部约束线性编码,得到不同的图像表述集;(5)利用线性SVM对不同的图像表述集进行分类,对得到的多个分类结果采用投票决策方法决定最终的分类情况。本发明分类精度高。

Description

一种基于RGB-D融合特征与稀疏编码的图像分类方法
技术领域
本发明涉及计算机视觉、模式识别等技术领域,具体涉及一种基于RGB-D融合特征与稀疏编码的图像分类方法。
背景技术
当今社会已是信息***的时代,除了大量的文本信息外,人类接触的多媒体信息(图片,视频等)也呈***式增长。为了准确、高效的利用、管理和检索图像,这就需要计算机按照人类理解的方式准确地理解图像内容。图像分类是解决图像理解问题的重要途径,对多媒体检索技术的发展有重要的推动作用。而所获取的图像可能受到视点变化、照明、遮挡与背景等多因素的影响,这使得图像分类一直以来都是计算机视觉、人工智能领域一个具有挑战性的难题,许多图像特征描述和分类技术因此得到迅速发展。
当前的图像特征描述和分类技术中,主要算法是基于特征袋(Bag-of-Feature,BOF)的算法,S.Lazebnik在文章“Spatial pyramid matching for recognizing naturalscene categories”中提出了基于BOF的空间金字塔匹配(Spatial Pyramid Matching,SPM)框架,该算法克服了BOF算法中丢失的空间信息,有效的提高了图像分类的准确率。但是基于BoW的算法都是采用矢量量化(Vector Quantization,VQ)对特征进行编码,而这种硬编码模式并没有考虑视觉字典中视觉单词之间的相互关系,从而导致图像特征编码后的误差较大,进而影响整个图像分类算法的性能。
近几年来,随着稀疏编码(Sparse Coding,SC)理论的日渐成熟,该理论也成为图像分类领域最为热门的技术。Yang在文章“Linear spatial pyramid matching usingsparse coding for image classification”中提出了一种基于稀疏编码空间金字塔匹配(Sparse coding Spatial Pyramid Matching,ScSPM),该模型用稀疏编码的方式替代硬分配模式,能优化视觉字典的权重系数,从而更好地量化图像特征,使得图像分类的准确度和效率都有很大的提升,但由于过完备码书的原因,原本相似度极高的几个特征有可能被截然不同地表示出来,ScSPM模型的稳定性不好。Wang等改进了ScSPM,在文章“Locality-constrained linear coding for image classification”中提出了局部约束线性编码(Locality-constrained Linear Coding,LLC),指出局部性比稀疏性更加重要,用视觉字典中的多个基表示一个特征描述子,且相似的特征描述子通过共享其局部的基,得到相似的编码,这使得ScSPM的不稳定性得到极大改善。
上述方法都是针对彩色图像的分类,忽略了物体或者场景中的深度信息,而深度信息又是图像分类重要线索之一,因为深度信息根据距离很容易将前景与背景分开,能直接反映物体或者场景的三维信息。随着Kinect的兴起,深度图像的获取变的越来越容易,结合深度信息进行图像分类的算法也开始变得流行起来。Liefeng Bo等在文章“Kerneldescriptors for visual recognition”提出了从核方法的角度提取图像的特征并进行图像分类,然而这种算法的缺陷在于首先要对物体进行三维建模,这是非常耗时的,算法的实时性不高;N.Silberman在文章“Indoor scene segmentation using a structured lightsensor”中先用尺度不变特征变化(Scale Invariant Feature Transform,SIFT)算法分别提取深度图像(Depth图像)和彩色图像(RGB图像)的特征,然后再进行特征融合,之后采用SPM编码进行图像分类;A.Janoch在文章“A Category-Level 3D Object Dataset:Puttingthe Kinect to Work”中用方向梯度直方图(Histogram of Oriented Gradient,HOG)算法分别对深度图像和彩色图像进行特征提取,在特征融合后实现最终的图像分类;MirdaniesM等在文章“Object recognition system in remote controlled weapon station usingSIFT and SURF methods”中将提取到的RGB图像的SIFT特征与深度图像的SURF特征进行融合,并将融合后的特征用于目标分类。这些算法都是在特征层进行RGB特征与深度特征的融合,可以有效的提高图像分类的精度。但是这一类算法也同样存在着一定的缺陷,这就是对RGB图像与深度图像提取的特征都是单一的特征,而采用单一特征时存在对图像的信息提取不足,所得到的融合特征并不能充分的表述图像内容,其原因在于:RGB图像易受到光照变化、视角变化、图像几何变形、阴影与遮挡等多方面的影响,深度图像容易受到成像设备的影响,导致图像中出现孔洞、噪声等问题,单一的图像特征提取并不能对图像中所有的因素保持鲁棒性,这势必会丢失图像中的信息。
因此,有必要设计一种分类更为准确的图像分类方法。
发明内容
本发明要解决的技术问题是,针对现有技术的不足,提供了一种集成RGB-D融合特征与稀疏编码的图像分类方法,准确性高,稳定性好。
为了解决上述技术问题,本发明所提供的技术方案为:
一种基于RGB-D融合特征与稀疏编码的图像分类方法,包括训练阶段和测试阶段:
所述训练阶段包括以下步骤:
步骤A1、针对每一个样本数据,提取其RGB图像与Depth图像(彩色图像与深度图像)的denseSIFT(Scale-invariantfeaturetransform,尺度不变特征变换)与PHOG(PyramidHistogramofOrientedGradients,分层梯度方向直方图)特征;样本数据的个数为n;
步骤A2、针对每一个样本数据,对其两种图像提取的特征采用两两线性串联的形式进行特征融合,得到四种不同的融合特征;n个样本数据得到的同种融合特征组成一个集合,得到四种融合特征集;
通过上述特征提取,RGB图像的denseSIFT和PHOG特征,以及Depth图像的denseSIFT与PHOG特征;之后对所得到的特征进行归一化,使所有的特征拥有相似的尺度;本发明为了降低特征融合的复杂度,采用两两线性串联的方式对特征进行融合,即:
f=K1·α+K2·β (1)
其中K1,K2为特征对应的权值,且K1+K2=1,本发明中令K1=K2。α代表RGB图像提取的特征,β代表Depth图像提取的特征;最终得到四种不同的融合特征,即:RGBD-dense SIFT特征、RGB-dense SIFT特征+PHOGD特征、RGB-PHOG特征+D-dense SIFT特征、RGBD-PHOG特征;分别表示RGB图像和Depth图像的dense SIFT特征产生的融合特征、RGB图像的denseSIFT特征和Depth图像的PHOG特征产生的融合特征、RGB图像的PHOG特征和Depth图像的dense SIFT特征产生的融合特征、RGB图像和Depth图像的PHOG特征产生的融合特征。
步骤A3、分别对四种融合特征集中的融合特征进行聚类处理,得到四种不同的视觉字典;
步骤A4、在每种视觉字典上,采用局部约束线性编码模型对融合特征进行特征编码,得到四种不同的图像表述集;
步骤A5、根据四种不同的融合特征集、图像表述集以及相应的样本数据的类标签构造分类器,得到四个不同的分类器。
所述测试阶段包括以下步骤:
步骤B1、按照步骤A2~A3中的方法提取和融合待分类图像的特征,得到待分类图像的四种融合特征;
步骤B2、在步骤A3得到的四种视觉字典上,采用局部约束线性编码模型分别对步骤B1得到的四种融合特征进行特征编码,得到待分类图像四种不同的图像表述;
步骤B3、用步骤A5得到的四个分类器分别对步骤B2得到的四种图像表述进行分类,得到四个类标签(四个类标签中可能包含相同的类标签,也可能都是不同的类标签);
步骤B4、基于得到的四个类标签,使用投票决策方法得到该待分类图像的最终类标签,即选取四个类标签中票数最多的类标签作为最终类标签。
进一步地,所述步骤A3中,使用K-means++聚类方法针对某种融合特征集中的融合特征进行聚类处理。
传统建立视觉字典的K-means算法具有简单、性能高效等优点。但K-means算法自身也存在着一定局限性,算法在对初始聚类中心的选择上是随机的,这就导致聚类结果受初始中心点的影响较大,如果由初始中心点的选择而陷入局部最优解,这对图像正确分类的结果是致命的。所以针对这点不足,本发明使用K-means++算法进行视觉字典建立,采取一种概率选取的方法代替随机选择初始聚类中心。针对任一种融合特征进行聚类处理,得到相应的视觉字典的具体实现方法如下:
3.1)将由n个样本数据得到的得到的融合特征组成一个集合,即融合特征集HI={h1,h2,h3,…,hn},并设置聚类数目为m;
3.2)在融合特征集HI={h1,h2,h3,…,hn}中随机选择一个点作为第一个初始聚类中心S1;设置计数值t=1;
3.3)对融合特征集HI={h1,h2,h3,…,hn}中每一个点hi,hi∈HI,计算它与St之间的距离d(hi);
3.4)选择下一初始聚类中心St+1
基于公式计算点hi'被选择为下一初始聚类中心的概率,其中hi'∈HI
选择概率最大的点作为下一初始聚类中心St+1
3.5)令t=t+1,重复步骤(3)和(4),直到t=m,即m个初始聚类中心被选出来;
3.6)利用选出来的初始聚类中心来运行K-means算法,最终于生成m个聚类中心;
3.7)定义每个聚类中心为视觉字典中的一个视觉单词,聚类数目m即为视觉字典的大小。
进一步地,所述步骤A4中,采用局部约束线性编码模型对融合特征进行特征编码,模型表达式如下:
式中:hi为融合特征集HI中的融合特征,即待编码的特征向量,hi∈Rd,d表示融合特征的维度;B=[b1,b2,b3…bm]是通过K-means++算法建立的视觉字典,b1~bm为视觉字典中的m个视觉单词,bj∈Rd;C=[c1,c2,c3…cn]为编码得到的图像表述集,其中ci∈Rm为编码完成后一幅图像稀疏编码的表示形式;λ为LLC的惩罚因子;表示元素对应相乘;1Tci中1表示全部元素为1的向量,那么1Tci=1用于对LLC进行约束,使其具有平移不变性;di定义为:
其中dist(hi,B)=[dist(hi,b1),dist(hi,b2),…dist(hi,bm)]T,dist(hi,bj)表示hi与bj之间的欧式距离,σ用于调整局部位置的约束权重的下降速度。
本发明采用局部约束线性编码(Locality-constrainedlinearcoding,LLC)。因为特征的局部性位置约束必然可以满足特征的稀疏性,而满足特征的稀疏性不一定满足局部性位置约束,所以局部比稀疏更重要。LLC使用局部约束代替稀疏约束,能获得良好的性能。
进一步地,所述步骤A4中,采用近似的局部约束线性编码模型对融合特征进行特征编码;式(2)中编码模型在求解ci的过程中,待编码的特征向量hi倾向选择视觉字典中距离较近的视觉单词,形成一个局部坐标***。因此,根据这个规律可以使用一种简单的近似LLC特征编码方式来加速编码过程,即不求解式(2),对于任意一个待编码的特征向量hi,使用k邻近搜索选取视觉字典B中距离其最近的k个视觉单词作为局部视觉单词矩阵Bi,通过求解规模更小的线性***来获得编码。其表达式如下:
其中,为近似编码得到的图像表述集,其中为近似编码完成后一幅图像稀疏编码的表示形式,根据式(4)解析解,近似LLC特征编码能够将计算复杂度从o(n2)降为o(n+k2),其中k<<n,但最后的性能与LLC特征编码相差不大。近似LLC特征编码方式既可以保留局部特征,又可以保证编码稀疏性的要求,所以在本发明中使用近似LLC模型进行特征编码。
进一步地,取k=50。
进一步地,所述步骤A1中,denseSIFT特征利用网格将图像划分得到大小相等的特征块(block),并且块与块之间采用重叠方式,每个特征块的中心位置作为一个特征点,通过同一个特征块里的所有像素点来形成该特征点的SIFT特征描述符(与传统SIFT特征一样的特征描述符:梯度直方图),最后这些基于SIFT特征描述符的特征点组成整幅图像的dense SIFT特征;
PHOG特征提取的具体步骤如下:
1.1)统计图像的边缘信息;利用Canny边缘检测算子提取出图像的边缘轮廓,并将此轮廓用于描述图像的形状;
1.2)对图像进行金字塔等级分割,图像分割的块数取决于金字塔等级的层数;本发明中将图像分成3层,第1层为整个图像;第2层将图像划分为4个子区域,每个区域的大小一致;第3层是在第2层的基础上对4个子区域进行划分,把每个区域再划分为4个子区域,最终得到4×4个子区域;
1.3)在每一层中提取每一个子区域的HOG特征向量(Histogram of OrientedGridients,方向梯度直方图);
1.4)最后将图像各个层中子区域的HOG特征向量进行级联处理(串联),在得到级联后的HOG数据后,进行数据的归一化操作,最终得到整幅图像的PHOG特征。
进一步地,所述步骤A5中,分类器采用线性SVM分类器。
进一步地,针对所述步骤B4中的投票决策方法会出现不同类标签得到最多且相等票数的问题,对于这种情况,采用随机选择的方法,在这几个相等票数的类标签中随机选择其中一个类标签作为最终的类标签。
本发明的有益效果是:
本发明选用多个融合特征,可以弥补图像单一的融合特征存在信息量不足的缺点,有效的提高了图像分类的准确率。选用Kmeans++算法建立视觉字典,采用概率选取的方法代替随机选择初始聚类中心,可以有效的避免算法陷入局部最优解。最后利用投票决策的方法对每个类结果投票,将差异大的分类结果融合,由投票决策来决定最后的分类性能,保证了结果的稳定性。
附图说明
图1为集成RGB-D融合特征与稀疏编码的图像分类方法的流程图。
图2为本发明训练阶段步骤A5中LLC特征编码模型。
图3为本发明测试阶段步骤B4中测试图像分类决策模块。
图4为本发明在RGB-D Scenes数据集上的识别混淆矩阵。
具体实施方式
下面结合具体实例,并参照详细附图,对本发明进一步详细说明。但所描述的实例旨在于对本发明的理解,而对其不起任何限定作用。
图1是集成RGB-D融合特征与稀疏编码的图像分类的***流程图,具体实施步骤如下:
步骤S1:提取RGB图像与Depth图像的dense SIFT特征和PHOG特征;
步骤S2:对两种图像提取的特征采用串联的形式进行特征融合,最终得到四种不同的融合特征;
步骤S3:使用K-means++聚类方法对不同的融合特征进行聚类处理得到四种不同的视觉字典;
步骤S4:在每个视觉字典上进行局部约束线性编码,得到不同的图像表述集;
步骤S5:利用线性SVM对不同的图像表述集构造分类器,最后通过对这四种分类器的分类结果进行投票决策来确定最终的分类。
基于集成RGB-D融合特征与稀疏编码的图像分类方法,本发明利用实验数据对本发明的方法进行验证。
本发明采用的实验数据集是RGB-D Scenes数据集,该数据集是由华盛顿大学提供的一个多视角的场景图片数据集,该数据集由8个分类场景组成,共5972张图片,图像全部通过Kinect摄像机获取,大小均为640*480。
在RGB-D Scenes数据集中,将全部图像用于实验并将图像尺寸调整为256*256。对于特征提取,本次实验中图像提取的dense SIFT特征采样间隔设置为8像素,图像块为16×16。PHOG特征提取参数设置为:图像块大小为16×16,采样间隔为8像素,梯度方向设为9。建立视觉字典时,字典大小设为200。SVM分类时采用LIBSVM工具包的libsvm3.12工具箱,数据集中取80%图片用于训练,20%图片用于测试。
在此次实验中,从两个方面考虑本发明方法,第一,考察本发明方法跟当前分类准确率较高的一些研究者的方法进行对比;第二,考察不同的RGB-D融合特征与本发明方法的分类效果进行对比。
表1RGB-D Scenes数据集分类结果比较
分类方法 准确率/%
线性SVM 89.6%
高斯核函数SVM 90.0%
随机森林 90.1%
HOG 77.2%
SIFT+SPM 84.2%
本发明方法 91.7%
分类准确率与其他方法的对比如表1所示。Liefeng Bo在文章“Kerneldescriptors for visual recognition”中将三种特征集成,分别用线性SVM(LinearSVM)、高斯核函数SVM(Kernel SVM)和随机森林(Random Forest)对其进行训练与分类,在此次实验中分别获得89.6%、90.0%和90.1%的准确率。A.Janoch在文章“A Category-Level 3D Object Dataset:Putting the Kinect to Work”中使用HOG算法分别对深度图像和彩色图像进行特征提取,在特征融合后使用SVM分类器实现最终的分类,在本次实验中此方法获得77.2%的准确率。N.Silberman在文章“Indoor scene segmentation using astructured light sensor”中先用SIFT算法分别提取深度图像和彩色图像的特征,然后再进行特征融合,之后采用SPM进行特征编码,最后采用SVM进行分类,在此次实验中此算法获得84.2%的分类准确率。而本发明提出的算法获得了91.7%的准确率,与之前最好的结果相比提高了1.6%,由此可以看出本发明算法具有良好的分类性能。
表2RGB-D Scenes数据集不同融合特征分类结果对比
从表2可以看出,在联合深度信息进行图像分类时,基于单一融合特征的分类算法准确率低于基于多融合特征的分类算法,而基于多特征融合的图像分类算法可以取得较好的分类准确率,但还是略低于基于多融合特征决策融合的图像分类算法。
以上对本发明的具体实施例进行了描述。应当理解的是,本发明并不局限于上述特定实施方式,凡在本发明的精神实质与原理之内所做的任何修改、等同替换、改进等,均应包含在本发明保护的范围之内。

Claims (8)

1.一种基于RGB-D融合特征与稀疏编码的图像分类方法,其特征在于,包括训练阶段和测试阶段:
所述训练阶段包括以下步骤:
步骤A1、针对每一个样本数据,提取其RGB图像与Depth图像的denseSIFT与PHOG特征;样本数据的个数为n;
步骤A2、针对每一个样本数据,对其两种图像提取的特征采用两两线性串联的形式进行特征融合,得到四种不同的融合特征;将n个样本数据得到的相同种类的融合特征组成一个集合,得到四种融合特征集;
步骤A3、分别对四种融合特征集中的融合特征进行聚类处理,得到四种不同的视觉字典;
步骤A4、在每种视觉字典上,采用局部约束线性编码模型对融合特征进行特征编码,得到四种不同的图像表述集;
步骤A5、根据四种不同的融合特征集、图像表述集以及相应的样本数据的类标签构造分类器,得到四个不同的分类器;
所述测试阶段包括以下步骤:
步骤B1、按照步骤A2~A3中的方法提取和融合待分类图像的特征,得到待分类图像的四种融合特征;
步骤B2、在步骤A3得到的四种视觉字典上,采用局部约束线性编码模型分别对步骤B1得到的四种融合特征进行特征编码,得到待分类图像四种不同的图像表述;
步骤B3、用步骤A5得到的四个分类器分别对步骤B2得到的四种图像表述进行分类,得到四个类标签;
步骤B4、基于得到的四个类标签,使用投票决策方法得到该待分类图像的最终类标签,即选取四个类标签中票数最多的类标签作为最终类标签。
2.根据权利要求1所述的基于RGB-D融合特征与稀疏编码的图像分类方法,其特征在于,所述步骤A3中,使用K-means++聚类方法针对某种融合特征集中的融合特征进行聚类处理,建立相应的视觉字典的方法如下:
3.1)记该种融合特征集为HI={h1,h2,h3,…,hn},并设置聚类数目为m;
3.2)在HI中随机选择一个融合特征作为第一个初始聚类中心S1;设置计数值t=1;
3.3)对HI中每一个融合特征hi,hi∈HI,计算它与St之间的距离d(hi);
3.4)选择下一初始聚类中心St+1
基于公式计算点hi'被选择为下一初始聚类中心的概率,其中hi'∈HI;选择概率最大的融合特征作为下一初始聚类中心St+1
3.5)令t=t+1,重复步骤(3)和(4),直到t=m,即m个初始聚类中心被选出来;
3.6)利用选出来的初始聚类中心来运行K-means算法,最终于生成m个聚类中心;
3.7)定义每个聚类中心为视觉字典中的一个视觉单词,聚类数目m即为视觉字典的大小。
3.根据权利要求2所述的基于RGB-D融合特征与稀疏编码的图像分类方法,其特征在于,所述步骤A4中,采用局部约束线性编码模型对融合特征进行特征编码,模型表达式如下:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mi>C</mi> </munder> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>h</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>Bc</mi> <mi>i</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> <mo>+</mo> <mi>&amp;lambda;</mi> <mo>|</mo> <mo>|</mo> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>&amp;CircleTimes;</mo> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msup> <mn>1</mn> <mi>T</mi> </msup> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mo>&amp;ForAll;</mo> <mi>i</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> </mtable> </mfenced>
式中:hi为融合特征集HI中的融合特征,即待编码的特征向量,hi∈Rd,d表示融合特征的维度;B=[b1,b2,b3…bm]是通过K-means++算法建立的视觉字典,b1~bm为视觉字典中的m个视觉单词,bj∈Rd;C=[c1,c2,c3…cn]为编码得到的图像表述集,其中ci∈Rm为编码完成后融合特征hi的编码系数;λ为LLC的惩罚因子;表示元素对应相乘;1Tci中1表示全部元素为1的向量,那么1Tci=1用于对局部约束线性编码模型进行约束,使其具有平移不变性;di定义为:
<mrow> <msub> <mi>d</mi> <mi>i</mi> </msub> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>d</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mrow> <mo>(</mo> <msub> <mi>h</mi> <mi>i</mi> </msub> <mo>,</mo> <mi>B</mi> <mo>)</mo> </mrow> </mrow> <mi>&amp;sigma;</mi> </mfrac> <mo>)</mo> </mrow> </mrow>
其中dist(hi,B)=[dist(hi,b1),dist(hi,b2),…dist(hi,bm)]T,dist(hi,bj)表示hi与bj之间的欧式距离,σ用于调整局部位置的约束权重的下降速度。
4.根据权利要求1所述的基于RGB-D融合特征与稀疏编码的图像分类方法,其特征在于,所述步骤A4中,采用近似的局部约束线性编码模型对融合特征进行特征编码,模型表达式如下:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <munder> <mrow> <mi>m</mi> <mi>i</mi> <mi>n</mi> </mrow> <mover> <mi>C</mi> <mo>~</mo> </mover> </munder> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>h</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>B</mi> <mi>i</mi> </msub> <mover> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>~</mo> </mover> <mo>|</mo> <msup> <mo>|</mo> <mn>2</mn> </msup> </mrow> </mtd> </mtr> <mtr> <mtd> <mtable> <mtr> <mtd> <mrow> <mi>s</mi> <mo>.</mo> <mi>t</mi> <mo>.</mo> </mrow> </mtd> <mtd> <mrow> <msup> <mn>1</mn> <mi>T</mi> </msup> <mover> <msub> <mi>c</mi> <mi>i</mi> </msub> <mo>~</mo> </mover> <mo>=</mo> <mn>1</mn> <mo>,</mo> <mo>&amp;ForAll;</mo> <mi>i</mi> </mrow> </mtd> </mtr> </mtable> </mtd> </mtr> </mtable> </mfenced>
其中,Bi是使用k邻近搜索选取的视觉字典B中距离待编码的特征向量hi最近的k个视觉单词构成的局部视觉单词矩阵,为近似编码得到的图像表述集,其中为近似编码完成后融合特征hi的编码系数。
5.根据权利要求4所述的基于RGB-D融合特征与稀疏编码的图像分类方法,其特征在于,取k=50。
6.根据权利要求1~5中任一项所述的基于RGB-D融合特征与稀疏编码的图像分类方法,其特征在于,所述步骤A1中,PHOG特征提取的具体步骤如下:
1.1)统计图像的边缘信息;利用Canny边缘检测算子提取出图像的边缘轮廓,并将此轮廓用于描述图像的形状;
1.2)对图像进行金字塔等级分割;将图像分成3层,第1层为整个图像;第2层将图像划分为4个子区域,每个区域的大小一致;第3层是在第2层的基础上对4个子区域进行划分,把每个区域再划分为4个子区域,最终得到4×4个子区域;
1.3)在每一层中提取每一个子区域的HOG特征向量;
1.4)最后将图像各个层中子区域的HOG特征向量进行级联处理,在得到级联后的HOG数据后,进行数据的归一化操作,最终得到整幅图像的PHOG特征。
7.根据权利要求1~5中任一项所述的基于RGB-D融合特征与稀疏编码的图像分类方法,其特征在于,所述步骤A5中,分类器采用线性SVM分类器。
8.根据权利要求1~5中任一项所述的的基于RGB-D融合特征与稀疏编码的图像分类方法,其特征在于,所述步骤B4中,若票数最多的类标签有多个,则在这几个类标签中随机选择一个作为最终的类标签。
CN201710328468.7A 2017-05-11 2017-05-11 一种基于rgb-d融合特征与稀疏编码的图像分类方法 Active CN107085731B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710328468.7A CN107085731B (zh) 2017-05-11 2017-05-11 一种基于rgb-d融合特征与稀疏编码的图像分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710328468.7A CN107085731B (zh) 2017-05-11 2017-05-11 一种基于rgb-d融合特征与稀疏编码的图像分类方法

Publications (2)

Publication Number Publication Date
CN107085731A true CN107085731A (zh) 2017-08-22
CN107085731B CN107085731B (zh) 2020-03-10

Family

ID=59611626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710328468.7A Active CN107085731B (zh) 2017-05-11 2017-05-11 一种基于rgb-d融合特征与稀疏编码的图像分类方法

Country Status (1)

Country Link
CN (1) CN107085731B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090926A (zh) * 2017-12-31 2018-05-29 厦门大学 一种基于双重字典学习的深度估计方法
CN108596256A (zh) * 2018-04-26 2018-09-28 北京航空航天大学青岛研究院 一种基于rgb-d物体识别分类器构造方法
CN108805183A (zh) * 2018-05-28 2018-11-13 南京邮电大学 一种融合局部聚合描述符和局部线性编码的图像分类方法
CN108875080A (zh) * 2018-07-12 2018-11-23 百度在线网络技术(北京)有限公司 一种图像搜索方法、装置、服务器及存储介质
CN109741484A (zh) * 2018-12-24 2019-05-10 南京理工大学 带有图像检测及语音报警功能的行车记录仪及其工作方法
CN110443298A (zh) * 2019-07-31 2019-11-12 华中科技大学 一种基于云-边缘协同计算的ddnn及其构建方法和应用
CN111160387A (zh) * 2019-11-28 2020-05-15 广东工业大学 一种基于多视角字典学习的图模型

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105005786A (zh) * 2015-06-19 2015-10-28 南京航空航天大学 一种基于BoF和多特征融合的纹理图像分类方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105005786A (zh) * 2015-06-19 2015-10-28 南京航空航天大学 一种基于BoF和多特征融合的纹理图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
向程谕: "基于RGB-D容和特征的图像分类", 《计算机工程与应用》 *
申晓霞等: "基于Kinect和金字塔特征的行为识别算法", 《光电子•激光》 *

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090926A (zh) * 2017-12-31 2018-05-29 厦门大学 一种基于双重字典学习的深度估计方法
CN108596256A (zh) * 2018-04-26 2018-09-28 北京航空航天大学青岛研究院 一种基于rgb-d物体识别分类器构造方法
CN108805183A (zh) * 2018-05-28 2018-11-13 南京邮电大学 一种融合局部聚合描述符和局部线性编码的图像分类方法
CN108875080A (zh) * 2018-07-12 2018-11-23 百度在线网络技术(北京)有限公司 一种图像搜索方法、装置、服务器及存储介质
CN109741484A (zh) * 2018-12-24 2019-05-10 南京理工大学 带有图像检测及语音报警功能的行车记录仪及其工作方法
CN110443298A (zh) * 2019-07-31 2019-11-12 华中科技大学 一种基于云-边缘协同计算的ddnn及其构建方法和应用
CN110443298B (zh) * 2019-07-31 2022-02-15 华中科技大学 一种基于云-边缘协同计算的ddnn及其构建方法和应用
CN111160387A (zh) * 2019-11-28 2020-05-15 广东工业大学 一种基于多视角字典学习的图模型
CN111160387B (zh) * 2019-11-28 2022-06-03 广东工业大学 一种基于多视角字典学习的图模型

Also Published As

Publication number Publication date
CN107085731B (zh) 2020-03-10

Similar Documents

Publication Publication Date Title
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
Xia et al. AID: A benchmark data set for performance evaluation of aerial scene classification
CN107085731A (zh) 一种基于rgb‑d融合特征与稀疏编码的图像分类方法
Wang et al. Aggregating rich hierarchical features for scene classification in remote sensing imagery
Cheng et al. Effective and efficient midlevel visual elements-oriented land-use classification using VHR remote sensing images
Liu et al. Scene classification using hierarchical Wasserstein CNN
CN106126581A (zh) 基于深度学习的手绘草图图像检索方法
CN102054178B (zh) 一种基于局部语义概念的国画图像识别方法
CN111222434A (zh) 基于局部二值模式和深度学习的合成人脸图像取证方法
CN109063649B (zh) 基于孪生行人对齐残差网络的行人重识别方法
CN106682233A (zh) 一种基于深度学习与局部特征融合的哈希图像检索方法
CN110109060A (zh) 一种基于深度学习网络的雷达辐射源信号分选方法及***
CN106096557A (zh) 一种基于模糊训练样本的半监督学习人脸表情识别方法
CN108197538A (zh) 一种基于局部特征和深度学习的卡口车辆检索***及方法
CN108564094A (zh) 一种基于卷积神经网络和分类器组合的材质识别方法
CN104504362A (zh) 基于卷积神经网络的人脸检测方法
CN108009637B (zh) 基于跨层特征提取的像素级台标识别网络的台标分割方法
CN104966081B (zh) 书脊图像识别方法
CN105654122B (zh) 基于核函数匹配的空间金字塔物体识别方法
CN108921850B (zh) 一种基于图像分割技术的图像局部特征的提取方法
CN114067444A (zh) 基于元伪标签和光照不变特征的人脸欺骗检测方法和***
CN106529586A (zh) 基于补充文本特征的图像分类方法
CN105868706A (zh) 一种基于稀疏自编码的三维模型识别方法
CN111881716A (zh) 一种基于多视角生成对抗网络的行人重识别方法
CN108416270A (zh) 一种基于多属性联合特征的交通标志识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant