CN107967481A - 一种基于局部性约束和显著性的图像分类方法 - Google Patents
一种基于局部性约束和显著性的图像分类方法 Download PDFInfo
- Publication number
- CN107967481A CN107967481A CN201710637610.6A CN201710637610A CN107967481A CN 107967481 A CN107967481 A CN 107967481A CN 201710637610 A CN201710637610 A CN 201710637610A CN 107967481 A CN107967481 A CN 107967481A
- Authority
- CN
- China
- Prior art keywords
- image
- conspicuousness
- locality constraint
- feature
- represent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明提供一种基于局部性约束和显著性的图像分类方法,包括对图像进行训练,还包括以下步骤:对测试图像提取局部特征因子,集合为X;对所述测试图像进行局部性约束的编码计算;对所述测试图像进行显著性计算;将像素的显著值和编码值进行融合得到基于显著性的编码值;对测试图像采用空间金字塔模型进行特征池化操作;将特征f输入到SVM分类器进行测试,得到分类类标。本方法一方面考虑了近邻的局部性约束,并以近邻距离局部特征的距离作为编码的依据,另一方面考虑了显著性在图像编码中的作用。
Description
技术领域
本发明涉及计算机视觉的技术领域,特别是一种基于局部性约束和显著性的图像分类方法。
背景技术
图像分类方法一般都会经过图像的特征编码过程。原始的BoF方法采用硬指派的方法对局部描述子进行编码。硬指派指局部特征分配给视觉字典中最近的视觉词,被分配的视觉词对应的编码为1,其余的视觉词的编码为0。硬指派编码方法的问题是:对字典的失真错误非常敏感;硬指派方法仅仅选择了最近的视觉词,忽略了其它相关的视觉词。针对硬指派方法的缺点,软量化是一个特征描述子用多个视觉词来描述。软量化的优点是概念简单、计算有效,整个计算过程不需要优化。稀疏编码[H.Lee,A.Battle,R.Raina,A.Y.Ng.Efficient sparse coding algorithms:Proceedings of Advances in NeuralInformation Processing System,2006[C].2006:801-808.]属于软量化的编码方法,大大提高了编码的鲁棒性。稀疏编码可以看做基向量的稀疏子集的线性组合,并通过l1范式进行正则化的近似。稀疏编码在优化的时候计算量太大,并会产生相似的描述子编码是不一致的问题。针对这些问题,K.Yu[J.Wang,J.Yang,K.Yu,F.Lv,T.Huang,andY.Gong.Locality-constrained linear coding for image classification:Proceedings of IEEE Conference on Computer Vision and Pattern Recognition,2010[C].San Francisco,CA,USA:IEEE Computer Society,2010:3360-3367.]认为描述子位于临近描述子的低维流形空间内,将描述子分配给临近空间内的视觉词才是有意义的,因此在编码的时候应该选择局部基才是合理的。研究人员基于局部性约束提出了多个编码方法。虽然提出了多种编码方法,但是如果在编码的过程中融入更多的信息仍然是值得研究的问题。
申请号为CN105426919A的发明专利申请公开了一种基于显著性指导非监督特征学习的图像分类方法,该图像分类方法包括显著性指导的像素点采集、非监督特征学习、图像卷积、局部对比归一化、空间金字塔池化、融合中央先验和图像分类。采用该分类方法,将显著性检测用于采集图像数据集中代表性的像素点,通过稀疏自编码这种非监督的特征学习方法训练代表性的像素点来获取高质量的图像特征。通过图像卷积操作获取训练集和测试集的特征,将卷积特征进行局部对比归一化和空间金字塔池化,将池化后的特征与中央先验特征进行融合,采用liblinear分类器对图像进行分类。该方法采用深度学习网络对图像进行分类,过程相对比较复杂。
申请号为CN103824079A的发明申请公开了一种基于多层次模式子块划分的图像分类方法,该方法包括以下步骤:提取图像多尺度下的显著性区域分布图,并根据显著性区域分布采样不同位置和大小的窗口;对图像实施超像素分割,通过分析每个窗口与其内外邻近超像素的位置和分布关系确定每个窗口出现目标的概率,构造多层次模式子块;对每一个子块做多字典特征描述,然后将其组织为张量模式用做图像的特征描述;对图像的张量描述做典范相关分析,提取图像特征向量,最后通过分类器进行分类。该方法仅适用于多目标图像场景的图片,并不适合所有的图片进行分类。
发明内容
为了解决上述的技术问题,本发明提出一种基于局部性约束和显著性的图像分类方法,一方面考虑了近邻的局部性约束,并以近邻距离局部特征的距离作为编码的依据,另一方面考虑了显著性在图像编码中的作用。
本发明提供一种基于局部性约束和显著性的图像分类方法,包括对图像进行训练,还包括以下步骤:
步骤1:对测试图像提取局部特征因子,集合为X;
步骤2:对所述测试图像进行局部性约束的编码计算;
步骤3:对所述测试图像进行显著性计算;
步骤4:将像素的显著值和编码值进行融合得到基于显著性的编码值;
步骤5:对所述测试图像采用空间金字塔模型进行特征池化操作,得到图像级特征f;
步骤6:将所述图像级特征f输入到SVM分类器进行测试,得到分类类标。
优选的是,所述训练包括以下步骤:
步骤01:构建训练集D;
步骤02:提取所述训练集D中每幅图像的局部特征描述子,构成局部特征描述子的集合Y;
步骤03:将所述训练集D中局部特征描述子的集合Y进行聚类,得到视觉词字典B,M为视觉词的个数;
步骤04:对每幅训练图像提取局部特征描述子,集合为X;
步骤05:对所述每幅训练图像进行局部性约束的编码计算:
步骤06:对所述每幅训练图像进行显著性计算,得到图像的显著图I;
步骤07:将所述每幅训练图像的像素的显著值和编码值进行融合得到基于显著性的编码值;
步骤08:对所述每幅训练图像采用空间金字塔模型进行特征池化操作,得到所述每幅训练图像的图像级别的特征,训练图像集的图像级别的特征集合为F;
步骤09:获得所述训练集D中每幅图像的类标,类标集合为L。
步骤10:将特征集合F和类标集合L输入到SVM分类器进行训练,得到分类模型m。
在上述任一方案中优选的是,所述步骤05中的所述局部性约束的编码计算公式为:其中,xi表示第i个局部特征描述子;bj表示视觉词字典B里的第j个视觉单词,参数β用来调节编码值,通过交叉验证的方法得到。
在上述任一方案中优选的是,当特征描述子xi和视觉词是k最近邻的关系时,等于二者之间的距离,即当bj∈Nk(xi)时,其中Nk(xi)表示特征描述子xi的k最近邻集合。
在上述任一方案中优选的是,当特征描述子xi和视觉词不是k最近邻的关系时,
在上述任一方案中优选的是,所述步骤06为采用像素显著值归一化的方法计算得到sij,所述sij代表所述显著图I中的位置(i,j)像素点的显著值。
在上述任一方案中优选的是,所述像素显著值归一化的计算公式如下:sij=(Iij-MinValue(I))/(MaxValue(I)-MinValue(I)),其中,Iij代表所述显著图I中(i,j)位置的灰度值,MinValue(I))代表所述显著图I中灰度的最小值,MaxValue(I)代表所述显著图I中灰度的最大值。
在上述任一方案中优选的是,所述步骤07中的所述编码值的融合公式为:在上述任一方案中优选的是,
在上述任一方案中优选的是,所述步骤1中的所述局部性约束的编码计算公式为:其中,xi表示第i个局部特征描述子;bj表示视觉词字典B里的第j个视觉单词,参数β用来调节编码值,通过交叉验证的方法得到。
在上述任一方案中优选的是,当特征描述子xi和视觉词是k最近邻的关系时,等于二者之间的距离,即当bj∈Nk(xi)时,其中Nk(xi)表示特征描述子xi的k最近邻集合。
在上述任一方案中优选的是,当特征描述子xi和视觉词不是k最近邻的关系时,
在上述任一方案中优选的是,:所述步骤3中的所述像素显著值归一化的计算公式如下:sij=(Iij-MinValue(I))/(MaxValue(I)-MinValue(I)),其中,Iij代表显著图I中(i,j)位置的灰度值,MinValue(I))代表显著图I中灰度的最小值,MaxValue(I)代表显著图I中灰度的最大值。
在上述任一方案中优选的是,所述步骤4中的所述编码值的融合公式为:
在上述任一方案中优选的是,所述步骤6为将所述图像级特征f输入到分类模型m,得到分类类标。
本发明提出了一种基于局部性约束和显著性的图像分类方法,在本发明中提出的编码方法较传统的编码方法具有更强的判别力,应用于图像分类,分类结果有很大提升。
附图说明
图1为按照本发明的基于局部性约束和显著性的图像分类方法的一优选实施例的流程图。
图2为按照本发明的基于局部性约束和显著性的图像分类方法的图像编码方法的一优选实施例的原始图。
图2a为按照本发明的基于局部性约束和显著性的图像分类方法的如图2所示实施例的显著图。
图2b为按照本发明的基于局部性约束和显著性的图像分类方法的如图2所示实施例的带有要进行编码的背景中的局部特征描述子图。
图2c为按照本发明的基于局部性约束和显著性的图像分类方法的如图2所示实施例的引入显著性之前的背景像素黑点的编码情况图。
图2d为按照本发明的基于局部性约束和显著性的图像分类方法的如图2所示实施例的引入显著性之后的背景像素黑点的编码情况图。
图2e为按照本发明的基于局部性约束和显著性的图像分类方法的如图2所示实施例的带有要进行编码的背景中的局部特征描述子图。
图2f为按照本发明的基于局部性约束和显著性的图像分类方法的如图2所示实施例的引入显著性之前的前景像素黑点的编码情况图。
图2g为按照本发明的基于局部性约束和显著性的图像分类方法的如图2所示实施例的引入显著性之后的前景像素黑点的编码情况图。
图3为按照本发明的基于局部性约束和显著性的图像分类方法的图像级特征的一优选实施例的例子图像的特征柱状图。
图4为按照本发明的基于局部性约束和显著性的图像分类方法的图像级特征的一优选实施例的17花库的每类平均特征的柱状图。
具体实施方式
下面结合附图和具体的实施例对本发明做进一步的阐述。
实施例一
在本实施例中,基于局部性约束和显著性的图像分类方法包括训练过程100和测试过程120两个部分。
在训练过程100中,执行步骤101,选取一定数量的图像,构建训练集D,相应的类标集合为L。执行步骤102,提取训练集中每幅图像的局部特征描述子,构成局部特征描述子的集合Y。执行步骤103,将训练集中局部特征描述子的集合Y进行聚类,得到视觉词字典B,M为视觉词的个数。执行步骤104,对每幅训练图像提取局部特征描述子,集合为X。执行步骤105,对每幅训练图像进行局部性约束的编码计算,基于局部性约束的编码公式为:其中,xi表示第i个局部特征描述子;bj表示视觉词字典B里的第j个视觉单词。有两种情况:当特征描述子xi和视觉词是k最近邻的关系时,等于二者之间的距离,即当bj∈Nk(xi)时,其中Nk(xi)表示特征描述子xi的k最近邻集合,当特征描述子xi和视觉词不是k最近邻的关系时,为∞;参数β用来调节编码值,一般通过交叉验证的方法得到。在编码计算时,离局部特征描述子越近的视觉词编码值越大,也就是和距离成反比。执行步骤106,对每幅训练图像进行显著性计算,得到图像的显著图I,sij代表位置(i,j)像素点的显著值,Iij代表显著图I中(i,j)位置的灰度值,MinValue(I))代表显著图I中灰度的最小值,MaxValue(I)代表显著图I中灰度的最大值。像素显著值归一化的计算方法如下,sij=(Iij-MinValue(I))/(MaxValue(I)-MinValue(I))。执行步骤107,将每幅训练图像的像素的显著值和编码值进行融合得到基于显著性的编码值,融合公式为执行步骤108,对每幅训练图像采用空间金字塔模型进行特征池化操作,得到每幅训练图像的图像级别的特征。训练图像集的图像级别的特征集合为F。执行步骤109,获得训练集中每幅图像的类标,类标集合为L。执行步骤110,将特征集合F和类标集合L输入到SVM分类器进行训练,得到分类模型m,其中,SVM指的是支持向量机(外文名Support Vector Machine),在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。
在测试过程120中,执行步骤121,对测试图像提取局部特征描述子,集合为X。执行步骤122,对测试图像进行局部性约束的编码计算,基于局部性约束的编码公式为::其中,xi表示第i个局部特征描述子;bj表示视觉词字典B里的第j个视觉单词。有两种情况:当特征描述子xi和视觉词是k最近邻的关系时,等于二者之间的距离,即当bj∈Nk(xi)时,其中Nk(xi)表示特征描述子xi的k最近邻集合,当特征描述子xi和视觉词不是k最近邻的关系时,为∞;参数β用来调节编码值,一般通过交叉验证的方法得到。执行步骤123,对测试图像进行显著性计算,得到图像的显著图I,sij代表位置(i,j)像素点的显著值,Iij代表显著图I中(i,j)位置的灰度值,MinValue(I))代表显著图I中灰度的最小值,MaxValue(I)代表显著图I中灰度的最大值,像素显著值归一化的计算方法如下:
sij=(Iij-MinValue(I))/(MaxValue(I)-MinValue(I))。执行步骤124,将像素的显著值和编码值进行融合得到基于显著性的编码值,融合公式为执行步骤125,对测试图像采用空间金字塔模型进行特征池化操作,得到测试图像的图像级别的特征f。执行步骤126,将图像级特征f输入到SVM进行测试,得到分类类标。
实施例二
对图像进行编码时,从直观上理解,显著部分的编码值应该被赋予较大的权重以突显这部分特征在图像表示中的作用。思想的说明如下:图2所示的是原始的图像,图2a所示的是原始图像对应的显著图。在图2b中的黑色圆点表示要进行编码的背景中的局部特征描述子,如图2c所示,图示为引入显著性之前的背景像素黑圆点的编码情况,如图2d所示,图示为引入显著性之后的背景像素黑圆点的编码情况,可以看出,对于背景像素黑圆点,由于显著值低会导致引入显著性后的编码值较引入显著性之前的编码值有所降低。在图2e中的黑色圆点表示要进行编码的背景中的局部特征描述子,如图2f所示,图示为引入显著性之前的前景像素黑圆点的编码情况,如图2g所示,图示为引入显著性之后的前景像素黑圆点的编码情况,可以看出,对于前景中的像素黑圆点,显著值高会导致引入显著性后的编码值较引入显著性之前的编码值有所提高。
实施例三
实验图像库有牛津17花库、牛津102花库、Caltech 101、Caltech 256和UIUC8库。实验采用的局部特征是128维的SIFT特征描述子,采样间隔为8个像素,描述子周围区域块为16×16像素。每个图像库均通过k_means方法得到包含400个视觉词的字典;每类图像随机选取30幅图像作为训练,剩余的图像作为测试。实验采用DRFI显著区域提取方法得到图像的显著图。实验中参数β等于10,最近邻的个数为5。实验结果如表1所示。在表中,采用LLC方法,对牛津17花库、牛津102花库、Caltech 101、Caltech 256和UIUC8库进行编码计算,得到的视觉词编码值分别为61.55±1.73、49.90±0.49、67.38±1.07、28.72±0.32和77.86±1.07。采用SC方法,对牛津17花库、牛津102花库、Caltech 101、Caltech 256和UIUC8库进行编码计算,得到的视觉词编码值分别为58.7647±1.11、45.52±0.89、65.17±1.35、26.73±0.26和77.12±1.19。采用ScSPM方法,对牛津17花库、牛津102花库、Caltech 101、Caltech 256和UIUC8库进行编码计算,得到的视觉词编码值分别为60.86±1.06、48.26±0.49、68.64±1.00、28.40±0.20和77.55±0.94。采用LSC方法,对牛津17花库、牛津102花库、Caltech 101、Caltech 256和UIUC8库进行编码计算,得到的视觉词编码值分别为60.71±0.62、50.99±0.49、69.79±0.71、29.92±0.26和78.00±0.69。采用本申请中的方法对牛津17花库、牛津102花库、Caltech 101、Caltech 256和UIUC8库进行编码计算,得到的视觉词编码值分别为67.58±1.28、58.55±0.61、71.97±0.90、31.52±0.34和79.85±0.80。在编码计算时,离局部特征描述子越近的视觉词编码值越大,也就是和距离成反比。通过以上数据,可以看出本申请提出的方法较传统方法有较大的提升。
表1
实施例四
如图3所示,以牛津17花库为例,列举了3种花、6幅图像,每种花中选择2幅图像,分别画出每幅图像基于显著性的图像特征柱状图。可以看出,融合了显著性的图像编码类表现出类内的特征比较相近,类间的差异比较大,基于显著性的特征具有很好的区分性。
实施例五
为了表明基于局部性约束和显著性的图像特征对于不同的类具有不同的表示能力,以17花库为例,分别计算不同类的特征的平均值,并通过柱状图的形式表示出来,如图4所示,可以看出每个类的特征具有很好的判别性,17类花分别为:Daffodil(水仙花)、Sunflower(向日葵)、Daisy(菊花)、Dandelion(蒲公英)、ColtsFoot(款冬)、Cowslip(黄花九轮草)、Buttercup(毛茛)、windflower(白头翁)、Pansy(三色堇)、Snowdrop(雪花莲)、Lilyvalley(山谷百合)、Bluebell(风信子)、Crocus(番红花)、Iris(鸢尾)、Tigerlily泰格利、Tulip(郁金香)和Fritillary(贝母),可以看出每类的特征直方图具有很大的差异,证明了基于局部性约束和显著性的图像特征具有很好的判别性。
Claims (10)
1.一种基于局部性约束和显著性的图像分类方法,包括对图像进行训练,其特征在于,还包括以下步骤:
步骤1:对测试图像提取局部特征因子,集合为X;
步骤2:对所述测试图像进行局部性约束的编码计算;
步骤3:对所述测试图像进行显著性计算;
步骤4:将像素的显著值和编码值进行融合得到基于显著性的编码值;
步骤5:对所述测试图像采用空间金字塔模型进行特征池化操作,得到图像级特征f;
步骤6:将所述图像级特征f输入到SVM分类器进行测试,得到分类类标。
2.如权利要求1所述的基于局部性约束和显著性的图像分类方法,其特征在于:所述训练包括以下步骤:
步骤01:构建训练集D;
步骤02:提取所述训练集D中每幅图像的局部特征描述子,构成局部特征描述子的集合Y;
步骤03:将所述训练集D中局部特征描述子的集合Y进行聚类,得到视觉词字典B,M为视觉词的个数;
步骤04:对每幅训练图像提取局部特征描述子,集合为X;
步骤05:对所述每幅训练图像进行局部性约束的编码计算:
步骤06:对所述每幅训练图像进行显著性计算,得到图像的显著图I;
步骤07:将所述每幅训练图像的像素的显著值和编码值进行融合得到基于显著性的编码值;
步骤08:对所述每幅训练图像采用空间金字塔模型进行特征池化操作,得到所述每幅训练图像的图像级别的特征,训练图像集的图像级别的特征集合为F;
步骤09:获得所述训练集D中每幅图像的类标,类标集合为L。
步骤10:将特征集合F和类标集合L输入到SVM分类器进行训练,得到分类模型m。
3.如权利要求2所述的基于局部性约束和显著性的图像分类方法,其特征在于:所述步骤05中的所述局部性约束的编码计算公式为:其中,xi表示第i个局部特征描述子;bj表示视觉词字典B里的第j个视觉单词,参数β用来调节编码值,通过交叉验证的方法得到。
4.如权利要求3所述的基于局部性约束和显著性的图像分类方法,其特征在于:当特征描述子xi和视觉词是k最近邻的关系时,等于二者之间的距离,即当bj∈Nk(xi)时,其中Nk(xi)表示特征描述子xi的k最近邻集合。
5.如权利要求4所述的基于局部性约束和显著性的图像分类方法,其特征在于:当特征描述子xi和视觉词不是k最近邻的关系时,
6.如权利要求5所述的基于局部性约束和显著性的图像分类方法,其特征在于:所述步骤06为采用像素显著值归一化的方法计算得到sij,所述sij代表所述显著图I中的位置(i,j)像素点的显著值。
7.如权利要求6所述的基于局部性约束和显著性的图像分类方法,其特征在于:所述像素显著值归一化的计算公式如下:sij=(Iij-MinValue(I))/(MaxValue(I)-MinValue(I)),其中,Iij代表所述显著图I中(i,j)位置的灰度值,MinValue(I))代表所述显著图I中灰度的最小值,MaxValue(I)代表所述显著图I中灰度的最大值。
8.如权利要求2所述的基于局部性约束和显著性的图像分类方法,其特征在于:所述步骤07中的所述编码值的融合公式为:
9.如权利要求8所述的基于局部性约束和显著性的图像分类方法,其特征在于:所述步骤1中的所述局部性约束的编码计算公式为:其中,xi表示第i个局部特征描述子;bj表示视觉词字典B里的第j个视觉单词,参数β用来调节编码值,通过交叉验证的方法得到。
10.如权利要求9所述的基于局部性约束和显著性的图像分类方法,其特征在于:当特征描述子xi和视觉词是k最近邻的关系时,等于二者之间的距离,即当bj∈Nk(xi)时,其中Nk(xi)表示特征描述子xi的k最近邻集合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710637610.6A CN107967481A (zh) | 2017-07-31 | 2017-07-31 | 一种基于局部性约束和显著性的图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710637610.6A CN107967481A (zh) | 2017-07-31 | 2017-07-31 | 一种基于局部性约束和显著性的图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107967481A true CN107967481A (zh) | 2018-04-27 |
Family
ID=61997447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710637610.6A Pending CN107967481A (zh) | 2017-07-31 | 2017-07-31 | 一种基于局部性约束和显著性的图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107967481A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110083729A (zh) * | 2019-04-26 | 2019-08-02 | 北京金山数字娱乐科技有限公司 | 一种图像搜索的方法及*** |
CN110796204A (zh) * | 2019-11-01 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 视频标签确定方法、装置和服务器 |
CN111191681A (zh) * | 2019-12-12 | 2020-05-22 | 北京联合大学 | 一种面向对象型图像集的视觉词字典生成方法及*** |
CN113902930A (zh) * | 2021-09-16 | 2022-01-07 | 燕山大学 | 一种优化词袋模型的图像分类方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310195A (zh) * | 2013-06-09 | 2013-09-18 | 西北工业大学 | 车辆高分遥感图像的基于llc特征的弱监督识别方法 |
CN105808757A (zh) * | 2016-03-15 | 2016-07-27 | 浙江大学 | 基于多特征融合的bow模型的中草药植物图片检索方法 |
-
2017
- 2017-07-31 CN CN201710637610.6A patent/CN107967481A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103310195A (zh) * | 2013-06-09 | 2013-09-18 | 西北工业大学 | 车辆高分遥感图像的基于llc特征的弱监督识别方法 |
CN105808757A (zh) * | 2016-03-15 | 2016-07-27 | 浙江大学 | 基于多特征融合的bow模型的中草药植物图片检索方法 |
Non-Patent Citations (4)
Title |
---|
SHENGSHENG WANG等: "EFFICIENT LOCALITY AND SALIENCY SIMILARITY CONSTRAINED CODING FOR IMAGE CLASSIFICATION", 《ICIC INTERNATIONAL》 * |
ZHEN YANG等: "Image classification based on saliency coding with category-specific codebooks", 《NEUROCOMPUTING》 * |
梁晔等: "基于BOF模型的图像表示方法研究", 《计算机科学》 * |
王生生等: "结合显著相似性的局部约束线性编码", 《华中科技大学学报(自然科学版)》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110083729A (zh) * | 2019-04-26 | 2019-08-02 | 北京金山数字娱乐科技有限公司 | 一种图像搜索的方法及*** |
CN110083729B (zh) * | 2019-04-26 | 2023-10-27 | 北京金山数字娱乐科技有限公司 | 一种图像搜索的方法及*** |
CN110796204A (zh) * | 2019-11-01 | 2020-02-14 | 腾讯科技(深圳)有限公司 | 视频标签确定方法、装置和服务器 |
CN110796204B (zh) * | 2019-11-01 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 视频标签确定方法、装置和服务器 |
CN111191681A (zh) * | 2019-12-12 | 2020-05-22 | 北京联合大学 | 一种面向对象型图像集的视觉词字典生成方法及*** |
CN113902930A (zh) * | 2021-09-16 | 2022-01-07 | 燕山大学 | 一种优化词袋模型的图像分类方法 |
CN113902930B (zh) * | 2021-09-16 | 2023-10-27 | 燕山大学 | 一种优化词袋模型的图像分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108288075B (zh) | 一种改进ssd的轻量化小目标检测方法 | |
CN108562589B (zh) | 一种对磁路材料表面缺陷进行检测的方法 | |
CN107153817B (zh) | 行人重识别数据标注方法和装置 | |
CN109344736A (zh) | 一种基于联合学习的静态图像人群计数方法 | |
WO2018052587A1 (en) | Method and system for cell image segmentation using multi-stage convolutional neural networks | |
WO2018052586A1 (en) | Method and system for multi-scale cell image segmentation using multiple parallel convolutional neural networks | |
CN104992223A (zh) | 基于深度学习的密集人数估计方法 | |
CN112883839B (zh) | 基于自适应样本集构造与深度学习的遥感影像解译方法 | |
CN108460356A (zh) | 一种基于监控***的人脸图像自动处理*** | |
CN112580590A (zh) | 一种基于多语义特征融合网络的指静脉识别方法 | |
CN112784763A (zh) | 基于局部与整体特征自适应融合的表情识别方法及*** | |
CN107967481A (zh) | 一种基于局部性约束和显著性的图像分类方法 | |
CN111178208A (zh) | 基于深度学习的行人检测方法、装置及介质 | |
CN105046272B (zh) | 一种基于简洁非监督式卷积网络的图像分类方法 | |
CN107066916A (zh) | 基于反卷积神经网络的场景语义分割方法 | |
CN112132197A (zh) | 模型训练、图像处理方法、装置、计算机设备和存储介质 | |
CN106874862B (zh) | 基于子模技术和半监督学习的人群计数方法 | |
CN109740539B (zh) | 基于超限学习机和融合卷积网络的3d物体识别方法 | |
CN104268552B (zh) | 一种基于部件多边形的精细类别分类方法 | |
CN114067444A (zh) | 基于元伪标签和光照不变特征的人脸欺骗检测方法和*** | |
CN109635811A (zh) | 空间植物的图像分析方法 | |
CN106845513A (zh) | 基于条件随机森林的人手检测器及方法 | |
CN107016371A (zh) | 基于改进的深度置信网络的无人机着陆地貌分类方法 | |
CN106611156B (zh) | 一种自适应深度空间特征的行人识别方法和*** | |
CN111160389A (zh) | 一种基于融合vgg的岩性识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180427 |
|
RJ01 | Rejection of invention patent application after publication |