CN111191618A - 一种基于矩阵群的knn的场景分类方法和*** - Google Patents

一种基于矩阵群的knn的场景分类方法和*** Download PDF

Info

Publication number
CN111191618A
CN111191618A CN202010002529.2A CN202010002529A CN111191618A CN 111191618 A CN111191618 A CN 111191618A CN 202010002529 A CN202010002529 A CN 202010002529A CN 111191618 A CN111191618 A CN 111191618A
Authority
CN
China
Prior art keywords
samples
sample
training
matrix
test
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010002529.2A
Other languages
English (en)
Inventor
徐承俊
朱国宾
舒静倩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN202010002529.2A priority Critical patent/CN111191618A/zh
Publication of CN111191618A publication Critical patent/CN111191618A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于矩阵群的KNN的场景分类方法和***,获取待处理的遥感数据集,按比例划分为训练数据文件和测试数据文件;将训练样本投影到李群流形空间;计算各个类别的李群样本的内均值;随机从测试数据中取样本,进行投影计算其李群样本内均值;计算其与所有已知类别内均值之间距离;按距离升序排列,取前K个最小距离对应的所属类别样本;取其中所属类别样本个数最多的类别,赋予测试样本。本发明具有如下优点:(1)本发明既能满足向量样本的计算又能满足矩阵样本的计算,具有很好的拓展性。(2)本发明使用范式距离代替Euclid距离,具有很好的抗噪性。样本的维度低,具有很好的计算性能。

Description

一种基于矩阵群的KNN的场景分类方法和***
技术领域
本发明涉及遥感影像处理、场景分类领域,尤其是涉及一种基于矩阵群的KNN的场景分类方法和***。
背景技术
由于各种光学遥感成像技术的提升和各类传感器的快速发展,使得我们能够比以往更快更容易的获得高分辨率遥感影像,更有助于我们了解生活的环境。高空间分辨率(HSR)遥感影像可以提供关于事务的结构、纹理、形状、轮廓等大量有参考意义的信息,从而有助于提高遥感影像的识别准确度。与此同时,各类遥感影像数据集数量也在增多。但是,现有的遥感影像分类方法很难做到高准确率的同时保持良好的存储、计算性能。因此,遥感影像的分类仍然是当前研究的一项重要任务。
遥感影像在城市土地覆盖检测、城市绿地检测、目标检测、环境监测和气体污染等领域都起着非常突出的作用。常用的分类方法有:(1)KNN分类方法:该方法无需训练,通过计算测试样本与已知类别的K个样本的欧氏距离,来判断测试样本所属的类别。(2)深度学习方法,卷积神经网络(CNN)由不同类型的层组成,例如卷积层,池化层和全连接层(FC),并使用共享权重的方式。每一层将输入量转换为神经元激活的输出量。
上述分类方法存在以下不足:(1)传统KNN只适用于向量空间的样本计算,无法完成矩阵样本空间的计算。此外,传统KNN使用Euclid(欧氏)空间计算测试样本与已知样本的距离,Euclid空间距离将每个样本同等看待,对个噪声样本敏感,会造成错误分类。(2)深度学习方法需要大量的数据集进行复杂的计算,且计算非常耗时,具有大量参数并且训练学习的过程我们无法进行干预,特征的提取、学习过程主要是由框架完成,解释性和理解性都不强,影像的特征维度高,通常需要使用GPU辅助计算,对硬件的要求高。
发明内容
本发明提供了一种基于矩阵群的KNN的场景分类方法,用以解决上述背景技术中存在的影像向量空间表示和Euclid(欧氏)距离计算的局限性、特征维度高、理解性解释性差、计算复杂等问题。
为了实现上述目标,本发明一种基于矩阵群的KNN的场景分类方法的技术方法的具体步骤如下:
Step1、获取待处理的遥感影像数据集,将所需处理的遥感数据集分为训练集和测试集。
Step2、将上述训练集和测试集分别转化为训练数据文件和测试数据文件。
Step3、将所述训练数据文件中影像集投影到李群流形空间,得到李群样本集。
Step4、计算各个类别的李群样本的内均值
Figure BDA0002354017540000021
Step5、随机从测试数据文件中取一个样本Ttest,将Ttest投影到李群流形空间并计算其李群样本的内均值
Figure BDA0002354017540000022
Step6、计算
Figure BDA0002354017540000023
与所有已知类别李群样本的内均值
Figure BDA0002354017540000024
之间的距离
Figure BDA0002354017540000025
Step7、根据上述的距离进行升序排列,取前K个最小的距离对应的所属类别样本。
Step8、取所属类别样本中所属类别样本个数最多的类别,赋予测试样本。
进一步的,在本发明的基于矩阵群的KNN的场景分类方法中,所述步骤Step3具体包括:
Step31、对每个样本做李群映射:xij=exp(Mij),其中,Mij表示训练数据文件中第i类别的第j个李群样本,xij表示李群训练样本集中第i个分类中第j个样本。
进一步的,在本发明的基于矩阵群的KNN的场景分类方法中,所述步骤Step4具体包括:
Step41、每个类别李群样本的内均值
Figure BDA0002354017540000026
Figure BDA0002354017540000027
其中xij表示李群训练样本集第i个分类中第j个样本,ni表示第i个分类中训练样本的个数,c代表总的类别数,得到的内均值
Figure BDA0002354017540000028
为矩阵,即
Figure BDA0002354017540000029
其中,其中tkl表示第k行第l列的值,k和l的取值为分别为1-m和1-n,
Figure BDA00023540175400000210
为m×n矩阵。
进一步的,在本发明的基于矩阵群的KNN的场景分类方法中,所述步骤Step6具体包括:
计算
Figure BDA0002354017540000031
与所有已知类别李群样本的内均值
Figure BDA0002354017540000032
之间的距离
Figure BDA0002354017540000033
Figure BDA0002354017540000034
其中
Figure BDA0002354017540000035
本发明还提供一种基于矩阵群的KNN的场景分类***,包括如下模块:
遥感影像数据集读取及处理模块,用于获取待处理的遥感影像数据集,将所需处理的遥感数据集分为训练集和测试集;
数据转化模块,用于将上述训练集和测试集分别转化为训练数据文件和测试数据文件;
数据集投影模块,用于将所述训练数据文件中样本投影到李群流形空间,得到李群样本集;
样本李群内均值模块,用于计算各个类别的李群样本的内均值
Figure BDA0002354017540000036
测试样本内均值计算模块,用于随机从测试数据文件中取一个样本Ttest,将Ttest投影到李群流形空间并计算其李群样本的内均值
Figure BDA0002354017540000037
距离计算模块,用于计算
Figure BDA0002354017540000038
与所有已知类别李群样本的内均值
Figure BDA0002354017540000039
之间的距离
Figure BDA00023540175400000310
排序查找模块,根据上述的距离进行升序排列,取前K个最小的距离对应的所属类别样本;
判断模块,取所属类别样本中所属类别样本个数最多的类别,赋予测试样本。
进一步的,所述数据集投影模块具体包括:
对每个样本做李群映射:xij=exp(Mij),其中,Mij表示训练数据文件中第i类别的第j个李群样本,xij表示李群训练样本集中第i个分类中第j个样本。
进一步的,所述样本李群内均值模块具体包括:
每个类别李群样本的内均值
Figure BDA00023540175400000311
Figure BDA00023540175400000312
其中xij表示李群训练样本集第i个分类中第j个样本,ni表示第i个分类中训练样本的个数,c代表总的类别数,得到的内均值
Figure BDA00023540175400000313
为矩阵,即
Figure BDA00023540175400000314
其中,其中tkl表示第k行第l列的值,k和l的取值为分别为1-m和1-n,
Figure BDA0002354017540000041
为m×n矩阵。
进一步的,所述距离计算模块具体包括:
计算
Figure BDA0002354017540000042
与所有已知类别李群样本的内均值
Figure BDA0002354017540000043
之间的距离
Figure BDA0002354017540000044
Figure BDA0002354017540000045
其中
Figure BDA0002354017540000046
本发明与现有技术相比,具有的有益效果是:本发明方法通过样本内均值表示数据集样本特征,具有很好的自解释能力,增强了理解性,解决了深度学习解释性差和理解性差的问题。该方法可适应不同的应用场景、实验设备环境,具有很好的鲁棒性。特征维度使用矩阵表示,该矩阵为实对称矩阵,具有维度低和计算快的特点,解决了深度学习高维度、特征多以及计算效率低等问题。特征矩阵空间表示除了能表示自身特征外(通过主对角线表示),还表示了该特征与相邻特征的空间关系(非主对角线表示),解决了空间信息缺失的问题。此外,本发明既能实现向量样本空间特征计算,又能完成矩阵样本空间特征计算,使用空间范数距离求解代替Euclid距离,可以很好的解决含噪数据对分类的影响。本发明方法既能保持较高的分辨率又能保持很好的计算性能,可以作为类似研究的参考。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面结合附图和实施例对本发明进一步说明。
图1为本发明遥感影像场景分类方法流程简图;
图2为本发明在SIRI-WHU数据集的混淆矩阵示意图;
图3为本发明在UC Merced Data数据集的混淆矩阵示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明的实施例的详细描述并非旨在限制要求包含的本发明的范围,而是仅仅表示本发明的选定实施例。
应注意到:相似的符号在下面附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
请参照图1,图1为本发明所提供的遥感影像场景分类方法流程简图。本实施例尤其适用于高分辨率遥感影像场景的分类,且本发明实施例在李群机器学习流形空间的开发环境中执行。
Step1,本实施案例通过在Google Earth下载UC Merced数据集,该数据集包含21个类别,每个类别包含100张图片,每张图片为256*256(单位:像素)大小的高分辨率遥感影像。通过在武汉大学国家重点实验室官网下载SIRI-WHU数据集,该数据集包含12个类别,每个类别包含200张图片,每张图片为200*200(单位:像素)大小的高分辨率遥感影像。进一步的,本发明将在这两个数据集下进行分类测试,使用matlab语言进行编程分别将两个数据集分成互斥的两个集合,其中取两个遥感数据集中任意70%的影像用于训练模型,剩下30%的影像作为测试集用来验证模型的准确率。
需要说明的是,本实施例中的图片数据具有以下优点:(1)数据量大、类别多,这对于李群机器学习而言是十分必要的。(2)样本影像的多样性,本实施例中采用的为标准数据集,涵盖多个国家和地区的不同场景,样本影像具有多样性,数据集中影像对于不同的气候、季节、角度、光照和清晰度都做了严格的筛选,从而使得每个类别影像的观测角度等有较大的差异。
此外,UC Merced数据集和SIRI-WHU数据集与现有的高分辨率遥感影像数据集的对比如下表所示,从表中可以发现,本实施例所选择的数据集综合考虑了影像的类别和类别的数量。这两个数据集对于相关模型和算法进行评估更加的客观,从而使得本发明在遥感影像场景分类领域得到更好的发展,具体如表1所示。
表1数据集详细信息表
Figure BDA0002354017540000051
Figure BDA0002354017540000061
Step2、将上述训练集和测试集分别转化为训练数据文件和测试数据文件;
Step3、本发明实施例构建数据样本到李群样本映射。
对每个样本做李群映射:xij=exp(Mij),其中,Mij表示训练数据文件中第i类别的第j个李群样本,xij表示李群训练样本集中第i个分类中第j个样本。
Step4、本发明实施例每个类别李代数样本的内均值
Figure BDA0002354017540000062
每个类别李群样本的内均值
Figure BDA0002354017540000063
Figure BDA0002354017540000064
其中xij表示李群训练样本集第i个分类中第j个样本,c代表总的类别数,ni表示第i个分类中训练样本的个数,得到的内均值
Figure BDA0002354017540000065
为矩阵,即
Figure BDA0002354017540000066
其中其中,其中tkl表示第k行第l列的值,k和l的取值为分别为1-m和1-n,
Figure BDA0002354017540000067
为m×n矩阵。
Step5、随机从测试数据文件中取一个样本Ttest,进行投影并计算其李群样本的内均值
Figure BDA0002354017540000068
Step6、计算
Figure BDA0002354017540000069
与所有已知类别李群样本的内均值
Figure BDA00023540175400000610
之间的距离
Figure BDA00023540175400000611
计算
Figure BDA00023540175400000612
与所有已知类别李群样本的内均值
Figure BDA00023540175400000613
之间的距离
Figure BDA00023540175400000614
Figure BDA00023540175400000615
其中
Figure BDA00023540175400000616
Step7、根据上述的距离进行升序排列,取前K个最小的距离对应的所属类别样本,本发明中取K=5。
Step8、取所属类别样本中所属类别样本个数最多的类别,赋予测试样本。
表2传统KNN与本发明方法分类准确率对比表
Figure BDA00023540175400000617
表2为本发明方法与传统KNN算法的对比,从表中可以看出,本发明方法具有明显的优势。请结合图2~图3,图2为本发明实施例在SIRI-WHU数据集的混淆矩阵图,图3为本发明实施例在UC Merced数据集的混淆矩阵图。混淆矩阵是分析不同类别之间所有错误和混淆的信息表,它是通过计算每种类型正确和错误的测试样本分类并将结果累积到表中而创建的。在这里,我们选择SIRI-WHU数据集和UC Merced数据集,每个类具有相同数量的影像,因此总体精度的值等于平均精度的值。横坐标为实际类别,纵坐标为预测的类别,主对角线的值(颜色深度越大)越大准确率就越大。从图2、图3可以很明显看出,每一个类别的准确率,以及被分错的类别所占比例,该发明方法具有较高的准确率,平均准确率达97%。
本发明还提供一种基于矩阵群的KNN的场景分类***,包括如下模块:
遥感影像数据集读取及处理模块,用于获取待处理的遥感影像数据集,将所需处理的遥感数据集分为训练集和测试集;
数据转化模块,用于将上述训练集和测试集分别转化为训练数据文件和测试数据文件;
数据集投影模块,用于将所述训练数据文件中样本投影到李群流形空间,得到李群样本集;
样本李群内均值模块,用于计算各个类别的李群样本的内均值
Figure BDA0002354017540000071
测试样本内均值计算模块,用于随机从测试数据文件中取一个样本Ttest,将Ttest投影到李群流形空间并计算其李群样本的内均值
Figure BDA0002354017540000072
距离计算模块,用于计算
Figure BDA0002354017540000073
与所有已知类别李群样本的内均值
Figure BDA0002354017540000074
之间的距离
Figure BDA0002354017540000075
排序查找模块,根据上述的距离进行升序排列,取前K个最小的距离对应的所属类别样本;
判断模块,取所属类别样本中所属类别样本个数最多的类别,赋予测试样本。
进一步的,所述数据集投影模块具体包括:
对每个样本做李群映射:xij=exp(Mij),其中,Mij表示训练数据文件中第i类别的第j个李群样本,xij表示李群训练样本集中第i个分类中第j个样本。
进一步的,所述样本李群内均值模块具体包括:
每个类别李群样本的内均值
Figure BDA0002354017540000081
Figure BDA0002354017540000082
其中xij表示李群训练样本集第i个分类中第j个样本,ni表示第i个分类中训练样本的个数,c代表总的类别数,得到的内均值
Figure BDA0002354017540000083
为矩阵,即
Figure BDA0002354017540000084
其中,其中tkl表示第k行第l列的值,k和l的取值为分别为1-m和1-n,
Figure BDA0002354017540000085
为m×n矩阵。
进一步的,所述距离计算模块具体包括:
计算
Figure BDA0002354017540000086
与所有已知类别李群样本的内均值
Figure BDA0002354017540000087
之间的距离
Figure BDA0002354017540000088
Figure BDA0002354017540000089
其中
Figure BDA00023540175400000810
各模块的具体实现方式各步骤相应,本发明不予撰述。
以上所述仅为本发明的部分实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种改变。凡在本发明的精神和原则之内,所做的任何改变、等价替换或改进等,均应包含在本发明的包含范围之内。

Claims (8)

1.一种基于矩阵群的KNN的场景分类方法,其特征在于,包括如下步骤:
Step1、获取待处理的遥感影像数据集,将所需处理的遥感数据集分为训练集和测试集;
Step2、将上述训练集和测试集分别转化为训练数据文件和测试数据文件;
Step3、将所述训练数据文件中影像集投影到李群流形空间,得到李群样本集;
Step4、计算各个类别的李群样本的内均值
Figure FDA0002354017530000011
Step5、随机从测试数据文件中取一个样本Ttest,将Ttest投影到李群流形空间并计算其李群样本的内均值
Figure FDA0002354017530000012
Step6、计算
Figure FDA0002354017530000013
与所有已知类别李群样本的内均值
Figure FDA0002354017530000014
之间的距离
Figure FDA0002354017530000015
Step7、根据上述的距离进行升序排列,取前K个最小的距离对应的所属类别样本;
Step8、取所属类别样本中所属类别样本个数最多的类别,赋予测试样本。
2.如权利要求1所述的一种基于矩阵群的KNN的场景分类方法,其特征在于:所述Step3具体包括:
对每个样本做李群映射:xij=exp(Mij),其中,Mij表示训练数据文件中第i类别的第j个李群样本,xij表示李群训练样本集中第i个分类中第j个样本。
3.如权利要求2所述的一种基于矩阵群的KNN的场景分类方法,其特征在于:所述Step4具体包括:
每个类别李群样本的内均值
Figure FDA0002354017530000016
Figure FDA0002354017530000017
其中xij表示李群训练样本集第i个分类中第j个样本,ni表示第i个分类中训练样本的个数,c代表总的类别数,得到的内均值
Figure FDA0002354017530000018
为矩阵,即
Figure FDA0002354017530000019
其中,其中tkl表示第k行第l列的值,k和l的取值为分别为1-m和1-n,
Figure FDA00023540175300000110
为m×n矩阵。
4.如权利要求3所述的一种基于矩阵群的KNN的场景分类方法,其特征在于:所述Step6具体包括:
计算
Figure FDA00023540175300000111
与所有已知类别李群样本的内均值
Figure FDA00023540175300000112
之间的距离
Figure FDA00023540175300000113
Figure FDA0002354017530000021
其中
Figure FDA0002354017530000022
5.一种基于矩阵群的KNN的场景分类***,其特征在于,包括如下模块:
遥感影像数据集读取及处理模块,用于获取待处理的遥感影像数据集,将所需处理的遥感数据集分为训练集和测试集;
数据转化模块,用于将上述训练集和测试集分别转化为训练数据文件和测试数据文件;
数据集投影模块,用于将所述训练数据文件中样本投影到李群流形空间,得到李群样本集;
样本李群内均值模块,用于计算各个类别的李群样本的内均值
Figure FDA0002354017530000023
测试样本内均值计算模块,用于随机从测试数据文件中取一个样本Ttest,将Ttest投影到李群流形空间并计算其李群样本的内均值
Figure FDA0002354017530000024
距离计算模块,用于计算
Figure FDA0002354017530000025
与所有已知类别李群样本的内均值
Figure FDA0002354017530000026
之间的距离
Figure FDA0002354017530000027
排序查找模块,根据上述的距离进行升序排列,取前K个最小的距离对应的所属类别样本;
判断模块,取所属类别样本中所属类别样本个数最多的类别,赋予测试样本。
6.如权利要求5所述的一种基于矩阵群的KNN的场景分类***,其特征在于:所述数据集投影模块具体包括:
对每个样本做李群映射:xij=exp(Mij),其中,Mij表示训练数据文件中第i类别的第j个李群样本,xij表示李群训练样本集中第i个分类中第j个样本。
7.如权利要求6所述的一种基于矩阵群的KNN的场景分类***,其特征在于:所述样本李群内均值模块具体包括:
每个类别李群样本的内均值
Figure FDA0002354017530000028
Figure FDA0002354017530000029
其中xij表示李群训练样本集第i个分类中第j个样本,ni表示第i个分类中训练样本的个数,c代表总的类别数,得到的内均值
Figure FDA00023540175300000210
为矩阵,即
Figure FDA00023540175300000211
其中,其中tkl表示第k行第l列的值,k和l的取值为分别为1-m和1-n,
Figure FDA00023540175300000212
为m×n矩阵。
8.如权利要求7所述的一种基于矩阵群的KNN的场景分类***,其特征在于:所述距离计算模块具体包括:
计算
Figure FDA0002354017530000031
与所有已知类别李群样本的内均值
Figure FDA0002354017530000032
之间的距离
Figure FDA0002354017530000033
Figure FDA0002354017530000034
其中
Figure FDA0002354017530000035
CN202010002529.2A 2020-01-02 2020-01-02 一种基于矩阵群的knn的场景分类方法和*** Pending CN111191618A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010002529.2A CN111191618A (zh) 2020-01-02 2020-01-02 一种基于矩阵群的knn的场景分类方法和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010002529.2A CN111191618A (zh) 2020-01-02 2020-01-02 一种基于矩阵群的knn的场景分类方法和***

Publications (1)

Publication Number Publication Date
CN111191618A true CN111191618A (zh) 2020-05-22

Family

ID=70709791

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010002529.2A Pending CN111191618A (zh) 2020-01-02 2020-01-02 一种基于矩阵群的knn的场景分类方法和***

Country Status (1)

Country Link
CN (1) CN111191618A (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722713A (zh) * 2012-02-22 2012-10-10 苏州大学 一种基于李群结构数据的手写体数字识别方法及***
CN108389171A (zh) * 2018-03-08 2018-08-10 深圳市唯特视科技有限公司 一种基于联合估计模糊变量的光场去模糊和深度估计方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722713A (zh) * 2012-02-22 2012-10-10 苏州大学 一种基于李群结构数据的手写体数字识别方法及***
CN108389171A (zh) * 2018-03-08 2018-08-10 深圳市唯特视科技有限公司 一种基于联合估计模糊变量的光场去模糊和深度估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
杨梦铎 等: "李群机器学习十年研究进展", 《计算机学报》 *
王邦军 等: "基于改进协方差特征的李-KNN分类算法", 《模式识别与人工智能》 *

Similar Documents

Publication Publication Date Title
CN109639739B (zh) 一种基于自动编码器网络的异常流量检测方法
CN109949317B (zh) 基于逐步对抗学习的半监督图像实例分割方法
CN108108657A (zh) 一种基于多任务深度学习的修正局部敏感哈希车辆检索方法
CN113657450B (zh) 基于注意机制的陆战场图像-文本跨模态检索方法及其***
CN111027576B (zh) 基于协同显著性生成式对抗网络的协同显著性检测方法
CN112347970B (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN114972213A (zh) 一种基于机器视觉的两阶段主板图像缺陷检测及定位方法
CN109871454B (zh) 一种鲁棒离散监督跨媒体哈希检索方法
CN112580480B (zh) 一种高光谱遥感影像分类方法及装置
CN113255793A (zh) 一种基于对比学习的细粒度舰船识别方法
CN113705641A (zh) 基于富上下文网络的高光谱图像分类方法
CN114255403A (zh) 基于深度学习的光学遥感图像数据处理方法及***
CN111027636A (zh) 基于多标签学习的无监督特征选择方法及***
CN111639697B (zh) 基于非重复采样与原型网络的高光谱图像分类方法
CN115311502A (zh) 基于多尺度双流架构的遥感图像小样本场景分类方法
CN117237733A (zh) 一种结合自监督和弱监督学习的乳腺癌全切片图像分类方法
CN116342894A (zh) 基于改进YOLOv5的GIS红外特征识别***及方法
CN114399674A (zh) 一种基于高光谱图像技术的贝类毒素无损快速检测方法及***
CN116630700A (zh) 基于引入通道-空间注意力机制的遥感图像分类方法
Reyes et al. Enhanced rotational invariant convolutional neural network for supernovae detection
CN105787045B (zh) 一种用于可视媒体语义索引的精度增强方法
CN117036781A (zh) 一种基于树综合多样性深度森林的图像分类方法
CN116704241A (zh) 一种全通道3d卷积神经网络高光谱遥感图像分类方法
CN114998725B (zh) 基于自适应空谱注意力核生成网络的高光谱图像分类方法
CN111191618A (zh) 一种基于矩阵群的knn的场景分类方法和***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20200522

RJ01 Rejection of invention patent application after publication