CN116486238B - 联合点集表示与图分类的目标细粒度识别方法 - Google Patents
联合点集表示与图分类的目标细粒度识别方法 Download PDFInfo
- Publication number
- CN116486238B CN116486238B CN202310466470.6A CN202310466470A CN116486238B CN 116486238 B CN116486238 B CN 116486238B CN 202310466470 A CN202310466470 A CN 202310466470A CN 116486238 B CN116486238 B CN 116486238B
- Authority
- CN
- China
- Prior art keywords
- target
- graph
- point set
- nodes
- features
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 230000004931 aggregating effect Effects 0.000 claims abstract description 9
- 238000003062 neural network model Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 claims description 2
- 230000004807 localization Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000000547 structure data Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/86—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using syntactic or structural representations of the image or video pattern, e.g. symbolic string recognition; using graph matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种联合点集表示与图分类的目标细粒度识别方法,包括:构建并训练基于Oriented RepPoints的目标点集表示模型,检测生成代表目标的点集;将所述点集中的点作为节点,根据空间关系构建图结构;截取每个点周围的矩形区域,并将该矩形区域对应的卷积特征作为图节点的特征;构建图卷积神经网络模型,对所述图节点的特征进行聚合与更新,并整合所有图节点的特征进行图分类。通过实施本发明的上述方案,通过综合利用目标的部件特征以及部件之间的关系,提高目标细粒度识别的精度。
Description
技术领域
本发明涉及遥感图像目标细粒度识别技术领域,尤其涉及一种联合点集表示与图分类的目标细粒度识别方法。
背景技术
舰船作为海上交通的主要载体,在人类从事的海洋活动中发挥着重要作用。在民用领域,舰船目标监视可应用于渔业管理、海上交通安全等,在军事领域则可应用于情报侦察、海战场态势监控等任务中。
深度学习技术在目标检测和识别任务中取得了出色成绩,已成为舰船目标细粒度识别领域的主流方法。一类方法是针对舰船的检测和细粒度识别分别构建独立的卷积神网络模型,未能将主干网络的特征共享,降低了模型训练和在线检测的效率。另一类方法是将舰船的检测和细粒度识别任务融合,通过共享主干网络特征实现效率的提升,例如中国专利CN115272856A公开的一种舰船目标细粒度识别方法及设备,通过构建关键点粗检测网络提取大致的关键点位置信息,并在此基础上利用基于关键点注意力的分类子网络对舰船目标进行细粒度分类,但是,该方法需要同时标注遥感图像中的舰船目标的边界框和关键点,标注难度较大。
此外,上述两类方法均缺乏对舰船目标的几何信息、部件特征及部件关系的关注,而这些信息对于舰船目标的细粒度识别都至关重要。
发明内容
为解决上述现有技术存在的技术问题,本发明的目的在于提供一种联合点集表示与图分类的目标细粒度识别方法,通过综合利用目标的部件特征以及部件之间的关系,提高目标细粒度识别的精度。
为实现上述发明目的,本发明的技术方案是:
本发明实施例提供一种联合点集表示与图分类的目标细粒度识别方法,包括:
S110、构建并训练基于Oriented RepPoints的目标点集表示模型,检测生成代表目标的点集;
S120、将所述点集中的点作为节点,根据空间关系构建图结构;
S130、截取每个点周围的矩形区域,并将该矩形区域对应的卷积特征作为图节点的特征;
S140、构建图卷积神经网络模型,对所述图节点的特征进行聚合与更新,并整合所有图节点的特征进行图分类。
根据本发明实施例的一个方面,所述S110中构建的基于Oriented RepPoints的目标点集表示模型包括:
主干网络,用于提取目标的多尺度特征;
定位与分类头,用于在多尺度特征图上生成代表目标的点集,并实现目标的定位与分类。
根据本发明实施例的一个方面,所述主干网络采用Resnet50-FPN。
根据本发明实施例的一个方面,所述定位与分类头包括定位分支和分类分支,
所述定位分支包含两个阶段,第一阶段用于生成候选点集,第二阶段用于精细化候选点集并生成最终的目标定位;
所述分类分支用于对第一阶段生成的候选点集所表示的目标进行分类。
根据本发明实施例的一个方面,所述S110中,基于Oriented RepPoints的目标点集表示模型的训练数据为包含目标的遥感图像,所述目标由最小外接矩形框标注,标注形式为最小外接矩形框四个角点的坐标值;
通过最小化所述第一阶段和第二阶段的定位损失和分类损失对所述基于Oriented RepPoints的目标点集表示模型进行训练优化。
根据本发明实施例的一个方面,所述S110中的检测生成代表目标的点集,包括:
将遥感图像输入训练好的基于Oriented RepPoints的目标点集表示模型进行检测,保存模型输出的所有目标的点集和对应的边界框,同时保存所述分类分支输出的特征。
根据本发明实施例的一个方面,所述S120包括:计算以点为中心,边长为1.5×边界框最小边的矩形与边界框的交集,并将交集作为该点对应的目标局部区域,获得点集中各点对应的目标局部区域,若目标局部区域间存在交集,则建立两节点之间的边。
根据本发明实施例的一个方面,所述S130包括:
将点集中各点对应的目标局部区域的最小外接矩形边界框映射到所述分类分支获得的特征图上,提取该目标局部区域对应的特征;
通过旋转目标局部区域的特征对齐生成固定尺寸的特征,并拉伸为一维特征向量作为图节点的特征。
根据本发明实施例的一个方面,所述图卷积神经网络模型包含三个图卷积层,每个图卷积层聚合一阶领域内图节点的特征。
根据本发明实施例的一个方面,所述S140中对所述图节点的特征进行聚合与更新,并整合所有图节点的特征进行图分类,包括:
利用线性变换将图节点的特征转化为更高层次的特征;
根据变换后的特征计算图上的卷积,对图节点的特征进行聚合与更新;
图卷积层之后,对于每个图节点,将每一次图卷积层之后的特征进行拼接,然后对整张图里所有图节点的特征进行全局最大值池化,得到整图的特征向量;
将整图的特征向量传给由多个全连接层组成的多层感知机以获得图分类结果,实现目标的细粒度识别。
与现有技术相比,本发明具有以下有益效果:
根据本发明实施例的方案,利用代表性点集提取舰船目标的部件特征和几何特征,通过综合利用舰船目标的形状特征和部件特征,构建表示舰船目标关键点的图结构数据来表达部件之间的关系,并通过图卷积神经网络模型和多特征融合提高特征表示能力,实现图分类,从而提高舰船目标细粒度识别的精度。
附图说明
为了更清楚地说明本发明实施方式或现有技术中的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性表示本发明实施例公开的一种联合点集表示与图分类的目标细粒度识别方法的流程图;
图2示意性表示本发明实施例公开的基于Oriented RepPoints的目标点集表示模型生成目标点集表示的过程;
图3示意性表示本发明实施例公开的图节点的特征的形成过程。
具体实施方式
此说明书实施方式的描述应与相应的附图相结合,附图应作为完整的说明书的一部分。在附图中,实施例的形状或是厚度可扩大,并以简化或是方便标示。再者,附图中各结构的部分将以分别描述进行说明,值得注意的是,图中未示出或未通过文字进行说明的元件,为所属技术领域中的普通技术人员所知的形式。
此处实施例的描述,有关方向和方位的任何参考,均仅是为了便于描述,而不能理解为对本发明保护范围的任何限制。以下对于优选实施方式的说明会涉及到特征的组合,这些特征可能独立存在或者组合存在,本发明并不特别地限定于优选的实施方式。本发明的范围由权利要求书所界定。
如图1所示,本发明实施例公开一种联合点集表示与图分类的目标细粒度识别方法,该方法适用于舰船、飞机以及其他类型目标的细粒度识别,本实施例中以舰船目标为例对该方法进行介绍和说明。上述联合点集表示与图分类的目标细粒度识别方法,包括以下步骤:
S110、构建并训练基于Oriented RepPoints的目标点集表示模型,检测生成代表目标的点集;
S120、将所述点集中的点作为节点,根据空间关系构建图结构;
S130、截取每个点周围的矩形区域,并将该矩形区域对应的卷积特征作为图节点的特征;
S140、构建图卷积神经网络模型,对所述图节点的特征进行聚合与更新,并整合所有图节点的特征进行图分类。
本实施例中,所述S110中构建的基于Oriented RepPoints的目标点集表示模型由主干网络和定位与分类头组成。其中,主干网络用于提取目标的多尺度特征;定位与分类头用于在多尺度特征图上生成代表目标的点集,并实现目标的定位与分类。通过采用Oriented RepPoints模型进行有效的自适应点学习,利用自适应点集对目标进行更精细的表示,可以捕捉目标物体的关键语义特征和几何结构。根据本发明的一种实施例,主干网络采用Resnet50-FPN。
具体的,所述定位与分类头由两个分支构成,主要包括定位分支和分类分支。所述定位分支包含两个阶段,第一阶段用于生成候选点集,第二阶段用于精细化候选点集并生成最终的目标定位。所述分类分支用于对第一阶段生成的候选点集所表示的目标进行分类。
示例性的,如图2所示,定位分支首先对主干网络提取的多尺度特征图进行三次3×3×256的卷积,生成特征图Fl。对于该特征图Fl,第一阶段通过一个3×3×256卷积和一个1×1×18卷积学习卷积核为3×3的可变形卷积的偏移量OF1。OF1的通道数为18,代表3×3可变形卷积的9个采样点的x方向和y方向的偏移,OF1中的每个点代表一个点集,每个点在OF1中的位置加上该位置处的偏移量就是点集中各点的坐标,通过定向转换函数便可由点集生成有方向的矩形框。第二阶段在特征图Fl上进行3×3×256的可变形卷积和1×1×18卷积,生成精细化的偏移量OF2并得到目标最终的点集表示和定位。
分类分支首先对主干网络提取的多尺度特征图进行三次3×3×256的卷积,生成特征图Fc,然后在特征图Fc上进行3×3×256的可变形卷积,可变形卷积的偏移量与定位分支中第二阶段的可变形卷积的偏移量OF2共享,最后通过1×1×2卷积实现目标与背景的分类。
本实施例中,所述S110中,基于Oriented RepPoints的目标点集表示模型的训练数据为包含目标的遥感图像,所述目标由最小外接矩形框标注,标注形式为最小外接矩形框四个角点的坐标值。通过最小化所述第一阶段和第二阶段的定位损失和分类损失完成所述基于Oriented RepPoints的目标点集表示模型的训练优化。
本实施例中,所述S110中的检测生成代表目标的点集的具体实施过程,包括:将遥感图像输入训练好的基于Oriented RepPoints的目标点集表示模型进行检测,保存模型输出的所有目标的点集R和对应的边界框B,同时保存所述分类分支输出的特征图Fc。
本实施例中,所述S120中将所述点集中的点作为节点,根据空间关系构建图结构的具体实施过程,包括:计算以点为中心,边长为1.5×边界框最小边的矩形T与边界框B的交集C,并将交集C作为该点对应的目标局部区域,获得点集中各点对应的目标局部区域,若目标局部区域间存在交集,则建立两节点之间的边。
本实施例中,如图3所示,所述S130中截取每个点周围的矩形区域,并将该矩形区域对应的卷积特征作为图节点的特征的具体实施过程,包括:将点集中各点对应的目标局部区域的最小外接矩形边界框映射到所述分类分支获得的特征图Fc上,提取该目标局部区域对应的特征。然后通过旋转目标局部区域的特征对齐生成固定尺寸的特征,并拉伸为一维特征向量作为图节点的特征。
本实施例中,所述S140中构建的所述图卷积神经网络模型包含三个图卷积层,每个图卷积层聚合一阶领域内图节点的特征。
本实施例中,所述S140中利用图卷积神经网络模型对所述图节点的特征进行聚合与更新,并整合所有图节点的特征进行图分类的具体实施过程,包括以下步骤:
利用线性变换Wh将图节点的特征h转化为更高层次的特征,其中,变换矩阵W∈Rd ′×d是一个可学习的共享参数矩阵;
对变换后的特征根据以下公式计算图上的卷积,对图节点i的特征进行聚合与更新:
其中,是节点i更新后的特征,ReLU(·)=max(0,·)为非线性激活函数,Ni表示节点i的邻域,j表示邻域Ni内的节点,αij为邻域内节点的数量即节点的度。
图卷积层之后,对于每个图节点,将每一次图卷积层之后的特征进行拼接,然后对一张图里所有图节点的特征进行全局最大值池化,读出整张图G的特征表示,即可以如下特征向量进行表示:
其中,hG,k表示整图G的特征向量hG的第k个值,hig,k′表示节点i所对应的特征向量hig′的第k个值;
对于特征向量hG,k,将该特征向量hG,k传给由多个全连接层组成的多层感知机来获得图分类结果,此图分类结果,即图的类别对应舰船目标的细粒度类别,从而实现目标的细粒度识别。
本实施例的以上方案,利用代表性点集提取舰船目标的部件特征和几何特征,通过综合利用舰船目标的形状特征和部件特征,构建表示舰船目标关键点的图结构数据来表达部件之间的关系,并通过图卷积神经网络模型和多特征融合提高特征表示能力,实现图分类,从而提高舰船目标细粒度识别的精度。
对于本发明的方法所涉及的上述各个步骤的序号并不意味着方法执行顺序的先后,各步骤的执行顺序应以其功能和内在逻辑确定,而不应对本发明的实施方式的实施过程构成任何限定。
以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (7)
1.一种联合点集表示与图分类的目标细粒度识别方法,包括:
S110、构建并训练基于Oriented RepPoints的目标点集表示模型,检测生成代表目标的点集;
S120、将所述点集中的点作为节点,根据空间关系构建图结构;
所述S120包括:计算以点为中心,边长为1.5×目标边界框最小边的矩形与目标边界框的交集,并将交集作为该点对应的目标局部区域,获得点集中各点对应的目标局部区域,若目标局部区域间存在交集,则建立两节点之间的边;
S130、截取每个点周围的矩形区域,并将该矩形区域对应的卷积特征作为图节点的特征;
所述S130包括:
将点集中各点对应的目标局部区域的最小外接矩形边界框映射到所述分类分支获得的特征图上,提取该目标局部区域对应的特征;
通过旋转目标局部区域的特征对齐生成固定尺寸的特征,并拉伸为一维特征向量作为图节点的特征;
S140、构建图卷积神经网络模型,对所述图节点的特征进行聚合与更新,并整合所有图节点的特征进行图分类;
所述S140中对所述图节点的特征进行聚合与更新,并整合所有图节点的特征进行图分类,包括:
利用线性变换将图节点的特征转化为更高层次的特征;
根据变换后的特征计算图上的卷积,对图节点的特征进行聚合与更新;
图卷积层之后,对于每个图节点,将每一次图卷积层之后的特征进行拼接,然后对整张图里所有图节点的特征进行全局最大值池化,得到整图的特征向量;
将整图的特征向量传给由多个全连接层组成的多层感知机以获得图分类结果,实现目标的细粒度识别。
2.根据权利要求1所述的方法,其特征在于,所述S110中构建的基于OrientedRepPoints的目标点集表示模型包括:
主干网络,用于提取目标的多尺度特征;
定位与分类头,用于在多尺度特征图上生成代表目标的点集,并实现目标的定位与分类。
3.根据权利要求2所述的方法,其特征在于,所述主干网络采用Resnet50-FPN。
4.根据权利要求2所述的方法,其特征在于,所述定位与分类头包括定位分支和分类分支,
所述定位分支包含两个阶段,第一阶段用于生成候选点集,第二阶段用于精细化候选点集并生成最终的目标定位;
所述分类分支用于对第一阶段生成的候选点集所表示的目标进行分类。
5.根据权利要求4所述的方法,其特征在于,所述S110中,基于Oriented RepPoints的目标点集表示模型的训练数据为包含目标的遥感图像,所述目标由最小外接矩形框标注,标注形式为最小外接矩形框四个角点的坐标值;
通过最小化所述第一阶段和第二阶段的定位损失和分类损失对所述基于OrientedRepPoints的目标点集表示模型进行训练优化。
6.根据权利要求5所述的方法,其特征在于,所述S110中的检测生成代表目标的点集,包括:
将遥感图像输入训练好的基于Oriented RepPoints的目标点集表示模型进行检测,保存模型输出的所有目标的点集和对应的边界框,同时保存所述分类分支输出的特征。
7.根据权利要求6所述的方法,其特征在于,所述图卷积神经网络模型包含三个图卷积层,每个图卷积层聚合一阶领域内图节点的特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310466470.6A CN116486238B (zh) | 2023-04-26 | 2023-04-26 | 联合点集表示与图分类的目标细粒度识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310466470.6A CN116486238B (zh) | 2023-04-26 | 2023-04-26 | 联合点集表示与图分类的目标细粒度识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116486238A CN116486238A (zh) | 2023-07-25 |
CN116486238B true CN116486238B (zh) | 2023-09-15 |
Family
ID=87213485
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310466470.6A Active CN116486238B (zh) | 2023-04-26 | 2023-04-26 | 联合点集表示与图分类的目标细粒度识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116486238B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173422B (zh) * | 2023-08-07 | 2024-02-13 | 广东第二师范学院 | 基于图融合多尺度特征学习的细粒度图像识别方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222611A (zh) * | 2019-05-27 | 2019-09-10 | 中国科学院自动化研究所 | 基于图卷积网络的人体骨架行为识别方法、***、装置 |
CN110674869A (zh) * | 2019-09-23 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 分类处理、图卷积神经网络模型的训练方法和装置 |
CN110705425A (zh) * | 2019-09-25 | 2020-01-17 | 广州西思数字科技有限公司 | 一种基于图卷积网络的舌象多标签分类学习方法 |
CN113449802A (zh) * | 2021-07-09 | 2021-09-28 | 中国人民解放军国防科技大学 | 基于多粒度互信息最大化的图分类方法及装置 |
CN113723572A (zh) * | 2021-11-01 | 2021-11-30 | 中南大学 | 船只目标识别方法、计算机***及程序产品、存储介质 |
CN114399731A (zh) * | 2021-12-31 | 2022-04-26 | 中国科学院大学 | 一种单粗点监督下的目标定位方法 |
CN114821374A (zh) * | 2022-06-27 | 2022-07-29 | 中国电子科技集团公司第二十八研究所 | 一种知识与数据协同驱动的无人机航拍目标检测方法 |
CN114863299A (zh) * | 2022-04-28 | 2022-08-05 | 哈尔滨理工大学 | 一种航空图像目标精细识别*** |
WO2022178210A1 (en) * | 2021-02-19 | 2022-08-25 | Nnaisense, Sa | Clustered dynamic graph convolutional neural network (cnn) for biometric three-dimensional (3d) hand recognition |
CN115272856A (zh) * | 2022-07-28 | 2022-11-01 | 北京卫星信息工程研究所 | 舰船目标细粒度识别方法及设备 |
CN115908908A (zh) * | 2022-11-14 | 2023-04-04 | 北京卫星信息工程研究所 | 基于图注意力网络的遥感图像聚集型目标识别方法及装置 |
-
2023
- 2023-04-26 CN CN202310466470.6A patent/CN116486238B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110222611A (zh) * | 2019-05-27 | 2019-09-10 | 中国科学院自动化研究所 | 基于图卷积网络的人体骨架行为识别方法、***、装置 |
CN110674869A (zh) * | 2019-09-23 | 2020-01-10 | 腾讯科技(深圳)有限公司 | 分类处理、图卷积神经网络模型的训练方法和装置 |
CN110705425A (zh) * | 2019-09-25 | 2020-01-17 | 广州西思数字科技有限公司 | 一种基于图卷积网络的舌象多标签分类学习方法 |
WO2022178210A1 (en) * | 2021-02-19 | 2022-08-25 | Nnaisense, Sa | Clustered dynamic graph convolutional neural network (cnn) for biometric three-dimensional (3d) hand recognition |
CN113449802A (zh) * | 2021-07-09 | 2021-09-28 | 中国人民解放军国防科技大学 | 基于多粒度互信息最大化的图分类方法及装置 |
CN113723572A (zh) * | 2021-11-01 | 2021-11-30 | 中南大学 | 船只目标识别方法、计算机***及程序产品、存储介质 |
CN114399731A (zh) * | 2021-12-31 | 2022-04-26 | 中国科学院大学 | 一种单粗点监督下的目标定位方法 |
CN114863299A (zh) * | 2022-04-28 | 2022-08-05 | 哈尔滨理工大学 | 一种航空图像目标精细识别*** |
CN114821374A (zh) * | 2022-06-27 | 2022-07-29 | 中国电子科技集团公司第二十八研究所 | 一种知识与数据协同驱动的无人机航拍目标检测方法 |
CN115272856A (zh) * | 2022-07-28 | 2022-11-01 | 北京卫星信息工程研究所 | 舰船目标细粒度识别方法及设备 |
CN115908908A (zh) * | 2022-11-14 | 2023-04-04 | 北京卫星信息工程研究所 | 基于图注意力网络的遥感图像聚集型目标识别方法及装置 |
Non-Patent Citations (6)
Title |
---|
Affinity-Aware Relation Network for Oriented Object Detection in Aerial Images;Tingting Fang 等;《ACCV 2022》;369-386 * |
GRDN: GRAPH RELATION DECISION NETWORK FOR OBJECT DETECTION;Xiwei Yang 等;《ICMI 2022》;1-6 * |
Oriented RepPoints for Aerial Object Detection;Wentong Li 等;《arXiv》;1-10 * |
基于滑动图卷积神经网络的输电线路点云分类模型;吴晨曦 等;《电工电能新技术》;第41卷(第12期);28-34 * |
基于自适应关键点的破损旋转绝缘子检测方法;龙玉江 等;《计算机工程》;1-9 * |
改进无锚点的彩色遥感图像任意方向飞机目标检测算法;杜艳玲 等;《液晶与显示》;第38卷(第3期);409-417 * |
Also Published As
Publication number | Publication date |
---|---|
CN116486238A (zh) | 2023-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109271856B (zh) | 基于扩张残差卷积的光学遥感图像目标检测方法 | |
CN103679674B (zh) | 一种无人飞行器实时图像拼接方法及*** | |
Li et al. | Adaptive deep convolutional neural networks for scene-specific object detection | |
CN106910202B (zh) | 一种遥感图像地物的图像分割方法及*** | |
Zhang et al. | Survey on Deep Learning‐Based Marine Object Detection | |
Ajagbe et al. | Investigating the efficiency of deep learning models in bioinspired object detection | |
CN116486238B (zh) | 联合点集表示与图分类的目标细粒度识别方法 | |
Rostami et al. | Deep learning-based face detection and recognition on drones | |
CN112348758B (zh) | 一种光学遥感图像数据增强方法及目标识别方法 | |
CN111626120A (zh) | 工业环境下基于改进的yolo-6d算法的目标检测方法 | |
Ribeiro et al. | Underwater place recognition in unknown environments with triplet based acoustic image retrieval | |
CN115147745A (zh) | 一种基于城市无人机图像的小目标检测方法 | |
CN114359622A (zh) | 基于卷积神经网络-转换器混合架构的图像分类方法 | |
CN115331109A (zh) | 基于旋转等变卷积通道注意力增强和多尺度特征融合的遥感图像目标检测方法 | |
Pessanha Santos et al. | Two‐stage 3D model‐based UAV pose estimation: A comparison of methods for optimization | |
Kaur et al. | A systematic review of object detection from images using deep learning | |
CN112668421B (zh) | 一种基于注意力机制的无人机高光谱农作物快速分类方法 | |
Yu et al. | Obstacle detection with deep convolutional neural network | |
Chen et al. | Ship tracking for maritime traffic management via a data quality control supported framework | |
Ya et al. | Fusion object detection of satellite imagery with arbitrary-oriented region convolutional neural network | |
Zheng et al. | Multiscale fusion network for rural newly constructed building detection in unmanned aerial vehicle imagery | |
Liu et al. | Generating Pixel Enhancement for Road Extraction in High-Resolution Aerial Images | |
Rocha et al. | Beyond Land: A Review of Benchmarking Datasets, Algorithms, and Metrics for Visual-Based Ship Tracking | |
Pavlove et al. | Efficient Deep Learning Methods for Automated Visibility Estimation at Airports | |
Bupphawat et al. | Super-resolution land cover mapping based on deep learning and level set method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |