CN116403007B - 基于目标向量的遥感影像变化检测方法 - Google Patents

基于目标向量的遥感影像变化检测方法 Download PDF

Info

Publication number
CN116403007B
CN116403007B CN202310390010.XA CN202310390010A CN116403007B CN 116403007 B CN116403007 B CN 116403007B CN 202310390010 A CN202310390010 A CN 202310390010A CN 116403007 B CN116403007 B CN 116403007B
Authority
CN
China
Prior art keywords
target
remote sensing
vectors
similarity
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310390010.XA
Other languages
English (en)
Other versions
CN116403007A (zh
Inventor
刘世烁
冯鹏铭
贺广均
苗晶
金世超
陈千千
田路云
梁颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Satellite Information Engineering
Original Assignee
Beijing Institute of Satellite Information Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Satellite Information Engineering filed Critical Beijing Institute of Satellite Information Engineering
Priority to CN202310390010.XA priority Critical patent/CN116403007B/zh
Publication of CN116403007A publication Critical patent/CN116403007A/zh
Application granted granted Critical
Publication of CN116403007B publication Critical patent/CN116403007B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于目标向量的遥感影像变化检测方法,包括:使用向量对遥感序列影像进行样本标注;构建目标向量检测模型,将已标注的遥感序列影像输入所述目标向量检测模型进行训练;利用所述目标向量检测模型对同一区域不同时间的遥感影像中的所有目标进行检测,得到不同集合的目标向量;利用变化相似度算法计算不同集合中目标向量的相似度距离,获得目标的变化情况。通过实施本发明的上述方案,可以实现遥感影像中目标变化前后的高精度匹配和精细化的变化检测。

Description

基于目标向量的遥感影像变化检测方法
技术领域
本发明涉及深度学习技术领域,尤其涉及一种基于目标向量的遥感影像变化检测方法。
背景技术
获得同一区域不同时间的遥感影像前后舰船目标的变化对军用和民用都有着重要意义。在军事方面,变化监测可以及时获得所关注区域舰船目标的变化情况,自动化的进行战场动态感知,从而能够更迅速地依靠遥感信息的变化改变作战策略;在民用方面,对港口船只的监控、分配和管理有着很大帮助,可以增加港口管理的效率。但是,遥感影像由于不总是具有时间连续性,往往同一区域获得的多张遥感影像时间有一定的差别,对所关注的目标对比前后变化需要一定的算法,尤其对于舰船变化监测这种目标数量多、空间变化频繁、相似目标多的情况,更需要一种特别的算法保证其变化检测的精确度。
变化检测最早是依靠人力来进行,耗时耗力,后随着深度学习技术的出现,逐渐开始利用智能模型自动化实现变化检测,但是传统的深度学习变化检测方法忽略了目标前后变化的精准匹配。
发明内容
为解决上述现有技术中存在的技术问题,本发明的目的在于提供一种基于目标向量的遥感影像变化检测方法,实现遥感影像中舰船等目标变化前后的高精度匹配,完成精细化的变化检测。
为实现上述发明目的,本发明的技术方案是:
本发明实施例提供一种基于目标向量的遥感影像变化检测方法,包括:
使用向量对遥感序列影像进行样本标注;
构建目标向量检测模型,将已标注的遥感序列影像输入所述目标向量检测模型进行训练;
利用所述目标向量检测模型对同一区域不同时间的遥感影像中的所有目标进行检测,得到不同集合的目标向量;
利用变化相似度算法计算不同集合中目标向量的相似度距离,获得目标的变化情况。
根据本发明实施例的一个方面,所述使用向量对遥感序列影像进行样本标注,包括:
利用最小外接倾斜矩形框逐个标注出遥感序列影像样本中所有目标的目标信息;
将每个目标的目标信息进行单独融合,得到对应的目标向量。
根据本发明实施例的一个方面,所述目标信息包括:目标类别、目标最小外接倾斜矩形框的四个角点坐标和中心点坐标、目标宽度、目标长度以及包含该目标的遥感影像的拍摄时间。
根据本发明实施例的一个方面,所述目标向量检测模型由主干网络和两个分支网络构成,
所述主干网络由ResNet101构成卷积神经网络,对目标进行检测;
所述两个分支网络包括中心点回归分支网络和包围框回归分支网络,所述中心点回归分支网络用于预测检测目标的中心点位置,所述包围框回归分支网络用于预测检测目标的包围框和类别。
根据本发明实施例的一个方面,所述将已标注的遥感序列影像输入所述目标向量检测模型进行训练,包括:
对已标注的遥感序列影像进行切分预处理,保留包含完整目标的图像切片;
将整图坐标系变换为切片坐标系,所有包含完整目标的图像切片和对应改变的目标向量构成训练数据集;
将所述训练数据集输入所述目标向量检测模型进行训练,训练优化的标准为所述目标向量检测模型的两个分支网络的整体损失降到最低,此时获得训练的模型参数文件作为后续目标向量检测模型文件。
根据本发明实施例的一个方面,在得到不同集合的目标向量之后,对不同集合的目标向量的坐标使用统一的地理坐标系进行仿射变换,使所有目标向量处于同一个坐标系下。
根据本发明实施例的一个方面,所述利用变化相似度算法计算不同集合目标向量的相似度距离,包括:
所述不同集合包含集合A和集合B,集合A包含向量{a,b,c,d...},集合B包含向量{a’,b’,c’,d’...};
利用相似度距离公式计算每个目标在集合A和集合B中对应目标向量之间的变化相似度;
对变化相似度进行排序,保留变化相似度最小的目标向量组,并设置阈值;
若变化相似度大于阈值,则判定该目标在后续的遥感影像中消失,若时间后序的遥感影像中出现未被配对的向量,则判定出现新目标,其余根据变化相似度最小原则判定目标的变化位置。
与现有技术相比,本发明具有以下有益效果:
通过本发明实施例的方案,在数据标注时考虑到目标例如舰船目标等具有长度、宽度不变性,以及目标的移动受时间限制等特点,通过对能体现这些特点的目标信息进行标注,目标检测时能获取每个目标更多的特征信息,由充分的目标特征信息构成目标向量。从而在变化检测时能够通过目标向量对目标之间的相似度进行计算、排序和筛选,获得目标在不同时间序列前后的变化情况,最终实现前后目标的高精度的变化检测和高精度匹配。
与传统方法相比,本发明实施例的方案通过目标向量对同一空间不同时间序列的遥感图像中的目标变化进行检测,不仅能够大大提高变化检测结果的准确度,还可以有效得知每个目标的变换情况。
附图说明
为了更清楚地说明本发明实施方式或现有技术中的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1和图2示意性表示本发明实施例公开的一种基于目标向量的遥感影像变化检测方法的流程图;
图3示意性表示本发明实施例公开的目标向量检测模型的网络结构图。
具体实施方式
此说明书实施方式的描述应与相应的附图相结合,附图应作为完整的说明书的一部分。在附图中,实施例的形状或是厚度可扩大,并以简化或是方便标示。再者,附图中各结构的部分将以分别描述进行说明,值得注意的是,图中未示出或未通过文字进行说明的元件,为所属技术领域中的普通技术人员所知的形式。
此处实施例的描述,有关方向和方位的任何参考,均仅是为了便于描述,而不能理解为对本发明保护范围的任何限制。以下对于优选实施方式的说明会涉及到特征的组合,这些特征可能独立存在或者组合存在,本发明并不特别地限定于优选的实施方式。本发明的范围由权利要求书所界定。
如图1和图2所示,本发明实施例公开一种基于目标向量的遥感影像变化检测方法,其具体实现的主要步骤包括如下:
S110,使用向量对遥感序列影像进行样本标注;
S120,构建目标向量检测模型,将已标注的遥感序列影像输入目标向量检测模型进行训练;
S130,利用目标向量检测模型对同一区域不同时间的遥感影像中的所有目标进行检测,得到不同集合的目标向量;
S140,利用变化相似度算法计算不同集合中目标向量的相似度距离,获得目标的变化情况。
在一个示例性的实施例中,步骤S110中使用向量对遥感序列影像进行样本标注的具体实施过程,包括:
利用最小外接倾斜矩形框逐个标注出遥感序列影像样本中所有目标的目标信息。该目标信息包括:目标类别C、目标最小外接倾斜矩形框的四个角点坐标(X0,Y0,X1,Y1,X2,Y2,X3,Y3)和中心点坐标O、目标宽度W、目标长度L以及包含该目标的遥感影像的拍摄时间T。当目标为舰船时,在其他实施例中还需标注出舰船的船头中心位置P、舰船的船尾中心位置S和运动方向D等。
将每个目标的目标信息进行单独融合,得到对应的目标向量。例如,每个目标都用唯一的目标向量[C,(X0,Y0,X1,Y1,X2,Y2,X3,Y3),O,W,L,T]来表征。
如图3所示,在一个示例性的实施例中,步骤S120中目标向量检测模型由主干网络和两个分支网络构成。其中,主干网络由ResNet101构成卷积神经网络,对目标进行检测。两个分支网络包括中心点回归分支网络和包围框回归分支网络,所述中心点回归分支网络用于预测检测目标的中心点位置,所述包围框回归分支网络用于预测检测目标的包围框和类别。
对于中心点回归分支网络,中心点O为正样本,其他点为负样本,但由于中心点偏差也属于正常范围,因此对中心点高斯分布范围内的点损失做一定的衰减,使用以下损失函数:
其中,p表示预测值,N表示目标的数量,i表示目标序号,α和β是超参数,这里选择α=2,β=4。
在包围框回归分支网络中,包围框由目标向量中的目标类型、目标中心点位置、目标最小外接倾斜矩形框的四个角点位置以及目标的长和宽定义,包围框的参数定义为b=[C,O,(X0,Y0,X1,Y1,X2,Y2,X3,Y3),W,L],使用以下损失函数:
其中,bk表示包围框实际值,b’k表示包围框预测值,N表示目标的数量,SmoothL1的表达式为:
在一个示例性的实施例中,将已标注的遥感序列影像输入所述目标向量检测模型进行训练的具体实施过程,包括:
对已标注的遥感序列影像进行切分预处理,保留包含完整目标的图像切片。其中,切分的大小和切分的步长根据检测的目标大小决定,例如舰船等。
将整图坐标系变换为切片坐标系,目标向量也随之改变,将所有包含完整目标的图像切片和对应改变的目标向量构成训练数据集。
将训练数据集输入目标向量检测模型进行训练,训练优化的标准为目标向量检测模型的两个分支网络(中心点回归分支网络和包围框回归分支网络)的整体损失降到最低,此时获得训练的模型参数文件作为后续目标向量检测模型文件。
在一个示例性的实施例中,步骤S130中利用目标向量检测模型对同一区域不同时间的遥感影像中的所有目标进行检测,得到不同集合的目标向量。也就是说,利用目标向量检测模型对同一区域的所有目标在不同时间的遥感影像中的前后变化进行检测。例如,对两张具有前后不同时间的遥感图像(例如图像A和图像B)中的舰船目标进行检测,检测结果都使用目标向量进行表征,目标向量为[C,(X0,Y0,X1,Y1,X2,Y2,X3,Y3),O,W,L,T],其中,C表示舰船目标的类别,舰船最小外接矩形框的四个角点坐标为(X0,Y0,X1,Y1,X2,Y2,X3,Y3),最小外接矩形框的中心点坐标为O,舰船宽度为W,舰船长度为L,舰船图像拍摄时间为T。将时间在前的前序遥感图像A中所有目标的目标向量放置于集合A中,将时间在后的后序遥感图像B中所有目标的目标向量放置于集合B中。
在步骤S130之后,对不同集合的目标向量的坐标使用统一的地理坐标系进行仿射变换,使所有目标向量处于同一个坐标系下。具体利用仿射变换的以下公式计算变换后的坐标:
XGeo=GeoTransform[0]+GeoTransform[1]*X+Y*GeoTransform[2]
YGeo=GeoTransform[3]+GeoTransform[4]*X+Y*GeoTransform[5]
其中,GeoTansform[0~5]的六个维度分别为:图像左上角点相对于地理坐标的横坐标,水平分辨率,旋转参数,图像左上角点相对于地理坐标的纵坐标,旋转参数和竖直分辨率。
在一个示例性的实施例中,步骤S140中利用变化相似度算法计算不同集合目标向量的相似度距离的具体实施过程,包括:
构建变化相似度算法,对同一空间不同时间序列的不同集合中每个目标对应的目标向量计算其相似度,这主要是对目标向量的每个维度进行不同权重的叠加后计算向量之间的距离,再对比其空间距离。不同集合(这些集合即为目标向量的集合)包含集合A和集合B,(在其他实施方式中还可以包含其他时间序列的遥感图像所对应的其他集合),集合A包含向量{a,b,c,d...},集合B包含向量{a’,b’,c’,d’...},例如,其中的向量a可以是[C,(X0,Y0,X1,Y1,X2,Y2,X3,Y3),O,W,L,T],向量a’可以是[C’,(X’0,Y’0,X’1,Y’1,X’2,Y’2,X’3,Y’3),O’,W’,L’,T’];
利用以下相似度距离公式计算每个目标在集合A和集合B中对应目标向量之间的变化相似度,
其中,k为拍摄误差系数,k=2;m为距离移动系数,m=0.1;目标向量的相似度D越小说明两个目标越接近。可以根据这里得到的由遥感图像A到遥感图像B中每个目标之间的相似度距离获得目标在不同时间前后的变化情况。
对变化相似度进行排序,保留变化相似度最小的目标向量组,并设置阈值;
若变化相似度大于阈值,则判定该目标在后续的遥感影像中消失,若位于时间后序的遥感影像中出现未被配对的向量,则判定出现新目标,其余根据变化相似度最小原则判定目标的变化位置,例如目标由遥感图像A变化到遥感图像B中的位置。
通过本发明实施例的上述方案,在数据标注时考虑到目标例如舰船目标等具有长度、宽度不变性,以及目标的移动受时间限制等特点,通过对能体现这些特点的目标信息进行标注,目标检测时能获取每个目标更多的特征信息,由充分的目标特征信息构成目标向量。从而在变化检测时能够通过目标向量对目标之间的相似度进行计算、排序和筛选,获得目标在不同时间序列前后的变化情况,最终实现前后目标的高精度的变化检测和高精度匹配。
对于本发明的方法所涉及的上述各个步骤的序号并不意味着方法执行顺序的先后,各步骤的执行顺序应以其功能和内在逻辑确定,而不应对本发明的实施方式的实施过程构成任何限定。
以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (6)

1.一种基于目标向量的遥感影像变化检测方法,包括:
使用向量对遥感序列影像进行样本标注;
构建目标向量检测模型,将已标注的遥感序列影像输入所述目标向量检测模型进行训练;
利用所述目标向量检测模型对同一区域不同时间的遥感影像中的所有目标进行检测,得到不同集合的目标向量;
利用变化相似度算法计算不同集合中目标向量的相似度距离,获得目标的变化情况;
其中,所述利用变化相似度算法计算不同集合目标向量的相似度距离,包括:
所述不同集合包含集合A和集合B,集合A包含向量{a,b,c,d...},集合B包含向量{a’,b’,c’,d’...};
利用相似度距离公式计算每个目标在集合A和集合B中对应目标向量之间的变化相似度,所述相似度距离公式为:
k为拍摄误差系数;m为距离移动系数;D为目标向量的相似度;C和分别表示舰船目标在集合A和集合B中的类别;T和/>分别表示舰船图像在集合A和集合B中的拍摄时间;W和/>分别表示舰船在集合A和集合B中的宽度;L和/>分别表示舰船在集合A和集合B中的长度;舰船最小外接矩形框的四个角点坐标在集合A和集合B中分别表示为(X 0 ,Y 0 ,X 1 ,Y 1 ,X 2 ,Y 2 ,X 3 ,Y 3 )和(X 0 />,Y 0 />,X 1 />,Y 1 />,X 2 />,Y 2 />,X 3 />,Y 3 />);
对变化相似度进行排序,保留变化相似度最小的目标向量组,并设置阈值;
若变化相似度大于阈值,则判定该目标在后续的遥感影像中消失,若时间后序的遥感影像中出现未被配对的向量,则判定出现新目标,其余根据变化相似度最小原则判定目标的变化位置。
2.根据权利要求1所述的方法,其特征在于,所述使用向量对遥感序列影像进行样本标注,包括:
利用最小外接倾斜矩形框逐个标注出遥感序列影像样本中所有目标的目标信息;
将每个目标的目标信息进行单独融合,得到对应的目标向量。
3.根据权利要求2所述的方法,其特征在于,所述目标信息包括:目标类别、目标最小外接倾斜矩形框的四个角点坐标和中心点坐标、目标宽度、目标长度以及包含该目标的遥感影像的拍摄时间。
4.根据权利要求1所述的方法,其特征在于,所述目标向量检测模型由主干网络和两个分支网络构成,
所述主干网络由ResNet101构成卷积神经网络,对目标进行检测;
所述两个分支网络包括中心点回归分支网络和包围框回归分支网络,所述中心点回归分支网络用于预测检测目标的中心点位置,所述包围框回归分支网络用于预测检测目标的包围框和类别。
5.根据权利要求1所述的方法,其特征在于,所述将已标注的遥感序列影像输入所述目标向量检测模型进行训练,包括:
对已标注的遥感序列影像进行切分预处理,保留包含完整目标的图像切片;
将整图坐标系变换为切片坐标系,所有包含完整目标的图像切片和对应改变的目标向量构成训练数据集;
将所述训练数据集输入所述目标向量检测模型进行训练,训练优化的标准为所述目标向量检测模型的两个分支网络的整体损失降到最低,此时获得训练的模型参数文件作为后续目标向量检测模型文件。
6.根据权利要求1所述的方法,其特征在于,在得到不同集合的目标向量之后,对不同集合的目标向量的坐标使用统一的地理坐标系进行仿射变换,使所有目标向量处于同一个坐标系下。
CN202310390010.XA 2023-04-12 2023-04-12 基于目标向量的遥感影像变化检测方法 Active CN116403007B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310390010.XA CN116403007B (zh) 2023-04-12 2023-04-12 基于目标向量的遥感影像变化检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310390010.XA CN116403007B (zh) 2023-04-12 2023-04-12 基于目标向量的遥感影像变化检测方法

Publications (2)

Publication Number Publication Date
CN116403007A CN116403007A (zh) 2023-07-07
CN116403007B true CN116403007B (zh) 2023-12-19

Family

ID=87017627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310390010.XA Active CN116403007B (zh) 2023-04-12 2023-04-12 基于目标向量的遥感影像变化检测方法

Country Status (1)

Country Link
CN (1) CN116403007B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117808807B (zh) * 2024-02-29 2024-05-14 中国人民解放军国防科技大学 光学卫星遥感图像实例级变化检测方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542551A (zh) * 2010-12-13 2012-07-04 北京师范大学 极地冰盖边缘浮冰自动变化检测技术
CN108573276A (zh) * 2018-03-12 2018-09-25 浙江大学 一种基于高分辨率遥感影像的变化检测方法
CN111652181A (zh) * 2020-06-17 2020-09-11 腾讯科技(深圳)有限公司 目标跟踪方法、装置及电子设备
CN111783523A (zh) * 2020-05-19 2020-10-16 中国人民解放军93114部队 一种遥感影像旋转目标检测方法
CN113658146A (zh) * 2021-08-20 2021-11-16 合肥合滨智能机器人有限公司 一种结节分级方法、装置、电子设备及存储介质
CN114022459A (zh) * 2021-11-09 2022-02-08 国网冀北电力有限公司 基于多时相卫星影像的超像素变化检测方法及***
CN114972191A (zh) * 2022-04-25 2022-08-30 航天宏图信息技术股份有限公司 一种耕地变化检测方法和装置
CN115410059A (zh) * 2022-11-01 2022-11-29 山东锋士信息技术有限公司 基于对比损失的遥感图像部分监督变化检测方法及设备
WO2022252799A1 (zh) * 2021-06-04 2022-12-08 成都数之联科技股份有限公司 模型训练方法及林地变化检测方法及***及装置及介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11798273B2 (en) * 2021-03-12 2023-10-24 Lawrence Livermore National Security, Llc Model-based image change quantification

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102542551A (zh) * 2010-12-13 2012-07-04 北京师范大学 极地冰盖边缘浮冰自动变化检测技术
CN108573276A (zh) * 2018-03-12 2018-09-25 浙江大学 一种基于高分辨率遥感影像的变化检测方法
CN111783523A (zh) * 2020-05-19 2020-10-16 中国人民解放军93114部队 一种遥感影像旋转目标检测方法
CN111652181A (zh) * 2020-06-17 2020-09-11 腾讯科技(深圳)有限公司 目标跟踪方法、装置及电子设备
WO2022252799A1 (zh) * 2021-06-04 2022-12-08 成都数之联科技股份有限公司 模型训练方法及林地变化检测方法及***及装置及介质
CN113658146A (zh) * 2021-08-20 2021-11-16 合肥合滨智能机器人有限公司 一种结节分级方法、装置、电子设备及存储介质
CN114022459A (zh) * 2021-11-09 2022-02-08 国网冀北电力有限公司 基于多时相卫星影像的超像素变化检测方法及***
CN114972191A (zh) * 2022-04-25 2022-08-30 航天宏图信息技术股份有限公司 一种耕地变化检测方法和装置
CN115410059A (zh) * 2022-11-01 2022-11-29 山东锋士信息技术有限公司 基于对比损失的遥感图像部分监督变化检测方法及设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
PSNet: change detection with prototype similarity;Peiqi Tang等;《 The Visual Computer 》;第3541-3550页 *
基于高分影像的城市新增建设用地变化检测研发;徐永杰;《中国优秀博硕士论文全文数据库(硕士)工程科技II辑》;摘要 *

Also Published As

Publication number Publication date
CN116403007A (zh) 2023-07-07

Similar Documents

Publication Publication Date Title
CN106127204B (zh) 一种全卷积神经网络的多方向水表读数区域检测算法
CN111222574B (zh) 基于多模型决策级融合的舰船与民船目标检测与分类方法
CN109740665A (zh) 基于专家知识约束的遮挡图像船只目标检测方法及***
CN109977945A (zh) 基于深度学习的定位方法和***
CN109613006A (zh) 一种基于端到端神经网络的织物疵点检测方法
CN111368769B (zh) 基于改进锚点框生成模型的船舶多目标检测方法
CN111882586B (zh) 一种面向剧场环境的多演员目标跟踪方法
CN109753949B (zh) 一种基于深度学习的多视窗交通标志检测方法
CN111340855A (zh) 一种基于轨迹预测的道路移动目标检测方法
CN113033303B (zh) 一种基于RCIoU损失的SAR图像旋转舰船检测的实现方法
CN116403007B (zh) 基于目标向量的遥感影像变化检测方法
Liu et al. Dynamic RGB-D SLAM based on static probability and observation number
CN110633727A (zh) 基于选择性搜索的深度神经网络舰船目标细粒度识别方法
CN115294452B (zh) 基于双向特征金字塔网络的旋转sar舰船目标检测方法
CN109102538A (zh) 利用等值线数据提取槽脊特征点与槽脊特征线的方法、天气图分析方法
Wang et al. Accurate real-time ship target detection using Yolov4
CN112364881A (zh) 一种进阶采样一致性图像匹配算法
CN107644203A (zh) 一种形状自适应分类的特征点检测方法
CN114549909A (zh) 一种基于自适应阈值的伪标签遥感图像场景分类方法
Zou et al. Maritime target detection of intelligent ship based on faster R-CNN
CN117689995A (zh) 一种基于单目图像的未知航天器层级检测方法
CN117079120A (zh) 一种基于改进ga算法的目标识别模型优化方法
CN113379794B (zh) 基于注意力-关键点预测模型的单目标跟踪***及方法
Zeng et al. Drone detection based on multi-scale feature fusion
CN115861787A (zh) 面向复杂海事环境的舰艇识别算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant