CN110321794B - 一种融入语义模型的遥感图像油罐检测方法 - Google Patents
一种融入语义模型的遥感图像油罐检测方法 Download PDFInfo
- Publication number
- CN110321794B CN110321794B CN201910432527.4A CN201910432527A CN110321794B CN 110321794 B CN110321794 B CN 110321794B CN 201910432527 A CN201910432527 A CN 201910432527A CN 110321794 B CN110321794 B CN 110321794B
- Authority
- CN
- China
- Prior art keywords
- oil tank
- image
- remote sensing
- model
- sensing image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种融入语义模型的遥感图像油罐检测方法。所述方法包括以下步骤:采集数据:获取遥感图像样本数据并进行预处理;构建模型:构建油罐检测模型和语义模型;模型训练:将所述处理后的图像输入到所述油罐检测模型中进行训练,得到特征图以及特征图检测信息,将所述预处理后的图像分类信息建立关系,保存并建立情景知识库,将所述情景知识库的信息关系输入到所述语义模型中进行训练,得到图像情景上下文信息;及模型融合:将所述特征图的检测信息与所述图像情景上下文信息进行融合。采用这种方法,油罐检测根据不同图像尺度运行,增强了图像信息,实现了更好的油罐检测精度。
Description
【技术领域】
本发明属于图像处理技术领域,特别涉及一种融入语义模型的遥感图像油罐检测方法。
【背景技术】
随着人工智能的不断发展,目标检测已经受到学术界、工业界的广泛关注。油罐作为资源存储的重要工具,针对遥感图像的油罐检测对于军事、地理等方面都提供极大帮助。传统的油罐目标检测方法通常是候选目标区域,用训练模型提取特征并将对象分类到不同的类别,获得分类区域的边界框进行检测,受到拍摄角度、气候条件以及目标密度的影响,至今未能具有一种通用的方法来检测遥感图像中的油罐与图像情景上下文信息相融合。
目前,比较常用的检测油罐的方法主要通过CNN模型提取周围特征与局部特征相结合、使用BING技术获得候选目标区域、使用图形的超像素分割等。这些方法在某些方面产生了比较好的效果,但是遥感图像受到很多因素的影响,需要设计一种能够将遥感图像的目标与图像情景上下文信息相融入的方法。
【发明内容】
本发明提供了一种融入语义模型的遥感图像油罐检测方法,其目的在于,设计一种能够遥感图像的目标与图像情景上下文信息相融入的方法,运用深度学习来提高油罐检测的精度,克服传统油罐检测不能与图像情景上下文信息相融入的问题。
本发明提供了一种融入语义模型的遥感图像油罐检测方法。一种融入语义模型的遥感图像油罐检测方法,包括如下步骤:采集数据:获取遥感图像样本数据并对所述遥感图像样本数据进行预处理,得到预处理后的图像;构建模型:构建构建油罐检测模型和语义模型;模型训练:将步骤采集数据所得的预处理后的图像输入到步骤构建模型的油罐检测模型中进行训练,得到特征图以及特征图检测信息,将所述预处理后的图像分类信息建立关系,保存并建立情景知识库,将所述情景知识库的信息关系输入到步骤构建模型的语义模型中进行训练,得到图像情景上下文信息;及模型融合:将步骤模型训练所得的特征图的检测信息与图像情景上下文信息进行融合,实现油罐检测与图像情景上下文信息融入。
在本发明所提供一种融入语义模型的遥感图像油罐检测方法的一种较佳实施例中,在步骤采集数据中,遥感图像样本数据包括遥感图像以及预处理后的图像,其获取包括如下步骤:提供油罐检测过程中获得的遥感图像;对步骤S111提供的遥感图像进行预处理(区域标注信息)得到预处理后的图像:{目标边框中心坐标为Tx、Ty,目标边框的宽为W以及目标边框的高为H,以及分类信息C}。
在本发明所提供一种融入语义模型的遥感图像油罐检测方法的一种较佳实施例中,在步骤构建模型中的油罐检测模型加载了权值文件,仅加载在batch norm层和卷积层,这些层的权值与网络中对应的层顺序完全相同存储。
在本发明所提供一种融入语义模型的遥感图像油罐检测方法的一种较佳实施例中,在步骤模型训练中,步骤构建模型的油罐检测模型中的神经网络包括卷积神经和激活函数,其中卷积神经中的卷积层使用1*1卷积与 3*3卷积级联的方式,使用具有步幅2的卷积层来对特征图进行下采样,激活操作使用RELU激活函数。生成anchors操作产生9个矩形共有3种形状,宽高比为width:height∈{1:1,1:2,2:1}三种。将anchors放入特征图中与区域标注信息进行修正,计算它们之间的损失值使用所述检测目标位置边界框的损失函数。通过非最大抑制函数(NMS)去除不符合的边界框,通过全连接层进行输出;目标分类计算它们之间的损失值使用所述分类损失函数,并使用softmax函数进行输出。最终获得特征图的检测信息中每张图像的目标边框为B={1,2,3,...,B},分配标签c∈C到每个目标边框b∈B的概率为p(l|b),将这些概率编码成矩阵P,例如Pb,l=p(l|b)。在这个过程中使用随机梯度下降(SGD)对学习参数进行更新。神经网络训练包括目标边框检测和目标分类检测。
在本发明所提供一种融入语义模型的遥感图像油罐检测方法的一种较佳实施例中,在步骤模型训练中,采用分类置信度表示检测到的对象属于特定类的概率,神经网络训练期间的分类损失函数为:
l(x,y)=L={l1,...,lN}T
ln=-wn[yn*log xn+(1-yn)*log(1-xn)]
中N代表批次数量,n代表批次序号,w为权值,y为目标值,x为输入。
在本发明所提供一种融入语义模型的遥感图像油罐检测方法的一种较佳实施例中,在步骤模型训练中,用于检测目标位置边界框的损失函数为:
l(x,y)=L={l1,...,lN}T
ln=(xn-yn)2
其中N为批次大小,n代表批次序号,x为输入值,y为目标值。
在本发明所提供一种融入语义模型的遥感图像油罐检测方法的一种较佳实施例中,在步骤模型训练中,起始的关系C经过t步之后,获得关系C”,在语义一致性上,使用随机游走表示:
其中p(rt=C”|r0=C;α)表示从C开始,在t步骤中达到关系C”的概率。在大量情景知识库中,可以有效计算矩阵S:
在本发明所提供一种融入语义模型的遥感图像油罐检测方法的一种较佳实施例中,在步骤模型融合中,给定一个量化成对关系之间语义一致性的矩阵,需要进一步将其与检测信息集成,以实现对目标的检测与图像情景的融入,通过获取语义一致性约束的最小化代价函数:
其中b,b'代表同一图像中的两个不同的边界框,B||Sl,*||1是平方误差,平衡不同的语义关系,ε是超参数ε∈(0,1)。
本发明提供了一种融入语义模型的遥感图像油罐检测方法,其目的在于,设计一种能够遥感图像的目标与图像情景相融入的方法,运用深度学习的语义模型与图像情景的结合,有效减小拍摄角度、气候条件以及目标密度对目标检测的影响,油罐检测根据不同图像尺度运行,增强了图像信息,实现了更好的油罐检测精度,克服传统油罐检测不能与图像情景上下文相融入的问题。
【附图说明】
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1为融入语义模型的遥感图像油罐检测方法流程图;
图2为实施例中通过对情景知识库的信息关系进行训练,所获得的语义模型的图像情景上下文节点之间的关系图;
图3为实施例中待检测的遥感油罐图像;
图4为实施例中已用本发明方法检测出的遥感图像。
【具体实施方式】
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图及实施例对本发明作更进一步的说明。
请参考图1所示,在本实施例中,提供一种所述融入语义模型的遥感图像油罐检测方法可以包括以下步骤:
步骤101、采集数据:获取遥感图像样本数据并对所述遥感图像样本数据进行预处理,得到预处理后的图像;
在步骤101中,遥感图像样本数据包括遥感图像以及预处理后的图像,其获取包括如下步骤:
请参阅图3所示,步骤1011、提供油罐检测过程中获得的遥感图像;
步骤1012、对步骤1011提供的遥感图像进行预处理(区域标注信息) 得到预处理后的图像:{目标边框中心坐标为Tx、Ty,目标边框的宽为W 以及目标边框的高为H,以及分类信息C}。
在步骤101中,图像采集的效果直接影响了图像标注、图像分割和图像检测的优劣,采集图像为高标准的图像时,对于图像标注、图像分割和图像检测的过程会大大减轻难度。
步骤102、构建模型:构建构建油罐检测模型和语义模型;
请参阅图2所示,步骤103、模型训练:将步骤101所得的预处理后的图像输入到步骤102构建的油罐检测模型中进行训练,得到特征图以及特征图检测信息,将所述预处理后的图像分类信息建立关系,保存并建立情景知识库,将情景知识库的信息关系输入到步骤102构建的语义模型中进行训练,得到图像情景上下文信息;
在步骤103中,步骤102构建的油罐检测模型中的神经网络包括卷积神经和激活函数,其中卷积神经中的卷积层使用1*1卷积与3*3卷积级联的方式,使用具有步幅2的卷积层来对特征图进行下采样,激活操作使用 RELU激活函数。生成anchors操作产生9个矩形共有3种形状,宽高比为 width:height∈{1:1,1:2,2:1}三种。将anchors放入特征图中与区域标注信息进行修正,计算它们之间的损失值使用所述检测目标位置边界框的损失函数。通过非最大抑制函数(NMS)去除不符合的边界框,通过全连接层进行输出;目标分类计算它们之间的损失值使用所述分类损失函数,并使用 softmax函数进行输出。最终获得特征图的检测信息中每张图像的目标边框为B={1,2,3,...,B},分配标签c∈C到每个目标边框b∈B的概率为p(l|b),将这些概率编码成矩阵P,例如Pb,l=p(l|b)。在这个过程中使用随机梯度下降(SGD)对学习参数进行更新。神经网络训练包括目标边框检测和目标分类检测。
在步骤103中,当所述遥感图像数量很大时,油罐之间的关系就越多。
请参考图4所示,为实施例中已用本发明方法检测出的遥感图像,其中标签0代表工业用地,标签1代表油罐。
在步骤103中,采用分类置信度表示检测到的对象属于特定类的概率,神经网络训练期间的分类损失函数为:
l(x,y)=L={l1,...,lN}T
ln=-wn[yn*log xn+(1-yn)*log(1-xn)] 其中N代表批次数量,n代表批次序号,w为权值,y为目标值,x为输入。
在步骤103中,用于检测目标位置边界框的损失函数为:
l(x,y)=L={l1,...,lN}T
ln=(xn-yn)2
其中N为批次大小,n代表批次序号,x为输入值,y为目标值。
在步骤103中,起始的关系C经过t步之后,获得关系C”,在语义一致性上,使用随机游走表示:
其中p(rt=C”|r0=C;α)表示从C开始,在t步骤中达到关系C”的概率。在大量情景知识库中,可以有效计算矩阵S:
步骤104、模型融合:将步骤103所得的特征图的检测信息与图像情景上下文信息进行融合,实现油罐检测与图像情景上下文信息融入。
在步骤104中,给定一个量化成对关系之间语义一致性的矩阵,需要进一步将其与检测信息集成,以实现对目标的检测与图像情景的融入,通过获取语义一致性约束的最小化代价函数:
其中b,b'代表同一图像中的两个不同的边界框,B||Sl,*||1是平方误差,平衡不同的语义关系,ε是超参数ε∈(0,1)。
本实例包括从获取遥感图像,在图像处理器中对区域标注信息排列,利用深度学习模型进行图像检测,包括特征提取、边界框预测、类预测以及预测不同的图像比例等一系列操作。考虑实际情况,通过这种方法对遥感图像的油罐检测,降低了人工成本;提高了遥感图像中的油罐准确率,使得目标检测与图形情景具有更好的融入性。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制。虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明。任何熟悉本领域的技术人员,在不脱离本发明技术方案范围情况下,都可利用上述揭示的方法和技术内容对本发明技术方案做出许多可能的变动和修饰,或修改为等同变化的等效实施例。
因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。
Claims (10)
1.一种融入语义模型的遥感图像油罐检测方法,其特征在于,所述方法包括以下步骤:
S1、采集数据:获取遥感图像样本数据并对所述遥感图像样本数据进行预处理,得到预处理后的图像;
S2、构建模型:构建油罐检测模型和语义模型;
S3、模型训练:将步骤S1所得的预处理后的图像输入到步骤S2构建的油罐检测模型中进行训练,得到特征图以及特征图检测信息,将所述预处理后的图像分类信息建立关系,保存并建立情景知识库,将所述情景知识库的信息关系输入到步骤S2构建的语义模型中进行训练,得到图像情景上下文信息;及
S4、模型融合:将步骤S3所得的特征图的检测信息与图像情景上下文信息进行融合,实现油罐检测与图像情景上下文信息融入。
2.根据权利要求1所述的一种融入语义模型的遥感图像油罐检测方法,其特征在于,在步骤S1中遥感图像样本数据包括遥感图像以及预处理后的图像,其获取包括如下步骤:
S111、提供油罐检测过程中获得的遥感图像,所述遥感图像包括区域标注信息;
S112、对步骤S111提供的遥感图像进行预处理,得到预处理后的图像,目标边框中心坐标为Tx、Ty,所述目标边框的宽为W,所述目标边框的高为H,分类信息为C,所述目标边框与所述区域标注信息相对应。
3.根据权利要求1所述的一种融入语义模型的遥感图像油罐检测方法,其特征在于,在步骤S2中的油罐检测模型加载了权值文件,仅加载在batch norm层和卷积层,这些层的权值与网络中对应的层顺序完全相同存储。
4.根据权利要求3所述的一种融入语义模型的遥感图像油罐检测方法,其特征在于,在步骤S3中,步骤S2构建的油罐检测模型中的神经网络包括卷积神经和激活函数,其中卷积神经中的卷积层使用1*1卷积与3*3卷积级联的方式,使用具有步幅2的卷积层来对特征图进行下采样,激活操作使用RELU激活函数,生成anchors操作产生9个矩形共有3种形状,宽高比为width:height∈{1:1,1:2,2:1}三种,将anchors放入特征图中与区域标注信息进行修正,计算它们之间的损失值使用检测目标位置边界框的分类损失函数,通过非最大抑制函数(NMS)去除不符合的边界框,通过全连接层进行输出;目标分类计算它们之间的损失值使用所述分类损失函数,并使用softmax函数进行输出, 最终获得特征图的检测信息中每张图像的目标边框为B={1,2,3,...,B},分配标签c∈C到每个目标边框b∈B的概率为p(l|b),将这些概率编码成矩阵P,在这个过程中使用随机梯度下降(SGD)对学习参数进行更新,神经网络训练包括目标边框检测和目标分类检测。
5.根据权利要求4所述的一种融入语义模型的遥感图像油罐检测方法,其特征在于,在步骤S3中,采用分类置信度表示检测到的对象属于特定类的概率,神经网络训练期间的分类损失函数为:
l(x,y)=L={l1,...,lN}T
ln=-wn[yn*log xn+(1-yn)*log(1-xn)]
中N代表批次数量,n代表批次序号,w为权值,y为目标值,x为输入。
6.根据权利要求5所述的一种融入语义模型的遥感图像油罐检测方法,其特征在于,在步骤S3中,用于检测目标位置边界框的损失函数为:
l(x,y)=L={l1,...,lN}T
ln=(xn-yn)2
其中N为批次大小,n代表批次序号,x为输入值,y为目标值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910432527.4A CN110321794B (zh) | 2019-05-23 | 2019-05-23 | 一种融入语义模型的遥感图像油罐检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910432527.4A CN110321794B (zh) | 2019-05-23 | 2019-05-23 | 一种融入语义模型的遥感图像油罐检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110321794A CN110321794A (zh) | 2019-10-11 |
CN110321794B true CN110321794B (zh) | 2023-02-28 |
Family
ID=68118832
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910432527.4A Active CN110321794B (zh) | 2019-05-23 | 2019-05-23 | 一种融入语义模型的遥感图像油罐检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110321794B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111126196A (zh) * | 2019-12-10 | 2020-05-08 | 安徽银河物联通信技术有限公司 | 一种设备漏油检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108875595A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 |
WO2018214195A1 (zh) * | 2017-05-25 | 2018-11-29 | 中国矿业大学 | 一种基于卷积神经网络的遥感图像桥梁检测方法 |
CN109063594A (zh) * | 2018-07-13 | 2018-12-21 | 吉林大学 | 基于YOLOv2的遥感图像快速目标检测方法 |
-
2019
- 2019-05-23 CN CN201910432527.4A patent/CN110321794B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018214195A1 (zh) * | 2017-05-25 | 2018-11-29 | 中国矿业大学 | 一种基于卷积神经网络的遥感图像桥梁检测方法 |
CN108875595A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 |
CN109063594A (zh) * | 2018-07-13 | 2018-12-21 | 吉林大学 | 基于YOLOv2的遥感图像快速目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110321794A (zh) | 2019-10-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11798132B2 (en) | Image inpainting method and apparatus, computer device, and storage medium | |
CN108334830B (zh) | 一种基于目标语义和深度外观特征融合的场景识别方法 | |
CN110909642A (zh) | 一种基于多尺度语义特征融合的遥感图像目标检测方法 | |
CN112529015A (zh) | 一种基于几何解缠的三维点云处理方法、装置及设备 | |
KR101930940B1 (ko) | 영상 분석 장치 및 방법 | |
Alidoost et al. | Knowledge based 3D building model recognition using convolutional neural networks from LiDAR and aerial imageries | |
CN114359756A (zh) | 一种震后无人机遥感影像损毁房屋快速智能检测方法 | |
CN111444923A (zh) | 自然场景下图像语义分割方法和装置 | |
Janalipour et al. | Evaluation of effectiveness of three fuzzy systems and three texture extraction methods for building damage detection from post-event LiDAR data | |
CN112950780A (zh) | 一种基于遥感影像的网络地图智能生成方法及*** | |
CN111209894A (zh) | 道路航拍图像的路边违章建筑识别方法 | |
US20220366646A1 (en) | Computer Vision Systems and Methods for Determining Structure Features from Point Cloud Data Using Neural Networks | |
CN116740758A (zh) | 一种防止误判的鸟类图像识别方法及*** | |
CN110321794B (zh) | 一种融入语义模型的遥感图像油罐检测方法 | |
CN113496212A (zh) | 箱式结构的文本识别方法、装置及电子设备 | |
CN117218545A (zh) | 基于LBP特征与改进Yolov5的雷达图像检测方法 | |
CN116012709B (zh) | 一种高分辨率遥感影像建筑物提取方法及*** | |
CN117115498A (zh) | 用于识别气象图的方法和电子设备 | |
Castagno et al. | Automatic classification of roof shapes for multicopter emergency landing site selection | |
Wang | Understanding high resolution aerial imagery using computer vision techniques | |
CN113591685A (zh) | 一种基于多尺度池化的地理对象空间关系识别方法及*** | |
CN113326891A (zh) | 小目标对象的检测方法、***及装置 | |
Barrile et al. | Object-oriented analysis applied to high resolution satellite data | |
CN112149507B (zh) | 基于图像的无人机自主地面污染物推理与定位方法及*** | |
Paraskevas et al. | Detecting Holes in Fishery Nets using an ROV |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |