CN117036715A - 一种基于卷积神经网络的形变区边界自动提取方法 - Google Patents
一种基于卷积神经网络的形变区边界自动提取方法 Download PDFInfo
- Publication number
- CN117036715A CN117036715A CN202311294637.1A CN202311294637A CN117036715A CN 117036715 A CN117036715 A CN 117036715A CN 202311294637 A CN202311294637 A CN 202311294637A CN 117036715 A CN117036715 A CN 117036715A
- Authority
- CN
- China
- Prior art keywords
- surface deformation
- neural network
- convolutional neural
- deformation
- aggregation area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 40
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 32
- 238000004220 aggregation Methods 0.000 claims abstract description 47
- 230000002776 aggregation Effects 0.000 claims abstract description 47
- 238000012549 training Methods 0.000 claims abstract description 26
- 238000005457 optimization Methods 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 239000013598 vector Substances 0.000 claims description 34
- 238000000034 method Methods 0.000 claims description 23
- 238000009499 grossing Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 7
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 abstract 1
- 238000012544 monitoring process Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000011218 segmentation Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012300 Sequence Analysis Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,尤其涉及一种基于卷积神经网络的形变区边界自动提取方法,首先对原始SAR遥感影像进行数据预处理,得到年平均地表形变相位图像,在预处理后的年平均地表形变相位图像基础上构建地表形变聚集区的样本数据集;接着使用地表形变聚集区的样本数据集对Deeplabv3+卷积神经网络模型和ResNet残差网络模型进行训练,得到训练后的地表形变聚集区初步提取结果;最后对训练后的地表形变聚集区初步提取结果,进一步优化处理,得到边界平滑的地表形变聚集区。本发明利用深度学习网络模型对复杂背景下显著性形变区强语义特征进行提取和学习,确定出显著性地表形变区边界。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于卷积神经网络的形变区边界自动提取方法。
背景技术
地表形变监测主要早期以地面监测技术为主,基于地面监测技术,如利用 GNSS观测站、精准水准仪、裂缝计等监测边坡地表的移位变形,这类监测方法受地形条件、人力成本等因素制约,导致观测仪器视野、监测点数量或配套的辅助电子远程监测网络受限,只能获取离散点观测数据,对局部地质灾害隐患区的监测防范有效,但无法进行大范围的形变监测。
随着遥感技术的发展,遥感技术以其全面、快速等优势弥补了上述方法的不足,被广泛地应用于地质灾害普查中,特别是干涉合成孔径雷达(interferometric syntheticaperture radar)技术的发展,目前,地表形变聚集区识别主要基于 PS-InSAR、DS-InSAR或者两种联合点时序分析方法获取形变信息,结合专家经验对相干目标的年平均形变速率图和时序数据进行目视解译,识别显著性形变区。这种方法存在以下缺陷:主要依赖专业人员,工作量大、效率较低、受人工主观因素影响、精度难以保证等问题。
发明内容
本发明提供了一种基于卷积神经网络的形变区边界自动提取方法,基于获得年平均地表形变相位图像,利用深度学习网络模型对复杂背景下显著性形变区强语义特征进行提取和学习,确定出显著性地表形变区边界。
为了实现本发明的目的,所采用的技术方案是:一种基于卷积神经网络的形变区边界自动提取方法,所述的方法包括以下步骤:
S1、对原始SAR遥感影像进行数据预处理,得到年平均地表形变相位图像,在预处理后的年平均地表形变相位图像基础上构建地表形变聚集区的样本数据集;
S2、使用地表形变聚集区的样本数据集对Deeplabv3+卷积神经网络模型和ResNet残差网络模型进行训练,得到训练后的地表形变聚集区初步提取结果;
S3、对训练后的地表形变聚集区初步提取结果,进一步优化处理,得到边界平滑的地表形变聚集区。
作为本发明的优化方案,在步骤S1中,具体实现步骤为:
S1-1、地表形变聚集区的样本数据集包括影像数据和标签数据,首先将年平均地表形变相位图像裁剪成512*512的子影像来适配Deeplabv3+卷积神经网络模型和ResNet残差网络模型训练;
S1-2、利用ArcGIS 软件完成标签数据的制作;
S1-3、得到多组一一对应的影像数据和标签数据,形成地表形变聚集区的样本数据集。
作为本发明的优化方案,在步骤S1-2中,标签数据的制作步骤为:
S1-2-1、目视解译预处理后的年平均地表形变相位图像,勾画出典型地表形变聚集区的矢量范围;
S1-2-2、再将勾画好的矢量文件转成栅格文件;
S1-2-3、将栅格文件裁剪成与子影像相同尺寸的标签数据。
作为本发明的优化方案,在步骤S2中,Deeplabv3+卷积神经网络模型的训练步骤为:
A、采用并联的空洞卷积和深度卷积对年平均地表形变相位图像进行编码;
B、通过双线性插值对编码后的年平均地表形变相位图像进行解码。
作为本发明的优化方案,ResNet残差网络模型的训练步骤为:
a、采用ResNet101为主干模型提取特征,对Deeplabv3+卷积神经网络的解码部分进行微调;
b、在训练过程中采用early stopping和学习率衰减策略进行训练。
作为本发明的优化方案,在步骤S3中,优化处理包括二值栅格图转面状矢量、小图斑面积过滤和边界平滑处理,如下步骤:
S3-1、二值栅格图转面状矢量,通过开源GDL命令调用相应Raster_To_Vector的函数,实现栅格数据转为矢量数据,确定出地表形变聚集区矢量边界的提取;
S3-2、得到地表形变聚集区矢量边界提取结果,设定面积阈值t,大于面积阈值的地表形变聚集区图斑保留,从而筛除掉面积过小的矢量斑块,达到剔除干扰的目的;
S3-3、边界平滑处理,利用贝塞尔插值算法,对提取的地表形变聚集区矢量进行边界平滑处理,从而消除矢栅转换带来的边界锯齿。
作为本发明的优化方案,贝塞尔插值算法的具体实现为:把三阶贝塞尔曲线的P0和P3视为原始数据,找到P1和P2两个控制点,根据如下公式,计算出P0和P3之间平滑曲线上的任意点;
B(t) = P0(1-t)3+ 3 P1t(1-t)2+ 3 P2t2(1-t) + P3t3,t∈[0,1]
其中:t为插值参数,用于控制曲线的位置;B(t)是曲线在t处的坐标。
本发明具有积极的效果:1)本发明采用Deeplabv3+卷积神经网络和ResNet101模型相结合的提取算法,ResNet101辅助作用,ResNet101作为Deeplabv3+中的主干网络特征提取,在Deeplabv3+网络解码中可以进行参数的微调,结合网络可以加快神经网络的训练,能够较好实现地表形变聚集区快速提取,提高提取效率;
2)相较于人工目视解译技术:本发明无需依赖专业人员,工作量降低,提高了提取效率;
3)相较于阈值分割技术:本发明无需多次阈值设置,就能确定最佳阈值,在不同的区域,无需设置不同的阈值,具有普适性;
4)本发明避免了采用阈值分割法造成的大量的噪声点被误判为隐患显著性形变区,提取精度较低的问题,提取精度较高。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图,其中:
图1为本发明的流程示意图;
图2为Deeplabv3+卷积神经网络的原理图;
图3是人工标注的部分样本数据图;
图4是本发明实施例的算法自动提取结果图;
图5是人工目视解译提取结果图;
图6是三阶贝塞尔插值算法示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合具体实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明公开了一种基于卷积神经网络的形变区边界自动提取方法,方法包括以下步骤:
S1、对原始SAR遥感影像进行数据预处理,得到年平均地表形变相位图像,在预处理后的年平均地表形变相位图像基础上构建地表形变聚集区的样本数据集;
其中:原始SAR遥感影像获取的是地表形变聚集区的原始SAR遥感影像。
数据预处理主要为利用Stacking InSAR技术,主要步骤包括:1)影像的拼接、配准、裁剪;2)干涉像对选取;3)差分干涉计算;4)相位解缠;5)相位叠加处理;6)趋势性条纹去除。
S2、使用地表形变聚集区的样本数据集对Deeplabv3+卷积神经网络模型和ResNet残差网络模型进行训练,得到训练后的地表形变聚集区初步提取结果;
S3、对训练后的地表形变聚集区初步提取结果,进一步优化处理,得到边界平滑的地表形变聚集区。
在步骤S1中,具体实现步骤为:
S1-1、地表形变聚集区的样本数据集包括影像数据和标签数据,首先将年平均地表形变相位图像裁剪成512*512的子影像来适配Deeplabv3+卷积神经网络模型和ResNet残差网络模型训练;
S1-2、利用ArcGIS 软件完成标签数据的制作;
S1-3、得到多组一一对应的影像数据和标签数据,形成地表形变聚集区的样本数据集。
在步骤S1-2中,标签数据的制作步骤为:
S1-2-1、目视解译预处理后的年平均地表形变相位图像,勾画出典型地表形变聚集区的矢量范围;
S1-2-2、再将勾画好的矢量文件转成栅格文件;
S1-2-3、将栅格文件裁剪成与子影像相同尺寸的标签数据。
在步骤S2中,Deeplabv3+卷积神经网络模型的训练步骤为:
A、采用并联的空洞卷积和深度卷积对年平均地表形变相位图像进行编码;
B、通过双线性插值对编码后的年平均地表形变相位图像进行解码。
ResNet残差网络模型的训练步骤为:
a、采用ResNet101为主干模型提取特征,对Deeplabv3+卷积神经网络的解码部分进行微调;
b、在训练过程中采用early stopping(早停法)和学习率衰减策略进行训练。
在步骤S3中,优化处理包括二值栅格图转面状矢量、小图斑面积过滤和边界平滑处理,如下步骤:
S3-1、二值栅格图转面状矢量,通过开源GDL命令调用相应Raster_To_Vector(栅格转矢量)的函数,实现栅格数据转为矢量数据,确定出地表形变聚集区矢量边界的提取;
S3-2、得到地表形变聚集区矢量边界提取结果,设定面积阈值t,大于面积阈值的地表形变聚集区图斑保留,从而筛除掉面积过小的矢量斑块,达到剔除干扰的目的;
S3-3、边界平滑处理,利用贝塞尔插值算法,对提取的地表形变聚集区矢量进行边界平滑处理,从而消除矢栅转换带来的边界锯齿。
如图6所示,贝塞尔插值算法的具体实现为:把三阶贝塞尔曲线的P0和P3视为原始数据,找到P1和P2两个控制点,根据如下公式,计算出P0和P3之间平滑曲线上的任意点;
B(t) = P0(1-t)3+ 3 P1t(1-t)2+ 3 P2t2(1-t) + P3t3,t∈[0,1]
其中:t为插值参数,用于控制曲线的位置;B(t)是曲线在t处的坐标。
实施例:操作***为 Windows10,使用的编程语言为Python 3.8,编程环境为PyCharm Community;在硬件方面,计算机的处理器为 Intel(R) Core(TM)i7-6920HQ [email protected],运行内存为 32 GB。将训练后的最优模型分别对测试数据集进行预测,获得含有地表形变区与背景的识别结果图。
如图3所示,在Arcgis平台上,通过目视解译在年平均地表形变相位图像上获得年平均地表形变相位图像矢量数据。考虑样本训练过程受物理内存限制,将参与训练的图像裁剪成多张512*512样本,使用的样本数据为 2048 张尺寸为 512*512 像素的影像,随机抽取70%的样本作为训练数据,30%的样本作为验证数据。样本真值包含2类:地表形变聚集区与背景值。训练数据集为JSON 文件格式存储。
本发明将Deeplabv3+卷积神经网络模型和ResNet残差网络模型应用于形变相位图像提取中,完成了对研究区内地表形变聚集区的提取。下面对Deeplabv3+卷积神经网络模型和ResNet残差网络模型的原理进行说明:
如图2所示,Deeplabv3+卷积神经网络模型是一种典型的语义分割网络架构,其在DeepLabV3的基础上添加一个简单而有效的解码器模块,将低级特征与编码器的高级特征进一步融合,丰富了语义信息来细化分割结果。DeepLabV3+的编码器部分通过骨干网络Xception模型中不同通道的深度可分离卷积层提取图像特征信息,利用空间金字塔池化模块中不同速率的并行空洞卷积获取高层语义信息,并通过1x1卷积进行通道压缩,主要可以跨像素加大感受野,引入多尺度信息,让每个卷积输出都包含较大范围的信息;解码器部分将骨干网络中提取出的低级特征与经过4倍双线性插值上采样的高级特征进行融合,再利用3x3卷积恢复空间信息和4倍双线性插值上采样精细目标边界,得到分割结果。
ResNet是一种深度残差网络,残差网络模型在卷积层之间增加跳连接,允许信息跨多个隐层传播,有效缓解了深度神经网络中梯度消失和网络退化的问题,使网络深度达到几十甚至上百层,ResNet残差网络模型广泛应用于语义分割、目标识别等领域,在遥感图像分类效果方面也十分突出。其能够快速加快神经网络的训练,模型在遥感图像分类中的精度也得到了很大的提高。常用的ResNet网络模型有ResNet18、ResNet34、ResNet50、ResNet101、ResNet152等,它们基本结构相同,区别在于网络层数不同。本发明综合考虑模型的参数个数和训练效果,选取ResNet101作为DeepLabV3+模型的骨干网络。
如图4和图5所示,本发明的提取结果相较于人工目视解译提取(专业人员,结合专家经验对年平均地表形变相位图像进行目视解译,人工勾画的到地表形变聚集区结果图),具有无需依赖专业人员知识,工作量小、效率较高的优点。
以上所述仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。
Claims (7)
1.一种基于卷积神经网络的形变区边界自动提取方法,其特征在于:所述的方法包括以下步骤:
S1、对原始SAR遥感影像进行数据预处理,得到年平均地表形变相位图像,在预处理后的年平均地表形变相位图像基础上构建地表形变聚集区的样本数据集;
S2、使用地表形变聚集区的样本数据集对Deeplabv3+卷积神经网络模型和ResNet残差网络模型进行训练,得到训练后的地表形变聚集区初步提取结果;
S3、对训练后的地表形变聚集区初步提取结果,进一步优化处理,得到边界平滑的地表形变聚集区。
2.根据权利要求1所述的一种基于卷积神经网络的形变区边界自动提取方法,其特征在于:在步骤S1中,具体实现步骤为:
S1-1、地表形变聚集区的样本数据集包括影像数据和标签数据,首先将年平均地表形变相位图像裁剪成512*512的子影像来适配Deeplabv3+卷积神经网络模型和ResNet残差网络模型训练;
S1-2、利用ArcGIS 软件完成标签数据的制作;
S1-3、得到多组一一对应的影像数据和标签数据,形成地表形变聚集区的样本数据集。
3.根据权利要求2所述的一种基于卷积神经网络的形变区边界自动提取方法,其特征在于:在步骤S1-2中,标签数据的制作步骤为:
S1-2-1、目视解译预处理后的年平均地表形变相位图像,勾画出典型地表形变聚集区的矢量范围;
S1-2-2、再将勾画好的矢量文件转成栅格文件;
S1-2-3、将栅格文件裁剪成与子影像相同尺寸的标签数据。
4.根据权利要求2所述的一种基于卷积神经网络的形变区边界自动提取方法,其特征在于:在步骤S2中,Deeplabv3+卷积神经网络模型的训练步骤为:
A、采用并联的空洞卷积和深度卷积对年平均地表形变相位图像进行编码;
B、通过双线性插值对编码后的年平均地表形变相位图像进行解码。
5.根据权利要求4所述的一种基于卷积神经网络的形变区边界自动提取方法,其特征在于:ResNet残差网络模型的训练步骤为:
a、采用ResNet101为主干模型提取特征,对Deeplabv3+卷积神经网络的解码部分进行微调;
b、在训练过程中采用early stopping和学习率衰减策略进行训练。
6.根据权利要求5所述的一种基于卷积神经网络的形变区边界自动提取方法,其特征在于:在步骤S3中,优化处理包括二值栅格图转面状矢量、小图斑面积过滤和边界平滑处理,如下步骤:
S3-1、二值栅格图转面状矢量,通过开源GDL命令调用相应Raster_To_Vector的函数,实现栅格数据转为矢量数据,确定出地表形变聚集区矢量边界的提取;
S3-2、得到地表形变聚集区矢量边界提取结果,设定面积阈值t,大于面积阈值的地表形变聚集区图斑保留,从而筛除掉面积过小的矢量斑块,达到剔除干扰的目的;
S3-3、边界平滑处理,利用贝塞尔插值算法,对提取的地表形变聚集区矢量进行边界平滑处理,从而消除矢栅转换带来的边界锯齿。
7.根据权利要求6所述的一种基于卷积神经网络的形变区边界自动提取方法,其特征在于:贝塞尔插值算法的具体实现为:把三阶贝塞尔曲线的P0和P3视为原始数据,找到P1和P2两个控制点,根据如下公式,计算出P0和P3之间平滑曲线上的任意点;
B(t) = P0(1-t)3 + 3 P1 t(1-t)2 + 3 P2 t2(1-t) + P3 t3,t∈[0,1];
其中:t为插值参数,用于控制曲线的位置;B(t)是曲线在t处的坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311294637.1A CN117036715A (zh) | 2023-10-09 | 2023-10-09 | 一种基于卷积神经网络的形变区边界自动提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311294637.1A CN117036715A (zh) | 2023-10-09 | 2023-10-09 | 一种基于卷积神经网络的形变区边界自动提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117036715A true CN117036715A (zh) | 2023-11-10 |
Family
ID=88623081
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311294637.1A Pending CN117036715A (zh) | 2023-10-09 | 2023-10-09 | 一种基于卷积神经网络的形变区边界自动提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117036715A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117788472A (zh) * | 2024-02-27 | 2024-03-29 | 南京航空航天大学 | 一种基于dbscan算法的飞机蒙皮表面铆钉腐蚀程度判断的方法 |
CN117975297A (zh) * | 2024-04-01 | 2024-05-03 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 联合多源数据辅助的城区地表形变危险性精细识别方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105551028A (zh) * | 2015-12-09 | 2016-05-04 | 中山大学 | 一种基于遥感影像的地理空间数据动态更新的方法及*** |
CN112183322A (zh) * | 2020-09-27 | 2021-01-05 | 成都数之联科技有限公司 | 一种任意形状的文本检测和矫正方法 |
CN113312993A (zh) * | 2021-05-17 | 2021-08-27 | 北京大学 | 一种基于PSPNet的遥感数据土地覆盖分类方法 |
US20210342585A1 (en) * | 2020-05-01 | 2021-11-04 | Caci, Inc. - Federal | Systems and methods for extracting and vectorizing features of satellite imagery |
CN114743103A (zh) * | 2022-04-14 | 2022-07-12 | 中国人民解放军92859部队 | 基于Deeplabv3+网络模型的海岛礁遥感影像地质分类方法 |
-
2023
- 2023-10-09 CN CN202311294637.1A patent/CN117036715A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105551028A (zh) * | 2015-12-09 | 2016-05-04 | 中山大学 | 一种基于遥感影像的地理空间数据动态更新的方法及*** |
US20210342585A1 (en) * | 2020-05-01 | 2021-11-04 | Caci, Inc. - Federal | Systems and methods for extracting and vectorizing features of satellite imagery |
CN112183322A (zh) * | 2020-09-27 | 2021-01-05 | 成都数之联科技有限公司 | 一种任意形状的文本检测和矫正方法 |
CN113312993A (zh) * | 2021-05-17 | 2021-08-27 | 北京大学 | 一种基于PSPNet的遥感数据土地覆盖分类方法 |
CN114743103A (zh) * | 2022-04-14 | 2022-07-12 | 中国人民解放军92859部队 | 基于Deeplabv3+网络模型的海岛礁遥感影像地质分类方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117788472A (zh) * | 2024-02-27 | 2024-03-29 | 南京航空航天大学 | 一种基于dbscan算法的飞机蒙皮表面铆钉腐蚀程度判断的方法 |
CN117788472B (zh) * | 2024-02-27 | 2024-05-14 | 南京航空航天大学 | 一种基于dbscan算法的飞机蒙皮表面铆钉腐蚀程度判断的方法 |
CN117975297A (zh) * | 2024-04-01 | 2024-05-03 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 联合多源数据辅助的城区地表形变危险性精细识别方法 |
CN117975297B (zh) * | 2024-04-01 | 2024-06-11 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 联合多源数据辅助的城区地表形变危险性精细识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Attribute-aware face aging with wavelet-based generative adversarial networks | |
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及*** | |
CN110110617B (zh) | 医学影像分割方法、装置、电子设备和存储介质 | |
CN114120102A (zh) | 边界优化的遥感图像语义分割方法、装置、设备及介质 | |
CN114693615A (zh) | 一种基于域适应的深度学习混凝土桥梁裂缝实时检测方法 | |
CN117036715A (zh) | 一种基于卷积神经网络的形变区边界自动提取方法 | |
CN114299380A (zh) | 对比一致性学习的遥感图像语义分割模型训练方法及装置 | |
CN109840483B (zh) | 一种滑坡裂缝检测与识别的方法及装置 | |
CN113111947B (zh) | 图像处理方法、装置和计算机可读存储介质 | |
CN108681689B (zh) | 基于生成对抗网络的帧率增强步态识别方法及装置 | |
CN116777898B (zh) | 基于AFFormer实现3D打印挡墙施工过程裂缝测量的方法 | |
CN113610070A (zh) | 一种基于多源数据融合的滑坡灾害识别方法 | |
CN114283285A (zh) | 交叉一致性自训练遥感图像语义分割网络训练方法及装置 | |
CN113111716A (zh) | 一种基于深度学习的遥感影像半自动标注方法和装置 | |
CN111141653A (zh) | 一种基于神经网络的隧道渗漏速率预测方法 | |
CN117557414A (zh) | 基于遥感图像自动解译的耕地监管方法、装置、设备及存储介质 | |
CN112614094A (zh) | 基于序列状态编码的绝缘子串异常定位识别方法 | |
CN117671480A (zh) | 基于视觉大模型的滑坡自动识别方法、***和计算机设备 | |
CN117456356A (zh) | 一种基于深度学习的城市内涝视频识别预警方法 | |
CN112488996A (zh) | 非齐次三维食管癌能谱ct弱监督自动标注方法与*** | |
CN114792300B (zh) | 一种基于多尺度注意力x光断针检测方法 | |
CN113591740B (zh) | 基于深度学习的复杂河流环境下泥沙颗粒识别方法及装置 | |
Kar et al. | Assessment of deep learning algorithms for 3D instance segmentation of confocal image datasets | |
Abraham et al. | Automatic building extraction from satellite images using artificial neural networks | |
Aspert et al. | Time-varying segmentation for mapping of land cover changes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |