CN113920421A - 一种快速分类的全卷积神经网络模型 - Google Patents
一种快速分类的全卷积神经网络模型 Download PDFInfo
- Publication number
- CN113920421A CN113920421A CN202110753343.5A CN202110753343A CN113920421A CN 113920421 A CN113920421 A CN 113920421A CN 202110753343 A CN202110753343 A CN 202110753343A CN 113920421 A CN113920421 A CN 113920421A
- Authority
- CN
- China
- Prior art keywords
- model
- convolution
- mobilenet
- segnet
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种快速分类的全卷积神经网络R‑MobileNetV3(large)+SegNet模型。该模型将SegNet模型的编码层VGG16网络替换为R‑MobileNetV3(large)轻量级网络,引入比率为1,2,4的混合空洞卷积扩大局部感受野,消除信息捕捉不足问题,缩减解码器的卷积层数和卷积核数量,实现参数量更小的轻量级网络,用Softmax分类器分类。本发明通过3个不同实验区域验证训练好的模型,结果表明本发明实现快速高精度的对高分辨率遥感影像的像素级分类,减少了传统深度学习模型的参数和计算量,实现了很好的分类效果。
Description
技术领域
本发明涉及遥感图像分类技术领域,特别涉及到全卷积神经网络的高分辨率遥感影像快速分类模型。
技术背景
遥感影像分类已经发展几十年了,目前高分辨率遥感影像分类研究已成为主要研究,高分辨率遥感影像包含了丰富的地物纹理、形状、结构、邻域关系等信息。高分辨率遥感影像分类目前已经广泛应用于场景分类、建筑物提取、土地覆盖分类、农作物分类、水体提取和云检测等。
遥感图像的分类是遥感界几十年来的一个经典话题,传统的机器学习算法在对影像分类时,首先要对地物的形态、纹理、几何、光谱等特征进行提取,然后使用合适的算法完成对提取特征的处理,获得影像地物分类结果。基于深度学习的全卷积神经网络将常规卷积神经网络中的全连接层替换为卷积层,编码层进行下采样,通过卷积和池化方法进行特征提取来获取特征图,解码层进行上采样,通过反卷积和反池化方法将特征图恢复到原图大小,从而实现端到端像素级分类。
早期传统机器学习分类依赖特征表示和专家知识,泛化能力较弱,无法适用于复杂的高分辨率遥感影像大样本,学习能力弱等局限性。这种分类方法精度不高,容易出现椒盐现象,且由于影像中“同物异谱”或“异物同谱”,造成与其它类别进行混淆导致出现错分现象。而近年来深度学习在精度上取得了不错的效果,但是模型参数多、占用内存大、设备要求高、运行速度慢等缺陷。
针对上述问题,被发明公开了一种快速分类的全卷积神经网络 R-MobileNetV3(large)+SegNet模型。
发明内容
本发明公开了一种快速分类的全卷积神经网络 R-MobileNetV3(large)+SegNet模型,提高图像分类速度和精度,可应用于众多领域。本发明采用以下技术方案实现:
一种快速分类的全卷积神经网络R-MobileNetV3(large)+SegNet 模型,包括以下步骤:
(1)构建两种类别的遥感影像样本数据集,并将样本进行数据增强,制作对应的样本标签,将数据集分为训练集和测试集,将数据集格式调整为输入模型的格式;
(2)以SegNet模型为基础进行改进,构建全卷积神经网络 R-MobileNetV3(large)+SegNet模型;
(3)将步骤(1)中生成的训练集,作为步骤(2)中全卷积神经网络 R-MobileNetV3(large)+SegNet模型的输入进行模型训练,得到稳定的模型参数;
(4)首先将步骤(3)训练好的模型参数应用在测试集上进行特征提取,最后通过Softmax分类器进行分类,得到分类结果。
其中,步骤(2)中构建全卷积神经网络 R-MobileNetV3(large)+SegNet模型具体为:
模型分为下采样特征提取和上采样映射两部分。下采样特征提取部分是将SegNet模型的编码器VGG16模型替换为MobileNetV3(large) 模型,并将MobileNetV3(large)模型原有的17层卷积层缩减为11层, 同时在深度可分离卷积中引入扩展比率为1,2,4的混合空洞卷积。上采样映射部分是将SegNet模型的解码器18层卷积层缩减为9层, 并命名为R-MobileNetV3(large)+SegNet模型。输入图像经过11层下采样特征提取得到80个16×16大小的特征图。随后将第11层卷积得到的80个16×16大小的特征图输出到上采样映射部分。经过9层上采样映射得到32个256×256大小的特征图。上采样映射部分通过上采样和卷积恢复至与输入时的遥感图像尺寸大小。最后用Softmax 分类器将解码器输出的特征图进行分类,得到分类结果。
与现有技术相比,本发明有以下有益效果:
(1)本发明将SegNet模型的编码层VGG16模型替换为 MobileNetV3(large)轻量级网络,对MobileNetV3(large)模型进行结构缩减,同时缩减解码器的卷积层数和卷积核数量,实现参数量更小的轻量级网络;
(2)引入比率为1,2,4的混合空洞卷积来扩大局部感受野,消除信息捕捉不足问题。
附图说明
图1是流程图
图2是R-MobileNetV3(large)+SegNet模型的结构图
图3是本发明的编码器和解码器的具体参数图
图4是本发明的参数调优图
图5是本发明与其他模型在实验区1的分类效果对比图
图6是本发明与其他模型在实验区2的分类效果对比图
图7是本发明与其他模型在实验区3的分类效果对比图
具体实施方式
为使本发明的目的、技术方案及优点更加清楚明白,以下举出优选实施例,结合附图对本发明具体实施作进一步详细说明。
实施例:
结合图1、2、3、4、5、6说明本发明全卷积神经网络 R-MobileNetV3(large)+SegNet模型的具体实施流程及其分类效果。
在本实施例中,结合图1说明一种快速分类的全卷积神经网络 R-MobileNetV3(large)+SegNet模型包括以下步骤:
S1,数据准备。
数据准备包括图像的采集和标注。采集多幅高分辨率的遥感图像,然后对每一张图像中的地物进行逐像素标注,其中0灰度表示背景像素,1灰度表示甘蔗,得到2种地物类型。将标注制作相应的样本标签。将标签和原始遥感图像进行分块处理,将图像分块为多个256×256大小的图像,随后添加高斯噪声、随机亮度,随机改变像素值,随机水平、垂直和对角翻转数据增强,最后将其划分为训练集和测试集。
S2,模型构建与训练。
(1)模型构建
模型分为下采样特征提取和上采样映射两部分。下采样特征提取是将SegNet模型的编码器VGG16模型替换为MobileNetV3(large)模型,随后将MobileNetV3(large)模型原有的17层卷积层缩减为11层, 并在深度可分离卷积中引入扩展比率为1,2,4的混合空洞卷积(见图2(b)),2-7卷积层的深度可分离的空洞卷积比率为1,8-9卷积层的深度可分离的空洞卷积比率为2,10-11卷积层的深度可分离的空洞卷积比率为4(见图2(a1))。上采样映射是将SegNet模型的解码器 18层卷积层缩减为9层(见图2(a2)),并命名为 R-MobileNetV3(large)+SegNet模型(见图2(a))。
输入大小为256×256的图像,首先经过11层下采样特征提取,通过第1-2层卷积层进行卷积得到16个128×128大小的特征图;第 3-4层卷积层进行卷积得到24个64×64大小的特征图;第5-7层卷积层进行卷积得到40个32×32大小的特征图;第8-11层卷积层进行卷积得到80个16×16大小的特征图。随后第11层卷积得到的80 个16×16大小的特征图输出到上采样映射部分。第11层输出的80 个16×16大小的特征图经过9层上采样映射,通过第12层卷积层进行卷积得到512个16×16大小的特征图;第13层反卷积层进行上采样将图像大小恢复至32×32,第14层卷积层进行卷积得到256个32 ×32大小的特征图;第15层反卷积层进行上采样将图像大小恢复至 64×64,第16层卷积层进行卷积得到128个64×64大小的特征图;第17层反卷积层进行上采样将图像大小恢复至128×128,第18层卷积层进行卷积得到64个128×128大小的特征图;第19层反卷积层进行上采样将图像大小恢复至256×256,第20层卷积层进行卷积得到32个256×256大小的特征图(见图3);最后用Softmax分类器分类。
(2)模型训练
将训练集输入到构建好的模型中进行训练,在训练过程中,我们要进行参数调优,以保证结果最优化。首先将模型训练参数设置为训练轮数为50轮,基础学习率为0.01的分段常数衰减学习率方式,训练批次大小为5来进行训练。
首先测试了指数衰减和分段常数衰减学习率方式在不同的基础学习率对模型训练精度的影响,两种学习率方式的基础学习率分别为 0.1、0.01、0.001、0.0001、0.00001、0.000001进行训练,记录不同基础学习率的最终训练精度进行绘制得到图4(a)。由图4(a)可知,随着基础学习率的不断变化,训练精度产生不同的变化。当基础学习率为0.0001时,发现指数衰减学习率衰减方式效果最好,精度达99.5%。
在确定基础学习率为0.0001为指数衰减方式后,其他参数保持不变,测试了训练轮数对模型训练精度的影响。通过训练,首先记录第一轮训练精度,以后每5轮记录一次训练精度进行绘制得到图4 (b)。由图4(b)可知,随着训练轮数的不断增加,训练准确率会逐渐升高,直到55轮会出现精度下降,精度下降0.1%。原因是因为训练轮数过多会出现过拟合现象。所以本文取训练精度效果最好的 50轮为训练轮数。
在确定基础学习率为0.0001为指数衰减方式和训练轮数为50轮的基础上,其他参数不变,测试了未增强数据300张训练图像与增强后数据1500张训练图像来测试其对模型训练精度的影响。通过训练,首先记录第一轮训练精度,以后每5轮记录一次训练精度进行绘制得到图4(c)。由图4(c)可知,随着训练轮数的变化,增强后数据的训练精度效果好,训练50轮后,其精度比未增强数据高出4.3%。
在确定基础学习率为0.0001为指数衰减方式、训练轮数为50轮和使用增强后的数据的基础上,测试了不同训练批次的大小对模型训练精度的影响,训练批次大小分别为1、2、3、5、6、9、10进行训练,记录不同训练批次大小的最终训练精度进行绘制得到图4(d)。由图4(d)可知,训练批次大小为5时,训练精度最高,达到99.5%。
最终确定了模型参数设置为基础学习率为0.0001的指数衰减学习率方式、训练轮数为50轮、使用增强后的1500张试验数据和训练批次为5。
S3,分类结果对比分析。
为验证本发明的有效性,将本发明与SegNet、DeepLabV3+、 DeepLabV3+MobileNetV2模型进行分类效果的对比验证。
本发明实现端到端的像素级遥感地物分类,采用全地面真实值计算混淆矩阵评价效果。计算混淆矩阵采用像素准确率(Pixel Accuracy, PA)、类别像素准确率(ClassPixel Accuracy,CPA)、交并比 (Intersection Over Union,IOU)、平均交并比(MeanIntersection Over Union,MIOU)和Kappa系数作为本文试验结果的精度评价指标(见表1),
计算方法见公式(1)。
式中,TP表示被模型分类正确的正样本,FN表示被模型分类错误的正样本,FP表示被模型分类错误的负样本,TN被模型分类正确的负样本。
将本发明与SegNet、DeepLabV3+、DeepLabV3+MobileNetV2模型进行分类结果用公式(1)计算三个实验区的PA、CPA、IOU、MIOU 和Kappa系数,得到混淆矩阵,见表1。
表1不同分类模型在实验区混淆矩阵
通过表1可知,SegNet模型对三个测试区域的甘蔗识别效果不如本发明的好。本发明提出的R-MobileNetV3(large)+SegNet模型的精度指标PA、CPA、IOU、MIOU、Kappa系数在第一个测试区域的分别为86.3%、85%、66.2%、73.8%、0.69,在第二个测试区域分别为84.8%、82.4%、61.3%、70.6%、0.65,在第三个测试区域分别为 85%、80%、59%、69.9%、0.64。通过横向对比,可知本发明的分类效果更好。
模型训练完毕后,可以得到表示模型的内存大小、每步训练时间和总参数量,见表2。
表2不同分类模型的性能对比
通过表2的结果可以看出,本发明大小为17.3MB、每步训练时间为0.24s和总参数量为4.5×106。本文发明的内存大小、每步训练时间和总参数量远远小于SegNet和DeeplabV3+模型。本发明占用内存和总参数量虽比DeepLabV3+MobileNetV2模型大,但每步训练时间却短,提高了模型的训练速度。
由此可见,本发明在保证精度的前提下,大大降低了内存,减少了训练时间和总参数量,解决了目前大部分模型参数多、占用内存大、设备要求高、运行速度慢等问题。
以上实施方式仅用于说明本发明,而并非对本发明的限制,有关技术领域的普通技术人员,在不脱离本发明的精神和范围的情况下,还可以做出各种变化和变形。因此,所有等同的技术方案也属于本发明的范畴,本发明的专利保护范围应由权利要求限定。
本发明未详尽描述的技术内容均为公知技术。
Claims (2)
1.一种快速分类的全卷积神经网络R-MobileNetV3(large)+SegNet模型,其特征在于包括以下步骤:
(1)构建两类遥感图像样本数据集,对每一张遥感图像进行逐像素标注样本标签,将标签和原始遥感图像进行数据增强后,划分为训练集和测试集;
(2)对SegNet模型进行改进,构建全卷积神经网络R-MobileNetV3(large)+SegNet模型;
(3)将步骤(1)中的训练集输入步骤(2)中的全卷积神经网络R-MobileNetV3(large)+SegNet模型进行模型训练,通过参数调优,选择稳定的模型参数;
(4)首先将步骤(3)训练好的模型参数应用在测试集上进行特征提取,最后通过Softmax分类器进行分类,得到分类结果。
2.根据权利要求1所述的一种快速分类的全卷积神经网络R-MobileNetV3(large)+SegNet模型,其特征在于步骤(2)中全卷积语义分割模型具体为:
其中,步骤(2)中构建全卷积神经网络R-MobileNetV3(large)+SegNet模型具体为:
模型分为下采样特征提取和上采样映射两部分;下采样特征提取部分是将SegNet模型的编码器VGG16模型替换为MobileNetV3(large)模型,并将MobileNetV3(large)模型原有的17层卷积层缩减为11层,同时在深度可分离卷积中引入扩展比率为1,2,4的混合空洞卷积;上采样映射部分是将SegNet模型的解码器18层卷积层缩减为9层,并命名为R-MobileNetV3(large)+SegNet模型;输入图像经过11层下采样特征提取得到80个16×16大小的特征图;随后将第11层卷积得到的80个16×16大小的特征图输出到上采样映射部分;经过9层上采样映射得到32个256×256大小的特征图;上采样映射部分通过上采样和卷积恢复至与输入时的遥感图像尺寸大小;最后用Softmax分类器将解码器输出的特征图进行分类,得到分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110753343.5A CN113920421B (zh) | 2021-07-03 | 2021-07-03 | 一种快速分类的全卷积神经网络模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110753343.5A CN113920421B (zh) | 2021-07-03 | 2021-07-03 | 一种快速分类的全卷积神经网络模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113920421A true CN113920421A (zh) | 2022-01-11 |
CN113920421B CN113920421B (zh) | 2023-06-27 |
Family
ID=79232851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110753343.5A Active CN113920421B (zh) | 2021-07-03 | 2021-07-03 | 一种快速分类的全卷积神经网络模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113920421B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115965816A (zh) * | 2023-01-05 | 2023-04-14 | 无锡职业技术学院 | 基于深度学习的玻璃缺陷分类与检测方法及*** |
CN117475305A (zh) * | 2023-10-26 | 2024-01-30 | 广西壮族自治区自然资源遥感院 | 多类别建筑轮廓智能提取与规则化方法、应用*** |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105957086A (zh) * | 2016-05-09 | 2016-09-21 | 西北工业大学 | 一种基于优化神经网络模型的遥感图像变化检测方法 |
CN108171122A (zh) * | 2017-12-11 | 2018-06-15 | 南京理工大学 | 基于全卷积网络的高光谱遥感图像的分类方法 |
CN108537192A (zh) * | 2018-04-17 | 2018-09-14 | 福州大学 | 一种基于全卷积网络的遥感影像地表覆盖分类方法 |
CN109255334A (zh) * | 2018-09-27 | 2019-01-22 | 中国电子科技集团公司第五十四研究所 | 基于深度学习语义分割网络的遥感影像地物分类方法 |
CN109670060A (zh) * | 2018-12-10 | 2019-04-23 | 北京航天泰坦科技股份有限公司 | 一种基于深度学习的遥感影像半自动化标注方法 |
CN111612066A (zh) * | 2020-05-21 | 2020-09-01 | 成都理工大学 | 基于深度融合的卷积神经网络的遥感图像分类方法 |
CN111783782A (zh) * | 2020-05-29 | 2020-10-16 | 河海大学 | 融合改进UNet和SegNet的遥感图像语义分割方法 |
CN111915592A (zh) * | 2020-08-04 | 2020-11-10 | 西安电子科技大学 | 基于深度学习的遥感图像云检测方法 |
WO2021068176A1 (zh) * | 2019-10-11 | 2021-04-15 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于时序遥感数据和卷积神经网络的作物种植分布预测方法 |
-
2021
- 2021-07-03 CN CN202110753343.5A patent/CN113920421B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105957086A (zh) * | 2016-05-09 | 2016-09-21 | 西北工业大学 | 一种基于优化神经网络模型的遥感图像变化检测方法 |
CN108171122A (zh) * | 2017-12-11 | 2018-06-15 | 南京理工大学 | 基于全卷积网络的高光谱遥感图像的分类方法 |
CN108537192A (zh) * | 2018-04-17 | 2018-09-14 | 福州大学 | 一种基于全卷积网络的遥感影像地表覆盖分类方法 |
CN109255334A (zh) * | 2018-09-27 | 2019-01-22 | 中国电子科技集团公司第五十四研究所 | 基于深度学习语义分割网络的遥感影像地物分类方法 |
CN109670060A (zh) * | 2018-12-10 | 2019-04-23 | 北京航天泰坦科技股份有限公司 | 一种基于深度学习的遥感影像半自动化标注方法 |
WO2021068176A1 (zh) * | 2019-10-11 | 2021-04-15 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于时序遥感数据和卷积神经网络的作物种植分布预测方法 |
CN111612066A (zh) * | 2020-05-21 | 2020-09-01 | 成都理工大学 | 基于深度融合的卷积神经网络的遥感图像分类方法 |
CN111783782A (zh) * | 2020-05-29 | 2020-10-16 | 河海大学 | 融合改进UNet和SegNet的遥感图像语义分割方法 |
CN111915592A (zh) * | 2020-08-04 | 2020-11-10 | 西安电子科技大学 | 基于深度学习的遥感图像云检测方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115965816A (zh) * | 2023-01-05 | 2023-04-14 | 无锡职业技术学院 | 基于深度学习的玻璃缺陷分类与检测方法及*** |
CN115965816B (zh) * | 2023-01-05 | 2023-08-22 | 无锡职业技术学院 | 基于深度学习的玻璃缺陷分类与检测方法及*** |
CN117475305A (zh) * | 2023-10-26 | 2024-01-30 | 广西壮族自治区自然资源遥感院 | 多类别建筑轮廓智能提取与规则化方法、应用*** |
Also Published As
Publication number | Publication date |
---|---|
CN113920421B (zh) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111310862A (zh) | 复杂环境下基于图像增强的深度神经网络车牌定位方法 | |
CN111179229A (zh) | 一种基于深度学习的工业ct缺陷检测方法 | |
CN108510504B (zh) | 图像分割方法和装置 | |
CN109035172B (zh) | 一种基于深度学习的非局部均值超声图像去噪方法 | |
CN112489054A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
CN110084302B (zh) | 一种基于遥感图像的裂缝检测方法 | |
CN113920421A (zh) | 一种快速分类的全卷积神经网络模型 | |
CN111738114B (zh) | 基于无锚点精确采样遥感图像车辆目标检测方法 | |
CN113888547A (zh) | 基于gan网络的无监督域自适应遥感道路语义分割方法 | |
CN111242026A (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN110717921A (zh) | 改进型编码解码结构的全卷积神经网络语义分割方法 | |
CN115578615A (zh) | 基于深度学习的夜间交通标志图像检测模型建立方法 | |
CN112085017A (zh) | 基于显著性检测和Grabcut算法的茶叶嫩芽图像分割方法 | |
CN113762396A (zh) | 一种二维图像语义分割方法 | |
CN114596316A (zh) | 一种基于语义分割的道路图像细节抓取方法 | |
CN113610024B (zh) | 一种多策略的深度学习遥感影像小目标检测方法 | |
CN115330703A (zh) | 基于上下文信息融合的遥感影像云与云阴影检测方法 | |
CN112348762A (zh) | 一种基于多尺度融合生成对抗网络的单幅图像去雨方法 | |
CN115311508A (zh) | 一种基于深度u型网络的单帧图像红外弱小目标检测方法 | |
CN115033721A (zh) | 基于大数据的图像检索方法 | |
CN112560719B (zh) | 基于多尺度卷积-多核池化的高分辨率影像水体提取方法 | |
CN117727046A (zh) | 新型山洪前端仪器仪表读数自动识别方法及*** | |
CN113610178A (zh) | 一种基于视频监控图像的内河船舶目标检测方法和装置 | |
CN117392375A (zh) | 一种针对微小物体的目标检测算法 | |
CN111126303B (zh) | 一种面向智能停车的多车位检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |