CN110298227B - 一种基于深度学习的无人机航拍图像中的车辆检测方法 - Google Patents
一种基于深度学习的无人机航拍图像中的车辆检测方法 Download PDFInfo
- Publication number
- CN110298227B CN110298227B CN201910306620.0A CN201910306620A CN110298227B CN 110298227 B CN110298227 B CN 110298227B CN 201910306620 A CN201910306620 A CN 201910306620A CN 110298227 B CN110298227 B CN 110298227B
- Authority
- CN
- China
- Prior art keywords
- layer
- vehicle
- deep learning
- network
- unmanned aerial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的无人机航拍图像中的车辆检测方法。首先,采集无人机航拍图像,并对其中的车辆进行标注,获得车辆数据库;然后,将获得的车辆数据库送入深度学习网络进行训练,直至深度学习网络收敛;最后,利用训练好的深度学习网络和权重文件来检测测试图像中的车辆目标,并输出检测结果。本发明精度高、鲁棒性好,克服了传统图像处理算法在车辆检测过程中难以解决的环境干扰、光照等难题。
Description
技术领域
本发明属于计算机视觉技术领域,特别涉及了一种无人机航拍图像中的车辆检测方法。
背景技术
随着社会经济的发展,交通事业在迅速发展,车辆数量庞大,并且仍然在逐年增长,造成交通事故、车辆拥堵、车辆混乱等现象的频率也越来越高。这些交通问题严重影响了居民的日常出行,增加了地面交通疏导工作的负担。虽然目前城市关键节点上都装有摄像头,但是这无法直观显示整条道路的交通状况。由于无人机的便携性和灵活性,利用无人机进行车辆的精确定位和识别,在检测道路交通状况发挥巨大优势。
目前,车辆检测算法主要有基于手工提取特征的车辆检测算法和基于深度学习的车辆检测算法等。其中基于手工提取特征的车辆检测算法更常用于静态图像检测,而基于深度学习的车辆检测算法则适用于运动和静态的车辆检测。
目前,对于基于特征的车辆检测算法通常需要图像预处理、图像特征提取、图像分类等步骤。Liu Kang等人提出采用快速二元检测器,采用软级联结构中的积分通道特征,然后采用多级分类器获得车辆的方向和类型,能够有效地检测出图像中的车辆。但是该方法采用手工提取特征,特征表示能力有限,另外由于使用滑动窗口的方法,计算开销大。Shaoqing Ren等人提出基于深度学习的目标检测算法Faster R-CNN,该方法将Fast R-CNN和RPN网络结合,能有效提取到高层特征信息,然后进行目标检测,有较强的鲁棒性与应用性。不过该方法适用于自然图像,对于尺寸大且含有大量小目标物的航拍图像无法很好捕捉到车辆。Nassim等人提出将航拍图像分割成相似区域,并确定车辆的候选区域,然后根据卷积神经网络和SVM分类器定位和分类目标。该方法可以通过分割候选区域来提高检测速度,但很容易受到阴影区域的影响,并且检测的召回率不高。Gong Cheng等人提出了RICNN算法进行航拍图像中的目标检测,该算法对旋转不变层进行了训练,然后对整个RICNN网络进行了特殊的微调,以进一步提高检测性能。但是,该算法也明显增加了网络开销。TianyuTang等人提出了HRPN网络,并且在数据集中添加负样本标记,完成了在航拍图像中进行车辆检测的任务。HRPN将不同网络层的特征融合,提高了检测精度。但是,该算法只结合了部分浅层的特征,而且很容易受到图像分辨率的影响,算法的有效性较差。
发明内容
为了解决上述背景技术提到的技术问题,本发明提出了一种无人机航拍图像中的车辆检测方法,让车辆检测具有更好的适应性和可应用性。
为了实现上述技术目的,本发明的技术方案为:
一种基于深度学习的无人机航拍图像中的车辆检测方法,包括以下步骤:
(1)采集无人机航拍图像,并对其中的车辆进行标注,获得车辆数据库;
(2)将获得的车辆数据库送入深度学习网络进行训练,直至深度学习网络收敛;
(3)利用训练好的深度学习网络和权重文件来检测测试图像中的车辆目标,并输出检测结果。
进一步地,在步骤(1)中,对采集的无人机航拍图像进行预处理:丢掉不包含车辆目标的图像以及车辆目标显示不到一半的图像,然后对剩余的每张图像进行裁剪、旋转和标记。
进一步地,在步骤(1)中,将每张航拍图像经过有重叠地裁剪得到若干图片块,将每个图片块进行45°、135°、225°、315°旋转。
进一步地,所述深度学习网络为改进的Faster R-CNN网络,改进的Faster R-CNN网络结构如下表所示:
训练数据或测试数据从第0层卷积层输入网络,依次经过0,1,2,…,23层处理,最终从第23层全连接层输出。
进一步地,步骤(2)的具体过程如下:
(201)将车辆数据库作为训练数据送入改进的Faster R-CNN网络,选取ImageNet数据库训练好的VGG16模型作为预训练模型,设置网络训练的学习率迭代次数以及batchsize值;
(202)训练数据首先经过卷积层,之后分别送入连接层和融合层,然后连接层和融合层输出的特征图在超融合层结合成为高层共享特征图;
(203)将高层共享特征图输入RPN网络,首先经过3*3卷积、1*1卷积,生成anchor,然后通过softmax分类器提取前景anchors,再对前景anchors进行边界框回归,最后在proposal层生成候选框;
(204)将步骤(202)中产生的高层共享特征图与步骤(203)中产生的候选框数据输入RoI池化层,使得高层共享特征图中的候选框区域成为固定长度的输出特征;
(205)将步骤(204)中产生的输出特征通过全连接层与softmax层,计算每个候选框含有车辆的概率,同时利用边界框回归获得每个候选框的位置偏移量,用于回归更加精确的目标检测框;
(206)当达到最大迭代次数时或损失图像中损失达到了收敛状态时,结束训练,获得用于车辆检测的改进的Faster R-CNN网络和权重文件。
进一步地,在步骤(202)中,将深度学习网络的第9层、第13层和第15层提取的特征送入连接层,在连接层中进行Concat操作,在不同维度的特征映射上执行特征融合;将深度学习网络的第9层、第13层和第15层提取的特征送入融合层,在融合层中进行Eltwise操作,融合多级特征;将连接层和融合层输出的特征图在超融合层通过Eltwise操作合并。
进一步地,在步骤(203)中,使用的anchor尺寸包括64*32、128*64、192*96、32*32、64*64、96*96、32*64、64*128和96*192。
进一步地,步骤(3)的具体过程如下:
(301)将测试图像送入改进的Faster R-CNN网络,按照步骤(203)得到高层共享特征图;
(302)将高层共享特征图送入RPN网络,得到的输出再与高层共享特征图一起送入全连接层做预测,最终输出预测边界框,得到每个边界框的回归位置和置信度;
(303)设置一个阈值,过滤低分边界框,使用非极大值抑制法处理剩余边界框,之后通过分类器得到最终的检测结果。
进一步地,测试图像输入深度学习网络之前,先进行有重叠地裁剪,保证每个图片块边沿的车辆总能在其余图片块中有完整的外观。
采用上述技术方案带来的有益效果:
本发明较之现有技术更易实现,对于无人机航拍图像质量要求不高,对光照等引起图像畸变的外部环境影响有较高的鲁棒性,能够提取航拍图像中小目标的深层特征,最终保证了航拍图像中车辆的检测效率高、精度高,同时兼顾实用性和可靠性。
附图说明
图1是本发明的整体流程图;
图2是本发明步骤1的流程图;
图3是本发明步骤2的流程图;
图4是本发明步骤3的流程图;
图5和图6是实施例中的测试图;
图7和图8是实施例中的检测结果图。
具体实施方式
以下将结合附图,对本发明的技术方案进行详细说明。
本发明设计的基于深度学习的无人机航拍图像中的车辆检测方法,如图1所示,包括以下步骤:
步骤1:采集无人机航拍图像,并对其中的车辆进行标注,获得车辆数据库;
步骤2:将获得的车辆数据库送入深度学习网络进行训练,直至深度学习网络收敛;
步骤3:利用训练好的深度学习网络和权重文件来检测测试图像中的车辆目标,并输出检测结果。
在本实施例中,步骤1采用如下优选方案:
如图2所示,对采集的无人机航拍图像进行预处理:丢掉不包含车辆目标的图像以及车辆目标显示不到一半的图像,然后对剩余的每张图像进行裁剪、旋转和标记。
将每张航拍图像经过有重叠的裁剪得到11*10个的图片块,每块大小为702*624,将每个图片块进行45°、135°、225°、315°旋转,得到最终的训练图像数据集。进行旋转的目的在于扩充训练数据集,同时提高训练数据集中的样本多样性。
在本实施例中,步骤1采用如下优选方案:
首先,深度学习网络采用改进的Faster R-CNN网络,表1为现有的Faster R-CNN网络结构,表2为改进的Faster R-CNN网络结构。
表1
表2
Layer | Source | Type | Filters | Size/Stride |
0 | InputData | 卷积层 | 64 | 3*3/1 |
1 | 0 | 卷积层 | 64 | 3*3/1 |
2 | 1 | 池化层 | 2*2/2 | |
3 | 2 | 卷积层 | 128 | 3*3/1 |
4 | 3 | 卷积层 | 128 | 3*3/1 |
5 | 4 | 池化层 | 2*2/2 | |
6 | 5 | 卷积层 | 256 | 3*3/1 |
7 | 6 | 卷积层 | 256 | 3*3/1 |
8 | 7 | 卷积层 | 256 | 3*3/1 |
9 | 8 | 池化层 | 2*2/2 | |
10 | 9 | 卷积层 | 512 | 3*3/1 |
11 | 10 | 卷积层 | 512 | 3*3/1 |
12 | 11 | 卷积层 | 512 | 3*3/1 |
13 | 12 | 池化层 | 2*2/2 | |
14 | 13 | 卷积层 | 512 | 3*3/1 |
15 | 14 | 卷积层 | 512 | 3*3/1 |
16 | 15 | 卷积层 | 512 | 3*3/1 |
17 | 9,13,15 | 连接层 | ||
18 | 9,13,15 | 融合层 | ||
19 | 17,18 | 超融合层 | ||
20 | 19 | 卷积层 | 512 | 3*3/1 |
21 | 19,20 | RoI池化层 | ||
22 | 21 | 全连接层 | ||
23 | 22 | 全连接层 |
如图3所示,步骤2的具体展开步骤如下:
步骤201:将车辆数据库作为训练数据送入改进的Faster R-CNN网络,选取ImageNet数据库训练好的VGG16模型作为预训练模型,设置网络训练的学习率迭代次数以及batch size值。
步骤202:训练数据首先经过卷积层,之后分别送入连接层和融合层,然后连接层和融合层输出的特征图在超融合层结合成为高层共享特征图。
进一步地,将深度学习网络的第9层、第13层和第15层提取的特征送入连接层,连接层中进行Concat操作,在不同维度的特征映射上执行特征融合,此操作通过融合学习权重获得目标架构信息,可以减少背景噪声对检测性能的影响,增加特征图的表示能力。
进一步地,将深度学习网络的第9层、第13层和第15层提取的特征送入融合层,融合多级特征,此操作能够提高场景信息的利用率。
进一步地,将连接层和融合层输出的特征图在超融合层通过Eltwise操作合并。由于在多次卷积后,容易丢失车辆目标丰富的细节信息,改进的Faster R-CNN网络在超融合层把这些信息聚合起来,使得浅层更丰富的语义信息向后传递,融合多级特征,获得目标车辆更加深层的语义信息。
步骤203:将高层共享特征图输入RPN网络,首先经过3*3卷积、1*1卷积,生成anchor,然后通过softmax分类器提取前景anchors,再对前景anchors进行边界框回归,最后在proposal层生成候选框。
进一步地,为了获得准确的车辆目标候选边界框,本发明改进的Faster R-CNN使用的anchor尺寸为64*32、128*64、192*96、32*32、64*64、96*96、32*64、64*128、96*192。由于在航拍图像中目标尺寸过小,难以检测到车辆,因此设计更小尺寸的anchor,解决车辆难以检测的问题,最终从RPN网络中输出车辆目标候选边界框数据。
步骤204:将步骤202中产生的高层共享特征图与步骤203中产生的候选框数据输入RoI池化层,使得高层共享特征图中的候选框区域成为固定长度的输出特征。
步骤205:将步骤204中产生的输出特征通过全连接层与softmax层,计算每个候选框含有车辆的概率,同时利用边界框回归获得每个候选框的位置偏移量,用于回归更加精确的目标检测框。
步骤206:当达到最大迭代次数时或损失图像中损失达到了收敛状态时,结束训练,获得用于车辆检测的改进的Faster R-CNN网络和权重文件。
在本实施例中,步骤3采用如下优选方案:
如图4所示:
步骤301:将测试图像送入改进的Faster R-CNN网络,按照步骤203得到高层共享特征图;
步骤302:将高层共享特征图送入RPN网络,得到的输出再与高层共享特征图一起送入全连接层做预测,最终输出预测边界框,得到每个边界框的回归位置和置信度;
步骤303:设置一个阈值,过滤低分边界框,使用非极大值抑制法处理剩余边界框,之后通过分类器得到最终的检测结果。
进一步地,测试图像在输入深度学习网络之前需要进行预处理:有重叠地裁剪成11*10个图片块,每块大小为702*624,有重叠地裁剪保证了每个图片块边沿的车辆总能在其余图片块中有完整的外观,使网络能检测到相应目标车辆。
图5和图6为两幅无人机航拍的包含车辆目标的图像,将两幅图输入训练好的改进的Faster R-CNN网络中,得到的检测结果分别如图7和图8所示。经检验,本发明对车辆检测的准确率能够达到89.7%,对于不同类型的车辆检测适应性较广,对于由于无人机航拍拍摄原因产生的畸变、光照影响等同样具有较好的效果,适用于多个车辆的检测。
实施例仅为说明本发明的技术思想,不能以此限定本发明的保护范围,凡是按照本发明提出的技术思想,在技术方案基础上所做的任何改动,均落入本发明保护范围之内。
Claims (8)
2.根据权利要求1所述基于深度学习的无人机航拍图像中的车辆检测方法,其特征在于,在步骤(1)中,对采集的无人机航拍图像进行预处理:丢掉不包含车辆目标的图像以及车辆目标显示不到一半的图像,然后对剩余的每张图像进行裁剪、旋转和标记。
3.根据权利要求2所述基于深度学习的无人机航拍图像中的车辆检测方法,其特征在于,在步骤(1)中,将每张航拍图像经过有重叠地裁剪得到若干图片块,将每个图片块进行45°、135°、225°、315°旋转。
4.根据权利要求1所述基于深度学习的无人机航拍图像中的车辆检测方法,其特征在于,步骤(2)的具体过程如下:
(201)将车辆数据库作为训练数据送入改进的Faster R-CNN网络,选取ImageNet数据库训练好的VGG16模型作为预训练模型,设置网络训练的学习率迭代次数以及batch size值;
(202)训练数据首先经过卷积层,之后分别送入连接层和融合层,然后连接层和融合层输出的特征图在超融合层结合成为高层共享特征图;
(203)将高层共享特征图输入RPN网络,首先经过3*3卷积、1*1卷积,生成anchor,然后通过softmax分类器提取前景anchors,再对前景anchors进行边界框回归,最后在proposal层生成候选框;
(204)将步骤(202)中产生的高层共享特征图与步骤(203)中产生的候选框数据输入RoI池化层,使得高层共享特征图中的候选框区域成为固定长度的输出特征;
(205)将步骤(204)中产生的输出特征通过全连接层与softmax层,计算每个候选框含有车辆的概率,同时利用边界框回归获得每个候选框的位置偏移量,用于回归更加精确的目标检测框;
(206)当达到最大迭代次数时或损失图像中损失达到了收敛状态时,结束训练,获得用于车辆检测的改进的Faster R-CNN网络和权重文件。
5.根据权利要求4所述基于深度学习的无人机航拍图像中的车辆检测方法,其特征在于,在步骤(202)中,将深度学习网络的第9层、第13层和第15层提取的特征送入连接层,在连接层中进行Concat操作,在不同维度的特征映射上执行特征融合;将深度学习网络的第9层、第13层和第15层提取的特征送入融合层,在融合层中进行Eltwise操作,融合多级特征;将连接层和融合层输出的特征图在超融合层通过Eltwise操作合并。
6.根据权利要求4所述基于深度学习的无人机航拍图像中的车辆检测方法,其特征在于,在步骤(203)中,使用的anchor尺寸包括64*32、128*64、192*96、32*32、64*64、96*96、32*64、64*128和96*192。
7.根据权利要求4所述基于深度学习的无人机航拍图像中的车辆检测方法,其特征在于,步骤(3)的具体过程如下:
(301)将测试图像送入改进的Faster R-CNN网络,按照步骤(203)得到高层共享特征图;
(302)将高层共享特征图送入RPN网络,得到的输出再与高层共享特征图一起送入全连接层做预测,最终输出预测边界框,得到每个边界框的回归位置和置信度;
(303)设置一个阈值,过滤低分边界框,使用非极大值抑制法处理剩余边界框,之后通过分类器得到最终的检测结果。
8.根据权利要求1-7任意一项所述基于深度学习的无人机航拍图像中的车辆检测方法,其特征在于,测试图像输入深度学习网络之前,先进行有重叠地裁剪,保证每个图片块边沿的车辆总能在其余图片块中有完整的外观。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910306620.0A CN110298227B (zh) | 2019-04-17 | 2019-04-17 | 一种基于深度学习的无人机航拍图像中的车辆检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910306620.0A CN110298227B (zh) | 2019-04-17 | 2019-04-17 | 一种基于深度学习的无人机航拍图像中的车辆检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110298227A CN110298227A (zh) | 2019-10-01 |
CN110298227B true CN110298227B (zh) | 2021-03-30 |
Family
ID=68026518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910306620.0A Active CN110298227B (zh) | 2019-04-17 | 2019-04-17 | 一种基于深度学习的无人机航拍图像中的车辆检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110298227B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110826411B (zh) * | 2019-10-10 | 2022-05-03 | 电子科技大学 | 一种基于无人机图像的车辆目标快速识别方法 |
CN110991523A (zh) * | 2019-11-29 | 2020-04-10 | 西安交通大学 | 一种面向无人驾驶车辆检测算法性能的可解释性评估方法 |
TWI785436B (zh) * | 2019-12-20 | 2022-12-01 | 經緯航太科技股份有限公司 | 自航拍影像偵測物體之系統、偵測航拍影像內物體之方法及其非暫態電腦可讀取媒體 |
CN112949520B (zh) * | 2021-03-10 | 2022-07-26 | 华东师范大学 | 一种基于多尺度小样本的航拍车辆检测方法及检测*** |
CN113657147B (zh) * | 2021-07-01 | 2023-12-26 | 哈尔滨工业大学 | 针对大尺寸施工场地的施工人员统计方法 |
CN114120077B (zh) * | 2022-01-27 | 2022-05-03 | 山东融瓴科技集团有限公司 | 一种基于无人机航拍大数据下的防控风险预警方法 |
CN114779942B (zh) * | 2022-05-23 | 2023-07-21 | 广州芸荟数字软件有限公司 | 一种虚拟现实沉浸式互动***、设备及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106971187A (zh) * | 2017-04-12 | 2017-07-21 | 华中科技大学 | 一种基于车辆特征点的车辆部件检测方法和*** |
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN107944354A (zh) * | 2017-11-10 | 2018-04-20 | 南京航空航天大学 | 一种基于深度学习的车辆检测方法 |
CN108764462A (zh) * | 2018-05-29 | 2018-11-06 | 成都视观天下科技有限公司 | 一种基于知识蒸馏的卷积神经网络优化方法 |
CN109063586A (zh) * | 2018-07-11 | 2018-12-21 | 东南大学 | 一种基于候选优化的Faster R-CNN驾驶员检测方法 |
CN109191498A (zh) * | 2018-09-05 | 2019-01-11 | 中国科学院自动化研究所 | 基于动态记忆和运动感知的目标检测方法及*** |
-
2019
- 2019-04-17 CN CN201910306620.0A patent/CN110298227B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106971187A (zh) * | 2017-04-12 | 2017-07-21 | 华中科技大学 | 一种基于车辆特征点的车辆部件检测方法和*** |
CN107169421A (zh) * | 2017-04-20 | 2017-09-15 | 华南理工大学 | 一种基于深度卷积神经网络的汽车驾驶场景目标检测方法 |
CN107944354A (zh) * | 2017-11-10 | 2018-04-20 | 南京航空航天大学 | 一种基于深度学习的车辆检测方法 |
CN108764462A (zh) * | 2018-05-29 | 2018-11-06 | 成都视观天下科技有限公司 | 一种基于知识蒸馏的卷积神经网络优化方法 |
CN109063586A (zh) * | 2018-07-11 | 2018-12-21 | 东南大学 | 一种基于候选优化的Faster R-CNN驾驶员检测方法 |
CN109191498A (zh) * | 2018-09-05 | 2019-01-11 | 中国科学院自动化研究所 | 基于动态记忆和运动感知的目标检测方法及*** |
Non-Patent Citations (1)
Title |
---|
Vehicle Detection in Aerial Images Based on Region Convolutional Neural Networks and Hard Negative Example Mining;Tianyu Tang等;《sensors》;20170210;第17卷(第2期);第3节、4.1节、4.3节 * |
Also Published As
Publication number | Publication date |
---|---|
CN110298227A (zh) | 2019-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298227B (zh) | 一种基于深度学习的无人机航拍图像中的车辆检测方法 | |
CN108427912B (zh) | 基于稠密目标特征学习的光学遥感图像目标检测方法 | |
CN107563372B (zh) | 一种基于深度学习ssd框架的车牌定位方法 | |
CN110543837B (zh) | 一种基于潜在目标点的可见光机场飞机检测方法 | |
CN109271856B (zh) | 基于扩张残差卷积的光学遥感图像目标检测方法 | |
CN110175982B (zh) | 一种基于目标检测的缺陷检测方法 | |
Zhang et al. | CNN based suburban building detection using monocular high resolution Google Earth images | |
CN107609525B (zh) | 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 | |
CN108491854B (zh) | 基于sf-rcnn的光学遥感图像目标检测方法 | |
CN109118479B (zh) | 基于胶囊网络的绝缘子缺陷识别定位装置及方法 | |
CN108596055B (zh) | 一种复杂背景下高分辨遥感图像的机场目标检测方法 | |
CN106909902B (zh) | 一种基于改进的层次化显著模型的遥感目标检测方法 | |
CN111695514B (zh) | 一种基于深度学习的雾天下车辆检测方法 | |
CN108960404B (zh) | 一种基于图像的人群计数方法及设备 | |
CN108280460B (zh) | 基于改进卷积神经网络的sar车辆目标识别方法 | |
CN114067143B (zh) | 一种基于双子网络的车辆重识别方法 | |
CN109360179B (zh) | 一种图像融合方法、装置及可读存储介质 | |
CN110399840B (zh) | 一种快速的草坪语义分割及边界检测方法 | |
CN101901343A (zh) | 基于立体约束的遥感影像道路提取方法 | |
CN111414954B (zh) | 一种岩石图像检索方法及其*** | |
CN110909724B (zh) | 一种多目标图像的缩略图生成方法 | |
CN111401145B (zh) | 一种基于深度学习与ds证据理论的可见光虹膜识别方法 | |
CN105718912B (zh) | 一种基于深度学习的车辆特征物检测方法 | |
CN108804992B (zh) | 一种基于深度学习的人群统计方法 | |
CN110443279B (zh) | 一种基于轻量级神经网络的无人机图像车辆检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |