CN112766170A - 基于簇类无人机图像的自适应分割检测方法及装置 - Google Patents
基于簇类无人机图像的自适应分割检测方法及装置 Download PDFInfo
- Publication number
- CN112766170A CN112766170A CN202110081323.8A CN202110081323A CN112766170A CN 112766170 A CN112766170 A CN 112766170A CN 202110081323 A CN202110081323 A CN 202110081323A CN 112766170 A CN112766170 A CN 112766170A
- Authority
- CN
- China
- Prior art keywords
- aerial vehicle
- unmanned aerial
- clustering
- candidate frames
- clustering candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 224
- 230000011218 segmentation Effects 0.000 title claims abstract description 81
- 238000013528 artificial neural network Methods 0.000 claims abstract description 80
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000007499 fusion processing Methods 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 62
- 230000003044 adaptive effect Effects 0.000 claims description 58
- 230000004927 fusion Effects 0.000 claims description 45
- 238000002372 labelling Methods 0.000 claims description 18
- 238000005192 partition Methods 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 8
- 238000009795 derivation Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于簇类无人机图像的自适应分割检测方法及装置,其中,所述方法包括:基于收敛的第一神经网络提取无人机图像信息的聚类候选框;基于自适应法确定无人机图像信息中的聚类候选框的分割个数;对聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框;基于融合后的聚类候选框数目和聚类候选框对无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息;对分割及填充后的无人机图像信息进行精确检测,同时对无人机图像信息进行全局检测;基于预设规则对精确检测结果和全局检测结果进行融合,获得融合检测结果。在本发明实施中,能够合理的分割图像,提高目标检测结果的准确率。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于簇类无人机图像的自适应分割检测方法及装置。
背景技术
智能技术和电子通信行业的快速进步推动了无人机行业的高速发展,目前无人机技术在军事、农业、环保和通信等方面都有了广泛的用途,而无人机在执行任务的过程中会产生大量的图像,深度挖掘图像信息对无人机技术在社会各个行业的深入应用有着重要的意义。针对无人机图像的特点,把研究目光聚集到无人机图像的多目标检测上面,改进先进的检测算法从而提高图像检测的质量。
基于深度学习的图像处理方法在一般的数据集上表现出很好的效果,但是这些经典的算法在无人机图像的目标检测任务中的表现却不佳,原因有以下几点,第一,无人机图像由高空拍摄,由于拍摄角度和拍摄高度等原因,使得图像中的目标物分辨率低,特征不明显;第二,无人机图像的视野很大,图像中的目标很多,通常这些目标以聚类的方式呈现,例如,聚类出现的房子、红绿灯路口聚类出现的人群和车辆,这些聚类的多目标很大程度上增加了目标检测的难度。第三,无人机图像数据集拍摄的场景不同,因此聚类目标的数量和聚类区域的数量也会不同,不确定的数量关系降低算法的鲁棒性,从而增加目标检测的难度。针对无人机图像的特点,学术界提出了分割图像的方法,首先,使用训练好的神经网络对图像中的多目标进行区域的划分和融合,然后根据融合后的结果对图像进行分割,使一张多目标图像分割成多个较少目标的图像,再根据分割后的图像尺寸不同对图像进行拉伸或者填充的操作,最后使用经典的目标检测算法对这些图像进行精确目标检测。
对图像先分割再检测的方法提高了无人机图像检测结果的质量,此类方法的核心是图像分割。图像分割由以下几个步骤完成:第一,确定图像要分割的数目N,导入无人机图像训练集和测试集;第二,构建神经网络,使用有监督学习的方法对神经网络进行训练,训练目的是得到一个能提取出图像中聚类区域的神经网络,神经网络输出图像聚类区域的坐标和对应区域的置信度;第三,依据聚类区域的置信度和坐标,使用融合算法对图像多个聚类区域进行融合,融合后的数目为B,如果B小于N,取B的值作为最终的分割值,否则取N的值。最后对图像进行分割。
这种分割方法的分割数目的上限是N,N的值是一个超参数,在图像检测之前确定。这种方法的不足之处是:当无人机图像的聚类区域B大于N时,说明聚类区域的数目较多,如果仍然按照上限值N来分割图像,会使得部分聚类区域没有被分割,那么这些区域会被最后的全局检测网络检测,而全局只能起到对精确检测网络的补充作用,这部分的聚类区域的检测结果的准确率会大大降低。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于簇类无人机图像的自适应分割检测方法及装置,能够合理的分割图像,提高目标检测结果的准确率。
为了解决上述技术问题,本发明实施例提供了一种基于簇类无人机图像的自适应分割检测方法,所述方法包括:
基于收敛的第一神经网络提取无人机图像信息的聚类候选框;同时,
基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数;
基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框;
基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息;
对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果;
基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果。
可选的,所述第一神经网络的训练过程,包括:
构建第一神经网络,并向所述第一神经网络输入训练无人机图像数据集及其对应的标注信息;
在所述第一神经网络内使用3*3的卷积核对输入的训练无人机图像数据集及其对应的标注信息进行卷积处理,输出对应的特征图;
对所述对应特征图进行卷积、池化操作,获得高层特征图;
使用两个1*1的卷积核对所述高层特征图进行卷积,并基于卷积结果获得两个分支,其中一个分支进行回归操作输出的结果为预测聚类候选框的预测坐标值,另一个分支进行分类,分类结果为回归结果输出的预测聚类候选框对应的置信分数;
将预测聚类候选框和预测聚类候选框对应的置信分数与对应的标准信息中的标准聚类候选框进行比较,获得比较结果;
基于所述比较结果对所述第一神经网络进行循环训练,直至获得收敛的第一神经网络。
可选的,所述基于收敛的第一神经网络提取无人机图像信息的聚类候选框,包括:
将所述无人机图像信息输入收敛的第一神经网络中,输出聚类候选框的坐标和置信分数;
根据所述聚类候选框的坐标在所述无人机图像信息中标出聚类候选框的位置,并基于置信分数标注所述聚类候选框的可信度。
可选的,所述基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数,包括:
在所述无人机图像信息中的随机选取出十分之一作为训练集数据,并进行人工标注,获得标注后的训练集数据,所述人工标注为固定标准标注;
确定标注后的训练集数据中的输入图像X,X=Rw×h×d,其中w、h、d分别表示输入图像的高度、宽度和通道数,设y为真实标签的概率分布,y服从正态分布其中,μ为真实标签的分割数目,σ表示可调的超参数,yi表示分割数目为i的概率分布,则预测概率分布为为连接自适应网络的最后一层,θ为自适应网络需要学习的参数;
在自适应网络中使用交叉熵作为损失函数,并使用链式求导法对θ进行求导,获得权重的更新规则,并根据更新规则训练自适应网络,得到收敛的自适应网络,并基于收敛自适应网络输出所述无人机图像信息中的聚类候选框的分割个数。
可选的,所述基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框,包括:
将所述聚类候选框按照其对应的置信分数进行排序,并选取置信分数最大的聚类候选框依次与排名靠后的置信分数对应的聚类候选框进行比较;
在比较结果中两个候选框重合部分的面积大于预设面积时,合并两个聚类候选框,并删除被比较的聚类候选框,直至比较完成,得到初始融合后的聚类候选框数目和聚类候选框;
将初始融合后的聚类候选框再次按照置信分数进行排序,并比较初始融合后的聚类候选框数目和所述聚类候选框的分割个数,并基于所述比较结果获得融合后的聚类候选框数目和聚类候选框。
可选的,所述预设面积为70%的面积;
所述基于所述比较结果获得融合后的聚类候选框数目和聚类候选框,包括:
当较初始融合后的聚类候选框数目大于所述聚类候选框的分割个数时,取置信分数较大的前所述聚类候选框的分割个数的聚类候选框作为最终的聚类候选框;
当较初始融合后的聚类候选框数目小于所述聚类候选框的分割个数时,取初始融合后的聚类候选框数目对应的候选框为最终的聚类候选框。
可选的,所述基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息,包括:
根据所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割,获得分割后的图像切片,并对所述图像切片按照尺寸从大到小顺序排序;
对图像切片的尺寸大于预设尺寸的进行再次分割,对尺寸小于或等于预设尺寸的图像切片进行拉伸和填充,获得分割及填充后的无人机图像信息。
可选的,所述对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果,包括:
将所述分割及填充后的无人机图像信息输入第二收敛神经网络进行精确检测,输出精确检测结果;
将所述无人机图像信息输入第三收敛神经网络进行全局检测,获得全局检测结果。
可选的,所述基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果,包括:
以全局检测结果为基准,将精确检测结果全部标注到所述全局检测结果中,当两者有部分目标重合时,基于预设融合规则进行融合处理,获得融合检测结果;
所述预设融合规则为当重合部分的面积大于或等于70%时,选取所述精确检测结果和全局检测结果中置信分数更高的检测结果作为融合检测结果,并删除另一个检测结果;当重合部分的面积小于70%时,所述精确检测结果和全局检测结果为两个目标的检测结果,同时保留所述精确检测结果和全局检测结果作为融合检测结果。
另外,本发明实施例还提供了一种基于簇类无人机图像的自适应分割检测装置,所述装置包括:
提取模块:用于基于收敛的第一神经网络提取无人机图像信息的聚类候选框;同时,
确定模块:用于基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数;
第一融合模块:用于基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框;
分割和填充模块:用于基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息;
检测模块:用于对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果;
第二融合模块:用于基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果。
在本发明实施例中,可以提高无人机图像检测的精确度,提升整个网络的检测的效率和质量;同时能够合理的分割图像,提高目标检测结果的准确率。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于簇类无人机图像的自适应分割检测方法的流程示意图;
图2是本发明实施例中的基于簇类无人机图像的自适应分割检测装置的结构组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
请参阅图1,图1是本发明实施例中的基于簇类无人机图像的自适应分割检测方法的流程示意图。
如图1所示,一种基于簇类无人机图像的自适应分割检测方法,所述方法包括:
S11:基于收敛的第一神经网络提取无人机图像信息的聚类候选框;
在本发明具体实施过程中,所述第一神经网络的训练过程,包括:构建第一神经网络,并向所述第一神经网络输入训练无人机图像数据集及其对应的标注信息;在所述第一神经网络内使用3*3的卷积核对输入的训练无人机图像数据集及其对应的标注信息进行卷积处理,输出对应的特征图;对所述对应特征图进行卷积、池化操作,获得高层特征图;使用两个1*1的卷积核对所述高层特征图进行卷积,并基于卷积结果获得两个分支,其中一个分支进行回归操作输出的结果为预测聚类候选框的预测坐标值,另一个分支进行分类,分类结果为回归结果输出的预测聚类候选框对应的置信分数;将预测聚类候选框和预测聚类候选框对应的置信分数与对应的标准信息中的标准聚类候选框进行比较,获得比较结果;基于所述比较结果对所述第一神经网络进行循环训练,直至获得收敛的第一神经网络。
进一步的,所述基于收敛的第一神经网络提取无人机图像信息的聚类候选框,包括:将所述无人机图像信息输入收敛的第一神经网络中,输出聚类候选框的坐标和置信分数;根据所述聚类候选框的坐标在所述无人机图像信息中标出聚类候选框的位置,并基于置信分数标注所述聚类候选框的可信度。
具体的,先构建第一神经网络,该第一神经网络为卷积神经网络,对用于训练的训练无人机图像数据进行标注,得到训练无人机图像数据对应的标准信息,将训练无人机图像数据集及其对应的标注信息输入第一神经网络中,用第一神经网络提取训练无人机图像数据内的高层特征并且输出预测聚类候选框的结果,具体的操作方式为使用3*3的卷积核对输入训练无人机图像进行卷积,输出的结果是一系列的特征图,然后进行多次的卷积、池化操作,得到高层特征图,再使用两个1*1的卷积核对高层特征图进行卷积,卷积结果得到两个分支,其中一个分支进行回归操作,输出的结果是聚类候选框的预测坐标值,另一个分支进行分类,分类结果是一个和回归结果输出的候选框对应的一个置信分数;把两个分支输出的预测候选框位置与标注信息进行比较,当预测候选框与真实标注信息所标注的聚类框重合部分大于70%时,认为它是一个正例并且给神经网络正反馈,当预测候选框与真实标注信息所标注的聚类框重合部分小于30%时,认为其为一个负例并且给神经网络负反馈,其他输出结果丢弃,不用于第一神经网络训练。用训练集多次训练第一神经网络,在测试集上测试训练的神经网络,最终得到一个收敛的第一神经网络;将无人机图像信息输入收敛的第一神经网络中,输出聚类候选框的坐标{(ai,bi)}和置信分数Bi;根据坐标可以在原图中标出聚类框的位置,置信分数表示这个聚类框的可信度。
S12:基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数;
在本发明具体实施过程中,所述基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数,包括:在所述无人机图像信息中的随机选取出十分之一作为训练集数据,并进行人工标注,获得标注后的训练集数据,所述人工标注为固定标准标注;确定标注后的训练集数据中的输入图像X,X=Rw×h×d,其中w、h、d分别表示输入图像的高度、宽度和通道数,设y为真实标签的概率分布,y服从正态分布其中,μ为真实标签的分割数目,σ表示可调的超参数,yi表示分割数目为i的概率分布,则预测概率分布为为连接自适应网络的最后一层,θ为自适应网络需要学习的参数;在自适应网络中使用交叉熵作为损失函数,并使用链式求导法对θ进行求导,获得权重的更新规则,并根据更新规则训练自适应网络,得到收敛的自适应网络,并基于收敛自适应网络输出所述无人机图像信息中的聚类候选框的分割个数。
具体的,在无人机图像信息中的随机选取出十分之一作为训练集数据,具体数量记为n,进行人工标注。标注时使用一个固定标准标注:在保证框内聚类目标数目丰富的前提下,标注框的数目为“1”个到“10”个之间,框的数量记为N,确定用于分割数目自适应训练的有序标签数据集L={0,1,2,...,10}。
确定标注后的训练集数据中的输入图像X,X=Rw×h×d,其中w、h、d分别表示输入图像的高度、宽度和通道数,设y为真实标签的概率分布,y服从正态分布其中,μ为真实标签的分割数目,σ表示可调的超参数,yi表示分割数目为i的概率分布,n个实例训练集表示为D={(X1,y1),...(Xn,yn)},则预测概率分布为为连接自适应网络的最后一层,θ为自适应网络需要学习的参数。
S13:基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框;
在本发明具体实施过程中,所述基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框,包括:将所述聚类候选框按照其对应的置信分数进行排序,并选取置信分数最大的聚类候选框依次与排名靠后的置信分数对应的聚类候选框进行比较;在比较结果中两个候选框重合部分的面积大于预设面积时,合并两个聚类候选框,并删除被比较的聚类候选框,直至比较完成,得到初始融合后的聚类候选框数目和聚类候选框;将初始融合后的聚类候选框再次按照置信分数进行排序,并比较初始融合后的聚类候选框数目和所述聚类候选框的分割个数,并基于所述比较结果获得融合后的聚类候选框数目和聚类候选框。
进一步的,所述预设面积为70%的面积;所述基于所述比较结果获得融合后的聚类候选框数目和聚类候选框,包括:当较初始融合后的聚类候选框数目大于所述聚类候选框的分割个数时,取置信分数较大的前所述聚类候选框的分割个数的聚类候选框作为最终的聚类候选框;当较初始融合后的聚类候选框数目小于所述聚类候选框的分割个数时,取初始融合后的聚类候选框数目对应的候选框为最终的聚类候选框。
具体的,将该聚类候选框按照其对应的置信分数按照从大到小进行排序,并选取置信分数最大的聚类候选框,然后依次与排名靠后的置信分数对应的聚类候选框进行比较;当比较的两个聚类候选框重合部分的面积大于70%时,合并这两个聚类候选框为一个聚类候选框,并删除这个被比较的候选框。然后再按照置信分数排名依次选取聚类候选框,重复上面的步骤,直到所有的聚类候选框都完成上面的步骤。最终得到融合后的聚类候选框数目M和聚类候选框;把融合后的聚类候选框在此按照置信分数从大到小的顺序排列,比较M和N,若果如果M大于N,取置信分数较大的前N个聚类候选框为最终的分割目标,反之,如果M小于N,取这M个聚类候选框为最终的分割目标。
S14:基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息;
在本发明具体实施过程中,所述基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息,包括:根据所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割,获得分割后的图像切片,并对所述图像切片按照尺寸从大到小顺序排序;对图像切片的尺寸大于预设尺寸的进行再次分割,对尺寸小于或等于预设尺寸的图像切片进行拉伸和填充,获得分割及填充后的无人机图像信息。
具体的,根据融合后的聚类候选框数目和聚类候选框对无人机图像信息进行分割,获得分割后的图像切片,得到分割后的图像切片,按照尺寸从大到小的顺序排序;对尺寸过大的切片再次进行分割,分割方法为均匀分割。对尺寸较小的图像进行拉伸和填充。分割和填充的目的是保证图像切片的尺寸在最终的目标检测网络的输入范围之内。
S15:对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果;
在本发明具体实施过程中,所述对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果,包括:将所述分割及填充后的无人机图像信息输入第二收敛神经网络进行精确检测,输出精确检测结果;将所述无人机图像信息输入第三收敛神经网络进行全局检测,获得全局检测结果。
具体的,使用第二收敛神经网络对图像切片进行精确检测。精确检测的输入是图像切片,经过分割和填充之后,它的细节特征被放大,所以能够检测到更多的小目标,得到检测结果;使用第三收敛神经网络对整个图像进行全局检测。精确检测只能检测图像切片中的目标,不在图像切片中的目标,由全局检测网络检测,得到检测结果。
S16:基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果。
在本发明具体实施过程中,所述基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果,包括:以全局检测结果为基准,将精确检测结果全部标注到所述全局检测结果中,当两者有部分目标重合时,基于预设融合规则进行融合处理,获得融合检测结果;所述预设融合规则为当重合部分的面积大于或等于70%时,选取所述精确检测结果和全局检测结果中置信分数更高的检测结果作为融合检测结果,并删除另一个检测结果;当重合部分的面积小于70%时,所述精确检测结果和全局检测结果为两个目标的检测结果,同时保留所述精确检测结果和全局检测结果作为融合检测结果。
具体的,融合精确检测结果和全局检测结果。精确检测能够检测出图像中聚集的小目标,但是只能检测局部。全局检测可以检测全局目标,但是对小目标的检测效果不好。融合两个检测结果,两个结果相互补充,融合后得到一个效果更好的检测结果。融合的具体步骤是:以全局检测结果为基准,把精确检测的结果全部标注到全局检测结果中,当两者有部分目标重合时,遵循以下规则:当重合部分的面积大于70%时,选取置信分数更高的那一个作为检测结果,另一个删除;当重合部分的面积小于70%时,认为这两个检测结果是两个目标,同时保留这两个检测结果。
在本发明实施例中,可以提高无人机图像检测的精确度,提升整个网络的检测的效率和质量;同时能够合理的分割图像,提高目标检测结果的准确率。
实施例
请参阅图2,图2是本发明实施例中的基于簇类无人机图像的自适应分割检测装置的结构组成示意图。
如图2所示,一种基于簇类无人机图像的自适应分割检测装置,所述装置包括:
提取模块21:用于基于收敛的第一神经网络提取无人机图像信息的聚类候选框;
在本发明具体实施过程中,所述第一神经网络的训练过程,包括:构建第一神经网络,并向所述第一神经网络输入训练无人机图像数据集及其对应的标注信息;在所述第一神经网络内使用3*3的卷积核对输入的训练无人机图像数据集及其对应的标注信息进行卷积处理,输出对应的特征图;对所述对应特征图进行卷积、池化操作,获得高层特征图;使用两个1*1的卷积核对所述高层特征图进行卷积,并基于卷积结果获得两个分支,其中一个分支进行回归操作输出的结果为预测聚类候选框的预测坐标值,另一个分支进行分类,分类结果为回归结果输出的预测聚类候选框对应的置信分数;将预测聚类候选框和预测聚类候选框对应的置信分数与对应的标准信息中的标准聚类候选框进行比较,获得比较结果;基于所述比较结果对所述第一神经网络进行循环训练,直至获得收敛的第一神经网络。
进一步的,所述基于收敛的第一神经网络提取无人机图像信息的聚类候选框,包括:将所述无人机图像信息输入收敛的第一神经网络中,输出聚类候选框的坐标和置信分数;根据所述聚类候选框的坐标在所述无人机图像信息中标出聚类候选框的位置,并基于置信分数标注所述聚类候选框的可信度。
具体的,先构建第一神经网络,该第一神经网络为卷积神经网络,对用于训练的训练无人机图像数据进行标注,得到训练无人机图像数据对应的标准信息,将训练无人机图像数据集及其对应的标注信息输入第一神经网络中,用第一神经网络提取训练无人机图像数据内的高层特征并且输出预测聚类候选框的结果,具体的操作方式为使用3*3的卷积核对输入训练无人机图像进行卷积,输出的结果是一系列的特征图,然后进行多次的卷积、池化操作,得到高层特征图,再使用两个1*1的卷积核对高层特征图进行卷积,卷积结果得到两个分支,其中一个分支进行回归操作,输出的结果是聚类候选框的预测坐标值,另一个分支进行分类,分类结果是一个和回归结果输出的候选框对应的一个置信分数;把两个分支输出的预测候选框位置与标注信息进行比较,当预测候选框与真实标注信息所标注的聚类框重合部分大于70%时,认为它是一个正例并且给神经网络正反馈,当预测候选框与真实标注信息所标注的聚类框重合部分小于30%时,认为其为一个负例并且给神经网络负反馈,其他输出结果丢弃,不用于第一神经网络训练。用训练集多次训练第一神经网络,在测试集上测试训练的神经网络,最终得到一个收敛的第一神经网络;将无人机图像信息输入收敛的第一神经网络中,输出聚类候选框的坐标{(ai,bi)}和置信分数Bi;根据坐标可以在原图中标出聚类框的位置,置信分数表示这个聚类框的可信度。
确定模块22:用于基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数;
在本发明具体实施过程中,所述基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数,包括:在所述无人机图像信息中的随机选取出十分之一作为训练集数据,并进行人工标注,获得标注后的训练集数据,所述人工标注为固定标准标注;确定标注后的训练集数据中的输入图像X,X=Rw×h×d,其中w、h、d分别表示输入图像的高度、宽度和通道数,设y为真实标签的概率分布,y服从正态分布其中,μ为真实标签的分割数目,σ表示可调的超参数,yi表示分割数目为i的概率分布,则预测概率分布为为连接自适应网络的最后一层,θ为自适应网络需要学习的参数;在自适应网络中使用交叉熵作为损失函数,并使用链式求导法对θ进行求导,获得权重的更新规则,并根据更新规则训练自适应网络,得到收敛的自适应网络,并基于收敛自适应网络输出所述无人机图像信息中的聚类候选框的分割个数。
具体的,在无人机图像信息中的随机选取出十分之一作为训练集数据,具体数量记为n,进行人工标注。标注时使用一个固定标准标注:在保证框内聚类目标数目丰富的前提下,标注框的数目为“1”个到“10”个之间,框的数量记为N,确定用于分割数目自适应训练的有序标签数据集L={0,1,2,...,10}。
确定标注后的训练集数据中的输入图像X,X=Rw×h×d,其中w、h、d分别表示输入图像的高度、宽度和通道数,设y为真实标签的概率分布,y服从正态分布其中,μ为真实标签的分割数目,σ表示可调的超参数,yi表示分割数目为i的概率分布,n个实例训练集表示为D={(X1,y1),...(Xn,yn)},则预测概率分布为为连接自适应网络的最后一层,θ为自适应网络需要学习的参数。
第一融合模块23:用于基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框;
在本发明具体实施过程中,所述基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框,包括:将所述聚类候选框按照其对应的置信分数进行排序,并选取置信分数最大的聚类候选框依次与排名靠后的置信分数对应的聚类候选框进行比较;在比较结果中两个候选框重合部分的面积大于预设面积时,合并两个聚类候选框,并删除被比较的聚类候选框,直至比较完成,得到初始融合后的聚类候选框数目和聚类候选框;将初始融合后的聚类候选框再次按照置信分数进行排序,并比较初始融合后的聚类候选框数目和所述聚类候选框的分割个数,并基于所述比较结果获得融合后的聚类候选框数目和聚类候选框。
进一步的,所述预设面积为70%的面积;所述基于所述比较结果获得融合后的聚类候选框数目和聚类候选框,包括:当较初始融合后的聚类候选框数目大于所述聚类候选框的分割个数时,取置信分数较大的前所述聚类候选框的分割个数的聚类候选框作为最终的聚类候选框;当较初始融合后的聚类候选框数目小于所述聚类候选框的分割个数时,取初始融合后的聚类候选框数目对应的候选框为最终的聚类候选框。
具体的,将该聚类候选框按照其对应的置信分数按照从大到小进行排序,并选取置信分数最大的聚类候选框,然后依次与排名靠后的置信分数对应的聚类候选框进行比较;当比较的两个聚类候选框重合部分的面积大于70%时,合并这两个聚类候选框为一个聚类候选框,并删除这个被比较的候选框。然后再按照置信分数排名依次选取聚类候选框,重复上面的步骤,直到所有的聚类候选框都完成上面的步骤。最终得到融合后的聚类候选框数目M和聚类候选框;把融合后的聚类候选框在此按照置信分数从大到小的顺序排列,比较M和N,若果如果M大于N,取置信分数较大的前N个聚类候选框为最终的分割目标,反之,如果M小于N,取这M个聚类候选框为最终的分割目标。
分割和填充模块24:用于基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息;
在本发明具体实施过程中,所述基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息,包括:根据所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割,获得分割后的图像切片,并对所述图像切片按照尺寸从大到小顺序排序;对图像切片的尺寸大于预设尺寸的进行再次分割,对尺寸小于或等于预设尺寸的图像切片进行拉伸和填充,获得分割及填充后的无人机图像信息。
具体的,根据融合后的聚类候选框数目和聚类候选框对无人机图像信息进行分割,获得分割后的图像切片,得到分割后的图像切片,按照尺寸从大到小的顺序排序;对尺寸过大的切片再次进行分割,分割方法为均匀分割。对尺寸较小的图像进行拉伸和填充。分割和填充的目的是保证图像切片的尺寸在最终的目标检测网络的输入范围之内。
检测模块25:用于对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果;
在本发明具体实施过程中,所述对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果,包括:将所述分割及填充后的无人机图像信息输入第二收敛神经网络进行精确检测,输出精确检测结果;将所述无人机图像信息输入第三收敛神经网络进行全局检测,获得全局检测结果。
具体的,使用第二收敛神经网络对图像切片进行精确检测。精确检测的输入是图像切片,经过分割和填充之后,它的细节特征被放大,所以能够检测到更多的小目标,得到检测结果;使用第三收敛神经网络对整个图像进行全局检测。精确检测只能检测图像切片中的目标,不在图像切片中的目标,由全局检测网络检测,得到检测结果。
第二融合模块26:用于基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果。
在本发明具体实施过程中,所述基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果,包括:以全局检测结果为基准,将精确检测结果全部标注到所述全局检测结果中,当两者有部分目标重合时,基于预设融合规则进行融合处理,获得融合检测结果;所述预设融合规则为当重合部分的面积大于或等于70%时,选取所述精确检测结果和全局检测结果中置信分数更高的检测结果作为融合检测结果,并删除另一个检测结果;当重合部分的面积小于70%时,所述精确检测结果和全局检测结果为两个目标的检测结果,同时保留所述精确检测结果和全局检测结果作为融合检测结果。
具体的,融合精确检测结果和全局检测结果。精确检测能够检测出图像中聚集的小目标,但是只能检测局部。全局检测可以检测全局目标,但是对小目标的检测效果不好。融合两个检测结果,两个结果相互补充,融合后得到一个效果更好的检测结果。融合的具体步骤是:以全局检测结果为基准,把精确检测的结果全部标注到全局检测结果中,当两者有部分目标重合时,遵循以下规则:当重合部分的面积大于70%时,选取置信分数更高的那一个作为检测结果,另一个删除;当重合部分的面积小于70%时,认为这两个检测结果是两个目标,同时保留这两个检测结果。
在本发明实施例中,可以提高无人机图像检测的精确度,提升整个网络的检测的效率和质量;同时能够合理的分割图像,提高目标检测结果的准确率。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、磁盘或光盘等。
另外,以上对本发明实施例所提供的一种基于簇类无人机图像的自适应分割检测方法及装置进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (10)
1.一种基于簇类无人机图像的自适应分割检测方法,其特征在于,所述方法包括:
基于收敛的第一神经网络提取无人机图像信息的聚类候选框;同时,
基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数;
基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框;
基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息;
对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果;
基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果。
2.根据权利要求1所述的自适应分割检测方法,其特征在于,所述第一神经网络的训练过程,包括:
构建第一神经网络,并向所述第一神经网络输入训练无人机图像数据集及其对应的标注信息;
在所述第一神经网络内使用3*3的卷积核对输入的训练无人机图像数据集及其对应的标注信息进行卷积处理,输出对应的特征图;
对所述对应特征图进行卷积、池化操作,获得高层特征图;
使用两个1*1的卷积核对所述高层特征图进行卷积,并基于卷积结果获得两个分支,其中一个分支进行回归操作输出的结果为预测聚类候选框的预测坐标值,另一个分支进行分类,分类结果为回归结果输出的预测聚类候选框对应的置信分数;
将预测聚类候选框和预测聚类候选框对应的置信分数与对应的标准信息中的标准聚类候选框进行比较,获得比较结果;
基于所述比较结果对所述第一神经网络进行循环训练,直至获得收敛的第一神经网络。
3.根据权利要求1所述的自适应分割检测方法,其特征在于,所述基于收敛的第一神经网络提取无人机图像信息的聚类候选框,包括:
将所述无人机图像信息输入收敛的第一神经网络中,输出聚类候选框的坐标和置信分数;
根据所述聚类候选框的坐标在所述无人机图像信息中标出聚类候选框的位置,并基于置信分数标注所述聚类候选框的可信度。
4.根据权利要求1所述的自适应分割检测方法,其特征在于,所述基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数,包括:
在所述无人机图像信息中的随机选取出十分之一作为训练集数据,并进行人工标注,获得标注后的训练集数据,所述人工标注为固定标准标注;
确定标注后的训练集数据中的输入图像X,X=Rw×h×d,其中w、h、d分别表示输入图像的高度、宽度和通道数,设y为真实标签的概率分布,y服从正态分布其中,μ为真实标签的分割数目,σ表示可调的超参数,yi表示分割数目为i的概率分布,;
在自适应网络中使用交叉熵作为损失函数,并使用链式求导法对θ进行求导,获得权重的更新规则,并根据更新规则训练自适应网络,得到收敛的自适应网络,并基于收敛自适应网络输出所述无人机图像信息中的聚类候选框的分割个数。
5.根据权利要求1所述的自适应分割检测方法,其特征在于,所述基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框,包括:
将所述聚类候选框按照其对应的置信分数进行排序,并选取置信分数最大的聚类候选框依次与排名靠后的置信分数对应的聚类候选框进行比较;
在比较结果中两个聚类候选框重合部分的面积大于预设面积时,合并两个聚类候选框,并删除被比较的聚类候选框,直至比较完成,得到初始融合后的聚类候选框数目和聚类候选框;
将初始融合后的聚类候选框再次按照置信分数进行排序,并比较初始融合后的聚类候选框数目和所述聚类候选框的分割个数,并基于所述比较结果获得融合后的聚类候选框数目和聚类候选框。
6.根据权利要求5所述的自适应分割检测方法,其特征在于,所述预设面积为70%的面积;
所述基于所述比较结果获得融合后的聚类候选框数目和聚类候选框,包括:
当较初始融合后的聚类候选框数目大于所述聚类候选框的分割个数时,取置信分数较大的前所述聚类候选框的分割个数的聚类候选框作为最终的聚类候选框;
当较初始融合后的聚类候选框数目小于所述聚类候选框的分割个数时,取初始融合后的聚类候选框数目对应的候选框为最终的聚类候选框。
7.根据权利要求1所述的自适应分割检测方法,其特征在于,所述基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息,包括:
根据所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割,获得分割后的图像切片,并对所述图像切片按照尺寸从大到小顺序排序;
对图像切片的尺寸大于预设尺寸的进行再次分割,对尺寸小于或等于预设尺寸的图像切片进行拉伸和填充,获得分割及填充后的无人机图像信息。
8.根据权利要求1所述的自适应分割检测方法,其特征在于,所述对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果,包括:
将所述分割及填充后的无人机图像信息输入第二收敛神经网络进行精确检测,输出精确检测结果;
将所述无人机图像信息输入第三收敛神经网络进行全局检测,获得全局检测结果。
9.根据权利要求1所述的自适应分割检测方法,其特征在于,所述基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果,包括:
以全局检测结果为基准,将精确检测结果全部标注到所述全局检测结果中,当两者有部分目标重合时,基于预设融合规则进行融合处理,获得融合检测结果;
所述预设融合规则为当重合部分的面积大于或等于70%时,选取所述精确检测结果和全局检测结果中置信分数更高的检测结果作为融合检测结果,并删除另一个检测结果;当重合部分的面积小于70%时,所述精确检测结果和全局检测结果为两个目标的检测结果,同时保留所述精确检测结果和全局检测结果作为融合检测结果。
10.一种基于簇类无人机图像的自适应分割检测装置,其特征在于,所述装置包括:
提取模块:用于基于收敛的第一神经网络提取无人机图像信息的聚类候选框;同时,
确定模块:用于基于自适应法确定所述无人机图像信息中的聚类候选框的分割个数;
第一融合模块:用于基于所述聚类候选框和所述聚类候选框的分割个数对所述聚类候选框进行融合处理,获得融合后的聚类候选框数目和聚类候选框;
分割和填充模块:用于基于所述融合后的聚类候选框数目和聚类候选框对所述无人机图像信息进行分割和填充,获得分割及填充后的无人机图像信息;
检测模块:用于对所述分割及填充后的无人机图像信息进行精确检测,获得精确检测结果,同时对所述无人机图像信息进行全局检测,获得全局检测结果;
第二融合模块:用于基于预设规则对所述精确检测结果和所述全局检测结果进行融合,获得融合检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110081323.8A CN112766170B (zh) | 2021-01-21 | 2021-01-21 | 基于簇类无人机图像的自适应分割检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110081323.8A CN112766170B (zh) | 2021-01-21 | 2021-01-21 | 基于簇类无人机图像的自适应分割检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112766170A true CN112766170A (zh) | 2021-05-07 |
CN112766170B CN112766170B (zh) | 2024-04-16 |
Family
ID=75702231
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110081323.8A Active CN112766170B (zh) | 2021-01-21 | 2021-01-21 | 基于簇类无人机图像的自适应分割检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112766170B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113688706A (zh) * | 2021-08-16 | 2021-11-23 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
CN114943903A (zh) * | 2022-05-25 | 2022-08-26 | 广西财经学院 | 一种针对无人机航空图像的自适应分簇目标检测方法 |
CN115361744A (zh) * | 2022-08-10 | 2022-11-18 | 广西财经学院 | 一种适用于AUV的UWSNs介质访问控制方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633661A (zh) * | 2019-08-31 | 2019-12-31 | 南京理工大学 | 一种融合语义分割的遥感图像目标检测方法 |
WO2020164282A1 (zh) * | 2019-02-14 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于yolo的图像目标识别方法、装置、电子设备和存储介质 |
CN111666850A (zh) * | 2020-05-28 | 2020-09-15 | 浙江工业大学 | 一种基于聚类生成候选锚框的细胞图像检测与分割方法 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
AU2020102091A4 (en) * | 2019-10-17 | 2020-10-08 | Wuhan University Of Science And Technology | Intelligent steel slag detection method and system based on convolutional neural network |
WO2020199834A1 (zh) * | 2019-04-03 | 2020-10-08 | 腾讯科技(深圳)有限公司 | 一种物体检测方法、装置、网络设备和存储介质 |
-
2021
- 2021-01-21 CN CN202110081323.8A patent/CN112766170B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020164282A1 (zh) * | 2019-02-14 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于yolo的图像目标识别方法、装置、电子设备和存储介质 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
WO2020199834A1 (zh) * | 2019-04-03 | 2020-10-08 | 腾讯科技(深圳)有限公司 | 一种物体检测方法、装置、网络设备和存储介质 |
CN110633661A (zh) * | 2019-08-31 | 2019-12-31 | 南京理工大学 | 一种融合语义分割的遥感图像目标检测方法 |
AU2020102091A4 (en) * | 2019-10-17 | 2020-10-08 | Wuhan University Of Science And Technology | Intelligent steel slag detection method and system based on convolutional neural network |
CN111666850A (zh) * | 2020-05-28 | 2020-09-15 | 浙江工业大学 | 一种基于聚类生成候选锚框的细胞图像检测与分割方法 |
Non-Patent Citations (2)
Title |
---|
刘芳;吴志威;杨安?;韩笑;: "基于多尺度特征融合的自适应无人机目标检测", 光学学报, no. 10 * |
王凯;潘炼;: "基于改进Faster R-CNN图像小目标检测", 电视技术, no. 20 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113688706A (zh) * | 2021-08-16 | 2021-11-23 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
CN113688706B (zh) * | 2021-08-16 | 2023-12-05 | 南京信息工程大学 | 一种车辆检测方法、装置、设备及存储介质 |
CN114943903A (zh) * | 2022-05-25 | 2022-08-26 | 广西财经学院 | 一种针对无人机航空图像的自适应分簇目标检测方法 |
CN115361744A (zh) * | 2022-08-10 | 2022-11-18 | 广西财经学院 | 一种适用于AUV的UWSNs介质访问控制方法 |
CN115361744B (zh) * | 2022-08-10 | 2024-04-23 | 广西财经学院 | 一种适用于AUV的UWSNs介质访问控制方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112766170B (zh) | 2024-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112396002B (zh) | 一种基于SE-YOLOv3的轻量级遥感目标检测方法 | |
CN111191732B (zh) | 一种基于全自动学习的目标检测方法 | |
CN109614985B (zh) | 一种基于密集连接特征金字塔网络的目标检测方法 | |
CN108830188B (zh) | 基于深度学习的车辆检测方法 | |
CN107609525B (zh) | 基于剪枝策略构建卷积神经网络的遥感图像目标检测方法 | |
CN106778835B (zh) | 融合场景信息和深度特征的遥感图像机场目标识别方法 | |
CN109614979B (zh) | 一种基于选择与生成的数据增广方法及图像分类方法 | |
CN112766170A (zh) | 基于簇类无人机图像的自适应分割检测方法及装置 | |
CN107330074B (zh) | 基于深度学习和哈希编码的图像检索方法 | |
CN112101430B (zh) | 用于图像目标检测处理的锚框生成方法及轻量级目标检测方法 | |
CN112052787A (zh) | 基于人工智能的目标检测方法、装置及电子设备 | |
CN112734775A (zh) | 图像标注、图像语义分割、模型训练方法及装置 | |
CN110717366A (zh) | 文本信息的识别方法、装置、设备及存储介质 | |
CN110008899B (zh) | 一种可见光遥感图像候选目标提取与分类方法 | |
CN114648665A (zh) | 一种弱监督目标检测方法及*** | |
CN113221787A (zh) | 基于多元差异性融合的行人多目标跟踪方法 | |
CN111833322B (zh) | 一种基于改进YOLOv3的垃圾多目标检测方法 | |
CN111178196B (zh) | 一种细胞分类的方法、装置及设备 | |
CN114882423A (zh) | 一种基于改进Yolov5m模型和DeepSort的货车入库货物识别方法 | |
CN111340124A (zh) | 图像中实体类别的识别方法和装置 | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN115861306B (zh) | 一种基于自监督拼图模块的工业品异常检测方法 | |
CN114067314B (zh) | 一种基于神经网络的花生霉变识别方法及*** | |
CN115661123A (zh) | 基于弱监督目标检测的工业品表面缺陷位置检测方法 | |
CN114638277A (zh) | 一种基于判别决策树的工业部件分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |