CN117576453A - 一种跨域装甲目标检测方法、***、电子设备及存储介质 - Google Patents

一种跨域装甲目标检测方法、***、电子设备及存储介质 Download PDF

Info

Publication number
CN117576453A
CN117576453A CN202311515933.XA CN202311515933A CN117576453A CN 117576453 A CN117576453 A CN 117576453A CN 202311515933 A CN202311515933 A CN 202311515933A CN 117576453 A CN117576453 A CN 117576453A
Authority
CN
China
Prior art keywords
target
batch
training
armored
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311515933.XA
Other languages
English (en)
Other versions
CN117576453B (zh
Inventor
魏健
武萌
王钦钊
段金鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Academy of Armored Forces of PLA
Original Assignee
Academy of Armored Forces of PLA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Academy of Armored Forces of PLA filed Critical Academy of Armored Forces of PLA
Priority to CN202311515933.XA priority Critical patent/CN117576453B/zh
Publication of CN117576453A publication Critical patent/CN117576453A/zh
Application granted granted Critical
Publication of CN117576453B publication Critical patent/CN117576453B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种跨域装甲目标检测方法、***、电子设备及存储介质,属于目标检测领域。该方法包括:构建源域训练数据集和目标域数据集;将源域训练数据集划分为多个单批次训练集,将目标域数据集划分为多个单批次数据集;利用目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框;利用无监督训练模型,获得单批次总数据集中每个装甲目标图像的场域预测结果;利用弱监督训练模型,获得单批次训练集中每个装甲目标图像的目标数量预测结果;进而计算模型训练损失并进行参数更新,获得训练后的目标检测模型进行装甲目标检测。本发明基于弱监督和无监督的方式实现跨域目标检测模型的训练,达成兼顾人工成本,硬件开支和检测精度的目标。

Description

一种跨域装甲目标检测方法、***、电子设备及存储介质
计数领域
本发明涉及目标检测技术领域,特别是涉及一种跨域装甲目标检测方法、***、电子设备及存储介质。
背景计数
而随着现代隐身技术的飞速发展及其在军事装备中的大量应用,现代战场环境越来越复杂,在此环境下快速发现目标并摧毁目标的难度越来越大。目前军事装备上现有的稳像式火控***仍需通过炮长人工地去搜寻目标,然后锁定目标,并不具备自动搜寻和检测目标的能力,这已经不能满足信息化的现代战场作战需求,因此发展具备跨域条件下目标自动检测功能的火控***,既是提升装备战场生存能力的必然需要,也是未来发展无人作战平台的必然要求。
目前具备自动检测目标的主要是飞机等空中装备,采用的自动检测技术主要是雷达技术,但由于地面目标运动形式多样、背景复杂易被遮挡、杂波较大等原因影响,现有雷达技术进行自动检测很难取得较好效果,而随着计算机视觉和图像处理技术的迅速发展,基于图像技术的自动检测技术已经发展成熟,并且具有精度高、抗干扰性强、目标丢失可找回等特点,所以发展基于视频图像的目标自动检测与跟踪技术已经成为装备火控***发展的重要方向。
深度学习技术以数据驱动的方式,通过搭建足够庞大的模型,以开展完全监督条件下的自主学习和训练的方式,获得具备自动完成目标检测任务的技术。然而,针对战场环境中场景、地形、角度、光照和形态等场域***的情况,通过以往扩大标注数据集的训练策略已经无法满足现实需求。
跨域装甲目标检测是指在某一场景域中训练完成的深度神经网络模型,不能适应装甲目标场景的变化,无法对全新场域中的装甲目标开展高精度的自动检测。这一问题的根本原因是深度神经网络模型是一个数据驱动的自学习模型,即模型通过长时间的归纳学习,在人工标注信息的引导下,逐步掌握目标的一致性特征,从而实现目标自动检测任务;当缺少某一场景的人工标注信息时,模型则无法对未曾见过场景中的目标特征进行归纳学习,因此,在实际应用环节,一旦出现与模型训练所见训练场景偏差较大的情况,目标检测模型很容易发生性能退化、功能失效的问题。针对这种跨域目标检测任务,现有方法主要分为2种思路:一是通过数据增强的方式,丰富训练数据,常见的有人工收集和标注、几何变换、特征增强、虚拟数据生成等方式,这些方法从数据端着手,效果最为直接,但这也意味着需要投入巨量的人力物力,进行标注数据的准备,此外,针对装甲目标检测任务而言,采集的数据难以拟合所有可能的应用场景,因此,始终存在无法预知的边界条件;二是通过迁移预训练的方法,又称为元学习的方法,即采用大规模训练的方式,力图使深度神经网络模型事先在多个相关任务情景中进行训练,以此获得一般意义下的特征提取能力,然后通过二次开发的方式将预训练完成的模型,迁移到新的任务场景中进行训练微调,然而,这种大规模集中训练的方式对硬件***提出了极高的要求,且需要花费更多的时间。
发明内容
本发明的目的是提供一种跨域装甲目标检测方法、***、电子设备及存储介质,以提高跨域条件下的目标检测精度。
为实现上述目的,本发明提供了如下方案:
本发明提供一种跨域装甲目标检测方法,所述方法包括如下步骤:
构建源域训练数据集和目标域数据集;所述源域训练数据集包括多张平视视角下的带有标注信息的装甲目标图像,目标域数据集包括多张俯视视角下的不带标注信息的装甲目标图像。
将所述源域训练数据集划分为多个单批次训练集,将所述目标域数据集划分为多个单批次数据集;单批次训练集的数量与单批次数据集的数量相同;
将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框;所述目标检测模型包括依次连接的Back_Bone网络,Neck网络和Head网络。
将单批次训练集中的装甲目标图像和单批次数据集中的装甲目标图像输入至目标检测模型的Back_Bone网络,获得Back_Bone网络输出的图像特征图,并将Back_Bone网络输出的图像特征图输入无监督训练模型,获得单批次总数据集中每个装甲目标图像的场域预测结果;所述单批次总数据集包括单批次训练集和单批次数据集;所述无监督训练模型包括依次连接的梯度反转层和二分类器。
将单批次训练集中的装甲目标图像输入至目标检测模型,获得目标检测模型的Head网络输出的图像特征图,并将Head网络输出的图像特征图输入弱监督训练模型,获得单批次训练集中每个装甲目标图像的目标数量预测结果;所述弱监督训练模型包括依次连接的特征处理模块和目标计数模块。
基于单批次训练集中每个装甲目标图像的预测位置框、标注信息、目标数量预测结果及单批次总数据集中每个装甲目标图像的场域预测结果,计算模型训练损失。
根据所述模型训练损失对所述目标检测模型、所述二分类器和所述目标计数模块进行参数更新,获取下一个单批次训练集和单批次数据集,返回将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框的步骤,直到遍历完成所有的单批次训练集和单批次数据集,输出训练后的目标检测模型。
利用训练后的目标检测模型进行装甲目标检测。
可选的,所述模型训练损失包括:目标分类损失、前景损失、位置回归损失、二分类交叉熵损失和目标数量预测误差损失。
基于单批次训练集中每个装甲目标图像的预测位置框、标注信息、目标数量预测结果及单批次总数据集中每个装甲目标图像的场域预测结果,计算模型训练损失,具体包括:
根据单批次训练集中的装甲目标图像的预测位置框和标注信息,计算目标分类损失、前景损失和位置回归损失。
根据单批次总数据集中每个装甲目标图像的场域预测结果,计算二次交叉熵损失。
根据单批次训练集中每个装甲目标图像的目标数量预测结果,计算目标数量预测误差损失。
可选的,根据单批次训练集中的装甲目标图像的预测位置框和标注信息,计算目标分类损失、前景损失和位置回归损失,具体包括:
采用标签分配策略确定单批次训练集中的装甲目标图像的预测位置框中的正样本位置框。
基于单批次训练集中每个装甲目标图像的正样本位置框与标注信息,计算目标分类损失、前景损失和位置回归损失。
可选的,采用标签分配策略确定单批次训练集中的装甲目标图像的预测位置框中的正样本位置框,具体包括:
采用如下公式计算单批次训练集中的装甲目标图像的预测位置框与标注信息中的标签位置框的修正交并比。
其中,sCIOU表示预测位置框与标签信息中的标签位置框的修正交并比,IOU表示预测位置框与标签信息中的标签位置框的交并比,ρ2(b,bgt)表示预测位置框的中心点与标签信息中的标签位置框的中心点之间的欧式距离,c表示预测位置框与标签信息中的标签位置框的最小外接矩形的对角线长度,α表示由预测位置框的横纵比和IOU共同确定的惩罚因子,wgt和hgt分别表示预测位置框的宽和高,w和h分别表示标签信息中的标签位置框的宽和高,k为约束参数,v表示预测位置框的横纵比,b和bgt分别表示标签信息中的标签位置框的中心点和预测位置框的中心点。
确定修正交并比大于预设阈值的预测位置框为正样本位置框。
可选的,所述模型训练损失包括:目标分类损失、前景损失、位置回归损失、二分类交叉熵损失和目标数量预测误差损失。
根据所述模型训练损失对所述目标检测模型、所述二分类器和所述目标计数模块进行参数更新,具体包括:
根据目标分类损失、前景损失、位置回归损失和目标数量预测误差损失对Neck网络和Head网络的参数进行更新。
根据目标分类损失、前景损失、位置回归损失、二分类交叉熵损失和目标数量预测误差损失对Back_Bone网络的参数进行更新。
根据二分类交叉熵损失对二分类器的参数进行更新。
根据目标数量预测误差损失对目标计数模块的参数进行更新。
可选的,将单批次训练集中的装甲目标图像输入至目标检测模型,之前还包括:
分别对单批次训练集中的装甲目标图像和单批次数据集中的装甲目标图像进行刚性变换,获得初步增强后的单批次训练集和初步增强后的单批次数据集。
分别对初步增强后的单批次训练集中的装甲目标图像和初步增强后的单批次数据集中的装甲目标图像进行多重马赛克图像增强,获得增强后的单批次训练集和增强后的单批次数据集。
可选的,多重马赛克图像增强的具体步骤包括:
每4张装甲目标图像为一组,对目标数据集中的装甲目标图像进行马赛克图像增强,得到多张一次马赛克增强后的装甲目标图像。
在多张一次马赛克增强后的装甲目标图像中选取16张装甲目标图像进行马赛克图像增强,得到4张二次马赛克增强后的装甲目标图像;所述目标数据集为初步增强后的单批次训练集中的装甲目标图像或初步增强后的单批次数据集。
对4张二次马赛克增强后的装甲目标图像进行马赛克图像增强,获得三次马赛克增强后的装甲目标图像。
在目标数据集中选取一张装甲目标图像作为融合目标图像。
采用线性叠加方式,将三次马赛克增强后的装甲目标图像与所述融合目标图像进行融合,获得融合后的装甲目标图像,作为多重马赛克图像增强后的装甲目标图像。
一种跨域装甲目标检测***,所述***应用于上述的方法,所述***包括:
数据集构建模块,用于构建源域训练数据集和目标域数据集;所述源域训练数据集包括多张平视视角下的带有标注信息的装甲目标图像,目标域数据集包括多张俯视视角下的不带标注信息的装甲目标图像。
数据集划分模块,用于将所述源域训练数据集划分为多个单批次训练集,将所述目标域数据集划分为多个单批次数据集;单批次训练集的数量与单批次数据集的数量相同。
位置框预测模块,用于将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框;所述目标检测模型包括依次连接的Back_Bone网络,Neck网络和Head网络。
场域预测模块,用于将单批次训练集中的装甲目标图像和单批次数据集中的装甲目标图像输入至目标检测模型的Back_Bone网络,获得Back_Bone网络输出的图像特征图,并将Back_Bone网络输出的图像特征图输入无监督训练模型,获得单批次总数据集中每个装甲目标图像的场域预测结果;所述单批次总数据集包括单批次训练集和单批次数据集;所述无监督训练模型包括依次连接的梯度反转层和二分类器。
目标数量预测模块,用于将单批次训练集中的装甲目标图像输入至目标检测模型,获得目标检测模型的Head网络输出的图像特征图,并将Head网络输出的图像特征图输入弱监督训练模型,获得单批次训练集中每个装甲目标图像的目标数量预测结果;所述弱监督训练模型包括依次连接的特征处理模块和目标计数模块。
损失计算模块,用于基于单批次训练集中每个装甲目标图像的预测位置框、标注信息、目标数量预测结果及单批次总数据集中每个装甲目标图像的场域预测结果,计算模型训练损失。
参数更新模块,用于根据所述模型训练损失对所述目标检测模型、所述二分类器和所述目标计数模块进行参数更新,获取下一个单批次训练集和单批次数据集,返回位置框预测模块,直到遍历完成所有的单批次训练集和单批次数据集,输出训练后的目标检测模型。
检测模块,用于利用训练后的目标检测模型进行装甲目标检测。
一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的方法。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被执行时实现上述的方法。
根据本发明提供的具体实施例,本发明公开了以下计数效果:
本发明实施例提供一种跨域装甲目标检测方法、***、电子设备及存储介质,所述方法包括:构建源域训练数据集和目标域数据集;将所述源域训练数据集划分为多个单批次训练集,将所述目标域数据集划分为多个单批次数据集;利用目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框;利用无监督训练模型,获得单批次总数据集中每个装甲目标图像的场域预测结果;利用弱监督训练模型,获得单批次训练集中每个装甲目标图像的目标数量预测结果,进而计算模型训练损失并进行参数更新,获得训练后的目标检测模型进行装甲目标检测。本发明基于弱监督和无监督的方式实现跨域目标检测模型的训练,达成兼顾人工成本,硬件开支和检测精度的目标。
附图说明
为了更清楚地说明本发明实施例或现有计数中的计数方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通计数人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种跨域装甲目标检测方法的流程图。
图2为本发明实施例提供的模型结构的示意图。
图3为本发明实施例提供的三个典型数据集各尺度目标分布情况示意图。
图4为本发明实施例提供的无监督训练模型的结构示意图。
图5为本发明实施例提供的无监督训练模型的标注信息的结构示意图,图5中的(a)为完全监督训练的详细标注信息示意图,图5中的(b)为本发明实施例设计的弱监督训练的标注信息示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的计数方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通计数人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种跨域装甲目标检测方法、***、电子设备及存储介质,以提高跨域条件下的目标检测精度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
随着弱监督、无监督等训练策略的发展,针对有限量的标注数据条件下,通过改进模型结构、优化训练策略和适配损失函数等方式,实现提高模型在跨域条件下对小目标的检测效果,助推装备自动检测***的智能升级。这为提高基于视频图像的跨域装甲目标自动检测提供了解决方案。
本发明实施例以一阶目标检测模型YOLO为基础,通过设计多重马赛克图像增强策略,平衡训练数据中各尺度装甲目标的占比,同时提出软阈值的标签分配策略,综合提高模型对小尺寸目标的检测精度;而后,分别设立了一个基于无监督训练策略的图像特征对齐任务分支(即无监督训练模型),一个基于弱监督训练策略的图像目标计数分支(即弱监督训练模型),二者综合作用,协同提升模型对跨域条件下装甲目标的检测精度。综上,本发明实施例提供的包括目标检测模型、无监督训练模型和弱监督训练模型的模型结构如图2所示。
针对跨域装甲目标自动检测任务,本发明实施例最主要的工作是设计并训练一个根植于深度学***视视角下的装甲目标图像进行详细标注,以构建源域训练数据集S,然后,将俯视视角下不具有任何标注信息的装甲目标图像作为目标域数据集T。以这两个数据集为基础,详细介绍本发明实施例中的跨域装甲目标检测方法,如图1所示,所述方法包括如下步骤:
步骤101,构建源域训练数据集和目标域数据集;所述源域训练数据集包括多张平视视角下的带有标注信息的装甲目标图像,目标域数据集包括多张俯视视角下的不带标注信息的装甲目标图像。
步骤102,将所述源域训练数据集划分为多个单批次训练集,将所述目标域数据集划分为多个单批次数据集;单批次训练集的数量与单批次数据集的数量相同。
本发明实施例根据硬件水平和算力上限,依据设定的图像批次数量Batch_Size,由图像数据加载器从源域训练数据集S和目标域数据集T中随机选择Batch_Size的图像xs,而后参照图像预处理的参数配置文件,先后执行图像随机翻转、平移、缩放、颜色抖动、复制粘贴、仿射变换等刚性变换,确保Batch_Size内的装甲目标图像完成初步增强。由于数据集中各尺度图像分布不均的现象较为普遍,因此,深度神经网络模型在归纳不同尺度目标特征时,会产生倾向性偏差,即由于通常小尺度目标的占比更低,如图3所示,这就会造成同等条件下,模型更多的学会了如何有效提取大尺度目标的特征,对小尺度目标容易出现漏检、误检的现象。对此,本发明实施例设计多重马赛克图像增强策略,用于平衡中各尺度目标的占比,从而提高模型的整体检测精度。
以目标数据集中的装甲目标图像x's为输入,按照设定的训练图像尺寸(H,W),该目标数据集为初步增强后的单批次训练集中的装甲目标图像或初步增强后的单批次数据集,在目标数据集中随机的4张装甲目标图像为一组,拼接为(2H,2W)大小的新图像x's_dual,然后在其中选择随机点为新的图像中心,并按照(H,W)的尺寸裁剪出新的训练图像xs_augemt,至此,完成对目标数据集中全部数据的马赛克增强。然而,这一过程中,由于随机缩放、平移等刚性变换的随机组合,容易导致最终训练图像中出现空白区域的问题,这会进行无效训练,导致模型收敛速度慢,训练效率低的问题。对此,本发明实施例设计了多重马赛克图像增强策略。
以完成一次马赛克图像增强的xs_augemt为输入,多重马赛克图像增强策略采用二次应用马赛克图像增强算子,通过随机选取16张装甲目标图像进行马赛克图像增强,得到4张二次马赛克增强的装甲目标图像x's_augemt,而后将这4幅图像进行拼接得到(2H,2W)的平铺图像,在这之后,按照随机选取图像中心点,裁剪(H,W)尺寸图像的步骤,得到三次马赛克增强的装甲目标图像x's_comasaic,为了进一步利用图像中可能存在的空白区域,本发明实施例融入Mix-Up的增强策略,即再额外从目标数据集xs中随机抽取一张装甲目标图像xs2,根据线性叠加的方式,将xs2和x's_comasaic进行融合,其算公式为:
xs_in=(1-λ)xs2+λxs'_comosaic
其中,xs_in为多重马赛克处理后的装甲目标图像。
通过以上多重马赛克图像增强策略,使得训练样本中的小目标数量更为充实。
步骤103,将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框;所述目标检测模型包括依次连接的Back_Bone网络,Neck网络和Head网络。
单批次训练集中每个装甲目标图像,优选的为多重马赛克处理后的装甲目标图像为输入xs_in,使其依次经过Back_Bone网络,Neck网络和Head网络,其中这三个模块来源于YOLO模型,三个模块均已卷积模块为核心,通过逐层递进,按照由线条、纹理到语义、图形的顺序,提取、归纳目标的特征,最后为每个像素点生成9个Anchor,用于构建初始预测结果,即预测位置框。
步骤104,将单批次训练集中的装甲目标图像和单批次数据集中的装甲目标图像输入至目标检测模型的Back_Bone网络,获得Back_Bone网络输出的图像特征图,并将Back_Bone网络输出的图像特征图输入无监督训练模型,获得单批次总数据集中每个装甲目标图像的场域预测结果;所述单批次总数据集包括单批次训练集和单批次数据集;所述无监督训练模型包括依次连接的梯度反转层和二分类器。
步骤104之前是对YOLO完全监督分支的改进,然而,这些改进不足以应对跨域目标检测任务。因此,需要进一步引入辅助训练分支,首先是无监督训练方式的特征对齐分支。
在无监督训练条件下,针对缺少目标域数据集T详细标注信息的问题,本发明实施例设计基于无监督训练模型,即梯度反转层GRL和二分类器Classifier的对抗训练分支,如图4所示。本发明实施例中的无监督训练模型以图2中BackBone输出的图像特征图xs_feature为这一分支的输入信息,GRL是指图像特征图在前向传播过程中对其施加正系数,而在由其产生的误差后向传播更新模型参数时向其施加负系数,从二分类器Classifier角度来看,特征图在前向传播过程引导二分类误差减小,而反向传播过程由于负系数的作用,使得二分类误差增大,以此出现对抗训练的情形;从本分支输入端来看,正向传播过程中,由BackBone提供的图像特征图xs_feature要具有明确边界的场景域特征,以此达到降低二分类器Classifier损失的目的,而反向过程由于对误差施加了负系数,因此BackBone在更新权重时向增大二分类器Classifier误差损失的方向移动,因此,导致BackBone提供的图像特征图的场域边界特征变得模糊,通过迭代训练,最终使得xs_feature的场域边界完全混合,即实现不同场域图像特征对齐的效果。
如图4所示,无监督训练的过程为:
输入特征图xs_feature
正向传播过程,GRL层向xs_feature施加正系数α。
经过二分类器Classifier处理,得到场域预测结果p's
以二分类交叉熵计算预测结果与实际场域信息p's的误差损失Lclassifier
分别计算误差对BackBone和Classifier的权重矩阵Wbackbone、Wclassifier的偏导数
反向传播过程对上述两个偏导数施加负系数-α。
步骤105,将单批次训练集中的装甲目标图像输入至目标检测模型,获得目标检测模型的Head网络输出的图像特征图,并将Head网络输出的图像特征图输入弱监督训练模型,获得单批次训练集中每个装甲目标图像的目标数量预测结果;所述弱监督训练模型包括依次连接的特征处理模块和目标计数模块。
无监督训练分支实现了自主对齐不同场域特征表示的目的,但对提高目标检测精度的还需要进行额外的改进。不同于完全监督需要对图像数据进行目标类别、位置等详尽的标注,弱监督的训练方式是立足用较少的人力投入,最大限度地利用深度神经网络模型自主学习、归纳的能力。如图5所示,图5中的(a)为完全监督训练的详细标注信息,图5中的(b)为本发明实施例设计的弱监督训练的标注信息。
本分支以图2中Head的输出特征图xs_head为处理对象,将其分别经过弱监督训练模型中的特征处理模块和目标计数模块NUM,其中特征处理模块有两层卷积层构成,采用3×3同样大小的卷积核构成,其权重矩阵为Wconfusion,目标计数模块同样为卷积模块,其输出为一个标量,反应图像中预测的目标数量p'num,在L1损失约束下,p'num与实际目标数量信息pnum进行对比,得到反应目标数量预测误差损失Lnum
步骤105,基于单批次训练集中每个装甲目标图像的预测位置框、标注信息、目标数量预测结果及单批次总数据集中每个装甲目标图像的场域预测结果,计算模型训练损失。
本发明实施例中的模型训练损失包括:目标分类损失、前景损失、位置回归损失、二分类交叉熵损失和目标数量预测误差损失。
关于二分类交叉熵损失和目标数量预测误差损失在前述步骤中已经说明,在此不再赘述。
对目标分类损失、前景损失、位置回归损失的计算过程进行了如下改进。
在目标分类损失、前景损失、位置回归损失计算过程中,现有的方式为根据Anchor与标注信息中的Box数据进行IOU对比,完成标签分配任务,即从众多备选Anchor中筛选出具有明确目标的正样本,进行损失计算。然而,小尺寸目标在卷积层逐渐加深过程中,由于不断的池化操作,导致其在Head中的特征占比较小,容易因不恰当地标签分配策略,导致其无法被筛选为正样本,进而致使其无法有效参与损失函数计算过程,造成模型更倾向与学习大尺寸目标的特征,而对小尺寸的目标检测精度偏低。对此,本发明实施例提出软阈值的标签分配策略,用于改进标签分配环节对小尺寸目标的关注度。
本发明实施例需要优化YOLO模型的标签分配策略,首先以CIOU标签分配策略为基础,其计算公式如下:
其中,IOU表示预测位置框与标签位置的交并比,ρ2(b,bgt)代表anchor预测目标位置中心点偏移量,c代表预测位置框与标签位置的最小外接矩形的对角线长度,α是由预测框横纵比和IOU共同确定的惩罚因子,wgt,hgt,w,h则分别表示Box的真实宽高和预测宽高数值。
这一方式考虑到了Anchor与Box的中心点距离、横纵比关系、最小外接矩形约束等因素,但未充分考虑小范围的像素波动,仍会导致标签分配过程中小目标的Anchor由正样本被划为负样本,而无法参与训练。因此,本发明实施例提出软阈值的标签分配方式,具体来说,在上述公式的基础上,加入约束参数k,用于控制小尺度目标的Anchor与Box的IOU计算结果,使得其对小范围的距离波动不再敏感,从而保证针对小尺寸目标的Anchor能够被有效的划定为正样本,从而参与模型的损失计算过程,计算公式为:
其中,k即为约束参数,从其所处分母位置可知,当二者纵横比失调时,可以通过增大k的方式衰减其在总体损失中的占比;另一方面对二者中心点距离进行开平方处理,弱化二者距离较远时导致IOU无法达到阈值,而被简单的归入负样本的情况。综合以上两点改进,提高对应Anchor划为正样本的概率。
进而基于确定的正样本位置框与标注信息,计算目标分类损失、前景损失和位置回归损失。
步骤107,根据所述模型训练损失对所述目标检测模型、所述二分类器和所述目标计数模块进行参数更新,获取下一个单批次训练集和单批次数据集,返回将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框的步骤,直到遍历完成所有的单批次训练集和单批次数据集,输出训练后的目标检测模型。
基于步骤106本发明实施例得到了反应模型整体预测误差的5个误差损失,分别为:目标分类损失Ldet,前景损失Lobj,位置回归损失Lbox,二分类交叉熵损失Lclassifier和目标数量预测误差损Lnum。其中前三个为YOLO模型原本的目标分类损失、前景损失和位置回归损失,具体的计算公式在此不做赘述。综上得到总的误差损失:Ltotal=Ldet+Lobj+Lbox+β·Lclassifier+γ·Lnum。在此基础上,对Backbone、Neck、Head、Classifier和NUM的权重矩阵分别计算偏导数,即可得到基于一个Batch_Size输入图像得到的模型更新信息,进一步,通过反复迭代这一过程,直至设定的N个Epochs,以完成跨域装甲目标检测模型的训练,得到可以适应跨域场景条件,对小尺寸装甲目标有较高检测精度的智能检测模型,即训练后的目标检测模型。
其中,计算目标分类损失、前景损失和位置回归损失的损失函数分别为多分类交叉熵损失函数、二分类类交叉熵损失函数和CIOU损失函数。计算目标数量预测误差损的损失函数为L1损失函数。
通过进行N个Epochs的迭代训练,模型完成训练过程,即深度神经网络的各神经元学习到了适配的权重参数,表明目标检测模型获得了稳定检出跨域条件下目标的能力。为验证本发明跨域目标检测算法的效果,通过横向对比进行展示。
表1是本发明算法与基准模型YOLO在公开测试集中的测试结果,其中mAP指对所有目标的平均检测精度,mAPs,mAPm,mAPl则分别指代模型对小、中、大三种尺寸目标的检测精度。
表1模型检测精度对比
步骤108,利用训练后的目标检测模型进行装甲目标检测。
本发明实施例还提供一种跨域装甲目标检测***,所述***应用于上述的方法,所述***包括:
数据集构建模块,用于构建源域训练数据集和目标域数据集;所述源域训练数据集包括多张平视视角下的带有标注信息的装甲目标图像,目标域数据集包括多张俯视视角下的不带标注信息的装甲目标图像。
数据集划分模块,用于将所述源域训练数据集划分为多个单批次训练集,将所述目标域数据集划分为多个单批次数据集;单批次训练集的数量与单批次数据集的数量相同。
位置框预测模块,用于将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框;所述目标检测模型包括依次连接的Back_Bone网络,Neck网络和Head网络。
场域预测模块,用于将单批次训练集中的装甲目标图像和单批次数据集中的装甲目标图像输入至目标检测模型的Back_Bone网络,获得Back_Bone网络输出的图像特征图,并将Back_Bone网络输出的图像特征图输入无监督训练模型,获得单批次总数据集中每个装甲目标图像的场域预测结果;所述单批次总数据集包括单批次训练集和单批次数据集;所述无监督训练模型包括依次连接的梯度反转层和二分类器。
目标数量预测模块,用于将单批次训练集中的装甲目标图像输入至目标检测模型,获得目标检测模型的Head网络输出的图像特征图,并将Head网络输出的图像特征图输入弱监督训练模型,获得单批次训练集中每个装甲目标图像的目标数量预测结果;所述弱监督训练模型包括依次连接的特征处理模块和目标计数模块。
损失计算模块,用于基于单批次训练集中每个装甲目标图像的预测位置框、标注信息、目标数量预测结果及单批次总数据集中每个装甲目标图像的场域预测结果,计算模型训练损失。
参数更新模块,用于根据所述模型训练损失对所述目标检测模型、所述二分类器和所述目标计数模块进行参数更新,获取下一个单批次训练集和单批次数据集,返回位置框预测模块,直到遍历完成所有的单批次训练集和单批次数据集,输出训练后的目标检测模型。
检测模块,用于利用训练后的目标检测模型进行装甲目标检测。
本发明实施例还提供一种电子设备,其特征在于,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的方法。
本发明实施例还提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被执行时实现上述的方法。
综上,实施本发明的实施例,具有如下的有益效果:
1、相比于以往完全监督的方式,本发明提出的三路分支装甲目标检测模型,在无监督、弱监督的训练方式下,实现了对跨域目标的高精度检测,节省了对各场域图像目标详细标注的人力投入,提升了装甲目标检测模型的开发成本。
2、可以适应后续新场景的增量训练,得益于无监督训练策略,对模型部署应用过程中新出现的场域,可以对已有装甲目标检测模型进行微调训练,即可重新投入适用。
3、装甲目标检测模型对小尺寸目标具有更高的检测精度,通过多重马赛克图像增强计数和改进的标签分配策略,有效提高了训练过程中模型对小尺寸目标的关注度,直观表现为参与模型误差损失的正样本数量增多,作用是增强模型给对小尺寸目标特征的学习效果,提高其检测精度。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的***而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般计数人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。

Claims (10)

1.一种跨域装甲目标检测方法,其特征在于,所述方法包括如下步骤:
构建源域训练数据集和目标域数据集;所述源域训练数据集包括多张平视视角下的带有标注信息的装甲目标图像,目标域数据集包括多张俯视视角下的不带标注信息的装甲目标图像;
将所述源域训练数据集划分为多个单批次训练集,将所述目标域数据集划分为多个单批次数据集;单批次训练集的数量与单批次数据集的数量相同;
将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框;所述目标检测模型包括依次连接的Back_Bone网络,Neck网络和Head网络;
将单批次训练集中的装甲目标图像和单批次数据集中的装甲目标图像输入至目标检测模型的Back_Bone网络,获得Back_Bone网络输出的图像特征图,并将Back_Bone网络输出的图像特征图输入无监督训练模型,获得单批次总数据集中每个装甲目标图像的场域预测结果;所述单批次总数据集包括单批次训练集和单批次数据集;所述无监督训练模型包括依次连接的梯度反转层和二分类器;
将单批次训练集中的装甲目标图像输入至目标检测模型,获得目标检测模型的Head网络输出的图像特征图,并将Head网络输出的图像特征图输入弱监督训练模型,获得单批次训练集中每个装甲目标图像的目标数量预测结果;所述弱监督训练模型包括依次连接的特征处理模块和目标计数模块;
基于单批次训练集中每个装甲目标图像的预测位置框、标注信息、目标数量预测结果及单批次总数据集中每个装甲目标图像的场域预测结果,计算模型训练损失;
根据所述模型训练损失对所述目标检测模型、所述二分类器和所述目标计数模块进行参数更新,获取下一个单批次训练集和单批次数据集,返回将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框的步骤,直到遍历完成所有的单批次训练集和单批次数据集,输出训练后的目标检测模型;
利用训练后的目标检测模型进行装甲目标检测。
2.根据权利要求1所述的跨域装甲目标检测方法,其特征在于,所述模型训练损失包括:目标分类损失、前景损失、位置回归损失、二分类交叉熵损失和目标数量预测误差损失;
基于单批次训练集中每个装甲目标图像的预测位置框、标注信息、目标数量预测结果及单批次总数据集中每个装甲目标图像的场域预测结果,计算模型训练损失,具体包括:
根据单批次训练集中的装甲目标图像的预测位置框和标注信息,计算目标分类损失、前景损失和位置回归损失;
根据单批次总数据集中每个装甲目标图像的场域预测结果,计算二次交叉熵损失;
根据单批次训练集中每个装甲目标图像的目标数量预测结果,计算目标数量预测误差损失。
3.根据权利要求2所述的跨域装甲目标检测方法,其特征在于,根据单批次训练集中的装甲目标图像的预测位置框和标注信息,计算目标分类损失、前景损失和位置回归损失,具体包括:
采用标签分配策略确定单批次训练集中的装甲目标图像的预测位置框中的正样本位置框;
基于单批次训练集中每个装甲目标图像的正样本位置框与标注信息,计算目标分类损失、前景损失和位置回归损失。
4.根据权利要求3所述的跨域装甲目标检测方法,其特征在于,采用标签分配策略确定单批次训练集中的装甲目标图像的预测位置框中的正样本位置框,具体包括:
采用如下公式计算单批次训练集中的装甲目标图像的预测位置框与标注信息中的标签位置框的修正交并比;
其中,sCIOU表示预测位置框与标签信息中的标签位置框的修正交并比,IOU表示预测位置框与标签信息中的标签位置框的交并比,ρ2(b,bgt)表示预测位置框的中心点与标签信息中的标签位置框的中心点之间的欧式距离,c表示预测位置框与标签信息中的标签位置框的最小外接矩形的对角线长度,α表示由预测位置框的横纵比和IOU共同确定的惩罚因子,wgt和hgt分别表示预测位置框的宽和高,w和h分别表示标签信息中的标签位置框的宽和高,k为约束参数,v表示预测位置框的横纵比,b和bgt分别表示标签信息中的标签位置框的中心点和预测位置框的中心点;
确定修正交并比大于预设阈值的预测位置框为正样本位置框。
5.根据权利要求1所述的跨域装甲目标检测方法,其特征在于,所述模型训练损失包括:目标分类损失、前景损失、位置回归损失、二分类交叉熵损失和目标数量预测误差损失;
根据所述模型训练损失对所述目标检测模型、所述二分类器和所述目标计数模块进行参数更新,具体包括:
根据目标分类损失、前景损失、位置回归损失和目标数量预测误差损失对Neck网络和Head网络的参数进行更新;
根据目标分类损失、前景损失、位置回归损失、二分类交叉熵损失和目标数量预测误差损失对Back_Bone网络的参数进行更新;
根据二分类交叉熵损失对二分类器的参数进行更新;
根据目标数量预测误差损失对目标计数模块的参数进行更新。
6.根据权利要求1所述的跨域装甲目标检测方法,其特征在于,将单批次训练集中的装甲目标图像输入至目标检测模型,之前还包括:
分别对单批次训练集中的装甲目标图像和单批次数据集中的装甲目标图像进行刚性变换,获得初步增强后的单批次训练集和初步增强后的单批次数据集;
分别对初步增强后的单批次训练集中的装甲目标图像和初步增强后的单批次数据集中的装甲目标图像进行多重马赛克图像增强,获得增强后的单批次训练集和增强后的单批次数据集。
7.根据权利要求6所述的跨域装甲目标检测方法,其特征在于,多重马赛克图像增强的具体步骤包括:
每4张装甲目标图像为一组,对目标数据集中的装甲目标图像进行马赛克图像增强,得到多张一次马赛克增强后的装甲目标图像;所述目标数据集为初步增强后的单批次训练集中的装甲目标图像或初步增强后的单批次数据集;
在多张一次马赛克增强后的装甲目标图像中选取16张装甲目标图像进行马赛克图像增强,得到4张二次马赛克增强后的装甲目标图像;
对4张二次马赛克增强后的装甲目标图像进行马赛克图像增强,获得三次马赛克增强后的装甲目标图像;
在目标数据集中选取一张装甲目标图像作为融合目标图像;
采用线性叠加方式,将三次马赛克增强后的装甲目标图像与所述融合目标图像进行融合,获得融合后的装甲目标图像,作为多重马赛克图像增强后的装甲目标图像。
8.一种跨域装甲目标检测***,其特征在于,所述***应用于权利要求1-7任一项所述的方法,所述***包括:
数据集构建模块,用于构建源域训练数据集和目标域数据集;所述源域训练数据集包括多张平视视角下的带有标注信息的装甲目标图像,目标域数据集包括多张俯视视角下的不带标注信息的装甲目标图像;
数据集划分模块,用于将所述源域训练数据集划分为多个单批次训练集,将所述目标域数据集划分为多个单批次数据集;单批次训练集的数量与单批次数据集的数量相同;
位置框预测模块,用于将单批次训练集中的装甲目标图像输入至目标检测模型,获得单批次训练集中每个装甲目标图像的预测位置框;所述目标检测模型包括依次连接的Back_Bone网络,Neck网络和Head网络;
场域预测模块,用于将单批次训练集中的装甲目标图像和单批次数据集中的装甲目标图像输入至目标检测模型的Back_Bone网络,获得Back_Bone网络输出的图像特征图,并将Back_Bone网络输出的图像特征图输入无监督训练模型,获得单批次总数据集中每个装甲目标图像的场域预测结果;所述单批次总数据集包括单批次训练集和单批次数据集;所述无监督训练模型包括依次连接的梯度反转层和二分类器;
目标数量预测模块,用于将单批次训练集中的装甲目标图像输入至目标检测模型,获得目标检测模型的Head网络输出的图像特征图,并将Head网络输出的图像特征图输入弱监督训练模型,获得单批次训练集中每个装甲目标图像的目标数量预测结果;所述弱监督训练模型包括依次连接的特征处理模块和目标计数模块;
损失计算模块,用于基于单批次训练集中每个装甲目标图像的预测位置框、标注信息、目标数量预测结果及单批次总数据集中每个装甲目标图像的场域预测结果,计算模型训练损失;
参数更新模块,用于根据所述模型训练损失对所述目标检测模型、所述二分类器和所述目标计数模块进行参数更新,获取下一个单批次训练集和单批次数据集,返回位置框预测模块,直到遍历完成所有的单批次训练集和单批次数据集,输出训练后的目标检测模型;
检测模块,用于利用训练后的目标检测模型进行装甲目标检测。
9.一种电子设备,其特征在于,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被执行时实现如权利要求1至7中任一项所述的方法。
CN202311515933.XA 2023-11-14 2023-11-14 一种跨域装甲目标检测方法、***、电子设备及存储介质 Active CN117576453B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311515933.XA CN117576453B (zh) 2023-11-14 2023-11-14 一种跨域装甲目标检测方法、***、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311515933.XA CN117576453B (zh) 2023-11-14 2023-11-14 一种跨域装甲目标检测方法、***、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN117576453A true CN117576453A (zh) 2024-02-20
CN117576453B CN117576453B (zh) 2024-07-19

Family

ID=89887374

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311515933.XA Active CN117576453B (zh) 2023-11-14 2023-11-14 一种跨域装甲目标检测方法、***、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN117576453B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392933A (zh) * 2021-07-06 2021-09-14 湖南大学 一种基于不确定性引导的自适应跨域目标检测方法
CN113469099A (zh) * 2021-07-13 2021-10-01 北京航科威视光电信息技术有限公司 目标检测模型的训练方法、检测方法、装置、设备及介质
US20210312232A1 (en) * 2020-04-06 2021-10-07 Adobe Inc. Domain alignment for object detection domain adaptation tasks
CN113807420A (zh) * 2021-09-06 2021-12-17 湖南大学 一种考虑类别语义匹配的域自适应目标检测方法及***
WO2022257314A1 (zh) * 2021-06-07 2022-12-15 上海商汤智能科技有限公司 图像检测方法和相关训练方法及相关装置、设备及介质
CN116342942A (zh) * 2023-03-16 2023-06-27 西安理工大学 基于多级域适应弱监督学习的跨域目标检测方法
CN116977783A (zh) * 2023-07-07 2023-10-31 中国电信股份有限公司技术创新中心 一种目标检测模型的训练方法、装置、设备及介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210312232A1 (en) * 2020-04-06 2021-10-07 Adobe Inc. Domain alignment for object detection domain adaptation tasks
WO2022257314A1 (zh) * 2021-06-07 2022-12-15 上海商汤智能科技有限公司 图像检测方法和相关训练方法及相关装置、设备及介质
CN113392933A (zh) * 2021-07-06 2021-09-14 湖南大学 一种基于不确定性引导的自适应跨域目标检测方法
CN113469099A (zh) * 2021-07-13 2021-10-01 北京航科威视光电信息技术有限公司 目标检测模型的训练方法、检测方法、装置、设备及介质
CN113807420A (zh) * 2021-09-06 2021-12-17 湖南大学 一种考虑类别语义匹配的域自适应目标检测方法及***
CN116342942A (zh) * 2023-03-16 2023-06-27 西安理工大学 基于多级域适应弱监督学习的跨域目标检测方法
CN116977783A (zh) * 2023-07-07 2023-10-31 中国电信股份有限公司技术创新中心 一种目标检测模型的训练方法、装置、设备及介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
戴凤智;魏宝昌;欧阳育星;金霞;: "基于深度学习的视频跟踪研究进展综述", 计算机工程与应用, no. 10, 7 March 2019 (2019-03-07) *
陶洋;胡昊;鲍灵浪;: "基于重建分类网络特征增强的盲域自适应分类器", 信息通信, no. 06, 15 June 2020 (2020-06-15) *

Also Published As

Publication number Publication date
CN117576453B (zh) 2024-07-19

Similar Documents

Publication Publication Date Title
CN109859190B (zh) 一种基于深度学习的目标区域检测方法
CN110930454B (zh) 一种基于边界框外关键点定位的六自由度位姿估计算法
CN107766794B (zh) 一种特征融合系数可学习的图像语义分割方法
CN113158862B (zh) 一种基于多任务的轻量级实时人脸检测方法
Costea et al. Creating roadmaps in aerial images with generative adversarial networks and smoothing-based optimization
CN112950645B (zh) 一种基于多任务深度学习的图像语义分割方法
CN110874578A (zh) 一种基于强化学习的无人机视角车辆识别追踪方法
CN107679537A (zh) 一种基于轮廓点orb特征匹配的无纹理空间目标姿态估计算法
CN110929610A (zh) 基于cnn模型和迁移学习的植物病害识别方法及***
Luo et al. Cross-spatiotemporal land-cover classification from VHR remote sensing images with deep learning based domain adaptation
CN113159067A (zh) 一种基于多粒度局部特征软关联聚合的细粒度图像辨识方法及装置
CN116051683B (zh) 一种基于风格自组的遥感图像生成方法、存储介质及设备
CN112101364A (zh) 基于参数重要性增量学习的语义分割方法
CN108765434A (zh) 基于增材再制造点云模型的轮廓提取方法
CN114332166A (zh) 基于模态竞争协同网络的可见光红外目标跟踪方法及装置
CN117237623B (zh) 一种无人机遥感图像语义分割方法及***
Lou et al. Research on edge detection method based on improved HED network
CN117576453B (zh) 一种跨域装甲目标检测方法、***、电子设备及存储介质
CN116824330A (zh) 一种基于深度学习的小样本跨域目标检测方法
CN108921852B (zh) 基于视差与平面拟合的双分支室外非结构化地形分割网络
CN113361530A (zh) 使用交互手段的图像语义精准分割及优化方法
CN110826563A (zh) 基于神经网络和概率图模型的手指静脉分割方法及装置
Li et al. Study on semantic image segmentation based on convolutional neural network
CN109993695A (zh) 一种不规则图形标注的图像碎片拼接方法及***
CN110189254B (zh) 一种图像数据集的形变参数集束平差方法及图像拼接方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant