CN112215255A - 一种目标检测模型的训练方法、目标检测方法及终端设备 - Google Patents

一种目标检测模型的训练方法、目标检测方法及终端设备 Download PDF

Info

Publication number
CN112215255A
CN112215255A CN202010933269.0A CN202010933269A CN112215255A CN 112215255 A CN112215255 A CN 112215255A CN 202010933269 A CN202010933269 A CN 202010933269A CN 112215255 A CN112215255 A CN 112215255A
Authority
CN
China
Prior art keywords
target
domain
image
domain image
detection model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010933269.0A
Other languages
English (en)
Other versions
CN112215255B (zh
Inventor
李国法
纪泽锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen University
Original Assignee
Shenzhen University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen University filed Critical Shenzhen University
Priority to CN202010933269.0A priority Critical patent/CN112215255B/zh
Publication of CN112215255A publication Critical patent/CN112215255A/zh
Application granted granted Critical
Publication of CN112215255B publication Critical patent/CN112215255B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/09Recognition of logos
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请适用于图像处理的技术领域,提供了一种目标检测模型的训练方法,包括:获取多个数据集,每个所述数据集包括源域图像以及目标域图像;将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及所述域分类模型;所述目标检测模型以及域分类模型用于对抗学习。上述方案,通过域分类模型与目标检测模型进行对抗学习,使得目标检测模型适应于不同的场景,提高了对不同场景下图像的检测精度。

Description

一种目标检测模型的训练方法、目标检测方法及终端设备
技术领域
本申请属于图像处理的技术领域,尤其涉及一种目标检测模型的训练方法、目标检测方法及终端设备。
背景技术
得益于近年来深度学习技术的快速发展,针对图像的目标检测的性能日益优良,广泛地应用在自动驾驶、智能交通、监控***和人脸检测等领域。
然而,传统的目标检测技术往往依赖于大量可靠的带标注的源域图像进行监督学习。当训练数据和测试数据的域不同时,传统的目标检测技术无法很好地胜任(其中,域是指图像所处的环境,例如白天和黑夜为不同域)。而域差异或域转移常常导致不利的模型泛化,造成对图像的检测精度较低,这是一个亟需解决的问题。
发明内容
有鉴于此,本申请实施例提供了一种目标检测模型的训练方法、目标检测方法及终端设备,可以解决域差异或域转移常常导致不利的模型泛化,造成对图像的检测精度较低的技术问题。
本申请实施例的第一方面提供了一种目标检测模型的训练方法,所述方法包括:
获取多个数据集,每个所述数据集包括源域图像以及目标域图像;所述源域图像中包括目标物体的标注信息;所述目标域图像中不包括目标物体的标注信息;
将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;所述过渡域图像包括所述源域图像中的所述目标物体、所述源域图像中的所述标注信息以及所述目标域图像中的背景信息;
将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习。
本申请实施例的第二方面提供了一种目标检测的方法,所述方法包括:
采集待检测图像;
获取预先训练的目标检测模型;所述预先训练的目标检测模型是由过渡域图像以及目标域图像训练对抗学习模型而得;其中,所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习;所述过渡域图像是由源域图像以及所述目标域图像进行转换处理,得到的图像;
将待识别的图像输入所述目标检测模型中,得到由所述目标检测模型输出的目标检测结果。
本申请实施例的第三方面提供了一种目标检测模型的训练装置,所述装置包括:
第一获取单元,用于获取多个数据集,每个所述数据集包括源域图像以及目标域图像;所述源域图像中包括目标物体的标注信息;所述目标域图像中不包括目标物体的标注信息;
图像处理单元,用于将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;所述过渡域图像包括所述源域图像中的所述目标物体、所述源域图像中的所述标注信息以及所述目标域图像中的背景信息;
训练单元,用于将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习。
本申请实施例的第四方面提供了一种目标检测的装置,所述装置包括:
采集单元,用于采集待检测图像;
第二获取单元,用于获取预先训练的目标检测模型;所述预先训练的目标检测模型是由过渡域图像以及目标域图像训练对抗学习模型而得;其中,所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习;所述过渡域图像是由源域图像以及所述目标域图像进行转换处理,得到的图像;
识别单元,用于将待识别的图像输入所述目标检测模型中,得到由所述目标检测模型输出的目标检测结果。
本申请实施例的第五方面提供了一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面或第二方面所述方法的步骤。
本申请实施例的第六方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面或第二方面所述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:本申请通过,获取多个数据集,每个所述数据集包括源域图像以及目标域图像;将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及所述域分类模型;所述目标检测模型以及域分类模型用于对抗学习。上述方案,通过域分类模型与目标检测模型进行对抗学习,使得目标检测模型适应于不同的场景,提高了对不同场景下图像的检测精度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1示出了本申请提供的一种目标检测模型的训练方法的示意性流程图;
图2示出了本申请提供的源域图像的示意图;
图3示出了本申请提供的目标域图像的示意图;
图4示出了本申请提供的一种目标检测模型的训练方法中步骤102具体示意性流程图;
图5示出了本申请提供的第一图像的示意图;
图6示出了本申请提供的一种目标检测模型的训练方法中步骤103具体示意性流程图;
图7示出了本申请提供的一种目标检测模型的训练方法中目标检测模型和域分类模型层级结构示意图;
图8示出了本申请提供的一种目标检测模型的训练方法中步骤1032具体示意性流程图;
图9示出了本申请提供的一种目标检测模型的训练方法中步骤1035具体示意性流程图;
图10示出了本申请提供的一种目标检测模型的训练方法中步骤1037具体示意性流程图;
图11示出了本申请提供的另一种目标检测模型的训练方法的示意性流程图;
图12示出了本申请提供的一种目标检测的方法的示意性流程图;
图13示出了本申请提供的一种目标检测模型的训练装置的示意图;
图14示出了本申请提供的一种目标检测的装置的示意图;
图15是本发明一实施例提供的一种终端设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定***结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的***、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于监测到”。类似地,短语“如果确定”或“如果监测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦监测到[所描述条件或事件]”或“响应于监测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
在机器学习中,域是指图像的场景。例如,白天与黑夜为不同域,晴天与雨天为不同域。在不同域中,物体的存在不同的差异。而传统的目标检测通常假设训练数据和测试数据都来自相同域,而现实应用中的数据与训练数据往往处于不同域。若欲使目标检测模型适用于不同域,则需要大量的带有标注信息的源域图像。然而,收集带有标注信息的源域图像是昂贵的,有时是不可能的。
当训练数据和测试数据的域不同时,传统的目标检测技术无法很好地胜任(其中,域是指图像的场景不同)。例如,域在场景、天气、照明条件和相机设置方面有所不同。而域差异或域转移常常导致模型泛化,造成目标检测精度较低,这是一个亟需解决的问题。
有鉴于此,本申请实施例提供了一种目标检测模型的训练方法、目标检测方法及终端设备,可以解决上述技术问题。
请参见图1,图1示出了本申请提供的一种目标检测模型的训练方法的示意性流程图。
如图1所示,该方法可以包括如下步骤:
步骤101,获取多个数据集,每个所述数据集包括源域图像以及目标域图像;所述源域图像中包括目标物体的标注信息;所述目标域图像中不包括目标物体的标注信息。
获取多个预存的源域图像以及目标域图像。源域图像中包含目标物体的标注信息,请参见图2,图2示出了本申请提供的源域图像的示意图。如图2所示,源域图像为白天采集的道路图像,源域图像中的车辆附近的矩形框(目标物体)为标注信息,标注信息框定了目标物体的大小和位置。目标域图像为与源域不同域的图像,且不带有标注信息,请参见图3,图3示出了本申请提供的目标域图像的示意图。如图3所示,目标域图像为夜晚采集的道路图像。
步骤102,将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;所述过渡域图像包括所述源域图像中的所述目标物体、所述源域图像中的所述标注信息以及所述目标域图像中的背景信息。
源域图像和目标域图像通常有一些共同点(即相同特征分布)和差异。故将源域图像和目标域图像结合,得到过渡域图像,使得过渡域图像同时拥有源域图像和目标域图像的特征。以减小不同域之间的差异,使得更好地捕获两个域的共同点,实现目标检测模型的训练目的。
其中,将源域图像以及目标域图像进行转换处理的过程,如下:
具体地,步骤102具体包括如下步骤。请参见图4,图4示出了本申请提供的一种目标检测模型的训练方法中步骤102具体示意性流程图。
步骤1021,将所述源域图像以及所述目标域图像输入图像转换模型,得到由所述图像转换模型输出的第一图像;所述第一图像包括所述源域图像中的所述目标物体以及所述目标域图像中的背景信息。
通过图像转换模型将源域图像和目标域图像转换为第一图像。第一图像中包含源域图像中的目标物体以及目标域图像中的背景信息,且目标物体在图中的位置和大小不变。即将目标域图像中的背景信息以及源域图像中的目标物体合成为第一图像。
其中,图像转换模型可以是CycleGAN(循环生成对抗网络)等。
示例性地,CycleGAN中设置有两个生成对抗网络(GAN)。每个GAN中设置有生成器和判别器,用于学习源域图像和目标域图像之间的转换函数。每个GAN生成器将通过最小化损失来学习其对应的转换函数(即源域图像转化为目标域图像的转换函数,或目标域图像转化为源域图像的转换函数)。并通过转化函数生成对应的转化图像。通过鉴别器计算转化图像与原图像之间的差异(例如,源域转化图像与源域图像之间的差异,或目标域转化图像与目标域图像之间的差异)来计算生成器损失,进而更新生成器以及鉴别器参数,彼此改善,得到较优的转化效果。进而得到图像转换模型输出的第一图像。
步骤1022,将所述目标物体的标注信息合成至所述第一图像中,得到所述过渡域图像。
根据目标物体的位置,将目标物体的标注信息合成至第一图像,得到过渡域图像。请参见图5,图5示出了本申请提供的第一图像的示意图。如图5所示,过渡域图像拥有与源域图像相同的目标物体以及标注信息,过渡域图像还拥有与目标域图像相同的背景信息,以减小不同域之间的差异。
步骤103,将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习。
对抗学习模型中包含两个模型,分别是目标检测模型以及域分类模型。将过渡域图像以及目标域图像输入对抗学习模型,使目标检测模型以及域分类模型对抗学习,以得到训练后的目标检测模型。
具体地,步骤103具体包括如下步骤。请参见图6,图6示出了本申请提供的一种目标检测模型的训练方法中步骤103具体示意性流程图。
步骤1031,通过目标检测模型以及域分类模型共有的第一卷积网络,提取所述过渡域图像中的过渡特征图以及所述目标域图像中的目标特征图。
为了更好地解释本实施例的技术方案,本实施例结合图7对技术方案进行解释说明。请参见图7,图7示出了本申请提供的一种目标检测模型的训练方法中对抗学习模型层级结构示意图。如图7所示,对抗学习模型包括第一卷积网络、第二卷积网络、第三卷积网络、域分类器、梯度反转层以及目标检测器。其中,第一卷积网络用于提取过渡域图像和目标域图像中的相似特征。第二卷积网络用于提取过渡特征图中的标注信息相关的特征。第三卷积网络用于提取目标特征图中的域类型相关的特征。域分类器用于识别域类型。目标检测器用于识别标注信息以及用于分类目标物体。梯度反转层用于反转反向传播的偏导数,以实现第一卷积网络与域分类器对抗学习的效果。
图7中包括目标检测模型和域分类模型的层级结构。其中,第一卷积网络至目标检测器为目标检测模型的层级结构。第一卷积网络至域分类器为域分类模型的层级结构。
由上述可知,第一卷积网络为目标检测模型以及域分类模型共有的卷积网络。本实施例将过渡域图像和目标域图像输入第一卷积网络,通过第一卷积网络提取过渡域图像中的过渡特征图以及目标域图像中的目标特征图。
可以理解的是,由于过渡特征图和目标特征图都是通过第一卷积网络提取而得。故,过渡特征图和目标特征图是过渡域图像与目标域图像中共有的特征。
步骤1032,根据所述过渡特征图识别所述过渡域图像中的标注信息。
在得到过渡特征图后,根据目标检测模型后续的层级结构,识别过渡域图像中的标注信息。
具体地,步骤1032具体包括如下步骤。请参见图8,图8示出了本申请提供的一种目标检测模型的训练方法中步骤1032具体示意性流程图。
步骤1032a,通过所述目标检测模型中的第二卷积网络提取所述过渡特征图中的第一待识别特征图。
将过渡特征图输入第二卷积网络,提取过渡特征图中的第一待识别特征图。
步骤1032b,根据所述第一待识别特征图识别所述过渡域图像中的标注信息。
由于传统的跨域目标检测往往通过在图像上滑动复杂排列的可疑区域,进而得到多个候选区域。并对候选区域进行分布对齐,而其提取的候选区域中往往存在大量的错误信息,强行的对齐分布会损害目标检测性能。
故基于上述问题,本申请通过CenterNet(关键点检测模型)中的识别方法预测标注信息的关键点(即中心)。然后回归出标注信息的其他属性,例如大小、3D位置、方向甚至是其姿态。
可以理解的是,当过渡域图像经过逐层处理后,得到的第一待识别特征图为heatmap(热图)。heatmap中包括多个热力峰值点,热力峰值点为每个目标物体的关键点。故可根据关键点检测的方法预测标注信息(即矩阵标注框)的中点。
步骤1033,根据所述标注信息,计算所述目标检测模型的第一损失值。
获取源域图像中真实标注信息。根据真实标注信息与目标检测模型输出的标注信息计算目标检测模型的第一损失值。其中,目标检测模型输出的标注信息包括目标关键点和矩形框大小信息。
第一损失值通过如下公式一计算:
Ldet=LkoffLoffsizeLsize
其中,Ldet表示第一损失值,Lk表示目标关键点损失值,Loff表示目标中心偏移损失值,Lsize表示目标尺寸损失值。
目标关键点损失值Lk计算过程如下:
将真实标注信息的中点坐标进行下采样处理,并通过高斯核将实标注信息的中点坐标分布至过渡特征图,以计算目标关键点损失值Lk
首先,高斯核Yxyc如下公式二所示:
Figure BDA0002671027330000081
其中,σp表示标准偏差,x与y表示真实标注信息的关键点坐标,
Figure BDA0002671027330000082
Figure BDA0002671027330000083
表示下采样处理后的真实标注信息的关键点坐标。
然后,通过如下公式三计算目标关键点损失值Lk
Figure BDA0002671027330000084
其中,α和β表示关键点损失的超参数,N表示关键点的数量,Yxyc表示高斯核,
Figure BDA0002671027330000085
表示检测置信度。
通过如下公式四计算目标中心偏移损失Loff
Figure BDA0002671027330000086
其中,
Figure BDA0002671027330000087
表示偏移量的预测,R表示输出步长;p和
Figure BDA00026710273300000813
分别表示真实标注信息的关键点和目标关键点。
目标尺寸损失值Lsize计算过程如下:
假设
Figure BDA0002671027330000088
是类别为ck的对象k的边界框,通过关键点估计因子
Figure BDA0002671027330000089
来预测图像中的所有中心点,并对每个对象k进行对象尺寸sk的回归,如下公式五所示:
Figure BDA00026710273300000810
目标尺寸损失值Lsize通过如下公式六计算:
Figure BDA00026710273300000811
式中,sk表示对象k的尺寸大小,
Figure BDA00026710273300000812
表示预测尺寸大小。
由上述得到目标关键点损失值Lk,目标中心偏移损失值Loff,目标尺寸损失值Lsize,通过公式一计算第一损失值Ldet
步骤1034,利用反向传播算法,根据所述第一损失值调整所述目标检测模型的第一参数。
根据第一损失值计算每个第一参数的偏导数。通过梯度下降法更新第一参数。
步骤1035,根据所述目标特征图识别所述目标域图像的域类别;所述域类别包括过渡域或目标域。
根据目标特征图输入域分类模型的后续层级结构,以通过后续层级结构识别目标域图像的域类别。
具体地,步骤1035具体包括如下步骤。请参见图9,图9示出了本申请提供的一种目标检测模型的训练方法中步骤1035具体示意性流程图。
步骤1035a,通过所述域分类模型中的第三卷积网络提取所述目标域中的第二待识别特征图。
将目标特征图输入第三卷积网络,以通过第三卷积网络提取目标域中的第二待识别特征图。第二待识别特征图是域类型相关的高维特征图。
步骤1035b,根据所述第二待识别特征图识别所述目标域图像的所述域类别。
通过域分类器识别第二待识别特征图中的域类别。
步骤1036,根据所述域类别,计算所述域分类模型的第二损失值。
第二损失值Lda通过如下公式七计算:
Figure BDA0002671027330000091
其中,di表示第i个训练图像的域标签,di=0代表过渡域,di=1代表目标域,
Figure BDA0002671027330000092
表示第i个图像的特征映射的(u,v)处的域分类器的输出。
步骤1037,利用反向传播算法,根据所述第二损失值调整所述域分类模型的第二参数。
根据第二损失值计算每个第二参数的偏导数。通过梯度下降法更新第二参数。
具体地,步骤1037具体包括如下步骤。请参见图10,图10示出了本申请提供的一种目标检测模型的训练方法中步骤1037具体示意性流程图。
步骤1037a,根据所述第二损失值分别计算所述第一卷积网络、第三卷积网络以及所述梯度反转层的第二参数的偏导数。
计算偏导数过程为现有技术,在此不过多赘述。
步骤1037b,根据所述偏导数调整所述第一卷积网络和所述第三卷积网络的所述第二参数。
根据偏导数调整模型参数为现有技术,在此不过多赘述。
步骤1037c,根据所述偏导数的相反数,调整所述梯度反转层的第二参数。
当计算得到梯度反转层的偏导数后,根据偏导数的相反数更新梯度反转层的第二参数。众所周知,反向传播是指将损失(预测值和真实值的差距)逐层向后传递,然后每层网络都会根据传回来的误差计算偏导数,进而更新本层网络的参数。而梯度反转层所做的就是,就是将传到本层的偏导数乘以一个负数,这样就会使得梯度反转层前后的网络其训练目标相反,以实现对抗的效果。
步骤1038,将多个所述数据集对应的所述过渡域图像以及所述目标域图像输入对抗学习模型中,循环执行所述通过目标检测模型以及域分类模型共有的第一卷积网络,提取所述过渡域图像中的过渡特征图以及所述目标域图像中的目标特征图的步骤以及后续步骤。
每个数据集,依次执行步骤1031至步骤1038,直至全部数据集完成训练流程。
步骤1039,将多次训练中所述第一损失值最小且所述第二损失值最大时对应的目标检测模型,作为所述训练后的目标检测模型。
需要强调的是,步骤1031至步骤1034是训练目标检测模型的过程,即第一卷积网络至目标检测器层级结构的训练过程。而步骤1035至步骤1037是训练域分类模型的过程,即第一卷积网络至域分类器层级结构的训练过程。
其中,目标检测器与域分类器形成对抗学习。当目标检测器对应的第一损失值最小,且域分类器对应的第二损失值最大。则目标检测模型的检测精度最高。
为了更好地解释本实施例中,目标检测器与域分类器之间对抗学***。此时,制造***的犯罪团伙需要再根据研究***的犯罪团伙提出的建议以及官方验钞机构发现的缺陷进行调整改进,以制造出更优良的***。循环往复,制造***的犯罪团伙的做工越来越精良,导致官方验钞机构无法识别***,制造***的犯罪团伙和研究***的犯罪团伙形成独树一帜的专业造假团队,即得到检测精度较高的目标检测模型。
在本实施例中,获取多个数据集,每个所述数据集包括源域图像以及目标域图像;将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及域分类模型用于对抗学习。上述方案,通过域分类模型与目标检测模型进行对抗学习,使得目标检测模型适应于不同的场景,提高了对不同场景下图像的检测精度。
可选地,在上述图10所示实施例的基础上,在所述根据所述偏导数的相反数,调整所述梯度反转层的第二参数之前,还包括如下步骤,请参见图11,图11示出了本申请提供的另一种目标检测模型的训练方法的示意性流程图。本实施例中步骤111至步骤112,与图10所示实施例中步骤1037a至步骤1037b相同,具体请参阅图10所示实施例中步骤1037a至步骤1037b的相关描述,此处不赘述。
步骤111,根据所述第二损失值分别计算所述第一卷积网络、第三卷积网络以及所述梯度反转层的第二参数的偏导数。
步骤112,根据所述偏导数调整所述第一卷积网络和所述第三卷积网络的所述第二参数。
步骤113,根据训练次数调整所述梯度反转层的第二参数,得到第三参数。
为了在训练过程的抑制域分类器的噪声信号,故在梯度反向层中引入变化适应因子,以通过变化适应因子调整第二参数,得到第三参数,达到抑制噪声信号的目的。
具体地,步骤113具体包括:根据如下公式计算所述第三参数:
Figure BDA0002671027330000111
其中,τ表示所述第二参数,p表示当前训练次数在总训练次数中的百分比,λp表示所述第三参数。
步骤114,根据所述偏导数的相反数,调整所述梯度反转层的第三参数。
在本实施例中,通过根据训练次数调整所述梯度反转层的第二参数,得到第三参数。达到抑制噪声信号的目的,提高了训练目标检测模型的精度。
本申请实施例提供了一种目标检测的方法,以应用上述训练后的目标检测模型。
请参见图12,图12示出了本申请提供的一种目标检测的方法的示意性流程图。
步骤121,采集待检测图像。
步骤122,获取预先训练的目标检测模型;所述预先训练的目标检测模型是由过渡域图像以及目标域图像训练对抗学习模型而得;其中,所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习;所述过渡域图像是由源域图像以及所述目标域图像进行转换处理,得到的图像。
步骤123,将待识别的图像输入所述目标检测模型中,得到由所述目标检测模型输出的目标检测结果。
本实施例通过,采集待检测图像;获取预先训练的目标检测模型;所述预先训练的目标检测模型是由过渡域图像以及目标域图像训练对抗学习模型而得;其中,所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习;所述过渡域图像是由源域图像以及所述目标域图像进行转换处理,得到的图像;将待识别的图像输入所述目标检测模型中,得到由所述目标检测模型输出的目标检测结果。通过上述方案,利用训练后的目标检测模型识别待检测图像中的目标检测结果。提高了目标检测的识别精度。
如图13本申请提供了一种目标检测模型的训练装置13,请参见图13,图13示出了本申请提供的一种目标检测模型的训练装置的示意图,如图13所示一种目标检测模型的训练装置包括:
第一获取单元131,用于获取多个数据集,每个所述数据集包括源域图像以及目标域图像;所述源域图像中包括目标物体的标注信息;所述目标域图像中不包括目标物体的标注信息;
图像处理单元132,用于将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;所述过渡域图像包括所述源域图像中的所述目标物体、所述源域图像中的所述标注信息以及所述目标域图像中的背景信息;
训练单元133,用于将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习。
本申请提供的一种目标检测模型的训练装置,获取多个数据集,每个所述数据集包括源域图像以及目标域图像;将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及域分类模型用于对抗学习。上述方案,通过域分类模型与目标检测模型进行对抗学习,使得目标检测模型适应于不同的场景,提高了对不同场景下图像的检测精度。
如图14本申请提供了一种目标检测的装置14,请参见图14,图14示出了本申请提供的一种目标检测的装置的示意图,如图14所示一种目标检测的装置包括:
采集单元141,用于采集待检测图像;
第二获取单元142,用于获取预先训练的目标检测模型;所述预先训练的目标检测模型是由过渡域图像以及目标域图像训练对抗学习模型而得;其中,所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习;所述过渡域图像是由源域图像以及所述目标域图像进行转换处理,得到的图像;
识别单元143,用于将待识别的图像输入所述目标检测模型中,得到由所述目标检测模型输出的目标检测结果。
本申请提供的一种目标检测模型的训练装置,采集待检测图像;获取预先训练的目标检测模型;所述预先训练的目标检测模型是由过渡域图像以及目标域图像训练对抗学习模型而得;其中,所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习;所述过渡域图像是由源域图像以及所述目标域图像进行转换处理,得到的图像;将待识别的图像输入所述目标检测模型中,得到由所述目标检测模型输出的目标检测结果。通过上述方案,利用训练后的目标检测模型识别待检测图像中的目标检测结果。提高了目标检测的识别精度。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图15是本发明一实施例提供的一种终端设备的示意图。如图15所示,该实施例的一种终端设备15包括:处理器150、存储器151以及存储在所述存储器151中并可在所述处理器150上运行的计算机程序152,例如一种目标检测模型的训练程序。所述处理器150执行所述计算机程序152时实现上述各个一种目标检测模型的训练方法或一种目标检测的方法实施例中的步骤,例如图1所示的步骤101至步骤103。或者,所述处理器150执行所述计算机程序152时实现上述各装置实施例中各单元的功能,例如图13所示单元131至133或图14所示单元141至143的功能。
示例性的,所述计算机程序152可以被分割成一个或多个单元,所述一个或者多个单元被存储在所述存储器151中,并由所述处理器150执行,以完成本发明。所述一个或多个单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序152在所述一种终端设备15中的执行过程。例如,所述计算机程序152可以被分割成获取单元和计算单元各单元具体功能如下:
第一获取单元,用于获取多个数据集,每个所述数据集包括源域图像以及目标域图像;所述源域图像中包括目标物体的标注信息;所述目标域图像中不包括目标物体的标注信息;
图像处理单元,用于将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;所述过渡域图像包括所述源域图像中的所述目标物体、所述源域图像中的所述标注信息以及所述目标域图像中的背景信息;
训练单元,用于将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习。
采集单元,用于采集待检测图像;
第二获取单元,用于获取预先训练的目标检测模型;所述预先训练的目标检测模型是由过渡域图像以及目标域图像训练对抗学习模型而得;其中,所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习;所述过渡域图像是由源域图像以及所述目标域图像进行转换处理,得到的图像;
识别单元,用于将待识别的图像输入所述目标检测模型中,得到由所述目标检测模型输出的目标检测结果。
所述一种终端设备15可以无线路由器、无线网关或无线网桥等网络设备。所述一种终端设备可包括,但不仅限于,处理器150、存储器151。本领域技术人员可以理解,图15仅仅是一种终端设备15的示例,并不构成对一种终端设备15的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述一种终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器150可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器151可以是所述一种终端设备15的内部存储单元,例如一种终端设备15的硬盘或内存。所述存储器151也可以是所述一种终端设备15的外部存储设备,例如所述一种终端设备15上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器151还可以既包括所述一种终端设备15的内部存储单元也包括外部存储设备。所述存储器151用于存储所述计算机程序以及所述一种终端设备所需的其他程序和数据。所述存储器151还可以用于暂时地存储已经输出或者将要输出的数据。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述***中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (11)

1.一种目标检测模型的训练方法,其特征在于,所述方法包括:
获取多个数据集,每个所述数据集包括源域图像以及目标域图像;所述源域图像中包括目标物体的标注信息;所述目标域图像中不包括目标物体的标注信息;
将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像;所述过渡域图像包括所述源域图像中的所述目标物体、所述源域图像中的所述标注信息以及所述目标域图像中的背景信息;
将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型;所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习。
2.如权利要求1所述方法,其特征在于,所述将每个所述数据集中的所述源域图像以及所述目标域图像进行转换处理,得到过渡域图像,包括:
将所述源域图像以及所述目标域图像输入图像转换模型,得到由所述图像转换模型输出的第一图像;所述第一图像包括所述源域图像中的所述目标物体以及所述目标域图像中的背景信息;
将所述目标物体的标注信息合成至所述第一图像中,得到所述过渡域图像。
3.如权利要求1所述方法,其特征在于,所述将所述过渡域图像以及所述目标域图像输入对抗学习模型中,训练目标检测模型,得到训练后的目标检测模型,包括:
通过目标检测模型以及域分类模型共有的第一卷积网络,提取所述过渡域图像中的过渡特征图以及所述目标域图像中的目标特征图;
根据所述过渡特征图识别所述过渡域图像中的所述标注信息以及所述目标物体的类别;
根据所述标注信息以及所述类别,计算所述目标检测模型的第一损失值;
利用反向传播算法,根据所述第一损失值调整所述目标检测模型的第一参数;
根据所述目标特征图识别所述目标域图像的域类别;所述域类别包括过渡域或目标域;
根据所述域类别,计算所述域分类模型的第二损失值;
利用反向传播算法,根据所述第二损失值调整所述域分类模型的第二参数;
将多个所述数据集对应的所述过渡域图像以及所述目标域图像输入对抗学习模型中,循环执行所述通过目标检测模型以及域分类模型共有的第一卷积网络,提取所述过渡域图像中的过渡特征以及所述目标域图像中的目标特征的步骤以及后续步骤;
将多次训练中所述第一损失值最小且所述第二损失值最大时对应的目标检测模型,作为所述训练后的目标检测模型。
4.如权利要求3所述方法,其特征在于,所述根据所述过渡特征图识别所述过渡域图像中的标注信息以及目标物体的类别,包括:
通过所述目标检测模型中的第二卷积网络提取所述过渡特征中的第一待识别特征图;
根据所述第一待识别特征图识别所述过渡域图像中的所述标注信息以及所述目标物体的类别。
5.如权利要求3所述方法,其特征在于,所述根据所述目标特征图识别所述目标域图像的域类别,包括:
通过所述域分类模型中的第三卷积网络提取所述目标域中的第二待识别特征图;
根据所述第二待识别特征图识别所述目标域图像的所述域类别。
6.如权利要求3所述方法,其特征在于,所述域分类模型中设置有梯度反转层;
所述利用反向传播算法,根据所述第二损失值调整所述域分类模型的第二参数,包括:
根据所述第二损失值分别计算所述第一卷积网络、第三卷积网络以及所述梯度反转层的第二参数的偏导数;
根据所述偏导数调整所述第一卷积网络和所述第三卷积网络的所述第二参数;
根据所述偏导数的相反数,调整所述梯度反转层的第二参数。
7.如权利要求6所述方法,其特征在于,在所述根据所述偏导数的相反数,调整所述梯度反转层的第二参数之前,还包括:
根据训练次数调整所述梯度反转层的第二参数,得到第三参数;
相应的,根据所述偏导数的相反数,调整所述梯度反转层的第二参数,包括:
根据所述偏导数的相反数,调整所述梯度反转层的第三参数。
8.如权利要求7所述方法,其特征在于,所述根据训练次数调整所述梯度反转层的第二参数,得到第三参数,包括:
根据如下公式计算所述第三参数:
Figure FDA0002671027320000021
其中,τ表示所述第二参数,p表示当前训练次数在总训练次数中的百分比,λp表示所述第三参数。
9.一种目标检测的方法,其特征在于,所述方法包括:
采集待检测图像;
获取预先训练的目标检测模型;所述预先训练的目标检测模型是由过渡域图像以及目标域图像训练对抗学习模型而得;其中,所述对抗学习模型包括目标检测模型以及域分类模型;所述目标检测模型以及所述域分类模型用于对抗学习;所述过渡域图像是由源域图像以及所述目标域图像进行转换处理,得到的图像;
将待识别的图像输入所述目标检测模型中,得到由所述目标检测模型输出的目标检测结果。
10.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至8或权利要求9任一项所述方法的步骤。
11.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8或权利要求9任一项所述方法的步骤。
CN202010933269.0A 2020-09-08 2020-09-08 一种目标检测模型的训练方法、目标检测方法及终端设备 Active CN112215255B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010933269.0A CN112215255B (zh) 2020-09-08 2020-09-08 一种目标检测模型的训练方法、目标检测方法及终端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010933269.0A CN112215255B (zh) 2020-09-08 2020-09-08 一种目标检测模型的训练方法、目标检测方法及终端设备

Publications (2)

Publication Number Publication Date
CN112215255A true CN112215255A (zh) 2021-01-12
CN112215255B CN112215255B (zh) 2023-08-18

Family

ID=74050120

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010933269.0A Active CN112215255B (zh) 2020-09-08 2020-09-08 一种目标检测模型的训练方法、目标检测方法及终端设备

Country Status (1)

Country Link
CN (1) CN112215255B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128413A (zh) * 2021-04-22 2021-07-16 广州织点智能科技有限公司 一种人脸检测模型训练方法、人脸检测方法及其相关装置
CN113283598A (zh) * 2021-06-11 2021-08-20 清华大学 模型训练方法、装置、存储介质及电子设备
CN113298122A (zh) * 2021-04-30 2021-08-24 北京迈格威科技有限公司 目标检测方法、装置和电子设备
CN113610787A (zh) * 2021-07-27 2021-11-05 广东省科技基础条件平台中心 图像缺陷检测模型的训练方法、装置、计算机设备
CN113673570A (zh) * 2021-07-21 2021-11-19 南京旭锐软件科技有限公司 电子器件图片分类模型的训练方法、装置及设备
CN113723431A (zh) * 2021-09-01 2021-11-30 上海云从汇临人工智能科技有限公司 图像识别方法、装置以及计算机可读存储介质
CN113723457A (zh) * 2021-07-28 2021-11-30 浙江大华技术股份有限公司 图像识别方法和装置、存储介质及电子装置
CN113837300A (zh) * 2021-09-29 2021-12-24 上海海事大学 基于区块链的自动驾驶跨域目标检测方法
CN113869361A (zh) * 2021-08-20 2021-12-31 深延科技(北京)有限公司 模型训练方法、目标检测方法及相关装置
CN114266937A (zh) * 2021-12-20 2022-04-01 北京百度网讯科技有限公司 模型训练、图像处理方法,装置,设备以及存储介质
CN114973168A (zh) * 2022-08-01 2022-08-30 北京科技大学 一种跨场景交通目标检测方法和***

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102080132A (zh) * 2010-11-16 2011-06-01 烟台出入境检验检疫局检验检疫技术中心 半巢式-RT-Realtime PCR检测马铃薯X病毒的试剂盒
CN102231191A (zh) * 2011-07-17 2011-11-02 西安电子科技大学 基于asift的多模态图像特征提取与匹配方法
CN109583342A (zh) * 2018-11-21 2019-04-05 重庆邮电大学 基于迁移学习的人脸活体检测方法
CN110399856A (zh) * 2019-07-31 2019-11-01 上海商汤临港智能科技有限公司 特征提取网络训练方法、图像处理方法、装置及其设备
CN110414631A (zh) * 2019-01-29 2019-11-05 腾讯科技(深圳)有限公司 基于医学图像的病灶检测方法、模型训练的方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102080132A (zh) * 2010-11-16 2011-06-01 烟台出入境检验检疫局检验检疫技术中心 半巢式-RT-Realtime PCR检测马铃薯X病毒的试剂盒
CN102231191A (zh) * 2011-07-17 2011-11-02 西安电子科技大学 基于asift的多模态图像特征提取与匹配方法
CN109583342A (zh) * 2018-11-21 2019-04-05 重庆邮电大学 基于迁移学习的人脸活体检测方法
CN110414631A (zh) * 2019-01-29 2019-11-05 腾讯科技(深圳)有限公司 基于医学图像的病灶检测方法、模型训练的方法及装置
CN110399856A (zh) * 2019-07-31 2019-11-01 上海商汤临港智能科技有限公司 特征提取网络训练方法、图像处理方法、装置及其设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王露荻;解月江;: "基于域适应Faster RCNN的复杂背景目标检测", 航天控制, no. 01, pages 1 - 5 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128413A (zh) * 2021-04-22 2021-07-16 广州织点智能科技有限公司 一种人脸检测模型训练方法、人脸检测方法及其相关装置
CN113298122A (zh) * 2021-04-30 2021-08-24 北京迈格威科技有限公司 目标检测方法、装置和电子设备
CN113283598A (zh) * 2021-06-11 2021-08-20 清华大学 模型训练方法、装置、存储介质及电子设备
CN113673570A (zh) * 2021-07-21 2021-11-19 南京旭锐软件科技有限公司 电子器件图片分类模型的训练方法、装置及设备
CN113610787A (zh) * 2021-07-27 2021-11-05 广东省科技基础条件平台中心 图像缺陷检测模型的训练方法、装置、计算机设备
CN113723457A (zh) * 2021-07-28 2021-11-30 浙江大华技术股份有限公司 图像识别方法和装置、存储介质及电子装置
CN113869361A (zh) * 2021-08-20 2021-12-31 深延科技(北京)有限公司 模型训练方法、目标检测方法及相关装置
CN113723431A (zh) * 2021-09-01 2021-11-30 上海云从汇临人工智能科技有限公司 图像识别方法、装置以及计算机可读存储介质
CN113723431B (zh) * 2021-09-01 2023-08-18 上海云从汇临人工智能科技有限公司 图像识别方法、装置以及计算机可读存储介质
CN113837300A (zh) * 2021-09-29 2021-12-24 上海海事大学 基于区块链的自动驾驶跨域目标检测方法
CN113837300B (zh) * 2021-09-29 2024-03-12 上海海事大学 基于区块链的自动驾驶跨域目标检测方法
CN114266937A (zh) * 2021-12-20 2022-04-01 北京百度网讯科技有限公司 模型训练、图像处理方法,装置,设备以及存储介质
CN114973168A (zh) * 2022-08-01 2022-08-30 北京科技大学 一种跨场景交通目标检测方法和***

Also Published As

Publication number Publication date
CN112215255B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
CN112215255B (zh) 一种目标检测模型的训练方法、目标检测方法及终端设备
US7873208B2 (en) Image matching system using three-dimensional object model, image matching method, and image matching program
CN110689043A (zh) 一种基于多重注意力机制的车辆细粒度识别方法及装置
US10445602B2 (en) Apparatus and method for recognizing traffic signs
CN110728294A (zh) 一种基于迁移学习的跨领域图像分类模型构建方法和装置
CN112862093B (zh) 一种图神经网络训练方法及装置
Song et al. EM simulation-aided zero-shot learning for SAR automatic target recognition
CN113409361B (zh) 一种多目标跟踪方法、装置、计算机及存储介质
CN111489401B (zh) 一种图像颜色恒常性处理方法、***、设备和存储介质
CN110321761B (zh) 一种行为识别方法、终端设备及计算机可读存储介质
Kanwal et al. Digital image splicing detection technique using optimal threshold based local ternary pattern
CN110533119B (zh) 标识识别方法及其模型的训练方法、装置及电子***
CN112364916B (zh) 基于迁移学习的图像分类方法、相关设备及存储介质
CN112990282B (zh) 一种细粒度小样本图像的分类方法及装置
CN113642639B (zh) 活体检测方法、装置、设备和存储介质
CN114913498A (zh) 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN112668532A (zh) 基于多阶段混合注意网络的人群计数方法
CN110619280B (zh) 一种基于深度联合判别学习的车辆重识别方法及装置
TWI803243B (zh) 圖像擴增方法、電腦設備及儲存介質
CN112288701A (zh) 一种智慧交通图像检测方法
CN110135428B (zh) 图像分割处理方法和装置
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
CN112288702A (zh) 一种基于车联网的道路图像检测方法
CN112364864A (zh) 一种车牌识别方法、装置、电子设备及存储介质
CN116597246A (zh) 模型训练方法、目标检测方法、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant