CN115147680A - 目标检测模型的预训练方法、装置以及设备 - Google Patents

目标检测模型的预训练方法、装置以及设备 Download PDF

Info

Publication number
CN115147680A
CN115147680A CN202210768971.5A CN202210768971A CN115147680A CN 115147680 A CN115147680 A CN 115147680A CN 202210768971 A CN202210768971 A CN 202210768971A CN 115147680 A CN115147680 A CN 115147680A
Authority
CN
China
Prior art keywords
loss function
point
detection model
sample image
feature set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202210768971.5A
Other languages
English (en)
Other versions
CN115147680B (zh
Inventor
陈松
张滨
王云浩
韩树民
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202210768971.5A priority Critical patent/CN115147680B/zh
Publication of CN115147680A publication Critical patent/CN115147680A/zh
Application granted granted Critical
Publication of CN115147680B publication Critical patent/CN115147680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种目标检测模型的预训练方法、装置、设备、存储介质以及程序产品,涉及人工智能技术领域,具体为深度学习、图像处理、计算机视觉技术领域。该方法的一具体实施方式包括利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到第一样本图像的至少两个第一点特征集合;基于第一点特征集合,计算第一检测模型的损失函数;基于损失函数,更新第一检测模型的参数,得到第二检测模型。该实施方式实现了基于点级对比学习的目标检测模型的预训练,降低了模型训练的复杂度,使得目标检测模型的训练不依赖或者少依赖数据标注,降低了标注成本。

Description

目标检测模型的预训练方法、装置以及设备
技术领域
本公开涉及人工智能技术领域,具体为深度学习、图像处理、计算机视觉技术领域。
背景技术
目前,传统目标检测模型的训练依赖大量精标注的图像数据集。通常,先在大规模良好标注的数据集上进行检测预训练,再在特定场景数据集上进行模型的微调来产出最终的模型。然而,标注数据通常需要巨大的标注成本,包括人力成本和时间成本。
发明内容
本公开实施例提出了一种目标检测模型的预训练方法、装置、设备、存储介质以及程序产品。
第一方面,本公开实施例提出了一种目标检测模型的预训练方法,包括:利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到第一样本图像的至少两个第一点特征集合;基于第一点特征集合,计算第一检测模型的损失函数;基于损失函数,更新第一检测模型的参数,得到第二检测模型。
第二方面,本公开实施例提出了一种目标检测模型的预训练装置,包括:提取模块,被配置成利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到第一样本图像的至少两个第一点特征集合;计算模块,被配置成基于第一点特征集合,计算第一检测模型的损失函数;更新模块,被配置成基于损失函数,更新第一检测模型的参数,得到第二检测模型。
第三方面,本公开实施例提出了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面中任一实现方式描述的方法。
第四方面,本公开实施例提出了一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行如第一方面中任一实现方式描述的方法。
第五方面,本公开实施例提出了一种计算机程序产品,包括计算机程序,计算机程序在被处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开实施例提供的目标检测模型的预训练方法,实现了基于点级区域对比学习的目标检测模型的预训练,降低了模型训练的复杂度,使得目标检测模型的训练不依赖或者少依赖数据标注,降低了标注成本。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显。附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是根据本公开的目标检测模型的预训练方法的一个实施例的流程图;
图2是根据本公开的目标检测模型的预训练方法的又一个实施例的流程图;
图3是根据本公开的目标检测模型的预训练方法的另一个实施例的流程图;
图4是根据本公开的目标检测模型的预训练装置的一个实施例的结构示意图;
图5是用来实现本公开实施例的目标检测模型的预训练方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了根据本公开的目标检测模型的预训练方法的一个实施例的流程100。该目标检测模型的预训练方法包括以下步骤:
步骤101,利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到第一样本图像的至少两个第一点特征集合。
在本实施例中,目标检测模型的预训练方法的执行主体可以利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到第一样本图像的至少两个第一点特征集合。例如,利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到第一样本图像的第一点特征集合和第二点特征集合。其中,第一点特征集合和第二点特征集合是两个不同的点特征集合。
其中,第一检测模型可以是未经训练的目标检测模型,其参数可以是初始化的参数。第一样本图像可以是一次迭代过程中的一批样本图像中的任意一张样本图像。第一样本图像可以被划分成多个不重叠的区域。每个区域可以采样一个或多个点。不同的点特征集合可以包括第一样本图像上的相同点的不同特征。例如,对第一样本图像进行数据增强,可以得到两张不同的增强图像。两张增强图像分别输入至第一检测模型,其输出经过L2归一化,得到两个嵌入向量。基于第一样本图像的至少两个区域的至少两个点的位置,即可从两个嵌入向量中提取到第一点特征集合和第二点特征集合。
需要说明的是,第一样本图像的不同区域的大小可以相同也可以不同,不同区域采样的点的数目可以相同也可以不同,本实施例不进行限定。
步骤102,基于第一点特征集合,计算第一检测模型的损失函数。
在本实施例中,上述执行主体可以基于第一点特征集合,计算第一检测模型的损失函数。
通常,第一检测模型的损失函数可以以第一样本图像的至少两个第一点特征集合为变量,以实现点级区域对比学习。目标检测模型的损失函数可以包括但不限于:点级区域对比学习损失函数、点间相似度蒸馏损失函数和图像对比学习损失函数等等。点级区域对比学习损失函数和点间相似度蒸馏损失函数可以实现点级对比学习,图像对比学习损失函数可以实现图像级对比学习。
步骤103,基于损失函数,更新第一检测模型的参数,得到第二检测模型。
在本实施例中,上述执行主体可以基于损失函数,更新第一检测模型的参数,得到第二检测模型。其中,第二检测模型可以是预训练的目标检测模型。
其中,第一检测模型的损失函数可以是一个非负实值函数,损失函数越小,第一检测模型的鲁棒性就越好。通常,在得到损失函数之后,模型可以通过梯度传播去更新各个参数,来降低损失函数的值,直至模型收敛,即完成第一检测模型的预训练,得到第二检测模型。
本公开实施例提供的目标检测模型的预训练方法,首先在大量的无标注数据上进行预训练,然后在真实的业务场景下利用少量的标注数据进行微调即可训练得到最终的目标检测模型。实现了基于点级对比学习的目标检测模型的预训练,降低了模型训练的复杂度,使得目标检测模型的训练不依赖或者少依赖数据标注,降低了标注成本。可以应用于瓷砖、纺织品、3C电子产品(计算机(Computer)、通讯(Communication)和消费电子产品(ConsumerElectronic))等的质检任务。
继续参考图2,其示出了根据本公开的目标检测模型的预训练方法的又一个实施例的流程200。该目标检测模型的预训练方法包括以下步骤:
步骤201,将第一样本图像划分成第一预设数目个不重合的栅格矩形区域。
在本实施例中,目标检测模型的预训练方法的执行主体可以将第一样本图像划分成第一预设数目N个不重合的栅格矩形区域。其中,N=n*n,n为正整数,不同栅格矩形区域的大小可以相同。
步骤202,从每个栅格矩形区域采样第二预设数目个点,得到第三预设数目个点。
在本实施例中,上述执行主体可以从每个栅格矩形区域采样第二预设数目P个点,得到第三预设数目N*P个点。其中,每个栅格矩形区域采样的点的数目可以相同,位置也可以相同。
步骤203,利用第一检测模型提取第三预设数目个点的特征,得到第一点特征集合。
在本实施例中,上述执行主体可以利用第一检测模型提取第三预设数目个点的特征,得到第一点特征集合。例如,利用目标检测模型提取第三预设数目N*P个点的特征,得到第一样本图像的第一点特征集合{pi},i∈[1,…,N*P]和第一点特征集合{p′k},k∈[1,…,N*P],每个pi来自对应的栅格矩形区域αi,每个p′k来自对应的栅格矩形区域αk。其中,第一点特征集合{pi}和第一点特征集合{p′k}可以包括第一样本图像上的相同点的不同特征。例如,对第一样本图像进行数据增强,可以得到两张不同的增强图像。两张增强图像分别输入至第一检测模型,其输出经过L2归一化,得到两个嵌入向量。基于第三预设数目个点的位置,即可从两个嵌入向量中提取到第一点特征集合{pi}和第一点特征集合{p′k}。
步骤204,基于第一点特征集合,计算第一检测模型的损失函数。
步骤205,基于损失函数,更新第一检测模型的参数,得到第二检测模型。
在本实施例中,步骤204-205的具体操作已在图1所示的实施例中步骤102-103中进行了详细的介绍,在此不再赘述。
从图2中可以看出,与图1对应的实施例相比,本实施例中的目标检测模型的预训练方法的流程200突出了区域划分步骤和点采样步骤。由此,本实施例描述的方案将第一样本图像划分成栅格矩形区域,且每个栅格矩形区域采样相同数目个点,使得采样点在第一样本图像上的分布更加均匀,提取到的点特征集合更能表达第一样本图像的特征。
在一些实施例中,目标检测模型可以包括基础编码器(记作fE)和动量编码器(记作fM)。初始的目标检测模型的损失函数可以包括点级区域对比学习损失函数、点间相似度蒸馏损失函数和图像对比学习损失函数。进一步参考图3,其示出了根据本公开的目标检测模型的预训练方法的另一个实施例的流程300。该目标检测模型的预训练方法包括以下步骤:
步骤301,将第一样本图像划分成第一预设数目个不重合的栅格矩形区域。
步骤302,从每个栅格矩形区域采样第二预设数目个点,得到第三预设数目个点。
在本实施例中,步骤301-302的具体操作已在图2所示的实施例中步骤201-202中进行了详细的介绍,在此不再赘述。
步骤303,对第一样本图像进行数据增强,得到至少两个第一增强图像。
在本实施例中,目标检测模型的预训练方法的执行主体可以对第一样本图像进行数据增强,得到至少两个第一增强图像。例如,采用两种不同的数据增强方式对第一样本图像进行数据增强,可以得到两张不同的增强图像,即,第一增强图像v和第一增强图像v′。
步骤304,将第一增强图像输入基础编码器和动量编码器,分别得到第一嵌入向量和第二嵌入向量。
在本实施例中,上述执行主体可以将第一增强图像输入基础编码器和动量编码器,分别得到第一嵌入向量和第二嵌入向量。例如,将第一样本图像的第一增强图像v输入至基础编码器fE,其输出经过L2归一化,得到第一样本图像的第一嵌入向量z。将第一样本图像的第二增强图像输入至动量编码器fM,其输出经过L2归一化,得到第一样本图像的第二嵌入向量z′。
步骤305,分别从第一嵌入向量和第二嵌入向量中提取第三预设数目个点的特征,得到第一点特征集合。
在本实施例中,上述执行主体可以分别从第一嵌入向量和第二嵌入向量中提取第三预设数目个点的特征,得到第一点特征集合。例如,基于第三预设数目N*P个点的位置,即可从第一嵌入向量z中提取到第一样本图像的第一点特征集合{pi},从第二嵌入向量z′中提取到第一样本图像的第一点特征集合{p′k}。
步骤306,基于第一点特征集合、第二样本图像的第二点特征集合和第一尺度参数,计算点级区域对比学习损失函数。
在本实施例中,上述执行主体可以基于第一点特征集合、第二样本图像的第二点特征集合和第一尺度参数,计算点级区域对比学习损失函数。其中,第一尺度参数是缩放尺寸,可以包括:第二尺度参数和第三尺度参数。
例如,基于第一样本图像的第一点特征集合{pi}和第一点特征集合{p′k}、第二样本图像的第二点特征集合{p′j}以及第一尺度参数τ,计算点级区域对比学习损失函数
Figure BDA0003723202990000071
通常,点级区域对比学习损失函数
Figure BDA0003723202990000072
可以通过如下公式计算得到:
Figure BDA0003723202990000073
其中,C表示栅格矩形区域的正样本对的数量,等于从P个点中选两个点的组数。αi=αk,说明pi和pk来自同一个栅格矩形区域的概率是1。
步骤307,基于第一点特征集合、第二点特征集合和基础编码器的第二尺度参数,计算第一点间相似度。
在本实施例中,上述执行主体可以基于第一点特征集合、第二点特征集合和基础编码器的第二尺度参数,计算第一点间相似度。例如,基于第一样本图像的第一点特征集合{pi}和第一点特征集合{p′k}、第二样本图像的第二点特征集合{p′j}以及基础编码器的第二尺度参数τM,计算第一点间相似度Αi′k′M)。
通常,点间相似度Αik′(τ)可以通过如下公式计算得到:
Figure BDA0003723202990000074
其中,当αi=αk时,说明pi和pk来自同一个栅格矩形区域的概率是1,反之即为0。Αik′(τ)是一个成对的项,由两个下标确定,即i和k′。i表示点特征pi来自基础编码器,k′表示点特征p′k来自动量编码器。
其中,第一点间相似度Αi′k′M)表示两个点特征均来自动量编码器,通过代入点间相似度公式得到:
Figure BDA0003723202990000075
其中,τM表示动量编码器的尺度参数。
步骤308,基于第一点特征集合、第二点特征集合和动量编码器的第三尺度参数,计算第二点间相似度。
在本实施例中,上述执行主体可以基于第一点特征集合、第二点特征集合和动量编码器的第三尺度参数,计算第二点间相似度。例如,基于第一样本图像的第一点特征集合{p′k}、第二样本图像的第二点特征集合{p′j}以以及动量编码器的第三尺度参数τE,计算第二点间相似度Αik′E)。
其中,第二点间相似度Αik′E)表示一个点特征来自基础编码器,一个点特征来自动量编码器,通过代入点间相似度公式得到:
Figure BDA0003723202990000081
其中,τE表示动量编码器的尺度参数。
步骤309,基于第一点间相似度和第二点间相似度,计算点间相似度蒸馏损失函数。
在本实施例中,上述执行主体可以基于第一点间相似度Αi′k′M)和第二点间相似度Αik′E),计算点间相似度蒸馏损失函数
Figure BDA0003723202990000082
通常,点间相似度蒸馏损失函数
Figure BDA0003723202990000083
可以通过如下公式计算得到:
Figure BDA0003723202990000084
步骤310,基于第一嵌入向量、第二嵌入向量、第二样本图像的第三嵌入向量和第一尺度参数,计算图像对比学习损失函数。
在本实施例中,上述执行主体可以基于第一嵌入向量、第二嵌入向量、第二样本图像的第三嵌入向量和第一尺度参数,计算图像对比学习损失函数。例如,基于第一样本图像的第一嵌入向量z和第二嵌入向量z′、第二样本图像的第三嵌入向量z′j以及第一尺度参数τ,计算图像对比学习损失函数
Figure BDA0003723202990000085
其中,图像对比学习损失函数
Figure BDA0003723202990000086
可以通过如下公式计算得到:
Figure BDA0003723202990000087
步骤311,基于点级区域对比学习损失函数、点间相似度蒸馏损失函数和图像对比学习损失函数,计算总损失函数。
在本实施例中,上述执行主体可以基于点级区域对比学习损失函数
Figure BDA0003723202990000089
点间相似度蒸馏损失函数
Figure BDA00037232029900000810
和图像对比学习损失函数
Figure BDA00037232029900000811
计算总损失函数
Figure BDA00037232029900000812
通常,总损失函数
Figure BDA00037232029900000813
可以通过如下公式计算得到:
Figure BDA0003723202990000088
其中,α和β是取值为0到1之间的参数,用于控制各个损失函数在总损失函数中所占的比重。
步骤312,基于总损失函数,并通过梯度传播对基础编码器的参数进行更新学习。
在本实施例中,基础编码器的参数可以基于总损失函数
Figure BDA0003723202990000091
通过梯度传播进行更新学习。其中,梯度传播可以包括正向传播和反向传播。正向传播的过程中,训练样本图像集从输入层进入网络,再经过隐含层输出到输出层。若输出层的实际输出与最后的期望输出有出入,则将误差(实际输出与期望输出的之差)方向传播,若误差为零,则结束学习算法。反向传播时,将误差按原通路反传计算,通过隐层反向,直至输入层,在反向传播过程中将误差分摊给各层的各个单元,获得各层各单元的误差信号,并将其作为修正各单元权值的根据。这一计算过程使用梯度下降法完成,在不停地调整各层神经元的权值和阈值后,使误差信号减小到最低限度。
步骤313,通过对基础编码器的参数指数滑动平均进行更新学习,得到动量编码器的参数。
在本实施例中,动量编码器的参数可以由基础编码器的参数通过指数滑动平均进行更新学***均法简称为指数平滑法。是利用上一期的实际值和预测值,对它们进行不同的加权分配,求得一个指数平滑值,作为下一期预测值的一种预测方法。
从图3中可以看出,与图2对应的实施例相比,本实施例中的目标检测模型的预训练方法的流程300突出了损失函数计算步骤。由此,本实施例描述的方案同时计算点级区域对比学习损失函数、点间相似度蒸馏损失函数和图像对比学习损失函数进行模型预训练,实现图像级对比学习和点级对比学习。同时考虑目标的全局特征和局部特征,不仅能够对目标识别,还能够对目标定位。相比图像级别以及区域级别的目标检测模型的预训练方法,重点关注定位能力,从区域中采样关键点进行对比学习算法的构建从而提升算法的表现。
进一步参考图4,作为对上述各图所示方法的实现,本公开提供了一种目标检测模型的预训练装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的目标检测模型的预训练装置400可以包括:提取模块401、计算模块402和更新模块403。其中,提取模块401,被配置成利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到第一样本图像的至少两个第一点特征集合;计算模块402,被配置成基于第一点特征集合,计算第一检测模型的损失函数;更新模块403,被配置成基于损失函数,更新第一检测模型的参数,得到第二检测模型。
在本实施例中,目标检测模型的预训练装置400中:提取模块401、计算模块402和更新模块403的具体处理及其所带来的技术效果可分别参考图1对应实施例中的步骤101-103的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,提取模块401包括:划分子模块,被配置成将第一样本图像划分成第一预设数目个不重合的栅格矩形区域;采样子模块,被配置成从每个栅格矩形区域采样第二预设数目个点,得到第三预设数目个点;提取子模块,被配置成利用第一检测模型提取第三预设数目个点的特征,得到第一点特征集合。
在本实施例的一些可选的实现方式中,目标检测模型包括基础编码器和动量编码器;以及提取子模块进一步被配置成:对第一样本图像进行数据增强,得到至少两个第一增强图像;将第一增强图像输入基础编码器和动量编码器,分别得到第一嵌入向量和第二嵌入向量;分别从第一嵌入向量和第二嵌入向量中提取第三预设数目个点的特征,得到第一点特征集合。
在本实施例的一些可选的实现方式中,初始的目标检测模型的损失函数包括点级区域对比学习损失函数;以及计算模块402进一步被配置成:基于第一点特征集合、第二样本图像的第二点特征集合和第一尺度参数,计算点级区域对比学习损失函数。
在本实施例的一些可选的实现方式中,目标检测模型的损失函数还包括点间相似度蒸馏损失函数;以及计算模块402进一步被配置成:基于第一点特征集合、第二点特征集合和基础编码器的第二尺度参数,计算第一点间相似度;基于第一点特征集合、第二点特征集合和动量编码器的第三尺度参数,计算第二点间相似度,其中,第一尺度参数包括:第二尺度参数和第三尺度参数;基于第一点间相似度和第二点间相似度,计算点间相似度蒸馏损失函数。
在本实施例的一些可选的实现方式中,目标检测模型的损失函数还包括图像对比学习损失函数;以及计算模块402进一步被配置成:基于第一嵌入向量、第二嵌入向量、第二样本图像的第三嵌入向量和第一尺度参数,计算图像对比学习损失函数。
在本实施例的一些可选的实现方式中,更新模块403进一步配置成:基于点级区域对比学***均进行更新学习,得到动量编码器的参数。
本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供和公开等处理,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图5示出了可以用来实施本公开的实施例的示例电子设备500的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图5所示,设备500包括计算单元501,其可以根据存储在只读存储器(ROM)502中的计算机程序或者从存储单元508加载到随机访问存储器(RAM)503中的计算机程序,来执行各种适当的动作和处理。在RAM 503中,还可存储设备500操作所需的各种程序和数据。计算单元501、ROM 502以及RAM 503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
设备500中的多个部件连接至I/O接口505,包括:输入单元506,例如键盘、鼠标等;输出单元507,例如各种类型的显示器、扬声器等;存储单元508,例如磁盘、光盘等;以及通信单元509,例如网卡、调制解调器、无线通信收发机等。通信单元509允许设备500通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元501可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元501的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元501执行上文所描述的各个方法和处理,例如目标检测模型的预训练方法。例如,在一些实施例中,目标检测模型的预训练方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元508。在一些实施例中,计算机程序的部分或者全部可以经由ROM 502和/或通信单元509而被载入和/或安装到设备500上。当计算机程序加载到RAM503并由计算单元501执行时,可以执行上文描述的目标检测模型的预训练方法的一个或多个步骤。备选地,在其他实施例中,计算单元501可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行目标检测模型的预训练方法。
本文中以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据服务器)、或者包括中间件部件的计算***(例如,应用服务器)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机***可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以是分布式***的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开提供的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (17)

1.一种目标检测模型的预训练方法,包括:
利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到所述第一样本图像的至少两个第一点特征集合;
基于所述第一点特征集合,计算所述第一检测模型的损失函数;
基于所述损失函数,更新所述第一检测模型的参数,得到第二检测模型。
2.根据权利要求1所述的方法,其中,所述利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到所述第一样本图像的至少两个第一点特征集合,包括:
将所述第一样本图像划分成第一预设数目个不重合的栅格矩形区域;
从每个栅格矩形区域采样第二预设数目个点,得到第三预设数目个点;
利用所述第一检测模型提取所述第三预设数目个点的特征,得到所述第一点特征集合。
3.根据权利要求2所述的方法,其中,所述第一检测模型包括:基础编码器和动量编码器;以及
所述利用所述第一检测模型提取所述第三预设数目个点的特征,得到所述第一点特征集合,包括:
对所述第一样本图像进行数据增强,得到至少两个第一增强图像;
将所述第一增强图像输入所述基础编码器和所述动量编码器,分别得到第一嵌入向量和第二嵌入向量;
分别从所述第一嵌入向量和所述第二嵌入向量中提取所述第三预设数目个点的特征,得到所述第一点特征集合。
4.根据权利要求3所述的方法,其中,所述损失函数包括:点级区域对比学习损失函数;以及
所述基于所述第一点特征集合,计算所述第一检测模型的损失函数,包括:
基于所述第一点特征集合、第二样本图像的第二点特征集合和第一尺度参数,计算所述点级区域对比学习损失函数。
5.根据权利要求4所述的方法,其中,所述损失函数还包括:点间相似度蒸馏损失函数;以及
所述基于所述第一样本图像的第一点特征集合,计算所述第一检测模型的损失函数,还包括:
基于所述第一点特征集合、所述第二点特征集合和所述基础编码器的第二尺度参数,计算第一点间相似度;
基于所述第一点特征集合、所述第二点特征集合和所述动量编码器的第三尺度参数,计算第二点间相似度,其中,所述第一尺度参数包括:第二尺度参数和第三尺度参数;
基于所述第一点间相似度和所述第二点间相似度,计算所述点间相似度蒸馏损失函数。
6.根据权利要求5所述的方法,其中,所述损失函数还包括:图像对比学习损失函数;以及
所述基于所述第一样本图像的第一点特征集合,计算所述第一检测模型的损失函数,还包括:
基于所述第一嵌入向量、所述第二嵌入向量、所述第二样本图像的第三嵌入向量和所述第一尺度参数,计算所述图像对比学习损失函数。
7.根据权利要求6所述的方法,其中,所述基于所述损失函数,更新所述第一目标检测模型的参数,包括:
基于所述点级区域对比学习损失函数、所述点间相似度蒸馏损失函数和所述图像对比学习损失函数,计算总损失函数;
基于所述总损失函数,并通过梯度传播对所述基础编码器的参数进行更新学习;
通过对所述基础编码器的参数指数滑动平均进行更新学习,得到所述动量编码器的参数。
8.一种目标检测模型的预训练装置,包括:
提取模块,被配置成利用第一检测模型提取第一样本图像的至少两个区域的至少两个点的特征,得到所述第一样本图像的至少两个第一点特征集合;
计算模块,被配置成基于所述第一点特征集合,计算所述第一检测模型的损失函数;
更新模块,被配置成基于所述损失函数,更新所述第一检测模型的参数,得到第二检测模型。
9.根据权利要求8所述的装置,其中,所述提取模块包括:
划分子模块,被配置成将所述第一样本图像划分成第一预设数目个不重合的栅格矩形区域;
采样子模块,被配置成从每个栅格矩形区域采样第二预设数目个点,得到第三预设数目个点;
提取子模块,被配置成利用所述第一检测模型提取所述第三预设数目个点的特征,得到所述第一点特征集合。
10.根据权利要求9所述的装置,其中,所述目标检测模型包括基础编码器和动量编码器;以及
所述提取子模块进一步被配置成:
对所述第一样本图像进行数据增强,得到至少两个第一增强图像;
将所述第一增强图像输入所述基础编码器和所述动量编码器,分别得到第一嵌入向量和第二嵌入向量;
分别从所述第一嵌入向量和所述第二嵌入向量中提取所述第三预设数目个点的特征,得到所述第一点特征集合。
11.根据权利要求10所述的装置,其中,所述初始的目标检测模型的损失函数包括点级区域对比学习损失函数;以及
所述计算模块进一步被配置成:
基于所述第一点特征集合、第二样本图像的第二点特征集合和第一尺度参数,计算所述点级区域对比学习损失函数。
12.根据权利要求11所述的装置,其中,所述目标检测模型的损失函数还包括点间相似度蒸馏损失函数;以及
所述计算模块进一步被配置成:
基于所述第一点特征集合、所述第二点特征集合和所述基础编码器的第二尺度参数,计算第一点间相似度;
基于所述第一点特征集合、所述第二点特征集合和所述动量编码器的第三尺度参数,计算第二点间相似度,其中,所述第一尺度参数包括:第二尺度参数和第三尺度参数;
基于所述第一点间相似度和所述第二点间相似度,计算所述点间相似度蒸馏损失函数。
13.根据权利要求12所述的装置,其中,所述目标检测模型的损失函数还包括图像对比学习损失函数;以及
所述计算模块进一步被配置成:
基于所述第一嵌入向量、所述第二嵌入向量、所述第二样本图像的第三嵌入向量和所述第一尺度参数,计算所述图像对比学习损失函数。
14.根据权利要求13所述的装置,其中,所述更新模块进一步配置成:
基于所述点级区域对比学习损失函数、所述点间相似度蒸馏损失函数和所述图像对比学习损失函数,计算总损失函数;
基于所述总损失函数,并通过梯度传播对所述基础编码器的参数进行更新学习;
通过对所述基础编码器的参数指数滑动平均进行更新学习,得到所述动量编码器的参数。
15.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
16.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
17.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1-7中任一项所述的方法。
CN202210768971.5A 2022-06-30 2022-06-30 目标检测模型的预训练方法、装置以及设备 Active CN115147680B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210768971.5A CN115147680B (zh) 2022-06-30 2022-06-30 目标检测模型的预训练方法、装置以及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210768971.5A CN115147680B (zh) 2022-06-30 2022-06-30 目标检测模型的预训练方法、装置以及设备

Publications (2)

Publication Number Publication Date
CN115147680A true CN115147680A (zh) 2022-10-04
CN115147680B CN115147680B (zh) 2023-08-25

Family

ID=83410479

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210768971.5A Active CN115147680B (zh) 2022-06-30 2022-06-30 目标检测模型的预训练方法、装置以及设备

Country Status (1)

Country Link
CN (1) CN115147680B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115859508A (zh) * 2022-11-23 2023-03-28 北京百度网讯科技有限公司 流场分析方法、元件模型生成方法、训练方法及装置
CN116758562A (zh) * 2023-08-22 2023-09-15 杭州实在智能科技有限公司 通用文本验证码识别方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113095336A (zh) * 2021-04-22 2021-07-09 北京百度网讯科技有限公司 关键点检测模型的训练方法和检测目标对象关键点的方法
CN113298158A (zh) * 2021-05-28 2021-08-24 平安科技(深圳)有限公司 数据检测方法、装置、设备及存储介质
CN113947196A (zh) * 2021-10-25 2022-01-18 中兴通讯股份有限公司 网络模型训练方法、装置和计算机可读存储介质
CN114020950A (zh) * 2021-11-03 2022-02-08 北京百度网讯科技有限公司 图像检索模型的训练方法、装置、设备以及存储介质
CN114360074A (zh) * 2022-01-10 2022-04-15 北京百度网讯科技有限公司 检测模型的训练方法、活体检测方法、装置、设备和介质
CN114511758A (zh) * 2022-01-28 2022-05-17 北京百度网讯科技有限公司 图像识别方法及装置、电子设备和介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113095336A (zh) * 2021-04-22 2021-07-09 北京百度网讯科技有限公司 关键点检测模型的训练方法和检测目标对象关键点的方法
CN113298158A (zh) * 2021-05-28 2021-08-24 平安科技(深圳)有限公司 数据检测方法、装置、设备及存储介质
CN113947196A (zh) * 2021-10-25 2022-01-18 中兴通讯股份有限公司 网络模型训练方法、装置和计算机可读存储介质
CN114020950A (zh) * 2021-11-03 2022-02-08 北京百度网讯科技有限公司 图像检索模型的训练方法、装置、设备以及存储介质
CN114360074A (zh) * 2022-01-10 2022-04-15 北京百度网讯科技有限公司 检测模型的训练方法、活体检测方法、装置、设备和介质
CN114511758A (zh) * 2022-01-28 2022-05-17 北京百度网讯科技有限公司 图像识别方法及装置、电子设备和介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
AJ PIERGIOVANNI 等: "Evolving Losses for Unsupervised Video Representation Learning", 《COMPUTER VISIO FOUNDATION》 *
李巍华: "基于对称式对比学习的齿轮箱无监督故障诊断方法", 《仪器仪表学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115859508A (zh) * 2022-11-23 2023-03-28 北京百度网讯科技有限公司 流场分析方法、元件模型生成方法、训练方法及装置
CN115859508B (zh) * 2022-11-23 2024-01-02 北京百度网讯科技有限公司 流场分析方法、元件模型生成方法、训练方法及装置
CN116758562A (zh) * 2023-08-22 2023-09-15 杭州实在智能科技有限公司 通用文本验证码识别方法及***
CN116758562B (zh) * 2023-08-22 2023-12-08 杭州实在智能科技有限公司 通用文本验证码识别方法及***

Also Published As

Publication number Publication date
CN115147680B (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
CN115147680B (zh) 目标检测模型的预训练方法、装置以及设备
CN113971751A (zh) 训练特征提取模型、检测相似图像的方法和装置
CN113870334B (zh) 深度检测方法、装置、设备以及存储介质
CN112966744A (zh) 模型训练方法、图像处理方法、装置和电子设备
CN112580733B (zh) 分类模型的训练方法、装置、设备以及存储介质
CN112907552A (zh) 图像处理模型的鲁棒性检测方法、设备及程序产品
CN113705628B (zh) 预训练模型的确定方法、装置、电子设备以及存储介质
CN114187459A (zh) 目标检测模型的训练方法、装置、电子设备以及存储介质
CN115631381A (zh) 分类模型训练方法、图像分类方法、装置及电子设备
CN114549840A (zh) 语义分割模型的训练方法和语义分割方法、装置
CN113627536A (zh) 模型训练、视频分类方法,装置,设备以及存储介质
CN112949433B (zh) 视频分类模型的生成方法、装置、设备和存储介质
CN114494747A (zh) 模型的训练方法、图像处理方法、装置、电子设备及介质
CN114511743A (zh) 检测模型训练、目标检测方法、装置、设备、介质及产品
CN113657468A (zh) 预训练模型的生成方法、装置、电子设备和存储介质
CN116468112B (zh) 目标检测模型的训练方法、装置、电子设备和存储介质
CN114973333A (zh) 人物交互检测方法、装置、设备以及存储介质
CN115081630A (zh) 多任务模型的训练方法、信息推荐方法、装置和设备
CN114817476A (zh) 语言模型的训练方法、装置、电子设备和存储介质
CN114707638A (zh) 模型训练、对象识别方法及装置、设备、介质和产品
CN114463361A (zh) 网络模型训练方法、装置、设备、介质及程序产品
CN114821116A (zh) 图像的显著性区域提取方法、装置、设备以及存储介质
CN114067099A (zh) 学生图像识别网络的训练方法及图像识别方法
CN113313049A (zh) 超参数的确定方法、装置、设备、存储介质以及计算机程序产品
CN113989899A (zh) 人脸识别模型中特征提取层的确定方法、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant