CN113688933B - 分类网络的训练方法及分类方法和装置、电子设备 - Google Patents

分类网络的训练方法及分类方法和装置、电子设备 Download PDF

Info

Publication number
CN113688933B
CN113688933B CN202111022512.4A CN202111022512A CN113688933B CN 113688933 B CN113688933 B CN 113688933B CN 202111022512 A CN202111022512 A CN 202111022512A CN 113688933 B CN113688933 B CN 113688933B
Authority
CN
China
Prior art keywords
sample
sampling
loss
network
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111022512.4A
Other languages
English (en)
Other versions
CN113688933A (zh
Inventor
甘伟豪
王意如
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Priority to CN202111022512.4A priority Critical patent/CN113688933B/zh
Publication of CN113688933A publication Critical patent/CN113688933A/zh
Application granted granted Critical
Publication of CN113688933B publication Critical patent/CN113688933B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

本申请实施例公开了一种分类网络的训练方法及分类方法和装置、电子设备,其中,训练方法包括:基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本;基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络,通过随采样次数动态变化的采样比例对样本图像集进行采样,使训练获得的分类网络具有较高的分类准确度。

Description

分类网络的训练方法及分类方法和装置、电子设备
技术领域
本申请涉及计算机视觉技术,尤其是一种分类网络的训练方法及分类方法和装置、电子设备。
背景技术
分类网络在很多领域起到重要作用,比如行人检测与跟踪、大规模智慧城市目标任务搜索定位、个人画像描述等。分类网络在处理人脸属性分析、行人外观分析等问题时,存在实际训练数据不均衡的问题,比如是否秃头的属性数据正负样本比例可能高达1:100,如何在不同的训练数据场景下提高训练得到的分类网络性能是本领域的研究热点。
发明内容
本申请实施例提供的一种分类网络的训练以及分类技术。
根据本申请实施例的一个方面,提供的一种分类网络的训练方法,包括:
基于多次采样中的当前采样对应的已采样次数,确定所述当前采样从样本图像集获得不同类别的样本图像的采样比例,其中,所述样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像;
基于所述采样比例,对所述样本图像集进行所述当前采样,以获得所述当前采样的采样样本;
基于所述多次采样获得的多个采样样本训练分类网络,获得目标分类网络。
可选地,在本申请上述任一方法实施例中,所述至少两个图像类别包括第一图像类别和第二图像类别,其中,所述第一图像类别包含的样本图像的数量大于所述第二图像类别包含的样本图像的数量。
可选地,在本申请上述任一方法实施例中,所述采样样本包括至少两个样本图像,所述至少两个样本图像对应至少一个图像类别。
可选地,在本申请上述任一方法实施例中,所述采样比例对应的不同图像类别的样本图像数量之间的差别随着所述已采样次数的增加而减小。
可选地,在本申请上述任一方法实施例中,所述基于所述多次采样获得的多个采样样本训练分类网络,获得目标分类网络,包括:
通过所述分类网络处理所述采样样本,获得所述采样样本的网络损失;
基于所述网络损失调整所述分类网络的网络参数,获得目标分类网络。
可选地,在本申请上述任一方法实施例中,所述通过所述分类网络处理所述采样样本,获得所述采样样本的网络损失,包括:
通过所述分类网络处理所述采样样本,获得所述采样样本的至少两个损失;
基于所述采样样本的至少两个损失,获得所述采样样本的网络损失。
可选地,在本申请上述任一方法实施例中,所述基于所述采样样本的至少两个损失,获得所述采样样本的网络损失,包括:
对所述采样样本的至少两个损失进行加权求和,获得所述采样样本的网络损失,其中,所述至少两个损失中包含的至少一个损失的权重依赖于所述采样样本对应的当前已训练次数。
可选地,在本申请上述任一方法实施例中,所述至少一个损失包括预测损失和嵌入损失中的至少一种。
可选地,在本申请上述任一方法实施例中,所述至少两个损失中的嵌入损失在所述当前已训练次数为第一数值时对所述网络损失的贡献比例低于在所述当前已训练次数为第二数值时对所述网络损失的贡献比例,其中,所述第一数值大于所述第二数值;和/或
所述至少两个损失中的预测损失在所述当前已训练次数为所述第一数值时对所述网络损失的贡献比例高于在所述当前已训练次数为所述第二数值时对所述网络损失的贡献比例。
可选地,在本申请上述任一方法实施例中,响应于所述当前已训练次数小于第一预设阈值,所述至少一个损失中的嵌入损失的权重随着所述当前已训练次数的增加而减小;和/或
响应于所述当前已训练次数大于或等于所述第一预设阈值,所述至少一个损失中的嵌入损失的权重保持为固定值。
可选地,在本申请上述任一方法实施例中,所述通过所述分类网络处理所述采样样本,获得所述采样样本的至少两个损失,包括:
通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的预测类别;
基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失。
可选地,在本申请上述任一方法实施例中,所述基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失,包括:
基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述每个样本图像的预测误差值;
基于所述采样样本中包括的每个样本图像的权重值和所述每个样本图像的预测误差值,确定所述采样样本的预测误差。
可选地,在本申请上述任一方法实施例中,所述样本图像的权重依赖于所述样本图像所属图像类别在所述采样样本中所占的第一比例。
可选地,在本申请上述任一方法实施例中,响应于所述第一比例与所述样本图像所属的图像类别在所述样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,所述样本图像的权重为所述第一比例与所述第二比例之间的比值;和/或
响应于所述第一比例与所述第二比例之间的比例小于所述第二预设阈值,所述样本图像的权重为0或1。
可选地,在本申请上述任一方法实施例中,所述通过所述分类网络处理所述采样样本,获得所述采样样本的至少两个损失,包括:
通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的特征数据;
基于所述采样样本中包括的每个样本图像的特征数据,确定所述采样样本中的容易样本;
将所述容易样本作为锚点,获得所述采样样本的嵌入损失。
根据本申请实施例的另一方面,提供的一种分类网络的训练方法,包括:
通过所述分类网络处理从样本图像集中获得的采样样本,获得所述采样样本的至少两个损失,其中,所述样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,所述采样样本包括至少两个样本图像;
基于所述采样样本的至少两个损失和所述至少两个损失的权重,获得所述采样样本的网络损失,其中,所述至少两个损失包含的至少一个损失的权重依赖于所述采样样本对应的当前已训练次数;
基于所述网络损失调整所述分类网络的网络参数,获得目标分类网络。
可选地,在本申请上述任一方法实施例中,所述基于所述采样样本的至少两个损失和所述至少两个损失的权重,获得所述采样样本的网络损失,包括:
基于所述至少两个损失的权重对所述采样样本的至少两个损失进行加权求和,获得所述采样样本的网络损失。
可选地,在本申请上述任一方法实施例中,所述至少一个损失包括预测损失和嵌入损失中的至少一种。
可选地,在本申请上述任一方法实施例中,所述至少两个损失中的嵌入损失在所述当前已训练次数为第一数值时对所述网络损失的贡献比例低于在所述当前已训练次数为第二数值时对所述网络损失的贡献比例,其中,所述第一数值大于所述第二数值;和/或
所述至少两个损失中的预测损失在所述当前已训练次数为所述第一数值时对所述网络损失的贡献比例高于在所述当前已训练次数为所述第二数值时对所述网络损失的贡献比例。
可选地,在本申请上述任一方法实施例中,响应于所述当前已训练次数小于第一预设阈值,所述至少一个损失中的嵌入损失的权重随着所述当前已训练次数的增加而减小;和/或
响应于所述当前已训练次数大于或等于所述第一预设阈值,所述至少一个损失的权重保持为固定值。
可选地,在本申请上述任一方法实施例中,所述通过所述分类网络处理从样本图像集中获得的采样样本,获得所述采样样本的至少两个损失,包括:
通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的预测类别;
基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失。
可选地,在本申请上述任一方法实施例中,所述基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失,包括:
基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述每个样本图像的预测误差值;
基于所述采样样本中包括的每个样本图像的权重值和所述每个样本图像的预测误差值,确定所述采样样本的预测误差。
可选地,在本申请上述任一方法实施例中,所述样本图像的权重依赖于所述样本图像所属图像类别在所述采样样本中所占的第一比例。
可选地,在本申请上述任一方法实施例中,响应于所述第一比例与所述样本图像所属的图像类别在所述样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,所述样本图像的权重为所述第一比例与所述第二比例之间的比值;和/或
响应于所述第一比例与所述第二比例之间的比例小于所述第二预设阈值,所述样本图像的权重为0或1。
可选地,在本申请上述任一方法实施例中,所述通过所述分类网络处理从样本图像集中获得的采样样本,获得所述采样样本的至少两个损失,包括:
通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的特征数据;
基于所述采样样本中包括的每个样本图像的特征数据,确定所述采样样本中的容易样本;
将所述容易样本作为锚点,获得所述采样样本的嵌入损失。
可选地,在本申请上述任一方法实施例中,在通过所述分类网络处理从样本图像集中获得的采样样本,获得所述采样样本的至少两个损失之前,还包括:
基于多次采样中的当前采样对应的已采样次数,确定所述当前采样从样本图像集获得不同类别的样本图像的采样比例;
基于所述采样比例,对所述样本图像集进行所述当前采样,以获得所述当前采样的采样样本。
可选地,在本申请上述任一方法实施例中,所述至少两个图像类别包括第一图像类别和第二图像类别,其中,所述第一图像类别包含的样本图像的数量大于所述第二图像类别包含的样本图像的数量。
可选地,在本申请上述任一方法实施例中,所述采样样本包括至少两个样本图像,所述至少两个样本图像对应至少一个类别。
可选地,在本申请上述任一方法实施例中,所述采样比例对应的不同图像类别的样本图像数量之间的差别随着所述已采样次数的增加而减小。
根据本申请实施例的又一方面,提供的一种分类方法,包括:
获取待处理图像;
通过目标分类网络对所述待处理图像进行分类处理,得到所述待处理图像的图像预测类别;其中,
所述目标分类网络是通过上述任意一项所述的训练方法得到的。
根据本申请实施例的还一方面,提供的一种分类网络的训练装置,包括:
采样比例确定单元,用于基于多次采样中的当前采样对应的已采样次数,确定所述当前采样从样本图像集获得不同类别的样本图像的采样比例,其中,所述样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像;
样本采样单元,用于基于所述采样比例,对所述样本图像集进行所述当前采样,以获得所述当前采样的采样样本;
网络训练单元,用于基于所述多次采样获得的多个采样样本训练分类网络,获得目标分类网络。
可选地,在本申请上述任一装置实施例中,所述至少两个图像类别包括第一图像类别和第二图像类别,其中,所述第一图像类别包含的样本图像的数量大于所述第二图像类别包含的样本图像的数量。
可选地,在本申请上述任一装置实施例中,所述采样样本包括至少两个样本图像,所述至少两个样本图像对应至少一个图像类别。
可选地,在本申请上述任一装置实施例中,所述采样比例对应的不同图像类别的样本图像数量之间的差别随着所述已采样次数的增加而减小。
可选地,在本申请上述任一装置实施例中,所述网络训练单元,包括:
损失获得模块,用于通过所述分类网络处理所述采样样本,获得所述采样样本的网络损失;
参数调整模块,用于基于所述网络损失调整所述分类网络的网络参数,获得目标分类网络。
可选地,在本申请上述任一装置实施例中,所述损失获得模块,用于通过所述分类网络处理所述采样样本,获得所述采样样本的至少两个损失;基于所述采样样本的至少两个损失,获得所述采样样本的网络损失。
可选地,在本申请上述任一装置实施例中,所述损失获得模块在基于所述采样样本的至少两个损失,获得所述采样样本的网络损失时,用于对所述采样样本的至少两个损失进行加权求和,获得所述采样样本的网络损失,其中,所述至少两个损失中包含的至少一个损失的权重依赖于所述采样样本对应的当前已训练次数。
可选地,在本申请上述任一装置实施例中,所述至少一个损失包括预测损失和嵌入损失中的至少一种。
可选地,在本申请上述任一装置实施例中,所述至少两个损失中的嵌入损失在所述当前已训练次数为第一数值时对所述网络损失的贡献比例低于在所述当前已训练次数为第二数值时对所述网络损失的贡献比例,其中,所述第一数值大于所述第二数值;和/或
所述至少两个损失中的预测损失在所述当前已训练次数为所述第一数值时对所述网络损失的贡献比例高于在所述当前已训练次数为所述第二数值时对所述网络损失的贡献比例。
可选地,在本申请上述任一装置实施例中,响应于所述当前已训练次数小于第一预设阈值,所述至少一个损失中的嵌入损失的权重随着所述当前已训练次数的增加而减小;和/或
响应于所述当前已训练次数大于或等于所述第一预设阈值,所述至少一个损失中的嵌入损失的权重保持为固定值。
可选地,在本申请上述任一装置实施例中,所述损失获得模块在通过所述分类网络处理所述采样样本,获得所述采样样本的至少两个损失时,用于通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的预测类别;基于所述采样样本中包括的每个样本图像的预测类和所述每个样本图像的标注类别,确定所述采样样本的预测损失。
可选地,在本申请上述任一装置实施例中,所述损失获得模块在基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失时,用于基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述每个样本图像的预测误差值;基于所述采样样本中包括的每个样本图像的权重值和所述每个样本图像的预测误差值,确定所述采样样本的预测误差。
可选地,在本申请上述任一装置实施例中,所述样本图像的权重依赖于所述样本图像所属图像类别在所述采样样本中所占的第一比例。
可选地,在本申请上述任一装置实施例中,响应于所述第一比例与所述样本图像所属的图像类别在所述样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,所述样本图像的权重为所述第一比例与所述第二比例之间的比值;和/或
响应于所述第一比例与所述第二比例之间的比例小于所述第二预设阈值,所述样本图像的权重为0或1。
可选地,在本申请上述任一装置实施例中,所述损失获得模块在通过所述分类网络处理所述采样样本,获得所述采样样本的至少两个损失时,用于通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的特征数据;基于所述采样样本中包括的每个样本图像的特征数据,确定所述采样样本中的容易样本;将所述容易样本作为锚点,获得所述采样样本的嵌入损失。
根据本申请实施例的再一方面,提供的一种分类网络的训练装置,包括:
样本损失获得单元,用于通过所述分类网络处理从样本图像集中获得的采样样本,获得所述采样样本的至少两个损失,其中,所述样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,所述采样样本包括至少两个样本图像;
网络损失单元,用于基于所述采样样本的至少两个损失和所述至少两个损失的权重,获得所述采样样本的网络损失,其中,所述至少两个损失包含的至少一个损失的权重依赖于所述采样样本对应的当前已训练次数;
参数调整单元,用于基于所述网络损失调整所述分类网络的网络参数,获得目标分类网络。
可选地,在本申请上述任一装置实施例中,所述样本损失获得单元,用于基于所述至少两个损失的权重对所述采样样本的至少两个损失进行加权求和,获得所述采样样本的网络损失。
可选地,在本申请上述任一装置实施例中,所述至少一个损失包括预测损失和嵌入损失中的至少一种。
可选地,在本申请上述任一装置实施例中,所述至少两个损失中的嵌入损失在所述当前已训练次数为第一数值时对所述网络损失的贡献比例低于在所述当前已训练次数为第二数值时对所述网络损失的贡献比例,其中,所述第一数值大于所述第二数值;和/或
所述至少两个损失中的预测损失在所述当前已训练次数为所述第一数值时对所述网络损失的贡献比例高于在所述当前已训练次数为所述第二数值时对所述网络损失的贡献比例。
可选地,在本申请上述任一装置实施例中,响应于所述当前已训练次数小于第一预设阈值,所述至少一个损失中的嵌入损失的权重随着所述当前已训练次数的增加而减小;和/或
响应于所述当前已训练次数大于或等于所述第一预设阈值,所述至少一个损失的权重保持为固定值。
可选地,在本申请上述任一装置实施例中,所述样本损失获得单元,具体用于通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的预测类别;基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失。
可选地,在本申请上述任一装置实施例中,所述样本损失获得单元在基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述采样样本的预测损失时,用于基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述每个样本图像的预测误差值;基于所述采样样本中包括的每个样本图像的权重值和所述每个样本图像的预测误差值,确定所述采样样本的预测误差。
可选地,在本申请上述任一装置实施例中,所述样本图像的权重依赖于所述样本图像所属图像类别在所述采样样本中所占的第一比例。
可选地,在本申请上述任一装置实施例中,响应于所述第一比例与所述样本图像所属的图像类别在所述样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,所述样本图像的权重为所述第一比例与所述第二比例之间的比值;和/或
响应于所述第一比例与所述第二比例之间的比例小于所述第二预设阈值,所述样本图像的权重为0或1。
可选地,在本申请上述任一装置实施例中,所述样本损失获得单元,具体用于通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的特征数据;基于所述采样样本中包括的每个样本图像的特征数据,确定所述采样样本中的容易样本;将所述容易样本作为锚点,获得所述采样样本的嵌入损失。
可选地,在本申请上述任一装置实施例中,所述装置还包括:
采样比例确定单元,用于基于多次采样中的当前采样对应的已采样次数,确定所述当前采样从样本图像集获得不同类别的样本图像的采样比例;
样本采样单元,用于基于所述采样比例,对所述样本图像集进行所述当前采样,以获得所述当前采样的采样样本。
可选地,在本申请上述任一装置实施例中,所述至少两个图像类别包括第一图像类别和第二图像类别,其中,所述第一图像类别包含的样本图像的数量大于所述第二图像类别包含的样本图像的数量。
可选地,在本申请上述任一装置实施例中,所述采样样本包括至少两个样本图像,所述至少两个样本图像对应至少一个类别。
可选地,在本申请上述任一装置实施例中,所述采样比例对应的不同图像类别的样本图像数量之间的差别随着所述已采样次数的增加而减小。
根据本申请实施例的又一方面,提供的一种分类装置,包括:
图像获取单元,用于获取待处理图像;
类别预测单元,用于通过目标分类网络对所述待处理图像进行分类处理,得到所述待处理图像的图像预测类别;其中,所述目标分类网络是通过上述任意一项所述的训练方法得到的。
根据本申请实施例的另一方面,提供的一种电子设备,包括:存储器,用于存储可执行指令;
以及处理器,用于与所述存储器通信以执行所述可执行指令,从而完成上述任一可能的实现方式中所述分类网络的训练方法或如上所述的分类方法的操作。
根据本申请实施例的另一方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一可能的实现方式中所述分类网络的训练方法或如上所述的分类方法的操作。
根据本申请实施例的另一方面,提供的一种计算机程序产品,包括计算机可读代码,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现上述任一可能的实现方式中所述分类网络的训练方法或如上所述的分类方法的指令。
根据本申请实施例的再一个方面,提供的另一种计算机程序产品,用于存储计算机可读指令,所述指令被执行时使得计算机执行上述任一可能的实现方式中所述分类网络的训练方法或如上所述的分类方法的操作。
在一个可选实施方式中,所述计算机程序产品具体为计算机存储介质,在另一个可选实施方式中,所述计算机程序产品具体为软件产品,例如SDK等。
根据本申请实施例还提供了另一种分类网络的训练方法及分类方法和装置、电子设备、计算机存储介质、计算机程序产品,其中,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本;基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络。
基于本申请上述实施例提供的一种分类网络的训练方法及分类方法和装置、电子设备,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本;基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络,通过随采样次数动态变化的采样比例对样本图像集进行采样,使训练获得的分类网络具有较高的分类准确度。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请实施例提供的分类网络的训练方法的一个流程示意图。
图2为本申请实施例提供的分类网络训练方法的另一实施例的流程示意图。
图3为本申请实施例提供的分类网络的训练方法中获得网络损失的一个流程示意图。
图4为现有技术的计算三元组损失的一个计算示意图。
图5为本申请实施例提供的分类网络的训练方法中的三元组损失的一个计算示意图。
图6为本申请实施例提供的分类网络的训练装置的一个结构示意图。
图7为本申请实施例提供的分类网络的训练方法的还一实施例的流程示意图。
图8为本申请实施例提供的分类网络的训练方法的再一实施例的流程示意图。
图9为本申请实施例提供的分类网络的训练装置的另一结构示意图。
图10为本申请实施例提供的分类方法的一个流程示意图。
图11为本申请实施例提供的分类装置的一个结构示意图。
图12为适于用来实现本申请实施例的终端设备或服务器的电子设备的结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
图1为本申请实施例提供的分类网络的训练方法的一个流程示意图。该方法可以由任意电子设备执行,例如终端设备、服务器、移动设备等等。
步骤110,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例。
其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像;例如,样本图像集中包括两个类别,包括大量数据的第一类别和包括少量数据的第二类别,通过本申请实施例中根据已采样次数动态调整进行采样的采样比例,实现在每次采样时,第一类别和第二类别之间的采样比例都是动态变化的,例如,可采用设定的函数实现采样比例随着已采样次数动态变化。
在一些可选的实施例中,至少两个图像类别包括第一图像类别和第二图像类别,其中,第一图像类别包含的样本图像的数量大于第二图像类别包含的样本图像的数量。
本申请实施例提出的基于已采样次数确定当前采样的采样比例的采样方法,适用于任意包括多个类别的样本图像集的采样,尤其对于不同图像类别的样本图像数量差较大的情况,可以通过调整采样比例增加数量较少的第二图像类别在采样样本中的比重,使训练得到的目标分类网络对第二图像类别也能准确分类,而不会出现使用固定采样比例采样时,由于样本图像数量较少而导致在采样样本中第二图像类别数量过小且重复量大,使得训练的目标分类网络对第二图像类别的分类不准确。例如,在学习判断行人是否为秃头的问题中,大量的训练数据都是非秃头(对应本申请实施例中第一图像类别),秃头(对应本申请实施例中第二图像类别)的数据极少,可能占比不到1%。如果按照一般的分类学习方法,***学习到的模型容易倾向于大量类别,比如将所有数据预测成非秃头,模型的准确率就能达到99%,然而秃头的召回率为0。这个不利于用户发现特殊的目标对象,或者说,模型没有判断行人是否为秃头的能力。利用本申请实施例提供的方法进行学习后获得的目标分类网络,能提升对秃头样本的判断力,提高对秃头的召回率,同时保证整体的准确率。
步骤120,基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本。
在本申请实施例中,当前采样的采样比例由已采样次数确定,由于每次进行采样时,采样次数都在变化,因此每次采样的采样比例都不相同,保证了在样本图像集中每个图像类别都能对分类网络的训练起到积极的作用。
可选地,每个采样样本包括至少两个样本图像,至少两个样本图像对应至少一个图像类别。
本申请实施例中为了实现基于采样样本对分类网络的训练,采样样本中需包括的多个样本图像,以提高训练获得的分类网络的分类准确性;并且,每次基于一个采样比例从样本图像集中进行采样,获得的采样样本中不同类别的样本图像之间的比例符合采样比例;例如,样本图像集中包括500个第一类别的样本图像和100个第二类别的样本图像,基于3:1的采样比例从样本图像集中进行采样,可以获得30个第一类别的样本图像和10个第二类别的样本图像。
步骤130,基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络。
可选地,基于多个采样样本中的每个采样样本依次对分类网络进行训练,具体过程可以包括:对于每个采样样本,待训练的分类网络对该采样样本进行处理,获得网络损失;基于网络损失对待训练的分类网络进行参数调整,获得调整参数后的分类网络;判断是否达到结束训练的条件(如,达到预设训练次数等),当达到结束训练的条件时,将调整参数后的分类网络作为目标分类网络;当未达到结束训练的条件时,将调整参数后的分类网络作为待训练的分类网络,基于该待训练的分类网络对下一次采样获得的采样样本进行处理,获得下一个网络损失,基于网络损失对待训练的分类网络进行参数调整,获得调整参数后的分类网络,直到达到结束训练的条件,将调整参数后的分类网络作为目标分类网络。
基于本申请上述实施例提供的分类网络的训练方法,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本;基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络,通过随采样次数动态变化的采样比例对样本图像集进行采样,使训练获得的分类网络具有较高的分类准确度。
在一个或多个可选的实施例中,采样比例对应的不同图像类别的样本图像数量之间的差别随着已采样次数的增加而减小。
现有技术中在对样本图像集进行采样时,始终保持均衡的目标数据采样分布(例如,始终利用采样原始比例或设定比例进行采样或始终利用设定比例进行采样,样本图像集中至少两个类别之间的比例作为采样原始比例),这样不利于***的泛化性学习,比如在***学习初期,过多的丢弃大类样本图像导致***损失了过多有效信息,导致训练得到的分类网络分类不准确。本申请实施例首先获得样本图像集中不同类别之间的比例作为采样原始比例(例如,样本图像集中包括500个第一类别的样本图像和100个第二类别的样本图像,原始采样比例为1/5),以采样原始比例为基础,通过动态调整原始采样比例,随着采样次数的增加,减小采样样本中不同图像类别的样本图像之间的数据量差,即逐渐增加小类样本在采样样本中的比重,实现样本图像集中不同类别不均衡数据的学习,以提高分类网络对小类样本的召回率,实现对所有数据学习有效的特征表达,使后期可实现样本图像的正确分类学习。
可选地,步骤110获得每次采样的采样比例的过程可以包括:基于第一动态变化函数和当前采样对应的已采样次数对采样原始比例进行处理,获得当前采样的采样比例。
其中,第一动态变化函数中的变量为已采样次数;可选地,第一动态变化函数可以采用变量从1递减至0的任意函数,例如:凸函数、凹函数、线性函数、复合函数等。第一动态变化函数反映了网络学习过程的状态,第一动态变化函数的斜率表示网络学习的速率,不同的函数类描绘了不同的学习速率风格,例如,凸函数呈现的是学习速率逐渐加快的学习策略。
作为可选的例子,第一动态变化函数可以包括但不限于以下几种函数:
例如,凸函数:表示学习速率由慢到快。此时第一动态变化函数的公式可以如公式(1.1)所示:
其中,SFcos(l)表示一种凸函数形式的第一动态变化函数,l表示第l次采样,L表示设置的总采样次数。
线性函数:表示恒定的学习速率。此时第一动态变化函数的公式可以如公式(1.2)所示:
其中,SFlinear(l)表示一种线性函数形式的第一动态变化函数,l表示第l次采样,L表示设置的总采样次数。
凹函数:表示学习速率由快到慢。此时第一动态变化函数的公式可以如公式(1.3)所示:
SFexp(l)=λl 公式(1.3)
其中,SFexp(l)表示一种凹函数形式的第一动态变化函数,l表示第l次采样。
复合函数:指示学习速率从慢到快,再到慢。此时第一动态变化函数的公式可以如公式(1.4)所示:
其中,SFcomposite(l)表示一种复合函数形式的第一动态变化函数,l表示第l次采样,L表示设置的总采样次数。
上述4个公式列举的是第一动态变化函数的几个可选公式,不用于限制本申请实施例中第一动态变化函数的具体形式。
采样次数是累计变化的,如,第一次采样时,第一动态变化函数中的变量取值为1,第二次采样时,第一动态变化函数中的变量取值为2,以此类推,每次采样时对应的采样次数都不同,使每次采样对应的第一动态变化函数的函数值都不同,进而实现每次采样的采样比例不同,实现动态变化的采样。
可选地,基于第一动态变化函数和当前采样对应的已采样次数对采样原始比例进行处理,获得当前采样的采样比例的过程可以包括:
获得第一动态变化函数对应当前采样的函数值;
将采样原始比例作为底数,将获得的函数值作为指数,获得本次采样的采样比例。
可选地,通过本申请实施例获得的采样比例实现网络训练初期针对真实训练数据分布(接近采样原始比例)进行学习,到训练后期针对均衡数据分布进行学习。一个可选示例中,可基于以下公式(2)获得采样比例:
D(l)=Dtrain g(l) 公式(2)
其中,D(l)表示第l次采样对应的采样比例,g(l)表示第l次采样对应的第一动态变化函数,Dtrain表示样本图像集的采样原始比例;基于上述公式(1)获得的采样比例,由于g(l)从1递减至0的第一动态变化函数,例如,g(l)可以选择上述公式(1.1)、公式(1.2)、公式(1.3)或公式(1.4)实现,因此,使获得的采样比例D(l)在初始采样时接近采样原始比例,在后续采样中逐渐增大数量少的类别的比例,以提高分类网络对数量少的类别的分类性能。
图2为本申请实施例提供的分类网络训练方法的另一实施例的流程示意图。如图2所示,该实施例方法包括:
步骤210,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例。
其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像;例如,样本图像集中包括两个类别,包括大量数据的第一类别和包括少量数据的第二类别,通过本申请实施例中根据已采样次数动态调整进行采样的采样比例,实现在每次采样时,第一类别和第二类别之间的采样比例都是动态变化的,例如,可采用设定的函数实现采样比例随着已采样次数动态变化。
步骤220,基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本。
步骤230,通过分类网络处理采样样本,获得采样样本的网络损失。
可选地,将采样样本输入分类网络,基于分类网络对采样样本中包括的每个样本图像进行分类,获得预测分类结果,将预测分类结果与每个样本图像对应的标注分类结果进行处理,即可获得采样样本的网络损失,可选地,网络损失可以由至少一种损失构成,例如,网络损失由预测损失和嵌入损失;本申请实施例不限制网络损失包括损失的具体数量和种类。
步骤240,基于网络损失调整分类网络的网络参数,获得目标分类网络。
网络训练是通过网络损失调整网络参数的过程,可选地,调整参数的过程包括:每次采样获得一个采样样本后输入待训练的分类网络,获得一个网络损失,基于该网络损失对待训练的分类网络中的网络参数进行调整,获得调整后的分类网络,此时,需判断是否达到了预设的训练次数(本申请实施例中训练的次数可以进行预设,例如,预设训练10次),当未达到预设的训练次数时(例如,预设训练次数为10,本次训练为第8次),进行下一次采样(第9次采样和训练),获得下一个采样样本,将调整后的分类网络作为待训练的分类网络,将下一个采样样本输入到待训练的分类网络,获得下一个网络损失,再基于该网络损失对待训练的分类网络中的网络参数进行调整,获得调整后的分类网络,直到达到预设的训练次数(例如,预设训练次数为10,本次训练为第10次),将调整后的分类网络作为目标分类网络。
图3为本申请实施例提供的分类网络的训练方法中获得网络损失的一个流程示意图。如图3所示,上述实施例中步骤230可以包括:
步骤302,通过分类网络处理采样样本,获得采样样本的至少两个损失。
本申请实施例中,为了提高训练速度和目标分类网络的准确度,基于采样样本获得至少两个损失,以至少两个损失获得网络损失,可选地,至少两个损失可以包括但不限于:预测损失和嵌入损失等。
步骤304,基于采样样本的至少两个损失,获得采样样本的网络损失。
在网络训练过程中,往往不仅包括一种损失,在本申请实施例中,每次将一批采样样本输入到分类网络中,获得至少两个损失,结合至少两个损失获得网络损失,损失通常是基于监督信息(通常为样本图像对应的标注类别)和预测分类结果获得的,例如,基于预测分类结果与标注类别的吻合情况确定损失。
可选地,步骤304可以包括:
对采样样本的至少两个损失进行加权求和,获得采样样本的网络损失。
网络训练过程中,针对多个损失通过加权求和的方式获得网络损失,可以使每个损失都在训练中做出相应的贡献,通过不同的权重可以调整不同损失在每次训练时对参数调整的贡献比例,以实现在训练的不同阶段提高更有优势的损失的贡献比例。
其中,至少两个损失中包含的至少一个损失的权重依赖于采样样本对应的当前已训练次数。
可选地,权重值依赖于采样样本对应的当前已训练次数的至少一个损失可以包括但不限于:预测损失和嵌入损失中的至少一种。
本申请实施例中,不同的损失在训练的不同阶段,重要性不同,例如,有些在训练初期较为重要的损失,在训练后期不重要,此时需要动态的调整各个损失在网络损失中所占的比例,以解决现有技术中仅是将多个损失相加导致的网络学习无重点,降低了分类网络性能的问题,通过本申请实施例中动态的调整至少一个损失的权重值(例如,利用动态变化的函数计算获得至少一个损失的权重值)以达到较好的网络学习效果,提高训练后的目标分类网络的性能。
可选地,至少两个损失中的嵌入损失在当前已训练次数为第一数值时对网络损失的贡献比例低于在当前已训练次数为第二数值时对网络损失的贡献比例;和/或
至少两个损失中的预测损失在当前已训练次数为第一数值时对网络损失的贡献比例高于在当前已训练次数为第二数值时对网络损失的贡献比例。
其中,第一数值大于第二数值。在本申请实施例中,由于嵌入损失在训练初期具有优势,而在训练中后期,特征基本稳定后,嵌入损失不具有优势,因此,本申请实施例将嵌入损失的贡献比例根据训练次数的增加逐渐调整变小,而在此过程中,随着训练次数的增加逐渐增加预测损失的贡献比例。
在分类任务(本申请实施例通过预测损失学习,如:交叉熵损失学习等)和度量学习(本申请实施例通过嵌入损失学习,如:三元组损失、四元组损失、五元组损失学习等)的结合方法中,可以认为两者在整个学习的过程中有不同的侧重点。可选地,分类任务更关注预测具体的分类,而度量学习针对的是拉开样本的特征空间距离,本申请实施例通过调整预测损失和嵌入损失的比例,实现训练初期能先学习有效的特征表达,后期再做样本的正确分类学习。
在一个可选示例中,通过动态调整来控制整个学习过程中预测损失和嵌入损失的比例权重。可基于以下公式(3.1)计算网络损失,在该示例中,预测损失可以为带权重的交叉熵损失,嵌入损失为三元组损失。
LDCL=LDSL+f(l)*LTEA 公式(3.1)
其中,LDCL表示网络损失,LDSL表示带权重的交叉熵损失,LTEA表示三元组损失函数值,f(l)表示第二动态变化函数。
本申请实施了中的第二动态变化函数与上述实施例中的第一动态变化函数类似,都可以采用变量从1递减至0的任意函数,例如:凸函数、凹函数、线性函数、复合函数等。可选地,可以选择上述公式(1.1)、公式(1.2)、公式(1.3)或公式(1.4)实现。
可选地,响应于当前已训练次数小于第一预设阈值,至少一个损失中的嵌入损失的权重随着当前已训练次数的增加而减小;和/或
响应于当前已训练次数大于或等于第一预设阈值,至少一个损失中的嵌入损失的权重保持为固定值。
其中,固定值是为了保证嵌入损失的权重值不为0,实现在整个训练过程中都是基于至少两个损失对分类网络进行训练,而不会因为训练次数的增加导致损失数量的减少,提高了分类网络的训练效率。
可选地,在本申请实施例中可认为嵌入损失的权重可利用第二动态变化函数计算获得。第二动态变化函数可以采用变量从1递减至0的任意函数,例如:凸函数、凹函数、线性函数、复合函数等。
在一个可选的实施例中,第二动态变化函数f(l)可基于以下公式(3.2)计算。
其中,l表示第l次训练,L表示设置的总训练次数,∈为一个设定的取值较小的常量,为另一个设定的取值较小的常量,公式(3.2)属于对公式(1.4)的改进,通过增加∈,使第二动态变化函数f(l)的取值不为0。
在一个或多个可选的实施例中,步骤302包括:
通过分类网络处理采样样本,得到采样样本中包括的每个样本图像的预测类别;
基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定采样样本的预测损失。
本申请实施例中的预测损失可实现基于标签的分类学习,每个样本图像具有唯一的标注类别,通过分类网络获得的预测类别与标注类别之间的差异即为采样样本的预测损失,即预测损失表达分类网络预测类别的准确率,通过预测损失对分类网络进行训练,可提高分类网络判断具体类别的准确性。
可选地,基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定采样样本的预测损失,包括:
基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定每个样本图像的预测误差值;
基于采样样本中包括的每个样本图像的权重值和每个样本图像的预测误差值,确定采样样本的预测误差。
本申请实施例中,通对每个样本图像计算预测误差值时增加权重值,提高了特征表达的有效性,可选地,该样本图像的权重依赖于样本图像所属图像类别在采样样本中所占的第一比例。
可选地,以带权重的交叉熵损失作为预测损失为例,该预测损失以通用的交叉熵损失为基础,对计算交叉熵损失的公式进行改进,增加了权重值,以提高了特征表达的有效性,例如,可基于以下公式(4.1)计算带权重的交叉熵损失:
其中,LDSL表示带权重的交叉熵损失,N表示本次训练对应的采样样本包括的样本图像的数量,Nj表示一批采样样本中第j个类别的样本图像的数量,M是样本图像集包括的类别的数量,表示对应第j个类别中第i个样本图像的真实标签。wj表示第j个类别的样本图像对应的权重。可选地,响应于第一比例与样本图像所属的图像类别在样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,样本图像的权重为第一比例与第二比例之间的比值;和/或
响应于第一比例与第二比例之间的比例小于第二预设阈值,样本图像的权重为0或1。
在一个或多个可选的示例中,样本图像的权重wj可基于以下公式(4.2)计算:
上述公式(4.2)表示当时,wj的取值为/>而当/>时,wj的取值为0或1。其中,Dj(l)是在本次训练中第j类样本图像的目标分布(即,第j类样本图像与其他类别的样本图像之间的比例),Bj是指样本图像集中第j类样本图像的分布(即,第j类样本图像与其他类别的样本图像之间的比例)。
在一个或多个可选的实施例中,步骤302可以包括:
通过分类网络处理采样样本,得到采样样本中包括的每个样本图像的特征数据;
基于采样样本中包括的每个样本图像的特征数据,确定采样样本中的容易样本;
将容易样本作为锚点,获得采样样本的嵌入损失。
在网络训练中,度量学习的引入有利于学习更好的样本特征表达,本申请实施例通过嵌入损失实现度量学习,其中嵌入损失可以包括多种以锚点为基础的损失,例如,三元组损失、四元组损失、五元组损失等。以三元组损失为例,它由一个锚点以及锚点对应的正负样本各一个组成。图4为现有技术的计算三元组损失的一个计算示意图。如图4所示,在现有技术中,计算三元组损失的时,通常将数量较少的类别(图4中秃顶的小量样本)中的所有样本图像都作为锚点,即对应本申请实施例中的所有锚点,但以全部小量样本类为锚点存在的一个问题:如果用困难小量样本(本申请实施例中指在小量样本类中不聚合的样本图像,例如,图4中所示的锚点(anchor))作为锚点,会给网络学习带来困难,使得分类边界无法稳定求解,如图4中要拉近锚点与同类样本图像(正样本Hard+)之间的距离,将会导致两个类别之间的边界不稳定。
针对上述图4中的问题,本申请实施例提出了两个概念:容易样本和困难样本,容易样本指小量图像类别(采用小量样本类中的样本图像作为锚点时)中相互距离小于设定值的至少两个样本图像,即,聚合在一起的样本图像称为容易样本;而困难样本是相对容易样本的,即,与容易样本的距离大于或等于设定值的样本图像。
为了解决现有技术中计算三元组损失时存在的问题,本申请实施例将容易样本作为锚点,进行三元组损失的计算,能更鲁棒稳定的确定分类边界,图5为本申请实施例提供的分类网络的训练方法中的三元组损失的一个计算示意图。在一个可选示例中,可以选择公式(5)计算三元组损失。
其中,LTEA表示三元组损失函数值,|T|表示三元组的总数量,每个三元组包括一个容易锚点、一个正样本(与容易锚点属于相同类别的样本图像称为正样本)和一个负样本(与容易锚点属于不同类别的样本图像称为负样本);mj为设置的超参数,xeasy,j表示采样样本中将第j个类别的样本图像作为容易锚点,x+,j表示容易锚点xeasy,j的正样本,x-,j表示容易锚点xeasy,j的负样本,d(xeasy,j,x+,j)表示容易锚点xeasy,j与正样本x+,j之间的距离(如,欧式距离、余弦距离等),d(xeasy,j,x-,j)表示容易锚点xeasy,j与负样本x-,j之间的距离(如,欧式距离、余弦距离等)。
在结合上述实施例获得的带权重的交叉熵损失和基于容易锚点的三元组损失进行多任务学习时。带权重的交叉熵损失和基于容易锚点的三元组损失的学习侧重点不一样,在不同学习阶段有不同的作用,所以本申请实施例动态规划两者在不同学习阶段的侧重点。
在应用中,本申请实施例提供的分类网络的训练方法可以应用于包含不同类别的训练图像的图像集的神经网络训练,特别是不均衡数据场景,例如,行人检测与跟踪、大规模智慧城市目标任务搜索定位、个人画像描述等,能够有效提高训练得到的神经网络性能。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图6为本申请实施例提供的分类网络的训练装置的一个结构示意图。该实施例的装置可用于实现本申请上述各方法实施例。如图6所示,该实施例的装置包括:
采样比例确定单元61,用于基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例。
其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像。
样本采样单元62,用于基于采样比例,对样本图像集进行所述当前采样,以获得当前采样的采样样本。
在本申请实施例中,当前采样的采样比例由已采样次数确定,由于每次进行采样时,采样次数都在变化,因此每次采样的采样比例都不相同,保证了在样本图像集中每个图像类别都能对分类网络的训练起到积极的作用。
网络训练单元63,用于基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络。
基于本申请上述实施例提供的分类网络的训练装置,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本;基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络,通过随采样次数动态变化的采样比例对样本图像集进行采样,使训练获得的分类网络具有较高的分类准确度。
在一些可选的实施例中,至少两个图像类别包括第一图像类别和第二图像类别,其中,第一图像类别包含的样本图像的数量大于第二图像类别包含的样本图像的数量。
本申请实施例提出的基于已采样次数确定当前采样的采样比例的采样方法,适用于任意包括多个类别的样本图像集的采样,尤其对于不同图像类别的样本图像数量差较大的情况,可以通过调整采样比例增加数量较少的第二图像类别在采样样本中的比重,使训练得到的目标分类网络对第二图像类别也能较为准确的分类,而不会出现使用固定采样比例采样时,由于样本图像数量较少而导致在采样样本中第二图像类别数量过小且重复量大,使得训练的目标分类网络对第二图像类别的分类不准确。
可选地,采样样本包括至少两个样本图像,至少两个样本图像对应至少一个图像类别。
在一个或多个可选的实施例中,采样比例对应的不同图像类别的样本图像数量之间的差别随着已采样次数的增加而减小。
现有技术中在对样本图像集进行采样时,始终保持均衡的目标数据采样分布(例如,始终利用采样原始比例或设定比例进行采样或始终利用设定比例进行采样,样本图像集中至少两个类别之间的比例作为采样原始比例),这样不利于***的泛化性学习,比如在***学习初期,过多的丢弃大类样本图像导致***损失了过多有效信息,导致训练得到的分类网络分类不准确。本申请实施例首先获得样本图像集中不同类别之间的比例作为采样原始比例(例如,样本图像集中包括500个第一类别的样本图像和100个第二类别的样本图像,原始采样比例为1/5),以采样原始比例为基础,通过动态调整原始采样比例,随着采样次数的增加,减小采样样本中不同图像类别的样本图像之间的数据量差,即逐渐增加小类样本在采样样本中的比重,实现样本图像集中不同类别不均衡数据的学习,以提高分类网络对小类样本的召回率,实现对所有数据学习有效的特征表达,使后期可实现样本图像的正确分类学习。
在一个或多个可选的实施例中,网络训练单元63,包括:
损失获得模块,用于通过分类网络处理采样样本,获得采样样本的网络损失;
参数调整模块,用于基于网络损失调整分类网络的网络参数,获得目标分类网络。
网络训练是通过网络损失调整网络参数的过程,可选地,调整参数的过程包括:每次采样获得一个采样样本后输入待训练的分类网络,获得一个网络损失,基于该网络损失对待训练的分类网络中的网络参数进行调整,获得调整后的分类网络。
可选地,损失获得模块,用于通过分类网络处理采样样本,获得采样样本的至少两个损失;基于采样样本的至少两个损失,获得采样样本的网络损失。
可选地,损失获得模块在基于采样样本的至少两个损失,获得采样样本的网络损失时,用于对采样样本的至少两个损失进行加权求和,获得采样样本的网络损失。
其中,至少两个损失中包含的至少一个损失的权重依赖于采样样本对应的当前已训练次数。
可选地,至少一个损失包括预测损失和嵌入损失中的至少一种。
可选地,至少两个损失中的嵌入损失在当前已训练次数为第一数值时对网络损失的贡献比例低于在当前已训练次数为第二数值时对网络损失的贡献比例,其中,第一数值大于所述第二数值;和/或
至少两个损失中的预测损失在当前已训练次数为第一数值时对网络损失的贡献比例高于在当前已训练次数为第二数值时对网络损失的贡献比例。
可选地,响应于当前已训练次数小于第一预设阈值,至少一个损失中的嵌入损失的权重随着当前已训练次数的增加而减小;和/或
响应于当前已训练次数大于或等于第一预设阈值,至少一个损失中的嵌入损失的权重保持为固定值。
在一个或多个可选的实施例中,损失获得模块在通过分类网络处理采样样本,获得采样样本的至少两个损失时,用于通过分类网络处理采样样本,得到采样样本中包括的每个样本图像的预测类别;基于采样样本中包括的每个样本图像的预测类和每个样本图像的标注类别,确定采样样本的预测损失。
本申请实施例中的预测损失可实现基于标签的分类学习,每个样本图像具有唯一的标注类别,通过分类网络获得的预测类别与标注类别之间的差异即为采样样本的预测损失,即预测损失表达分类网络预测类别的准确率,通过预测损失对分类网络进行训练,可提高分类网络判断具体类别的准确性。
可选地,损失获得模块在基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定采样样本的预测损失时,用于基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定每个样本图像的预测误差值;基于采样样本中包括的每个样本图像的权重值和每个样本图像的预测误差值,确定采样样本的预测误差。
可选地,样本图像的权重依赖于样本图像所属图像类别在采样样本中所占的第一比例。
可选地,响应于第一比例与样本图像所属的图像类别在样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,样本图像的权重为第一比例与所述第二比例之间的比值;和/或
响应于第一比例与第二比例之间的比例小于第二预设阈值,样本图像的权重为0或1。
在一个或多个可选的实施例中,损失获得模块在通过分类网络处理采样样本,获得采样样本的至少两个损失时,用于通过分类网络处理采样样本,得到采样样本中包括的每个样本图像的特征数据;基于采样样本中包括的每个样本图像的特征数据,确定采样样本中的容易样本;将容易样本作为锚点,获得采样样本的嵌入损失。
在网络训练中,度量学习的引入有利于学习更好的样本特征表达,本申请实施例通过嵌入损失实现度量学习,其中嵌入损失可以包括多种以锚点为基础的损失,例如,三元组损失、四元组损失、五元组损失等。以三元组损失为例,它由一个锚点以及锚点对应的正负样本各一个组成。
图7为本申请实施例提供的分类网络的训练方法的还一实施例的流程示意图。该方法可以由任意电子设备执行,例如终端设备、服务器、移动设备等等。
步骤710,通过分类网络处理从样本图像集中获得的采样样本,获得采样样本的至少两个损失。
其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,采样样本包括至少两个样本图像。
本申请实施例中的采样样本可基于任意采样比例进行采样获得,例如,可以基于动态变化的采样比例进行采样,也可以基于固定设置的采样比例进行采样,本申请实施例不限制获得采样样本的采样比例。
本申请实施例中,为了提高训练速度和目标分类网络的准确度,基于采样样本获得至少两个损失,以至少两个损失获得网络损失,可选地,至少两个损失可以包括但不限于:预测损失和嵌入损失等。
步骤720,基于采样样本的至少两个损失和至少两个损失的权重,获得采样样本的网络损失。
其中,至少两个损失包含的至少一个损失的权重依赖于采样样本对应的当前已训练次数,通过权重调整在不同训练次数不同损失在网络损失中所占比例,以解决现有技术中仅是将多个损失相加导致的网络学习无重点,降低了分类网络性能的问题。
在网络训练过程中,往往不仅包括一种损失,在本申请实施例中,每次将一批采样样本输入到分类网络中,获得至少两个损失,结合至少两个损失获得网络损失,提高分类网络的训练效率,损失通常是基于监督信息(通常为样本图像对应的标注类别)和预测分类结果获得的,例如,基于预测分类结果与标注类别的吻合情况确定损失。
可选地,基于至少两个损失的权重对采样样本的至少两个损失进行加权求和,获得采样样本的网络损失。
网络训练过程中,针对多个损失通过加权求和的方式获得网络损失,可以使每个损失都在训练中做出相应的贡献,通过不同的权重可以调整不同损失在每次训练时对参数调整的贡献比例,以实现在训练的不同阶段提高更有优势的损失的贡献比例。
步骤730,基于网络损失调整分类网络的网络参数,获得目标分类网络。
可选地,基于多个采样样本中的每个采样样本依次对分类网络进行训练,具体过程可以包括:对于每个采样样本,待训练的分类网络对该采样样本进行处理,获得网络损失;基于网络损失对待训练的分类网络进行参数调整,获得调整参数后的分类网络;判断是否达到结束训练的条件(如,达到预设训练次数等),当达到结束训练的条件时,将调整参数后的分类网络作为目标分类网络;当未达到结束训练的条件时,将调整参数后的分类网络作为待训练的分类网络,基于该待训练的分类网络对下一次采样获得的采样样本进行处理,获得下一个网络损失,基于网络损失对待训练的分类网络进行参数调整,获得调整参数后的分类网络,直到达到结束训练的条件,将调整参数后的分类网络作为目标分类网络。
本申请实施例实现通过采样样本的至少两个损失确定采样样本的网络损失,并且至少两个损失中的至少一个损失的权重依赖于采样样本对应的当前已训练次数,实现了动态调整至少两个损失在网络损失中所占的比例;由于不同的损失在训练的不同阶段,重要性不同,例如,有些在训练初期较为重要的损失,在训练后期不重要,本申请实施例提供的分类网络训练方法通过动态的调整各个损失在网络损失中所占的比例,解决了现有技术中仅是将多个损失相加导致的网络学习无重点,降低了分类网络性能的问题,通过本申请实施例中动态的调整至少一个损失的权重值(例如,利用动态变化的函数计算获得至少一个损失的权重值)以达到较好的网络学习效果,提高训练后的目标分类网络的性能。
可选地,至少一个损失可以包括但不限于预测损失和嵌入损失中的至少一种。
本申请实施例仅作为可应用于本申请实施例提出的分类网络的训练方法中的一个例子,并不限制本申请实施例中至少一个损失的具体类型。
可选地,至少两个损失中的嵌入损失在当前已训练次数为第一数值时对网络损失的贡献比例低于在当前已训练次数为第二数值时对网络损失的贡献比例;和/或
至少两个损失中的预测损失在当前已训练次数为第一数值时对网络损失的贡献比例高于在当前已训练次数为第二数值时对网络损失的贡献比例。
其中,第一数值大于第二数值。在本申请实施例中,由于预测损失在训练初期(已训练次数为第一数值时)具有优势,而在训练中后期,特征基本稳定后,预测损失不具有优势,因此,本申请实施例将预测损失的贡献比例根据训练次数的增加逐渐调整变小,而在此过程中,随着训练次数的增加逐渐增加嵌入损失的贡献比例。
在分类任务(本申请实施例通过预测损失学习,如:交叉熵损失学习等)和度量学习(本申请实施例通过嵌入损失学习,如:三元组损失、四元组损失、五元组损失学习等)的结合方法中,可以认为两者在整个学习的过程中有不同的侧重点。可选地,分类任务更关注预测具体的分类,而度量学习针对的是拉开样本的特征空间距离,本申请实施例通过调整预测损失和嵌入损失的比例,实现训练初期能先学习有效的特征表达,后期再做样本的正确分类学习。
在一个可选示例中,通过动态调整来控制整个学习过程中预测损失和嵌入损失的比例权重。可基于上述公式(3.1)计算网络损失,在该示例中,预测损失可以为带权重的交叉熵损失,嵌入损失为三元组损失。
本申请实施了中的第二动态变化函数与上述实施例中的第一动态变化函数类似,都可以采用变量从1递减至0的任意函数,例如:凸函数、凹函数、线性函数、复合函数等。同样的,也可以选择上述公式(1.1)、公式(1.2)、公式(1.3)或公式(1.4)实现。
可选地,响应于当前已训练次数小于第一预设阈值,至少一个损失中的嵌入损失的权重随着当前已训练次数的增加而减小;和/或
响应于当前已训练次数大于或等于第一预设阈值,至少一个损失中的嵌入损失的权重保持为固定值。
其中,固定值是为了保证嵌入损失的权重值不为0,实现在整个训练过程中都是基于至少两个损失对分类网络进行训练,而不会因为训练次数的增加导致损失数量的减少,提高了分类网络的训练效率。
可选地,在本申请实施例中可认为嵌入损失的权重可利用第二动态变化函数计算获得。第二动态变化函数可以采用变量从1递减至0的任意函数,例如:凸函数、凹函数、线性函数、复合函数等。
在一个可选的实施例中,第二动态变化函数f(l)可基于上述公式(3.2)计算。
在一个或多个可选的实施例中,步骤710包括:
通过分类网络处理采样样本,得到采样样本中包括的每个样本图像的预测类别;
基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定采样样本的预测损失。
本申请实施例中的预测损失可实现基于标签的分类学习,每个样本图像具有唯一的标注类别,通过分类网络获得的预测类别与标注类别之间的差异即为采样样本的预测损失,即预测损失表达分类网络预测类别的准确率,通过预测损失对分类网络进行训练,可提高分类网络判断具体类别的准确性。可选地,确定采样样本的预测损失的过程可以包括:基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定每个样本图像的预测误差值;基于采样样本中包括的每个样本图像的权重值和每个样本图像的预测误差值,确定采样样本的预测误差。
本申请实施例中,通对每个样本图像计算预测误差值时增加权重值,提高了特征表达的有效性,可选地,该样本图像的权重依赖于样本图像所属图像类别在采样样本中所占的第一比例。
可选地,以带权重的交叉熵损失作为预测损失为例,该预测损失以通用的交叉熵损失为基础,对计算交叉熵损失的公式进行改进,增加了权重值,以提高了特征表达的有效性,例如,可基于上述公式(4.1)计算带权重的交叉熵损失。
可选地,响应于第一比例与样本图像所属的图像类别在样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,样本图像的权重为第一比例与第二比例之间的比值;和/或
响应于第一比例与第二比例之间的比例小于第二预设阈值,样本图像的权重为0或1。
在一个或多个可选的示例中,样本图像的权重可基于上述公式(4.2)计算。
在一个或多个可选的实施例中,步骤710可以包括:
通过分类网络处理采样样本,得到采样样本中包括的每个样本图像的特征数据;
基于采样样本中包括的每个样本图像的特征数据,确定采样样本中的容易样本;
将容易样本作为锚点,获得采样样本的嵌入损失。
在网络训练中,度量学习的引入有利于学习更好的样本特征表达,本申请实施例通过嵌入损失实现度量学习,其中嵌入损失可以包括多种以锚点为基础的损失,例如,三元组损失、四元组损失、五元组损失等。以三元组损失为例,它由一个锚点以及锚点对应的正负样本各一个组成。
图8为本申请实施例提供的分类网络的训练方法的再一实施例的流程示意图。如图8所示,该实施例方法包括:
步骤810,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例。
其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像;例如,样本图像集中包括两个类别,包括大量数据的第一类别和包括少量数据的第二类别,通过本申请实施例中根据已采样次数动态调整进行采样的采样比例,实现在每次采样时,第一类别和第二类别之间的采样比例都是动态变化的,例如,可采用设定的函数实现采样比例随着已采样次数动态变化。
在一些可选的实施例中,至少两个图像类别包括第一图像类别和第二图像类别,其中,第一图像类别包含的样本图像的数量大于第二图像类别包含的样本图像的数量。
本申请实施例提出的基于已采样次数确定当前采样的采样比例的采样方法,适用于任意包括多个类别的样本图像集的采样,尤其对于不同图像类别的样本图像数量差较大的情况,可以通过调整采样比例增加数量较少的第二图像类别在采样样本中的比重,使训练得到的目标分类网络对第二图像类别也能较为准确的分类,而不会出现使用固定采样比例采样时,由于样本图像数量较少而导致在采样样本中第二图像类别数量过小且重复量大,使得训练的目标分类网络对第二图像类别的分类不准确。
步骤820,基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本。
在本申请实施例中,当前采样的采样比例由已采样次数确定,由于每次进行采样时,采样次数都在变化,因此每次采样的采样比例都不相同,保证了在样本图像集中每个图像类别都能对分类网络的训练起到积极的作用。
可选地,每个采样样本包括至少两个样本图像,至少两个样本图像对应至少一个图像类别。
本申请实施例中为了实现基于采样样本对分类网络的训练,采样样本中需包括的多个样本图像,以提高训练获得的分类网络的分类准确性;并且,每次基于一个采样比例从样本图像集中进行采样,获得的采样样本中不同类别的样本图像之间的比例符合采样比例。
步骤830,通过分类网络处理从样本图像集中获得的采样样本,获得采样样本的至少两个损失。
其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,采样样本包括至少两个样本图像。
本申请实施例中步骤830与上述实施例的步骤710类似,可参照上述实施例对该步骤进行理解,在此不再赘述。
步骤840,基于采样样本的至少两个损失和至少两个损失的权重,获得采样样本的网络损失。
其中,至少两个损失包含的至少一个损失的权重依赖于采样样本对应的当前已训练次数,通过权重调整在不同训练次数不同损失在网络损失中所占比例,以解决现有技术中仅是将多个损失相加导致的网络学习无重点,降低了分类网络性能的问题。
步骤850,基于网络损失调整分类网络的网络参数,获得目标分类网络。
本申请实施例中步骤850与上述实施例的步骤730类似,可参照上述实施例对该步骤进行理解,在此不再赘述。
本申请实施例提供的分类网络的训练方法,实现了动态比例的采样和动态调整不同损失的权重,通过动态比例的采样均衡了每个图像类别在网络训练中的作用,使目标分类网络对大类和小类都具有较高的召回率;通过动态调整不同损失的权重使不同损失在其发挥作用较大时在网络损失中占较大比例,在发挥作用较小时在网络损失中减小其所占比例,解决了现有技术中仅是将多个损失相加导致的网络学习无重点,降低了分类网络性能的问题。
可选地,每个采样样本包括至少两个样本图像,至少两个样本图像对应至少一个图像类别。
本申请实施例中为了实现基于采样样本对分类网络的训练,采样样本中需包括的多个样本图像,以提高训练获得的分类网络的分类准确性;并且,每次基于一个采样比例从样本图像集中进行采样,获得的采样样本中不同类别的样本图像之间的比例符合采样比例。
在一个或多个可选的实施例中,采样比例对应的不同图像类别的样本图像数量之间的差别随着已采样次数的增加而减小。
现有技术中在对样本图像集进行采样时,始终保持均衡的目标数据采样分布(例如,始终利用采样原始比例或设定比例进行采样或始终利用设定比例进行采样,样本图像集中至少两个类别之间的比例作为采样原始比例),这样不利于***的泛化性学习,比如在***学习初期,过多的丢弃大类样本图像导致***损失了过多有效信息,导致训练得到的分类网络分类不准确。本申请实施例首先获得样本图像集中不同类别之间的比例作为采样原始比例(例如,样本图像集中包括500个第一类别的样本图像和100个第二类别的样本图像,原始采样比例为1/5),以采样原始比例为基础,通过动态调整原始采样比例,随着采样次数的增加,减小采样样本中不同图像类别的样本图像之间的数据量差,即逐渐增加小类样本在采样样本中的比重,以提高分类网络对小类样本的召回率,实现对所有数据学习有效的特征表达,使后期可实现样本图像的正确分类学习。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图9为本申请实施例提供的分类网络的训练装置的另一结构示意图。该实施例的装置可用于实现本申请上述各方法实施例。如图9所示,该实施例的装置包括:
样本损失获得单元91,用于通过分类网络处理从样本图像集中获得的采样样本,获得采样样本的至少两个损失。
其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,采样样本包括至少两个样本图像。
网络损失单元92,用于基于采样样本的至少两个损失和至少两个损失的权重,获得采样样本的网络损失。
其中,至少两个损失包含的至少一个损失的权重依赖于采样样本对应的当前已训练次数,通过权重调整在不同训练次数不同损失在网络损失中所占比例,以解决现有技术中仅是将多个损失相加导致的网络学习无重点,降低了分类网络性能的问题。
参数调整单元93,用于基于网络损失调整分类网络的网络参数,获得目标分类网络。
本申请实施例实现通过采样样本的至少两个损失确定采样样本的网络损失,并且至少两个损失中的至少一个损失的权重依赖于采样样本对应的当前已训练次数,实现了动态调整至少两个损失在网络损失中所占的比例;由于不同的损失在训练的不同阶段,重要性不同,例如,有些在训练初期较为重要的损失,在训练后期不重要,本申请实施例提供的分类网络训练方法通过动态的调整各个损失在网络损失中所占的比例,解决了现有技术中仅是将多个损失相加导致的网络学习无重点,降低了分类网络性能的问题,通过本申请实施例中动态的调整至少一个损失的权重值以达到较好的网络学习效果,提高训练后的目标分类网络的性能。
可选地,样本损失获得单元,用于基于至少两个损失的权重对采样样本的至少两个损失进行加权求和,获得采样样本的网络损失。
网络训练过程中,针对多个损失通过加权求和的方式获得网络损失,可以使每个损失都在训练中做出相应的贡献,通过不同的权重可以调整不同损失在每次训练时对参数调整的贡献比例,以实现在训练的不同阶段提高更有优势的损失的贡献比例。
可选地,至少一个损失包括预测损失和嵌入损失中的至少一种。
可选地,至少两个损失中的嵌入损失在当前已训练次数为第一数值时对网络损失的贡献比例低于在当前已训练次数为第二数值时对网络损失的贡献比例,其中,第一数值大于所述第二数值;和/或
至少两个损失中的预测损失在当前已训练次数为第一数值时对网络损失的贡献比例高于在当前已训练次数为第二数值时对网络损失的贡献比例。
可选地,响应于当前已训练次数小于第一预设阈值,至少一个损失中的嵌入损失的权重随着当前已训练次数的增加而减小;和/或
响应于当前已训练次数大于或等于第一预设阈值,至少一个损失的权重保持为固定值。
在一个或多个可选的实施例中,样本损失获得单元91,具体用于通过分类网络处理采样样本,得到采样样本中包括的每个样本图像的预测类别;基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定采样样本的预测损失。
本申请实施例中的预测损失可实现基于标签的分类学习,每个样本图像具有唯一的标注类别,通过分类网络获得的预测类别与标注类别之间的差异即为采样样本的预测损失,即预测损失表达分类网络预测类别的准确率,通过预测损失对分类网络进行训练,可提高分类网络判断具体类别的准确性。
可选地,样本损失获得单元91在基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定采样样本的预测损失时,用于基于采样样本中包括的每个样本图像的预测类别和每个样本图像的标注类别,确定每个样本图像的预测误差值;基于采样样本中包括的每个样本图像的权重值和每个样本图像的预测误差值,确定采样样本的预测误差。
可选地,样本图像的权重依赖于样本图像所属图像类别在采样样本中所占的第一比例。
可选地,响应于第一比例与样本图像所属的图像类别在样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,样本图像的权重为第一比例与第二比例之间的比值;和/或
响应于第一比例与第二比例之间的比例小于第二预设阈值,样本图像的权重为0或1。
在一个或多个可选的实施例中,样本损失获得单元91,具体用于通过分类网络处理采样样本,得到采样样本中包括的每个样本图像的特征数据;基于采样样本中包括的每个样本图像的特征数据,确定采样样本中的容易样本;将容易样本作为锚点,获得采样样本的嵌入损失。
在一个或多个可选的实施例中,本申请实施例提供的装置还包括:
采样比例确定单元,用于基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;
样本采样单元,用于基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本。
本申请实施例提供的分类网络的训练装置,实现了动态比例的采样和动态调整不同损失的权重,通过动态比例的采样均衡了每个图像类别在网络训练中的作用,使目标分类网络对大类和小类都具有较高的召回率;通过动态调整不同损失的权重使不同损失在其发挥作用较大时在网络损失中占较大比例,在发挥作用较小时在网络损失中减小其所占比例,解决了现有技术中仅是将多个损失相加导致的网络学习无重点,降低了分类网络性能的问题。
可选地,至少两个图像类别包括第一图像类别和第二图像类别,其中,第一图像类别包含的样本图像的数量大于第二图像类别包含的样本图像的数量。
可选地,采样样本包括至少两个样本图像,至少两个样本图像对应至少一个类别。
可选地,采样比例对应的不同图像类别的样本图像数量之间的差别随着已采样次数的增加而减小。
图10为本申请实施例提供的分类方法的一个流程示意图。该方法可以由任意电子设备执行,例如终端设备、服务器、移动设备等等。
步骤1010,获取待处理图像。
本申请实施例中获取待处理图像的方式可以有很多种,例如,相机拍摄的照片、摄像头拍摄的视频中的一帧或多帧视频图像、相册中的任意图像等等,本申请实施不限制获取待处理图像的方式和待处理图像的格式。
步骤1020,通过目标分类网络对待处理图像进行分类处理,得到待处理图像的图像预测类别。
其中,目标分类网络是通过上述任意一项实施例提供的分类网络的训练方法得到的目标分类网络。
通过上述任意一项实施例提供的分类网络的训练方法训练得到的目标分类网络,由于上述实施例提供的分类网络的训练方法,实现了动态比例的采样和/或动态调整不同损失的权重,解决了样本图像集不均衡导致的小类判断不准确的问题和由于网络学习无重点降低了分类网络性能的问题中的至少一个。通过目标分类网络对待处理图像进行分类,获得的分类更准确,网络性能更好,对小类别的召回率高于现有技术中其他方法训练得到的分类网络。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
图11为本申请实施例提供的分类装置的一个结构示意图。该实施例的装置可用于实现本申请上述各方法实施例。如图11所示,该实施例的装置包括:
图像获取单元1101,用于获取待处理图像。
类别预测单元1102,用于通过目标分类网络对待处理图像进行分类处理,得到待处理图像的图像预测类别;其中,目标分类网络是通过上述任意一项实施例提供的训练方法得到的。
根据本申请实施例的另一个方面,提供的一种电子设备,包括处理器,该处理器包括如上任意一项实施例提供的分类网络的训练装置或分类装置。
根据本申请实施例的另一个方面,提供的一种电子设备,包括:存储器,用于存储可执行指令;
以及处理器,用于与存储器通信以执行可执行指令从而完成如上任意一项实施例提供的分类网络的训练方法或分类方法的操作。
根据本申请实施例的另一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,指令被执行时执行如上任意一项实施例提供的分类网络的训练方法或分类方法的操作。
根据本申请实施例的另一个方面,提供的一种计算机程序产品,包括计算机可读代码,当计算机可读代码在设备上运行时,设备中的处理器执行用于实现如上任意一项实施例提供的分类网络的训练方法或分类方法的指令。
根据本申请实施例的再一个方面,提供的另一种计算机程序产品,用于存储计算机可读指令,指令被执行时使得计算机执行上述任意一项实施例提供的分类网络的训练方法或分类方法的操作。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选例子中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选例子中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
根据本申请实施例还提供了分类网络的训练及分类方法和装置、电子设备、计算机存储介质、计算机程序产品,其中,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本;基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络。
在一些实施例中,该网络获取指示或图像处理指示可以具体为调用指令,第一装置可以通过调用的方式指示第二装置执行分类网络的训练或图像分类处理,相应地,响应于接收到调用指令,第二装置可以执行上述分类网络的训练方法或分类方法中的任意实施例中的步骤和/或流程。
应理解,本申请实施例中的“第一”、“第二”等术语仅仅是为了区分,而不应理解成对本申请实施例的限定。
还应理解,在本申请中,“多个”可以指两个或两个以上,“至少一个”可以指一个、两个或两个以上。
还应理解,对于本申请中提及的任一部件、数据或结构,在没有明确限定或者在前后文给出相反启示的情况下,一般可以理解为一个或多个。
还应理解,本申请对各个实施例的描述着重强调各个实施例之间的不同之处,其相同或相似之处可以相互参考,为了简洁,不再一一赘述。
本申请实施例还提供了一种电子设备,例如可以是移动终端、个人计算机(PC)、平板电脑、服务器等。下面参考图12,其示出了适于用来实现本申请实施例的终端设备或服务器的电子设备1200的结构示意图:如图12所示,电子设备1200包括一个或多个处理器、通信部等,所述一个或多个处理器例如:一个或多个中央处理单元(CPU)1201,和/或一个或多个图像处理器(GPU)1213等,处理器可以根据存储在只读存储器(ROM)1202中的可执行指令或者从存储部分1208加载到随机访问存储器(RAM)1203中的可执行指令而执行各种适当的动作和处理。通信部1212可包括但不限于网卡,所述网卡可包括但不限于IB(Infiniband)网卡。
处理器可与只读存储器1202和/或随机访问存储器1203中通信以执行可执行指令,通过总线1204与通信部1212相连、并经通信部1212与其他目标设备通信,从而完成本申请实施例提供的任一项方法对应的操作,例如,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本;基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络。或者,通过分类网络处理从样本图像集中获得的采样样本,获得采样样本的至少两个损失,其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,采样样本包括至少两个样本图像;基于采样样本的至少两个损失和至少两个损失的权重,获得采样样本的网络损失,其中,至少两个损失包含的至少一个损失的权重依赖于采样样本对应的当前已训练次数;基于网络损失调整分类网络的网络参数,获得目标分类网络。
此外,在RAM 1203中,还可存储有装置操作所需的各种程序和数据。CPU1201、ROM1202以及RAM1203通过总线1204彼此相连。在有RAM1203的情况下,ROM1202为可选模块。RAM1203存储可执行指令,或在运行时向ROM1202中写入可执行指令,可执行指令使中央处理单元1201执行上述通信方法对应的操作。输入/输出(I/O)接口1205也连接至总线1204。通信部1212可以集成设置,也可以设置为具有多个子模块(例如多个IB网卡),并在总线链接上。
以下部件连接至I/O接口1205:包括键盘、鼠标等的输入部分1206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1207;包括硬盘等的存储部分1208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1209。通信部分1209经由诸如因特网的网络执行通信处理。驱动器1210也根据需要连接至I/O接口1205。可拆卸介质1211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1210上,以便于从其上读出的计算机程序根据需要被安装入存储部分1208。
需要说明的,如图12所示的架构仅为一种可选实现方式,在具体实践过程中,可根据实际需要对上述图12的部件数量和类型进行选择、删减、增加或替换;在不同功能部件设置上,也可采用分离设置或集成设置等实现方式,例如GPU1213和CPU1201可分离设置或者可将GPU1213集成在CPU1201上,通信部可分离设置,也可集成设置在CPU1201或GPU1213上,等等。这些可替换的实施方式均落入本申请公开的保护范围。
特别地,根据本申请的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括有形地包含在机器可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码,程序代码可包括对应执行本申请实施例提供的方法步骤对应的指令,例如,基于多次采样中的当前采样对应的已采样次数,确定当前采样从样本图像集获得不同类别的样本图像的采样比例;基于采样比例,对样本图像集进行当前采样,以获得当前采样的采样样本;基于多次采样获得的多个采样样本训练分类网络,获得目标分类网络。或者,通过分类网络处理从样本图像集中获得的采样样本,获得采样样本的至少两个损失,其中,样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,采样样本包括至少两个样本图像;基于采样样本的至少两个损失和至少两个损失的权重,获得采样样本的网络损失,其中,至少两个损失包含的至少一个损失的权重依赖于采样样本对应的当前已训练次数;基于网络损失调整分类网络的网络参数,获得目标分类网络。在这样的实施例中,该计算机程序可以通过通信部分1209从网络上被下载和安装,和/或从可拆卸介质1211被安装。在该计算机程序被中央处理单元(CPU)1201执行时,执行本申请的方法中限定的上述功能的操作。
可能以许多方式来实现本申请的方法和装置。例如,可通过软件、硬件、固件或者软件、硬件、固件的任何组合来实现本申请的方法和装置。用于所述方法的步骤的上述顺序仅是为了进行说明,本申请的方法的步骤不限于以上具体描述的顺序,除非以其它方式特别说明。此外,在一些实施例中,还可将本申请实施为记录在记录介质中的程序,这些程序包括用于实现根据本申请的方法的机器可读指令。因而,本申请还覆盖存储用于执行根据本申请的方法的程序的记录介质。
本申请的描述是为了示例和描述起见而给出的,而并不是无遗漏的或者将本申请限于所公开的形式。很多修改和变化对于本领域的普通技术人员而言是显然的。选择和描述实施例是为了更好说明本申请的原理和实际应用,并且使本领域的普通技术人员能够理解本申请从而设计适于特定用途的带有各种修改的各种实施例。

Claims (13)

1.一种分类网络的训练方法,其特征在于,包括:
基于多次采样中的当前采样对应的已采样次数,确定所述当前采样从样本图像集获得不同图像类别的样本图像的采样比例;所述不同图像类别对应的样本图像的数量不同;
基于所述采样比例,对所述样本图像集进行所述当前采样,以获得所述当前采样的采样样本;
通过所述分类网络处理从所述样本图像集中获得的所述采样样本,获得所述采样样本的至少两个损失,其中,所述样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,所述采样样本包括至少两个样本图像;
基于所述采样样本的至少两个损失和所述至少两个损失的权重,获得所述采样样本的网络损失,其中,所述权重与当前已训练次数相关,在训练的不同阶段提高所述至少两个损失中相对更有优势的损失的权重;
基于所述网络损失调整所述分类网络的网络参数,获得目标分类网络。
2.根据权利要求1所述的方法,其特征在于,所述至少两个损失包括预测损失和嵌入损失。
3.根据权利要求2所述的方法,其特征在于,所述嵌入损失在所述当前已训练次数为第一数值时的权重低于在所述当前已训练次数为第二数值时的权重;和/或
所述预测损失在所述当前已训练次数为第一数值时的权重高于在所述当前已训练次数为第二数值时的权重;
其中,所述第一数值大于所述第二数值。
4.根据权利要求2所述的方法,其特征在于,响应于所述当前已训练次数小于第一预设阈值,所述嵌入损失的权重随着所述当前已训练次数的增加而减小;和/或
响应于所述当前已训练次数大于或等于所述第一预设阈值,所述权重保持为固定值。
5.根据权利要求1所述的方法,其特征在于,在所述至少两个损失包括预测损失的情况下,通过所述分类网络处理从所述样本图像集中获得的所述采样样本,获得所述采样样本的预测损失,包括:
通过所述分类网络处理所述采样样本,得到所述采样样本中包括的每个样本图像的预测类别;
基于所述采样样本中包括的每个样本图像的预测类别和所述每个样本图像的标注类别,确定所述每个样本图像的预测误差值;
基于所述采样样本中包括的每个样本图像的权重值和所述每个样本图像的预测误差值,确定所述采样样本的预测损失。
6.根据权利要求5所述的方法,其特征在于,所述样本图像的权重与所述样本图像所属图像类别在所述采样样本中所占的第一比例相关,不同图像类别对应的样本图像的数量不同。
7.根据权利要求6所述的方法,其特征在于,响应于所述第一比例与所述样本图像所属的图像类别在所述样本图像集中所占的第二比例之间的比值大于或等于第二预设阈值,所述样本图像的权重为所述第一比例与所述第二比例之间的比值;和/或
响应于所述第一比例与所述第二比例之间的比例小于所述第二预设阈值,所述样本图像的权重为0或1。
8.根据权利要求1所述的方法,其特征在于,所述采样比例对应的不同类别的样本图像数量之间的差别随着所述已采样次数的增加而减小。
9.一种分类方法,其特征在于,包括:
获取待处理图像;
通过目标分类网络对所述待处理图像进行分类处理,得到所述待处理图像的图像预测类别;其中,
所述目标分类网络是通过权利要求1至8中任意一项所述的训练方法得到的。
10.一种分类网络的训练装置,其特征在于,包括:
采样比例确定单元,用于基于多次采样中的当前采样对应的已采样次数,确定所述当前采样从样本图像集获得不同类别的样本图像的采样比例;不同图像类别对应的样本图像的数量不同;
样本采样单元,用于基于所述采样比例,对所述样本图像集进行所述当前采样,以获得所述当前采样的采样样本;
样本损失获得单元,用于通过所述分类网络处理从所述样本图像集中获得的所述采样样本,获得所述采样样本的至少两个损失,其中,所述样本图像集中包括至少两个图像类别,每个图像类别包括至少一个样本图像,所述采样样本包括至少两个样本图像;
网络损失单元,用于基于所述采样样本的至少两个损失和所述至少两个损失的权重,获得所述采样样本的网络损失,其中,所述权重与当前已训练次数相关,在训练的不同阶段提高所述至少两个损失中相对更有优势的损失的权重;
参数调整单元,用于基于所述网络损失调整所述分类网络的网络参数,获得目标分类网络。
11.一种电子设备,其特征在于,包括:存储器,用于存储可执行指令;
以及处理器,用于与所述存储器通信以执行所述可执行指令,从而完成权利要求1至8任意一项所述分类网络的训练方法或权利要求9所述的分类方法的操作。
12.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1至8任意一项所述分类网络的训练方法或权利要求9所述的分类方法的操作。
13.一种计算机程序产品,包括计算机可读代码,其特征在于,当所述计算机可读代码在设备上运行时,所述设备中的处理器执行用于实现权利要求1至8任意一项所述分类网络的训练方法或权利要求9所述的分类方法的指令。
CN202111022512.4A 2019-01-18 2019-01-18 分类网络的训练方法及分类方法和装置、电子设备 Active CN113688933B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111022512.4A CN113688933B (zh) 2019-01-18 2019-01-18 分类网络的训练方法及分类方法和装置、电子设备

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201910049144.9A CN109800807B (zh) 2019-01-18 2019-01-18 分类网络的训练方法及分类方法和装置、电子设备
CN202111022512.4A CN113688933B (zh) 2019-01-18 2019-01-18 分类网络的训练方法及分类方法和装置、电子设备

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN201910049144.9A Division CN109800807B (zh) 2019-01-18 2019-01-18 分类网络的训练方法及分类方法和装置、电子设备

Publications (2)

Publication Number Publication Date
CN113688933A CN113688933A (zh) 2021-11-23
CN113688933B true CN113688933B (zh) 2024-05-24

Family

ID=66559673

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910049144.9A Active CN109800807B (zh) 2019-01-18 2019-01-18 分类网络的训练方法及分类方法和装置、电子设备
CN202111022512.4A Active CN113688933B (zh) 2019-01-18 2019-01-18 分类网络的训练方法及分类方法和装置、电子设备

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201910049144.9A Active CN109800807B (zh) 2019-01-18 2019-01-18 分类网络的训练方法及分类方法和装置、电子设备

Country Status (1)

Country Link
CN (2) CN109800807B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210560B (zh) * 2019-05-31 2021-11-30 北京市商汤科技开发有限公司 分类网络的增量训练方法、分类方法及装置、设备及介质
CN112241673B (zh) * 2019-07-19 2022-11-22 浙江商汤科技开发有限公司 视频处理方法及装置、电子设备和存储介质
CN110555830A (zh) * 2019-08-15 2019-12-10 浙江工业大学 基于DeepLabv3+的深度神经网络皮肤检测方法
CN110533106A (zh) * 2019-08-30 2019-12-03 腾讯科技(深圳)有限公司 图像分类处理方法、装置及存储介质
CN112529172A (zh) * 2019-09-18 2021-03-19 华为技术有限公司 数据处理方法和数据处理设备
CN113408558B (zh) * 2020-03-17 2024-03-08 百度在线网络技术(北京)有限公司 用于模型验证的方法、装置、设备和介质
CN111429414B (zh) * 2020-03-18 2023-04-07 腾讯科技(深圳)有限公司 基于人工智能的病灶影像样本确定方法和相关装置
CN111832614A (zh) * 2020-06-04 2020-10-27 北京百度网讯科技有限公司 目标检测模型的训练方法、装置、电子设备及存储介质
CN112241715A (zh) * 2020-10-23 2021-01-19 北京百度网讯科技有限公司 模型训练方法、表情识别方法、装置、设备及存储介质
CN113111960B (zh) * 2021-04-25 2024-04-26 北京文安智能技术股份有限公司 图像处理方法和装置以及目标检测模型的训练方法和***
CN113420792A (zh) * 2021-06-03 2021-09-21 阿波罗智联(北京)科技有限公司 图像模型的训练方法、电子设备、路侧设备及云控平台
CN114494782B (zh) * 2022-01-26 2023-08-08 北京百度网讯科技有限公司 图像处理方法、模型训练方法、相关装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229298A (zh) * 2017-09-30 2018-06-29 北京市商汤科技开发有限公司 神经网络的训练和人脸识别方法及装置、设备、存储介质
WO2018121690A1 (zh) * 2016-12-29 2018-07-05 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
CN108520220A (zh) * 2018-03-30 2018-09-11 百度在线网络技术(北京)有限公司 模型生成方法和装置
CN108573284A (zh) * 2018-04-18 2018-09-25 陕西师范大学 基于正交实验分析的深度学习人脸图像扩充方法
CN108764281A (zh) * 2018-04-18 2018-11-06 华南理工大学 一种基于半监督自步学习跨任务深度网络的图像分类方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7545986B2 (en) * 2004-09-16 2009-06-09 The United States Of America As Represented By The Secretary Of The Navy Adaptive resampling classifier method and apparatus
CN102521656B (zh) * 2011-12-29 2014-02-26 北京工商大学 非平衡样本分类的集成迁移学习方法
CN106021364B (zh) * 2016-05-10 2017-12-12 百度在线网络技术(北京)有限公司 图片搜索相关性预测模型的建立、图片搜索方法和装置
CN106203534A (zh) * 2016-07-26 2016-12-07 南京航空航天大学 一种基于Boosting的代价敏感软件缺陷预测方法
US10255416B2 (en) * 2017-01-25 2019-04-09 Ca, Inc. Secure biometric authentication with client-side feature extraction
CN108229647A (zh) * 2017-08-18 2018-06-29 北京市商汤科技开发有限公司 神经网络结构的生成方法和装置、电子设备、存储介质
CN108647665B (zh) * 2018-05-18 2021-07-27 西安电子科技大学 基于深度学习的航拍车辆实时检测方法
CN109003272B (zh) * 2018-07-26 2021-02-09 北京小米移动软件有限公司 图像处理方法、装置及***

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018121690A1 (zh) * 2016-12-29 2018-07-05 北京市商汤科技开发有限公司 对象属性检测、神经网络训练、区域检测方法和装置
CN108229298A (zh) * 2017-09-30 2018-06-29 北京市商汤科技开发有限公司 神经网络的训练和人脸识别方法及装置、设备、存储介质
CN108520220A (zh) * 2018-03-30 2018-09-11 百度在线网络技术(北京)有限公司 模型生成方法和装置
CN108573284A (zh) * 2018-04-18 2018-09-25 陕西师范大学 基于正交实验分析的深度学习人脸图像扩充方法
CN108764281A (zh) * 2018-04-18 2018-11-06 华南理工大学 一种基于半监督自步学习跨任务深度网络的图像分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Qi Dong 等.Imbalanced Deep Learning by Minority Class Incremental Rectification.arXiv.2018,1-14. *
朱江 等.基于深度自编码网络的安全态势要素获取机制.计算机应用.2017,165-170. *
高飞 等.基于样本类别确定度的半监督分类.北京航空航天大学学报.2018,158-168. *

Also Published As

Publication number Publication date
CN109800807B (zh) 2021-08-31
CN109800807A (zh) 2019-05-24
CN113688933A (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
CN113688933B (zh) 分类网络的训练方法及分类方法和装置、电子设备
CN111860573B (zh) 模型训练方法、图像类别检测方法、装置和电子设备
TW202139183A (zh) 基於人工智慧的物體檢測方法、裝置、設備及儲存媒體
CN110929836B (zh) 神经网络训练及图像处理方法和装置、电子设备、介质
CN103262118A (zh) 属性值估计装置、属性值估计方法、程序和记录介质
JP6926934B2 (ja) 分類タスクの複雑度の評価装置及び方法
CN109902588B (zh) 一种手势识别方法、装置及计算机可读存储介质
CN112329793B (zh) 基于结构自适应和规模自适应感受野的显著性检测方法
CN116894985B (zh) 半监督图像分类方法及半监督图像分类***
CN113989556A (zh) 一种小样本医学影像分类方法和***
CN112115826A (zh) 一种基于双边分支网络的人脸活体检测方法及***
CN111738319A (zh) 一种基于大规模样本的聚类结果评价方法及装置
CN113989519A (zh) 一种长尾目标检测方法及***
CN113657510A (zh) 一种有标注价值的数据样本的确定方法及装置
CN116030323B (zh) 图像处理方法以及装置
CN116597197A (zh) 一种自适应消除分类负梯度的长尾目标检测方法
CN106033550B (zh) 目标跟踪方法及装置
CN109215057B (zh) 一种高性能视觉跟踪方法及装置
Kaiyan et al. An apple grading method based on improved VGG16 network
Vysotska et al. Research of Methods for Image Sharpness Evaluation in Photos of People.
CN117435916B (zh) 航片ai解译中的自适应迁移学习方法
Mou et al. Tracking position and status of electric control switches based on YOLO detector
JP5118616B2 (ja) 顔画像検出装置及び顔画像検出プログラム
CN117975204B (zh) 一种模型训练方法、缺陷检测方法以及相关装置
CN115222945B (zh) 基于多尺度自适应课程学习的深度语义分割网络训练方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant