CN113627611A - 一种模型训练方法、装置、电子设备及存储介质 - Google Patents

一种模型训练方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113627611A
CN113627611A CN202110903615.5A CN202110903615A CN113627611A CN 113627611 A CN113627611 A CN 113627611A CN 202110903615 A CN202110903615 A CN 202110903615A CN 113627611 A CN113627611 A CN 113627611A
Authority
CN
China
Prior art keywords
model
training
stage
parameter
sample data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110903615.5A
Other languages
English (en)
Inventor
徐华鹏
李坤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Keyun Laser Technology Co Ltd
Original Assignee
Suzhou Keyun Laser Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Keyun Laser Technology Co Ltd filed Critical Suzhou Keyun Laser Technology Co Ltd
Priority to CN202110903615.5A priority Critical patent/CN113627611A/zh
Publication of CN113627611A publication Critical patent/CN113627611A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种模型训练方法、装置、电子设备及存储介质。其中,该方法包括:根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据所述模型深度参数和所述第一阶段的模型层参数,对所述初始模型进行参数更新,得到中间模型;根据第二样本数据集,对所述中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据所述第二阶段的模型层参数,对所述中间模型进行参数更新,得到目标模型。本申请实施例提供的技术方案,通过对初始模型进行两个阶段的训练,可以使得目标模型的准确率较高。

Description

一种模型训练方法、装置、电子设备及存储介质
技术领域
本申请实施例涉及计算机技术领域,尤其涉及一种模型训练方法、装置、电子设备及存储介质。
背景技术
随着互联网技术的发展,深度学习技术的应用越来越广泛。现有技术中的模型训练方法较为简单,且经过训练所得到的目标模型的准确率较差。因此,亟需一种使得目标模型输出结果准确率较高的模型训练方法。
发明内容
本申请实施例提供了一种模型训练方法、装置、电子设备及存储介质,以实现迅速地得到目标模型。
第一方面,本申请实施例提供了一种模型训练方法,该方法包括:
根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据所述模型深度参数和所述第一阶段的模型层参数,对所述初始模型进行参数更新,得到中间模型;
根据第二样本数据集,对所述中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据所述第二阶段的模型层参数,对所述中间模型进行参数更新,得到目标模型;其中,所述第一样本数据集的数量小于第二样本数据集的数量。
第二方面,本申请实施例提供了一种模型训练装置,该装置包括:
第一训练模块,用于根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据所述模型深度参数和所述第一阶段的模型层参数,对所述初始模型进行参数更新,得到中间模型;
第二训练模块,用于根据第二样本数据集,对所述中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据所述第二阶段的模型层参数,对所述中间模型进行参数更新,得到目标模型;其中,所述第一样本数据集的数量小于第二样本数据集的数量。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现本申请任意实施例所述的模型训练方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,该程序被处理器执行时实现本申请任意实施例所述的模型训练方法。
本申请实施例提供了一种模型训练方法、装置、电子设备及存储介质,根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据所述模型深度参数和所述第一阶段的模型层参数,对所述初始模型进行参数更新,得到中间模型;根据第二样本数据集,对所述中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据所述第二阶段的模型层参数,对所述中间模型进行参数更新,得到目标模型;其中,所述第一样本数据集的数量小于第二样本数据集的数量。执行本申请方案,通过对初始模型进行两个阶段的训练,可以使得目标模型的准确率较高。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1为本申请实施例一提供的一种模型训练方法的第一流程示意图;
图2A为本申请实施例二提供的一种模型训练方法的第二流程示意图;
图2B为本申请实施例二提供的一种模型训练方法的第一图像示意图;
图2C为本申请实施例二提供的一种模型训练方法的第二图像示意图;
图2D为本申请实施例二提供的一种模型训练方法的第三图像示意图;
图3为本申请实施例三提供的一种模型训练装置的结构示意图;
图4是用来实现本申请实施例的一种模型训练方法的电子设备的框图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
图1为本申请实施例一提供的一种模型训练方法的第一流程示意图,本实施例可适用于使用样本数据集对模型进行训练,得到目标模型的情况。本实施例提供的一种模型训练方法可以由本申请实施例提供的模型训练装置来执行,该装置可以通过软件和/或硬件的方式实现,并集成在执行本方法的电子设备中。
参见图1,本实施例的方法包括但不限于如下步骤:
S110、根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据模型深度参数和第一阶段的模型层参数,对初始模型进行参数更新,得到中间模型。
其中,第一样本数据集可以是对初始模型进行训练所需的数据,例如,如初始模型是用于执行对图像中的电路结构进行标定的任务,则本实施例的第一样本数据集可以为液晶面板微电路结构的图像集。可选的,初始模型可以是任意需要进行训练的网络模型,例如,可以是语义分割Unet模型。模型深度参数是指模型的层数。模型层参数包括模型内部参数规模、神经网络单元丢弃的比率(即Dropout)、批尺寸的大小(即Batch_size)等。
在本申请实施例中,根据待训练模型需要实现的功能,收集训练该模型所需的不同情况下的训练数据集,例如,若待训练的模型需要实现的功能是标定图像中的电路结构,则此时收集的训练数据可以是不同液晶面板微电路结构的图像,并对获取的训练数据集(如不同液晶面板微电路结构的图像)进行预处理,得到第一样本数据集。并根据第一样本数据集,对初始模型进行训练,得到中间模型。
可选的,本步骤根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据模型深度参数和第一阶段的模型层参数,对初始模型进行参数更新,得到中间模型的具体过程可以通过以下两个子步骤实现:
S1101、根据第一样本数据集,对初始模型进行模型深度训练,确定模型深度参数,并根据模型深度参数,更新初始模型的模型深度,得到初始的中间模型。
在本申请实施例中,第一样本数据集中包含训练数据集和测试数据集。在采用训练数据集对初始模型进行模型深度迭代训练时,初始模型会随模型深度不断地加深,准确率趋近于百分之百,会使得初始模型变得特化,失去了模型预测的通用性。因此,在对初始模型进行第一阶段训练时,采用边训练边测试的方式,即在采用训练数据集对初始模型进行模型深度迭代训练之后,再采用测试数据对每次迭代训练后的初始模型进行测试。
在本申请实施例中,根据第一样本数据集对初始模型进行模型深度训练确定模型深度参数的具体过程为:采用第一样本数据集,对初始模型进行模型深度迭代训练,得到每次迭代训练对应的模型深度;采用测试数据对每次迭代训练后的初始模型进行测试,确定每次迭代训练的模型错误率;将错误率最低的迭代训练对应的模型深度作为模型深度参数。将得到的模型深度参数作为初始模型的模型深度,得到初始的中间模型。在采用测试数据对每次迭代训练后的初始模型进行测试时,选取错误率最低的迭代训练对应的模型深度可以防止模型训练过拟合现象。
S1102、根据第一样本数据集,对初始的中间模型进行层参数训练,确定第一阶段的模型层参数,并根据第一阶段的模型层参数,更新初始的中间模型的模型层参数,得到最终的中间模型。
在本申请实施例中,经上述S1101步骤,对初始模型进行模型深度训练确定初始模型的模型深度,得到初始的中间模型。在此基础上,根据第一样本数据集对初始的中间模型进行层参数训练,确定第一阶段的模型层参数。
在本申请实施例中,根据第一样本数据集对初始的中间模型进行层参数训练确定第一阶段的模型层参数的具体过程为:根据模型层参数的种类,确定模型层参数正交表;根据第一样本数据集和模型层参数正交,对初始的中间模型进行层参数训练,记录每次训练的错误率,将错误率最低的层参数训练所对应的层参数作为第一阶段的模型层参数。
示例性的,模型层参数正交表的确定方式可以是:假设模型层参数有三个种类,分别是模型内部参数规模、采用Dropout的比率、batch size大小。首先在每一种模型层参数的取值范围内选取十个数值,可以是等间距选取数值。然后将每一种模型层参数所选取的十个数值进行排列组合。最终能够得到一千个数组,即模型层参数正交表。
在本申请实施例中,根据所确定的模型层参数正交表,依次将第一样本数据集中样本图像输入至初始的中间模型,对其进行层参数的训练,记录每次训练的错误率,并绘制错误率、迭代次数、模型层参数的三维图像。在该三维图像中,找到最低的错误率所对应的层参数,并将该层参数作为第一阶段的模型层参数。
S120、根据第二样本数据集,对中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据第二阶段的模型层参数,对中间模型进行参数更新,得到目标模型。
其中,第二样本数据集是对中间模型进行第二阶段训练所需的数据,例如,如中间模型是用于执行对图像中的电路结构进行标定的任务,则第二样本数据集与第一样本数据集一样。可选的,若待训练的模型需要实现的功能是识别液晶面板微电路结构的图像中的电路结构,则第一样本数据集和第二样本数据集都为液晶面板微电路结构的图像集。其中,第一样本数据集的数量小于第二样本数据集的数量。可选的,第一样本数据集可以是第二样本数据集中的一部分,也可以不是,对此本实施例不进行限定。相应的,若第一样本数据集和第二样本数据集为液晶面板微电路结构的图像集,则最终所得到的目标模型是用于识别液晶面板微电路结构的图像中的电路结构。
在本申请实施例中,经上述S110步骤,根据第一样本数据集对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,从而对初始模型进行参数更新。在对初始模型进行第一阶段训练时,所采用的第一样本数据集的数量较少,其目的是为了快速地得到模型的深度值以及大致的模型层参数,从而更新初始模型中的模型深度值和模型层参数,得到中间模型。在本步骤中,使用数量较大的第二样本数据集对中间模型进行第二阶段训练,得到较为精准的目标模型。其中,第二阶段训练的具体过程为:根据第二样本数据集对中间模型进行迭代训练,并判断中间模型的输出结果是否满足预期效果,若满足预期效果,则停止迭代训练,得到目标模型;若不满足预期效果,则对模型层参数进行微调,直到中间模型的输出结果满足预期效果,得到目标模型。可选的,对模型层参数进行微调的方式可以是制作模型层参数正交,同第一阶段的模型层参数的确定过程一样。
本实施例提供的技术方案,通过先根据第一样本数据集对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据模型深度参数和第一阶段的模型层参数对初始模型进行参数更新,得到中间模型;再根据第二样本数据集对中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据第二阶段的模型层参数对中间模型进行参数更新,得到目标模型。本申请通过两个阶段的模型训练,得到满足预期要求的深度学习模型,能够准确的识别液晶面板的微电路结构。执行本申请方案,通过对初始模型进行两个阶段的训练,可以使得目标模型的准确率较高。
实施例二
图2A为本申请实施例二提供的一种模型训练方法的第二流程示意图;图2B为本申请实施例二提供的一种模型训练方法的第一图像示意图;图2C为本申请实施例二提供的一种模型训练方法的第二图像示意图;图2D为本申请实施例二提供的一种模型训练方法的第三图像示意图。本申请实施例是在上述实施例的基础上进行优化,给出了训练执行对图像中的电路结构进行标定任务的目标模型时,对样本数据集的确定过程和通过目标模型得到标注有电路结构的目标图像的过程进行详细的解释说明。
参见图2A,本实施例的方法包括但不限于如下步骤:
S210、从原始电路图像中提取至少两个包含液晶面板微电路结构的待标定的图像区域。
在本申请实施例中,通过从不同色彩、不同光照强度的原始电路图像中随机提取包含液晶面板微电路结构的不同特征的区域,得到待标定的图像区域。因而,最终的待标定的图像区域能够包含不同色彩、不同光照强度、不同特征、不同方位(位置和角度)。这样设置的好处在于,使得样本图像的类型更多,通过样本图像训练的目标模型能够对于不同光照强度下和色彩相差较小的图像,都能有良好的识别准确率。
S220、对至少两个待标定的图像区域进行预处理,并对预处理后的待标定的图像进行电路结构标定,得到样本图像,并将样本图像添加至第一样本数据集中。
其中,至少两个待标定的图像区域对应原始电路图像的不同特征和/或不同方位所在的区域。
在本申请实施例中,因为待标定的图像中包含不同方位和不同大小的图像,所以对待标定的图像区域进行预处理,其中,预处理包括调整图像大小、旋转角度和归一化。然后,对预处理后的待标定的图像进行人工电路结构标定,并作为样本图像,添加至第一样本数据集中。图2B中,左边的两个图S1和S3是从原始电路图像中提取的包含液晶面板微电路结构的待标定的图像区域,右边的两个图S2和S4是分别对左边的两个图S1和S3进行预处理并进行电路结构标定所得到的样本图像。
S230、根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据模型深度参数和第一阶段的模型层参数,对初始模型进行参数更新,得到中间模型。
S240、根据第二样本数据集,对中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据第二阶段的模型层参数,对中间模型进行参数更新,得到目标模型;其中,第一样本数据集的数量小于第二样本数据集的数量。可选的,第一样本数据集和第二样本数据集为液晶面板微电路结构的图像集。
S250、将包含液晶面板微电路结构的待处理图像输入到目标模型中,得到标注有电路结构的目标图像。
在本申请实施例中,经上述步骤,对初始模型进行两个阶段的训练得到目标模型。将包含液晶面板微电路结构的待处理图像输入到目标模型中,该目标模型能够对图像中的微电路结构进行识别,并输出标注有电路结构的目标图像。图2C、2D中,S5和S8为目标模型的输出图像,S6和S9为目标模型的输入图像,S7和S10为期望的输出图像。图2C中的目标模型是未经训练的初始模型,可以看出目标模型的输出图像非常模糊,效果非常差。图2D中的目标模型是经上述步骤所得到的目标模型,与图2C相比,可以看出目标模型的输出图像效果非常好,与期望的输出图像相接近。
本实施例提供的技术方案,通过从原始电路图像中提取待标定的图像区域,并对待标定的图像区域进行预处理;再对预处理后的待标定的图像进行电路结构标定,得到样本图像,并将样本图像添加至第一样本数据集中;根据第一样本数据集对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并对初始模型进行参数更新,得到中间模型;根据第二样本数据集对中间模型进行第二阶段训练,确定第二阶段的模型层参数,并对中间模型进行参数更新,得到目标模型;最后将待处理图像输入到目标模型中,得到标注有电路结构的目标图像。本申请通过从原始电路图像中随机提取待标定的图像区域,使得样本图像的类型更多,通过样本图像训练的目标模型能够对于不同光照强度下和色彩相差较小的图像,都能有良好的识别准确率。本申请方案,通过对初始模型进行两个阶段的训练,得到目标模型,解决了现有技术中需要大量人工手动标定和划分电路结构的成本。执行本申请方案,可以更加准确的识别液晶面板中的微电路结构。
实施例三
图3为本申请实施例提供的一种模型训练装置的结构示意图,如图3所示,该装置300可以包括:
第一训练模块310,用于根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据所述模型深度参数和所述第一阶段的模型层参数,对所述初始模型进行参数更新,得到中间模型。
第二训练模块320,用于根据第二样本数据集,对所述中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据所述第二阶段的模型层参数,对所述中间模型进行参数更新,得到目标模型;其中,所述第一样本数据集的数量小于第二样本数据集的数量。
进一步的,所述第一训练模块310,可以具体用于:根据第一样本数据集,对初始模型进行模型深度训练,确定模型深度参数,并根据所述模型深度参数,更新所述初始模型的模型深度,得到初始的中间模型;根据所述第一样本数据集,对所述初始的中间模型进行层参数训练,确定第一阶段的模型层参数,并根据所述第一阶段的模型层参数,更新所述初始的中间模型的模型层参数,得到最终的中间模型。
进一步的,所述第一训练模块310,可以具体用于:采用第一样本数据集,对初始模型进行模型深度迭代训练,得到每次迭代训练对应的模型深度;采用测试数据对每次迭代训练后的初始模型进行测试,确定每次迭代训练的模型错误率;将错误率最低的迭代训练对应的模型深度作为所述模型深度参数。
进一步的,所述第一训练模块310,可以具体用于:根据模型层参数的种类,确定模型层参数正交表;根据所述第一样本数据集和所述模型层参数正交,对所述初始的中间模型进行层参数训练,确定第一阶段的模型层参数。
可选的,从原始电路图像中提取至少两个包含液晶面板微电路结构的待标定的图像区域;对至少两个待标定的图像区域进行预处理,并对预处理后的待标定的图像进行电路结构标定,得到样本图像,并将所述样本图像添加至所述第一样本数据集中。
可选的,所述第一样本数据集和所述第二样本数据集为液晶面板微电路结构的图像集;所述目标模型用于识别所述液晶面板微电路结构的图像中的电路结构。
可选的,至少两个待标定的图像区域对应所述原始电路图像的不同特征和/或不同方位所在的区域。
可选的,将包含液晶面板微电路结构的待处理图像输入到所述目标模型中,得到标注有电路结构的目标图像。
本实施例提供的模型训练装置可适用于上述任意实施例提供的模型训练方法,具备相应的功能和有益效果。
实施例四
图4为本发明实施例五提供的一种电子设备的结构示意图,图4示出了适于用来实现本发明实施例实施方式的示例性电子设备的框图。图4显示的电子设备仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。该电子设备典型可以是智能手机、平板电脑、笔记本电脑、车载终端以及可穿戴设备等。
如图4所示,电子设备400以通用计算设备的形式表现。电子设备400的组件可以包括但不限于:一个或者多个处理器或者处理单元416,存储器428,连接不同***组件(包括存储器428和处理单元416)的总线418。
总线418表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,***总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及***组件互连(PCI)总线。
电子设备400典型地包括多种计算机***可读介质。这些介质可以是任何能够被电子设备400访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储器428可以包括易失性存储器形式的计算机***可读介质,例如随机存取存储器(RAM)430和/或高速缓存存储器432。电子设备400可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机***存储介质。仅作为举例,存储***434可以用于读写不可移动的、非易失性磁介质(图4未显示,通常称为“硬盘驱动器”)。尽管图4中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线418相连。存储器428可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明实施例各实施例的功能。
具有一组(至少一个)程序模块442的程序/实用工具440,可以存储在例如存储器428中,这样的程序模块442包括但不限于操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块442通常执行本发明实施例所描述的实施例中的功能和/或方法。
电子设备400也可以与一个或多个外部设备414(例如键盘、指向设备、显示器424等)通信,还可与一个或者多个使得用户能与该电子设备400交互的设备通信,和/或与使得该电子设备400能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口422进行。并且,电子设备400还可以通过网络适配器420与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图4所示,网络适配器420通过总线418与电子设备400的其它模块通信。应当明白,尽管图4中未示出,可以结合电子设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
处理单元416通过运行存储在存储器428中的程序,从而执行各种功能应用以及数据处理,例如实现本发明任一实施例所提供的产品监管方法。
实施例五
本发明实施例五还提供一种计算机可读存储介质,其上存储有计算机程序(或称为计算机可执行指令),该程序被处理器执行时可以用于执行本发明上述任一实施例所提供的产品监管方法。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明实施例进行了较为详细的说明,但是本发明实施例不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (11)

1.一种模型训练方法,其特征在于,所述方法包括:
根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据所述模型深度参数和所述第一阶段的模型层参数,对所述初始模型进行参数更新,得到中间模型;
根据第二样本数据集,对所述中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据所述第二阶段的模型层参数,对所述中间模型进行参数更新,得到目标模型;其中,所述第一样本数据集的数量小于第二样本数据集的数量。
2.根据权利要求1所述的方法,其特征在于,所述根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据所述模型深度参数和所述第一阶段的模型层参数,对所述初始模型进行参数更新,得到中间模型,包括:
根据第一样本数据集,对初始模型进行模型深度训练,确定模型深度参数,并根据所述模型深度参数,更新所述初始模型的模型深度,得到初始的中间模型;
根据所述第一样本数据集,对所述初始的中间模型进行层参数训练,确定第一阶段的模型层参数,并根据所述第一阶段的模型层参数,更新所述初始的中间模型的模型层参数,得到最终的中间模型。
3.根据权利要求2所述的方法,其特征在于,所述根据第一样本数据集,对初始模型进行模型深度训练,确定模型深度参数,包括:
采用第一样本数据集,对初始模型进行模型深度迭代训练,得到每次迭代训练对应的模型深度;
采用测试数据对每次迭代训练后的初始模型进行测试,确定每次迭代训练的模型错误率;
将错误率最低的迭代训练对应的模型深度作为所述模型深度参数。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第一样本数据集,对所述初始的中间模型进行层参数训练,确定第一阶段的模型层参数,包括:
根据模型层参数的种类,确定模型层参数正交表;
根据所述第一样本数据集和所述模型层参数正交,对所述初始的中间模型进行层参数训练,确定第一阶段的模型层参数。
5.根据权利要求1所述的方法,其特征在于,还包括:
从原始电路图像中提取至少两个包含液晶面板微电路结构的待标定的图像区域;
对至少两个待标定的图像区域进行预处理,并对预处理后的待标定的图像进行电路结构标定,得到样本图像,并将所述样本图像添加至所述第一样本数据集中。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述第一样本数据集和所述第二样本数据集为液晶面板微电路结构的图像集;所述目标模型用于识别所述液晶面板微电路结构的图像中的电路结构。
7.根据权利要求5所述的方法,其特征在于,至少两个待标定的图像区域对应所述原始电路图像的不同特征和/或不同方位所在的区域。
8.根据权利要求5所述的方法,其特征在于,还包括:
将包含液晶面板微电路结构的待处理图像输入到所述目标模型中,得到标注有电路结构的目标图像。
9.一种模型训练装置,其特征在于,所述装置包括:
第一训练模块,用于根据第一样本数据集,对初始模型进行第一阶段训练,确定模型深度参数和第一阶段的模型层参数,并根据所述模型深度参数和所述第一阶段的模型层参数,对所述初始模型进行参数更新,得到中间模型;
第二训练模块,用于根据第二样本数据集,对所述中间模型进行第二阶段训练,确定第二阶段的模型层参数,并根据所述第二阶段的模型层参数,对所述中间模型进行参数更新,得到目标模型;其中,所述第一样本数据集的数量小于第二样本数据集的数量。
10.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-8中任一项所述的模型训练方法。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-8中任一项所述的模型训练方法。
CN202110903615.5A 2021-08-06 2021-08-06 一种模型训练方法、装置、电子设备及存储介质 Pending CN113627611A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110903615.5A CN113627611A (zh) 2021-08-06 2021-08-06 一种模型训练方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110903615.5A CN113627611A (zh) 2021-08-06 2021-08-06 一种模型训练方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN113627611A true CN113627611A (zh) 2021-11-09

Family

ID=78383326

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110903615.5A Pending CN113627611A (zh) 2021-08-06 2021-08-06 一种模型训练方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113627611A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113836566A (zh) * 2021-11-26 2021-12-24 腾讯科技(深圳)有限公司 基于区块链***的模型处理方法及装置、设备、介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009525A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于卷积神经网络的无人机对地特定目标识别方法
US20200151514A1 (en) * 2018-11-09 2020-05-14 Canon Kabushiki Kaisha Training and application method of neural network model, apparatus, system and storage medium
US20200160212A1 (en) * 2018-11-21 2020-05-21 Korea Advanced Institute Of Science And Technology Method and system for transfer learning to random target dataset and model structure based on meta learning
CN112906865A (zh) * 2021-02-19 2021-06-04 深圳大学 神经网络架构搜索方法、装置、电子设备及存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009525A (zh) * 2017-12-25 2018-05-08 北京航空航天大学 一种基于卷积神经网络的无人机对地特定目标识别方法
US20200151514A1 (en) * 2018-11-09 2020-05-14 Canon Kabushiki Kaisha Training and application method of neural network model, apparatus, system and storage medium
US20200160212A1 (en) * 2018-11-21 2020-05-21 Korea Advanced Institute Of Science And Technology Method and system for transfer learning to random target dataset and model structure based on meta learning
CN112906865A (zh) * 2021-02-19 2021-06-04 深圳大学 神经网络架构搜索方法、装置、电子设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113836566A (zh) * 2021-11-26 2021-12-24 腾讯科技(深圳)有限公司 基于区块链***的模型处理方法及装置、设备、介质
CN113836566B (zh) * 2021-11-26 2022-03-29 腾讯科技(深圳)有限公司 基于区块链***的模型处理方法及装置、设备、介质

Similar Documents

Publication Publication Date Title
CN108280477B (zh) 用于聚类图像的方法和装置
WO2022105125A1 (zh) 图像分割方法、装置、计算机设备及存储介质
CN109918513B (zh) 图像处理方法、装置、服务器及存储介质
CN107274442A (zh) 一种图像识别方法和装置
EP3620982A1 (en) Sample processing method and device
CN111311613A (zh) 图像分割模型训练方法、图像分割方法及装置
CN113112497B (zh) 一种基于零样本学习的工业外观缺陷检测方法、电子设备及存储介质
CN111291902B (zh) 后门样本的检测方法、装置和电子设备
CN112308069A (zh) 一种软件界面的点击测试方法、装置、设备及存储介质
CN116433692A (zh) 一种医学图像分割方法、装置、设备和存储介质
CN112183627A (zh) 生成预测密度图网络的方法和车辆年检标数量检测方法
CN115907970A (zh) 信贷风险识别方法、装置、电子设备及存储介质
CN111444807A (zh) 目标检测方法、装置、电子设备和计算机可读介质
CN113627611A (zh) 一种模型训练方法、装置、电子设备及存储介质
CN113936232A (zh) 一种碎屏识别方法、装置、设备和存储介质
CN112287144B (zh) 图片检索方法、设备及存储介质
CN113762303B (zh) 图像分类方法、装置、电子设备及存储介质
CN112906652A (zh) 一种人脸图像的识别方法、装置、电子设备及存储介质
CN113537026A (zh) 建筑平面图中的图元检测方法、装置、设备及介质
CN111815748A (zh) 一种动画处理方法、装置、存储介质及电子设备
CN112035732A (zh) 一种搜索结果的扩展方法、***、设备和存储介质
CN111414921A (zh) 样本图像处理方法、装置、电子设备及计算机存储介质
CN114741697B (zh) 恶意代码分类方法、装置、电子设备和介质
CN114266777A (zh) 分割模型的训练方法、分割方法、装置、电子设备及介质
CN114187549A (zh) 场景分类模型的训练方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination