CN109840588A - 神经网络模型训练方法、装置、计算机设备及存储介质 - Google Patents
神经网络模型训练方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN109840588A CN109840588A CN201910008317.2A CN201910008317A CN109840588A CN 109840588 A CN109840588 A CN 109840588A CN 201910008317 A CN201910008317 A CN 201910008317A CN 109840588 A CN109840588 A CN 109840588A
- Authority
- CN
- China
- Prior art keywords
- training
- sample
- neural network
- model
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种神经网络模型训练方法、装置、计算机设备及存储介质,选出了具备针对性的训练样本,且提高了模型训练的针对性以及训练效率。方法部分包括:根据训练后的深度神经网络模型获取所有参考样本中每个参考样本的模型预测值,计算每个参考样本的模型预测值与每个参考样本对应的真实标注之间的差异衡量指标,将所有参考样本中差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;将与比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;对待扩增样本进行数据扩增以获得的目标训练样本作为训练集中的训练样本对训练后的深度神经网络模型进行训练,直至验证集所有的验证样本的模型预测值满足预设训练结束条件。
Description
技术领域
本发明涉及神经网络领域,尤其涉及一种神经网络模型训练方法、装置、计算机设备及存储介质。
背景技术
目前深度学习算法在计算机视觉应用开发中占据重要地位,而深度学习算法对于训练数据有一定的要求,在训练数据量不足时,对于低频次困难样本(hard example)拟合效果欠佳。基于上述情况,传统上,有人提出了一些困难样本挖掘的训练方式,保留训练集中低频次、欠拟合的样本,去除高频次、易识别样本,从而达到精简训练集的目的,用于提高训练针对性,但是,上述传统的方案中,一方面是减少了训练集中的训练数据,不利于模型的训练,另一方面是即使对训练数据进行增益或者补充,也难做到模型训练中训练数据针对性的增强,无法直接分析模型训练过程中所欠缺的样本,也就是困难样本,从而导致上述传统的训练方式的针对性和训练效率都比较低。
发明内容
本发明提供了一种神经网络模型训练方法、装置、计算机设备及存储介质,选出了具备针对性的训练样本,且提高了模型训练的针对性以及训练效率。
一种神经网络模型训练方法,包括:
根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型;
根据所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集;
计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,所述每个参考样本预先进行了数据标注;
将所有所述参考样本中差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;
计算所述训练集中的训练样本与每个所述比较样本之间的相似度;
将与所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;
对所述待扩增样本进行数据扩增以获得目标训练样本;
将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。
一种神经网络模型训练装置,包括:
训练模块,用于根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型;
验证模块,用于根据所述训练模块训练得到的所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集;
第一计算模块,用于计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,所述每个参考样本预先进行了数据标注;
第一确定模块,用于将所有所述参考样本中所述第一计算模块计算得到的差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;
第二计算模块,用于计算所述训练集中的训练样本与所述第一确定模块确定的每个所述比较样本之间的相似度;
第二确定模块,用于将与所述第二计算模块计算得到的所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;
扩增模块,用于对所述第二确定模块确定的所述待扩增样本进行数据扩增以获得目标训练样本;
所述训练模块,用于将所述扩增样本扩增得到的所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行再次训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。
一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述的神经网络模型训练方法。一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述神经网络模型训练方法的步骤。
上述神经网络模型训练方法、装置、计算机设备及存储介质所实现的方案中,由于是针对性的挑选被扩增的样本数据,使得扩增模型训练的训练样本数据,并且是将测试集和/或验证集中的样本的预测结果参与到模型训练中,与验证集、测试集产生直接交互,从结果上去直接分析模型训练过程中所欠缺的样本,也就是困难样本,使得选出了具备针对性的训练样本,从而提高了模型训练的针对性以及训练效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明中神经网络模型训练方法的架构示意图;
图2是本发明中神经网络模型训练方法的实施例流程示意图;
图3是本发明中神经网络模型训练方法的实施例流程示意图;
图4是本发明中神经网络模型训练方法的实施例流程示意图;
图5是本发明中神经网络模型训练方法的实施例流程示意图;
图6是本发明中神经网络模型训练方法的实施例流程示意图;
图7是本发明中神经网络模型训练装置的一实施例结构示意图;
图8是本发明中计算机设备的一结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明实施例一部分实施例,而不是全部的实施例。基于本发明实施例中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明实施例保护的范围。
本发明提供了一种神经网络模型训练方法,可应用在如图1的架构示意图中,神经网络模型训练装置可以用独立的服务器或者是多个服务器组成的服务器集群来实现,或者该神经网络模型训练装置作为独立的装置,或集成在上述服务器中实现,这里不做限定。服务器可以获取用于进行模型训练的训练集中的训练样本和参考样本,根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型;根据所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集;计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标;将所有所述参考样本中差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;计算所述训练集中的训练样本与每个所述比较样本之间的相似度;将与所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;对所述待扩增样本进行数据扩增以获得目标训练样本;将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。由以上方案可看出,由于是针对性的挑选被扩增的样本数据,使得扩增模型训练的训练样本数据,并且是将测试集和/或验证集中的样本的预测结果参与到模型训练中,与验证集、测试集产生直接交互,从结果上去直接分析模型训练过程中所欠缺的样本,也就是困难样本,使得选出了具备针对性的训练样本,从而提高了模型训练的针对性以及训练效率。下面对本发明进行详细的描述:
请参阅图2,图2为本发明中一种深度神经网络模型训练方法一个实施例流程示意图,包括如下步骤:
S10:根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型。
训练集是深度神经网络模型训练的基础,深度神经网络模型可以想象为一个强大的非线性拟合器,去对训练集上的数据,也即训练样本进行拟合。因此,在预备好了训练集后,可以根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型。其中,需要说明的是,上述深度神经网络模型指的是卷积神经网络模型,也可以是循环神经网络模型,还可以是其他类型的卷积神经网络模型,本发明实施例不做限定。另外,上述训练过程为有效监督训练过程,训练集中的训练样本是已经进行预设的标注。示例性的,若是为了训练出用于图片分类的深度神经网络模型,则会对训练样本进行图片分类标注,从而训练出用于图片分类的深度神经网络模型,例如用于对病灶图像分类的深度神经网络模型。
具体地,本发明实施例可以预设训练时期(epoch),示例性的,可以将10个epoch作为一次完整的训练周期,其中,每一个epoch指的是,根据训练集的所有训练样本对深度神经网络模型进行训练一次,每个10个epoch指的是根据训练集的所有训练样本对深度神经网络模型进行训练10次。需要说明的是,具体的epoch个数本发明实施例不做限定,示例性的,还可以将8个时期作为一次完整的训练周期。
S20:根据所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集。
验证集指的是:本发明实施例中整个训练过程中对深度神经网络模型的有效性进行评估的样本数据。当深度神经网络模型训练进行到一定程度的时候就会使用验证集上的样本数据去校验深度神经网络模型,以防深度神经网络模型发生过拟合,所以验证集上的样本数据间接的参与到了模型训练过程中,从而根据验证结果确定深度神经网络模型此刻的训练状态是否对训练训练集以外的数据有效。而测试集是最终用于评深度神经网络模型准确率的样本数据。
在本发明实施例中,将上述验证集和/或测试集作为参考集合,将验证集和/或测试集的样本数据作为参考集合中的参考样本。示例性的,在训练每10个epoch结束后,可以得到训练后的深度神经网络模型,此时,根据所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值。需要说明的是,模型预测值指的是,进过一定的训练后,用于深度神经网络模型对参考样本进行验证所产生的验证结果,示例性的,若该深度神经网络模型用于图像分类,则该模型预测值用于表征图像分类的准确度。
S30:计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,所述每个参考样本预先进行了数据标注。
在获得所述所有参考样本中每个参考样本的模型预测值后,计算所有参考样本中,每个参考样本的模型预测值与参考样本对应的真实标注之间的差异衡量指标。
可以理解,作为一种有效监督训练方式,验证集或测试集中的样本数据都预先进行了数据标注,也即每个参考样本对应的真实标注,差异衡量指标是用于表征参考样本的模型预测值与该参考样本对应的真实标注之间差异程度的指标。示例性的,对于参考样本A,深度神经网络模型预测出来的模型预测值是[0.8.5,0,0.2,0,0],而真实标注是[1,0,0,0,0],则可以根据这两组数据进行计算,得到差异衡量指标,这样就可以知道模型预测值与真实标注究竟有多少差距。
在一实施方式中,如图3所示,步骤S30中,也即所述计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,包括如下步骤:
S31:确定所述训练后的深度神经网络模型所采用的差异衡量指标类型。
应当理解,在根据所述差异衡量指标类型,计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标之前,本方案需先确定所述训练后的深度神经网络模型所采用的差异衡量指标类型,具体取决于训练后的深度神经网络模型的作用,深度神经网络模型的作用指的是该深度神经网络模型是用于图像分割或图像分类等作用,依据不同的深度神经网络模型的作用选择合适的差异衡量指标类型。
在一实施例中,如图4所示,步骤S31中,也即所述确定所述训练后的深度神经网络模型所采用的差异衡量指标类型,包括如下步骤:
S311:获取预设指标对应列表,所述预设指标列表包含差异衡量指标类型与模型作用指示字符之间的对应关系,所述模型作用指示字符用于指示深度神经网络模型的作用。
所述模型作用指示字符可以指示深度神经网络模型的作用,具体可以用数字、字母等方式自定义,这里不做限定。具体地,所述差异衡量指标类型包括交叉熵系数、杰卡德系数以及dice系数,其中,指示深度神经网络模型用于图像分类作用的模型作用指示字符与所述交叉熵系数相对应,指示深度神经网络模型用于图像分割作用的模型作用指示字符与所述杰卡德系数或dice系数相对应。
S312:确定所述训练后的深度神经网络模型对应的模型作用指示字符。
S313:根据所述差异衡量指标与模型作用指示字符之间的对应关系,以及所述训练后的深度神经网络模型对应的模型作用指示字符,确定所述训练后的深度神经网络模型所采用的差异衡量指标类型。
对于步骤S312-S313,可以理解,获取预设指标对应列表之后,可以根据预设指标对应列表确定出根据所述差异衡量指标与模型作用指示字符之间的对应关系,因此,可以根据述训练后的深度神经网络模型对应的模型作用指示字符确定出所述训练后的深度神经网络模型所采用的差异衡量指标类型。
S32:根据所述差异衡量指标类型,计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标。
举例说明,假设本发明实施例中的深度神经网络模型对应的模型作用为用于图像分类,则可以将交叉熵系数作为每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标。
假设现在有一个参考样本的真实标注的分布为p(x),参考样本的模型预测值为q(x),也即训练后的深度神经网络模型的预测分布为q(x),则可以依据以下公式计算真实标注和模型预测值之间的交叉熵H(p,q):
需要说明的是,假设本发明实施例中的深度神经网络模型对应的模型作用为用于图像分割,则可以计算真实标注和模型预测值之间的根据杰卡德系数或dice系数作为实标注和模型预测值之间的差异衡量指标,具体计算过程这里不做详细描述。
S40:将所有所述参考样本中差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本。
可以理解,经过步骤S30后,可以得到参考集合所有参考样本中,每个参考样本对应的差异衡量指标,在本发明实施例中,将所述所有参考样本中差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本,用于后续参与训练样本的相似度计算。可以理解,此时得到的比较样本就是上述所提到的苦难样本,并且得到的比较样本可以为一个或多个,具体由深度神经网络模型的训练情况确定。需要说明的是,预设阈值是根据项目要求或实际经验来定,具体这里不做限定,示例性的,以深度神经网络模型为用于图像分割的模型为例,上述预设阈值可设定为0.7。
S50:计算所述训练集中的训练样本与每个所述比较样本之间的相似度。
在得到比较样本后,计算所述训练集中的训练样本与每个所述比较样本之间的相似度。为了便于理解,这里举个简单的例子进行说明,示例性的,假设比较样本有3个,训练样本有10个,则可以分别计算出每个比较样本与10个训练样本中每个训练样本的相似度,共30个相似度。
在一实施例中,如图5所示,步骤S50中,也即所述计算所述训练集中的训练样本与所述比较样本之间的相似度,包括如下步骤:
S51:根据预设特征提取模型对所述训练集的每个训练样本进行特征提取以获得每个训练样本的特征向量,所述预设图像特征提取模型为基于卷积神经网络所训练得到的特征提取模型。
S52:根据所述预设特征提取模型对所述比较样本进行特征提取以获得每个比较样本的特征向量。
S53:根据所述每个训练样本的特征向量与所述每个比较样本的特征向量计算所述训练集中的训练样本与所述比较样本之间的相似度。
对于步骤S51-S53,本发明实施例基于特征向量的方式计算计算所述训练集中的训练样本与所述比较样本之间的相似度。其中,基于卷积神经的图像特征向量提取,不同的图像相似算法最终找到的图片有效性有所不同,就有较高的针对性,有利于模型的训练。
在一实施例中,如图6所示,步骤S53,也即步骤所述根据所述每个训练样本的特征向量与所述每个比较样本的特征向量计算所述训练集中的训练样本与所述比较样本之间的相似度,包括如下步骤:
S531:计算所述每个训练样本的特征向量与所述每个比较样本的特征向量之间的余弦距离。
S532:将所述每个训练样本的特征向量与所述每个比较样本的特征向量之间的余弦距离作为所述每个训练样本与所述每个比较样本之间的相似度。
对于步骤S531-S532,可以理解,除了上述以余弦距离来表征训练样本与比较样本之间的相似度外,还可以计算每个训练样本的特征向量与所述每个比较样本的特征向量得到的欧式距离、曼哈顿距离等用于表征上述相似度,具体本发明实施例不做限定。这里,以余弦相似度计算方式为例,假设训练样本对应的特征向量为xi,i∈(1,2,...,n),比较样本对应的特征向量为yi,i∈(1,2,...,n),其中,n为正整数,则训练样本的特征向量与所述每个比较样本的特征向量之间的余弦距离为:
S60:将与所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本。
在计算所述训练集中的训练样本与每个所述比较样本之间的相似度之后,将与所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本。其中,需要说明的是,上述预设扩增条件可以依据实际应用场景进行调整。示例性的,若训练集合中的训练样本与所述比较样本之间的相似度排在前3位,则排前3位的训练样本满足上述预设扩增条件。举例说明,例如存在比较样本1和比较样本2,计算比较样本1与训练集中每个训练样本的相似度,将相似度排在前3位的训练样本作为待扩增样本;同理计算比较样本2与训练集中每个训练样本的相似度,将相似度排在前3位的训练样本作为待扩增样本,其他比较样本确定出待扩增样本的方式类似,从而可以得到每个比较样本确定出的待扩增样本。可以理解,上述得到的待扩增样本为与比较样本最为相似的一组样本。
可以看出,这里根据不同的应用场景,可寻找全局最高相似度、局部最高相似度以契合需求,整个过程无需人为观测、人为遴选样本,是一种高效的筛选机制。
S70:对所述待扩增样本进行数据扩增以获得目标训练样本。
在得到与所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本后,对所述待扩增样本进行数据扩增以获得目标训练样本。需要说明的是,本发明实施例可以采用常规的图像扩增方式对被确定出来的待扩增样本进行统一的数据扩增,示例性的,可以以两倍数据增强(例如旋转、平移、放缩等)等方式进行扩增,扩增后的样本,也就是目标训练样本。这里可以减少数据增益总量,仅增益少部分数据,便于提升模型训练效率。
S80:将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。
在得到扩增后的样本后,也即目标训练样本后,将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。也就是说,在得到扩增得到的目标训练样本后,再次将目标训练样本作为训练集以验证集的样本数据对深度神经网络模型进行训练,周而复始,开始新一轮训练,基于此种操作,实现从模型预测的结果出发,返回源头进行优化并达到改善预测结果的目的,从而提高模型预测性能,提高了模型训练效率。
在一实施方式中,将上述目标训练样本按照一定的比例分配至训练集合验证集中,示例性的,使得上述分配结果为训练集中的样本与验证集中的样本比例保持在5:1左右,抑或是其他分配比例,这里不做限定。
在一实施方式中,所述将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件,包括:将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的每个验证样本的对应的差异衡量指标低于或等于所述预设阈值。除此之外,还可以有其他的预设训练结束条件,例如模型的训练迭代的次数已经达到了预设上限,具体这里也不做限定。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
在一实施例中,提供一种神经网络模型训练装置,该神经网络模型训练装置与上述实施例中神经网络模型训练方法一一对应。如图7所示,该神经网络模型训练装置10包括训练模块101、验证模块102、第一计算模块103、第一确定模块104、第二计算模块105、第二确定模块106、扩增模块107、各功能模块详细说明如下:
训练模块101,用于根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型;
验证模块102,用于根据所述训练模块101训练得到的所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集;
第一计算模块103,用于计算验证模块102验证得到的所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,所述每个参考样本预先进行了数据标注;
第一确定模块104,用于将所有所述参考样本中所述第一计算模块103计算得到的差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;
第二计算模块105,用于计算所述训练集中的训练样本与所述第一确定模块104确定的每个所述比较样本之间的相似度;
第二确定模块106,用于将与所述第二计算模块105计算得到的所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;
扩增模块107,用于对所述第二确定模块确106定的所述待扩增样本进行数据扩增以获得目标训练样本;
所述训练模块101,用于将所述扩增样本扩增得到的所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行再次训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。
在一实施例中,所述训练模块101用于所述将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件,具体包括:
所述训练模块101用于:将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的每个验证样本的对应的差异衡量指标低于或等于所述预设阈值。
在一实施例中,第一计算模块103具体用于:
确定所述训练后的深度神经网络模型所采用的差异衡量指标类型;
根据所述差异衡量指标类型,计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标。
在一实施例中,第一计算模块103用于确定所述训练后的深度神经网络模型所采用的差异衡量指标类型,具体包括:
第一计算模块103具体用于:
获取预设指标对应列表,所述预设指标列表包含差异衡量指标类型与模型作用指示字符之间的对应关系,所述模型作用指示字符用于指示深度神经网络模型的作用;
确定所述训练后的深度神经网络模型对应的模型作用指示字符;
根据所述差异衡量指标与模型作用指示字符之间的对应关系,以及所述训练后的深度神经网络模型对应的模型作用指示字符,确定所述训练后的深度神经网络模型所采用的差异衡量指标类型。
在一实施例中,所述差异衡量指标类型包括交叉熵系数、杰卡德系数以及dice系数,其中,指示深度神经网络模型用于图像分类作用的模型作用指示字符与所述交叉熵系数相对应,指示深度神经网络模型用于图像分割作用的模型作用指示字符与所述杰卡德系数或dice系数相对应。
在一实施例中,第二计算模块105,具体用于:
根据预设特征提取模型对所述训练集的每个训练样本进行特征提取以获得每个训练样本的特征向量,所述预设图像特征提取模型为基于卷积神经网络所训练得到的特征提取模型;
根据所述预设特征提取模型对所述比较样本进行特征提取以获得每个比较样本的特征向量;
根据所述每个训练样本的特征向量与所述每个比较样本的特征向量计算所述训练集中的训练样本与所述比较样本之间的相似度。
在一实施例中,第二计算模块105用于根据所述每个训练样本的特征向量与所述每个比较样本的特征向量计算所述训练集中的训练样本与所述比较样本之间的相似度,包括:
第二计算模块105用于:计算所述每个训练样本的特征向量与所述每个比较样本的特征向量之间的余弦距离;将所述每个训练样本的特征向量与所述每个比较样本的特征向量之间的余弦距离作为所述每个训练样本与所述每个比较样本之间的相似度。
由以上神经网络训练装置可看出,由于神经网络训练装置是针对性的挑选被扩增的样本数据,使得扩增模型训练的训练样本数据,并且是将测试集和/或验证集中的样本的预测结果参与到模型训练中,与验证集、测试集产生直接交互,从结果上去直接分析模型训练过程中所欠缺的样本,也就是困难样本,使得选出了具备针对性的训练样本,从而提高了模型训练的针对性以及训练效率。
关于神经网络训练装置装置的具体限定可以参见上文中对于神经网络训练装置方法的限定,在此不再赘述。上述神经网络训练装置装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图8所示。该计算机设备包括通过***总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作***、计算机程序和数据库。该内存储器为非易失性存储介质中的操作***和计算机程序的运行提供环境。该计算机设备的数据库用于临时存储训练样本、参考样本等。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种神经网络训练方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现以下步骤:
根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型;
根据所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集;
计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,所述每个参考样本预先进行了数据标注;
将所有所述参考样本中差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;
计算所述训练集中的训练样本与每个所述比较样本之间的相似度;
将与所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;
对所述待扩增样本进行数据扩增以获得目标训练样本;
将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型;
根据所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集;
计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,所述每个参考样本预先进行了数据标注;
将所有所述参考样本中差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;
计算所述训练集中的训练样本与每个所述比较样本之间的相似度;
将与所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;
对所述待扩增样本进行数据扩增以获得目标训练样本;
将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本发明所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明实施例进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例各实施例技术方案的精神和范围,均应包含在本发明实施例的保护范围之内。
Claims (10)
1.一种神经网络模型训练方法,其特征在于,包括:
根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型;
根据所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集;
计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,所述每个参考样本预先进行了数据标注;
将所有所述参考样本中差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;
计算所述训练集中的训练样本与每个所述比较样本之间的相似度;
将与所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;
对所述待扩增样本进行数据扩增以获得目标训练样本;
将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。
2.如权利要求1所述的神经网络模型训练方法,其特征在于,所述将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件,包括:
将所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行训练,直至所述验证集所有的验证样本的每个验证样本的对应的差异衡量指标低于或等于所述预设阈值。
3.如权利要求1或2所述的神经网络模型训练方法,其特征在于,所述计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,包括:
确定所述训练后的深度神经网络模型所采用的差异衡量指标类型;
根据所述差异衡量指标类型,计算所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标。
4.如权利要求3所述的神经网络模型训练方法,其特征在于,所述确定所述训练后的深度神经网络模型所采用的差异衡量指标类型,包括:
获取预设指标对应列表,所述预设指标列表包含差异衡量指标类型与模型作用指示字符之间的对应关系,所述模型作用指示字符用于指示深度神经网络模型的作用;
确定所述训练后的深度神经网络模型对应的模型作用指示字符;
根据所述差异衡量指标与模型作用指示字符之间的对应关系,以及所述训练后的深度神经网络模型对应的模型作用指示字符,确定所述训练后的深度神经网络模型所采用的差异衡量指标类型。
5.如权利要求4所述的神经网络模型训练方法,其特征在于,所述差异衡量指标类型包括交叉熵系数、杰卡德系数以及dice系数,其中,指示深度神经网络模型用于图像分类作用的模型作用指示字符与所述交叉熵系数相对应,指示深度神经网络模型用于图像分割作用的模型作用指示字符与所述杰卡德系数或dice系数相对应。
6.如权利要求1或2所述的神经网络模型训练方法,其特征在于,所述计算所述训练集中的训练样本与所述比较样本之间的相似度,包括:
根据预设特征提取模型对所述训练集的每个训练样本进行特征提取以获得每个训练样本的特征向量,所述预设图像特征提取模型为基于卷积神经网络所训练得到的特征提取模型;
根据所述预设特征提取模型对所述比较样本进行特征提取以获得每个比较样本的特征向量;
根据所述每个训练样本的特征向量与所述每个比较样本的特征向量计算所述训练集中的训练样本与所述比较样本之间的相似度。
7.如权利要求6所述的神经网络模型训练方法,其特征在于,所述根据所述每个训练样本的特征向量与所述每个比较样本的特征向量计算所述训练集中的训练样本与所述比较样本之间的相似度,包括:
计算所述每个训练样本的特征向量与所述每个比较样本的特征向量之间的余弦距离;
将所述每个训练样本的特征向量与所述每个比较样本的特征向量之间的余弦距离作为所述每个训练样本与所述每个比较样本之间的相似度。
8.一种神经网络模型训练装置,其特征在于,包括:
训练模块,用于根据训练集的训练样本对深度神经网络模型进行训练,以获得训练后的深度神经网络模型;
验证模块,用于根据所述训练模块训练得到的所述训练后的深度神经网络模型对参考集合的所有参考样本进行数据验证,以获得所述所有参考样本中每个参考样本的模型预测值,所述参考集合包括验证集和/或测试集;
第一计算模块,用于计算所述验证模块验证得到的所述每个参考样本的模型预测值与所述每个参考样本对应的真实标注之间的差异衡量指标,所述每个参考样本预先进行了数据标注;
第一确定模块,用于将所有所述参考样本中所述第一计算模块计算得到的差异衡量指标低于或等于预设阈值的目标参考样本作为比较样本;
第二计算模块,用于计算所述训练集中的训练样本与所述第一确定模块确定的每个所述比较样本之间的相似度;
第二确定模块,用于将与所述第二计算模块计算得到的所述比较样本之间的相似度满足预设扩增条件的训练样本作为待扩增样本;
扩增模块,用于对所述第二确定模块确定的所述待扩增样本进行数据扩增以获得目标训练样本;
所述训练模块,用于将所述扩增样本扩增得到的所述目标训练样本作为所述训练集中的训练样本对所述训练后的深度神经网络模型进行再次训练,直至所述验证集所有的验证样本的模型预测值满足预设训练结束条件。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的神经网络模型训练方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的神经网络模型训练方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910008317.2A CN109840588B (zh) | 2019-01-04 | 2019-01-04 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
SG11202008322UA SG11202008322UA (en) | 2019-01-04 | 2019-05-30 | Neural network model training method and apparatus, computer device, and storage medium |
JP2021506734A JP7167306B2 (ja) | 2019-01-04 | 2019-05-30 | ニューラルネットワークモデル訓練方法、装置、コンピュータ機器および記憶媒体 |
PCT/CN2019/089194 WO2020140377A1 (zh) | 2019-01-04 | 2019-05-30 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
US17/264,307 US20210295162A1 (en) | 2019-01-04 | 2019-05-30 | Neural network model training method and apparatus, computer device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910008317.2A CN109840588B (zh) | 2019-01-04 | 2019-01-04 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109840588A true CN109840588A (zh) | 2019-06-04 |
CN109840588B CN109840588B (zh) | 2023-09-08 |
Family
ID=66883678
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910008317.2A Active CN109840588B (zh) | 2019-01-04 | 2019-01-04 | 神经网络模型训练方法、装置、计算机设备及存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210295162A1 (zh) |
JP (1) | JP7167306B2 (zh) |
CN (1) | CN109840588B (zh) |
SG (1) | SG11202008322UA (zh) |
WO (1) | WO2020140377A1 (zh) |
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110348509A (zh) * | 2019-07-08 | 2019-10-18 | 睿魔智能科技(深圳)有限公司 | 数据增广参数的调整方法、装置、设备及存储介质 |
CN110543182A (zh) * | 2019-09-11 | 2019-12-06 | 济宁学院 | 一种小型无人旋翼机自主着陆控制方法及*** |
CN110599503A (zh) * | 2019-06-18 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
CN110688471A (zh) * | 2019-09-30 | 2020-01-14 | 支付宝(杭州)信息技术有限公司 | 训练样本获取方法、装置及设备 |
CN110689038A (zh) * | 2019-06-25 | 2020-01-14 | 深圳市腾讯计算机***有限公司 | 神经网络模型的训练方法、装置和医学图像处理*** |
CN110992376A (zh) * | 2019-11-28 | 2020-04-10 | 北京推想科技有限公司 | 基于ct图像的肋骨分割方法、装置、介质及电子设备 |
CN111814821A (zh) * | 2020-05-21 | 2020-10-23 | 北京迈格威科技有限公司 | 深度学习模型的建立方法、样本处理方法及装置 |
CN111881973A (zh) * | 2020-07-24 | 2020-11-03 | 北京三快在线科技有限公司 | 一种样本选择方法、装置、存储介质及电子设备 |
CN112087272A (zh) * | 2020-08-04 | 2020-12-15 | 中电科仪器仪表有限公司 | 一种电磁频谱监测接收机信号自动检测方法 |
CN112149733A (zh) * | 2020-09-23 | 2020-12-29 | 北京金山云网络技术有限公司 | 模型训练、质量确定方法、装置、电子设备及存储介质 |
CN112184640A (zh) * | 2020-09-15 | 2021-01-05 | 中保车服科技服务股份有限公司 | 一种图像检测模型的构建及图像检测方法和装置 |
CN112183166A (zh) * | 2019-07-04 | 2021-01-05 | 北京地平线机器人技术研发有限公司 | 确定训练样本的方法、装置和电子设备 |
CN112183757A (zh) * | 2019-07-04 | 2021-01-05 | 创新先进技术有限公司 | 模型训练方法、装置及*** |
CN112364999A (zh) * | 2020-10-19 | 2021-02-12 | 深圳市超算科技开发有限公司 | 冷水机调节模型的训练方法、装置及电子设备 |
CN112419098A (zh) * | 2020-12-10 | 2021-02-26 | 清华大学 | 基于安全信息熵的电网安全稳定仿真样本筛选扩充方法 |
CN112541515A (zh) * | 2019-09-23 | 2021-03-23 | 北京京东乾石科技有限公司 | 模型训练方法、驾驶数据处理方法、装置、介质和设备 |
CN112711643A (zh) * | 2019-10-25 | 2021-04-27 | 北京达佳互联信息技术有限公司 | 训练样本集获取方法及装置、电子设备、存储介质 |
CN112927013A (zh) * | 2021-02-24 | 2021-06-08 | 国网电子商务有限公司 | 一种资产价值预测模型构建方法、资产价值预测方法 |
CN112990455A (zh) * | 2021-02-23 | 2021-06-18 | 北京明略软件***有限公司 | 网络模型的发布方法及装置、存储介质、电子设备 |
CN113051969A (zh) * | 2019-12-26 | 2021-06-29 | 深圳市超捷通讯有限公司 | 物件识别模型训练方法及车载装置 |
CN113093967A (zh) * | 2020-01-08 | 2021-07-09 | 富泰华工业(深圳)有限公司 | 数据生成方法、装置、计算机装置及存储介质 |
CN113496227A (zh) * | 2020-04-08 | 2021-10-12 | 顺丰科技有限公司 | 一种字符识别模型的训练方法、装置、服务器及存储介质 |
CN113610228A (zh) * | 2021-08-06 | 2021-11-05 | 脸萌有限公司 | 神经网络模型的构建方法及装置 |
WO2021238586A1 (zh) * | 2020-05-27 | 2021-12-02 | 华为技术有限公司 | 一种训练方法、装置、设备以及计算机可读存储介质 |
CN113743448A (zh) * | 2021-07-15 | 2021-12-03 | 上海朋熙半导体有限公司 | 模型训练数据获取方法、模型训练方法和装置 |
CN113762286A (zh) * | 2021-09-16 | 2021-12-07 | 平安国际智慧城市科技股份有限公司 | 数据模型训练方法、装置、设备及介质 |
CN113827233A (zh) * | 2020-06-24 | 2021-12-24 | 京东方科技集团股份有限公司 | 用户特征值检测方法及装置、存储介质及电子设备 |
CN114118305A (zh) * | 2022-01-25 | 2022-03-01 | 广州市玄武无线科技股份有限公司 | 一种样本筛选方法、装置、设备及计算机介质 |
CN114724162A (zh) * | 2022-03-15 | 2022-07-08 | 平安科技(深圳)有限公司 | 文本识别模型的训练方法、装置、计算机设备及存储介质 |
WO2023186090A1 (zh) * | 2022-04-02 | 2023-10-05 | 维沃移动通信有限公司 | 验证方法、装置及设备 |
CN111783902B (zh) * | 2020-07-30 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 数据增广、业务处理方法、装置、计算机设备和存储介质 |
CN117318052A (zh) * | 2023-11-28 | 2023-12-29 | 南方电网调峰调频发电有限公司检修试验分公司 | 发电机组进相试验无功功率预测方法、装置和计算机设备 |
CN112183166B (zh) * | 2019-07-04 | 2024-07-02 | 北京地平线机器人技术研发有限公司 | 确定训练样本的方法、装置和电子设备 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210106814A (ko) * | 2020-02-21 | 2021-08-31 | 삼성전자주식회사 | 뉴럴 네트워크 학습 방법 및 장치 |
CN112163074A (zh) * | 2020-09-11 | 2021-01-01 | 北京三快在线科技有限公司 | 用户意图识别方法、装置、可读存储介质及电子设备 |
CN112148895B (zh) * | 2020-09-25 | 2024-01-23 | 北京百度网讯科技有限公司 | 检索模型的训练方法、装置、设备和计算机存储介质 |
CN112257075A (zh) * | 2020-11-11 | 2021-01-22 | 福建有度网络安全技术有限公司 | 内网环境下的***漏洞检测方法、装置、设备及存储介质 |
CN112560988B (zh) * | 2020-12-25 | 2023-09-19 | 竹间智能科技(上海)有限公司 | 一种模型训练方法及装置 |
CN112766320B (zh) * | 2020-12-31 | 2023-12-22 | 平安科技(深圳)有限公司 | 一种分类模型训练方法及计算机设备 |
CN113033665A (zh) * | 2021-03-26 | 2021-06-25 | 北京沃东天骏信息技术有限公司 | 样本扩展方法、训练方法和***、及样本学习*** |
CN113139609B (zh) * | 2021-04-29 | 2023-12-29 | 国网甘肃省电力公司白银供电公司 | 基于闭环反馈的模型校正方法、装置和计算机设备 |
CN113570007B (zh) * | 2021-09-27 | 2022-02-15 | 深圳市信润富联数字科技有限公司 | 零件缺陷识别模型构建优化方法、装置、设备及存储介质 |
CN114154697A (zh) * | 2021-11-19 | 2022-03-08 | 中国建设银行股份有限公司 | 房屋维修资源的预测方法、装置、计算机设备和存储介质 |
WO2023126468A1 (en) * | 2021-12-30 | 2023-07-06 | Telefonaktiebolaget Lm Ericsson (Publ) | Systems and methods for inter-node verification of aiml models |
CN116703739A (zh) * | 2022-02-25 | 2023-09-05 | 索尼集团公司 | 图像增强方法及设备 |
CN114663483A (zh) * | 2022-03-09 | 2022-06-24 | 平安科技(深圳)有限公司 | 单目深度估计模型的训练方法、装置、设备及存储介质 |
CN114637263B (zh) * | 2022-03-15 | 2024-01-12 | 中国石油大学(北京) | 一种异常工况实时监测方法、装置、设备及存储介质 |
CN115184395A (zh) * | 2022-05-25 | 2022-10-14 | 北京市农林科学院信息技术研究中心 | 果蔬失重率预测方法、装置、电子设备及存储介质 |
CN115277626B (zh) * | 2022-07-29 | 2023-07-25 | 平安科技(深圳)有限公司 | 地址信息转换方法、电子设备和计算机可读存储介质 |
CN115660508A (zh) * | 2022-12-13 | 2023-01-31 | 湖南三湘银行股份有限公司 | 一种基于bp神经网络的员工绩效考核评价方法 |
CN115858819B (zh) * | 2023-01-29 | 2023-05-16 | 合肥综合性国家科学中心人工智能研究院(安徽省人工智能实验室) | 一种样本数据的增广方法及装置 |
CN118071110A (zh) * | 2024-04-17 | 2024-05-24 | 山东省信息技术产业发展研究院(中国赛宝(山东)实验室) | 一种基于机器学习的设备参数自适应调整方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063494A (ja) * | 2012-09-20 | 2014-04-10 | Fujitsu Ltd | 分類装置、分類方法及び電子設備 |
US20170330054A1 (en) * | 2016-05-10 | 2017-11-16 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method And Apparatus Of Establishing Image Search Relevance Prediction Model, And Image Search Method And Apparatus |
CN107358293A (zh) * | 2017-06-15 | 2017-11-17 | 北京图森未来科技有限公司 | 一种神经网络训练方法及装置 |
CN108304936A (zh) * | 2017-07-12 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN109117744A (zh) * | 2018-07-20 | 2019-01-01 | 杭州电子科技大学 | 一种用于人脸验证的孪生神经网络训练方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101126186B1 (ko) * | 2010-09-03 | 2012-03-22 | 서강대학교산학협력단 | 형태적 중의성 동사 분석 장치, 방법 및 그 기록 매체 |
CN103679160B (zh) * | 2014-01-03 | 2017-03-22 | 苏州大学 | 一种人脸识别方法和装置 |
CN104899579A (zh) * | 2015-06-29 | 2015-09-09 | 小米科技有限责任公司 | 人脸识别方法和装置 |
US11205119B2 (en) * | 2015-12-22 | 2021-12-21 | Applied Materials Israel Ltd. | Method of deep learning-based examination of a semiconductor specimen and system thereof |
US11222263B2 (en) * | 2016-07-28 | 2022-01-11 | Samsung Electronics Co., Ltd. | Neural network method and apparatus |
US9824692B1 (en) * | 2016-09-12 | 2017-11-21 | Pindrop Security, Inc. | End-to-end speaker recognition using deep neural network |
US11068781B2 (en) * | 2016-10-07 | 2021-07-20 | Nvidia Corporation | Temporal ensembling for semi-supervised learning |
CN111178520B (zh) * | 2017-06-15 | 2024-06-07 | 北京图森智途科技有限公司 | 一种构建神经网络的方法及装置 |
-
2019
- 2019-01-04 CN CN201910008317.2A patent/CN109840588B/zh active Active
- 2019-05-30 JP JP2021506734A patent/JP7167306B2/ja active Active
- 2019-05-30 US US17/264,307 patent/US20210295162A1/en active Pending
- 2019-05-30 WO PCT/CN2019/089194 patent/WO2020140377A1/zh active Application Filing
- 2019-05-30 SG SG11202008322UA patent/SG11202008322UA/en unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014063494A (ja) * | 2012-09-20 | 2014-04-10 | Fujitsu Ltd | 分類装置、分類方法及び電子設備 |
US20170330054A1 (en) * | 2016-05-10 | 2017-11-16 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method And Apparatus Of Establishing Image Search Relevance Prediction Model, And Image Search Method And Apparatus |
CN107358293A (zh) * | 2017-06-15 | 2017-11-17 | 北京图森未来科技有限公司 | 一种神经网络训练方法及装置 |
CN108304936A (zh) * | 2017-07-12 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 机器学习模型训练方法和装置、表情图像分类方法和装置 |
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN109117744A (zh) * | 2018-07-20 | 2019-01-01 | 杭州电子科技大学 | 一种用于人脸验证的孪生神经网络训练方法 |
Non-Patent Citations (1)
Title |
---|
陈先来等: "基于均矢量相似性的机器学习样本集划分", 中南大学学报(自然科学版), vol. 40, no. 06, pages 170 - 175 * |
Cited By (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110599503A (zh) * | 2019-06-18 | 2019-12-20 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
CN110599503B (zh) * | 2019-06-18 | 2021-05-28 | 腾讯科技(深圳)有限公司 | 检测模型训练方法、装置、计算机设备和存储介质 |
CN110689038B (zh) * | 2019-06-25 | 2024-02-02 | 深圳市腾讯计算机***有限公司 | 神经网络模型的训练方法、装置和医学图像处理*** |
CN110689038A (zh) * | 2019-06-25 | 2020-01-14 | 深圳市腾讯计算机***有限公司 | 神经网络模型的训练方法、装置和医学图像处理*** |
CN112183166B (zh) * | 2019-07-04 | 2024-07-02 | 北京地平线机器人技术研发有限公司 | 确定训练样本的方法、装置和电子设备 |
CN112183757B (zh) * | 2019-07-04 | 2023-10-27 | 创新先进技术有限公司 | 模型训练方法、装置及*** |
CN112183166A (zh) * | 2019-07-04 | 2021-01-05 | 北京地平线机器人技术研发有限公司 | 确定训练样本的方法、装置和电子设备 |
CN112183757A (zh) * | 2019-07-04 | 2021-01-05 | 创新先进技术有限公司 | 模型训练方法、装置及*** |
CN110348509B (zh) * | 2019-07-08 | 2021-12-14 | 睿魔智能科技(深圳)有限公司 | 数据增广参数的调整方法、装置、设备及存储介质 |
CN110348509A (zh) * | 2019-07-08 | 2019-10-18 | 睿魔智能科技(深圳)有限公司 | 数据增广参数的调整方法、装置、设备及存储介质 |
CN110543182A (zh) * | 2019-09-11 | 2019-12-06 | 济宁学院 | 一种小型无人旋翼机自主着陆控制方法及*** |
CN110543182B (zh) * | 2019-09-11 | 2022-03-15 | 济宁学院 | 一种小型无人旋翼机自主着陆控制方法及*** |
CN112541515A (zh) * | 2019-09-23 | 2021-03-23 | 北京京东乾石科技有限公司 | 模型训练方法、驾驶数据处理方法、装置、介质和设备 |
CN110688471A (zh) * | 2019-09-30 | 2020-01-14 | 支付宝(杭州)信息技术有限公司 | 训练样本获取方法、装置及设备 |
CN110688471B (zh) * | 2019-09-30 | 2022-09-09 | 支付宝(杭州)信息技术有限公司 | 训练样本获取方法、装置及设备 |
CN112711643B (zh) * | 2019-10-25 | 2023-10-10 | 北京达佳互联信息技术有限公司 | 训练样本集获取方法及装置、电子设备、存储介质 |
CN112711643A (zh) * | 2019-10-25 | 2021-04-27 | 北京达佳互联信息技术有限公司 | 训练样本集获取方法及装置、电子设备、存储介质 |
CN110992376A (zh) * | 2019-11-28 | 2020-04-10 | 北京推想科技有限公司 | 基于ct图像的肋骨分割方法、装置、介质及电子设备 |
CN113051969A (zh) * | 2019-12-26 | 2021-06-29 | 深圳市超捷通讯有限公司 | 物件识别模型训练方法及车载装置 |
CN113093967A (zh) * | 2020-01-08 | 2021-07-09 | 富泰华工业(深圳)有限公司 | 数据生成方法、装置、计算机装置及存储介质 |
CN113496227A (zh) * | 2020-04-08 | 2021-10-12 | 顺丰科技有限公司 | 一种字符识别模型的训练方法、装置、服务器及存储介质 |
CN111814821A (zh) * | 2020-05-21 | 2020-10-23 | 北京迈格威科技有限公司 | 深度学习模型的建立方法、样本处理方法及装置 |
WO2021238586A1 (zh) * | 2020-05-27 | 2021-12-02 | 华为技术有限公司 | 一种训练方法、装置、设备以及计算机可读存储介质 |
CN113827233A (zh) * | 2020-06-24 | 2021-12-24 | 京东方科技集团股份有限公司 | 用户特征值检测方法及装置、存储介质及电子设备 |
CN111881973A (zh) * | 2020-07-24 | 2020-11-03 | 北京三快在线科技有限公司 | 一种样本选择方法、装置、存储介质及电子设备 |
CN111783902B (zh) * | 2020-07-30 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 数据增广、业务处理方法、装置、计算机设备和存储介质 |
CN112087272A (zh) * | 2020-08-04 | 2020-12-15 | 中电科仪器仪表有限公司 | 一种电磁频谱监测接收机信号自动检测方法 |
CN112087272B (zh) * | 2020-08-04 | 2022-07-19 | 中电科思仪科技股份有限公司 | 一种电磁频谱监测接收机信号自动检测方法 |
CN112184640A (zh) * | 2020-09-15 | 2021-01-05 | 中保车服科技服务股份有限公司 | 一种图像检测模型的构建及图像检测方法和装置 |
CN112149733A (zh) * | 2020-09-23 | 2020-12-29 | 北京金山云网络技术有限公司 | 模型训练、质量确定方法、装置、电子设备及存储介质 |
CN112149733B (zh) * | 2020-09-23 | 2024-04-05 | 北京金山云网络技术有限公司 | 模型训练、质量确定方法、装置、电子设备及存储介质 |
CN112364999A (zh) * | 2020-10-19 | 2021-02-12 | 深圳市超算科技开发有限公司 | 冷水机调节模型的训练方法、装置及电子设备 |
CN112364999B (zh) * | 2020-10-19 | 2021-11-19 | 深圳市超算科技开发有限公司 | 冷水机调节模型的训练方法、装置及电子设备 |
CN112419098B (zh) * | 2020-12-10 | 2024-01-30 | 清华大学 | 基于安全信息熵的电网安全稳定仿真样本筛选扩充方法 |
CN112419098A (zh) * | 2020-12-10 | 2021-02-26 | 清华大学 | 基于安全信息熵的电网安全稳定仿真样本筛选扩充方法 |
CN112990455A (zh) * | 2021-02-23 | 2021-06-18 | 北京明略软件***有限公司 | 网络模型的发布方法及装置、存储介质、电子设备 |
CN112927013A (zh) * | 2021-02-24 | 2021-06-08 | 国网电子商务有限公司 | 一种资产价值预测模型构建方法、资产价值预测方法 |
CN112927013B (zh) * | 2021-02-24 | 2023-11-10 | 国网数字科技控股有限公司 | 一种资产价值预测模型构建方法、资产价值预测方法 |
CN113743448A (zh) * | 2021-07-15 | 2021-12-03 | 上海朋熙半导体有限公司 | 模型训练数据获取方法、模型训练方法和装置 |
CN113743448B (zh) * | 2021-07-15 | 2024-04-30 | 上海朋熙半导体有限公司 | 模型训练数据获取方法、模型训练方法和装置 |
CN113610228A (zh) * | 2021-08-06 | 2021-11-05 | 脸萌有限公司 | 神经网络模型的构建方法及装置 |
CN113610228B (zh) * | 2021-08-06 | 2024-03-05 | 脸萌有限公司 | 神经网络模型的构建方法及装置 |
CN113762286A (zh) * | 2021-09-16 | 2021-12-07 | 平安国际智慧城市科技股份有限公司 | 数据模型训练方法、装置、设备及介质 |
CN114118305A (zh) * | 2022-01-25 | 2022-03-01 | 广州市玄武无线科技股份有限公司 | 一种样本筛选方法、装置、设备及计算机介质 |
CN114724162A (zh) * | 2022-03-15 | 2022-07-08 | 平安科技(深圳)有限公司 | 文本识别模型的训练方法、装置、计算机设备及存储介质 |
WO2023186090A1 (zh) * | 2022-04-02 | 2023-10-05 | 维沃移动通信有限公司 | 验证方法、装置及设备 |
CN117318052B (zh) * | 2023-11-28 | 2024-03-19 | 南方电网调峰调频发电有限公司检修试验分公司 | 发电机组进相试验无功功率预测方法、装置和计算机设备 |
CN117318052A (zh) * | 2023-11-28 | 2023-12-29 | 南方电网调峰调频发电有限公司检修试验分公司 | 发电机组进相试验无功功率预测方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
US20210295162A1 (en) | 2021-09-23 |
SG11202008322UA (en) | 2020-09-29 |
WO2020140377A1 (zh) | 2020-07-09 |
CN109840588B (zh) | 2023-09-08 |
JP7167306B2 (ja) | 2022-11-08 |
JP2021532502A (ja) | 2021-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109840588A (zh) | 神经网络模型训练方法、装置、计算机设备及存储介质 | |
Chen et al. | Source-free domain adaptive fundus image segmentation with denoised pseudo-labeling | |
ES2879682T3 (es) | Método, aparato y sistema de verificación de identidad de usuario | |
JP7102344B2 (ja) | 機械学習モデルのモデリング方法及びデバイス | |
CN108229348B (zh) | 遮挡人脸图像的识别装置 | |
CN109902018B (zh) | 一种智能驾驶***测试案例的获取方法 | |
Bieging et al. | Left atrial shape predicts recurrence after atrial fibrillation catheter ablation | |
CN109271870A (zh) | 行人重识别方法、装置、计算机设备及存储介质 | |
CN110427893A (zh) | 一种基于卷积神经网络的辐射源个体识别方法、装置及计算机存储介质 | |
CN109583594B (zh) | 深度学习训练方法、装置、设备及可读存储介质 | |
CN110781976B (zh) | 训练图像的扩充方法、训练方法及相关装置 | |
CN111723865B (zh) | 评估图像识别模型、攻击方法性能的方法、装置和介质 | |
CN109272016A (zh) | 目标检测方法、装置、终端设备和计算机可读存储介质 | |
CN111739115B (zh) | 基于循环一致性的无监督人体姿态迁移方法、***及装置 | |
CN105719033A (zh) | 用于识别客体风险的方法及装置 | |
Kulkarni et al. | Generative models for simulating mobility trajectories | |
CN110570312B (zh) | 样本数据获取方法、装置、计算机设备和可读存储介质 | |
CN109242018A (zh) | 图像验证方法、装置、计算机设备及存储介质 | |
CN109165654A (zh) | 一种目标定位模型的训练方法和目标定位方法及装置 | |
CN108010015A (zh) | 一种指静脉影像质量评价方法及其*** | |
Cai et al. | An adaptive symmetry detection algorithm based on local features | |
Minhas et al. | Influence networks in international relations | |
CN107832667A (zh) | 一种基于深度学习的人脸识别方法 | |
Shokri et al. | Application of the patient rule induction method to detect hydrologic model behavioural parameters and quantify uncertainty | |
JP7331926B2 (ja) | 学習装置、物体検出装置、学習方法、及び、プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |