CN108320026A - 机器学习模型训练方法和装置 - Google Patents

机器学习模型训练方法和装置 Download PDF

Info

Publication number
CN108320026A
CN108320026A CN201710344182.8A CN201710344182A CN108320026A CN 108320026 A CN108320026 A CN 108320026A CN 201710344182 A CN201710344182 A CN 201710344182A CN 108320026 A CN108320026 A CN 108320026A
Authority
CN
China
Prior art keywords
sample data
order
loss function
average gradient
epicycle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710344182.8A
Other languages
English (en)
Other versions
CN108320026B (zh
Inventor
丁俊南
尹红军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201710344182.8A priority Critical patent/CN108320026B/zh
Publication of CN108320026A publication Critical patent/CN108320026A/zh
Application granted granted Critical
Publication of CN108320026B publication Critical patent/CN108320026B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种机器学***均梯度;根据本轮从脏样本数据中取部分脏样本数据清洗后得到的纯净样本数据和当前模型参数,确定损失函数的第二二阶平均梯度;根据第一二阶平均梯度和第二二阶平均梯度,获得损失函数的整体二阶平均梯度;根据整体二阶平均梯度调整当前模型参数;若调整后的模型参数不满足训练结束条件,将下一轮作为本轮,返回获取在本轮清洗脏样本数据前已有纯净样本数据的步骤继续训练,直至满足训练结束条件。减少了迭代更新的次数,进而减少了迭代更新对机器资源的损耗。

Description

机器学习模型训练方法和装置
技术领域
本发明涉及计算机技术领域,特别是涉及一种机器学习模型训练方法和装置。
背景技术
机器学习的过程,通常是指计算机根据输入的样本数据,通过一系列算法对输入的样本数据进行分析,以构建初始模型,并通过迭代训练来更新初始模型的模型参数,以得到最终合适的模型。
传统方法中,是通过梯度下降法(gradient descent)来对模型参数进行更新。其中,使用梯度下降法更新模型参数时,会计算损失函数的梯度,根据该梯度来对模型参数进行迭代更新,以将模型进行逐渐收敛来提高模型的准确率。
然而,传统的基于梯度下降法更新模型参数的方法,每次迭代对模型的准确率提高程度比较小,需要迭代更新的次数比较多,因而,需要耗费机器中较多资源来进行迭代更新。
发明内容
基于此,有必要针对目前基于梯度下降法更新模型参数时,需要耗费机器中较多资源来进行迭代更新的技术问题,提供一种机器学习模型训练方法和装置。
一种机器学习模型训练方法,包括:
获取在本轮清洗脏样本数据前已有的纯净样本数据;
根据所述已有的纯净样本数据和机器学***均梯度;
获取本轮从脏样本数据中取部分脏样本数据清洗后得到的纯净样本数据;
根据本轮清洗得到的所述纯净样本数据和所述当前模型参数,确定所述损失函数的第二二阶平均梯度;
根据所述第一二阶平均梯度和所述第二二阶平均梯度,获得所述损失函数的整体二阶平均梯度;
根据所述整体二阶平均梯度调整所述当前模型参数;
当调整后的模型参数不满足训练结束条件时,将下一轮作为本轮,返回所述获取在本轮清洗脏样本数据前已有的纯净样本数据的步骤以继续训练,直至调整后的模型参数满足训练结束条件。
一种机器学习模型训练装置,包括:
样本数据获取模块,用于获取在本轮清洗脏样本数据前已有的纯净样本数据;
二阶平均梯度确定模块,用于根据所述已有的纯净样本数据和机器学***均梯度;
所述样本数据获取模块还用于获取本轮从脏样本数据中取部分脏样本数据清洗后得到的纯净样本数据;
所述二阶平均梯度确定模块还用于根据本轮清洗得到的所述纯净样本数据和所述当前模型参数,确定所述损失函数的第二二阶平均梯度;根据所述第一二阶平均梯度和所述第二二阶平均梯度,获得所述损失函数的整体二阶平均梯度;
模型参数调整模块,用于根据所述整体二阶平均梯度调整所述当前模型参数;当调整后的模型参数不满足训练结束条件时,将下一轮作为本轮,通知所述样本数据获取模块工作,直至调整后的模型参数满足训练结束条件。
上述机器学***均梯度,以及通过本轮清洗得到的纯净样本数据计算损失函数的第二二阶平均梯度,进而得到在当前模型参数下,损失函数的整体二阶平均梯度,通过损失函数的整体二阶平均梯度来对当前模型参数进行更新调整。其中,根据二阶平均梯度来更新模型参数对模型进行收敛的速度,比梯度下降法对模型进行收敛的速度更快,所需的迭代更新的次数就会减少,进而减少了模型参数更新过程中对机器资源的损耗。
附图说明
图1为一个实施例中电子设备的内部结构示意图;
图2为一个实施例中机器学习模型训练方法的流程示意图;
图3为一个实施例中损失函数的第二二阶平均梯度确定步骤的流程示意图;
图4为另一个实施例中机器学习模型训练方法的流程示意图;
图5为一个实施例中机器学习模型训练装置的结构示意图;
图6为另一个实施例中机器学习模型训练装置的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为一个实施例中电子设备的内部结构示意图。该电子设备可以是终端或者服务器。终端可以是个人计算机或者移动电子设备,移动电子设备包括手机、平板电脑、个人数字助理或者穿戴式设备等中的至少一种。服务器可以用独立的服务器或者是多个物理服务器组成的服务器集群来实现。如图1所示,该电子设备包括通过***总线连接的处理器、非易失性存储介质、内存储器和网络接口。其中,该电子设备的非易失性存储介质可存储操作***和计算机可读指令,该计算机可读指令被执行时,可使得处理器执行一种机器学习模型训练方法。该电子设备的处理器用于提供计算和控制能力,支撑整个电子设备的运行。该电子设备的内存储器可存储计算机可读指令,该计算机可读指令被处理器执行时,可使得处理器执行一种机器学习模型训练方法。该电子设备的网络接口用于连接网络进行通信。本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
图2为一个实施例中机器学习模型训练方法的流程示意图。本实施例主要以该方法应用于上述图1中的电子设备来举例说明。参照图2,该机器学习模型训练方法具体包括如下步骤:
S202,获取在本轮清洗脏样本数据前已有的纯净样本数据。
具体地,电子设备可以根据全部样本数据进行机器学习训练得到机器学习模型的初始模型,并对全部样本数据逐轮进行脏样本数据的清洗,以对初始模型进行逐轮调整收敛,提高模型的准确率。其中,对模型进行调整收敛,可以通过对该模型的模型参数进行调整来实现。
在每轮清洗脏样本数据的过程中,电子设备可以获取在本轮清洗脏样本数据前已有的纯净样本数据。在一个实施例中,已有的纯净样本数据,可以是在本轮清洗脏样本数据之前,已经经过清洗得到的符合要求的样本数据。脏样本数据,可以是全部样本数据中尚未被清洗的样本数据。
比如,第一轮清洗前,脏样本数据可以为全部样本数据100条,不存在已有的纯净样本数据,第一轮清洗10条脏样本数据,得到10条清洗后的纯净样本数据,那么在第二轮清洗前,已有纯净数据则为这10条经过清洗得到的纯净样本数据,脏样本数据则为100-10=90条。
S204,根据已有的纯净样本数据和机器学***均梯度。
其中,当前模型参数,指本轮进行模型参数调整前,机器学习模型的模型参数。损失函数,用于评价机器学习模型的预测值和真实值的不一致程度,损失函数值越小,机器学习模型的性能就越好。
梯度,为一个向量,用于表示损失函数值变化最大的方向和损失函数值的最大变化率。二阶梯度,指根据损失函数的二阶导数或近似二阶导数得到的损失函数值的最大变化方向和最大变化率。其中,近似二阶导数,指对损失函数通过非二次求导得到的、与对损失函数进行二次求导得到的二阶导数在梯度属性上相近似的导数。
损失函数的第一二阶平均梯度,指分别根据本轮清洗脏样本数据前至少一个已有的纯净样本数据,求取的该机器学***均值。
S206,获取本轮从脏样本数据中取部分脏样本数据清洗后得到的纯净样本数据。
其中,脏样本数据,指本轮清洗前,全部样本数据中除在本轮清洗脏样本数据前已有的纯净样本数据之外的样本数据,可以理解,这里的脏样本数据指当前全部脏样本数据。
比如,全部样本数据有100条,本轮清洗脏样本数据前已有的纯净样本数据有20条,那么,脏样本数据则为100-20=80条。部分脏样本数据,指从当前全部脏样本数据中按照预设规则抽取的一部分脏样本数据。比如,从80条脏样本数据中抽取10条脏样本数据,所抽取的10条脏样本数据即为部分脏样本数据。
电子设备可以对本轮从脏样本数据中抽取的部分脏样本数据进行清洗,得到本轮清洗后的纯净样本数据。电子设备也可以直接从样本数据清洗设备中获取对本轮从脏样本数据中抽取的部分样本数据清洗后得到的纯净样本数据。
S208,根据本轮清洗得到的纯净样本数据和当前模型参数,确定损失函数的第二二阶平均梯度。
其中,二阶梯度,指根据损失函数的二阶导数或近似二阶导数得到的损失函数值的最大变化方向和最大变化率。其中,近似二阶导数,指对损失函数通过非二次求导得到的、与对损失函数进行二次求导得到的二阶导数在梯度属性上相近似的导数。损失函数的第二二阶平均梯度,指分别根据本轮清洗得到的纯净样本数据,求取的该机器学***均值。
S210,根据第一二阶平均梯度和第二二阶平均梯度,获得损失函数的整体二阶平均梯度。
具体地,电子设备可以对第一二阶平均梯度和第二二阶平均梯度进行加权平均计算,得到损失函数的整体二阶平均梯度。
在一个实施例中,步骤S210包括:将第一二阶平均梯度和第二二阶平均梯度,分别按照相应的第一权重和第二权重加权求和,得到损失函数的整体二阶平均梯度。其中,第一权重,为本轮清洗脏样本数据前已有的纯净样本数据占全部样本数据的占比;第二权重,为本轮清洗脏样本数据前的脏样本数据占全部样本数据的占比。
其中,本轮清洗脏样本数据前的脏样本数据,指本轮清洗脏样本数据前,全部样本数据中除了本轮清洗脏样本数据前已有的纯净样本数据之外的样本数据。
在一个实施例中,可以根据以下公式计算出损失函数的整体二阶平均梯度:
其中,g(θ)为损失函数的整体二阶平均梯度,Rclean为在本轮清洗脏样本数据前已有的纯净数据,R为全部样本数据,|Rclean|为在本轮清洗脏样本数据前已有的纯净数据的数量,|R|为全部样本数据量,gc(θ)为损失函数的第一二阶平均梯度,c是clean的缩写,用于标注本轮清洗脏样本数据前已有的纯净数据;Rdirty为本轮清洗脏样本数据前的脏样本数据,|Rdirty|为在本轮清洗脏样本数据前已有的纯净数据的数量,gs(θ)为损失函数的第二二阶平均梯度,s是sample的缩写。其中,|R|=|Rdirty|+|Rclean|。为第一权重,为第二权重。
S212,根据整体二阶平均梯度调整当前模型参数。
其中,根据整体二阶平均梯度调整当前模型参数,指沿着损失函数的整体二阶平均梯度下降方向,以整体二阶平均梯度值为下降长度调整当前模型参数的值,以使损失函数值以最大变化率减小。
电子设备可以单独根据整体二阶平均梯度调整当前模型参数,也可以根据学***均梯度调整当前模型参数。当根据学***均梯度调整当前模型参数时,电子设备可以是沿着损失函数的整体二阶平均梯度下降方向,以学***均梯度值的乘积为下降长度,来调整当前模型参数的值,以使损失函数值以最大变化率减小。
其中,学习速率,用于调节损失函数的梯度下降步幅。学习速率可以是固定值,也可以是在调整模型参数的过程中进行相应变化的动态值。
在一个实施例中,可以根据以下公式调整当前模型参数:
其中,θnew为调整后的模型参数,θ(d)为当前模型参数,γ为学***均梯度。
S214,当调整后的模型参数不满足训练结束条件时,将下一轮作为本轮,返回S202以继续训练,直至调整后的模型参数满足训练结束条件。
其中,训练结束条件,可以是迭代清洗的次数达到预设次数。具体地,电子设备可以判断迭代清洗的次数是否达到预设次数,若是,则判定调整后的模型参数满足训练结束条件。训练结束条件也可以是,在进行清洗更新后,损失函数值的变化率在一个预设范围内。具体地,电子设备可以判断损失函数值的变化率是否在一个预设范围内,若是,则可判定调整的模型参数满足训练结束条件。
上述机器学***均梯度,以及通过本轮清洗得到的纯净样本数据计算损失函数的第二二阶平均梯度,进而得到在当前模型参数下,损失函数的整体二阶平均梯度,通过损失函数的整体二阶平均梯度来对当前模型参数进行更新调整。其中,根据二阶平均梯度来更新模型参数对模型进行收敛的速度,比梯度下降法对模型进行收敛的速度更快,所需的迭代更新的次数就会减少,进而减少了模型参数更新过程中机器资源的损耗。
此外,电子设备通过已有的纯净样本数据和本轮清洗得到的纯净样本数据;来求取损失函数的整体二阶平均梯度,保证了基于纯净的样本数据来调整模型参数,避免了基于纯净数据和脏数据的混合数据调整模型参数带来的错误影响,提高了模型参数调整的准确率。
在一个实施例中,步骤S204包括:将已有的纯净样本数据和机器学***均梯度。
其中,第一一阶偏导数,指在模型参数为当前模型参数时,求取的代入已有的纯净样本数据的损失函数的导数。第一二阶偏导矩阵,指在模型参数为当前模型参数时,对代入已有的纯净样本数据的损失函数进行二次求导得到的导数。其中,对损失函数进行二次求导得到的导数为矩阵。二次求导即对损失函数的第一一阶偏导数再求导数。第一二阶偏导矩阵的逆矩阵,可以是电子设备对第一二阶偏导矩阵进行逆运算得到逆矩阵。第一二阶偏导矩阵的逆矩阵,也可以是第一二阶偏导矩阵的逆矩阵的近似矩阵。已有的纯净样本数据为一条或多条。
当已有的纯净样本数据为一条时,电子设备可以直接将基于该已有的纯净样本数据求取的第一一阶偏导数和第一二阶偏导矩阵的逆矩阵乘积作为损失函数的第一二阶平均梯度。
当已有的纯净样本数据为多条时,电子设备则可以分别求取基于各条已有的纯净样本数据得到的第一一阶偏导数和第一二阶偏导矩阵的逆矩阵的乘积,得到损失函数的第一二阶分梯度,然后求取多个第一二阶分梯度的平均值,得到损失函数的第一二阶平均梯度。
在一个实施例中,步骤S204包括:按照以下公式计算机器学***均梯度:
其中,gc(θ)为第一二阶平均梯度;c是clean的缩写,表示用于计算第一二阶平均梯度的样本数据为纯净的数据;Rclean为已有的纯净样本数据;φ()表示损失函数;H(φ())表示损失函数的二阶偏导矩阵;为已有的纯净样本数据中第i个输入数据;为已有的纯净样本数据中第i个输出数据;θ为当前模型参数;为损失函数的第一二阶偏导矩阵的逆矩阵;为损失函数的第一一阶偏导数;则为第一二阶分梯度。
在一个实施例中,步骤S208包括:将本轮清洗得到的纯净样本数据和当前模型参数代入损失函数;求取代入本轮清洗得到的纯净样本数据和当前模型参数的损失函数的第二一阶偏导数和第二二阶偏导矩阵;根据第二二阶偏导矩阵的逆矩阵和第二一阶偏导数,确定损失函数的第二二阶平均梯度。
其中,第二一阶偏导数,指在模型参数为当前模型参数时,求取的代入本轮清洗得到的纯净样本数据的损失函数的导数。第二二阶偏导矩阵,指在模型参数为当前模型参数时,对代入本轮清洗得到的纯净样本数据的损失函数进行二次求导得到的导数,其中,对损失函数进行二次求导得到的导数为矩阵。其中,二次求导即对损失函数的第二一阶偏导数再求导数。其中,第二二阶偏导矩阵的逆矩阵,可以是电子设备对第二二阶偏导矩阵进行逆运算得到逆矩阵。第二二阶偏导矩阵的逆矩阵,也可以是第二二阶偏导矩阵的逆矩阵的近似矩阵。其中,本轮清洗得到的纯净样本数据为一条或多条。
当本轮清洗得到的纯净样本数据为一条时,电子设备可以直接将基于该本轮清洗得到的纯净样本数据求取的第二一阶偏导数和第二二阶偏导矩阵的逆矩阵的乘积作为损失函数的第二二阶平均梯度。
当本轮清洗得到的纯净样本数据为多条时,电子设备则可以分别求取基于各条本轮清洗得到的纯净样本数据得到的第二一阶偏导数和第二二阶偏导矩阵的逆矩阵的乘积,得到损失函数的第二二阶分梯度,然后求取多个第二二阶分梯度的平均值,得到损失函数的第二二阶平均梯度。
图3为一个实施例中根据第二二阶偏导矩阵的逆矩阵和第二一阶偏导数,确定损失函数的第二二阶平均梯度的步骤(简称损失函数的第二二阶平均梯度确定步骤)的流程示意图。如图3所示,损失函数的第二二阶平均梯度确定步骤具体包括以下步骤:
S302,获取本轮清洗得到的各纯净样本数据对应的脏样本数据的抽样概率。
其中,从全部脏样本数据中抽取部分脏样本数据进行清洗时,全部脏样本数据中的各个脏样本数据都对应于一个可以被抽取的概率,该概率即为抽样概率。其中,抽样概率与对脏样本数据被清洗干净后对模型准确率的提升程度成正比。比如,脏样本数据d1对应的抽样概率为60%,脏样本数据d2对应的抽样概率为50%,那么,对脏样本数据d1清洗后对模型准确率的提升程度比对脏样本数据d2清洗后对模型准确率的提升程度要高。
S304,对于本轮清洗得到的每条纯净样本数据,求取对应的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数的乘积与对应的脏样本数据的抽样概率的比值。
其中,与本轮清洗得到的每条纯净样本数据对应的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数,指将本轮清洗得到的每条纯净样本数据分别代入损失函数,求取的当前模型参数下损失函数的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数。比如,本轮清洗得到的纯净样本数据c1所对应的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数,即为将样本数据c1代入损失函数,求取的当前模型参数下损失函数的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数。
与本轮清洗得到的每条纯净样本数据对应的脏样本数据,指与本轮清洗得到的每条纯净样本数据在本轮清洗前后具有状态转换关系的脏数据。即对本轮清洗前的脏样本数据进行清洗,得到本轮清洗后的对应的纯净样本数据。比如,本轮对脏样本数据d1进行清洗,得到纯净样本数据c1,则d1则为与本轮清洗得到的纯净样本数据c1对应的脏样本数据。
具体地,电子设备在获得本轮清洗得到的每条纯净样本数据所对应的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数时,可以求取第二二阶偏导矩阵的逆矩阵和第二一阶偏导数的乘积,并求取该乘积与本轮清洗得到的该纯净样本数据所对应的脏样本数据的抽样概率的比值,得到至少一个比值。
S306,求各比值的平均值,得到损失函数的第二二阶平均梯度。
具体地,电子设备可以根据本轮从脏样本数据中取部分脏样本数据的数量,求取各个比值的平均值,得到损失函数的第二二阶平均梯度。
在一个实施例中,步骤S306包括:按照以下公式计算所述损失函数的第二二阶平均梯度:
其中,gs(θ)为第二二阶平均梯度;s为本轮清洗得到的纯净样本数据;c是clean的缩写,表示用于计算第二二阶平均梯度的样本数据为纯净的数据;p(i)为本轮抽取的第i个脏样本数据的抽样概率;φ()表示损失函数;H(φ())表示损失函数的二阶偏导矩阵;为本轮清洗得到的纯净样本数据中第i个输入数据;为本轮清洗得到的纯净样本数据中第i个输出数据;θ为当前模型参数;为损失函数的第二二阶偏导矩阵的逆矩阵;为损失函数的第二一阶偏导数。
本实施例中,对于本轮清洗得到的每条纯净样本数据,求取对应的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数的乘积与对应的脏样本数据的抽样概率的比值,来求取损失函数的第二二阶平均梯度。其中,抽样概率与对脏样本数据被清洗干净后对模型准确率的提升程度成正比。即在求取损失函数的第二二阶平均梯度时,增加了对脏样本数据被清洗干净后对模型准确率的提升程度的考量,使得求取的损失函数的第二二阶平均梯度更加的准确。
在一个实施例中,脏样本数据包括用户特征样本数据和相应标定的用户画像标签。该方法还包括:当调整后的模型参数满足训练结束条件后,则获取用户特征数据,将用户特征数据输入已调整模型参数的机器学习模型,输出用户画像标签。
其中,用户画像是根据用户社会属性、生活习惯和消费行为等能够反映用户特征的数据而抽象出的一个标签化的用户模型。用户画像标签,是通过对用户信息分析而来的高度精炼的特征标识。
用户特征样本数据指表征用户特征的样本数据。在一个实施例中,用户特征样本数据包括用户的社会属性、生活习惯和消费行为等数据。
当调整后的模型参数满足训练结束条件后,即可以得到符合需求的用户画像机器学习模型。获取用户特征数据,将用户特征数据输入已调整模型参数的用户画像机器学习模型,则输出与该用户特征数据相应的用户画像标签。根据满足训练结束条件的模型参数对应的用户画像机器学习模型来输出与用户特征数据对应的用户画像标签,能够提高输出的用户画像标签的准确率。
在一个实施例中,如图4所示,提供了另一种机器学习模型训练方法,该方法包括以下步骤:
S402,获取在本轮清洗脏样本数据前已有的纯净样本数据。
S404,将已有的纯净样本数据和机器学习模型的当前模型参数代入损失函数。
S406,求取代入已有的纯净样本数据和当前模型参数的损失函数的第一一阶偏导数和第一二阶偏导矩阵。
S408,根据第一二阶偏导矩阵的逆矩阵和第一一阶偏导数,确定机器学***均梯度。
在一个实施例中,可以按照以下公式计算机器学***均梯度:
其中,gc(θ)为第一二阶平均梯度;c是clean的缩写,表示用于计算第一二阶平均梯度的样本数据为纯净的数据;Rclean为已有的纯净样本数据;φ()表示损失函数;H(φ())表示损失函数的二阶偏导矩阵;为已有的纯净样本数据中第i个输入数据;为已有的纯净样本数据中第i个输出数据;θ为当前模型参数;为损失函数的第一二阶偏导矩阵的逆矩阵;为损失函数的第一一阶偏导数。
S410,获取本轮从脏样本数据中取部分脏样本数据清洗后得到的纯净样本数据,其中,脏样本数据包括用户特征样本数据和相应标定的用户画像标签。
S412,将本轮清洗得到的纯净样本数据和当前模型参数代入损失函数。
S414,求取代入本轮清洗得到的纯净样本数据和当前模型参数的损失函数的第二一阶偏导数和第二二阶偏导矩阵。
S416,获取本轮清洗得到的各纯净样本数据对应的脏样本数据的抽样概率。
S418,对于本轮清洗得到的每条纯净样本数据,求取对应的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数的乘积与对应的脏样本数据的抽样概率的比值。
S420,求各比值的平均值,得到损失函数的第二二阶平均梯度。
在一个实施例中,可以按照以下公式计算损失函数的第二二阶平均梯度:
其中,gs(θ)为第二二阶平均梯度;s为本轮清洗得到的纯净样本数据;c是clean的缩写,表示用于计算第二二阶平均梯度的样本数据为纯净的数据;p(i)为本轮抽取的第i个脏样本数据的抽样概率;φ()表示损失函数;H(φ())表示损失函数的二阶偏导矩阵;为本轮清洗得到的纯净样本数据中第i个输入数据;为本轮清洗得到的纯净样本数据中第i个输出数据;θ为当前模型参数;为损失函数的第二二阶偏导矩阵的逆矩阵;为损失函数的第二一阶偏导数。
S422,将第一二阶平均梯度和第二二阶平均梯度,分别按照相应的第一权重和第二权重加权求和,得到损失函数的整体二阶平均梯度。
其中,第一权重,为本轮清洗脏样本数据前已有的纯净样本数据占全部样本数据的占比。第二权重,为本轮清洗脏样本数据前的脏样本数据占全部样本数据的占比。
在一个实施例中,可以根据以下公式计算出损失函数的整体二阶平均梯度:
其中,g(θ)为损失函数的整体二阶平均梯度,Rclean为在本轮清洗脏样本数据前已有的纯净数据,R为全部样本数据,|Rclean|为在本轮清洗脏样本数据前已有的纯净数据的数量,|R|为全部样本数据量,gc(θ)为损失函数的第一二阶平均梯度,c是clean的缩写,用于标注本轮清洗脏样本数据前已有的纯净数据;Rdirty为本轮清洗脏样本数据前的脏样本数据,|Rdirty|为在本轮清洗脏样本数据前已有的纯净数据的数量,gs(θ)为损失函数的第二二阶平均梯度,s是sample的缩写。其中,|R|=|Rdirty|+|Rclean|。为第一权重,为第二权重。
S424,根据整体二阶平均梯度调整当前模型参数。
在一个实施例中,可以根据以下公式调整当前模型参数:
其中,θnew为调整后的模型参数,θ(d)为当前模型参数,γ为学***均梯度。
S426,判断调整后的模型参数是否满足训练结束条件,若否,则将下一轮作为本轮,返回步骤S402,若是,则进入步骤S428。
S428,获取用户特征数据,将用户特征数据输入已调整模型参数的机器学习模型,输出用户画像标签。
上述机器学***均梯度,以及通过本轮清洗得到的纯净样本数据计算损失函数的第二二阶平均梯度,进而得到在当前模型参数下,损失函数的整体二阶平均梯度,通过损失函数的整体二阶平均梯度来对当前模型参数进行更新调整。其中,根据二阶平均梯度来更新模型参数对模型进行收敛的速度,比梯度下降法对模型进行收敛的速度更快,所需的迭代更新的次数就会减少,进而减少了模型参数更新过程中机器资源的损耗。
此外,电子设备通过已有的纯净样本数据和本轮清洗得到的纯净样本数据;来求取损失函数的整体二阶平均梯度,保证了基于纯净的样本数据来调整模型参数,避免了基于纯净数据和脏数据的混合数据调整模型参数带来的错误影响,提高了模型参数调整的准确率。
其次,在求取损失函数的第二二阶平均梯度时,增加了对脏样本数据被清洗干净后对模型准确率的提升程度的考量,使得求取的损失函数的第二二阶平均梯度更加的准确。
然后,根据满足训练结束条件的模型参数对应的用户画像机器学习模型来输出与用户特征数据对应的用户画像标签,能够提高输出的用户画像标签的准确率。
如图5所示,在一个实施例中,提供了一种机器学***均梯度确定模块504以及模型参数调整模块506,其中:
样本数据获取模块502,用于获取在本轮清洗脏样本数据前已有的纯净样本数据。
二阶平均梯度确定模块504,用于根据已有的纯净样本数据和机器学***均梯度。
样本数据获取模块502还用于获取本轮从脏样本数据中取部分脏样本数据清洗后得到的纯净样本数据。
二阶平均梯度确定模块504还用于根据本轮清洗得到的纯净样本数据和当前模型参数,确定损失函数的第二二阶平均梯度;根据第一二阶平均梯度和第二二阶平均梯度,获得损失函数的整体二阶平均梯度。
模型参数调整模块506,用于根据整体二阶平均梯度调整当前模型参数;当调整后的模型参数不满足训练结束条件时,将下一轮作为本轮,通知样本数据获取模块502工作,直至调整后的模型参数满足训练结束条件。
在一个实施例中,二阶平均梯度确定模块504还用于将已有的纯净样本数据和机器学***均梯度。
在一个实施例中,二阶平均梯度确定模块504还用于按照以下公式计算机器学***均梯度:
其中,gc(θ)为第一二阶平均梯度;c是clean的缩写,表示用于计算第一二阶平均梯度的样本数据为纯净的数据;Rclean为已有的纯净样本数据;φ()表示损失函数;H(φ())表示损失函数的二阶偏导矩阵;为已有的纯净样本数据中第i个输入数据;为已有的纯净样本数据中第i个输出数据;θ为当前模型参数;为损失函数的第一二阶偏导矩阵的逆矩阵;为损失函数的第一一阶偏导数。
在一个实施例中,二阶平均梯度确定模块504还用于将本轮清洗得到的纯净样本数据和当前模型参数代入损失函数;求取代入本轮清洗得到的纯净样本数据和当前模型参数的损失函数的第二一阶偏导数和第二二阶偏导矩阵;根据第二二阶偏导矩阵的逆矩阵和第二一阶偏导数,确定损失函数的第二二阶平均梯度。
在一个实施例中,二阶平均梯度确定模块504还用于获取本轮清洗得到的各纯净样本数据对应的脏样本数据的抽样概率;对于本轮清洗得到的每条纯净样本数据,求取对应的第二二阶偏导矩阵的逆矩阵和第二一阶偏导数的乘积与对应的脏样本数据的抽样概率的比值;求各比值的平均值,得到损失函数的第二二阶平均梯度。
在一个实施例中,二阶平均梯度确定模块504还用于按照以下公式计算损失函数的第二二阶平均梯度:
其中,gs(θ)为第二二阶平均梯度;s为本轮清洗得到的纯净样本数据;c是clean的缩写,表示用于计算第二二阶平均梯度的样本数据为纯净的数据;p(i)为本轮抽取的第i个脏样本数据的抽样概率;φ()表示损失函数;H(φ())表示损失函数的二阶偏导矩阵;为本轮清洗得到的纯净样本数据中第i个输入数据;为本轮清洗得到的纯净样本数据中第i个输出数据;θ为当前模型参数;为损失函数的第二二阶偏导矩阵的逆矩阵;为损失函数的第二一阶偏导数。
如图6所示,在一个实施例中,脏样本数据包括用户特征样本数据和相应标定的用户画像标签。该装置500还包括:
用户画像标签输出模块508,用于当调整后的模型参数满足训练结束条件后,则获取用户特征数据,将用户特征数据输入已调整模型参数的机器学习模型,输出用户画像标签。
需要说明的是,本申请所使用的术语“第一”和“第二”仅用于区分,并不用于对顺序、大小、从属等方面的限定。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,该计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (15)

1.一种机器学习模型训练方法,包括:
获取在本轮清洗脏样本数据前已有的纯净样本数据;
根据所述已有的纯净样本数据和机器学***均梯度;
获取本轮从脏样本数据中取部分脏样本数据清洗后得到的纯净样本数据;
根据本轮清洗得到的所述纯净样本数据和所述当前模型参数,确定所述损失函数的第二二阶平均梯度;
根据所述第一二阶平均梯度和所述第二二阶平均梯度,获得所述损失函数的整体二阶平均梯度;
根据所述整体二阶平均梯度调整所述当前模型参数;
当调整后的模型参数不满足训练结束条件时,将下一轮作为本轮,返回所述获取在本轮清洗脏样本数据前已有的纯净样本数据的步骤以继续训练,直至调整后的模型参数满足训练结束条件。
2.根据权利要求1所述的方法,其特征在于,所述根据所述已有的纯净样本数据和机器学***均梯度,包括:
将所述已有的纯净样本数据和机器学习模型的当前模型参数代入所述损失函数;
求取代入所述已有的纯净样本数据和所述当前模型参数的所述损失函数的第一一阶偏导数和第一二阶偏导矩阵;
根据所述第一二阶偏导矩阵的逆矩阵和所述第一一阶偏导数,确定所述机器学***均梯度。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一二阶偏导矩阵的逆矩阵和所述第一一阶偏导数,确定所述机器学***均梯度,包括:
按照以下公式计算所述机器学***均梯度:
其中,gc(θ)为第一二阶平均梯度;c是clean的缩写,表示用于计算所述第一二阶平均梯度的样本数据为纯净的数据;Rclean为所述已有的纯净样本数据;φ()表示损失函数;H(φ())表示所述损失函数的二阶偏导矩阵;为所述已有的纯净样本数据中第i个输入数据;为所述已有的纯净样本数据中第i个输出数据;θ为当前模型参数;为所述损失函数的第一二阶偏导矩阵的逆矩阵;为所述损失函数的第一一阶偏导数。
4.根据权利要求1所述的方法,其特征在于,所述根据本轮清洗得到的所述纯净样本数据和所述当前模型参数,确定所述损失函数的第二二阶平均梯度,包括:
将本轮清洗得到的所述纯净样本数据和所述当前模型参数代入所述损失函数;
求取代入本轮清洗得到的所述纯净样本数据和所述当前模型参数的所述损失函数的第二一阶偏导数和第二二阶偏导矩阵;
根据所述第二二阶偏导矩阵的逆矩阵和所述第二一阶偏导数,确定所述损失函数的第二二阶平均梯度。
5.根据权利要求4所述的方法,其特征在于,所述根据所述第二二阶偏导矩阵的逆矩阵和所述第二一阶偏导数,确定所述损失函数的第二二阶平均梯度,包括:
获取本轮清洗得到的各所述纯净样本数据对应的脏样本数据的抽样概率;
对于本轮清洗得到的每条所述纯净样本数据,求取对应的所述第二二阶偏导矩阵的逆矩阵和所述第二一阶偏导数的乘积与对应的脏样本数据的抽样概率的比值;
求各所述比值的平均值,得到所述损失函数的第二二阶平均梯度。
6.根据权利要求5所述的方法,其特征在于,所述求各所述比值的平均值,得到所述损失函数的第二二阶平均梯度,包括:
按照以下公式计算所述损失函数的第二二阶平均梯度:
其中,gs(θ)为第二二阶平均梯度;s为本轮清洗得到的纯净样本数据;c是clean的缩写,表示用于计算第二二阶平均梯度的样本数据为纯净的数据;p(i)为本轮抽取的第i个脏样本数据的抽样概率;φ()表示损失函数;H(φ())表示损失函数的二阶偏导矩阵;为本轮清洗得到的纯净样本数据中第i个输入数据;为本轮清洗得到的纯净样本数据中第i个输出数据;θ为当前模型参数;为损失函数的第二二阶偏导矩阵的逆矩阵;为损失函数的第二一阶偏导数。
7.根据权利要求1所述的方法,其特征在于,所述根据所述第一二阶平均梯度和所述第二二阶平均梯度,获得所述损失函数的整体二阶平均梯度,包括:
将所述第一二阶平均梯度和所述第二二阶平均梯度,分别按照相应的第一权重和第二权重加权求和,得到所述损失函数的整体二阶平均梯度;
其中,所述第一权重,为本轮清洗脏样本数据前已有的纯净样本数据占全部样本数据的占比;
所述第二权重,为本轮清洗脏样本数据前的脏样本数据占全部样本数据的占比。
8.根据权利要求1至7中任一项所述的方法,其特征在于,所述脏样本数据包括用户特征样本数据和相应标定的用户画像标签;所述方法还包括:
当调整后的模型参数满足训练结束条件后,则
获取用户特征数据,将所述用户特征数据输入已调整模型参数的所述机器学习模型,输出用户画像标签。
9.一种机器学习模型训练装置,其特征在于,所述装置包括:
样本数据获取模块,用于获取在本轮清洗脏样本数据前已有的纯净样本数据;
二阶平均梯度确定模块,用于根据所述已有的纯净样本数据和机器学***均梯度;
所述样本数据获取模块还用于获取本轮从脏样本数据中取部分脏样本数据清洗后得到的纯净样本数据;
所述二阶平均梯度确定模块还用于根据本轮清洗得到的所述纯净样本数据和所述当前模型参数,确定所述损失函数的第二二阶平均梯度;根据所述第一二阶平均梯度和所述第二二阶平均梯度,获得所述损失函数的整体二阶平均梯度;
模型参数调整模块,用于根据所述整体二阶平均梯度调整所述当前模型参数;当调整后的模型参数不满足训练结束条件时,将下一轮作为本轮,通知所述样本数据获取模块工作,直至调整后的模型参数满足训练结束条件。
10.根据权利要求9所述的装置,其特征在于,所述二阶平均梯度确定模块还用于将所述已有的纯净样本数据和机器学***均梯度。
11.根据权利要求10所述的装置,其特征在于,所述二阶平均梯度确定模块还用于按照以下公式计算所述机器学***均梯度:
其中,gc(θ)为第一二阶平均梯度;c是clean的缩写,表示用于计算所述第一二阶平均梯度的样本数据为纯净的数据;Rclean为所述已有的纯净样本数据;φ()表示损失函数;H(φ())表示所述损失函数的二阶偏导矩阵;为所述已有的纯净样本数据中第i个输入数据;为所述已有的纯净样本数据中第i个输出数据;θ为当前模型参数;为所述损失函数的第一二阶偏导矩阵的逆矩阵;为所述损失函数的第一一阶偏导数。
12.根据权利要求9所述的装置,其特征在于,所述二阶平均梯度确定模块还用于将本轮清洗得到的所述纯净样本数据和所述当前模型参数代入所述损失函数;求取代入本轮清洗得到的所述纯净样本数据和所述当前模型参数的所述损失函数的第二一阶偏导数和第二二阶偏导矩阵;根据所述第二二阶偏导矩阵的逆矩阵和所述第二一阶偏导数,确定所述损失函数的第二二阶平均梯度。
13.根据权利要求12所述的装置,其特征在于,所述二阶平均梯度确定模块还用于获取本轮清洗得到的各所述纯净样本数据对应的脏样本数据的抽样概率;对于本轮清洗得到的每条所述纯净样本数据,求取对应的所述第二二阶偏导矩阵的逆矩阵和所述第二一阶偏导数的乘积与对应的脏样本数据的抽样概率的比值;求各所述比值的平均值,得到所述损失函数的第二二阶平均梯度。
14.根据权利要求13所述的装置,其特征在于,所述二阶平均梯度确定模块还用于按照以下公式计算所述损失函数的第二二阶平均梯度:
其中,gs(θ)为第二二阶平均梯度;s为本轮清洗得到的纯净样本数据;c是clean的缩写,表示用于计算第二二阶平均梯度的样本数据为纯净的数据;p(i)为本轮抽取的第i个脏样本数据的抽样概率;φ()表示损失函数;H(φ())表示损失函数的二阶偏导矩阵;为本轮清洗得到的纯净样本数据中第i个输入数据;为本轮清洗得到的纯净样本数据中第i个输出数据;θ为当前模型参数;为损失函数的第二二阶偏导矩阵的逆矩阵;为损失函数的第二一阶偏导数。
15.根据权利要求9至14中任一项所述的装置,其特征在于,所述脏样本数据包括用户特征样本数据和相应标定的用户画像标签;所述装置还包括:
用户画像标签输出模块,用于当调整后的模型参数满足训练结束条件后,则获取用户特征数据,将所述用户特征数据输入已调整模型参数的所述机器学习模型,输出用户画像标签。
CN201710344182.8A 2017-05-16 2017-05-16 机器学习模型训练方法和装置 Active CN108320026B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710344182.8A CN108320026B (zh) 2017-05-16 2017-05-16 机器学习模型训练方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710344182.8A CN108320026B (zh) 2017-05-16 2017-05-16 机器学习模型训练方法和装置

Publications (2)

Publication Number Publication Date
CN108320026A true CN108320026A (zh) 2018-07-24
CN108320026B CN108320026B (zh) 2022-02-11

Family

ID=62892248

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710344182.8A Active CN108320026B (zh) 2017-05-16 2017-05-16 机器学习模型训练方法和装置

Country Status (1)

Country Link
CN (1) CN108320026B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109710793A (zh) * 2018-12-25 2019-05-03 科大讯飞股份有限公司 一种哈希参数确定方法、装置、设备及存储介质
WO2020153934A1 (en) * 2019-01-21 2020-07-30 Hewlett-Packard Development Company, L.P. Fault prediction model training with audio data
CN111797080A (zh) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 模型训练方法、数据回收方法、装置、存储介质及设备
CN112703511A (zh) * 2018-09-27 2021-04-23 华为技术有限公司 运算加速器和数据处理方法
CN113625175A (zh) * 2021-10-11 2021-11-09 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) 一种基于云端大数据平台的soc估算方法和***
US11409589B1 (en) 2019-10-23 2022-08-09 Relativity Oda Llc Methods and systems for determining stopping point

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103646019A (zh) * 2013-12-31 2014-03-19 哈尔滨理工大学 一种多个机器翻译***融合的方法及装置
WO2015078185A1 (zh) * 2013-11-29 2015-06-04 华为技术有限公司 卷积神经网络和基于卷积神经网络的目标物体检测方法
CN104809139A (zh) * 2014-01-29 2015-07-29 日本电气株式会社 代码文件查询方法和装置
WO2016062044A1 (zh) * 2014-10-24 2016-04-28 华为技术有限公司 一种模型参数训练方法、装置及***
CN105678740A (zh) * 2015-12-30 2016-06-15 完美幻境(北京)科技有限公司 一种相机几何标定处理方法及装置
CN105844706A (zh) * 2016-04-19 2016-08-10 浙江大学 一种基于单幅图像的全自动三维头发建模方法
CN105931224A (zh) * 2016-04-14 2016-09-07 浙江大学 基于随机森林算法的肝脏平扫ct图像病变识别方法
CN106062786A (zh) * 2014-09-12 2016-10-26 微软技术许可有限责任公司 用于训练神经网络的计算***
CN106295460A (zh) * 2015-05-12 2017-01-04 株式会社理光 人的检测方法及设备
CN106548210A (zh) * 2016-10-31 2017-03-29 腾讯科技(深圳)有限公司 机器学习模型训练方法及装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015078185A1 (zh) * 2013-11-29 2015-06-04 华为技术有限公司 卷积神经网络和基于卷积神经网络的目标物体检测方法
CN103646019A (zh) * 2013-12-31 2014-03-19 哈尔滨理工大学 一种多个机器翻译***融合的方法及装置
CN104809139A (zh) * 2014-01-29 2015-07-29 日本电气株式会社 代码文件查询方法和装置
CN106062786A (zh) * 2014-09-12 2016-10-26 微软技术许可有限责任公司 用于训练神经网络的计算***
WO2016062044A1 (zh) * 2014-10-24 2016-04-28 华为技术有限公司 一种模型参数训练方法、装置及***
CN106295460A (zh) * 2015-05-12 2017-01-04 株式会社理光 人的检测方法及设备
CN105678740A (zh) * 2015-12-30 2016-06-15 完美幻境(北京)科技有限公司 一种相机几何标定处理方法及装置
CN105931224A (zh) * 2016-04-14 2016-09-07 浙江大学 基于随机森林算法的肝脏平扫ct图像病变识别方法
CN105844706A (zh) * 2016-04-19 2016-08-10 浙江大学 一种基于单幅图像的全自动三维头发建模方法
CN106548210A (zh) * 2016-10-31 2017-03-29 腾讯科技(深圳)有限公司 机器学习模型训练方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
朱斐等: "一种解决连续空间问题的真实在线自然梯度AC算法", 《软件学报》 *
谢锦等: "基于图像不变特征深度学习的交通标志分类", 《计算机辅助设计与图形学学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112703511A (zh) * 2018-09-27 2021-04-23 华为技术有限公司 运算加速器和数据处理方法
CN112703511B (zh) * 2018-09-27 2023-08-25 华为技术有限公司 运算加速器和数据处理方法
CN109710793A (zh) * 2018-12-25 2019-05-03 科大讯飞股份有限公司 一种哈希参数确定方法、装置、设备及存储介质
WO2020153934A1 (en) * 2019-01-21 2020-07-30 Hewlett-Packard Development Company, L.P. Fault prediction model training with audio data
CN111797080A (zh) * 2019-04-09 2020-10-20 Oppo广东移动通信有限公司 模型训练方法、数据回收方法、装置、存储介质及设备
US11409589B1 (en) 2019-10-23 2022-08-09 Relativity Oda Llc Methods and systems for determining stopping point
US11921568B2 (en) 2019-10-23 2024-03-05 Relativity Oda Llc Methods and systems for determining stopping point
CN113625175A (zh) * 2021-10-11 2021-11-09 北京理工大学深圳汽车研究院(电动车辆国家工程实验室深圳研究院) 一种基于云端大数据平台的soc估算方法和***

Also Published As

Publication number Publication date
CN108320026B (zh) 2022-02-11

Similar Documents

Publication Publication Date Title
CN108320026A (zh) 机器学习模型训练方法和装置
CN107358293B (zh) 一种神经网络训练方法及装置
TWI689871B (zh) 梯度提升決策樹(gbdt)模型的特徵解釋方法和裝置
CN106529569B (zh) 基于深度学习的三维模型三角面特征学习分类方法及装置
CN104462126B (zh) 一种实体链接方法及装置
CN108229267A (zh) 对象属性检测、神经网络训练、区域检测方法和装置
CN106611052A (zh) 文本标签的确定方法及装置
CN109299258A (zh) 一种舆情事件检测方法、装置及设备
CN109523018A (zh) 一种基于深度迁移学习的图片分类方法
CN110503531A (zh) 时序感知的动态社交场景推荐方法
CN109583468A (zh) 训练样本获取方法,样本预测方法及对应装置
CN110276442A (zh) 一种神经网络架构的搜索方法及装置
CN111291165B (zh) 训练词向量嵌入模型的方法及装置
CN109215740A (zh) 基于Xgboost的全基因组RNA二级结构预测方法
CN110490444A (zh) 标注任务分配方法、装置、***及存储介质
CN105931271B (zh) 一种基于变分bp-hmm的人的行为轨迹识别方法
CN108804577B (zh) 一种资讯标签兴趣度的预估方法
CN111210111B (zh) 一种基于在线学习与众包数据分析的城市环境评估方法和***
CN109189921A (zh) 评论评估模型的训练方法和装置
CN103617146B (zh) 一种基于硬件资源消耗的机器学习方法及装置
CN109213831A (zh) 事件检测方法和装置、计算设备及存储介质
CN104462061B (zh) 词语提取方法及提取装置
CN111753966A (zh) 利用缺失多标签数据实现多标签模型训练框架的实现方法
CN103729431B (zh) 具有增减量功能的海量微博数据分布式分类装置及方法
CN105045906B (zh) 投放信息点击率的预估方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant