CN106611036A - 一种改进的多维尺度异构代价敏感决策树构建方法 - Google Patents

一种改进的多维尺度异构代价敏感决策树构建方法 Download PDF

Info

Publication number
CN106611036A
CN106611036A CN201610447931.5A CN201610447931A CN106611036A CN 106611036 A CN106611036 A CN 106611036A CN 201610447931 A CN201610447931 A CN 201610447931A CN 106611036 A CN106611036 A CN 106611036A
Authority
CN
China
Prior art keywords
cost
node
attribute
function
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610447931.5A
Other languages
English (en)
Inventor
金平艳
胡成华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Yonglian Information Technology Co Ltd
Original Assignee
Sichuan Yonglian Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Yonglian Information Technology Co Ltd filed Critical Sichuan Yonglian Information Technology Co Ltd
Priority to CN201610447931.5A priority Critical patent/CN106611036A/zh
Publication of CN106611036A publication Critical patent/CN106611036A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/22Indexing; Data structures therefor; Storage structures
    • G06F16/2228Indexing structures
    • G06F16/2246Trees, e.g. B+trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • G06F16/284Relational databases
    • G06F16/285Clustering or classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出了一种改进的多维尺度的异构代价敏感决策树构建方法,根据属性的目标函数从候选属性中选,由节点延伸出满足条件分支,这里假设满足条件的分支个数为k,此时在此节点再加一个空节点,即当前节点的分支个数为k+1,同时利用先剪枝技术对叶子节点进行剪枝操作,一边建树一边剪枝,当满足以下两个条件时,停止建树。一、假设为训练数据集中的样本集合,如果为空,加上一个叶子结点,标记为训练数据集中最普通的类。二、此结点中所有例子属于同一类。此发明提高了分类的准确度;规避了分类过程中的偏置问题;考虑了多种代价影响因子和决策树分支中的空节点,若未知事物分类结果不符合当前模型,则可通过空节点继续下一步分类操作。

Description

一种改进的多维尺度异构代价敏感决策树构建方法
技术领域
本发明涉及机器学习、人工智能以及数据挖掘领域。
背景技术
决策树相关课题是数据挖掘和机器学习中的一项重要和积极的研究课题。所提出的算法被广泛和成功地应用于实际问题中,如ID3,CART和C4.5,决策树此类经典算法主要是研究准确率的问题,生成的决策树准确率更高。在现有的算法中,有些只考虑测试代价,有些只考虑误分类错误代价,此类被称之为一维尺度代价敏感,其构建的决策树在现实案例中并不能解决综合问题。例如,在代价敏感学习中除了需考虑测试代价和误分类代价对分类的影响,还需考虑待时间代价对分类预测的影响。例如,患者可能存在测试代价约束,也有可能存在等待时间上的约束,根据不同类别需求人所具备的自身资源不同,所需的时间长短也不同,考虑各种代价单位机制不同的问题,另外在构建决策树过程中,采用先剪支技术来解决决策树中过拟合问题,为了解决这种需求,本发明在之前一维和二维尺度代价基础上,提出了一种多维尺度的异构代价敏感决策树构建方法。
发明内容
对于解决同时考虑测试代价、误分类代价以及等待时间代价影响因子来构建多维尺度决策树过程的问题,以及为使测试成本更低、所构成的决策树扩展性更好、代价不同单位机制的问题,提出了一种改进的多维尺度异构代价敏感决策树构建方法。
为解决上述问题,本发明是将通过以下技术方案实现:
一种改进的多维尺度异构代价敏感决策树构建方法,包括如下步骤:
步骤1:设训练集中有X个样本,属性个数为n,即n=(S1,S2,…Sn),同时***属性Si对应了m个类L,其中Lr∈(L1,L2…,Lm),i∈(1,2…,n),r∈(1,2…,m)。相关领域用户设定好误分类代价矩阵C、属性Si、测试代价costi、相对等待时间代价wc(Si)、修正系数β,以及判定条件阈值p、q。
步骤2:创建根结点G。
步骤3:如果训练数据集为空,则返回节点G并标记失败。
步骤4:如果训练数据集中所有记录都属于同一类别,则该类型标记节点G。
步骤5:如果候选属性为空,则返回G为叶子结点,标记为训练数据集中最普通的类。
步骤6:根据属性Si的目标函数f(Si)从候选属性中选择splitSi
目标函数f(Si):f(Si)=averagegain(Si)·D(Si)
averagegain(Si)为平均信息增益函数,D(Si)为各种代价效度函数。当选择属性splitSi满足目标函数f(Si)越大,则找到标记节点G。
当出现目标函数f(Si)相等时,为打破平局标准,则按照下面的优先顺序再进行选择:
(1)更大的Dmc(Si)
(2)更小的ZTC(Si)
步骤7:标记节点G为属性splitSi
步骤8:由节点延伸出满足条件为splitS=splitSi分支,这里假设满足条件的分支个数为k,此时在此节点再加一个空节点,即当前节点的分支个数为k+1,同时利用先剪枝技术对节点进行剪枝操作,一边建树一边剪枝,如果满足以下两条件之一,就停止建树。
8.1 这里假设Yi为训练数据集中splitS=splitSi的样本集合,如果Yi为空,加上一个叶子结点,标记为训练数据集中最普通的类。
8.2 此结点中所有例子属于同一类。
步骤9:非8.1与8.2中情况,则递归调用步骤6至步骤8。
步骤10:更新训练数据集,保存新的示例数据。
本发明有益效果是:
1、构建的决策树有更好的分类准确度,加强了分类能力,避免了将稀有类作为普通类分类的情况。
2、考虑了多种代价影响因子和决策树分支当中生成了空节点,若未知事物分类结果不符合当前模型,则可以通过空节点继续进行下一步分类操作,此构建的决策树模型应用范围更广,更符合实际需求。
3、形成的决策树可以更好的规避分类过程中的偏置问题。
4、建树过程中,利用了效度来度量测试代价以及待时间代价总代价能使误分类代价得到最大力度的降低,以及解决了现实中把误分类代价、测试代价以及 待时间代价看成同一度量单位的不合理性,形成的决策树具有高的分类精度和降低误分类代价、测试代价以及待时间代价。
5、利用先剪枝技术对决策树进行剪枝提高了分类学习的效率。
6、采用组合测试顺序,可以使得测试代价成本降到更低,灵活性更好。
附图说明
图1为一种改进的多维尺度异构代价敏感决策树构建的流程图
具体实施方式
针对于解决同时考虑测试代价、误分类代价以及待时间代价影响因子来构建多维尺度决策树过程的问题、使达到的测试成本更低、所构成的决策树具有更好的扩展性、代价的不同单位机制问题最后生成的决策树更好的规避了过度拟合问题,结合图1对本发明进行了详细说明,其具体实施步骤如下:
步骤1:设训练集中有X个样本,属性个数为n,即n=(S1,S2,…Sn),同时***属性Si对应了m个类L,其中Lr∈(L1,L2…,Lm),i∈(1,2…,n),r∈(1,2…,m)。相关领域用户设定好误分类代价矩阵C、属性Si测试代价为costi、、wc(Si)—相对等待时间代价值、修正系数β,以及判定条件阈值p、q。
1)上述步骤1中所述的利用EP准则对类L进行处理得到误分类代价矩阵C’具体求解过程如下:
1.1)相关领域用户误分类代价矩阵C的设定:
类别标识个数为m,则该数据的代价矩阵m×m方阵是:
其中cij表示第j类数据分为第i类的代价,如果i=j为正确分类,则cij=0,否则为错误分类cij≠0,其值由相关领域用户给定,这里i,j∈(1,2,…,m)
步骤2:创建根结点G。
步骤3:如果训练数据集为空,则返回结点G并标记失败。
步骤4:如果训练数据集中所有记录都属于同一类别,则该类型标记结点G。
步骤5:如果候选属性为空,则返回G为叶子结点,标记为训练数据集中最普通的类。
步骤6:根据属性Si的目标函数f(Si)从候选属性中选择splitSi
目标函数f(Si):f(Si)=averagegain(Si)·D(Si)
averagegain(Si)为平均信息增益函数,D(Si)为代价效度函数
其中averagegain(Si)—平均信息增益函数公式为:
gain(Si)为属性Si的信息增益,k为属性Si对应的属性值个数。
其中D(Si)—代价效度函数公式为:
Dmc(Si)为误分类损失代价减少函数,ZTC(Si)为测试代价与相对等待时间代价的总代价函数,这里测试方式采用的是组合测试顺序来执行的。
当选择属性splitSi满足目标函数f(Si)越大,,则找到标记结点G。
2)上述步骤6求解目标函数f(Si),需要先求解averagegain(Si)—平均信息增益函数、D(Si)—代价效度函数,具体求解过程如下:
2.1)计算averagegain(Si)—平均信息增益函数的具体过程如下:
信息增益函数gain(Si):gain(Si)=E(X)-E(Si)
上式E(X)为整个训练集的信息熵,E(Si)为属性Si所对应的信息熵;
上式表示为类Lr的个数,为训练集对应类Lr的概率,类的个数总共为m个。
上式k为属性Si所对应属性值的个数,ni为对应属性值为i的样本数,β为修正系数。
β这里为了避免在构建决策树中存在分类偏置的问题,即偏置到数量级更大的类问题。
所以
最后求得的averagegain(Si)—平均信息增益函数为如下所式:
2.2)求解D(Si)—代价效度函数的具体过程如下:
求解D(Si)—代价效度函数,需要先求解Dmc(Si)—误分类损失代价减少函数和ZTC(Si)—批量测试代价与相对等待时间代价的批量总代价函数。
2.2.1)求解Dmc(Si)—误分类损失代价减少函数具体过程如下:
如果对事例预测的类标签La与真实类标签Lb相同,则分类正确,此时的误分类代价C(La,Lb)=0,如果La≠Lb,则C(La,Lb)≠0。在分类过程中,通常不知道事例的实际标签,所以这里用误分类代价的期望Emc来代替误分类代价的值,即,把一个事例的类标签预测为La的误分类代价的期望为:
其中,L为数据集中所有类标签集合,p(Lb/Si)为当前选择属性Si中含有类Lb的概率,C(La,Lb)为把类Lb误分为类La的代价花费。
***属性的选择还应该以误分类代价降低最大为基本原则,在没有选择属性Si时有一个总的误分类代价mc,选择任何一个属性进行测试,都有可能减少一定的误分类代价,这里构造出误分类损失代价减少函数Dmc(Si)。
Dmc(Si)=mc-Emc(Si,La)
Mc为还没有选择***属性Si前的所有误分类代价的总和,这个可以根据用户设定的误分类代价矩阵很容易求得出来。
2.2.2)进行组合批量测试,求解ZTC(z)—批量测试代价与相对等待时间代价的批量总代价函数具体过程如下:
上式i为一次性进行组合测试的个数,i∈(1,2…,a),DC1,2…a为组合测试的折扣代价,这个折扣代价由专家认定,为从组合测试属性中找出相对等待时间代价的最大值。
属性测试代价为TC(Si)设定如下:
TC(Si)=(1+costi)
其中costi为属性Si测试代价,这个由用户指定
以下具体介绍相对等待时间代价wc(Si):
等待时间代价与时间有关,即我们可以用数值来描述这些时间敏感代价,如 果结果可以马上得到,等待时间代价为0;如果结果要几天,就由相应专家确定一个数值。另外规定,如果一定要这个测试结果出来才能进行下一个测试,即使等待的时间不多,如半天或一天,都把这个等待时间代价设为一个很大的常数,即m→∞。
等待时间同时还和当地资源有关,同时考虑时间代价和资源约束代价。
当出现目标函数f(Si)相等时,为打破平局标准,则按照下面的优先顺序再进行选择:
(1)更大的Dmc(Si)
(2)更小的ZTC(Si)
步骤7:标记结点G为属性splitS。
步骤8:由结点延伸出满足条件为splitS=splitSi分支,同时利用先剪枝技术对叶子结点进行剪支操作,一边建树一边剪枝,如果满足以下两条件之一,就停止建树。
8.1 这里假设Yi为训练数据集中splitS=splitSi的样本集合,如果Yi为空,加上一个叶子结点,标记为训练数据集中最普通的类。
8.2 此结点中所有例子属于同一类。
3)上述步骤8所述的先剪枝技术,其判定条件具体如下:
(1)
(2)Dmc(Si)<q
为一个叶子结点类Lr的样本数,X为训练集总体样本数,p为用户基于训练集的样本个数百分比的最小值设定的一个适当的阈值。
剪枝条件首先要达到用户指定的精度条件,同时又要满足属性的误分类代价减损达到用户指定的条件。
步骤9:非8.1与8.2中情况,则递归调用步骤6至步骤8。
步骤10:更新训练数据集,保存新的示例数据。
一种改进的多维尺度的异构代价敏感决策树构建方法,其伪代码计算过程如下:
输入:X个样本训练集,误分类代价矩阵C、属性Si测试代价为costi、wc(Si)—相对等待时间代价、修正系数β。
输出:一种改进的多维尺度异构代价敏感决策树构建方法。

Claims (3)

1.一种改进的多维尺度异构代价敏感决策树构建方法,该方法涉及机器学习、人工智能以及数据挖掘领域,其特征是,包括如下步骤:
步骤1:设训练集中有X个样本,属性个数为n,即,同时***属性对应了个类L,其中, ,相关领域用户设定好误分类代价矩阵C、属性、测试代价、相对等待时间代价、修正系数,以及判定条件阈值
步骤2:创建根结点G
步骤3:如果训练数据集为空,则返回节点G并标记失败
步骤4: 如果训练数据集中所有记录都属于同一类别,则该类型标记节点G
步骤5:如果候选属性为空,则返回G为叶子结点,标记为训练数据集中最普通的类
步骤6:根据属性的目标函数从候选属性中选择
目标函数
为平均信息增益函数,为各种代价效度函数,当选择属性满足目标函数越大,则找到标记结点G
当出现目标函数相等时,为打破平局标准,则按照下面的优先顺序再进行选择:
(1)更大的
(2)更小的
步骤7:标记节点G为属性
步骤8:由节点延伸出满足条件为分支,这里假设满足条件的分支个数为k,此时在此节点再加一个空节点,即当前节点的分支个数为k+1,同时利用先剪枝技术对节点进行剪枝操作,一边建树一边剪枝,如果满足以下两条件之一,就停止建树
8.1这里假设为训练数据集中的样本集合,如果为空,加上一个叶子结点,标记为训练数据集中最普通的类
8.2此结点中所有例子属于同一类
步骤9:非8.1与8.2中情况,则递归调用步骤6至步骤8
步骤10:更新训练数据集,保存新的示例数据。
2.根据权利要求1中的一种改进的多维尺度异构代价敏感决策树构建方法,其特征是,以上所述步骤6的具体计算过程如下:
步骤6:根据属性的目标函数从候选属性中选择
目标函数
为平均信息增益函数,为代价效度函数
其中—平均信息增益函数公式为:
属性的信息增益,k为属性对应的属性值个数
其中—代价效度函数公式为:
为误分类损失代价减少函数,为测试代价与相对等待时间代价的总代价函数,这里测试方式采用的是组合测试顺序来执行的
当选择属性满足目标函数越大,,则找到标记节点G
2)上述步骤6求解目标函数,需要先求解—平均信息增益函数、—代价效度函数,具体求解过程如下:
2.1)计算—平均信息增益函数的具体过程如下:
信息增益函数
上式为整个训练集的信息熵,为属性所对应的信息熵;
上式表示为类的个数,为训练集对应类的概率,类的个数总共为m个
上式k为属性所对应属性值的个数,为对应属性值为i的样本数, 为修正系数
这里为了避免在构建决策树中存在分类偏置的问题,即偏置到数量级更大的类问题
所以
最后求得的—平均信息增益函数为如下所式:
2.2)求解—代价效度函数的具体过程如下:
求解—代价效度函数,需要先求解—误分类损失代价减少函数和—批量测试代价与相对等待时间代价的批量总代价函数
2.2.1)求解—误分类损失代价减少函数具体过程如下:
如果对事例预测的类标签与真实类标签相同,则分类正确,此时的误分类代价,如果,则,在分类过程中,通常不知道事例的实际标签,所以这里用误分类代价的期望Emc来代替误分类代价的值,即,把一个事例的类标签预测为的误分类代价的期望为:
Emc
其中,L为数据集中所有类标签集合,为当前选择属性中含有类的概率,为把类误分为类的代价花费
***属性的选择还应该以误分类代价降低最大为基本原则,在没有选择属性时有一个总的误分类代价mc,选择任何一个属性进行测试,都有可能减少一定的误分类代价,这里构造出误分类损失代价减少函数
为还没有选择***属性前的所有误分类代价的总和,这个可以根据用户设定的误分类代价矩阵很容易求得出来
2.2.2)进行组合批量测试,求解—批量测试代价与相对等待时间代价的批量总代价函数具体过程如下:
上式i为一次性进行组合测试的个数,为组合测试的折扣代价,这个折扣代价由专家认定,为从组合测试属性中找出相对等待时间代价的最大值
属性测试代价为设定如下:
其中为属性测试代价,这个由用户指定
以下具体介绍相对等待时间代价
等待时间代价与时间有关,即我们可以用数值来描述这些时间敏感代价,如
果结果可以马上得到,等待时间代价为0;如果结果要几天,就由相应专家确定一个数值,另外规定,如果一定要这个测试结果出来才能进行下一个测试,即使等待的时间不多,如半天或一天,都把这个等待时间代价设为一个很大的常数,即
等待时间同时还和当地资源有关,同时考虑时间代价和资源约束代价
当出现目标函数相等时,为打破平局标准,则按照下面的优先顺序再进行选择:
(1)更大的
(2)更小的
3.根据权利要求1中的一种改进的多维尺度异构代价敏感决策树构建方法,其特征是,以上所述步骤8的具体计算过程如下:
步骤8:由结点延伸出满足条件为分支,同时利用先剪枝技术对叶子结点进行剪枝操作,一边建树一边剪枝,如果满足以下两条件之一,就停止建树
8.1这里假设为训练数据集中的样本集合,如果为空,加上一个叶子结点,标记为训练数据集中最普通的类
8.2此结点中所有例子属于同一类
3)上述步骤8所述的先剪枝技术,其判定条件具体如下:
(1)
(2)
为一个叶子结点类的样本数,X为训练集总体样本数,p为用户基于训练集的样本个数百分比的最小值设定的一个适当的阈值
剪枝条件首先要达到用户指定的精度条件,同时又要满足属性的误分类代价减损达到用户指定的条件。
CN201610447931.5A 2016-06-20 2016-06-20 一种改进的多维尺度异构代价敏感决策树构建方法 Pending CN106611036A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610447931.5A CN106611036A (zh) 2016-06-20 2016-06-20 一种改进的多维尺度异构代价敏感决策树构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610447931.5A CN106611036A (zh) 2016-06-20 2016-06-20 一种改进的多维尺度异构代价敏感决策树构建方法

Publications (1)

Publication Number Publication Date
CN106611036A true CN106611036A (zh) 2017-05-03

Family

ID=58614893

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610447931.5A Pending CN106611036A (zh) 2016-06-20 2016-06-20 一种改进的多维尺度异构代价敏感决策树构建方法

Country Status (1)

Country Link
CN (1) CN106611036A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107748932A (zh) * 2017-10-20 2018-03-02 杭州尚青科技有限公司 一种融合序列模式挖掘和代价敏感学习的空气质量等级预测方法
CN109885597A (zh) * 2019-01-07 2019-06-14 平安科技(深圳)有限公司 基于机器学习的用户分群处理方法、装置及电子终端
CN112804189A (zh) * 2020-12-17 2021-05-14 北京工业大学 基于云雾协同的车联网入侵检测方法
CN117932482A (zh) * 2024-03-21 2024-04-26 泰安北航科技园信息科技有限公司 一种用于围巾加热的碳纳米加热方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107748932A (zh) * 2017-10-20 2018-03-02 杭州尚青科技有限公司 一种融合序列模式挖掘和代价敏感学习的空气质量等级预测方法
CN109885597A (zh) * 2019-01-07 2019-06-14 平安科技(深圳)有限公司 基于机器学习的用户分群处理方法、装置及电子终端
CN109885597B (zh) * 2019-01-07 2023-05-30 平安科技(深圳)有限公司 基于机器学习的用户分群处理方法、装置及电子终端
CN112804189A (zh) * 2020-12-17 2021-05-14 北京工业大学 基于云雾协同的车联网入侵检测方法
CN117932482A (zh) * 2024-03-21 2024-04-26 泰安北航科技园信息科技有限公司 一种用于围巾加热的碳纳米加热方法
CN117932482B (zh) * 2024-03-21 2024-06-11 泰安北航科技园信息科技有限公司 一种用于围巾加热的碳纳米加热方法

Similar Documents

Publication Publication Date Title
CN106126972B (zh) 一种用于蛋白质功能预测的层级多标签分类方法
CN103927394B (zh) 一种基于svm的多标签主动学习分类方法及***
CN108845988B (zh) 一种实体识别方法、装置、设备及计算机可读存储介质
CN106611036A (zh) 一种改进的多维尺度异构代价敏感决策树构建方法
CN104966105A (zh) 一种鲁棒机器错误检索方法与***
CN105095494A (zh) 一种对分类数据集进行测试的方法
CN105069483B (zh) 一种对分类数据集进行测试的方法
CN110263979A (zh) 基于强化学习模型预测样本标签的方法及装置
CN104715021A (zh) 一种基于哈希方法的多标记学习的设计方法
CN113128478B (zh) 模型训练方法、行人分析方法、装置、设备及存储介质
CN110097088A (zh) 一种基于迁移学习与特殊点策略的动态多目标进化方法
CN112906375B (zh) 文本数据标注方法、装置、设备及存储介质
CN105260746B (zh) 一种可扩展的多层集成多标记学习***
CN106599936A (zh) 一种基于二进制蚁群算法的特征选择方法及***
CN111310860A (zh) 改进梯度提升决策树性能的方法及计算机可读存储介质
CN106611188A (zh) 一种标准化的多维尺度代价敏感决策树构建方法
CN101295362A (zh) 结合支持向量机以及近邻法的模式分类方法
CN109002839A (zh) 一种多属性特征环境下高效特征选择方法
CN109242552A (zh) 一种基于大数据的商铺定位方法
CN106611189A (zh) 标准化多维代价敏感决策树的集成分类器构建方法
CN110232397A (zh) 一种结合支持向量机和投影矩阵的多标签分类方法
CN108664607A (zh) 一种基于迁移学习的电力通信网数据质量提升方法
CN106611187A (zh) 一种多维尺度的异构代价敏感决策树构建方法
CN110457155B (zh) 一种样本类别标签的修正方法、装置及电子设备
CN112200862A (zh) 目标检测模型的训练方法、目标检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20170503