CN107578061A - 基于最小化损失学***衡样本分类方法 - Google Patents

基于最小化损失学***衡样本分类方法 Download PDF

Info

Publication number
CN107578061A
CN107578061A CN201710702075.8A CN201710702075A CN107578061A CN 107578061 A CN107578061 A CN 107578061A CN 201710702075 A CN201710702075 A CN 201710702075A CN 107578061 A CN107578061 A CN 107578061A
Authority
CN
China
Prior art keywords
classification
value
training
algorithm
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201710702075.8A
Other languages
English (en)
Inventor
张春慨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Harbin Institute of Technology
Original Assignee
Shenzhen Graduate School Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Harbin Institute of Technology filed Critical Shenzhen Graduate School Harbin Institute of Technology
Priority to CN201710702075.8A priority Critical patent/CN107578061A/zh
Priority to PCT/CN2017/115848 priority patent/WO2019033636A1/zh
Publication of CN107578061A publication Critical patent/CN107578061A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提出了一种基于最小化损失学***衡样本分类方法,采取先使用当前状态的网络对所有训练集进行分类,然后求解损失并对此损失进行优化以达到下一更优状态这一思想,将训练中的评价过程进行变换,不再使用当前状态下神经网络的具体分类结果,而是采用当前输出的概率求解损失的期望值,并对期望值进行优化,这样既可以建立输出和参数与目标间的直接联系,也可以通过优化期望值来增加目标获取更高值的概率。本发明利用不平衡样本分类的评价标准构建了应用于训练集的关于整体F1值的目标函数,再将最大化F1值算法应用到了人工神经网络(ANN)模型中,在不平衡数据集分类算法上取得了一定的成功,其结果通常优于以往的算法。

Description

基于最小化损失学***衡样本分类方法
技术领域
本发明属于数据分类技术领域,具体涉及一种不平衡样本分类方法。
背景技术
随着移动互联网技术的兴起,越来越多的原始数据被收集起来用于分析与挖掘,其中很多领域内的数据是严重不平衡的,即属于不同类别的样本数量相差极为悬殊。传统的机器学***衡数据集上表现欠佳,所以不平衡数据分类算法也逐渐成为一个受人关注的课题。
根据现有的研究成果,经典的解决不平衡数据集的主要方法可以总结为以下几种:
(1)原始训练数据重构:通过重采样技术改变多数类或少数类样本的数目,从而使原始数据变得相对平衡;
(2)集成学***衡问题;
(3)代价敏感学***衡问题。
传统分类器优化算法有一个共同的特点,就是针对不平衡样本分类问题,它们不再是像经典不平衡处理方法那样针对不平衡的数据集进行一些平衡化的调整,它们的主要思想是通过修改分类器的训练过程或者分类过程来适应不平衡的数据集,既通过优化算法的训练过程来减轻不平衡分布对训练过程的影响,或者采用正常的训练思路训练模型后,通过一系列其他过程进行对模型的调整,又或是得到普通的模型之后在分类阶段采用与经典分类阶段不同的方法来解决不平衡问题。
传统分类算法是无法直接用于不平衡样本分类问题的,而对于经典的不平衡样本分类算法,其通常的思路都很直观,大都是直接作用于数据集上,无论是直接改变数据集中样本的权值分布,还是通过某种特殊的方法来增删数据集中的各类的样本,最后都是为了让原始的不平衡数据集可以达到一个相对平衡的状态,最后便可以应用传统的分类方法来解决原始问题。
众所周知,传统的分类方法其根本思想都是通过对训练样本空间进行一致性假设的归纳,既归纳偏置,从而可以对整个样本空间中未出现过的样本进行预测,对于不同的分类器来说,只不过是它们采用的VC维(Vapnik Chervonenkis Dimension)函数,以及偏置条件不同。
不幸的是经典不平衡分类算法恰好与传统机器学***衡分类算法大多是通过改变原始样本分布来解决不平衡问题的,而传统机器学***均的分类准确率或分类F1值都会波动相对较大。
发明内容
为解决现有技术中存在的问题,本发明设计了一种直接以F1值为训练目标的算法来解决不平衡数据集分类问题,并取得了不错的效果。
本发明具体通过如下技术方案实现:
一种基于最小化损失学***衡样本分类方法,应用于人工神经网络模型中,其特征在于:所述方法包括:
S1:设置学习率η、最大迭代次数m、隐藏节点数目l和目标F1值f,输入样本集合
S2:对输入—隐藏层连接系数矩阵ωkl和隐藏—输出层连接系数向量θl进行初始化,每一个分量范围为(-0.1,0.1);令ωkl′←0、θl′←0、f′←0;
S3:根据现有模型对样本集合对样本集合求解并求解当前F1值fnow
S4:如果fnow>f,则返回当前ωkl、θl;否则执行S5;
S5:如果fnow>f′,则ωkl′←ωkll′←θl
S6:根据下式(a)与(b)更新θl,根据下式(c)更新ωkl
S7:回到步骤S3,直到迭代次数达到m;
S8:返回ωkl′、θl′;
S9:利用优化后的人工神经网络模型对不平衡样本进行分类。
附图说明
图1是数据集概率密度曲线示意图。
具体实施方式
下面结合附图说明及具体实施方式对本发明进一步说明。
本发明设计了一种通过以评价标准为目标从而直接对模型训练的方法,下面首先介绍最大化F1值训练法的基本思想以及该方法为何可以应用于不平衡数据集分类问题。
假设当前的数据集是一维不平衡数据集,包含多数类与少数类两种样本,概率密度曲线如图1所示,并假设多数类与少数类的样本比例为n:1,其中n>1。显然以传统分类器的基本思想既以最大化全局准确率为最终训练目标,对于两类的边界部分,即使其概率密度大小相似,但是因为多数类与少数类样本基数不同,所以边界部分的多数类样本个数会远多于少数类的样本个数,最终分类界线极有可能在图中线b的位置附近,处于偏向少数类的一侧。
而经典的不平衡数据集分类算法的思想是直接采用某种方法强行的缩小多数类与少数类之间的样本比值,通常会使两类的样本点数目达到相同或十分接近,然后应用传统分类算法时,如果原始数据集的概率密度曲线还是如图1所示,由于已经不存在两类样本基数不同这一问题,所以使全局分类准确率最高的分类界限应该是图中的线a。这条线是以两类概率密度曲线交点的横坐标作为分界阈值,分界线左边的少数类与右边的多数类为错分样本,由面积法易证,此时分类错误样本数最小。
然而由于样本空间的改变,我们只能认为该解(线a)是当前改变后的样本空间中最佳分类线,并不能确定该分界点是否也是原数据集上的最佳点,对于不平衡样本分类问题,在原始数据集上通常采用F1值等复合评价标准来评价最终分类效果的好坏,而经典不平衡样本分类方法通常只能使原始空间的不平衡分类评价指标有所上升,即使不采用正则项降低过拟合,通常也无法证明该解一定是该原始样本空间中的最优解或者一个极优解。
对于图1的数据集来说,由于它是一维数据,如果比例n固定的话,我们可以知道使该数据集的最终F1值达到最大的分界点一定只有一个,并且是可解的。本发明提出的方法便是基于该思路,跳过了经典算法中改变原始数据集分布的这一过程,直接寻找可以使原始数据集最终分类结果达到最大F1值的分类界限。对于一维问题,其求解方法显然很容易,而对于超过一维的问题并且需要基于传统分类算法设计求解该归纳偏置的时候,该问题的规模将指数上升,因此本发明设计了基于最小化损失学习算法思路的解决方法来解决此问题。
本发明中选取了F1这一最经典的复合评价标准作为优化目标,所以可以将损失函数设置为(1-F1)值。训练样本的特征集合和目标输出集合假设h由对单个样本的假设h:X→Y变为了对所有训练样本的整体假设h:对应了所有样本输入以及所有的分类器输出。对于神经网络的训练,损失值最小和F1值最大其实是一样的,只要将梯度前的符号进行改变即可,所以这里将最小化损失的概念扩充到了最大化目标函数:
其中为所有假设空间, 如式(6)所示,为对样本的假设。我们依然使用如式(2)中所示传统神经网络的sgn函数作为最终分类标准,对于整个训练集上的输出我们用来表示,而目标输出依然用来表示。为了用表示最终的F1值,首先需要求出召回率(Recall)与精确率(precision),根据混淆矩阵与之间的关系,可以得出混淆矩阵中的参数TP满足式(3),并且可以将召回率公式转化为式(4)的形式,而精确率公式便可以变为式(5)的形式。所以最终的F1值可以表示为式(6)的形式。
然而观察式(6)可以发现因为都是0与1组成的序列,虽然可以通过表示出整个训练集的训练目标,但是由于求解的过程中包含了一步sgn(h(x))的操作,所以该F1值仍然是离散的,并无法与神经网络输出以及各个节点间的连接层建立直接的数值联系。在结构化支持向量机中求解任意目标函数时采用的是空间遍历以及双重优化的思路,也因此需要耗费巨量的时间,而在本发明的算法中,我们放弃了这一思路,转而采用神经网络输出层sigmod函数特有的式概率性的性质来将与h(x)建立起联系。
本发明的算法利用神经网络训练过程是采取先将使用当前状态的网络进行分类,然后求解损失并对此损失进行优化已达到下一更优状态这一思想,将训练中的评价过程进行变换,不再使用当前状态下神经网络的具体分类结果,而是采用当前输出的形如式(8)的概率求解损失的期望值,并对期望值进行优化,这样既可以建立输出和参数与目标间的直接联系,也可以通过优化期望值来增加目标获取更高值的概率,这样不失训练的意义。
然而建立期望联系我们并不能采用精确求解过程,首先是因为精确求解需要耗费的时间,这有悖于本发明设计快速算法的初衷,其次可以看到精确求解算法最后求解出的状态—概率空间已经无法存储每一样本对其的贡献,也就是无法直接建立期望与样本之间的关系,所以也无法直接建立期望与神经网络权值之间的关系,为了解决这两个主要问题,本发明采用式(7)中的近似关系。
P(y=1|x;θmnm)≈h(x) (8)
E(XY)=E(X)E(Y)+E((X-E(X))(Y-E(Y))) (9)
由于有期望与协方差的关系(9),所以,对于式(7)中的分子分母分别取期望,分子的期望便如式中右侧的分子的形式,而分母的期望由于后续反向传播算法中希望可以对有所样本都可以带入,而不是对于一部分样本会舍去分类器输出,所以继续采用的平方的形式而不是直接期望的形式,但是即使取平方由于最终将会接近于0或1,所以其整体值是接近的。而对于式(9)中的后一项两个变量的协方差,我们可以发现X与Y均为它们分别在分子与分母,所以X与Y的变化趋势相反,根绝协方差的性质,可以认为协方差将一直为0,所以有关系(10),当算法不断优化右方的近似值的同时,由于期望值为近似值的上界并且相对接近,所以也可以不断使期望扩大,收敛于一个全局最优解或者局部极优解,已达到训练目的。
综上,我们便将原始的神经网络训练目标h:X→Y完全转变为了式的形式,并根据不平衡样本分类评价标准中常用的F1值进行了目标函数的设计,然后将离散函数近似为一个连续函数,使该函数可以完美的与每个训练集样本输出建立联系,进而与神经网络参数建立联系,并且证明了神经网络的训练过程中可以在优化该近似函数的同时优化整个训练集上的最终F1值,满足最初的设计思想。
上文中已将介绍了本发明的算法解决不平衡问题的特定目标函数最大化的思想,并利用不平衡样本分类的评价标准构建了应用于训练集的关于整体F1值的目标函数,之后,我们将最大化F1值算法应用到了人工神经网络(ANN)模型中,对于神经网络模型,其最常用的有效权值策略便是反向传播算法,由于本算法的最终结果将目标函数训练到最大值,所以其更新过程如式(11)与(12)所示。其中η代表了学习率,其大小影响了神经网络的收敛速度以及收敛精度,偶尔也可能会影响到最终收敛于哪一个极优解附近。
所以为了求解出每一个权值的更新量,我们需要求解出整个目标函数F1对于每一个节点中每一个参数的偏微分,对于输出节点:
其中netj代表节点j的内积结果通过sigmod函数前的结果,而oj为netj经过sigmod函数处理后的结果。对于隐藏节点更新量,这里并没有办法直接使用目标函数求解,所以要根据每个隐藏节点的下游节点来更新其连接参数,其更新方案如式(15)所示。由于本算法为二分类问题,所以输出节点也就是netk只有一个,可以得到式(16)的形式,其中δk为输出节点的偏微分ωkj为节点k的第j个分量(j=1,…,l),也就是输出节点与第j个隐藏节点之间的连接权值,DownStream为一个隐藏层节点的所有下游节点结合。
本发明的算法具体过程如下所示。
算法1最小化损失神经网络
θl和ωkl都是神经网络模型中的参数,其更新方式都是如(11)(12)中通过梯度下降法进行更新,即每次加上输出层偏差对每个节点的偏导数得到(这里的ωkl与θl在形式上是可以替换的,都是按这个方程进行计算)。(13)和(14)即是对于输出层参数θ求得的偏微分,计算方式就是
为了对该算法的有效性进行验证,本发明做了以下对比实验。实验数据集均来自于UCI机器学***衡数据集分类算法研究中出现过的数据集,共以下8个数据集,其参数如下表1所示。
表1数据集参数表
本发明采用了SMOTE算法、Adaboost算法、结构化支持向量机算法(SSVM)、经典神经网络算法(ANN)、敏感代价学习算法(SCL)以及本发明的算法(ML-ANN)进行了对比,其结果如表2所示。
表2不同算法在8个数据集上交叉验证F1值
由上表可见,本发明的算法在不平衡数据集分类算法上取得了一定的成功,其结果通常优于以往的算法。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干简单推演或替换,都应当视为属于本发明的保护范围。

Claims (2)

1.一种基于最小化损失学***衡样本分类方法,应用于人工神经网络模型中,其特征在于:所述方法包括:
S1:设置学习率η、最大迭代次数m、隐藏节点数目l和目标F1值f,
输入样本集合
S2:对输入—隐藏层连接系数矩阵ωkl和隐藏—输出层连接系数向量θl进行初始化,每一个分量范围为(-0.1,0.1);令ωkl′←0、θl′←0、f′←0;
S3:根据现有模型对样本集合对样本集合求解并求解当前F1值fnow
S4:如果fnow>f,则返回当前ωkl、θl;否则执行S5;
S5:如果fnow>f′,则ωkl′←ωkll′←θl
S6:根据下式(1)与(2)更新θl,根据下式(3)更新ωkl
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>F</mi> <mn>1</mn> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>net</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>=</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>F</mi> <mn>1</mn> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>o</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>*</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>o</mi> <mi>j</mi> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>net</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>a</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>o</mi> <mi>j</mi> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>net</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>=</mo> <msup> <mi>sigmod</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <msub> <mi>net</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>o</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>o</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>b</mi> <mo>)</mo> </mrow> </mrow>
<mrow> <mfrac> <mrow> <mo>&amp;part;</mo> <mi>F</mi> <mn>1</mn> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>net</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>=</mo> <msub> <mi>&amp;delta;</mi> <mi>k</mi> </msub> <mo>&amp;CenterDot;</mo> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>net</mi> <mi>k</mi> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>net</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>=</mo> <msub> <mi>&amp;delta;</mi> <mi>k</mi> </msub> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>net</mi> <mi>k</mi> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>o</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mfrac> <mrow> <mo>&amp;part;</mo> <msub> <mi>o</mi> <mi>j</mi> </msub> </mrow> <mrow> <mo>&amp;part;</mo> <msub> <mi>net</mi> <mi>j</mi> </msub> </mrow> </mfrac> <mo>=</mo> <msub> <mi>&amp;delta;</mi> <mi>k</mi> </msub> <msub> <mi>&amp;omega;</mi> <mrow> <mi>k</mi> <mi>j</mi> </mrow> </msub> <msub> <mi>o</mi> <mi>j</mi> </msub> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <msub> <mi>o</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mi>c</mi> <mo>)</mo> </mrow> </mrow>
其中,netj代表节点j的内积结果通过sigmod函数前的结果,oj为sigmod函数处理后的结果,δk为输出节点的偏微分
S7:回到步骤S3,直到迭代次数达到m;
S8:返回ωkl′、θl′;
S9:利用优化后的人工神经网络模型对不平衡样本进行分类。
2.根据权利要求1所述的方法,其特征在于:所述对不平衡样本进行分类具体包括:将样本特征输入w和θ所表征的人工神经网络分类模型,输出分类类标。
CN201710702075.8A 2017-08-16 2017-08-16 基于最小化损失学***衡样本分类方法 Pending CN107578061A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710702075.8A CN107578061A (zh) 2017-08-16 2017-08-16 基于最小化损失学***衡样本分类方法
PCT/CN2017/115848 WO2019033636A1 (zh) 2017-08-16 2017-12-13 基于最小化损失学***衡样本分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710702075.8A CN107578061A (zh) 2017-08-16 2017-08-16 基于最小化损失学***衡样本分类方法

Publications (1)

Publication Number Publication Date
CN107578061A true CN107578061A (zh) 2018-01-12

Family

ID=61034482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710702075.8A Pending CN107578061A (zh) 2017-08-16 2017-08-16 基于最小化损失学***衡样本分类方法

Country Status (2)

Country Link
CN (1) CN107578061A (zh)
WO (1) WO2019033636A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108921095A (zh) * 2018-07-03 2018-11-30 安徽灵图壹智能科技有限公司 一种基于神经网络的停车位管理***、方法及停车位
CN108985382A (zh) * 2018-05-25 2018-12-11 清华大学 基于关键数据通路表示的对抗样本检测方法
CN110751175A (zh) * 2019-09-12 2020-02-04 上海联影智能医疗科技有限公司 损失函数的优化方法、装置、计算机设备和存储介质
CN111082470A (zh) * 2020-01-15 2020-04-28 合肥工业大学 含低风速分散式风电的配电网多目标动态鲁棒重构方法
CN113627485A (zh) * 2021-07-10 2021-11-09 南京理工大学 基于admm的不平衡大数据分布式分类方法
CN114327045A (zh) * 2021-11-30 2022-04-12 中国科学院微电子研究所 基于类别不平衡信号的跌倒检测方法及***
CN114327045B (zh) * 2021-11-30 2024-07-26 中国科学院微电子研究所 基于类别不平衡信号的跌倒检测方法及***

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111652384B (zh) * 2019-03-27 2023-08-18 上海铼锶信息技术有限公司 一种数据量分布的平衡方法及数据处理方法
CN110851959B (zh) * 2019-10-18 2024-04-02 天津大学 一种融合深度学习和分位数回归的风速区间预测方法
CN111159935A (zh) * 2019-12-11 2020-05-15 同济大学 基于lhs的bp神经网络参数标定方法
CN111178897B (zh) * 2019-12-18 2023-08-08 浙江大学 在不平衡数据上快速特征学习的代价敏感的动态聚类方法
CN111240344B (zh) * 2020-02-11 2023-04-07 哈尔滨工程大学 基于强化学习技术的自主水下机器人无模型控制方法
CN111325338B (zh) * 2020-02-12 2023-05-05 暗物智能科技(广州)有限公司 神经网络结构评价模型构建和神经网络结构搜索方法
CN111738420B (zh) * 2020-06-24 2023-06-06 莫毓昌 一种基于多尺度抽样的机电设备状态数据补全与预测方法
CN112529328B (zh) * 2020-12-23 2023-08-22 长春理工大学 一种产品性能预测方法及***
CN112766379B (zh) * 2021-01-21 2023-06-20 中国科学技术大学 一种基于深度学习多权重损失函数的数据均衡方法
CN113298230B (zh) * 2021-05-14 2024-04-09 武汉嫦娥医学抗衰机器人股份有限公司 一种基于生成对抗网络的不平衡数据集的预测方法
CN113673579B (zh) * 2021-07-27 2024-05-28 国网湖北省电力有限公司营销服务中心(计量中心) 一种基于小样本的用电负荷分类算法
CN113723679B (zh) * 2021-08-27 2024-04-16 暨南大学 基于代价敏感深度级联森林的饮用水质预测方法及***
US11836219B2 (en) * 2021-11-03 2023-12-05 International Business Machines Corporation Training sample set generation from imbalanced data in view of user goals
CN114638336B (zh) * 2021-12-26 2023-09-22 海南大学 聚焦于陌生样本的不平衡学习
CN114330124B (zh) * 2021-12-29 2024-07-02 东南大学 一种周期目标电磁散射特性快速仿真方法
CN114676727B (zh) * 2022-03-21 2024-02-20 合肥工业大学 一种基于csi的与位置无关的人体活动识别方法
CN116503385B (zh) * 2023-06-25 2023-09-01 吉林大学 基于虚拟全局代理的糖网眼底图像分级方法和设备
CN117476125B (zh) * 2023-12-27 2024-04-05 豆黄金食品有限公司 一种基于数据分析的腐竹余液回收数据处理***
CN117892233A (zh) * 2024-01-12 2024-04-16 中国矿业大学 一种基于多类别指数损失函数的不平衡数据软分类方法
CN118194098A (zh) * 2024-05-16 2024-06-14 中国人民解放军总医院 疾病预测领域中针对不均衡数据的优化分类方法和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105787046A (zh) * 2016-02-28 2016-07-20 华东理工大学 一种基于单边动态下采样的不平衡数据分类***
CN105868775A (zh) * 2016-03-23 2016-08-17 深圳市颐通科技有限公司 基于pso算法的不平衡样本分类方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10452995B2 (en) * 2015-06-29 2019-10-22 Microsoft Technology Licensing, Llc Machine learning classification on hardware accelerators with stacked memory
CN104951809A (zh) * 2015-07-14 2015-09-30 西安电子科技大学 基于不平衡分类指标与集成学***衡数据分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105787046A (zh) * 2016-02-28 2016-07-20 华东理工大学 一种基于单边动态下采样的不平衡数据分类***
CN105868775A (zh) * 2016-03-23 2016-08-17 深圳市颐通科技有限公司 基于pso算法的不平衡样本分类方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHUNKAI ZHANG等: "A New Approach for Imbalanced Data Classification Based on Minimize Loss Learning", 《2017 IEEE SECOND INTERNATIONAL CONFERENCE ON DATA SCIENCE IN CYBERSPACE》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985382A (zh) * 2018-05-25 2018-12-11 清华大学 基于关键数据通路表示的对抗样本检测方法
CN108921095A (zh) * 2018-07-03 2018-11-30 安徽灵图壹智能科技有限公司 一种基于神经网络的停车位管理***、方法及停车位
CN110751175A (zh) * 2019-09-12 2020-02-04 上海联影智能医疗科技有限公司 损失函数的优化方法、装置、计算机设备和存储介质
CN111082470A (zh) * 2020-01-15 2020-04-28 合肥工业大学 含低风速分散式风电的配电网多目标动态鲁棒重构方法
CN113627485A (zh) * 2021-07-10 2021-11-09 南京理工大学 基于admm的不平衡大数据分布式分类方法
CN114327045A (zh) * 2021-11-30 2022-04-12 中国科学院微电子研究所 基于类别不平衡信号的跌倒检测方法及***
CN114327045B (zh) * 2021-11-30 2024-07-26 中国科学院微电子研究所 基于类别不平衡信号的跌倒检测方法及***

Also Published As

Publication number Publication date
WO2019033636A1 (zh) 2019-02-21

Similar Documents

Publication Publication Date Title
CN107578061A (zh) 基于最小化损失学***衡样本分类方法
Wu et al. Hyperparameter optimization for machine learning models based on Bayesian optimization
CN110263227B (zh) 基于图神经网络的团伙发现方法和***
CN109002845B (zh) 基于深度卷积神经网络的细粒度图像分类方法
CN108388651B (zh) 一种基于图核和卷积神经网络的文本分类方法
US20220076150A1 (en) Method, apparatus and system for estimating causality among observed variables
CN113326731B (zh) 一种基于动量网络指导的跨域行人重识别方法
CN109242223B (zh) 城市公共建筑火灾风险的量子支持向量机评估与预测方法
CN109389151B (zh) 一种基于半监督嵌入表示模型的知识图谱处理方法和装置
CN108846512B (zh) 基于择优分类的水质预测方法
CN110674323B (zh) 基于虚拟标签回归的无监督跨模态哈希检索方法及***
CN110889015B (zh) 面向图数据的独立解耦卷积神经网络表征方法
CN111882040A (zh) 基于通道数量搜索的卷积神经网络压缩方法
CN111814897A (zh) 一种基于多层次shapelet的时间序列数据分类方法
CN109165743A (zh) 一种基于深度压缩自编码器的半监督网络表示学习算法
CN103324954A (zh) 一种基于树结构的图像分类方法及其***
US11695898B2 (en) Video processing using a spectral decomposition layer
CN111476261A (zh) 一种社区增强的图卷积神经网络方法
Quek et al. A novel approach to the derivation of fuzzy membership functions using the Falcon-MART architecture
CN112766603A (zh) 一种交通流量预测方法、***、计算机设备及存储介质
Kim et al. Knowledge extraction and representation using quantum mechanics and intelligent models
CN103559510B (zh) 一种利用相关主题模型识别社会群体行为的方法
KR100869554B1 (ko) 영역 밀도 표현에 기반한 점진적 패턴 분류 방법
Gu et al. Fuzzy time series forecasting based on information granule and neural network
US20050278352A1 (en) Using affinity measures with supervised classifiers

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180112

RJ01 Rejection of invention patent application after publication