CN111797885A - 用于分类的***和方法 - Google Patents

用于分类的***和方法 Download PDF

Info

Publication number
CN111797885A
CN111797885A CN202010222558.XA CN202010222558A CN111797885A CN 111797885 A CN111797885 A CN 111797885A CN 202010222558 A CN202010222558 A CN 202010222558A CN 111797885 A CN111797885 A CN 111797885A
Authority
CN
China
Prior art keywords
data set
training
training data
classifier
labeled input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010222558.XA
Other languages
English (en)
Inventor
李章焕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Display Co Ltd
Original Assignee
Samsung Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Display Co Ltd filed Critical Samsung Display Co Ltd
Publication of CN111797885A publication Critical patent/CN111797885A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Robotics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Error Detection And Correction (AREA)
  • Image Analysis (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种用于分类的***和方法。在一些实施例中,该方法包括:从被标记的输入数据集形成第一训练数据集和第二训练数据集;利用第一训练数据集训练第一分类器;利用第二训练数据集训练变分自编码器,变分自编码器包括编码器和解码器;通过将伪随机向量馈入解码器来生成第三数据集;使用第一分类器标记第三数据集以形成第三训练数据集;基于第三数据集形成第四训练数据集;以及利用第四训练数据集训练第二分类器。

Description

用于分类的***和方法
相关申请的交叉引用
本申请要求2019年4月5日提交的题为“用于跟踪数据集的数据扩充的***和方法”的第62/830,131号美国临时申请的优先权和权益,该申请的全部内容通过引用合并于此。
技术领域
根据本公开的实施例的一个或多个方面涉及分类器,并且更具体地涉及在训练分类器时使用的用于数据扩充的***和方法。
背景技术
当使用对二元类具有数据不平衡的数据进行训练时,或者当在给定输入数据维度的情况下训练数据的量相对小时,自动分类器可能表现出相对差的性能。
因此,需要用于数据扩充的改进的***和方法。
发明内容
根据本发明的实施例,提供了一种用于分类的方法,该方法包括:从被标记的输入数据集形成第一训练数据集和第二训练数据集;利用第一训练数据集训练第一分类器;利用第二训练数据集训练变分自编码器,变分自编码器包括编码器和解码器;通过将伪随机向量馈入解码器来生成第三数据集;使用第一分类器标记第三数据集以形成第三训练数据集;基于第三数据集形成第四训练数据集;并且利用第四训练数据集训练第二分类器。
在一些实施例中,第一训练数据集是被标记的输入数据集。
在一些实施例中,第二训练数据集是被标记的输入数据集。
在一些实施例中,形成第一训练数据集包括:对被标记的输入数据集进行过采样,以产生第一补充数据集;并且组合被标记的输入数据集和第一补充数据集,以形成第一训练数据集。
在一些实施例中,对被标记的输入数据集进行过采样包括使用合成少数类过采样技术。
在一些实施例中,对被标记的输入数据集进行过采样包括使用自适应合成过采样技术。
在一些实施例中,第四训练数据集与第三训练数据集相同。
在一些实施例中,形成第四训练数据集包括:组合被标记的输入数据集的第一部分和第三训练数据集,以形成第四训练数据集。
在一些实施例中,形成第四训练数据集包括:组合被标记的输入数据集的第一部分、第一补充数据集和第三训练数据集,以形成第四训练数据集。
在一些实施例中,该方法进一步包括:利用与被标记的输入数据集的第一部分不同的被标记的输入数据集的第二部分,来验证第二分类器。
在一些实施例中,形成第二训练数据集包括:对被标记的输入数据集进行过采样,以产生第一补充数据集;并且组合被标记的输入数据集和第一补充数据集,以形成第二训练数据集。
在一些实施例中,被标记的输入数据集包括:包括第一数量的数据元的多数类数据和包括第二数量的数据元的少数类数据,第一数量超过第二数量至少五倍。
在一些实施例中,第一数量超过第二数量至少十五倍。
根据本发明的实施例,提供了一种用于分类的***,包括:处理电路,被配置为:从被标记的输入数据集形成第一训练数据集和第二训练数据集;利用第一训练数据集训练第一分类器;利用第二训练数据集训练变分自编码器,变分自编码器包括编码器和解码器;通过将伪随机向量馈入解码器来生成第三数据集;使用第一分类器标记第三数据集,以形成第三训练数据集;基于第三数据集形成第四训练数据集;并且利用第四训练数据集训练第二分类器。
在一些实施例中,第一训练数据集是被标记的输入数据集。
在一些实施例中,第二训练数据集是被标记的输入数据集。
在一些实施例中,处理电路被配置为:对被标记的输入数据集进行过采样,以产生第一补充数据集;并且组合被标记的输入数据集和第一补充数据集,以形成第一训练数据集。
在一些实施例中,处理电路被配置为使用合成少数类过采样技术对被标记的输入数据集进行过采样。
在一些实施例中,处理电路被配置为使用自适应合成过采样技术对被标记的输入数据集进行过采样。
根据本发明的实施例,提供了一种用于将被制造的部件分类为良品或次品的***,该***包括:数据收集电路;以及处理电路,处理电路被配置为:从被标记的输入数据集形成第一训练数据集和第二训练数据集;利用第一训练数据集训练第一分类器;利用第二训练数据集训练变分自编码器,变分自编码器包括编码器和解码器;通过将伪随机向量馈入解码器来生成第三数据集;使用第一分类器标记第三数据集,以形成第三训练数据集;基于第三数据集形成第四训练数据集;并且利用第四训练数据集训练第二分类器。
附图说明
将参考说明书、权利要求和附图来领会和理解本公开的这些和其他特征以及优点,其中:
图1是根据本公开的实施例的用于分类的***的框图;
图2是根据本公开的实施例的用于训练和验证分类器的方法的流程图;
图3A是根据本公开的实施例的用于训练和验证分类器的方法的一部分的流程图;
图3B是根据本公开的实施例的用于训练和验证分类器的方法的一部分的流程图;
图3C是根据本公开的实施例的用于训练和验证分类器的方法的一部分的流程图;
图3D是根据本公开的实施例的用于训练和验证分类器的方法的一部分的流程图;
图3E是根据本公开的实施例的用于训练和验证分类器的方法的一部分的流程图;
图3F是根据本公开的实施例的用于训练和验证分类器的方法的一部分的流程图;
图4是根据本公开的实施例的测试结果的表格;以及
图5是根据本公开的实施例的测试结果的表格。
具体实施方式
以下结合附图阐述的详细描述旨在描述根据本公开提供的用于数据扩充的***和方法的示例性实施例,并且不旨在表示本公开可被构造或利用的唯一形式。描述结合所例示的实施例阐述了本公开的特征。然而,应理解,相同或等效的功能和结构可以通过旨在也被涵盖在本公开的范围内的不同实施例来完成。如本文中其他地方所指代的,相同的附图标记旨在指示相同的元素或特征。
二元类的分类器可以具有将数据样本分配给两个类中的一个的任务,并且用于训练这种分类器的训练数据可能存在显著失衡。例如,在用于制造电子部件的制造过程中,可能的情况是多数的部件是可接受的或“良好的”,而少数的部件在某些方面有缺陷或“不良好的”。为此,当在制造和测试过程期间获得数据时,大多数的数据可能来自良好的设备,即,数据中可能存在不平衡。当训练自动分类器以将部件分类为“良好”或“不良好”时,这种不平衡可能成为障碍。
此外,针对每个部件获得的测量值的数量可能很大,即,每个数据样本(数据元,是要被分类的项目(诸如被制造的部件)的测量值的集合)的维度可能很大。当训练自动分类器时,尤其是鉴于每个数据元的维度当任一类的训练数据元的数量少时,这可能是进一步的障碍。
例如,当制造移动显示器时,可以在显示面板的制造过程期间获取跟踪数据。跟踪数据可以包括例如作为时间的函数的、在制造过程中的温度和压力的测量值。可以使用多个温度传感器和压力传感器,并且每个传感器可以被采样多次(例如,在几天的时间内,每天三次或四次)。由这些测量值产生的跟踪数据可以例如包括大约64次跟踪,每次跟踪具有大约304个测量值,例如,总计超过19000个测量值,使得每个数据元具有超过19000个维度。
如以下进一步详细描述的,各种方法可以被使用以解决以上提到的障碍中的一些。参考图1,在一些实例中,用于检测故障部件的***包括一个或多个数据收集电路105(数据收集电路105可以包括例如温度传感器和压力传感器、放大器以及模数转换器)、数据预处理电路110(数据预处理电路110可以对数据进行重新格式化,如以下进一步详细讨论的)以及可以是深度学习(DL)神经网络的分类器115。
数据预处理电路110可以从数据收集电路105接收原始跟踪数据(例如,如以上提到的多次跟踪),并且可以将原始跟踪数据重新格式化为例如二维阵列(例如,224×224阵列)。二维阵列的大小可以被选择为与通常由神经网络分类的图像的大小相当。然后,重新格式化可以使得有可能重新使用实现图像的神经网络分类器的代码的特定部分,以在一些实施例中使用。
图2示出了在一些实施例中用于训练和验证分类器的流程图。从数据预处理电路110接收被标记的输入数据集(或“输入数据集”)205,被标记的输入数据集205包括每个被标记为“良好”(或“G”)的第一数量的数据样本(例如,几千个数据元)以及每个被标记为“不良好”(或“NG”)的第二数量的数据样本(例如,在10个到100个之间的数据元)。可以在210处采用过采样(如以下进一步详细讨论的)以生成包括一个或两个类的附加数据样本的第一补充数据集。然后,被标记的输入数据集205和第一补充数据集可以用于在215处使用利用第一训练数据集(第一训练数据集可以是,可以包括被标记的输入数据集205和第一补充数据集两者的组合(或“联合”))的监督式学习来训练第一分类器(或“基线二元分类器”)。在一些实施例中,可以省略在210处的过采样的步骤或过采样的结果,并且可以仅使用被标记的输入数据集205来训练第一分类器。
然后,在220处,可以使用由第一分类器(例如,利用由第一分类器的训练产生的权重进行编程的、训练后的第一分类器或其神经网络的副本)的训练产生的模型来标记第三数据集,以形成第三训练数据集。机器学习模型可以是包括分类器、回归器、自动编码器等的多种形式中的任一种。在225处,第三数据集可以通过使用变分自编码器的数据扩充方法来生成,如以下进一步详细讨论的。在225处,数据扩充方法可以使用第二训练数据集作为输入,该第二训练数据集可以是例如被标记的输入数据集205,或者被标记的输入数据集205和第一补充数据集的组合。
然后,在230处,可以使用(i)被标记的输入数据集205的第一部分235(由数据集分离器240从被标记的输入数据集205产生)、(ii)第一补充数据集以及(iii)第三训练数据集中的一个或多个部分的组合,来训练第二分类器。然后,在245处,可以使用被标记的输入数据集205的第二部分250(也由数据集分离器240从被标记的输入数据集205产生)验证由第二分类器(例如,利用由第二分类器的训练产生的权重进行编程的、训练后的第二分类器或其神经网络的副本)的训练产生的模型。第二部分250(用于验证)可以与第一部分235(用于训练)不同,例如,第二部分250可以是被标记的输入数据集205的其余部分。
在245处的验证步骤中,训练后的第二分类器的性能(即,由第二分类器的训练产生的模型的性能)可以用于评估第二分类器是否适合用于生产,例如,用于针对每个被制造的部件确定该被制造的部件是要使用还是丢弃(或返工)。
图3A是过采样步骤(在图2中的210处)的流程图。在210处,对被标记的输入数据集205进行过采样,以形成第一补充数据集(或“过采样的数据集”)305。可以使用SMOTE(合成少数类过采样技术)或ADASYN(自适应合成)过采样来执行过采样,SMOTE和ADASYN过采样中的每种都可以用于创建少数类(例如,“不良好”类)中的数据元的数据集。ADASYN可以通过向每个数据元添加一个小的随机向量(或“偏移”)来偏移所产生的数据元中的每个数据元,以减少第一补充数据集305的数据元可能干扰其他类(例如,可以是“良好”类的多数类)的可能性。
图3B是第一分类器的在215处(图2)的训练的流程图。在215处,使用(i)被标记的输入数据集205和(ii)第一补充数据集305中的一个或两者来训练第一分类器,从而得到第一分类器模型(或“基线二元分类器模型”)310。
图3C是数据扩充(在图2的225处)的流程图。变分自编码器可以包括编码器和解码器。编码器可以将每个接收到的数据元映射或“编码”为满足以下约束条件的向量或“本征向量”:本征向量具有近似于单位高斯分布(即,近似于向量的元素是独立的高斯分布的向量分布,例如,每个元素具有均值和方差)的分布。解码器可以执行编码器的操作的近似逆;解码器可以将编码器产生的每个本征向量映射到一(合成)数据元,该数据元近似于编码器会映射为该本征向量的数据元。编码器和解码器可以利用高斯分布的正则化与代表数据元的训练集(例如,以上提到的第二训练集)和代价函数一起训练,该代价函数是对编码器的输入和解码器的输出之间的差的度量。一旦训练了编码器和解码器,就可以将伪随机本征向量(被生成以具有单位高斯分布)馈入解码器中,以生成合成数据元(例如,以生成第三数据集315(或“VAE数据集”))。如果利用来自两个类的数据元(即,同时具有“良好”数据元和“不良好”数据元)训练变分自编码器,则合成数据元可以是未标记的。
图3D是标记(在图2中的220处)第三数据集以形成第三训练数据集的流程图。第三数据集315通过第一分类器模型310被分类,并且第三数据集315的每个数据元被标记,以形成第三训练数据集(或“被标记的VAE数据集”)320。图3E是训练第二分类器(在图2中的230处)的流程图。在230处,使用(i)被标记的输入数据集205的第一部分235(由数据集分离器240从被标记的输入数据集205产生)、(ii)第一补充数据集305以及(iii)第三训练数据集320中的一个或多个(或一个或多个的相应部分)来训练第二分类器,从而得到第二分类器模型(或“二元分类器模型”)325。图3F是分类器验证(在图2中的245处)的流程图。被标记的输入数据集205的第二部分250的每个数据元被馈入训练后的第二分类器(或“第二分类器模型”)325,并且在330处将产生的每个分类与数据元的标记进行比较。然后基于分类与标记相符的程度评估第二分类器的性能。
图4的表格示出了使用过采样和原始G数据集的80%、利用基线二元分类器模型310的一个实施例执行的测试的结果。根据图2中图示的方法处理包括“良好”类中的3936个数据元和“不良好”类中的22个数据元的被标记的输入数据集205。使用过采样(在图2中的210处)来将(i)“不良好”数据元与(ii)“良好”数据元的比率增加到0.1:1或1:1。图4的表格(在第一列中)示出了所使用的训练数据集的“良好”数据元和“不良好”数据元的分类准确度,并且(在第二列中)示出了验证数据集的“良好”数据元和“不良好”数据元的分类准确度。
图5的表格示出了在一个实施例中第二分类器模型325的性能测试的结果。利用(i)来自VAE的合成样本(第三训练数据集320),包括3238个G样本和6762个NG样本,(ii)通过过采样产生的2000个NG样本,以及(iii)从输入数据集205中的G样本中随机选择的2000个真实G样本,来训练第二分类器。
可以看出,图5中示出的性能明显比图4中示出的性能好,即,在分别与图4和图5对应的测试中第二分类器明显胜过第一(基线)分类器。此外,使用输入数据集205的G样本中较小的一部分达到了图5的结果;输入数据集205的G样本的80%在产生图4的结果的测试中用于训练分类器,然而输入数据集205的G样本(2000个G样本)中只有50.8%在产生图5的结果的测试中用于训练分类器。
在一些实施例中,k折验证用于获得对根据本文描述的方法构造的分类器115的准确度的更可靠的评估。
在一些实施例中,第一分类器(或“第一分类器模型”310)和第二分类器(或“第二分类器模型”)325中的每一个可以是如本文所描述的适当训练后的SqueezeNet、ResNet或VggNet神经网络。可以如在arxiv.org/abs/1312.6114可获得的、D.Kingma和M.Welling的“自动编码变化贝叶斯(Auto-Encoding Variational Bayes)”中所描述的来构造变分自编码器,其全部内容通过引用合并于此。
在一些实施例中,数据预处理电路110、分类器115和执行图2中图示的方法的***中的一个或多个以一个或多个处理电路实现。术语“处理电路”在本文中用于指被采用以处理数据或数字信号的硬件、固件和软件的任何组合。处理电路硬件可以包括例如专用集成电路(ASIC)、通用或专用中央处理单元(CPU)、数字信号处理器(DSP)、图形处理单元(GPU)和诸如现场可编程门阵列(FPGA)的可编程逻辑器件。在处理电路中,如本文中使用的,每个功能由被配置(即,被硬连线)为执行该功能的硬件执行,或由被配置为执行存储在非暂时性存储介质中的指令的更通用的硬件(诸如CPU)执行。处理电路可以在单个印刷电路板(PCB)上被制作或分布在几个互连的PCB上。处理电路可以包含其他处理电路;例如,处理电路可以包括在PCB上互连的两个处理电路、FPGA和CPU。
如本文中使用的,事物的“部分”是指事物的全部或少于全部。这样,数据集的部分是指数据集的适当的子集或者整个数据集。
将理解的是,虽然术语“第一”、“第二”、“第三”等可以在本文中用于描述各种元件、组件、区域、层和/或部分,但是这些元件、组件、区域、层和/或部分不应该受这些术语的限制。这些术语仅用于将一个元件、组件、区域、层或部分与另一元件、组件、区域、层或部分相区分。因此,本文中讨论的第一元件、第一组件、第一区域、第一层或第一部分可以被称为第二元件、第二组件、第二区域、第二层或第二部分,而不脱离本发明构思的精神和范围。
本文中使用的术语仅用于描述具体的实施例的目的,并且不旨在限制本发明构思。如本文中使用的,术语“基本上”、“大约”以及类似术语被用作近似的术语并且不用作程度的术语,并且旨在考虑会被本领域普通技术人员所认识到的测量或计算的值中的固有偏差。如本文中使用的,术语“主要成分”是指组合物、聚合物或产品中存在的、量比组合物、聚合物或产品中任何其他单一成分的量大的成分。比较而言,术语“基本成分”是指构成组合物、聚合物或产品的至少50%重量或更多的成分。如本文中使用的,术语“主要部分”当被应用于多个项目时是指项目的至少一半。
如本文中使用的,单数形式的“一”旨在也包括复数形式,除非上下文另有明确指示。将进一步理解,术语“包括”和/或“包含”在本说明书中使用时指定存在所陈述的特征、整体、步骤、操作、元件和/或组件,但不排除一个或多个其他特征、整体、步骤、操作、元件、组件和/或其组合的存在或附加。如本文中使用的,术语“和/或”包括所关联列出的项目中的一个或多个的任意和全部组合。诸如“…中的至少一个”的表达,在位于元件列表之后时,修饰整个元件列表并且不修饰列表的个别元件。此外,在描述本发明构思的实施例时,使用“可以”指的是“本公开的一个或多个实施例”。此外,术语“示例性”意在指的是示例或例示。如本文中使用的,术语“使用”可被认为与术语“利用”同义。
将理解的是,当元件或层被称为“位于”另一元件或层“上”、“连接到”、“联接到”或“邻近于”另一元件或层时,该元件或层可以直接位于另一元件或层上,直接连接到、联接到或邻近于另一元件或层,或者可以存在一个或多个中间元件或中间层。相反,当元件或层被称为“直接位于”另一元件或层“上”、“直接连接到”、“直接联接到”或“直接邻近于”另一元件或层时,不存在中间元件或中间层。
本文中记载的任何数值范围旨在包括归入所记载的范围内的相同数值精度的所有子区间。例如,“1.0至10.0”的范围旨在包括在所记载的最小值1.0与所记载的最大值10.0之间(并且含所记载的最小值1.0和所记载的最大值10.0)的所有子区间,也就是说,具有等于或大于1.0的最小值以及等于或小于10.0的最大值,诸如,例如,2.4至7.6。本文中记载的任何最大数值限制旨在包括归入在最大数值限制中的所有较低的数值限制,并且本说明书中记载的任何最小数值限制旨在包括归入在最小数值限制中的所有较高的数值限制。
尽管本文已具体地描述和例示了用于数据扩充的***和方法的示例性实施例,但是许多修改和变化对于本领域技术人员而言将是显而易见的。因此,应理解,根据本公开的原理构造的用于数据扩充的***和方法可以以不同于本文具体地描述的方式体现。本发明也在所附权利要求及其等同物中限定。

Claims (20)

1.一种用于分类的方法,所述方法包括:
从被标记的输入数据集形成第一训练数据集和第二训练数据集;
利用所述第一训练数据集训练第一分类器;
利用所述第二训练数据集训练变分自编码器,所述变分自编码器包括编码器和解码器;
通过将伪随机向量馈入所述解码器,来生成第三数据集;
使用所述第一分类器标记所述第三数据集,以形成第三训练数据集;
基于所述第三数据集形成第四训练数据集;并且
利用所述第四训练数据集训练第二分类器。
2.根据权利要求1所述的方法,其中,所述第一训练数据集是所述被标记的输入数据集。
3.根据权利要求1所述的方法,其中,所述第二训练数据集是所述被标记的输入数据集。
4.根据权利要求1所述的方法,其中,所述形成第一训练数据集包括:
对所述被标记的输入数据集进行过采样,以产生第一补充数据集;并且
组合所述被标记的输入数据集和所述第一补充数据集,以形成所述第一训练数据集。
5.根据权利要求4所述的方法,其中,所述对所述被标记的输入数据集进行过采样包括使用合成少数类过采样技术。
6.根据权利要求4所述的方法,其中,所述对所述被标记的输入数据集进行过采样包括使用自适应合成过采样技术。
7.根据权利要求4所述的方法,其中,所述第四训练数据集与所述第三训练数据集相同。
8.根据权利要求4所述的方法,其中,所述形成第四训练数据集包括:组合所述被标记的输入数据集的第一部分和所述第三训练数据集,以形成所述第四训练数据集。
9.根据权利要求4所述的方法,其中,所述形成第四训练数据集包括:组合所述被标记的输入数据集的第一部分、所述第一补充数据集和所述第三训练数据集,以形成所述第四训练数据集。
10.根据权利要求9所述的方法,进一步包括:利用与所述被标记的输入数据集的所述第一部分不同的所述被标记的输入数据集的第二部分,来验证所述第二分类器。
11.根据权利要求1所述的方法,其中,所述形成第二训练数据集包括:
对所述被标记的输入数据集进行过采样,以产生第一补充数据集;并且
组合所述被标记的输入数据集和所述第一补充数据集,以形成所述第二训练数据集。
12.根据权利要求1所述的方法,其中,所述被标记的输入数据集包括:
包括第一数量的数据元的多数类数据和包括第二数量的数据元的少数类数据,
所述第一数量超过所述第二数量至少五倍。
13.根据权利要求12所述的方法,其中,所述第一数量超过所述第二数量至少十五倍。
14.一种用于分类的***,包括:
处理电路,被配置为:
从被标记的输入数据集形成第一训练数据集和第二训练数据集;
利用所述第一训练数据集训练第一分类器;
利用所述第二训练数据集训练变分自编码器,所述变分自编码器包括编码器和解码器;
通过将伪随机向量馈入所述解码器来生成第三数据集;
使用所述第一分类器标记所述第三数据集,以形成第三训练数据集;
基于所述第三数据集形成第四训练数据集;并且
利用所述第四训练数据集训练第二分类器。
15.根据权利要求14所述的***,其中,所述第一训练数据集是所述被标记的输入数据集。
16.根据权利要求14所述的***,其中,所述第二训练数据集是所述被标记的输入数据集。
17.根据权利要求14所述的***,其中,所述处理电路被配置为:
对所述被标记的输入数据集进行过采样,以产生第一补充数据集;并且
组合所述被标记的输入数据集和所述第一补充数据集,以形成所述第一训练数据集。
18.根据权利要求17所述的***,其中,所述处理电路被配置为使用合成少数类过采样技术对所述被标记的输入数据集进行过采样。
19.根据权利要求17所述的***,其中,所述处理电路被配置为使用自适应合成过采样技术对所述被标记的输入数据集进行过采样。
20.一种用于将被制造的部件分类为良品或次品的***,所述***包括:
数据收集电路;以及
处理电路,
所述处理电路被配置为:
从被标记的输入数据集形成第一训练数据集和第二训练数据集;
利用所述第一训练数据集训练第一分类器;
利用所述第二训练数据集训练变分自编码器,所述变分自编码器包括编码器和解码器;
通过将伪随机向量馈入所述解码器来生成第三数据集;
使用所述第一分类器标记所述第三数据集,以形成第三训练数据集;
基于所述第三数据集形成第四训练数据集;并且
利用所述第四训练数据集训练第二分类器。
CN202010222558.XA 2019-04-05 2020-03-26 用于分类的***和方法 Pending CN111797885A (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201962830131P 2019-04-05 2019-04-05
US62/830,131 2019-04-05
US16/442,298 2019-06-14
US16/442,298 US11922301B2 (en) 2019-04-05 2019-06-14 System and method for data augmentation for trace dataset

Publications (1)

Publication Number Publication Date
CN111797885A true CN111797885A (zh) 2020-10-20

Family

ID=69526091

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010222558.XA Pending CN111797885A (zh) 2019-04-05 2020-03-26 用于分类的***和方法

Country Status (6)

Country Link
US (1) US11922301B2 (zh)
EP (1) EP3719709A1 (zh)
JP (1) JP7489784B2 (zh)
KR (1) KR20200118351A (zh)
CN (1) CN111797885A (zh)
TW (1) TW202107345A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112419324A (zh) * 2020-11-24 2021-02-26 山西三友和智慧信息技术股份有限公司 一种基于半监督任务驱动的医学图像数据扩充方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7899625B2 (en) * 2006-07-27 2011-03-01 International Business Machines Corporation Method and system for robust classification strategy for cancer detection from mass spectrometry data
US20130132331A1 (en) 2010-03-08 2013-05-23 National Ict Australia Limited Performance evaluation of a classifier
US20130097103A1 (en) 2011-10-14 2013-04-18 International Business Machines Corporation Techniques for Generating Balanced and Class-Independent Training Data From Unlabeled Data Set
US9037518B2 (en) 2012-07-30 2015-05-19 Hewlett-Packard Development Company, L.P. Classifying unclassified samples
JP6335910B2 (ja) * 2012-10-25 2018-05-30 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 臨床決定支援に対する、血栓症に対する臨床的リスク因子及び分子マーカの組み合わされた使用
US9224104B2 (en) 2013-09-24 2015-12-29 International Business Machines Corporation Generating data from imbalanced training data sets
US20160092789A1 (en) 2014-09-29 2016-03-31 International Business Machines Corporation Category Oversampling for Imbalanced Machine Learning
GB201508032D0 (en) 2015-05-12 2015-06-24 Rolls Royce Plc Methods and apparatus for predicting fault occurrence in mechanical systems and electrical systems
US20160358099A1 (en) 2015-06-04 2016-12-08 The Boeing Company Advanced analytical infrastructure for machine learning
CN105589806B (zh) 2015-12-17 2018-05-18 北京航空航天大学 一种基于SMOTE+Boosting算法的软件缺陷倾向预测方法
US10043261B2 (en) 2016-01-11 2018-08-07 Kla-Tencor Corp. Generating simulated output for a specimen
KR101744194B1 (ko) 2016-08-19 2017-06-09 인하대학교 산학협력단 반도체 fab 제조공정에서 유클리드 거리를 활용한 웨이퍼 자동 불량 검사 분류 예측 장치 및 방법
US11205103B2 (en) * 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
JP7017861B2 (ja) 2017-03-23 2022-02-09 株式会社日立製作所 異常検知システムおよび異常検知方法
WO2018175098A1 (en) 2017-03-24 2018-09-27 D5Ai Llc Learning coach for machine learning system
CN107103332B (zh) 2017-04-07 2018-06-26 武汉理工大学 一种面向大规模数据集的相关向量机分类方法
CN107391370B (zh) 2017-07-13 2020-05-12 武汉大学 一种基于数据过采样和集成学习的软件缺陷数目预测方法
US11599790B2 (en) 2017-07-21 2023-03-07 Landmark Graphics Corporation Deep learning based reservoir modeling
MX2018011305A (es) * 2017-09-18 2019-07-04 Tata Consultancy Services Ltd Técnicas para corregir el desvío de entrenamiento lingüístico en los datos de entrenamiento.
IL256480B (en) 2017-12-21 2021-05-31 Agent Video Intelligence Ltd A system and method for use in training machine learning
CN108563556A (zh) 2018-01-10 2018-09-21 江苏工程职业技术学院 基于差分演化算法的软件缺陷预测优化方法
WO2019155467A1 (en) 2018-02-07 2019-08-15 Applied Materials Israel Ltd. Method of generating a training set usable for examination of a semiconductor specimen and system thereof
US11372893B2 (en) * 2018-06-01 2022-06-28 Ntt Security Holdings Corporation Ensemble-based data curation pipeline for efficient label propagation
US10832003B2 (en) 2018-08-26 2020-11-10 CloudMinds Technology, Inc. Method and system for intent classification
US11366982B2 (en) * 2018-09-24 2022-06-21 Sap Se Computer systems for detecting training data usage in generative models
US20200143274A1 (en) * 2018-11-06 2020-05-07 Kira Inc. System and method for applying artificial intelligence techniques to respond to multiple choice questions
US11928610B2 (en) 2018-11-19 2024-03-12 Koninklijke Philips N.V. Clinical case search and generation system and method based on a probabilistic encoder-generator framework
US11610098B2 (en) * 2018-12-27 2023-03-21 Paypal, Inc. Data augmentation in transaction classification using a neural network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112419324A (zh) * 2020-11-24 2021-02-26 山西三友和智慧信息技术股份有限公司 一种基于半监督任务驱动的医学图像数据扩充方法
CN112419324B (zh) * 2020-11-24 2022-04-19 山西三友和智慧信息技术股份有限公司 一种基于半监督任务驱动的医学图像数据扩充方法

Also Published As

Publication number Publication date
JP7489784B2 (ja) 2024-05-24
US11922301B2 (en) 2024-03-05
US20200320439A1 (en) 2020-10-08
EP3719709A1 (en) 2020-10-07
JP2020173786A (ja) 2020-10-22
TW202107345A (zh) 2021-02-16
KR20200118351A (ko) 2020-10-15

Similar Documents

Publication Publication Date Title
EP3800588B1 (en) System and method using knowledge distillation for training a machine learning classifier
US20210096530A1 (en) System and method for identifying manufacturing defects
Li et al. Few-Shot Learning with Generative Adversarial Networks Based on WOA13 Data.
CN111027576A (zh) 基于协同显著性生成式对抗网络的协同显著性检测方法
US20230259760A1 (en) System and method for defect detection
CN103646256A (zh) 一种基于图像特征稀疏重构的图像分类方法
EP3779873A1 (en) Image processing device and image processing method
CN114926693A (zh) 基于加权距离的sar图像小样本识别方法及装置
CN112508929A (zh) 一种训练生成对抗网络的方法和装置
CN111797885A (zh) 用于分类的***和方法
CN116743555A (zh) 一种鲁棒多模态网络运维故障检测方法、***及产品
CN114299358A (zh) 图像质量评估方法、装置、电子设备及机器可读存储介质
CN113516153B (zh) 学习多个随机变量之间的随机推断模型的方法和装置
CN111222558B (zh) 图像处理方法及存储介质
CN110929301B (zh) 一种基于提升算法的硬件木马检测方法
CN110033105B (zh) 一种复杂工况下非平衡数据集的悬浮***故障检测方法
CN116129251A (zh) 办公桌椅的智能化制造方法及其***
CN109991578A (zh) 基于盲压缩核字典学习的多分量雷达信号调制识别方法
CN113569934B (zh) Logo分类模型构建方法、***、电子设备及存储介质
CN110443289B (zh) 检测偏离分布样本的方法和***
CN110880182A (zh) 图像分割模型训练方法、图像分割方法、装置及电子设备
CN115311477B (zh) 一种基于超分辨率重建的模仿式商标精准检测方法及***
Rathinam et al. Fault classification in mixed signal circuits using artificial neural networks
US20230139347A1 (en) Per-embedding-group activation quantization
US20220129736A1 (en) Mixed-precision quantization method for neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination