CN112183577A - 一种半监督学习模型的训练方法、图像处理方法及设备 - Google Patents

一种半监督学习模型的训练方法、图像处理方法及设备 Download PDF

Info

Publication number
CN112183577A
CN112183577A CN202010899716.5A CN202010899716A CN112183577A CN 112183577 A CN112183577 A CN 112183577A CN 202010899716 A CN202010899716 A CN 202010899716A CN 112183577 A CN112183577 A CN 112183577A
Authority
CN
China
Prior art keywords
training
semi
supervised learning
model
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010899716.5A
Other languages
English (en)
Inventor
杜泽伟
胡恒通
谢凌曦
田奇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202010899716.5A priority Critical patent/CN112183577A/zh
Publication of CN112183577A publication Critical patent/CN112183577A/zh
Priority to EP21859844.9A priority patent/EP4198820A4/en
Priority to PCT/CN2021/102726 priority patent/WO2022042002A1/zh
Priority to US18/173,310 priority patent/US20230196117A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0895Weakly supervised learning, e.g. semi-supervised or self-supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7753Incorporation of unlabelled data, e.g. multiple instance learning [MIL]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例公开了一种半监督学习模型的训练方法、图像处理方法及设备,可应用于人工智能领域的计算机视觉领域,该方法包括:首先通过训练后的第一半监督学习模型对一部分无标签样本的分类类别进行预测,得到预测标签,并通过一比特标注的方式判断各预测标签是否正确,如果预测正确则获得该样本的正确标签(即正标签),否则可排除掉该样本的一个错误标签(即负标签),之后,在下一训练阶段,利用上述信息重新构建训练集(即第一训练集),并根据第一训练集重新训练初始半监督学习模型,从而提高模型的预测准确率,由于一比特标注只需标注者针对预测标签回答“是”或“否”,该标注方式能缓解机器学习中需要大量有正确标签数据的人工标注压力。

Description

一种半监督学习模型的训练方法、图像处理方法及设备
技术领域
本申请涉及机器学习领域,尤其涉及一种半监督学习模型的训练方法、图像处理方法及设备。
背景技术
传统的机器学习任务分为无监督学习(数据无标签,如聚类、异常检测等)和监督学习(数据有标签,如分类、回归等),而半监督学习(semi-supervised learning,SSL)是模式识别和机器学习领域研究的重点问题,属于监督学习与无监督学习相结合的一种学习方法。半监督学习使用大量的无标签数据和一部分有标签数据来进行模式识别工作。
现实场景中数据的标签获取往往是十分昂贵的,然而现有的半监督学习模型对有标签数据的数量有一定要求,当有标签数据达到一定数量,半监督学习模型的泛化能力才能明显增强,并且半监督学习模型的预测准确率仍然有较大的提升空间。
基于此,利用少量有标签数据训练得到一种更高预测准确率的半监督学习模型的方法亟待推出。
发明内容
本申请实施例提供了一种半监督学习模型的训练方法、图像处理方法及设备,用于在当前训练阶段,通过训练后的第一半监督学习模型预测一部分无标签样本的分类类别(即标签),如果预测正确则获得该样本的正确标签,否则可排除掉该样本的一个错误标签,之后,在下一训练阶段利用上述信息重新构建训练集(即第一训练集)更新初始半监督学习模型,从而提高模型的预测准确率。
基于此,本申请实施例提供以下技术方案:
第一方面,本申请实施例首先提供一种半监督学习模型的训练方法,可用于人工智能领域中,该方法可以包括:首先,训练设备根据获取到的初始训练集训练初始半监督学习模型(可简称为初始模型),从而得到训练后的第一半监督学习模型(可简称为训练后的第一模型),该初始训练集中,一部分为有标签样本,另一部分为无标签样本,其中,这部分有标签样本称为第一有标签样本集,这部分无标签样本称为第一无标签样本集。得到训练后的第一模型后,训练设备再从初始训练集中的第一无标签样本集选取初始子集,初始子集中的各个无标签样本构成测试数据,用于对训练后的第一模型进行测试,通过该训练后的第一模型对选出的初始子集中的各个无标签样本进行预测,从而得到选取出的每个无标签样本对应的预测标签(训练后的第一模型会输出选取出来的每个无标签样本的在各个分类类别上的概率预测,通常选择概率最大的一个分类类别作为模型对该样本的预测标签),各个预测标签就构成第一预测标签集。得到第一预测标签集之后,训练设备将根据该第一预测标签集对初始子集进行一比特标注,由于这种做法提供了log22=1比特(bit)的信息量(即“是”或“否”),因此称为一比特标注。如上述所述,一比特标注的方式具体为:标注者针对每个预测样本对应的预测标签回答一个“是”或“否”的问题,若预测标签是预测正确的分类类别,则获得该无标签样本的正标签(也可称为正确标签),比如,预测标签为“狗”,对于该无标签样本的真实标签也是“狗”,那么则预测正确,该无标签样本获得正标签“狗”;若预测标签是预测错误的分类类别,则获得该无标签样本的负标签,据此可排除掉该无标签样本的一个错误标签,比如,预测标签为“猫”,对于该无标签样本的真实标签确是“狗”,那么则预测错误,该无标签样本获得负标签“不是猫”。经过一比特标注后,初始子集就被分为了第一子集和第二子集,其中,第一子集为预测正确的分类类别(即正标签)对应的样本集合,第二子集为预测错误的分类类别(即负标签)对应的样本集合。在获得一比特标注的结果后,即获得了相应数量的正标签和负标签,之后,训练设备重新构建训练集,重新构建的训练集可称为第一训练集,构建的具体方式可以是将正标签样本(即第一子集)与已有的有标签样本放到一起,作为本阶段的有标签样本,也可称为第二有标签样本集;各个负标签样本(即第二子集)就构成本阶段的负标签样本集;第一无标签样本集中余下的无标签样本就构成本阶段的第二无标签样本集。这三类样本共同构成第一训练集。构建好第一训练集后,再根据该第一训练集重新训练初始模型,得到训练后的能力更强的第二半监督学习模型(可简称为训练后的第二模型)。
在本申请上述实施方式中,首先,通过训练后的第一半监督学习模型对一部分无标签样本的分类类别进行预测,得到预测标签,并判断各个预测标签是否正确,如果预测正确则获得该样本的正确标签(即正标签),否则可排除掉该样本的一个错误标签(即负标签),之后,在下一训练阶段,训练设备再利用上述信息重新构建训练集(即第一训练集),并根据该第一训练集重新训练初始半监督学习模型,从而提高模型的预测准确率,并且,由于只需对预测标签回答“是”或“否”,这种标注方式能够缓解机器学习中需要大量有正确标签数据的人工标注压力。
在第一方面的一种可能的实现方式中,初始半监督学习模型的网络结构具体可以有多种表现形式,例如,可以包括如下模型中的任意一种:Π-model、VAT、LPDSSL、TNAR、pseudo-label、DCT、mean teacher模型。
在本申请上述实施方式中,阐述了可应用本申请实施例提供的训练方法的半监督学习模型可以有哪些,具备普适性和可选择性。
在第一方面的一种可能的实现方式中,若初始半监督学***衡系数,是通过训练得到的一个可调节的参数,loss是整个半监督学习模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。
在本申请上述实施方式中,阐述了当初始半监督学习模型的损失函数为一个时,可针对负标签样本集再构建一个新的损失函数,即针对训练集中的不同类型的样本集,对应采用不同的损失函数,再基于总的损失函数对该初始半监督学习模型进行训练,更具有针对性。
在第一方面的一种可能的实现方式中,本申请实施例的训练方法除了可以用于训练上述原本只有一个损失函数的半监督学***衡系数,是通过训练得到的一个可调节的参数,loss是整个mean teacher模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。因此,训练设备根据第一训练集训练初始半监督学***衡系数,是通过训练得到的可调节的参数,loss是整个mean teacher模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。
在本申请上述实施方式中,阐述了当初始半监督学习模型是mean teacher模型时,也可针对负标签样本集再构建一个新的损失函数,即针对训练集中的不同类型的样本集,对应采用不同的损失函数,再基于总的损失函数对该初始半监督学习模型进行训练,更具有针对性。
在第一方面的一种可能的实现方式中,该第三损失函数可以为交叉熵损失函数;和/或,该第四损失函数可以为均方误差损失函数。
在本申请上述实施方式中,阐述了在mean teacher模型中,第三损失函数和第四损失函数的具体形式,具备可实现性。
在第一方面的一种可能的实现方式中,将第二无标签样本集作为新的第一无标签样本集、第二半监督学习模型作为新的第一半监督学习模型,重复执行上述步骤,直至第二无标签样本集为空。
在本申请上述实施方式中,通常当能够获得更多的正确标签的训练样本,模型的精度就会得到提升。因此最直接的方法是将训练过程分为多个阶段,每个阶段从第一无标签样本集中选出部分样本进行预测,针对预测标签重新构建训练集,再利用重新构建的训练集更新模型,从而每个阶段得到的训练后的第二半监督学习模型的泛化能力和预测准确率都比上一阶段得到的第二半监督学习模型更强。
在第一方面的一种可能的实现方式中,在根据第一训练集训练初始半监督学习模型,得到训练后的第二半监督学习模型之后,上述方法还包括:将训练后的第二半监督学习模型部署在目标设备上,该目标设备就用于获取目标图像,该训练后的第二半监督学习模型就用于对目标图像进行标签预测。
在本申请上述实施方式中,阐述了训练好的第二半监督学习模型的具体用处,即部署在目标设备上用于对目标图像进行标签预测,即用来对图像进行类别预测,相比于已有的训练方法训练得到的半监督学习模型,本申请实施例提供的训练后的第二半监督学习模型提高了目标图像识别的准确率。
在第一方面的一种可能的实现方式中,训练设备从第一无标签样本集选取初始子集具体可以是:从第一无标签样本集中随机选取预设数量的无标签样本构成初始子集。
在本申请上述实施方式中,阐述了如何从第一无标签样本集中选取无标签样本来构成初始子集的一种实现方式,随机选择的方式保证了选取样本的均衡。
本申请实施例第二方面还提供一种图像处理方法,该方法具体包括:首先,执行设备获取目标图像;之后,执行设备再将所述目标图像作为训练后的半监督学习模型的输入,输出对所述目标图像的预测结果,所述训练后的半监督学习模型为上述第一方面或第一方面任意一种可能实现方式中得到的第二半监督学习模型。
在本申请上述实施方式中,阐述了训练后的第二半监督学习模型的一种应用方式,即用来对图像进行类别预测,相比于已有的训练方法训练得到的半监督学习模型,本申请实施例提供的半监督学习模型提高了目标图像识别的准确率。
本申请实施例第三方面提供一种训练设备,该训练设备具有实现上述第一方面或第一方面任意一种可能实现方式的方法的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
本申请实施例第四方面提供一种执行设备,该执行设备具有实现上述第二方面的方法的功能。该功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。该硬件或软件包括一个或多个与上述功能相对应的模块。
本申请实施例第五方面提供一种训练设备,可以包括存储器、处理器以及总线***,其中,存储器用于存储程序,处理器用于调用该存储器中存储的程序以执行本申请实施例第一方面或第一方面任意一种可能实现方式的方法。
本申请实施例第六方面提供一种训练设备,可以包括存储器、处理器以及总线***,其中,存储器用于存储程序,处理器用于调用该存储器中存储的程序以执行本申请实施例第二方面的方法。
本申请实施例第七方面提供一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机可以执行上述第一方面或第一方面任意一种可能实现方式的方法,或,使得计算机可以执行上述第二方面的方法。
本申请实施例第八方面提供了一种计算机程序或计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面或第一方面任意一种可能实现方式的方法,或,使得计算机可以执行上述第二方面的方法。
附图说明
图1为本申请实施例提供的半监督学习模型训练和推理的一个过程示意图;
图2为本申请实施例提供的主动学习模型训练和推理的一个过程示意图;
图3为mean teacher模型的一个示意图;
图4为本申请实施例提供的人工智能主体框架的一种结构示意图;
图5为本申请实施例提供的半监督学习模型的训练方法的一个总体流程图;
图6为本申请实施例提供的任务处理***的一种***架构的示意图;
图7为本申请实施例提供的半监督学习模型的训练方法的一个流程示意图;
图8为本申请实施例提供的半监督学习模型的训练方法一个流程示意图;
图9为本申请实施例提供的mean teacher模型训练过程的一个示意图;
图10为本申请实施例提供的图像处理方法的一种流程示意图;
图11为本申请实施例提供的应用场景的一个示意图;
图12为本申请实施例提供的应用场景的另一示意图;
图13为本申请实施例提供的应用场景的另一示意图;
图14为本申请实施例提供的训练设备的一个示意图;
图15为本申请实施例提供的执行设备的一个示意图;
图16为本申请实施例提供的训练设备的另一示意图;
图17为本申请实施例提供的执行设备的另一示意图;
图18为本申请实施例提供的芯片的一种结构示意图。
具体实施方式
本申请实施例提供了一种半监督学习模型的训练方法、图像处理方法及设备,用于在当前训练阶段,通过训练后的第一半监督学习模型预测一部分无标签样本的分类类别(即标签),如果预测正确则获得该样本的正确标签,否则可排除掉该样本的一个错误标签,之后,在下一训练阶段利用上述信息重新构建训练集(即第一训练集)更新初始半监督学习模型,从而提高模型的预测准确率。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的术语在适当情况下可以互换,这仅仅是描述本申请的实施例中对相同属性的对象在描述时所采用的区分方式。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便包含一系列单元的过程、方法、***、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它单元。
本申请实施例涉及了许多关于半监督学习、学习模型等相关知识,为了更好地理解本申请实施例的方案,下面先对本申请实施例可能涉及的相关术语和概念进行介绍。应理解的是,相关的术语和概念解释可能会因为本申请实施例的具体情况有所限制,但并不代表本申请仅能局限于该具体情况,在不同实施例的具体情况可能也会存在差异,具体此处不做限定。
(1)神经网络
神经网络可以是由神经单元组成的,具体可以理解为具有输入层、隐含层、输出层的神经网络,一般来说第一层是输入层,最后一层是输出层,中间的层数都是隐含层。其中,具有很多层隐含层的神经网络则称为深度神经网络(deep neural network,DNN)。神经网络中的每一层的工作可以用数学表达式
Figure BDA0002659501310000061
来描述,从物理层面,神经网络中的每一层的工作可以理解为通过五种对输入空间(输入向量的集合)的操作,完成输入空间到输出空间的变换(即矩阵的行空间到列空间),这五种操作包括:1、升维/降维;2、放大/缩小;3、旋转;4、平移;5、“弯曲”。其中1、2、3的操作由
Figure BDA0002659501310000062
完成,4的操作由“+b”完成,5的操作则由“a()”来实现。这里之所以用“空间”二字来表述是因为被分类的对象并不是单个事物,而是一类事物,空间是指这类事物所有个体的集合,其中,W是神经网络各层的权重矩阵,该矩阵中的每一个值表示该层的一个神经元的权重值。该矩阵W决定着上文所述的输入空间到输出空间的空间变换,即神经网络每一层的W控制着如何变换空间。训练神经网络的目的,也就是最终得到训练好的神经网络的所有层的权重矩阵。因此,神经网络的训练过程本质上就是学习控制空间变换的方式,更具体的就是学习权重矩阵。
需要注意的是,在本申请实施例中,基于机器学习(如,主动学习、监督学习、无监督学习、半监督学习等)任务所采用的学习模型(也可称为学习器、模型等),本质都是神经网络。
(2)损失函数(loss function)
在训练神经网络的过程中,因为希望神经网络的输出尽可能的接近真正想要预测的值,可以通过比较当前网络的预测值和真正想要的目标值,再根据两者之间的差异情况来更新每一层神经网络的权重矩阵(当然,在第一次更新之前通常会有初始化的过程,即为神经网络中的各层预先配置参数),比如,如果网络的预测值高了,就调整权重矩阵让它预测低一些,不断的调整,直到神经网络能够预测出真正想要的目标值。因此,就需要预先定义“如何比较预测值和目标值之间的差异”,这便是损失函数(loss function)或目标函数(objective function),它们是用于衡量预测值和目标值的差异的重要方程。其中,以损失函数举例,损失函数的输出值(loss)越高表示差异越大,那么神经网络的训练就变成了尽可能缩小这个loss的过程。
在神经网络的训练过程中,可以采用误差反向传播(back propagation,BP)算法修正初始的神经网络模型中参数的大小,使得神经网络模型的重建误差损失越来越小。具体地,前向传递输入信号直至输出会产生误差损失,通过反向传播误差损失信息来更新初始的神经网络模型中的参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,旨在得到最优的神经网络模型的参数,例如权重矩阵。
(3)特征
特征是指输入变量,即简单线性回归中的x变量,简单的机器学习任务可能会使用单个特征,而比较复杂的机器学习任务可能会使用数百万个特征。
(4)标签
标签是简单线性回归中的y变量,标签可以是小麦未来的价格、图片中显示的动/植物品种、音频剪辑的含义或任何事物。在本申请实施例中,标签是指图片的分类类别。比如说有一张猫的图片,人们都知道它是只猫,但是计算设备不知道它是只猫,怎么办呢?那么给这张图片打上一个标签,该标签就用于向计算设备指示该图片蕴含的信息是“猫”,然后计算设备就知道它是只猫,计算设备根据这个标签对所有的猫进行学习就能通过这一只猫认识所有的猫。因此,给数据打标签,就是告诉计算设备,输入变量的多个特征描述的是什么(即y),y可以称之为label,也可以称之为target(即目标值)。
(5)样本
样本是指数据的特定实例,一个样本x代表的是一个对象,样本x通常用一个特征向量x=(x1,x2,…,xd)∈Rd表示,其中,d代表样本x的维度(即特征个数),样本分为有标签样本和无标签样本,有标签样本同时包含特征和标签,无标签样本包含特征但不包含标签,机器学习的任务往往就是学习输入的d维训练样本集(可简称为训练集)中潜在的模式。
(6)模型
在本申请实施例中,基于机器学习(如,主动学习、监督学习、无监督学习、半监督学习等)任务所采用的学习模型(也可称为学习器、模型等),本质都是神经网络。模型定义了特征与标签之间的关系,模型的应用一般包括训练和推理两个阶段,训练阶段用于根据训练集对模型进行训练,以得到训练后的模型;推理阶段用于将训练后的模型对真实的无标签实例进行标签预测,而预测准确率是衡量一个模型训练的好坏的重要指标之一。
(7)半监督学习(semi-supervised learning,SSL)
根据训练样本是否有标签,传统的机器学习任务分为监督学习和无监督学习,监督学习指的是训练样本包含标记信息(即数据有标签)的学习任务,例如:常见的分类与回归算法;无监督学习则是训练样本不包含标记信息(即数据无标签)的学习任务,例如:聚类算法、异常检测算法等。在实际生活中,遇到的情况往往是两者的折衷,即仅有部分样本是带标签的,另一部分样本是不带标签的,如果仅使用带标签或不带标签的样本,则一方面会造成部分样本的浪费,另一方面由于所使用的样本量较小,训练得到的模型效果并不是很好。例如:做网页推荐时需要让用户标记出感兴趣的网页,但是少有用户愿意花时间来提供标记,若直接丢弃掉无标签样本集,使用传统的监督学习方法,常常会由于训练样本的不充足,使得模型刻画总体分布的能力减弱,从而影响了模型的泛化性能。
基于此,半监督学习应运而生,半监督学习是属于监督学习与无监督学习相结合的一种学习方法,对应所使用的模型可称为半监督学习模型,如图1所示,图1示意的是半监督学习模型训练和推理的过程,该模型所使用的训练集由一部分有标签样本(少部分)和另一部分无标签样本(大部分)构成,半监督学习的基本思想是利用数据分布上的模型假设建立模型对无标签样例进行标签,让模型不依赖外界交互、自动地利用未标记样本来提升学习性能。
(8)主动学习(active learning)
当使用一些传统的监督学习方法做分类时,往往是训练样本规模越大,分类效果就越好。但在现实生活的很多场景中,有标签样本的获取比较困难,这需要领域内的专家(即标注者)来进行人工标注出正确标签,所花费的时间成本和经济成本都很大。而且,如果训练样本的规模过于庞大,训练的时间花费也会比较多。那有没有办法能够使用较少的有标签样本来获得性能较好的模型呢?主动学习提供了这种可能。
主动学习所使用的训练集与半监督学习所使用的训练集类似,如图2所示,图2示意的是主动学习模型训练和推理的过程,该模型所使用的训练集也是由一部分有标签样本(少部分)和另一部分无标签样本(大部分)构成,但与半监督学习模型不同的地方在于:主动学习的基本思想是首先仅用训练集中这部分有标签样本训练主动学习模型,再基于该主动学习模型对无标签样本进行预测,从中挑选出不确定性高或分类置信度低的样本(如,图2中查询到的无标签样本a)来咨询专家并进行标记,如,专家人工识别出该选出来的无标签样本为“马”,那么就给该无标签样本标记标签“马”,之后,将专家标记上真实标签的样本归为训练集中有标签样本那一类,再使用扩充后的有标签样本重新训练该主动学习模型,以提高模型的精确度。主动学习的问题是:需要专家参与样本的正确标记(即标记真实标签)。
(9)mean teacher模型
mean teacher模型也可称为教师学生模型(teacher-student model),是一种半监督学***均得到。mean teacher模型中的两个子模型的网络结构是一样的,在训练过程中,学生模型的网络参数根据损失函数梯度下降法更新得到;教师模型的网络参数通过学生模型的网络参数迭代得到。
由于mean teacher模型属于半监督学***衡系数,是通过训练得到的一个可调节的参数,loss是整个mean teacher模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。在每个step中,更新学生模型的网络参数后,再利用学生模型的网络参数更新教师模型的网络参数。其中,图3中教师模型中的网络参数θ’是由学生模型中的网络参数θ更新得到,更新的方式是通过滑动平均(exponential moving average)更新,图3中的教师模型中的η’为对输入增加扰动处理的参数。
下面结合附图,对本申请的实施例进行描述。本领域普通技术人员可知,随着技术的发展和新场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
首先,对人工智能***总体工作流程进行描述,请参见图4,图4示出的为人工智能主体框架的一种结构示意图,下面从“智能信息链”(水平轴)和“IT价值链”(垂直轴)两个维度对上述人工智能主题框架进行阐述。其中,“智能信息链”反映从数据的获取到处理的一列过程。举例来说,可以是智能信息感知、智能信息表示与形成、智能推理、智能决策、智能执行与输出的一般过程。在这个过程中,数据经历了“数据—信息—知识—智慧”的凝练过程。“IT价值链”从人智能的底层基础设施、信息(提供和处理技术实现)到***的产业生态过程,反映人工智能为信息技术产业带来的价值。
(1)基础设施
基础设施为人工智能***提供计算能力支持,实现与外部世界的沟通,并通过基础平台实现支撑。通过传感器与外部沟通;计算能力由智能芯片(CPU、NPU、GPU、ASIC、FPGA等硬件加速芯片)提供;基础平台包括分布式计算框架及网络等相关的平台保障和支持,可以包括云存储和计算、互联互通网络等。举例来说,传感器和外部沟通获取数据,这些数据提供给基础平台提供的分布式计算***中的智能芯片进行计算。
(2)数据
基础设施的上一层的数据用于表示人工智能领域的数据来源。数据涉及到图形、图像、语音、文本,还涉及到传统设备的物联网数据,包括已有***的业务数据以及力、位移、液位、温度、湿度等感知数据。
(3)数据处理
数据处理通常包括数据训练、机器学习、深度学习、搜索、推理、决策等方式。
其中,机器学习和深度学习可以对数据进行符号化和形式化的智能信息建模、抽取、预处理、训练等。
推理是指在计算机或智能***中,模拟人类的智能推理方式,依据推理控制策略,利用形式化的信息进行机器思维和求解问题的过程,典型的功能是搜索与匹配。
决策是指智能信息经过推理后进行决策的过程,通常提供分类、排序、预测等功能。
(4)通用能力
对数据经过上面提到的数据处理后,进一步基于数据处理的结果可以形成一些通用的能力,比如可以是算法或者一个通用***,例如,翻译,文本的分析,计算机视觉的处理,语音识别,图像的识别等等。
(5)智能产品及行业应用
智能产品及行业应用指人工智能***在各领域的产品和应用,是对人工智能整体解决方案的封装,将智能信息决策产品化、实现落地应用,其应用领域主要包括:智能终端、智能制造、智能交通、智能家居、智能医疗、智能安防、自动驾驶、平安城市等。
本申请实施例可以应用在机器学习中各种学习模型的训练方法优化上,而通过本申请的训练方法训练得到的学习模型具体可以应用在人工智能领域的各个细分领域中,如,计算机视觉领域、图像处理领域等,具体的,结合图4来讲,本申请实施例中基础设施获取的数据集中的数据可以是通过摄像头、雷达等传感器获取到的不同类型的多个数据(也可称为训练数据或训练样本,多个训练数据就构成训练集),也可以是多个图像数据或多个视频数据,只要该训练集满足用于对学习模型进行迭代训练的功能即可,具体此处对训练集内的数据类型不限定。为便于理解,以下本申请实施例均以训练集为图像数据为例进行示意。这里需要注意的是,本申请实施例所用的训练集包括一部分有标签样本(少部分)和另一部分无标签样本(大部分),这部分有标签样本可事先由标注者人工标记出真实标签。
本申请实施例半监督学习模型的训练方法的总体流程如图5所示,首先,根据初始训练集的有标签样本和无标签样本对初始半监督学习模型(可简称为初始模型)进行训练,得到训练后的第一半监督学习模型(可简称为训练后的第一模型),之后,从初始训练集内所有无标签样本中选取一部分无标签样本作为训练后的第一模型的输入,由训练后的第一模型对这部分选取出来的无标签样本进行预测,得到选取出来的每个无标签样本的预测标签,再对各个预测标签进行一比特标注,由于这种做法提供了log22=1比特(bit)的信息量(即“是”或“否”),因此称为一比特标注。一比特标注的方式具体为:标注者针对每个预测样本对应的预测标签回答一个“是”或“否”的问题,若预测标签是预测正确的分类类别,则获得该无标签样本的正标签(也可称为正确标签),比如,预测标签为“狗”,对于该无标签样本的真实标签也是“狗”,那么则预测正确,该无标签样本获得正标签“狗”;若预测标签是预测错误的分类类别,则获得该无标签样本的负标签,据此可排除掉该无标签样本的一个错误标签,比如,预测标签为“猫”,对于该无标签样本的真实标签确是“狗”,那么则预测错误,该无标签样本获得负标签“不是猫”。在每一阶段获得一比特标注的结果后,即获得了相应数量的正标签和负标签,将正标签样本与已有的有标签样本放到一起,作为本阶段的有标签样本,对于负标签样本,与之前拥有的负标签样本合并到一起,此外还有余下的无标签样本,这构成了本阶段的所有的三类样本,这三类样本共同构成第一训练集,之后根据该第一训练集训练初始模型,得到训练后的能力更强的第二半监督学习模型(可简称为训练后的第二模型),最后利用训练后的第二模型的预测标签再次进行一比特标注,就可以得到更多的正标签,不断重复这一过程就可以得到能力越来越强的新模型。
需要说明的是,图5所述的应用流程可部署在训练设备上,请参阅图6,图6为本申请实施例提供的任务处理***的一种***架构图,在图6中,任务处理***200包括执行设备210、训练设备220、数据库230、客户设备240、数据存储***250和数据采集设备260,执行设备210中包括计算模块211。其中,数据采集设备260用于获取用户需要的开源的大规模数据集(即图4所示的初始训练集),并将初始训练集以及后续基于初始训练集构建的第一训练集、第二训练集等各个阶段的训练集存入数据库230中,训练设备220基于数据库230中的维护的各个阶段的训练集对目标模型/规则201(即上述所述的各个阶段的初始模型)进行训练,训练得到的训练后的模型(如,上述所述的第二模型)再在执行设备210上进行运用。执行设备210可以调用数据存储***250中的数据、代码等,也可以将数据、指令等存入数据存储***250中。数据存储***250可以置于执行设备210中,也可以为数据存储***250相对执行设备210是外部存储器。
经由训练设备220训练后的第二模型可以应用于不同的***或设备(即执行设备210)中,具体可以是边缘设备或端侧设备,例如,手机、平板、笔记本电脑、监控***(如,摄像头)、安防***等等。在图6中,执行设备210配置有I/O接口212,与外部设备进行数据交互,“用户”可以通过客户设备240向I/O接口212输入数据。如,客户设备240可以是监控***的摄像设备,通过该摄像设备拍摄的目标图像作为输入数据输入至执行设备210的计算模块211,由计算模块211对输入的该目标图像进行检测后得出检测结果(即预测标签),再将该检测结果输出至摄像设备或直接在执行设备210的显示界面(若有)进行显示;此外,在本申请的一些实施方式中,客户设备240也可以集成在执行设备210中,如,当执行设备210为手机时,则可以直接通过该手机获取到目标任务(如,可以通过该手机的摄像头拍摄到目标图像,或,通过该手机的录音模块录取到的目标语音等,此处对目标任务不做限定)或者接收其他设备(如,另一个手机)发送的目标任务,再由该手机内的计算模块211对该目标任务进行检测后得出检测结果,并直接将该检测结果呈现在手机的显示界面。此处对执行设备210与客户设备240的产品形态不做限定。
值得注意的,图6仅是本申请实施例提供的一种***架构的示意图,图中所示设备、器件、模块等之间的位置关系不构成任何限制,例如,在图6中,数据存储***250相对执行设备210是外部存储器,在其它情况下,也可以将数据存储***250置于执行设备210中;在图6中,客户设备240相对执行设备210是外部设备,在其他情况下,客户设备240也可以集成在执行设备210中。
还需要说明的是,上述实施例所述的初始模型的训练可以是均在云侧实现,例如,可以由云侧的训练设备220(该训练设备220可设置在一个或多个服务器或者虚拟机上)获取训练集,并根据训练集内的训练样本对初始模型进行训练,得到训练后的第二模型,之后,该训练后的第二模型再发送给执行设备210进行应用,例如,发送给执行设备210进行标签预测,示例性地,图6对应的***架构中所述,就是由训练设备220对初始模型进行整体训练,训练后的第二模型再发送给执行设备210进行使用;上述实施例所述的初始模型的训练也可以是均在终端侧实现,即训练设备220可以是位于终端侧,例如,可以由终端设备(如,手机、智能手表等)、轮式移动设备(如,自动驾驶车辆、辅助驾驶车辆等)等获取训练集,并根据训练集内的训练样本对初始模型进行训练,得到训练后的第二模型,该训练后的第二模型就可以直接在该终端设备使用,也可以由该终端设备发送给其他的设备进行使用。具体本申请实施例对第二模型在哪个设备(云侧或终端侧)上进行训练或应用不做限定。
接下来介绍本申请实施例所提供的半监督学习模型的训练方法,请参阅图7,图7为本申请实施例提供的半监督学习模型的训练方法的一种流程示意图,具体可以包括如下步骤:
701、根据初始训练集训练初始半监督学习模型,得到训练后的第一半监督学习模型,初始训练集包括第一有标签样本集和第一无标签样本集。
首先,训练设备根据获取到的初始训练集训练初始半监督学习模型(可简称为初始模型),从而得到训练后的第一半监督学习模型(可简称为训练后的第一模型),该初始训练集中,一部分为有标签样本,另一部分为无标签样本,其中,这部分有标签样本称为第一有标签样本集,这部分无标签样本称为第一无标签样本集。
这里需要说明的是,根据初始训练集如何训练一个已知网络结构的初始半监督学习模型是已知的,具体此处不予赘述。
702、从第一无标签样本集选取初始子集,并通过训练后的第一半监督学习模型对所述初始子集进行预测,得到第一预测标签集。
训练设备得到训练后的第一模型后,再从初始训练集中的第一无标签样本集选取初始子集,初始子集中的各个无标签样本构成测试数据,用于对训练后的第一模型进行测试,通过该训练后的第一模型对选出的初始子集中的各个无标签样本进行预测,从而得到选取出的每个无标签样本对应的预测标签(训练后的第一模型会输出选取出来的每个无标签样本的在各个分类类别上的概率预测,通常选择概率最大的一个分类类别作为模型对该样本的预测标签),各个预测标签就构成第一预测标签集。
为便于理解,下面举例进行示意:假设初始训练集中包括330个训练样本,其中,30个为有标签样本,300个为无标签样本,那么这30个有标签样本就构成上述所述的第一有标签样本集,这300个无标签样本就构成上述所述的第一无标签样本集。首先,根据初始训练集中的330个训练样本对初始模型进行训练,得到训练后的第一模型,之后,再从这300个无标签样本中选取部分无标签样本构成初始子集,假设选出的是100个无标签样本,那么这100个无标签样本就依次输入训练后的第一模型进行预测,分别得到对应的100个预测标签,这100个预测标签就构成上述所述的第一预测标签集。
需要说明的是,在本申请的一些实施方式中,训练设备从第一无标签样本集中选取初始子集的方式包括但不限于如下方式:从第一无标签样本集中随机选取预设数量的无标签样本构成初始子集。例如,假设第一无标签样本集包括300个无标签样本,可以从中随机选取预设数量(如,100、150等)的无标签样本构成该初始子集。
703、根据第一预测标签集将初始子集分为第一子集和第二子集,第一子集为预测正确的分类类别对应的样本集合,第二子集为预测错误的分类类别对应的样本集合。
训练设备得到第一预测标签集之后,将根据该第一预测标签集对初始子集进行一比特标注,由于这种做法提供了log22=1比特(bit)的信息量(即“是”或“否”),因此称为一比特标注。如上述所述,一比特标注的方式具体为:标注者针对每个预测样本对应的预测标签回答一个“是”或“否”的问题,若预测标签是预测正确的分类类别,则获得该无标签样本的正标签(也可称为正确标签),比如,预测标签为“狗”,对于该无标签样本的真实标签也是“狗”,那么则预测正确,该无标签样本获得正标签“狗”;若预测标签是预测错误的分类类别,则获得该无标签样本的负标签,据此可排除掉该无标签样本的一个错误标签,比如,预测标签为“猫”,对于该无标签样本的真实标签确是“狗”,那么则预测错误,该无标签样本获得负标签“不是猫”。经过一比特标注后,初始子集就被分为了第一子集和第二子集,其中,第一子集为预测正确的分类类别(即正标签)对应的样本集合,第二子集为预测错误的分类类别(即负标签)对应的样本集合。
需要注意的是,在本申请的一些实施方式中,标注者可以是本领域的人工标注者,即通过人工标注者判断这些预测标签是否正确,即需要标注者在观察该样本后,回答该样本是否属于预测的那个类别,预测正确则得到该样本的正确标签(即正标签),预测错误则得到该样本的错误标签(即负标签)。在本申请的另一些实施方式中,标注者可以是计算设备,该计算设备已知各个无标签样本的真实标签,计算设备将同一个无标签样本的真实标签与预测标签进行比对,从而判断该样本是否属于预测的那个类别,预测正确则得到该样本的正确标签(即正标签),预测错误则得到该样本的错误标签(即负标签)。具体本申请实施例对标注者的具体表现形式不做限定。
704、构建第一训练集,所述第一训练集包括第二有标签样本集、第二无标签样本集和负标签样本集。
训练设备在获得一比特标注的结果后,即获得了相应数量的正标签和负标签,之后,训练设备将重新构建训练集,重新构建的训练集可称为第一训练集,构建的具体方式可以是:将正标签样本(即第一子集)与已有的有标签样本放到一起,作为本阶段的有标签样本,也可称为第二有标签样本集;各个负标签样本(即第二子集)就构成本阶段的负标签样本集;第一无标签样本集中余下的无标签样本就构成本阶段的第二无标签样本集。这三类样本共同构成第一训练集。
705、根据第一训练集训练初始半监督学习模型,得到训练后的第二半监督学习模型。
构建好第一训练集后,训练设备再根据该第一训练集重新训练初始模型,得到训练后的能力更强的第二半监督学习模型(可简称为训练后的第二模型)。
需要说明的是,由于本申请构建的第一训练集相对于初始训练集不同的地方在于:多了一个负标签样本集,针对有标签样本集和无标签样本集,依然采用原有的方式进行训练,针对负标签样本集,则构建一个新的损失函数,利用新构建的损失函数对负标签样本集进行训练,该新构建的损失函数定义为模型输出的预测值与修改值之间的差值,所述修改值为将预测错误的分类类别在预测值上的对应维度置为零的值。
为便于针对负标签样本构建的对应损失函数,下面举例进行示意:一般来说,模型对输入的某个样本(假设样本为图片)进行预测,输出的预测值为一个n维向量,这n个维度表示的就是n个分类类别,这n个维度上的取值就表示每个对应的分类类别的预测概率,通常选择预测概率最大的一个分类类别作为模型对该样本的预测标签,该预测概率一般为归一化后的预测概率,即所有的分类类别的预测概率相加和为1。假设有6个分类类别,分别为“猪”、“狗”、“猫”、“马”、“羊”、“鹅”,将样本输入模型后,模型会输出样本在上述各个分类类别上的概率预测,假设模型输出的预测值为[0.05,0.04,0.01,0.5,0.32,0.08],且预测值各个维度的分类类别依次对应“猪”、“狗”、“猫”、“马”、“羊”、“鹅”这6个分类类别,那么由输出的预测值可知,对应“马”这个分类类别的预测概率最大,因此模型对该样本的预测标签为“马”,假设通过一比特标注后发现针对该样本的预测标签是个负标签,即该样本的负标签为“不是马”,因此将对应“马”的那个维度的取值修改为零,即将0.5修改成0,那么修改值则为[0.05,0.04,0.01,0,0.32,0.08],然后将上述预测值与该修改值之间的差值定义针对负标签样本集构建的损失函数。
需要说明的是,在本申请的一些实施方式中,所采用的半监督学习模型(可简称为模型)不同,那么根据第一训练集进行训练的过程也会有些不同,下面分别进行阐述:
(1)初始半监督学习模型的损失函数为一个的情况。
在本申请的一些实施方式中,训练设备根据第一训练集训练初始模型,得到训练后的第二模型具体可以是:针对第二有标签样本集和第二无标签样本集,训练设备根据第二有标签样本集和第二无标签样本集,利用第一损失函数对初始半监督学习模型进行训练,该第一损失函数就为初始半监督学习模型原有的损失函数loss1;针对负标签样本集,训练设备则根据该负标签样本集,利用第二损失函数对初始半监督学习模型进行训练,第二损失函数(可称为loss2)就为模型输出的预测值与修改值之间的差值,所述修改值为将预测错误的分类类别在预测值上的对应维度置为零的值,该第二损失函数loss2就为上述所述的针对无标签样本集构建的新的损失函数,具体此处不予赘述。
最后,根据loss=loss1+σ*loss2更新该初始模型,其中,σ表示平衡系数,是通过训练得到的一个可调节的参数,loss是整个半监督学习模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。
需要说明的是,在本申请的一些实施方式中,该初始半监督学习模型包括如下模型中的任意一种:Π-model、VAT、LPDSSL、TNAR、pseudo-label、DCT。这些模型原有的损失函数均为一个且均已知。
(2)初始半监督学习模型的损失函数为多个的情况。
在本申请的一些实施方式中,本申请实施例的训练方法除了可以用于训练上述原本只有一个损失函数的半监督学习模型,还可以用于训练损失函数有两个或多于两个的半监督学习模型,过程是类似的,下面以半监督学习模型为mean teacher模型为例,对初始半监督学习模型的损失函数为多个的情况进行示意。
下面先介绍一下mean teacher模型的训练策略:假设训练样本为有标签样本(x1,y1)以及无标签样本x2,其中,y1为x1的标签。将有标签样本(x1,y1)输入学生模型,从而计算损失函数1的输出值loss11;将无标签样本x2输入学生模型,从而计算得到预测标签label1,将无标签样本x2进行一些数据处理(一般为增加噪声的扰动处理)后输入教师模型,从而计算得到预测标签label2。如果mean teacher模型足够稳定,那么预测标签label1和预测标签label2应该是一样的,即教师模型能抵抗无标签样本x2的扰动,也就是说,希望学生模型和教师模型的预测标签尽量相等,因此根据lable1和label2得到损失函数2的输出值loss12。最后,根据loss=loss11+λ*loss12更新学生模型,其中,λ表示平衡系数,是通过训练得到的一个可调节的参数,loss是整个mean teacher模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。
基于该mean teacher模型,针对第二有标签样本集,训练设备根据第二有标签样本集,利用第三损失函数对mean teacher模型进行训练,该第三损失函数就为上述所述的损失函数1(即loss11);训练设备还将根据第二有标签样本集和第二无标签样本集,利用第四损失函数对mean teacher模型进行训练,该第四损失函数就为上述所述的损失函数2(即loss12),该第三损失函数loss11和第四损失函数loss12均为mean teacher模型原有的损失函数;此外,针对负标签样本,训练设备还会根据负标签样本集,利用第五损失函数对mean teacher模型进行训练,该第五损失函数(可称为loss13)就为模型输出的预测值与修改值之间的差值,所述修改值为将预测错误的分类类别在所述预测值上的对应维度置为零的值,该第五损失函数loss13就为上述所述的针对无标签样本集构建的新的损失函数,具体此处不予赘述。
需要说明的是,在本申请的一些实施方式中,第三损失函数loss11可以是交叉损失函数,第四损失函数loss12可以是均方误差损失函数。
最后,根据loss=loss11+λ*loss12+γ*loss13更新该初始的mean teacher模型,其中,λ和γ均表示平衡系数,是通过训练得到的可调节的参数,loss是整个mean teacher模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。
706、将第二无标签样本集作为新的第一无标签样本集、第二半监督学习模型作为新的第一半监督学习模型,重复执行步骤702至步骤705,直至第二无标签样本集为空。
上述步骤702至步骤705的过程是得到训练后的第二模型的一个阶段(可称为阶段1),通常当能够获得更多的正确标签的训练样本,模型的精度会得到提升。最直接的方法是将训练过程分为多个阶段,因此,在本申请的一些实施方式中,为使得泛化能力更强的第二模型,一般会经过多个阶段的训练,即利用训练后的第二模型的预测标签再次进行一比特标注,就可以得到更多的正标签,不断重复这一过程就可以得到能力越来越强的新模型。具体地,训练设备就是将第二无标签样本集作为新的第一无标签样本集,并将第二半监督学习模型作为新的第一半监督学习模型,重复执行步骤702至步骤705,直至第二无标签样本集为空。
需要说明的是,在本申请的一些实施方式中,也可以不包括步骤706,即只进行一个阶段的训练,得到一个训练阶段的训练后的第二模型,该第二模型相对已有的训练方法,其泛化能力也是提高了的。
还需要说明的是,在本申请的一些实施方式中,假设构成初始子集的无标签样本就是第一无标签样本中的所有样本,那么在该第一训练阶段,第二无标签样本就为空,那么这种情况下也不包括步骤706。
还需要说明的是,得到了训练后的第二模型,就可将该第二模型部署在目标设备上进行应用。在本申请实施例中,目标设备具体可以是移动端的设备,如摄像头、智能家居等边缘设备,也可以是如手机、个人计算机、计算机工作站、平板电脑、智能可穿戴设备(如,智能手表、智能手环、智能耳机等)、游戏机、机顶盒、媒体消费设备等端侧设备,具体此处对目标设备的类型不做限定。
还需要说明的是,上述实施例所述的半监督学习模型的训练可以是均在云侧实现,例如,基于图6所示的任务处理***的架构图,可以由云侧的训练设备220(该训练设备220可设置在一个或多个服务器或者虚拟机上)获取训练集,并根据训练集内的训练样本对初始半监督学习模型进行训练,得到训练后的半监督学习模型(如,训练后的第一模型、第二模型),之后,该训练后的第二模型再发送给执行设备210进行应用,例如,发送给执行设备210进行标签预测,示例性地,图6对应的***架构中所述,就是由训练设备220对各个阶段的模型进行训练,训练后的第二模型再发送给执行设备210进行使用;上述实施例所述的初始半监督学习模型的训练也可以是均在终端侧实现,即训练设备220可以是位于终端侧,例如,可以由终端设备(如,手机、智能手表等)、轮式移动设备(如,自动驾驶车辆、辅助驾驶车辆等)等获取训练集,并根据训练集内的训练样本对其进行训练,得到训练后的半监督学习模型(如,训练后的第一模型、第二模型),该训练后的第二模型就可以直接在该终端设备使用,也可以由该终端设备发送给其他的设备进行使用。具体本申请实施例对第二模型在哪个设备(云侧或终端侧)上进行训练或应用不做限定。
在本申请上述实施方式中,首先,训练设备通过训练后的第一半监督学习模型对一部分无标签样本的分类类别进行预测,得到预测标签,并通过一比特标注的方式来猜测各个预测标签是否正确,如果预测正确则获得该样本的正确标签(即正标签),否则可排除掉该样本的一个错误标签(即负标签),之后,在下一训练阶段,训练设备利用上述信息重新构建训练集(即第一训练集),并根据该第一训练集重新训练初始半监督学习模型,从而提高模型的预测准确率,并且,由于一比特标注只需标注者针对预测标签回答“是”或“否”,这种标注方式能够缓解机器学习中需要大量有正确标签数据的人工标注压力。
为便于理解上述图7对应的本申请所述的训练方法,下面举例对整个训练的过程进行示意:请参阅图8,图8为本申请实施例提供的半监督学习模型的训练方法一个流程示意图,假设初始训练集中包括330个训练样本,其中,30个为有标签样本(如图8中黑色底三角形所示意),300个为无标签样本(如图8中灰色底圆点所示意),那么这30个有标签样本就构成上述所述的第一有标签样本集,这300个无标签样本就构成上述所述的第一无标签样本集。首先,根据初始训练集中的330个训练样本对初始模型进行训练(即图8中的初始化,对应阶段0),得到训练后的第一模型,之后,再从这300个无标签样本中选取部分无标签样本构成初始子集,假设随机选取了100个无标签样本构成初始子集,那么这100个无标签样本就依次输入训练后的第一模型进行预测,分别得到对应的100个预测标签,这100个预测标签就构成上述所述的第一预测标签集。之后,训练设备基于一比特标注的方式,将这100个选出来的无标签样本分为正标签样本(如图8中的白色底三角形所示意)和负标签样本(如图8中白色底圆形所示意),假设分出的正标签样本为40个,负标签样本为60个,那么就将这40个正标签样本与原来的30个有标签样本整合到一起,构成第二有标签样本集,原来的300个无标签样本除去选出来的100个无标签样本后,还剩下200个无标签样本,那么剩下的这200个无标签样本就构成第二无标签样本,根据一比特标注得到的60个负标签样本就构成负标签样本集,因此,第二有标签样本集、第二无标签样本集和负标签样本集就构成第一阶段的第一训练集,根据该第一训练集,通过步骤705所述的方式,得到训练后的第二模型(即图8中的模型M1),第一次得到训练后的第二模型就为第一阶段(即图8中的阶段1)。之后,训练设备又从第二无标签样本集中选取部分无标签样本构成第二阶段(即图8中的阶段2)的初始子集,假设又随机选取了100个无标签样本构成第二阶段的初始子集(也可以是其他数量,此处不限定),那么这100个无标签样本就依次输入训练后的第二模型进行预测,分别得到对应的100个预测标签,这100个预测标签就构成第二阶段的第一预测标签集(也可称为第二预测标签集)。之后,训练设备基于一比特标注的方式,将这100个选出来的无标签样本分为正标签样本和负标签样本,假设分出的正标签样本为65个,负标签样本为35个,那么就将这65个正标签样本与已有的70个有标签样本整合到一起,构成第二阶段的第二有标签样本集,第一阶段剩下的200个无标签样本除去第二阶段选出来的100个无标签样本后,还剩下100个无标签样本,那么剩下的这100个无标签样本就构成第二阶段的第二无标签样本,根据一比特标注得到的35个负标签样本与之前第一阶段得到的60个负标签样本就构成第二阶段的负标签样本集,因此,第二阶段的第二有标签样本集、第二无标签样本集和负标签样本集就构成第二阶段的第一训练集(可称为第二训练集),根据该第二阶段的第一训练集,再次通过步骤705所述的方式,得到第二阶段训练后的第二模型(可称为第三模型,即图8中的模型M2),第二次得到训练后的第二模型就为第二阶段(即图8中的阶段2)。依次类推,按照上述方式,直至第二无标签样本集为空。
此外,为进一步理解半监督学习模型的更多实施细节,下面以mean teacher模型为例,对mean teacher模型的整个训练的过程(训练样本以图片为例)进行示意:具体请参阅图9,图9为mean teacher模型训练过程的一个示意图,传统的半监督学习方法以数据集
Figure BDA0002659501310000171
为训练集,其中,N是所有训练样本的数目,xn是图片数据中第n个样本。另
Figure BDA0002659501310000172
表示样本xn的真实标签,在设定中
Figure BDA0002659501310000173
对于训练算法是未知的,特别的只有小部分包含L个样本的集合的相关的
Figure BDA0002659501310000174
被提供(即本申请上述所述的第一有标签样本集),一般来说,L小于N。那就是说,
Figure BDA0002659501310000175
被分为两个子集
Figure BDA0002659501310000176
Figure BDA0002659501310000177
分别代表有标签样本集和无标签样本集。本申请的训练方法则是将训练集分为三个部分
Figure BDA0002659501310000178
其中,
Figure BDA0002659501310000179
是用于一比特标注的样本集合,
Figure BDA00026595013100001710
中的样本数量不做限定。对于
Figure BDA00026595013100001711
中的每个样例,标注者被提供以对应图片和模型对该图片的预测标签,标注者的工作就是判断这张图片是否属于图片本身所属的真实标签所指定的分类类别,如果预测正确,则该图片被分配以正标签
Figure BDA00026595013100001712
否则它被分配以一个负标签,表示为
Figure BDA00026595013100001713
从信息论的角度来说,标注者通过回答一个是或否的问题,为***提供了1比特的监督信息。对于需要获得样本的正确标签的标注方法来说,所获得的监督信息为log2C,C为分类类别的总数,例如,对于一个100类的数据集,可以选择标注10K的正确标签,这提供了10K×log2100=66.4K比特的信息量。或是准确地标注5K样本,这提供33.2K比特的信息量,然后将剩下的33.2K信息量通过回答是或否的问题来完成。由于标注者只需回答是或否的问题,这种做法提供一比特的信息,所以标注一张图片的损耗减少了,在相同损耗下,可以得到更多的一比特标注信息。
通常当能够获得更多的正确标签的训练样本,模型的精度会得到提升。因此最直接的方法是将训练过程分为多个阶段,每个阶段对
Figure BDA00026595013100001714
的部分样本进行预测,针对预测标签重新构建训练集,再利用重新构建的训练集更新模型,以此来加强模型。初始模型
Figure BDA00026595013100001715
是在
Figure BDA00026595013100001716
作为有标签数据,
Figure BDA00026595013100001717
作为无标签数据的条件下,通过一个半监督学习过程训练得到的。在本申请实施例中,则利用Mean Teacher模型进行示意,假设接下来的训练分为T个阶段(训练的终止条件是无标签样本都被选完)。另
Figure BDA00026595013100001718
表示第t-1阶段的无准确标签样本集(就是指负标签样本和无标签样本的集合),
Figure BDA00026595013100001719
这里使用
Figure BDA00026595013100001720
Figure BDA00026595013100001721
分别表示预测正确的和预测错误的样本集,这两个集合被初始化为空集。在第t阶段,首先从无标签样本集
Figure BDA00026595013100001722
当中随机选出固定数量的子集
Figure BDA00026595013100001723
然后利用上一阶段得到的模型
Figure BDA00026595013100001724
Figure BDA00026595013100001725
中的样本预测标签。通过检查正确标签,预测正确的样本被加入正标签集合
Figure BDA00026595013100001726
预测错误的样本被加入负标签集合
Figure BDA00026595013100001727
所以整个训练集就被分为了三个部分:有准确标签的集合
Figure BDA00026595013100001728
有负标签的集合
Figure BDA00026595013100001729
和无标签样本集
Figure BDA00026595013100001730
最终
Figure BDA00026595013100001731
然后将
Figure BDA00026595013100001732
更新为
Figure BDA00026595013100001733
得到更强的模型。
之后,本申请实施例基于mean Teacher模型来设计标签抑制方法,即设计负标签样本对应的损失函数。mean Teacher模型包含教师模型和学生模型两部分,给定一个训练图片,如果它拥有正确标签则计算相应的交叉熵损失函数,不论训练图片有无正确标签,都计算一个教师模型和学生模型的输出之间的距离作为额外的损失函数,该额外的损失函数就为均方误差损失函数。另设f(x;θ)为学生模型的表达函数,其中θ表示学习模型相应的网络参数,教师模型被表示为f(x;θ′),其中θ′为教师模型相应的网络参数。相应的损耗函数(即总的loss)被定义为如下形式:
Figure BDA0002659501310000181
其中,λ和γ均表示平衡系数,是通过训练得到的可调节的参数。式中,
Figure BDA0002659501310000182
表示对某个阶段的所有样本输出的预测值取均值,CE表示交叉熵损失函数,MSE表示均方误差损失函数,
Figure BDA0002659501310000183
表示正标签。对于拥有正确标签的样本,模型的输出同时受交叉熵项和一致性项的约束,对于拥有负标签的样本,本方法通过增加一个新的损失函数,该新的损失函数基于修改损耗函数当中第二项教师模型的输出f(x;θ′)的相关位置的值,使得负标签对应类别的概率得分被抑制为0,例如,假设有100个分类类别,那么mean teacher模型输出的预测值就是一个100维向量,每个维度表示的是输出的预测值对应分类类别所占的预测概率,假设某个图片为负标签“不是狗”,第2个维度是“狗”的概率,那么对应该图片,就可以将第2个维度置为0,修改前的预测值和修改后的预测值(即修改值)之间的差值,就是本申请所述的损耗函数的第三项。
为了对本申请实施例所带来的有益效果有更为直观的认识,以下对本申请实施例所带来的技术效果作进一步的对比,基于mean teacher模型,本申请实施例所提供的半监督学习的训练方法在三个流行的图片分类数据集上进行实验,分别是CIFAR100、Mini-Imagenet和Imagenet。对于CIFAR100,本申请使用一个26层的shake-shake正则深度残差网络。对于Mini-Imagenet和Imagenet,本申请使用一个50层的残差网络。在CIFAR100和Mini-Imagenet上,本申请共训练180个epoch(即将所述训练样本训练一次的过程),在Imagenet上训练60个epoch。在三个数据集上都使用均方误差损失函数作为一致性损失函数。一致性损失函数的权重参数在CIFAR100上取1000,在Mini-Imagenet和Imagenet取100。相关的的每批样本的大小(batch size)根据硬件条件做了调整。其余的参数设置参照mean teacher模型的原始设置。由表1可知,实验证明了在相同比特数的监督信息下,本申请实施例所提供的训练方法的表现超过其他的半监督的训练方法,在三个数据集上的实验结果(即预测准确率)论证了本申请实施例方法的有效性。
表1:测试结果对比
Figure BDA0002659501310000184
本申请实施例还提供一种图像处理方法,请参阅图10,图10为本申请实施例提供的图像处理方法的一种流程示意图,具体可以包括如下步骤:
1001、获取目标图像。
上述训练后的第二半监督学习模型就可部署在执行设备上进行应用,具体地,执行设备先获取到目标图像。
1002、将目标图像作为训练后的半监督学习模型的输入,输出对所述目标图像的预测结果。
之后,执行设备将目标图像作为训练后的半监督学习模型的输入,并输出对目标图像的预测结果,该训练后的半监督学习模型为上述实施例所述的训练后的第二半监督学习模型。
在本申请上述实施方式中,阐述了训练后的第二半监督学习模型的一种应用方式,即用来对图像进行类别预测,相比于已有的训练方法训练得到的半监督学习模型,本申请实施例提供的半监督学习模型提高了目标图像识别的准确率。
由于智能安防、平安城市、智能终端等领域中都可以用到本申请实施例训练好的半监督学习模型(即训练后的第二模型)来进行图像分类处理,例如,本申请训练好的半监督学习模型可应用于计算机视觉等领域的各种场景和问题,比如常见的一些任务:人脸识别、图像分类、目标检测等。其中每类场景中都会涉及很多可用本申请实施例所提供的训练后的半监督学习模型,下面将对多个落地到产品的多个应用场景进行介绍。
(1)相册分类
用户在手机和云盘上存储了大量图片,按照类别对相册进行分类管理能提高用户的使用体验。利用本申请实施例的训练后的半监督学习模型对相册中的图片进行分类,能够得到按照类别进行排列或者存储的相册,可以方便用户对不同的物体类别进行分类管理,从而方便用户的查找,能够节省用户的管理时间,提高相册管理的效率。
具体地,如图11所示,在采用本申请实施例训练后的半监督学习模型进行相册分类时,可以先将相册中图片输入该训练后的半监督学习模型进行特征提取,根据提取到的特征得到图片的预测标签(即预测的分类类别),接下来再根据图片的分类类别对相册中的图片进行归类,得到按照分类类别进行排列的相册。其中,在根据分类类别对相册中的图片进行排列时,可以将属于同一类的图片排列在一行或者一行。例如,在最终得到的相册中,第一行的图片都属于飞机,第二行的图片都属于汽车。
(2)拍照识物
用户在拍照时,可以利用本申请实施例训练后的半监督学习模型对拍到的照片进行处理,能够自动识别出被拍物体的类别,例如,可以自动识别出被拍物体是何种花卉、动物等。例如,利用本申请实施例训练后的半监督学习模型对拍照得到的共享单车进行识别,能够识别出该物体属于自行车,进一步的,还可以显示该自行车的相关信息,具体可如图12所示。
(3)目标识别
针对得到的图片,还可以利用本申请实施例训练后的半监督学习模型寻找包含有目标对象的图片,例如,如图13所示,可以利用本申请实施例训练后的半监督学习模型对拍照得到的街景寻找该街景图片中是否有目标对象,如是否存在图13中左边的人脸模型。
(4)智能驾驶的物体识别
在自动驾驶的应用场景中,可以利用本申请实施例训练后的半监督学习模型对安装在车辆上的传感器(如,摄像头)拍摄到的图像数据或视频数据中的图像进行处理,从而能够自动识别出在行驶过程中路面上的各种障碍物的类别,例如,可以自动识别出自车的前方行驶路面是否有障碍物以及何种障碍物(如,迎面驶来的卡车、行人、骑行者等关键障碍物,或,路边的灌木丛、树木、建筑物等非关键障碍物等)。
应理解,上文介绍的相册分类、拍照识物、目标识别、智能驾驶的物体识别等只是本申请实施例的图像分类方法所应用的几个具体场景,本申请实施例训练后的半监督学习模型在应用时并不限于上述场景,其能够应用到任何需要进行图像分类或者图像识别的场景中,只要能使用半监督学习模型的领域和设备,都可应用本申请实施例提供的训练好的半监督学习模型,此处不再举例示意。
在上述所对应的实施例的基础上,为了更好的实施本申请实施例的上述方案,下面还提供用于实施上述方案的相关设备。具体参阅图14,图14为本申请实施例提供的训练设备的一种结构示意图,训练设备1400包括:选取模块1401、猜测模块1402、构建模块1403和训练模块1404,其中,选取模块1401,用于从第一无标签样本集选取初始子集,并通过训练后的第一半监督学习模型对所述初始子集进行预测,得到第一预测标签集,所述第一半监督学习模型由初始半监督学习模型通过初始训练集训练得到,所述初始训练集包括第一有标签样本集和所述第一无标签样本集;猜测模块1402,用于根据所述第一预测标签集将所述初始子集分为第一子集和第二子集,所述第一子集为预测正确的分类类别对应的样本集合,所述第二子集为预测错误的分类类别对应的样本集合;构建模块1403,用于构建第一训练集,所述第一训练集包括第二有标签样本集、第二无标签样本集和负标签样本集,所述第二有标签样本集为包括所述第一有标签样本集和所述第一子集的具有正确分类类别的样本集合,所述第二无标签样本集为所述第一无标签样本集中除所述初始子集之外的无标签样本的集合,所述负标签样本集为包括所述第二子集的具有错误分类类别的样本集合;训练模块1404,用于根据所述第一训练集训练所述初始半监督学习模型,得到训练后的第二半监督学习模型。
在本申请上述实施方式中,首先,通过训练后的第一半监督学习模型对一部分无标签样本的分类类别进行预测,得到预测标签,并通过猜测模块1402判断各个预测标签是否正确,如果预测正确则获得该样本的正确标签(即正标签),否则可排除掉该样本的一个错误标签(即负标签),之后,在下一训练阶段,构建模块1403利用上述信息重新构建训练集(即第一训练集),并通过训练模块1404根据该第一训练集重新训练初始半监督学习模型,从而提高模型的预测准确率,并且,由于猜测模块1402只需对预测标签回答“是”或“否”,这种标注方式能够缓解机器学习中需要大量有正确标签数据的人工标注压力。
在一种可能的设计中,初始半监督学习模型的网络结构具体可以有多种表现形式,例如,可以包括如下模型中的任意一种:Π-model、VAT、LPDSSL、TNAR、pseudo-label、DCT、mean teacher模型。
在本申请上述实施方式中,阐述了可应用本申请实施例提供的训练方法的半监督学习模型可以有哪些,具备普适性和可选择性。
在一种可能的设计中,若初始半监督学***衡系数,是通过训练得到的一个可调节的参数,loss是整个半监督学习模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。
在本申请上述实施方式中,阐述了当初始半监督学习模型的损失函数为一个时,可针对负标签样本集再构建一个新的损失函数,即针对训练集中的不同类型的样本集,对应采用不同的损失函数,再基于总的损失函数对该初始半监督学习模型进行训练,更具有针对性。
在一种可能的设计中,本申请实施例的训练方法除了可以用于训练上述原本只有一个损失函数的半监督学***衡系数,是通过训练得到的一个可调节的参数,loss是整个mean teacher模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。因此,所述训练模块1404,具体还用于:针对第二有标签样本集,根据第二有标签样本集,利用第三损失函数对mean teacher模型进行训练,该第三损失函数就为上述所述的损失函数1(即loss11);训练设备还将根据第二有标签样本集和第二无标签样本集,利用第四损失函数对mean teacher模型进行训练,该第四损失函数就为上述所述的损失函数2(即loss12),该第三损失函数loss11和第四损失函数loss12均为meanteacher模型原有的损失函数;此外,针对负标签样本,还会根据负标签样本集,利用第五损失函数对mean teacher模型进行训练,该第五损失函数(可称为loss13)就为模型输出的预测值与修改值之间的差值,所述修改值为将预测错误的分类类别在所述预测值上的对应维度置为零的值,该第五损失函数loss13就为上述所述的针对无标签样本集构建的新的损失函数。最后,再根据loss=loss11+λ*loss12+γ*loss13更新该初始的mean teacher模型,其中,λ和γ均表示平衡系数,是通过训练得到的可调节的参数,loss是整个mean teacher模型总的损失函数的输出值,训练的过程就是使得这个总的loss尽可能的小。
在本申请上述实施方式中,阐述了当初始半监督学习模型是mean teacher模型时,也可针对负标签样本集再构建一个新的损失函数,即针对训练集中的不同类型的样本集,对应采用不同的损失函数,再基于总的损失函数对该初始半监督学习模型进行训练,更具有针对性。
在一种可能的设计中,该第三损失函数可以为交叉熵损失函数;和/或,该第四损失函数可以为均方误差损失函数。
在本申请上述实施方式中,阐述了在mean teacher模型中,第三损失函数和第四损失函数的具体形式,具备可实现性。
在一种可能的设计中,该训练设备1400还可以包括:触发模块1405,触发模块1405用于将所述第二无标签样本集作为新的第一无标签样本集,且将所述第二半监督学习模型作为新的第一半监督学习模型,触发所述选取模块1401、所述猜测模块1402、所述构建模块1403和所述训练模块1404重复执行对应步骤,直至所述第二无标签样本集为空。
在本申请上述实施方式中,通常当能够获得更多的正确标签的训练样本,模型的精度就会得到提升。因此最直接的方法是将训练过程分为多个阶段,每个阶段从第一无标签样本集中选出部分样本进行预测,针对预测标签重新构建训练集,再利用重新构建的训练集更新模型,从而每个阶段得到的训练后的第二半监督学习模型的泛化能力和预测准确率都比上一阶段得到的第二半监督学习模型更强。
在一种可能的设计中,在根据第一训练集训练初始半监督学习模型,得到训练后的第二半监督学习模型之后,触发模块1405还可用于:将训练后的第二半监督学习模型部署在目标设备上,该目标设备就用于获取目标图像,该训练后的第二半监督学习模型就用于对目标图像进行标签预测。
在本申请上述实施方式中,阐述了训练好的第二半监督学习模型的具体用处,即部署在目标设备上用于对目标图像进行标签预测,即用来对图像进行类别预测,相比于已有的训练方法训练得到的半监督学习模型,本申请实施例提供的训练后的第二半监督学习模型提高了目标图像识别的准确率。
在一种可能的设计中,所述选取模块1401,具体用于:从第一无标签样本集中随机选取预设数量的无标签样本构成初始子集。
在本申请上述实施方式中,阐述了如何从第一无标签样本集中选取无标签样本来构成初始子集的一种实现方式,随机选择的方式保证了选取样本的均衡。
需要说明的是,图14对应实施例所述的训练设备1400中各模块/单元之间的信息交互、执行过程等内容,与本申请中图5-9对应的实施例基于同一构思,具体内容可参见本申请前述所示实施例中的叙述,此处不再赘述。
本申请实施例还提供一种执行设备,具体参阅图15,图15为本申请实施例提供的执行设备的一种结构示意图,执行设备1500包括:获取模块1501和识别模块1502,其中,获取模块1501,用于获取目标图像;识别模块1502,用于将所述目标图像作为训练后的半监督学习模型的输入,输出对所述目标图像的预测结果,所述训练后的半监督学习模型为上述实施例所述的训练后的第二半监督学习模型。
在本申请上述实施方式中,阐述了训练后的第二半监督学习模型的一种应用方式,即用来对图像进行类别预测,相比于已有的训练方法训练得到的半监督学习模型,本申请实施例提供的半监督学习模型提高了目标图像识别的准确率。
需要说明的是,图15对应实施例所述的执行设备1500中各模块/单元之间的信息交互、执行过程等内容,与本申请中图10对应的实施例基于同一构思,具体内容可参见本申请前述所示实施例中的叙述,此处不再赘述。
接下来介绍本申请实施例提供的一种训练设备,请参阅图16,图16为本申请实施例提供的训练设备的一种结构示意图,训练设备1600上可以部署有图14对应实施例中所描述的训练设备1400,用于实现图5-9对应实施例中训练设备的功能,具体的,训练设备1600由一个或多个服务器实现,训练设备1600可因配置或性能不同而产生比较大的差异,可以包括一个或一个以***处理器(central processing units,CPU)1622(例如,一个或一个以***处理器)和存储器1632,一个或一个以上存储应用程序1642或数据1644的存储介质1630(例如一个或一个以上海量存储设备)。其中,存储器1632和存储介质1630可以是短暂存储或持久存储。存储在存储介质1630的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对训练设备1600中的一系列指令操作。更进一步地,中央处理器1622可以设置为与存储介质1630通信,在训练设备1600上执行存储介质1630中的一系列指令操作。
训练设备1600还可以包括一个或一个以上电源1626,一个或一个以上有线或无线网络接口1650,一个或一个以上输入输出接口1658,和/或,一个或一个以上操作***1641,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
本申请实施例中,中央处理器1622,用于执行图7对应实施例中的训练设备执行的半监督学习模型的训练方法。具体地,中央处理器1622用于:首先,根据获取到的初始训练集训练初始半监督学习模型(可简称为初始模型),从而得到训练后的第一半监督学习模型(可简称为训练后的第一模型),该初始训练集中,一部分为有标签样本,另一部分为无标签样本,其中,这部分有标签样本称为第一有标签样本集,这部分无标签样本称为第一无标签样本集。得到训练后的第一模型后,再从初始训练集中的第一无标签样本集选取初始子集,初始子集中的各个无标签样本构成测试数据,用于对训练后的第一模型进行测试,通过该训练后的第一模型对选出的初始子集中的各个无标签样本进行预测,从而得到选取出的每个无标签样本对应的预测标签(训练后的第一模型会输出选取出来的每个无标签样本的在各个分类类别上的概率预测,通常选择概率最大的一个分类类别作为模型对该样本的预测标签),各个预测标签就构成第一预测标签集。得到第一预测标签集之后,将根据该第一预测标签集对初始子集进行一比特标注,由于这种做法提供了log22=1比特(bit)的信息量(即“是”或“否”),因此称为一比特标注。如上述所述,一比特标注的方式具体为:标注者针对每个预测样本对应的预测标签回答一个“是”或“否”的问题,若预测标签是预测正确的分类类别,则获得该无标签样本的正标签(也可称为正确标签),比如,预测标签为“狗”,对于该无标签样本的真实标签也是“狗”,那么则预测正确,该无标签样本获得正标签“狗”;若预测标签是预测错误的分类类别,则获得该无标签样本的负标签,据此可排除掉该无标签样本的一个错误标签,比如,预测标签为“猫”,对于该无标签样本的真实标签确是“狗”,那么则预测错误,该无标签样本获得负标签“不是猫”。经过一比特标注后,初始子集就被分为了第一子集和第二子集,其中,第一子集为预测正确的分类类别(即正标签)对应的样本集合,第二子集为预测错误的分类类别(即负标签)对应的样本集合。在获得一比特标注的结果后,即获得了相应数量的正标签和负标签,之后,重新构建训练集,重新构建的训练集可称为第一训练集,构建的具体方式可以是将正标签样本(即第一子集)与已有的有标签样本放到一起,作为本阶段的有标签样本,也可称为第二有标签样本集;各个负标签样本(即第二子集)就构成本阶段的负标签样本集;第一无标签样本集中余下的无标签样本就构成本阶段的第二无标签样本集。这三类样本共同构成第一训练集。构建好第一训练集后,再根据该第一训练集重新训练初始模型,得到训练后的能力更强的第二半监督学习模型(可简称为训练后的第二模型)。
需要说明的是,中央处理器1622执行上述各个步骤的具体方式,与本申请中图7对应的方法实施例基于同一构思,其带来的技术效果与本申请中图7对应的实施例相同,具体内容可参见本申请前述所示的方法实施例中的叙述,此处不再赘述。
接下来介绍本申请实施例提供的一种执行设备,请参阅图17,图17为本申请实施例提供的执行设备的一种结构示意图,执行设备1700具体可以表现为各种终端设备,如虚拟现实VR设备、手机、平板、笔记本电脑、智能穿戴设备、监控数据处理设备或者雷达数据处理设备等,此处不做限定。其中,执行设备1700上可以部署有图15对应实施例中所描述的执行设备1500,用于实现图10对应实施例中执行设备的功能。具体的,执行设备1700包括:接收器1701、发射器1702、处理器1703和存储器1704(其中执行设备1700中的处理器1703的数量可以一个或多个,图17中以一个处理器为例),其中,处理器1703可以包括应用处理器17031和通信处理器17032。在本申请的一些实施例中,接收器1701、发射器1702、处理器1703和存储器1704可通过总线或其它方式连接。
存储器1704可以包括只读存储器和随机存取存储器,并向处理器1703提供指令和数据。存储器1704的一部分还可以包括非易失性随机存取存储器(non-volatile randomaccess memory,NVRAM)。存储器1704存储有处理器和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。
处理器1703控制执行设备1700的操作。具体的应用中,执行设备1700的各个组件通过总线***耦合在一起,其中总线***除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清楚说明起见,在图中将各种总线都称为总线***。
本申请上述图4对应实施例揭示的方法可以应用于处理器1703中,或者由处理器1703实现。处理器1703可以是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器1703中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器1703可以是通用处理器、数字信号处理器(digital signal processing,DSP)、微处理器或微控制器,还可进一步包括专用集成电路(application specificintegrated circuit,ASIC)、现场可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。该处理器1703可以实现或者执行本申请图10对应的实施例中公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本申请实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器1704,处理器1703读取存储器1704中的信息,结合其硬件完成上述方法的步骤。
接收器1701可用于接收输入的数字或字符信息,以及产生与执行设备1700的相关设置以及功能控制有关的信号输入。发射器1702可用于通过第一接口输出数字或字符信息;发射器1702还可用于通过第一接口向磁盘组发送指令,以修改磁盘组中的数据;发射器1702还可以包括显示屏等显示设备。
本申请实施例中还提供一种计算机可读存储介质,该计算机可读存储介质中存储有用于进行信号处理的程序,当其在计算机上运行时,使得计算机执行如前述所示实施例描述中执行设备所执行的步骤。
本申请实施例提供的训练设备、执行设备等具体可以为芯片,芯片包括:处理单元和通信单元,所述处理单元例如可以是处理器,所述通信单元例如可以是输入/输出接口、管脚或电路等。该处理单元可执行存储单元存储的计算机执行指令,以使训练设备内的芯片执行上述图5-9所示实施例描述的半监督学习模型的训练方法,或以使得执行设备内的芯片执行上述图10所示实施例描述的图像处理方法。可选地,所述存储单元为所述芯片内的存储单元,如寄存器、缓存等,所述存储单元还可以是所述无线接入设备端内的位于所述芯片外部的存储单元,如只读存储器(read-only memory,ROM)或可存储静态信息和指令的其他类型的静态存储设备,随机存取存储器(random access memory,RAM)等。
具体的,请参阅图18,图18为本申请实施例提供的芯片的一种结构示意图,所述芯片可以表现为神经网络处理器NPU 200,NPU 200作为协处理器挂载到主CPU(Host CPU)上,由Host CPU分配任务。NPU的核心部分为运算电路2003,通过控制器2004控制运算电路2003提取存储器中的矩阵数据并进行乘法运算。
在一些实现中,运算电路2003内部包括多个处理单元(Process Engine,PE)。在一些实现中,运算电路2003是二维脉动阵列。运算电路2003还可以是一维脉动阵列或者能够执行例如乘法和加法这样的数学运算的其它电子线路。在一些实现中,运算电路2003是通用的矩阵处理器。
举例来说,假设有输入矩阵A,权重矩阵B,输出矩阵C。运算电路从权重存储器2002中取矩阵B相应的数据,并缓存在运算电路中每一个PE上。运算电路从输入存储器2001中取矩阵A数据与矩阵B进行矩阵运算,得到的矩阵的部分结果或最终结果,保存在累加器(accumulator)2008中。
统一存储器2006用于存放输入数据以及输出数据。权重数据直接通过存储单元访问控制器(Direct Memory Access Controller,DMAC)2005,DMAC被搬运到权重存储器2002中。输入数据也通过DMAC被搬运到统一存储器2006中。
BIU为Bus Interface Unit即,总线接口单元2010,用于AXI总线与DMAC和取指存储器(Instruction Fetch Buffer,IFB)2009的交互。
总线接口单元2010(Bus Interface Unit,简称BIU),用于取指存储器2009从外部存储器获取指令,还用于存储单元访问控制器2005从外部存储器获取输入矩阵A或者权重矩阵B的原数据。
DMAC主要用于将外部存储器DDR中的输入数据搬运到统一存储器2006或将权重数据搬运到权重存储器2002中或将输入数据数据搬运到输入存储器2001中。
向量计算单元2007包括多个运算处理单元,在需要的情况下,对运算电路的输出做进一步处理,如向量乘,向量加,指数运算,对数运算,大小比较等等。主要用于神经网络中非卷积/全连接层网络计算,如Batch Normalization(批归一化),像素级求和,对特征平面进行上采样等。
在一些实现中,向量计算单元2007能将经处理的输出的向量存储到统一存储器2006。例如,向量计算单元2007可以将线性函数和/或非线性函数应用到运算电路2003的输出,例如对卷积层提取的特征平面进行线性插值,再例如累加值的向量,用以生成激活值。在一些实现中,向量计算单元2007生成归一化的值、像素级求和的值,或二者均有。在一些实现中,处理过的输出的向量能够用作到运算电路2003的激活输入,例如用于在神经网络中的后续层中的使用。
控制器2004连接的取指存储器(instruction fetch buffer)2009,用于存储控制器2004使用的指令;
统一存储器2006,输入存储器2001,权重存储器2002以及取指存储器2009均为On-Chip存储器。外部存储器私有于该NPU硬件架构。
其中,上述任一处提到的处理器,可以是一个通用中央处理器,微处理器,ASIC,或一个或多个用于控制上述第一方面方法的程序执行的集成电路。
另外需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本申请提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。
通过以上的实施方式的描述,所属领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。一般情况下,凡由计算机程序完成的功能都可以很容易地用相应的硬件来实现,而且,用来实现同一功能的具体硬件结构也可以是多种多样的,例如模拟电路、数字电路或专用电路等。但是,对本申请而言更多情况下软件程序实现是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在可读取的存储介质中,如计算机的软盘、U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,训练设备,或者网络设备等)执行本申请各个实施例所述的方法。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。
所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、训练设备或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、训练设备或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存储的任何可用介质或者是包含一个或多个可用介质集成的训练设备、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(digitalvideo disc,DVD)、或者半导体介质(例如固态硬盘(solid state disk,SSD))等。

Claims (23)

1.一种半监督学习模型的训练方法,其特征在于,包括:
从第一无标签样本集选取初始子集,并通过训练后的第一半监督学习模型对所述初始子集进行预测,得到第一预测标签集,所述第一半监督学习模型由初始半监督学习模型通过初始训练集训练得到,所述初始训练集包括第一有标签样本集和所述第一无标签样本集;
根据所述第一预测标签集将所述初始子集分为第一子集和第二子集,所述第一子集为预测正确的分类类别对应的样本集合,所述第二子集为预测错误的分类类别对应的样本集合;
构建第一训练集,所述第一训练集包括第二有标签样本集、第二无标签样本集和负标签样本集,所述第二有标签样本集为包括所述第一有标签样本集和所述第一子集的具有正确分类类别的样本集合,所述第二无标签样本集为所述第一无标签样本集中除所述初始子集之外的无标签样本的集合,所述负标签样本集为包括所述第二子集的具有错误分类类别的样本集合;
根据所述第一训练集训练所述初始半监督学习模型,得到训练后的第二半监督学习模型。
2.根据权利要求1所述的方法,其特征在于,所述初始半监督学习模型包括如下模型中的任意一种:
Π-model、VAT、LPDSSL、TNAR、pseudo-label、DCT、mean teacher模型。
3.根据权利要求2所述的方法,其特征在于,所述初始半监督学习模型为Π-model、VAT、LPDSSL、TNAR、pseudo-label、DCT中的任意一种,则所述根据所述第一训练集训练所述初始半监督学习模型,得到训练后的第二半监督学习模型包括:
根据所述第二有标签样本集和所述第二无标签样本集,利用第一损失函数对所述初始半监督学习模型进行训练,所述第一损失函数为所述初始半监督学习模型原有的损失函数;
根据所述负标签样本集,利用第二损失函数对所述初始半监督学习模型进行训练,所述第二损失函数为模型输出的预测值与修改值之间的差值,所述修改值为将预测错误的分类类别在所述预测值上的对应维度置为零的值。
4.根据权利要求2所述的方法,其特征在于,所述初始半监督学习模型为mean teacher模型,则所述根据所述第一训练集训练所述初始半监督学习模型,得到训练后的第二半监督学习模型包括:
根据所述第二有标签样本集,利用第三损失函数对所述mean teacher模型进行训练;
根据所述第二有标签样本集和所述第二无标签样本集,利用第四损失函数对所述meanteacher模型进行训练,所述第三损失函数和所述第四损失函数为所述mean teacher模型原有的损失函数;
根据所述负标签样本集,利用第五损失函数对所述mean teacher模型进行训练,所述第五损失函数为模型输出的预测值与修改值之间的差值,所述修改值为将预测错误的分类类别在所述预测值上的对应维度置为零的值。
5.根据权利要求4所述的方法,其特征在于,
所述第三损失函数为交叉熵损失函数;
和/或,
所述第四损失函数为均方误差损失函数。
6.根据权利要求1-5中任一项所述的方法,其特征在于,所述方法还包括:
将所述第二无标签样本集作为新的第一无标签样本集、所述第二半监督学习模型作为新的第一半监督学习模型,重复执行上述步骤,直至所述第二无标签样本集为空。
7.根据权利要求1-6中任一项所述的方法,其特征在于,所述在根据所述第一训练集训练所述初始半监督学习模型,得到训练后的第二半监督学习模型之后,所述方法还包括:
将所述训练后的第二半监督学习模型部署在目标设备上,所述目标设备用于获取目标图像,所述训练后的第二半监督学习模型用于对所述目标图像进行标签预测。
8.根据权利要求1-7中任一项所述的方法,其特征在于,所述从第一无标签样本集选取初始子集包括:
从所述第一无标签样本集随机选取预设数量的无标签样本构成所述初始子集。
9.一种图像处理方法,其特征在于,包括:
获取目标图像;
将所述目标图像作为训练后的半监督学习模型的输入,输出对所述目标图像的预测结果,所述训练后的半监督学习模型为权利要求1-8中任一项所述方法中的第二半监督学习模型。
10.一种训练设备,其特征在于,包括:
选取模块,用于从第一无标签样本集选取初始子集,并通过训练后的第一半监督学习模型对所述初始子集进行预测,得到第一预测标签集,所述第一半监督学习模型由初始半监督学习模型通过初始训练集训练得到,所述初始训练集包括第一有标签样本集和所述第一无标签样本集;
猜测模块,用于根据所述第一预测标签集将所述初始子集分为第一子集和第二子集,所述第一子集为预测正确的分类类别对应的样本集合,所述第二子集为预测错误的分类类别对应的样本集合;
构建模块,用于构建第一训练集,所述第一训练集包括第二有标签样本集、第二无标签样本集和负标签样本集,所述第二有标签样本集为包括所述第一有标签样本集和所述第一子集的具有正确分类类别的样本集合,所述第二无标签样本集为所述第一无标签样本集中除所述初始子集之外的无标签样本的集合,所述负标签样本集为包括所述第二子集的具有错误分类类别的样本集合;
训练模块,用于根据所述第一训练集训练所述初始半监督学习模型,得到训练后的第二半监督学习模型。
11.根据权利要求10所述的设备,其特征在于,所述初始半监督学习模型包括如下模型中的任意一种:
Π-model、VAT、LPDSSL、TNAR、pseudo-label、DCT、mean teacher模型。
12.根据权利要求11所述的设备,其特征在于,所述初始半监督学习模型为Π-model、VAT、LPDSSL、TNAR、pseudo-label、DCT中的任意一种,则所述训练模块,具体用于:
根据所述第二有标签样本集和所述第二无标签样本集,利用第一损失函数对所述初始半监督学习模型进行训练,所述第一损失函数为所述初始半监督学习模型原有的损失函数;
根据所述负标签样本集,利用第二损失函数对所述初始半监督学习模型进行训练,所述第二损失函数为模型输出的预测值与修改值之间的差值,所述修改值为将预测错误的分类类别在所述预测值上的对应维度置为零的值。
13.根据权利要求11所述的设备,其特征在于,所述初始半监督学习模型为meanteacher模型,则所述训练模块,具体还用于:
根据所述第二有标签样本集,利用第三损失函数对所述mean teacher模型进行训练;
根据所述第二有标签样本集和所述第二无标签样本集,利用第四损失函数对所述meanteacher模型进行训练,所述第三损失函数和所述第四损失函数为所述mean teacher模型原有的损失函数;
根据所述负标签样本集,利用第五损失函数对所述mean teacher模型进行训练,所述第五损失函数为模型输出的预测值与修改值之间的差值,所述修改值为将预测错误的分类类别在所述预测值上的对应维度置为零的值。
14.根据权利要求13所述的设备,其特征在于,
所述第三损失函数为交叉熵损失函数;
和/或,
所述第四损失函数为均方误差损失函数。
15.根据权利要求10-14中任一项所述的设备,其特征在于,所述设备还包括:
触发模块,用于将所述第二无标签样本集作为新的第一无标签样本集、所述第二半监督学习模型作为新的第一半监督学习模型,触发所述选取模块、所述猜测模块、所述构建模块和所述训练模块重复执行对应步骤,直至所述第二无标签样本集为空。
16.根据权利要求10-15中任一项所述的设备,其特征在于,所述触发模块,还用于:
将所述训练后的第二半监督学习模型部署在目标设备上,所述目标设备用于获取目标图像,所述训练后的第二半监督学习模型用于对所述目标图像进行标签预测。
17.根据权利要求10-16中任一项所述的设备,其特征在于,所述选取模块,具体用于:
从所述第一无标签样本集随机选取预设数量的无标签样本构成所述初始子集。
18.一种执行设备,其特征在于,包括:
获取模块,用于获取目标图像;
识别模块,用于将所述目标图像作为训练后的半监督学习模型的输入,输出对所述目标图像的预测结果,所述训练后的半监督学习模型为权利要求1-8中任一项所述方法中的第二半监督学习模型。
19.一种训练设备,包括处理器和存储器,其特征在于,所述处理器与所述存储器耦合,其特征在于,
所述存储器,用于存储程序;
所述处理器,用于执行所述存储器中的程序,使得所述训练设备执行如权利要求1-8中任一项所述的方法。
20.一种执行设备,包括处理器和存储器,其特征在于,所述处理器与所述存储器耦合,其特征在于,
所述存储器,用于存储程序;
所述处理器,用于执行所述存储器中的程序,使得所述执行设备执行如权利要求9所述的方法。
21.一种计算机可读存储介质,包括程序,其特征在于,当其在计算机上运行时,使得计算机执行如权利要求1-8中任一项所述的方法,或,使得计算机执行如权利要求9所述的方法。
22.一种包含指令的计算机程序产品,其特征在于,当其在计算机上运行时,使得计算机执行如权利要求1-8中任一项所述的方法,或,使得计算机执行如权利要求9所述的方法。
23.一种芯片,所述芯片包括处理器与数据接口,所述处理器通过所述数据接口读取存储器上存储的指令,执行如权利要求1-8中任一项所述的方法,或,执行如权利要求9所述的方法。
CN202010899716.5A 2020-08-31 2020-08-31 一种半监督学习模型的训练方法、图像处理方法及设备 Pending CN112183577A (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202010899716.5A CN112183577A (zh) 2020-08-31 2020-08-31 一种半监督学习模型的训练方法、图像处理方法及设备
EP21859844.9A EP4198820A4 (en) 2020-08-31 2021-06-28 TRAINING METHOD FOR SEMI-SUPERVISED LEARNING MODEL, IMAGE PROCESSING METHOD AND APPARATUS
PCT/CN2021/102726 WO2022042002A1 (zh) 2020-08-31 2021-06-28 一种半监督学习模型的训练方法、图像处理方法及设备
US18/173,310 US20230196117A1 (en) 2020-08-31 2023-02-23 Training method for semi-supervised learning model, image processing method, and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010899716.5A CN112183577A (zh) 2020-08-31 2020-08-31 一种半监督学习模型的训练方法、图像处理方法及设备

Publications (1)

Publication Number Publication Date
CN112183577A true CN112183577A (zh) 2021-01-05

Family

ID=73924607

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010899716.5A Pending CN112183577A (zh) 2020-08-31 2020-08-31 一种半监督学习模型的训练方法、图像处理方法及设备

Country Status (4)

Country Link
US (1) US20230196117A1 (zh)
EP (1) EP4198820A4 (zh)
CN (1) CN112183577A (zh)
WO (1) WO2022042002A1 (zh)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651467A (zh) * 2021-01-18 2021-04-13 第四范式(北京)技术有限公司 卷积神经网络的训练方法和***以及预测方法和***
CN112784818A (zh) * 2021-03-03 2021-05-11 电子科技大学 基于分组式主动学习在光学遥感图像上的识别方法
CN112801298A (zh) * 2021-01-20 2021-05-14 北京百度网讯科技有限公司 异常样本检测方法、装置、设备和存储介质
CN112926496A (zh) * 2021-03-19 2021-06-08 京东方科技集团股份有限公司 用于预测图像清晰度的神经网络、训练方法及预测方法
CN113033566A (zh) * 2021-03-19 2021-06-25 北京百度网讯科技有限公司 模型训练方法、识别方法、设备、存储介质及程序产品
CN113033682A (zh) * 2021-03-31 2021-06-25 北京有竹居网络技术有限公司 视频分类方法、装置、可读介质、电子设备
CN113052025A (zh) * 2021-03-12 2021-06-29 咪咕文化科技有限公司 图像融合模型的训练方法、图像融合方法及电子设备
CN113128669A (zh) * 2021-04-08 2021-07-16 中国科学院计算技术研究所 一种用于半监督学习的神经网络模型以及半监督学习方法
CN113139051A (zh) * 2021-03-29 2021-07-20 广东外语外贸大学 文本分类模型训练方法、文本分类方法、设备和介质
CN113158554A (zh) * 2021-03-25 2021-07-23 腾讯科技(深圳)有限公司 模型优化方法、装置、计算机设备及存储介质
CN113239901A (zh) * 2021-06-17 2021-08-10 北京三快在线科技有限公司 场景识别方法、装置、设备及存储介质
CN113283948A (zh) * 2021-07-14 2021-08-20 腾讯科技(深圳)有限公司 预测模型的生成方法、装置、设备和可读介质
CN113298159A (zh) * 2021-05-28 2021-08-24 平安科技(深圳)有限公司 目标检测方法、装置、电子设备及存储介质
CN113436192A (zh) * 2021-08-26 2021-09-24 深圳科亚医疗科技有限公司 一种病理图像的分类学习方法、分类***及可读介质
CN113516251A (zh) * 2021-08-05 2021-10-19 上海高德威智能交通***有限公司 一种机器学习***及模型训练方法
CN113642671A (zh) * 2021-08-27 2021-11-12 京东科技信息技术有限公司 基于任务分布变化的半监督元学习方法及装置
CN113673622A (zh) * 2021-08-31 2021-11-19 三一专用汽车有限责任公司 激光点云数据标注方法、装置、设备及产品
CN113688665A (zh) * 2021-07-08 2021-11-23 华中科技大学 一种基于半监督迭代学习的遥感影像目标检测方法及***
CN113762393A (zh) * 2021-09-08 2021-12-07 杭州网易智企科技有限公司 模型训练方法、注视点检测方法、介质、装置和计算设备
CN113792798A (zh) * 2021-09-16 2021-12-14 平安科技(深圳)有限公司 基于多源数据的模型训练方法、装置及计算机设备
CN113837670A (zh) * 2021-11-26 2021-12-24 北京芯盾时代科技有限公司 风险识别模型训练方法及装置
CN113850301A (zh) * 2021-09-02 2021-12-28 支付宝(杭州)信息技术有限公司 训练数据的获取方法和装置、模型训练方法和装置
CN114092097A (zh) * 2021-11-23 2022-02-25 支付宝(杭州)信息技术有限公司 风险识别模型的训练方法、交易风险确定方法及装置
WO2022042002A1 (zh) * 2020-08-31 2022-03-03 华为技术有限公司 一种半监督学习模型的训练方法、图像处理方法及设备
CN114218872A (zh) * 2021-12-28 2022-03-22 浙江大学 基于dbn-lstm半监督联合模型的剩余使用寿命预测方法
CN114241264A (zh) * 2021-12-17 2022-03-25 深圳尚米网络技术有限公司 用户判别模型训练方法、用户判别方法及相关装置
CN114299349A (zh) * 2022-03-04 2022-04-08 南京航空航天大学 一种基于多专家***和知识蒸馏的众包图像学习方法
CN114758180A (zh) * 2022-04-19 2022-07-15 电子科技大学 一种基于知识蒸馏的轻量化花卉识别方法
CN114898186A (zh) * 2022-07-12 2022-08-12 中科视语(北京)科技有限公司 细粒度图像识别模型训练、图像识别方法及装置
CN114915599A (zh) * 2022-07-19 2022-08-16 中国电子科技集团公司第三十研究所 一种基于半监督聚类学习的暗网站点会话识别方法及***
CN114943868A (zh) * 2021-05-31 2022-08-26 阿里巴巴新加坡控股有限公司 图像处理方法、装置、存储介质及处理器
CN114972725A (zh) * 2021-12-30 2022-08-30 华为技术有限公司 模型训练方法、可读介质和电子设备
CN114998691A (zh) * 2022-06-24 2022-09-02 浙江华是科技股份有限公司 半监督船舶分类模型训练方法及装置
CN115100717A (zh) * 2022-06-29 2022-09-23 腾讯科技(深圳)有限公司 特征提取模型的训练方法、卡通对象的识别方法及装置
CN115115886A (zh) * 2022-07-11 2022-09-27 北京航空航天大学 基于teacher-student模型的半监督目标检测方法
CN115331697A (zh) * 2022-10-14 2022-11-11 中国海洋大学 多尺度环境声音事件识别方法
CN115527083A (zh) * 2022-09-27 2022-12-27 中电金信软件有限公司 图像标注方法、装置和电子设备
CN115879535A (zh) * 2023-02-10 2023-03-31 北京百度网讯科技有限公司 一种自动驾驶感知模型的训练方法、装置、设备和介质
CN117009883A (zh) * 2023-09-28 2023-11-07 腾讯科技(深圳)有限公司 对象分类模型构建方法、对象分类方法、装置和设备
CN113298159B (zh) * 2021-05-28 2024-06-28 平安科技(深圳)有限公司 目标检测方法、装置、电子设备及存储介质

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230138254A1 (en) * 2021-10-29 2023-05-04 International Business Machines Corporation Temporal contrastive learning for semi-supervised video action recognition
KR102394024B1 (ko) * 2021-11-19 2022-05-06 서울대학교산학협력단 자율 주행 차량에서 객체 검출을 위한 준지도 학습 방법 및 이러한 방법을 수행하는 장치
CN114781207B (zh) * 2022-03-29 2024-04-12 中国人民解放军军事科学院国防科技创新研究院 基于不确定性和半监督学习的热源布局温度场预测方法
CN114693995B (zh) * 2022-04-14 2023-07-07 北京百度网讯科技有限公司 应用于图像处理的模型训练方法、图像处理方法和设备
CN117033993A (zh) * 2022-04-29 2023-11-10 华东交通大学 一种基于最小角排序选择的优选训练集的方法
CN115127192B (zh) * 2022-05-20 2024-01-23 中南大学 基于图神经网络的半监督的冷水机组故障诊断方法及***
CN114758197B (zh) * 2022-06-15 2022-11-01 深圳瀚维智能医疗科技有限公司 数据筛选方法、装置及计算机可读存储介质
CN115082800B (zh) * 2022-07-21 2022-11-15 阿里巴巴达摩院(杭州)科技有限公司 图像分割方法
CN115482418B (zh) * 2022-10-09 2024-06-07 北京呈创科技股份有限公司 基于伪负标签的半监督模型训练方法、***及应用
CN115346076B (zh) * 2022-10-18 2023-01-17 安翰科技(武汉)股份有限公司 病理图像识别方法及其模型训练方法、***和存储介质
CN115913769B (zh) * 2022-12-20 2023-09-08 海口盛通达投资控股有限责任公司 基于人工智能的数据安全存储方法及***
CN116089838B (zh) * 2023-03-01 2023-09-26 中南大学 窃电用户智能识别模型训练方法和识别方法
CN116258861B (zh) * 2023-03-20 2023-09-22 南通锡鼎智能科技有限公司 基于多标签学习的半监督语义分割方法以及分割装置
CN116188876B (zh) * 2023-03-29 2024-04-19 上海锡鼎智能科技有限公司 基于信息混合的半监督学习方法及半监督学习装置
CN116170829B (zh) * 2023-04-26 2023-07-04 浙江省公众信息产业有限公司 一种独立专网业务的运维场景识别方法及装置
CN116306875B (zh) * 2023-05-18 2023-08-01 成都理工大学 基于空间预学习与拟合的排水管网样本增量学习方法
CN116935368A (zh) * 2023-06-14 2023-10-24 北京百度网讯科技有限公司 深度学习模型训练方法、文本行检测方法、装置及设备
CN116978008B (zh) * 2023-07-12 2024-04-26 睿尔曼智能科技(北京)有限公司 一种融合rgbd的半监督目标检测方法和***
CN116664602B (zh) * 2023-07-26 2023-11-03 中南大学 基于少样本学习的octa血管分割方法及成像方法
CN116665064B (zh) * 2023-07-27 2023-10-13 城云科技(中国)有限公司 基于生成蒸馏与特征扰动的城市变化图生成方法及其应用
CN116935188B (zh) * 2023-09-15 2023-12-26 腾讯科技(深圳)有限公司 模型训练方法、图像识别方法、装置、设备及介质
CN116935447B (zh) * 2023-09-19 2023-12-26 华中科技大学 基于自适应师生结构的无监督域行人重识别方法及***
CN117152587B (zh) * 2023-10-27 2024-01-26 浙江华是科技股份有限公司 一种基于对抗学习的半监督船舶检测方法及***
CN117149551B (zh) * 2023-10-30 2024-02-09 鹰驾科技(深圳)有限公司 一种车载无线通信芯片的测试方法
CN117558050B (zh) * 2023-11-17 2024-05-28 西安理工大学 面向边缘计算端的实时人脸表情识别方法及人机交互***
CN117497064A (zh) * 2023-12-04 2024-02-02 电子科技大学 基于半监督学习的单细胞三维基因组数据分析方法
CN117611957B (zh) * 2024-01-19 2024-03-29 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 基于统一正负伪标签的无监督视觉表征学习方法及***
CN117726884B (zh) * 2024-02-09 2024-05-03 腾讯科技(深圳)有限公司 对象类别识别模型的训练方法、对象类别识别方法及装置
CN117789067B (zh) * 2024-02-27 2024-05-10 山东字节信息科技有限公司 一种基于机器学习的无人机农作物监测方法及***
CN117910539B (zh) * 2024-03-19 2024-05-31 电子科技大学 一种基于异构半监督联邦学习的家庭特征识别方法
CN117975342B (zh) * 2024-03-28 2024-06-11 江西尚通科技发展有限公司 半监督多模态情感分析方法、***、存储介质及计算机
CN118015316B (zh) * 2024-04-07 2024-06-11 之江实验室 一种图像匹配模型训练的方法、装置、存储介质、设备
CN118035879A (zh) * 2024-04-11 2024-05-14 湖北省地质环境总站 一种基于InSAR与半监督学习的地质灾害隐患识别方法
CN118053602B (zh) * 2024-04-16 2024-06-25 首都医科大学宣武医院 基于智慧病房呼叫***的数据处理方法及数据处理***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318242A (zh) * 2014-10-08 2015-01-28 中国人民解放军空军工程大学 一种高效的svm主动半监督学习算法
CN106548190A (zh) * 2015-09-18 2017-03-29 三星电子株式会社 模型训练方法和设备以及数据识别方法
CN108021931A (zh) * 2017-11-20 2018-05-11 阿里巴巴集团控股有限公司 一种数据样本标签处理方法及装置
US20200125927A1 (en) * 2018-10-22 2020-04-23 Samsung Electronics Co., Ltd. Model training method and apparatus, and data recognition method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6612855B2 (ja) * 2014-09-12 2019-11-27 マイクロソフト テクノロジー ライセンシング,エルエルシー 出力分布による生徒dnnの学習
US11120337B2 (en) * 2017-10-20 2021-09-14 Huawei Technologies Co., Ltd. Self-training method and system for semi-supervised learning with generative adversarial networks
CN110298415B (zh) * 2019-08-20 2019-12-03 视睿(杭州)信息科技有限公司 一种半监督学习的训练方法、***和计算机可读存储介质
CN111222648B (zh) * 2020-01-15 2023-09-26 深圳前海微众银行股份有限公司 半监督机器学习优化方法、装置、设备及存储介质
CN112183577A (zh) * 2020-08-31 2021-01-05 华为技术有限公司 一种半监督学习模型的训练方法、图像处理方法及设备

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318242A (zh) * 2014-10-08 2015-01-28 中国人民解放军空军工程大学 一种高效的svm主动半监督学习算法
CN106548190A (zh) * 2015-09-18 2017-03-29 三星电子株式会社 模型训练方法和设备以及数据识别方法
CN108021931A (zh) * 2017-11-20 2018-05-11 阿里巴巴集团控股有限公司 一种数据样本标签处理方法及装置
US20200125927A1 (en) * 2018-10-22 2020-04-23 Samsung Electronics Co., Ltd. Model training method and apparatus, and data recognition method

Cited By (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022042002A1 (zh) * 2020-08-31 2022-03-03 华为技术有限公司 一种半监督学习模型的训练方法、图像处理方法及设备
CN112651467B (zh) * 2021-01-18 2024-05-07 第四范式(北京)技术有限公司 卷积神经网络的训练方法和***以及预测方法和***
CN112651467A (zh) * 2021-01-18 2021-04-13 第四范式(北京)技术有限公司 卷积神经网络的训练方法和***以及预测方法和***
CN112801298A (zh) * 2021-01-20 2021-05-14 北京百度网讯科技有限公司 异常样本检测方法、装置、设备和存储介质
CN112801298B (zh) * 2021-01-20 2023-09-01 北京百度网讯科技有限公司 异常样本检测方法、装置、设备和存储介质
CN112784818A (zh) * 2021-03-03 2021-05-11 电子科技大学 基于分组式主动学习在光学遥感图像上的识别方法
CN113052025A (zh) * 2021-03-12 2021-06-29 咪咕文化科技有限公司 图像融合模型的训练方法、图像融合方法及电子设备
CN112926496A (zh) * 2021-03-19 2021-06-08 京东方科技集团股份有限公司 用于预测图像清晰度的神经网络、训练方法及预测方法
CN113033566A (zh) * 2021-03-19 2021-06-25 北京百度网讯科技有限公司 模型训练方法、识别方法、设备、存储介质及程序产品
CN113158554A (zh) * 2021-03-25 2021-07-23 腾讯科技(深圳)有限公司 模型优化方法、装置、计算机设备及存储介质
CN113158554B (zh) * 2021-03-25 2023-02-14 腾讯科技(深圳)有限公司 模型优化方法、装置、计算机设备及存储介质
CN113139051A (zh) * 2021-03-29 2021-07-20 广东外语外贸大学 文本分类模型训练方法、文本分类方法、设备和介质
CN113033682A (zh) * 2021-03-31 2021-06-25 北京有竹居网络技术有限公司 视频分类方法、装置、可读介质、电子设备
CN113033682B (zh) * 2021-03-31 2024-04-30 北京有竹居网络技术有限公司 视频分类方法、装置、可读介质、电子设备
CN113128669A (zh) * 2021-04-08 2021-07-16 中国科学院计算技术研究所 一种用于半监督学习的神经网络模型以及半监督学习方法
CN113298159A (zh) * 2021-05-28 2021-08-24 平安科技(深圳)有限公司 目标检测方法、装置、电子设备及存储介质
CN113298159B (zh) * 2021-05-28 2024-06-28 平安科技(深圳)有限公司 目标检测方法、装置、电子设备及存储介质
CN114943868A (zh) * 2021-05-31 2022-08-26 阿里巴巴新加坡控股有限公司 图像处理方法、装置、存储介质及处理器
CN114943868B (zh) * 2021-05-31 2023-11-14 阿里巴巴新加坡控股有限公司 图像处理方法、装置、存储介质及处理器
CN113239901A (zh) * 2021-06-17 2021-08-10 北京三快在线科技有限公司 场景识别方法、装置、设备及存储介质
CN113688665A (zh) * 2021-07-08 2021-11-23 华中科技大学 一种基于半监督迭代学习的遥感影像目标检测方法及***
CN113688665B (zh) * 2021-07-08 2024-02-20 华中科技大学 一种基于半监督迭代学习的遥感影像目标检测方法及***
CN113283948A (zh) * 2021-07-14 2021-08-20 腾讯科技(深圳)有限公司 预测模型的生成方法、装置、设备和可读介质
CN113516251A (zh) * 2021-08-05 2021-10-19 上海高德威智能交通***有限公司 一种机器学习***及模型训练方法
CN113516251B (zh) * 2021-08-05 2023-06-06 上海高德威智能交通***有限公司 一种机器学习***及模型训练方法
CN113436192A (zh) * 2021-08-26 2021-09-24 深圳科亚医疗科技有限公司 一种病理图像的分类学习方法、分类***及可读介质
CN113642671B (zh) * 2021-08-27 2024-03-05 京东科技信息技术有限公司 基于任务分布变化的半监督元学习方法及装置
CN113642671A (zh) * 2021-08-27 2021-11-12 京东科技信息技术有限公司 基于任务分布变化的半监督元学习方法及装置
CN113673622A (zh) * 2021-08-31 2021-11-19 三一专用汽车有限责任公司 激光点云数据标注方法、装置、设备及产品
CN113850301A (zh) * 2021-09-02 2021-12-28 支付宝(杭州)信息技术有限公司 训练数据的获取方法和装置、模型训练方法和装置
CN113762393A (zh) * 2021-09-08 2021-12-07 杭州网易智企科技有限公司 模型训练方法、注视点检测方法、介质、装置和计算设备
CN113762393B (zh) * 2021-09-08 2024-04-30 杭州网易智企科技有限公司 模型训练方法、注视点检测方法、介质、装置和计算设备
CN113792798A (zh) * 2021-09-16 2021-12-14 平安科技(深圳)有限公司 基于多源数据的模型训练方法、装置及计算机设备
CN114092097B (zh) * 2021-11-23 2024-05-24 支付宝(杭州)信息技术有限公司 风险识别模型的训练方法、交易风险确定方法及装置
CN114092097A (zh) * 2021-11-23 2022-02-25 支付宝(杭州)信息技术有限公司 风险识别模型的训练方法、交易风险确定方法及装置
CN113837670A (zh) * 2021-11-26 2021-12-24 北京芯盾时代科技有限公司 风险识别模型训练方法及装置
CN114241264A (zh) * 2021-12-17 2022-03-25 深圳尚米网络技术有限公司 用户判别模型训练方法、用户判别方法及相关装置
CN114241264B (zh) * 2021-12-17 2022-10-28 深圳尚米网络技术有限公司 用户判别模型训练方法、用户判别方法及相关装置
CN114218872A (zh) * 2021-12-28 2022-03-22 浙江大学 基于dbn-lstm半监督联合模型的剩余使用寿命预测方法
CN114972725B (zh) * 2021-12-30 2023-05-23 华为技术有限公司 模型训练方法、可读介质和电子设备
CN114972725A (zh) * 2021-12-30 2022-08-30 华为技术有限公司 模型训练方法、可读介质和电子设备
CN114299349A (zh) * 2022-03-04 2022-04-08 南京航空航天大学 一种基于多专家***和知识蒸馏的众包图像学习方法
CN114299349B (zh) * 2022-03-04 2022-05-13 南京航空航天大学 一种基于多专家***和知识蒸馏的众包图像学习方法
CN114758180A (zh) * 2022-04-19 2022-07-15 电子科技大学 一种基于知识蒸馏的轻量化花卉识别方法
CN114758180B (zh) * 2022-04-19 2023-10-10 电子科技大学 一种基于知识蒸馏的轻量化花卉识别方法
CN114998691A (zh) * 2022-06-24 2022-09-02 浙江华是科技股份有限公司 半监督船舶分类模型训练方法及装置
CN115100717A (zh) * 2022-06-29 2022-09-23 腾讯科技(深圳)有限公司 特征提取模型的训练方法、卡通对象的识别方法及装置
CN115115886A (zh) * 2022-07-11 2022-09-27 北京航空航天大学 基于teacher-student模型的半监督目标检测方法
CN114898186A (zh) * 2022-07-12 2022-08-12 中科视语(北京)科技有限公司 细粒度图像识别模型训练、图像识别方法及装置
CN114915599A (zh) * 2022-07-19 2022-08-16 中国电子科技集团公司第三十研究所 一种基于半监督聚类学习的暗网站点会话识别方法及***
CN114915599B (zh) * 2022-07-19 2022-11-11 中国电子科技集团公司第三十研究所 一种基于半监督聚类学习的暗网站点会话识别方法及***
CN115527083A (zh) * 2022-09-27 2022-12-27 中电金信软件有限公司 图像标注方法、装置和电子设备
CN115331697A (zh) * 2022-10-14 2022-11-11 中国海洋大学 多尺度环境声音事件识别方法
CN115879535A (zh) * 2023-02-10 2023-03-31 北京百度网讯科技有限公司 一种自动驾驶感知模型的训练方法、装置、设备和介质
CN117009883A (zh) * 2023-09-28 2023-11-07 腾讯科技(深圳)有限公司 对象分类模型构建方法、对象分类方法、装置和设备
CN117009883B (zh) * 2023-09-28 2024-04-02 腾讯科技(深圳)有限公司 对象分类模型构建方法、对象分类方法、装置和设备

Also Published As

Publication number Publication date
US20230196117A1 (en) 2023-06-22
EP4198820A4 (en) 2023-12-27
EP4198820A1 (en) 2023-06-21
WO2022042002A1 (zh) 2022-03-03

Similar Documents

Publication Publication Date Title
CN112183577A (zh) 一种半监督学习模型的训练方法、图像处理方法及设备
CN111797893B (zh) 一种神经网络的训练方法、图像分类***及相关设备
CN110414432B (zh) 对象识别模型的训练方法、对象识别方法及相应的装置
WO2021190451A1 (zh) 训练图像处理模型的方法和装置
CN111860588B (zh) 一种用于图神经网络的训练方法以及相关设备
CN111950596A (zh) 一种用于神经网络的训练方法以及相关设备
CN113807399B (zh) 一种神经网络训练方法、检测方法以及装置
CN111091175A (zh) 神经网络模型训练方法、分类方法、装置和电子设备
CN111368656A (zh) 一种视频内容描述方法和视频内容描述装置
CN111738403B (zh) 一种神经网络的优化方法及相关设备
CN113159283A (zh) 一种基于联邦迁移学习的模型训练方法及计算节点
CN113011568B (zh) 一种模型的训练方法、数据处理方法及设备
CN113516227B (zh) 一种基于联邦学习的神经网络训练方法及设备
CN113095475A (zh) 一种神经网络的训练方法、图像处理方法以及相关设备
CN113191241A (zh) 一种模型训练方法及相关设备
WO2021190433A1 (zh) 更新物体识别模型的方法和装置
WO2024060684A1 (zh) 模型训练方法、图像处理方法、设备及存储介质
CN115063585A (zh) 一种无监督语义分割模型的训练方法及相关装置
CN112529149A (zh) 一种数据处理方法及相关装置
CN115238909A (zh) 一种基于联邦学习的数据价值评估方法及其相关设备
CN115620122A (zh) 神经网络模型的训练方法、图像重识别方法及相关设备
CN113627421A (zh) 一种图像处理方法、模型的训练方法以及相关设备
CN113159315A (zh) 一种神经网络的训练方法、数据处理方法以及相关设备
CN116612466B (zh) 基于人工智能的内容识别方法、装置、设备及介质
CN111695419B (zh) 一种图像数据处理方法及相关装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination