CN112734037A - 基于记忆引导的弱监督学习方法、计算机设备和存储介质 - Google Patents

基于记忆引导的弱监督学习方法、计算机设备和存储介质 Download PDF

Info

Publication number
CN112734037A
CN112734037A CN202110048718.8A CN202110048718A CN112734037A CN 112734037 A CN112734037 A CN 112734037A CN 202110048718 A CN202110048718 A CN 202110048718A CN 112734037 A CN112734037 A CN 112734037A
Authority
CN
China
Prior art keywords
data
memory
label
information
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110048718.8A
Other languages
English (en)
Inventor
郭雨晨
孙希明
李育卉
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202110048718.8A priority Critical patent/CN112734037A/zh
Publication of CN112734037A publication Critical patent/CN112734037A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请提出一种基于记忆引导的弱监督学习方法、计算机设备和存储介质。其中方法包括:对带有正确标签的旧数据集进行编码处理,训练模型并按照(特征向量,标签)的形式存储于基础记忆池中。当学习新数据时,从记忆池中提取部分记忆信息与编码后的新数据一同输入预测模型训练,以记忆池中相似记忆的标签为基准进而对预测标签进行评判,将评判结果与新数据整理成一条形式同为(特征向量,标签)的新记忆,并筛选出暂时无法标注的数据以备后期再学习。不断重复该过程更新模型参数,直至本批次新信息全部处理完成后输出分类模型。本申请在尽可能减少模型对大型标注数据依赖的情况下训练出学习能力强的分类模型,实现知识迁移。

Description

基于记忆引导的弱监督学习方法、计算机设备和存储介质
技术领域
本申请涉及计算机人工智能领域,尤其涉及一种基于记忆引导的弱监督学习方法、计算机设备和存储介质。
背景技术
对于小样本学习来说,当输入数据包含一部分有标数据和一部分无标数据时,可归为不完全监督问题,通常有两大类方法解决。一是主动学习(Active Learning)。主动学习的目标是最小化查询的数量,即选择最有价值的未标记数据进行查询,需要专家人工进行标注。二是半监督学习(Semi-supervised Learning)。半监督学习则是在没有专家参与的情况下,利用无标数据的分布特征与有标数据的分布相关的特点,对其加以分析的学习范式。此外,还有研究者将近年来被广泛研究的迁移学习(Transfer Learning)与主动学习结合,通过同时从源域迁移知识和选择最有价值的数据进行标注,也取得了一些不错的成果。但目前存在一些问题,主动学习在建立选择查询样本的初始模型时,严重依赖于对数据的标注或其聚类结果,同时仍需不断查询人类专家,耗费大量人力;而迁移学习则对源域和目标域的数据分布一致性要求过高,不完全符合现实需求。
从目前的研究来看,现有的弱监督学习方法虽然可以有效的减少对大型标记数据的依赖,但这些方法大多将任务孤立考虑,缺乏持续学习与自适应学习的能力,同时对数据要求过高而对记忆利用较少。
发明内容
本申请旨在至少在一定程度上解决上述的技术问题之一。
为此,本申请的第一个目的在于提出一种基于记忆引导的弱监督学习方法,以解决如何通过记忆知识引导模型学习新的图像、数据信息,以及通过记忆辅助纠正错误的数据类别的弱监督、小样本学习问题,在尽可能减少模型对大型标注数据依赖的情况下训练出学习能力强的分类模型,实现知识迁移。
本申请的第二个目的在于提出一种计算机设备。
本申请的第三个目的在于提出一种非临时性计算机可读存储介质。
本申请的第四个目的在于提出一种计算机程序产品。
为达上述目的,本申请第一方面实施例提出了一种基于记忆引导的弱监督学习方法,包括:
对带有正确标签的旧数据集之中的每个旧数据进行编码处理,以获得每个旧数据的向量信息,并根据每个旧数据的向量信息和所述每个旧数据的正确标签训练一个预测模型;
基于所述每个旧数据的向量信息和所述每个旧数据的正确标签构建记忆池;其中,所述记忆池内包括多个记忆信息,每个所述记忆信息用于表示数据向量信息与标签的对应关系;
当学习新数据时,对所述新数据进行编码处理以获得所述新数据的向量信息,并从所述记忆池中提取至少部分记忆信息,将所述至少部分记忆信息与所述新数据的向量信息输入至所述预测模型训练,得到针对所述新数据的预测标签;
根据所述至少部分记忆信息获取参考标签,并根据所述参考标签对所述预测标签进行评判;
将评判结果与所述新数据的向量信息组成一条新记忆信息并存储至所述记忆池;
不断重复新数据的学习过程以更新模型参数,直至本批次新数据全部处理完成后输出分类模型。
本申请第二方面实施例提出了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时,实现本申请第一方面实施例所述的基于记忆引导的弱监督学习方法。
本申请第三方面实施例提出了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请第一方面实施例所述的基于记忆引导的弱监督学习方法。
本申请第四方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令被处理器执行时,执行本申请第一方面实施例所述的基于记忆引导的弱监督学习方法。
根据本申请实施例的技术方案,通过正确标注过的旧数据训练一个预测模型并构成记忆池模块,提取部分记忆引导模型学习新信息并更新自身参数,同时建立记忆辅助自纠错机制评判标签正误,增强***鲁棒性,最终输出对标注数据的依赖性弱的分类模型。具体来说,***对带有正确标签的旧数据集进行编码处理,训练模型并按照(特征向量,标签)的形式存储于基础记忆池中。当学习新数据时,从记忆池中提取部分记忆信息与编码后的新数据一同输入预测模型训练,以记忆池中相似记忆的标签为基准进而对预测标签进行评判,将评判结果与新数据整理成一条形式同为(特征向量,标签)的新记忆,并筛选出暂时无法标注的数据以备后期再学习。不断重复该过程更新模型参数,直至本批次新信息全部处理完成后输出分类模型。此外,本申请其中在对无标签新数据学习时,通过提取部分记忆的标签作为参考,利用数据扩增、最小化熵等操作生成预测标签,实现学习新信息时对已存储知识的调用。。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请实施例所提供的一种基于记忆引导的弱监督学习方法的流程图;
图2是根据本申请实施例的标签评判流程示意图;
图3是根据本申请实施例的预测标签生成流程示意图;
图4是根据本申请实施例的基于记忆引导的弱监督学习方法的流程示例图;以及
图5是根据本申请一个实施例的计算机设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的基于记忆引导的弱监督学习方法、计算机设备和存储介质。
图1为本申请实施例所提供的一种基于记忆引导的弱监督学习方法的流程图。如图1所示,该基于记忆引导的弱监督学习方法可以包括如下步骤。
在步骤101中,对带有正确标签的旧数据集之中的每个旧数据进行编码处理,以获得每个旧数据的向量信息,并根据每个旧数据的向量信息和每个旧数据的正确标签训练一个预测模型。
在步骤102中,基于每个旧数据的向量信息和每个旧数据的正确标签构建记忆池;其中,记忆池内包括多个记忆信息,每个记忆信息用于表示数据向量信息与标签的对应关系。
在步骤103中,当学习新数据时,对新数据进行编码处理以获得新数据的向量信息,并从记忆池中提取至少部分记忆信息,将至少部分记忆信息与新数据的向量信息输入至预测模型训练,得到针对新数据的预测标签。
在一些实施例中,所述从记忆池中提取至少部分记忆信息的具体实现过程可如下:将新数据的向量信息与记忆池之中每个记忆信息中的数据向量信息进行相似计算,并将相似计算结果满足相似记忆匹配指标的记忆信息作为至少部分记忆信息。其中,在本申请实施例中,通过以下公式进行相似计算:
dist(xi,mj)=||xi-mj||2
其中,xi表示新数据的向量信息,mj表示记忆池中第j个记忆信息中的数据向量信息,dist(xi,mj)表示以L2范数计算得到的新数据与第j个记忆信息之间的向量相似程度。
在本申请一些实施例中,所述将至少部分记忆信息与新数据的向量信息输入至预测模型训练,得到针对新数据的预测标签的具体实现过程可如下:对于预测模型输入的无标签数据进行R次数据增强,得到R个增强数据,并将R个增强数据分别通过预测模型得到R个预测分类概率;根据至少部分记忆信息获取参考标签;基于锐化函数处理R个预测分类概率的平均值和参考标签,得到针对新数据的预测标签。
在步骤104中,根据至少部分记忆信息获取参考标签,并根据参考标签对预测标签进行评判。
需要说明的是,在本申请实施例中,当学习新数据时,若新数据没有被标注,则预测模型的输入为至少部分记忆信息与待学习的无标签数据;若新数据被标注,则将新数据所带有的标签暂存,看作无标签数据,并与至少部分记忆信息作为预测模型的输入。
在一些实施例中,可计算预测模型输入的无标签数据的向量信息与至少部分记忆信息之中各个数据向量信息之间的距离,并将各个数据向量信息之间的距离作为各个数据向量信息的标签加权;以及根据至少部分记忆信息之中各个数据向量信息对应标签,以及各个数据向量信息的标签加权,获取参考标签。
在本申请实施例中,根据参考标签对预测标签进行评判的实现方式分为:带有标签的新数据输入和无标签的新数据输入。对于带有标签的新数据的模型预测标签进行评判时,如图2所示,可根据有标信息的特征向量在记忆池中查询提取最相似记忆,将提取记忆的标签作为基准,评判并选择信息自带的标签与模型输出的预测标签中更为准确的作为结果输出,最终结合新信息的特征向量,形成一条形式为(特征向量,标签)的记忆。
在本实施例中,对于无标签的新数据的模型预测标签进行评判:在真实情景中,无标签数据一般不会经过人工筛选,因此对于这类输入,本申请在模型预测模块后设置评判机制进行筛选,过滤掉各类别预测概率相当但没有明显类别指向的数据,只保留概率超过一定阈值的无标签数据。对于被筛选掉的数据可理解为是记忆池所涵盖类别之外的新信息,或是从未接触过的新领域知识,因此暂时不予标类,存储以待后期再学习。
在步骤105中,将评判结果与新数据的向量信息组成一条新记忆信息并存储至记忆池。
在步骤106中,不断重复新数据的学习过程以更新模型参数,直至本批次新数据全部处理完成后输出分类模型。
在本申请一些实施例中,还可构建损失函数,其中,构建损失函数综合有标签数据的交叉熵损失和无标签数据增强后的范数L2损失;
基于损失函数,计算参考标签和预测标签的损失值,根据损失值更新预测模型的模型参数;其中,损失函数表示如下:
LOSS°=LxuLu
Figure BDA0002898415580000071
其中,|X|与|U|为一次训练中所抓取的数据样本数量,数值上对应有标与无标数据集大小;L是分类类别个数,即记忆池中全部类别数;x,l是有标数据及其标签,u,yp是无标数据及其预测标签;H(l,°P(y|x;θ))是交叉熵函数;λu是平衡监督损失和无监督损失的平衡因子。
为了方便本领域技术人员更加清楚地了解本申请,下面将结合图2至图4对本申请进行详细描述。
如图2至图4所示,本申请实施例的基于记忆引导的弱监督学习方法主要包括:数据预处理、构建预测模型、构造目标函数、生成预测标签、标签评判机制(包括有标签输入和无标签输入)、记忆的提取和生成分类模型。具体实施方式如下:
(1)数据预处理
为了更好地描述信息所包含的内容,需要将输入信息编码为向量的形式,即进行特征提取。对于音频或图像等不同类型的信息输入,本申请在此统一给出通用的向量表示形式:
Figure BDA0002898415580000081
其中,xkj表示第k种特征向量中的第j个分量,而
Figure BDA0002898415580000082
则表示第k种特征向量中的最后一个分量。对于信息xi所属类别用li表示。编码任务结束后,形成特征向量与类别标签对(xi,li)。对于要存入记忆池的信息,则用mi代替xi,以(xi,li)的形式存储。
(2)构建预测模型
本申请将利用记忆来引导新信息的学习,因此在完成已正确标注的数据集的编码后,将数据集分为训练集、测试集两部分以训练预测模型,从而在预测模型中保留旧知识的相关记忆信息,后面用来预测新数据的标签。本申请将生成的分类预测模型记为P(y|x,θ),其中y是输入x的分类类别标签,θ为模型训练参数。目前有多种网络用于数据分类,可选择现有的循环神经网络(Recurrent Neural Network,简称:RNN)、长短期记忆网络(LongShort-Term Memory,简称:LSTM)作为基础模型,根据实际问题需求和学习信息的形式,先在相应的大量语料库上进行训练,如ImageNet图像集,再在原有信息集上进行微调。
(3)构造目标函数
本申请基于弱监督学习方法,即输入少量有标数据与无标数据,输出无标数据的分类标签。为借助记忆来引导新信息的学习,对于(2)中构建的预测模型,在新数据没有被标注时,输入则为从记忆池随机提取的部分正确标签数据(x,l)和要学习的无标签数据u;在新数据被标注时,将数据(u,y)所带有的标签y暂存,同样看作无标签数据,与记忆池中提取的部分标签数据(x,l)一同输入模型。
在弱监督学习框架的基础上,本申请在保证语义不变的情况下,通过数据增强(Data Augmentation)、最小化熵(Entropy Minimization)等系列操作对无标数据进行变换处理,然后通过一致性正则(Consistency Regulation)等方法来约束模型对于变换前后的数据保持不变性。本申请综合有标签数据的交叉熵损失和无标签数据增强后的L2损失,构成损失函数如下:
LOSS°=LxuLu
Figure BDA0002898415580000091
其中,|X|与|U|为一次训练中所抓取的数据样本数量,数值上对应有标与无标数据集大小;L是分类类别个数,即所述记忆池中全部类别数;x,l是有标数据及其标签,u,yp是无标数据及其预测标签;H(l,°P(y|x;θ))是交叉熵函数;λu是平衡监督损失和无监督损失的平衡因子,可根据实验情况进行具体设置。
该损失函数同时考虑了有标数据和无标数据,即记忆与新知,可以有效的利用知识辅助新信息分类,同时增强***的鲁棒性。其中,本申请选择均方误差MSE作为一致性损失函数,也可根据实际数据集情况选择KL散度代替MSE。
(4)生成预测标签
如图3所示,在计算损失函数L(θ)时使用到无标数据的预测标签yp,这是经过数据增强、记忆辅助调整、锐化等操作得到的一种“猜测”标签。首先对于输入的无标数据进行R次数据增强,得到ui,(i=1,...,R),分别通过模型得到R个预测分类概率。同时在记忆池中寻找与无标数据特征最为相似的k个记忆的标签,通过如下公式生成参考标签yr
Figure BDA0002898415580000101
Figure BDA0002898415580000102
其中,a是softmax函数,0<a(u,xi)<1,c是计算无标数据u和有标数据xi特征向量之间cosine距离的函数。选择有标数据和无标数据之间的cosine距离为有标数据的标签加权,参考标签yr则是由k个相似记忆的标签加权求和而来。
为了增强预测结果的自信程度,本申请采用最小化熵的方法。应用锐化函数Sharpen(p,T)处理参考标签yr和R个预测分类概率的平均值,减少标签分布的熵,以保证决策边界不通过边缘数据分布的高密度区域。最终将预测概率最高的类别输出,即预测标签yp。锐化函数公式如下:
Figure BDA0002898415580000103
其中,p为模型预测数据属于某一类的概率,T为温度参数。
(5)标签评判机制——有标签输入
本申请提出一种记忆辅助纠错机制用于评判模型对有标新信息的预测是否正确。如图2所示,根据有标信息的特征向量在记忆池中查询提取最相似记忆,将提取记忆的标签yb作为基准,评判并选择信息自带的标签y与模型输出的标签yb中更为准确的作为结果输出,最终结合新信息的特征向量,形成一条形式为(特征向量,标签)的记忆。
(6)标签评判机制——无标签输入
在真实情景中,无标签数据一般不会经过人工筛选,因此对于这类输入,本申请在模型预测模块后设置评判机制进行筛选,过滤掉各类别预测概率相当但没有明显类别指向的数据,只保留概率超过一定阈值的无标签数据。对于被筛选掉的数据可理解为是记忆池所涵盖类别之外的新信息,或是从未接触过的新领域知识,因此暂时不予标类,存储以待后期再学习。
(7)记忆的提取
在上述步骤中多处涉及相似记忆提取,本申请中认为特征向量的相似程度代表了数据信息可能归属于同一类别的程度,因为统一使用特征向量间的距离作为相似记忆匹配的指标,以L2范数为例:
dist(xi,mj)=||xi-mj||2
其中,xi表示新数据的向量信息,mj表示记忆池中第j个记忆信息中的数据向量信息,dist(xi,mj)表示以L2范数计算得到的新数据与第j个记忆信息之间的向量相似程度。
(8)生成分类模型
如前所述,步骤(1)到步骤(6)只完成了一批次的新数据学习,不断重复上述流程直到本次新数据全部学习完成,模型的参数更新完毕,便可得到相较之前学习能力更强的分类模型P(y|x,θ),即依赖少量标注数据的面向新数据的模型。此模型可用于对后续新数据的学习,做出分类和筛选。
综上所述,如图4所示,本申请实施例通过正确标注过的旧数据训练一个预测模型并构成记忆池模块,提取部分记忆引导模型学习新信息并更新自身参数,同时建立记忆辅助自纠错机制评判标签正误,增强***鲁棒性,最终输出对标注数据的依赖性弱的分类模型。具体来说,***对带有正确标签的旧数据集进行编码处理,训练模型并按照(特征向量,标签)的形式存储于基础记忆池中。当学习新数据时,从记忆池中提取部分记忆信息与编码后的新数据一同输入预测模型训练,以记忆池中相似记忆的标签为基准进而对预测标签进行评判,将评判结果与新数据整理成一条形式同为(特征向量,标签)的新记忆,并筛选出暂时无法标注的数据以备后期再学习。不断重复该过程更新模型参数,直至本批次新信息全部处理完成后输出分类模型。此外,本申请其中在对无标签新数据学习时,通过提取部分记忆的标签作为参考,利用数据扩增、最小化熵等操作生成预测标签,实现学习新信息时对已存储知识的调用。
从上述的描述可以看出,本申请能够通过构建记忆引导的弱监督学习框架,利用保留旧知识信息的模型学习新数据信息,融合记忆辅助自纠错机制,增强模型在不同场景与任务中对新信息的辨识学习能力,最终生成可利用少量标注数据而有效学习新数据的分类模型,节省了标注成本。从实验结果来看,本申请所提出的基于记忆引导的弱监督学习方法相较于现有的弱监督学习方法,在大量减少标注数据量的基础上显著提高了学习效率与准确度,具有较强的实际应用前景。
由此可见,本申请在弱监督学习框架的基础上引入记忆来引导模型学习无标签新信息,增强对不同场景与任务中新信息的辨识学习能力,有效地减少新任务学习时所需标注数据量,实现知识迁移与自主学习。另外,本申请综合考虑了记忆与新知,将有标数据的交叉熵损失和无标数据扩增后的一致性损失线性组合,加强对陌生数据的泛化能力,有助于利用旧知识辅助新信息正确分类,增强***的鲁棒性。
在预测标签生成过程中,本申请通过在提取无标数据有效信号的基础上,通过记忆辅助调整可以改善标签的预测水平,有助于提高模型的准确率。此外,本申请通过记忆辅助纠错机制,能够更为准确的评判模型输出的预测标签的正误,同时筛选出新领域的信息,有助于提高模型的鲁棒性。
为了实现上述实施例,本申请还提出一种计算机设备。
图5是根据本申请一个实施例的计算机设备的结构示意图。如图5所示,该计算机设备500可以包括:存储器501、处理器502及存储在存储器501上并可在处理器502上运行的计算机程序503,处理器502执行所述程序503时,实现本申请上述任一实施例所述的基于记忆引导的弱监督学习方法。
为了实现上述实施例,本申请还提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现本申请上述任一实施例所述的基于记忆引导的弱监督学习方法。
为了实现上述实施例,本申请还提出一种计算机程序产品,当所述计算机程序产品中的指令被处理器执行时,执行本申请上述任一实施例所述的基于记忆引导的弱监督学习方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行***、装置或设备(如基于计算机的***、包括处理器的***或其他可以从指令执行***、装置或设备取指令并执行指令的***)使用,或结合这些指令执行***、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行***、装置或设备或结合这些指令执行***、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行***执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。

Claims (9)

1.一种基于记忆引导的弱监督学习方法,其特征在于,包括:
对带有正确标签的旧数据集之中的每个旧数据进行编码处理,以获得每个旧数据的向量信息,并根据每个旧数据的向量信息和所述每个旧数据的正确标签训练一个预测模型;
基于所述每个旧数据的向量信息和所述每个旧数据的正确标签构建记忆池;其中,所述记忆池内包括多个记忆信息,每个所述记忆信息用于表示数据向量信息与标签的对应关系;
当学习新数据时,对所述新数据进行编码处理以获得所述新数据的向量信息,并从所述记忆池中提取至少部分记忆信息,将所述至少部分记忆信息与所述新数据的向量信息输入至所述预测模型训练,得到针对所述新数据的预测标签;
根据所述至少部分记忆信息获取参考标签,并根据所述参考标签对所述预测标签进行评判;
将评判结果与所述新数据的向量信息组成一条新记忆信息并存储至所述记忆池;
不断重复新数据的学习过程以更新模型参数,直至本批次新数据全部处理完成后输出分类模型。
2.根据权利要求1所述的方法,其特征在于,所述从所述记忆池中提取至少部分记忆信息,包括:
将所述新数据的向量信息与所述记忆池之中每个所述记忆信息中的数据向量信息进行相似计算;
将相似计算结果满足相似记忆匹配指标的记忆信息作为所述至少部分记忆信息。
3.根据权利要求2所述的方法,其特征在于,通过以下公式进行相似计算:
dist(xi,mj)=||xi-mj||2
其中,xi表示所述新数据的向量信息,mj表示所述记忆池中第j个记忆信息中的数据向量信息,dist(xi,mj)表示以L2范数计算得到的所述新数据与第j个记忆信息之间的向量相似程度。
4.根据权利要求1所述的方法,其特征在于,当学习新数据时,若所述新数据没有被标注,则所述预测模型的输入为所述至少部分记忆信息与待学习的无标签数据;若所述新数据被标注,则将所述新数据所带有的标签暂存,看作无标签数据,并与所述至少部分记忆信息作为所述预测模型的输入。
5.根据权利要求4所述的方法,其特征在于,所述根据所述至少部分记忆信息获取参考标签,包括:
计算所述预测模型输入的无标签数据的向量信息与所述至少部分记忆信息之中各个数据向量信息之间的距离;
将所述各个数据向量信息之间的距离作为所述各个数据向量信息的标签加权;
根据至少部分记忆信息之中各个数据向量信息对应标签,以及所述各个数据向量信息的标签加权,获取所述参考标签。
6.根据权利要求4所述的方法,其特征在于,所述将所述至少部分记忆信息与所述新数据的向量信息输入至所述预测模型训练,得到针对所述新数据的预测标签,包括:
对于所述预测模型输入的无标签数据进行R次数据增强,得到R个增强数据,并将所述R个增强数据分别通过所述预测模型得到R个预测分类概率;
根据所述至少部分记忆信息获取参考标签;
基于锐化函数处理所述R个预测分类概率的平均值和所述参考标签,得到针对所述新数据的预测标签。
7.根据权利要求1至6中任一项所述的方法,其特征在于,还包括:
构建损失函数,其中,所述构建损失函数综合有标签数据的交叉熵损失和无标签数据增强后的范数L2损失;
基于所述损失函数,计算所述参考标签和所述预测标签的损失值,根据所述损失值更新所述预测模型的模型参数;其中,所述损失函数表示如下:
LOSS°=LxuLu
Figure FDA0002898415570000031
其中,|X|与|U|为一次训练中所抓取的数据样本数量,数值上对应有标与无标数据集大小;L是分类类别个数,即所述记忆池中全部类别数;x,l是有标数据及其标签,u,yp是无标数据及其预测标签;H(l,°P(y|x;θ))是交叉熵函数;λu是平衡监督损失和无监督损失的平衡因子。
8.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时,实现如权利要求1至7中任一项所述的基于记忆引导的弱监督学习方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任一项所述的基于记忆引导的弱监督学习方法。
CN202110048718.8A 2021-01-14 2021-01-14 基于记忆引导的弱监督学习方法、计算机设备和存储介质 Pending CN112734037A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110048718.8A CN112734037A (zh) 2021-01-14 2021-01-14 基于记忆引导的弱监督学习方法、计算机设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110048718.8A CN112734037A (zh) 2021-01-14 2021-01-14 基于记忆引导的弱监督学习方法、计算机设备和存储介质

Publications (1)

Publication Number Publication Date
CN112734037A true CN112734037A (zh) 2021-04-30

Family

ID=75593067

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110048718.8A Pending CN112734037A (zh) 2021-01-14 2021-01-14 基于记忆引导的弱监督学习方法、计算机设备和存储介质

Country Status (1)

Country Link
CN (1) CN112734037A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255807A (zh) * 2021-06-03 2021-08-13 北京的卢深视科技有限公司 人脸解析模型训练方法、电子设备及存储介质
CN115082955A (zh) * 2022-05-12 2022-09-20 华南理工大学 一种深度学习全局优化方法、识别方法、装置及介质
CN116524297A (zh) * 2023-04-28 2023-08-01 迈杰转化医学研究(苏州)有限公司 一种基于专家反馈的弱监督学习训练方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113255807A (zh) * 2021-06-03 2021-08-13 北京的卢深视科技有限公司 人脸解析模型训练方法、电子设备及存储介质
CN113255807B (zh) * 2021-06-03 2022-03-25 北京的卢深视科技有限公司 人脸解析模型训练方法、电子设备及存储介质
CN115082955A (zh) * 2022-05-12 2022-09-20 华南理工大学 一种深度学习全局优化方法、识别方法、装置及介质
CN115082955B (zh) * 2022-05-12 2024-04-16 华南理工大学 一种深度学习全局优化方法、识别方法、装置及介质
CN116524297A (zh) * 2023-04-28 2023-08-01 迈杰转化医学研究(苏州)有限公司 一种基于专家反馈的弱监督学习训练方法
CN116524297B (zh) * 2023-04-28 2024-02-13 迈杰转化医学研究(苏州)有限公司 一种基于专家反馈的弱监督学习训练方法

Similar Documents

Publication Publication Date Title
CN108960073B (zh) 面向生物医学文献的跨模态图像模式识别方法
CN112734037A (zh) 基于记忆引导的弱监督学习方法、计算机设备和存储介质
CN110866536A (zh) 一种基于PU learning的跨区域企业偷漏税识别方法
CN109522961B (zh) 一种基于字典深度学习的半监督图像分类方法
CN113688851B (zh) 数据标注方法和装置和精细粒度识别方法和装置
CN111813618A (zh) 数据异常检测方法、装置、设备及存储介质
CN114357221B (zh) 一种基于图像分类的自监督主动学习方法
CN115439685A (zh) 一种小样本图像数据集划分方法及计算机可读存储介质
CN115471739A (zh) 基于自监督对比学习的跨域遥感场景分类与检索方法
CN114913546A (zh) 一种人物交互关系检测方法及***
CN111241987A (zh) 基于代价敏感的三支决策的多目标模型视觉追踪方法
CN111191033A (zh) 一种基于分类效用的开集分类方法
Myers-Dean et al. Generalized few-shot semantic segmentation: All you need is fine-tuning
CN113705215A (zh) 一种基于元学习的大规模多标签文本分类方法
CN113128410A (zh) 一种基于轨迹关联学习的弱监督行人重识别方法
CN116028878A (zh) 面向图像分类的多样化查询主动学习方法及装置
CN116798004A (zh) 一种车辆重识别方法、***、装置及存储介质
CN117195031A (zh) 一种基于神经网络和知识图谱双通道***的电磁辐射源个体识别方法
CN114678060A (zh) 基于氨基酸知识图谱和主动学习的蛋白质改造方法
CN114418111A (zh) 标签预测模型训练及样本筛选方法、装置、存储介质
CN114648094A (zh) 机器学习装置以及方法
CN114462526B (zh) 一种分类模型训练方法、装置、计算机设备及存储介质
CN116975695B (zh) 一种基于多智能体强化学习的肢体运动识别***
CN114896479B (zh) 一种在线学习方法、***及计算机可读存储介质
CN116403074B (zh) 基于主动标注的半自动图像标注方法及标注装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210430