CN112308143A - 一种基于多样性的样本筛选方法、***、设备及介质 - Google Patents

一种基于多样性的样本筛选方法、***、设备及介质 Download PDF

Info

Publication number
CN112308143A
CN112308143A CN202011195231.4A CN202011195231A CN112308143A CN 112308143 A CN112308143 A CN 112308143A CN 202011195231 A CN202011195231 A CN 202011195231A CN 112308143 A CN112308143 A CN 112308143A
Authority
CN
China
Prior art keywords
sample
samples
classification model
unlabeled
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011195231.4A
Other languages
English (en)
Inventor
曹文飞
赵礼悦
胡祎波
蒋博劼
张旭
张博宣
卢智聪
翁谦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Yuncongxihe Artificial Intelligence Co ltd
Original Assignee
Jiangsu Yuncongxihe Artificial Intelligence Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Yuncongxihe Artificial Intelligence Co ltd filed Critical Jiangsu Yuncongxihe Artificial Intelligence Co ltd
Priority to CN202011195231.4A priority Critical patent/CN112308143A/zh
Publication of CN112308143A publication Critical patent/CN112308143A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于多样性的样本筛选方法、***、设备及介质,通过从目标样本集中获取部分未标注样本形成候选样本集;利用分类模型对所有增强样本进行预测,并根据预测结果计算候选样本集中每个未标注样本的多样性值;根据计算出的多样性值从候选样本集中筛选出若干个未标注样本,以作为分类模型的训练样本。其中,目标样本集中的样本包括以下至少之一:图像、语音、文字。本发明提出利用样本多样性值来对筛选待标注样本,可以更加高效的挑选出最难分类的样本,进而有助于在减少数据标注代价的基础上使分类模型达到较为理想的分类精度。通过本发明能够解决传统需要对全量样本进行标注时耗资巨大的问题。

Description

一种基于多样性的样本筛选方法、***、设备及介质
技术领域
本发明涉及人工智能技术领域,特别是涉及一种基于多样性的样本筛选方法、***、设备及介质。
背景技术
近年来,计算机软硬件能力的快速提升为人工智能技术带来了生机,使其在工业界和学术界取得了***的成果,同时也为很多行业迎来了新的发展契机。以机器学习为代表的人工智能技术常被应用于计算机视觉、自然语言处理以及语音识别等领域,在这些领域中有海量的数据可用于建模,然而,在实际的应用场景中,获取足量的用于模型训练的样本往往会遇到诸多限制。
构建和训练出理想的机器学习模型需要大量的标注数据,当前的数据标注工作主要是靠人力来完成,这无疑需要消耗大量的人力、物力以及时间等资源,特别是对于深度学习而言,其对数据量的需求更加庞大。此外,机器学习或深度学习模型的训练过程同样需要花费较高的代价,且这种代价会随入模样本量的增大而增大。因此,需要一种可以从海量数据中选出最具代表性样本的方式,以达到降低数据标注成本同时确保模型具有理想精度的目的。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种基于多样性的样本筛选方法、***、设备及介质,用于解决现有技术中存在的问题。
为实现上述目的及其他相关目的,本发明提供一种基于多样性的样本筛选方法,应用于计算机模型训练过程,包括以下步骤:
从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值;
根据计算出的多样性值从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
可选地,获取所述分类模型的过程包括:
从所述目标样本集中获取剩余的未标注样本;
对剩余的未标注样本进行标注,形成初始训练集;
利用所述初始训练集对初始分类模型进行训练,获取初始训练分类模型;并将所述初始训练分类模型作为所述分类模型;
或者,使用预训练模型对初始分类模型进行训练,获取初始训练分类模型;并将所述初始训练分类模型作为所述分类模型。
可选地,获取所述分类模型的过程还包括:
将从候选样本集中筛选出若干个未标注样本推送至标注平台进行标注,并将完成标注后的若干个样本加入至所述初始训练集中扩充所述初始训练集;
根据扩充后的初始训练集对所述分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为所述最终的分类模型。
可选地,在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:
利用未进行迭代优化的所述分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的所述分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。
可选地,利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值,包括:
利用所述分类模型预测每一所述增强样本被预测为样本类别集合中各类别的概率,以得到所述预测结果;
对于第i个未标注样本对应的任意两个增强样本
Figure BDA0002753832250000021
和增强样本
Figure BDA0002753832250000022
通过样本间的对称KL散度计算两者之间的距离:
Figure BDA0002753832250000023
其中,0<j≤m,0<l≤m;Y为样本类别集合;|Y|为样本类别总数;
Figure BDA0002753832250000024
为增强样本
Figure BDA0002753832250000025
被预测为样本类别集合中第k个类别的概率;
Figure BDA0002753832250000026
为增强样本
Figure BDA0002753832250000027
被预测为样本类别集合中第k个类别的概率;i为所述候选样本集中未标注样本的样本编号;di(j,l)为增强样本
Figure BDA0002753832250000028
和增强样本
Figure BDA0002753832250000029
的距离;
对m个增强样本进行两两组合后的距离进行求和,并将求和后的数值作为所述候选样本集中的第i个未标注样本的多样性值大小;
Figure BDA0002753832250000031
其中,所述m个增强样本由第i个未标注样本进行数据增强得到;Ri为所述候选样本集中的第i个未标注样本的多样性值大小。
可选地,还包括对所述候选样本集中的每个未标注样本进行数据增强,生成对应的增强样本;若所述目标样本集中的样本为图像;则对图像进行数据增强的方式包括以下至少之一:
对图像进行旋转、对图像进行错切、对图像进行翻转、对图像进行色彩调整、对图像进行色调分离、对图像进行曝光度调整、对图像进行对比度调整、对图像进行亮度调整、对图像进行锐化。
本发明还提供一种基于多样性的样本筛选***,应用于计算机模型训练过程,包括有:
样本采集模块,用于从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
样本多样性值模块,用于利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值;
样本筛选模块,用于根据计算出的多样性值从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
可选地,所述样本多样性值模块中的分类模型获取过程包括:
从所述目标样本集中获取剩余的未标注样本;
对剩余的未标注样本进行标注,形成初始训练集;
利用所述初始训练集对初始分类模型进行训练,获取初始训练分类模型;并将所述初始训练分类模型作为所述分类模型;
或者,使用预训练模型对初始分类模型进行训练,获取初始训练分类模型;并将所述初始训练分类模型作为所述分类模型。
可选地,所述样本多样性值模块中的分类模型获取过程还包括:
将从候选样本集中筛选出的若干个未标注样本推送至标注平台进行标注,并将完成标注后的若干个样本加入至所述初始训练集中扩充所述初始训练集;
根据扩充后的初始训练集对所述分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为所述最终的分类模型。
可选地,在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:
利用未进行迭代优化的所述分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的所述分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。
可选地,所述样本多样性值模块利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值,包括:
利用所述分类模型预测每一所述增强样本被预测为样本类别集合中各类别的概率,以得到所述预测结果;
对于第i个未标注样本对应的任意两个增强样本
Figure BDA0002753832250000041
和增强样本
Figure BDA0002753832250000042
通过样本间的对称KL散度计算两者之间的距离:
Figure BDA0002753832250000043
其中,0<j≤m,0<l≤m;Y为样本类别集合;|Y|为样本类别总数;
Figure BDA0002753832250000044
为增强样本
Figure BDA0002753832250000045
被预测为样本类别集合中第k个类别的概率;
Figure BDA0002753832250000046
为增强样本
Figure BDA0002753832250000047
被预测为样本类别集合中第k个类别的概率;i为所述候选样本集中未标注样本的样本编号;di(j,l)为增强样本
Figure BDA0002753832250000048
和增强样本
Figure BDA0002753832250000049
的距离;
对m个增强样本进行两两组合后的距离进行求和,并将求和后的数值作为所述候选样本集中的第i个未标注样本的多样性值大小;
Figure BDA00027538322500000410
其中,所述m个增强样本由第i个未标注样本进行数据增强得到;Ri为所述候选样本集中的第i个未标注样本的多样性值大小。
可选地,还包括样本增强模块,用于对所述候选样本集中的每个未标注样本进行数据增强,生成对应的增强样本;若所述目标样本集中的样本为图像;则对图像进行数据增强的方式包括以下至少之一:
对图像进行旋转、对图像进行错切、对图像进行翻转、对图像进行色彩调整、对图像进行色调分离、对图像进行曝光度调整、对图像进行对比度调整、对图像进行亮度调整、对图像进行锐化。
本发明还提供一种设备,包括:
一个或多个处理器;和
存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行所述指令时,使得所述设备执行如上述中任意一项所述的方法。
本发明还提供一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行所述指令时,使得设备执行如上述中任意一项所述的方法。
如上所述,本发明提供一种基于多样性的样本筛选方法、***、设备及介质,具有以下有益效果:通过从目标样本集中获取部分未标注样本形成候选样本集;利用分类模型对所有增强样本进行预测,并根据预测结果计算候选样本集中每个未标注样本的多样性值;根据计算出的多样性值从候选样本集中筛选出若干个未标注样本,以作为分类模型的训练样本。其中,目标样本集中的样本包括以下至少之一:图像、语音、文字。本发明基于数据增强来设定样本多样性的指标,利用训练后的分类模型对进行数据增强后的新样本进行预测;根据预测结果计算候选样本集中未标注样本的多样性值,如果预测结果越难统一,则认为该样本多样性值越高。再根据计算出的样本多样性值从候选样本集中筛选出若干个未标注样本。本发明提出利用样本多样性值来对筛选待标注样本,可以更加高效的挑选出最难分类的样本,进而有助于在减少数据标注代价的基础上使分类模型达到较为理想的分类精度。而且通过本发明可以高效地从海量样本数据中筛选出最具代表性、最具有价值的少量未标注样本,将筛选出的这些少量的未标注样本用于进行标注,可以显著地减少标注样本的代价;从而能够解决传统需要对全量样本进行标注时耗资巨大的问题。本发明还可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
附图说明
图1为一实施例提供的筛选样本的方法流程示意图;
图2为另一实施例提供的筛选样本的方法流程示意图;
图3为一实施例提供的筛选样本的***硬件结构示意图;
图4为一实施例提供的终端设备的硬件结构示意图;
图5为另一实施例提供的终端设备的硬件结构示意图。
元件标号说明
M10 样本采集模块
M20 样本多样性值模块
M30 样本筛选模块
M40 样本增强模块
1100 输入设备
1101 第一处理器
1102 输出设备
1103 第一存储器
1104 通信总线
1200 处理组件
1201 第二处理器
1202 第二存储器
1203 通信组件
1204 电源组件
1205 多媒体组件
1206 音频组件
1207 输入/输出接口
1208 传感器组件
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
请参阅图1,本发明提供一种基于多样性的样本筛选方法,应用于计算机模型训练过程,包括以下步骤:
S100,从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
S200,利用分类模型对所有增强样本进行预测,并根据预测结果计算候选样本集中每个未标注样本的多样性值;
S300,根据计算出的多样性值从候选样本集中筛选出若干个未标注样本,以作为分类模型的训练样本。
本方法基于数据增强来设定样本多样性的指标,利用训练后的分类模型对进行数据增强后的新样本进行预测;根据预测结果计算候选样本集中未标注样本的多样性值,如果预测结果越难统一,则认为该样本多样性值越高。再根据计算出的多样性值从候选样本集中筛选出若干个未标注样本。通过本方法可以高效地从海量样本数据中筛选出最具代表性、最具有价值的少量未标注样本,将筛选出的这些少量的未标注样本用于进行标注,可以显著地减少标注样本的代价;从而能够解决传统需要对全量样本进行标注时耗资巨大的问题。而且本方法还可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
作为本方法中的一个示例性实施例,例如从候选样本集中筛选出多样性值最大的前K个未标注样本,则包括以下步骤:
从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
对候选样本集中的每个未标注样本进行数据增强,生成对应的增强样本;
利用分类模型对所有增强样本进行预测,并根据预测结果计算候选样本集中每个未标注样本的多样性值;
根据多样性值计算结果对候选样本集中的未标注样本进行排序,从候选样本集中筛选出多样性值最大的前K个未标注样本,以作为分类模型的训练样本。
本实施例基于数据增强来设定样本多样性的指标,利用训练后的分类模型对进行数据增强后的新样本进行预测;根据预测结果计算候选样本集中未标注样本的多样性值,如果预测结果越难统一,则认为该样本多样性值越高。再根据样本多样性值的大小排序结果从候选样本集中筛选出多样性值最大的前K个未标注样本。通过本实施例可以高效地从海量样本数据中筛选出最具代表性、最具有价值的少量未标注样本,将筛选出的这些少量的未标注样本用于进行标注,可以显著地减少标注样本的代价;从而能够解决传统需要对全量样本进行标注时耗资巨大的问题。而且本实施例还可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
在一示例性实施例中,获取分类模型的过程包括:从目标样本集中获取剩余的未标注样本;对剩余的未标注样本进行人工标注,形成初始训练集;利用初始训练集对初始分类模型进行训练,获取初始训练分类模型;并将初始训练分类模型作为分类模型。作为示例,本申请实施例中抽取初始训练集的方式可以是随机选择,也可以是人为指定,还可以通过设计特定的算法进行挑选。本申请实施例中的初始分类模型包括但不限于vgg,resnet等深度学习模型。作为另一示例性实施例,获取分类模型时,还可以选择在使用预训练模型的基础上对初始分类模型进行训练;获取初始训练分类模型;并将获取的初始训练分类模型作为分类模型。本申请实施例通过使用预训练模型对初始分类模型进行训练,可以很大程度上提高初始分类模型的分类能力。其中,预训练模型可以是在imagenet等数据集上得到的预训练模型。
在另一示例性实施例中,获取分类模型的过程还包括:将从候选样本集中筛选出的若干个未标注样本记为候选样本,例如可以将从候选样本集中筛选出的多样性值最大的前K个未标注样本记为候选样本;将候选样本推送至标注平台进行标注,并将完成标注后的候选样本加入至初始训练集中扩充初始训练集;根据扩充后的初始训练集对分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为最终的分类模型;其中,分类模型包括以下至少之一:初始分类模型、预训练模型、初始训练分类模型。本申请实施例将标注后的候选样本加入至初始训练集得到新的训练集,即扩充后的初始训练集;新的训练集不仅有更多的样本数量,而且包含了最具代表性的候选样本,有着更为丰富的信息量,利用新的训练集对分类模型进行训练,可以达到迭代优化分类模型的目的。作为示例,例如使用新的训练集来对初始分类模型从最开始进行模型训练;或者使用新的训练集来对预训练模型进行模型微调;或者使用新的训练集来对初始训练分类模型进行增量学习。本申请实施例中,分类模型完成迭代优化训练可以是利用扩充后的初始训练集对分类模型进行一次或多次迭代优化训练,使分类模型的迭代优化训练次数达到实际要求的训练次数即可。还可以是利用扩充后的初始训练集对分类模型进行一次或多次迭代优化,直至迭代优化训练后的分类模型满足终止条件。作为一示例,本申请实施例中的终止条件可以是迭代优化训练后的分类模型的模型效果达到按照实际要求设定的阈值;其中,模型效果参数指标包括以下至少之一:模型F1值、训练损失loss、AUC值、准确率、召回率、标注量。作为另一示例,终止条件还可以是迭代优化训练后的分类模型的模型效果与之前的分类模型相比,小于按照实际要求设定的阈值。作为另一示例,终止条件还可以是迭代优化训练后的分类模型进行样本标注时的标注量达到实际要求。
在一示例性实施例中,将从候选样本集中筛选出的若干个未标注样本记为候选样本,例如可以将从候选样本集中筛选出的多样性值最大的前K个未标注样本记为候选样本。在将候选样本推送至标注平台前,或者在标注平台对候选样本进行标注过程中;还包括对筛选出的候选样本进行预标注;其中,进行预标注的方式包括以下之一:利用未进行迭代优化的分类模型对筛选出的候选样本进行预标注、利用完成迭代优化训练的分类模型对筛选出的候选样本进行预标注、利用人工对筛选出的候选样本进行预标注。通过在将候选样本推送至标注平台前或者在标注平台对候选样本进行标注过程中对筛选出的候选样本进行预标注,可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
在一示例性实施例中,单个样本的多样性值定义为:对该样本进行数据增强后的增强样本间的距离之和。则根据预测结果计算候选样本集中第i个未标注样本的多样性值的具体过程包括:
对候选样本集中的第i个未标注样本进行数据增强,生成对应的m个增强样本;
对于第i个未标注样本对应的任意两个增强样本
Figure BDA0002753832250000091
和增强样本
Figure BDA0002753832250000092
通过样本间的对称KL散度计算两者之间的距离:
Figure BDA0002753832250000093
其中,0<j≤m,0<l≤m;Y为样本类别集合;|Y|为样本类别总数;
Figure BDA0002753832250000094
为增强样本
Figure BDA0002753832250000095
被预测为样本类别集合中第k个类别的概率;
Figure BDA0002753832250000096
为增强样本
Figure BDA0002753832250000097
被预测为样本类别集合中第k个类别的概率;i为候选样本集中未标注样本的样本编号;di(j,l)为增强样本
Figure BDA0002753832250000098
和增强样本
Figure BDA0002753832250000099
的距离;
对m个增强样本进行两两组合后的距离进行求和,并将求和后的数值作为候选样本集中的第i个未标注样本的多样性值大小;
Figure BDA00027538322500000910
其中,m个增强样本由第i个未标注样本进行数据增强得到;Ri为候选样本集中的第i个未标注样本的多样性值大小。
本方法中样本的多样性值反映了样本两两之间的相似度,其值越大,其相似度就越低,此时样本间的多样性值就越高。当候选样本集中某个未标注样本进行数据增强后对应的m个增强样本之间的多样性值越高时,说明这个未标注样本很难被分类模型准确的区分,这样的样本对分类模型来说是最值得去学习的。换言之,多样性值越高的样本往往是样本集中越具代表性的样本,具有较高的信息量,有利于更好地提高分类模型的性能。
在一示例性实施例中,还包括对所述候选样本集中的每个未标注样本进行数据增强,生成对应的增强样本。若目标样本集中的样本为图像;则对图像进行数据增强的方式包括以下至少之一:对图像进行旋转、对图像进行错切、对图像进行翻转、对图像进行色彩调整、对图像进行色调分离、对图像进行曝光度调整、对图像进行对比度调整、对图像进行亮度调整、对图像进行锐化。具体地,对图像进行旋转:将原图像以某点为中心,顺时针或逆时针旋转一定的角度,使图像中的像素点在空间中的位置发生改变。对图像进行错切:图像错切也叫图像倾斜,就是将图像按照指定的方向进行倾斜,使原本的矩阵图像转换成为平行四边形的图像。对图像进行翻转:将原图像进行左右或者上下的镜面翻转,使得转换后的图像与原图像关于翻转轴对称。对图像进行色彩调整:对原图像的色彩进行调整,使原图像的色彩增强或减弱。对图像进行色调分离:只保留原图像各像素点数值较高的比特位,使得图像出现相邻像素点颜色的跳变。对图像进行曝光度调整:对原图像的曝光度进行调整,将图像从RGB色彩空间转换到HSV色彩空间,调整图像在HSV色彩空间的第三个通道的数值。对图像进行对比度调整:对原图像的对比度进行调整,在保证平均亮度不变的情况下,扩大或缩小原图像中亮点和暗点的差异。对图像进行亮度调整:对原图像的亮度进行调整,将图像从RGB色彩空间转换到HSL色彩空间,调整图像在HSL色彩空间的第三个通道的数值。对图像进行锐化:对原图像的轮廓进行补偿,增强图像的边缘及灰度跳变的部分,使图像变得清晰。
根据上述记载,在一具体实施例中,若目标样本集中的样本为图像,则筛选样本的具体实施过程如图2所示:
S101,构建初始训练集。从全量候选样本集中抽取包含M个样本的样本子集进行人工标注,该进行人工标注后的样本子集将作为初始训练集,而剩余的未标注样本则作为候选样本集。其中,抽取初始训练集的方式可以是随机选择,也可以通过设计特定的算法进行挑选。
S102,数据增强。对图像数据进行旋转、错切、翻转、调整色彩、色调分离、调整曝光度、调整对比度、调整亮度、锐化等操作,使得样本的数量和多样性值得到提升。其中,数据增强是数据预处理的主要方法,同时也是主动学习模块所依赖的手段。在进行数据增强时,可以选择包括但不限于上述任何一种数据增强方式,也是对这些数据增强方式进行两个或两个以上的组合使用。
S103,初始模型训练。利用步骤S101所构建的初始训练集对初始分类模型进行训练,得到初始训练分类模型。其中,初始分类模型包括但不限于vgg,resnet等深度学习模型。在进行初始模型训练时,还可以选择在使用预训练模型的基础上对初始分类模型进行训练,得到初始训练分类模型。本步骤中,使用预训练模型可以在很大程度上提高模型的分类能力。其中,预训练模型可以是在imagenet等数据集上得到的预训练模型。
步骤S104,挑选待标注样本。针对步骤S101中的候选样本集中的每个未标注样本,利用步骤S102中的数据增强方式进行随机的数据增强,使候选样本集中的每个未标注样本都生成对应的m个新样本,这些新样本属于相同的样本类别;本步骤中的新样本即一些实施例中的增强样本。然后利用步骤S103中训练完成的初始训练分类模型对这些新样本进行预测,即利用训练完成的初始训练分类模型预测每一个新样本被预测为样本类别集合中各类别的概率,从而得到对应的预测结果。并再根据初始训练分类模型的预测结果计算这些新样本之间的距离。对于第i个未标注样本对应的任意两个增强样本
Figure BDA0002753832250000111
和增强样本
Figure BDA0002753832250000112
二者之间的距离由样本间的对称KL散度定义;其中,0<j≤m,0<l≤m。通过样本间的对称KL散度计算两者之间的距离,具体如下:
Figure BDA0002753832250000113
其中,0<j≤m,0<l≤m;Y为样本类别集合;|Y|为样本类别总数;
Figure BDA0002753832250000114
为增强样本
Figure BDA0002753832250000115
被预测为样本类别集合中第k个类别的概率;
Figure BDA0002753832250000116
为增强样本
Figure BDA0002753832250000117
被预测为样本类别集合中第k个类别的概率;i为候选样本集中未标注样本的样本编号;di(j,l)为增强样本
Figure BDA0002753832250000118
和增强样本
Figure BDA0002753832250000119
的距离。
对m个增强样本进行两两组合后的距离进行求和,并将求和后的数值作为候选样本集中的第i个未标注样本的多样性值大小;
Figure BDA00027538322500001110
其中,m个增强样本由第i个未标注样本进行数据增强得到;Ri为候选样本集中的第i个未标注样本的多样性值大小。
最后,对候选样本集中的每个未标注样本的多样性值大小进行排序,并根据排序结果从候选样本集中筛选出多样性值最大的前K个未标注样本。在本步骤中,本方法是通过计算样本间的对称KL散度来作为对样本多样性值的定义。在另外的实现方案中,还可以利用JS散度、wasserstein距离、马氏距离等方法定义样本的多样性值。
步骤S105,人工标注样本。通过步骤S104可以选出最值得标注的候选样本,将这些候选样本推送给标注平台进行标注,进而得到新的标注样本。在将候选样本推送至标注平台前,或者在标注平台对候选样本进行标注过程中,可以选择使用或不使用训练好的分类模型对候选样本进行预标注。通过预标注可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。在本步骤的其他实现方案中,也可以将所挑选的待标注样本推送给专家或者其他用户进行标注。
步骤S106,扩充初始训练集并优化分类模型。将步骤S105得到的新的标注样本加入到初始训练集中,得到新的初始训练集。新的初始训练集不仅有更多的样本数量,而且包含了最具代表性的部分样本,从而有着更为丰富的信息量;利用新的初始训练集对分类模型进行训练,能够达到优化模型的目的。本步骤中,可以使用新的训练集来对非预训练模型从最开始进行模型训练;或者使用新的训练集来对预训练模型进行模型微调;或者使用新的训练集来对上一个初始训练分类模型进行增量学习。
步骤S107,循环执行步骤S104至步骤106直到满足终止条件。作为一示例,本申请实施例中的终止条件可以是迭代优化训练后的分类模型的模型效果达到按照实际要求设定的阈值;其中,模型效果参数指标包括以下至少之一:模型F1值、训练损失loss、AUC值、准确率、召回率、标注量。作为另一示例,终止条件还可以是迭代优化训练后的分类模型的模型效果与之前的分类模型相比,小于按照实际要求设定的阈值。作为另一示例,终止条件还可以是迭代优化训练后的分类模型进行样本标注时的标注量达到实际要求。
根据上述记载,将本方法中筛选出的前K个未标注样本应用在多个图像分类任务上进行测试,测试结果表明,相对于现有的对全量样本进行标注而言,直接应用本方法中筛选出的前K个未标注样本进行标注,能够比现有的标注方式节省50%到80%的数据标注量。
综上所述,本方法基于数据增强来设定样本多样性的指标,利用训练后的分类模型对进行数据增强后的新样本进行预测;根据预测结果计算候选样本集中未标注样本的多样性值,再根据计算出的样本多样性值从候选样本集中筛选出若干个个未标注样本,例如从候选样本集中筛选出多样性值最大的前K个未标注样本。通过本方法可以高效地从海量样本数据中筛选出最具代表性、最具有价值的少量未标注样本,将筛选出的这些少量的未标注样本用于进行标注,可以显著地减少标注样本的代价;从而能够解决传统需要对全量样本进行标注时耗资巨大的问题。并且,本方法中样本的多样性值反映了样本两两之间的相似度,其值越大,其相似度就越低,此时样本间的多样性值就越高。当候选样本集中某个未标注样本进行数据增强后对应的m个增强样本之间的多样性值越高时,说明这个未标注样本很难被分类模型准确的区分,这样的样本对分类模型来说是最值得去学习的。换言之,多样性值越高的样本往往是样本集中越具代表性的样本,具有较高的信息量,有利于更好地提高分类模型的性能。同时,本方法与一些现有技术相比(例如现有的一种面向数据驱动建模的主动学习方法),能够从基于不同的主动学习策略。现有技术一般是利用所训练基分类器的预测结果和阈值条件进行对比来确定样本的不确定性;而本方法主要是通过主动式增量微调的方式,利用数据增强来增加样本多样性,进而确定各个样本的难易程度,而不需要专门设立阈值进行对比。所以本方法还可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
如图3所示,本发明还提供一种基于多样性的样本筛选***,应用于计算机模型训练过程,包括有:
样本采集模块M10,用于从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
样本多样性值模块M20,用于利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值;
样本筛选模块M30,用于根据计算出的多样性值从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
本***基于数据增强来设定样本多样性的指标,利用训练后的分类模型对进行数据增强后的新样本进行预测;根据预测结果计算候选样本集中未标注样本的多样性值,如果预测结果越难统一,则认为该样本多样性值越高。再根据计算出的多样性值从候选样本集中筛选出若干个未标注样本。通过本***可以高效地从海量样本数据中筛选出最具代表性、最具有价值的少量未标注样本,将筛选出的这些少量的未标注样本用于进行标注,可以显著地减少标注样本的代价;从而能够解决传统需要对全量样本进行标注时耗资巨大的问题。而且本***还可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
作为本***中的一个示例性实施例,例如从候选样本集中筛选出多样性值最大的前K个未标注样本,则包括以下步骤:
样本采集模块M10,用于从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
样本增强模块M40,用于对候选样本集中的每个未标注样本进行数据增强,生成对应的增强样本;
样本多样性模块M20,用于利用分类模型对所有增强样本进行预测,并根据预测结果计算候选样本集中每个未标注样本的多样性值;
样本筛选模块M30,用于根据多样性值计算结果对候选样本集中的未标注样本进行排序,从候选样本集中筛选出多样性值最大的前K个未标注样本,以作为分类模型的训练样本。
本实施例基于数据增强来设定样本多样性的指标,利用训练后的分类模型对进行数据增强后的新样本进行预测;根据预测结果计算候选样本集中未标注样本的多样性值,如果预测结果越难统一,则认为该样本多样性值越高。再根据样本多样性值的大小排序结果从候选样本集中筛选出多样性值最大的前K个未标注样本。通过本实施例可以高效地从海量样本数据中筛选出最具代表性、最具有价值的少量未标注样本,将筛选出的这些少量的未标注样本用于进行标注,可以显著地减少标注样本的代价;从而能够解决传统需要对全量样本进行标注时耗资巨大的问题。而且本实施例还可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
在一示例性实施例中,样本多样性值模块M20中的分类模型的获取过程包括:从目标样本集中获取剩余的未标注样本;对剩余的未标注样本进行人工标注,形成初始训练集;利用初始训练集对初始分类模型进行训练,获取初始训练分类模型;并将初始训练分类模型作为分类模型。作为示例,本申请实施例中抽取初始训练集的方式可以是随机选择,也可以是人为指定,还可以通过设计特定的算法进行挑选。本申请实施例中的初始分类模型包括但不限于vgg,resnet等深度学习模型。作为另一示例性实施例,获取分类模型时,还可以选择在使用预训练模型的基础上对初始分类模型进行训练;获取初始训练分类模型;并将获取的初始训练分类模型作为分类模型。本申请实施例通过使用预训练模型对初始分类模型进行训练,可以很大程度上提高初始分类模型的分类能力。其中,预训练模型可以是在imagenet等数据集上得到的预训练模型。
在一示例性实施例中,样本多样性值模块M20中的分类模型的获取过程还包括:将从候选样本集中筛选出的若干个未标注样本记为候选样本,例如可以将从候选样本集中筛选出的多样性值最大的前K个未标注样本记为候选样本;将候选样本推送至标注平台进行标注,并将完成标注后的候选样本加入至初始训练集中扩充初始训练集;根据扩充后的初始训练集对分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为最终的分类模型;其中,分类模型包括以下至少之一:初始分类模型、预训练模型、初始训练分类模型。本申请实施例将标注后的候选样本加入至初始训练集得到新的训练集,即扩充后的初始训练集;新的训练集不仅有更多的样本数量,而且包含了最具代表性的候选样本,有着更为丰富的信息量,利用新的训练集对分类模型进行训练,可以达到迭代优化分类模型的目的。作为示例,例如使用新的训练集来对初始分类模型从最开始进行模型训练;或者使用新的训练集来对预训练模型进行模型微调;或者使用新的训练集来对初始训练分类模型进行增量学习。本申请实施例中,分类模型完成迭代优化训练可以是利用扩充后的初始训练集对分类模型进行一次或多次迭代优化训练,使分类模型的迭代优化训练次数达到实际要求的训练次数即可。还可以是利用扩充后的初始训练集对分类模型进行一次或多次迭代优化,直至迭代优化训练后的分类模型满足终止条件。作为一示例,本申请实施例中的终止条件可以是迭代优化训练后的分类模型的模型效果达到按照实际要求设定的阈值;其中,模型效果参数指标包括以下至少之一:模型F1值、训练损失loss、AUC值、准确率、召回率、标注量。作为另一示例,终止条件还可以是迭代优化训练后的分类模型的模型效果与之前的分类模型相比,小于按照实际要求设定的阈值。作为另一示例,终止条件还可以是迭代优化训练后的分类模型进行样本标注时的标注量达到实际要求。
在一示例性实施例中,将从候选样本集中筛选出的若干个未标注样本记为候选样本,例如可以将从候选样本集中筛选出的多样性值最大的前K个未标注样本记为候选样本。在将候选样本推送至标注平台前,或者在标注平台对候选样本进行标注过程中;还包括对筛选出的候选样本进行预标注;其中,进行预标注的方式包括以下之一:利用未进行迭代优化的分类模型对筛选出的候选样本进行预标注、利用完成迭代优化训练的分类模型对筛选出的候选样本进行预标注、利用人工对筛选出的候选样本进行预标注。通过在将候选样本推送至标注平台前或者在标注平台对候选样本进行标注过程中对筛选出的候选样本进行预标注,可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
在一示例性实施例中,单个样本的多样性值定义为:对该样本进行数据增强后的增强样本间的距离之和。则根据预测结果计算候选样本集中第i个未标注样本的多样性值的具体过程包括:
对候选样本集中的第i个未标注样本进行数据增强,生成对应的m个增强样本;
对于第i个未标注样本对应的任意两个增强样本
Figure BDA0002753832250000161
和增强样本
Figure BDA0002753832250000162
其中,0<j≤m,0<l≤m。通过样本间的对称KL散度计算两者之间的距离:
Figure BDA0002753832250000163
其中,0<j≤m,0<l≤m;Y为样本类别集合;|Y|为样本类别总数;
Figure BDA0002753832250000164
为增强样本
Figure BDA0002753832250000165
被预测为样本类别集合中第k个类别的概率;
Figure BDA0002753832250000166
为增强样本
Figure BDA0002753832250000167
被预测为样本类别集合中第k个类别的概率;i为候选样本集中未标注样本的样本编号;di(j,l)为增强样本
Figure BDA0002753832250000168
和增强样本
Figure BDA0002753832250000169
的距离;
对m个增强样本进行两两组合后的距离进行求和,并将求和后的数值作为候选样本集中的第i个未标注样本的多样性值大小;
Figure BDA00027538322500001610
其中,m个增强样本由第i个未标注样本进行数据增强得到;Ri为候选样本集中的第i个未标注样本的多样性值大小。
本***中样本的多样性值反映了样本两两之间的相似度,其值越大,其相似度就越低,此时样本间的多样性值就越高。当候选样本集中某个未标注样本进行数据增强后对应的m个增强样本之间的多样性值越高时,说明这个未标注样本很难被分类模型准确的区分,这样的样本对分类模型来说是最值得去学习的。换言之,多样性值越高的样本往往是样本集中越具代表性的样本,具有较高的信息量,有利于更好地提高分类模型的性能。
在一示例性实施例中,还包括样本增强模块M40,用于对所述候选样本集中的每个未标注样本进行数据增强,生成对应的增强样本。若目标样本集中的样本为图像;则对图像进行数据增强的方式包括以下至少之一:对图像进行旋转、对图像进行错切、对图像进行翻转、对图像进行色彩调整、对图像进行色调分离、对图像进行曝光度调整、对图像进行对比度调整、对图像进行亮度调整、对图像进行锐化。具体地,对图像进行旋转:将原图像以某点为中心,顺时针或逆时针旋转一定的角度,使图像中的像素点在空间中的位置发生改变。对图像进行错切:图像错切也叫图像倾斜,就是将图像按照指定的方向进行倾斜,使原本的矩阵图像转换成为平行四边形的图像。对图像进行翻转:将原图像进行左右或者上下的镜面翻转,使得转换后的图像与原图像关于翻转轴对称。对图像进行色彩调整:对原图像的色彩进行调整,使原图像的色彩增强或减弱。对图像进行色调分离:只保留原图像各像素点数值较高的比特位,使得图像出现相邻像素点颜色的跳变。对图像进行曝光度调整:对原图像的曝光度进行调整,将图像从RGB色彩空间转换到HSV色彩空间,调整图像在HSV色彩空间的第三个通道的数值。对图像进行对比度调整:对原图像的对比度进行调整,在保证平均亮度不变的情况下,扩大或缩小原图像中亮点和暗点的差异。对图像进行亮度调整:对原图像的亮度进行调整,将图像从RGB色彩空间转换到HSL色彩空间,调整图像在HSL色彩空间的第三个通道的数值。对图像进行锐化:对原图像的轮廓进行补偿,增强图像的边缘及灰度跳变的部分,使图像变得清晰。
根据上述记载,在一具体实施例中,若目标样本集中的样本为图像,则筛选样本的具体实施过程如图2所示。在本实施例中,筛选样本的具体实施过程参照上述实施例即可,此处不再赘述。
根据上述记载,将本***中筛选出的前K个未标注样本应用在多个图像分类任务上进行测试,测试结果表明,相对于现有的对全量样本进行标注而言,直接应用本***中筛选出的前K个未标注样本进行标注,能够比现有的标注方式节省50%到80%的数据标注量。
综上所述,本***基于数据增强来设定样本多样性的指标,利用训练后的分类模型对进行数据增强后的新样本进行预测;根据预测结果计算候选样本集中未标注样本的多样性值,再根据计算出的样本多样性值从候选样本集中筛选出若干个个未标注样本,例如从候选样本集中筛选出多样性值最大的前K个未标注样本。通过本***可以高效地从海量样本数据中筛选出最具代表性、最具有价值的少量未标注样本,将筛选出的这些少量的未标注样本用于进行标注,可以显著地减少标注样本的代价;从而能够解决传统需要对全量样本进行标注时耗资巨大的问题。并且,本***中样本的多样性值反映了样本两两之间的相似度,其值越大,其相似度就越低,此时样本间的多样性值就越高。当候选样本集中某个未标注样本进行数据增强后对应的m个增强样本之间的多样性值越高时,说明这个未标注样本很难被分类模型准确的区分,这样的样本对分类模型来说是最值得去学习的。换言之,多样性值越高的样本往往是样本集中越具代表性的样本,具有较高的信息量,有利于更好地提高分类模型的性能。同时,本***与一些现有技术相比(例如现有的一种面向数据驱动建模的主动学习方法),能够从基于不同的主动学习策略。现有技术一般是利用所训练基分类器的预测结果和阈值条件进行对比来确定样本的不确定性;而本***主要是通过主动式增量微调的方式,利用数据增强来增加样本多样性,进而确定各个样本的难易程度,而不需要专门设立阈值进行对比。所以本***还可以减少训练分类模型时所需人工标注数据的数量,减少进行人工标注的人力成本,有效提高标注效率;同时能够以最小的数据标注代价快速迭代优化模型,实现用较少的数据训练出较优的模型。
本申请实施例还提供了一种基于多样性的样本筛选设备,应用于计算机模型训练过程,包括有:
从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
对候选样本集中的每个未标注样本进行数据增强,生成对应的增强样本;
利用分类模型对所有增强样本进行预测,并根据预测结果计算候选样本集中每个未标注样本的多样性值;
根据多样性值计算结果对候选样本集中的未标注样本进行排序,从候选样本集中筛选出多样性值最大的前K个未标注样本,以作为分类模型的训练样本。
在本实施例中,该设备执行上述***或方法,具体功能和技术效果参照上述实施例即可,此处不再赘述。
本申请实施例还提供了一种设备,该设备可以包括:一个或多个处理器;和其上存储有指令的一个或多个机器可读介质,当由所述一个或多个处理器执行时,使得所述设备执行图1所述的方法。在实际应用中,该设备可以作为终端设备,也可以作为服务器,终端设备的例子可以包括:智能手机、平板电脑、电子书阅读器、MP3(动态影像专家压缩标准语音层面3,Moving Picture Experts Group Audio Layer III)播放器、MP4(动态影像专家压缩标准语音层面4,Moving Picture Experts Group Audio Layer IV)播放器、膝上型便携计算机、车载电脑、台式计算机、机顶盒、智能电视机、可穿戴设备等等,本申请实施例对于具体的设备不加以限制。
本申请实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块(programs),该一个或多个模块被应用在设备时,可以使得该设备执行本申请实施例的图1中数据处理方法所包含步骤的指令(instructions)。
图4为本申请一实施例提供的终端设备的硬件结构示意图。如图所示,该终端设备可以包括:输入设备1100、第一处理器1101、输出设备1102、第一存储器1103和至少一个通信总线1104。通信总线1104用于实现元件之间的通信连接。第一存储器1103可能包含高速RAM存储器,也可能还包括非易失性存储NVM,例如至少一个磁盘存储器,第一存储器1103中可以存储各种程序,用于完成各种处理功能以及实现本实施例的方法步骤。
可选的,上述第一处理器1101例如可以为中央处理器(Central ProcessingUnit,简称CPU)、应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,该处理器1101通过有线或无线连接耦合到上述输入设备1100和输出设备1102。
可选的,上述输入设备1100可以包括多种输入设备,例如可以包括面向用户的用户接口、面向设备的设备接口、软件的可编程接口、摄像头、传感器中至少一种。可选的,该面向设备的设备接口可以是用于设备与设备之间进行数据传输的有线接口、还可以是用于设备与设备之间进行数据传输的硬件***接口(例如USB接口、串口等);可选的,该面向用户的用户接口例如可以是面向用户的控制按键、用于接收语音输入的语音输入设备以及用户接收用户触摸输入的触摸感知设备(例如具有触摸感应功能的触摸屏、触控板等);可选的,上述软件的可编程接口例如可以是供用户编辑或者修改程序的入口,例如芯片的输入引脚接口或者输入接口等;输出设备1102可以包括显示器、音响等输出设备。
在本实施例中,该终端设备的处理器包括用于执行各设备中语音识别装置各模块的功能,具体功能和技术效果参照上述实施例即可,此处不再赘述。
图5为本申请的另一个实施例提供的终端设备的硬件结构示意图。图5是对图4在实现过程中的一个具体的实施例。如图所示,本实施例的终端设备可以包括第二处理器1201以及第二存储器1202。
第二处理器1201执行第二存储器1202所存放的计算机程序代码,实现上述实施例中图1所述方法。
第二存储器1202被配置为存储各种类型的数据以支持在终端设备的操作。这些数据的示例包括用于在终端设备上操作的任何应用程序或方法的指令,例如消息,图片,视频等。第二存储器1202可能包含随机存取存储器(random access memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
可选地,第二处理器1201设置在处理组件1200中。该终端设备还可以包括:通信组件1203,电源组件1204,多媒体组件1205,音频组件1206,输入/输出接口1207和/或传感器组件1208。终端设备具体所包含的组件等依据实际需求设定,本实施例对此不作限定。
处理组件1200通常控制终端设备的整体操作。处理组件1200可以包括一个或多个第二处理器1201来执行指令,以完成上述图1所示方法的全部或部分步骤。此外,处理组件1200可以包括一个或多个模块,便于处理组件1200和其他组件之间的交互。例如,处理组件1200可以包括多媒体模块,以方便多媒体组件1205和处理组件1200之间的交互。
电源组件1204为终端设备的各种组件提供电力。电源组件1204可以包括电源管理***,一个或多个电源,及其他与为终端设备生成、管理和分配电力相关联的组件。
多媒体组件1205包括在终端设备和用户之间的提供一个输出接口的显示屏。在一些实施例中,显示屏可以包括液晶显示器(LCD)和触摸面板(TP)。如果显示屏包括触摸面板,显示屏可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。
音频组件1206被配置为输出和/或输入语音信号。例如,音频组件1206包括一个麦克风(MIC),当终端设备处于操作模式,如语音识别模式时,麦克风被配置为接收外部语音信号。所接收的语音信号可以被进一步存储在第二存储器1202或经由通信组件1203发送。在一些实施例中,音频组件1206还包括一个扬声器,用于输出语音信号。
输入/输出接口1207为处理组件1200和***接口模块之间提供接口,上述***接口模块可以是点击轮,按钮等。这些按钮可包括但不限于:音量按钮、启动按钮和锁定按钮。
传感器组件1208包括一个或多个传感器,用于为终端设备提供各个方面的状态评估。例如,传感器组件1208可以检测到终端设备的打开/关闭状态,组件的相对定位,用户与终端设备接触的存在或不存在。传感器组件1208可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在,包括检测用户与终端设备间的距离。在一些实施例中,该传感器组件1208还可以包括摄像头等。
通信组件1203被配置为便于终端设备和其他设备之间有线或无线方式的通信。终端设备可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个实施例中,该终端设备中可以包括SIM卡插槽,该SIM卡插槽用于***SIM卡,使得终端设备可以登录GPRS网络,通过互联网与服务器建立通信。
由上可知,在图5实施例中所涉及的通信组件1203、音频组件1206以及输入/输出接口1207、传感器组件1208均可以作为图4实施例中的输入设备的实现方式。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (13)

1.一种基于多样性的样本筛选方法,其特征在于,应用于计算机模型训练过程,包括以下步骤:
从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值;
根据计算出的多样性值从所述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
2.根据权利要求1所述的基于多样性的样本筛选方法,其特征在于,获取所述分类模型的过程包括:
从所述目标样本集中获取剩余的未标注样本;
对剩余的未标注样本进行标注,形成初始训练集;
利用所述初始训练集对初始分类模型进行训练,获取初始训练分类模型;并将所述初始训练分类模型作为所述分类模型;
或者,使用预训练模型对初始分类模型进行训练,获取初始训练分类模型;并将所述初始训练分类模型作为所述分类模型。
3.根据权利要求2所述的基于多样性的样本筛选方法,其特征在于,获取所述分类模型的过程还包括:
将从候选样本集中筛选出的若干个未标注样本推送至标注平台进行标注,并将完成标注后的若干个样本加入至所述初始训练集中扩充所述初始训练集;
根据扩充后的初始训练集对所述分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为所述最终的分类模型。
4.根据权利要求3所述的基于多样性的样本筛选方法,其特征在于,在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:
利用未进行迭代优化的所述分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的所述分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。
5.根据权利要求1所述的基于多样性的样本筛选方法,其特征在于,利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值,包括:
利用所述分类模型预测每一所述增强样本被预测为样本类别集合中各类别的概率,以得到所述预测结果;
对于第i个未标注样本对应的任意两个增强样本
Figure FDA0002753832240000021
和增强样本
Figure FDA0002753832240000022
通过样本间的对称KL散度计算两者之间的距离:
Figure FDA0002753832240000023
其中,0<j≤m,0<l≤m;Y为样本类别集合;|Y|为样本类别总数;
Figure FDA0002753832240000024
为增强样本
Figure FDA0002753832240000025
被预测为样本类别集合中第k个类别的概率;
Figure FDA0002753832240000026
为增强样本
Figure FDA0002753832240000027
被预测为样本类别集合中第k个类别的概率;i为所述候选样本集中未标注样本的样本编号;di(j,l)为增强样本
Figure FDA00027538322400000211
和增强样本
Figure FDA0002753832240000029
的距离;
对m个增强样本进行两两组合后的距离进行求和,并将求和后的数值作为所述候选样本集中的第i个未标注样本的多样性值大小;
Figure FDA00027538322400000210
其中,所述m个增强样本由第i个未标注样本进行数据增强得到;Ri为所述候选样本集中的第i个未标注样本的多样性值大小。
6.根据权利要求1所述的基于多样性的样本筛选方法,其特征在于,还包括对所述候选样本集中的每个未标注样本进行数据增强,生成对应的增强样本;若所述目标样本集中的样本为图像;则对图像进行数据增强的方式包括以下至少之一:
对图像进行旋转、对图像进行错切、对图像进行翻转、对图像进行色彩调整、对图像进行色调分离、对图像进行曝光度调整、对图像进行对比度调整、对图像进行亮度调整、对图像进行锐化。
7.一种基于多样性的样本筛选***,其特征在于,应用于计算机模型训练过程,包括有:
样本采集模块,用于从目标样本集中获取部分未标注样本形成候选样本集;其中,目标样本集中的样本包括以下至少之一:图像、语音、文字;
样本多样性值模块,用于利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值;
样本筛选模块,用于根据计算出的多样性值从所述述候选样本集中筛选出若干个未标注样本,以作为所述分类模型的训练样本。
8.根据权利要求7所述的基于多样性的样本筛选***,其特征在于,所述样本多样性值模块中的分类模型获取过程包括:
从所述目标样本集中获取剩余的未标注样本;
对剩余的未标注样本进行标注,形成初始训练集;
利用所述初始训练集对初始分类模型进行训练,获取初始训练分类模型;并将所述初始训练分类模型作为所述分类模型;
或者,使用预训练模型对初始分类模型进行训练,获取初始训练分类模型;并将所述初始训练分类模型作为所述分类模型。
9.根据权利要求8所述的基于多样性的样本筛选***,其特征在于,所述样本多样性值模块中的分类模型获取过程还包括:
将从候选样本集中筛选出的若干个未标注样本推送至标注平台进行标注,并将完成标注后的若干个样本加入至所述初始训练集中扩充所述初始训练集;
根据扩充后的初始训练集对所述分类模型进行迭代优化训练,并将完成迭代优化训练后的分类模型作为所述最终的分类模型。
10.根据权利要求9所述的基于多样性的样本筛选***,其特征在于,在将筛选出的若干个未标注样本推送至标注平台前,或者在标注平台对筛选出的若干个未标注样本进行标注过程中;还包括对筛选出的若干个未标注样本进行预标注;其中,进行预标注的方式包括以下之一:
利用未进行迭代优化的所述分类模型对筛选出的若干个未标注样本进行预标注、利用完成迭代优化训练的所述分类模型对筛选出的若干个未标注样本进行预标注、利用人工对筛选出的若干个未标注样本进行预标注。
11.根据权利要求7所述的基于多样性的样本筛选***,其特征在于,所述样本多样性值模块利用分类模型对所有增强样本进行预测,并根据预测结果计算所述候选样本集中每个未标注样本的多样性值,包括:
利用所述分类模型预测每一所述增强样本被预测为样本类别集合中各类别的概率,以得到所述预测结果;
对于第i个未标注样本对应的任意两个增强样本
Figure FDA0002753832240000041
和增强样本
Figure FDA00027538322400000411
通过样本间的对称KL散度计算两者之间的距离:
Figure FDA0002753832240000043
其中,0<j≤m,0<l≤m;Y为样本类别集合;|Y|为样本类别总数;
Figure FDA0002753832240000044
为增强样本
Figure FDA0002753832240000045
被预测为样本类别集合中第k个类别的概率;
Figure FDA0002753832240000046
为增强样本
Figure FDA0002753832240000047
被预测为样本类别集合中第k个类别的概率;i为所述候选样本集中未标注样本的样本编号;di(j,l)为增强样本
Figure FDA0002753832240000048
和增强样本
Figure FDA0002753832240000049
的距离;
对m个增强样本进行两两组合后的距离进行求和,并将求和后的数值作为所述候选样本集中的第i个未标注样本的多样性值大小;
Figure FDA00027538322400000410
其中,所述m个增强样本由第i个未标注样本进行数据增强得到;Ri为所述候选样本集中的第i个未标注样本的多样性值大小。
12.一种设备,其特征在于,包括:
一个或多个处理器;和
存储有指令的一个或多个机器可读介质,当所述一个或多个处理器执行所述指令时,使得所述设备执行如权利要求1-6中任意一项所述的方法。
13.一个或多个机器可读介质,其特征在于,其上存储有指令,当由一个或多个处理器执行所述指令时,使得设备执行如权利要求1-6中任意一项所述的方法。
CN202011195231.4A 2020-10-30 2020-10-30 一种基于多样性的样本筛选方法、***、设备及介质 Pending CN112308143A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011195231.4A CN112308143A (zh) 2020-10-30 2020-10-30 一种基于多样性的样本筛选方法、***、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011195231.4A CN112308143A (zh) 2020-10-30 2020-10-30 一种基于多样性的样本筛选方法、***、设备及介质

Publications (1)

Publication Number Publication Date
CN112308143A true CN112308143A (zh) 2021-02-02

Family

ID=74333467

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011195231.4A Pending CN112308143A (zh) 2020-10-30 2020-10-30 一种基于多样性的样本筛选方法、***、设备及介质

Country Status (1)

Country Link
CN (1) CN112308143A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801229A (zh) * 2021-04-07 2021-05-14 北京三快在线科技有限公司 一种识别模型的训练方法及装置
CN113487617A (zh) * 2021-07-26 2021-10-08 推想医疗科技股份有限公司 数据处理方法、装置、电子设备以及存储介质
WO2021208700A1 (zh) * 2020-11-23 2021-10-21 平安科技(深圳)有限公司 语音数据选择方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090499A (zh) * 2017-11-13 2018-05-29 中国科学院自动化研究所 基于最大信息三元组筛选网络的数据主动标注方法和***
CN110245716A (zh) * 2019-06-20 2019-09-17 杭州睿琪软件有限公司 样本标注审核方法及装置
CN111126574A (zh) * 2019-12-30 2020-05-08 腾讯科技(深圳)有限公司 基于内镜图像对机器学习模型进行训练的方法、装置和存储介质
CN111414930A (zh) * 2019-01-07 2020-07-14 ***通信有限公司研究院 深度学习模型训练方法及装置、电子设备及存储介质
CN111461232A (zh) * 2020-04-02 2020-07-28 大连海事大学 一种基于多策略批量式主动学习的核磁共振图像分类方法
CN111783993A (zh) * 2019-05-23 2020-10-16 北京京东尚科信息技术有限公司 智能标注方法、装置、智能平台及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108090499A (zh) * 2017-11-13 2018-05-29 中国科学院自动化研究所 基于最大信息三元组筛选网络的数据主动标注方法和***
CN111414930A (zh) * 2019-01-07 2020-07-14 ***通信有限公司研究院 深度学习模型训练方法及装置、电子设备及存储介质
CN111783993A (zh) * 2019-05-23 2020-10-16 北京京东尚科信息技术有限公司 智能标注方法、装置、智能平台及存储介质
CN110245716A (zh) * 2019-06-20 2019-09-17 杭州睿琪软件有限公司 样本标注审核方法及装置
CN111126574A (zh) * 2019-12-30 2020-05-08 腾讯科技(深圳)有限公司 基于内镜图像对机器学习模型进行训练的方法、装置和存储介质
CN111461232A (zh) * 2020-04-02 2020-07-28 大连海事大学 一种基于多策略批量式主动学习的核磁共振图像分类方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021208700A1 (zh) * 2020-11-23 2021-10-21 平安科技(深圳)有限公司 语音数据选择方法、装置、电子设备及存储介质
CN112801229A (zh) * 2021-04-07 2021-05-14 北京三快在线科技有限公司 一种识别模型的训练方法及装置
CN112801229B (zh) * 2021-04-07 2021-07-30 北京三快在线科技有限公司 一种识别模型的训练方法及装置
CN113487617A (zh) * 2021-07-26 2021-10-08 推想医疗科技股份有限公司 数据处理方法、装置、电子设备以及存储介质

Similar Documents

Publication Publication Date Title
CN112308144A (zh) 一种筛选样本的方法、***、设备及介质
CN112508092A (zh) 一种样本筛选方法、***、设备及介质
CN107273019B (zh) 基于协同姿势的输入语言
CN114155543B (zh) 神经网络训练方法、文档图像理解方法、装置和设备
CN112308143A (zh) 一种基于多样性的样本筛选方法、***、设备及介质
CN112162930B (zh) 一种控件识别的方法、相关装置、设备及存储介质
US11676283B2 (en) Iteratively refining segmentation masks
US20210192747A1 (en) Portrait Segmentation Method, Model Training Method and Electronic Device
CN109345553B (zh) 一种手掌及其关键点检测方法、装置和终端设备
CN111222557A (zh) 图像分类方法、装置、存储介质及电子设备
CN110659817A (zh) 一种数据处理方法、装置、机器可读介质及设备
CN111126347A (zh) 人眼状态识别方法、装置、终端及可读存储介质
CN113221718A (zh) 公式识别方法、装置、存储介质和电子设备
CN112527676A (zh) 模型自动化测试方法、装置及存储介质
CN113821296B (zh) 可视化界面生成方法、电子设备及存储介质
CN111984803A (zh) 多媒体资源处理方法、装置、计算机设备及存储介质
CN113140012B (zh) 图像处理方法、装置、介质及电子设备
CN111753114A (zh) 图像预标注方法、装置及电子设备
CN116956214A (zh) 基于正则化集成学习的多模态细粒度论文分类方法和***
CN111582302A (zh) 车辆识别方法、装置、设备及存储介质
CN111539424A (zh) 一种基于ocr的图像处理方法、***、设备及介质
CN112801960B (zh) 图像处理方法及装置、存储介质、电子设备
CN112307371B (zh) 小程序子服务识别方法、装置、设备及存储介质
CN113010687B (zh) 一种习题标签预测方法、装置、存储介质以及计算机设备
CN114821222A (zh) 试卷图像生成方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination