CN114154570A - 一种样本筛选方法、***及神经网络模型训练方法 - Google Patents
一种样本筛选方法、***及神经网络模型训练方法 Download PDFInfo
- Publication number
- CN114154570A CN114154570A CN202111445742.1A CN202111445742A CN114154570A CN 114154570 A CN114154570 A CN 114154570A CN 202111445742 A CN202111445742 A CN 202111445742A CN 114154570 A CN114154570 A CN 114154570A
- Authority
- CN
- China
- Prior art keywords
- sample set
- training
- sample
- samples
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 163
- 238000000034 method Methods 0.000 title claims abstract description 93
- 238000012216 screening Methods 0.000 title claims abstract description 75
- 238000003062 neural network model Methods 0.000 title claims abstract description 65
- 238000005070 sampling Methods 0.000 claims abstract description 48
- 238000012163 sequencing technique Methods 0.000 claims abstract description 36
- 238000012512 characterization method Methods 0.000 claims abstract description 35
- 238000002372 labelling Methods 0.000 claims abstract description 23
- 230000008569 process Effects 0.000 claims abstract description 23
- 230000000875 corresponding effect Effects 0.000 claims description 39
- 238000004590 computer program Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 13
- 238000004422 calculation algorithm Methods 0.000 claims description 10
- 238000012545 processing Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000012360 testing method Methods 0.000 description 17
- 238000001514 detection method Methods 0.000 description 10
- 238000007689 inspection Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000001816 cooling Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 239000003795 chemical substances by application Substances 0.000 description 3
- 238000012804 iterative process Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000006854 communication Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000717 retained effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06398—Performance of employee with respect to a job function
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0281—Customer communication at a business location, e.g. providing product or service information, consulting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q40/00—Finance; Insurance; Tax strategies; Processing of corporate or income taxes
- G06Q40/08—Insurance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Accounting & Taxation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Finance (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Entrepreneurship & Innovation (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Educational Administration (AREA)
- Quality & Reliability (AREA)
Abstract
本发明涉及人工智能技术领域,提供一种样本筛选方法、***及神经网络模型训练方法,通过计算未标注样本集和标注样本集之间的距离,并根据距离进行排序,得到排序结果;通过提取未标注样本集的表征参数,得到对应的活跃值;基于排序结果和活跃值,从未标注样本集中选择部分样本进行标注,得到新的标注样本集;本发明在选择与训练任务相关的样本的同时,还保持了对无关数据的低采样率,并避免了采集到与训练任务无关的离群点,从而保证了采样到有价值的样本,由此在神经网络模型的训练过程中,避免了与任务毫无关联的样本对训练结果的影响,进而提高了神经网络模型的识别精度。
Description
技术领域
本发明涉及人工智能技术领域,特别是涉及一种样本筛选方法、***及神经网络模型训练方法。
背景技术
主动学习是指利用不确定性采样,去寻找未标注数据集中信息量最大的数据进行标注,从而避免过分标注低信息量数据,标注样本的质量会影响模型的训练效果,进而影响模型的应用性能。
传统的主动学习方法如熵采样、边缘采样,会过分地对一些信息量很大但是非常相似的样本进行过采样,从而导致标注数据大量重复。
为了避免上述情况,传统的多样性采样策略会计算已有样本之间的余弦相似度来作为判断指标,当数据集中的相似度高于一定阈值,***便自动放弃对该类数据的标注抽取,采用这种方案,虽然保证了数据不再重复,但导致抽取出来的未标注数据都是无效数据区的离群点,这些点的例子在整个未标注池中往往是孤例,对模型的训练没有任何作用;此外,未标注池的有效数据区代表样本点无法被采样,这些数据虽然信息量没有非常高,但往往是一个样本群的质心,非常有代表性,这些点经常由于与有效数据普遍相近而会被忽视。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种样本筛选方法、***及神经网络模型训练方法,用于解决现有技术中主动学习方法会过分采样,导致标注数据大量重复,进而影响训练得到的模型识别精度较低的问题。
本发明的第一方面提供一种样本筛选方法,包括:
构建第一训练集,所述第一训练集包括未标注样本集和标注样本集;
计算所述未标注样本集和所述标注样本集之间的距离,并按照从小到大的顺序进行排序,得到排序结果;
将所述未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值;
根据所述排序结果和所述活跃值,从所述未标注样本集中选择部分样本进行标注,并将标注后的样本加入所述标注样本集中,形成新的标注样本集;
组合所述未标注样本集中剩余的样本、所述新的标注样本集,形成筛选后的第一训练集。
于本发明的一实施例中,所述计算所述未标注样本集和标注样本集之间的距离的步骤包括:
采用KM算法,分别对所述未标注样本集和所述标注样本集进行聚类分析,得到第一聚类群和第二聚类群;
从所述第一聚类群和所述第二聚类群中分别选择预设数量的聚类,提取每个聚类的质心;
计算来自第一聚类群的每个质心与来自第二类聚类群的所有质心的欧式距离之和,得到所述未标注样本集和标注样本集之间的距离。
于本发明的一实施例中,所述将所述未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值的步骤包括:
将选自所述第一聚类群的每个聚类输入预训练的神经网络模型中,提取对应的表征参数;
计算每个表征参数的平均值,根据该平均值确定对应的活跃值;其中,平均值越大,对应的活跃值越高。
于本发明的一实施例中,所述根据所述排序结果,从所述未标注样本集中选择部分样本进行标注的步骤包括:
按照排序结果,选择多个位置区间;
为每个位置区间分配采样率,其中,排序靠前的位置区间的采样率大于排序靠后的位置区间的采样率;
根据采样率,提取各位置区间对应的来自第一聚类群的聚类,对提取的各聚类中的所有样本进行标注。
于本发明的一实施例中,所述根据所述活跃值,从所述未标注样本集中选择部分样本进行标注的步骤包括:
从选自所述第一聚类群的各聚类中,选择活跃值小于预设活跃值,且排序顺序位于预设顺序之前的聚类,对选择的各聚类中的所有样本进行标注。
于本发明的一实施例中将所述未标注样本集输入预训练的神经网络模型中,得到对应的分类概率;
计算各所述分类概率的熵值,剔除熵值大于预设熵值的未标注样本。
本发明的第二方面还提供一种语言识别模型的训练方法,包括:
步骤一、采用第一方面中任一项所述的样本筛选方法,筛选第二训练集中的样本,得到新的第二训练集;
步骤二、采用新的第二训练集,在交叉熵损失函数的约束下,训练初始语言识别模型;
训练过程中,判断初始语言识别模型是否收敛,
若收敛,停止训练,得到训练后的语言识别模型;
否则,返回步骤一,重新筛选第二训练集中的样本。
本发明的第三方面还提供一种样本筛选***,包括:
样本构建模块,用于构建第一训练集,所述第一训练集包括未标注样本集和标注样本集;
距离计算模块,用于计算所述未标注样本集和标注样本集之间的距离,并按照从小到大的顺序进行排序,得到排序结果;
活跃值计算模块,用于将所述未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值;
处理模块,用于根据所述排序结果和所述活跃值,从所述未标注样本集中选择部分样本进行标注,并将标注后的样本加入所述标注样本集中,形成新的标注样本集;
所述样本构建模块,还用于组合所述未标注样本集中剩余的样本、所述新的标注样本集,形成筛选后的第一训练集。
本发明的第四方面还提供一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现本发明第一方面的一种样本筛选方法中所述的方法步骤、或者所述处理器执行所述计算机程序时实现本发明第二方面的一种语言识别模型的训练方法中所述的方法步骤。
本发明的第五方面还提供一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如本发明第一方面的一种样本筛选方法中所述的方法步骤、或者该计算机程序被处理器执行时实现本发明第二方面的一种语言识别模型的训练方法中所述的方法步骤。
如上所述,本发明的一种样本筛选方法、***及神经网络模型训练方法,具有以下有益效果:
本发明通过计算未标注样本集和标注样本集之间的距离,并根据距离进行排序,得到排序结果;通过提取未标注样本集的表征参数,得到对应的活跃值;基于排序结果和活跃值,从未标注样本集中选择部分样本进行标注,得到新的标注样本集;本发明在选择与训练任务相关的样本的同时,还保持了对无关数据的低采样率,并避免了采集到与训练任务无关的离群点,从而保证了采样到有价值的样本,由此在神经网络模型的训练过程中,避免了与任务毫无关联的样本对训练结果的影响,进而提高了神经网络模型的识别精度。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1显示为本发明第一实施方式中样本筛选方法的流程示意图。
图2显示为本发明第一实施方式中数据样本分布示意图。
图3显示为本发明第二实施方式中神经网络模型的训练方法的流程示意图。
图4显示为本发明第三实施方式中样本筛选***的结构框图。
图5显示为本发明第四实施方式中寿险客服违规检测方法的流程示意图。
图6显示为本发明第五实施方式中计算机设备的示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
请参阅图1,本发明的第一实施方式涉及一种样本筛选方法,用于在主动学习中,对神经网络模型的训练样本进行筛选,具体包括:
步骤101、构建第一训练集。
具体的说,在主动学习时,通常基于识别任务构建训练神经网络模型的原始样本集,该原始样本集一般采用网络上公开的数据源,该原始样本集包括未标注样本集和标注样本集,其中,标注样本集可选用网络上公开的数据源中的标注样本,也可根据项目需要,从未标注样本集中随机挑选少量样本,进行人工标注;再基于原始样本集中的训练集,对初始神经网络模型进行迭代训练,最终得到训练后的神经网络模型。在人工标注时,为了提高神经网络模型的识别精度,应尽量挑选最多信息量的未标注数据去进行人工标注来完成此任务的数据增强。
本实施方式的样本筛选方法适用于多种神经网络模型,为方便描述,下文以语言识别模型为例,来进行详细说明:
例如在寿险坐席话术的违规检测时,需要判断坐席推销的话语是否在一系列质检点上违规,在训练语言识别模型前,先基于寿险推销语料库构建第一训练集,第一训练集包括未标注样本集和标注样本集,应注意,从未标注样本集中筛选标注的样本时,应尽量挑选出与质检点相关的样本数据。
请参阅图2,外圆为保险推销语料的整体数据样本空间,内圆是在整体数据样本空间内,与质检点A相关的数据点,应理解,各数据点为对坐席推销语音经过音频转文字,再将文字处理后得到的一句话或一段话。其中,
第一类数据点,为与质检点A相关的聚类数据点,这是检测过程中需要的数据点,为了避免数据大量重复,不可以过分采样;
第二类数据点,为与质检点A相关的离群数据点,这是检测过程中需要的数据点,需要尽可能多地采样;
第三类数据点,为与质检点A无关的聚类数据点,这不是检测过程中需要的数据点,但这类样本常常是干扰样本,需要对每个聚类找出部分具备代表性的样本点;
第四类数据点,为与质检点A无关的离群数据点,检测过程中不需要这类数据,主动学习的选择策略应尽量避免这类数据。
基于上述选择样本数据的原则,本实施例基于主动学习方式,从未标注样本集中挑选出符合预设条件的样本,对其进行标注。
应理解,训练语言识别模型时,还包括第一测试集,采用本实施方式的样本筛选方法,对网络上公开的数据源进行筛选,再将筛选后的数据源按照预设比例随机划分为第一训练集和第一测试集,第一测试集用于检验训练后的语言识别模型的识别精度,若识别精度达到预期值,则停止训练,否则继续训练语言识别模型。
步骤102、计算未标注样本集和标注样本集之间的距离,并按照从小到大的顺序进行排序,得到排序结果。
具体的说,为了筛选出最多信息量的样本数据,本实施例计算未标注样本集和标注样本集之间的距离,距离越近,即认为样本数据包含的信息量越多,其中,计算距离的步骤包括:
采用Kmeans算法,简称KM算法,分别对未标注样本集和标注样本集进行无监督聚类分析,得到第一聚类群和第二聚类群。
KM算法为现有技术中常用的聚类算法,其聚类分析逻辑为:
步骤一、从观测样本集中随机选择k个初始质心;
步骤二、遍历观测样本集中所有样本数据,找到各样本数据距离最近的初始质心,将各样本数据划分为与其距离最近的初始质心相同的类;
步骤三、计算每个类别中所有样本数据的平均值,得到新的质心;
步骤四、重复步骤二和步骤三,直到k个质心不再变化,或达到迭代次数,得到聚类分析结果。
继续说明,从第一聚类群和第二聚类群中分别选择预设数量的聚类,提取每个聚类的质心,计算来自第一聚类群的每个质心与来自第二类聚类群的所有质心的欧式距离之和,得到未标注样本集和标注样本集之间的距离。
应理解,第一聚类群和第二聚类群中均包括多个聚类,从中选择预设数量的聚类,该数量可根据需要进行设定,本实施例中,从第一聚类群中选择50个聚类,从第二聚类群中选择20个聚类,提取每个聚类的质心,将来自第一聚类群的质心标记为A1到A50,将来自第二聚类群的质心标记为B1到B20。针对质心A1到A50,计算每个质心到来自第二类聚类群的所有质心的欧式距离之和,并按照从小到大的顺序,对所有的和进行排序,和越小,排序越靠前,即认为该质心越靠近内圆的聚类质心,应该对其配置更多的采样率。
需要说明的是,样本数据的筛选过程是一个迭代的过程,将筛选出的样本数据作为语言识别模型的训练集,根据语言识别模型的识别结果,对样本筛选方法中所涉及的参数进行微调,例如调整从第一聚类群和第二聚类群中选择的聚类的数量、采样率等,直至语言识别模型收敛。
继续说明,随着语言识别模型的迭代,上述采样率应该随着主动学习的迭代过程动态变化,是一个持续变化的值,但总体来说,可以按照经验及排序结果,预设一个比例,为各未标注样本分配采样率。
步骤103、将未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值。
具体的说,本实施例中预训练的神经网络模型为语言识别模型,是基于识别任务构建训练集,在原始语言识别模型的基础上预训练得到的,例如在寿险坐席话术的违规检测中,基于保险推销语料构成样本集,从样本集中随机挑选出少量的原始样本进行标注,再将样本集按照预设比例随机划分为训练集和测试集,采用训练集,在损失函数的约束下对原始语言识别模型进行训练,当原始语言识别模型收敛或达到预设迭代次数,即可得到预训练的语言识别模型,本实施例中的语言识别模型可直接采用BERT模型;也可以基于BERT模型,结合识别任务自行训练得到。
应理解,BERT模型是一个语言编码器,BERT模型所基于的大规模语料覆盖各个知识领域,基于这样的语料训练出来的预训练语言模型可用于解决不同领域的自然语言问题。BERT模型引入了MLM(Masked Language Model)及NSP(NextSentence Prediction,NSP)两个预训练任务,先基于大量无监督语料进行语言模型预训练(Pre-training),再使用少量标注语料进行微调(Fine-tuning)来完成文本分类、序列标注、机器翻译、阅读理解等下游NLP任务。
继续说明,未标注样本可以是一句话或一段话,将选自第一聚类群的每个聚类输入预训练的BERT模型中,提取对应的表征参数,该表征参数是通过BERT模型的激活函数relu层输出的一个768维度的向量,计算该768维度向量的平均值,并根据该平均值确定对应的活跃值,其中,平均值越大,对应的活跃值越高。
步骤104、根据排序结果和活跃值,从未标注样本集中选择部分样本进行标注,并将标注后的样本加入标注样本集中,形成新的标注样本集。
具体的说,排序结果越靠前,即认为该位置对应的样本数据所包含的信息量越多,因此,在筛选时,可以对位置靠前的样本数据分配较多的采样率;同时,为了避免数据大量重复,可以对位置在中间的样本数据分配适当的采样率;由此完成步骤101中的第一类数据的采样。对于位置靠后的样本数据,虽然包含的信息量较少,但是该类数据通常是干扰样本,可以分配较少的采样率,保留一些具有代表性的样本数据,由此完成步骤101中的第三类数据的采样。整体来说,排名靠前的采样率大于排名靠后的采样率。
具体应用到本实施例中,按照排序结果,选取三个位置区间,例如选择排名前五、排名20-25、最后五个的位置区间,依次为各位置区间分配的采样率为100:10:1;根据该采样率,提取各位置区间对应的来自第一聚类群的聚类,并对提取出的聚类中的所有样本进行标注。
继续说明,针对步骤101中的第二类数据和第四类数据,均为离群数据,其中第二类数据是训练语言识别模型时需要的样本数据,应该尽量多的分配采样率;而第四类数据是训练语言识别模型时不需要的样本数据,应该尽量避免此类数据。为了识别这些离群数据,本实施例在步骤103中,通过预训练的BERT模型,提取选自第一聚类群的每个聚类的表征参数,计算表征参数的平均值,进而确定该平均值对应的活跃值,对于活跃值小于预设活跃值的样本,记为冷却点。对于排序顺序靠前的冷却点,即认为是需要的第二类数据;对应排序顺序靠后的冷却点,即认为是不需要的第四类数据。
具体应用到本实施例中,从选自第一聚类群的各聚类中,选择活跃值小于预设活跃值,且排序顺序位于预设顺序之前的聚类,对选择的各聚类中的所有样本进行标注;对于活跃值小于预设活跃值,且排序顺序位于预设顺序之后的聚类,分配0%的采样率。
进一步说明,为了提高筛选精度,本发明的样本筛选方法还可通过判断样本数据的稳定性来筛选样本,将未标注样本集中的每个未标注样本输入预训练的BERT模型中,得到对应的分类概率;计算各分类概率的熵值,熵值越小,即认为样本数据所包括的信息稳定性越好,剔除熵值大于预设熵值的未标注样本,保留稳定性好的样本数据。
其中,各分类概率的熵值采用以下公式进行计算:
其中,xi为每个未标注样本的分类可能,P(xi)为每个未标注样本的分类概率。
应理解,上述预设活跃值、预设顺序及预设熵值,均可根据实际需要进行设定,本方案不对具体数据进行限定。
对通过上述方案筛选出的样本进行标注,并将标注后的样本加入标注样本集中,生成新的标注样本集。
步骤105、组合未标注样本集中剩余的样本、新的标注样本集,形成筛选后的第一训练集。
具体的说,上述方案是对未标注样本集中的样本进行挑选和剔除,将未标注样本集中剩余的样本、步骤104中生成的新的标注样本集组合,形成筛选后的第一训练集,该筛选后的第一训练集用来训练语言识别模型,同时也是下一次样本筛选的基础。
可见,本实施方式通过计算未标注样本集和标注样本集之间的距离,并根据距离进行排序,得到排序结果;通过提取未标注样本集的表征参数,得到对应的活跃值;基于排序结果和活跃值,从未标注样本集中选择部分样本进行标注,得到新的标注样本集;本发明在选择与训练任务相关的样本的同时,还保持了对无关数据的低采样率,并避免了采集到与训练任务无关的离群点,从而保证了采样到有价值的样本,由此在神经网络模型的训练过程中,避免了与任务毫无关联的样本对训练结果的影响,进而提高了神经网络模型的识别精度。
请参阅图3,本发明的第二实施方式涉及一种神经网络模型的训练方法,具体包括:
步骤301、筛选第二训练集中的样本,得到新的第二训练集;其中,筛选方法采用第一实施方式中公开的样本筛选方法。
具体的说,为方便描述,本实施例中采用语言识别模型来进行说明,该语言识别模型是基于BERT模型进行训练的,第二训练集可以采用BERT模型自带的语料样本集,也可以根据识别领域,自行构建。
第二训练集包括未标注样本集和标注样本集。
应理解,本实施例的样本集还包括第二测试集,采用第一实施方式中的样本筛选方法,对本实施例的样本集进行筛选,再将筛选后的样本集按照预设比例随机划分为第二训练集和第二测试集,第二测试集用于检验训练后的语言识别模型的识别精度,若识别精度达到预期值,则停止训练,否则继续训练语言识别模型。
步骤302、采用新的第二训练集,在交叉熵损失函数的约束下,训练初始语言识别模型;训练过程中,判断初始语言识别模型是否收敛,若收敛,停止训练,得到训练后的语言识别模型;否则,返回步骤301,重新筛选第二训练集中的样本。
具体的说,将新的第二训练集输入BERT模型中,计算得到分类概率,采用交叉熵损失函数计算分类概率和真实值的损失值,其中,真实值是基于标注样本集获得的;根据损失值,调整BERT模型的网络参数,直至BERT模型收敛或完成预设的迭代次数,即可得到训练后的语音识别模型。在训练过程中,若BERT模型没有收敛,或者没有完成预设的迭代次数,返回步骤301,基于上次筛选的第二训练集,重新筛选其中的未标注样本,并将此次筛选的第二训练集,作为下一次训练BERT模型的训练集。
进一步的,本实施方式中的神经网络模型的训练方法,还包括以下测试步骤:
将第二测试集输入训练后的语言识别模型中测试其识别精度,若识别精度大于预设精度,则将该训练后的语言识别模型作为最终的语言识别模型,否则,重复步骤301到步骤302。
可见,本实施方式采用第一实施方式的样本筛选方法,对神经网络模型的训练集进行筛选,所筛选的样本保证了与训练任务相关的同时,还保持了对无关数据的低采样率,并避免了采集到与训练任务无关的离群点,从而保证了采样到有价值的样本,由此在神经网络模型的训练过程中,避免了与任务毫无关联的样本对训练结果的影响,进而提高了神经网络模型的识别精度。
请参阅图4,本发明的第三实施方式涉及一种样本筛选***,具体包括:
样本构建模块,用于构建第一训练集。
具体的说,第一训练集可以采用网络上公开的数据源,也可以根据识别领域,自行构建;其中,第一训练集包括未标注样本集和标注样本集。
应理解,本实施例的样本集还包括第一测试集,第一测试集用于检验训练后的神经网络模型的识别精度,若识别精度达到预期值,则停止训练,否则继续训练神经网络模型。
距离计算模块,用于计算未标注样本集和标注样本集之间的距离,并按照从小到大的顺序进行排序,得到排序结果。
具体的说,为了筛选出最多信息量的样本数据,本实施例计算未标注样本集和标注样本集之间的距离,距离越近,认为样本数据包含的信息量越多,其中,计算距离的步骤包括:
采用Kmeans算法,简称KM算法,分别对未标注样本集和标注样本集进行无监督聚类分析,得到第一聚类群和第二聚类群。
KM算法为现有技术中常用的聚类算法,其聚类分析逻辑为:
步骤一、从观测样本集中随机选择k个初始质心;
步骤二、遍历观测样本集中所有样本数据,找到各样本数据距离最近的初始质心,将各样本数据划分为与其距离最近的初始质心相同的类;
步骤三、计算每个类别中所有样本数据的平均值,得到新的质心;
步骤四、重复步骤二和步骤三,直到k个质心不再变化,或达到迭代次数,得到聚类分析结果。
继续说明,从第一聚类群和第二聚类群中分别选择预设数量的聚类,提取每个聚类的质心,计算来自第一聚类群的每个质心与来自第二类聚类群的所有质心的欧式距离之和,得到未标注样本集和标注样本集之间的距离。
应理解,第一聚类群和第二聚类群中均包括多个聚类,从中选择预设数量的聚类,该数量可根据需要进行设定,本实施例中,从第一聚类群中选择50个聚类,从第二聚类群中选择20个聚类,提取每个聚类的质心,将来自第一聚类群的质心标记为A1到A50,将来自第二聚类群的质心标记为B1到B20。针对质心A1到A50,计算每个质心到来自第二类聚类群的所有质心的欧式距离之和,并按照从小到大的顺序,对所有的和进行排序,和越小,排序越靠前,即认为该质心越靠近内圆的聚类质心,应该对其配置更多的采样率。
需要说明的是,样本数据的筛选过程是一个迭代的过程,将筛选出的样本数据作为神经网络模型的训练集,根据神经网络模型的识别结果,对样本筛选方法中所涉及的参数进行微调,例如调整从第一聚类群和第二聚类群中选择的聚类的数量、采样率等,直至神经网络模型收敛。
继续说明,随着神经网络模型的迭代,上述采样率应该随着主动学习的迭代过程动态变化,是一个持续变化的值,但总体来说,可以按照经验及排序结果,预设一个比例,为各未标注样本分配采样率。
活跃值计算模块,用于将未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值。
具体的说,本实施例中预训练的神经网络模型,是基于识别任务构建训练集,在原始神经网络模型的基础上预训练得到的,例如在寿险坐席话术的违规检测中,基于保险推销语料构成样本集,从样本集中随机挑选出少量的原始样本进行标注,再将样本集按照预设比例随机划分为训练集和测试集,采用训练集,在损失函数的约束下对原始语言识别模型进行训练,当原始语言识别模型收敛或达到预设迭代次数,即可得到预训练的语言识别模型,本实施例中的语言识别模型可直接采用BERT模型;也可以基于BERT模型,结合识别任务自行训练得到。
继续说明,未标注样本可以是一句话或一段话,将选自第一聚类群的每个聚类输入预训练的BERT模型中,提取对应的表征参数,该表征参数是通过BERT模型的激活函数relu层输出的一个768维度的向量,计算该768维度向量的平均值,并根据该平均值确定对应的活跃值,其中,平均值越大,对应的活跃值越高。
处理模块,用于根据排序结果和活跃值,从未标注样本集中选择部分样本进行标注,并将标注后的样本加入所述标注样本集中,形成新的标注样本集。
具体的说,排序结果越靠前,即认为该位置对应的样本数据所包含的信息量越多,因此,在筛选时,可以对位置靠前的样本数据分配较多的采样率;同时,为了避免数据大量重复,可以对位置在中间的样本数据分配适当的采样率;由此完成第一实施方式的步骤101中的第一类数据的采样。对于位置靠后的样本数据,虽然包含的信息量较少,但是该类数据通常是干扰样本,可以分配较少的采样率,保留一些具有代表性的样本数据,由此完成步骤101中的第三类数据的采样。整体来说,排名靠前的采样率大于排名靠后的采样率。
具体应用到本实施例中,按照排序结果,选取三个位置区间,例如选择排名前五、排名20-25、最后五个的位置区间,依次为各位置区间分配的采样率为100:10:1;根据该采样率,提取各位置区间对应的来自第一聚类群的聚类,并对提取出的聚类中的所有样本进行标注。
继续说明,针对第一实施方式的步骤101中的第二类数据和第四类数据,均为离群数据,其中第二类数据是训练语言识别模型时需要的样本数据,应该尽量多的分配采样率;而第四类数据是训练语言识别模型时不需要的样本数据,应该尽量避免此类数据。为了识别这些离群数据,本实施例在第一实施方式的步骤103中,通过预训练的BERT模型,提取选自第一聚类群的每个聚类的表征参数,计算表征参数的平均值,进而确定该平均值对应的活跃值,对于活跃值小于预设活跃值的样本,记为冷却点。对于排序顺序靠前的冷却点,即认为是需要的第二类数据;对应排序顺序靠后的冷却点,即认为是不需要的第四类数据。
具体应用到本实施例中,从选自第一聚类群的各聚类中,选择活跃值小于预设活跃值,且排序顺序位于预设顺序之前的聚类,对选择的各聚类中的所有样本进行标注;对于活跃值小于预设活跃值,且排序顺序位于预设顺序之后的聚类,分配0%的采样率。
进一步说明,为了提高筛选精度,处理模块还可通过判断样本数据的稳定性来筛选样本,将未标注样本集中的每个未标注样本输入预训练的BERT模型中,得到对应的分类概率;计算各分类概率的熵值,熵值越小,即认为样本数据所包括的信息稳定性越好,剔除熵值大于预设熵值的未标注样本,保留稳定性好的样本数据。
其中,各分类概率的熵值采用以下公式进行计算:
其中,xi为每个未标注样本的分类可能,P(xi)为每个未标注样本的分类概率。
样本构建模块,还用于组合未标注样本集中剩余的样本、新的标注样本集,形成筛选后的第一训练集。
可见,本实施方式通过计算未标注样本集和标注样本集之间的距离,并根据距离进行排序,得到排序结果;通过提取未标注样本集的表征参数,得到对应的活跃值;基于排序结果和活跃值,从未标注样本集中选择部分样本进行标注,得到新的标注样本集。实施方式在选择与训练任务相关的样本的同时,还保持了对无关数据的低采样率,并避免了采集到与训练任务无关的离群点,从而保证了采样到有价值的样本,由此在神经网络模型的训练过程中,避免了与任务毫无关联的样本对训练结果的影响,进而提高了神经网络模型的识别精度。
请参阅图5,本发明的第四实施方式涉及一种寿险客服违规检测方法,具体包括:
步骤501、获取坐席推销的文本信息。
具体的说,获取通话记录库中坐席与客户之间的通话音频,本实施例中,在坐席与客户电话沟通过程中将自动进行录音,形成通话音频并保存到通话记录库中。违规话术检测所使用的通话音频既可以是准实时的,也可以是历史的,具体根据实际需要进行设置。可选的,在存储通话音频时,还可进一步存储与通话音频相关的信息,例如坐席姓名、坐席工号、通话开始时间、结束时间、客户姓名、客户电话号码、业务涉及类型等。
进一步说明,将获取的通话音频输入语音转文字模型中,提取声音特征量,将提取的每个声音特征量与声音库中标准声音数据相匹配,选择匹配度最高的标准声音数据相对应的文本为转换的文本信息。其中,语音转文字模型是基于DNN-HMM神经网络训练得到,深度神经网络DNN用于对输入的音频信息的观察概率进行建模,隐马尔科夫模型HMM用于对不同状态间的跳转关系进行建模,以刻画语音信号的时序变化,将未知语音形式与模型库中的某一个模型取得最佳匹配。
步骤502、基于寿险推销语料库构建第三训练集,筛选第三训练集,得到新的第三训练集;其中,筛选方法采用第一实施方式中公开的样本筛选方法。
具体的说,基于寿险推销语料库构建寿险检测样本集,该寿险检测样本集包括未标注样本集和标注样本集;采用第一实施方式中的样本筛选方法,对寿险检测样本集进行筛选,再将筛选后的寿险检测样本集按照预设比例随机划分为第三训练集和第三测试集。
步骤503、采用新的第三训练集,训练语言识别模型,得到违规话术识别模型。
具体的说,可采用第二实施方式中的训练方法,来训练本实施例中的语言识别模型,训练的主要步骤包括:
采用新的第三训练集,在交叉熵损失函数的约束下,训练语言识别模型;训练过程中,判断语言识别模型是否收敛,若收敛,停止训练,得到违规话术识别模型;否则,重新筛选第三训练集中的样本,再采用重新筛选的样本,重新训练语言识别模型。
进一步说明,训练步骤还包括:
将第三测试集输入违规话术识别模型中测试其识别精度,若识别精度大于预设精度,则将该违规话术识别模型作为训练好的违规话术识别模型,否则,重新训练。
步骤504、将文本信息输入违规话术识别模型中,得到识别结果;根据识别结果,确定该坐席是否存在违规话术。
具体的说,将文本信息根据需要分割为多段话或多句话,将每段话或每句话输入违规话术识别模型中进行识别,得到识别结果,该识别结果为一个概率值,若该概率值大于预设概率值,则认为存在违规话术。
进一步的,还可根据识别结果,为该坐席的服务质量进行评分,基于评分和通话音频相关的信息生成评价表格。
可见,本实施方式采用第一实施方式的样本筛选方法,对违规话术识别模型的训练集进行筛选,所筛选的样本保证了与训练任务相关的同时,还保持了对无关数据的低采样率,并避免了采集到与训练任务无关的离群点,从而保证了采样到有价值的样本,由此在神经网络模型的训练过程中,避免了与任务毫无关联的样本对训练结果的影响,进而提高了违规话术识别模型的识别精度。
请参阅图6,本发明的第五实施方式涉及一种计算机设备,包括存储器601、处理器602及存储在存储器601上并可在处理器602上运行的计算机程序,处理器602执行所述计算机程序时实现以下步骤:
构建第一训练集,第一训练集包括未标注样本集和标注样本集;
计算未标注样本集和标注样本集之间的距离,并按照从小到大的顺序进行排序,得到排序结果;
将未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值;
根据排序结果和活跃值,从未标注样本集中选择部分样本进行标注,并将标注后的样本加入标注样本集中,形成新的标注样本集;
组合未标注样本集中剩余的样本、新的标注样本集,形成筛选后的第一训练集。
处理器602执行所述计算机程序时还可实现以下步骤:
步骤一、采用第一实施方式中任一项所述的样本筛选方法,筛选第二训练集中的样本,得到新的第二训练集;
步骤二、采用新的第二训练集,在交叉熵损失函数的约束下,训练初始神经网络模型;
训练过程中,判断初始神经网络模型是否收敛,
若收敛,停止训练,得到训练后的神经网络模型;
否则,返回步骤一,重新筛选第二训练集中的样本。
其中,存储器601和处理器602采用总线方式连接,总线可以包括任意数量的互联的总线和桥,总线将一个或多个处理器602和存储器601的各种电路连接在一起。总线还可以将诸如***设备603、稳压器604和功率管理电路等之类的各种其他电路连接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口在总线和收发机之间提供接口。收发机可以是一个元件,也可以是多个元件,比如多个接收器和发送器,提供用于在传输介质上与各种其他装置通信的单元。经处理器602处理的数据通过天线在无线介质上进行传输,进一步,天线还接收数据并将数据传送给处理器602。
处理器602负责管理总线和通常的处理,还可以提供各种功能,包括定时,***接口,电压调节、电源管理以及其他控制功能。而存储器601可以被用于存储处理器602在执行操作时所使用的数据。
本领域技术人员可以理解,图5中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
本发明的第六实施方式涉及一种存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以下步骤:
构建第一训练集,第一训练集包括未标注样本集和标注样本集;
计算未标注样本集和标注样本集之间的距离,并按照从小到大的顺序进行排序,得到排序结果;
将未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值;
根据排序结果和活跃值,从未标注样本集中选择部分样本进行标注,并将标注后的样本加入标注样本集中,形成新的标注样本集;
组合未标注样本集中剩余的样本、新的标注样本集,形成筛选后的第一训练集。
该计算机程序被处理器执行时还可实现以下步骤:
步骤一、采用第一实施方式中任一项所述的样本筛选方法,筛选第二训练集中的样本,得到新的第二训练集;
步骤二、采用新的第二训练集,在交叉熵损失函数的约束下,训练初始神经网络模型;
训练过程中,判断初始神经网络模型是否收敛,
若收敛,停止训练,得到训练后的神经网络模型;
否则,返回步骤一,重新筛选第二训练集中的样本。
本申请可用于众多通用或专用的计算机***环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器***、基于微处理器的***、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何***或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
综上所述,本发明的一种样本筛选方法、***及神经网络模型训练方法,通过计算未标注样本集和标注样本集之间的距离,并根据距离进行排序,得到排序结果;通过提取未标注样本集的表征参数,得到对应的活跃值;基于排序结果和活跃值,从未标注样本集中选择部分样本进行标注,得到新的标注样本集;本发明在实现选择的样本是各个聚类中的离群点的同时,还保持了对无关数据各集群的低采样率,并避免了采集到与训练任务无关的离群点,从而保证了采样到有价值的样本,由此在神经网络模型的训练过程中,避免了与任务毫无关联的样本对训练结果的影响,进而提高了神经网络模型的识别精度。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (10)
1.一种样本筛选方法,其特征在于,包括:
构建第一训练集,所述第一训练集包括未标注样本集和标注样本集;
计算所述未标注样本集和所述标注样本集之间的距离,并按照从小到大的顺序进行排序,得到排序结果;
将所述未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值;
根据所述排序结果和所述活跃值,从所述未标注样本集中选择部分样本进行标注,并将标注后的样本加入所述标注样本集中,形成新的标注样本集;
组合所述未标注样本集中剩余的样本、所述新的标注样本集,形成筛选后的第一训练集。
2.根据权利要求1所述的样本筛选方法,其特征在于,所述计算所述未标注样本集和标注样本集之间的距离的步骤包括:
采用KM算法,分别对所述未标注样本集和所述标注样本集进行聚类分析,得到第一聚类群和第二聚类群;
从所述第一聚类群和所述第二聚类群中分别选择预设数量的聚类,提取每个聚类的质心;
计算来自第一聚类群的每个质心与来自第二类聚类群的所有质心的欧式距离之和,得到所述未标注样本集和标注样本集之间的距离。
3.根据权利要求2所述的样本筛选方法,其特征在于,所述将所述未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值的步骤包括:
将选自所述第一聚类群的每个聚类输入预训练的神经网络模型中,提取对应的表征参数;
计算每个表征参数的平均值,根据该平均值确定对应的活跃值;其中,平均值越大,对应的活跃值越高。
4.根据权利要求2所述的样本筛选方法,其特征在于,所述根据所述排序结果,从所述未标注样本集中选择部分样本进行标注的步骤包括:
按照排序结果,选择多个位置区间;
为每个位置区间分配采样率,其中,排序靠前的位置区间的采样率大于排序靠后的位置区间的采样率;
根据采样率,提取各位置区间对应的来自第一聚类群的聚类,对提取的各聚类中的所有样本进行标注。
5.根据权利要求4所述的样本筛选方法,其特征在于,所述根据所述活跃值,从所述未标注样本集中选择部分样本进行标注的步骤包括:
从选自所述第一聚类群的各聚类中,选择活跃值小于预设活跃值,且排序顺序位于预设顺序之前的聚类,对选择的各聚类中的所有样本进行标注。
6.根据权利要求1所述的样本筛选方法,其特征在于,还包括:
将所述未标注样本集输入预训练的神经网络模型中,得到对应的分类概率;
计算各所述分类概率的熵值,剔除熵值大于预设熵值的未标注样本。
7.一种神经网络模型的训练方法,其特征在于,包括:
步骤一、采用权利要求1-6中任一项所述的样本筛选方法,筛选第二训练集中的样本,得到新的第二训练集;
步骤二、采用新的第二训练集,在交叉熵损失函数的约束下,训练初始神经网络模型;
训练过程中,判断初始神经网络模型是否收敛,
若收敛,停止训练,得到训练后的神经网络模型;
否则,返回步骤一,重新筛选第二训练集中的样本。
8.一种样本筛选***,其特征在于,包括:
样本构建模块,用于构建第一训练集,所述第一训练集包括未标注样本集和标注样本集;
距离计算模块,用于计算所述未标注样本集和标注样本集之间的距离,并按照从小到大的顺序进行排序,得到排序结果;
活跃值计算模块,用于将所述未标注样本集输入预训练的神经网络模型中,提取对应的表征参数,计算各表征参数的活跃值;
处理模块,用于根据所述排序结果和所述活跃值,从所述未标注样本集中选择部分样本进行标注,并将标注后的样本加入所述标注样本集中,形成新的标注样本集;
所述样本构建模块,还用于组合所述未标注样本集中剩余的样本、所述新的标注样本集,形成筛选后的第一训练集。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于:所述处理器执行所述计算机程序时实现权利要求1-6中任一项所述的样本筛选方法,或者所述处理器执行所述计算机程序时实现权利要求7中所述神经网络模型的训练方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-6中任一项所述样本筛选方法,或者所述计算机程序被处理器执行时实现权利要求7中所述神经网络模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111445742.1A CN114154570A (zh) | 2021-11-30 | 2021-11-30 | 一种样本筛选方法、***及神经网络模型训练方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111445742.1A CN114154570A (zh) | 2021-11-30 | 2021-11-30 | 一种样本筛选方法、***及神经网络模型训练方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114154570A true CN114154570A (zh) | 2022-03-08 |
Family
ID=80455030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111445742.1A Pending CN114154570A (zh) | 2021-11-30 | 2021-11-30 | 一种样本筛选方法、***及神经网络模型训练方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114154570A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114519406A (zh) * | 2022-04-21 | 2022-05-20 | 天津卓朗科技发展有限公司 | 工业数据的分类方法及其模型训练方法、装置 |
CN115482441A (zh) * | 2022-11-11 | 2022-12-16 | 北京阿丘科技有限公司 | 训练数据筛选方法、装置及计算机可读存储介质 |
CN116402113A (zh) * | 2023-06-08 | 2023-07-07 | 之江实验室 | 一种任务执行的方法、装置、存储介质及电子设备 |
CN116701931A (zh) * | 2023-05-24 | 2023-09-05 | 中国长江三峡集团有限公司 | 一种水质参数反演方法、装置、存储介质及电子设备 |
CN116821693A (zh) * | 2023-08-29 | 2023-09-29 | 腾讯科技(深圳)有限公司 | 虚拟场景的模型训练方法、装置、电子设备及存储介质 |
-
2021
- 2021-11-30 CN CN202111445742.1A patent/CN114154570A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114519406A (zh) * | 2022-04-21 | 2022-05-20 | 天津卓朗科技发展有限公司 | 工业数据的分类方法及其模型训练方法、装置 |
CN115482441A (zh) * | 2022-11-11 | 2022-12-16 | 北京阿丘科技有限公司 | 训练数据筛选方法、装置及计算机可读存储介质 |
CN116701931A (zh) * | 2023-05-24 | 2023-09-05 | 中国长江三峡集团有限公司 | 一种水质参数反演方法、装置、存储介质及电子设备 |
CN116402113A (zh) * | 2023-06-08 | 2023-07-07 | 之江实验室 | 一种任务执行的方法、装置、存储介质及电子设备 |
CN116402113B (zh) * | 2023-06-08 | 2023-10-03 | 之江实验室 | 一种任务执行的方法、装置、存储介质及电子设备 |
CN116821693A (zh) * | 2023-08-29 | 2023-09-29 | 腾讯科技(深圳)有限公司 | 虚拟场景的模型训练方法、装置、电子设备及存储介质 |
CN116821693B (zh) * | 2023-08-29 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 虚拟场景的模型训练方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110377911B (zh) | 对话框架下的意图识别方法和装置 | |
CN109523993B (zh) | 一种基于cnn与gru融合深度神经网络的语音语种分类方法 | |
CN114154570A (zh) | 一种样本筛选方法、***及神经网络模型训练方法 | |
CN106407333B (zh) | 基于人工智能的口语查询识别方法及装置 | |
CN106599032B (zh) | 一种结合稀疏编码和结构感知机的文本事件抽取方法 | |
CN112270379A (zh) | 分类模型的训练方法、样本分类方法、装置和设备 | |
CN110147551A (zh) | 多类别实体识别模型训练、实体识别方法、服务器及终端 | |
KR20180062321A (ko) | 딥러닝-기반 키워드에 연관된 단어를 도출하는 방법과 컴퓨터프로그램 | |
CN109086265B (zh) | 一种语义训练方法、短文本中多语义词消歧方法 | |
CN112905795A (zh) | 文本意图分类的方法、装置和可读介质 | |
CN110297888B (zh) | 一种基于前缀树与循环神经网络的领域分类方法 | |
CN111597328B (zh) | 一种新事件主题提取方法 | |
CN111274822A (zh) | 语义匹配方法、装置、设备及存储介质 | |
CN111222847A (zh) | 基于深度学习与非监督聚类的开源社区开发者推荐方法 | |
CN110019741A (zh) | 问答***答案匹配方法、装置、设备及可读存储介质 | |
CN110717090A (zh) | 一种旅游景点网络口碑评价方法、***及电子设备 | |
CN111860981A (zh) | 一种基于lstm深度学习的企业国民行业类别预测方法及*** | |
CN111177402A (zh) | 基于分词处理的评价方法、装置、计算机设备及存储介质 | |
CN112685374B (zh) | 日志分类方法、装置及电子设备 | |
CN113886562A (zh) | 一种ai简历筛选方法、***、设备和存储介质 | |
CN111680514B (zh) | 信息处理和模型训练方法、装置、设备及存储介质 | |
Preetham et al. | Comparative Analysis of Research Papers Categorization using LDA and NMF Approaches | |
CN116757195A (zh) | 一种基于提示学习的隐性情感识别方法 | |
CN114692615A (zh) | 一种针对小语种的小样本意图识别方法 | |
CN115600595A (zh) | 一种实体关系抽取方法、***、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |