CN116662552A - 金融文本数据分类方法、装置、终端设备及介质 - Google Patents
金融文本数据分类方法、装置、终端设备及介质 Download PDFInfo
- Publication number
- CN116662552A CN116662552A CN202310791575.9A CN202310791575A CN116662552A CN 116662552 A CN116662552 A CN 116662552A CN 202310791575 A CN202310791575 A CN 202310791575A CN 116662552 A CN116662552 A CN 116662552A
- Authority
- CN
- China
- Prior art keywords
- text data
- model
- training
- sample
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 83
- 238000012549 training Methods 0.000 claims abstract description 85
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 230000006870 function Effects 0.000 claims description 29
- 230000002787 reinforcement Effects 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 5
- 239000000284 extract Substances 0.000 claims description 4
- 238000013473 artificial intelligence Methods 0.000 abstract description 8
- 238000003058 natural language processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 7
- 230000000694 effects Effects 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 238000012512 characterization method Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提供一种金融文本数据分类方法、装置、终端设备及介质,涉及人工智能领域。该方法包括:获取用户输入的目标金融文本数据;利用目标大型语言模型中的目标分类网络对目标金融文本数据进行特征提取和分类处理,得到对应的分类结果;其中,目标大型语言模型是由目标分类网络和预训练语言模型组成的LLM模型,且目标分类网络在预训练语言模型根据获取到的原始金融文本数据样本生成增强样本后,基于原始金融文本数据样本和增强样本训练得到。本申请的方法,通过利用预训练语言模型生成增强样本,并基于原始金融文本数据样本和增强样本的训练得到目标分类网络的方式,提高了目标分类网络的准确性。
Description
技术领域
本申请涉及人工智能领域,尤其涉及一种金融文本数据分类方法、装置、终端设备及介质。
背景技术
自然语言处理(Natural Language Processing,NLP)的有效性在很大程度上依赖于训练数据的质量和数量。但是,在实际应用中存在可用的训练数据有限,隐私问题或人工注释的高成本问题,因此如何训练出一个精确的NLP模型,并将其很好地推广到看不见的样本中是具有挑战性的。同样的,训练数据不足的问题在小样本学习(Few-shot Learning,FSL)场景中尤为突出,在常见的这些小样本学习场景中,基于源域数据训练的模型预计只能从目标域的几个例子中推广出来。在这种场景中,目标域的数据通常更少,质量也更低。
现有的FSL方法主要是通过更好的架构设计来提高模型的学习和泛化能力,利用语言模型为基础,然后使用有限的样本和元学习或是基于提示的方法,对其进行微调。然而,这些方法的性能在本质上仍受到源域数据和目标域数据的质量和数量的限制。而文本数据增强是克服许多自然语言处理任务中样本存量有限的有效策略,因此现有技术广泛使用的策略是对训练数据进行数据增强,以此更好地捕获数据不变性并增加样本量。
但是,目前的文本数据增强方法很大程度上存在生成的增强样本质量差、缺乏可靠性的问题,还可能存在生成的增强样本缺乏多样性、缺乏完整性的问题,最终导致训练得到的网络分类准确性差。
发明内容
本申请提供一种金融文本数据分类方法、装置、终端设备及介质,用以解决现有技术因增强样本质量差、缺乏多样性导致模型分类准确性较差的问题。
第一方面,本申请提供一种金融文本数据分类方法,包括:
获取用户输入的目标金融文本数据;
利用目标大型语言模型中的目标分类网络对所述目标金融文本数据进行特征提取和分类处理,得到对应的分类结果;其中,所述目标大型语言模型是由所述目标分类网络和预训练语言模型组成的LLM模型,且所述目标分类网络在所述预训练语言模型根据获取到的原始金融文本数据样本生成增强样本后,基于所述原始金融文本数据样本和所述增强样本训练得到。
第二方面,本申请提供一种金融文本数据分类装置,包括:
获取模块,用于获取用户输入的目标金融文本数据;
分类模块,用于利用目标大型语言模型中的目标分类网络对所述目标金融文本数据进行特征提取和分类处理,得到对应的分类结果;其中,所述目标大型语言模型是由所述目标分类网络和预训练语言模型组成的LLM模型,且所述目标分类网络在所述预训练语言模型根据获取到的原始金融文本数据样本生成增强样本后,基于所述原始金融文本数据样本和所述增强样本训练得到。
第三方面,本申请提供一种终端设备,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如第一方面所述的方法。
第四方面,本申请提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如第一方面所述的方法。
第五方面,本申请提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现第一方面所述的方法。
本申请提供的金融文本数据分类方法,包括:获取用户输入的目标金融文本数据;利用目标大型语言模型中的目标分类网络对目标金融文本数据进行特征提取和分类处理,得到对应的分类结果;其中,目标大型语言模型是由目标分类网络和预训练语言模型组成的LLM模型,且目标分类网络在预训练语言模型根据获取到的原始金融文本数据样本生成增强样本后,基于原始金融文本数据样本和增强样本训练得到。
本申请在小样本学习场景中,通过引入预训练语言模型的方式,能够在获取到原始金融文本数据样本的基础上,生成质量更高且具有多样性的增强样本,进而利用更多的样本进行训练,进而提高目标分类网络的分类准确性。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请实施例提供的一种金融文本数据分类方法的流程示意图;
图2为本申请实施例提供的LLM模型的结构示意图;
图3为本申请实施例提供的文本数据分类方法应用到金融领域的效果示意图;
图4为本申请实施例提供的文本数据分类方法应用到其他领域的效果示意图;
图5为本申请实施例提供的一种金融文本数据分类装置的结构示意图;
图6为本申请实施例提供的一种终端设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
需要说明的是,本申请提供的金融文本数据分类方法、装置、终端设备及介质可用于人工智能领域,也可用于除人工智能领域以外的其他领域,因此本申请对金融文本数据分类方法、装置、终端设备及介质的应用领域不作限定。
本申请具体的应用场景是小样本学习场景,该场景存在训练数据不足的问题。因为在这种场景中,目标领域的数据通常更少,质量也更低。通常,为克服这类问题,被广泛使用的策略是对训练数据进行数据增强,以此更好地捕获数据不变性并增加样本量。然而,目前的文本数据增强方法可能存在生成的增强样本质量差、缺乏可靠性的问题,还可能存在生成的增强样本缺乏多样性、缺乏完整性的问题,最终导致训练得到的网络分类准确性差。本申请提供的金融文本数据分类方法,旨在解决现有技术的如上技术问题。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
实施例1:
图1为本申请实施例提供的一种金融文本数据分类方法的流程示意图。如图1所示,本实施例的方法,包括以下步骤:
S10、获取用户输入的目标金融文本数据。
在本申请实施例中,目标金融文本数据是与银行业务相关的数据,例如:存款以及存款金额,取款以及取款金额,办理银行卡、注销银行卡等。从获取方式上来说,其可以是由用户语音输入转换成的文本数据,可以是录音设备提供的录音转换成的文本数据,还可以是由用户直接利用输入设备输入的文本数据,因此本申请实施例对目标金融文本数据的获取方式不做具体限定。
S20、利用目标大型语言模型中的目标分类网络对目标金融文本数据进行特征提取和分类处理,得到对应的分类结果;其中,目标大型语言模型是由目标分类网络和预训练语言模型组成的LLM模型,且目标分类网络在预训练语言模型根据获取到的原始金融文本数据样本生成增强样本后,基于原始金融文本数据样本和增强样本训练得到。
在本申请实施例中,大型语言模型(Large Language Model,LLM)或称为大语言模型,是一种人工智能模型。LLM模型属于自回归语言模型中的一种,其包含的目标分类网络使用转换器解码器块作为模型主干。原始金融文本数据样本,可以是句子,该句子具有语义,语义相当于原始金融文本数据样本对应的词向量的一些标记,在每个词向量经过处理后,均能够显示对应句子当中有一些特征,而这些标记主要是用于标记句子当中的一些特征。上述上述增强样本是文本分类时的辅助样本。
本申请实施例为获取语义特征一致、具有多样性的增强样本,提供预训练语言模型,该预训练语言模型可以采用ChartGPT,还可以采用其他模型,其能够基于人类反馈强化学习得到,具体描述见下述实施例2,此处不再赘述。
需要注意的是,本申请实施例在金融领域中应用的目标金融文本数据,在将该方法应用到其他领域时,将目标金融文本数据替换为其他领域的文本数据,能够达到相同效果。也就是说,基于ChartGPT的文本数据增强方法(即ChatAug)可以应用于金融文本数据,还可以应用于其他领域中的其他文本数据,本申请实施例对此并不做具体限定。
本申请在小样本学习场景中,通过引入预训练语言模型的方式,能够在获取到原始金融文本数据样本的基础上,生成质量更高且具有多样性的增强样本,进而利用更多的样本进行训练,进而提高目标分类网络的分类准确性。
在上述实施例的基础上,下面结合几个具体的实施例对本申请技术方案进行更详细的描述。
图2为本申请实施例提供的LLM模型的结构示意图。如图2所示,该LLM模型包括:预训练语言模型和目标分类网络,其中,预训练语言模型可以是ChartGPT,目标分类网络包括BERT模型和全连接softmax分类器。
基于Transformer构建的双向语义编码表征模型(Bidirectional EncoderRepresentations from Transformers,BERT)是一种语言表征模型,并且是一个深度的双向表征模型,其深度具体体现在其在表征每一个词语时都同时利用了全部的上下文信息。本申请实施例对BERT模型的具体结果不做具体限定。
上述LLM模型的结构是指基于大型语言模型的金融文本数据增强方法的总体框架。如图2所示,本实施例应用LLM模型中的ChatGPT对原始金融文本数据样本进行数据增强。本实施例将所有类别的样本输入到LLM模型中的ChatGPT中,并提示LLM模型中的ChatGPT生成与原始金融文本数据样本的标记保持语义一致性的增强样本。在原始金融文本数据样本和强样本的基础上,训练一个基于BERT模型的初始分类网络,得到目标分类网络,并评估目标分类网络的分类性能。训练步骤如步骤S21~步骤S24所示,主要包括以下内容:基于原始金融文本数据样本和增强样本,对基于原始样本集得到的初始分类网络进行微调。而LLM模型中的ChatGPT主要用于数据增强,以生成增强样本。
一种可能的实现方式中,目标分类网络的训练过程,包括以下步骤:
S21、获取原始样本集,并基于原始样本集建立初始分类网络;其中,原始样本集包括原始金融文本数据样本及其对应的标签。
在本申请实施例中,原始样本集或称为基本数据集,记为Db={(xi,yi)},其中,第i个原始金融文本数据样本xi对应的标签yi∈标签空间Yb。
S22、针对每个类别的标签,基于对应的原始金融文本数据样本,利用预训练语言模型提示生成标签对应的多个增强样本。
在该步骤S22中,本实施例可以实现数据的输入,在实现数据的输入的这项工作中,本实施例使用金融场景的自然语言处理作为任务,并在预设基准(即:包含BERT模型的目标分类网络的准确率和ChatGPT的数据增强效果)上进行了本实施例的实验。数据增强在金融场景的自然语言处理中尤其需要,因为人工注释的重大负担和严格的隐私规定使得大规模的数据标记不可行。本实施例可以选择一个广泛应用于自然语言处理和文本挖掘研究的数据集作为原始样本集。原始样本集由来自大约2万个金融领域的科学摘要组成,这些摘要作为原始金融文本数据样本,均已经用特定任务的标签进行了注释,这些注释能够作为标签,包括但不限于:命名实体、命名实体之间的关系、其他语义角色等。该数据集已被用于开发和评估各种自然语言处理任务的机器学习模型,包括但不限于:命名实体识别、关系提取、文本分类等。
S23、将所有类型的标签对应的所有增强样本组合为增强样本集。
在本申请实施例中,增强样本集或称为增强数据集、新数据集,记为Dn={(xj,yj)};其中,第j个增强样本xj对应的标签yj∈标签空间Yn。此外,新数据集或基本数据集中的任一样本均可以称为标记样本。
本申请实施例给定一个基本数据集和一个新数据集。在小样本学习场景中,基本数据集Db有数量相对较多的标记样本,而新数据集Dn有少量的标记样本。为在新数据集上评估小样本学习的性能,本实施例的目标是训练一个同时具有基础数据集和新数据集的BERT模型,同时使包含该BERT模型的目标分类网络在新数据集上实现令人满意的通用性。
S24、基于原始样本集和增强样本集训练初始分类网络,直至初始分类网络的分类性能达到预设值后停止训练,得到目标分类网络。
本实施例通过包含BERT模型的初始分类网络来训练,得到一个能够对增强样本进行准确分类的目标分类网络。其中,BERT模型的顶层的输出特性可以记为:z=[zc,z1,...,zn],
其中,zc是类特殊令牌CLS的表示。对于增强文本的分类,zc通常被输入到一个特定任务的分类器(即全连接softmax分类器)中以进行最终预测。本申请实施例可以避免因小样本学习导致的过拟合现象和缺乏泛化能力的问题。
一种可能的实现方式中,在步骤S21中,基于原始样本集建立初始分类网络,包括以下步骤:
S211、建立包含BERT模型与全连接softmax分类器的网络框架。
S212、在对网络框架进行预训练的过程中,利用BERT模型对原始样本集中的原始金融文本数据样本进行特征提取,得到特征集合。本实施例可以将特征集合可以记为hN。
S213、基于特征集合,利用全连接softmax分类器对原始金融文本数据样本的标签进行预测,得到预测结果。
本实施例在步骤S213中,采用如下公式对预测结果进行预测:
其中,OUT为预测结果,是We的转置矩阵,其中,We为样本的标记嵌入矩阵。
S214、根据预测结果和原始金融文本数据样本对应的标签之间的偏差,调整网络框架的参数,当满足结束条件时,将预训练后的网络框架作为初始分类网络。
初始分类网络是基于LLM的文本数据分类模型。本实施例通过执行步骤S211~步骤S214,能够建立基于LLM的文本数据分类模型,其具体建立过程见下述步骤S1~步骤S2,此处不再赘述。初始分类网络为目标分类网络提供模型框架,因此建立初始分类网络能够为后续建立分类精确率高的目标分类网络提供框架支撑。
一种可能的实现方式中,BERT模型包括多个Transformer块;该Transformer块或称为转换器解码器块。在预训练过程中,LLM模型对一组样本X={x1,x2,...,xn}进行无监督的分布估计,由m个标记组成的样本xi定义为xi=(s1,s2,...,sm)。预训练目标是最大化以下可能性:
其中,L(xi)为可能性,P为xi成为增强样本的概率,其表示增强样本和原始样本之间的相似度,相似度越高,表明其越有可能成为增强样本,θ为LLM模型的可训练参数。样本的标记通过标记嵌入矩阵和位置嵌入矩阵来表示,其中:
h0=xiWe+Wp
其中,h0为样本xi的标记,We为标记嵌入矩阵,Wp为位置嵌入矩阵。
步骤S212、则利用BERT模型对原始样本集中的原始金融文本数据样本进行特征提取,得到特征集合,包括以下步骤:
S1、首个Transformer块从原始金融文本数据样本中提取第一特征,其余Transformer块均从前一个Transformer块提取到的特征中提取第二特征。
如果BERT模型包括N个Transformer块,第N个Transformer块提取到的样本的特征为:
hn=transformer_blocks(hn-1)
其中,hn为第N个Transformer块提取到的样本的特征,或称为顶部Transformer块(或称为BERT模型的顶层)的输出,hn-1为第N-1个Transformer块提取到的样本的特征。
S2、将第一特征和所有的第二特征构成特征集合。
在本申请实施例中,特征结集合能够为后续利用全连接softmax分类器对原始金融文本数据样本的标签进行预测,得到预测结果提供数据支撑。
一种可能的实现方式中,步骤S31~步骤S33的目的是应用基于人类反馈强化学习(Reinforcement Learning from Human Feedback,RLHF)方法,该LLM模型中的预训练语言模型在经过预训练后,将应用RLHF方法对预训练语言模型进行微调,并且RLHF方法根据人类反馈对预训练语言模型进行微调,以使预训练语言模型的输出与用户对各种任务的意图相一致。其中,LLM模型的RLHF方法包含S31~步骤S33这三个步骤:
在步骤S22、利用预训练语言模型提示生成标签对应的多个增强样本之前,方法还包括以下步骤:
S31、将经人工标注的数据作为监督数据,对SFT模型进行有监督微调训练。
具体的,LLM模型将使用标记数据进行进一步的训练。为了方便人机交互,人工智能训练工作人员可以扮演用户和人工智能助手进行交互,以使人工智能助手根据提示构建答案。在本申请实施例中,携带提示的答案(即经人工标注的数据)作为监督数据,以进一步训练预训练语言模型。经过进一步的预训练,可以得到监督微调(Supervised Fine-tuning,SFT)模型。
S32、基于训练好的SFT模型,建立奖励模型。
本实施例基于SFT模型训练一个奖励模型,输入一个提示和响应,并输出一个标量奖励。通过标签将输出从最佳到最坏进行排序,以构建一个排序数据集。
S33、基于奖励模型返回的排序数据集,采用强化学习方式进行训练,得到预训练语言模型;其中,排序数据集包括按照标签得分顺序排列的多个数据。
在该步骤S33中,本实施例通过使用奖励模型,LLM模型可以使用强化学习方式中的近端策略优化(Proximal Policy Optimization,PPO)方法进行微调。
本申请实施例通过步骤S31~步骤S33得到的预训练语言模型,具有更强的语义理解功能,其可以使生成的增强样本具有多样性和准确性。
一种可能的实现方式中,在执行步骤S32的过程中,方法还包括:
S34、获取奖励模型的参数,并基于奖励模型的参数计算奖励模型的损失函数。
两个输出之间的损失函数定义如下:
其中,θr是奖励模型的参数,r是序列中与此次输入的提示和响应对应的一个序号,x,y分别是提示和响应,σ是这一对yw和yl的偏好,γ是一个控制训练前梯度强度的训练前损失系数,Dc是人类比较的数据集。
一种可能的实现方式中,步骤S33、基于奖励模型返回的排序数据集,采用强化学习方式进行训练,得到预训练语言模型,包括以下步骤:
基于奖励模型返回的排序数据集,采用近端策略优化算法进行微调,得到预训练语言模型。
为了修复公共自然语言处理数据集上的性能回归,RLHF将训练前的梯度混合为PPO梯度,也称为PPO-ptx,该PPO梯度的目标函数为:
其中,γ是控制训练前梯度强度的训练前损失系数,Dpretrain是预训练分布,是学习到的RL策略模型,θr(x,y)是反馈模型,β是控制惩罚强度KL散度约束的奖励系数,θSFT是监督训练模型。
一种可能的实现方式中,初始分类网络的分类性能采用目标函数进行表示;其中,目标函数由交叉熵函数和对比学习损失函数构成。
数据增强生成的增强样本进行学习的目标函数包括交叉熵函数和对比学习损失函数。本实施例将zc输入到一个全连接层作为最终预测的全连接softmax分类器:
其中,为分类结果,Wc T是Wc的转置矩阵,Wc、bc均为初始分类网络中可训练的参数,zc是类特殊令牌CLS的表示。
上述交叉熵函数的表达式为:
其中,C为输出维数,其数值等于基本数据集与新数据集的标签空间的并集,ydc是原始样本的真实值。为了充分利用基础数据集中的先验知识来指导新数据集的学习,本实施例引入了对比损失函数,使同一类别的样本表示更加紧凑,使不同类别的样本表示更加分离。同一批次的样品对之间的对比损失定义如下:
其中,vi和vi′为属于同一类别的样本的zc;vi和vj为属于不同类别的样本的zc;cos为两个样本之间的余弦相似度。
需要注意的是,在模型的微调阶段,本实施例只使用交叉熵函数作为目标函数。在小样本学习阶段,本实施例将交叉熵函数和对比学习损失函数作为目标函数。
本申请实施例提出的一种金融文本数据分类方法,是基于LLM模型的金融文本数据增强方法,该方法利用LLM模型中的预训练语言模型生成用于小样本学习中的文本分类时的辅助样本。本实施例通过在金融领域的数据集上做的实验,测试了基于LLM模型的金融文本数据分类方法的分类性能。
另外,本实施例在金融领域及通用领域中的数据集做了一些实验,测试了基于LLM模型的文本数据分类方法的分类性能。
如表1所示,在金融数据集中,没有数据增强的BERT的准确率仅为63.6%。然而,本实施例通过ChatGPT进行文本数据增强后准确率达到88.9%。这些结果表明,使用ChatGPT进行数据增强,并可以在金融领域的各种应用中更有效地提高机器学习模型的性能。
表1各方法在金融数据集上的应用结果
在图3中,五角星形状表示本实施例提供的基于ChatGPT的文本数据分类方法,而所有的圆圈形状表示其他模型。结合表1和图3可知,与现有的金融文本数据分类方法的分类性能相比,金融文本数据的分类精度有了两位数的提高,并且对生成增强样本的可靠性和完整性进一步研究表明,该方法可以生成更多样化的增强样本,同时保持其准确性,使增强样本的标签与原始金融文本数据样本对应的标签具有较高的语义相似性。
如表2所示,在通用数据集中,基于ChatGPT的文本数据分类方法能够获得更高的准确性。在进行了文本数据增强的通用数据集中,基于ChatGPT进行数据增强生成的增强样本能够使BERT模型的准确率提升达到83.5%,而没有采用增强样本的BERT模型,其准确率只有79.2%。
表2各方法在通用数据集上的应用结果
在图4中,五角星形状表示本实施例提供的基于ChatGPT的文本数据分类方法,而所有的圆圈形状表示其他模型。
结合表2和图4可知,与现有的文本数据分类方法的分类性能相比,文本数据的分类精度有了两位数的提高,并且对生成增强样本的可靠性和完整性进一步研究表明,该方法可以生成更多样化的增强样本,同时保持其准确性,使增强样本的标签与原始文本数据样本对应的标签具有较高的语义相似性。
综上,本实施例引入了ChatGPT作为小样本学习文本分类的数据增强工具。具体来说,使用ChatGPT将每个输入的句子重新表述为多个(例如:6个)额外的句子,从而增加了样本。与以往的数据增强方法相比,由ChatGPT构建的LLM模型更适合用于数据增强,原因如下:ChatGPT是用大规模语料库进行预训练得到,具有更广泛的语义表达空间,有助于提升数据增强的多样性。由于ChatGPT的微调阶段引入了大量的手工注释样本,因此ChatGPT生成的语言更符合人类的表达习惯。因此本申请实施例通过强化学习,能够使LLM比较不同表达式的优缺点,确保增强样本具有更高的质量。
实施例3:
图5为本申请实施例提供的一种金融文本数据分类装置的结构示意图。本实施例的装置可以为软件和/或硬件的形式。如图5所示,本实施例提供的金融文本数据分类装置,包括:获取模块51和分类模块52。其中:
获取模块51,用于获取用户输入的目标金融文本数据。
分类模块52,用于利用目标大型语言模型中的目标分类网络对目标金融文本数据进行特征提取和分类处理,得到对应的分类结果;其中,目标大型语言模型是由目标分类网络和预训练语言模型组成的LLM模型,且目标分类网络在预训练语言模型根据获取到的原始金融文本数据样本生成增强样本后,基于原始金融文本数据样本和增强样本训练得到。
一种可能的实现方式中,金融文本数据分类装置,用于:
获取原始样本集,并基于原始样本集建立初始分类网络;其中,原始样本集包括原始金融文本数据样本及其对应的标签。
针对每个类别的标签,基于对应的原始金融文本数据样本,利用预训练语言模型提示生成标签对应的多个增强样本。
将所有类型的标签对应的所有增强样本组合为增强样本集。
基于原始样本集和增强样本集训练初始分类网络,直至初始分类网络的分类性能达到预设值后停止训练,得到目标分类网络。
一种可能的实现方式中,金融文本数据分类装置,还用于:
建立包含BERT模型与全连接softmax分类器的网络框架。
在对网络框架进行预训练的过程中,利用BERT模型对原始样本集中的原始金融文本数据样本进行特征提取,得到特征集合。
基于特征集合,利用全连接softmax分类器对原始金融文本数据样本的标签进行预测,得到预测结果。
根据预测结果和原始金融文本数据样本对应的标签之间的偏差,调整网络框架的参数,当满足结束条件时,将预训练后的网络框架作为初始分类网络。
一种可能的实现方式中,金融文本数据分类装置,还用于:
将经人工标注的数据作为监督数据,对SFT模型进行有监督微调训练;
基于训练好的SFT模型,建立奖励模型;
基于奖励模型返回的排序数据集,采用强化学习方式进行训练,得到预训练语言模型;其中,排序数据集包括按照标签得分顺序排列的多个数据。
一种可能的实现方式中,金融文本数据分类装置,还用于:
获取奖励模型的参数,并基于奖励模型的参数计算奖励模型的损失函数。
一种可能的实现方式中,金融文本数据分类装置,还用于:
基于奖励模型返回的排序数据集,采用近端策略优化算法进行微调,得到预训练语言模型。
一种可能的实现方式中,初始分类网络的分类性能采用目标函数进行表示;其中,目标函数由交叉熵函数和对比学习损失函数构成。
一种可能的实现方式中,BERT模型包括多个Transformer块;则金融文本数据分类装置,还用于:
首个Transformer块从原始金融文本数据样本中提取第一特征,其余Transformer块均从前一个Transformer块提取到的特征中提取第二特征。
将第一特征和所有的第二特征构成特征集合。
本实施例提供的金融文本数据分类装置,可用于执行上述任意方法实施例提供的金融文本数据分类方法,其实现原理和技术效果类似,此处不做赘述。
根据本申请的实施例,本申请还提供了一种终端设备和一种可读存储介质。
图6为本申请实施例提供的一种终端设备的结构示意图。该终端设备包括接收器60、发送器61、至少一个处理器62和存储器63,由上述部件构成的该终端设备可以用来实施本申请上述几个具体的实施例,此处不再赘述。
本申请实施例还提供一种计算机可读存储介质,计算机可读存储介质中存储有计算机执行指令,当处理器执行计算机执行指令时,实现上述实施例中方法中的各个步骤。
本申请实施例还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述实施例中方法中的各个步骤。
本申请以上描述的***和技术的各种实施方式可以在数字电子电路***、集成电路***、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上***的***(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程***上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储***、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储***、该至少一个输入装置、和该至少一个输出装置。
用于实施本申请的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或终端设备上执行。
在本申请的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行***、装置或设备使用或与指令执行***、装置或设备结合地使用的程序。计算机可读存储介质可以是机器可读信号介质或机器可读储存介质。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体***、装置或设备,或者上述内容的任何合适组合。计算机可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的***和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的***和技术实施在包括后台部件的计算***(例如,作为数据终端设备)、或者包括中间件部件的计算***(例如,应用终端设备)、或者包括前端部件的计算***(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的***和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算***中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将***的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本申请公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (12)
1.一种金融文本数据分类方法,其特征在于,包括:
获取用户输入的目标金融文本数据;
利用目标大型语言模型中的目标分类网络对所述目标金融文本数据进行特征提取和分类处理,得到对应的分类结果;其中,所述目标大型语言模型是由所述目标分类网络和预训练语言模型组成的LLM模型,且所述目标分类网络在所述预训练语言模型根据获取到的原始金融文本数据样本生成增强样本后,基于所述原始金融文本数据样本和所述增强样本训练得到。
2.根据权利要求1所述的方法,其特征在于,所述目标分类网络的训练过程,包括:
获取原始样本集,并基于所述原始样本集建立初始分类网络;其中,所述原始样本集包括原始金融文本数据样本及其对应的标签;
针对每个类别的标签,基于对应的原始金融文本数据样本,利用所述预训练语言模型提示生成所述标签对应的多个所述增强样本;
将所有类型的标签对应的所有所述增强样本组合为增强样本集;
基于所述原始样本集和所述增强样本集训练所述初始分类网络,直至所述初始分类网络的分类性能达到预设值后停止训练,得到所述目标分类网络。
3.根据权利要求2所述的方法,其特征在于,所述基于所述原始样本集建立初始分类网络,包括:
建立包含BERT模型与全连接softmax分类器的网络框架;
在对所述网络框架进行预训练的过程中,利用所述BERT模型对所述原始样本集中的原始金融文本数据样本进行特征提取,得到特征集合;
基于所述特征集合,利用所述全连接softmax分类器对所述原始金融文本数据样本的标签进行预测,得到预测结果;
根据预测结果和所述原始金融文本数据样本对应的标签之间的偏差,调整所述网络框架的参数,当满足结束条件时,将预训练后的网络框架作为初始分类网络。
4.根据权利要求2所述的方法,其特征在于,在利用所述预训练语言模型提示生成所述标签对应的多个所述增强样本之前,所述方法还包括:
将经人工标注的数据作为监督数据,对SFT模型进行有监督微调训练;
基于训练好的SFT模型,建立奖励模型;
基于所述奖励模型返回的排序数据集,采用强化学习方式进行训练,得到预训练语言模型;其中,所述排序数据集包括按照标签得分顺序排列的多个数据。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
获取所述奖励模型的参数,并基于奖励模型的参数计算所述奖励模型的损失函数。
6.根据权利要求4所述的方法,其特征在于,所述基于所述奖励模型返回的排序数据集,采用强化学习方式进行训练,得到预训练语言模型,包括:
基于所述奖励模型返回的排序数据集,采用近端策略优化算法进行微调,得到预训练语言模型。
7.根据权利要求2所述的方法,其特征在于,所述初始分类网络的分类性能采用目标函数进行表示;其中,所述目标函数由交叉熵函数和对比学习损失函数构成。
8.根据权利要求3所述的方法,其特征在于,所述BERT模型包括多个Transformer块;
则所述利用所述BERT模型对所述原始样本集中的原始金融文本数据样本进行特征提取,得到特征集合,包括:
首个Transformer块从所述原始金融文本数据样本中提取第一特征,其余Transformer块均从前一个Transformer块提取到的特征中提取第二特征;
将所述第一特征和所有的第二特征构成所述特征集合。
9.一种金融文本数据分类装置,其特征在于,包括:
获取模块,用于获取用户输入的目标金融文本数据;
分类模块,用于利用目标大型语言模型中的目标分类网络对所述目标金融文本数据进行特征提取和分类处理,得到对应的分类结果;其中,所述目标大型语言模型是由所述目标分类网络和预训练语言模型组成的LLM模型,且所述目标分类网络在所述预训练语言模型根据获取到的原始金融文本数据样本生成增强样本后,基于所述原始金融文本数据样本和所述增强样本训练得到。
10.一种终端设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1至8任一项所述的方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至8任一项所述的方法。
12.一种计算机程序产品,其特征在于,包括计算机程序,该计算机程序被处理器执行时实现权利要求1-8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310791575.9A CN116662552A (zh) | 2023-06-29 | 2023-06-29 | 金融文本数据分类方法、装置、终端设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310791575.9A CN116662552A (zh) | 2023-06-29 | 2023-06-29 | 金融文本数据分类方法、装置、终端设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116662552A true CN116662552A (zh) | 2023-08-29 |
Family
ID=87722495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310791575.9A Pending CN116662552A (zh) | 2023-06-29 | 2023-06-29 | 金融文本数据分类方法、装置、终端设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116662552A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117057413A (zh) * | 2023-09-27 | 2023-11-14 | 珠高智能科技(深圳)有限公司 | 强化学习模型微调方法、装置、计算机设备及存储介质 |
CN117391902A (zh) * | 2023-12-13 | 2024-01-12 | 北京师范大学珠海校区 | 基于大语言模型的语文核心素养教育的评价方法和装置 |
CN117544508A (zh) * | 2023-10-13 | 2024-02-09 | 北京六方云信息技术有限公司 | 网络设备配置查询方法、装置、终端设备以及存储介质 |
CN117787241A (zh) * | 2023-12-27 | 2024-03-29 | 人民网股份有限公司 | 基于大语言模型的生成文本长度控制方法及装置 |
CN117892799A (zh) * | 2024-03-15 | 2024-04-16 | 中国科学技术大学 | 以多层次任务为导向的金融智能分析模型训练方法及*** |
CN118014734A (zh) * | 2024-01-31 | 2024-05-10 | 华南理工大学 | 金融分析模型的训练方法、分析方法、装置、***和介质 |
CN118095402A (zh) * | 2024-04-29 | 2024-05-28 | 浙江实在智能科技有限公司 | 基于人类反馈强化学习的奖励模型训练方法及*** |
-
2023
- 2023-06-29 CN CN202310791575.9A patent/CN116662552A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117057413A (zh) * | 2023-09-27 | 2023-11-14 | 珠高智能科技(深圳)有限公司 | 强化学习模型微调方法、装置、计算机设备及存储介质 |
CN117057413B (zh) * | 2023-09-27 | 2024-03-15 | 传申弘安智能(深圳)有限公司 | 强化学习模型微调方法、装置、计算机设备及存储介质 |
CN117544508A (zh) * | 2023-10-13 | 2024-02-09 | 北京六方云信息技术有限公司 | 网络设备配置查询方法、装置、终端设备以及存储介质 |
CN117391902A (zh) * | 2023-12-13 | 2024-01-12 | 北京师范大学珠海校区 | 基于大语言模型的语文核心素养教育的评价方法和装置 |
CN117391902B (zh) * | 2023-12-13 | 2024-04-26 | 北京师范大学珠海校区 | 基于大语言模型的语文核心素养教育的评价方法和装置 |
CN117787241A (zh) * | 2023-12-27 | 2024-03-29 | 人民网股份有限公司 | 基于大语言模型的生成文本长度控制方法及装置 |
CN118014734A (zh) * | 2024-01-31 | 2024-05-10 | 华南理工大学 | 金融分析模型的训练方法、分析方法、装置、***和介质 |
CN117892799A (zh) * | 2024-03-15 | 2024-04-16 | 中国科学技术大学 | 以多层次任务为导向的金融智能分析模型训练方法及*** |
CN117892799B (zh) * | 2024-03-15 | 2024-06-04 | 中国科学技术大学 | 以多层次任务为导向的金融智能分析模型训练方法及*** |
CN118095402A (zh) * | 2024-04-29 | 2024-05-28 | 浙江实在智能科技有限公司 | 基于人类反馈强化学习的奖励模型训练方法及*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116662552A (zh) | 金融文本数据分类方法、装置、终端设备及介质 | |
CN110222188B (zh) | 一种多任务学习的公司公告处理方法及服务端 | |
CN111581966B (zh) | 一种融合上下文特征方面级情感分类方法和装置 | |
CN109947912A (zh) | 一种基于段落内部推理和联合问题答案匹配的模型方法 | |
CN107844481B (zh) | 识别文本检错方法及装置 | |
CN111966812B (zh) | 一种基于动态词向量的自动问答方法和存储介质 | |
CN114926150B (zh) | 一种变压器技术符合性评估数字化智能审核方法与装置 | |
Zhu et al. | Topic-guided attention for image captioning | |
CN112883153B (zh) | 基于信息增强bert的关系分类方法及装置 | |
CN111695335A (zh) | 一种智能面试方法、装置及终端设备 | |
CN114265937A (zh) | 科技情报的智能分类分析方法、***、存储介质及服务器 | |
CN113988079A (zh) | 一种面向低数据的动态增强多跳文本阅读识别处理方法 | |
CN115270797A (zh) | 一种基于自训练半监督学习的文本实体抽取方法及*** | |
CN110298046B (zh) | 一种翻译模型训练方法、文本翻译方法及相关装置 | |
CN111597816A (zh) | 一种自注意力命名实体识别方法、装置、设备及存储介质 | |
Wang et al. | Recognizing handwritten mathematical expressions as LaTex sequences using a multiscale robust neural network | |
CN111046674B (zh) | 语义理解方法、装置、电子设备和存储介质 | |
CN115861995B (zh) | 一种视觉问答方法、装置及电子设备和存储介质 | |
CN116541507A (zh) | 一种基于动态语义图神经网络的视觉问答方法及*** | |
CN115496077B (zh) | 一种基于模态观察和评分的多模态情感分析方法和装置 | |
CN115374281B (zh) | 基于多粒度融合和图卷积网络的会话情感分析方法 | |
CN116595189A (zh) | 基于两阶段的零样本关系三元组抽取方法及*** | |
CN115860002A (zh) | 一种基于事件抽取的作战任务生成方法及*** | |
CN115455144A (zh) | 用于小样本意图识别的完型填空式的数据增强方法 | |
CN114565804A (zh) | 一种nlp模型训练识别*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |