CN114781358A - 基于强化学习的文本纠错方法、装置、设备及存储介质 - Google Patents
基于强化学习的文本纠错方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN114781358A CN114781358A CN202210404810.8A CN202210404810A CN114781358A CN 114781358 A CN114781358 A CN 114781358A CN 202210404810 A CN202210404810 A CN 202210404810A CN 114781358 A CN114781358 A CN 114781358A
- Authority
- CN
- China
- Prior art keywords
- text
- training
- error correction
- corpus
- masking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 175
- 238000000034 method Methods 0.000 title claims abstract description 56
- 230000002787 reinforcement Effects 0.000 title claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 421
- 230000000873 masking effect Effects 0.000 claims abstract description 110
- 230000009471 action Effects 0.000 claims description 85
- 239000012634 fragment Substances 0.000 claims description 40
- 238000006243 chemical reaction Methods 0.000 claims description 16
- 238000010276 construction Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 14
- 238000003058 natural language processing Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/232—Orthographic correction, e.g. spell checking or vowelisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种基于强化学习的文本纠错方法、装置、设备及存储介质,属于自然语言处理技术领域。本申请通过对训练语料中的文本进行发音相似遮掩和字形相似遮掩,利用遮掩后的训练语料构建第一训练样本,将第一训练样本导入预训练语言模型,输出第一预训练文本纠错结果,对第一训练样本进行调整,生成第二训练样本,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型,最后将待纠错文本导入文本纠错模型,输出文本纠错结果。本申请在训练纠错模型时引入发音信息和字形信息,通过发音相似遮掩和字形相似遮掩构造拥有丰富噪声的训练样本,并进一步通过强化学习技术训练纠错模型,使得模型能够更好地识别拼写错误,泛化性能更强。
Description
技术领域
本申请属于自然语言处理技术领域,具体涉及一种基于强化学习的文本纠错方法、装置、设备及存储介质。
背景技术
文本纠错的目的是检测和纠正文本中的拼写错误,是自然语言处理中的重要任务,在信息检索、智能写作、智能客服等诸多领域都有应用。传统文本纠错采取的方法多为:设定包含大量容易被拼写错误汉字的混淆文字集,当待纠错的文档中文字与混淆文字集中文字匹配时,用混淆文字集中的文字替换,但这种机械地匹配方式未考虑上下文语义,效果不甚理想。
近年来,有研究者基于已有预训练语言模型Bert+微调方式进行文本纠错。在实施中,将容易出错的文字用错误文字进行遮掩(mask)替换来构造负训练样本,例如在样本“中国是一个拥有5000年历史的文明古国”中,将“历史”替换为“厉史”,然后在对预训练语言模型进行微调训练,以此识别错误文字并纠正。但由于预训练语言模型在训练时并非专门为文字纠错任务而设计,因此,微调后地模型中也很少能学习到如何进行纠错的知识,实践效果仍有较大提升空间。
发明内容
本申请实施例的目的在于提出一种基于强化学习的文本纠错方法、装置、计算机设备及存储介质,以解决现有的对预训练语言模型存在的文本纠错效果较差的技术问题。
为了解决上述技术问题,本申请实施例提供一种基于强化学习的文本纠错方法,采用了如下所述的技术方案:
一种基于强化学习的文本纠错方法,包括:
收集训练语料,并按照预设的文本遮掩比例对训练语料中的文本进行发音相似遮掩和字形相似遮掩;
利用遮掩后的训练语料构建第一训练样本;
对第一训练样本进行向量转化,得到第一样本嵌入向量;
将第一样本嵌入向量导入预训练语言模型,输出第一预训练文本纠错结果;
基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本;
利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型;
接收文本纠错指令,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。
进一步地,收集训练语料,并按照预设的文本遮掩比例对训练语料中的文本进行发音相似遮掩和字形相似遮掩的步骤,具体包括:
收集训练语料,并对训练语料进行划分,得到若干个训练语料片段;
按照预设的文本遮掩比例在训练语料片段中的确定目标遮掩文本;
在预设的文本混淆集中确定与目标遮掩文本对应的发音相似文本和字形相似文本;
基于发音相似文本和字形相似文本对目标遮掩文本进行发音相似遮掩和字形相似遮掩。
进一步地,利用遮掩后的训练语料构建第一训练样本的步骤,具体包括:
组合完成发音相似遮掩的训练语料片段和完成字形相似遮掩的训练语料片段,形成第一训练样本。
进一步地,利用遮掩后的训练语料构建第一训练样本的步骤,具体包括:
从预设词汇表获取随机文本,并利用随机文本对目标遮掩文本进行文本随机遮掩;
组合完成发音相似遮掩的训练语料片段、完成字形相似遮掩的训练语料片段、完成文本随机遮掩的训练语料片段以及未进行文本遮掩的训练语料片段,形成第一训练样本。
进一步地,基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本的步骤,具体包括:
基于第一预训练文本纠错结果计算第一训练样本中各个训练语料片段的行动价值得分;
基于各个训练语料片段的行动价值得分调整第一训练样本中各个训练语料片段的占比,得到第二训练样本。
进一步地,基于第一预训练文本纠错结果计算第一训练样本中各个训练语料片段的行动价值得分的步骤,具体包括:
基于第一预训练文本纠错结果确定预训练语言模型的F1值;
获取预训练语言模型的训练开销;
基于预训练语言模型的F1值和训练开销计算第一训练样本中各个训练语料片段的行动价值得分。
进一步地,基于各个训练语料片段的行动价值得分调整第一训练样本中各个训练语料片段的占比,得到第二训练样本的步骤,具体包括:
判断各个训练语料片段的行动价值得分正负值;
当行动价值得分为正数时,上调行动价值得分对应的训练语料片段的占比;
当行动价值得分为负数时,下调行动价值得分对应的训练语料片段的占比。
进一步地,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型的步骤,具体包括:
将第二训练样本导入预训练语言模型,得到第二预训练文本纠错结果;
基于第二预训练文本纠错结果计算第二训练样本中各个训练语料片段的行动价值得分;
对第二训练样本中各个训练语料片段的行动价值得分进行求和,得到最终行动价值得分;
基于最终行动价值得分对预训练语言模型进行迭代训练,得到文本纠错模型。
进一步地,第一样本嵌入向量包括文本嵌入向量、位置嵌入向量、发音嵌入向量和字形嵌入向量,对第一训练样本进行向量转化,得到第一样本嵌入向量的步骤,具体包括:
对第一训练样本进行特征提取,得到文本特征、位置特征、发音特征和字形特征;
分别对文本特征、位置特征、发音特征和字形特征进行向量转化,得到文本嵌入向量、位置嵌入向量、发音嵌入向量和字形嵌入向量。
为了解决上述技术问题,本申请实施例还提供一种基于强化学习的文本纠错装置,采用了如下所述的技术方案:
一种基于强化学习的文本纠错装置,包括:
文本遮掩模块,用于收集训练语料,并按照预设的文本遮掩比例对训练语料中的文本进行发音相似遮掩和字形相似遮掩;
样本构建模块,用于利用遮掩后的训练语料构建第一训练样本;
向量转化模块,用于对第一训练样本进行向量转化,得到第一样本嵌入向量;
预训练模块,用于将第一样本嵌入向量导入预训练语言模型,输出第一预训练文本纠错结果;
样本调整模块,用于基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本;
迭代训练模块,用于利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型;
文本纠错模块,用于接收文本纠错指令,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如上述任一项所述的基于强化学习的文本纠错方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述中任一项所述的基于强化学习的文本纠错方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请公开了一种基于强化学习的文本纠错方法、装置、设备及存储介质,属于自然语言处理技术领域。本申请通过收集训练语料,并对训练语料中的文本进行发音相似遮掩和字形相似遮掩,利用遮掩后的训练语料构建第一训练样本,对第一训练样本导入预训练语言模型,输出第一预训练文本纠错结果,基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。本申请在训练纠错模型时引入发音信息和字形信息,通过发音相似遮掩和字形相似遮掩构造拥有丰富噪声的训练样本,并进一步通过强化学习技术训练纠错模型,使得模型能够更好地识别拼写错误,使得模型的泛化性能更强。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了本申请可以应用于其中的示例性***架构图;
图2示出了根据本申请的基于强化学习的文本纠错方法的一个实施例的流程图;
图3示出了图2中步骤S201的一个实施例的流程图;
图4示出了根据本申请的基于强化学习的文本纠错装置的一个实施例的结构示意图;
图5示出了基于强化学习的文本纠错装置的文本遮掩模块301的一个实施例的结构示意图;
图6示出了根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器,服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
需要说明的是,本申请实施例所提供的基于强化学习的文本纠错方法一般由服务器执行,相应地,基于强化学习的文本纠错装置一般设置于服务器中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于强化学习的文本纠错方法的一个实施例的流程图。本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。所述的基于强化学习的文本纠错方法,包括以下步骤:
S201,收集训练语料,并按照预设的文本遮掩比例对训练语料中的文本进行发音相似遮掩和字形相似遮掩。
具体的,从互联网公开网站上收集新闻文章作为训练语料,将每篇新闻文章裁剪为满足预训练语言模型输入长度,例如Bert的输入长度为510个汉字,将裁剪后的训练语料用作预训练语言模型的训练样本。
服务器在收集训练语料后,对训练语料进行划分,得到多个训练语料片段,按照预设的文本遮掩比例确定训练语料片段中需要遮掩的文本,即目标遮掩文本,并对训练语料片段中目标遮掩文本进行发音相似遮掩和字形相似遮掩,其中,发音相似遮掩为通过与目标遮掩文本发音相似的文本对训练语料进行遮掩,例如“精jing”和“金jin”属于发音相似;字形相似遮掩为通过与目标遮掩文本字形相似的文本对训练语料进行遮掩,例如“历”和“厉”属于字形相似。
需要说明的是,相似文本可以从公开可用的文字混淆集中选择,该文字混淆集包含两种类型的类似文字,即发音相似文字和字形相似文字。
进一步地,请参考图3,步骤S201收集训练语料,并按照预设的文本遮掩比例对训练语料中的文本进行发音相似遮掩和字形相似遮掩的步骤,具体包括:
S211,收集训练语料,并对训练语料进行划分,得到若干个训练语料片段;
S212,按照预设的文本遮掩比例在训练语料片段中的确定目标遮掩文本;
S213,在预设的文本混淆集中确定与目标遮掩文本对应的发音相似文本和字形相似文本;
S214,基于发音相似文本和字形相似文本对目标遮掩文本进行发音相似遮掩和字形相似遮掩。
具体的,服务器收集训练语料,并对训练语料进行划分,得到若干个训练语料片段,然后按照预设的文本遮掩比例在训练语料片段中的确定目标遮掩文本,并在预设的文本混淆集中确定与目标遮掩文本对应的发音相似文本和字形相似文本,基于发音相似文本和字形相似文本对目标遮掩文本进行发音相似遮掩和字形相似遮掩。
在本申请一种具体的实施例中,服务器将训练语料划分为2个训练语料片段,选取其中一个训练语料片段来完成发音相似遮掩,选取另一个训练语料片段来完成字形相似遮掩。
在上述实施例中,本申请通过对训练语料进行划分,并对划分出来的训练语料片段进行发音相似遮掩和字形相似遮掩,构造了拥有丰富噪声的训练样本。
S202,利用遮掩后的训练语料构建第一训练样本。
具体的,服务器利用遮掩后的训练语料构建第一训练样本,通过对训练语料进行不同的文本遮掩,以构造拥有丰富噪声的训练样本,使得训练出来的模型能够更好地识别拼写错误。
进一步地,利用遮掩后的训练语料构建第一训练样本的步骤,具体包括:
组合完成发音相似遮掩的训练语料片段和完成字形相似遮掩的训练语料片段,形成第一训练样本。
具体的,在上述实施例中,通过组合完成发音相似遮掩的训练语料片段和完成字形相似遮掩的训练语料片段,形成第一训练样本。
进一步地,利用遮掩后的训练语料构建第一训练样本的步骤,具体包括:
从预设词汇表获取随机文本,并利用随机文本对目标遮掩文本进行文本随机遮掩;
组合完成发音相似遮掩的训练语料片段、完成字形相似遮掩的训练语料片段、完成文本随机遮掩的训练语料片段以及未进行文本遮掩的训练语料片段,形成第一训练样本。
具体的,服务器从预设词汇表获取随机文本,并利用随机文本对目标遮掩文本进行文本随机遮掩,然后组合完成发音相似遮掩的训练语料片段、完成字形相似遮掩的训练语料片段、完成文本随机遮掩的训练语料片段以及未进行文本遮掩的训练语料片段,形成第一训练样本,通过组合上述训练语料片段,以获得具有更多噪声的训练样本。
在本申请另一种具体的实施例中,设用于预训练语言模型训练的语料数量为batch_size,对训练语料进行,每次随机选择batch_size中a%的文字进行遮掩,对选中的文字,有4种遮掩方式,具体操作如下:
(1)选择a1%比例的语料完成发音相似遮掩;(2)选择a2%比例的语料完成字形相似遮掩;(3)选择a3%比例的语料不做文本遮掩;(4)选择a4%的比例的语料从词汇表中随机文本进行文本随机遮掩。其中,词汇表包含了常见的文字文本(如包含汉字和非汉字字符),预先构建的词汇表通常包含数万个字符。
例如,收集10000条语料用于预训练语言模型的训练,其中,选择2500条语料进行发音相似遮掩,选择2500条语料进行字形相似遮掩,选择2500条语料不做处理,选择2500条语料进行文本随机遮掩,然后将上述语料组合,以构建第一训练样本。
S203,对第一训练样本进行向量转化,得到第一样本嵌入向量。
具体的,通过对第一训练样本进行向量转化,得到预训练语言模型的输入向量,即第一样本嵌入向量。
进一步地,第一样本嵌入向量包括文本嵌入向量、位置嵌入向量、发音嵌入向量和字形嵌入向量,对第一训练样本进行向量转化,得到第一样本嵌入向量的步骤,具体包括:
对第一训练样本进行特征提取,得到文本特征、位置特征、发音特征和字形特征;
分别对文本特征、位置特征、发音特征和字形特征进行向量转化,得到文本嵌入向量、位置嵌入向量、发音嵌入向量和字形嵌入向量。
具体的,文本嵌入向量表征训练样本的文本特征,文本嵌入向量可以通过查找预设的字向量嵌入表获得,其中词汇表和字向量嵌入表具有相同维度。位置嵌入向量表征训练样本的位置特征,位置嵌入向量通过transformer模型中的正余弦函数得到。发音嵌入向量表征训练样本的发音特征,在中文领域,发音(又称拼音)是一个小写字母序列,代表一个字符的发音,实践中可使用UnihanDatabase3来获得字符-发音映射关系,将代表每个字符发音的字母送到LSTM网络,得到发音嵌入向量。字形嵌入向量表征训练样本的字形特征,使用笔画顺序来表示字符的形状,该笔画顺序指示汉字笔画的书写顺序,笔划是书写工具在书写表面上的运动,利用Chaizi数据库获取笔画数据,为了建模字符之间的视觉关系,将每个字符的笔画顺序馈送到另一个LSTM网络中,以生成字形嵌入向量。
S204,将第一样本嵌入向量导入预训练语言模型,输出第一预训练文本纠错结果。
具体的,将第一样本嵌入向量导入预训练语言模型,通过预训练语言模型对第一样本嵌入向量进行处理,预测样本中的错误文本,并对错误文本进行纠正,输出纠正后的文本,即第一预训练文本纠错结果。需要说明的是,预训练语言模型可以是Bert模型、AlBert模型等本领域应用较广泛的预训练语言模型,本申请对此并不做限定。
在本申请具体的实施例中,给定一个训练样本,训练样本中第i个位置所预测的字符错误概率为:
P(yi=j|X)=softmax(Whi+b)[j]
其中,P(yi=j|X)是真实字符被预测为词汇表中第j个字符的条件概率,X表示给定的语料,hi表示预训练语言模型的输出向量,W为预训练参数,b为神经网络中的偏置量。本申请采用有监督学习的方式训练模型,通过训练使得预训练语言模型尽可能学习到正确汉字出现的规律,从而在特定位置将错别字恢复为正确的汉字。
S205,基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本。
具体的,在本申请中,将第一样本嵌入向量导入预训练语言模型后,得到第一预训练文本纠错结果,第一预训练文本纠错结果为纠正后的文本,通过第一预训练文本纠错结果和训练语料确定纠错效果,然后根据纠错效果调整第一训练样本中各个训练语料片段的占比,以提高对于模型训练有益的的样本的比例和降低对于模型训练无益的的样本的比例,得到新的训练样本集合,进一步提高预训练语言模型的纠错能力。
进一步地,基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本的步骤,具体包括:
基于第一预训练文本纠错结果计算第一训练样本中各个训练语料片段的行动价值得分;
基于各个训练语料片段的行动价值得分调整第一训练样本中各个训练语料片段的占比,得到第二训练样本。
具体的,通过比对第一预训练文本纠错结果和训练语料确定已纠错文本的数量,得到预训练语言模型的纠错效果,根据纠错效果计算第一训练样本中各个训练语料片段的行动价值得分,基于各个训练语料片段的行动价值得分调整第一训练样本中各个训练语料片段的占比,得到第二训练样本,通过第二训练样本对对预训练语言模型进行迭代训练,进一步提高预训练语言模型的纠错能力。
进一步地,基于第一预训练文本纠错结果计算第一训练样本中各个训练语料片段的行动价值得分的步骤,具体包括:
基于第一预训练文本纠错结果确定预训练语言模型的F1值;
获取预训练语言模型的训练开销;
基于预训练语言模型的F1值和训练开销计算第一训练样本中各个训练语料片段的行动价值得分。
其中,F1值,也称F1分数(Score),又称平衡F分数(balanced F Score),F1值被定义为精确率和召回率的调和平均数,F1值可以看作是模型精确率和召回率的一种调和平均,它的最大值是1,最小值是0,来评价二分类模型的分析效果。
具体的,第一预训练文本纠错结果确定预训练语言模型的F1值,获取预训练语言模型的训练开销,基于预训练语言模型的F1值和训练开销计算第一训练样本中各个训练语料片段的行动价值得分,其中,行动价值得分计算公式如下:
式中,Si为第i次预训练的行动价值得分,F1i为第i次预训练的F1值,TCosti为第i次预训练的训练开销。需要说明的是,行动价值得分存在正负值,若一轮训练后得到F1值较上一轮训练后的F1值提高,则该次训练对模型拟合有益,其行动价值得分为若较上一轮训练后的F1值降低,则该次训练对模型拟合无益,其行动价值得分为
在本申请中,训练开销包括但不限于节点的CPU运算频率、内存容量、GPU运算频率、GPU显存容量、硬盘I/O吞吐率、上行网络带宽等指标,由于每个指标的量纲不一致,需要先去掉量纲先,再对每个指标进行归一化处理,具体方法为:统计一定历史周期内某指标x的数值,采样指标x的三个数值,分别是最高值xmax、平均值xave和最小值xmin,采用如下归一化方法:
其中,x为归一化后的指标,然后为每个归一化后的指标赋予不同权重,并乘以权重,得到最后的训练开销,权重设置可采用常见的层次分析法或机器学习方法得到。
进一步地,基于各个训练语料片段的行动价值得分调整第一训练样本中各个训练语料片段的占比,得到第二训练样本的步骤,具体包括:
判断各个训练语料片段的行动价值得分正负值;
当行动价值得分为正数时,上调行动价值得分对应的训练语料片段的占比;
当行动价值得分为负数时,下调行动价值得分对应的训练语料片段的占比。
具体的,判断各个训练语料片段的行动价值得分正负值,当行动价值得分为正数时,上调行动价值得分对应的训练语料片段的占比,当行动价值得分为负数时,下调行动价值得分对应的训练语料片段的占比。例如,调整比例为5%,当行动价值得分为正数时,提高该行动价值得分对应的训练语料片段在训练样本中5%占比,当行动价值得分为负数时,降低该行动价值得分对应的训练语料片段在训练样本中5%占比,通过提高对于模型训练有益的的样本的比例和降低对于模型训练无益的的样本的比例,得到新的训练样本集合,进一步提高预训练语言模型的纠错能力。
S206,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型。
具体的,将第二训练样本导入预训练语言模型,并计算第二训练样本的行动价值得分,通过第二训练样本的行动价值得分和预训练语言模型的损失函数对模型进行迭代训练,得到文本纠错模型。
进一步地,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型的步骤,具体包括:
将第二训练样本导入预训练语言模型,得到第二预训练文本纠错结果;
基于第二预训练文本纠错结果计算第二训练样本中各个训练语料片段的行动价值得分;
对第二训练样本中各个训练语料片段的行动价值得分进行求和,得到最终行动价值得分;
基于最终行动价值得分对预训练语言模型进行迭代训练,得到文本纠错模型。
具体的,将第二训练样本导入预训练语言模型,得到第二预训练文本纠错结果,按照上述行动价值得分的计算方式计算第二训练样本中各个训练语料片段的行动价值得分,对第二训练样本中各个训练语料片段的行动价值得分进行求和,得到最终行动价值得分,基于最终行动价值得分对预训练语言模型进行迭代训练,得到文本纠错模型。基于以下公式计算最终行动价值得分:
式中,S为最终行动价值得分,n为迭代次数,γ为价值衰减系数。
需要说明的是,由于每一次预训练后的行动价值得分对于后续训练均会产生影响,且这种影响随着迭代轮数增加会逐渐衰减,因此还需要计算训练后的潜在价值得分,定义价值衰减系数γ,通过价值衰减系数γ计算最终行动价值得分S。
本申请通过采用强化学习领域中的策略梯度方法进行优化,尽可能最大化价值得分,具体过程如下:训练一个对应类别为M个行动的多层神经网络,以一个二层神经网络为例,将第二训练样本对应的第二样本嵌入向量作为输入向量v输入多层神经网络,设第一隐藏层权重矩阵为w1,采用relu激活函数,偏置量为b1,输出o1=relu(w1*v+b1);设第二隐藏层权重矩阵为w2,偏置量为b2,输出o2=relu(w2*o1+b2),再通过softmax层得到神经网络输出o3,实践中还可以采用更多隐藏层来获得更好效果。
S207,接收文本纠错指令,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。
具体的,文本纠错模型完成训练后获得较好的文本纠错能力,服务器在接收文本纠错指令后,获取待纠错文本,将待纠错文本导入文本纠错模型,即可获得文本纠错结果。
在本实施例中,基于强化学习的文本纠错方法运行于其上的电子设备(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式文本纠错指令。需要指出的是,上述无线连接方式可以包括但不限于3G/4G连接、WiFi连接、蓝牙连接、WiMAX连接、Zigbee连接、UWB(ultra wideband)连接、以及其他现在已知或将来开发的无线连接方式。
在上述实施例中,本申请公开了一种基于强化学习的文本纠错方法,属于自然语言处理技术领域。本申请通过收集训练语料,并对训练语料中的文本进行发音相似遮掩和字形相似遮掩,利用遮掩后的训练语料构建第一训练样本,对第一训练样本导入预训练语言模型,输出第一预训练文本纠错结果,基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。本申请在训练纠错模型时引入发音信息和字形信息,通过发音相似遮掩和字形相似遮掩构造拥有丰富噪声的训练样本,并进一步通过强化学习技术训练纠错模型,使得模型能够更好地识别拼写错误,使得模型的泛化性能更强。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于一计算机可读取存储介质中,该计算机可读指令在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
进一步参考图4,作为对上述图2所示方法的实现,本申请提供了一种基于强化学习的文本纠错装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例所述的基于强化学习的文本纠错装置包括:
文本遮掩模块301,用于收集训练语料,并按照预设的文本遮掩比例对训练语料中的文本进行发音相似遮掩和字形相似遮掩;
样本构建模块302,用于利用遮掩后的训练语料构建第一训练样本;
向量转化模块303,用于对第一训练样本进行向量转化,得到第一样本嵌入向量;
预训练模块304,用于将第一样本嵌入向量导入预训练语言模型,输出第一预训练文本纠错结果;
样本调整模块305,用于基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本;
迭代训练模块306,用于利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型;
文本纠错模块307,用于接收文本纠错指令,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。
进一步地,请参考图5,文本遮掩模块301具体包括:
语料划分单元311,用于收集训练语料,并对训练语料进行划分,得到若干个训练语料片段;
遮掩文本确定单元312,用于按照预设的文本遮掩比例在训练语料片段中的确定目标遮掩文本;
相似文本确定单元313,用于在预设的文本混淆集中确定与目标遮掩文本对应的发音相似文本和字形相似文本;
文本遮掩单元314,用于基于发音相似文本和字形相似文本对目标遮掩文本进行发音相似遮掩和字形相似遮掩。
进一步地,样本构建模块302具体包括:
第一语料组合单元,用于组合完成发音相似遮掩的训练语料片段和完成字形相似遮掩的训练语料片段,形成第一训练样本。
进一步地,样本构建模块302具体包括:
随机遮掩单元,用于从预设词汇表获取随机文本,并利用随机文本对目标遮掩文本进行文本随机遮掩;
第二语料组合单元,用于组合完成发音相似遮掩的训练语料片段、完成字形相似遮掩的训练语料片段、完成文本随机遮掩的训练语料片段以及未进行文本遮掩的训练语料片段,形成第一训练样本。
进一步地,样本调整模块305具体包括:
第一行动价值得分计算单元,用于基于第一预训练文本纠错结果计算第一训练样本中各个训练语料片段的行动价值得分;
样本调整单元,用于基于各个训练语料片段的行动价值得分调整第一训练样本中各个训练语料片段的占比,得到第二训练样本。
进一步地,第一行动价值得分计算单元具体包括:
F1值计算子单元,用于基于第一预训练文本纠错结果确定预训练语言模型的F1值;
训练开销计算子单元,用于获取预训练语言模型的训练开销;
第一得分计算子单元,用于基于预训练语言模型的F1值和训练开销计算第一训练样本中各个训练语料片段的行动价值得分。
进一步地,样本调整单元具体包括:
行动价值判断子单元,用于判断各个训练语料片段的行动价值得分正负值;
第一判断结果子单元,用于当行动价值得分为正数时,上调行动价值得分对应的训练语料片段的占比;
第二判断结果子单元,用于当行动价值得分为负数时,下调行动价值得分对应的训练语料片段的占比。
进一步地,迭代训练模块306具体包括:
训练样本导入单元,用于将第二训练样本导入预训练语言模型,得到第二预训练文本纠错结果;
第二得分计算单元,用于基于第二预训练文本纠错结果计算第二训练样本中各个训练语料片段的行动价值得分;
得分求和单元,用于对第二训练样本中各个训练语料片段的行动价值得分进行求和,得到最终行动价值得分;
迭代训练单元,用于基于最终行动价值得分对预训练语言模型进行迭代训练,得到文本纠错模型。
进一步地,第一样本嵌入向量包括文本嵌入向量、位置嵌入向量、发音嵌入向量和字形嵌入向量,向量转化模块303具体包括:
特征提取单元,用于对第一训练样本进行特征提取,得到文本特征、位置特征、发音特征和字形特征;
向量转化单元,用于分别对文本特征、位置特征、发音特征和字形特征进行向量转化,得到文本嵌入向量、位置嵌入向量、发音嵌入向量和字形嵌入向量。
在上述实施例中,本申请公开了一种基于强化学习的文本纠错装置,属于自然语言处理技术领域。本申请通过收集训练语料,并对训练语料中的文本进行发音相似遮掩和字形相似遮掩,利用遮掩后的训练语料构建第一训练样本,对第一训练样本导入预训练语言模型,输出第一预训练文本纠错结果,基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。本申请在训练纠错模型时引入发音信息和字形信息,通过发音相似遮掩和字形相似遮掩构造拥有丰富噪声的训练样本,并进一步通过强化学习技术训练纠错模型,使得模型能够更好地识别拼写错误,使得模型的泛化性能更强。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图6,图6为本实施例计算机设备基本结构框图。
所述计算机设备6包括通过***总线相互通信连接存储器61、处理器62、网络接口63。需要指出的是,图中仅示出了具有组件61-63的计算机设备6,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable GateArray,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器61至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器61可以是所述计算机设备6的内部存储单元,例如该计算机设备6的硬盘或内存。在另一些实施例中,所述存储器61也可以是所述计算机设备6的外部存储设备,例如该计算机设备6上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(FlashCard)等。当然,所述存储器61还可以既包括所述计算机设备6的内部存储单元也包括其外部存储设备。本实施例中,所述存储器61通常用于存储安装于所述计算机设备6的操作***和各类应用软件,例如基于强化学习的文本纠错方法的计算机可读指令等。此外,所述存储器61还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器62在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器62通常用于控制所述计算机设备6的总体操作。本实施例中,所述处理器62用于运行所述存储器61中存储的计算机可读指令或者处理数据,例如运行所述基于强化学习的文本纠错方法的计算机可读指令。
所述网络接口63可包括无线网络接口或有线网络接口,该网络接口63通常用于在所述计算机设备6与其他电子设备之间建立通信连接。
在上述实施例中,本申请公开了一种计算机设备,属于自然语言处理技术领域。本申请通过收集训练语料,并对训练语料中的文本进行发音相似遮掩和字形相似遮掩,利用遮掩后的训练语料构建第一训练样本,对第一训练样本导入预训练语言模型,输出第一预训练文本纠错结果,基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。本申请在训练纠错模型时引入发音信息和字形信息,通过发音相似遮掩和字形相似遮掩构造拥有丰富噪声的训练样本,并进一步通过强化学习技术训练纠错模型,使得模型能够更好地识别拼写错误,使得模型的泛化性能更强。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被至少一个处理器执行,以使所述至少一个处理器执行如上述的基于强化学习的文本纠错方法的步骤。
本申请公开了一种存储介质,属于自然语言处理技术领域。本申请通过收集训练语料,并对训练语料中的文本进行发音相似遮掩和字形相似遮掩,利用遮掩后的训练语料构建第一训练样本,对第一训练样本导入预训练语言模型,输出第一预训练文本纠错结果,基于第一预训练文本纠错结果对第一训练样本进行调整,生成第二训练样本,利用第二训练样本对预训练语言模型进行迭代训练,得到文本纠错模型,获取待纠错文本,将待纠错文本导入文本纠错模型,输出文本纠错结果。本申请在训练纠错模型时引入发音信息和字形信息,通过发音相似遮掩和字形相似遮掩构造拥有丰富噪声的训练样本,并进一步通过强化学习技术训练纠错模型,使得模型能够更好地识别拼写错误,使得模型的泛化性能更强。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
本申请可用于众多通用或专用的计算机***环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器***、基于微处理器的***、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何***或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。
Claims (12)
1.一种基于强化学习的文本纠错方法,其特征在于,包括:
收集训练语料,并按照预设的文本遮掩比例对所述训练语料中的文本进行发音相似遮掩和字形相似遮掩;
利用遮掩后的所述训练语料构建第一训练样本;
对所述第一训练样本进行向量转化,得到第一样本嵌入向量;
将所述第一样本嵌入向量导入预训练语言模型,输出第一预训练文本纠错结果;
基于所述第一预训练文本纠错结果对所述第一训练样本进行调整,生成第二训练样本;
利用所述第二训练样本对所述预训练语言模型进行迭代训练,得到文本纠错模型;
接收文本纠错指令,获取待纠错文本,将所述待纠错文本导入所述文本纠错模型,输出文本纠错结果。
2.如权利要求1所述的基于强化学习的文本纠错方法,其特征在于,所述收集训练语料,并按照预设的文本遮掩比例对所述训练语料中的文本进行发音相似遮掩和字形相似遮掩的步骤,具体包括:
收集训练语料,并对所述训练语料进行划分,得到若干个训练语料片段;
按照预设的文本遮掩比例在所述训练语料片段中的确定目标遮掩文本;
在预设的文本混淆集中确定与所述目标遮掩文本对应的发音相似文本和字形相似文本;
基于所述发音相似文本和字形相似文本对所述目标遮掩文本进行发音相似遮掩和字形相似遮掩。
3.如权利要求2所述的基于强化学习的文本纠错方法,其特征在于,所述利用遮掩后的所述训练语料构建第一训练样本的步骤,具体包括:
组合完成所述发音相似遮掩的训练语料片段和完成所述字形相似遮掩的训练语料片段,形成所述第一训练样本。
4.如权利要求2所述的基于强化学习的文本纠错方法,其特征在于,所述利用遮掩后的所述训练语料构建第一训练样本的步骤,具体包括:
从预设词汇表获取随机文本,并利用所述随机文本对所述目标遮掩文本进行文本随机遮掩;
组合完成所述发音相似遮掩的训练语料片段、完成所述字形相似遮掩的训练语料片段、完成所述文本随机遮掩的训练语料片段以及未进行文本遮掩的训练语料片段,形成所述第一训练样本。
5.如权利要求3或4所述的基于强化学习的文本纠错方法,其特征在于,所述基于所述第一预训练文本纠错结果对所述第一训练样本进行调整,生成第二训练样本的步骤,具体包括:
基于所述第一预训练文本纠错结果计算所述第一训练样本中各个训练语料片段的行动价值得分;
基于所述各个训练语料片段的行动价值得分调整所述第一训练样本中各个训练语料片段的占比,得到所述第二训练样本。
6.如权利要求5所述的基于强化学习的文本纠错方法,其特征在于,所述基于所述第一预训练文本纠错结果计算所述第一训练样本中各个训练语料片段的行动价值得分的步骤,具体包括:
基于所述第一预训练文本纠错结果确定所述预训练语言模型的F1值;
获取所述预训练语言模型的训练开销;
基于所述预训练语言模型的F1值和所述训练开销计算所述第一训练样本中各个训练语料片段的行动价值得分。
7.如权利要求5所述的基于强化学习的文本纠错方法,其特征在于,所述基于所述各个训练语料片段的行动价值得分调整所述第一训练样本中各个训练语料片段的占比,得到所述第二训练样本的步骤,具体包括:
判断所述各个训练语料片段的行动价值得分正负值;
当所述行动价值得分为正数时,上调所述行动价值得分对应的训练语料片段的占比;
当所述行动价值得分为负数时,下调所述行动价值得分对应的训练语料片段的占比。
8.如权利要求1所述的基于强化学习的文本纠错方法,其特征在于,利用所述第二训练样本对所述预训练语言模型进行迭代训练,得到文本纠错模型的步骤,具体包括:
将所述第二训练样本导入所述预训练语言模型,得到第二预训练文本纠错结果;
基于所述第二预训练文本纠错结果计算所述第二训练样本中各个训练语料片段的行动价值得分;
对所述第二训练样本中各个训练语料片段的行动价值得分进行求和,得到最终行动价值得分;
基于所述最终行动价值得分对所述预训练语言模型进行迭代训练,得到文本纠错模型。
9.如权利要求1所述的基于强化学习的文本纠错方法,其特征在于,所述第一样本嵌入向量包括文本嵌入向量、位置嵌入向量、发音嵌入向量和字形嵌入向量,所述对所述第一训练样本进行向量转化,得到第一样本嵌入向量的步骤,具体包括:
对所述第一训练样本进行特征提取,得到文本特征、位置特征、发音特征和字形特征;
分别对所述文本特征、位置特征、发音特征和字形特征进行向量转化,得到所述文本嵌入向量、所述位置嵌入向量、所述发音嵌入向量和所述字形嵌入向量。
10.一种基于强化学习的文本纠错装置,其特征在于,包括:
文本遮掩模块,用于收集训练语料,并按照预设的文本遮掩比例对所述训练语料中的文本进行发音相似遮掩和字形相似遮掩;
样本构建模块,用于利用遮掩后的所述训练语料构建第一训练样本;
向量转化模块,用于对所述第一训练样本进行向量转化,得到第一样本嵌入向量;
预训练模块,用于将所述第一样本嵌入向量导入预训练语言模型,输出第一预训练文本纠错结果;
样本调整模块,用于基于所述第一预训练文本纠错结果对所述第一训练样本进行调整,生成第二训练样本;
迭代训练模块,用于利用所述第二训练样本对所述预训练语言模型进行迭代训练,得到文本纠错模型;
文本纠错模块,用于接收文本纠错指令,获取待纠错文本,将所述待纠错文本导入所述文本纠错模型,输出文本纠错结果。
11.一种计算机设备,其特征在于,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至9中任一项所述的基于强化学习的文本纠错方法的步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至9中任一项所述的基于强化学习的文本纠错方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210404810.8A CN114781358A (zh) | 2022-04-18 | 2022-04-18 | 基于强化学习的文本纠错方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210404810.8A CN114781358A (zh) | 2022-04-18 | 2022-04-18 | 基于强化学习的文本纠错方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114781358A true CN114781358A (zh) | 2022-07-22 |
Family
ID=82431622
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210404810.8A Pending CN114781358A (zh) | 2022-04-18 | 2022-04-18 | 基于强化学习的文本纠错方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114781358A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114997148A (zh) * | 2022-08-08 | 2022-09-02 | 湖南工商大学 | 一种基于对比学习的中文拼写校对预训练模型构建方法 |
-
2022
- 2022-04-18 CN CN202210404810.8A patent/CN114781358A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114997148A (zh) * | 2022-08-08 | 2022-09-02 | 湖南工商大学 | 一种基于对比学习的中文拼写校对预训练模型构建方法 |
CN114997148B (zh) * | 2022-08-08 | 2022-11-04 | 湖南工商大学 | 一种基于对比学习的中文拼写校对预训练模型构建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020232861A1 (zh) | 命名实体识别方法、电子装置及存储介质 | |
CN114780727A (zh) | 基于强化学习的文本分类方法、装置、计算机设备及介质 | |
CN110866098B (zh) | 基于transformer和lstm的机器阅读方法、装置及可读存储介质 | |
CN113434636B (zh) | 基于语义的近似文本搜索方法、装置、计算机设备及介质 | |
CN112084752B (zh) | 基于自然语言的语句标注方法、装置、设备及存储介质 | |
CN111767375A (zh) | 语义召回方法、装置、计算机设备及存储介质 | |
CN112395385A (zh) | 基于人工智能的文本生成方法、装置、计算机设备及介质 | |
WO2021218027A1 (zh) | 智能面试中专业术语的提取方法、装置、设备及介质 | |
CN113722438A (zh) | 基于句向量模型的句向量生成方法、装置及计算机设备 | |
CN112084779B (zh) | 用于语义识别的实体获取方法、装置、设备及存储介质 | |
CN112836521A (zh) | 问答匹配方法、装置、计算机设备及存储介质 | |
CN112418291A (zh) | 一种应用于bert模型的蒸馏方法、装置、设备及存储介质 | |
CN112632227A (zh) | 简历匹配方法、装置、电子设备、存储介质和程序产品 | |
CN115687934A (zh) | 意图识别方法、装置、计算机设备及存储介质 | |
CN117807482B (zh) | 海关报关单的分类方法、装置、设备及存储介质 | |
CN115730597A (zh) | 多级语义意图识别方法及其相关设备 | |
CN115438149A (zh) | 一种端到端模型训练方法、装置、计算机设备及存储介质 | |
CN114706973A (zh) | 抽取式文本摘要生成方法、装置、计算机设备及存储介质 | |
CN112949320B (zh) | 基于条件随机场的序列标注方法、装置、设备及介质 | |
CN114817478A (zh) | 基于文本的问答方法、装置、计算机设备及存储介质 | |
CN113901836A (zh) | 基于上下文语义的词义消歧方法、装置及相关设备 | |
CN114781358A (zh) | 基于强化学习的文本纠错方法、装置、设备及存储介质 | |
CN114091452A (zh) | 一种基于适配器的迁移学习方法、装置、设备及存储介质 | |
CN113723077A (zh) | 基于双向表征模型的句向量生成方法、装置及计算机设备 | |
CN115730237A (zh) | 垃圾邮件检测方法、装置、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |