CN117972434B - 文本处理模型的训练方法、装置、设备、介质和程序产品 - Google Patents

文本处理模型的训练方法、装置、设备、介质和程序产品 Download PDF

Info

Publication number
CN117972434B
CN117972434B CN202410364478.6A CN202410364478A CN117972434B CN 117972434 B CN117972434 B CN 117972434B CN 202410364478 A CN202410364478 A CN 202410364478A CN 117972434 B CN117972434 B CN 117972434B
Authority
CN
China
Prior art keywords
text
translation
processing model
model
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410364478.6A
Other languages
English (en)
Other versions
CN117972434A (zh
Inventor
王思嘉
吴建伟
郑仲富
卿佳
梁有宁
刘海龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202410364478.6A priority Critical patent/CN117972434B/zh
Publication of CN117972434A publication Critical patent/CN117972434A/zh
Application granted granted Critical
Publication of CN117972434B publication Critical patent/CN117972434B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Machine Translation (AREA)

Abstract

本申请公开了一种文本处理模型的训练方法、装置、设备、介质和程序产品,可应用于云技术、人工智能、智慧交通、辅助驾驶等各种场景,如自然语言处理、机器学习等人工智能场景,预训练模型、自适应计算等大模型场景;本申请通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果;根据模型翻译文本相对于标准翻译文本的翻译差异度,更新初始文本处理模型;通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果;根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型。本申请可以提高翻译效率。

Description

文本处理模型的训练方法、装置、设备、介质和程序产品
技术领域
本申请涉及计算机技术领域,具体涉及一种文本处理模型的训练方法、装置、设备、介质和程序产品。
背景技术
在自然语言处理领域中,翻译任务通常是由人工翻译或者人工智能模型来执行。然而,由于人工翻译和人工智能模型的局限性,无法保证翻译结果的百分百准确性,如对特定领域知识的理解不足或文化差异造成的翻译偏差,因此无法保证翻译结果的绝对准确性。为了提高翻译质量,通常需要采用人工编辑的方式进行二次校对和修正,以确保最终翻译结果达到期望水准。
然而,这种采用人工进行二次校对的方式会增加翻译所需的时间和成本,导致翻译效率低。
发明内容
本申请实施例提供一种文本处理模型的训练方法、装置、设备、介质和程序产品,可以减少采用人工进行二次校对所需的时间和成本,提高翻译效率。
本申请实施例提供一种文本处理模型的训练方法,包括:获取初始文本处理模型、第一样本文本以及第二样本文本,所述第一样本文本包括第一源文本以及所述第一源文本的标准翻译文本,所述第二样本文本包括第二源文本、所述第二源文本的待分类翻译文本以及所述待分类翻译文本的翻译质量类别;通过所述初始文本处理模型,对所述第一源文本进行语义理解,确定第一语义理解结果,所述第一语义理解结果表征所述第一源文本的语义表示对应的模型翻译文本;根据所述模型翻译文本相对于所述第一源文本的标准翻译文本的翻译差异度,更新所述初始文本处理模型,得到更新后的文本处理模型;通过所述更新后的文本处理模型,对所述第二源文本以及所述待分类翻译文本进行语义理解,确定第二语义理解结果,所述第二语义理解结果表征所述更新后的文本处理模型对所述待分类翻译文本进行翻译质量分类的模型分类类别;根据所述模型分类类别以及所述待分类翻译文本的翻译质量类别,对所述更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将所述训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
本申请实施例还提供一种文本处理模型的训练装置,包括:获取单元,用于获取初始文本处理模型、第一样本文本以及第二样本文本,所述第一样本文本包括第一源文本以及所述第一源文本的标准翻译文本,所述第二样本文本包括第二源文本、所述第二源文本的待分类翻译文本以及所述待分类翻译文本的翻译质量类别;第一语义理解单元,用于通过所述初始文本处理模型,对所述第一源文本进行语义理解,确定第一语义理解结果,所述第一语义理解结果表征所述第一源文本的语义表示对应的模型翻译文本;更新单元,用于根据所述模型翻译文本相对于所述第一源文本的标准翻译文本的翻译差异度,更新所述初始文本处理模型,得到更新后的文本处理模型;第二语义理解单元,用于通过所述更新后的文本处理模型,对所述第二源文本以及所述待分类翻译文本进行语义理解,确定第二语义理解结果,所述第二语义理解结果表征所述更新后的文本处理模型对所述待分类翻译文本进行翻译质量分类的模型分类类别;训练单元,用于根据所述模型分类类别以及所述待分类翻译文本的翻译质量类别,对所述更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将所述训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
在一些实施方式中,所述第二样本文本包括正样本文本以及负样本文本,所述文本处理模型的训练装置还包括样本构造单元,所述样本构造单元包括第一样本构造子单元、第二样本构造子单元以及第三样本构造子单元,包括:所述第一样本构造子单元,用于获取待处理文本,所述待处理文本包括所述第二源文本以及所述第二源文本的待分类翻译文本;所述第二样本构造子单元,用于对所述待处理文本添加分类类别提示文本以及所述待分类翻译文本的翻译质量类别,得到添加后的样本文本,所述分类类别提示文本用于提示对所述待分类翻译文本进行翻译质量分类的类别;所述第三样本构造子单元,用于将所述翻译质量类别为正确翻译类别的所述添加后的样本文本作为所述正样本文本,以及将所述翻译质量类别为错误翻译类别的所述添加后的样本文本作为所述负样本文本。
在一些实施方式中,所述第二样本构造单元具体用于:获取文本内容标记,所述文本内容标记包括模型输入标记以及模型输出标记;针对任一所述待处理文本,将所述待处理文本以及所述分类类别提示文本添加在所述模型输入标记指示的文本位置,以及将所述待分类翻译文本的翻译质量类别添加在所述模型输出标记指示的文本位置,得到所述添加后的样本文本。
在一些实施方式中,所述第二样本构造单元还用于:当所述待处理文本对应所述负样本文本时,在所述模型输出标记指示的文本位置添加所述第二源文本的标准翻译文本。
在一些实施方式中,所述第一样本构造单元具体用于:获取所述正样本文本对应的候选数据集,所述候选数据集包括多个候选源文本以及所述候选源文本的候选翻译文本;对所述候选数据集中的所述候选源文本以及所述候选翻译文本进行去重处理,得到去重后的数据集;对所述去重后的数据集中的所述候选翻译文本进行语法校验;将语法校验通过的所述候选翻译文本以及相应的所述候选源文本作为所述正样本文本对应的所述待处理文本。
在一些实施方式中,所述第一样本构造单元具体用于:获取变换处理提示文本、所述正样本文本对应的所述待处理文本;基于所述变换处理提示文本,对所述正样本文本对应的所述待处理文本中的所述待分类翻译文本进行变换处理,以得到所述负样本文本对应的所述待分类翻译文本;将所述负样本文本对应的所述待分类翻译文本以及相应的所述第二源文本作为所述负样本文本对应的所述待处理文本。
在一些实施方式中,所述样本构造单元还包括第四样本构造单元,包括:所述第四样本构造单元,用于根据所述分类类别提示文本,生成对应不同所述翻译质量类别的所述变换处理提示文本。
在一些实施方式中,所述初始文本处理模型包括编码网络、注意力网络以及解码网络,所述第一语义理解单元包括第一编码单元、第一注意力单元以及第一解码单元,包括:所述第一编码单元,用于通过所述编码网络,对所述第一源文本进行编码处理,得到所述第一源文本的第一编码特征;所述第一注意力单元,用于通过所述注意力网络,对所述第一编码特征进行注意力处理,以根据所述第一编码特征中特征的注意力相关性计算得到第一语义特征;所述第一解码单元,用于通过所述解码网络,对所述第一语义特征进行解码处理,得到第一语义理解结果。
在一些实施方式中,所述第一源文本包含目标场景的指定词,所述更新单元包括第一更新子单元、第二更新子单元以及第三更新子单元,包括:所述第一更新子单元,用于在所述模型翻译文本中检测指定翻译词,所述指定翻译词为所述指定词在所述第一源文本的标准翻译文本中的译文;所述第二更新子单元,用于当未检测到所述指定翻译词,更新所述初始文本处理模型,得到中间文本处理模型;所述第三更新子单元,用于将所述中间文本处理模型作为所述初始文本处理模型,返回执行步骤通过所述初始文本处理模型,对所述第一源文本进行语义理解,确定第一语义理解结果以及后续步骤,直至在所述模型翻译文本中检测到所述指定翻译词,将所述中间文本处理模型作所述更新后的文本处理模型。
在一些实施方式中,所述更新后的文本处理模型包括更新后的编码网络、更新后的注意力网络以及更新后的解码网络,所述第二语义理解单元包括拼接单元,第二编码单元、第二注意力单元以及第二解码单元,包括:所述拼接单元,用于将所述第二源文本以及所述待分类翻译文本拼接得到待处理文本序列;所述第二编码单元,用于通过所述更新后的编码网络,对所述待处理文本序列进行编码处理,得到所述待处理文本序列的第二编码特征;所述第二注意力单元,用于通过所述更新后的注意力网络,对所述第二编码特征进行注意力处理,以根据所述第二编码特征中特征的注意力相关性计算得到第二语义特征;所述第二解码单元,用于通过所述更新后的解码网络,对所述第二语义特征进行解码处理,得到第二语义理解结果。
在一些实施方式中,所述翻译质量类别包括翻译质量分值以及所述翻译质量分值对应的翻译错误分析文本,所述第二编码单元具体用于:通过所述更新后的解码网络,对所述第二语义特征进行解码处理,确定所述待分类翻译文本的模型翻译质量分值;将所述待分类翻译文本的模型翻译质量分值以及所述模型翻译质量分值对应的翻译错误分析文本作为所述翻译质量分类的模型分类类别,以得到所述第二语义理解结果。
在一些实施方式中,所述文本处理模型的训练装置还包括调参单元,所述调参单元包括第一调参子单元、第二调参子单元、第三调参子单元以及第四调参字单元,包括:所述第一调参子单元,用于根据用于所述翻译质量分类训练的计算资源,确定用于所述翻译质量分类训练的所述第二样本文本的样本数量;所述第二调参子单元,用于获取满足所述样本数量的调参用第二样本文本;所述第三调参子单元,用于基于所述调参用第二样本文本,对所述更新后的文本处理模型进行迭代次数调整和学习率调整,以确定最大迭代次数以及训练用学习率;所述第四调参子单元,用于将所述样本数量、所述最大迭代次数以及所述训练用学习率作为所述翻译质量分类训练的训练参数。
本申请实施例还提供一种电子设备,包括处理器和存储器,所述存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行本申请实施例所提供的任一种文本处理模型的训练方法中的步骤。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行本申请实施例所提供的任一种文本处理模型的训练方法中的步骤。
本申请实施例还提供一种计算机程序产品,包括计算机程序或指令,所述计算机程序或指令被处理器执行时实现本申请实施例所提供的任一种文本处理模型的训练方法中的步骤。
本申请实施例可以获取初始文本处理模型、第一样本文本以及第二样本文本,所述第一样本文本包括第一源文本以及所述第一源文本的标准翻译文本,所述第二样本文本包括第二源文本、所述第二源文本的待分类翻译文本以及所述待分类翻译文本的翻译质量类别;通过所述初始文本处理模型,对所述第一源文本进行语义理解,确定第一语义理解结果,所述第一语义理解结果表征所述第一源文本的语义表示对应的模型翻译文本;根据所述模型翻译文本相对于所述第一源文本的标准翻译文本的翻译差异度,更新所述初始文本处理模型,得到更新后的文本处理模型;通过所述更新后的文本处理模型,对所述第二源文本以及所述待分类翻译文本进行语义理解,确定第二语义理解结果,所述第二语义理解结果表征所述更新后的文本处理模型对所述待分类翻译文本进行翻译质量分类的模型分类类别;根据所述模型分类类别以及所述待分类翻译文本的翻译质量类别,对所述更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将所述训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
在本申请中,可以通过训练文本处理模型来逐步学习翻译质量分类(即校对任务),以使训练后的文本处理模型能够用于翻译质量分类,以减少采用人工进行二次校对所需的时间和成本,提高翻译效率。其中,本申请中,将第一源文本以及第一源文本正确翻译的翻译文本(即标准翻译文本)用于训练文本处理模型进行翻译任务的能力,以预先通过翻译任务使文本处理模型学习源语言的编译。尤其是在翻译任务训练过程中,文本处理模型可以通过语义理解过程,进行不同文本之间的特征学习和映射。在此基础上,再将第二源文本、第二源文本翻译得到的需要校对的翻译文本(即待分类翻译文本)以及翻译质量类别用于训练文本处理模型进行校对任务的能力,以在文本处理模型已学习的特征学习和映射基础上,再基于校对任务对初始文本处理模型进行微调,使其适应校对任务,使其在校对任务中能有更好的表现和适应性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1a是本申请实施例提供的文本处理模型的训练方法的场景示意图;
图1b是本申请实施例提供的文本处理模型的训练方法的流程示意图;
图1c是本申请实施例提供的正样本文本的翻译质量分类示例;
图1d是本申请实施例提供的根据不同变换处理提示文本生成待分类翻译文本的示例;
图1e是本申请实施例提供的不同迭代周期的模型翻译文本;
图1f是本申请实施例提供的迭代周期为5时的模型分类类别表;
图1g是本申请实施例提供的不同超参数组合的损失函数曲线;
图1h是本申请实施例提供的校对平台的显示界面;
图1i是本申请实施例提供的又一校对平台的显示界面;
图1j是本申请实施例提供的批量化校对表;
图2a是本申请另一实施例提供的文本处理模型的训练方法的流程示意图;
图2b是本申请实施例提供的游戏应用的历史翻译配置表;
图3是本申请实施例提供的文本处理模型的训练装置的结构示意图;
图4是本申请实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在对本申请实施例进行详细地解释说明之前,先对本申请实施例涉及到的一些名词进行解释说明。
需要说明的是,本申请实施例中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
本申请实施例提供一种文本处理模型的训练方法、装置、设备、介质和程序产品。
其中,该文本处理模型的训练装置具体可以集成在电子设备中,该电子设备可以为终端、服务器等设备。其中,终端可以包括但不限于手机、电脑、智能语音交互设备、智能家电、车载终端、飞行器等;服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群。本申请实施例可应用于各种场景,包括但不限于云技术、人工智能、智慧交通、辅助驾驶等。
在一些实施例中,该文本处理模型的训练装置还可以集成在多个电子设备中,比如,文本处理模型的训练装置可以集成在多个服务器中,由多个服务器来实现本申请的文本处理模型的训练方法。
在一些实施例中,服务器也可以终端的形式来实现。
例如,参考图1a,文本处理模型的训练方法集成在服务器中,该服务器可以获取初始文本处理模型、第一样本文本以及第二样本文本,第一样本文本包括第一源文本以及第一源文本的标准翻译文本,第二样本文本包括第二源文本、第二源文本的待分类翻译文本以及待分类翻译文本的翻译质量类别;通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果,第一语义理解结果表征第一源文本的语义表示对应的模型翻译文本;根据模型翻译文本相对于第一源文本的标准翻译文本的翻译差异度,更新初始文本处理模型,得到更新后的文本处理模型;通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果,第二语义理解结果表征更新后的文本处理模型对待分类翻译文本进行翻译质量分类的模型分类类别;根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。比如,服务器可以从终端获取待处理翻译文本,以将待处理翻译文本输入训练后的文本处理模型进行翻译质量类别,以确定待处理翻译文本的目标翻译质量类别。
本申请实施例中,术语“模块”或“单元”是指有预定功能的计算机程序或计算机程序的一部分,并与其他相关部分一起工作以实现预定目标,并且可以通过使用软件、硬件(如处理电路或存储器)或其组合来全部或部分实现。同样的,一个处理器(或多个处理器或存储器)可以用来实现一个或多个模块或单元。此外,每个模块或单元都可以是包含该模块或单元功能的整体模块或单元的一部分。
以下分别进行详细说明。需说明的是,以下实施例的顺序不作为对实施例优选顺序的限定。可以理解的是,在本申请的具体实施方式中,涉及到样本文本、源文本、翻译文本翻译质量类别、语义理解结果等与用户相关的数据,当本申请实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
人工智能(Artificial Intelligence,AI)是一种利用数字计算机来模拟人类感知环境、获取知识并使用知识的技术,该技术可以使机器具有类似于人类的感知、推理与决策的功能。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习、自动驾驶、智慧交通等几大方向。
其中, 自然语言处理(Nature Language processing, NLP)是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习(Machine Learning, ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、示教学习等技术。
随着人工智能技术研究和进步,人工智能技术在多个领域展开研究和应用,例如常见的智能家居、智能穿戴设备、虚拟助理、智能音箱、智能营销、无人驾驶、自动驾驶、无人机、机器人、智能医疗、智能客服、车联网、智慧交通等,相信随着技术的发展,人工智能技术将在更多的领域得到应用,并发挥越来越重要的价值。
预训练模型(Pre-training model),也称基石模型、大模型,指具有大参量的深度神经网络(Deep neural network,DNN),在海量未标记的数据上对其进行训练,利用大参量DNN的函数近似能力使PTM在数据上提取共性特征,经微调(fine tune)、参数高效微调(PEFT)、prompt-tuning等技术,适用于下游任务。因此,预训练模型可以在小样本(Few-shot)或零样本(Zero-shot)场景下达到理想效果。PTM按照处理的数据模态可以分为语言模型(ELMO,BERT,GPT)、视觉模型(swin-transformer,ViT,V-MOE)、语音模型(VALL-E)、多模态模型(ViBERT, CLIP,Flamingo,Gato)等,其中多模态模型指建立两种或以上数据模态特征表示的模型。预训练模型是输出人工智能生成内容(AIGC)重要工具,也可以作为连接多个具体任务模型的通用接口。
自适应计算:指根据不同的输入数据,自动调整模型的计算量和精度,以达到在保持模型精度的同时提高模型计算效率的目的。自适应计算能够在不同的输入数据上灵活地调整模型的计算量和精度,从而更好地平衡模型的计算效率和精度。
在本实施例中,提供了一种涉及人工智能的文本处理模型的训练方法,如图1b所示,该文本处理模型的训练方法的具体流程可以如下:
110、获取初始文本处理模型、第一样本文本以及第二样本文本,第一样本文本包括第一源文本以及第一源文本的标准翻译文本,第二样本文本包括第二源文本、第二源文本的待分类翻译文本以及待分类翻译文本的翻译质量类别。
其中,样本文本是指用于训练文本处理模型的文本。例如,样本文本可以为词、短语、语句等形式,可以包括文字、数字、字符、符号等文本信息。样本文本可以为任一语言形式的文本,如中文、英文等,也可以为不同语言混合的文本,如中英文混合的文本。本申请实施例对样本文本的形式不作限制。
其中,第一样本文本和第二样本文本分别用于训练文本处理模型进行翻译任务和校对任务的能力。翻译任务和校对任务是自然语言处理(NLP)领域中两个重要的应用,翻译任务是指将一种语言(源语言)的文本转换为另一种语言(目标语言)的等效文本的任务,校对任务是识别文本中错误以进行修正的任务。自然语言处理(NLP)领域中。可以理解的是,翻译任务和校对任务都要对文本进行深入的语义理解,以理解文本的含义和意图,以此可以将同一模型如文本处理模型进行翻译任务和校对任务训练后,应用于翻译任务和校对任务等多种任务。本申请实施例中,对翻译文本进行翻译质量分类以识别翻译文本的错误,以实现校对任务。
其中,源文本是指源语言的文本。第一源文本和第二源文本分别为第一样本文本和第二样本文本中的源文本。
其中,翻译文本是指翻译得到的目标语言的文本。标准翻译文本是指准确传达源语言(即源文本)意思的翻译文本,也即标准翻译文本是源文本正确翻译的翻译文本,标准翻译文本可以表示源文本的高质量、准确和可理解的翻译结果。待分类翻译文本是指需要校对的翻译文本。待校对文本可以为标准翻译文本(即正确翻译的翻译文本)或非标准翻译文本(即错误翻译的翻译文本)。第一源文本对应的标准翻译文本是第一源文本正确翻译的翻译文本,第二源文本的待分类翻译文本是第二源文本翻译得到的文本。本申请实施例中,各种翻译文本可以为对相应的源文本由人工翻译或机器翻译得到,或通过其他方式得到。
其中,翻译质量类别是指根据翻译文本的翻译质量,对翻译文本进行分类的类别。通过翻译质量类别可以将任一翻译文本划分为任一翻译质量对应的类别中。例如,翻译质量类别可以包括但不限于正确翻译(即翻译文本被正确翻译)、错误翻译(即翻译文本被错误翻译)等类别。进一步地,对于错误翻译类别可以进一步划分为多个层次的翻译质量类别,比如翻译质量较高、翻译质量较低等。本申请实施例中,待分类翻译文本的翻译质量类别可以由人工或机器进行翻译质量分类确定,或通过其他方式确定。
本请实施例中,翻译质量类别可以文本、数值等一种或多种方式表示,具体取决于应用场景和需求。例如,翻译质量类别可以使用文字标签或描述来表示翻译质量类别,比如正确翻译、错误翻译,对于错误翻译可以进一步使用文本描述(如翻译错误分析文本)来说明具体的错误翻译类别的错误原因,比如语法错误、符号错误、语料错误以及语句缺失等。另外,也可以使用数值编码或标签来表示不同的翻译质量类别,比如使用数字1表示正确翻译,数字2表示词义错误,使用数字3表示语法错误,以此类推。或者,可以使用人工或预训练的分类模型对翻译文本打分的分值表示翻译质量类别,比如翻译质量分值为100分表示正确翻译,翻译质量分值低于100分表示错误翻译,对于错误翻译可以进一步使用低于100分的多个不同分值来表示具体的错误翻译类别,比如翻译质量分值为0分表示语句缺失,翻译质量分值为75分表示语法错误。
其中,文本处理模型是指用于处理文本的神经网络模型。本申请实施例中,文本处理模型可以为能用于处理文本的任一种神经网络模型。例如,文本处理模型可以包括但不限于编码器-解码器模型Seq2Seq(序列到序列)模型、注意力机制模型如Transformer(多头注意力)模型或Single-Head Attention(单头注意力模型)、预训练语言模型如Bert(双向编码器预训练)模型、ChatGPT(聊天生成预训练转换器)等中的一种或多种。
其中,初始文本处理模型是指用于在翻译任务和校对任务(即翻译质量分类)上进行训练的文本处理模型,在一些实施方式中,初始文本处理模型可以为预训练的文本处理模型,如,可以在大规模的文本数据上对基础的文本处理模型进行预训练得到初始文本处理模型,以使其学习通用的文本表示和语言特征,并将初始文本处理模型作为后续具体任务(如本申请实施例中的翻译任务和校对任务)的基础,以在特定任务上进行微调,使模型适应任务的需求并提升性能。
本申请实施例中,可以获取第一源文本以及第一源文本正确翻译的翻译文本(即标准翻译文本)用于训练文本处理模型进行翻译任务的能力。在此基础上,再将第二源文本、第二源文本翻译得到的需要校对的翻译文本(即待分类翻译文本)以及翻译质量类别用于训练文本处理模型进行校对任务的能力,以利用不同样本文本先基于翻译任务对初始文本处理模型进行微调,再基于校对任务对初始文本处理模型进行微调,使其适应校对任务。以此,预先通过翻译任务使文本处理模型学习源语言的编译,使文本处理模型理解要翻译的语言以及其中的语义关系,使其在校对任务中能有更好的表现和适应性。
在一些实施方式中,第一样本文本和第二样本文本可以为目标场景的样本文本,该目标场景可以指文本处理模型经第一样本文本和第二样本文本训练后适用的场景,也即是本申请实施例中文本处理模型适用的翻译任务和校对任务所涉及的专业领域、语言形式或主题范围。本申请实施例可以用于对文本处理模型不同适用场景的训练,如场景可以为游戏翻译、法律翻译、医学翻译、信息技术翻译、金融翻译、或文学翻译等专业领域,场景也可以为中文、英语、日语等不同语言形式,场景还可以为商务、旅游、教育等不同的主题范围。
在文本翻译过程中,通常场景中常用的词汇都能被正确翻译,而会有少量较难准确翻译的词。对于这些较难准确翻译的词,若不能让文本处理模型准确学习其语义,容易导致在校对任务中无法识别这些词是否正确。比如,以目标场景为游戏场景为例,由于文本处理模型本身对于游戏语境的判断是存在一定偏差的,比如孙悟空,翻译成Sun wukong,文本处理模型可能认为是正确的,在非游戏场景下,这个翻译的确是正确,但是在游戏场景中有更贴切的翻译比如Monkey King,因此,需要训练文本处理模型对游戏语境中指定词的识别能力。
在一些实施方式中,第一源文本包含目标场景的指定词,制定词是目标场景中占比较少的较难准确翻译的词,通常指定词在目标场景中的译文与同用场景(如非目标场景)中的译文不同。本申请实施例中,预先使用包含目标场景中占比较少的较难准确翻译的指定词的第一源文本以及相应的标准翻译文本构建第一样本文本。以使用这些较难准确翻译的词对应的第一样本文本通过翻译任务训练初始文本处理模型,以使文本处理模型在校对任务训练前提前学习这些词的含义。以此在构建第二样本文本时,可以不构建或部分构建包含这些指定词的第二源文本对应的第二样本文本,同时由于对于非指定词并不需要全部构建包含这些非指定词的第二源文本对应的第二样本文本,因此对于目标场景,本申请实施例可以仅构建包含部分指定词和部分非指定词的第二源文本对应的第二样本文本,以此可以大大减少构建的第二样本文本的数量,大大减少构建样本文本所需的时间和成本,提高文本处理模型的效率。
由于在文本处理模型训练过程中,若只给文本处理模型传入正样本文本,则会使得文本处理模型只学习正向信息,使得如果传入错误的翻译信息,文本处理模型仍然只会认为其是正确的。如图1c所示的正样本文本的翻译质量分类示例,在仅送入正样本文本微调后,由文本处理模型确定“雷欧力在家打游戏”的翻译“Leorio”是否正确,显然该翻译并不正确,但文本处理模型却错误地识别模型翻译质量类别为100分(即正确翻译类别)。显然,仅以正样本训练的文本处理模型不能识别错误的译文。由此,本申请实施例中,除构造正样本文本外,还构造了负样本文本用于训练文本处理模型。
在一些实施方式中,可以根据翻译文本的翻译质量,构建正样本文本以及负样本文本来训练文本处理模型处理校对任务的能力,以训练文本处理模型区分正确翻译和错误翻译的能力,提高文本处理模型在校对任务中的准确性。具体地,第二样本文本包括正样本文本以及负样本文本,获取初始文本处理模型、第一样本文本以及第二样本文本之前,还包括:
获取待处理文本,待处理文本包括第二源文本以及第二源文本的待分类翻译文本;
对待处理文本添加分类类别提示文本以及待分类翻译文本的翻译质量类别,得到添加后的样本文本,分类类别提示文本用于提示对待分类翻译文本进行翻译质量分类的类别;
将翻译质量类别为正确翻译类别的添加后的样本文本作为正样本文本,以及将翻译质量类别为错误翻译类别的添加后的样本文本作为负样本文本。
其中,提示(Prompt)是指在AI领域用于进行引导AI做回答的提示词。本申请实施例中,分类类别提示文本是指用于指导文本处理模型对翻译文本进行分类的提示文本,即为用于指导文本处理模型对第二样本文本进行分类的提示文本,该分类类别提示文本与翻译质量类别相关。例如,分类类别提示文本可以包括每个翻译质量类别的关键词,以使文本处理模型能够理解每个翻译质量类别的区别,并据此进行分类。本申请实施例中,分类类别提示文本为不同第二样本文本通用的提示文本,也即不同第二样本文本中的分类类别提示文本可以相同,以此分类类别提示文本可以用于指导文本处理模型对各待分类翻译文本(即各第二样本文本)进行分类过程。
例如,可以通过人工翻译或机器翻译等方法收集至少一个第二源文本和各第二源文本的翻译文本(即待分类翻译文本)。以及,通过人工或预训练的分类模型对第二源文本的待分类翻译文本的翻译质量进行打分,将翻译质量分值满足正确翻译分值(如100分)的待分类翻译文本的翻译质量类别确定为正确翻译类别,将翻译质量分值满足错误翻译分值(如低于100分)的待分类翻译文本的翻译质量类别确定为错误翻译类别。对于任一待处理文本A,可以将包含正确翻译类别关键词以及错误翻译类别关键词的分类类别提示词以及该待处理文本A中待分类翻译文本A所属的翻译质量分值如正确翻译分值(如100分)添加在待处理文本A中,以得到待处理文本A对应的第二样本文本A。此时,由于第二样本文本A中待分类翻译文本A所属的翻译质量分值为正确翻译分值,因此,该第二样本文本A为正样本文本。反之,若第二样本文本中待分类翻译文本所属的翻译质量分值为错误翻译分值,因此,该第二样本文本为负样本文本。以此,构建得到包含正样本文本和负样本文本的第二样本文本。
在一些实施方式中,可以通过在第二样本文本中添加不同的文本内容标记,并在各相应文本内容标记后添加对应的内容,以通过文本内容标记将各种内容清晰地结合在一起,使文本处理模型能够根据文本内容标记正确地解释和处理第二样本文本中的内容。具体地,对待处理文本添加分类类别提示文本以及待分类翻译文本的翻译质量类别,得到添加后的样本文本,包括:
获取文本内容标记,文本内容标记包括模型输入标记以及模型输出标记;
针对任一待处理文本,将待处理文本以及分类类别提示文本添加在模型输入标记指示的文本位置,以及将待分类翻译文本的翻译质量类别添加在模型输出标记指示的文本位置,得到添加后的样本文本。
其中,文本内容标记是指用于区分第二样本文本中不同内容的标记。文本内容标记可以为特定的占位符或标记,以使文本处理模型能够根据文本内容标记正确地解释和处理第二样本文本中的内容。本申请实施例中,文本内容标记可以包括模型输入标记和模型输出标记,其中模型输入标记是指标记第二样本文本中文本处理模型的输入内容的标记,模型输出标记是指文本处理模型的标记。本申请实施例中,模型输入标记所标记的内容可以作为文本处理模型的输入进行语义理解,以得到相应的语义理解结果,模型输出标记所标记的内容可以作为文本处理模型的样本标签,以评价文本处理模型输出的语义理解结果的准确性,以用于评估文本处理模型的性能和准确度。
其中,文本位置是指第二样本文本中的具***置和部分。
例如,任一待处理文本A,可以在“模型输入标记”后添加待处理文本A的第二源文本A、第二源文本的待分类翻译文本A以及分类类别提示文本,以得到{模型输入标记:第二源文本A,第二源文本的待分类翻译文本A,分类类别提示文本}。可以在“模型输出标记”后添加待处理文本A中待分类翻译文本A所属的翻译质量分值如正确翻译分值(如100分),以得到{模型输出标记:正确翻译分值:100分}。
在一些实施方式中,还可以在待处理文本中添加输出内容提示文本,以指导文本处理模型输出符合期望的结果。具体地,对待处理文本添加分类类别提示文本以及待分类翻译文本的翻译质量类别,得到添加后的样本文本,还包括:
将输出内容提示文本添加在模型输入标记指示的文本位置。
其中,该输出内容提示文本用于指导文本处理模型输出内容的形式。例如,输出内容提示文本可以指导文本处理模型输出包括翻译质量分值、对翻译质量的说明以及推荐的翻译正确的翻译文本中的一种或多种的翻译质量类别。
示例性地,任一正样本文本,其第二源文本为“克里希战栗的小龙卷头像框”,相应的待分类翻译文本为“The Krixi–Tornado of Terror avatar frame”。该第二样本文本可以通过如下的数组表示,每个数据元素是一个 JSON 对象,具体如下:
{ "id": "identity_0",
"conversations": [
{ "from": "user", "value": "用译文对比原文按照如下标准打分并回复给出得分原因: 0分=没有保留原意。45分=保留了部分原意。75分=保留了大部分原意且语法错误较少。100分=完整保留原意且语法正确。原文:克里希战栗的小龙卷头像框。译文: TheKrixi–Tornado of Terror avatar frame.1、翻译打分 2、原因 3、推荐翻译"},
{"from": "assistant", "value": "1.翻译打分:100分。2.原因:完整保留原意且语法正确。3.推荐翻译:无" }
] }。
上述数组中,采用字段" identity_0"标识该第二样本文本的编号(id,即唯一标识)为0。该数组中包含两个数组,其中第一个数组的from固定为user,以采用“"from": "user", "value"”表示“模型输入标记”,"user"的作用是标识这个数组的数据用于语义理解,以使文本处理模型对其标识的数据进行学习和理解,以作为相应知识的引导词,"value"里中写入了是语义理解所使用的prompt(即分类类别提示文本),以告诉模型需要怎么去区分数据的翻译打分分值(即正确翻译分值)和程度。其中,“n1、翻译打分 2、原因 3、推荐翻译”为输出内容提示文本。第二个数组的from固定为assistant,以采用“"from": "assistant", "value"”表示“模型输出标记”,"assistant"标识这个数组的数据用于训练文本处理模型的返回值(即文本处理模型的输出),value为期望模型做的回答(即翻译质量类别,样本标签),该回答的形式与输出格式提示文本匹配,以此回答中除包含期望的翻译打分"1.翻译打分:100分"(即翻译质量分值)外,还包括对翻译质量的说明 “n2.原因:完整保留原意且语法正确”以及推荐的翻译正确的翻译文本“3.推荐翻译:无”,当为正样本文本时推荐的翻译正确的翻译文本为空,即“推荐翻译:无”。
在一些实施方式中,对于负样本文本,可以在模型输出标记所标记的内容中添加负样本文本中源文本的标准翻译文本,以使文本处理模型在输出负样本文本的模型分类类别的同时输出相应的标准翻译文本。具体地,对待处理文本添加分类类别提示文本以及待分类翻译文本的翻译质量类别,得到添加后的样本文本,还包括:
当待处理文本对应负样本文本时,在模型输出标记指示的文本位置添加第二源文本的标准翻译文本。
例如,负样本文本中,可以在模型输出标记指示的文本位置添加待分类翻译文本的翻译质量类别以及相应第二源文本的标准翻译文本。比如,“模型输出标记:翻译质量类别,标准翻译文本”。
在一些实施方式中,在负样本文本构造过程中,可以构建多种错误翻译类别的负样本文本,以将负样本文本的样本丰富多样化,来保证文本处理模型可以学习到全方面的错误翻译类别。例如,负样本文本可以包括语法错误、符号错误、语料错误以及语句缺失等错误翻译类别。
在一些实施方式中,翻译质量类别包括翻译质量分值以及翻译质量分值对应的翻译错误分析文本。例如,翻译质量类别可以包括:0分=没有保留原意、45分=保留了部分原意、75分=保留了大部分原意且语法错误较少等错误翻译类别,以及还可以包括100分=完整保留原意且语法正确的正确翻译类别。相应的,分类类别提示文本可以为“用译文对比原文按照如下标准打分并回复给出得分原因: 0分=没有保留原意。45分=保留了部分原意。75分=保留了大部分原意且语法错误较少。100分=完整保留原意且语法正确”。由此,可以根据不同翻译质量类别,构建多种不同翻译质量分值以及不同错误原因的第二样本文本,以使文本处理模型能够区分不同错误原因,以对第二样本文本进行分类。
示例性地,任一错误翻译类别为语法错误的负样本文本,该负样本文本的第二源文本为“我昨天去了超市买水果”,相应的待分类翻译文本为“I yesterday went to buysupermarket fruits”。该第二样本文本可以通过如下的数组表示,每个数据元素是一个JSON 对象,具体如下:
{"id": "identity_4220",
"conversations": [
{"from": "user", "value": "用译文对比原文按照如下标准打分并回复给出得分原因: 0分=没有保留原意。45分=保留了部分原意。75分=保留了大部分原意且语法错误较少。100分=完整保留原意且语法正确。原文:我昨天去了超市买水果。译文:I yesterdaywent to buy supermarket fruits.1、翻译打分 2、原因 3、推荐翻译" },
{"from": "assistant","value": "1.翻译打分:0分。2.原因:译文存在明显的语法问题。3.推荐翻译:I went to the supermarket to buy fruits yesterday." }
]}。
任一错误翻译类别为符号错误的负样本文本,该负样本文本的第二源文本为“<color=#ffffff>动感十足的音效</color>”,相应的待分类翻译文本为“<color>Livelysound effects</color>”。该第二样本文本可以通过如下的数组表示,每个数据元素是一个 JSON 对象,具体如下:
{ "id": "identity_4220",
"conversations": [
{ "from": "user",
"value": "用译文对比原文按照如下标准打分并回复给出得分原因: 0分=没有保留原意。45分=保留了部分原意。75分=保留了大部分原意且语法错误较少。100分=完整保留原意且语法正确。原文:<color=#ffffff>动感十足的音效</color>译文:<color>Livelysound effects</color>1、翻译打分 2、原因 3、推荐翻译"},
{"from": "assistant", "value": "1.翻译打分:0分。2.原因:译文缺失符号代码。3.推荐翻译:"<color=#ffffff>Lively sound effects</color>" }
]}。
任一错误翻译类别为语料错误的负样本文本,该负样本文本的第二源文本为“波动拳-乱舞”,相应的待分类翻译文本为“Templar”。该第二样本文本可以通过如下的数组表示,每个数据元素是一个 JSON 对象,具体如下:
{ "id": "identity_4335",
"conversations": [
{"from": "user",
"value": "用译文对比原文按照如下标准打分并回复给出得分原因: 0分=没有保留原意。45分=保留了部分原意。75分=保留了大部分原意且语法错误较少。100分=完整保留原意且语法正确。原文:波动拳-乱舞 译文:Templar 1、翻译打分 2、原因 3、推荐翻译"},
{"from": "assistant","value": "1.翻译打分:0分。2.原因:Templar与原文语义不一或未遵循专业语料。3.推荐翻译:Power Surge - Fury"}
]}。
任一错误翻译类别为语句缺失的负样本文本,该负样本文本的第二源文本为“摩恩每次普攻中目标会为自身增加双抗,最高可叠加十层”,相应的待分类翻译文本为“Morengains armor and magic defense whenever his normal attacks hit a target.Theeffect can stack up to 10 times”。该第二样本文本可以通过如下的数组表示,每个数据元素是一个 JSON 对象,具体如下:
{"id": "identity_5102",
"conversations": [
{"from": "user","value": "用译文对比原文按照如下标准打分并回复给出得分原因: 0分=没有保留原意。45分=保留了部分原意。75分=保留了大部分原意且语法错误较少。100分=完整保留原意且语法正确。原文:摩恩每次普攻中目标会为自身增加双抗,最高可叠加十层。译文:Moren gains armor and magic defense whenever his normalattacks hit a target.1、翻译打分 2、原因 3、推荐翻译"},
{"from": "assistant","value": "1.翻译打分:0分。2.原因:译文不完整。3.推荐翻译:"Moren gains armor and magic defense whenever his normal attacks hit atarget.The effect can stack up to 10 times." }
]}。
上述语法错误、符号错误、语料错误以及语句缺失的负样本文本数组中,采用id字段如"identity_4220"标识该第二样本文本的编号(id,即唯一标识)为4220。该数组中包含两个数组,其中第一个数组的from固定为user,以采用“"from": "user", "value"”表示“模型输入标记”,"value"中写入的是语义理解所使用的prompt(即分类类别提示文本),以告诉模型需要怎么去区分数据的翻译打分分值(即正确翻译分值)和程度。第二个数组的from固定为assistant,以采用“"from": "assistant", "value"”表示“模型输出标记”,"assistant"标识这个数组的数据用于训练文本处理模型的返回值(即文本处理模型的输出),value为期望模型做的回答(即翻译质量类别,样本标签),该回答的形式与输出格式提示文本匹配,以此回答中除包含期望的翻译打分"1.翻译打分:0分"(即翻译质量分值)外,还包括对翻译质量的说明如“n2.原因:译文存在明显的语法问题”以及推荐的翻译正确的标准翻译文本如“n3.推荐翻译:I went to the supermarket to buy fruitsyesterday”。
在一些实施方式中,可以通过去重、语法校验等处理过程,从正样本文本的相应数据集中筛选翻译质量高的源文本和相应的翻译文本作为正样本文本对应的待处理文本,以确保正样本文本的样本质量和可靠性,提高训练文本处理模型的质量和效果,以提高训练后文本处理模型进行校对任务的准确性和可靠性。具体地,获取待处理文本,包括:
获取正样本文本对应的候选数据集,候选数据集包括多个候选源文本以及候选源文本的候选翻译文本;
对候选数据集中的候选源文本以及候选翻译文本进行去重处理,得到去重后的数据集;
对去重后的数据集中的候选翻译文本进行语法校验;
将语法校验通过的候选翻译文本以及相应的候选源文本作为正样本文本对应的待处理文本。
其中,正样本文本对应的候选数据集可以为由人工翻译或机器翻译等方法得到的质量较高的翻译文本以及相应的源文本构成的数据集,或者可以为现有公开翻译平台、期刊以及开放数据集等翻译资源中获取的质量较高的翻译文本以及相应的源文本构成的数据集,或者可以为自有数据积累得到的质量较高的翻译文本以及相应的源文本构成的数据集,等等。本申请实施例中,在训练适用于目标场景的文本处理模型时,正样本文本对应的候选数据集为目标场景的数据集。
其中,去重处理是指在候选数据集中排除重复的数据,以确保数据集中同一或相似的候选源文本或候选翻译文本只出现一次,以避免重复样本文本对文本处理模型训练和评估造成不必要的影响,同时也有助于提高数据集的多样性和质量。
其中,语法校验是指对候选待翻译文本进行语法分析和校验,以判断候选待翻译文本是否满足相应语言(即目标语言)的语法规则,以此可以从数据集中排除一些存储语法错误的翻译文本,以此提高正样本文本的样本质量和可靠性。本申请实施例中,语法校验可以包括但不限于语种校验、语法结构、语法规则等校验方法中的一种或多种的组合。
例如,可以遍历候选数据集中的候选源文本以及候选翻译文本,查询重复文本(包括候选源文本和候选翻译文本),该重复文本可以为完全相同的文本或者相似度高于预设相似度的文本。将重复文本删除,以仅在候选数据集中保留重复文本中的一个。在从候选数据集中删除该重复文本时,同步删除该重复文本对应的另一文本,如,删除重复的候选源文本A时的同步删除候选源文本A的候选翻译文本A,删除重复的候选翻译文本B时的同步删除候选翻译文本B的候选源文本B。以此,在从候选数据集中删除重复文本后,得到无重复文本的去重后的数据集。再对去重后的数据集中的候选语法文本进行语种校验、语法结构、语法规则等校验,以从去重后的数据集中排除语种不符合预期、语法错误以及符号异常的候选翻译文本(即不满足语法校验的候选翻译文本)。以此,可以将语种符合预期、语法无错误以及符号正常的候选翻译文本为翻译正确的翻译文本,因此可以将该翻译文本以及相应的源文本构成正样本文本对应的待处理文本,该待处理文本可以用于构建正样本文本。
在一些实施方式中,在训练适用于目标场景的文本处理模型时,该目标场景可以包括目标应用的场景,正样本文本对应的候选数据集为从目标应用中采集的数据集,本申请实施例中目标应用可以为同一场景对应一个或多个应用。由于目标应用中的数据更能代表真实场景中的数据分布,因此,基于从目标应用中采集的候选数据集构建正样本文本,能提高文本处理模型对目标场景的适应能力,以提高训练后文本处理模型进行校对任务的准确性和可靠性。
例如,目标应用可以为游戏应用,可以将游戏应用的历史翻译配置表记录的源文本以及相应的翻译文本分别作为候选源文本以及相应的候选翻译文本,以将游戏历史翻译配置表记录的数据作为正样本文本对应的候选数据集。
在一些实施方式中,可以基于变换处理提示文本由正样本文本直接变换得到负样本文本,以减少构造负样本文本的难度和成本,提高构造负样本文本的效率。同时,由正样本文本变换得到负样本文本,可以使得同一第二源文本同时有相应的负样本文本和正样本文本,以增加第二样本文本的多样性,提高文本处理模型的泛化能力,同时可以使得第二样本文本中样本类别相对平衡,避免文本模型过拟合。具体地,获取待处理文本,包括:
获取变换处理提示文本、正样本文本对应的待处理文本;
基于变换处理提示文本,对正样本文本对应的待处理文本中的待分类翻译文本进行变换处理,以得到负样本文本对应的待分类翻译文本;
将负样本文本对应的待分类翻译文本以及相应的第二源文本作为负样本文本对应的待处理文本。
其中,变换处理提示文本是指用于指导对待分类翻译文本进行变换处理以生成负样本对应的待分类翻译文本的提示文本。变换处理是指通过修改、转换或调整等变换方式修改翻译文本的语言风格、逻辑结构、表达方式等,以使翻译文本的翻译质量降低的过程。
本申请实施例中可以通过自然语言处理(NLP)领域中的预训练的神经网络模型进行变换处理,例如,该用于变换处理的模型可以包括但不限于预训练语言模型如Bert(双向编码器预训练)模型、GPT(基于 Transformer 结构)模型以及T5(文本转换)模型等中的一种或多种。该用于变换处理的模型可以基于变换处理提示文本的引导,对正样本文本对应的待分类翻译文本进行变换处理,以生成与该待分类翻译文本相关的翻译文本,该翻译文本的翻译质量低于正样本文本对应的待分类翻译文本,以此可以作为负样本文本对应的待分类翻译文本。对于任一正样本文本A,该正样本文本A由第二源文本A和待分类翻译文本A构造得到,以此可以将第二源文本A以及由待分类翻译文本A变换处理得到的待分类翻译文本A构成负样本文本A对应的待处理文本,该待处理文本可以用于构建负样本文本A
示例性地,用于变换处理的模型的结构可以为编码器-解码器结构,也即该模型可以包括输入层、编码器、解码器以及输出层,该输入层、编码器、解码器以及输出层可以为相关预训练语言模型中的相应结构。输入层可以接受变换处理提示文本、正样本文本对应的第二源文本以及相应的待分类翻译文本组成的序列作为模型的输入。编码器可以对输入序列进行逐步处理,捕捉序列中的关键特征,并将这些信息编码到编码向量中,以将输入序列转化为高层次的表示(即编码向量)。解码器可以接收编码器生成的编码向量,对该向量进行生成式解码以生成输出序列。输出层可以接收解码器输出的输出序列,并将其转换为模型的预测结果,即负样本文本对应的待分类翻译文本。
在一些实施方式中,可以将负样本文本对应的变换处理提示文本所对应的翻译质量类别作为该负样本文本中待分类翻译文本的翻译质量类别。例如,负样本文本A对应的变换处理提示文本“由XX生成翻译质量较高的翻译文本”对应的翻译质量类别为“翻译质量较高”的类别,以此可以将该“翻译质量较高”的类别作为负样本文本A中待分类翻译文本的翻译质量类别。
在一些实施方式中,对于任一正样本文本,可以构建多个不同翻译质量类别的变换处理提示文本,以可以由一个正样本文本构造多个不同翻译质量的负样本文本。具体地,获取变换处理提示文本、正样本文本对应的待处理文本之前,还包括:根据分类类别提示文本,生成对应不同翻译质量类别的变换处理提示文本。
例如,在将错误翻译类别划分为多个层次的翻译质量类别时,可以对每个错误翻译的翻译质量类别分别创建相应的变换处理提示文本,以根据变换处理提示文本生成每个错误翻译的翻译质量类别对于的负样本文本。比如,错误翻译类别包括翻译质量较高、翻译质量较低等,可以将“由XX生成翻译质量较高的翻译文本”以及“由XX生成翻译质量较低的翻译文本”分别作为翻译质量较高和翻译质量较低的错误翻译类别的变换处理提示文本,以根据这两个类别分别生成翻译质量较高的负样本文本对应的待分类翻译文本和翻译质量较高的负样本文本对应的待分类翻译文本,其中XX表示样本文本对应的待分类翻译文本。
在一些实施方式中,变换处理提示文本可以对应多个不同翻译质量类别,以此,仅需一个变换提示文本,就能指导用于变换处理的模型由一个正样本文本变换得到多个不同翻译质量的负样本文本的对应的待分类翻译文本,以构造得到多个负样本文本,以提高构造负样本文本的效率。
例如,可以将“由XX生成翻译质量较高的翻译文本,由XX生成翻译质量较低的翻译文本”作为变换处理提示文本,以根据变换处理提示文本中的“由XX生成翻译质量较高的翻译文本”以及“由XX生成翻译质量较低的翻译文本” 分别生成翻译质量较高的负样本文本对应的待分类翻译文本和翻译质量较高的负样本文本对应的待分类翻译文本。
示例性地,在翻译质量类别使用文本描述来说明具体的错误翻译类别时,可以生成多种翻译质量类别的文本描述对应的变换处理提示文本。比如,翻译质量类别可以包括0分=没有保留原意、45分=保留了部分原意、75分=保留了大部分原意且语法错误较少等错误翻译类别,以及还可以包括100分=完整保留原意且语法正确的正确翻译类别。可以基于这三种错误翻译类别以及一种正确翻译类别生成变换处理提示文本“将100分的译文改动以获得不同的分数,分数范围为0到100,从"没有保留原意"开始,到"保留了部分原意",再到"保留了大部分原意且语法错误较少"”,并由变换处理提示文本、正样本文本对应的第二源文本(如狄拉克对指定方向释放技能)以及相应的待分类翻译文本(Dirak releasesskills in the target direction)组成用于变换处理的模型的输入“将100分的译文改动以获得不同的分数,分数范围为0到100,从"没有保留原意“开始,到“保留了部分原意",再到"保留了大部分原意且语法错误较少"。原文是: 狄拉克对指定方向释放技能。"译文:Dirak releases skills in the target direction ."”。用于变换处理的模型可以根据该输入进行变换处理,以输出负样本文本对应的三种错误翻译类别的待分类翻译文本,如:1、没有保留原意:" Dirak skillfully releases in a specific direction.";2、 保留了部分原意:" Dirak releases skills in the direction you aim.";3、保留了大部分原意且语法错误较少:" Dirak releases skills in the directionyou select."。
在一些实施方式中,为了提高构建的负样本文本的质量,可以采用多种不同的候选变换处理提示文本得到负样本文本对应的多种错误翻译类别的待分类翻译文本。通过比较同一负样本文本对应的不同种错误翻译类别的待分类翻译文本的翻译正确程度的区分度,将得到的待分类翻译文本的翻译正确程度的区分度最大的候选变换处理提示文本作为变换处理提示文本,以构造训练文本处理模型的负样本文本。
示例性地,如图1d所示根据不同变换处理提示文本生成待分类翻译文本的示例,分别采用候选变换处理提示文本1~候选变换处理提示文本5得到负样本文本对应多种错误翻译类别的待分类翻译文本中,候选变换处理提示文本5得到负样本文本对应多种错误翻译类别的待分类翻译文本的翻译正确程度的区分度最大,因此可以将候选变换处理提示文本5作为变换处理提示文本。其中,候选变换处理提示文本1为“prompt=f'请按照说明将100分的译文改动以获得不同的分数,分数范围为0到100,从"没有保留原意"开始,到"保留了部分原意",再到"保留了大部分原意且语法错误较少",直到"正确的语法和完美保留原意"”;候选变换处理提示文本2为“prompt=f'下面是中文到英文的"正确的语法和完美保留原意"的原文和译文,请将译文进行改动以获得不同的类型的新译文,类型是从"没有保留原意"开始,到"保留了部分原意",再到"保留了大部分原意且语法错误较少",直到"正确的语法和完美保留原意"”;候选变换处理提示文本3为“prompt = f'根据原文按照要求改动:1、将译文改成语义完全错误 2、将译文改成保留部分语义 3、将译文改成保留大部分语义且语法错误较少 4、将译文改成正确的语法以及原意”;候选变换处理提示文本4为“prompt=f'请将完全正确的译文进行改动以获得不同的类型的译文,从"没有保留原意"开始,到"保留了部分原意",再到"保留了大部分原意且语法错误较少",直到"正确的语法和完美保留原意"”;候选变换处理提示文本5为“prompt = f'以下是肯定正确的英文,按照要求改动并按照顺序简洁地列出改动:1、将译文改成意思完全错误的英文 2、将译文改成保留部分语义的英文 3、将译文改成保留大部分语义且语法错误较少的英文 4、将译文改成正确的语法以及原意的英文”。
在一些实施方式中,用于变换处理的模型可以为问答模型,例如,可以将变换处理提示文本、正样本文本对应的第二源文本以及相应的待分类翻译文本作为问题输入问答模型,以使问答模型根据问题输出相应的负样本文本对应的待分类翻译文本。
120、通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果,第一语义理解结果表征第一源文本的语义表示对应的模型翻译文本。
其中,语义理解是指通过文本处理模型理解文本语义信息,以确定语义表示的过程。语义理解结果是指由通过语义理解获取的语义表示所转换得到结果。文本处理模型在不同任务中进行语义理解确定的语义理解结果可以为不同形式的结果,如本处理模型在翻译任务中确定的语义理解结果可以为翻译后的文本形式(即翻译文本),本处理模型在校对任务中确定的语义理解结果可以为校对结果的形式,该校对结果表示翻译质量或其他与校对相关的特定指标。
其中,第一语义理解结果是初始文本处理模型进行翻译任务确定的语义理解结果,也即第一语义理解结果可以表征初始文本处理模型对第一源文本进行翻译得到的翻译文本,该翻译文本即为模型翻译文本。
例如,本申请实施例中,获取第一源文本以及第一源文本正确翻译的翻译文本(即标准翻译文本)用于训练文本处理模型进行翻译任务的能力。具体地,可以将第一源文本输入初始文本处理模型,初始文本处理模型尝试理解输入第一源文本的含义,并将这种语义信息转化为另一种语言的表达,即得到第一源文本的翻译文本(即模型翻译文本)。需说明的是,在翻译任务训练过程中,文本处理模型可以通过语义理解过程进行不同文本之间的特征学习和映射,以增加文本处理模型对源文本和翻译文本中没有直接关联的词之间的关联映射能力,以使文本处理模型在校对任务中能根据该关联映射能力深入识别源文本和翻译文本的关联,以准确识别校对任务中的错误翻译,使其在校对任务中能有更好的表现和适应性。
在实际应用中,用于文本处理模型的结构可以为编码器-解码器结构,也即该模型可以包括输入层、编码器、解码器以及输出层,该输入层、编码器、解码器以及输出层可以为相关神经网络模型中的相应结构。输入层可以接受样本文本作为文本处理模型的输入,具体地,翻译任务中文本处理模型的输入为第一源文本,校对任务中文本处理模型的输入为第二源文本以及待分类翻译文本。编码器可以对输入序列进行逐步处理,捕捉序列中的关键特征,并将这些信息编码到编码向量中,以将输入序列转化为高层次的表示(即编码向量)。解码器可以接收编码器生成的编码向量,对该向量进行解码以生成输出序列。输出层可以接收解码器输出的输出序列,并将其转换为模型的预测结果,即语义理解结果。以此,文本处理模型的编码器-解码器结构可以通过编解码过程实现跨语言的语义理解,以得到准确的语义理解结果。
在一些实施方式中,文本处理模型可以通过注意力机制捕捉源文本不同位置特征之间的相关性,以基于该相关性处理得到与注意力相关的更能反应源文本重要语义信息的语义特征,以提升文本处理模型对源文本的语义理解能力,提高语义理解结果。具体地,初始文本处理模型包括编码网络、注意力网络以及解码网络,通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果,包括:
通过编码网络,对第一源文本进行编码处理,得到第一源文本的第一编码特征;
通过注意力网络,对第一编码特征进行注意力处理,以根据第一编码特征中特征的注意力相关性计算得到第一语义特征;
通过解码网络,对第一语义特征进行解码处理,得到第一语义理解结果。
其中,编码网络、注意力网络以及解码网络。例如,编码网络可以包括但不限于循环神经网络(RNN)、卷积神经网络(CNN)、嵌入层(Embedding层)、全局向量表达(GloVe)模型、Word2Vec模型等能将输入内容转换为向量表示的神经网络结构中的一个或多个;注意力网络可以包括但不限于基于自注意力(Self-Attention)的网络、基于多头注意力(Multi-Head Attention)的网络、基于LSTM的注意力网络等能利用注意力机制聚焦相关信息的神经网络结构中的一个或多个;解码网络(即解码器)可以包括但不限于循环神经网络(RNN)解码器、Transformer(多头注意力网络)解码器、卷积神经网络(CNN)解码器、全连接层等能用于将编码后的向量转换为最终输出的神经网络结构中的一个或多个。
其中,第一编码特征是由第一源文本编码得到的特征。第一语义特征是指用于表征第一源文本语义的特征,第一语义特征是基于注意力机制处理得到的特征。第一编码特征和第一语义特征均可以向量形式表示。
其中,注意力相关性是指基于注意力机制确定的特征之间的相关性,注意力相关性可以注意力权重表示。
例如,可以将第一样本文本中的第一源文本作为初始文本处理模型的输入。初始文本处理模型可以通过嵌入层(即编码网络)将第一源文本进行嵌入表示后得到第一源文本的向量表示即第一编码特征。再将第一编码特征输入Transformer编码器(即注意力网络),通过注意力网络对第一编码特征进行注意力处理,得到第一语义特征,第一语义特征能反应第一编码特征中的重要的语义信息。具体地,注意力网络可以利用注意力机制(如自注意力)来计算第一编码特征中各部分之间的相关性,生成注意力权重(即注意力相关性),以用该注意力权重对第一编码特征加权得到第一语义特征。将第一语义特征输入解码网络,通过解码网络对第一语义特征进行解码处理,得到该源文本的模型翻译文本。其中,翻译结果可以为表示解码得到的目标序列概率分布的向量(即向量形式的翻译结果),翻译结果也可以为该向量对应的翻译文本,如可以根据目标序列概率分布的向量表示的在序列中每个位置上词表中所有词的概率,选择序列每个位置概率最大的词作为最终输出,可以得到模型翻译文本。
130、根据模型翻译文本相对于第一源文本的标准翻译文本的翻译差异度,更新初始文本处理模型,得到更新后的文本处理模型。
其中,翻译差异度是指模型翻译文本与相应标准翻译文本的之间的差异。翻译差异度可以模型翻译文本与第一源文本的标准翻译文本的相似程度表示。例如,翻译差异度可以度量标准如 BLEU(双语评估基准)、METEOR(翻译评估指标,带有明确排序)、TER(翻译编辑率)等比较模型生成的模型翻译文本和标准翻译文本之间的相似度,以来评估模型翻译文本相较于标准翻译文本的翻译差异度。或者,翻译差异度可以以损失函数如均方误差(Mean Squared Error, MSE)、或交叉熵损失(Cross-Entropy Loss)等衡量模型翻译文本与相应标准翻译文本的之间的差异。
例如,本申请实施例中,可以将模型翻译文本与相应标准翻译文本分别作为模型预测结果和真实标签(即样本标签),以通过损失函数计算该模型预测结果和真实标签之间的差异(即损失),可以根据该损失利用梯度下降等优化算法来更新模型参数,以最小化损失函数,直至满足预设的终止条件,得到更新后的文本处理模型。通过最小化损失函数,可以使得文本处理模型预测结果和真实标签之间的差异减小,从而提高文本处理模型学习到更好的表示和预测能力。其中,预设的终止条件可以包括但不限于满足最大迭代次数、损失函数收敛、基于性能指标确定的早停策略或其他条件中的一种或多种。
在一些实施方式中,初始文本处理模型更新的预设终止条件可以包括在模型翻译文本中检测指定翻译词,也即翻译差异度包括模型翻译文本与标准翻译文本中是否包含相同的指定词的翻译结果。由此,在初始文本处理模型的训练过程中,当初始文本处理模型的输出结果中包含指定词正确的翻译结果,即结束训练。以此,确保文本处理模型学会了指定词的正确翻译,以提升文本处理模型识别指定词是否正确的能力,以提高文本处理模型进行校对任务的准确性。具体地,第一源文本包含目标场景的指定词,根据模型翻译文本相对于第一源文本的标准翻译文本的翻译差异度,更新初始文本处理模型,得到更新后的文本处理模型,包括:
在模型翻译文本中检测指定翻译词,指定翻译词为指定词在第一源文本的标准翻译文本中的译文;
当未检测到指定翻译词,更新初始文本处理模型,得到中间文本处理模型;
将中间文本处理模型作为初始文本处理模型,返回执行步骤通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果以及后续步骤,直至在模型翻译文本中检测到指定翻译词,将中间文本处理模型作更新后的文本处理模型。
其中,中间文本处理模型是指初始文本处理模型的训练过程中,初始文本处理模型更新得到的文本处理模型。
例如,以第一源文本“亚格尼之握,是一种强大的魔法技能,能够紧紧抓住敌人,使其无法动弹”为例,该源文本的标准翻译文本为“Agnie's Grasp is a powerful magicalability that tightly grips thenemy, rendering them motionless”。其中,该源文本包含指定词“阿格尼之握”,该指定词在标准翻译文本中的译文(即指定翻译词)为“Agnie'sgrasp”。在初始文本处理模型的训练过程中,可以检测每次迭代更新过程中文本处理模型的输出的模型翻译文本中是否有该指定词的译文 “Agnie's grasp”,若检测到该指定翻译词,则结束迭代更新文本处理模型(即结束训练),将最后一次更新得到的中间文本处理模型作为此次训练得到的更新后的文本处理模型。若未检测到该指定翻译词“Agnie'sgrasp”,则再次迭代更新文本处理模型,以此类推直至在任一次迭代更新过程中文本处理模型的输出的模型翻译文本中检测到该指定翻译词。
比如,如图1e所示不同迭代周期的模型翻译文本,在初始文本处理模型的训练过程中,在进行的10个迭代周期(epoch)中,在epoch为1时,文本处理模型输出的模型翻译文本中保留了大部分原意,表达清晰,其与标准翻译文本相似度为75分。在epoch为3时,文本处理模型输出的模型翻译文本中检测到了指定翻译词“Agnie's grasp”,该模型翻译文本没有问题,且该模型翻译文本与标准翻译文本相似度为90分。在epoch为5时,文本处理模型输出的模型翻译文本中检测到了指定翻译词“Agnie's grasp”,其保留了大部分原意,语法正确,该模型翻译文本与标准翻译文本相似度为85分。在epoch为10时,文本处理模型输出的模型翻译文本中检测到了指定翻译词“Agnie's grasp”,其虽然译文表达出了原意,但是存在一些小的语法错误,该模型翻译文本与标准翻译文本相似度为75分。显然,在epoch为3时模型翻译文本与标准翻译文本相似度最高(或满足预设的相似度),以此,可以在epoch为3时结束训练,将该epoch更新的中间文本处理模型作为更新后的文本处理模型。
在一些实施方式中,在目标场景中的指定词有多个时,在模型翻译文本中检测到所有指定翻译词后,结束迭代更新初始文本处理模型,将中间文本处理模型作更新后的文本处理模型。其中,该多个指定词可以在一个或多个第一源文本中。例如,目标场景中的指定词有AA、BB、CC,第一源文本A包含指定词AA,指定词AA对应的指定翻译词为aa,第一源文本B包含指定词BB,指定词BB对应的指定翻译词为bb,第一源文本C包含指定词CC,指定词CC对应的指定翻译词为cc。以此,当在第一源文本A的模型翻译文本A、第一源文本B的模型翻译文本B、第一源文本C的模型翻译文本C中分别检测到aa、bb、cc时,才结束迭代更新初始文本处理模型,将最后一次更新得到的中间文本处理模型作更新后的文本处理模型。
在一些实施方式中,初始文本处理模型更新的预设终止条件还可以包括在模型翻译文本与第一源文本的标准翻译文本相似度满足预设相似度,也即翻译差异度还包括模型翻译文本与标准翻译文本之间的相似度。例如,可以通过 BLEU(双语评估基准)、METEOR(翻译评估指标,带有明确排序)、TER(翻译编辑率)等比较模型生成的模型翻译文本和标准翻译文本之间的相似度,当整体相似度大于等于预设相似度且在模型翻译文本中检测到相应的指定翻译词时,结束迭代更新初始文本处理模型,将中间文本处理模型作更新后的文本处理模型。
在一些实施方式中,初始文本处理模型更新的预设终止条件还可以包括损失函数的损失值,也即翻译差异度还包括损失函数表征的差异。例如,当模型翻译文本和标准翻译文本之间的相似度大于等于预设相似度、且在模型翻译文本中检测到相应的指定翻译词、且损失函数收敛时,结束迭代更新初始文本处理模型,将中间文本处理模型作更新后的文本处理模型。
140、通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果,第二语义理解结果表征更新后的文本处理模型对待分类翻译文本进行翻译质量分类的模型分类类别。
其中,第二语义理解是指更新后的文本处理模型进行校对任务确定的语义理解结果。第二语义理解结果表征更新后的文本处理模型对待分类翻译文本进行翻译质量分类的分类结果(即模型分类类别)。
例如,本申请实施例中,获取第二源文本、第二源文本翻译得到的需要校对的翻译文本(即待分类翻译文本)以及翻译质量类别用于训练文本处理模型进行校对任务的能力。具体地,可以将第二源文本以及相应的待分类翻译文本输入更新后的文本处理模型,更新后的文本处理模型尝试理解输入第二源文本以及相应的待分类翻译文本的含义,并将这种语义信息转化为对待分类翻译文本的分类结果。以此,通过更新后的文本处理模型将待分类翻译文本分类到相应的翻译质量类别中,得到模型分类类别,以实现对待分类翻译文本的翻译质量分类,该过程也可以视为对待分类翻译文本所在的样本文本的分类。
在一些实施方式中,可以将第二源文本以及相应的待分类翻译文本拼接处理两种语言文本,以综合考虑源文本和翻译文本之间的关系,有助于捕捉两种语言文本之间的相关性和语义关系。再通过注意力机制捕捉两种语言中的重要语义信息,提高跨语言语义理解的效果,以提高对待分类翻译文本的翻译质量分类的效果。具体地,更新后的文本处理模型包括更新后的编码网络、更新后的注意力网络以及更新后的解码网络,通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果,包括:
将第二源文本以及待分类翻译文本拼接得到待处理文本序列;
通过更新后的编码网络,对待处理文本序列进行编码处理,得到待处理文本序列的第二编码特征;
通过更新后的注意力网络,对第二编码特征进行注意力处理,以根据第二编码特征中特征的注意力相关性计算得到第二语义特征;
通过更新后的解码网络,对第二语义特征进行解码处理,得到第二语义理解结果。
其中,更新后的编码网络、更新后的注意力网络以及更新后的解码网络为初始文本处理模型中的编码网络、注意力网络以及解码网络分别更新得到。
其中,第二编码特征是由待处理文本序列编码得到的特征。第二语义特征是指用于表征待处理文本序列语义的特征,第二语义特征是基于注意力机制处理得到的特征。第二编码特征和第二语义特征均可以向量形式表示。
例如,可以将第二样本文本中的第二源文本以及第二源文本的相应的待分类翻译文本拼接后得到待处理文本序列,以将该待处理文本序列作为更新后的文本处理模型的输入。更新后的文本处理模型可以通过更新后的嵌入层(即更新后的编码网络)将待处理文本序列进行嵌入表示后得到待处理文本序列的向量表示即第二编码特征。再将第二编码特征输入更新后的Transformer编码器(即更新后的注意力网络),通过更新后的注意力网络对第二编码特征进行注意力处理,得到第二语义特征,第二语义特征能反应第二编码特征中的重要的语义信息。具体地,更新后的注意力网络可以利用注意力机制(如自注意力)来计算第二编码特征中各部分之间的相关性,生成注意力权重(即注意力相关性),以用该注意力权重对第二编码特征加权得到第二语义特征。将第二语义特征输入更新后的解码网络,通过更新后的解码网络对第二语义特征进行解码处理,得到第二样本文本中待分类翻译文本的模型分类类别。其中,模型分类类别可以为表示解码得到的目标序列概率分布的向量(即向量形式的模型分类类别),也可以为该向量对应的文本形式的模型分类类别。需说明的是,由于翻译任务和校对任务中最终输出结果不同,因此对解码后向量的输出处理方式可以相同也可以不同,具体根据实际应用场景和需求确定。比如,可以对目标序列概率分布的向量表示进行softmax(激活)操作得到各翻译质量类别的概率分布,最终选择概率最大的翻译质量类别作为模型分类类别。或者,可以根据目标序列概率分布的向量表示的在序列中每个位置上词表中所有词的概率,选择序列每个位置概率最大的词作为最终输出,该输出可以包含翻译质量分值以及详细的翻译错误分析文本,以得到语义更丰富的模型分类类别。
在一些实施方式中,在第二样本文本中包含分类类别提示文本,可以通过更新后的编码网络对分类类别提示文本进行编码处理,得到提示编码特征(即由分类类别提示文本编码得到的特征),再通过连接、或求平均值等方式将提示编码特征与第二编码特征结合起来,得到结合后的编码特征,以将分类类别提示文本的指导信息融入到样本文本的编码表示中,以使文本处理模型在输出模型分类类别时能考虑分类类别提示文本的指导作用,生成符合任务需求的结果。需说明的是,在得到结合后的编码特征后,可以通过更新后的注意力网络,对结合后的编码特征进行注意力处理,以根据结合后的编码特征中特征的注意力相关性计算得到第二语义特征。
在一些实施方式中,可以以翻译质量分值以及翻译质量分值对应的翻译错误分析文本作为翻译质量分类的依据,以指导对各待分类翻译文本进行分类过程。此外,可以通过文本处理模型输出量化的分值比较翻译文本的翻译质量,能更客观、准确地评价文本处理模型的能力,以提高训练后的文本处理模型的能力。具体地,翻译质量类别包括翻译质量分值以及翻译质量分值对应的翻译错误分析文本,通过更新后的解码网络,对第二语义特征进行解码处理,得到第二语义理解结果,包括:
通过更新后的解码网络,对第二语义特征进行解码处理,确定待分类翻译文本的模型翻译质量分值;
将待分类翻译文本的模型翻译质量分值以及模型翻译质量分值对应的翻译错误分析文本作为翻译质量分类的模型分类类别,以得到第二语义理解结果。
其中,模型翻译质量分值以是指更新后的文本处理模型对待分类翻译文本进行翻译质量分类的确定的翻译质量分值。
例如,在通过更新后的解码网络对第二语义特征进行解码处理,得到目标序列概率分布的向量表示后,可以对目标序列概率分布的向量表示进行softmax(激活)操作得到各翻译质量分值的概率分布,最终选择概率最大的翻译质量分值作为模型翻译质量分值如75分,该75分对应的翻译错误分析文本为“保留了大部分原意且语法错误较少等错误翻译类别”,以此可以将“1.翻译打分:75分。2.原因:保留了大部分原意且语法错误较少等错误翻译类别”作为文本处理模型的模型分类类别即第二语义理解结果输出。
150、根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
其中,翻译质量分类训练是指训练文本处理模型将不同待分类翻译文本进行翻译质量分类的过程。
例如,本申请实施例中,可以将模型分类类别与相应翻译质量类别分别作为模型预测结果和真实标签(即样本标签),以通过损失函数如交叉熵损失函数(Cross-EntropyLoss)、或Softmax 损失函数等计算该模型预测结果和真实标签之间的差异(即损失),可以根据该损失利用梯度下降等优化算法来更新模型参数,以最小化损失函数,直至满足预设的终止条件,得到训练后的文本处理模型。通过最小化损失函数,可以使得文本处理模型预测结果和真实标签之间的差异减小,从而使文本处理模型学习到更好的表示,提高文本处理模型学习的预测能力。其中,预设的终止条件可以包括但不限于满足最大迭代次数、损失函数收敛以及其他基于性能指标确定的早停策略中的一种或多种以此。通过分类训练,使训练后的文本处理模型能够通过将翻译文本分为正确翻译或错误翻译的翻译质量类别,以确定翻译文本的翻译质量,以此进对错误翻译进行标记或修正,以实现对翻译文本的校对任务。由此,本申请实施例可以通过训练文本处理模型来逐步学习翻译质量分类(即校对任务),以使训练后的文本处理模型能够用于翻译质量分类,以减少采用人工进行二次校对所需的时间和成本,提高翻译效率。
在翻译质量分类训练过程之前,可以根据经验或先验训练预先确定翻译质量分类训练过程的超参数如batchsize(批量大小)、epoch数(最大迭代次数)、learning rate(学习率),该过程可以称为超参数调优过程,在超参数调优过程中,通过尝试不同的超参数组合来寻找最优的模型性能表现,以提高模型的准确性和泛化能力。在一些实施方式中,在超参数调优过程中,可以先根据计算资源确定用于翻译质量分类的第二样本文本的样本数量,再基于确定的样本数量进行多次调优,以确定最大迭代次数以及学习率,以此通过计算资源预先固定样本数量,再集中调整其他关键的超参数上如最大迭代次数和学习率。这种逐步调优的方法有助于更有效地探索超参数空间,并找到最佳的超参数组合,以提高训练后的文本处理模型的泛化能力和性能。具体地,方法,还包括:
根据用于翻译质量分类训练的计算资源,确定用于翻译质量分类训练的第二样本文本的样本数量;
获取满足样本数量的调参用第二样本文本;
基于调参用第二样本文本,对更新后的文本处理模型进行迭代次数调整和学习率调整,以确定最大迭代次数以及训练用学习率;
将样本数量、最大迭代次数以及训练用学习率作为翻译质量分类训练的训练参数。
其中,最大迭代次数即为epoch数。在深度学习中,一个 epoch 表示模型训练过程中的一个阶段,即遍历整个训练数据集的过程。在每个 epoch 中,模型会将整个训练数据集分割成若干个批次(batches),然后对每个批次的数据进行前向传播、计算损失、反向传播和参数更新等训练步骤。
其中,样本数量即为batchsize(批量大小)。batch(批)是深度学习里面用于做训练批次的概念,过少的批次,会导致损失函数值过高,学习度不够,模型没有什么学习效果,批次过高,往往会导致模型灾难性遗忘本身的能力知识,产生过拟合状态。batchsize(批量大小)是在深度学习和机器学习中训练模型时使用的概念,它是指在每次迭代过程中输入到模型中的数据样本数量。
其中,学习率即为learning rate。在模型训练的过程中,通常使用梯度下降(Gradient Descent)的方法来逐步优化模型的参数。在每一步,计算出模型当前参数下的损失函数(Loss Function)的梯度,然后按照梯度的反方向更新参数,希望能够使损失函数的值减小。学习率就是决定按照梯度下降的方向移动的“步长”。
其中,调参用第二样本文本是指用于超参数调优的第二样本文本。可以理解的是,调参用第二样本文本和第二样本文本是同样的样本文本,仅是应用于不同的阶段。
例如,由于batchsize受GPU显存影响最大,每个运算迭代送入更新后的文本处理模型数据大小会影响到当前运算所需要开销的显存,因此,基于用于翻译质量分类训练的计算资源的资源极限,选择相应的batchsize。比如,以GPU加速器A100为例,可以根据该GPU的极限选择batchsize为2,使显存不溢出,保留一定泛化能力,且损失函数震动情况较少。在确定了batchsize之后,可以采用batchsize为2的第二样本文本,并使用多个epoch以及多个学习率组成的多个超参数组合,每个超参数组合包括任一epoch以及任一学习率,用于模拟训练更新后的文本处理模型的翻译质量分类训练。并得到各超参数组合的loss(即损失函数),通过比较不同超参数组合的损失函数,将损失函数收敛状态最好的超参数组合中的epoch以及学习率作为最大迭代次数以及训练用学习率。
比如,在确定了batchsize为2后,以epoch(迭代周期)为1、3、5以及学习率从0~2构建了多个超参数组合。因为epoch过小,文本处理模型拟合程度过低,学习不到太多的知识,epoch过大,文本处理模型过拟合概率增大,遗忘本身的能力。如果epoch过大,如图1f所示迭代周期为5时的模型分类类别表,在epoch为5的情况下,文本处理模型几乎无法判定正确翻译质量分值,且只会回答翻译质量分值,没有其他能力。而当epoch过小,为1的情况下,模型几乎不会按照规则回答问题。对此,本申请实施例中,如图1g所示的不同超参数组合的损失函数曲线,抽取和对比了超参数调优过程中不同超参数组合的损失函数曲线。结合整个超参数调优过程损失函数曲线可以看出,当epoch为5、学习率1E4时,损失函数后续收敛不多,且趋于稳定不来回震荡,判断推测epoch为3、学习率1E4时该训练任务的结果最为符合预期。以此,将batchsize为2、epoch为3、学习率1E4作为翻译质量分类训练的超参数,以提高训练后的文本处理模型的泛化能力和性能。
在一些实施方式中,在得到训练后的文本处理模型后,可以将训练后的文本处理模型对待处理翻译文本进行校对。具体地,方法,还包括:
获取待处理源文本以及待处理源文本的待处理翻译文本;
通过训练后的文本处理模型,对待处理源文本以及待处理翻译文本进行语义理解,确定目标语义理解结果,目标语义理解结果表征训练后的文本处理模型对待处理翻译文本进行翻译质量分类的目标翻译质量类别。
其中,待处理翻译文本是指待处理源文本的翻译文本。待处理源文本以及相应的待处理翻译文本可以来自于用户输入、平台或应用的数据。例如,在实际应用中,可以获取用户输入源文本以及该源文本的翻译文本作为待处理源文本以及待处理源文本的待处理翻译文本。
其中,目标语义理解结果是指训练后的文本处理模型进行校对任务确定的语义理解结果。目标语义理解结果表征更新后的文本处理模型对待处理翻译文本进行翻译质量分类的分类结果(即目标翻译质量类别)。
例如,可以将待处理源文本以及相应的待处理翻译文本拼接成文本序列输入更新后的文本处理模型,更新后的文本处理模型尝试理解输入待处理源文本以及相应的待处理翻译文本拼接的文本序列的含义,并将这种语义信息转化为对待处理翻译文本的分类结果。以此,通过更新后的文本处理模型将待分类翻译文本分类到相应的翻译质量类别中,得到目标翻译质量类别,以实现对待处理翻译文本的翻译质量分类。
需说明的是,在目标翻译质量类别为负样本文本对应的翻译质量类别时,可以将待处理源文本作为训练后文本处理模型的输入,通过训练后文本处理模型进行翻译任务后,如对待处理源文本进行语义结果,得到语义理解结果,该语义理解结果表征第一源文本对应的语义表示对应的模型翻译文本,将模型翻译文本作为推荐的标准翻译译文。
在一些实施方式中,可以将目标翻译质量类别中的部分内容作为最终的校对输出结果。例如,在获取用户在校对平台的输入作为待处理源文本以及相应待处理翻译文本时,校对平台可以调用训练后的文本处理模型进行校对,以输出目标翻译质量类别。在目标翻译质量类别中,可以仅将翻译质量分值、对翻译质量的说明以及推荐的翻译正确的翻译文本中的一种或多种作为校对平台的校对结果反馈给用户。比如,校对平台仅将翻译质量的说明以及推荐的翻译正确的翻译文本反馈给用户。
在一些实施方式中,可以根据目标翻译质量类别中翻译质量分值,选择最终的校对输出结果。例如,当输出的目标翻译质量类别中翻译质量分值大于等于预设阈值(如80分)时,显示目标翻译质量类别或仅显示翻译质量分值,当输出的目标翻译质量类别中翻译质量分值小于预设阈值(如80分)时,仅显示对翻译质量的说明以及推荐的翻译正确的翻译文本。以此,对于翻译正确或翻译错误程度低的翻译文本、对翻译错误程度高的翻译文本,根据翻译质量自动选择合适的输出方式,提高效率和准确性,同时提供了针对不同质量翻译文本的个性化处理。
在一些实施方式中,校对平台可以通过问答形式接收用户输入待处理源文本以及相应待处理翻译文本,以及将校对结果(即目标翻译质量类别)反馈给用户。
示例性地,如图1h所示的校对平台的显示界面,用户可以在校对平台输入问题“翻译类型:cn ==>en 原文:<color=#ff6600>物理伤害</color>译文:<color=#ff6601>magicdamage</color”,校对平台调用训练后的文本处理模型对用户输入的原文(待处理源文)以及译文(待处理翻译文本)处理得到该译文为符号错误和语料错误的错误翻译类别,以此,校对平台输出相应的回答为“模型校对结果:>magic damage</color中符号不完整,比原文缺失或多余符号:>该译文没有按照语料进行翻译:{"物理伤害:physical damage"}”。
再如图1i所示的校对平台的显示界面,用户可以在校对平台输入问题“翻译类型:cn ==>en 原文:普攻基础伤害(不可暴击) 译文:Magic Attack Base Damag”,校对平台调用训练后的文本处理模型对用户输入的原文(待处理源文)以及译文(待处理翻译文本)处理得到该译文为语句缺失的错误翻译类别,以此,校对平台输出相应的回答为“模型校对结果:翻译不准确。推荐翻译:Normal Attack Base Damage (No Crit)”。
在一些实施方式中,校对平台可以对外暴露可自动化使用的API接口,以便于用户自动化对批量的待处理翻译文本进行校对(即翻译质量分类),批量生成目标翻译质量类别。比如,如图1j所示的批量化校对表,通过调用校对平台的API接口,以使校对平台调用训练后的文本处理模型对该表中的一组待处理翻译文本以及相应的源文本进行一轮批量自动化校对,得到该表中显示的校对结果(即目标翻译质量类别)。
本申请实施例提供的文本处理模型的训练方案可以应用在各种场景中。比如,以目标场景为例,获取初始文本处理模型、第一样本文本以及第二样本文本,第一样本文本包括第一源文本以及第一源文本的标准翻译文本,第二样本文本包括第二源文本、第二源文本的待分类翻译文本以及待分类翻译文本的翻译质量类别;通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果,第一语义理解结果表征第一源文本的语义表示对应的模型翻译文本;根据模型翻译文本相对于第一源文本的标准翻译文本的翻译差异度,更新初始文本处理模型,得到更新后的文本处理模型;通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果,第二语义理解结果表征更新后的文本处理模型对待分类翻译文本进行翻译质量分类的模型分类类别;根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
由上可知,由此,本申请实施例可以通过训练文本处理模型来逐步学习翻译质量分类(即校对任务),以使训练后的文本处理模型能够用于翻译质量分类,以减少采用人工进行二次校对所需的时间和成本,提高翻译效率。其中,本申请实施例中,获取第一源文本以及第一源文本正确翻译的翻译文本(即标准翻译文本)用于训练文本处理模型进行翻译任务的能力,以预先通过翻译任务使文本处理模型学习源语言的编译。尤其是在翻译任务训练过程中,文本处理模型可以通过语义理解过程,进行不同文本之间的特征学习和映射。在此基础上,再将第二源文本、第二源文本翻译得到的需要校对的翻译文本(即待分类翻译文本)以及翻译质量类别用于训练文本处理模型进行校对任务的能力,以在文本处理模型已学习的特征学习和映射基础上,再基于校对任务对初始文本处理模型进行微调,使其适应校对任务,使其在校对任务中能有更好的表现和适应性。
根据上述实施例所描述的方法,以下将作进一步详细说明。
在本实施例中,将以应用于游戏应用的场景中的校对任务为例,对本申请实施例的方法进行详细说明。
如图2a所示,一种文本处理模型的训练方法具体流程如下:
210、获取初始文本处理模型、第一样本文本以及第二样本文本,第一样本文本包括第一源文本以及第一源文本的标准翻译文本,第二样本文本包括第二源文本、第二源文本的待分类翻译文本以及待分类翻译文本的翻译质量类别。
例如,可以获取包含游戏应用的场景的指定词的第一样本文本对基座AI模型(即初始文本处理模型)进行语料库数据的小批次微调,让在保留原生能力的基础上,习得游戏语境的上下文关系。语料库是游戏专有名词,是指项目内部限定翻译内容,即将游戏场景的指定词必须翻译为相应的指定翻译词。
同时,可以通过自动化脚本从如图2b游戏应用的历史翻译配置表中捞取100分翻译数据,以提取得到正样本文本对应的候选数据集,并清洗得到正样本文本。正样本文本是一组正确性为100分的样本文本,通过在历史翻译配置表里提取以及清洗得到6W条完全正确翻译的样本文本,作为训练数据源的正样本文本。
由于依靠人工构造6W条负样本文本成本高、难度大,因此本申请实施例中,可以通过问答模型(即用于变换处理的模型),通过prompt(变换处理提示文本)自动让其根据正样本文本生成N个符合不同错误类型要求的负样本文本,并赋予错误轻重的打分,这种全自动化的方式,解决这个生成负样本文本数据的痛点。
负样本文本与正样本文本不同的地方是,在assistant的value返回中,会根据负样本文本的错误类型,给负样本文本这里做一个错误翻译类别的定义。比如,如果是语法错误,会在assistant的value返回中告诉文本处理模型这是语法错误,以此类推其他错误类型也会在assistant的value返回中告诉文本处理模型错误类型。
220、通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果,第一语义理解结果表征第一源文本的语义表示对应的模型翻译文本。
例如,可以将第一源文本输入初始文本处理模型,初始文本处理模型尝试理解输入第一源文本的含义,并将这种语义信息转化为另一种语言的表达,即得到第一源文本的翻译文本(即模型翻译文本)。
230、根据模型翻译文本相对于第一源文本的标准翻译文本的翻译差异度,更新初始文本处理模型,得到更新后的文本处理模型。
例如,可以将模型翻译文本与相应标准翻译文本分别作为模型预测结果和真实标签(即样本标签),以通过损失函数计算该模型预测结果和真实标签之间的差异(即损失),可以根据该损失利用梯度下降等优化算法来更新模型参数,以最小化损失函数,直至满足预设的终止条件,得到更新后的文本处理模型。
由于在文本处理模型的训练过程中,若让文本处理模型严格学习一些词汇(如指定词),会容易产生过拟合,遗忘文本处理模型本身的能力。因此,本申请实施例准备了4000条指定词语料数据用于训练初始文本处理模型,同时还尝试对初始文本处理模型设置不同的超参数,以进行拟合程度的一个测试。在对齐了batchsize(2)和学习率(1E4)的前提之下,尝试了3批次~9批次的loss和模型泛化能力的测试,最终得到既有泛化能力又具备一定游戏语境的微调模型(即更新后的文本处理模型)。
其中,在此次训练过程中,预设的终止条件包括在模型翻译文本中检测指定翻译词、以及模型翻译文本与第一源文本的标准翻译文本相似度满足预设相似度。比如,以第一源文本包含指定词“阿格尼之握”为例,在文本处理模型输出的模型翻译文本中检测到了指定翻译词“Agnie's grasp”以及模型翻译文本与第一源文本的标准翻译文本相似度高于预设相似度时,才认为文本处理模型输出的模型翻译文本正确,以此结束训练。
240、通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果,第二语义理解结果表征更新后的文本处理模型对待分类翻译文本进行翻译质量分类的模型分类类别。
例如,可以将第二源文本以及相应的待分类翻译文本输入更新后的文本处理模型,更新后的文本处理模型尝试理解输入第二源文本以及相应的待分类翻译文本的含义,并将这种语义信息转化为对待分类翻译文本的分类结果。以此,通过更新后的文本处理模型将待分类翻译文本分类到相应的翻译质量类别中,得到模型分类类别,以实现对待分类翻译文本的翻译质量分类,该过程也可以视为对待分类翻译文本所在的样本文本的分类。
250、根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型。
例如,可以将模型分类类别与相应翻译质量类别分别作为模型预测结果和真实标签(即样本标签),以通过损失函数如交叉熵损失函数(Cross-Entropy Loss)、或Softmax损失函数等计算该模型预测结果和真实标签之间的差异(即损失),可以根据该损失利用梯度下降等优化算法来更新模型参数,以最小化损失函数,直至满足预设的终止条件,得到训练后的文本处理模型。
需说明的是,在更新后的文本处理模型的训练过程中,batchsize(批量大小)、epoch数(最大迭代次数)、learning rate(学习率)等关键的超参数会直接影响到训练质量和效率。而每一个分类训练任务以及要求的结果类型,对超参数的需求程度是不同的,所以并没有一个成熟的参数配置表,来满足本申请实施例个性化的需求。因此,本申请实施例在有限的GPU资源和有限的结果产出deadline(最后期限)限制下,对这几个超参数进行了超参数调优,以找到最佳的超参数组合。
在训练得到训练后的文本处理模型后,可以通过如下步骤260~步骤280将训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
260、获取待处理源文本以及待处理源文本的待处理翻译文本。
270、通过训练后的文本处理模型,对待处理源文本以及待处理翻译文本进行语义理解,确定目标语义理解结果,目标语义理解结果表征训练后的文本处理模型对待处理翻译文本进行翻译质量分类的目标翻译质量类别。
280、根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
例如,可以将待处理源文本以及相应的待处理翻译文本输入更新后的文本处理模型,更新后的文本处理模型尝试理解输入待处理源文本以及相应的待处理翻译文本的含义,并将这种语义信息转化为对待处理翻译文本的分类结果。以此,通过更新后的文本处理模型将待分类翻译文本分类到相应的翻译质量类别中,得到目标翻译质量类别,以实现对待处理翻译文本的翻译质量分类。比如,从工具的底层逻辑层面,用户可以向校对平台传入中文原文和英文翻译,以使校对平台调用训练后的文本处理模型进行校对任务,比如出现语法错误,训练后的文本处理模型会返回:该翻译得分0分,原因语法错误。并将待处理源文本作为训练后文本处理模型的输入,通过训练后文本处理模型进行翻译任务后,得到推荐的标准翻译译文。以此,校对平台可以返回“该翻译得分0分,原因语法错误,推荐翻译:XX”给用户。
本申请实施例中,获取第一源文本以及第一源文本正确翻译的翻译文本(即标准翻译文本)用于训练文本处理模型进行翻译任务的能力,以预先通过翻译任务使文本处理模型学习源语言的编译。若不预先通过翻译任务使文本处理模型学习源语言的编译,直接采用初始文本处理模型进行翻译质量分类训练,虽然初始文本处理模型可以结合正负样本文本识别除部分语法、符号等错误,但在语料错误识别时仍然会爆出相当多的冗余错误出来(冗余错误为本不是错误的信息)。由此,本申请实施例在预先通过翻译任务使文本处理模型学习源语言的编译的基础上,再将第二源文本、第二源文本翻译得到的需要校对的翻译文本(即待分类翻译文本)以及翻译质量类别用于训练文本处理模型进行校对任务的能力,以在文本处理模型已学习的特征学习和映射基础上,再基于校对任务对初始文本处理模型进行微调,使其适应校对任务,使其在校对任务中能有更好的表现和适应性。
在实际应用中,常要将游戏产品进行本地化,适应不同地区的需求,以实现游戏全球化业务。在游戏全球化业务中,翻译质量和效率是关键问题,本申请实施例的文本处理模型的训练方法可以通过构建不同语言的源文本以及相应的翻译文本,训练文本处理模型用于翻译质量分类,以减少采用人工进行二次校对所需的时间和成本,以加快翻译速度,使游戏产品更快进入不同市场,减少人力资源投入,使游戏全球化的过程更加经济高效。同时,确保游戏产品在不同语言版本应用中的质量和一致性,提升用户体验。
为了更好地实施以上方法,本申请实施例还提供一种文本处理模型的训练装置,该文本处理模型的训练装置具体可以集成在电子设备中,该电子设备可以为终端、服务器等设备。其中,终端可以为手机、平板电脑、智能蓝牙设备、笔记本电脑、个人电脑等设备;服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群。
比如,在本实施例中,将以文本处理模型的训练装置具体集成在服务器为例,对本申请实施例的方法进行详细说明。
例如,如图3所示,该文本处理模型的训练装置可以包括获取单元310、第一语义理解单元320、更新单元330、第二语义理解单元340以及训练单元350,如下:
(一)获取单元310
用于获取初始文本处理模型、第一样本文本以及第二样本文本,第一样本文本包括第一源文本以及第一源文本的标准翻译文本,第二样本文本包括第二源文本、第二源文本的待分类翻译文本以及待分类翻译文本的翻译质量类别。
在一些实施方式中,第二样本文本包括正样本文本以及负样本文本,该文本处理模型的训练装置还包括样本构造单元,样本构造单元包括第一样本构造子单元、第二样本构造子单元以及第三样本构造子单元,包括:第一样本构造子单元,用于获取待处理文本,待处理文本包括第二源文本以及第二源文本的待分类翻译文本;第二样本构造子单元,用于对待处理文本添加分类类别提示文本以及待分类翻译文本的翻译质量类别,得到添加后的样本文本,分类类别提示文本用于提示对待分类翻译文本进行翻译质量分类的类别;第三样本构造子单元,用于将翻译质量类别为正确翻译类别的添加后的样本文本作为正样本文本,以及将翻译质量类别为错误翻译类别的添加后的样本文本作为负样本文本。
在一些实施方式中,第二样本构造单元具体用于:获取文本内容标记,文本内容标记包括模型输入标记以及模型输出标记;针对任一待处理文本,将待处理文本以及分类类别提示文本添加在模型输入标记指示的文本位置,以及将待分类翻译文本的翻译质量类别添加在模型输出标记指示的文本位置,得到添加后的样本文本。
在一些实施方式中,第二样本构造单元还用于:当待处理文本对应负样本文本时,在模型输出标记指示的文本位置添加第二源文本的标准翻译文本。
在一些实施方式中,第一样本构造单元具体用于:获取正样本文本对应的候选数据集,候选数据集包括多个候选源文本以及候选源文本的候选翻译文本;对候选数据集中的候选源文本以及候选翻译文本进行去重处理,得到去重后的数据集;对去重后的数据集中的候选翻译文本进行语法校验;将语法校验通过的候选翻译文本以及相应的候选源文本作为正样本文本对应的待处理文本。
在一些实施方式中,第一样本构造单元具体用于:获取变换处理提示文本、正样本文本对应的待处理文本;基于变换处理提示文本,对正样本文本对应的待处理文本中的待分类翻译文本进行变换处理,以得到负样本文本对应的待分类翻译文本;将负样本文本对应的待分类翻译文本以及相应的第二源文本作为负样本文本对应的待处理文本。
在一些实施方式中,样本构造单元还包括第四样本构造单元,包括:
第四样本构造单元,用于根据分类类别提示文本,生成对应不同翻译质量类别的变换处理提示文本。
(二)第一语义理解单元320
用于通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果,第一语义理解结果表征第一源文本的语义表示对应的模型翻译文本。
在一些实施方式中,初始文本处理模型包括编码网络、注意力网络以及解码网络,第一语义理解单元包括第一编码单元、第一注意力单元以及第一解码单元,包括:第一编码单元,用于通过编码网络,对第一源文本进行编码处理,得到第一源文本的第一编码特征;第一注意力单元,用于通过注意力网络,对第一编码特征进行注意力处理,以根据第一编码特征中特征的注意力相关性计算得到第一语义特征;第一解码单元,用于通过解码网络,对第一语义特征进行解码处理,得到第一语义理解结果。
(三)更新单元330
用于根据模型翻译文本相对于第一源文本的标准翻译文本的翻译差异度,更新初始文本处理模型,得到更新后的文本处理模型。
在一些实施方式中,第一源文本包含目标场景的指定词,更新单元包括第一更新子单元、第二更新子单元以及第三更新子单元,包括:第一更新子单元,用于在模型翻译文本中检测指定翻译词,指定翻译词为指定词在第一源文本的标准翻译文本中的译文;第二更新子单元,用于当未检测到指定翻译词,更新初始文本处理模型,得到中间文本处理模型;第三更新子单元,用于将中间文本处理模型作为初始文本处理模型,返回执行步骤通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果以及后续步骤,直至在模型翻译文本中检测到指定翻译词,将中间文本处理模型作更新后的文本处理模型。
(四)第二语义理解单元340
用于通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果,第二语义理解结果表征更新后的文本处理模型对待分类翻译文本进行翻译质量分类的模型分类类别。
在一些实施方式中,更新后的文本处理模型包括更新后的编码网络、更新后的注意力网络以及更新后的解码网络,第二语义理解单元包括拼接单元,第二编码单元、第二注意力单元以及第二解码单元,包括:拼接单元,用于将第二源文本以及待分类翻译文本拼接得到待处理文本序列;第二编码单元,用于通过更新后的编码网络,对待处理文本序列进行编码处理,得到待处理文本序列的第二编码特征;第二注意力单元,用于通过更新后的注意力网络,对第二编码特征进行注意力处理,以根据第二编码特征中特征的注意力相关性计算得到第二语义特征;第二解码单元,用于通过更新后的解码网络,对第二语义特征进行解码处理,得到第二语义理解结果。
在一些实施方式中,翻译质量类别包括翻译质量分值以及翻译质量分值对应的翻译错误分析文本,第二编码单元具体用于:通过更新后的解码网络,对第二语义特征进行解码处理,确定待分类翻译文本的模型翻译质量分值;将待分类翻译文本的模型翻译质量分值以及模型翻译质量分值对应的翻译错误分析文本作为翻译质量分类的模型分类类别,以得到第二语义理解结果。
(五)训练单元350
用于根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
在一些实施方式中,该文本处理模型的训练装置还包括调参单元,调参单元包括第一调参子单元、第二调参子单元、第三调参子单元以及第四调参字单元,包括:第一调参子单元,用于根据用于翻译质量分类训练的计算资源,确定用于翻译质量分类训练的第二样本文本的样本数量;第二调参子单元,用于获取满足样本数量的调参用第二样本文本;第三调参子单元,用于基于调参用第二样本文本,对更新后的文本处理模型进行迭代次数调整和学习率调整,以确定最大迭代次数以及训练用学习率;第四调参子单元,用于将样本数量、最大迭代次数以及训练用学习率作为翻译质量分类训练的训练参数。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
由此,本申请实施例可以通过训练文本处理模型来逐步学习翻译质量分类(即校对任务),以使训练后的文本处理模型能够用于翻译质量分类,以减少采用人工进行二次校对所需的时间和成本,提高翻译效率。其中,本申请实施例中,将第一源文本以及第一源文本正确翻译的翻译文本(即标准翻译文本)用于训练文本处理模型进行翻译任务的能力,以预先通过翻译任务使文本处理模型学习源语言的编译。尤其是在翻译任务训练过程中,文本处理模型可以通过语义理解过程,进行不同文本之间的特征学习和映射。在此基础上,再将第二源文本、第二源文本翻译得到的需要校对的翻译文本(即待分类翻译文本)以及翻译质量类别用于训练文本处理模型进行校对任务的能力,以在文本处理模型已学习的特征学习和映射基础上,再基于校对任务对初始文本处理模型进行微调,使其适应校对任务,使其在校对任务中能有更好的表现和适应性。
本申请实施例还提供一种电子设备,该电子设备可以为终端、服务器等设备。其中,终端可以为手机、平板电脑、智能蓝牙设备、笔记本电脑、个人电脑,等等;服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群,等等。
在一些实施例中,该文本处理模型的训练方法装置还可以集成在多个电子设备中,比如,文本处理模型的训练方法装置可以集成在多个服务器中,由多个服务器来实现本申请的文本处理模型的训练方法。
在本实施例中,将以本实施例的电子设备是服务器为例进行详细描述,比如,如图4所示,其示出了本申请实施例所涉及的服务器的结构示意图,具体来讲:
该服务器可以包括一个或者一个以上处理核心的处理器410、一个或一个以上计算机可读存储介质的存储器420、电源430、输入模块440以及通信模块450等部件。本领域技术人员可以理解,图4中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器410是该服务器的控制中心,利用各种接口和线路连接整个服务器的各个部分,通过运行或执行存储在存储器420内的软件程序和/或模块,以及调用存储在存储器420内的数据,执行服务器的各种功能和处理数据。在一些实施例中,处理器410可包括一个或多个处理核心;在一些实施例中,处理器410可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作***、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器410中。
存储器420可用于存储软件程序以及模块,处理器410通过运行存储在存储器420的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器420可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作***、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器420还可以包括存储器控制器,以提供处理器410对存储器420的访问。
服务器还包括给各个部件供电的电源430,在一些实施例中,电源430可以通过电源管理***与处理器410逻辑相连,从而通过电源管理***实现管理充电、放电、以及功耗管理等功能。电源430还可以包括一个或一个以上的直流或交流电源、再充电***、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该服务器还可包括输入模块440,该输入模块440可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
该服务器还可包括通信模块450,在一些实施例中通信模块450可以包括无线模块,服务器可以通过该通信模块450的无线模块进行短距离无线传输,从而为用户提供了无线的宽带互联网访问。比如,该通信模块450可以用于帮助用户收发电子邮件、浏览网页和访问流式媒体等。
尽管未示出,服务器还可以包括显示单元等,在此不再赘述。具体在本实施例中,服务器中的处理器410会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器420中,并由处理器410来运行存储在存储器420中的应用程序,从而实现各种功能,如下:
获取初始文本处理模型、第一样本文本以及第二样本文本,第一样本文本包括第一源文本以及第一源文本的标准翻译文本,第二样本文本包括第二源文本、第二源文本的待分类翻译文本以及待分类翻译文本的翻译质量类别;通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果,第一语义理解结果表征第一源文本的语义表示对应的模型翻译文本;根据模型翻译文本相对于第一源文本的标准翻译文本的翻译差异度,更新初始文本处理模型,得到更新后的文本处理模型;通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果,第二语义理解结果表征更新后的文本处理模型对待分类翻译文本进行翻译质量分类的模型分类类别;根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
由上可知,本申请实施例可以通过训练文本处理模型来逐步学习翻译质量分类(即校对任务),以使训练后的文本处理模型能够用于翻译质量分类,以减少采用人工进行二次校对所需的时间和成本,提高翻译效率。其中,本申请实施例中,将第一源文本以及第一源文本正确翻译的翻译文本(即标准翻译文本)用于训练文本处理模型进行翻译任务的能力,以预先通过翻译任务使文本处理模型学习源语言的编译。尤其是在翻译任务训练过程中,文本处理模型可以通过语义理解过程,进行不同文本之间的特征学习和映射。在此基础上,再将第二源文本、第二源文本翻译得到的需要校对的翻译文本(即待分类翻译文本)以及翻译质量类别用于训练文本处理模型进行校对任务的能力,以在文本处理模型已学习的特征学习和映射基础上,再基于校对任务对初始文本处理模型进行微调,使其适应校对任务,使其在校对任务中能有更好的表现和适应性。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种计算机可读存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种文本处理模型的训练方法中的步骤。例如,该指令可以执行如下步骤:
获取初始文本处理模型、第一样本文本以及第二样本文本,第一样本文本包括第一源文本以及第一源文本的标准翻译文本,第二样本文本包括第二源文本、第二源文本的待分类翻译文本以及待分类翻译文本的翻译质量类别;通过初始文本处理模型,对第一源文本进行语义理解,确定第一语义理解结果,第一语义理解结果表征第一源文本的语义表示对应的模型翻译文本;根据模型翻译文本相对于第一源文本的标准翻译文本的翻译差异度,更新初始文本处理模型,得到更新后的文本处理模型;通过更新后的文本处理模型,对第二源文本以及待分类翻译文本进行语义理解,确定第二语义理解结果,第二语义理解结果表征更新后的文本处理模型对待分类翻译文本进行翻译质量分类的模型分类类别;根据模型分类类别以及待分类翻译文本的翻译质量类别,对更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,包括计算机程序或指令,该计算机程序或指令被处理器执行时实现上述实施例中提供的各种可选实现方式中提供的方法中的步骤。该计算机程序/指令存储在计算机可读存储介质中。电子设备的处理器从计算机可读存储介质读取该计算机程序/指令,处理器执行该计算机程序/指令,使得该电子设备执行上述实施例中提供的各种可选实现方式中提供的方法。
由于该存储介质中所存储的指令,可以执行本申请实施例所提供的任一种文本处理模型的训练方法中的步骤,因此,可以实现本申请实施例所提供的任一种文本处理模型的训练方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种文本处理模型的训练方法、装置、设备、介质和程序产品进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (16)

1.一种文本处理模型的训练方法,其特征在于,包括:
获取初始文本处理模型、第一样本文本以及第二样本文本,所述第一样本文本包括第一源文本以及所述第一源文本的标准翻译文本,所述第二样本文本包括第二源文本、所述第二源文本的待分类翻译文本以及所述待分类翻译文本的翻译质量类别;
通过所述初始文本处理模型,对所述第一源文本进行语义理解,确定第一语义理解结果,所述第一语义理解结果表征所述第一源文本的语义表示对应的模型翻译文本;
根据所述模型翻译文本相对于所述第一源文本的标准翻译文本的翻译差异度,更新所述初始文本处理模型,得到更新后的文本处理模型;
通过所述更新后的文本处理模型,对所述第二源文本以及所述待分类翻译文本进行语义理解,确定第二语义理解结果,所述第二语义理解结果表征所述更新后的文本处理模型对所述待分类翻译文本进行翻译质量分类的模型分类类别;
根据所述模型分类类别以及所述待分类翻译文本的翻译质量类别,对所述更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将所述训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
2.如权利要求1所述的文本处理模型的训练方法,其特征在于,所述第二样本文本包括正样本文本以及负样本文本,所述获取初始文本处理模型、第一样本文本以及第二样本文本之前,还包括:
获取待处理文本,所述待处理文本包括所述第二源文本以及所述第二源文本的待分类翻译文本;
对所述待处理文本添加分类类别提示文本以及所述待分类翻译文本的翻译质量类别,得到添加后的样本文本,所述分类类别提示文本用于提示对所述待分类翻译文本进行翻译质量分类的类别;
将所述翻译质量类别为正确翻译类别的所述添加后的样本文本作为所述正样本文本,以及将所述翻译质量类别为错误翻译类别的所述添加后的样本文本作为所述负样本文本。
3.如权利要求2所述的文本处理模型的训练方法,其特征在于,所述对所述待处理文本添加分类类别提示文本以及所述待分类翻译文本的翻译质量类别,得到添加后的样本文本,包括:
获取文本内容标记,所述文本内容标记包括模型输入标记以及模型输出标记;
针对任一所述待处理文本,将所述待处理文本以及所述分类类别提示文本添加在所述模型输入标记指示的文本位置,以及将所述待分类翻译文本的翻译质量类别添加在所述模型输出标记指示的文本位置,得到所述添加后的样本文本。
4.如权利要求3所述的文本处理模型的训练方法,其特征在于,所述对所述待处理文本添加分类类别提示文本以及所述待分类翻译文本的翻译质量类别,得到添加后的样本文本,还包括:
当所述待处理文本对应所述负样本文本时,在所述模型输出标记指示的文本位置添加所述第二源文本的标准翻译文本。
5.如权利要求2所述的文本处理模型的训练方法,其特征在于,所述获取待处理文本,包括:
获取所述正样本文本对应的候选数据集,所述候选数据集包括多个候选源文本以及所述候选源文本的候选翻译文本;
对所述候选数据集中的所述候选源文本以及所述候选翻译文本进行去重处理,得到去重后的数据集;
对所述去重后的数据集中的所述候选翻译文本进行语法校验;
将语法校验通过的所述候选翻译文本以及相应的所述候选源文本作为所述正样本文本对应的所述待处理文本。
6.如权利要求2所述的文本处理模型的训练方法,其特征在于,所述获取待处理文本,包括:
获取变换处理提示文本、所述正样本文本对应的所述待处理文本;
基于所述变换处理提示文本,对所述正样本文本对应的所述待处理文本中的所述待分类翻译文本进行变换处理,以得到所述负样本文本对应的所述待分类翻译文本;
将所述负样本文本对应的所述待分类翻译文本以及相应的所述第二源文本作为所述负样本文本对应的所述待处理文本。
7.如权利要求6所述的文本处理模型的训练方法,其特征在于,所述获取变换处理提示文本、所述正样本文本对应的所述待处理文本之前,还包括:
根据所述分类类别提示文本,生成对应不同所述翻译质量类别的所述变换处理提示文本。
8.如权利要求1所述的文本处理模型的训练方法,其特征在于,所述初始文本处理模型包括编码网络、注意力网络以及解码网络,所述通过所述初始文本处理模型,对所述第一源文本进行语义理解,确定第一语义理解结果,包括:
通过所述编码网络,对所述第一源文本进行编码处理,得到所述第一源文本的第一编码特征;
通过所述注意力网络,对所述第一编码特征进行注意力处理,以根据所述第一编码特征中特征的注意力相关性计算得到第一语义特征;
通过所述解码网络,对所述第一语义特征进行解码处理,得到第一语义理解结果。
9.如权利要求1所述的文本处理模型的训练方法,其特征在于,所述第一源文本包含目标场景的指定词,所述根据所述模型翻译文本相对于所述第一源文本的标准翻译文本的翻译差异度,更新所述初始文本处理模型,得到更新后的文本处理模型,包括:
在所述模型翻译文本中检测指定翻译词,所述指定翻译词为所述指定词在所述第一源文本的标准翻译文本中的译文;
当未检测到所述指定翻译词,更新所述初始文本处理模型,得到中间文本处理模型;
将所述中间文本处理模型作为所述初始文本处理模型,返回执行步骤通过所述初始文本处理模型,对所述第一源文本进行语义理解,确定第一语义理解结果以及后续步骤,直至在所述模型翻译文本中检测到所述指定翻译词,将所述中间文本处理模型作所述更新后的文本处理模型。
10.如权利要求1所述的文本处理模型的训练方法,其特征在于,所述更新后的文本处理模型包括更新后的编码网络、更新后的注意力网络以及更新后的解码网络,所述通过所述更新后的文本处理模型,对所述第二源文本以及所述待分类翻译文本进行语义理解,确定第二语义理解结果,包括:
将所述第二源文本以及所述待分类翻译文本拼接得到待处理文本序列;
通过所述更新后的编码网络,对所述待处理文本序列进行编码处理,得到所述待处理文本序列的第二编码特征;
通过所述更新后的注意力网络,对所述第二编码特征进行注意力处理,以根据所述第二编码特征中特征的注意力相关性计算得到第二语义特征;
通过所述更新后的解码网络,对所述第二语义特征进行解码处理,得到第二语义理解结果。
11.如权利要求10所述的文本处理模型的训练方法,其特征在于,所述翻译质量类别包括翻译质量分值以及所述翻译质量分值对应的翻译错误分析文本,所述通过所述更新后的解码网络,对所述第二语义特征进行解码处理,得到第二语义理解结果,包括:
通过所述更新后的解码网络,对所述第二语义特征进行解码处理,确定所述待分类翻译文本的模型翻译质量分值;
将所述待分类翻译文本的模型翻译质量分值以及所述模型翻译质量分值对应的翻译错误分析文本作为所述翻译质量分类的模型分类类别,以得到所述第二语义理解结果。
12.如权利要求1~11任一项所述的文本处理模型的训练方法,其特征在于,所述方法,还包括:
根据用于所述翻译质量分类训练的计算资源,确定用于所述翻译质量分类训练的所述第二样本文本的样本数量;
获取满足所述样本数量的调参用第二样本文本;
基于所述调参用第二样本文本,对所述更新后的文本处理模型进行迭代次数调整和学习率调整,以确定最大迭代次数以及训练用学习率;
将所述样本数量、所述最大迭代次数以及所述训练用学习率作为所述翻译质量分类训练的训练参数。
13.一种文本处理模型的训练装置,其特征在于,包括:
获取单元,用于获取初始文本处理模型、第一样本文本以及第二样本文本,所述第一样本文本包括第一源文本以及所述第一源文本的标准翻译文本,所述第二样本文本包括第二源文本、所述第二源文本的待分类翻译文本以及所述待分类翻译文本的翻译质量类别;
第一语义理解单元,用于通过所述初始文本处理模型,对所述第一源文本进行语义理解,确定第一语义理解结果,所述第一语义理解结果表征所述第一源文本的语义表示对应的模型翻译文本;
更新单元,用于根据所述模型翻译文本相对于所述第一源文本的标准翻译文本的翻译差异度,更新所述初始文本处理模型,得到更新后的文本处理模型;
第二语义理解单元,用于通过所述更新后的文本处理模型,对所述第二源文本以及所述待分类翻译文本进行语义理解,确定第二语义理解结果,所述第二语义理解结果表征所述更新后的文本处理模型对所述待分类翻译文本进行翻译质量分类的模型分类类别;
训练单元,用于根据所述模型分类类别以及所述待分类翻译文本的翻译质量类别,对所述更新后的文本处理模型进行翻译质量分类训练,得到训练后的文本处理模型,以将所述训练后的文本处理模型用于确定待处理翻译文本的目标翻译质量类别。
14.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行如权利要求1~12任一项所述的文本处理模型的训练方法中的步骤。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1~12任一项所述的文本处理模型的训练方法中的步骤。
16.一种计算机程序产品,包括计算机程序或指令,其特征在于,所述计算机程序或指令被处理器执行时实现权利要求1~12任一项所述的文本处理模型的训练方法中的步骤。
CN202410364478.6A 2024-03-28 2024-03-28 文本处理模型的训练方法、装置、设备、介质和程序产品 Active CN117972434B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410364478.6A CN117972434B (zh) 2024-03-28 2024-03-28 文本处理模型的训练方法、装置、设备、介质和程序产品

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410364478.6A CN117972434B (zh) 2024-03-28 2024-03-28 文本处理模型的训练方法、装置、设备、介质和程序产品

Publications (2)

Publication Number Publication Date
CN117972434A CN117972434A (zh) 2024-05-03
CN117972434B true CN117972434B (zh) 2024-06-11

Family

ID=90863312

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410364478.6A Active CN117972434B (zh) 2024-03-28 2024-03-28 文本处理模型的训练方法、装置、设备、介质和程序产品

Country Status (1)

Country Link
CN (1) CN117972434B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263349A (zh) * 2019-03-08 2019-09-20 腾讯科技(深圳)有限公司 语料评估模型训练方法、装置、存储介质和计算机设备
US11551013B1 (en) * 2020-03-02 2023-01-10 Amazon Technologies, Inc. Automated quality assessment of translations
CN116306703A (zh) * 2023-04-12 2023-06-23 厦门大学 一种基于领域分类的反向翻译数据构建及训练方法
CN117252217A (zh) * 2023-09-22 2023-12-19 腾讯科技(深圳)有限公司 一种翻译文本的校验方法和相关装置
CN117291193A (zh) * 2022-06-14 2023-12-26 北京三星通信技术研究有限公司 机器翻译方法、设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110263349A (zh) * 2019-03-08 2019-09-20 腾讯科技(深圳)有限公司 语料评估模型训练方法、装置、存储介质和计算机设备
US11551013B1 (en) * 2020-03-02 2023-01-10 Amazon Technologies, Inc. Automated quality assessment of translations
CN117291193A (zh) * 2022-06-14 2023-12-26 北京三星通信技术研究有限公司 机器翻译方法、设备及存储介质
CN116306703A (zh) * 2023-04-12 2023-06-23 厦门大学 一种基于领域分类的反向翻译数据构建及训练方法
CN117252217A (zh) * 2023-09-22 2023-12-19 腾讯科技(深圳)有限公司 一种翻译文本的校验方法和相关装置

Also Published As

Publication number Publication date
CN117972434A (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
CN107798140B (zh) 一种对话***构建方法、语义受控应答方法及装置
CN112989796B (zh) 一种基于句法指导的文本命名实体信息识别方法
CN112214593A (zh) 问答处理方法、装置、电子设备及存储介质
CN109857846B (zh) 用户问句与知识点的匹配方法和装置
CN113254604B (zh) 一种基于参考规范的专业文本生成方法及装置
Patil et al. Visual question generation: The state of the art
CN114528898A (zh) 基于自然语言命令的场景图修改
CN113705196A (zh) 基于图神经网络的中文开放信息抽取方法和装置
CN115964459B (zh) 基于食品安全认知图谱的多跳推理问答方法及***
CN117648429B (zh) 基于多模态自适应检索式增强大模型的问答方法及***
CN116882450B (zh) 问答模型的编辑方法、装置、电子设备和存储介质
CN114036246A (zh) 商品图谱向量化方法、装置、电子设备及存储介质
CN116974626B (zh) 分析序列图生成方法、装置、设备和计算机可读存储介质
CN113705207A (zh) 语法错误识别方法及装置
CN114372454A (zh) 文本信息抽取方法、模型训练方法、装置及存储介质
CN117437317A (zh) 图像生成方法、装置、电子设备、存储介质和程序产品
CN110413737B (zh) 一种同义词的确定方法、装置、服务器及可读存储介质
CN117972434B (zh) 文本处理模型的训练方法、装置、设备、介质和程序产品
CN111144134A (zh) 基于OpenKiWi的翻译引擎自动化评测***
CN116258147A (zh) 一种基于异构图卷积的多模态评论情感分析方法及***
Alberola et al. Artificial Vision and Language Processing for Robotics: Create end-to-end systems that can power robots with artificial vision and deep learning techniques
CN115238705A (zh) 语义解析结果重排序方法及***
Li et al. Seq-CNN: A lightweight and efficient neural network for sentimental analysis of text
CN110909142B (zh) 一种问答模型的问题语句处理方法、装置、电子设备及存储介质
CN110929265B (zh) 一种面向阅读理解问答的多角度答案验证方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant