CN116186607A - 一种模型的处理方法、装置及设备 - Google Patents

一种模型的处理方法、装置及设备 Download PDF

Info

Publication number
CN116186607A
CN116186607A CN202310189374.1A CN202310189374A CN116186607A CN 116186607 A CN116186607 A CN 116186607A CN 202310189374 A CN202310189374 A CN 202310189374A CN 116186607 A CN116186607 A CN 116186607A
Authority
CN
China
Prior art keywords
text information
information
model
loss
output result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310189374.1A
Other languages
English (en)
Inventor
刘丹丹
陈跃鹤
舒慧珍
曾庆瑜
黄超敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alipay Hangzhou Information Technology Co Ltd
Original Assignee
Alipay Hangzhou Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alipay Hangzhou Information Technology Co Ltd filed Critical Alipay Hangzhou Information Technology Co Ltd
Priority to CN202310189374.1A priority Critical patent/CN116186607A/zh
Publication of CN116186607A publication Critical patent/CN116186607A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本说明书实施例公开了一种模型的处理方法、装置及设备,该方法包括:获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息,基于第一损失信息和第二损失信息,对目标模型进行优化训练。

Description

一种模型的处理方法、装置及设备
技术领域
本文件涉及计算机技术领域,尤其涉及一种模型的处理方法、装置及设备。
背景技术
在某些返款和企业充值失败等风险业务场景中,通常需要借助多方提供的信息一致性来对指定的账户进行快速初审,从而提高审理效率或降低解限的服务时长。例如在企业客户充值失败场景中,为优化被企业入金失败用户的体验,检测现有管控账户,并希望借助提供的信息一致性来减少用户申诉工单中从账户处置到最终解限的服务时长,为此,需要提供一种文本一致性增强方案,从而可以显著地提高通过信息一致性来对有风险用户的识别效率和准确率。
发明内容
本说明书实施例的目的是提供一种文本一致性增强方案,从而可以显著地提高通过信息一致性来对有风险用户的识别效率和准确率。
为了实现上述技术方案,本说明书实施例是这样实现的:
本说明书实施例提供的一种模型的处理方法,所述方法包括:获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息。将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息。对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息。基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例提供的一种模型的处理装置,所述装置包括:信息处理模块,获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息。第一损失确定模块,将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息。第二损失确定模块,对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息。优化训练模块,基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例提供的一种模型的处理设备,所述模型的处理设备包括:处理器;以及被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息。将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息。对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息。基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例还提供了一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被处理器执行时实现以下流程:获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息。将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息。对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息。基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一种模型的处理方法实施例;
图2为本说明书另一种模型的处理方法实施例;
图3为本说明书又一种模型的处理方法实施例;
图4为本说明书一种模型的处理过程的示意图;
图5为本说明书一种模型的处理装置实施例;
图6为本说明书一种模型的处理设备实施例。
具体实施方式
本说明书实施例提供一种模型的处理方法、装置及设备。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
实施例一
如图1所示,本说明书实施例提供一种模型的处理方法,该方法的执行主体可以为终端设备或服务器,其中,该终端设备可以如手机、平板电脑等一定终端设备,还可以如笔记本电脑或台式电脑等计算机设备,或者,也可以为IoT设备(具体如智能手表、车载设备等)等。该服务器可以是独立的一个服务器,还可以是由多个服务器构成的服务器集群等,该服务器可以是如金融业务或网络购物业务等的后台服务器,也可以是某应用程序的后台服务器等。本实施例中以服务器为例进行详细说明,对于终端设备的执行过程可以参见下述相关内容,在此不再赘述。该方法具体可以包括以下步骤:
在步骤S102中,获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,得到拼接后的历史文本信息。
其中,多方可以是多个不同的用户,也可以是多个不同的组织或群体,还可以是由用户和组织通过组合构成等,具体可以根据实际情况设定,本说明书实施例对此不做限定。目标业务场景可以包括多种,例如某用户执行某项业务(如充值业务、退款业务等)的过程中检测到存在指定风险(如欺诈风险或指定的金融类风险等)的场景,或者,可以是对某用户的账户进行解限或进行风险审理等业务场景等,具体可以根据实际情况设定,本说明书实施例对此不做限定。历史文本信息可以是用于对某用户的账户进行风险审理或对该账户进行解限所需的文本信息。
在实施中,在某些返款和企业充值失败等风险业务场景中,通常需要借助多方提供的信息一致性来对指定的账户进行快速初审,从而提高审理效率或降低解限的服务时长。例如在企业客户充值失败场景中,为优化被企业入金失败用户的体验,检测现有管控账户,并希望借助提供的信息一致性来减少用户申诉工单中从账户处置到最终解限的服务时长,为此,需要提供一种文本一致性增强方案,从而可以显著地提高通过信息一致性来对有风险用户的识别效率和准确率。本说明书实施例提供一种可实现的处理方式,具体可以包括以下内容:
当需要对某用户的账户进行风险审理或者对该账户进行解限时,可以向该用户的账户存在关联关系的账户发送提供文本描述信息的通知消息,其中的关联关系可以包括多种,例如好友关系、卖方与买方的关系、信息交互频繁(单位时间内的交互数量超过预设阈值、交互频率高于预设频率阈值等),具体可以根据实际情况设定,本说明书实施例对此不做限定。上述账户可以根据实际情况提供相应的文本信息,并可以将提供的文本信息提供给审理***或解限***,为了后续能够对其中设定的模型进行模型训练,可以存储上述多方提供的文本信息。当需要对目标模型进行模型训练时,可以从指定的存储区域中获取对方针对目标业务场景提供的历史文本信息。然后,可以拼接上述历史文本信息,得到拼接后的历史文本信息,这样,可以有利于模型学习不同文本之间全局的相似性。
在步骤S104中,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息。
其中,目标模型可以是用于进行自然语言处理的模型,目标模型可以包括多种,例如,目标模型可以由word2vec(word to vector)模型构建,或者,目标模型可以由ESIM(Enhanced Sequential Inference Model,增强的顺序推理模型)构建,或者,目标模型可以由Sentence-BERT模型构建等,具体可以根据实际情况设定,本说明书实施例对此不做限定。第一损失函数可以包括多种,例如,第一损失函数可以为交叉熵损失函数、KL散度、Focal Loss焦点损失函数等,具体可以根据实际情况设定,本说明书实施例对此不做限定。
在实施中,通过上述方式得到拼接后的历史文本信息后,可以通过目标模型对拼接后的历史文本信息进行预测,具体地,可以将拼接后的历史文本信息输入到目标模型中,通过目标模型对拼接后的历史文本信息进行编码或转换等处理,从而将拼接后的历史文本信息转换为指定的字符,具体如可以将拼接后的历史文本信息转换为向量或矩阵等,然后,可以基于转换后的向量或矩阵等计算不同的历史文本信息之间的相似度,或者,可以通过分类算法(如KNN算法、决策树算法等)进行计算,得到不同的历史文本信息之间的全局一致性,最终,可以输出多方的历史文本信息是否语义一致的第一输出结果。之后,可以将第一输出结果与预先标记的多方的历史文本信息是否语义一致的信息(可以是标签)进行对比,通过预设的第一损失函数,计算得到第一输出结果对应的第一损失信息。
在步骤S106中,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息。
其中,指定字符可以是设定的某一种或多种不同类型的字符,例如,指定字符可以是预先设定的重要性较高的字符、同义词、主题词等,具体可以根据实际情况设定。辅助模型可以是用于进行自然语言处理的模型,辅助模型可以包括多种,辅助模型的模型结构可以与目标模型的模型结构相同,也可以是与目标模型的模型结构不同,例如,目标模型可以由BERT模型构建,辅助模型也可以由BERT模型构建,或者,目标模型可以由BERT模型构建,辅助模型可以由不同于BERT模型、却与BERT模型类似的其它模型(如SimCSE模型、ESIM模型等)构建,目标模型中包含的某些网络层可以与辅助模型中包含的相同网络层进行共享,例如,目标模型中包括池化层,辅助模型中也包括池化层,则上述两个模型中的池化层的模型参数可以进行共享,相应的,如果两者共同拥有其它网络层,则该两个网络层的模型参数也可以进行共享,而在实际应用中,目标模型和辅助模型中包含的相同的网络层也可以不需要进行共享,具体可以根据实际情况设定,本说明书实施例对此不做限定。第二损失函数可以包括多种,可以与第一损失函数属于相同类型,也可以是与第一损失函数分别属于不同的类型,例如,第一损失函数可以为交叉熵损失函数,第二损失函数也可以是交叉熵损失函数,或者,第一损失函数可以为交叉熵损失函数,第二损失函数可以是KL散度或Focal Loss焦点损失函数等,或者,第一损失函数可以为Focal Loss焦点损失函数,第二损失函数可以是KL散度或交叉熵损失函数等,具体可以根据实际情况设定,本说明书实施例对此不做限定。
在实施中,通过上述方式得到拼接后的历史文本信息后,可以对拼接后的历史文本信息进行预处理,即可以根据实际情况预测需要被掩盖的字符(即指定字符),然后,可以使用特殊标签[MASK]掩盖掉拼接后的历史文本信息中包含的指定字符,从而将拼接后的历史文本信息中的指定字符掩盖,以便后续重新生成新的语句,进而进行后续的结果预测。通过上述的掩盖处理得到相应的掩盖后的文本信息后,可以预先设定一个或多个不同的辅助模型,之后,可以通过每个辅助模型对掩盖后的文本信息进行预测,具体地,可以将掩盖后的文本信息分别输入到每个辅助模型中,通过每个辅助模型对掩盖后的文本信息进行编码或转换等处理,从而将掩盖后的文本信息重新生成新的语句,并将该语句转换为指定的字符,具体如可以将该语句转换为向量或矩阵等,可以基于转换后的向量或矩阵等计算不同的历史文本信息之间的相似度,或者,可以通过分类算法(如KNN算法、决策树算法等)进行计算,得到不同的历史文本信息之间的全局一致性,最终,每个辅助模型可以输出多方的历史文本信息是否语义一致的第二输出结果。之后,可以将第二输出结果与预先标记的多方的历史文本信息是否语义一致的信息(可以是标签)进行对比,通过预设的第二损失函数,计算得到第二输出结果对应的第二损失信息。
需要说明的是,上述处理方式仅是其中的一种可实现的处理方式,在实际应用中,可以是全部的辅助模型的输入数据均为掩盖后的文本信息,也可以是其中的部分辅助模型的输入数据为掩盖后的文本信息,剩余的辅助模型的输入数据为拼接后的历史文本信息,还可以是全部的辅助模型的输入数据均为拼接后的历史文本信息等,具体可以根据实际情况设定。另外,上述步骤S104和步骤S106的处理顺序可以是先执行步骤S104,之后执行步骤S106,也可以是先执行步骤S106,之后执行步骤S104,还可以是步骤S104和步骤S106同时执行,具体可以根据实际情况设定,本说明书实施例对此不做限定。
在步骤S108中,基于第一损失信息和第二损失信息,对目标模型进行优化训练,得到优化训练后的目标模型。
在实施中,可以基于第一损失信息对目标模型的模型参数进行初步计算,得到初始的模型参数,然后,可以参考第二损失信息对初始的模型参数进行优化处理,得到优化后的模型参数,然后,通过大量的历史文本信息对上述模型进行优化训练,直到各个模型收敛,最终,可以完成对目标模型进行优化训练,得到优化训练后的目标模型。
可以将优化训练后的目标模型部署于相应的业务中,通过优化训练后的目标模型可以进行多方信息一致性识别,进而可以加强对用户申诉的审理解限时长,同时帮助对其他风险领域中的风险账户的判别提供支持。
本说明书实施例提供一种模型的处理方法,通过获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息,基于第一损失信息和第二损失信息,对目标模型进行优化训练,以便后续可以基于优化训练后的目标模型进行多方信息一致性识别,这样,提出了一种基于多任务学习的文本一致性增强方案,即通过结合文本信息中的指定字符(如重要词、相似词等),在基于目标模型的文本分类基础上,还通过加入辅助模型使得模型去预测输入的文本信息中相似但被掩盖的文本信息,并且让模型进一步学习对预测后的语句的语义,然后再进行分类,从而达到文本的一致性信息增强的目的,并且通过上述方式可以显著地提高目标模型的对存在指定风险用户的识别效率和准确率。
实施例二
如图2所示,本说明书实施例提供一种模型的处理方法,该方法的执行主体可以为终端设备或服务器,其中,该终端设备可以如手机、平板电脑等一定终端设备,还可以如笔记本电脑或台式电脑等计算机设备,或者,也可以为IoT设备(具体如智能手表、车载设备等)等。该服务器可以是独立的一个服务器,还可以是由多个服务器构成的服务器集群等,该服务器可以是如金融业务或网络购物业务等的后台服务器,也可以是某应用程序的后台服务器等。本实施例中以服务器为例进行详细说明,对于终端设备的执行过程可以参见下述相关内容,在此不再赘述。该方法具体可以包括以下步骤:
在步骤S202中,获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,得到拼接后的历史文本信息。
其中,目标业务场景可以为目标用户执行目标业务的过程中检测到存在指定风险的场景,其中的目标用户可以是任意用户,目标业务可以包括多种,例如充值业务、退款业务等,指定风险可以包括多种,例如欺诈风险或指定的金融类风险等,具体可以根据实际情况设定,本说明书实施例对此不做限定。目标业务场景也可以是对某用户的账户进行解限或进行风险审理等业务场景等,具体可以根据实际情况设定,本说明书实施例对此不做限定。
在步骤S204中,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息。
其中,目标模型可以为基于孪生网络的文本匹配模型或基于单任务的文本分类模型,例如,目标模型可以由word2vec模型、BIMLM模型、ESIM模型或Sentence-BERT模型构建,也可以由BERTForSequenceClassification模型、语义聚类模型或SimCSE模型构建,具体可以根据实际情况设定。
在步骤S206中,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息。
其中,辅助模型与目标模型之间可以存在共享的模型参数,具体可以如上述实施例一中的相关内容,在此不再赘述。
在步骤S208中,计算第一损失信息和第二损失信息的平均损失信息。
在步骤S210中,基于平均损失信息对目标模型进行优化训练,得到优化训练后的目标模型。
通过上述步骤S202~步骤S210的处理,可以得到优化训练后的目标模型,然后,可以将优化训练后的目标模型部署到相应的业务中,具体处理可以参见下述步骤S212~步骤S218的处理。
在步骤S212中,获取多方针对目标业务场景提供的第一文本信息。
在步骤S214中,将多方的第一文本信息进行拼接,得到拼接后的第一文本信息。
在步骤S216中,将拼接后的第一文本信息输入到优化训练后的目标模型中,得到多方的第一文本信息是否语义一致的输出结果。
在步骤S218中,如果上述输出结果指示多方的第一文本信息的语义一致,则执行目标业务场景对应的业务处理。
针对上述目标业务场景为对目标用户的账户进行解限的场景,上述步骤S218的处理可以为如果该输出结果指示多方的第一文本信息的语义一致,则对目标用户的账户进行解限处理,这样,通过优化训练后的目标模型可以进行多方信息一致性识别,进而可以加强对用户申诉的审理解限时长。
本说明书实施例提供一种模型的处理方法,通过获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息,基于第一损失信息和第二损失信息,对目标模型进行优化训练,以便后续可以基于优化训练后的目标模型进行多方信息一致性识别,这样,提出了一种基于多任务学习的文本一致性增强方案,即通过结合文本信息中的指定字符(如重要词、相似词等),在基于目标模型的文本分类基础上,还通过加入辅助模型使得模型去预测输入的文本信息中相似但被掩盖的文本信息,并且让模型进一步学习对预测后的语句的语义,然后再进行分类,从而达到文本的一致性信息增强的目的,并且通过上述方式可以显著地提高目标模型的对存在指定风险用户的识别效率和准确率。
实施例三
以下通过一个详细的示例对上述实施例提供的一种模型的处理方法进行说明,其中,目标模型可以为BERT模型,多个辅助模型包括第一辅助模型和第二辅助模型,如图3所示,该方法的执行主体可以为终端设备或服务器,其中,该终端设备可以如手机、平板电脑等一定终端设备,还可以如笔记本电脑或台式电脑等计算机设备,或者,也可以为IoT设备(具体如智能手表、车载设备等)等。该服务器可以是独立的一个服务器,还可以是由多个服务器构成的服务器集群等,该服务器可以是如金融业务或网络购物业务等的后台服务器,也可以是某应用程序的后台服务器等。本实施例中以服务器为例进行详细说明,对于终端设备的执行过程可以参见下述相关内容,在此不再赘述。该方法具体可以包括以下步骤:
在步骤S302中,获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,得到拼接后的历史文本信息。
其中,目标业务场景可以为目标用户执行目标业务的过程中检测到存在指定风险的场景,目标业务场景也可以是对某用户的账户进行解限或进行风险审理等业务场景等,具体可以根据实际情况设定,本说明书实施例对此不做限定。
在实施中,目标用户在执行目标业务的过程中,如果检测到其中存在指定风险,则服务器可以将目标用户的账户的某些权限(如支付权限、转账权限、收款权限等)进行限制,当目标用户需要使用被限制的某权限时,可以进行申诉处理,目标用户向服务器提交相应的审理或解限请求后,服务器可以获取多方针对目标业务场景提供的文本信息,并可以通过目标模型对上述多个文本信息的一致性进行识别,以便对目标用户的账户进行解限处理,其中,对于目标模型,可以通过上述服务器预先进行模型训练后得到,为此,可以通过多种不同的方式收集多方针对目标业务场景提供的历史文本信息,例如可以通过购买的方式购买目标用户,以及相应的多方提供的相关信息,或者,可以通过自愿参与测试的方式从目标用户,以及相应的多方收集相关信息等,具体可以根据实际情况设定,本说明书实施例对此不做限定。当需要对目标模型进行优化训练时,服务器可以从上述预先收集的数据中获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,得到拼接后的历史文本信息。
在步骤S304中,将拼接后的历史文本信息输入到BERT模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息。
其中,BERT模型(即目标模型)可以包括BERT编码器、池化层和第一分类器,BERT模型是以Transformer块为基础的,BERT模型可以包括BERT编码器,BERT编码器可以用于对文本信息进行编码处理,从而将文本信息转换为计算机能够处理的数据,具体处理可以根据BERT模型的文本信息处理方式执行,在此不再赘述。第一分类器可以包括多种,例如第一分类器可以是二分类器,或者,第一分类器也可以是多分类器,具体可以根据实际情况设定,本实施例中,第一分类器以二分类器为例进行说明。
在实施中,如图4所示,可以包括三种不同的数据流,分别表示三种不同的处理方式,分别可以为CLS处理方式、MCLS处理方式和MLM处理方式,其中,CLS处理方式表示通过目标模型(即BERT模型)对拼接后的历史文本信息进行处理的过程,具体地,可以将拼接后的历史文本信息输入到BERT模型中,BERT模型的中的BERT编码器对拼接后的历史文本信息进行编码处理后,得到编码信息(图4中以[CLS]表示),然后,将编码信息输入到池化层进行处理,得到池化后的信息,再将池化后的信息通过二分类器Collision Classifier进行分类,得到多方的历史文本信息是否语义一致的第一输出结果。之后,再基于预设的第一损失函数,确定第一输出结果对应的第一损失信息,即图4中的Loss_CLS。
在步骤S306中,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将掩盖后的文本信息分别输入到第一辅助模型和第二辅助模型中,分别得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息。
其中,辅助模型与目标模型之间可以存在共享的模型参数,具体可以如上述实施例一中的相关内容,在此不再赘述。第一辅助模型包括上述BERT编码器、解码器、上述池化层和上述第一分类器,第二辅助模型包括上述BERT编码器、上述解码器和第二分类器。第一分类器与第二分类器相同或第一分类器与第二分类器不同,如果第一分类器与第二分类器不同,第一分类器可以为二分类器,第二分类器可以为多分类器,或者,第二分类器可以为二分类器,第一分类器可以为多分类器,具体可以根据实际情况设定,本实施例中,第二分类器以多分类器为例进行说明。
在实施中,如图4所示,其中的MCLS处理方式表示通过第一辅助模型对掩盖后的文本信息进行处理的过程,MLM处理方式表示通过第二辅助模型对掩盖后的文本信息进行处理的过程,其中,CLS处理方式、MCLS处理方式和MLM处理方式均共享BERT编码器的模型参数,此外,CLS处理方式与MCLS处理方式还共享池化层的模型参数和二分类器的模型参数,MCLS处理方式与MLM处理方式还共享预测和解码器BertOnlyMLMHead的模型参数。具体地,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,可以将掩盖后的文本信息输入到第一辅助模型中,第一辅助模型的中的BERT编码器对掩盖后的文本信息重新生成新的语句后进行编码处理后,得到编码信息(图4中以LastHiddenStates表示),然后,将编码信息输入到预测和解码器BertOnlyMLMHead中,得到相应的解码信息(图4中以HiddenStates表示),再将该解码信息输入到池化层进行处理,得到池化后的信息,再将池化后的信息通过二分类器Collision Classifier进行分类,得到多方的历史文本信息是否语义一致的第一输出结果。之后,再基于第一辅助模型对应的预设的第二损失函数,确定相应的第二损失信息,即图4中的Loss_MCLS。
可以将掩盖后的文本信息输入到第二辅助模型中,第二辅助模型的中的BERT编码器对掩盖后的文本信息重新生成新的语句后进行编码处理后,得到编码信息(图4中以LastHiddenStates表示),然后,将编码信息输入到预测和解码器BertOnlyMLMHead(本实施例中统称为解码器)中,得到相应的解码信息(图4中以HiddenStates表示),再将该解码信息通过多分类器Word Classifier进行分类,得到多方的历史文本信息是否语义一致的第二输出结果。之后,再基于第二辅助模型对应的预设的第二损失函数,确定相应的第二损失信息,即图4中的Loss_MLM。
需要说明的是,上述重新生成的新的语句也应当具有与拼接后的历史文本信息中的语句一致的语义,因此,通过第一辅助模型对掩盖后的文本信息进行处理的过程中,对掩盖后的文本信息重新生成的新的语句通过特征池化处理后得到相应的语句表征,再将其进行一致性分类处理。
在步骤S308中,计算第一损失信息和第二损失信息的平均损失信息。
在实施中,计算Loss_CLS、Loss_MCLS和Loss_MLM三个损失信息的平均值,得到平均损失信息。
在步骤S310中,基于平均损失信息对BERT模型进行优化训练,得到优化训练后的BERT模型。
通过上述步骤S302~步骤S310的处理,可以得到优化训练后的BERT模型(即目标模型),然后,可以将优化训练后的BERT模型部署到相应的业务中,具体处理可以参见下述步骤S312~步骤S318的处理。
在步骤S312中,获取多方针对目标业务场景提供的第一文本信息。
在步骤S314中,将多方的第一文本信息进行拼接,得到拼接后的第一文本信息。
在步骤S316中,将拼接后的第一文本信息输入到优化训练后的BERT模型中,得到多方的第一文本信息是否语义一致的输出结果。
在步骤S318中,如果输出结果指示多方的第一文本信息的语义一致,则对目标用户的账户进行解限处理。
本说明书实施例提供一种模型的处理方法,通过获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息,基于第一损失信息和第二损失信息,对目标模型进行优化训练,以便后续可以基于优化训练后的目标模型进行多方信息一致性识别,这样,提出了一种基于多任务学习的文本一致性增强方案,即通过结合文本信息中的指定字符(如重要词、相似词等),在基于目标模型的文本分类基础上,还通过加入辅助模型使得模型去预测输入的文本信息中相似但被掩盖的文本信息,并且让模型进一步学习对预测后的语句的语义,然后再进行分类,从而达到文本的一致性信息增强的目的,并且通过上述方式可以显著地提高目标模型的对存在指定风险用户的识别效率和准确率。
实施例四
以上为本说明书实施例提供的模型的处理方法,基于同样的思路,本说明书实施例还提供一种模型的处理装置,如图5所示。
该模型的处理装置包括:信息处理模块501、第一损失确定模块502、第二损失确定模块503和优化训练模块503,其中:
信息处理模块501,获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息;
第一损失确定模块502,将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息;
第二损失确定模块503,对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息;
优化训练模块504,基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例中,所述目标模型为基于孪生网络的文本匹配模型或基于单任务的文本分类模型,所述辅助模型与所述目标模型存在共享的模型参数。
本说明书实施例中,所述目标模型为BERT模型,所述目标模型包括BERT编码器、池化层和第一分类器,多个不同的辅助模型包括第一辅助模型和第二辅助模型,所述第一辅助模型包括所述BERT编码器、解码器、所述池化层和所述第一分类器,所述第二辅助模型包括所述BERT编码器、所述解码器和第二分类器。
本说明书实施例中,所述第一分类器与所述第二分类器相同或所述第一分类器与所述第二分类器不同,且所述第一分类器为二分类器,所述第二分类器为多分类器。
本说明书实施例中,所述优化训练模块504,包括:
计算单元,计算所述第一损失信息和所述第二损失信息的平均损失信息;
优化训练单元,基于所述平均损失信息对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例中,所述装置还包括:
信息获取模块,获取多方针对目标业务场景提供的第一文本信息;
拼接模块,将所述多方的第一文本信息进行拼接,得到拼接后的第一文本信息;
预测模块,将所述拼接后的第一文本信息输入到所述优化训练后的目标模型中,得到所述多方的第一文本信息是否语义一致的输出结果;
业务处理模块,如果所述输出结果指示所述多方的第一文本信息的语义一致,则执行所述目标业务场景对应的业务处理。
本说明书实施例中,所述目标业务场景为目标用户执行目标业务的过程中检测到存在指定风险的场景,所述业务处理模块,如果所述输出结果指示所述多方的第一文本信息的语义一致,则对所述目标用户的账户进行解限处理。
本说明书实施例提供一种模型的处理装置,通过获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息,基于第一损失信息和第二损失信息,对目标模型进行优化训练,以便后续可以基于优化训练后的目标模型进行多方信息一致性识别,这样,提出了一种基于多任务学习的文本一致性增强方案,即通过结合文本信息中的指定字符(如重要词、相似词等),在基于目标模型的文本分类基础上,还通过加入辅助模型使得模型去预测输入的文本信息中相似但被掩盖的文本信息,并且让模型进一步学习对预测后的语句的语义,然后再进行分类,从而达到文本的一致性信息增强的目的,并且通过上述方式可以显著地提高目标模型的对存在指定风险用户的识别效率和准确率。
实施例五
以上为本说明书实施例提供的模型的处理装置,基于同样的思路,本说明书实施例还提供一种模型的处理设备,如图6所示。
所述模型的处理设备可以为上述实施例提供终端设备或服务器等。
模型的处理设备可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上的处理器601和存储器602,存储器602中可以存储有一个或一个以上存储应用程序或数据。其中,存储器602可以是短暂存储或持久存储。存储在存储器602的应用程序可以包括一个或一个以上模块(图示未示出),每个模块可以包括对模型的处理设备中的一系列计算机可执行指令。更进一步地,处理器601可以设置为与存储器602通信,在模型的处理设备上执行存储器602中的一系列计算机可执行指令。模型的处理设备还可以包括一个或一个以上电源603,一个或一个以上有线或无线网络接口604,一个或一个以上输入输出接口605,一个或一个以上键盘606。
具体在本实施例中,模型的处理设备包括有存储器,以及一个或一个以上的程序,其中一个或者一个以上程序存储于存储器中,且一个或者一个以上程序可以包括一个或一个以上模块,且每个模块可以包括对模型的处理设备中的一系列计算机可执行指令,且经配置以由一个或者一个以上处理器执行该一个或者一个以上程序包含用于进行以下计算机可执行指令:
获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息;
将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息;
对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息;
基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例中,所述目标模型为基于孪生网络的文本匹配模型或基于单任务的文本分类模型,所述辅助模型与所述目标模型存在共享的模型参数。
本说明书实施例中,所述目标模型为BERT模型,所述目标模型包括BERT编码器、池化层和第一分类器,多个不同的辅助模型包括第一辅助模型和第二辅助模型,所述第一辅助模型包括所述BERT编码器、解码器、所述池化层和所述第一分类器,所述第二辅助模型包括所述BERT编码器、所述解码器和第二分类器。
本说明书实施例中,所述第一分类器与所述第二分类器相同或所述第一分类器与所述第二分类器不同,且所述第一分类器为二分类器,所述第二分类器为多分类器。
本说明书实施例中,所述基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型,包括:
计算所述第一损失信息和所述第二损失信息的平均损失信息;
基于所述平均损失信息对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例中,还包括:
获取多方针对目标业务场景提供的第一文本信息;
将所述多方的第一文本信息进行拼接,得到拼接后的第一文本信息;
将所述拼接后的第一文本信息输入到所述优化训练后的目标模型中,得到所述多方的第一文本信息是否语义一致的输出结果;
如果所述输出结果指示所述多方的第一文本信息的语义一致,则执行所述目标业务场景对应的业务处理。
本说明书实施例中,所述目标业务场景为目标用户执行目标业务的过程中检测到存在指定风险的场景,所述如果所述输出结果指示所述多方的第一文本信息的语义一致,则执行所述目标业务场景对应的业务处理,包括:
如果所述输出结果指示所述多方的第一文本信息的语义一致,则对所述目标用户的账户进行解限处理。
本说明书实施例提供一种模型的处理设备,通过获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息,基于第一损失信息和第二损失信息,对目标模型进行优化训练,以便后续可以基于优化训练后的目标模型进行多方信息一致性识别,这样,提出了一种基于多任务学习的文本一致性增强方案,即通过结合文本信息中的指定字符(如重要词、相似词等),在基于目标模型的文本分类基础上,还通过加入辅助模型使得模型去预测输入的文本信息中相似但被掩盖的文本信息,并且让模型进一步学习对预测后的语句的语义,然后再进行分类,从而达到文本的一致性信息增强的目的,并且通过上述方式可以显著地提高目标模型的对存在指定风险用户的识别效率和准确率。
实施例六
进一步地,基于上述图1到图4所示的方法,本说明书一个或多个实施例还提供了一种存储介质,用于存储计算机可执行指令信息,一种具体的实施例中,该存储介质可以为U盘、光盘、硬盘等,该存储介质存储的计算机可执行指令信息在被处理器执行时,能实现以下流程:
获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息;
将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息;
对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息;
基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例中,所述目标模型为基于孪生网络的文本匹配模型或基于单任务的文本分类模型,所述辅助模型与所述目标模型存在共享的模型参数。
本说明书实施例中,所述目标模型为BERT模型,所述目标模型包括BERT编码器、池化层和第一分类器,多个不同的辅助模型包括第一辅助模型和第二辅助模型,所述第一辅助模型包括所述BERT编码器、解码器、所述池化层和所述第一分类器,所述第二辅助模型包括所述BERT编码器、所述解码器和第二分类器。
本说明书实施例中,所述第一分类器与所述第二分类器相同或所述第一分类器与所述第二分类器不同,且所述第一分类器为二分类器,所述第二分类器为多分类器。
本说明书实施例中,所述基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型,包括:
计算所述第一损失信息和所述第二损失信息的平均损失信息;
基于所述平均损失信息对所述目标模型进行优化训练,得到优化训练后的目标模型。
本说明书实施例中,还包括:
获取多方针对目标业务场景提供的第一文本信息;
将所述多方的第一文本信息进行拼接,得到拼接后的第一文本信息;
将所述拼接后的第一文本信息输入到所述优化训练后的目标模型中,得到所述多方的第一文本信息是否语义一致的输出结果;
如果所述输出结果指示所述多方的第一文本信息的语义一致,则执行所述目标业务场景对应的业务处理。
本说明书实施例中,所述目标业务场景为目标用户执行目标业务的过程中检测到存在指定风险的场景,所述如果所述输出结果指示所述多方的第一文本信息的语义一致,则执行所述目标业务场景对应的业务处理,包括:
如果所述输出结果指示所述多方的第一文本信息的语义一致,则对所述目标用户的账户进行解限处理。
本说明书实施例提供一种存储介质,通过获取多方针对目标业务场景提供的历史文本信息,并将多方的历史文本信息进行拼接,将拼接后的历史文本信息输入到目标模型中,得到多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定第一输出结果对应的第一损失信息,对拼接后的历史文本信息中包含的指定字符进行掩盖处理,将掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定每个辅助模型对应的第二输出结果的第二损失信息,基于第一损失信息和第二损失信息,对目标模型进行优化训练,以便后续可以基于优化训练后的目标模型进行多方信息一致性识别,这样,提出了一种基于多任务学习的文本一致性增强方案,即通过结合文本信息中的指定字符(如重要词、相似词等),在基于目标模型的文本分类基础上,还通过加入辅助模型使得模型去预测输入的文本信息中相似但被掩盖的文本信息,并且让模型进一步学习对预测后的语句的语义,然后再进行分类,从而达到文本的一致性信息增强的目的,并且通过上述方式可以显著地提高目标模型的对存在指定风险用户的识别效率和准确率。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字***“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的***、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书一个或多个实施例时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、***、或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书的实施例是参照根据本说明书实施例的方法、设备(***)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程欺诈案例的串并设备的处理器以产生一个机器,使得通过计算机或其他可编程欺诈案例的串并设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程欺诈案例的串并设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程欺诈案例的串并设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、***或计算机程序产品。因此,本说明书一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书一个或多个实施例可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书一个或多个实施例,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种模型的处理方法,所述方法包括:
获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息;
将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息;
对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息;
基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
2.根据权利要求1所述的方法,所述目标模型为基于孪生网络的文本匹配模型或基于单任务的文本分类模型,所述辅助模型与所述目标模型存在共享的模型参数。
3.根据权利要求2所述的方法,所述目标模型为BERT模型,所述目标模型包括BERT编码器、池化层和第一分类器,多个不同的辅助模型包括第一辅助模型和第二辅助模型,所述第一辅助模型包括所述BERT编码器、解码器、所述池化层和所述第一分类器,所述第二辅助模型包括所述BERT编码器、所述解码器和第二分类器。
4.根据权利要求3所述的方法,所述第一分类器与所述第二分类器相同或所述第一分类器与所述第二分类器不同,且所述第一分类器为二分类器,所述第二分类器为多分类器。
5.根据权利要求4述的方法,所述基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型,包括:
计算所述第一损失信息和所述第二损失信息的平均损失信息;
基于所述平均损失信息对所述目标模型进行优化训练,得到优化训练后的目标模型。
6.根据权利要求1所述的方法,所述方法还包括:
获取多方针对目标业务场景提供的第一文本信息;
将所述多方的第一文本信息进行拼接,得到拼接后的第一文本信息;
将所述拼接后的第一文本信息输入到所述优化训练后的目标模型中,得到所述多方的第一文本信息是否语义一致的输出结果;
如果所述输出结果指示所述多方的第一文本信息的语义一致,则执行所述目标业务场景对应的业务处理。
7.根据权利要求6所述的方法,所述目标业务场景为目标用户执行目标业务的过程中检测到存在指定风险的场景,所述如果所述输出结果指示所述多方的第一文本信息的语义一致,则执行所述目标业务场景对应的业务处理,包括:
如果所述输出结果指示所述多方的第一文本信息的语义一致,则对所述目标用户的账户进行解限处理。
8.一种模型的处理装置,所述装置包括:
信息处理模块,获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息;
第一损失确定模块,将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息;
第二损失确定模块,对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息;
优化训练模块,基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
9.一种模型的处理设备,所述模型的处理设备包括:
处理器;以及
被安排成存储计算机可执行指令的存储器,所述可执行指令在被执行时使所述处理器:
获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息;
将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息;
对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息;
基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
10.一种存储介质,所述存储介质用于存储计算机可执行指令,所述可执行指令在被处理器执行时实现以下流程:
获取多方针对目标业务场景提供的历史文本信息,并将所述多方的历史文本信息进行拼接,得到拼接后的历史文本信息;
将所述拼接后的历史文本信息输入到目标模型中,得到所述多方的历史文本信息是否语义一致的第一输出结果,并基于预设的第一损失函数,确定所述第一输出结果对应的第一损失信息;
对所述拼接后的历史文本信息中包含的指定字符进行掩盖处理,得到掩盖后的文本信息,将所述掩盖后的文本信息输入到一个或多个不同的辅助模型中,得到所述多方的历史文本信息是否语义一致的第二输出结果,并基于预设的第二损失函数,确定所述每个辅助模型对应的第二输出结果的第二损失信息;
基于所述第一损失信息和所述第二损失信息,对所述目标模型进行优化训练,得到优化训练后的目标模型。
CN202310189374.1A 2023-02-23 2023-02-23 一种模型的处理方法、装置及设备 Pending CN116186607A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310189374.1A CN116186607A (zh) 2023-02-23 2023-02-23 一种模型的处理方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310189374.1A CN116186607A (zh) 2023-02-23 2023-02-23 一种模型的处理方法、装置及设备

Publications (1)

Publication Number Publication Date
CN116186607A true CN116186607A (zh) 2023-05-30

Family

ID=86446073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310189374.1A Pending CN116186607A (zh) 2023-02-23 2023-02-23 一种模型的处理方法、装置及设备

Country Status (1)

Country Link
CN (1) CN116186607A (zh)

Similar Documents

Publication Publication Date Title
CN112200132B (zh) 一种基于隐私保护的数据处理方法、装置及设备
CN110020427B (zh) 策略确定方法和装置
CN114969293A (zh) 数据处理方法、装置及设备
CN115712866B (zh) 数据处理方法、装置及设备
CN114819614A (zh) 数据处理方法、装置、***及设备
CN115359220B (zh) 虚拟世界的虚拟形象更新方法及装置
CN116049761A (zh) 数据处理方法、装置及设备
CN117076650A (zh) 一种基于大语言模型的智能对话方法、装置、介质及设备
CN111507726A (zh) 一种报文生成方法、装置及设备
CN110008394B (zh) 一种舆情信息的识别方法、装置及设备
CN113221717B (zh) 一种基于隐私保护的模型构建方法、装置及设备
CN116308738B (zh) 一种模型训练的方法、业务风控的方法及装置
CN115374298B (zh) 基于索引的虚拟形象数据处理方法及装置
CN117252250A (zh) 大模型预训练方法及装置
CN116757187A (zh) 一种实体的检测方法、装置及设备
CN113220852B (zh) 人机对话方法、装置、设备和存储介质
CN116186607A (zh) 一种模型的处理方法、装置及设备
CN115204395A (zh) 数据的处理方法、装置及设备
CN114817469B (zh) 文本增强方法、文本增强模型的训练方法及装置
CN115953559B (zh) 虚拟对象处理方法及装置
CN115423485B (zh) 数据处理方法、装置及设备
CN115827935B (zh) 一种数据处理方法、装置及设备
CN115952859B (zh) 数据处理方法、装置及设备
CN117035695B (zh) 一种信息预警的方法、装置、可读存储介质以及电子设备
CN115905624B (zh) 一种用户行为状态的确定方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination