CN115033678A - 一种对话模型训练方法、装置及设备 - Google Patents
一种对话模型训练方法、装置及设备 Download PDFInfo
- Publication number
- CN115033678A CN115033678A CN202210951003.8A CN202210951003A CN115033678A CN 115033678 A CN115033678 A CN 115033678A CN 202210951003 A CN202210951003 A CN 202210951003A CN 115033678 A CN115033678 A CN 115033678A
- Authority
- CN
- China
- Prior art keywords
- character string
- trained
- training
- information
- dialogue model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例涉及人工智能领域,公开了一种对话模型训练方法、装置及设备。本申请实施例涉及对话模型训练方法包括:获取待训练信息;对待训练信息进行字符串整编,得到待训练字符串;若待训练字符串对应的字符数大于预设阈值,则对待训练字符串进行预处理,得到目标训练字符串,以使目标训练字符串中的每一个对应的字符数小于或等于预设阈值;将目标训练字符串作为训练样本输入至所述对话模型,完成所述对话模型训练。可见,对字符串中的内容进行预处理,使其保留完整待训练信息内容并且字符数满足所述对话模型对于训练样本的最大字符数限制。这样,对话模型能够完整将待训练信息作为训练样本,使对话模型训练后的输出结果更准确。
Description
技术领域
本发明实施例涉及人工智能领域,尤其涉及一种对话模型训练方法、装置及设备。
背景技术
对话模型,常被应用于为用户提供聊天交流服务的对话***中。在心理咨询对话领域,对话***中预先设置的对话模型能够根据咨询者的文本信息,帮助咨询者解答咨询问题。
为了使对话模型能够帮助咨询者解答咨询问题,需要提前完成对话模型的训练。现有技术中,通常使用历史对话文本或者预先设置好的专用训练文本作为对话模型的训练信息。以历史对话文本作为对话模型的训练信息为例,首先将历史对话文本拼接,得到一个长字符串,再将长字符串统一输入至对话模型进行训练。
但是,对话模型对于输入的训练信息通常有最大字符数的限制。当得到的长字符串的字符数超过对话模型对于输入的训练信息最大字符数的限制时,现有技术的做法是将超出的部分进行剔除,仅提供最大字符数限制之内的长字符串用于对话模型的训练。这样,由于对话模型的训练内容缺失,使对话模型在实际应用中存在对咨询者的输出结果失真的风险。
发明内容
本申请实施例提供了一种对话模型训练方法、装置及设备,以解决现有对话模型训练因训练内容缺失导致对话模型输出结果失真的问题。
第一方面,本申请实施例提供了一种对话模型训练方法,所述方法包括:
获取至少一条待训练信息;
对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;
获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到至少一个目标训练字符串,以使所述至少一个目标训练字符串中的每一个对应的字符数小于或等于预设阈值;
将所述至少一个目标训练字符串作为训练样本输入至所述对话模型,完成所述对话模型训练。
在一些可能的实施方式中,所述对所述待训练字符串进行预处理,包括:对所述待训练字符串进行截断处理或对所述待训练字符串进行压缩处理。这样,所述对话模型获取的训练信息更完整,进而降低所述对话模型因训练信息缺失导致的输出结果失真的问题。
在一些可能的实施方式中,所述对所述待训练字符串进行截断处理,包括:
依据所述预设阈值对所述待训练字符串进行截断处理,得到第一子字符串以及第二子字符串,所述第一子字符串作为第一目标训练字符串,所述第二子字符串作为第二目标训练字符串。这样,可以通过对字符数大于预设阈值的待训练字符串采用截断的方式,得到两个字符数均小于或等于预设阈值的子字符串,将两个子字符串作为目标训练字符串输入至所述对话模型,使所述对话模型获取的训练信息更完整,进而降低所述对话模型因训练信息缺失导致的输出结果失真的问题。
在一些可能的实施方式中,所述对所述待训练字符串进行压缩处理,包括:
获取所述待训练字符串;
输入所述待训练字符串至预先设置的压缩模型,得到压缩字符串,所述压缩字符串作为目标训练字符串。这样,可以通过对字符数大于预设阈值的待训练字符串采用压缩的方式,得到压缩字符串,并将压缩字符串作为目标训练字符串输入至所述对话模型,使所述对话模型获取的训练信息更完整,进而降低所述对话模型因训练信息缺失导致的输出结果失真的问题。
在一些可能的实施方式中,所述输入所述待训练字符串至预先设置的压缩模型,得到压缩字符串,包括:
输入所述待训练字符串至预先设置的摘要模型,得到所述压缩字符串,
或输入所述待训练字符串至预先设置的文本编码模型,得到所述压缩字符串。
在一些可能的实施方式中,所述输入所述待训练字符串至预先设置的摘要模型,得到所述压缩字符串,包括:
获取所述待训练字符串中至少一个关键语句;
对所述至少一个关键语句进行字符串整编,得到所述压缩字符串。这样,可以将字符串中的关键语句作为摘要模型输出结果,得到待训练字符串中关键内容,并将关键语句进行字符串整编,得到压缩字符串,使所述识别模型用于训练。
在一些可能的实施方式中,所述待训练信息类别包括:历史对话信息以及用户资料信息。这样,所述识别模型基于此待训练信息进行训练,可以提高输出结果的正确性概率参数。
一种可能的实施方式中,所述预先设置的文本编码模型,种类包括以下至少一种:卷积神经网络模型,循环神经网络模型,Transformer模型以及预训练BERT模型。
第二方面,本申请实施例还提供了一种对话装置,所述装置包括:
第一获取模块,用于获取至少一条待训练信息;
编码模块,用于对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;
第二获取模块,用于获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到至少一个目标训练字符串,以使所述至少一个目标训练字符串中的每一个对应的字符数小于或等于预设阈值;
输出模块,用于将所述至少一个目标训练字符串作为训练样本,完成所述对话模型训练。
第三方面,本申请实施例还提供了一种电子设备,所诉电子设备包括:存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令执行第一方面或第一方面任一可能的实施方式中的方法。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行第一方面或第一方面任一可能的实施方式中的方法。
本申请实施例提供了一种对话模型训练方法,本方案中,首先获取至少一条待训练信息;然后,对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;接着,获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到一个目标训练字符串,以使所述目标训练字符串对应的字符数小于或等于预设阈值;最后,将所述至少一个目标训练字符串作为训练样本输入至所述对话模型,完成所述对话模型训练。可见,将待训练信息汇整为字符串后,对字符串中的字符数进行判定,若所述字符串中的字符数超过对话模型对于训练样本的最大字符数限制,则对字符串中的内容进行预处理,使其保留完整待训练信息内容并且字符数满足所述对话模型对于训练样本的最大字符数限制。这样,对话模型能够完整将待训练信息作为训练样本,使对话模型训练后的输出结果更准确,进而降低对话模型的在实际应用中存在对咨询者问题解答错误的风险。
附图说明
图1是本申请实施例提供的对话模型训练方法流程示意图;
图2是本申请实施例提供的对话装置结构示意图;
图3是本申请实施例提供的对话设备示例性结构示意图。
具体实施方式
本申请以下实施例中所使用的术语是为了描述可选实施方式的目的,而非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括复数表达形式。还应当理解,尽管在以下实施例中可能采用术语第一、第二等来描述某一类对象,但所述对象不限于这些术语。这些术语用来将该类对象的具体对象进行区分。例如,以下实施例中可能采用术语第一、第二等来描述的其他类对象同理,此处不再赘述。
本申请实施例提供了一种对话模型训练方法,本方案中,首先获取至少一条待训练信息;然后,对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;接着,获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到一个目标训练字符串,以使所述目标训练字符串对应的字符数小于或等于预设阈值;最后,将所述目标训练字符串作为训练样本,完成所述对话模型训练。可见,将待训练信息汇整为字符串后,对字符串中的字符数进行判定,若所述字符串中的字符数超过对话模型对于训练样本的最大字符数限制,则对字符串中的内容进行预处理,使其保留完整待训练信息内容并且字符数满足所述对话模型对于训练样本的最大字符数限制。这样,对话模型能够完整将待训练信息作为训练样本,使对话模型训练后的输出结果更准确,进而降低对话模型的在实际应用中存在对咨询者问题解答错误的风险。
本申请实施例涉及的任一电子设备可以是诸如手机、平板电脑、可穿戴设备(例如,智能手表、智能手环等)、笔记本电脑、台式计算机和车载设备等电子设备。该电子设备预先安装有软件部署应用程序。可以理解的是,本申请实施例对电子设备的具体类型不作任何限制。
对话模型,常被应用于为用户提供聊天交流服务的对话***中。在心理咨询对话领域,对话***中预先设置的对话模型能够根据咨询者的文本信息,帮助咨询者解答咨询问题。
为了使对话模型能够帮助咨询者解答咨询问题,需要提前完成对话模型的训练。现有技术中,通常使用历史对话文本或者预先设置好的专用训练文本作为对话模型的训练信息。以历史对话文本作为对话模型的训练信息为例,首先将历史对话文本拼接,得到一个长字符串,再将长字符串统一输入至对话模型进行训练。
但是,对话模型对于输入的训练信息通常有最大字符数的限制。当得到的长字符串的字符数超过对话模型对于输入的训练信息最大字符数的限制时,现有技术的做法是将超出的部分进行剔除,仅提供最大字符数限制之内的长字符串用于对话模型的训练。这样,由于对话模型的训练内容缺失,使对话模型的在实际应用中存在对咨询者的输出结果失真的风险。
下面是对几个示例性实施方式的描述,对本申请实施例的技术方案以及本申请的技术方案产生的技术效果进行说明。
在本申请的第一方面,提出了一种对话模型训练方法,参见图1,图1是本申请实施例提供的对话模型训练方法流程示意图,包括以下步骤:
获取至少一条待训练信息;
对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;
获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到至少一个目标训练字符串,以使所述至少一个目标训练字符串中的每一个对应的字符数小于或等于预设阈值;
将所述至少一个目标训练字符串作为训练样本输入至所述对话模型,完成所述对话模型训练。
示例性的,以应用在心里咨询对话领域的对话模型为例,假定所述对话模型对于输入的待训练信息具有字符数限制,允许输入的最大字符数为256字节(即预设阈值),当待训练信息的字符数超过256字节时,为了使所述对话模型完整地接收待训练信息,需要对待训练信息进行字符串整编后,再对字符串(即待训练字符串)进行预处理,使预处理后的字符串(即目标训练字符串)的字节数能够被所述对话模型接收,并将其输入至所述对话模型进行训练。
一种可能的实施方式中,所述对所述待训练字符串进行预处理,包括:对所述待训练字符串进行截断处理或对所述待训练字符串进行压缩处理。
可选的,所述对所述待训练字符串进行截断处理,包括:
依据所述预设阈值对所述待训练字符串进行截断处理,得到第一子字符串以及第二子字符串,所述第一子字符串作为第一目标训练字符串,所述第二子字符串作为第二目标训练字符串。
示例性的,以所述对话模型最大能接收的待训练信息的字符数为5字节为例,
首先,获取待训练信息整编后的待训练字符串,例如“ABCDEFGHI”;
然后,根据所述对话模型最大能接收的待训练信息的字符数为5字节,对所述待训练字符串进行截断处理,得到第一子字符串“ABCDE”以及第二子字符串“FGHI”;
最后,将第一子字符串以及第二子字符串均作为目标训练字符串输入至所述对话模型,进行训练。
可以理解的是,此处的“ABCDRFGHI”中各字母均指代独立的字符,不具有限定意义。
可选的,若所述待训练字符串经过一次截断后得到的两个子字符串中仍存在至少一个子字符串对应的字符数大于预设阈值,那么,针对字符数大于预设阈值的子字符串继续进行截断处理,直至得到的子字符串字符数小于或等于预设阈值。
一种可能的实施方式中,所述对所述待训练字符串进行压缩处理,包括:
获取所述待训练字符串;
输入所述待训练字符串至预先设置的压缩模型,得到压缩字符串,所述压缩字符串作为目标训练字符串。
可选的,所述输入所述待训练字符串至预先设置的压缩模型,得到压缩字符串,包括:
输入所述待训练字符串至预先设置的摘要模型,得到所述压缩字符串,
或输入所述待训练字符串至预先设置的文本编码模型,得到所述压缩字符串。
可选的,所述摘要模型类别包括:抽取式摘要生成模型以及生成式摘要生成模型。
示例性的,此处以抽取式摘要生成模型作为预先设置的压缩模型为例,当获取的待训练信息为文本段落时,将待训练信息整编为待训练字符串(所述待训练字符串字符数大于预设阈值);
S101:获取所述待训练字符串中的至少一个关键句;
具体的,在所述将待训练信息整编为待训练字符串之前,实施步骤如下:
S111:获取所述待训练信息对应文本段落的语义;
S112:根据预先设定的语义算法:对文本段落进行分句获取,得到至少一个分句以及所述至少一个分句中的每个分句对应的语义,所述每个分句对应一个语义,
具体的,所述预先设定的语义算法包括N-gram;
S113:将所述每个分句对应的语义与所述待训练信息对应文本段落的语义进行相似度比对,得到至少一个相似度比对结果;
S114:若所述相似度比对结果大于预设相似度阈值,则定义所述大于预设相似度阈值的相似度比对结果对应的分句为关键语句。
S102:对所述至少一个关键语句进行字符串整编,得到所述压缩字符串。
示例性的,此处以生成式摘要生成模型作为预先设置的压缩模型为例,当获取的待训练信息为对话历史记录时,将待训练信息整编为待训练字符串(所述待训练字符串字符数大于预设阈值);
S201:获取所述对话历史记录中,每个输入语句对应输出语句的出现概率;
S202:依据所述每个输入语句对应输出语句的出现概率进行筛选,得到每个输入语句对应的最匹配的输出语句,并以此作为目标训练字符。
示例性的,此处以文本编码器(卷积神经网络、循环神经网络、Transformer模型或者预训练的BERT模型等)作为预先设置的压缩模型为例,当获取的待训练信息为文本序列时,将待训练信息整编为待训练字符串(所述待训练字符串字符数大于预设阈值);
S301:对所述待训练字符串进行特征提取,得到所述待训练字符串中每个字符对应的向量;
S302:输入所述待训练字符串以及所述待训练字符串这种每个字符对应的额向量至池化层,得到压缩后的待训练字符串(即所述压缩字符串),
具体的,所述得到压缩后的待训练字符串的实现方式包括:平均池化方法或者最大池化的方法。
一种可能的实施方式中,所述待训练信息类别包括:历史对话信息以及用户资料信息。
示例性的,当所述对话模型应用的场景处于闲聊场景时(此处以AI聊天软件为例),在生成对话回复的过程中,需要考虑用户的资料信息。通常的,这些资料信息会保存在一些外部的数据库中(例如用户的身份信息,偏好信息等)。这样,当为所述对话模型输入对话历史信息以及用户资料信息作为训练样本时,可以使对话模型在闲聊场景时更好地应对用户。
例如:在用户资料中记录用户最喜欢的水果为“苹果”,那么在交谈中,可以将其转化为“用户喜欢吃苹果”,并以此开展对话,完成闲聊任务。
上述实施例从待训练信息的获取,待训练信息字符串整编,待训练字符串预处理以及对话模型训练等方面,对本申请实施例提供的对话模型训练方法的各实施方式进行了介绍。应理解,待训练信息的获取,待训练信息字符串整编,待训练字符串预处理以及对话模型训练等的处理步骤,本申请实施例可以以硬件或硬件和计算机软件的结合形式来实现上述功能。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
例如,若上述实现步骤通过软件模块来实现相应的功能。如图2所示,对话装置可以包括第一获取模块,编码模块,第二获取模块以及输出模块。所述对话装置可用于执行上述对话模型训练方法的部分或全部操作。
例如:
第一获取模块,用于获取至少一条待训练信息;
编码模块,用于对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;
第二获取模块,用于获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到至少一个目标训练字符串,以使所述至少一个目标训练字符串中的每一个对应的字符数小于或等于预设阈值;
输出模块,用于将所述至少一个目标训练字符串作为训练样本输入至所述对话模型,完成所述对话模型训练。
由此可见,
本申请实施例提供了一种对话模型训练方法,本方案中,首先获取至少一条待训练信息;然后,对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;接着,获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到一个目标训练字符串,以使所述目标训练字符串对应的字符数小于或等于预设阈值;最后,将所述至少一个目标训练字符串作为训练样本输入至所述对话模型,完成所述对话模型训练。可见,将待训练信息汇整为字符串后,对字符串中的字符数进行判定,若所述字符串中的字符数超过对话模型对于训练样本的最大字符数限制,则对字符串中的内容进行预处理,使其保留完整待训练信息内容并且字符数满足所述对话模型对于训练样本的最大字符数限制。这样,对话模型能够完整将待训练信息作为训练样本,使对话模型训练后的输出结果更准确,进而降低对话模型的在实际应用中存在对咨询者问题解答错误的风险。
可以理解的是,以上各个模块的功能可以集成到硬件实体实现,例如,第一获取模块、第二获取模块以及输出模块可以集成到收发器实现,编码模块可以集成在处理器实现,实现上述各模块功能的程序和指令,可以维护在存储器中。如图3所示,提供了一种电子设备,电子设备包括处理器,收发器以及存储器,其中收发器用于执行基于多为信息的病种识别方法中对于目标参考信息以及每个所述编码信息对应的学习结果获取,存储器用于存储前述部署装置预装的程序/代码,也可以存储用于处理器执行的代码等。当处理器运行存储器存储的代码过程中,使得电子设备执行上述方法中软件部署方法的部分或全部操作。
具体过程详见上述方法的实施例所述,此处不再详述。
具体实现中,对应前述电子设备,本申请实施例还提供一种计算机存储介质,其中,设置在电子设备中的计算机存储介质可存储有程序,该程序执行时,可实施包括上述软件部署方法的各实施例中的部分或全部步骤。该存储介质均可为磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(random access memory,RAM)等。
以上模块或单元的一个或多个可以软件、硬件或二者结合来实现。当以上任一模块或单元以软件实现的时候,所述软件以计算机程序指令的方式存在,并被存储在存储器中,处理器可以用于执行所述程序指令并实现以上方法流程。所述处理器可以包括但不限于以下至少一种:中央处理单元(central processing unit,CPU)、微处理器、数字信号处理器(DSP)、微控制器(microcontroller unit,MCU)、或人工智能处理器等各类运行软件的计算设备,每种计算设备可包括一个或多个用于执行软件指令以进行运算或处理的核。该处理器可以内置于SoC(片上***)或专用集成电路(application specific integratedcircuit,ASIC),也可是一个独立的半导体芯片。该处理器内处理用于执行软件指令以进行运算或处理的核外,还可进一步包括必要的硬件加速器,如现场可编程门阵列(fieldprogrammable gate array,FPGA)、PLD(可编程逻辑器件)、或者实现专用逻辑运算的逻辑电路。
当以上模块或单元以硬件实现的时候,该硬件可以是CPU、微处理器、DSP、MCU、人工智能处理器、ASIC、SoC、FPGA、PLD、专用数字电路、硬件加速器或非集成的分立器件中的任一个或任一组合,其可以运行必要的软件或不依赖于软件以执行以上方法流程。
进一步的,图3中还可以包括总线接口,总线接口可以包括任意数量的互联的总线和桥,具体由处理器代表的一个或多个处理器和存储器代表的存储器的各种电路链接在一起。总线接口还可以将诸如***设备、稳压器和功率管理电路等之类的各种其他电路链接在一起,这些都是本领域所公知的,因此,本文不再对其进行进一步描述。总线接口提供接口。收发器提供用于在传输介质上与各种其他设备通信的单元。处理器负责管理总线架构和通常的处理,存储器可以存储处理器在执行操作时所使用的数据。
当以上模块或单元使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk (SSD))等。
应理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对实施例的实施过程构成任何限定。
本说明书的各个部分均采用递进的方式进行描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点介绍的都是与其他实施例不同之处。尤其,对于装置和***实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例部分的说明即可。
尽管已描述了本申请的可选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
以上所述的具体实施方式,对本申请的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本申请的具体实施方式而已,并不用于限定本申请的保护范围,凡在本申请的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (10)
1.一种对话模型训练方法,其特征在于,所述方法包括:
获取至少一条待训练信息;
对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;
获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到至少一个目标训练字符串,以使所述至少一个目标训练字符串中的每一个对应的字符数小于或等于预设阈值;
将所述至少一个目标训练字符串作为训练样本输入至所述对话模型,完成所述对话模型训练。
2.根据权利要求1所述的对话模型训练方法,其特征在于,所述对所述待训练字符串进行预处理,包括:对所述待训练字符串进行截断处理或对所述待训练字符串进行压缩处理。
3.根据权利要求1或2所述的对话模型训练方法,其特征在于,所述对所述待训练字符串进行截断处理,包括:
依据所述预设阈值对所述待训练字符串进行截断处理,得到第一子字符串以及第二子字符串,所述第一子字符串作为第一目标训练字符串,所述第二子字符串作为第二目标训练字符串。
4.根据权利要求1或2所述的对话模型训练方法,其特征在于,所述对所述待训练字符串进行压缩处理,包括:
获取所述待训练字符串;
输入所述待训练字符串至预先设置的压缩模型,得到压缩字符串,所述压缩字符串作为目标训练字符串。
5.根据权利要求4所述的对话模型训练方法,其特征在于,所述输入所述待训练字符串至预先设置的压缩模型,得到压缩字符串,包括:
输入所述待训练字符串至预先设置的摘要模型,得到所述压缩字符串,
或输入所述待训练字符串至预先设置的文本编码模型,得到所述压缩字符串。
6.根据权利要求5所述的对话模型训练方法,其特征在于,所述输入所述待训练字符串至预先设置的摘要模型,得到所述压缩字符串,包括:
获取所述待训练字符串中至少一个关键语句;
对所述至少一个关键语句进行字符串整编,得到所述压缩字符串。
7.根据权利要求1所述的对话模型训练方法,其特征在于,所述待训练信息类别包括:历史对话信息以及用户资料信息。
8.一种对话装置,其特征在于,所述装置包括:
第一获取模块,用于获取至少一条待训练信息;
编码模块,用于对所述至少一条待训练信息进行字符串整编,得到一个待训练字符串;
第二获取模块,用于获取所述待训练字符串字符数,若所述待训练字符串对应的字符数大于预设阈值,则对所述待训练字符串进行预处理,得到至少一个目标训练字符串,以使所述至少一个目标训练字符串中的每一个对应的字符数小于或等于预设阈值;
输出模块,用于将所述至少一个目标训练字符串作为训练样本输入至所述对话模型,完成所述对话模型训练。
9.一种电子设备,其特征在于,所述电子设备包括:存储器和处理器,所述存储器和所述处理器之间互相通信连接,所述存储器中存储有计算机指令,所述处理器通过执行所述计算机指令执行权利要求1-7中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210951003.8A CN115033678A (zh) | 2022-08-09 | 2022-08-09 | 一种对话模型训练方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210951003.8A CN115033678A (zh) | 2022-08-09 | 2022-08-09 | 一种对话模型训练方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115033678A true CN115033678A (zh) | 2022-09-09 |
Family
ID=83131163
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210951003.8A Withdrawn CN115033678A (zh) | 2022-08-09 | 2022-08-09 | 一种对话模型训练方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115033678A (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992771A (zh) * | 2019-03-13 | 2019-07-09 | 北京三快在线科技有限公司 | 一种文本生成的方法及装置 |
CN111143551A (zh) * | 2019-12-04 | 2020-05-12 | 支付宝(杭州)信息技术有限公司 | 文本预处理方法、分类方法、装置及设备 |
US20210397791A1 (en) * | 2020-06-19 | 2021-12-23 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Language model training method, apparatus, electronic device and readable storage medium |
-
2022
- 2022-08-09 CN CN202210951003.8A patent/CN115033678A/zh not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109992771A (zh) * | 2019-03-13 | 2019-07-09 | 北京三快在线科技有限公司 | 一种文本生成的方法及装置 |
CN111143551A (zh) * | 2019-12-04 | 2020-05-12 | 支付宝(杭州)信息技术有限公司 | 文本预处理方法、分类方法、装置及设备 |
US20210397791A1 (en) * | 2020-06-19 | 2021-12-23 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Language model training method, apparatus, electronic device and readable storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111814466A (zh) | 基于机器阅读理解的信息抽取方法、及其相关设备 | |
CN111695338A (zh) | 基于人工智能的面试内容精炼方法、装置、设备及介质 | |
CN113239169A (zh) | 基于人工智能的回答生成方法、装置、设备及存储介质 | |
CN111597807B (zh) | 分词数据集生成方法、装置、设备及其存储介质 | |
CN112836521A (zh) | 问答匹配方法、装置、计算机设备及存储介质 | |
CN112951233A (zh) | 语音问答方法、装置、电子设备及可读存储介质 | |
CN116050352A (zh) | 文本编码方法和装置、计算机设备及存储介质 | |
CN116913278B (zh) | 语音处理方法、装置、设备和存储介质 | |
CN111898363B (zh) | 文本长难句的压缩方法、装置、计算机设备及存储介质 | |
CN113505595A (zh) | 文本短语抽取方法、装置、计算机设备及存储介质 | |
CN117763084A (zh) | 基于文本压缩的知识库检索方法及相关设备 | |
CN116701604A (zh) | 问答语料库的构建方法和装置、问答方法、设备及介质 | |
CN109002498B (zh) | 人机对话方法、装置、设备及存储介质 | |
CN116645961A (zh) | 语音识别方法、语音识别装置、电子设备及存储介质 | |
CN116432705A (zh) | 文本生成模型构建、文本生成方法和装置、设备及介质 | |
CN115098665A (zh) | 一种对话数据扩展方法、装置及设备 | |
CN111401069A (zh) | 会话文本的意图识别方法、意图识别装置及终端 | |
CN115033678A (zh) | 一种对话模型训练方法、装置及设备 | |
CN115620726A (zh) | 语音文本生成方法、语音文本生成模型的训练方法、装置 | |
CN115048927A (zh) | 一种基于文本分类的病症识别方法、装置及设备 | |
CN113283218A (zh) | 一种语义文本压缩方法及计算机设备 | |
CN111782781A (zh) | 一种语义分析方法、装置、计算机设备及存储介质 | |
CN110704623A (zh) | 基于Rasa_Nlu框架提高实体识别率的方法、装置、***和存储介质 | |
CN117290510B (zh) | 文档信息抽取方法、模型、电子设备及可读介质 | |
CN117009532B (zh) | 语义类型识别方法、装置、计算机可读介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20220909 |
|
WW01 | Invention patent application withdrawn after publication |