CN112818098B - 基于知识库的对话生成方法、装置、终端及存储介质 - Google Patents
基于知识库的对话生成方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN112818098B CN112818098B CN202110123123.4A CN202110123123A CN112818098B CN 112818098 B CN112818098 B CN 112818098B CN 202110123123 A CN202110123123 A CN 202110123123A CN 112818098 B CN112818098 B CN 112818098B
- Authority
- CN
- China
- Prior art keywords
- sample
- semantic vector
- final
- data
- knowledge base
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 50
- 239000013598 vector Substances 0.000 claims abstract description 225
- 230000015654 memory Effects 0.000 claims abstract description 167
- 230000006870 function Effects 0.000 claims description 79
- 239000011159 matrix material Substances 0.000 claims description 41
- 238000012549 training Methods 0.000 claims description 35
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000012216 screening Methods 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 abstract description 7
- 239000000284 extract Substances 0.000 abstract description 3
- 230000006872 improvement Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0281—Customer communication at a business location, e.g. providing product or service information, consulting
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Finance (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Strategic Management (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Development Economics (AREA)
- Accounting & Taxation (AREA)
- Human Computer Interaction (AREA)
- Entrepreneurship & Innovation (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Game Theory and Decision Science (AREA)
- Databases & Information Systems (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种基于知识库的对话生成方法、装置、终端及存储介质,其通过将用户输入数据与知识库的三元组、占位符集拼接后,再利用对话网络模型的编码段进行编码,且在编码过程中循环更新语义向量得到最终语义向量,再利用最终语义向量取出最终关注内容,然后利用解码端进行解码,并当解码结果中存在占位符时,利用最终语义向量查询知识库得到局部记忆指针,再根据局部记忆指针从知识库中查询到目标数据以替换占位符,从而得到最终解码结果,再根据最终解码结果进行回复。通过上述方式,本发明能够结合外部知识库的知识储备,并通过反复更新语义向量以提取到真正语义,再通过对话网络模型对用户输入的内容进行准确回复。
Description
技术领域
本申请涉及人工智能领域,特别是涉及一种基于知识库的对话生成方法、装置、终端及存储介质。
背景技术
随着科技的发展,AI(Artificial Intelligence,人工智能)正逐步改变着我们的生活方式,例如智能问答就是其中一种。当客户通过文字或语音在线咨询时,可以由线上的智能客服为客户进行智能应答。智能问答可以有效缓解客户服务的等待状况,提升服务质量,因而有着非常广阔的前景。
目前,现有的对话***仍然存在OOV(out of vocabulary)问题,即用户输入的内容超出了对话***的词库,导致对话***无法做出准确回复;此外,对话***中利用的模型,其在进行网络结构压缩时,会导致语义的信息出现损失的情况,导致最终生成的回复结果不够准确,影响用户的体验。
发明内容
本申请提供一种基于知识库的对话生成方法、装置、终端及存储介质,以解决现有的智能对话***对话时的回复内容不够准确的问题。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种基于知识库的对话生成方法,包括:获取用户输入数据、预设知识库的三元组数据以及预设的占位符集,利用用户输入数据、三元组数据和占位符集构建模型输入数据,并将模型输入数据向量化,得到初始语义向量;将初始语义向量输入至预先训练好的对话网络模型的编码端,利用编码端对初始语义向量进行编码,得到隐状态,再利用隐状态、对话网络模型中的记忆矩阵对初始语义向量进行更新,得到最终语义向量;利用最终语义向量取出最终关注内容并输出至对话网络模型的解码端;利用解码端对最终关注内容解码得到词分布,通过词分布输出初始解码结果;当初始解码结果中存在占位符时,通过最终语义向量与知识库做指针网络,得到局部记忆指针,再通过局部记忆指针的分布得到分布最大的目标数据作为输出,利用目标数据替换占位符,得到最终解码结果;根据最终解码结果对用户的输入进行回复。
作为本申请的进一步改进,将初始语义向量输入至预先训练好的对话网络模型的编码端,利用编码端对初始语义向量进行编码,得到隐状态,再利用隐状态、对话网络模型中的记忆矩阵对初始语义向量进行更新,得到最终语义向量,包括:将初始语义向量输入至编码端进行编码,得到隐状态;将隐状态添加至记忆矩阵中,得到更新后的记忆矩阵;利用更新后的记忆矩阵和初始语义向量计算得到从初始语义向量中取出的关注内容;利用关注内容更新初始语义向量,得到更新后的语义向量,并对更新后的语义向量再次进行编码;重复执行上述步骤,直至达到预设次数为止,得到最终语义向量。
作为本申请的进一步改进,利用最终语义向量取出最终关注内容并输出至对话网络模型的解码端之后,还包括:通过最终语义向量查询知识库,得到记忆分布的全局记忆指针;最终语义向量与知识库做指针网络,得到局部记忆指针,包括:通过全局记忆指针从知识库中筛选出目标数据集,再通过最终语义向量与目标数据集做指针网络,得到局部记忆指针。
作为本申请的进一步改进,通过最终语义向量查询知识库,得到记忆分布的全局记忆指针,包括:通过最终语义向量查询知识库中的每一条数据,再利用最终语义向量和记忆矩阵做内积相似度计算,并对计算结果执行sigmoid函数,得到记忆分布的全局记忆指针。
作为本申请的进一步改进,方法还包括预先训练对话网络模型,包括:获取样本训练数据,样本训练数据包括样本输入和样本真实结果,将样本输入向量化,得到初始样本语义向量,样本输入包括历史对话数据、知识库的三元组数据和占位符集,样本真实结果包括每个词的指向位置;将初始样本语义向量输入至待训练的对话网络模型的编码端,利用编码端对初始样本语义向量进行编码,得到样本隐状态,再利用样本隐状态、对话网络模型中的记忆矩阵对初始样本语义向量进行更新,得到最终样本语义向量;利用最终样本语义向量取出最终样本关注内容并输出至对话网络模型的解码端;利用解码端对最终样本关注内容解码得到样本词分布,通过样本词分布输出初始样本解码结果,并基于初始样本解码结果和预设的第一损失函数计算第一损失函数值;当初始样本解码结果中存在占位符时,通过最终样本语义向量与知识库做指针网络,得到样本局部记忆指针,再通过样本局部记忆指针得到概率最大的目标样本数据作为输出,利用目标样本数据替换占位符,得到最终样本解码结果,再基于样本词分布、每个词的指向位置、样本局部记忆指针和预设的第二损失函数计算第二损失函数值;通过第一损失函数值和第二损失函数值反向传播更新对话网络模型直至达到预设要求。
作为本申请的进一步改进,获取样本训练数据,样本训练数据包括样本输入和样本真实结果,将样本输入向量化,得到初始样本语义向量,包括:获取预先准备的历史对话数据、知识库的三元组数据以及占位符集,并将历史对话数据、三元组数据和占位符集拼接得到模型输入数据;获取样本真实结果,并确认样本真实结果中每个词是指向知识库中一个实体还是指向样本输入中的一个文本,得到每个词的指向位置;利用样本输入和样本真实结果构建样本训练数据;将模型输入数据向量化,得到初始语义向量。
作为本申请的进一步改进,利用最终样本语义向量取出最终样本关注内容并输出至对话网络模型的解码端之后,还包括:通过最终样本语义向量查询知识库,得到记忆分布的样本全局记忆指针;利用样本全局记忆指针和预设的第三损失函数计算第三损失函数值;通过最终样本语义向量与知识库做指针网络,得到样本局部记忆指针,包括:通过样本全局记忆指针从知识库冲筛选出目标样本数据集,再通过最终语义向量与目标样本数据集做指针网络,得到样本局部记忆指针;通过第一损失函数值和第二损失函数值反向传播更新对话网络模型直至达到预设要求,包括:通过第一损失函数值、第二损失函数值、第三损失函数值反向传播更新对话网络模型直至达到预设要求。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种基于知识库的对话生成装置,包括:获取模块,用于获取用户输入数据、预设知识库的三元组数据以及预设的占位符集,利用用户输入数据、三元组数据和占位符集构建模型输入数据,并将模型输入数据向量化,得到初始语义向量;编码模块,用于将初始语义向量输入至预先训练好的对话网络模型的编码端,利用编码端对初始语义向量进行编码,得到隐状态,再利用隐状态、对话网络模型中的记忆矩阵对初始语义向量进行更新,得到最终语义向量;提取模块,用于利用最终语义向量取出最终关注内容并输出至对话网络模型的解码端;解码模块,用于利用解码端对最终关注内容解码得到词分布,通过词分布输出初始解码结果;知识库查询模块,用于当初始解码结果中存在占位符时,通过最终语义向量与知识库做指针网络,得到局部记忆指针,再通过局部记忆指针的分布得到分布最大的目标数据作为输出,利用目标数据替换占位符,得到最终解码结果;回复模块,用于根据最终解码结果对用户的输入进行回复。
为解决上述技术问题,本申请采用的再一个技术方案是:提供一种终端,终端包括处理器、与处理器耦接的存储器,存储器中存储有程序指令,程序指令被处理器执行时,使得处理器执行如上述中任一项权利要求的基于知识库的对话生成方法的步骤。
为解决上述技术问题,本申请采用的再一个技术方案是:提供一种存储介质,存储有能够实现上述基于知识库的对话生成方法的程序文件。
本申请的有益效果是:本申请的基于知识库的对话生成方法通过结合外部的知识库,使得当与用户对话时存在超出历史对话数据库中的知识,仍然能够做到准确回复用户,解决了现有的NLP方案中普遍存在的OOV(out of vocabulary)问题,提升了对话的准确性和实用性,并且,在获取语义时,本申请还通过反复更新语义向量,从而提取到真正语义,从而避免了网络结构压缩信息导致的信息损失问题,保证提取的语义准确,并根据该语义作出准确回复,提升了回复的准确性。
附图说明
图1是本发明实施例的基于知识库的对话生成方法的流程示意图;
图2是本发明实施例的基于知识库的对话生成装置的功能模块示意图;
图3是本发明实施例的终端的结构示意图;
图4是本发明实施例的存储介质的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、***、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
图1是本发明实施例的基于知识库的对话生成方法的流程示意图。需注意的是,若有实质上相同的结果,本发明的方法并不以图1所示的流程顺序为限。如图1所示,该方法包括步骤:
步骤S101:获取用户输入数据、预设知识库的三元组数据以及预设的占位符集,利用用户输入数据、三元组数据和占位符集构建模型输入数据,并将模型输入数据向量化,得到初始语义向量。
具体地,用户输入数据通常为文本数据,在一些实施例中,当用户输入数据为语音数据时,需要将语音数据转换为文本数据。该知识库是预先准备好,三元组是指知识库中的两个实体,以及两个实体之间的实体关系,占位符集是预先设定好的一系列特殊符号,该特殊符号在解码端解码生成解码结果时,若解码结果中的某个词指向知识库,则先以该占位符占据该词所在位置,之后再知识库中找到对应的词之后,以该对应的词替换占位符。本实施例中,在接收到用户输入的用户输入数据之后,利用用户输入数据、预设知识库的三元组数据和预设的占位符集进行拼接,得到模型输入数据,再将模型输入数据向量化,得到初始语义向量,其中,模型输入数据向量化可以通过word2vec模型、glove模型、ELMo模型、BERT模型中的一种来实现。
步骤S102:将初始语义向量输入至预先训练好的对话网络模型的编码端,利用编码端对初始语义向量进行编码,得到隐状态,再利用隐状态、对话网络模型中的记忆矩阵对初始语义向量进行更新,得到最终语义向量。
需要说明的是,该对话网络模型预先训练好,具体地,该对话网络模型包括编码端和解码端,编码端通过RNN系列的GRU模型来实现。本实施例中,将初始语义向量输入至预先训练好的对话网络模型的编码端,通过编码端对初始语义向量进行编码,得到隐状态,再利用隐状态、对话网络模型中的记忆矩阵对该初始语义向量进行第一次更新,得到第一次更新的语义向量,再将该第一次更新的语义向量作为输入,利用编码端对第一次更新的语义向量再次进行编码处理,得到新的隐状态,再利用新的隐状态和记忆矩阵对第一次更新的语义向量进行更新,得到第二次更新的语义向量,依此循环,直至更新次数达到预设次数为止,从而得到最终语义向量。该预设次数预先设置,具体地,该预设次数是模仿人思考方式设置的,人的大脑在解决一个问题时可能会分为K个步骤,每个步骤所解决的重点不相同。
步骤S103:利用最终语义向量取出最终关注内容并输出至对话网络模型的解码端。
具体地,解码端采用RNN系列的GRU来实现,在得到最终语义向量后,从该最终语义向量提取出最终关注内容,将该最终关注内容输入至解码端,以供解码端进行解码。
步骤S104:利用解码端对最终关注内容解码得到词分布,通过词分布输出初始解码结果。
具体地,将最终关注内容作为解码端的初始输入进行解码处理,从而得到词分布,并生成一个带槽位的框架,框架中每个槽位的指向位置根据词分布得到。该解码端采用RNN系列的GRU进行解码,输入为上一时刻的隐状态以及上一时刻取出的记忆信息。其中,上一时刻的隐状态的初始值即编码端输送的最终关注内容。
其中,解码端的解码公式如下:
根据解码结果生成词分布:
其中,是指t这个位置在词库中概率分布,/>是指该概率分布中概率最大的一个词,W1是预先设定的参数矩阵,ht是解码端解码得到的隐状态,ok是最终关注内容。
步骤S105:当初始解码结果中存在占位符时,通过最终语义向量与知识库做指针网络,得到局部记忆指针,再通过局部记忆指针的分布得到分布最大的目标数据作为输出,利用目标数据替换占位符,得到最终解码结果。
具体地,在解码得到初始解码结果之后,分别判断初始解码结果中的每一个槽位是指向模型输入数据中的某一个文本还是指向占位符,若是指向文本,则直接生成该文本,若是指向占位符,则通过最终语义向量与知识库做指针网络(PointNetwork),产生的分布就是局部记忆指针(Local memory pointer),该局部记忆指针中分布最大的数据即为目标数据,利用该目标数据替换对应的占位符,即可得到最终解码结果。
步骤S106:根据最终解码结果对用户的输入进行回复。
本发明第一实施例的基于知识库的对话生成方法通过结合外部的知识库,使得当与用户对话时存在超出历史对话数据库中的知识,仍然能够做到准确回复用户,解决了现有的NLP方案中普遍存在的OOV(out of vocabulary)问题,提升了对话的准确性和实用性,并且,在获取语义时,本申请还通过反复更新语义向量,从而提取到真正语义,从而避免了网络结构压缩信息导致的信息损失问题,保证提取的语义准确,并根据该语义作出准确回复,提升了回复的准确性。
进一步的,在一些实施例中,步骤S102具体包括:
步骤S1021:将初始语义向量输入至编码端进行编码,得到隐状态。
具体地,编码端编码公式为:
其中H指编码得到的结果,其包括每个时间步t的隐状态q1是指初始语义向量。
步骤S1022:将隐状态添加至记忆矩阵中,得到更新后的记忆矩阵。
具体地,记忆矩阵是一系列固定大小的矩阵,记为C,
C={C1,C2,…CK},
其中,K是预先设置好的更新次数,Ck表示第k个记忆矩阵1≤k≤K,表示构成Ck的向量。
通常地,MEMNet建模记忆在k取值较大时,MEMNet建模记忆之间相关性困难,例如,k值较大时,MEMNet建模顶层会丢失掉底层的内容。因此,本实施例中,通过将得到的隐状态添加至记忆矩阵中,以克服MEMNet建模记忆之间相关性困难的问题,具体为:
其中,是记忆矩阵的向量,/>是编码端编码后得到的隐变量。
步骤S1023:利用更新后的记忆矩阵和初始语义向量计算得到从初始语义向量中取出的关注内容。
具体地,关注内容的计算公式如下:
其中,qk是第k次更新后的语义向量,k=0时即初始语义向量,是更新后的记忆矩阵的一个向量,ok是每一次更新后取出的关注内容。
步骤S1024:利用关注内容更新初始语义向量,得到更新后的语义向量,并对更新后的语义向量再次进行编码。
具体地,具体地,在得到关注内容之后,利用关注内容更新初始语义向量,更新公式如下:
qk+1=qk+ok;
其中,qk+1是更新后的语义向量。
重复执行上述步骤S1021~步骤S1024,直至达到预设次数为止,得到最终语义向量。
本实施例中,在得到初始语义向量之后,利用初始语义向量进行编码,得到隐状态,再通过隐状态更新记忆矩阵,利用更新后的记忆矩阵与初始语义向量计算得到关注内容,再以关注内容更新初始语义向量,得到更新一次的语义向量,再将更新一次的语义向量输入作为输入,重新通过编码端对更新一次的语义向量进行编码,并再次进行后续更新语义向量的操作,直至更新次数达到K次为止,得到最终语义向量qK。通过利用循环更新初始语义向量的方式,获取到最终语义向量,从而尽量避免出现网络结构压缩而导致的信息损失的问题,使得获取到的最终语义向量中记录的信息更为全面和准确。
进一步的,在一些实施例中,步骤S103之后,还包括:
步骤S1031:通过最终语义向量查询知识库,得到记忆分布的全局记忆指针。
具体地,在得到最终语义向量后,利用该最终语义向量查询知识库的每一条知识直至最后一条,根据查询结果构建记忆分布的全局记忆指针。
优选地,在一些实施例中,该步骤S1031具体为:通过所述最终语义向量查询所述知识库中的每一条数据,再利用所述最终语义向量和所述记忆矩阵做内积相似度计算,并对计算结果执行sigmoid函数,得到记忆分布的所述全局记忆指针。
具体地,利用G表示全局记忆指针,则G={g1,g2,g3,…,gi}
其中,qK表示最终语义向量,是记忆矩阵的一个向量。
步骤S105中的通过所述最终语义向量与所述知识库做指针网络,得到局部记忆指针,具体包括:
通过所述全局记忆指针从所述知识库中筛选出目标数据集,再通过所述最终语义向量与所述目标数据集做指针网络,得到所述局部记忆指针。
具体地,当初始语义向量中存在占位符时,全局记忆指针就会传递至知识库,以对知识库进行过滤,从中筛选出目标数据集,再利用筛选后的目标数据集与最终语义向量做指针网络,得到局部记忆指针,其利用全局记忆指针对知识库中的知识进行过滤,缩小需要查询的数据范围,再通过利用最终语义向量和目标数据集做指针网络,得到局部记忆指针。具体地,全局记忆指针过滤知识库可以表示为:
局部记忆指针的计算公式如下:
其中,Lt为局部记忆指针,qk为语义向量,由全局记忆指针过滤知识库后得到。
本实施例通过在得到最终语义向量后,利用最终语义向量查询知识库,从而构建全局记忆指针,当解码端解码得到的初始结果中存在占位符时,利用该全局记忆指针对知识库进行过滤,减少后续需要查询的数据量,再利用过滤后的目标数据集与最终语义向量做指针网络,从而不需要查询知识库中所有的数据,减少了需要处理的数据。
进一步的,本发明实施例的基于知识库的对话生成方法还包括预先训练对话网络模型,该预先训练对话网络模型包括以下步骤:
步骤S201:获取样本训练数据,所述样本训练数据包括样本输入和样本真实结果,将所述样本输入向量化,得到初始样本语义向量,所述样本输入包括历史对话数据、所述知识库的三元组数据和所述占位符集,所述样本真实结果包括每个词的指向位置。
具体地,样本训练数据包括样本输入和样本真实结果,样本输入有历史对话数据、知识库的三元组数据和占位符集组成。
步骤S202:将所述初始样本语义向量输入至待训练的对话网络模型的编码端,利用所述编码端对所述初始样本语义向量进行编码,得到样本隐状态,再利用所述样本隐状态、所述对话网络模型中的记忆矩阵对所述初始样本语义向量进行更新,得到最终样本语义向量。
需要说明的是,对话网络模型的记忆矩阵初始时预先设定,在模型训练过程中进行更新。具体地,步骤S202与步骤S102相似,步骤S202的详细内容请参考步骤S102,此处不再赘述。
步骤S203:利用所述最终样本语义向量取出最终样本关注内容并输出至所述对话网络模型的解码端。
具体地,步骤S203的内容与步骤S103相似,步骤S203的详细内容请参考步骤S103,此处不再赘述。
步骤S204:利用所述解码端对所述最终样本关注内容解码得到样本词分布,通过所述样本词分布输出初始样本解码结果,并基于所述初始样本解码结果和预设的第一损失函数计算第一损失函数值。
具体地,通过解码端对最终样本关注内容进行解码后得到样本词分布,再通过该样本词分布输出初始样本解码结果,其中解码公式请参阅步骤S104,然后,利用样本词分布结合预设的第一损失函数计算第一损失函数值,该第一损失函数的计算公式为:
其中,Lossv是第一损失函数值,m是指初始解码结果中字符的个数,是样本词分布。
步骤S205、当所述初始样本解码结果中存在所述占位符时,通过所述最终样本语义向量与所述知识库做指针网络,得到样本局部记忆指针,再通过所述样本局部记忆指针得到概率最大的目标样本数据作为输出,利用所述目标样本数据替换所述占位符,得到最终样本解码结果,再基于所述样本词分布、所述每个词的指向位置、所述样本局部记忆指针和预设的第二损失函数计算第二损失函数值。
具体地,得出最终样本解码结果的过程请参阅步骤S105,此处不再赘述。
在得出最终样本解码结果之后,利用样本词分布、每个词的指向位置、样本局部记忆指针和预设的第二损失函数计算第二损失函数值,该第二损失函数计算公式为:
其中,Losst时第二损失函数值,Lt是样本词分布,是每个词的指向位置。
步骤S206、通过所述第一损失函数值和所述第二损失函数值反向传播更新所述对话网络模型直至达到预设要求。
具体地,该预设要求预先设置,通过第一损失函数值和第二损失函数值反向传播更新该对话网络模型,然后反复向更新后的对话网络模型输入样本训练数据进行训练,直至对话网络模型精度达到预设要求为止。
进一步的,步骤S201具体包括:
步骤S2011:获取预先准备的历史对话数据、知识库的三元组数据以及占位符集,并将所述历史对话数据、所述三元组数据和所述占位符集拼接得到所述模型输入数据。
具体地,在获取到历史对话数据之后,还需对历史对话数据进行预处理,以将历史对话数据中错误的或残缺的数据删除,实现对历史对话数据的清洗。
步骤S2012:获取样本真实结果,并确认所述样本真实结果中每个词是指向所述知识库中一个实体还是指向所述样本输入中的一个文本,得到每个词的指向位置。
具体地,样本真实结果包括针对于历史对话数据的回复中的每一个词的指向位置,如部分词指向历史对话数据,部分词指向知识库中的某一实体。例如,历史对话数据为“深圳特区是什么时候成立的?”,回复的内容是“深圳特区的成立时间是1980年”,其中1980年来自于知识库,利用y1,y2,…yn来表示该回复内容,则y1是指向历史对话数据中的“深圳特区”,yn则是指向知识库中的“1980年”。
其中,每个词的指向位置可以表示为:
其中,表示每个词yi的指向位置,/>表示当存在yi指向知识库的实体Object(uz)时,max(z)表示取概率最大的实体的位置,n是历史输入数据的长度,l是知识库中三元组的个数,n+l+1代表样本输入的长度。
步骤S2013:利用所述样本输入和所述样本真实结果构建所述样本训练数据。
步骤S2014:将所述模型输入数据向量化,得到所述初始语义向量。
进一步的,步骤S203之后,还包括:
步骤S2031:通过所述最终样本语义向量查询所述知识库,得到记忆分布的样本全局记忆指针。
具体地,步骤S2031与步骤S1031类似,步骤S1031的详细内容请参考步骤S1031,此处不再赘述。
步骤S2032:利用所述样本全局记忆指针和预设的第三损失函数计算第三损失函数值。
具体地,第三损失函数的计算公式为:
其中,Lossg为第三损失函数值,是根据样本全局记忆指针构建的标签,gi是样本全局记忆指针,if(Object(mi)∈Y)表示存在词Object(mi)属于知识库Y。
所述步骤S205中的通过所述最终样本语义向量与所述知识库做指针网络,得到样本局部记忆指针,具体包括:
通过所述样本全局记忆指针从所述知识库冲筛选出目标样本数据集,再通过所述最终语义向量与所述目标样本数据集做指针网络,得到所述样本局部记忆指针。
本步骤的详细内容请参阅上述步骤“通过所述全局记忆指针从所述知识库中筛选出目标数据集,再通过所述最终语义向量与所述目标数据集做指针网络,得到所述局部记忆指针”,此处不再赘述。
所述步骤S206具体包括:
通过所述第一损失函数值、所述第二损失函数值、所述第三损失函数值反向传播更新所述对话网络模型直至达到所述预设要求。
本实施例通过添加全局记忆指针的训练任务,从而使得训练好的对话网络模型能够在解码后,利用全局记忆指针过滤记忆库,减少后续需要处理的数据量,提升了模型的运行效率,降低了模型对资源的消耗。
图2是本发明实施例的基于知识库的对话生成装置的功能模块示意图。如图2所示,该装置20包括获取模块21、编码模块22、提取模块23、解码模块24、知识库查询模块25和回复模块26。
获取模块21,用于获取用户输入数据、预设知识库的三元组数据以及预设的占位符集,利用用户输入数据、三元组数据和占位符集构建模型输入数据,并将模型输入数据向量化,得到初始语义向量;
编码模块22,用于将初始语义向量输入至预先训练好的对话网络模型的编码端,利用编码端对初始语义向量进行编码,得到隐状态,再利用隐状态、对话网络模型中的记忆矩阵对初始语义向量进行更新,得到最终语义向量;
提取模块23,用于利用最终语义向量取出最终关注内容并输出至对话网络模型的解码端;
解码模块24,用于利用解码端对最终关注内容解码得到词分布,通过词分布输出初始解码结果;
知识库查询模块25,用于当初始解码结果中存在占位符时,通过最终语义向量与知识库做指针网络,得到局部记忆指针,再通过局部记忆指针的分布得到分布最大的目标数据作为输出,利用目标数据替换占位符,得到最终解码结果;
回复模块26,用于根据最终解码结果对用户的输入进行回复。
可选地,编码模块22将初始语义向量输入至预先训练好的对话网络模型的编码端,利用编码端对初始语义向量进行编码,得到隐状态,再利用隐状态、对话网络模型中的记忆矩阵对初始语义向量进行更新,得到最终语义向量的操作还可以为:将初始语义向量输入至编码端进行编码,得到隐状态;将隐状态添加至记忆矩阵中,得到更新后的记忆矩阵;利用更新后的记忆矩阵和初始语义向量计算得到从初始语义向量中取出的关注内容;利用关注内容更新初始语义向量,得到更新后的语义向量,并对更新后的语义向量再次进行编码;重复执行上述步骤,直至达到预设次数为止,得到最终语义向量。
可选地,提取模块23利用最终语义向量取出最终关注内容并输出至对话网络模型的解码端的操作之后,知识库查询模块25还用于通过最终语义向量查询知识库,得到记忆分布的全局记忆指针;知识库查询模块25通过最终语义向量与知识库做指针网络,得到局部记忆指针的操作还可以为:通过全局记忆指针从知识库中筛选出目标数据集,再通过最终语义向量与目标数据集做指针网络,得到局部记忆指针。
可选地,知识库查询模块25通过最终语义向量查询知识库,得到记忆分布的全局记忆指针的操作还可以为:通过最终语义向量查询知识库中的每一条数据,再利用最终语义向量和记忆矩阵做内积相似度计算,并对计算结果执行sigmoid函数,得到记忆分布的全局记忆指针。
可选地,该装置20还包括训练模块,用于执行预先训练对话网络模型,该预先训练对话网络模型的操作具体包括:获取样本训练数据,样本训练数据包括样本输入和样本真实结果,将样本输入向量化,得到初始样本语义向量,样本输入包括历史对话数据、知识库的三元组数据和占位符集,样本真实结果包括每个词的指向位置;将初始样本语义向量输入至待训练的对话网络模型的编码端,利用编码端对初始样本语义向量进行编码,得到样本隐状态,再利用样本隐状态、对话网络模型中的记忆矩阵对初始样本语义向量进行更新,得到最终样本语义向量;利用最终样本语义向量取出最终样本关注内容并输出至对话网络模型的解码端;利用解码端对最终样本关注内容解码得到样本词分布,通过样本词分布输出初始样本解码结果,并基于初始样本解码结果和预设的第一损失函数计算第一损失函数值;当初始样本解码结果中存在占位符时,通过最终样本语义向量与知识库做指针网络,得到样本局部记忆指针,再通过样本局部记忆指针得到概率最大的目标样本数据作为输出,利用目标样本数据替换占位符,得到最终样本解码结果,再基于样本词分布、每个词的指向位置、样本局部记忆指针和预设的第二损失函数计算第二损失函数值;通过第一损失函数值和第二损失函数值反向传播更新对话网络模型直至达到预设要求。
可选地,更新模块获取样本训练数据,样本训练数据包括样本输入和样本真实结果,将样本输入向量化,得到初始样本语义向量的操作还可以为:获取预先准备的历史对话数据、知识库的三元组数据以及占位符集,并将历史对话数据、三元组数据和占位符集拼接得到模型输入数据;获取样本真实结果,并确认样本真实结果中每个词是指向知识库中一个实体还是指向样本输入中的一个文本,得到每个词的指向位置;利用样本输入和样本真实结果构建样本训练数据;将模型输入数据向量化,得到初始语义向量。
可选地,更新模块利用最终样本语义向量取出最终样本关注内容并输出至对话网络模型的解码端之后,还用于:通过最终样本语义向量查询知识库,得到记忆分布的样本全局记忆指针;利用样本全局记忆指针和预设的第三损失函数计算第三损失函数值;更新模块通过最终样本语义向量与知识库做指针网络,得到样本局部记忆指针的操作还可以为:通过样本全局记忆指针从知识库冲筛选出目标样本数据集,再通过最终语义向量与目标样本数据集做指针网络,得到样本局部记忆指针;更新模块通过第一损失函数值和第二损失函数值反向传播更新对话网络模型直至达到预设要求的操作还可以为:通过第一损失函数值、第二损失函数值、第三损失函数值反向传播更新对话网络模型直至达到预设要求。
关于上述实施例基于知识库的对话生成装置中各模块实现技术方案的其他细节,可参见上述实施例中的基于知识库的对话生成方法中的描述,此处不再赘述。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。对于装置类实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
请参阅图3,图3为本发明实施例的终端的结构示意图。如图3所示,该终端30包括处理器31及和处理器31耦接的存储器32,存储器32中存储有程序指令,程序指令被处理器31执行时,使得处理器31执行上述任一实施例所述的基于知识库的对话生成方法的步骤。
其中,处理器31还可以称为CPU(Central Processing Unit,中央处理单元)。处理器31可能是一种集成电路芯片,具有信号的处理能力。处理器31还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
参阅图4,图4为本发明实施例的存储介质的结构示意图。本发明实施例的存储介质存储有能够实现上述所有方法的程序文件41,其中,该程序文件41可以以软件产品的形式存储在上述存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
在本申请所提供的几个实施例中,应该理解到,所揭露的***,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (7)
1.一种基于知识库的对话生成方法,其特征在于,包括:
获取用户输入数据、预设的知识库的三元组数据以及预设的占位符集,利用所述用户输入数据、所述三元组数据和所述占位符集构建模型输入数据,并将所述模型输入数据向量化,得到初始语义向量;
将所述初始语义向量输入至预先训练好的对话网络模型的编码端,利用所述编码端对所述初始语义向量进行编码,得到隐状态,再利用所述隐状态、所述对话网络模型中的记忆矩阵对所述初始语义向量进行更新,得到最终语义向量;
利用所述最终语义向量取出最终关注内容并输出至所述对话网络模型的解码端;
利用所述解码端对所述最终关注内容解码得到词分布,通过所述词分布输出初始解码结果;
当所述初始解码结果中存在占位符时,通过所述最终语义向量与所述知识库做指针网络,得到局部记忆指针,再通过所述局部记忆指针的分布得到分布最大的目标数据作为输出,利用所述目标数据替换所述占位符,得到最终解码结果;
根据所述最终解码结果对所述用户的输入进行回复;
所述方法还包括预先训练所述对话网络模型,包括:
获取样本训练数据,所述样本训练数据包括样本输入和样本真实结果,将所述样本输入向量化,得到初始样本语义向量,所述样本输入包括历史对话数据、所述知识库的三元组数据和所述占位符集,所述样本真实结果包括每个词的指向位置;
将所述初始样本语义向量输入至待训练的对话网络模型的编码端,利用所述编码端对所述初始样本语义向量进行编码,得到样本隐状态,再利用所述样本隐状态、所述对话网络模型中的记忆矩阵对所述初始样本语义向量进行更新,得到最终样本语义向量;
利用所述最终样本语义向量取出最终样本关注内容并输出至所述对话网络模型的解码端;
利用所述解码端对所述最终样本关注内容解码得到样本词分布,通过所述样本词分布输出初始样本解码结果,并基于所述初始样本解码结果和预设的第一损失函数计算第一损失函数值;
当所述初始样本解码结果中存在所述占位符时,通过所述最终样本语义向量与所述知识库做指针网络,得到样本局部记忆指针,再通过所述样本局部记忆指针得到概率最大的目标样本数据作为输出,利用所述目标样本数据替换所述占位符,得到最终样本解码结果,再基于所述样本词分布、所述每个词的指向位置、所述样本局部记忆指针和预设的第二损失函数计算第二损失函数值;
通过所述第一损失函数值和所述第二损失函数值反向传播更新所述对话网络模型直至达到预设要求;
所述获取样本训练数据,所述样本训练数据包括样本输入和样本真实结果,将所述样本输入向量化,得到初始样本语义向量,包括:
获取预先准备的历史对话数据、知识库的三元组数据以及占位符集,并将所述历史对话数据、所述三元组数据和所述占位符集拼接得到所述模型输入数据;
获取样本真实结果,并确认所述样本真实结果中每个词是指向所述知识库中一个实体还是指向所述样本输入中的一个文本,得到每个词的指向位置;
利用所述样本输入和所述样本真实结果构建所述样本训练数据;
将所述模型输入数据向量化,得到所述初始语义向量;
所述利用所述最终样本语义向量取出最终样本关注内容并输出至所述对话网络模型的解码端之后,还包括:
通过所述最终样本语义向量查询所述知识库,得到记忆分布的样本全局记忆指针;
利用所述样本全局记忆指针和预设的第三损失函数计算第三损失函数值;
所述通过所述最终样本语义向量与所述知识库做指针网络,得到样本局部记忆指针,包括:
通过所述样本全局记忆指针从所述知识库冲筛选出目标样本数据集,再通过所述最终语义向量与所述目标样本数据集做指针网络,得到所述样本局部记忆指针;
所述通过所述第一损失函数值和所述第二损失函数值反向传播更新所述对话网络模型直至达到预设要求,包括:
通过所述第一损失函数值、所述第二损失函数值、所述第三损失函数值反向传播更新所述对话网络模型直至达到所述预设要求。
2.根据权利要求1所述的方法,其特征在于,所述将所述初始语义向量输入至预先训练好的对话网络模型的编码端,利用所述编码端对所述初始语义向量进行编码,得到隐状态,再利用所述隐状态、所述对话网络模型中的记忆矩阵对所述初始语义向量进行更新,得到最终语义向量,包括:
将所述初始语义向量输入至所述编码端进行编码,得到隐状态;
将所述隐状态添加至所述记忆矩阵中,得到更新后的记忆矩阵;
利用所述更新后的记忆矩阵和所述初始语义向量计算得到从所述初始语义向量中取出的关注内容;
利用所述关注内容更新所述初始语义向量,得到更新后的语义向量,并对所述更新后的语义向量再次进行编码;
重复执行上述步骤,直至达到预设次数为止,得到所述最终语义向量。
3.根据权利要求1所述的方法,其特征在于,所述利用所述最终语义向量取出最终关注内容并输出至所述对话网络模型的解码端之后,还包括:
通过所述最终语义向量查询所述知识库,得到记忆分布的全局记忆指针;
所述最终语义向量与所述知识库做指针网络,得到局部记忆指针,包括:
通过所述全局记忆指针从所述知识库中筛选出目标数据集,再通过所述最终语义向量与所述目标数据集做指针网络,得到所述局部记忆指针。
4.根据权利要求3所述的方法,其特征在于,所述通过所述最终语义向量查询所述知识库,得到记忆分布的全局记忆指针,包括:
通过所述最终语义向量查询所述知识库中的每一条数据,再利用所述最终语义向量和所述记忆矩阵做内积相似度计算,并对计算结果执行sigmoid函数,得到记忆分布的所述全局记忆指针。
5.一种基于知识库的对话生成装置,其特征在于,包括:
获取模块,用于获取用户输入数据、预设的知识库的三元组数据以及预设的占位符集,利用所述用户输入数据、所述三元组数据和所述占位符集构建模型输入数据,并将所述模型输入数据向量化,得到初始语义向量;
编码模块,用于将所述初始语义向量输入至预先训练好的对话网络模型的编码端,利用所述编码端对所述初始语义向量进行编码,得到隐状态,再利用所述隐状态、所述对话网络模型中的记忆矩阵对所述初始语义向量进行更新,得到最终语义向量;
提取模块,用于利用所述最终语义向量取出最终关注内容并输出至所述对话网络模型的解码端;
解码模块,用于利用所述解码端对所述最终关注内容解码得到词分布,通过所述词分布输出初始解码结果;
知识库查询模块,用于当所述初始解码结果中存在占位符时,通过所述最终语义向量与所述知识库做指针网络,得到局部记忆指针,再通过所述局部记忆指针的分布得到分布最大的目标数据作为输出,利用所述目标数据替换所述占位符,得到最终解码结果;
回复模块,用于根据所述最终解码结果对所述用户的输入进行回复;
所述装置还包括训练模块,用于执行预先训练对话网络模型,所述预先训练所述对话网络模型,包括:
获取样本训练数据,所述样本训练数据包括样本输入和样本真实结果,将所述样本输入向量化,得到初始样本语义向量,所述样本输入包括历史对话数据、所述知识库的三元组数据和所述占位符集,所述样本真实结果包括每个词的指向位置;
将所述初始样本语义向量输入至待训练的对话网络模型的编码端,利用所述编码端对所述初始样本语义向量进行编码,得到样本隐状态,再利用所述样本隐状态、所述对话网络模型中的记忆矩阵对所述初始样本语义向量进行更新,得到最终样本语义向量;
利用所述最终样本语义向量取出最终样本关注内容并输出至所述对话网络模型的解码端;
利用所述解码端对所述最终样本关注内容解码得到样本词分布,通过所述样本词分布输出初始样本解码结果,并基于所述初始样本解码结果和预设的第一损失函数计算第一损失函数值;
当所述初始样本解码结果中存在所述占位符时,通过所述最终样本语义向量与所述知识库做指针网络,得到样本局部记忆指针,再通过所述样本局部记忆指针得到概率最大的目标样本数据作为输出,利用所述目标样本数据替换所述占位符,得到最终样本解码结果,再基于所述样本词分布、所述每个词的指向位置、所述样本局部记忆指针和预设的第二损失函数计算第二损失函数值;
通过所述第一损失函数值和所述第二损失函数值反向传播更新所述对话网络模型直至达到预设要求;
所述获取样本训练数据,所述样本训练数据包括样本输入和样本真实结果,将所述样本输入向量化,得到初始样本语义向量,包括:
获取预先准备的历史对话数据、知识库的三元组数据以及占位符集,并将所述历史对话数据、所述三元组数据和所述占位符集拼接得到所述模型输入数据;
获取样本真实结果,并确认所述样本真实结果中每个词是指向所述知识库中一个实体还是指向所述样本输入中的一个文本,得到每个词的指向位置;
利用所述样本输入和所述样本真实结果构建所述样本训练数据;
将所述模型输入数据向量化,得到所述初始语义向量;
所述利用所述最终样本语义向量取出最终样本关注内容并输出至所述对话网络模型的解码端之后,还包括:
通过所述最终样本语义向量查询所述知识库,得到记忆分布的样本全局记忆指针;
利用所述样本全局记忆指针和预设的第三损失函数计算第三损失函数值;
所述通过所述最终样本语义向量与所述知识库做指针网络,得到样本局部记忆指针,包括:
通过所述样本全局记忆指针从所述知识库冲筛选出目标样本数据集,再通过所述最终语义向量与所述目标样本数据集做指针网络,得到所述样本局部记忆指针;
所述通过所述第一损失函数值和所述第二损失函数值反向传播更新所述对话网络模型直至达到预设要求,包括:
通过所述第一损失函数值、所述第二损失函数值、所述第三损失函数值反向传播更新所述对话网络模型直至达到所述预设要求。
6.一种终端,其特征在于,所述终端包括处理器、与所述处理器耦接的存储器,所述存储器中存储有程序指令,所述程序指令被所述处理器执行时,使得所述处理器执行如权利要求1-4中任一项权利要求所述的基于知识库的对话生成方法的步骤。
7.一种存储介质,其特征在于,存储有能够实现如权利要求1-4中任一项所述的基于知识库的对话生成方法的程序文件。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110123123.4A CN112818098B (zh) | 2021-01-29 | 2021-01-29 | 基于知识库的对话生成方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110123123.4A CN112818098B (zh) | 2021-01-29 | 2021-01-29 | 基于知识库的对话生成方法、装置、终端及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112818098A CN112818098A (zh) | 2021-05-18 |
CN112818098B true CN112818098B (zh) | 2023-11-24 |
Family
ID=75860013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110123123.4A Active CN112818098B (zh) | 2021-01-29 | 2021-01-29 | 基于知识库的对话生成方法、装置、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112818098B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115617954B (zh) * | 2022-11-17 | 2023-03-28 | 清华大学 | 问答方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110019754A (zh) * | 2019-01-30 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 一种知识库的建立方法、装置及设备 |
CN110704588A (zh) * | 2019-09-04 | 2020-01-17 | 平安科技(深圳)有限公司 | 基于长短期记忆网络的多轮对话语义分析方法和*** |
CN111125333A (zh) * | 2019-06-06 | 2020-05-08 | 北京理工大学 | 一种基于表示学习与多层覆盖机制的生成式知识问答方法 |
CN111159368A (zh) * | 2019-12-12 | 2020-05-15 | 华南理工大学 | 一种个性化对话的回复生成方法 |
CN111191015A (zh) * | 2019-12-27 | 2020-05-22 | 上海大学 | 一种神经网络电影知识智能对话方法 |
CN111428015A (zh) * | 2020-03-20 | 2020-07-17 | 腾讯科技(深圳)有限公司 | 一种信息生成方法、装置、设备及存储介质 |
CN112069810A (zh) * | 2020-08-11 | 2020-12-11 | 桂林电子科技大学 | 一种文本填充方法及装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10706840B2 (en) * | 2017-08-18 | 2020-07-07 | Google Llc | Encoder-decoder models for sequence to sequence mapping |
US10942919B2 (en) * | 2018-06-29 | 2021-03-09 | Entigenlogic Llc | Generating further knowledge to process query |
-
2021
- 2021-01-29 CN CN202110123123.4A patent/CN112818098B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110019754A (zh) * | 2019-01-30 | 2019-07-16 | 阿里巴巴集团控股有限公司 | 一种知识库的建立方法、装置及设备 |
CN111125333A (zh) * | 2019-06-06 | 2020-05-08 | 北京理工大学 | 一种基于表示学习与多层覆盖机制的生成式知识问答方法 |
CN110704588A (zh) * | 2019-09-04 | 2020-01-17 | 平安科技(深圳)有限公司 | 基于长短期记忆网络的多轮对话语义分析方法和*** |
CN111159368A (zh) * | 2019-12-12 | 2020-05-15 | 华南理工大学 | 一种个性化对话的回复生成方法 |
CN111191015A (zh) * | 2019-12-27 | 2020-05-22 | 上海大学 | 一种神经网络电影知识智能对话方法 |
CN111428015A (zh) * | 2020-03-20 | 2020-07-17 | 腾讯科技(深圳)有限公司 | 一种信息生成方法、装置、设备及存储介质 |
CN112069810A (zh) * | 2020-08-11 | 2020-12-11 | 桂林电子科技大学 | 一种文本填充方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112818098A (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107590192B (zh) | 文本问题的数学化处理方法、装置、设备和存储介质 | |
CN109977207A (zh) | 对话生成方法、对话生成装置、电子设备及存储介质 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN111950275B (zh) | 基于循环神经网络的情绪识别方法、装置及存储介质 | |
CN108228576B (zh) | 文本翻译方法及装置 | |
CN109215630B (zh) | 实时语音识别方法、装置、设备及存储介质 | |
CN112633003A (zh) | 一种地址识别方法、装置、计算机设备及存储介质 | |
CN112466314A (zh) | 情感语音数据转换方法、装置、计算机设备及存储介质 | |
CN113539244B (zh) | 端到端语音识别模型训练方法、语音识别方法及相关装置 | |
CN111767697B (zh) | 文本处理方法、装置、计算机设备以及存储介质 | |
CN112712813A (zh) | 语音处理方法、装置、设备及存储介质 | |
CN111435592A (zh) | 一种语音识别方法、装置及终端设备 | |
CN115062134B (zh) | 知识问答模型训练及知识问答方法、装置和计算机设备 | |
CN114267329A (zh) | 基于概率生成和非自回归模型的多说话人语音合成方法 | |
CN113035228A (zh) | 声学特征提取方法、装置、设备及存储介质 | |
CN111357051A (zh) | 语音情感识别方法、智能装置和计算机可读存储介质 | |
CN111813923A (zh) | 文本摘要方法、电子设备及存储介质 | |
CN112270184A (zh) | 自然语言处理方法、装置及存储介质 | |
CN113744727A (zh) | 模型训练方法、***、终端设备及存储介质 | |
CN112818098B (zh) | 基于知识库的对话生成方法、装置、终端及存储介质 | |
CN113723115B (zh) | 基于预训练模型的开放域问答预测方法及相关设备 | |
WO2011071560A1 (en) | Compressing feature space transforms | |
CN114490926A (zh) | 一种相似问题的确定方法、装置、存储介质及终端 | |
CN117634459A (zh) | 目标内容生成及模型训练方法、装置、***、设备及介质 | |
CN112133285B (zh) | 语音识别方法、装置、存储介质和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220927 Address after: Room 2601 (Unit 07), Qianhai Free Trade Building, No. 3048, Xinghai Avenue, Nanshan Street, Qianhai Shenzhen-Hong Kong Cooperation Zone, Shenzhen, Guangdong 518000 Applicant after: Shenzhen Ping An Smart Healthcare Technology Co.,Ltd. Address before: 1-34 / F, Qianhai free trade building, 3048 Xinghai Avenue, Mawan, Qianhai Shenzhen Hong Kong cooperation zone, Shenzhen, Guangdong 518000 Applicant before: Ping An International Smart City Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |