CN114048296A - 基于语义门的闲聊型多轮对话方法、***、介质及设备 - Google Patents

基于语义门的闲聊型多轮对话方法、***、介质及设备 Download PDF

Info

Publication number
CN114048296A
CN114048296A CN202111192465.8A CN202111192465A CN114048296A CN 114048296 A CN114048296 A CN 114048296A CN 202111192465 A CN202111192465 A CN 202111192465A CN 114048296 A CN114048296 A CN 114048296A
Authority
CN
China
Prior art keywords
fine
gpt2
model
tuned
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111192465.8A
Other languages
English (en)
Inventor
朱亚杰
卢宏涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN202111192465.8A priority Critical patent/CN114048296A/zh
Publication of CN114048296A publication Critical patent/CN114048296A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/3332Query translation
    • G06F16/3335Syntactic pre-processing, e.g. stopword elimination, stemming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3346Query execution using probabilistic model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种基于语义门的闲聊型多轮对话方法、***、介质及设备,包括:步骤S1:根据业务需求收集相应用户语料并进行预处理,得到预处理后的语料;步骤S2:利用预处理后的语料对预训练语言模型GPT2‑Chinese进行微调,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成;步骤S3:输入文本利用微调后GPT2生成模型生成多个回复,并按照置信度从大到小排序,取前N条回复;步骤S4:利用预设数据库对Bert分类模型进行微调,得到微调后的Bert分类模型;步骤S5:联合微调后的Bert分类模型进行回复筛选,使生成的车载闲聊文本流畅且符合用户语义的目的。

Description

基于语义门的闲聊型多轮对话方法、***、介质及设备
技术领域
本发明涉及人工智能处理技术领域,具体地,涉及基于语义门的闲聊型多轮对话方法、***、介质及设备,更为具体地,涉及一种自然语言生成可控方法及***。
背景技术
近三年来,预训练语言模型掀起了自然语言研究任务的热潮。语言模型在高质量、大规模的数据集上预先训练,学习理解自然语言的表示,研究者可直接使用预训练语言模型微调处理下游任务,省去了繁琐的模型训练过程,促进了各种自然语言处理技术的快速发展。预训练语言模型主要学习词的上下文表示,根据不同的序列预测方式可分为自编码和自回归语言模型。谷歌提出的Bert是典型的自编码代表,使用Transformer抽取特征,引入Masked Language Model(MLM)和Next Sentence Prediction(NSP)预训练目标,能够获取上下文相关的双向特征表示,擅长处理句子或段落的匹配任务,但预训练过程和生成过程的不一致,导致在生成任务上效果不佳。自回归语言模型的代表有ELMo、GPT、XLnet:Peters Matthew E等人提出ELMo是最早的预训练语言模型,使用双向长短记忆网络(BiLSTM)串行提取特征,模型按照文本序列顺序拆解的方式从左至右和从右至左两个方向学习词的深度上下文表示,获取上下文信息的双向特征,但ELMo本质上是两个单向语言模型的拼接,不能同时获取上下文表示,且神经网络LSTM不能解决长距离依赖,特征提取能力弱;GPT是首次使用Transformer进行特征抽取,能快速捕捉更长范围的信息,目前已经更新到第三代,GPT1微调阶段引入语言模型辅助目标,解决微调过程中的灾难性遗忘,GPT2是在GPT1上做的改进,使用覆盖更广、质量更高的训练数据,认为预训练中已包含很多特定任务所需的信息,没有针对特定模型的精调流程,在生成任务上取得很好效果,GPT3使用比GPT2更多的训练数据和性能更高的计算资源来提高模型的性能;XLnet模型使用Transformer-XL抽取特征,该模型针对Bert预训练过程与微调不符合的缺点,引入Permuted LanguageModeling(PLM),能学到各种双向上下文表示,结果表明,XLNet在20个任务上的表现优于BERT,且都有大幅度提升。通过综合分析,虽然XLnet语言模型在学习上下文表示的能力强于其他预训练语言模型,但是单向的自回归语言模型更适合生成任务,考虑到在生成任务中预训练与微调的一致性和闲聊文本的研究是针对中文文本生成的因素,所以本发明选择在中文版的预训练型GPT2-Chinese下进行微调闲聊文本生成任务。虽然GPT3已经问世,但是其模型要求更高的计算资源,实验布置难度大,所以GPT2是最好的选择。由于基于生成模型的闲聊机器人,采用数据驱动的端到端的方法构建,可以对任意问题进行回复,因此灵活性最高,但生成模型生成的回复往往存在语义不准确、上下文不一致等问题,因此准确率最低。
专利文献CN112131367A(申请号:202011018603.6)公开了自审核的人机对话方法、***及可读存储介质,所述自审核的人机对话***由输入输出模块、对话回复生成模块组成和对话自审核模块组成。用户可以输入任意对话,通过回复生成模块中的生成模型生成多个候选回复,再通过MMI评分模型计算候选回复相对于历史对话的损失,选择损失最小的作为最终回复。将生成的该回复输入对话自审核模型,先利用预训练的Bert模型提取文本特征,接着采用双向LSTM模型进行分类,判断是否属于敏感语句,若不属于敏感话语,输出该回复给用户;若判断属于敏感语句,则输出事先设置的对话模板中的回复。
本发明提出一种基于Bert分类模型的多轮闲聊生成新方法,该方法用GPT2生成模型进行推理,获得生成的top5回复,然后通过Bert分类模型筛选出最佳回复或者说和上文语义最一致的回复。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于语义门的闲聊型多轮对话方法、***、介质及设备。
根据本发明提供的一种基于语义门的闲聊型多轮对话方法,包括:
步骤S1:根据业务需求收集相应用户语料并进行预处理,得到预处理后的语料;
步骤S2:利用预处理后的语料对预训练语言模型GPT2-Chinese进行微调,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成;
步骤S3:输入文本利用微调后GPT2生成模型生成多个回复,并按照置信度从大到小排序,取前N条回复;
步骤S4:利用预设数据库对Bert分类模型进行微调,得到微调后的Bert分类模型;
步骤S5:联合微调后的Bert分类模型进行回复筛选,使生成的车载闲聊文本流畅且符合用户语义的目的。
优选地,所述步骤S2采用:
步骤S2.1:基于预处理后的语料获取符合预设条件的高质量车载闲聊训练集;
步骤S2.2:利用符合预设条件的高质量车载闲聊训练集对预训练语言模型GPT2-Chinese进行域适应训练,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成。
优选地,所述符合预设条件的高质量车载闲聊训练集包括:测试环境语料和/或生产环境语料。
优选地,所述步骤S3采用:利用微调后的Bert分类模型对输入文本和N条回复进行语义一致性分析,最终实现车载文本的个性化生成。
根据本发明提供的一种基于语义门的闲聊型多轮对话***,包括:
模块M1:根据业务需求收集相应用户语料并进行预处理,得到预处理后的语料;
模块M2:利用预处理后的语料对预训练语言模型GPT2-Chinese进行微调,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成;
模块M3:输入文本利用微调后GPT2生成模型生成多个回复,并按照置信度从大到小排序,取前N条回复;
模块M4:利用预设数据库对Bert分类模型进行微调,得到微调后的Bert分类模型;
模块M5:联合微调后的Bert分类模型进行回复筛选,使生成的车载闲聊文本流畅且符合用户语义的目的。
优选地,所述模块M2采用:
模块M2.1:基于预处理后的语料获取符合预设条件的高质量车载闲聊训练集;
模块M2.2:利用符合预设条件的高质量车载闲聊训练集对预训练语言模型GPT2-Chinese进行域适应训练,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成。
优选地,所述符合预设条件的高质量车载闲聊训练集包括:测试环境语料和/或生产环境语料。
优选地,所述模块M3采用:利用微调后的Bert分类模型对输入文本和N条回复进行语义一致性分析,最终实现车载文本的个性化生成。
根据本发明提供的一种存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现上述所述的方法的步骤。
根据本发明提供的一种基于语义门的闲聊型多轮对话设备,包括:控制器;
所述控制器包括所述的存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现上述所述的基于语义门的闲聊型多轮对话方法的步骤;或者,所述控制器包括上述所述的基于语义门的闲聊型多轮对话***。
与现有技术相比,本发明具有如下的有益效果:
1、本发明利用微调好的Bert分类模型对gpt2模型生成的多个回复分别进行推理,最终实现车载文本的个性化生成,对gpt2模型生成的回复做进一步的分类和筛选;进一步,提高了车载语音对话的准确度。
2、本发明利用微调后的预训练gpt2模型使得回复更加场景化偏于车载闲聊,提高车载语音对话匹配度,提高用户的体验感;
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为基于语义门的闲聊型多轮对话方法流程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
实施例1
车载语音对话***包括任务型对话(导航、天气和音乐等)、问答型对话(用户手册等)以及闲聊型对话;
在车载语音对话***中,直接运用开源的预训练模型gpt2会出现回复不可控的技术问题,从而影响到车载语音对话的正确性和用户体验感。
根据本发明提供的一种基于语义门的闲聊型多轮对话方法,如图1所示,包括:
步骤S1:根据业务需求收集相应用户语料并进行预处理,得到预处理后的语料;
步骤S2:利用预处理后的语料对预训练语言模型GPT2-Chinese进行微调,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成;
步骤S3:输入文本利用微调后GPT2生成模型生成多个回复,并按照置信度从大到小排序,取前N条回复;
步骤S4:利用预设数据库对Bert分类模型进行微调,得到微调后的Bert分类模型;
步骤S5:联合微调后的Bert分类模型进行回复筛选,使生成的车载闲聊文本流畅且符合用户语义的目的。
综上所述,为了提高车载语音对话匹配度,提高用户的体验感,输入文本基于gpt2模型获得多个回复,并按照置信度从大到小排序,取前N条回复,但是因为置信度不可信,因此,本发明利用微调后的bert模型基于gpt2模型的多个回复筛选出最佳回复,使得回复和上文语义匹配概率值最大。但是直接运用开源的预训练模型gpt2会出现回复不可控的技术问题,因此,对gpt2模型进行微调,利用微调后的预训练gpt2模型使得回复更加场景化偏于车载闲聊。
具体地,所述步骤S2采用:
步骤S2.1:基于预处理后的语料获取符合预设条件的高质量车载闲聊训练集;
步骤S2.2:利用符合预设条件的高质量车载闲聊训练集对预训练语言模型GPT2-Chinese进行域适应训练,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成。
具体地,所述符合预设条件的高质量车载闲聊训练集包括:测试环境语料和/或生产环境语料。使得语料更加符合业务场景,例如:更加符合车载语音对话场景的语料。具体地,测试环境语料包括车辆出厂前的测试阶段,获取的测试车载闲聊语料集;生产环境语料包括车辆出厂后的使用阶段,获取的在使用过程中车载闲聊语料集。
具体地,所述步骤S3采用:利用微调后的Bert分类模型对输入文本和N条回复进行语义一致性分析,最终实现车载文本的个性化生成。具体地,对于微调后的Bert分类模型而言,输入是微调后gpt2模型的输入和一个输出,输出是微调后gpt2模型的输入和一个输出的语义一致性,当输入文本和一条回复匹配时,匹配的标签为1;不匹配时,不匹配的标签为0;更为具体的,微调后的bert模型就是二分类。
例如:输入文本是“您好”,将输入文本“您好”输入微调后的gpt2模型,则会生成N个回复,包括:“主人,您好啊”、“好久没有和我聊天了,想死您了呢”以及“终于等到你了”;然后依次将输入文本“您好”和“主人,您好啊”、“您好”和“好久没有和我聊天了,想死您了呢”以及“您好”和“终于等到你了”分别输入微调后的bert模型,利用微调后的bert模型得到输入文本和当前回复的匹配程度,匹配用1表示,不匹配用0表示,根据匹配度可以筛选最佳回复。
根据本发明提供的一种基于语义门的闲聊型多轮对话***,包括:
模块M1:根据业务需求收集相应用户语料并进行预处理,得到预处理后的语料;
模块M2:利用预处理后的语料对预训练语言模型GPT2-Chinese进行微调,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成;
模块M3:输入文本利用微调后GPT2生成模型生成多个回复,并按照置信度从大到小排序,取前N条回复;
模块M4:利用预设数据库对Bert分类模型进行微调,得到微调后的Bert分类模型;
模块M5:联合微调后的Bert分类模型进行回复筛选,使生成的车载闲聊文本流畅且符合用户语义的目的。
综上所述,为了提高车载语音对话匹配度,提高用户的体验感,输入文本基于gpt2模型获得多个回复,并按照置信度从大到小排序,取前N条回复,但是因为置信度不可信,因此,本发明利用微调后的bert模型基于gpt2模型的多个回复筛选出最佳回复,使得回复和上文语义匹配概率值最大。但是直接运用开源的预训练模型gpt2会出现回复不可控的技术问题,因此,对gpt2模型进行微调,利用微调后的预训练gpt2模型使得回复更加场景化偏于车载闲聊。
具体地,所述模块M2采用:
模块M2.1:基于预处理后的语料获取符合预设条件的高质量车载闲聊训练集;
模块M2.2:利用符合预设条件的高质量车载闲聊训练集对预训练语言模型GPT2-Chinese进行域适应训练,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成。
具体地,所述符合预设条件的高质量车载闲聊训练集包括:测试环境语料和/或生产环境语料。使得语料更加符合业务场景,例如:更加符合车载语音对话场景的语料。具体地,测试环境语料包括车辆出厂前的测试阶段,获取的测试车载闲聊语料集;生产环境语料包括车辆出厂后的使用阶段,获取的在使用过程中车载闲聊语料集。
具体地,所述模块M3采用:利用微调后的Bert分类模型对输入文本和N条回复进行语义一致性分析,最终实现车载文本的个性化生成。具体地,对于微调后的Bert分类模型而言,输入是微调后gpt2模型的输入和一个输出,输出是微调后gpt2模型的输入和一个输出的语义一致性,当输入文本和一条回复匹配时,匹配的标签为1;不匹配时,不匹配的标签为0;更为具体的,微调后的bert模型就是二分类。
例如:输入文本是“您好”,将输入文本“您好”输入微调后的gpt2模型,则会生成N个回复,包括:“主人,您好啊”、“好久没有和我聊天了,想死您了呢”以及“终于等到你了”;然后依次将输入文本“您好”和“主人,您好啊”、“您好”和“好久没有和我聊天了,想死您了呢”以及“您好”和“终于等到你了”分别输入微调后的bert模型,利用微调后的bert模型得到输入文本和当前回复的匹配程度,匹配用1表示,不匹配用0表示,根据匹配度可以筛选最佳回复。
根据本发明提供的一种存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现上述所述的方法的步骤。
根据本发明提供的一种基于语义门的闲聊型多轮对话设备,包括:控制器;
所述控制器包括所述的存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现上述所述的基于语义门的闲聊型多轮对话方法的步骤;或者,所述控制器包括上述所述的基于语义门的闲聊型多轮对话***。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的***、装置及其各个模块以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的***、装置及其各个模块以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同程序。所以,本发明提供的***、装置及其各个模块可以被认为是一种硬件部件,而对其内包括的用于实现各种程序的模块也可以视为硬件部件内的结构;也可以将用于实现各种功能的模块视为既可以是实现方法的软件程序又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (10)

1.一种基于语义门的闲聊型多轮对话方法,其特征在于,包括:
步骤S1:根据业务需求收集相应用户语料并进行预处理,得到预处理后的语料;
步骤S2:利用预处理后的语料对预训练语言模型GPT2-Chinese进行微调,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成;
步骤S3:输入文本利用微调后GPT2生成模型生成多个回复,并按照置信度从大到小排序,取前N条回复;
步骤S4:利用预设数据库对Bert分类模型进行微调,得到微调后的Bert分类模型;
步骤S5:联合微调后的Bert分类模型进行回复筛选,使生成的车载闲聊文本流畅且符合用户语义的目的。
2.根据权利要求1所述的基于语义门的闲聊型多轮对话方法,其特征在于,所述步骤S2采用:
步骤S2.1:基于预处理后的语料获取符合预设条件的高质量车载闲聊训练集;
步骤S2.2:利用符合预设条件的高质量车载闲聊训练集对预训练语言模型GPT2-Chinese进行域适应训练,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成。
3.根据权利要求2所述的基于语义门的闲聊型多轮对话方法,其特征在于,所述符合预设条件的高质量车载闲聊训练集包括:测试环境语料和/或生产环境语料。
4.根据权利要求1所述的基于语义门的闲聊型多轮对话方法,其特征在于,所述步骤S3采用:利用微调后的Bert分类模型对输入文本和N条回复进行语义一致性分析,最终实现车载文本的个性化生成。
5.一种基于语义门的闲聊型多轮对话***,其特征在于,包括:
模块M1:根据业务需求收集相应用户语料并进行预处理,得到预处理后的语料;
模块M2:利用预处理后的语料对预训练语言模型GPT2-Chinese进行微调,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成;
模块M3:输入文本利用微调后GPT2生成模型生成多个回复,并按照置信度从大到小排序,取前N条回复;
模块M4:利用预设数据库对Bert分类模型进行微调,得到微调后的Bert分类模型;
模块M5:联合微调后的Bert分类模型进行回复筛选,使生成的车载闲聊文本流畅且符合用户语义的目的。
6.根据权利要求5所述的基于语义门的闲聊型多轮对话***,其特征在于,所述模块M2采用:
模块M2.1:基于预处理后的语料获取符合预设条件的高质量车载闲聊训练集;
模块M2.2:利用符合预设条件的高质量车载闲聊训练集对预训练语言模型GPT2-Chinese进行域适应训练,得到微调后GPT2生成模型,使得微调后GPT2生成模型学会从通用自然语言预测转向符合车载文本语言风格的预测生成。
7.根据权利要求6所述的基于语义门的闲聊型多轮对话***,其特征在于,所述符合预设条件的高质量车载闲聊训练集包括:测试环境语料和/或生产环境语料。
8.根据权利要求5所述的基于语义门的闲聊型多轮对话***,其特征在于,所述模块M3采用:利用微调后的Bert分类模型对输入文本和N条回复进行语义一致性分析,最终实现车载文本的个性化生成。
9.一种存储有计算机程序的计算机可读存储介质,其特征在于,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的方法的步骤。
10.一种基于语义门的闲聊型多轮对话设备,其特征在于,包括:控制器;
所述控制器包括权利要求9所述的存储有计算机程序的计算机可读存储介质,所述计算机程序被处理器执行时实现权利要求1至4中任一项所述的基于语义门的闲聊型多轮对话方法的步骤;或者,所述控制器包括权利要求5至8中任一项所述的基于语义门的闲聊型多轮对话***。
CN202111192465.8A 2021-10-13 2021-10-13 基于语义门的闲聊型多轮对话方法、***、介质及设备 Pending CN114048296A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111192465.8A CN114048296A (zh) 2021-10-13 2021-10-13 基于语义门的闲聊型多轮对话方法、***、介质及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111192465.8A CN114048296A (zh) 2021-10-13 2021-10-13 基于语义门的闲聊型多轮对话方法、***、介质及设备

Publications (1)

Publication Number Publication Date
CN114048296A true CN114048296A (zh) 2022-02-15

Family

ID=80205031

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111192465.8A Pending CN114048296A (zh) 2021-10-13 2021-10-13 基于语义门的闲聊型多轮对话方法、***、介质及设备

Country Status (1)

Country Link
CN (1) CN114048296A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116077942A (zh) * 2023-04-06 2023-05-09 深圳尚米网络技术有限公司 一种交互式内容推荐的实现方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116077942A (zh) * 2023-04-06 2023-05-09 深圳尚米网络技术有限公司 一种交互式内容推荐的实现方法
CN116077942B (zh) * 2023-04-06 2023-06-27 深圳尚米网络技术有限公司 一种交互式内容推荐的实现方法

Similar Documents

Publication Publication Date Title
CN106407333B (zh) 基于人工智能的口语查询识别方法及装置
CN111026842B (zh) 自然语言处理方法、自然语言处理装置及智能问答***
CN110807332B (zh) 语义理解模型的训练方法、语义处理方法、装置及存储介质
CN113987209B (zh) 基于知识指导前缀微调的自然语言处理方法、装置、计算设备和存储介质
CN110795945B (zh) 一种语义理解模型训练方法、语义理解方法、装置及存储介质
CN111159454A (zh) 基于Actor-Critic生成式对抗网络的图片描述生成方法及***
CN110990543A (zh) 智能对话的生成方法、装置、计算机设备及计算机存储介质
CN112100349A (zh) 一种多轮对话方法、装置、电子设备及存储介质
CN112214604A (zh) 文本分类模型的训练方法、文本分类方法、装置及设备
CN110807333B (zh) 一种语义理解模型的语义处理方法、装置及存储介质
CN112905795A (zh) 文本意图分类的方法、装置和可读介质
CN113035311A (zh) 一种基于多模态注意力机制的医学图像报告自动生成方法
CN112562640B (zh) 多语言语音识别方法、装置、***及计算机可读存储介质
CN114596844A (zh) 声学模型的训练方法、语音识别方法及相关设备
CN116010581A (zh) 一种基于电网隐患排查场景的知识图谱问答方法及***
CN116644168A (zh) 一种交互数据构建方法、装置、设备及存储介质
CN112183106A (zh) 一种基于音素联想及深度学习的语义理解方法及装置
CN116881470A (zh) 一种生成问答对的方法及装置
KR101941924B1 (ko) 자율 인지 신경망 기반 연관 모델 학습을 이용한 나노 의도 분석 서비스 제공 방법
Parvathi et al. Identifying relevant text from text document using deep learning
CN115064154A (zh) 混合语言语音识别模型的生成方法及装置
CN114048296A (zh) 基于语义门的闲聊型多轮对话方法、***、介质及设备
CN112818096A (zh) 对话生成方法及其装置
CN112528653A (zh) 短文本实体识别方法和***
CN106202045B (zh) 基于车联网的专项语音识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination