CN112560429A - 基于深度学习的智能培训检测方法及*** - Google Patents

基于深度学习的智能培训检测方法及*** Download PDF

Info

Publication number
CN112560429A
CN112560429A CN202011538508.9A CN202011538508A CN112560429A CN 112560429 A CN112560429 A CN 112560429A CN 202011538508 A CN202011538508 A CN 202011538508A CN 112560429 A CN112560429 A CN 112560429A
Authority
CN
China
Prior art keywords
text information
deep learning
module
model
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011538508.9A
Other languages
English (en)
Inventor
宣明辉
林路
刘卫东
郏维强
朱高坡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sinyada Technology Co ltd
Original Assignee
Sinyada Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sinyada Technology Co ltd filed Critical Sinyada Technology Co ltd
Priority to CN202011538508.9A priority Critical patent/CN112560429A/zh
Publication of CN112560429A publication Critical patent/CN112560429A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开了一种基于深度学习的智能培训检测方法及***,该方法包含:向被检测者提问;接收被检测者的语音回答并将其转换成文本信息;通过BERT模型对文本信息进行纠错;对纠错后的文本信息进行多模式综合评分。本发明的基于深度学习的智能培训检测方法及***,能够自动对被培训者进行语音提问,并对其语音回答进行智能转化和纠错,同时,采用多模式综合评分的评分架构,避免单模型评分的偏差。

Description

基于深度学习的智能培训检测方法及***
技术领域
本发明涉及一种基于深度学习的智能培训检测方法及***。
背景技术
由于业务增长和人员扩张,以致业务知识更新快、培训量大、培训的方式呈现多样化等,传统的人工线下培训往往面临以下难题:
1.传统线下培训需协调各方时间,以保证课程进行。
2.传统培训为一对多教学,学习内容固定,无法针对不同学员进行个性化教学。
3.传统培训为讲师讲理论知识和典型案例,学员课后自行练习,理论知识难以转化为业务能力,课后练习次数和效果不易监控。
4.传统培训时一对一模拟训练主观性强,次数有限,难以反映学员真实业务能力变化情况。
5.培训的结果评估。
发明内容
本发明提供了一种基于深度学习的智能培训检测方法及***,采用如下的技术方案:
一种基于深度学习的智能培训检测方法,包括以下步骤:
向被检测者提问;
接收被检测者的语音回答并将其转换成文本信息;
通过BERT模型对文本信息进行纠错;
对纠错后的文本信息进行多模式综合评分。
进一步地,对纠错后的文本信息进行多模式综合评分的具体方法为:
计算文本信息和所提问题的标准答案的相似度;
计算文本信息和所提问题的核心词汇之间的匹配度;
根据相似度和匹配度计算评分。
进一步地,计算文本信息和所提问题的标准答案的相似度得具体方法为:
使用训练好的BERT模型对述文本信息和所提问题的标准答案进行编码得到文本编码和答案编码;
将文本编码和答案编码进行dropout处理;
将dropout处理后的文本编码和答案编码输入一输出维度为2的全连接层以计算相似度。
进一步地,基于深度学习的智能培训检测方还包括:
识别纠错后的文本信息的含义;
根据识别出的文本信息的含义向被检测者再次提问。
进一步地,识别文本信息的含义的具体方法为:
识别文本信息属于大样本数据还是小样本数据;
当文本信息属于小样本数据时通过训练好的小样本语义识别模型识别其含义;
当文本信息属于大样本数据时通过训练好的大样本语义识别模型识别其含义。
进一步地,训练小样本语义识别模型的方法为:
构建分析模型、预训练数据集、支撑数据集和预测数据集;
通过预训练数据集对分析模型进行预训练;
通过支撑数据集对预训练后的分析模型进行正式训练;
通过预测数据集对正式训练后的分析模型进行评估验证最后得到小样本语义识别模型。
一种基于深度学习的智能培训检测***,包括:
语音提问模块,用于向被检测者提问;
语音识别模块,用于接收被检测者的语音回答并将其转换成文本信息;
文本纠错模块,用于通过BERT模型对文本信息进行纠错;
多模式评分模块,对于对纠错后的文本信息进行多模式综合评分。
进一步地,多模式评分模块包括:
相似度计算子模块,用于计算文本信息和所提问题的标准答案的相似度;
匹配度计算子模块,用于计算文本信息和所提问题的核心词汇之间的匹配度;
评分计算子模块,用于根据相似度计算子模块计算得到的相似度和匹配度计算子模块计算得到的匹配度计算评分。
进一步地,基于深度学习的智能培训检测***还包括:
语义识别模块,用于识别纠错后的文本信息的含义;
语音提问模块根据语义识别模块识别出的文本信息的含义向被检测者再次提问。
进一步地,语义识别模块包括:
样本识别子模块,用于识别文本信息属于大样本数据还是小样本数据;
小样本语义识别子模块,用于当文本信息属于小样本数据时通过训练好的小样本语义识别模型识别其含义;
大样本语义识别子模块,用于当文本信息属于大样本数据时通过训练好的大样本语义识别模型识别其含义识别其含义。
本发明的有益之处在于所提供的基于深度学习的智能培训检测方法及***,能够自动对被培训者进行语音提问,并对其语音回答进行智能转化和纠错,同时,采用多模式综合评分的评分架构,避免单模型评分的偏差。
附图说明
图1是本发明的基于深度学习的智能培训检测方法的示意图;
图2是本发明的基于深度学习的智能培训检测***的示意图。
具体实施方式
以下结合附图和具体实施例对本发明作具体的介绍。
如图1所示为本发明的一种基于深度学习的智能培训检测方法,包括以下步骤:S1:向被检测者提问。S2:接收被检测者的语音回答并将其转换成文本信息。S3:通过BERT模型对文本信息进行纠错。S4:对纠错后的文本信息进行多模式综合评分。根据本发明的基于深度学习的智能培训检测方法,能够自动对被检测者进行提问,并根据被检测者的回答进行分析,并进行多模式的评分,结合多种评分模式对被检测者的回答进行综合评分。以下具体介绍上述方法。
对于步骤S1:向被检测者提问。
具体的,根据***中预存的多个问题,自动选择一个问题,通过语音播放的方式向被检测者提问。
对于步骤S2:接收被检测者的语音回答并将其转换成文本信息。
当被检测者对所提问题进行回答时,接收被检测者的语音回答,并将其转换成文本信息。
对于步骤S3:通过BERT模型对文本信息进行纠错。
在本发明中,采用BERT模型对文本信息进行纠错。具体的,BERT与常用的深度学习模型的主要区别在于:预训练阶段使用了“掩码语言模型”MLM和“判断语句s1是否为语句s2下一句”的NSP两个任务,特征抽取使用12层双向Transformer。其中,MLM任务使得模型并不知道输入位置的词汇是否为正确的词汇,这就迫使模型更多地依赖于上下文信息去预测词汇,赋予了模型一定的纠错能力。本发明依次将文本s中的每一个字c做mask掩码,依赖c的上下文来预测c位置最合适的字。设置一个容错阈值k,如果原先的字c出现在预测结果的top5中,就认为该位置不是错别字,否则是错别字。容错阈值K可以根据具体情况进行选择,在本发明中,k为5。
对于步骤S4:对纠错后的文本信息进行多模式综合评分。
在本发明中,多模式综合评分包括相似度评分和关键词匹配评分。对纠错后的文本信息进行多模式综合评分的具体方法为:计算文本信息和所提问题的标准答案的相似度。计算文本信息和所提问题的核心词汇之间的匹配度。根据相似度和匹配度计算评分。采用多模式综合评分的评分架构,避免单模型评分的偏差,而且每种评分模式的权重可灵活配置。
计算文本信息和所提问题的标准答案的相似度的具体方法为:使用训练好的BERT模型对述文本信息和所提问题的标准答案进行编码得到文本编码和答案编码,。将文本编码和答案编码进行dropout处理,以避免过度拟合。在本发明中,dropout比例设为10%。将dropout处理后的文本编码和答案编码输入一输出维度为2的全连接层以输出相似度。因为Bert中双向Attention机制,两个句子会相互Attention,也就是通过训练会学到两个句子的相似程度。
计算文本信息和所提问题的核心词汇之间的匹配度的具体方法为:通过DFA算法自动识别文本信息和核心词汇的匹配度。在本发明中,将每个答案对应的核心词汇保存在HashMap中,DFA算法能够根据HashMap中存储的核心词汇迅速匹配文本中的关键词。
作为一种优选的实施方式,基于深度学习的智能培训检测方还包括:识别纠错后的文本信息的含义。根据识别出的文本信息的含义向被检测者再次提问。再次提问后,针对被检测者的语音回答,再通过步骤S2-S4进行评分。最后,对所有问题的评分加权得到总评分。
可以理解的是,通常情况下,需要对被检测者的提出过个问题,并且根据被检测者对每个问题的回答进行分别打分,最后得到总得分。同时,为了提高人机交互体验,所提问题是根据被检测者的回答进行调整。即,识别被检测者的回答的含义,并根据该含义确定接下来需要提问的问题,使检测过程更加拟人化。
进一步地,识别文本信息的含义的具体方法为:识别文本信息属于大样本数据还是小样本数据。当文本信息属于小样本数据时通过训练好的小样本语义识别模型识别其含义。当文本信息属于大样本数据时通过训练好的大样本语义识别模型识别其含义。
其中,训练小样本语义识别模型的方法为:首先构建分析模型、预训练数据集、支撑数据集和预测数据集。其中,预训练数据集为一个大数量级的数据,包含数十万条数据,支撑数据集和预测数据集为现有的带有标记的小样本数据。通过预训练数据集对构件的分析模型进行预训练,之后再通过支撑数据集对预训练后的分析模型进行正式训练,最后再通过预测数据集对正式训练后的分析模型进行评估验证最后得到小样本语义识别模型。对于大样本语义识别模型,由于训练数据较多,可以采用通用的模型。在本发明中,大样本语义识别模型包含三层,其中,最底层是具有较强迁移能力的通用BERT模型。
如图2所示为本发明的一种基于深度学习的智能培训检测***100,用于执行上述的方法。主要包括:语音提问模块10、语音识别模块20、文本纠错模块30和多模式评分模块40。
语音提问模块10用于向被检测者提问。语音识别模块20用于接收被检测者的语音回答并将其转换成文本信息。文本纠错模块30用于通过BERT模型对文本信息进行纠错。多模式评分模块40对于对纠错后的文本信息进行多模式综合评分。
作为一种优选的实施方式,多模式评分模块包括:相似度计算子模块、匹配度计算子模块和
相似度计算子模块,用于计算文本信息和所提问题的标准答案的相似度。
匹配度计算子模块,用于计算文本信息和所提问题的核心词汇之间的匹配度。
评分计算子模块,用于根据相似度计算子模块计算得到的相似度和匹配度计算子模块计算得到的匹配度计算评分。
作为一种优选的实施方式,基于深度学习的智能培训检测***还包括:语义识别模块50。
语义识别模块50用于识别纠错后的文本信息的含义。语音提问模块根据语义识别模块识别出的文本信息的含义向被检测者再次提问。
进一步地,语义识别模块包括:样本识别子模块、小样本语义识别子模块和大样本语义识别子模块。
样本识别子模块用于识别文本信息属于大样本数据还是小样本数据。小样本语义识别子模块用于当文本信息属于小样本数据时通过训练好的小样本语义识别模型识别其含义。大样本语义识别子模块用于当文本信息属于大样本数据时通过训练好的大样本语义识别模型识别其含义识别其含义。
上述的基于深度学习的智能培训检测***100的各个模块的具体执行方法参考前述的基于深度学习的智能培训检测方法,不再赘述。
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,上述实施例不以任何形式限制本发明,凡采用等同替换或等效变换的方式所获得的技术方案,均落在本发明的保护范围内。

Claims (10)

1.一种基于深度学习的智能培训检测方法,其特征在于,包括以下步骤:
向被检测者提问;
接收被检测者的语音回答并将其转换成文本信息;
通过BERT模型对所述文本信息进行纠错;
对纠错后的文本信息进行多模式综合评分。
2.根据权利要求1所述的基于深度学习的智能培训检测方法,其特征在于,
所述对纠错后的文本信息进行多模式综合评分的具体方法为:
计算所述文本信息和所提问题的标准答案的相似度;
计算所述文本信息和所提问题的核心词汇之间的匹配度;
根据所述相似度和所述匹配度计算评分。
3.根据权利要求2所述的基于深度学习的智能培训检测方法,其特征在于,
所述计算所述文本信息和所提问题的标准答案的相似度的
具体方法为:
使用训练好的BERT模型对述文本信息和所提问题的标准答案进行编码得到文本编码和答案编码;
将所述文本编码和所述答案编码进行dropout处理;
将dropout处理后的所述文本编码和所述答案编码输入一输出维度为2的全连接层以计算所述相似度。
4.根据权利要求1所述的基于深度学习的智能培训检测方法,其特征在于,
所述基于深度学习的智能培训检测方还包括:
识别纠错后的所述文本信息的含义;
根据识别出的文本信息的含义向被检测者再次提问。
5.根据权利要求4所述的基于深度学习的智能培训检测方法,其特征在于,
所述识别所述文本信息的含义的具体方法为:
识别所述文本信息属于大样本数据还是小样本数据;
当所述文本信息属于小样本数据时通过训练好的小样本语义识别模型识别其含义;
当所述文本信息属于大样本数据时通过训练好的大样本语义识别模型识别其含义。
6.根据权利要求5所述的基于深度学习的智能培训检测方法,其特征在于,
训练所述小样本语义识别模型的方法为:
构建分析模型、预训练数据集、支撑数据集和预测数据集;
通过所述预训练数据集对所述分析模型进行预训练;
通过所述支撑数据集对预训练后的所述分析模型进行正式训练;
通过所述预测数据集对正式训练后的所述分析模型进行评估验证最后得到所述小样本语义识别模型。
7.一种基于深度学习的智能培训检测***,其特征在于,包括:
语音提问模块,用于向被检测者提问;
语音识别模块,用于接收被检测者的语音回答并将其转换成文本信息;
文本纠错模块,用于通过BERT模型对所述文本信息进行纠错;
多模式评分模块,对于对纠错后的文本信息进行多模式综合评分。
8.根据权利要求7所述的基于深度学习的智能培训检测***,其特征在于,
所述多模式评分模块包括:
相似度计算子模块,用于计算所述文本信息和所提问题的标准答案的相似度;
匹配度计算子模块,用于计算所述文本信息和所提问题的核心词汇之间的匹配度;
评分计算子模块,用于根据所述相似度计算子模块计算得到的相似度和所述匹配度计算子模块计算得到的匹配度计算评分。
9.根据权利要求7所述的基于深度学习的智能培训检测***,其特征在于,
所述基于深度学习的智能培训检测***还包括:
语义识别模块,用于识别纠错后的所述文本信息的含义;
所述语音提问模块根据所述语义识别模块识别出的所述文本信息的含义向被检测者再次提问。
10.根据权利要求9所述的基于深度学习的智能培训检测***,其特征在于,
所述语义识别模块包括:
样本识别子模块,用于识别所述文本信息属于大样本数据还是小样本数据;
小样本语义识别子模块,用于当所述文本信息属于小样本数据时通过训练好的小样本语义识别模型识别其含义;
大样本语义识别子模块,用于当所述文本信息属于大样本数据时通过训练好的大样本语义识别模型识别其含义识别其含义。
CN202011538508.9A 2020-12-23 2020-12-23 基于深度学习的智能培训检测方法及*** Pending CN112560429A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011538508.9A CN112560429A (zh) 2020-12-23 2020-12-23 基于深度学习的智能培训检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011538508.9A CN112560429A (zh) 2020-12-23 2020-12-23 基于深度学习的智能培训检测方法及***

Publications (1)

Publication Number Publication Date
CN112560429A true CN112560429A (zh) 2021-03-26

Family

ID=75031523

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011538508.9A Pending CN112560429A (zh) 2020-12-23 2020-12-23 基于深度学习的智能培训检测方法及***

Country Status (1)

Country Link
CN (1) CN112560429A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392187A (zh) * 2021-06-17 2021-09-14 上海出版印刷高等专科学校 一种针对主观题的自动评分及纠错推荐方法
CN113990302A (zh) * 2021-09-14 2022-01-28 北京左医科技有限公司 电话随访语音识别方法、装置及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180260472A1 (en) * 2017-03-10 2018-09-13 Eduworks Corporation Automated tool for question generation
CN109446306A (zh) * 2018-10-16 2019-03-08 浪潮软件股份有限公司 一种基于任务驱动的多轮对话的智能问答方法
CN110797010A (zh) * 2019-10-31 2020-02-14 腾讯科技(深圳)有限公司 基于人工智能的问答评分方法、装置、设备及存储介质
CN111310441A (zh) * 2020-01-20 2020-06-19 上海眼控科技股份有限公司 基于bert的语音识别后文本修正方法、装置、终端及介质
CN111611809A (zh) * 2020-05-26 2020-09-01 西藏大学 一种基于神经网络的汉语语句相似度计算方法
CN111696535A (zh) * 2020-05-22 2020-09-22 百度在线网络技术(北京)有限公司 基于语音交互的信息核实方法、装置、设备和计算机存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180260472A1 (en) * 2017-03-10 2018-09-13 Eduworks Corporation Automated tool for question generation
CN109446306A (zh) * 2018-10-16 2019-03-08 浪潮软件股份有限公司 一种基于任务驱动的多轮对话的智能问答方法
CN110797010A (zh) * 2019-10-31 2020-02-14 腾讯科技(深圳)有限公司 基于人工智能的问答评分方法、装置、设备及存储介质
CN111310441A (zh) * 2020-01-20 2020-06-19 上海眼控科技股份有限公司 基于bert的语音识别后文本修正方法、装置、终端及介质
CN111696535A (zh) * 2020-05-22 2020-09-22 百度在线网络技术(北京)有限公司 基于语音交互的信息核实方法、装置、设备和计算机存储介质
CN111611809A (zh) * 2020-05-26 2020-09-01 西藏大学 一种基于神经网络的汉语语句相似度计算方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
周晓军 著: "多媒体智能教学***研究与设计", 31 October 2009, 北京语言大学出版社, pages: 96 - 100 *
邱锡鹏 著: "神经网络与深度学习", 31 July 2020, 机械工业出版社, pages: 246 - 248 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392187A (zh) * 2021-06-17 2021-09-14 上海出版印刷高等专科学校 一种针对主观题的自动评分及纠错推荐方法
CN113990302A (zh) * 2021-09-14 2022-01-28 北京左医科技有限公司 电话随访语音识别方法、装置及***

Similar Documents

Publication Publication Date Title
CN113656570B (zh) 基于深度学习模型的视觉问答方法及装置、介质、设备
CN110825875B (zh) 文本实体类型识别方法、装置、电子设备和存储介质
CN108121702B (zh) 数学主观题评阅方法及***
Al Emran et al. A survey of intelligent language tutoring systems
CN110797010A (zh) 基于人工智能的问答评分方法、装置、设备及存储介质
CN108052504B (zh) 数学主观题解答结果的结构分析方法及***
KR102654480B1 (ko) 언어학습을 위한 지식 기반 대화 시스템 및 방법
CN112069815B (zh) 成语填空题的答案选择方法、装置和计算机设备
KR20200119358A (ko) 인공지능 기계학습 기반 자동채점을 이용한 토플 강의 추천 서비스 제공 시스템
CN112560429A (zh) 基于深度学习的智能培训检测方法及***
KR20210059995A (ko) 학습 기반의 외국어 말하기 평가 방법 및 그 시스템
CN115292461A (zh) 基于语音识别的人机交互学习方法及***
CN114492460A (zh) 基于衍生提示学习的事件因果关系抽取方法
CN116259004A (zh) 一种应用于在线教育的学生学习状态检测方法及***
CN110765241A (zh) 推荐题的超纲检测方法、装置、电子设备和存储介质
CN113326367A (zh) 基于端到端文本生成的任务型对话方法和***
CN116757199A (zh) 用于机器人的大型语言模型和答案集编程的理解架构模型
CN107992482B (zh) 数学主观题解答步骤的规约方法及***
CN115935969A (zh) 基于多模态信息融合的异构数据特征提取方法
CN114358579A (zh) 评阅方法、评阅装置、电子设备以及计算机可读存储介质
KR20230116143A (ko) 상담 유형 분류 시스템
CN108897888B (zh) 语音客服培训场景下的人机对练方法
CN108959588B (zh) 基于大数据的文本客服机器人智能学习方法
Carlson et al. Building a conversational SimStudent
Sagae et al. Validation of a dialog system for language learners

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination