CN114927126A - 基于语义分析的方案输出方法、装置、设备以及存储介质 - Google Patents
基于语义分析的方案输出方法、装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN114927126A CN114927126A CN202210688182.0A CN202210688182A CN114927126A CN 114927126 A CN114927126 A CN 114927126A CN 202210688182 A CN202210688182 A CN 202210688182A CN 114927126 A CN114927126 A CN 114927126A
- Authority
- CN
- China
- Prior art keywords
- data
- text
- semantic analysis
- acquiring
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000012549 training Methods 0.000 claims abstract description 33
- 238000012216 screening Methods 0.000 claims abstract description 22
- 239000013598 vector Substances 0.000 claims description 46
- 238000000605 extraction Methods 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 24
- 238000013519 translation Methods 0.000 claims description 24
- 230000007613 environmental effect Effects 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 8
- 238000004590 computer program Methods 0.000 claims description 8
- 238000009223 counseling Methods 0.000 claims description 7
- 238000004891 communication Methods 0.000 claims description 5
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 6
- 241000282414 Homo sapiens Species 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 238000001228 spectrum Methods 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000008267 milk Substances 0.000 description 2
- 210000004080 milk Anatomy 0.000 description 2
- 235000013336 milk Nutrition 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 210000000867 larynx Anatomy 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000007170 pathology Effects 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000007723 transport mechanism Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Machine Translation (AREA)
Abstract
本申请涉及人工智能领域,公开了一种基于语义分析的方案输出方法、装置、设备以及存储介质,其中,方法包括:对预设语料数据进行分词并筛选获得同义词组和一词多意词组;将同义词组作为正例数据,并将一词多意词组作为负例数据对预设模型进行训练,得到目标语义分析模型;获取用户在进行咨询过程用户对应的第一语音数据、及客服人员对应的第二语音数据;根据第一语音数据获取对应的第一文本并根据第二语音数据获取对应的第二文本,及利用目标语义分析模型分析第一文本和第二文本,得到第一语义分析结果和第二语义分析结果;根据第一语义分析结果和第二语义分析结果从方案数据集中获取备选解决方案;及输出目标解决方案。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种基于语义分析的方案输出方法、装置、设备以及存储介质。
背景技术
随着科学技术的不断发展,较大程度提高了人机交互的水平,例如,在用户进行咨询时,可以通过用户所提供的语音数据识别用户的语义,从而获取到对应问题的解决方案,进而可以辅助客服人员为用户提供更为优质的服务。
然而,传统的语义分析对于复杂的语音输入语义分析精度不足,无法满足日益提高的人机交互智能化需求,因此,如何提高语义分析的精准度,以辅助客服人员提高客户服务水平,提升用户客户服务体验,是本领域技术人员正在研究的热门课题。
发明内容
本申请实施例的主要目的在于提供一种基于语义分析的方案输出方法、装置、设备以及存储介质,旨在为提高语义分析的精准度,以辅助客服人员提高客户服务水,提升客户服务体验。
第一方面,本申请实施例提供一种基于语义分析的方案输出方法,所述方法包括:
对预设语料数据进行分词并提取各个所述分词的词向量,及根据词向量从所述预设语料数据中筛选获得同义词组和一词多意词组;
将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型;
获取用户在进行咨询过程中的咨询音频数据,并根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据;
根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,及利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果;
根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案;
获取客服人员通过输入设备输入的咨询关键词,并根据所述咨询关键词从所述备选解决方案中筛选出目标解决方案,及输出所述目标解决方案。
第二方面,本申请实施例还提供一种方案输出装置,包括:
词组获取模块,用于对预设语料数据进行分词并提取各个所述分词的词向量,及根据词向量从所述预设语料数据中筛选获得同义词组和一词多意词组;
模型训练模块,用于将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型;
语音提取模块,用于获取用户在进行咨询过程中的咨询音频数据,并根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据;
语义分析模块,用于根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,及利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果;
方案获取模块,用于根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案;
方案输出模块,用于获取客服人员通过输入设备输入的咨询关键词,并根据所述咨询关键词从所述备选解决方案中筛选出目标解决方案,及输出所述目标解决方案。
第三方面,本申请实施例还提供一种电子设备,电子设备包括处理器、存储器、存储在存储器上并可被处理器执行的计算机程序以及用于实现处理器和存储器之间的连接通信的数据总线,其中计算机程序被处理器执行时,实现如本申请说明书任一实施例提供的方案输出方法的步骤。
第四方面,本申请实施例还提供一种存储介质,用于计算机可读存储,其特征在于,存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现如本申请说明书任一实施例提供的方案输出方法的步骤。
本申请实施例提供一种基于语义分析的方案输出方法、装置、设备以及存储介质,其中所述方案输出方法通过对预设语料数据进行分词并提取各个所述分词的词向量,及根据词向量从所述预设语料数据中筛选获得同义词组和一词多意词组;将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型;获取用户在进行咨询过程中的咨询音频数据,并根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据;根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,及利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果;根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案;获取客服人员通过输入设备输入的咨询关键词,并根据所述咨询关键词从所述备选解决方案中筛选出目标解决方案,及输出所述目标解决方案。本申请所提供的基于语义分析的方案输出方法通过将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型,并利用该语义分析模型对咨询音频数据所对应的文本进行语义分析,从而有效消除不同语境下一词多意造成的语义解析不准确,可以有效提高语义分析的精准度,以辅助客服人员提高客户服务水,提升客户服务体验。
附图说明
为了更清楚地说明本申请实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种基于语义分析的方案输出方法步骤流程示意图;
图2为本申请实施例提供的一种方案输出装置的模块结构示意图;
图3为本申请实施例提供的一种电子设备的结构示意框图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
附图中所示的流程图仅是示例说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解、组合或部分合并,因此实际执行的顺序有可能根据实际情况改变。
应当理解,在此本申请说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本申请。如在本申请说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
随着科学技术的不断发展,较大程度提高了人机交互的水平,例如,在用户进行咨询时,可以通过用户所提供的语音数据识别用户的语义,从而获取到对应问题的解决方案,进而可以辅助客服人员为用户提供更为优质的服务。
然而,传统的语义分析对于复杂的语音输入语义分析精度不足,无法满足日益提高的人机交互智能化需求。
为了解决上述问题,本申请实施例提供了一种基于语义分析的方案输出方法、装置、设备以及存储介质,其中,本申请实施例提供的一种基于语义分析的方案输出方法可应用于电子设备。该电子设备可以为手机、平板电脑、笔记本电脑、台式电脑、个人数字助理、穿戴式设备、或服务器,其中,服务器可以为独立的服务器,也可以为服务器集群。
本实施例中,为便于相关技术方案的理解,以该基于语义分析的方案输出方法应用于电子设备为例进行说明,并且电子设备为服务器。
下面结合附图,对本申请的一些实施例作详细说明。在不冲突的情况下,下述的实施例及实施例中的特征可以相互组合。
请参照图1,图1为本申请实施例提供的一种基于语义分析的方案输出方法的步骤流程示意图。
如图1所示,该基于语义分析的方案输出方法包括步骤S1至步骤S6。
步骤S1:对预设语料数据进行分词并提取各个所述分词的词向量,及根据词向量从所述预设语料数据中筛选获得同义词组和一词多意词组。
对预设语料数据进行分词获得多个分词词组,并利用词向量提取模型提取各个分词词组的词向量,并对词向量进行密度聚类,获取密度值大于阈值的词向量所对应的分词词组作为候选的同义词集合,通过对候选的同义词集合进行人工筛选,得到语料中的同义词及对应的句子作为同义词组。
根据词向量筛选出预设语料数据中重复的词组,并对比该重复词组在对应语句中的相似度,并将相似度低于阈值的词组进行人工校验,以是否该词组在对应句子中语义是否相同,若不同,则并将该种词组作为一词多意词组。
示例性地,“苹果”在部分语句是一种水果,如,“这个苹果不好,味道不对”。“苹果”在部分语句中作为一种电子产品,如,“这个苹果坏了,是芯片损坏”,因此,“苹果”一词作为一词多意词组。
步骤S2:将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型。
示例性地,构建预设模型,并设定预设模型的损失函数,所述损失函数与以正例数据作为预设模型输入时的第一输出结果及以负例数据作为预设模型输入时的第二输出结果相关。将同义词组作为正例数据,并将一词多意词组作为负例数据构建训练数据集,及根据训练数据集对预设模型进行训练,以对预设模型的损失函数进行优化,当模型的训练次数达到预设值或者损失函数的损失值小于预设值时,表征模型训练完成,得到目标语义分析模型。
步骤S3:获取用户在进行咨询过程中的咨询音频数据,并根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据。
示例性地,通过录音设备对用户咨询过程进行录音以获取录音数据,然后通过录音数据中分离出用户的咨询音频数据,从而可以根据咨询音频数据提取用户对应的第一语音数据、及客服人员对应的第二语音数据。
在一些实施方式中,所述获取用户在进行咨询过程中的咨询音频数据,包括:
获取所述用户在咨询过程中的录音数据,并将所述录音数据输入到语音提取模型的特征提取网络进行特征提取,获取所述录音数据对应的特征向量,所述录音数据包括用户的咨询音频数据和环境噪音;
将预设向量和所述特征向量输入到所述语音提取模型的语音提取网络,以从所述录音数据中提取出所述用户的咨询音频数据,其中,所述预设向量根据环境噪音获得,所述语音提取网络以所述预设向量为参考,调整所述咨询音频数据和所述环境噪音在所述录音数据中所占的比例,从而获取所述咨询音频数据。
示例性地,基于不同的声音具有不同的声纹特征,从而可以利用声纹特征将用户声音和环境噪声进行区分,以从音频数据中分离出用户的咨询音频数据。
首先需要说明的是,所谓声纹(Voiceprint),是用电声学仪器显示的携带言语信息的声波频谱。人类语言的产生是人体语言中枢与发音器官之间一个复杂的生理物理过程,人在讲话时使用的发声器官--舌、牙齿、喉头、肺、鼻腔在尺寸和形态方面每个人的差异很大,所以任何两个人的声纹图谱都有差异。
每个人的语音声学特征既有相对稳定性,又有变异性,不是绝对的、一成不变的。这种变异可来自生理、病理、心理、模拟、伪装,也与环境干扰有关。尽管如此,由于每个人的发音器官都不尽相同,因此在一般情况下,人们仍能区别不同的人的声音或判断是否是同一人的声音。
进一步地,声纹特征是与人类的发音机制的解剖学结构有关的声学特征,如频谱、倒频谱、共振峰、基音、反射系数等等、鼻音、带深呼吸音、沙哑音、笑声等;人类的声纹特征受社会经济状况、受教育水平、出生地、语义、修辞、发音、言语习惯等的影响。对于声纹特征,个人特点或受父母影响的韵律、节奏、速度、语调、音量等特征,可以从利用数学方法建模的角度出发,声纹自动识别模型目前可以使用的特征包括:声学特征,如倒频谱;词法特征,如说话人相关的词n-gram,音素n-gram等;韵律特征,如利用ngram描述的基音和能量“姿势”。
实际应用中,进行声纹特征提取时,可以提取音频数据中用户的声纹特征数据,该声纹特征数据包括基音频谱及其轮廓、基音帧的能量、基音共振峰的出现频率及其轨迹、线性预测倒谱、线谱对、自相关和对数面积比、Mel频率倒谱系数(Mel Frequency CepstrumCoefficient,MFCC)、感知线性预测中的至少一者。
例如,录音数据包括用户的咨询音频数据和环境噪音。基于用户的语音与环境噪声具有较大的差别,利用人类的语音和环境噪声训练语音提取模型,在进行用户的咨询音频数据提取时,将录音数据输入到语音提取模型的特征提取网络进行特征提取,获取录音数据对应的特征向量,录音数据包括用户的咨询音频数据和环境噪音;
将预设向量和特征向量输入到语音提取模型的语音提取网络,以从录音数据中提取出用户的咨询音频数据,其中,预设向量根据环境噪音获得,语音提取网络以预设向量为参考,调整咨询音频数据和环境噪音在录音数据中所占的比例,从而获取咨询音频数据。
在一些实施方式中,所述根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据,包括:
根据所述咨询音频数据对应的时间轴提取所述咨询音频数据中声纹特征数据;
根据预设的声纹特征模型对所述声纹特征数据进行分类,以获取用户对应的多个第一声纹特征数据、及客服人员对应的多个第二声纹特征数据;
根据所述第一声纹特征数据获取所述用户对应的第一语音数据,并根据所述第二声纹特征数据获取所述客服人员对应的第二语音数据。
示例性地,声纹特征模型是利用客服人员的语音数据输入到预设神经网络模型训练获得。
利用预设的声纹模型对所获取的声纹特征进行筛选分类,从而将声纹特征区分为与用户对应的多个第一声纹特征数据和与客服人员对应的多个第二声纹特征数据,其中,该预设的声纹模型可以是利用客服人员的语音数据进行声纹特征提取,并利用所提取的声纹特征数据进行训练获取的。
在将声纹特征分类后,根据第一声纹特征数据获取对应的多个第一语音数据,根据第二声纹特征数据获取对应的多个第二语音数据,然后根据声纹特征数据对应的时间信息赋予第一语音数据和第二语音数据对应的语音时间戳,从而可以根据语音时间戳获知对应语音数据产生的先后顺序。
步骤S4:根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,及利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果。
示例性地,客服人员一般对口语要求较为严格,因此,通常对客服人员的语音转换准确率较高,然而,通常进行相关咨询的用户的分布区域较广,用户的口音也各有不同,在语音翻译过程中,由于进行咨询的用户区域分布的复杂性,造成用户的口音有较大差异,从而使得在某些语境下的使用语音翻译模型对某些特殊发音翻译时,翻译的准确度不足。如,卷舌音的“sh”平舌音和“s”,前鼻音的“ping”和后鼻音的“pin”,字母“j”和字母“z”、字母“L”和字母“N”、、字母“F”和字母“H”等等,因此,在获取用户第一语音数据对应的第一文本时,需要对第一语音数据转换后的文本进行校验,以获取较为准确的第一文本。
在根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本后,利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果,从而可以根据第一语义分析结果和第二语义分析结果确定当前用户对应的咨询音频数据的用户语义。
在一些实施方式中,根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,包括:
分别将所述第一语音数据和所述第二语音数据输入至预设的语音转换模型进行文本转换,得到所述第一语音数据对应的第一待定文本,及所述第二语音数据对应的第二文本;
根据所述用户的咨询关键词获取对应的错词数据集,并利用所述错词数据集判断所述第一待定文本的翻译是否有误;
当所述第一待定文本的翻译有误时,标记翻译有误的所述第一待定文本,并根据所述第二文本修正翻译有误的所述第一待定文本,得到第一文本。
其中,用户的咨询关键词可以是对第一待定文本进行分词以获得分词词组,并根据词频从分词词组中确定咨询关键词,或者,咨询关键词可以是客服人员通过键盘、触控面板等输入设备输入确定。
不同的咨询关键词对应的咨询业务不同,咨询过程中涉及的词语及语境也不同,因此出现翻译错误的相关词组也不同,因此,在服务器内设置有对应咨询关键词和错词数据集的关联关系,在确定咨询关键词后,可以根据咨询关键词确定对应的错词数据集,从而可以根据该错词数据集对翻译有误的错词词组进行修正。
例如,在确定关键词为“购物咨询”时,获取购物咨询所对应的错词数据集,该错词数据集中收录了在购物场景下,翻译有误较高的一些错误词组及错误词组所对应的修正词组,在确认第一待定文本对应语句中词组翻译有误时,将对应的错误词组替换为修正词组,以获得第一文本。
如,第一待定文本中提取到“刘来”,“购买刘来”,“喝的刘来”等词组时,判断“刘来”一词翻译有误,应该为“牛奶”,并将“牛奶”替换第一待定文本中提取到“刘来”以获取第一文本。
本实施方式中,通过对用户的第一语音数据转换所得的第一文本进行校验,从而使得所获取的第二文本的翻译准确性大幅提升,进而有效提高通过第一文本所进行语义分析的精准度。
步骤S5:根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案。
根据第一语义分析结果和第二语义分析结果综合分析,以从方案数据集中获取备选解决方案,从而使得所获取的备选解决方案与用户语义的匹配度更优。
在一些实施方式中,所述根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案,包括:
从所述第一语义分析结果中获取第一备选关键词,并从所述第二语义分析结果中获取第二备选关键词;从所述第一备选关键词和所述第二备选关键词中筛选出方案关键词;
根据所述方案关键词从方案数据集中获取备选解决方案。
示例性地,根据第一语义分析结果及第二语义分析结果中至少一者的词频从第一语义分析结果中获取第一备选关键词,并从第二语义分析结果中获取第二备选关键词,然后从第一备选关键词和第二备选关键词中筛选出方案关键词,服务器预存有方案关键词和备选解决方案之间的关联关系,根据方案关键词和方案关键词和备选解决方案之间的关联关系可以从方案数据集中获取多个备选解决方案,并根据备选方案和方案关键词之间的匹配程度进行排序。
本实施方式中,通过结合通过分析用户第一语音数据所对应的第一文本得到的第一语音分析结果和客服人员第二语音数据所对应的第二文本所得到的第二语音分析结果获取对应的备选解决方案,从而使得所获取的备选解决方案对用户语义解析的准确性更为精准。步骤S6:获取客服人员通过输入设备输入的咨询关键词,并根据所述咨询关键词从所述备选解决方案中筛选出目标解决方案,及输出所述目标解决方案。
咨询关键词为客服人员通过与用户的交流中所确定的与用户需求适配的关键词,该咨询关键词可以通过输入设备向服务器输入,其中,输入设备包括但不限定于鼠标、键盘、触控面板,客服人员可以通过操控输入设备向服务器输入对应的咨询关键词,服务器根据所获取的咨询关键词从方备选解决方案中筛选出与咨询关键词匹配程度超过预设值的目标解决方案,并根据方案与咨询关键词的匹配程度进行排序并输出排序后的目标解决方案。
在一些实施方式中,所述输出所述目标解决方案,包括:
确实所述目标解决方案中与所述咨询关键词匹配的关键字段;
输出所述目标解决方案并标记所述关键字段。
其中,所述标记所述关键字段的方式包括:将所述关键字段加粗显示、改变所述关键字段的字体颜色、改变所述关键字段的字符底纹、增大所述关键字段的字号中的至少一者。
本申请实施方式中,通过突出显示对应的关键字段,从而便于客服人员迅速抓取目标解决方案中的重点内容,以更好为用户提供优质的客户服务。
请参阅图2,本申请实施例提供的一种方案输出装置的模块结构示意图,其中,案输出装置可以应用于服务器等电子设备。
如图2所示,方案输出装置200包括词组获取模块201、模型训练模块202、语音提取模块203、语义分析模块204、方案获取模块205及方案输出模块206,其中,词组获取模块201,用于对预设语料数据进行分词并提取各个所述分词的词向量,及根据词向量从所述预设语料数据中筛选获得同义词组和一词多意词组;模型训练模块202,用于将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型;语音提取模块203,用于获取用户在进行咨询过程中的咨询音频数据,并根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据;语义分析模块204,用于根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,及利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果;方案获取模块205,用于根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案;方案输出模块206,用于获取客服人员通过输入设备输入的咨询关键词,并根据所述咨询关键词从所述备选解决方案中筛选出目标解决方案,及输出所述目标解决方案。
在一些实施方式中,所述获取用户在进行咨询过程中的咨询音频数据,包括:
获取所述用户在咨询过程中的录音数据,并将所述录音数据输入到语音提取模型的特征提取网络进行特征提取,获取所述录音数据对应的特征向量,所述录音数据包括用户的咨询音频数据和环境噪音;
将预设向量和所述特征向量输入到所述语音提取模型的语音提取网络,以从所述录音数据中提取出所述用户的咨询音频数据,其中,所述预设向量根据环境噪音获得,所述语音提取网络以所述预设向量为参考,调整所述咨询音频数据和所述环境噪音在所述录音数据中所占的比例,从而获取所述咨询音频数据。
在一些实施方式中,所述根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据,包括:
根据所述咨询音频数据对应的时间轴提取所述咨询音频数据中声纹特征数据;
根据预设的声纹特征模型对所述声纹特征数据进行分类,以获取用户对应的多个第一声纹特征数据、及客服人员对应的多个第二声纹特征数据;
根据所述第一声纹特征数据获取所述用户对应的第一语音数据,并根据所述第二声纹特征数据获取所述客服人员对应的第二语音数据。
在一些实施方式中,所述根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,包括:
分别将所述第一语音数据和所述第二语音数据输入至预设的语音转换模型进行文本转换,得到所述第一语音数据对应的第一待定文本,及所述第二语音数据对应的第二文本;
根据所述用户的咨询关键词获取对应的错词数据集,并利用所述错词数据集判断所述第一待定文本的翻译是否有误;
当所述第一待定文本的翻译有误时,标记翻译有误的所述第一待定文本,并根据所述第二文本修正翻译有误的所述第一待定文本,得到第一文本。
在一些实施方式中,所述根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案,包括:
从所述第一语义分析结果中获取第一备选关键词,并从所述第二语义分析结果中获取第二备选关键词;从所述第一备选关键词和所述第二备选关键词中筛选出方案关键词;
根据所述方案关键词从方案数据集中获取备选解决方案。
在一些实施方式中,所述输出所述目标解决方案,包括:
确实所述目标解决方案中与所述咨询关键词匹配的关键字段;
输出所述目标解决方案并标记所述关键字段。
在一些实施方式中,所述标记所述关键字段的方式包括:将所述关键字段加粗显示、改变所述关键字段的字体颜色、改变所述关键字段的字符底纹、增大所述关键字段的字号中的至少一者。
请参阅图3,图3为本申请实施例提供的电子设备的结构示意性框图。
如图3所示,电子设备300包括处理器301和存储器302,处理器301和存储器302通过总线303连接,该总线比如为I2C(Inter-integrated Circuit)总线。
具体地,处理器301用于提供计算和控制能力,支撑整个服务器的运行。处理器301可以是中央处理单元(Central Processing Unit,CPU),该处理器301还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable GateArray,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
具体地,存储器302可以是Flash芯片、只读存储器(ROM,Read-Only Memory)磁盘、光盘、U盘或移动硬盘等。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请实施例方案相关的部分结构的框图,并不构成对本申请实施例方案所应用于其上的电子设备的限定,具体的电子设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,处理器301用于运行存储在存储器中的计算机程序,并在执行计算机程序时实现本申请实施例提供的任意一种的金融产品的推荐方法。
在一些实施方式中,处理器301用于运行存储在存储器中的计算机程序,并在执行计算机程序时实现如下步骤:
对预设语料数据进行分词并提取各个所述分词的词向量,及根据词向量从所述预设语料数据中筛选获得同义词组和一词多意词组;
将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型;
获取用户在进行咨询过程中的咨询音频数据,并根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据;
根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,及利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果;
根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案;
获取客服人员通过输入设备输入的咨询关键词,并根据所述咨询关键词从所述备选解决方案中筛选出目标解决方案,及输出所述目标解决方案。
在一些实施方式中,处理器301在获取用户在进行咨询过程中的咨询音频数据时,包括:
获取所述用户在咨询过程中的录音数据,并将所述录音数据输入到语音提取模型的特征提取网络进行特征提取,获取所述录音数据对应的特征向量,所述录音数据包括用户的咨询音频数据和环境噪音;
将预设向量和所述特征向量输入到所述语音提取模型的语音提取网络,以从所述录音数据中提取出所述用户的咨询音频数据,其中,所述预设向量根据环境噪音获得,所述语音提取网络以所述预设向量为参考,调整所述咨询音频数据和所述环境噪音在所述录音数据中所占的比例,从而获取所述咨询音频数据。
在一些实施方式中,处理器301在根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据时,包括:
根据所述咨询音频数据对应的时间轴提取所述咨询音频数据中声纹特征数据;
根据预设的声纹特征模型对所述声纹特征数据进行分类,以获取用户对应的多个第一声纹特征数据、及客服人员对应的多个第二声纹特征数据;
根据所述第一声纹特征数据获取所述用户对应的第一语音数据,并根据所述第二声纹特征数据获取所述客服人员对应的第二语音数据。
在一些实施方式中,处理器301在根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本时,包括:
分别将所述第一语音数据和所述第二语音数据输入至预设的语音转换模型进行文本转换,得到所述第一语音数据对应的第一待定文本,及所述第二语音数据对应的第二文本;
根据所述用户的咨询关键词获取对应的错词数据集,并利用所述错词数据集判断所述第一待定文本的翻译是否有误;
当所述第一待定文本的翻译有误时,标记翻译有误的所述第一待定文本,并根据所述第二文本修正翻译有误的所述第一待定文本,得到第一文本。
在一些实施方式中,处理器301在根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案时,包括:
从所述第一语义分析结果中获取第一备选关键词,并从所述第二语义分析结果中获取第二备选关键词;从所述第一备选关键词和所述第二备选关键词中筛选出方案关键词;
根据所述方案关键词从方案数据集中获取备选解决方案。
在一些实施方式中,处理器301在所述输出所述目标解决方案时,包括:
确实所述目标解决方案中与所述咨询关键词匹配的关键字段;
输出所述目标解决方案并标记所述关键字段。
在一些实施方式中,所述标记所述关键字段的方式包括:将所述关键字段加粗显示、改变所述关键字段的字体颜色、改变所述关键字段的字符底纹、增大所述关键字段的字号中的至少一者。
需要说明的是,所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的电子设备的具体工作过程,可以参考前述基于语义分析的方案输出方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供一种存储介质,用于计算机可读存储,存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现如本申请说明书任一实施例提供的基于语义分析的方案输出的步骤。
其中,存储介质可以是前述实施例的电子设备的内部存储单元,例如电子设备的硬盘或内存。存储介质也可以是电子设备的外部存储设备,例如电子设备上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、***、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。在硬件实施例中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其他数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于RAM、ROM、EEPROM、闪存或其他存储器技术、CD-ROM、数字多功能盘(DVD)或其他光盘存储、磁盒、磁带、磁盘存储或其他磁存储装置、或者可以用于存储期望的信息并且可以被计算机访问的任何其他的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其他传输机制之类的调制数据信号中的其他数据,并且可包括任何信息递送介质。
应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者***不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者***所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者***中还存在另外的相同要素。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。以上,仅为本申请的具体实施例,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种基于语义分析的方案输出方法,其特征在于,所述方法包括:
对预设语料数据进行分词并提取各个所述分词的词向量,及根据词向量从所述预设语料数据中筛选获得同义词组和一词多意词组;
将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型;
获取用户在进行咨询过程中的咨询音频数据,并根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据;
根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,及利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果;
根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案;
获取客服人员通过输入设备输入的咨询关键词,并根据所述咨询关键词从所述备选解决方案中筛选出目标解决方案,及输出所述目标解决方案。
2.如权利要求1所述的方法,其特征在于,所述获取用户在进行咨询过程中的咨询音频数据,包括:
获取所述用户在咨询过程中的录音数据,并将所述录音数据输入到语音提取模型的特征提取网络进行特征提取,获取所述录音数据对应的特征向量,所述录音数据包括用户的咨询音频数据和环境噪音;
将预设向量和所述特征向量输入到所述语音提取模型的语音提取网络,以从所述录音数据中提取出所述用户的咨询音频数据,其中,所述预设向量根据环境噪音获得,所述语音提取网络以所述预设向量为参考,调整所述咨询音频数据和所述环境噪音在所述录音数据中所占的比例,从而获取所述咨询音频数据。
3.如权利要求2所述的方法,其特征在于,所述根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据,包括:
根据所述咨询音频数据对应的时间轴提取所述咨询音频数据中声纹特征数据;
根据预设的声纹特征模型对所述声纹特征数据进行分类,以获取用户对应的多个第一声纹特征数据、及客服人员对应的多个第二声纹特征数据;
根据所述第一声纹特征数据获取所述用户对应的第一语音数据,并根据所述第二声纹特征数据获取所述客服人员对应的第二语音数据。
4.如权利要求1所述的方法,其特征在于,所述根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,包括:
分别将所述第一语音数据和所述第二语音数据输入至预设的语音转换模型进行文本转换,得到所述第一语音数据对应的第一待定文本,及所述第二语音数据对应的第二文本;
根据所述用户的咨询关键词获取对应的错词数据集,并利用所述错词数据集判断所述第一待定文本的翻译是否有误;
当所述第一待定文本的翻译有误时,标记翻译有误的所述第一待定文本,并根据所述第二文本修正翻译有误的所述第一待定文本,得到第一文本。
5.如权利要求1所述的方法,其特征在于,所述根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案,包括:
从所述第一语义分析结果中获取第一备选关键词,并从所述第二语义分析结果中获取第二备选关键词;从所述第一备选关键词和所述第二备选关键词中筛选出方案关键词;
根据所述方案关键词从方案数据集中获取备选解决方案。
6.如权利要求1-5任一项所述的方法,其特征在于,所述输出所述目标解决方案,包括:
确实所述目标解决方案中与所述咨询关键词匹配的关键字段;
输出所述目标解决方案并标记所述关键字段。
7.如权利要求6所述的方法,其特征在于,所述标记所述关键字段的方式包括:将所述关键字段加粗显示、改变所述关键字段的字体颜色、改变所述关键字段的字符底纹、增大所述关键字段的字号中的至少一者。
8.一种方案输出装置,其特征在于,包括:
词组获取模块,用于对预设语料数据进行分词并提取各个所述分词的词向量,及根据词向量从所述预设语料数据中筛选获得同义词组和一词多意词组;
模型训练模块,用于将所述同义词组作为正例数据,并将所述一词多意词组作为负例数据构建训练数据集,及根据所述训练数据集对预设模型进行训练,得到目标语义分析模型;
语音提取模块,用于获取用户在进行咨询过程中的咨询音频数据,并根据所述咨询音频数据提取所述用户对应的第一语音数据、及客服人员对应的第二语音数据;
语义分析模块,用于根据所述第一语音数据获取对应的第一文本并根据所述第二语音数据获取对应的第二文本,及利用所述目标语义分析模型分析所述第一文本和所述第二文本,得到所述第一文本对应的第一语义分析结果和所述第二文本对应的第二语义分析结果;
方案获取模块,用于根据所述第一语义分析结果和所述第二语义分析结果从方案数据集中获取备选解决方案;
方案输出模块,用于获取客服人员通过输入设备输入的咨询关键词,并根据所述咨询关键词从所述备选解决方案中筛选出目标解决方案,及输出所述目标解决方案。
9.一种电子设备,其特征在于,所述电子设备包括处理器、存储器、存储在所述存储器上并可被所述处理器执行的计算机程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,其中所述计算机程序被所述处理器执行时,实现如权利要求1至7中任一项所述的方案输出的步骤。
10.一种存储介质,用于计算机可读存储,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现权利要求1至7中任一项所述的方案输出方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210688182.0A CN114927126A (zh) | 2022-06-17 | 2022-06-17 | 基于语义分析的方案输出方法、装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210688182.0A CN114927126A (zh) | 2022-06-17 | 2022-06-17 | 基于语义分析的方案输出方法、装置、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114927126A true CN114927126A (zh) | 2022-08-19 |
Family
ID=82814124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210688182.0A Pending CN114927126A (zh) | 2022-06-17 | 2022-06-17 | 基于语义分析的方案输出方法、装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114927126A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115222373A (zh) * | 2022-09-20 | 2022-10-21 | 河北建投工程建设有限公司 | 一种设计项目管理方法及*** |
CN115762490A (zh) * | 2022-11-08 | 2023-03-07 | 广东广信通信服务有限公司 | 一种基于轨迹修正的在线强化语义学习方法 |
-
2022
- 2022-06-17 CN CN202210688182.0A patent/CN114927126A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115222373A (zh) * | 2022-09-20 | 2022-10-21 | 河北建投工程建设有限公司 | 一种设计项目管理方法及*** |
CN115222373B (zh) * | 2022-09-20 | 2022-11-25 | 河北建投工程建设有限公司 | 一种设计项目管理方法及*** |
CN115762490A (zh) * | 2022-11-08 | 2023-03-07 | 广东广信通信服务有限公司 | 一种基于轨迹修正的在线强化语义学习方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Ancilin et al. | Improved speech emotion recognition with Mel frequency magnitude coefficient | |
Jing et al. | Prominence features: Effective emotional features for speech emotion recognition | |
US10515292B2 (en) | Joint acoustic and visual processing | |
US8676574B2 (en) | Method for tone/intonation recognition using auditory attention cues | |
CN114927126A (zh) | 基于语义分析的方案输出方法、装置、设备以及存储介质 | |
Levitan et al. | Combining Acoustic-Prosodic, Lexical, and Phonotactic Features for Automatic Deception Detection. | |
Zhang et al. | Pre-trained deep convolution neural network model with attention for speech emotion recognition | |
China Bhanja et al. | A pre-classification-based language identification for Northeast Indian languages using prosody and spectral features | |
CN114143479B (zh) | 视频摘要的生成方法、装置、设备以及存储介质 | |
CN114121006A (zh) | 虚拟角色的形象输出方法、装置、设备以及存储介质 | |
Pervaiz et al. | Emotion recognition from speech using prosodic and linguistic features | |
CN112735404A (zh) | 一种语音反讽检测方法、***、终端设备和存储介质 | |
Scholten et al. | Learning to recognise words using visually grounded speech | |
Bhanja et al. | Deep neural network based two-stage Indian language identification system using glottal closure instants as anchor points | |
Chetouani et al. | Time-scale feature extractions for emotional speech characterization: applied to human centered interaction analysis | |
Radha et al. | Towards modeling raw speech in gender identification of children using sincNet over ERB scale | |
Viacheslav et al. | System of methods of automated cognitive linguistic analysis of speech signals with noise | |
Luo et al. | Emotional Voice Conversion Using Neural Networks with Different Temporal Scales of F0 based on Wavelet Transform. | |
Rangra et al. | Emotional speech-based personality prediction using NPSO architecture in deep learning | |
Johar | Paralinguistic profiling using speech recognition | |
Pietrowicz et al. | Acoustic correlates for perceived effort levels in male and female acted voices | |
US20230368777A1 (en) | Method And Apparatus For Processing Audio, Electronic Device And Storage Medium | |
CN114363531B (zh) | 基于h5的文案解说视频生成方法、装置、设备以及介质 | |
Dai | [Retracted] An Automatic Pronunciation Error Detection and Correction Mechanism in English Teaching Based on an Improved Random Forest Model | |
China Bhanja et al. | Modelling multi-level prosody and spectral features using deep neural network for an automatic tonal and non-tonal pre-classification-based Indian language identification system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |