CN110910901B - 一种情绪识别方法及装置、电子设备和可读存储介质 - Google Patents
一种情绪识别方法及装置、电子设备和可读存储介质 Download PDFInfo
- Publication number
- CN110910901B CN110910901B CN201910949733.2A CN201910949733A CN110910901B CN 110910901 B CN110910901 B CN 110910901B CN 201910949733 A CN201910949733 A CN 201910949733A CN 110910901 B CN110910901 B CN 110910901B
- Authority
- CN
- China
- Prior art keywords
- information
- emotion
- voice
- text
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000008909 emotion recognition Effects 0.000 title claims abstract description 147
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000008451 emotion Effects 0.000 claims abstract description 187
- 238000012545 processing Methods 0.000 claims abstract description 22
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 239000013598 vector Substances 0.000 claims description 36
- 238000012549 training Methods 0.000 claims description 19
- 230000002996 emotional effect Effects 0.000 claims description 7
- 238000000605 extraction Methods 0.000 claims description 7
- 238000012216 screening Methods 0.000 abstract description 3
- 230000007935 neutral effect Effects 0.000 description 8
- 230000006854 communication Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005070 sampling Methods 0.000 description 5
- 206010063659 Aversion Diseases 0.000 description 4
- 206010048909 Boredom Diseases 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 description 2
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000003908 quality control method Methods 0.000 description 1
- 238000012372 quality testing Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M3/00—Automatic or semi-automatic exchanges
- H04M3/42—Systems providing special services or facilities to subscribers
- H04M3/50—Centralised arrangements for answering calls; Centralised arrangements for recording messages for absent or busy subscribers ; Centralised arrangements for recording messages
- H04M3/51—Centralised call answering arrangements requiring operator intervention, e.g. call or contact centers for telemarketing
- H04M3/5175—Call or contact centers supervision arrangements
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computational Linguistics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Child & Adolescent Psychology (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
Abstract
本发明属于数据识别和处理领域,提供了一种情绪识别方法、***和可读存储介质,其中方法包括:采集语音信号;将所述语音信号进行处理,得到语音识别信息和文本识别信息;将所述语音识别信息和文本识别信息进行语音情绪识别和文本情绪识别,得到语音情绪识别信息和文本情绪识别信息;根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到情绪信息。本发明通过对语音信号进行语音和文本的提取,进行情绪的识别,提高了情绪识别的准确率。通过对语音和文本信息的筛选,提高了处理的效率和准确率,为提高客户服务质量和对服务人员进行绩效考核的参考标准等起到了积极重要的作用。
Description
技术领域
本发明属于数据识别和处理领域,更具体的,涉及一种情绪识别方法及装置、电子设备和可读存储介质。
背景技术
呼叫中心***是指一种利用现代通讯与计算机技术,自动灵活地处理大量各种不同的电话呼入/呼出业务来实现服务运营的操作***。随着经济发展,呼叫中心***中客服交互的业务量也越来越大,及时和有效的跟踪和监测客服通话中客服和客户的情绪状态,对于企业提升其服务质量具有重要的意义。目前,大多数企业主要依靠聘请专门的质检人员对通话录音进行抽样监听来实现这一目的,这一方面会给企业带来额外的成本,另一方面由于抽样覆盖范围的不确定性、以及人为判定含有的主观感情色彩,使得人工质检的效果存在一定的局限性。此外,质检人员只能在通话结束,获得录音以后对客服和客户的情绪表现进行事后的评价,而难以做到在通话进行当中去实时的监测客服和客户的情绪状态,当通话中客服或客户出现非常负面的情绪时,也无法及时有效的对客服人员进行提醒。
目前对客服电话中心中的对话语音进行负面情绪识别的产品或研究很少。现有的情绪识别产品大部分都是在语音或文本质量较好并且样本均衡的情况下,只从语音或者文本一方面进行情绪识别。而在实际的客服电话中心,大部分都面临语音质量较差并且样本极不平衡的问题,所以无法较好的识别出客服人员的情绪。与此同时,公司为了提高客户服务质量和对服务人员进行绩效考核,业务人员又比较关心类别较少的负面情绪识别是否正确。现有的大部分情绪识别产品不适合用于客服电话中心场景,因此设计一种能够提高情绪识别的方法是亟不可待的。
发明内容
为了解决上述至少一个技术问题,本发明提出了一种情绪识别方法及装置、电子设备和可读存储介质。
本发明第一方面提供了一种情绪识别方法,包括:
采集语音信号;
将所述语音信号进行处理,得到语音识别信息和文本识别信息;
将所述语音识别信息和文本识别信息进行语音情绪识别和文本情绪识别,得到语音情绪识别信息和文本情绪识别信息;
根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到所述语音信号的情绪信息。
在一个实施例中,所述将所述语音信号进行处理,得到语音识别信息,包括:
分割语音信号为多个子语音信息;
提取所述多个子语音信息的特征信息,每个子语音信息的特征信息组成所述子语音信息的特征信息总集合;
统计每个子语音信息中的特征信息,将所述特征信息与预设的多个特征统计量信息进行匹配;
记录与所述多个特征统计量信息匹配的每个子语音信息中的特征信息集合;
根据与所述多个特征统计量信息匹配的特征信息集合,及子语音信息的特征信息总集合,计算每个子语音信息的特征量匹配度;
将特征量匹配度大于预设特征量阈值的子语音信息确定为语音识别信息。
在一个实施例中,将所述语音识别信息进行语音情绪识别,具体为:
提取所述语音识别信息的特征信息;
将所述特征信息与预设的情绪训练模型进行匹配,得到每个不同情绪的概率值;
选取大于预设情绪阈值的概率值对应的情绪,作为所述语音信号的语音情绪识别信息。
在一个实施例中,还包括:
若存在多个大于预设情绪阈值的概率值;
则选取多个所述概率值的平均概率值所对应的情绪作为所述语音信号的语音情绪识别信息。
在一个实施例中,所述将文本识别信息进行文本情绪识别,包括:
对文本识别信息进行特征提取,生成多个特征向量;
将多个特征向量分别进行文本模型匹配,得到每个特征向量的分类结果;
将所述每个特征向量的分类结果进行取值;
根据所述取值计算所述文本识别信息对应的情绪值;
将与所述情绪值对应的情绪,作为所述语音信号的文本情绪识别信息。
在一个实施例中,所述对文本识别信息进行特征提取,生成多个特征向量,包括:
根据预先建立的关键词数量为N的关键词词典,针对文本识别信息,计算关键词词典中各个关键词对应的TF-IDF值;
根据各个关键词对应的TF-IDF值生成对应的特征向量。
在一个实施例中,所述根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到情绪信息,包括:
将所述语音情绪识别信息和文本情绪识别信息进行取值;
将对应取值进行相加,得到结果取值;
根据所述结果取值对应的范围,判定所述语音信号的情绪信息。
本发明第二方面提供了一种情绪识别装置,包括:
采集模块,用于采集语音信号;
处理模块,用于将所述语音信号进行处理,得到语音识别信息和文本识别信息;
识别模块,用于将所述语音识别信息和文本识别信息进行语音情绪识别和文本情绪识别,得到语音情绪识别信息和文本情绪识别信息;
计算模块,用于根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到所述语音信号的情绪信息。
本发明第三方面提供了一种电子设备,包括:存储器和处理器,所述存储器中包括情绪识别方法程序,所述情绪识别方法程序被所述处理器执行时实现如上所述的情绪识别方法的步骤。
本发明第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质中包括情绪识别方法程序,所述情绪识别方法程序被处理器执行时,实现如上所述的情绪识别方法的步骤。
本发明提供的情绪识别方法、***和可读存储介质,通过对语音信号进行语音和文本的提取,进行情绪的识别,提高了情绪识别的准确率。通过对语音和文本信息的筛选,提高了处理的效率和准确率。本发明为客服电话中心场景的负面情绪识别提供了具体有效的解决方案,为提高客户服务质量和对服务人员进行绩效考核的参考标准等起到了积极重要的作用。针对不同的应用场景,融合语音、文本情绪模型结果,达到了业务实际要求标准。
附图说明
图1示出了本发明一种情绪识别方法的流程图;
图2示出了本发明识别语音信息处理的流程图;
图3示出了本发明语音情绪识别的流程图;
图4示出了本发明文本情绪识别的流程图;
图5示出了本发明一种情绪识别***的框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了本发明一种情绪识别方法的流程图。
如图1所示,本发明公开了一种情绪识别方法,包括:
S102,采集语音信号;
S104,将所述语音信号进行处理,得到语音识别信息和文本识别信息;
S106,将所述语音识别信息和文本识别信息进行语音情绪识别和文本情绪识别,得到语音情绪识别信息和文本情绪识别信息;
S108,根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到所述语音信号的情绪信息。
需要说明的是,客服或坐席在通话的过程中,将实时采集其语音信号。采集语音信号可以采用抽样采集或者固定时间窗形势采集。例如,采用抽样采集时将通话过程中的第5-7秒、9-11秒等的通话进行语音采集;采用固定时间窗采集时将通话过程中的第10-25秒的通话进行语音采集。本领域技术人员可根据实际需要选择采集的方式,但任何采用本发明进行语音采集判断情绪的方法都将落入本发明保护范围中。
进一步的,在采集了语音信号之后,将语音信号进行处理,得到语音识别信息和文本识别信息。其中语音识别信息用于通过语音情绪识别的方式获取情绪信息,文本识别信息用于通过文本情绪识别的方式获取情绪信息。每种不同的识别方式得到的情绪信息可能并不相同,所以在最后需要将两者得到的情绪信息进行综合处理得到情绪信息。通过对两种识别结果的综合处理,可以保证情绪识别的准确性。
图2示出了本发明识别语音信息处理的流程图。根据本发明实施例,所述将所述语音信号进行处理,得到语音识别信息,包括:
S202,分割语音信号为多个子语音信息;
S204,提取所述多个子语音信息的特征信息,每个子语音信息的特征信息组成所述子语音信息的特征信息总集合;
S206,统计每个子语音信息中的特征信息,将所述特征信息与预设的多个特征统计量信息进行匹配;
S208,记录与所述多个特征统计量信息匹配的每个子语音信息中的特征信息集合;
S210,根据与所述多个特征统计量信息匹配的特征信息集合,及子语音信息的特征信息总集合,计算每个子语音信息的特征量匹配度;
S212,将特征量匹配度大于预设特征量阈值的子语音信息确定为语音识别信息。
需要说明的是,在采集到语音信号之后,将所述语音信号分为多个子语音信息,分割子语音信息可以是通过时间或者数量进行分配,也可以是通过其他规则进行。例如,将采集的15秒的语音信号分割为每段3秒的子语音信息,一共可分割为5段,采用时间顺序进行分割,即前3秒分割为一段,第3-6秒分割为一段,以此类推。
进一步的,在分割为多个子语音信息之后,则提取子语音信息的特征信息,并与预设的语音库中的多个特征统计量信息进行匹配。值得一提的是,在后台的数据库中预存储有语音特征统计量信息,所述的语音特征统计量信息为经过筛选确认后的更能反映出情绪的词汇或者语句信息,可以是通过经验和研究确认的资源。例如,在特征统计量信息中不包括一些无用词,例如,数字、数学字符、标点符号及使用频率特高的汉字等;特征统计量中可以包括使用频率较高且能反应出情绪特征的词汇或者短语,例如,你好、再见、没有等词汇,或者又如,还有事吗、先这样吧等类似短语。在与预设的多个特征统计量信息进行匹配之后,则计算每个子语音信息的特征量匹配度。需要说明的是,自语音信息中与预设的多个特征统计量重合多的,则匹配度高。将匹配度大于预设特征量阈值的子语音信息确定为识别语音信息。本领域技术人员可根据实际需要选择预设特征量阈值,例如,可以为0.5、0.7等,也就是说,在匹配度大于0.5时,则将此自语音信息选为识别语音信息。采用此步骤,可以将匹配度低的语音数据信息进行过滤,提高情绪识别的速度和效率。
图3示出了本发明语音情绪识别的流程图。如图3所示,根据本发明实施例,将所述语音识别信息进行语音情绪识别,具体为:
S302,提取所述语音识别信息的特征信息;
S304,将所述特征信息与情绪训练模型进行匹配,得到每个不同情绪的概率值;
S306,选取大于预设情绪阈值的概率值对应的情绪,得到语音信号的语音情绪识别信息。
需要说明的是,获取了语音识别信息之后,将提取其语音识别信息。情绪训练模型为来自语音情绪数据库(Berlin emotion database),此语音数据库包含了生气(anger)、无聊(boredom)、厌恶(disgust)、害怕(fear)、开心(joy)、中性(neutral)和伤心(sadness)共七种情绪,并且此些语音信号是由多位专业演员各别演示上述七种情绪所对应的句子组成。值得注意的是,本发明并不加以限制所欲识别的情绪的种类,换句话说,在另一实施例中,语音数据库可还包括上述七种情绪以外的其他情绪。例如,在本发明范例实施例中,是从所录制的700句语句中选择较完整且较好的535句语句做为训练语音情绪分类模型的数据。
进一步的,在与情绪训练模型进行匹配之后,将得到每个不同情绪的概率值,选取大于预设情绪阈值的概率值作为对应的情绪。预设情绪阈值的概率值为本领域技术人员可根据实际需要和经验设定的,例如,可以设定所述概率值为70%,则将大于70%的情绪确定为最终的情绪识别信息。
在本发明实施例中,还包括:
若存在多个大于预设情绪阈值的概率值;
则选取多个所述概率值的平均概率值所对应的情绪作为所述语音信号的语音情绪识别信息。
值得一提的是,若存在多个情绪大于所述概率值,例如,生气概率值80%,厌恶概率值为75%,其均大于70%的阈值,则选择概率值最大的作为最终的情绪。本发明并未限制通过概率值选取情绪的具体实现方法,也就是说,在其他的实施例中,可以选择其他的方式进行概率值情绪识别,例如,选取多个子语音信息识别出来的情绪概率值,进行求平均计算,则概率最高的确定为最终的情绪。
图4示意性示出了文本情绪识别的流程图。如图4所示,根据本发明实施例,所述将文本识别信息进行文本情绪识别,包括:
S402,对文本识别信息进行特征提取,生成多个特征向量;
S404,将多个特征向量分别进行文本模型匹配,得到每个特征向量的分类结果;
S406,将所述每个特征向量的分类结果进行取值;
S408,根据所述取值计算所述文本识别信息对应的情绪值;
S410,将与所述情绪值对应的情绪,作为所述语音信号的文本情绪识别信息。
需要说明的是,所述对文本识别信息进行特征提取,生成多个特征向量,包括:根据预先建立的关键词数量为N的关键词词典,针对文本识别信息,计算关键词词典中各个关键词对应的TF-IDF值;根据各个关键词对应的TF-IDF值生成对应的特征向量。
这里所说的关键词词典是针对上述被测文本集进行提取的,通过提取关键词能够大幅度减少特征向量的维度,从而提高情绪分类的效率。其中,特征向量的维度为N,特征向量的各个维度上的分量为关键词词典中各个关键词对应的TF-IDF值。
需要说明的是,文本模型为预先训练文本模型,将每个特征向量输入至文本模型后,将得到对应的分类结果。每个特征向量可能会得出不同的分类结果,将不同的分类结果赋予情绪值,然后按照预设的算法将每个情绪值进行加权计算,得到最终的情绪信息。所述的预设的算法可以是根据每个不同的关键词设置对应的加权系数,每个关键词对应的特征向量也和上述的加权系数相等。例如,关键词“你好”对应的加权系数为0.2,关键词“再见”的加权系数为0.1,则在最后计算情绪信息时,将对应的情绪值乘以对应的加权系数再进行相加,得到最后的情绪值,则此情绪值会对应一个情绪。本领域技术人员还可以根据实际需要实时调整权重值,从而提高情绪识别的精确度。
根据本发明实施例,所述根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到情绪信息,包括:
将所述语音情绪识别信息和文本情绪识别信息进行取值;
将对应取值进行相加,得到结果取值;
根据所述结果取值对应的范围,判定所述语音信号的情绪信息。
需要说明的是,在获取了语音情绪识别信息和文本情绪识别信息之后,将根据上述信息分别赋予情绪值,并且将其取值进行相加,得到结果取值。其取值范围,可以是本领域技术人员根据实际需要设定的,每个值落入相应的取值范围中,则判定为相应的情绪。例如,可以将情绪识别信息确定为正面情绪、中立情绪和负面情绪,其情绪值分别为+1、0、-1。若语音情绪识别为正面情绪,则取值为+1,文本情绪识别为负面情绪,则取值为-1,两者相加之后取值为0,所以将其判定为中立情绪。若语音情绪识别为正面情绪,则取值为+1,文本情绪识别为正面情绪,则取值为+1,两者相加之后取值为+2,大于0,则将其判定为正面情绪。
需要说明的是,本实施例中的情绪训练模型可以为本领域的惯用情绪训练模型,如情绪训练模型可以采用TensorFlow进行训练,或者采用RNN等算法进行模型训练。
图5示出了本发明一种情绪识别***的框图。
如图5所示,本发明第二方面提供了一种情绪识别***,该***包括:存储器51、处理器52,所述存储器中包括情绪识别方法程序,所述情绪识别方法程序被所述处理器执行时实现如下步骤:
采集语音信号;
将所述语音信号进行处理,得到语音识别信息和文本识别信息;
将所述语音识别信息和文本识别信息进行语音情绪识别和文本情绪识别,得到语音情绪识别信息和文本情绪识别信息;
根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到所述语音信号的情绪信息。
需要说明的是,客服或坐席在通话的过程中,将实时采集其语音信号。采集语音信号可以采用抽样采集或者固定时间窗形势采集。例如,采用抽样采集时将通话过程中的第5-7秒、9-11秒等的通话进行语音采集;采用固定时间窗采集时将通话过程中的第10-25秒的通话进行语音采集。本领域技术人员可根据实际需要选择采集的方式,但任何采用本发明进行语音采集判断情绪的方法都将落入本发明保护范围中。
进一步的,在采集了语音信号之后,将语音信号进行处理,得到语音识别信息和文本识别信息。其中语音识别信息用于通过语音情绪识别的方式获取情绪信息,文本识别信息用于通过文本情绪识别的方式获取情绪信息。每种不同的识别方式得到的情绪信息可能并不相同,所以在最后需要将两者得到的情绪信息进行综合处理得到情绪信息。通过对两种识别结果的综合处理,可以保证情绪识别的准确性。
根据本发明实施例,所述将所述语音信号进行处理,得到语音识别信息,包括:
分割语音信号为多个子语音信息;
提取所述多个子语音信息的特征信息,每个子语音信息的特征信息组成所述子语音信息的特征信息总集合;
统计每个子语音信息中的特征信息,将所述特征信息与预设的多个特征统计量信息进行匹配;
记录与所述多个特征统计量信息匹配的每个子语音信息中的特征信息集合;
根据与所述多个特征统计量信息匹配的特征信息集合,及子语音信息的特征信息总集合,计算每个子语音信息的特征量匹配度;
将特征量匹配度大于预设特征量阈值的子语音信息确定为语音识别信息。
需要说明的是,在采集到语音信号之后,将所述语音信号分为多个子语音信息,分割子语音信息可以是通过时间或者数量进行分配,也可以是通过其他规则进行。例如,将采集的15秒的语音信号分割为每段3秒的子语音信息,一共可分割为5段,采用时间顺序进行分割,即前3秒分割为一段,第3-6秒分割为一段,以此类推。
进一步的,在分割为多个子语音信息之后,则提取子语音信息的特征信息,并与预设的语音库中的多个特征统计量信息进行匹配。值得一提的是,在后台的数据库中预存储有语音特征统计量信息,所述的语音特征统计量信息为经过筛选确认后的更能反映出情绪的词汇或者语句信息,可以是通过经验和研究确认的资源。例如,在特征统计量信息中不包括一些无用词,例如,数字、数学字符、标点符号及使用频率特高的汉字等;特征统计量中可以包括使用频率较高且能反应出情绪特征的词汇或者短语,例如,你好、再见、没有等词汇,或者又如,还有事吗、先这样吧等类似短语。在与预设的多个特征统计量信息进行匹配之后,则计算每个子语音信息的特征量匹配度。需要说明的是,自语音信息中与预设的多个特征统计量重合多的,则匹配度高。将匹配度大于预设特征量阈值的子语音信息确定为识别语音信息。本领域技术人员可根据实际需要选择预设特征量阈值,例如,可以为0.5、0.7等,也就是说,在匹配度大于0.5时,则将此自语音信息选为识别语音信息。采用此步骤,可以将匹配度低的语音数据信息进行过滤,提高情绪识别的速度和效率。
根据本发明实施例,将所述语音识别信息进行语音情绪识别,具体为:
提取所述语音识别信息的特征信息;
S304,将所述特征信息与情绪训练模型进行匹配,得到每个不同情绪的概率值;
S306,选取大于预设情绪阈值的概率值对应的情绪,得到语音信号的语音情绪识别信息。
需要说明的是,获取了语音识别信息之后,将提取其语音识别信息。情绪训练模型为来自语音情绪数据库(Berlin emotion database),此语音数据库包含了生气(anger)、无聊(boredom)、厌恶(disgust)、害怕(fear)、开心(joy)、中性(neutral)和伤心(sadness)共七种情绪,并且此些语音信号是由多位专业演员各别演示上述七种情绪所对应的句子组成。值得注意的是,本发明并不加以限制所欲识别的情绪的种类,换句话说,在另一实施例中,语音数据库可还包括上述七种情绪以外的其他情绪。例如,在本发明范例实施例中,是从所录制的700句语句中选择较完整且较好的535句语句做为训练语音情绪分类模型的数据。
进一步的,在与情绪训练模型进行匹配之后,将得到每个不同情绪的概率值,选取大于预设情绪阈值的概率值作为对应的情绪。预设情绪阈值的概率值为本领域技术人员可根据实际需要和经验设定的,例如,可以设定所述概率值为70%,则将大于70%的情绪确定为最终的情绪识别信息。
在本发明实施例中,还包括:
若存在多个大于预设情绪阈值的情绪;
则选取多个所述概率值的平均概率值所对应的情绪作为所述语音信号的语音情绪识别信息。
值得一提的是,若存在多个情绪大于所述概率值,例如,生气概率值80%,厌恶概率值为75%,其均大于70%的阈值,则选择概率值最大的作为最终的情绪。本发明并未限制通过概率值选取情绪的具体实现方法,也就是说,在其他的实施例中,可以选择其他的方式进行概率值情绪识别,例如,选取多个子语音信息识别出来的情绪概率值,进行求平均计算,则概率最高的确定为最终的情绪。
根据本发明实施例,所述将文本识别信息进行文本情绪识别,包括:
对文本识别信息进行特征提取,生成多个特征向量;
将多个特征向量分别进行文本模型匹配,得到每个特征向量的分类结果;
将所述每个特征向量的分类结果进行取值;
根据所述取值计算所述文本识别信息对应的情绪值;
将与所述情绪值对应的情绪,作为所述语音信号的文本情绪识别信息。
需要说明的是,所述对文本识别信息进行特征提取,生成多个特征向量,包括:
根据预先建立的关键词数量为N的关键词词典,针对文本识别信息,计算关键词词典中各个关键词对应的TF-IDF值;
根据各个关键词对应的TF-IDF值生成对应的特征向量。
这里所说的关键词词典是针对上述被测文本集进行提取的,通过提取关键词能够大幅度减少特征向量的维度,从而提高情绪分类的效率。其中,特征向量的维度为N,特征向量的各个维度上的分量为关键词词典中各个关键词对应的TF-IDF值。
需要说明的是,文本模型为预先训练文本模型,将每个特征向量输入至文本模型后,将得到对应的分类结果。每个特征向量可能会得出不同的分类结果,将不同的分类结果赋予情绪值,然后按照预设的算法将每个情绪值进行加权计算,得到最终的情绪信息。所述的预设的算法可以是根据每个不同的关键词设置对应的加权系数,每个关键词对应的特征向量也和上述的加权系数相等。例如,关键词“你好”对应的加权系数为0.2,关键词“再见”的加权系数为0.1,则在最后计算情绪信息时,将对应的情绪值乘以对应的加权系数再进行相加,得到最后的情绪值,则此情绪值会对应一个情绪。本领域技术人员还可以根据实际需要实时调整权重值,从而提高情绪识别的精确度。
根据本发明实施例,所述根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到情绪信息,包括:
将所述语音情绪识别信息和文本情绪识别信息进行取值;
将对应取值进行相加,得到结果取值;
根据所述结果取值对应的范围,判定情绪信息。
需要说明的是,在获取了语音情绪识别信息和文本情绪识别信息之后,将根据上述信息分别赋予情绪值,并且将其取值进行相加,得到结果取值。其取值范围,可以是本领域技术人员根据实际需要设定的,每个值落入相应的取值范围中,则判定为相应的情绪。例如,可以将情绪识别信息确定为正面情绪、中立情绪和负面情绪,其情绪值分别为+1、0、-1。若语音情绪识别为正面情绪,则取值为+1,文本情绪识别为负面情绪,则取值为-1,两者相加之后取值为0,所以将其判定为中立情绪。若语音情绪识别为正面情绪,则取值为+1,文本情绪识别为正面情绪,则取值为+1,两者相加之后取值为+2,大于0,则将其判定为正面情绪。
需要说明的是,本实施例中的情绪训练模型可以为本领域的惯用情绪训练模型,如情绪训练模型可以采用TensorFlow进行训练,或者采用RNN等算法进行模型训练。
本发明第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质中包括情绪识别方法程序,所述情绪识别方法程序被处理器执行时,实现如上述任一项所述的一种情绪识别方法的步骤。
本发明提供的情绪识别方法、***和可读存储介质,通过对语音信号进行语音和文本的提取,进行情绪的识别,提高了情绪识别的准确率。通过对语音和文本信息的筛选,提高了处理的效率和准确率。本发明为客服电话中心场景的负面情绪识别提供了具体有效的解决方案,为提高客户服务质量和对服务人员进行绩效考核的参考标准等起到了积极重要的作用。针对不同的应用场景,融合语音、文本情绪模型结果,达到了业务实际要求标准。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个***,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (9)
1.一种情绪识别方法,其特征在于,包括: 采集语音信号; 将所述语音信号进行处理,得到语音识别信息和文本识别信息; 将所述语音识别信息和文本识别信息进行语音情绪识别和文本情绪识别,得到语音情绪识别信息和文本情绪识别信息; 根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到所述语音信号的情绪信息,
所述将所述语音信号进行处理,得到语音识别信息,包括: 分割语音信号为多个子语音信息; 提取所述多个子语音信息的特征信息,每个子语音信息的特征信息组成所述子语音信息的特征信息总集合; 统计每个子语音信息中的特征信息,将所述特征信息与预设的多个特征统计量信息进行匹配; 记录与所述多个特征统计量信息匹配的每个子语音信息中的特征信息集合; 根据与所述多个特征统计量信息匹配的特征信息集合,及子语音信息的特征信息总集合,计算每个子语音信息的特征量匹配度; 将特征量匹配度大于预设特征量阈值的子语音信息确定为语音识别信息,
其中,特征统计量中包括使用频率高且反应出情绪特征的词汇或短语。
2.根据权利要求1所述的一种情绪识别方法,其特征在于,将所述语音识别信息进行语音情绪识别,具体为:提取所述语音识别信息的特征信息; 将所述特征信息与预设的情绪训练模型进行匹配,得到每个不同情绪的概率值; 选取大于预设情绪阈值的概率值对应的情绪,作为所述语音信号的语音情绪识别信息。
3.根据权利要求2所述的一种情绪识别方法,其特征在于,还包括: 若存在多个大于预设情绪阈值的概率值;则选取多个所述概率值的平均概率值所对应的情绪作为所述语音信号的语音情绪识别信息。
4.根据权利要求1所述的一种情绪识别方法,其特征在于,所述将文本识别信息进行文本情绪识别,包括: 对文本识别信息进行特征提取,生成多个特征向量; 将多个特征向量分别进行文本模型匹配,得到每个特征向量的分类结果; 将所述每个特征向量的分类结果进行取值; 根据所述取值计算所述文本识别信息对应的情绪值; 将与所述情绪值对应的情绪,作为所述语音信号的文本情绪识别信息。
5.根据权利要求4所述的一种情绪识别方法,其特征在于,所述对文本识别信息进行特征提取,生成多个特征向量,包括: 根据预先建立的关键词数量为N的关键词词典,针对文本识别信息,计算关键词词典中各个关键词对应的TF-IDF值; 根据各个关键词对应的TF-IDF值生成对应的特征向量。
6.根据权利要求1所述的一种情绪识别方法,其特征在于,所述根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到情绪信息,包括: 将所述语音情绪识别信息和文本情绪识别信息进行取值; 将对应取值进行相加,得到结果取值; 根据所述结果取值对应的范围,判定所述语音信号的情绪信息。
7.一种情绪识别装置,其特征在于,包括: 采集模块,用于采集语音信号; 处理模块,用于将所述语音信号进行处理,得到语音识别信息和文本识别信息; 识别模块,用于将所述语音识别信息和文本识别信息进行语音情绪识别和文本情绪识别,得到语音情绪识别信息和文本情绪识别信息; 计算模块,用于根据预设计算规则,将所述语音情绪识别信息和文本情绪识别信息进行计算,得到所述语音信号的情绪信息,
其中,所述将所述语音信号进行处理,得到语音识别信息,包括: 分割语音信号为多个子语音信息; 提取所述多个子语音信息的特征信息,每个子语音信息的特征信息组成所述子语音信息的特征信息总集合; 统计每个子语音信息中的特征信息,将所述特征信息与预设的多个特征统计量信息进行匹配; 记录与所述多个特征统计量信息匹配的每个子语音信息中的特征信息集合; 根据与所述多个特征统计量信息匹配的特征信息集合,及子语音信息的特征信息总集合,计算每个子语音信息的特征量匹配度; 将特征量匹配度大于预设特征量阈值的子语音信息确定为语音识别信息。
8.一种电子设备,其特征在于,包括:存储器和处理器,所述存储器中包括情绪识别方法程序,所述情绪识别方法程序被所述处理器执行时实现如权利要求1至6中任一项所述的情绪识别方法的步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括情绪识别方法程序,所述情绪识别方法程序被处理器执行时,实现如权利要求1至6中任一项所述的情绪识别方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910949733.2A CN110910901B (zh) | 2019-10-08 | 2019-10-08 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
PCT/CN2020/119487 WO2021068843A1 (zh) | 2019-10-08 | 2020-09-30 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910949733.2A CN110910901B (zh) | 2019-10-08 | 2019-10-08 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110910901A CN110910901A (zh) | 2020-03-24 |
CN110910901B true CN110910901B (zh) | 2023-03-28 |
Family
ID=69815193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910949733.2A Active CN110910901B (zh) | 2019-10-08 | 2019-10-08 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110910901B (zh) |
WO (1) | WO2021068843A1 (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110910901B (zh) * | 2019-10-08 | 2023-03-28 | 平安科技(深圳)有限公司 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
CN111694938B (zh) * | 2020-04-27 | 2024-05-14 | 平安科技(深圳)有限公司 | 基于情绪识别的答复方法、装置、计算机设备及存储介质 |
CN111583968A (zh) * | 2020-05-25 | 2020-08-25 | 桂林电子科技大学 | 一种语音情感识别方法和*** |
CN111883113B (zh) * | 2020-07-30 | 2024-01-30 | 云知声智能科技股份有限公司 | 一种语音识别的方法及装置 |
CN113037610B (zh) * | 2021-02-25 | 2022-08-19 | 腾讯科技(深圳)有限公司 | 语音数据处理方法、装置、计算机设备和存储介质 |
CN112951233A (zh) * | 2021-03-30 | 2021-06-11 | 平安科技(深圳)有限公司 | 语音问答方法、装置、电子设备及可读存储介质 |
CN113314150A (zh) * | 2021-05-26 | 2021-08-27 | 平安普惠企业管理有限公司 | 基于语音数据的情绪识别方法、装置及存储介质 |
CN113704504B (zh) * | 2021-08-30 | 2023-09-19 | 平安银行股份有限公司 | 基于聊天记录的情绪识别方法、装置、设备及存储介质 |
CN113810548A (zh) * | 2021-09-17 | 2021-12-17 | 广州科天视畅信息科技有限公司 | 基于iot的智能通话质检方法*** |
CN113902404A (zh) * | 2021-09-29 | 2022-01-07 | 平安银行股份有限公司 | 基于人工智能的员工晋升分析方法、装置、设备及介质 |
CN113743126B (zh) * | 2021-11-08 | 2022-06-14 | 北京博瑞彤芸科技股份有限公司 | 一种基于用户情绪的智能交互方法和装置 |
CN114171063A (zh) * | 2021-12-08 | 2022-03-11 | 国家电网有限公司客户服务中心 | 一种实时话务客户情绪分析辅助方法及*** |
CN114312997B (zh) * | 2021-12-09 | 2023-04-07 | 科大讯飞股份有限公司 | 一种车辆转向控制方法、装置、***和存储介质 |
CN114298019A (zh) * | 2021-12-29 | 2022-04-08 | 中国建设银行股份有限公司 | 情绪识别方法、装置、设备、存储介质、程序产品 |
CN114662499A (zh) * | 2022-03-17 | 2022-06-24 | 平安科技(深圳)有限公司 | 基于文本的情绪识别方法、装置、设备及存储介质 |
CN114463827A (zh) * | 2022-04-12 | 2022-05-10 | 之江实验室 | 一种基于ds证据理论的多模态实时情绪识别方法及*** |
CN115641878A (zh) * | 2022-08-26 | 2023-01-24 | 天翼电子商务有限公司 | 一种结合分层策略的多模态情绪识别方法 |
CN117273816A (zh) * | 2022-09-21 | 2023-12-22 | 支付宝(杭州)信息技术有限公司 | 资源抽选处理方法及装置 |
CN116564281B (zh) * | 2023-07-06 | 2023-09-05 | 世优(北京)科技有限公司 | 基于ai的情绪识别方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101158967A (zh) * | 2007-11-16 | 2008-04-09 | 北京交通大学 | 一种基于分层匹配的快速音频广告识别方法 |
CN108305643A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN109948124A (zh) * | 2019-03-15 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 语音文件切分方法、装置及计算机设备 |
JP2021124530A (ja) * | 2020-01-31 | 2021-08-30 | Hmcomm株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108305641B (zh) * | 2017-06-30 | 2020-04-07 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN108305642B (zh) * | 2017-06-30 | 2019-07-19 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
US10593350B2 (en) * | 2018-04-21 | 2020-03-17 | International Business Machines Corporation | Quantifying customer care utilizing emotional assessments |
CN110390956A (zh) * | 2019-08-15 | 2019-10-29 | 龙马智芯(珠海横琴)科技有限公司 | 情感识别网络模型、方法及电子设备 |
CN110910901B (zh) * | 2019-10-08 | 2023-03-28 | 平安科技(深圳)有限公司 | 一种情绪识别方法及装置、电子设备和可读存储介质 |
-
2019
- 2019-10-08 CN CN201910949733.2A patent/CN110910901B/zh active Active
-
2020
- 2020-09-30 WO PCT/CN2020/119487 patent/WO2021068843A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101158967A (zh) * | 2007-11-16 | 2008-04-09 | 北京交通大学 | 一种基于分层匹配的快速音频广告识别方法 |
CN108305643A (zh) * | 2017-06-30 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 情感信息的确定方法和装置 |
CN109948124A (zh) * | 2019-03-15 | 2019-06-28 | 腾讯科技(深圳)有限公司 | 语音文件切分方法、装置及计算机设备 |
JP2021124530A (ja) * | 2020-01-31 | 2021-08-30 | Hmcomm株式会社 | 情報処理装置、情報処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
CN110910901A (zh) | 2020-03-24 |
WO2021068843A1 (zh) | 2021-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110910901B (zh) | 一种情绪识别方法及装置、电子设备和可读存储介质 | |
CN112804400B (zh) | 客服呼叫语音质检方法、装置、电子设备及存储介质 | |
CN107609708B (zh) | 一种基于***商店的用户流失预测方法及*** | |
CN107222865B (zh) | 基于可疑行为识别的通讯诈骗实时检测方法和*** | |
CN106919661B (zh) | 一种情感类型识别方法及相关装置 | |
US20170084272A1 (en) | System and method for analyzing and classifying calls without transcription via keyword spotting | |
US20090043573A1 (en) | Method and apparatus for recognizing a speaker in lawful interception systems | |
CN107919137A (zh) | 远程审批方法、装置、设备及可读存储介质 | |
CN109767786B (zh) | 一种在线语音实时检测方法及装置 | |
CN105989550A (zh) | 一种在线服务评价信息确定方法及设备 | |
CN113191787A (zh) | 电信数据的处理方法、装置电子设备及存储介质 | |
CN113434670A (zh) | 话术文本生成方法、装置、计算机设备和存储介质 | |
CN111368858B (zh) | 用户满意度评估方法及装置 | |
CN110580899A (zh) | 语音识别方法及装置、存储介质、计算设备 | |
CN116127010A (zh) | 意图识别方法、装置、电子设备及存储介质 | |
CN111464687A (zh) | 一种陌生呼叫请求的处理方法及装置 | |
CN113011503B (zh) | 一种电子设备的数据取证方法、存储介质及终端 | |
CN111149153A (zh) | 信息处理装置以及说话解析方法 | |
CN114254088A (zh) | 自动应答模型的构建方法和自动应答方法 | |
CN113808574A (zh) | 基于语音信息的ai语音质检方法、装置、设备和存储介质 | |
CN117357104B (zh) | 一种基于用户特征的音频分析方法 | |
CN115118818B (zh) | 通话录音数据的质检方法、装置、电子设备及存储介质 | |
CN114512144B (zh) | 一种识别恶意语音信息的方法、装置、介质和设备 | |
CN110784603A (zh) | 一种离线质检用智能语音分析方法及*** | |
CN111178068A (zh) | 一种基于对话情绪检测的催收暴力倾向评价方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |