CN108962281B - 一种语言表达的评价和辅助方法及装置 - Google Patents

一种语言表达的评价和辅助方法及装置 Download PDF

Info

Publication number
CN108962281B
CN108962281B CN201810932891.2A CN201810932891A CN108962281B CN 108962281 B CN108962281 B CN 108962281B CN 201810932891 A CN201810932891 A CN 201810932891A CN 108962281 B CN108962281 B CN 108962281B
Authority
CN
China
Prior art keywords
voice
user
chat
evaluated
satisfaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810932891.2A
Other languages
English (en)
Other versions
CN108962281A (zh
Inventor
王明豪
胡建荣
范炜
陈涛
俞江
石磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics China R&D Center
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics China R&D Center
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics China R&D Center, Samsung Electronics Co Ltd filed Critical Samsung Electronics China R&D Center
Priority to CN201810932891.2A priority Critical patent/CN108962281B/zh
Publication of CN108962281A publication Critical patent/CN108962281A/zh
Application granted granted Critical
Publication of CN108962281B publication Critical patent/CN108962281B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/60Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Machine Translation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本申请公开了一种语言表达的评价和辅助方法和装置,其中方法包括:服务器预先从用户语音聊天样本数据中,提取每个聊天用户的语音特征、用户特征以及用户对不同语音特征的语音满意度,并采用机器学习方法,根据所述提取的结果,生成用于语音表达评价的学习模型;当所述服务器接收到终端设备发送的待评价语音数据和相应聊天对象的用户标识时,根据所述待评价语音数据和所述用户标识,利用所述学习模型,估计所述聊天对象对所述待评价语音数据的满意度,将所述估计的结果发送给所述终端设备。采用本发明,可以对用户的语言表达进行智能评价,有利于用户进行语言表达的优化。

Description

一种语言表达的评价和辅助方法及装置
技术领域
本发明涉及机器学习应用技术,特别是涉及一种语言表达的评价和辅助方法及装置。
背景技术
语言是人类之间交流信息的主要手段之一,自电脑发明以来,人们就一直致力于使电脑能够理解自然语言。语音识别,也被称为自动语音识别(Automatic SpeechRecognition,ASR)技术,就是让机器通过识别和理解过程把语音信号转变为相应的文本或命令的高技术,也就是让机器听懂人类的语音。
语音识别的基本原理,就是将一段语音信号转换成相对应的文本信息,***主要包含特征提取、声学模型,语言模型以及字典与解码四大部分,其中为了更有效地提取特征往往还需要对所采集到的声音信号进行滤波、分帧等预处理工作,把要分析的信号从原始信号中提取出来;之后,特征提取工作将声音信号从时域转换到频域,为声学模型提供合适的特征向量;声学模型中再根据声学特性计算每一个特征向量在声学特征上的得分;而语言模型则根据语言学相关的理论,计算该声音信号对应可能词组序列的概率;最后根据已有的字典,对词组序列进行解码,得到最后可能的文本表示。
随着机器学习和人工智能的发展,语音行业也可谓是百花齐放,尤其是最近几年,不仅涌现了很多国内外的小公司,而且巨头们也开始加速语音识别行业的布局,在语音识别领域均取得了不错的进展。
由于经济的迅猛发展,人们之间的交往日益频繁,语言表达能力的重要性也日益增强,良好的语言表达往往能起到事半功倍的效果。然而很多人在语言表达上有所欠缺,叙述不清晰,没有重点,毫无逻辑等,这些语言表达能力的欠缺,导致人与人之间无法进行有效的沟通,工作效率也随之降低。如何通过语音识别来增强人与人之间的沟通能力,这个问题变得尤为重要。
通过人工智能,机器理解人类的语言以及人类的情感已经变成可能,但是面向特定聊天对象的语言表达能力评价及辅助,目前,尚未有相关方面的消息及进展。
发明内容
有鉴于此,本发明的主要目的在于提供一种语言表达的评价和辅助方法及装置,可以对用户的语言表达进行智能评价,有利于用户进行语言表达的优化。
为了达到上述目的,本发明提出的技术方案为:
一种语言表达的评价和辅助方法,包括:
a、服务器预先从用户语音聊天样本数据中,提取每个聊天用户的语音特征、用户特征以及用户对不同语音特征的语音满意度,并采用机器学习方法,根据所述提取的结果,生成用于语音表达评价的学习模型;
b、当所述服务器接收到终端设备发送的待评价语音数据和相应聊天对象的用户标识时,根据所述待评价语音数据和所述用户标识,利用所述学习模型,估计所述聊天对象对所述待评价语音数据的满意度,将所述估计的结果发送给所述终端设备。
一种语言表达的评价和辅助装置,设于服务器中,包括:
学习模型生成单元,预先从用户语音聊天样本数据中,提取每个聊天用户的语音特征、用户特征以及用户对不同语音特征的语音满意度,并采用机器学习方法,根据所述提取的结果,生成用于语音表达评价的学习模型;
评估辅助单元,当所述服务器接收到终端设备发送的待评价语音数据和相应聊天对象的用户标识时,根据所述待评价语音数据和所述用户标识,利用所述学习模型,估计所述聊天对象对所述待评价语音数据的满意度,将所述估计的结果发送给所述终端设备。
综上所述,本发明提出的语言表达的评价和辅助方法及***,通过预先基于用户语音聊天样本数据,生成用于语音表达评价的学习模型,以建立语音特征、用户特征以及不同语音特征的语音满意度三方面的映射关系,从而可以基于上述学习模型为用户评估与其进行聊天的对象对其语言表达的满意度,进而有利于用户根据该评估结果进行语言表达的优化。因此,利用本发明,可以对用户的语言表达进行智能评价,有利于用户进行语言表达的优化。
附图说明
图1为本发明实施例的方法流程示意图;
图2为本发明实施例的装置结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图及具体实施例对本发明作进一步地详细描述。
图1为本发明实施例的方法流程示意图,如图1所示,该实施例实现的语言表达的评价和辅助方法主要包括:
步骤101、服务器预先从用户语音聊天样本数据中,提取每个聊天用户的语音特征、用户特征以及用户对不同语音特征的语音满意度,并采用机器学习方法,根据所述提取的结果,生成用于语音表达评价的学习模型。
本步骤中,需要根据预先采集的样本数据,建立用户的语音特征、用户特征以及用户对不同语音特征的语音满意度三方面的映射关系,生成相应的用于语音表达评价的学习模型。
在实际应用中,可以采用通过小规模的用户调研来获得用户语音聊天样本数据,该用户语音聊天样本数据将包括具有不同用户特征的用户的语音数据以及他们对不同用户的语音满意度(该满意度可以通过现场采集得到,即选择不同用户画像的受访人群,让受访人群对其他人的语音进行语音满意度评分),这样,通过对用户语音聊天样本数据进行分析,可以最终得出样本空间内用户特征、语音特征及语音满意度三者之间的关联性。
上述学习模型的具体生成方法为本领域技术人员所掌握,在此不再赘述。
较佳地,所述语音特征可以包括:语义特征、语速特征、语调特征、语法特征和感情特征。
较佳地,所述用户特征可以包括:年龄、性别、职业、受教育程度、地域和个人喜好。
较佳地,所述语音满意度可以包括:在语义、语速、语调、语法和感情方面的满意度。
较佳地,步骤101可以采用下述方法实现:
步骤1011、所述服务器从所述用户语音聊天样本数据中,提取出样本数据所涉及的每个聊天用户的语音特征。
本步骤的具体实现为本领域技术人员所掌握,在此不再赘述。
步骤1012、对于每个所述聊天用户,从该聊天用户对应的样本数据中提取出相应的用户特征和对不同语音特征的语音满意度。
本步骤的具体实现为本领域技术人员所掌握,在此不再赘述。
步骤1013、采用机器学习的方法,根据每个聊天用户的语音特征、用户特征以及对不同语音特征的语音满意度,生成所述学习模型。
本步骤的具体实现为本领域技术人员所掌握,在此不再赘述。
步骤102、当所述服务器接收到终端设备发送的待评价语音数据和相应聊天对象的用户标识时,根据所述待评价语音数据和所述用户标识,利用所述学习模型,估计所述聊天对象对所述待评价语音数据的满意度,将所述估计的结果发送给所述终端设备。
本步骤,用于利于步骤101生成的学习模型,对聊天对象对待评价语音数据的满意度进行评估,并发送给终端设备,以便用户基于评估结果对其语音进行调整,从而有利于聊天对象对用户语音的满意度。
较佳地,本步骤中可以采用下述方法估计所述聊天对象对所述待评价语音数据的满意度:
步骤x1、所述服务器从所述待评价语音数据中提取出相应的语音特征。
本步骤中需要从终端设备发送来的待评价语音数据中提取出相应的语音特征,以便后续步骤中进一步基于该语音特征对聊天对象对待评价语音数据的满意度进行评估。具体的提取方法为本领域技术人员所掌握,在此不再赘述。
步骤x2、所述服务器根据所述聊天对象的用户标识和历史聊天数据,获取所述聊天对象的用户特征,将所述语音特征和所述聊天对象的用户特征输入到所述学习模型中,得到所述聊天对象对所述待评价语音数据的满意度并发送给所述终端设备。
本步骤中,需要先根据所述聊天对象的用户标识和历史聊天数据,确定出聊天对象的用户特征,然后将用户特征和待评价语音数据的语音特征作为输入参数,输入至步骤101得到的学习模型中,即可得到聊天对象对待评价语音数据的满意度估计结果。
在实际应用中,确定聊天对象的用户特征的具体方法可以为:
根据用户标识查找相应用户的历史聊天数据,对历史聊天数据进行分析即可获得聊天对象的用户特征。
较佳地,本步骤中估计出的对所述待评价语音数据的满意度可以包括在语音特征的各个方面的满意度。如在语义、语速、语调、语法和感情方面的满意度,以便对用户清楚地获知需要对语音进行优化的具体方向,从而可以有效提高聊天对象对其语音的满意度。
通过上述方法实施例可以看出本发明可以对用户的语言表达进行智能评价,有利于用户进行语言表达的优化。图2为与上述方法相对应的一种语言表达的评价和辅助装置结构示意图,该装置设于服务器中,如图2所示该装置包括:
学习模型生成单元,预先从用户语音聊天样本数据中,提取每个聊天用户的语音特征、用户特征以及用户对不同语音特征的语音满意度,并采用机器学习方法,根据所述提取的结果,生成用于语音表达评价的学习模型;
评估辅助单元,当所述服务器接收到终端设备发送的待评价语音数据和相应聊天对象的用户标识时,根据所述待评价语音数据和所述用户标识,利用所述学习模型,估计所述聊天对象对所述待评价语音数据的满意度,将所述估计的结果发送给所述终端设备。
较佳地,所述语音特征包括:语义特征、语速特征、语调特征、语法特征和感情特征。
较佳地,所述用户特征包括:年龄、性别、职业、受教育程度、地域和个人喜好。
较佳地,所述语音满意度包括:在语义、语速、语调、语法和感情方面的满意度。
较佳地,学习模型生成单元,用于从所述用户语音聊天样本数据中,提取出样本数据所涉及的每个聊天用户的语音特征;对于每个所述聊天用户,从该聊天用户对应的样本数据中提取出相应的用户特征和对不同语音特征的语音满意度;采用机器学习的方法,根据每个聊天用户的语音特征、用户特征以及对不同语音特征的语音满意度,生成所述学习模型。
较佳地,评估辅助单元,用于从所述待评价语音数据中提取出相应的语音特征;根据所述聊天对象的用户标识和历史聊天数据,获取所述聊天对象的用户特征,将所述语音特征和所述聊天对象的用户特征输入到所述学习模型中,得到所述聊天对象对所述待评价语音数据的满意度并发送给所述终端设备。
较佳地,所述对所述待评价语音数据的满意度包括在语音特征的各个方面的满意度。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (12)

1.一种语言表达的评价和辅助方法,其特征在于,包括:
a、服务器预先从用户语音聊天样本数据中,提取每个聊天用户的语音特征、用户特征以及用户对不同语音特征的语音满意度,并采用机器学习方法,根据所述提取的结果,生成用于语音表达评价的学习模型;
b、当所述服务器接收到终端设备发送的用户的待评价语音数据和相应的用户的聊天对象的用户标识时,根据所述待评价语音数据和所述用户标识,利用所述学习模型,估计所述聊天对象对所述待评价语音数据的语音满意度,将所述估计的结果发送给所述终端设备;
其中,估计所述聊天对象对所述待评价语音数据的语音满意度包括:
所述服务器从所述待评价语音数据中提取出相应的语音特征;
所述服务器根据所述聊天对象的用户标识和历史聊天数据,获取所述聊天对象的用户特征,将所述语音特征和所述聊天对象的用户特征输入到所述学习模型中,得到所述聊天对象对所述待评价语音数据的语音满意度并发送给所述终端设备。
2.根据权利要求1所述的方法,其特征在于,所述语音特征包括:语义特征、语速特征、语调特征、语法特征和感情特征。
3.根据权利要求1所述的方法,其特征在于,所述用户特征包括:年龄、性别、职业、受教育程度、地域和个人喜好。
4.根据权利要求1所述的方法,其特征在于,所述语音满意度包括:在语义、语速、语调、语法和感情方面的满意度。
5.根据权利要求1所述的方法,其特征在于,所述步骤a包括:
所述服务器从所述用户语音聊天样本数据中,提取出样本数据所涉及的每个聊天用户的语音特征;
对于每个所述聊天用户,从该聊天用户对应的样本数据中提取出相应的用户特征和对不同语音特征的语音满意度;
采用机器学习的方法,根据每个聊天用户的语音特征、用户特征以及对不同语音特征的语音满意度,生成所述学习模型。
6.根据权利要求1所述的方法,其特征在于,所述方法进一步包括:
对所述待评价语音数据的语音满意度包括在语音特征的各个方面的满意度。
7.一种语言表达的评价和辅助装置,设于服务器中,其特征在于,包括:
学习模型生成单元,预先从用户语音聊天样本数据中,提取每个聊天用户的语音特征、用户特征以及用户对不同语音特征的语音满意度,并采用机器学习方法,根据所述提取的结果,生成用于语音表达评价的学习模型;
评估辅助单元,当所述服务器接收到终端设备发送的用户的待评价语音数据和相应的用户的聊天对象的用户标识时,根据所述待评价语音数据和所述用户标识,利用所述学习模型,估计所述聊天对象对所述待评价语音数据的语音满意度,将所述估计的结果发送给所述终端设备;其中,所述估计包括:从所述待评价语音数据中提取出相应的语音特征;根据所述聊天对象的用户标识和历史聊天数据,获取所述聊天对象的用户特征,将所述语音特征和所述聊天对象的用户特征输入到所述学习模型中,得到所述聊天对象对所述待评价语音数据的语音满意度并发送给所述终端设备。
8.根据权利要求7所述的装置,其特征在于,所述语音特征包括:语义特征、语速特征、语调特征、语法特征和感情特征。
9.根据权利要求7所述的装置,其特征在于,所述用户特征包括:年龄、性别、职业、受教育程度、地域和个人喜好。
10.根据权利要求7所述的装置,其特征在于,所述语音满意度包括:在语义、语速、语调、语法和感情方面的满意度。
11.根据权利要求7所述的装置,其特征在于,学习模型生成单元,用于从所述用户语音聊天样本数据中,提取出样本数据所涉及的每个聊天用户的语音特征;对于每个所述聊天用户,从该聊天用户对应的样本数据中提取出相应的用户特征和对不同语音特征的语音满意度;采用机器学习的方法,根据每个聊天用户的语音特征、用户特征以及对不同语音特征的语音满意度,生成所述学习模型。
12.根据权利要求7所述的装置,其特征在于,所述对所述待评价语音数据的语音满意度包括在语音特征的各个方面的满意度。
CN201810932891.2A 2018-08-15 2018-08-15 一种语言表达的评价和辅助方法及装置 Active CN108962281B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810932891.2A CN108962281B (zh) 2018-08-15 2018-08-15 一种语言表达的评价和辅助方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810932891.2A CN108962281B (zh) 2018-08-15 2018-08-15 一种语言表达的评价和辅助方法及装置

Publications (2)

Publication Number Publication Date
CN108962281A CN108962281A (zh) 2018-12-07
CN108962281B true CN108962281B (zh) 2021-05-07

Family

ID=64470466

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810932891.2A Active CN108962281B (zh) 2018-08-15 2018-08-15 一种语言表达的评价和辅助方法及装置

Country Status (1)

Country Link
CN (1) CN108962281B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112232101A (zh) * 2019-07-15 2021-01-15 北京正和思齐数据科技有限公司 一种用户沟通状态的评价方法、装置及***
CN113160828A (zh) * 2021-04-20 2021-07-23 北京洛必德科技有限公司 智能辅助机器人交互方法、***、电子设备及存储介质

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090120640A (ko) * 2008-05-20 2009-11-25 성균관대학교산학협력단 음성 신호의 스펙트럴 엔트로피를 이용한 감정 인식 방법및 장치
CN103617799A (zh) * 2013-11-28 2014-03-05 广东外语外贸大学 一种适应于移动设备的英语语句发音质量检测方法
CN104461226A (zh) * 2013-09-23 2015-03-25 北京三星通信技术研究有限公司 用于网络的聊天方法、聊天设备及聊天***
CN105810205A (zh) * 2014-12-29 2016-07-27 ***通信集团公司 一种语音处理方法及装置
KR20160116586A (ko) * 2015-03-30 2016-10-10 한국전자통신연구원 사용자 감정 인식 방법 및 장치
CN107093431A (zh) * 2016-02-18 2017-08-25 ***通信集团辽宁有限公司 一种对服务质量进行质检的方法及装置
CN107452385A (zh) * 2017-08-16 2017-12-08 北京世纪好未来教育科技有限公司 一种基于语音的数据评价方法及装置
CN107818798A (zh) * 2017-10-20 2018-03-20 百度在线网络技术(北京)有限公司 客服服务质量评价方法、装置、设备及存储介质
CN107818797A (zh) * 2017-12-07 2018-03-20 苏州科达科技股份有限公司 语音质量评价方法、装置及其***
CN107895230A (zh) * 2017-11-06 2018-04-10 广州杰赛科技股份有限公司 客服质量评价方法和装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103811009A (zh) * 2014-03-13 2014-05-21 华东理工大学 一种基于语音分析的智能电话客服***
CN107077315B (zh) * 2014-11-11 2020-05-12 瑞典爱立信有限公司 用于选择要在与用户通信期间使用的语音的***和方法
CN105654250A (zh) * 2016-02-01 2016-06-08 百度在线网络技术(北京)有限公司 一种满意度自动测评的方法和装置
CN107154257B (zh) * 2017-04-18 2021-04-06 苏州工业职业技术学院 基于客户语音情感的客服服务质量评价方法及***
CN108388926B (zh) * 2018-03-15 2019-07-30 百度在线网络技术(北京)有限公司 语音交互满意度的确定方法及设备

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090120640A (ko) * 2008-05-20 2009-11-25 성균관대학교산학협력단 음성 신호의 스펙트럴 엔트로피를 이용한 감정 인식 방법및 장치
CN104461226A (zh) * 2013-09-23 2015-03-25 北京三星通信技术研究有限公司 用于网络的聊天方法、聊天设备及聊天***
CN103617799A (zh) * 2013-11-28 2014-03-05 广东外语外贸大学 一种适应于移动设备的英语语句发音质量检测方法
CN105810205A (zh) * 2014-12-29 2016-07-27 ***通信集团公司 一种语音处理方法及装置
KR20160116586A (ko) * 2015-03-30 2016-10-10 한국전자통신연구원 사용자 감정 인식 방법 및 장치
CN107093431A (zh) * 2016-02-18 2017-08-25 ***通信集团辽宁有限公司 一种对服务质量进行质检的方法及装置
CN107452385A (zh) * 2017-08-16 2017-12-08 北京世纪好未来教育科技有限公司 一种基于语音的数据评价方法及装置
CN107818798A (zh) * 2017-10-20 2018-03-20 百度在线网络技术(北京)有限公司 客服服务质量评价方法、装置、设备及存储介质
CN107895230A (zh) * 2017-11-06 2018-04-10 广州杰赛科技股份有限公司 客服质量评价方法和装置
CN107818797A (zh) * 2017-12-07 2018-03-20 苏州科达科技股份有限公司 语音质量评价方法、装置及其***

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Smart Multifunctional Digital Content Ecosystem Using Emotion Analysis of Voice;Alexander I.Iliev et al;《CompSysTech"17: Proceedings of the 18th International Conference on Computer Systems and Technologies》;20170630;第58-64页 *
基于Matlab的语音情感特征值研究;李文琴等;《实验室研究与探索》;20180731;第131-135页及第169页 *

Also Published As

Publication number Publication date
CN108962281A (zh) 2018-12-07

Similar Documents

Publication Publication Date Title
CN109817213B (zh) 用于自适应语种进行语音识别的方法、装置及设备
CN107945805B (zh) 一种智能化跨语言语音识别转化方法
CN107203511B (zh) 一种基于神经网络概率消歧的网络文本命名实体识别方法
CN107437415B (zh) 一种智能语音交互方法及***
CN110717018A (zh) 一种基于知识图谱的工业设备故障维修问答***
CN110838289A (zh) 基于人工智能的唤醒词检测方法、装置、设备及介质
CN105427869A (zh) 一种基于深度学习的会话情感自动分析方法
CN105810205A (zh) 一种语音处理方法及装置
CN112967725A (zh) 语音对话数据处理方法、装置、计算机设备及存储介质
CN111105785A (zh) 一种文本韵律边界识别的方法及装置
CN111653270B (zh) 语音处理方法、装置、计算机可读存储介质及电子设备
CN112151015A (zh) 关键词检测方法、装置、电子设备以及存储介质
CN113609264B (zh) 电力***节点的数据查询方法、装置
CN112349294B (zh) 语音处理方法及装置、计算机可读介质、电子设备
CN115309877A (zh) 对话生成方法、对话模型训练方法及装置
CN116665676B (zh) 一种用于智能语音外呼***的语义识别方法
CN108962281B (zh) 一种语言表达的评价和辅助方法及装置
CN106356054A (zh) 一种基于语音识别的农产品信息采集方法和***
CN108536668A (zh) 唤醒词评估方法及装置、存储介质、电子设备
Baird et al. Emotion recognition in public speaking scenarios utilising an lstm-rnn approach with attention
CN114495217A (zh) 基于自然语言和表情分析的场景分析方法、装置及***
CN109104534A (zh) 一种提高外呼机器人意图检测准确率、召回率的***
Rosenberg Speech, prosody, and machines: Nine challenges for prosody research
CN111324712A (zh) 对话回复方法及服务端
CN113990288B (zh) 一种语音客服自动生成部署语音合成模型的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant