CN1694162A - 语音识别分析***及服务方法 - Google Patents
语音识别分析***及服务方法 Download PDFInfo
- Publication number
- CN1694162A CN1694162A CNA2005100461691A CN200510046169A CN1694162A CN 1694162 A CN1694162 A CN 1694162A CN A2005100461691 A CNA2005100461691 A CN A2005100461691A CN 200510046169 A CN200510046169 A CN 200510046169A CN 1694162 A CN1694162 A CN 1694162A
- Authority
- CN
- China
- Prior art keywords
- sound
- voice
- degree
- person
- servicing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Abstract
本发明属于计算机通信技术领域,涉及到语音识别方法,特别涉及到语音识别***设备及服务方法。其特征是在人与人通话过程中提取人类的声音频率,以声音情感度和声音亲合度为技术依据,得出基于感性科学领域的语音识别与分析。声音情感度是根据人发声的音调和音律,了解其性格,掌握发声人当时的心理状态;声音亲和度是根据分析由人类肺部直接带动的低频率发声,进而表露出发声人的真实情绪。通过语音识别***的语音分析而提供的基于人类心理学方向的分值性建议。并且通过INTERNET和通信终端设备PDA、数字电视、手机、网络电话、固定电话,实现分析结果及建议的传达以及***对用户的全面服务。本发明的效果是实现基于感性科学领域的语音分析。
Description
技术领域
本发明属于计算机通信技术领域,涉及到语音识别方法,特别涉及到语音识别***设备及服务方法。
背景技术
传统的语音识别技术就是用人的语言去指挥和控制机器,让机器“听懂”人的语言,并根据其指令去完成各种各样的任务。
传统的语音识别***大致上分为三个部分:
(1)语音特征提取:其目的是从语音波形中提取出随时间变化的语音特征序列。
(2)声学模型与模式匹配(识别算法):声学模型通常将获取的语音特征通过学习算法产生。在识别时将输入的语音特征同声学模型(模式)进行匹配与比较,得到最佳的识别结果。
(3)语言模型与语言处理:语言模型包括由识别语音命令构成的语法网络或由统计方法构成的语言模型,语言处理可以进行语法、语义分析。对小词表语音识别***,往往不需要语言处理部分。
传统的语音处理***只是反映了信息的一个方面,而忽略了与知识世界相对应且具有同等重要地位的感性科学世界,这其实也是信息处理的一个重要组成部分。
传统的语音处理***模式简单,单纯的根据固定的语言模型让机器识别出人的语言。由于这种简单的识别模式导致了应用方面的单一性,通常是应用于信息查询,寻呼台、电话转接中心;金融领域,如家庭银行或股票信息查询;旅游服务领域,如飞机定票或旅馆预定,等。但是随着科技的迅猛发展,人类需求的不断提高,语音识别***应该有更广泛应用,与情感方面的分析相结合,真实地体现出人类的语言真谛。
上述语音识别***及方法的不足,可以通过一种全新的语音识别***及方法得以克服。
发明内容
本发明的目的是提供一种根据人与人通话过程中提取声音的频率,以声音情感度和声音亲合度为技术依据,实现基于感性科学领域的识别与分析,由此得出的语音识别***。
本发明的另一目的是提供一种以声音情感度和声音亲合度为技术依据的感性科学领域的识别与分析。
本发明的另一目的是提供一种基于人类心理状态的分值建议。
本发明的另一目的是提供一种INTERNET和通信设备终端相结合的语音识别***。
本发明的技术方案是在人类利用通信设备终端经由语音识别***进行通话,在此过程中***以声音的亲和度和情感度为技术依据分析人类的声音并且给出分值建议,最终通过短信服务器、语音服务器、网络界面服务器和邮件服务器通过INTERNET和通信终端设备(如:PDA、数字电视、手机、网络电话、固话等)连接用户同语音分析***间的信息交互,实现分析结果和建议的传达及全程服务。
声音亲合度可以解释为:人类的声音有各自固有的频率,即由独特的音调及音律所构成的音频。其中音调,即音域,也就是声音的宽度,根据发声人音域的高低可以判断出此人的音质,进而了解他的性格;而音律,即是一个人声音的波动度,通过分析一个人的音律,可以掌握发声人当时的心理状态。从1000对人中提取他们的音频,根据他们音频的分布找出一个基准值,当判断两个人的声音亲和度时,就把他们的声音进行分析,从而找出差距值,然后把差距值和基准值进行比对就会得出一个百分比,这个百分比就是声音的亲和度。通常情况下,直系亲属以及配偶间的声音亲和度为90%左右,朋友间的声音亲和度为80%左右,当两个人初次见面时,他们的声音亲和度一般在70%左右。
声音的情感度可以解释为:人类由声音表述的信息分两种,一种是两人交流时所传达的沟通信息,一种是自我情绪的对外传播信息。由肺部直接带动的低频率发声可以真实的表露发声人的情绪,这种频率是排除各种干扰因素的最基本的频率,也是决定发声人声音情感度的基础频率。让2000个人读同样的一段文字,并分别采集他们的低频率发声,从而得到一个基准值,然后让第2001个人也读同样的文字,并采集他的低频率发声,然后把他的发声频率值与基准值相比对而得到一个百分比,假如这个百分比是50%的话,那么结论就是第2001个人的情感特征就和第1000个人的情感特征相吻合。通常情况下,新闻播音员播音时的声音情感度是55%左右,如果一个人心情愉快时,他的声音情感度应该是70%左右,而当他开怀大笑时,声音情感度可以上升至80%。
根据上述的技术依据本***提供以下六个方面服务:
1、暗恋成功度测试
暗恋别人的主叫方可以通过我们的***与被暗恋者进行通话,***会分析对方的声音并给出分值建议,使暗恋者可以知道对方的心意,这样既可以避免一些不必要的尴尬,又可以解决暗恋者的苦恼。
2、爱情甜蜜度测试
恋爱中的主叫方可以通过本***与自己的爱人进行通话,***会分析他们的声音并给出分值建议,使其在恋爱的各个阶段及时把握对方的思想动态,做出应对。
3、婚姻融洽度测试
已婚的主叫方可以通过本***和配偶进行通话,***会分析他们的声音并给出分值建议,使其时刻了解双方的感情程度,及时进行自省或提醒对方。
4、友情深浅度测试
主叫方可以通过本***与其朋友进行通话,***会分析他们的声音后给出分值并提出建议,这样主叫方可以随时了解朋友对其自身的看法。
5、父母理解度测试
作为子女的主叫方可以通过本***与其父母进行通话,***会对他们的声音进行分析并给出分值,这样子女就可以随时了解父母的想法对其的态度,有利于两代人的沟通。
6、子女叛逆度测试
作为父母的主叫方可以通过本***与其子女进行通话,***会分析其声音并给出分值建议,这样父母就可以走进孩子的内心,了解他们的想法,减少代沟的产生。
在一个实例中,对于暗恋成功度的测试,本发明的语音识别***中提供基于暗恋成功度的声音采集数据,用户通过短信终端设备(手机、固定电话、网络电话等)根据***提示与被测试的用户进行通话,***经过声音采集、匹配、分析后提供分值建议,通过用户所用的通信渠道告知给用户。
本发明的效果和益处是:实现了基于感性科学领域的语音分析。
附图说明
图1是语音识别***的中心数据库结构示意图。
图中:1网络,2中介***,3使用者终端,4短信服务器,5网络界面服务器,6邮件服务器,7数据库服务器,8声音数据库,9用户数据库,10分值数据库。
图2是测试准备及接收结果示意图。
图中:11是否进行测试,12选择服务方式,13亲和度测试,14语音分析,15短信分析,16选择测试类型,17输入密码,18密码是否正确,19输入手机号码,20手机号码是否正确,21接收短信分析结果,22收听语音分析结果。
图3是亲和度测试图。
图中:23暗恋成功度,24爱情甜蜜度,25婚姻融洽度,26友情深浅度,27父母理解度,28子女叛逆度,29接收***密码,30是否重新接收***密码,31拨打被叫号码,32通话,33挂机。
具体实施方式
下面结合技术方案和附图,详细说明本发明的最佳实施例。
以下结合附图的说明是作为本发明当前优选实施例的描述,而不代表本发明可被构造和/或使用的唯一形式。描述时结合所说明的实施例给出了用于构造和操作本发明的功能和步骤顺序,然而,应当理解,相同的或等同的功能和顺序也可通过包含在本发明的精神和范围内的不同的实施完成。
语音分析***包含通过网络1、电话网、互联网、无线通信网等多样形态的所有网络连接的中介***2及用户测试终端3。用户测试终端3是通过网络1连接中介***2进行测试的通信装备。而且测试者利用PC通信、互联网、无线网络、电话网等,简单而迅速地访问中介***2。通过这种测试者终端3和网络1连接,测试者进行语音测试的中介***2是包含着通过网络1访问及信息交换的短信服务器4,网络界面服务器5及邮件服务器6等传达的多样信息,测试过程中被测试者的语音信息流向通过储存很多信息的数据库服务器7进行数据处理。数据库服务器7包括存储及处理声音音频的声音数据库8、存储使用者信息的用户数据库网9以及存储分析结果的分值数据库10。络界面服务器5是通过网络1特别是无线网络访问测试者终端3,通过数据库服务器7提供的多样的信息按照规则变换处理后提供给测试者终端3,通过网络1接收测试者终端3传送的信息后提供给数据库服务器7,包含网络服务器或别的***的信息传送的数据库联动装置等。邮件服务器6通过网络1与测使者终端3进行电子邮件的传送。
虽然,本发明参考实际***说明,但本发明不仅仅限制在以上所述的内容。
Claims (4)
1、一种语音识别分析***及服务方法,其特征在于在人与人通话过程中提取人类的声音频率,以声音情感度和声音亲和度为技术依据,进行基于人类感性科学领域的语音分析及识别,同时提供分值建议,通过短信服务器、语音服务器、网络界面服务器和邮件服务器通过INTERNET和通信终端设备PDA、数字电视、手机、网络电话、固定电话,连接用户和语音识别***间的信息交互。
2、根据权利1所述的一种语音识别分析***及服务方法,其特征在于通过***在人与人通话过程中直接提取人类的声音频率,并以声音情感度和声音亲合度为技术依据的感性科学领域的识别与分析。
3、根据权利1所述的一种语音识别分析***及服务方法,其特征在于根据***分析链接分值建议。
4、根据权利1所述的一种语音识别分析***及服务方法,其特征在于通过INTERNET和通信终端设备PDA、数字电视、手机、网络电话、固定电话,连接用户和语音识别***间的信息交互。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2005100461691A CN1694162A (zh) | 2005-03-31 | 2005-03-31 | 语音识别分析***及服务方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CNA2005100461691A CN1694162A (zh) | 2005-03-31 | 2005-03-31 | 语音识别分析***及服务方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN1694162A true CN1694162A (zh) | 2005-11-09 |
Family
ID=35353098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2005100461691A Pending CN1694162A (zh) | 2005-03-31 | 2005-03-31 | 语音识别分析***及服务方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN1694162A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2306561A1 (es) * | 2005-12-30 | 2008-11-01 | France Telecom España, S.A. | Metodo para la medicion de grado de afinidad entre personas a traves de biometria de la voz en dispositivos moviles. |
CN101645961A (zh) * | 2008-08-06 | 2010-02-10 | 深圳富泰宏精密工业有限公司 | 实现来电情绪辨识的手机及方法 |
CN101867742A (zh) * | 2010-05-21 | 2010-10-20 | 中山大学 | 一种基于声控控制下的电视*** |
CN103440864A (zh) * | 2013-07-31 | 2013-12-11 | 湖南大学 | 基于语音的人格特征预测方法 |
CN104900007A (zh) * | 2015-06-19 | 2015-09-09 | 四川分享微联科技有限公司 | 一种基于声音触发无线报警的监护手表 |
CN105141587A (zh) * | 2015-08-04 | 2015-12-09 | 广东小天才科技有限公司 | 一种虚拟玩偶互动方法及装置 |
CN105206269A (zh) * | 2015-08-14 | 2015-12-30 | 百度在线网络技术(北京)有限公司 | 一种语音处理方法和装置 |
CN109377540A (zh) * | 2018-09-30 | 2019-02-22 | 网易(杭州)网络有限公司 | 面部动画的合成方法、装置、存储介质、处理器及终端 |
-
2005
- 2005-03-31 CN CNA2005100461691A patent/CN1694162A/zh active Pending
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2306561A1 (es) * | 2005-12-30 | 2008-11-01 | France Telecom España, S.A. | Metodo para la medicion de grado de afinidad entre personas a traves de biometria de la voz en dispositivos moviles. |
CN101645961A (zh) * | 2008-08-06 | 2010-02-10 | 深圳富泰宏精密工业有限公司 | 实现来电情绪辨识的手机及方法 |
CN101867742A (zh) * | 2010-05-21 | 2010-10-20 | 中山大学 | 一种基于声控控制下的电视*** |
CN103440864A (zh) * | 2013-07-31 | 2013-12-11 | 湖南大学 | 基于语音的人格特征预测方法 |
CN104900007A (zh) * | 2015-06-19 | 2015-09-09 | 四川分享微联科技有限公司 | 一种基于声音触发无线报警的监护手表 |
CN105141587A (zh) * | 2015-08-04 | 2015-12-09 | 广东小天才科技有限公司 | 一种虚拟玩偶互动方法及装置 |
CN105141587B (zh) * | 2015-08-04 | 2019-01-01 | 广东小天才科技有限公司 | 一种虚拟玩偶互动方法及装置 |
CN105206269A (zh) * | 2015-08-14 | 2015-12-30 | 百度在线网络技术(北京)有限公司 | 一种语音处理方法和装置 |
CN109377540A (zh) * | 2018-09-30 | 2019-02-22 | 网易(杭州)网络有限公司 | 面部动画的合成方法、装置、存储介质、处理器及终端 |
CN109377540B (zh) * | 2018-09-30 | 2023-12-19 | 网易(杭州)网络有限公司 | 面部动画的合成方法、装置、存储介质、处理器及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109817213B (zh) | 用于自适应语种进行语音识别的方法、装置及设备 | |
CN1694162A (zh) | 语音识别分析***及服务方法 | |
CN100351899C (zh) | 网络环境中语音处理的中间体 | |
US10102847B2 (en) | Automated learning for speech-based applications | |
CN101297355B (zh) | 响应自然语言语音口头表达的***和方法 | |
US9330658B2 (en) | User intent analysis extent of speaker intent analysis system | |
CN109325091B (zh) | 兴趣点属性信息的更新方法、装置、设备及介质 | |
CN107818798A (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
CN105744090A (zh) | 语音信息处理方法及装置 | |
CN109949071A (zh) | 基于语音情绪分析的产品推荐方法、装置、设备和介质 | |
KR101901920B1 (ko) | 인공지능 음성인식 딥러닝을 위한 음성 및 텍스트 간 역전사 서비스 제공 시스템 및 방법 | |
KR20120038000A (ko) | 대화의 주제를 결정하고 관련 콘텐트를 획득 및 제시하는 방법 및 시스템 | |
CN111489765A (zh) | 一种基于智能语音技术的话务服务质检方法 | |
CN115602165B (zh) | 基于金融***的数字员工智能*** | |
CN110633912A (zh) | 监测服务人员服务质量的方法及*** | |
CN115798518B (zh) | 一种模型训练方法、装置、设备及介质 | |
Abdullah et al. | Paralinguistic speech processing: An overview | |
KR102171658B1 (ko) | 크라우드전사장치 및 그 동작 방법 | |
CN110458599A (zh) | 测试方法、测试装置及相关产品 | |
EP1382032B1 (en) | Web-based speech recognition with scripting and semantic objects | |
CN117150338A (zh) | 任务处理、自动问答以及多媒体数据识别模型训练方法 | |
CN111858884A (zh) | 一种机器人学习真人深度对话内容的方法与*** | |
Aarts et al. | A real-time speech-music discriminator | |
KR20200122916A (ko) | 대화 시스템 및 그 제어 방법 | |
CN112116165B (zh) | 一种业务绩效确定方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |