CN112382299A - 一种智能眼镜的语音交互方法、语音交互***及智能眼镜 - Google Patents
一种智能眼镜的语音交互方法、语音交互***及智能眼镜 Download PDFInfo
- Publication number
- CN112382299A CN112382299A CN202011293962.2A CN202011293962A CN112382299A CN 112382299 A CN112382299 A CN 112382299A CN 202011293962 A CN202011293962 A CN 202011293962A CN 112382299 A CN112382299 A CN 112382299A
- Authority
- CN
- China
- Prior art keywords
- voice interaction
- sound information
- voice
- voiceprint
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 title claims abstract description 60
- 239000011521 glass Substances 0.000 title claims abstract description 45
- 239000004984 smart glass Substances 0.000 claims description 44
- 238000012545 processing Methods 0.000 claims description 12
- 230000002708 enhancing effect Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 abstract description 12
- 238000010586 diagram Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000002537 cosmetic Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Security & Cryptography (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明公开了一种智能眼镜的语音交互方法、语音交互***及智能眼镜,其中方法包括:采集周围环境中的声音信息;提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配;若匹配成功,则将所述声音信息进行内容识别,以完成语音交互。本发明提供的一种智能眼镜的语音交互方法、语音交互***及智能眼镜,通过增加声纹识别的过程,保证只有特定的人发出的声音才能被识别从而进行语音交互,使得智能眼镜的使用更加私密安全,提高了用户对智能眼镜的使用体验。
Description
技术领域
本发明涉及智能眼镜技术领域,尤其涉及一种智能眼镜的语音交互方法、语音交互***及智能眼镜。
背景技术
眼镜,是一种戴在眼睛前方,以改善视力、保护眼睛或作装饰用途的光学器件。简言之,眼镜既可以是保护眼睛的工具,也可以是一种美容的装饰品。
目前,随着人工智能技术的不断发展,带有语音交互功能的智能眼镜作为一种新兴的智能穿戴产品,正逐渐普及到人们的日常生活中,给人们带来了更多样化的生活体验。使用的时候,人们只需要通过轻轻敲击镜腿的方式或者是发出特定唤醒词汇的方式就可以激活智能眼镜的语音交互功能,然后通过语音命令来完成我们想要智能眼镜实现的操作,比如播放音乐、调节音量、语音通话和语音搜索等。
然而,在语音交互的过程中,由于周围环境存在着较多不同人发出的声音,所以智能眼镜可能会无差别地将环境中其他人的声音也进行内容识别,继而执行其他人发出的语音命令,导致误操作的情况发生。另外,由于智能眼镜和手机、电脑等电子产品一样是属于比较私人的东西,所以在大多数情况下,人们是不希望其他人在未经本人允许的情况下随意将智能眼镜进行佩戴便可与其进行语音交互的,这样不仅使得智能眼镜的防盗用安全性得不到保障,且同时用户的使用体验也不好。
因此,现有的智能眼镜的交互方式难以满足不同用户以及不同场景的需要,那么,如何提供一种能够解决上述问题的新的智能眼镜交互方式是本领域技术人员需要研究的课题。
以上信息作为背景信息给出只是为了辅助理解本公开。并没有确定或者承认任意上述内容是否可用作相对于本公开的现有技术。
发明内容
本发明提供一种智能眼镜的语音交互方法、语音交互***及智能眼镜,以解决现有技术的不足。
为实现上述目的,本发明提供以下的技术方案:
第一方面,本发明实施例提供一种智能眼镜的语音交互方法,所述方法包括:
采集周围环境中的声音信息;
提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配;
若匹配成功,则将所述声音信息进行内容识别,以完成语音交互。
进一步地,所述智能眼镜的语音交互方法中,在所述采集周围环境中的声音信息之前,所述方法还包括:
采集并存储声纹特征样本。
进一步地,所述智能眼镜的语音交互方法中,所述采集并存储声纹特征样本的步骤包括:
检测是否接收到注册请求;
若接收到所述注册请求,则播放一段用于采集用户的声音信息的设定语句,并提示用户朗读;
采集周围环境中包含所述设定语句的声音信息;
提取所述声音信息的声纹特征,并将所述声纹特征存储为声纹特征样本。
进一步地,所述智能眼镜的语音交互方法中,在所述采集周围环境中的声音信息之后,所述方法还包括:
对采集的声音信息进行增强处理;
对增强处理之后的声音信息进行去噪处理。
第二方面,本发明实施例提供一种智能眼镜的语音交互***,所述***包括:
声音采集模块,用于采集周围环境中的声音信息;
声纹匹配模块,用于提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配;
语音交互模块,用于若匹配成功,则将所述声音信息进行内容识别,以完成语音交互。
进一步地,所述智能眼镜的语音交互***中,所述***还包括样本设置模块,用于:
在所述采集周围环境中的声音信息之前,采集并存储声纹特征样本。
进一步地,所述智能眼镜的语音交互***中,所述样本设置模块具体用于:
检测是否接收到注册请求;
若接收到所述注册请求,则播放一段用于采集用户的声音信息的设定语句,并提示用户朗读;
采集周围环境中包含所述设定语句的声音信息;
提取所述声音信息的声纹特征,并将所述声纹特征存储为声纹特征样本。
进一步地,所述智能眼镜的语音交互***中,所述***还包括声音处理模块,用于:
在所述采集周围环境中的声音信息之后,对采集的声音信息进行增强处理;
对增强处理之后的声音信息进行去噪处理。
第三方面,本发明实施例提供一种智能眼镜,包括如本发明实施例第二方面公开的智能眼镜的语音交互***。
与现有技术相比,本发明实施例具有以下有益效果:
通过增加声纹识别的过程,保证只有特定的人发出的声音才能被识别从而进行语音交互,使得智能眼镜的使用更加私密安全,提高了用户对智能眼镜的使用体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例一提供的一种智能眼镜的语音交互方法的流程示意图;
图2是本发明实施例二提供的一种智能眼镜的语音交互方法的流程示意图;
图3是本发明实施例三提供的一种智能眼镜的语音交互方法的流程示意图;
图4是本发明实施例四提供的一种智能眼镜的语音交互***的功能模块示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书中的术语“第一”和“第二”等是用于区别不同的对象,而不是用于描述特定顺序。本发明实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
实施例一
有鉴于上述现有的智能眼镜语音交互技术存在的缺陷,本发明人基于从事该行业多年丰富的实务经验及专业知识,并配合学理的运用,积极加以研究创新,以期创设一种切实可行的智能眼镜语音交互技术,使其更具有实用性。在经过不断的研究、设计并反复试作及改进后,终于创设出确具实用价值的本发明。
请参阅图1,图1是本发明实施例公开的一种智能眼镜的语音交互方法的流程示意图,该方法适用于人们使用智能眼镜并通过语音进行交互的场景,该方法由智能眼镜的语音交互***来执行,该***可以由软件和/或硬件实现,集成于智能眼镜的内部。如图1所示,该智能眼镜的语音交互方法可以包括以下步骤:
S101、采集周围环境中的声音信息。
需要说明的是,周围环境中会存在很多声音信息,本步骤会采集所有近场的声音信息,也就是距离智能眼镜较近的声音信息(远近可通过分贝大小判断)。
优选的,在所述步骤S101之后,所述方法还包括:
对采集的声音信息进行增强处理;
对增强处理之后的声音信息进行去噪处理。
需要说明的是,通过对采集的声音信息进行增强和去噪,可以消除声音信息中混杂的背景噪声和随机噪声,突出人声。
S102、提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配,判断是否匹配成功;若是,则执行步骤S103,若否,则返回执行步骤S101。
需要说明的是,由于在步骤S101的时候采集了较多的声音信息,这些声音信息可能是不同人发出的,那么为了保证智能眼镜不去识别非机主本人的声音信息,则在本步骤中会对采集的声音信息进行筛选,以剔除非机主本人发出的声音信息。具体采用的是声纹匹配的方式,因为声纹具有特定性和稳定性,所以只有声纹匹配的声音信息才能确认为机主本人发出的声音信息,然后才进行后续的语音交互流程。
本发明实施例采用本领域中已知的任何声纹识别方法进行研判,例如神经网络法、深度学习、机器学习、最邻近法、模板匹配法、隐马尔科夫方法、支持向量机、高斯混合法等。
S103、将所述声音信息进行内容识别,以完成语音交互。
需要说明的是,在确认是机主本人发出的声音信息后,就可以将所述声音信息进行内容识别,然后控制智能眼镜执行相应的操作,比如音乐播放,调节音量等,或者是发送到云端或移动终端进行内容搜索,再通过喇叭播放反馈的搜索到的内容。
本发明实施例提供的一种智能眼镜的语音交互方法,通过增加声纹识别的过程,保证只有特定的人发出的声音才能被识别从而进行语音交互,使得智能眼镜的使用更加私密安全,提高了用户对智能眼镜的使用体验。
实施例二
图2是本发明实施例二提供的一种智能眼镜的语音交互方法方法的流程示意图,本实施例在实施例一的基础上,在步骤S101“采集周围环境中的声音信息”之前,对该方法做出优化。与上述各实施例相同或相应的术语的解释在此不再赘述,具体的,请参考图2,该方法包括:
S201、采集并存储声纹特征样本。
需要说明的是,在本实施例中,声纹特征样本是预先存储在智能眼镜中的,可以通过用户多次输入语音样本提前获得。
S202、采集周围环境中的声音信息。
S203、提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配,判断是否匹配成功;若是,则执行步骤S204,若否,则返回执行步骤S202。
S204、将所述声音信息进行内容识别,以完成语音交互。
本发明实施例提供的一种智能眼镜的语音交互方法,通过增加声纹识别的过程,保证只有特定的人发出的声音才能被识别从而进行语音交互,使得智能眼镜的使用更加私密安全,提高了用户对智能眼镜的使用体验。
实施例三
如图3所示,本发明实施例三提供的智能眼镜的语音交互方法,是在实施例二提供的技术方案的基础上,对步骤S201“采集并存储声纹特征样本”的进一步优化。与上述各实施例相同或相应的术语的解释在此不再赘述。即:
检测是否接收到注册请求;
若接收到所述注册请求,则播放一段用于采集用户的声音信息的设定语句,并提示用户朗读;
采集周围环境中包含所述设定语句的声音信息;
提取所述声音信息的声纹特征,并将所述声纹特征存储为声纹特征样本。
基于上述优化,如图3所示,本实施例提供的一种智能眼镜的语音交互方法,可以包括如下步骤:
S301、检测是否接收到注册请求;若是,则执行步骤S301,若否,则继续执行S301。
S302、播放一段用于采集用户的声音信息的设定语句,并提示用户朗读。
S303、采集周围环境中包含所述设定语句的声音信息。
S304、提取所述声音信息的声纹特征,并将所述声纹特征存储为声纹特征样本。
需要说明的是,由于在进行样本采集时周围环境也可能存在较多其他人的声音信息,则为了保证采样的准确性,本实施例规定采集的声音信息里需要包含设定语句,以和其他人的声音信息进行区分。
具体在注册时,可以要求机主提供至少5遍的语音样本,形成机主的声纹特征样本。
S305、采集周围环境中的声音信息。
S306、提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配,判断是否匹配成功;若是,则执行步骤S307,若否,则返回执行步骤S305。
S2307、将所述声音信息进行内容识别,以完成语音交互。
本发明实施例提供的一种智能眼镜的语音交互方法,通过增加声纹识别的过程,保证只有特定的人发出的声音才能被识别从而进行语音交互,使得智能眼镜的使用更加私密安全,提高了用户对智能眼镜的使用体验。
实施例四
请参阅附图4,为本发明实施例四提供的一种智能眼镜的语音交互***的功能模块示意图,该***适用于执行本发明实施例提供的智能眼镜的语音交互方法。该***具体包含如下模块:
声音采集模块41,用于采集周围环境中的声音信息;
声纹匹配模块42,用于提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配;
语音交互模块43,用于若匹配成功,则将所述声音信息进行内容识别,以完成语音交互。
优选的,所述智能眼镜的语音交互***中,所述***还包括样本设置模块,用于:
在所述采集周围环境中的声音信息之前,采集并存储声纹特征样本。
优选的,所述智能眼镜的语音交互***中,所述样本设置模块具体用于:
检测是否接收到注册请求;
若接收到所述注册请求,则播放一段用于采集用户的声音信息的设定语句,并提示用户朗读;
采集周围环境中包含所述设定语句的声音信息;
提取所述声音信息的声纹特征,并将所述声纹特征存储为声纹特征样本。
优选的,所述智能眼镜的语音交互***中,所述***还包括声音处理模块,用于:
在所述采集周围环境中的声音信息之后,对采集的声音信息进行增强处理;
对增强处理之后的声音信息进行去噪处理。
本发明实施例提供的一种智能眼镜的语音交互***,通过增加声纹识别的过程,保证只有特定的人发出的声音才能被识别从而进行语音交互,使得智能眼镜的使用更加私密安全,提高了用户对智能眼镜的使用体验。
实施例五
本发明实施例五还提供一种智能眼镜,所述智能眼镜包括如实施例四所述的智能眼镜的语音交互***。
本发明实施例提供的一种智能眼镜,通过运行智能眼镜的语音交互***,能够实现如上述任意实施例所述的智能眼镜的语音交互方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
至此,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (9)
1.一种智能眼镜的语音交互方法,其特征在于,所述方法包括:
采集周围环境中的声音信息;
提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配;
若匹配成功,则将所述声音信息进行内容识别,以完成语音交互。
2.根据权利要求1所述的智能眼镜的语音交互方法,其特征在于,在所述采集周围环境中的声音信息之前,所述方法还包括:
采集并存储声纹特征样本。
3.根据权利要求2所述的智能眼镜的语音交互方法,其特征在于,所述采集并存储声纹特征样本的步骤包括:
检测是否接收到注册请求;
若接收到所述注册请求,则播放一段用于采集用户的声音信息的设定语句,并提示用户朗读;
采集周围环境中包含所述设定语句的声音信息;
提取所述声音信息的声纹特征,并将所述声纹特征存储为声纹特征样本。
4.根据权利要求1所述的智能眼镜的语音交互方法,其特征在于,在所述采集周围环境中的声音信息之后,所述方法还包括:
对采集的声音信息进行增强处理;
对增强处理之后的声音信息进行去噪处理。
5.一种智能眼镜的语音交互***,其特征在于,所述***包括:
声音采集模块,用于采集周围环境中的声音信息;
声纹匹配模块,用于提取所述声音信息的声纹特征,并将所述声纹特征与存储的声纹特征样本进行匹配;
语音交互模块,用于若匹配成功,则将所述声音信息进行内容识别,以完成语音交互。
6.根据权利要求5所述的智能眼镜的语音交互***,其特征在于,所述***还包括样本设置模块,用于:
在所述采集周围环境中的声音信息之前,采集并存储声纹特征样本。
7.根据权利要求6所述的智能眼镜的语音交互***,其特征在于,所述样本设置模块具体用于:
检测是否接收到注册请求;
若接收到所述注册请求,则播放一段用于采集用户的声音信息的设定语句,并提示用户朗读;
采集周围环境中包含所述设定语句的声音信息;
提取所述声音信息的声纹特征,并将所述声纹特征存储为声纹特征样本。
8.根据权利要求5所述的智能眼镜的语音交互***,其特征在于,所述***还包括声音处理模块,用于:
在所述采集周围环境中的声音信息之后,对采集的声音信息进行增强处理;
对增强处理之后的声音信息进行去噪处理。
9.一种智能眼镜,其特征在于,包括如权利要求5~8中任一项所述的智能眼镜的语音交互***。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011293962.2A CN112382299A (zh) | 2020-11-18 | 2020-11-18 | 一种智能眼镜的语音交互方法、语音交互***及智能眼镜 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011293962.2A CN112382299A (zh) | 2020-11-18 | 2020-11-18 | 一种智能眼镜的语音交互方法、语音交互***及智能眼镜 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112382299A true CN112382299A (zh) | 2021-02-19 |
Family
ID=74585123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011293962.2A Pending CN112382299A (zh) | 2020-11-18 | 2020-11-18 | 一种智能眼镜的语音交互方法、语音交互***及智能眼镜 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112382299A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113421567A (zh) * | 2021-08-25 | 2021-09-21 | 江西影创信息产业有限公司 | 基于智能眼镜的终端设备控制方法、***及智能眼镜 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107180632A (zh) * | 2017-06-19 | 2017-09-19 | 微鲸科技有限公司 | 语音控制方法、装置及可读存储介质 |
CN108182944A (zh) * | 2018-01-18 | 2018-06-19 | 吴波 | 控制智能终端的方法、装置及智能终端 |
CN111833882A (zh) * | 2019-03-28 | 2020-10-27 | 阿里巴巴集团控股有限公司 | 声纹信息管理方法、装置、***及计算设备、存储介质 |
-
2020
- 2020-11-18 CN CN202011293962.2A patent/CN112382299A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107180632A (zh) * | 2017-06-19 | 2017-09-19 | 微鲸科技有限公司 | 语音控制方法、装置及可读存储介质 |
CN108182944A (zh) * | 2018-01-18 | 2018-06-19 | 吴波 | 控制智能终端的方法、装置及智能终端 |
CN111833882A (zh) * | 2019-03-28 | 2020-10-27 | 阿里巴巴集团控股有限公司 | 声纹信息管理方法、装置、***及计算设备、存储介质 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113421567A (zh) * | 2021-08-25 | 2021-09-21 | 江西影创信息产业有限公司 | 基于智能眼镜的终端设备控制方法、***及智能眼镜 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108182937B (zh) | 关键词识别方法、装置、设备及存储介质 | |
CN108648760B (zh) | 实时声纹辨识***与方法 | |
Jothilakshmi et al. | A hierarchical language identification system for Indian languages | |
CN108231059A (zh) | 处理方法和装置、用于处理的装置 | |
CN109215665A (zh) | 一种基于3d卷积神经网络的声纹识别方法 | |
CN108227903A (zh) | 一种虚拟现实语言交互***与方法 | |
CN106128465A (zh) | 一种声纹识别***及方法 | |
CN102568478A (zh) | 一种基于语音识别的视频播放控制方法和*** | |
CN107945790A (zh) | 一种情感识别方法和情感识别*** | |
CN105740686A (zh) | 应用的控制方法和装置 | |
CN112102850B (zh) | 情绪识别的处理方法、装置、介质及电子设备 | |
CN104538043A (zh) | 一种通话中实时情感提示装置 | |
CN101540170B (zh) | 一种基于仿生模式识别的声纹识别方法 | |
CN102929660A (zh) | 一种终端设备心情主题的控制方法及其终端设备 | |
CN104796584A (zh) | 具有语音识别功能的提词装置 | |
CN106448654A (zh) | 一种机器人语音识别***及其工作方法 | |
CN108847221A (zh) | 语音识别方法、装置、存储介质及电子设备 | |
CN103778915A (zh) | 语音识别方法和移动终端 | |
EP1280137A1 (en) | Method for speaker identification | |
CN112382299A (zh) | 一种智能眼镜的语音交互方法、语音交互***及智能眼镜 | |
CN111128240B (zh) | 一种基于对抗语义擦除的语音情感识别方法 | |
Sarria-Paja et al. | Feature mapping, score-, and feature-level fusion for improved normal and whispered speech speaker verification | |
CN104361787A (zh) | 信号转换***和信号转换方法 | |
CN113689633B (zh) | 一种景区人机交互方法、装置及*** | |
CN110232909A (zh) | 一种音频处理方法、装置、设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210219 |
|
RJ01 | Rejection of invention patent application after publication |