CN106971735B - 一种定期更新缓存中训练语句的声纹识别的方法及*** - Google Patents
一种定期更新缓存中训练语句的声纹识别的方法及*** Download PDFInfo
- Publication number
- CN106971735B CN106971735B CN201610025369.7A CN201610025369A CN106971735B CN 106971735 B CN106971735 B CN 106971735B CN 201610025369 A CN201610025369 A CN 201610025369A CN 106971735 B CN106971735 B CN 106971735B
- Authority
- CN
- China
- Prior art keywords
- acoustic model
- voice signal
- caching
- training sentence
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims abstract description 46
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000000605 extraction Methods 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 238000007781 pre-processing Methods 0.000 claims description 12
- 238000001228 spectrum Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 12
- 239000000284 extract Substances 0.000 claims description 9
- 230000003595 spectral effect Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 230000008447 perception Effects 0.000 claims description 4
- 238000009432 framing Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 238000004088 simulation Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000000875 corresponding effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000035479 physiological effects, processes and functions Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明属于语音信号处理领域,尤其涉及一种定期更新缓存中训练语句的声纹识别方法及***,应用于家用机器人,包括:S1:采集语音信号;S2:对语音信号进行预处理;S3:自预处理后的语音信号中提取语音特征参数;S4:为每一个家庭成员建立声学模型;S5:预先根据使用频率将声学模型区分为常用的第一声学模型和不常用的第二声学模型,并在通电时将第一声学模型加载至缓存中;S6:对第一声学模型中的训练语句进行检测,若第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从第二声学模型中随机挑选相应数量的训练语句补充到第一声学模型中;S7:依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
Description
技术领域
本发明属于语音信号处理领域,尤其涉及一种定期更新缓存中训练语句的声纹识别的方法及***。
背景技术
家用服务机器人是当今前沿高技术研究最活跃的领域之一,它可以完成有益于人类的服务工作,如提供家务、娱乐休闲、教育、安全监控等服务,拥有广泛的潜在客户群体与市场,现有的家用服务机器人广泛采用语音识别技术实现人机交互,让机器人能够听懂人类语音,以执行相应动作,然而,现有的机器人尚无法准确识别说话人身份,无法满足用户个性化的需求。随着计算机技术和数字信号处理理论的发展出现的声纹识别技术,通过从说话人的一段语音中,提取出反映该说话人生理、心理的语音特征参数,通过对语音特征参数进行分析建模与模式匹配,来实现辨认或确认未知说话人身份的目的。然而,现有的声纹识别***往往是针对一特定的应用场景进行设计,当***的应用场景发生改变时,自适应能力不强,无法实现人机自由交流,且由于声纹识别的速度过慢,造成用户体验差,这是本领域技术人员所不期望看到的。
发明内容
为解决以上技术问题,提供一种定期更新缓存中训练语句的声纹识别方法及***,解决现有识别方法的缺陷。
具体技术方案如下:
一种定期更新缓存中训练语句的声纹识别方法,其中,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对所述语音信号进行预处理;
S3:自所述预处理后的语音信号中提取语音特征参数,所述语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为所述家庭成员的语音模板,所述家庭成员的所***本构成一声学模型;
S5:预先根据使用频率将所述声学模型区分为第一声学模型和第二声学模型,其中,所述第一声学模型的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
S6:在经过一设定的时间段之后,对所述第一声学模型中的训练语句进行检测,若所述第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从所述第二声学模型中随机挑选与所述第一声学模型中未使用到的训练语句相应数量的训练语句补充到所述第一声学模型中;
S7:依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S2中,所述预处理的步骤依次包括:
步骤S21,对所述预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,所述数字语音信号通过一滤波器组以提升所述数字语音信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S3中提取所述第一类特征参数为线性预测系数,提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算所述短时语音信号和所述误差信号的误差平方和;
步骤S33a,对所述误差平方和求导数,并求解方程组获得所述第一类特征参数。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S3中提取所述第二类特征参数的步骤包括:
步骤S31b,对所述预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对所述线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算所述梅尔频谱的对数频谱;
步骤S34b,对所述对数频谱进行离散余弦变换得到第二类特征参数。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S4的具体步骤如下:
步骤S41,自所述语音信号中提取N个特征矢量,通过聚类法对所述特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
上述的定期更新缓存中训练语句的声纹识别方法,所述步骤S7具体如下,步骤S71,将待识别的语音信号依次与所述第一声学模型和第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S72,选取适当的距离度量作为门限值;
步骤S73,满足门限值范围内的结果作为识别结果。
还提供,一种定期更新缓存中训练语句的声纹识别***,包括
语音输入模块,用于捕获语音信号;
预处理模块,与所述语音输入模块连接,用于对所述语音信号进行预处理;
第一特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第一特征参数;
第二特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第二特征参数;
训练模块,与所述第一特征参数提取模块和所述第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,所述家庭成员的所***本构成一声学模型;
分类处理模块,与所述训练模块连接,预先根据使用频率将所述声学模型区分为第一声学模型和第二声学模型,其中,所述第一声学模型的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
检测处理模块,与所述分类处理模块连接,在经过一设定的时间段之后,对所述第一声学模型中的训练语句进行检测,若所述第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从所述第二声学模型中随机挑选与所述第一声学模型中未使用到的训练语句相应数量的训练语句补充到所述第一声学模型中;
模板匹配模块,与所述分类处理模块连接,依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
有益效果:以上技术方案可以自适应地实现声纹识别,并有效提高了声纹识别的速度,应对不同应用场景下的人机交流,有利于提升用户体验。
附图说明
图1为本发明的方法流程图;
图2为本发明的步骤2的方法流程图;
图3为本发明的***结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
参照图1,一种定期更新缓存中训练语句的声纹识别方法,其中,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对语音信号进行预处理;
S3:自预处理后的语音信号中提取语音特征参数,语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为家庭成员的语音模板,家庭成员的所***本构成一声学模型;
S5:预先根据使用频率将声学模型区分为第一声学模型(常用)和第二声学模型(不常用),其中,第一声学模型的使用频率大于第二声学模型,并在通电时将第一声学模型加载至缓存中,将第二声学模型仍然存储在语音数据库中;
S6:在经过一设定的时间段(过期时间)之后,对第一声学模型中的训练语句进行检测,若第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从第二声学模型中随机挑选与第一声学模型中未使用到的训练语句相应数量的训练语句补充到第一声学模型中;
S7:依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
每个人由于发音器官的生理差异会导致发音方式和说话习惯各不相同,本发明结合线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数,获得声学模型,以改善现有的声纹识别效果,提升用户体验。
上述的定期更新缓存中训练语句的声纹识别方法,参照图2,步骤S2中,预处理的步骤依次包括:
步骤S21,对预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,数字语音信号通过一滤波器组以提升数字语音信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
上述的定期更新缓存中训练语句的声纹识别方法,步骤S3中提取第一类特征参数可以为线性预测系数,其提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算短时语音信号和误差信号的误差平方和;
步骤S33a,对误差平方和求导数,并求解方程组获得第一类特征参数。
由于语音相邻样点间具有相关性,可以利用线性预测的方式,根据过去的语音样点值来预测现在或未来的样点值,即利用过去若干个语音抽样或它们的线性组合,来逼近语音现在的抽样值。
上述的定期更新缓存中训练语句的声纹识别方法,步骤S3中提取第二类特征参数的步骤,包括:
步骤S31b,对预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算梅尔频谱的对数频谱;
步骤S34b,对对数频谱进行离散余弦变换得到第二类特征参数。
上述的定期更新缓存中训练语句的声纹识别方法,步骤S4的具体步骤如下:
步骤S41,自第一类特征参数和第二类特征参数中提取N个特征矢量,通过聚类法对特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
上述的定期更新缓存中训练语句的声纹识别方法,步骤S7具体如下,
步骤S71,将待识别的语音信号依次与第一声学模型和第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S72,选取适当的距离度量作为门限值;
步骤S73,满足门限值范围内的结果作为识别结果。
还提供,一种定期更新缓存中训练语句的声纹识别***,参照图3,包括
语音输入模块1,用于捕获语音信号;
预处理模块2,与语音输入模块1连接,用于对语音信号进行预处理;
第一特征参数提取模块3,与预处理模块2连接,用于获取语音信号中的第一特征参数;
第二特征参数提取模块4,与预处理模块2连接,用于获取语音信号中的第二特征参数;
训练模块5,与第一特征参数提取模块和第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,家庭成员的所***本构成一声学模型;
分类处理模块6,与训练模块5连接,预先根据使用频率将声学模型区分为第一声学模型和第二声学模型,其中,第一声学模型的使用频率大于第二声学模型,并在通电时将第一声学模型加载至缓存中,将第二声学模型存储在语音数据库中;
检测处理模块7,与分类处理模块6连接,在经过一设定的时间段之后,对第一声学模型中的训练语句进行检测,若第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从第二声学模型中随机挑选与第一声学模型中未使用到的训练语句相应数量的训练语句补充到第一声学模型中;
模板匹配模块8,与分类处理模块6连接,依次依据第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
以上仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (7)
1.一种定期更新缓存中训练语句的声纹识别方法,其特征在于,应用于家用机器人,具体工作步骤包括:
S1:采集语音信号;
S2:对所述语音信号进行预处理;
S3:自所述预处理后的语音信号中提取语音特征参数,所述语音特征参数包括线性预测得到的第一类特征参数及模拟人耳对声音频率的感知特性而提取的第二类特征参数;
S4:为每一个家庭成员建立一个码本存储在语音数据库中作为所述家庭成员的语音模板,所述家庭成员的所***本构成一声学模型;
S5:预先根据使用频率将所述声学模型区分为第一声学模型和第二声学模型,其中,所述第一声学模型的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
S6:在经过一设定的时间段之后,对所述第一声学模型中的训练语句进行检测,若所述第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从所述第二声学模型中随机挑选与所述第一声学模型中未使用到的训练语句相应数量的训练语句补充到所述第一声学模型中;
S7:依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
2.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S2中,所述预处理的步骤依次包括:
步骤S21,对所述预处理后的语音信号进行采样和量化以获得数字语音信号;
步骤S22,所述数字语音信号通过一滤波器组以提升所述数字语音信号的高频成分;
步骤S23,对步骤S22得到的语音信号进行分帧与加窗,获得加窗后的语音信号。
3.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S3中提取所述第一类特征参数为线性预测系数,提取步骤如下:
步骤S31a,定义短时语音信号和误差信号;
步骤S32a,计算所述短时语音信号和所述误差信号的误差平方和;
步骤S33a,对所述误差平方和求导数,并求解方程组获得所述第一类特征参数。
4.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S3中提取所述第二类特征参数的步骤包括:
步骤S31b,对所述预处理后的语音信号进行傅里叶变换得到线性频谱;
步骤S32b,对所述线性频谱通过一三角形带通滤波器组得到相应的梅尔频谱;
步骤S33b,计算所述梅尔频谱的对数频谱;
步骤S34b,对所述对数频谱进行离散余弦变换得到第二类特征参数。
5.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S4的具体步骤如下:
步骤S41,自所述第一类特征参数和所述第二类特征参数中提取N个特征矢量,通过聚类法对所述特征矢量进行归类得到M个码本;
步骤S42,得到每个类对应的码本矢量;
步骤S43,建立每一个家庭成员的码本矢量的集合构成声学模型。
6.根据权利要求1所述的定期更新缓存中训练语句的声纹识别方法,其特征在于,所述步骤S7具体如下,
步骤S71,将待识别的语音信号依次与所述第一声学模型和所述第二声学模型作相似性匹配,并根据加权欧式距离测度进行判断;
步骤S72,选取适当的距离度量作为门限值;
步骤S73,满足门限值范围内的结果作为识别结果。
7.一种定期更新缓存中训练语句的声纹识别***,其特征在于,包括
语音输入模块,用于捕获语音信号;
预处理模块,与所述语音输入模块连接,用于对所述语音信号进行预处理;
第一特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第一特征参数;
第二特征参数提取模块,与所述预处理模块连接,用于获取所述语音信号中的第二特征参数;
训练模块,与所述第一特征参数提取模块和所述第二特征参数提取模块连接,用于建立每个家庭成员的语音模板,所述家庭成员的所***本构成一声学模型;
分类处理模块,与所述训练模块连接,预先根据使用频率将所述声学模型区分为第一声学模型和第二声学模型,其中,所述第一声学模型的使用频率大于所述第二声学模型,并在通电时将所述第一声学模型加载至缓存中;
检测处理模块,与所述分类处理模块连接,在经过一设定的时间段之后,对所述第一声学模型中的训练语句进行检测,若所述第一声学模型具有在该设定的时间段内一次未使用到的训练语句,则从所述第二声学模型中随机挑选与所述第一声学模型中未使用到的训练语句相应数量的训练语句补充到所述第一声学模型中;
模板匹配模块,与所述分类处理模块连接,依据所述第一声学模型和第二声学模型对待测语音信号进行模式匹配,获取识别结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610025369.7A CN106971735B (zh) | 2016-01-14 | 2016-01-14 | 一种定期更新缓存中训练语句的声纹识别的方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610025369.7A CN106971735B (zh) | 2016-01-14 | 2016-01-14 | 一种定期更新缓存中训练语句的声纹识别的方法及*** |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106971735A CN106971735A (zh) | 2017-07-21 |
CN106971735B true CN106971735B (zh) | 2019-12-03 |
Family
ID=59334361
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610025369.7A Active CN106971735B (zh) | 2016-01-14 | 2016-01-14 | 一种定期更新缓存中训练语句的声纹识别的方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106971735B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109377997B (zh) * | 2018-12-10 | 2021-06-01 | 珠海格力电器股份有限公司 | 一种家电的语音控制方法、装置、存储介质及家电*** |
CN110660398B (zh) * | 2019-09-19 | 2020-11-20 | 北京三快在线科技有限公司 | 声纹特征更新方法、装置、计算机设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080312926A1 (en) * | 2005-05-24 | 2008-12-18 | Claudio Vair | Automatic Text-Independent, Language-Independent Speaker Voice-Print Creation and Speaker Recognition |
CN102509547B (zh) * | 2011-12-29 | 2013-06-19 | 辽宁工业大学 | 基于矢量量化的声纹识别方法及*** |
CN102760434A (zh) * | 2012-07-09 | 2012-10-31 | 华为终端有限公司 | 一种声纹特征模型更新方法及终端 |
KR20140054643A (ko) * | 2012-10-29 | 2014-05-09 | 삼성전자주식회사 | 음성인식장치 및 음성인식방법 |
CN103903617A (zh) * | 2012-12-24 | 2014-07-02 | 联想(北京)有限公司 | 一种语音识别方法及电子设备 |
US9502038B2 (en) * | 2013-01-28 | 2016-11-22 | Tencent Technology (Shenzhen) Company Limited | Method and device for voiceprint recognition |
CN104167206B (zh) * | 2013-05-17 | 2017-05-31 | 佳能株式会社 | 声学模型合并方法和设备以及语音识别方法和*** |
CN103700369B (zh) * | 2013-11-26 | 2016-08-31 | 科大讯飞股份有限公司 | 语音导航方法及*** |
-
2016
- 2016-01-14 CN CN201610025369.7A patent/CN106971735B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106971735A (zh) | 2017-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109065027B (zh) | 语音区分模型训练方法、装置、计算机设备及存储介质 | |
CN104732978B (zh) | 基于联合深度学习的文本相关的说话人识别方法 | |
CN105023573B (zh) | 使用听觉注意力线索的语音音节/元音/音素边界检测 | |
CN110600017A (zh) | 语音处理模型的训练方法、语音识别方法、***及装置 | |
CN110299142B (zh) | 一种基于网络融合的声纹识别方法及装置 | |
CN111461176A (zh) | 基于归一化互信息的多模态融合方法、装置、介质及设备 | |
CN106251874A (zh) | 一种语音门禁和安静环境监控方法及*** | |
CN108281146A (zh) | 一种短语音说话人识别方法和装置 | |
CN107507625B (zh) | 声源距离确定方法及装置 | |
CN108922541A (zh) | 基于dtw和gmm模型的多维特征参数声纹识别方法 | |
WO2018166316A1 (zh) | 融合多种端到端神经网络结构的说话人感冒症状识别方法 | |
US20180053512A1 (en) | Reverberation compensation for far-field speaker recognition | |
CN108986798B (zh) | 语音数据的处理方法、装置及设备 | |
CN109036460A (zh) | 基于多模型神经网络的语音处理方法和装置 | |
CN105679323B (zh) | 一种号码发现方法及*** | |
CN110136726A (zh) | 一种语音性别的估计方法、装置、***及存储介质 | |
CN109473102A (zh) | 一种机器人秘书智能会议记录方法及*** | |
CN106971735B (zh) | 一种定期更新缓存中训练语句的声纹识别的方法及*** | |
Stefanus et al. | GMM based automatic speaker verification system development for forensics in Bahasa Indonesia | |
CN110556098B (zh) | 语音识别结果测试方法、装置、计算机设备和介质 | |
CN106971712A (zh) | 一种自适应的快速声纹识别方法及*** | |
CN111489763A (zh) | 一种基于gmm模型的复杂环境下说话人识别自适应方法 | |
CN110085236A (zh) | 一种基于自适应语音帧加权的说话人识别方法 | |
KR20190125668A (ko) | 반려동물의 감정상태 분석장치 및 방법 | |
CN106981287A (zh) | 一种提高声纹识别速度的方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |