CN1009320B - 语音识别 - Google Patents

语音识别

Info

Publication number
CN1009320B
CN1009320B CN86100298A CN86100298A CN1009320B CN 1009320 B CN1009320 B CN 1009320B CN 86100298 A CN86100298 A CN 86100298A CN 86100298 A CN86100298 A CN 86100298A CN 1009320 B CN1009320 B CN 1009320B
Authority
CN
China
Prior art keywords
parameter
frame
voice
time
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
CN86100298A
Other languages
English (en)
Other versions
CN86100298A (zh
Inventor
马修·伦宁
保罗·默梅尔斯坦
维谢瓦·纳思·古普达
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nortel Networks Ltd
Original Assignee
Northern Telecom Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northern Telecom Ltd filed Critical Northern Telecom Ltd
Publication of CN86100298A publication Critical patent/CN86100298A/zh
Publication of CN1009320B publication Critical patent/CN1009320B/zh
Expired legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Complex Calculations (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Selective Calling Equipment (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Bidet-Like Cleaning Device And Other Flush Toilet Accessories (AREA)
  • Image Analysis (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Telephonic Communication Services (AREA)
  • Document Processing Apparatus (AREA)

Abstract

在识别分离字词语音或连续语音的语音识别器中,借助于用动态分量扩充增强未知语音的普通频谱表示,使识别精确度得到了提高,在与语音的频谱表示相比较的样型音中,可提供相应的动态分量。在最佳实施方案中,表示为■耳-频率方式的侧谱,并且各动态分量包含有若干对一次参数侧谱之间的矢量差。每对一次参数倒谱之间的时间间隔最好为50ms。并且与各动态参数一起计算动态听觉响度分量也是最为可取的。

Description

本发明是关于语音识别方面的一项发明。
在已知的各种语音识别器中,语音一般经过脉冲编码调制(PCM)的格式编码后,再经过预处理,使之变换为一种与人类听觉***领悟语音的方式有更为密切关系的样式。例如,可以将语音加以处理,给出滤波器组的各通道能量、倒谱、唛耳(mel)一频率倒谱或线性预测系数。将各个识别单元,如字语或音节,与一系列代表各有效单元的各基准样型音中的每一个样型音进行比较,判认最相匹配的那一个样型音为未知的单元,並在输出端送出相应于该样型音的单元标志。
虽然这类识别器对于一些应用来说是合适的,但是,由于在于某些应用方面,特别是在要求与说话人无关、进行电话交谈或具有大词汇量的应用方面,这类识别器会产生令人不能接受的差错率,因而效果並不完全令人满意。其原因据认为是普通的表示法並不足以准确地模仿人类听觉***的响应特性。
因此,本发明的目的是提供一种识别未知语音的方法,该方法具有一般可接受的错误率。
本发明的另一目的是提供一种具有一般可接受错误率的用于识别在语音信号中未知语音的设备。
根据本发明,用以识别语音的设备包括:
(ⅰ)用于将未知的语言发音表示为一个参数帧序列的装置,每一参数帧代表上述语音的一个相应的时间帧;
(ⅱ)用于提供许多基准样型音的装置,每一样型音包含有一个参数帧序列,並用与第一点提及的参数帧相同的各种参数予以表示。
第一点提及的一个参数帧序列(未知的)和第二点提及的一个参 数帧序列(基准的)中的每一参数帧均包含一组一次参数和一组二次参数。每一个二次参数表示在相对应的各参数帧(即导出各不同时间帧的各参数帧)内各相应一次参数之间带符号的差数;以及
(ⅲ)用于将一个未知语言的参数帧序列与每个基准样型音相比较,並确定哪个基准样型音与之最相匹配的装置。
每一参数帧包含有一组根据所用的表示类型加以选定的参数,例如各滤波器组的各通道的能量、倒谱、唛耳-频率方式倒谱或线性预测系数。
所说的各不同时间帧的中心之间的时间差应优选为20ms至200ms,最好选为50ms左右。二次参数通常由前面和后面的一次参数导出,例如由±25ms或者±两帧的一次参数导出。
最好再引入一个表示幅度变化或听觉响度变化的分量,该分量既作为未知语音又作为基准样型音的一个二次参数。这样的响度分量通常不用于一次参数,因为绝对幅度或绝对响度对于区分各种字词语音是不起作用的。
因此,本发明一般来说包括用一组动态二次参数扩充增强的一组通常用以识别语音的一次短时间静态参数,其中一次参数用于语音识别,其中二次参数表示每个一次参数在一段短的时间间隔(例如20至200ms)中的变化。除了一次参数之外,述采用动态二次参数,这正与其他诸如非相关性、听觉差别等参数相反,会使可用以区别讲话声音的距离测量或概率密度函数变得对语音差别更加灵敏。
任何一种短时间谱的表示都可以用作一组一次参数。这类表示的例子有滤波器组各通道能量、倒谱、唛耳-频率倒谱、线性预测系数等等。这些表示的每一种均是借助于少数的参数(一般取为3到80 之间)在一个时间帧(一般为2到50ms)中估算音量大小或功率谱。
若Pt是在时间t时计算得到的各一次参数的矢量,则时间编移a和b应选为:
20ms≤a+b≤200ms
並且动态参数矢量△Pt定义为矢量差:
△Pt=Pt+a-Pt-b
本发明是利用各参数Pt与△Pt一起的合成效果表示时间t附近的语音信号。于是,概率密度函数和间距是利用同时包含静态(一次)和动态(二次)参数的这一扩增的参数组予以定义的。
另一方面上面的推导可以用帧数来表示。若△t=相邻帧间的时间差,並若Pi=第i帧内的一次参数矢量,则动态矢量△Pi可以定义为矢量差:
△Pi=Pi+〔a/△t〕-Pi-〔b/△t〕
选用的参数最好是唛耳频率方式的倒谱系数,在这种情况下,各一次参数C1……,Cn表示功率谱的形状而各二次参数△C1……,△Cn表示在规定时间间隔内的功率谱的形状的变化。此外,在这组二次参数中可以包含有△Co,用以表示响度或幅度的变化。
下面仅以一个例子,並参照附图,对本发明的一个实施方案进行描述,在附图中:
图1是一种语音识别器的一般原理方框图;
图2是表示该语音识别器的滤波器装置特性的图形。
在图1所示的语音识别***中,信号Sn表示一种线性的脉冲编 码调制(PCM)语言信号,这个信号是未知信号或要进行识别的“输入”语言信号。将信号Sn送到汉明窗口(Hammig    Window)装置10,在汉明窗口装置10中,信号Sn被分割成为若干时间帧,每帧为25.6ms或204个取样的持续时间。在运行中,使每一帧均超前12.8ms或102个取样持续时间,因而也使相继的各帧互相重迭50%。而后用上升余弦函数对每一时间帧进行逐点相乘,並将结果送到滤波器装置12。这种汉明窗口可以衰减功率谱的各个旁瓣。
对每一时间帧进行256点的快速富利叶变换(Fast    Fourier    Transform),结果形成128点的实功率谱F1,……,FN,其中N=128。
滤波器装置12实际上是由二十个三角形滤波器所组成的滤波器组。二十个三角形滤波器组可确定各相应组的二十个通道的能量。对于取样频率Fs为8KHz的PCM方式而言,二十个通道的频率范围大约为从100Hz到4000Hz。正如图2所表示的那样,各通道为唛耳排列方式,其中各通道的中心频率以100Hz为间隔,线性地排列在100Hz到1000Hz范围内,而其对数分布范围是1100Hz到4000Hz。
对于每一时间帧而言,每个滤波器通道的输出是根据下面表达式所导出而加权的Bj:
Bj= Σ I=1 n Wij Fi
其中Bj为第j个唛耳频率通道的输出能量;Fi为根据i取值 为1≤i≤N的快速富利叶变换求得的第i个功率谱的量值;Wij为所规定的加权系数,定义如下:
Figure 86100298_IMG1
当1≤i≤N且1≤j≤20时
其中△f=fs/2N
当1≤j≤20时,其lj、kj、hj分别为每个滤波器通道的最低频率、中心频率和最高频率,並由表1给定。
信号Bj的二十个对数通道的能量在装置14中根据下面的表达式进行计算:
Lj=Log10Bj 当l≤j≤20时
滤波器装置的输出和装置14的输出都被送到装置16,分别用来计算听觉响度C0和前七个唛耳频率方式的倒谱系数C1、C2……C7。
听觉响度C0为各通道能量的听觉加权总和Bj的对数值,並用下式求出:
C0=600Log10 Σ J=1 20 Vj Bj
其中Vj≥0,可以选得与听觉主观感觉的重要程度相符合。Vj的各种合适的取值示于下面的表1中
用以得到各个倒谱系数Ci的装置16,Ci是通过对各对数能 量进行余弦变换的方法而实现的。于是,
Ci= Σ J=1 20 Lj Cos〔i(j-1/2)π/20〕
其中l≤i≤7
对于有关计算各个系数的更详细的资料,这里仅向读者推荐S.B.Davis和P.Mermelstein撰写的一篇论文,题为“Compari    son    of    Parametric    Representations    for    Monosyllabic    Word    Recognition    in    Continu-ously    Spoken    Sentences”(关于连续发音语句中单音节字词识别方面各种参量表示的比较),请参阅IEEE    Transac    tions    on    Acoustics    and    Signal    Processing,卷号为ASSP28第4期,第357-366页,1980年8月出版。
滤波器号    lj    kj    hj    响度加权值
No.(j)    Hz    Hz    Hj    Vj
1    0.,    100.,    200.    .0016
2    100.,    200.,    300.    .0256
3    200.,    300.,    400.    .1296
4    300.,    400.,    500.    .4096
5    400.,    500.,    600.    1.
6    500.,    600.,    700.    1.
7    600.,    700.,    800.    1.
8    700.,    800.,    900.    1.
9    800.,    900.,    1000.    1.
10    900.,    1000.,    1150.    1.
11    1000.,    1150.,    1320.    1.
12    1150.,    1320.,    1520.    1.
13    1320.,    1520.,    1750.    1.
14    1520.,    1750.,    2000.    1.
15    1750.,    2000.,    2300.    1.
16    2000.,    2300.,    2640.    1.
17    2300.,    2640.,    3040.    1.
18    2640.,    3040.,    3500.    1.
19    3040.,    3500.,    4000.    1.
20    3500.,    4000.,    4600.    1.
装置16的输出,其中包括一组一次参数C1、……,C7和听觉加权的响度参数C0,每隔12.8ms传送给发音边界点检测器18,借助于把听觉响度C0的最小必要持续时间和最小幅值查询为时间帧号函数的方法将字词的各语音边界点检测出来。边界点的检测可以采用各种已知方法中的一种来实现,例如在“An Improved Endpoint Detector for Isolated Word Recognition”(分离字词识别中的一种改进的边界检测器)论文中所公开的方法,作者为L.F.Lamel,L.R.Rabiner,A.E.Rosenberg和J.G.Wilpon,刊在IEEE Trans.on Acaustics,Speech and Signal Processing,卷号为Assp-29,第4期,1981年8月出版,第777-785页。
此后,在语音处理中,字词间的时间间隔或寂静时间都被删除,即仅仅传送介入的语音。每一语音参数帧的数目M,可以有选择地通过线性地隔开删除帧或重复帧实现标准化,例如M=32。
边界点检测器18的输出是M个唛耳频率方式的倒谱序列,並用下面的矩阵来表示:
Figure 86100298_IMG2
这一输出信号或识别单元表示或U被传送给动态参数计算装置20,装置20依照下式计算动态参数如下:
△Ci,j=Ci+c,j-Ci-d,j
当d+1≤i≤M-c,0≤j≤7时,
其中C为超前帧序号,d为滞后帧序号。在特定情况下,C=d=2。
当1≤i<d+1时
△Ci,j=Ci+c,j-Ci,j;
当M-c<i≤M时
△Ci,j=CM,j-Ci-d,j
这些动态参数可以计及人类听觉***感知输入语音激励信号变化的习性。
M个参数帧的序列U′包含有一次(静态)参数和二次(动态)参数,可用下面的矩阵表示:
並从动态计算装置20传送到动态时间卷曲装置22。
应当注意到,与语音的静态响度相联系的矢量C0並没有利用上。
包含各动态参数和一个动态响度分量△Ti,O的一组相应的样型音,以下面的形式由装置24导出:
Figure 86100298_IMG4
用于样型音的各参数序列,同时也送到动态时间卷曲装置22上。
使“未知”的参数表示式U′与每一基准样型音T′依次进行比较,並在每一种情况下计算出时间卷曲距离,从而将未知的语音判认为相应于具有最小卷曲间距的样型音的基准语音。
在由D.Sankoff和J.B.Kruska编辑,1983年由Addison-Wesly(Reading    MA)出版的版本,书名为《时间卷曲,条纹编纂和宏观分子:序列比较的理论与实践》(“Time    Warps,String    Edits,and    Macro-molecules:The    Theory    and    Practice    of    Soquence    Comparison”)中第163-187页中,由Hunt,Lenning和Mermelstein所撰写的题为《在以音节为基础的连续语音中使用动态编程》(“Use    of    Dynamic    Programming    in    a    Syllable-Based    Continuous    Speech”)一章中所介绍的方法可以用作动态时间卷曲计算。
现已发现,通过在参数表示式中包含有若干个动态参数的方法,识别准确度可以得到很大提高。同时还发现,当动态参数表示在大约50ms间隔排列的各时间帧之间语音信号的变化时,可以达到特别良好的结果。
尽管仅描述了应用于分离的字词语音的识别器,但本发明也同时适用于连续字词语音的识别器。並且不论是识别经专门训练的讲话人的识别器,还是识别与讲话人无关的识别器,本发明都是很适用的。
如上所述,使用以动态参数扩充增强的参数集组合,其中一次参数为前七个唛耳-频率倒谱的系数,在公用电话交换网上进行与讲话人无关的连续数字语音识别的试验结果表明,识别差错大约减少了 20%。除使用相应于前七个唛耳-频率倒谱系数的动态参数之外,同时采用了相应于总响度变化的第八个动态参数,进一步减少了大约10%的识别差错。

Claims (10)

1、一种识别取样的语音信号中的未知语音的方法,该方法包括如下步骤:
i)将所说的未知语音表示为一第一参数帧序列,每一参数帧表示所说的语音的一个相应的时间帧;
ii)提供许多个基准样型音,每一样型音包含有一第二参数帧序列,后者用与第一参数帧序列的同样参数类型来表示;
上述第一和第二参数帧序列的每一个参数帧均包括一组一次参数和一组二次参数,每个二次参数表示为了各不同帧导出的各个对应参数帧中各相应一次参数之间带符号的差数;该方法其特征在于还包括:
(iii)计算动态响量分量ΔCi,O,该分量为第二参数,代表来自上述未知语音的连续样本间的幅度变化;并在每一个上述第二参数帧中提供一相应的动态响度分量ΔT.,0;和
(iv)将未知语音的参数帧序列的参数帧序列中的每个一次参数和两次参数与每一基准样型音相比较,从而判定哪个基准样型音与未知语音最为相似。
2、如权利要求1的方法,其特征在于各不同时间帧的中心之间的时间间隔在20在200ms范围内。
3、如权利要求2的方法,其特征在于所述时间间隔为50ms。
4、如权利要求1的方法,其特征在于所述第二参数根据下式计算:
当1≤i<d+1时,
△Ci,j=Ci+c,j-Ci,j;
和下式:
当M-C<i≤M时,
Ci,j=Cm,j-Ci-d,j;
其中i,j为二次参数值△C的矩陈的相应时间和系数指数,M是时间指数i的最大数,C为超前帧的序号,两者都与确定动态参数的那一帧有关。
5、如权利要求4的方法,其特征在于所述二次参数是根据下式进行计算:
当1≤i<d+1时
△Ci,j=Ci+c,j-Ci,j;
和根据下式计算:
当M-c<i≤M时
Ci,j=Cm,j-Ci-d,j
6、一种用于识别取样的语音信号中的未知语音的设备,该设备包括:
(ⅰ)用于将未知语音表示为第一参数帧序列的装置,每一参数帧代表一相应的所述语音的时间帧;
(ⅱ)用于提供许多个基准样型音的装置,每个样型音包括有第二参数帧序列,该参数帧序列用与第一参数帧序列同类型的参数表示;
上述第一和第二参数序列的每个参数帧包括有一组一次参数和一组二次参数;每个二次参数表示在相对应的各参数帧(即导出各不同时间帧的各参数帧)内各相应的一次参数之间带符号的差数;
该设备其特征在于还包括:
(ⅲ)一装置,用于根据上述未知语音计算动态响量△Ci,0,该分量代表第一参数帧序列的连续样本之间的幅度变化;和一用于为第二参数帧序列提供动态响量分量△T.,0的装置,每个分量为一个上述二次参数。
(ⅳ)一装置,用于将语音的一次和二次参数序列中的每一个与每一基准样型音相比较,而判定哪一个基准样型音与未知语音最为相似。
7、如权利要求6的设备,其特征在于所述用于提供基准样型音的装置提供每个上述二次参数,以表示为时间帧导出的相应参数帧中的一次参数之间的带符号的差数,该时间帧之间间隔范围为20到200ms。
8、如权利要求7的设备,其特征在于所述的时间帧之间中心至中心间隔为大约50ms。
9、如权利要求6的装置,其特征在于所述用于提供基准样型音的装置包括有一用于计算二次参数△Ci,j的装置,该装置根据下式计算:
当d+1≤i≤M-c≤j≤7时
△Ci,j=Ci+c,j-Ci-d,j
其中i,j为二次参数值△C矩阵的时间和系数指数,M为时间坐标i的最大值,c是超前帧的距离,d为滞后帧距离,二者都与确定动态参数的那一帧相关。
10、如权利要求9的设备,其特征在于所述用于计算二次参数的装置根据下式进行计算:
当1≤i≤d+1时,
△Ci,j=Ci+c,j-Ci,j
并根据下式进行计算:
当M-c<i≤M
Ci,j=Cm,j-Ci-d,j。
CN86100298A 1985-01-30 1986-01-20 语音识别 Expired CN1009320B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CA473,198 1985-01-30
CA000473198A CA1232686A (en) 1985-01-30 1985-01-30 Speech recognition

Publications (2)

Publication Number Publication Date
CN86100298A CN86100298A (zh) 1986-08-06
CN1009320B true CN1009320B (zh) 1990-08-22

Family

ID=4129719

Family Applications (1)

Application Number Title Priority Date Filing Date
CN86100298A Expired CN1009320B (zh) 1985-01-30 1986-01-20 语音识别

Country Status (7)

Country Link
EP (1) EP0192898B1 (zh)
JP (1) JPH0797279B2 (zh)
KR (1) KR940002437B1 (zh)
CN (1) CN1009320B (zh)
AT (1) ATE51457T1 (zh)
CA (1) CA1232686A (zh)
DE (1) DE3576868D1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6371599U (zh) * 1986-10-30 1988-05-13
US5152958A (en) * 1991-01-22 1992-10-06 U.S. Tool & Die, Inc. Spent nuclear fuel storage bridge
US5182773A (en) * 1991-03-22 1993-01-26 International Business Machines Corporation Speaker-independent label coding apparatus
JPH07261797A (ja) * 1994-03-18 1995-10-13 Mitsubishi Electric Corp 信号符号化装置及び信号復号化装置
JPH08211897A (ja) * 1995-02-07 1996-08-20 Toyota Motor Corp 音声認識装置
US5806022A (en) * 1995-12-20 1998-09-08 At&T Corp. Method and system for performing speech recognition
US6182036B1 (en) * 1999-02-23 2001-01-30 Motorola, Inc. Method of extracting features in a voice recognition system
US6957183B2 (en) 2002-03-20 2005-10-18 Qualcomm Inc. Method for robust voice recognition by analyzing redundant features of source signal
GB2422237A (en) * 2004-12-21 2006-07-19 Fluency Voice Technology Ltd Dynamic coefficients determined from temporally adjacent speech frames
US8030568B2 (en) * 2008-01-24 2011-10-04 Qualcomm Incorporated Systems and methods for improving the similarity of the output volume between audio players

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58130393A (ja) * 1982-01-29 1983-08-03 株式会社東芝 音声認識装置

Also Published As

Publication number Publication date
KR940002437B1 (ko) 1994-03-24
KR860006083A (ko) 1986-08-18
ATE51457T1 (de) 1990-04-15
JPS61177494A (ja) 1986-08-09
EP0192898A1 (en) 1986-09-03
CA1232686A (en) 1988-02-09
EP0192898B1 (en) 1990-03-28
CN86100298A (zh) 1986-08-06
JPH0797279B2 (ja) 1995-10-18
DE3576868D1 (de) 1990-05-03

Similar Documents

Publication Publication Date Title
CN108922538B (zh) 会议信息记录方法、装置、计算机设备及存储介质
US6691090B1 (en) Speech recognition system including dimensionality reduction of baseband frequency signals
CN111816218A (zh) 语音端点检测方法、装置、设备及存储介质
Shanthi et al. Review of feature extraction techniques in automatic speech recognition
US20160314781A1 (en) Computer-implemented method, computer system and computer program product for automatic transformation of myoelectric signals into audible speech
CN1042790A (zh) 认人与不认人实时语音识别的方法和装置
CN1265217A (zh) 在语音通信***中语音增强的方法和装置
KR20150104345A (ko) 음성 합성 장치 및 음성 합성 방법
CN1300049A (zh) 汉语普通话话音识别的方法和设备
McLoughlin et al. Reconstruction of continuous voiced speech from whispers.
Janke et al. A spectral mapping method for EMG-based recognition of silent speech
EP1093112A3 (en) A method for generating speech feature signals and an apparatus for carrying through this method
CN1009320B (zh) 语音识别
Diener et al. Improving fundamental frequency generation in emg-to-speech conversion using a quantization approach
Dave et al. Speech recognition: A review
US5522013A (en) Method for speaker recognition using a lossless tube model of the speaker's
Billones et al. Hiligaynon language 5-word vocabulary speech recognition using Mel frequency cepstrum coefficients and genetic algorithm
Chandra et al. Linear prediction with a variable analysis frame size
EP0537316B1 (en) Speaker recognition method
Cosi Auditory modeling and neural networks
Gulzar et al. An improved endpoint detection algorithm using bit wise approach for isolated, spoken paired and Hindi hybrid paired words
Shao Robust algorithms for speech reconstruction on mobile devices
Naziraliev et al. ANALYSIS OF SPEECH SIGNALS FOR AUTOMATIC RECOGNITION
Patterson et al. Auditory speech processing for scale-shift covariance and its evaluation in automatic speech recognition
Mori Pitch Contour Separation from Overlapping Speech.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C13 Decision
GR02 Examined patent application
C14 Grant of patent or utility model
GR01 Patent grant
C53 Correction of patent of invention or patent application
COR Change of bibliographic data

Free format text: CORRECT: PATENTEE; FROM: NORTHERN TELECOM LTD. TO: NORTEL NETWORKS LTD.

CP01 Change in the name or title of a patent holder

Patentee after: NORTEL NETWORKS LTD [CA]

Patentee before: Northern Telecom Ltd.

C17 Cessation of patent right
CX01 Expiry of patent term