CN110718210B - 一种英文错误发音的识别方法、装置、介质和电子设备 - Google Patents

一种英文错误发音的识别方法、装置、介质和电子设备 Download PDF

Info

Publication number
CN110718210B
CN110718210B CN201910911818.1A CN201910911818A CN110718210B CN 110718210 B CN110718210 B CN 110718210B CN 201910911818 A CN201910911818 A CN 201910911818A CN 110718210 B CN110718210 B CN 110718210B
Authority
CN
China
Prior art keywords
english
pronunciation
evaluated
voice signal
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910911818.1A
Other languages
English (en)
Other versions
CN110718210A (zh
Inventor
马福龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Douyin Vision Beijing Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN201910911818.1A priority Critical patent/CN110718210B/zh
Publication of CN110718210A publication Critical patent/CN110718210A/zh
Application granted granted Critical
Publication of CN110718210B publication Critical patent/CN110718210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明提供了一种英文错误发音的识别方法、装置、介质和电子设备,该识别方法包括:通过声学模型对待评测发音的英文语音信号进行特征提取,得到待评测发音的英文语音信号的特征信息;根据特征信息和预设统计模型,统计出用于评测用户英文发音的各项评测参数;获取各项评测参数以及各项评测参数对应的各项评测权值,并根据各项评测参数和各项评测权值对待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,错误音素作为识别出的英文错误发音。本发明能够精准地识别出错误音素,并通过该错误音素,清晰地显示出学习者英文发音和标准发音的不同之处,以便于学习者纠正其错误发音。

Description

一种英文错误发音的识别方法、装置、介质和电子设备
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种英文错误发音的识别方法、装置、介质和电子设备。
背景技术
随着经济的发展,英文学习越来越重要,用于英文学习的电子设备也得以普及。对于英文学习者而言,例如,复读机、手机上安装的发音纠正软件、又或者带有发音功能的中英文电子词典。
通过上述常规的电子设备,当前用户无法准确且直观地识别出其在英文学习过程中的发音错误,也无法做到:对于某一英文单词的发音错误作出有针对性地发音纠正。
因此,在长期的研发当中,发明人对英文错误发音的识别方法进行了大量的研究,提出了一种英文错误发音的识别方法,以解决上述技术问题之一。
发明内容
本发明的目的在于提供一种英文错误发音的识别方法、装置、介质和电子设备,能够解决上述提到的至少一个技术问题。具体方案如下:
根据本发明的具体实施方式,第一方面,本发明提供一种英文错误发音的识别方法,包括:
通过声学模型对待评测发音的英文语音信号进行特征提取,得到所述待评测发音的英文语音信号的特征信息;
根据所述特征信息和预设统计模型,统计出用于评测用户英文发音的各项评测参数;
获取各项评测参数以及各项评测参数对应的各项评测权值,并根据各项评测参数和各项评测权值对所述待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,所述错误音素作为识别出的英文错误发音。
可选的,在所述通过声学模型对待评测发音的英文语音信号进行特征提取之前,所述方法还包括:
对所述待评测发音的英文语音信号和与所述待评测发音匹配的标准发音的英文语音信号进行预处理,得到待验证的语音段的英文语音信号。
可选的,所述对所述待评测发音的英文语音信号和与所述待评测发音匹配的标准发音的英文语音信号进行预处理包括:
对所述待评测发音的英文语音信号执行第一预处理的操作,以及
对所述标准发音的英文语音信号执行第二预处理的操作,
其中,所述第一预处理的操作至少包括:
第一分帧加窗的操作、第一端点检测的操作。
所述第二预处理的操作至少包括:
第二分帧加窗的操作、第二端点检测的操作。
可选的,在所述对所述待评测发音的英文语音信号执行第一预处理的操作,以及对所述标准发音的英文语音信号执行第二预处理的操作之后,所述方法还包括:
对所述待评测发音的英文语音信号执行第一快速傅氏变换的操作,得到第一变换图形;
对所述标准发音的英文语音信号执行快速傅氏变换的操作,得到第二变换图形;
对所述第一变换图形和所述第二变换图形进行比对,得到比对数据;
根据所述比对数据,提取出所述待评测发音的英文语音信号和所述标准发音的英文语音信号的共振峰。
可选的,在所述提取出所述待评测发音的英文语音信号和所述标准发音的英文语音信号的共振峰之后,所述方法还包括:
图形化显示所述待评测发音的英文语音信号和所述标准发音的英文语音信号的所述共振峰。
可选的,在所述获取各项评测参数以及各项评测参数对应的各项评测权值之后,所述方法还包括:
获取各项评测参数中的评测元音发音的第一元音评测参数、与所述第一元音评测参数关联的第二元音评测参数和预设匹配模型;
根据所述第一元音评测参数、所述第二元音评测参数和所述预设匹配模型,从标准发音资料库中匹配出与所述待评测发音的英文语音信号关联的关联元音,所述关联元音作为评测所述待评测发音的英文语音信号的关键评测参数。
可选的,在所述获取各项评测参数中的评测元音发音的第一元音评测参数、与所述第一元音评测参数关联的第二元音评测参数和预设匹配模型之后,所述方法还包括:
根据所述特征信息和所述预设匹配模型,计算出所述待评测发音的英文语音信号和所述标准发音的英文语音信号之间的帧平均匹配距离;
根据所述帧平均匹配距离和基于各项评分函数构建的发音评分模型,对所述待评测发音的英文语音信号进行发音评分,得到对应的发音评分数值。
根据本发明的具体实施方式,第二方面,本发明提供一种英文错误发音的识别装置,包括:
提取单元,用于通过声学模型对待评测发音的英文语音信号进行特征提取,得到所述待评测发音的英文语音信号的特征信息;
统计单元,用于根据所述提取单元提取出的所述特征信息和预设统计模型,统计出用于评测用户英文发音的各项评测参数;
获取单元,用于获取各项评测参数以及各项评测参数对应的各项评测权值;
处理单元,用于根据所述获取单元获取到的各项评测参数和各项评测权值对所述待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,所述错误音素作为识别出的英文错误发音。
根据本发明的具体实施方式,第三方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如上任一项所述的英文错误发音的识别方法。
根据本发明的具体实施方式,第四方面,本发明提供一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上任一项所述的英文错误发音的识别方法。
本发明实施例的上述方案与现有技术相比,至少具有以下有益效果:本发明通过提供一种英文错误发音的识别方法、装置、介质和电子设备,通过各项评测参数和各项评测权值对待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,并将该错误音素作为识别出的英文错误发音;这样,能够精准地识别出错误音素,并通过该错误音素,清晰地显示出学习者英文发音和标准发音的不同之处,以便于学习者纠正其错误发音。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了根据本发明实施例的英文错误发音的识别方法流程图;
图2示出了根据本发明实施例的具体应用场景下的英文错误发音的识别方法流程图;
图3示出了根据本发明实施例的对共振峰提取并图形化显示的方法流程图;
图4示出了根据本发明的实施例的英文错误发音的识别装置结构示意图;
图5示出了根据本发明的实施例的电子设备连接结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义,“多种”一般包含至少两种。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
应当理解,尽管在本发明实施例中可能采用术语第一、第二、第三等来描述……,但这些……不应限于这些术语。这些术语仅用来将……区分开。例如,在不脱离本发明实施例范围的情况下,第一……也可以被称为第二……,类似地,第二……也可以被称为第一……。
取决于语境,如在此所使用的词语“如果”、“若”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者装置中还存在另外的相同要素。
下面结合附图详细说明本发明的可选实施例。
实施例1
如图1所示,根据本发明的具体实施方式,第一方面,本发明提供一种英文错误发音的识别方法,具体包括如下方法步骤:
S102:通过声学模型对待评测发音的英文语音信号进行特征提取,得到待评测发音的英文语音信号的特征信息。
在此步骤中,可以采取MFCC(Mel-scale Frequency Cepstral Coefficients,梅尔倒谱系数)进行特征提取。
在语音识别和话者识别方面,最常用到的语音特征就是MFCC。根据人耳听觉机理的研究发现,人耳对不同频率的声波有不同的听觉敏感度。从200Hz到5000Hz的语音信号对语音的清晰度影响对大。两个响度不等的声音作用于人耳时,则响度较高的频率成分的存在会影响到对响度较低的频率成分的感受,使其变得不易察觉,这种现象称为掩蔽效应。由于频率较低的声音在内耳蜗基底膜上行波传递的距离大于频率较高的声音,故一般来说,低音容易掩蔽高音,而高音掩蔽低音较困难。在低频处的声音掩蔽的临界带宽较高频要小。所以,人们从低频到高频这一段频带内按临界带宽的大小由密到疏安排一组带通滤波器,对输入信号进行滤波。将每个带通滤波器输出的信号能量作为信号的基本特征,对此特征经过进一步处理后就可以作为语音的输入特征。由于这种特征不依赖于信号的性质,对输入信号不做任何的假设和限制,又利用了听觉模型的研究成果。因此,这种参数比基于声道模型的LPCC相比具有更好的鲁邦性,更符合人耳的听觉特性,而且当信噪比降低时仍然具有较好的识别性能。
语音特征参数MFCC的提取过程具体包括以下步骤:
步骤a:预加重;预加重处理其实是将语音信号通过一个高通滤波器;预加重的目的是提升高频部分,使信号的频谱变得平坦,保持在低频到高频的整个频带中,能用同样的信噪比求频谱。同时,也是为了消除发生过程中声带和嘴唇的效应,来补偿语音信号受到发音***所抑制的高频部分,也为了突出高频的共振峰。
步骤b:分帧;
先将N个采样点集合成一个观测单位,称为帧。通常情况下N的值为256或512,涵盖的时间约为20~30ms左右。为了避免相邻两帧的变化过大,因此会让两相邻帧之间有一段重叠区域,此重叠区域包含了M个取样点,通常M的值约为N的1/2或1/3。通常语音识别所采用语音信号的采样频率为8KHz或16KHz,以8KHz来说,若帧长度为256个采样点,则对应的时间长度是256/8000×1000=32ms。
步骤c:加窗;
将每一帧乘以汉明窗,以增加帧左端和右端的连续性。
步骤d:快速傅里叶变换;
由于信号在时域上的变换通常很难看出信号的特性,所以通常将它转换为频域上的能量分布来观察,不同的能量分布,就能代表不同语音的特性。所以在乘上汉明窗后,每帧还必须再经过快速傅里叶变换以得到在频谱上的能量分布。对分帧加窗后的各帧信号进行快速傅里叶变换得到各帧的频谱。并对语音信号的频谱取模平方得到语音信号的功率谱。
步骤e:三角带通滤波器;
将能量谱通过一组Mel尺度的三角形滤波器组,定义一个有M个滤波器的滤波器组(滤波器的个数和临界带的个数相近),采用的滤波器为三角滤波器,中心频率为f(m),m=1,2,...,M;M通常取22-26。各中心频率之间的间隔随着m值的减小而缩小,随着m值的增大而增宽。
步骤f:计算每个滤波器组输出的对数能量;
步骤g:经离散余弦变换得到MFCC系数;
步骤h:对数能量;
此外,一帧的音量(即能量),也是语音的重要特征,而且非常容易计算。因此,通常再加上一帧的对数能量(定义:一帧内信号的平方和,再取以10为底的对数值,再乘以10)使得每一帧基本的语音特征就多了一维,包括一个对数能量和剩下的倒频谱参数。注:若要加入其它语音特征以测试识别率,也可以在此阶段加入,这些常用的其它语音特征包含音高、过零率以及共振峰等。
步骤i:动态差分参数的提取(包括一阶差分和二阶差分);
标准的倒谱参数MFCC只反映了语音参数的静态特性,语音的动态特性可以用这些静态特征的差分谱来描述。实验证明:把动、静态特征结合起来才能有效提高***的识别性能。
S104:根据特征信息和预设统计模型,统计出用于评测用户英文发音的各项评测参数。
在此步骤中,采用的统计模型为HMM(Hidden Markov Model,隐马尔可夫模型)模型。该HMM模型是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数;然后利用这些参数来作进一步的分析,例如模式识别。对于隐马尔可夫模型,可以用五个元素来描述,包括2个状态集合和3个概率矩阵,其中,2个状态集合包括隐含状态的集合和可观测状态的集合,3个概率矩阵包括初始状态概率矩阵、隐含状态转移概率矩阵和观测状态转移概率矩阵。
采用上述HMM模型,面向海量正确发音信息实施声学模型的训练过程,以保证待验证的语音段在预设算法下,切割成若干具有完整语义的语音单元。
需要说明的是,预设算法可以为维特比算法,该维特比算法是一个特殊但应用最广的动态规划算法,它是针对篱笆网络的有向图的最短路径问题而提出的。凡是使用隐含马尔可夫模型描述的问题都可以用维特比算法来解码,包括今天的数字通信、语音识别、机器翻译、拼音转汉字、分词等。
S106:获取各项评测参数以及各项评测参数对应的各项评测权值,并根据各项评测参数和各项评测权值对待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,错误音素作为识别出的英文错误发音。
可选的,在通过声学模型对待评测发音的英文语音信号进行特征提取之前,所述方法还包括:
对待评测发音的英文语音信号和与待评测发音匹配的标准发音的英文语音信号进行预处理,得到待验证的语音段的英文语音信号。
可选的,对待评测发音的英文语音信号和与待评测发音匹配的标准发音的英文语音信号进行预处理包括:
对待评测发音的英文语音信号执行第一预处理的操作,以及
对标准发音的英文语音信号执行第二预处理的操作,
其中,第一预处理的操作至少包括:
第一分帧加窗的操作、第一端点检测的操作。
第二预处理的操作至少包括:
第二分帧加窗的操作、第二端点检测的操作。
可选的,在对待评测发音的英文语音信号执行第一预处理的操作,以及对标准发音的英文语音信号执行第二预处理的操作之后,所述方法还包括:
对待评测发音的英文语音信号执行第一快速傅氏变换的操作,得到第一变换图形;
对标准发音的英文语音信号执行快速傅氏变换的操作,得到第二变换图形;
对第一变换图形和第二变换图形进行比对,得到比对数据;
根据比对数据,提取出待评测发音的英文语音信号和标准发音的英文语音信号的共振峰。
可选的,在提取出待评测发音的英文语音信号和标准发音的英文语音信号的共振峰之后,所述方法还包括:
图形化显示待评测发音的英文语音信号和标准发音的英文语音信号的共振峰。
可选的,在获取各项评测参数以及各项评测参数对应的各项评测权值之后,所述方法还包括:
获取各项评测参数中的评测元音发音的第一元音评测参数、与第一元音评测参数关联的第二元音评测参数和预设匹配模型;
根据第一元音评测参数、第二元音评测参数和预设匹配模型,从标准发音资料库中匹配出与待评测发音的英文语音信号关联的关联元音,关联元音作为评测待评测发音的英文语音信号的关键评测参数。
可选的,在获取各项评测参数中的评测元音发音的第一元音评测参数、与第一元音评测参数关联的第二元音评测参数和预设匹配模型之后,所述方法还包括:
根据特征信息和预设匹配模型,计算出待评测发音的英文语音信号和标准发音的英文语音信号之间的帧平均匹配距离;
根据帧平均匹配距离和基于各项评分函数构建的发音评分模型,对待评测发音的英文语音信号进行发音评分,得到对应的发音评分数值。
在计算出待评测发音的英文语音信号和标准发音的英文语音信号之间的帧平均匹配距离之后,有两种情况,具体如下所述:
第一种情况:参数生成;
参数生成的过程如下所述:
在获取到专家的经验评分之后,获取上述帧平均匹配距离以及专家经验评分之间的对应关系,以及获取英文评分的自适应参数x,y;并根据上述对应关系和上述自适应参数确定出评分函数,该确定出的评分函数用于实施发音评分的过程。
第二种情况:进行发音评分:
进行发音评分的过程如下所述:
在获取到专家的经验评分之后,获取上述帧平均匹配距离以及专家经验评分之间的对应关系,以及获取英文评分的自适应参数x,y;并根据上述对应关系和上述自适应参数确定出评分函数。
在确定出评分函数之后,将上述待评测发音的英文语音信号和标准发音的英文语音信号之间的帧平均匹配距离输入到确定出的评分函数中,最终计算出对应的英文发音评分。
在上述过程中,准确输出评分参数是发音评分部分及评分参数生成部分的连接点,参数生成部分的存在,使得获取到的参数准确无误地输入到英文发音评分部分。
本发明实施例提供的识别方法,采用SharePreferences组件存储评分函数的重点参数,以实现参数的永久性保存。
需要说明的是,SharedPreferences是Android平台上一个轻量级的存储类,用来保存应用的一些常用配置,比如Activity状态,Activity暂停时,将此activity的状态保存到SharedPereferences中;当Activity重载,***回调方法onSaveInstanceState时,再从SharedPreferences中将值取出。
其中的原理是通过Android***生成一个xml文件保到:/data/data/包名/shared_prefs目录下,类似键值对的方式来存储数据。
Sharedpreferences提供了常规的数据类型保存接口比如:int、long、boolean、String、Float、Set和Map这些数据类型。
如图2所示,示出了根据本发明实施例的具体应用场景下的英文错误发音的识别方法流程图。
如图2所示,采用的统计模型为HMM(Hidden Markov Model,隐马尔可夫模型)模型。该HMM模型是统计模型,它用来描述一个含有隐含未知参数的马尔可夫过程。其难点是从可观察的参数中确定该过程的隐含参数;然后利用这些参数来作进一步的分析,例如模式识别。对于隐马尔可夫模型,可以用五个元素来描述,包括2个状态集合和3个概率矩阵,其中,2个状态集合包括隐含状态的集合和可观测状态的集合,3个概率矩阵包括初始状态概率矩阵、隐含状态转移概率矩阵和观测状态转移概率矩阵。
如图2所示的识别方法,采用上述HMM模型,面向海量正确发音信息实施声学模型的训练过程,以保证待验证的语音段在预设算法下,切割成若干具有完整语义的语音单元。
需要说明的是,预设算法可以为维特比算法,该维特比算法是一个特殊但应用最广的动态规划算法,它是针对篱笆网络的有向图的最短路径问题而提出的。凡是使用隐含马尔可夫模型描述的问题都可以用维特比算法来解码,包括今天的数字通信、语音识别、机器翻译、拼音转汉字、分词等。
在实际应用中,在对切割出的若干具有完整语义的语音单元的发音进行评测之前,还需要获取:各项评测参数以及各项评测参数对应的各项评测权值;除了上述各项评测参数和各项评测权值之外,还需要获取:与参数关联流程相关联的参数关联流程信息、与评测机制相关联的评测机制信息。
如图2所示,音素检错程序为本发明实施例提供的识别方法的关键部分,该音素检错程序能够衡量用户英文发音中的各项参数权值,并根据各项评测参数和各项评测权值对待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,错误音素作为识别出的英文错误发音。
在识别出错误音素之后,将错误音素反馈至对应的发音者,以便于发音者根据错误音素纠正其英文错误发音,达到提高发音者英文发音水平的目的。
如图2所示,本发明实施例提供的识别方法,对评测发音的英文语音信号执行第一预处理的操作,以及对标准发音的英文语音信号执行第二预处理的操作,
其中,第一预处理的操作至少包括:
第一分帧加窗的操作、第一端点检测的操作。
第二预处理的操作至少包括:
第二分帧加窗的操作、第二端点检测的操作。
除了上述罗列的预处理的操作之外,还可以执行其它的预处理操作,在此不再赘述。
在如图2所示的模型匹配的过程中,还运用了DWT(Dynamic Time Warping,动态时间归整)动态归纳的方法,以确保提取出的特征信息为有效特征信息。
需要说明的是,在孤立词语音识别中,最为简单有效的方法是采用DTW算法,该算法基于动态规划的思想,解决了发音长短不一的模板匹配问题,是语音识别中出现较早、较为经典的一种算法,用于孤立词识别。HMM算法在训练阶段需要提供大量的语音数据,通过反复计算才能得到模型参数,而DTW算法的训练中几乎不需要额外的计算;因此,在孤立词语音识别中,DTW算法仍然得到广泛的应用。
如图3所示,示出了根据本发明实施例的对共振峰提取并图形化显示的方法流程图。
如图3所示,采用预处理、FFT变换及共振峰提取的方式之后,提取出待评测发音的英文语音信号和标准发音的英文语音信号的共振峰。通过图形化显示共振峰,能够清晰地显示出学习者英文发音和标准发音的不同之处,以便于学习者纠正其错误发音。
本发明实施例通过提供一种英文错误发音的识别方法,通过各项评测参数和各项评测权值对待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,并将该错误音素作为识别出的英文错误发音;这样,能够精准地识别出错误音素,并通过该错误音素,清晰地显示出学习者英文发音和标准发音的不同之处,以便于学习者纠正其错误发音。
实施例2
结合附图4所示,根据本公开的具体实施方式,第二方面,本公开提供一种英文错误发音的识别装置,具体包括提取单元402、统计单元404、获取单元406、处理单元408,具体如下:
一种英文错误发音的识别装置,其特征在于,包括:
提取单元402,用于通过声学模型对待评测发音的英文语音信号进行特征提取,得到待评测发音的英文语音信号的特征信息;
统计单元404,用于根据提取单元402提取出的特征信息和预设统计模型,统计出用于评测用户英文发音的各项评测参数;
获取单元406,用于获取各项评测参数以及各项评测参数对应的各项评测权值;
处理单元408,用于根据获取单元406获取到的各项评测参数和各项评测权值对待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,错误音素作为识别出的英文错误发音。
可选的,所述装置还包括:
预处理单元(在图4中未示出),用于在提取单元402通过声学模型对待评测发音的英文语音信号进行特征提取之前,对待评测发音的英文语音信号和与待评测发音匹配的标准发音的英文语音信号进行预处理,得到待验证的语音段的英文语音信号。
可选的,预处理单元具体用于:
对待评测发音的英文语音信号执行第一预处理的操作,以及
对标准发音的英文语音信号执行第二预处理的操作,
其中,预处理单元执行的第一预处理的操作至少包括:
第一分帧加窗的操作、第一端点检测的操作。
预处理单元执行的第二预处理的操作至少包括:
第二分帧加窗的操作、第二端点检测的操作。
可选的,所述装置还包括:
第一变换单元(在图4中未示出),用于在对待评测发音的英文语音信号执行第一预处理的操作,以及对标准发音的英文语音信号执行第二预处理的操作之后,对待评测发音的英文语音信号执行第一快速傅氏变换的操作,得到第一变换图形;
第二变换单元(在图4中未示出),用于在对待评测发音的英文语音信号执行第一预处理的操作,以及对标准发音的英文语音信号执行第二预处理的操作之后,对标准发音的英文语音信号执行快速傅氏变换的操作,得到第二变换图形;
数据比对单元(在图4中未示出),用于对第一变换单元变换出的第一变换图形和第二变换单元变换出的第二变换图形进行比对,得到比对数据;
共振峰提取单元(在图4中未示出),用于根据数据比对单元比对出的比对数据,提取出待评测发音的英文语音信号和标准发音的英文语音信号的共振峰。
可选的,所述装置还包括:
图像化显示单元(在图4中未示出),用于在共振峰提取单元提取出待评测发音的英文语音信号和标准发音的英文语音信号的共振峰之后,图形化显示待评测发音的英文语音信号和标准发音的英文语音信号的共振峰。
可选的,获取单元406还用于:
在获取各项评测参数以及各项评测参数对应的各项评测权值之后,获取各项评测参数中的评测元音发音的第一元音评测参数、与第一元音评测参数关联的第二元音评测参数和预设匹配模型;
可选的,所述装置还包括:
匹配单元(在图4中未示出),用于根据获取单元406获取到的第一元音评测参数、第二元音评测参数和预设匹配模型,从标准发音资料库中匹配出与待评测发音的英文语音信号关联的关联元音,关联元音作为评测待评测发音的英文语音信号的关键评测参数。
可选的,所述装置还包括:计算单元(在图4中未示出),用于在获取单元406获取到获取各项评测参数中的评测元音发音的第一元音评测参数、与第一元音评测参数关联的第二元音评测参数和预设匹配模型之后,根据特征信息和预设匹配模型,计算出待评测发音的英文语音信号和标准发音的英文语音信号之间的帧平均匹配距离;
评分单元(在图4中未示出),用于根据计算单元计算出的帧平均匹配距离和基于各项评分函数构建的发音评分模型,对待评测发音的英文语音信号进行发音评分,得到对应的发音评分数值。
本发明实施例通过提供一种英文错误发音的识别装置,通过各项评测参数和各项评测权值对待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,并将该错误音素作为识别出的英文错误发音;这样,能够精准地识别出错误音素,并通过该错误音素,清晰地显示出学习者英文发音和标准发音的不同之处,以便于学习者纠正其错误发音。
实施例3
如图5所示,本实施例提供一种电子设备,该设备用于英文错误发音的识别方法,所述电子设备,包括:至少一个处理器;以及,与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:精准地识别出错误音素,并通过该错误音素,清晰地显示出学习者英文发音和标准发音的不同之处,以便于学习者纠正其错误发音。
实施例4
本公开实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有计算机可执行指令,该计算机可执行指令可执行上述任意方法实施例中的英文错误发音的识别方法。
实施例5
下面参考图5,其示出了适于用来实现本公开实施例的电子设备的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图5示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图5所示,电子设备可以包括处理装置(例如中央处理器、图形处理器等)501,其可以根据存储在只读存储器(ROM)502中的程序或者从存储装置508加载到随机访问存储器(RAM)503中的程序而执行各种适当的动作和处理。在RAM 503中,还存储有电子设备操作所需的各种程序和数据。处理装置501、ROM502以及RAM503通过总线504彼此相连。输入/输出(I/O)接口505也连接至总线504。
通常,以下装置可以连接至I/O接口505:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置506;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置507;包括例如磁带、硬盘等的存储装置508;以及通信装置509。通信装置509可以允许电子设备与其他设备进行无线或有线通信以交换数据。虽然图5示出了具有各种装置的电子设备,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置509从网络上被下载和安装,或者从存储装置508被安装,或者从ROM502被安装。在该计算机程序被处理装置501执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:精准地识别出错误音素,并通过该错误音素,清晰地显示出学习者英文发音和标准发音的不同之处,以便于学习者纠正其错误发音。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:精准地识别出错误音素,并通过该错误音素,清晰地显示出学习者英文发音和标准发音的不同之处,以便于学习者纠正其错误发音。可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。

Claims (10)

1.一种英文错误发音的识别方法,其特征在于,包括:
通过声学模型对待评测发音的英文语音信号进行特征提取,得到所述待评测发音的英文语音信号的特征信息;
根据所述特征信息和预设统计模型,统计出用于评测用户英文发音的各项评测参数;
获取各项评测参数以及各项评测参数对应的各项评测权值,并根据各项评测参数和各项评测权值对所述待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,所述错误音素作为识别出的英文错误发音。
2.根据权利要求1所述的方法,其特征在于,在所述通过声学模型对待评测发音的英文语音信号进行特征提取之前,所述方法还包括:
对所述待评测发音的英文语音信号和与所述待评测发音匹配的标准发音的英文语音信号进行预处理,得到待验证的语音段的英文语音信号。
3.根据权利要求2所述的方法,其特征在于,所述对所述待评测发音的英文语音信号和与所述待评测发音匹配的标准发音的英文语音信号进行预处理包括:
对所述待评测发音的英文语音信号执行第一预处理的操作,以及
对所述标准发音的英文语音信号执行第二预处理的操作,
其中,所述第一预处理的操作至少包括:
第一分帧加窗的操作、第一端点检测的操作。
所述第二预处理的操作至少包括:
第二分帧加窗的操作、第二端点检测的操作。
4.根据权利要求3所述的方法,其特征在于,在所述对所述待评测发音的英文语音信号执行第一预处理的操作,以及对所述标准发音的英文语音信号执行第二预处理的操作之后,所述方法还包括:
对所述待评测发音的英文语音信号执行第一快速傅氏变换的操作,得到第一变换图形;
对所述标准发音的英文语音信号执行快速傅氏变换的操作,得到第二变换图形;
对所述第一变换图形和所述第二变换图形进行比对,得到比对数据;
根据所述比对数据,提取出所述待评测发音的英文语音信号和所述标准发音的英文语音信号的共振峰。
5.根据权利要求4所述的方法,其特征在于,在所述提取出所述待评测发音的英文语音信号和所述标准发音的英文语音信号的共振峰之后,所述方法还包括:
图形化显示所述待评测发音的英文语音信号和所述标准发音的英文语音信号的所述共振峰。
6.根据权利要求2所述的方法,其特征在于,在所述获取各项评测参数以及各项评测参数对应的各项评测权值之后,所述方法还包括:
获取各项评测参数中的评测元音发音的第一元音评测参数、与所述第一元音评测参数关联的第二元音评测参数和预设匹配模型;
根据所述第一元音评测参数、所述第二元音评测参数和所述预设匹配模型,从标准发音资料库中匹配出与所述待评测发音的英文语音信号关联的关联元音,所述关联元音作为评测所述待评测发音的英文语音信号的关键评测参数。
7.根据权利要求6所述的方法,其特征在于,在所述获取各项评测参数中的评测元音发音的第一元音评测参数、与所述第一元音评测参数关联的第二元音评测参数和预设匹配模型之后,所述方法还包括:
根据所述特征信息和所述预设匹配模型,计算出所述待评测发音的英文语音信号和所述标准发音的英文语音信号之间的帧平均匹配距离;
根据所述帧平均匹配距离和基于各项评分函数构建的发音评分模型,对所述待评测发音的英文语音信号进行发音评分,得到对应的发音评分数值。
8.一种英文错误发音的识别装置,其特征在于,包括:
提取单元,用于通过声学模型对待评测发音的英文语音信号进行特征提取,得到所述待评测发音的英文语音信号的特征信息;
统计单元,用于根据所述提取单元提取出的所述特征信息和预设统计模型,统计出用于评测用户英文发音的各项评测参数;
获取单元,用于获取各项评测参数以及各项评测参数对应的各项评测权值;
处理单元,用于根据所述获取单元获取到的各项评测参数和各项评测权值对所述待评测发音的英文语音信号进行错误音素的识别,识别出错误音素,所述错误音素作为识别出的英文错误发音。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1至7中任一项所述的方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至7中任一项所述的方法。
CN201910911818.1A 2019-09-25 2019-09-25 一种英文错误发音的识别方法、装置、介质和电子设备 Active CN110718210B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910911818.1A CN110718210B (zh) 2019-09-25 2019-09-25 一种英文错误发音的识别方法、装置、介质和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910911818.1A CN110718210B (zh) 2019-09-25 2019-09-25 一种英文错误发音的识别方法、装置、介质和电子设备

Publications (2)

Publication Number Publication Date
CN110718210A CN110718210A (zh) 2020-01-21
CN110718210B true CN110718210B (zh) 2022-06-07

Family

ID=69210862

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910911818.1A Active CN110718210B (zh) 2019-09-25 2019-09-25 一种英文错误发音的识别方法、装置、介质和电子设备

Country Status (1)

Country Link
CN (1) CN110718210B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113920803B (zh) * 2020-07-10 2024-05-10 上海流利说信息技术有限公司 一种错误反馈方法、装置、设备及可读存储介质
CN112185186B (zh) * 2020-09-30 2022-07-01 北京有竹居网络技术有限公司 一种发音纠正方法、装置、电子设备及存储介质
CN116894442B (zh) * 2023-09-11 2023-12-05 临沂大学 一种纠正引导发音的语言翻译方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040073291A (ko) * 2004-01-08 2004-08-19 정보통신연구진흥원 외국어 발음 평가 시스템 및 그 평가 방법
CN101197084A (zh) * 2007-11-06 2008-06-11 安徽科大讯飞信息科技股份有限公司 自动化英语口语评测学习***
CN101231848A (zh) * 2007-11-06 2008-07-30 安徽科大讯飞信息科技股份有限公司 一种基于支持向量机进行发音错误检测的方法
CN101727903A (zh) * 2008-10-29 2010-06-09 中国科学院自动化研究所 基于多特征和多***融合的发音质量评估和错误检测方法
WO2014209449A1 (en) * 2013-06-28 2014-12-31 Google Inc. Computer-implemented method, computer-readable medium and system for pronunciation learning
CN109741749A (zh) * 2018-04-19 2019-05-10 北京字节跳动网络技术有限公司 一种语音识别的方法和终端设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8296141B2 (en) * 2008-11-19 2012-10-23 At&T Intellectual Property I, L.P. System and method for discriminative pronunciation modeling for voice search

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040073291A (ko) * 2004-01-08 2004-08-19 정보통신연구진흥원 외국어 발음 평가 시스템 및 그 평가 방법
CN101197084A (zh) * 2007-11-06 2008-06-11 安徽科大讯飞信息科技股份有限公司 自动化英语口语评测学习***
CN101231848A (zh) * 2007-11-06 2008-07-30 安徽科大讯飞信息科技股份有限公司 一种基于支持向量机进行发音错误检测的方法
CN101727903A (zh) * 2008-10-29 2010-06-09 中国科学院自动化研究所 基于多特征和多***融合的发音质量评估和错误检测方法
WO2014209449A1 (en) * 2013-06-28 2014-12-31 Google Inc. Computer-implemented method, computer-readable medium and system for pronunciation learning
CN109741749A (zh) * 2018-04-19 2019-05-10 北京字节跳动网络技术有限公司 一种语音识别的方法和终端设备

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Phonemic Similarity Metrics to Compare Pronunciation Methods;Ben Hixon,等;《INTERSPEECH》;20111231;第825-828页 *
基于音素评分模型的发音标准度评测研究;严可;《中文信息学报》;20110930;第25卷(第5期);第101-108页 *

Also Published As

Publication number Publication date
CN110718210A (zh) 2020-01-21

Similar Documents

Publication Publication Date Title
CN107195296B (zh) 一种语音识别方法、装置、终端及***
Sinha et al. Assessment of pitch-adaptive front-end signal processing for children’s speech recognition
CN109313892B (zh) 稳健的语言识别方法和***
Dua et al. GFCC based discriminatively trained noise robust continuous ASR system for Hindi language
CN109036381A (zh) 语音处理方法及装置、计算机装置及可读存储介质
CN110718210B (zh) 一种英文错误发音的识别方法、装置、介质和电子设备
Yadav et al. Addressing noise and pitch sensitivity of speech recognition system through variational mode decomposition based spectral smoothing
CN110970036B (zh) 声纹识别方法及装置、计算机存储介质、电子设备
CN108108357B (zh) 口音转换方法及装置、电子设备
CN108564956B (zh) 一种声纹识别方法和装置、服务器、存储介质
Patil et al. Automatic Speech Recognition of isolated words in Hindi language using MFCC
CN112802456A (zh) 一种语音评测打分方法、装置、电子设备及存储介质
Eringis et al. Improving speech recognition rate through analysis parameters
Priyadarshani et al. Dynamic time warping based speech recognition for isolated Sinhala words
CN111798846A (zh) 语音命令词识别方法、装置、会议终端及会议终端***
US20020065649A1 (en) Mel-frequency linear prediction speech recognition apparatus and method
Naing et al. Filterbank analysis of MFCC feature extraction in robust children speech recognition
CN112216270B (zh) 语音音素的识别方法及***、电子设备及存储介质
CN111862946B (zh) 一种订单处理方法、装置、电子设备及存储介质
Kaur et al. Optimizing feature extraction techniques constituting phone based modelling on connected words for Punjabi automatic speech recognition
Vlaj et al. Voice activity detection algorithm using nonlinear spectral weights, hangover and hangbefore criteria
Płonkowski Using bands of frequencies for vowel recognition for Polish language
Boril et al. Data-driven design of front-end filter bank for Lombard speech recognition
Kaur et al. Power-Normalized Cepstral Coefficients (PNCC) for Punjabi automatic speech recognition using phone based modelling in HTK
Wani et al. Automatic speech recognition of isolated words in Hindi language

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder
CP01 Change in the name or title of a patent holder

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: Tiktok vision (Beijing) Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Patentee before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.