CN111508523A - 一种语音训练提示方法及*** - Google Patents
一种语音训练提示方法及*** Download PDFInfo
- Publication number
- CN111508523A CN111508523A CN201910094375.1A CN201910094375A CN111508523A CN 111508523 A CN111508523 A CN 111508523A CN 201910094375 A CN201910094375 A CN 201910094375A CN 111508523 A CN111508523 A CN 111508523A
- Authority
- CN
- China
- Prior art keywords
- pronunciation
- user
- word
- comparison result
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 39
- 238000012545 processing Methods 0.000 claims description 14
- 238000010586 diagram Methods 0.000 description 14
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 1
- 238000004141 dimensional analysis Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000001556 precipitation Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种语音训练提示方法及***,通过本发明所提供的方法,在用户进行朗读训练时,***将用户的音频进行多维度分析,得到各个单词对应的时长、音量、基频等信息,然后与教学音频进行比较,并输出时长、音量、基频比较结果,从而用户可以通过图形化展示界面直接查看到差异,进而使得用户可以便捷快速的查看到调整位置以及调整方向,使用户的朗读训练更加高效。
Description
技术领域
本申请涉及音频信息处理技术领域,尤其涉及一种语音训练提示方法及***。
背景技术
朗读是语言学习中的一个重要的学习方法:朗读可以提升学习者的发音的准确性和流利度,也能提高学习者对句子乃至篇章的理解能力,从而加强对重读、语调等韵律特征的正确使用。
在朗读中,学习者可能会出现下面的错误或不当:单词的发音错误或不适当(包括元音、辅音、音节边界、重读、连读、省读等),词内及词间的不流利(包括不合适的时长和停顿),缺乏音高能力等韵律变化(重读的遗漏或者误用)、缺乏正确地进行语法语义相关的语调变化(例如句末的声调或者降调)、不能正确地理解语句并通过短语(Phrasing)来控制语音输出的节奏。
目前,较为传统的方案通过如下两种方式来练习朗读:
方式一:有声字典
独立电子辞典设备、或者桌面软件、运行于移动设备中的软件(包括微信小程序、网页等)。在用户查询单词后,有声字典提供该词的传统释义,同时提供该词的可以播放的发音音频(真人录音或者计算机合成语言)。学习者通过播放该音频,了解该单词的发音,并可能进行口头模仿。有声字典也可能提供若干与单词相关的例句,这些例句也同样可能带有可以播放的音频。
方式二:有声读物
可以是独立发行的音频文件(mp3等)、图书的配套光盘、早期的录音磁带,也可以是某个内容平台上的节目形式:例如PodCast、喜马拉雅FM、微信公众号等等。学习者使用有声读物的方式通常为“听”。学习者当然也可以自行进行模仿。
虽然,上述的方案可以引导用户进行朗读训练,但是方式一以及方式二不能对用户的朗读水平进行评价,学习者不能得到及时的反馈。
发明内容
本发明提供了一种语音训练提示方法及***,用以提升用户的朗读的学习效率。
其具体的技术方案如下:
一种语音训练提示方法,所述方法包括:
采集用户的第一音频文件,并确定所述第一音频文件中每个单词对应的用户发音时长;
将确定出的每个单词对应的用户发音时长与教学音频中每个单词的教学发音时长比较,得到第一时长比较结果,其中,所述比较结果包含了每个单词的用户发音时长与教学发音时长的匹配度;
通过输出设备输出所述第一时长比较结果。
可选的,在通过输出设备输出所述第一时长比较结果之后,所述方法还包括:
采集用户基于所述第一时长比较结果的第二音频文件,并在所述音频文件中确定出每个单词对应的用户发音时长;
判定是否存在用户发音时长与教学发音时长的差值绝对值大于预设阈值的单词;
若存在,则输出第二时长比较结果,其中,所述第二时长比较结果包含每个单词的用户发音时长与教学发音时长的匹配度;
若不存在,则提示用户进入下一阶段训练。
可选的,在提示用户进入下一阶段训练之后,所述方法还包括:
采集用户的第三音频文件,并确定所述第三音频文件中每个单词对应的用户发音音量;
将确定出的每个单词对应的用户发音音量与教学音频中每个单词的教学发音音量比较,得到第一音量比较结果,其中,所述第一音量比较结果包含了每个单词的用户发音音量与教学发音音量的匹配度;
通过输出设备输出所述第一音量比较结果。
可选的,在通过输出设备输出所述第一音量比较结果之后,所述方法还包括:
判定是否存在用户发音音量与教学发音音量的差值绝对值大于预设阈值的单词;
若存在,则输出第二音量比较结果,其中,所述第二音量比较结果包含每个单词的用户发音音量与教学发音音量的匹配度;
若不存在,则提示用户进入下一阶段训练。
可选的,在提示用户进入下一阶段训练之后,所述方法还包括:
采集用户的第四音频文件,并确定所述第四音频文件中每个单词对应的用户发音基频;
将确定出的每个单词对应的用户发音基频与教学音频中每个单词的教学发音基频比较,得到第一基频比较结果,其中,所述第一基频比较结果包含了每个单词的用户发音基频与教学发音基频的匹配度;
通过输出设备输出所述第一基频比较结果。
可选的,在通过输出设备输出所述第一基频比较结果之后,所述方法还包括:
判定是否存在用户发音基频与教学发音基频的差值绝对值大于预设阈值的单词;
若存在,则输出第二基频比较结果,其中,所述第二基频比较结果包含每个单词的用户发音基频与教学发音基频的匹配度;
若不存在,则提示用户训练完成。
一种语音训练提示***,所述***包括:
采集模块,用于采集用户的第一音频文件,并确定所述第一音频文件中每个单词对应的用户发音时长;
处理模块,用于将确定出的每个单词对应的用户发音时长与教学音频中每个单词的教学发音时长比较,得到第一时长比较结果,其中,所述比较结果包含了每个单词的用户发音时长与教学发音时长的匹配度;
输出模块,用于输出所述第一时长比较结果。
可选的,所述采集模块,还用于采集用户的第三音频文件,并确定所述第三音频文件中每个单词对应的用户发音音量;
所述处理模块,还用于将确定出的每个单词对应的用户发音音量与教学音频中每个单词的教学发音音量比较,得到第一音量比较结果,其中,所述第一音量比较结果包含了每个单词的用户发音音量与教学发音音量的匹配度;
输出模块,还用于输出所述第一音量比较结果。
可选的,所述采集模块,还用于采集用户的第四音频文件,并确定所述第四音频文件中每个单词对应的用户发音基频;
处理模块,还用于将确定出的每个单词对应的用户发音基频与教学音频中每个单词的教学发音基频比较,得到第一基频比较结果,其中,所述第一基频比较结果包含了每个单词的用户发音基频与教学发音基频的匹配度;
输出模块,还用于输出所述第一基频比较结果。
可选的,所述处理模块,还用于判定是否存在用户发音基频与教学发音基频的差值绝对值大于预设阈值的单词;
输出模块,还用于存在差异单词,则输出第二基频比较结果,其中,所述第二基频比较结果包含每个单词的用户发音基频与教学发音基频的匹配度;若不存在差异单词,则提示用户训练完成。
通过本发明实施例所提供的方法,在用户进行朗读训练时,***将用户的音频进行多维度分析,得到各个单词对应的时长、音量、基频等信息,然后与教学音频进行比较,并输出时长、音量、基频比较结果,从而用户可以通过图形化展示界面直接查看到差异,进而使得用户可以便捷快速的查看到调整位置以及调整方向,使用户的朗读训练更加高效。
附图说明
图1为本发明实施例中一种语音训练提示方法的流程图;
图2为本发明实施例中基于第一音频文件对应时长分析结果示意图;
图3为本发明实施例中第一音频文件对应的时长与教学发音时长之间的比较结果示意图;
图4为本发明实施例中时长分析结果的图形化展示界面示意图;
图5为本发明实施例中基于第三音频文件对应音量分析结果示意图;
图6为本发明实施例中第三音频文件对应的音量与教学发音音量之间的比较结果示意图;
图7为本发明实施例中音量分析结果的图形化展示界面示意图;
图8为本发明实施例中第四音频文件对应的基频检测结果示意图;
图9为本发明实施例中基频分析结果的图形化展示界面示意图;
图10为本发明实施例中一种语音训练提示***的结构示意图。
具体实施方式
下面通过附图以及具体实施例对本发明技术方案做详细的说明,应当理解,本发明实施例以及实施例中的具体技术特征只是对本发明技术方案的说明,而不是限定,在不冲突的情况下,本发明实施例以及实施例中的具体技术特征可以相互组合。
首先,对本发明实施例中所使用的名词进行解释:
基频:语音在产生中气流冲击声带所产生的特定的频率;
语调:指的是一个句子或者句子的片段的发音的音高轨迹的趋势。一般情况下,陈述句和特殊疑问句使用降调,而一般疑问句使用升调;
时长:一个特定发音单元所需要的时间,通常用秒、毫秒来表示,在***中,也用帧长(Frame length)来表示;
如图1所示为本发明实施例中一种语音训练提示方法的流程图,该方法包括:
S1,采集用户的第一音频文件,并确定所述第一音频文件中每个单词对应的用户发音时长;
S2,将确定出的每个单词对应的用户发音时长与教学音频中每个单词的教学发音时长比较,得到第一时长比较结果;
这里需要说明是,该比较结果包含了每个单词的用户发音时长与教学发音时长的匹配度;
S3,通过输出设备输出所述第一时长比较结果。
在语音训练时,首先采集用户的音频信息,从而得到第一音频文件,在得到第一音频文件之后,确定第一音频文件中每个单词对应的用户发音时长。
如图2所示为本发明实施例中基于第一音频文件对应时长分析结果,在图2中,该第一音频文件对应有7个单词,每个单词有一个对应的时长。
另外,在***中还保存了教学发音时长,教学发音时长为基于教学音频得到的分析结果。***在得到第一音频文件之后,将该第一音频文件中的发音时长与教学音频中的每个单词的教学发音时长比较如图3所示为第一音频文件对应的时长与教学发音时长之间的比较结果示意图。图3所示的示意图将通过输出设备进行显示,从而用户可以在显示界面中直接查看到发音时长与教学发音时长之间的差异,进而用户可以根据图形化展示界面进行发音时长的调整。
在本发明实施例中,为了方便用户观察时长方面的差异,***对单词的边界,在教学音频和用户音频中单词的左右边界,通过连线来加强时长的差异化。
进一步,在本发明实施例中,***给显著差异的单词进行特别标识处理,例如使用红色边框,或者是蓝色边框等。另外,在***对停顿的区域进行特别标识处理,例如使用灰色方块等等。当然,此处只是一个示例,并不是限定。
进一步,在通过输出设备输出第一时长比较结果之后,该方法还包括:采集用户基于第一时长比较结果的第二音频文件,并在音频文件中确定出每个单词对应的用户发音时长;判定是否存在用户发音时长与教学发音时长的差值绝对值大于预设阈值的单词;若存在,则输出第二时长比较结果;若不存在,则提示用户进入下一阶段训练。
简单来讲,图3所示图形化展示界面中,用户发音的语速偏慢,在“dont”、“like”、“comedy”、“shows”都花费了更长的时间。同时,在“sorry”之后引入了偏长的停顿。
在该比较结果的基础上,用户可以根据***的提示,对发音进行调整,在调整之后,得到如图4所示图形化展示界面,在图4中用户发音时长与教学发音时长差异小于预设阈值,比如差异小于5%,则***确定用户达标,从而可以进行下一阶段的训练,若是差异大于5%,则***提示用户继续当前阶段的训练。
进一步,在完成发音时长的训练之后,采集用户的第三音频文件,并确定第三音频文件中每个单词对应的用户发音音量;将确定出的每个单词对应的用户发音音量与教学音频中每个单词的教学发音音量比较,得到第一音量比较结果,通过输出设备输出第一音量比较结果。
在音量训练时,首先采集用户的音频信息,从而得到第三音频文件,在得到第三音频文件之后,确定第三音频文件中每个单词对应的用户发音音量。
如图5所示为本发明实施例中基于第三音频文件对应音量分析结果,在图5中,该第三音频文件对应有7个单词,每个单词有一个对应的音量。
另外,在***中还保存了教学发音音量,教学发音音量为基于教学音频得到的分析结果。***在得到第三音频文件之后,将该第三音频文件中的发音音量与教学音频中的每个单词的教学发音音量比较如图6所示为第三音频文件对应的音量与教学发音音量之间的比较结果示意图。图6所示的示意图将通过输出设备进行显示,从而用户可以在显示界面中直接查看到发音音量与教学发音音量之间的差异,进而用户可以根据图形化展示界面进行发音音量的调整。
在本发明实施例中,为了方便用户观察音量方面的差异,***对单词的边界,在教学音频和用户音频中单词的上下边界,通过连线来加强音量的差异化。
进一步,在通过输出设备输出第一音量比较结果之后,该方法还包括:采集用户基于第一音量比较结果的第四音频文件,并在音频文件中确定出每个单词对应的用户发音音量;判定是否存在用户发音音量与教学发音音量的差值绝对值大于预设阈值的单词;若存在,则输出第二音量比较结果;若不存在,则提示用户进入下一阶段训练。
简单来讲,图6所示图形化展示界面中,用户在“comedy”单词上发音偏高,在“shows”单词上发音偏低。
在该比较结果的基础上,用户可以根据***的提示,对音量发音错误的单词进行调整,在调整之后,得到如图7所示图形化展示界面,在图7中用户发音音量与教学发音音量的差异小于预设阈值,比如差异小于5%,则***确定用户达标,从而可以进行下一阶段的训练,若是差异大于5%,则***提示用户继续当前阶段的训练。
进一步,在用户完成音量训练之后,方法还包括:采集用户的第四音频文件,并确定所述第四音频文件中每个单词对应的用户发音基频;将确定出的每个单词对应的用户发音基频与教学音频中每个单词的教学发音基频比较,得到第一基频比较结果;通过输出设备输出所述第一基频比较结果。判定是否存在用户发音基频与教学发音基频的差值绝对值大于预设阈值的单词;若存在,则输出第二基频比较结果;若不存在,则提示用户训练完成。
具体来讲,如图8所示为用户第四音频文件对应的基频检测结果,在图8中可以查看到用户在朗读时,每个单词对应的基频。将第四音频文件对应的基频与***中教学音频对应的基频进行比较,比较得到的图形化展示界面如图9所示。
在图9中用户可以在图形化展示界面中直接查看到发音基频与教学发音基频之间的差异,进而用户可以根据图形化展示界面进行发音基频的调整。
进一步,在本发明实施例中通过如下方法来给出基频调整指示:
1、获取单元的总长度l;
2、初始化输出列表H;
3、设置下标为i=1;
4、当i<1:
计算示范音频的当前单元的平均基频值与前一个基频值之间的差值δti=fti-fti-1;
计算示范音频的当前单元的平均基频值与前一个基频值之间的差值δsi=fsi-fsi-1;
如果差值δti=fti-fti-1与δsi=fsi-fsi-1的符号相反,也即δsi×δti<0:加入提示列表。
更新i=i+1。
4、输出提示列表;
另外,在本发明实施例中,***允许用户查看任何一个多音节词的详细信息,以及在示例和用户之间进行比较,详细信息包括:单词的音节化的描述,音节化描述包括构成词典发音的由音素构成的音节组合、词内重音;按照音节进行展示的基频曲线;每个音节的时长信息。
综上来讲,通过本发明实施例所提供的方法,在用户进行朗读训练时,***将用户的音频进行多维度分析,得到各个单词对应的时长、音量、基频等信息,然后与教学音频进行比较,并输出时长、音量、基频比较结果,从而用户可以通过图形化展示界面直接查看到差异,进而使得用户可以便捷快速的查看到调整位置以及调整方向,使用户的朗读训练更加高效。
对应本发明实施例所提供的本方法,本发明实施例中还提供了一种语音训练提示***,如图10所示为本发明实施例中一种语音训练提示***的结构示意图,该***包括:
采集模块101,用于采集用户的第一音频文件,并确定所述第一音频文件中每个单词对应的用户发音时长;
处理模块102,用于将确定出的每个单词对应的用户发音时长与教学音频中每个单词的教学发音时长比较,得到第一时长比较结果,其中,所述比较结果包含了每个单词的用户发音时长与教学发音时长的匹配度;
输出模块103,用于输出所述第一时长比较结果。
进一步,在本发明实施例中,所述采集模块101,还用于采集用户的第三音频文件,并确定所述第三音频文件中每个单词对应的用户发音音量;
所述处理模块102,还用于将确定出的每个单词对应的用户发音音量与教学音频中每个单词的教学发音音量比较,得到第一音量比较结果,其中,所述第一音量比较结果包含了每个单词的用户发音音量与教学发音音量的匹配度;
输出模块103,还用于输出所述第一音量比较结果。
进一步,在本发明实施例中,所述采集模块101,还用于采集用户的第四音频文件,并确定所述第四音频文件中每个单词对应的用户发音基频;
处理模块102,还用于将确定出的每个单词对应的用户发音基频与教学音频中每个单词的教学发音基频比较,得到第一基频比较结果,其中,所述第一基频比较结果包含了每个单词的用户发音基频与教学发音基频的匹配度;
输出模块103,还用于输出所述第一基频比较结果。
进一步,在本发明实施例中,所述处理模块102,还用于判定是否存在用户发音基频与教学发音基频的差值绝对值大于预设阈值的单词;
输出模块103,还用于存在差异单词,则输出第二基频比较结果,其中,所述第二基频比较结果包含每个单词的用户发音基频与教学发音基频的匹配度;若不存在差异单词,则提示用户训练完成。
尽管已描述了本申请的优选实施例,但本领域内的普通技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (10)
1.一种语音训练提示方法,其特征在于,所述方法包括:
采集用户的第一音频文件,并确定所述第一音频文件中每个单词对应的用户发音时长;
将确定出的每个单词对应的用户发音时长与教学音频中每个单词的教学发音时长比较,得到第一时长比较结果,其中,所述比较结果包含了每个单词的用户发音时长与教学发音时长的匹配度;
通过输出设备输出所述第一时长比较结果。
2.如权利要求1所述的方法,其特征在于,在通过输出设备输出所述第一时长比较结果之后,所述方法还包括:
采集用户基于所述第一时长比较结果的第二音频文件,并在所述音频文件中确定出每个单词对应的用户发音时长;
判定是否存在用户发音时长与教学发音时长的差值绝对值大于预设阈值的单词;
若存在,则输出第二时长比较结果,其中,所述第二时长比较结果包含每个单词的用户发音时长与教学发音时长的匹配度;
若不存在,则提示用户进入下一阶段训练。
3.如权利要求2所述的方法,其特征在于,在提示用户进入下一阶段训练之后,所述方法还包括:
采集用户的第三音频文件,并确定所述第三音频文件中每个单词对应的用户发音音量;
将确定出的每个单词对应的用户发音音量与教学音频中每个单词的教学发音音量比较,得到第一音量比较结果,其中,所述第一音量比较结果包含了每个单词的用户发音音量与教学发音音量的匹配度;
通过输出设备输出所述第一音量比较结果。
4.如权利要求3所述的方法,其特征在于,在通过输出设备输出所述第一音量比较结果之后,所述方法还包括:
判定是否存在用户发音音量与教学发音音量的差值绝对值大于预设阈值的单词;
若存在,则输出第二音量比较结果,其中,所述第二音量比较结果包含每个单词的用户发音音量与教学发音音量的匹配度;
若不存在,则提示用户进入下一阶段训练。
5.如权利要求4所述的方法,其特征在于,在提示用户进入下一阶段训练之后,所述方法还包括:
采集用户的第四音频文件,并确定所述第四音频文件中每个单词对应的用户发音基频;
将确定出的每个单词对应的用户发音基频与教学音频中每个单词的教学发音基频比较,得到第一基频比较结果,其中,所述第一基频比较结果包含了每个单词的用户发音基频与教学发音基频的匹配度;
通过输出设备输出所述第一基频比较结果。
6.如权利要求5所述的方法,其特征在于,在通过输出设备输出所述第一基频比较结果之后,所述方法还包括:
判定是否存在用户发音基频与教学发音基频的差值绝对值大于预设阈值的单词;
若存在,则输出第二基频比较结果,其中,所述第二基频比较结果包含每个单词的用户发音基频与教学发音基频的匹配度;
若不存在,则提示用户训练完成。
7.一种语音训练提示***,其特征在于,所述***包括:
采集模块,用于采集用户的第一音频文件,并确定所述第一音频文件中每个单词对应的用户发音时长;
处理模块,用于将确定出的每个单词对应的用户发音时长与教学音频中每个单词的教学发音时长比较,得到第一时长比较结果,其中,所述比较结果包含了每个单词的用户发音时长与教学发音时长的匹配度;
输出模块,用于输出所述第一时长比较结果。
8.如权利要求7所述的***,其特征在于,所述采集模块,还用于采集用户的第三音频文件,并确定所述第三音频文件中每个单词对应的用户发音音量;
所述处理模块,还用于将确定出的每个单词对应的用户发音音量与教学音频中每个单词的教学发音音量比较,得到第一音量比较结果,其中,所述第一音量比较结果包含了每个单词的用户发音音量与教学发音音量的匹配度;
输出模块,还用于输出所述第一音量比较结果。
9.如权利要求7所述的***,其特征在于,所述采集模块,还用于采集用户的第四音频文件,并确定所述第四音频文件中每个单词对应的用户发音基频;
处理模块,还用于将确定出的每个单词对应的用户发音基频与教学音频中每个单词的教学发音基频比较,得到第一基频比较结果,其中,所述第一基频比较结果包含了每个单词的用户发音基频与教学发音基频的匹配度;
输出模块,还用于输出所述第一基频比较结果。
10.如权利要求7所述的***,其特征在于,所述处理模块,还用于判定是否存在用户发音基频与教学发音基频的差值绝对值大于预设阈值的单词;
输出模块,还用于存在差异单词,则输出第二基频比较结果,其中,所述第二基频比较结果包含每个单词的用户发音基频与教学发音基频的匹配度;若不存在差异单词,则提示用户训练完成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910094375.1A CN111508523A (zh) | 2019-01-30 | 2019-01-30 | 一种语音训练提示方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910094375.1A CN111508523A (zh) | 2019-01-30 | 2019-01-30 | 一种语音训练提示方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111508523A true CN111508523A (zh) | 2020-08-07 |
Family
ID=71864593
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910094375.1A Pending CN111508523A (zh) | 2019-01-30 | 2019-01-30 | 一种语音训练提示方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111508523A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114258847A (zh) * | 2021-12-17 | 2022-04-01 | 山东浪潮工业互联网产业股份有限公司 | 一种花卉无土栽培管控方法、装置及介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030225580A1 (en) * | 2002-05-29 | 2003-12-04 | Yi-Jing Lin | User interface, system, and method for automatically labelling phonic symbols to speech signals for correcting pronunciation |
CN1510590A (zh) * | 2002-12-24 | 2004-07-07 | 英业达股份有限公司 | 利用可视化对应发音提示的语言学习***及方法 |
CN1512300A (zh) * | 2002-12-30 | 2004-07-14 | 艾尔科技股份有限公司 | 自动标示音标以矫正发音的使用者接口、***及方法 |
US20040166480A1 (en) * | 2003-02-14 | 2004-08-26 | Sayling Wen | Language learning system and method with a visualized pronunciation suggestion |
KR20100078374A (ko) * | 2008-12-30 | 2010-07-08 | 주식회사 케이티 | 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치 |
JP2012194387A (ja) * | 2011-03-16 | 2012-10-11 | Yamaha Corp | 抑揚判定装置 |
JP2013088552A (ja) * | 2011-10-17 | 2013-05-13 | Hitachi Solutions Ltd | 発音トレーニング装置 |
JP2014035436A (ja) * | 2012-08-08 | 2014-02-24 | Jvc Kenwood Corp | 音声処理装置 |
CN104464751A (zh) * | 2014-11-21 | 2015-03-25 | 科大讯飞股份有限公司 | 发音韵律问题的检测方法及装置 |
JP5756555B1 (ja) * | 2014-11-07 | 2015-07-29 | パナソニック株式会社 | 発話評価装置、発話評価方法及びプログラム |
CN107203539A (zh) * | 2016-03-17 | 2017-09-26 | 曾雅梅 | 复数字词学习机的语音评测装置及其评测与连续语音图像化方法 |
-
2019
- 2019-01-30 CN CN201910094375.1A patent/CN111508523A/zh active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030225580A1 (en) * | 2002-05-29 | 2003-12-04 | Yi-Jing Lin | User interface, system, and method for automatically labelling phonic symbols to speech signals for correcting pronunciation |
CN1510590A (zh) * | 2002-12-24 | 2004-07-07 | 英业达股份有限公司 | 利用可视化对应发音提示的语言学习***及方法 |
CN1512300A (zh) * | 2002-12-30 | 2004-07-14 | 艾尔科技股份有限公司 | 自动标示音标以矫正发音的使用者接口、***及方法 |
US20040166480A1 (en) * | 2003-02-14 | 2004-08-26 | Sayling Wen | Language learning system and method with a visualized pronunciation suggestion |
KR20100078374A (ko) * | 2008-12-30 | 2010-07-08 | 주식회사 케이티 | 소셜 러닝 및 시맨틱 기술을 응용한 발음 교정 서비스 장치 |
JP2012194387A (ja) * | 2011-03-16 | 2012-10-11 | Yamaha Corp | 抑揚判定装置 |
JP2013088552A (ja) * | 2011-10-17 | 2013-05-13 | Hitachi Solutions Ltd | 発音トレーニング装置 |
JP2014035436A (ja) * | 2012-08-08 | 2014-02-24 | Jvc Kenwood Corp | 音声処理装置 |
JP5756555B1 (ja) * | 2014-11-07 | 2015-07-29 | パナソニック株式会社 | 発話評価装置、発話評価方法及びプログラム |
CN104464751A (zh) * | 2014-11-21 | 2015-03-25 | 科大讯飞股份有限公司 | 发音韵律问题的检测方法及装置 |
CN107203539A (zh) * | 2016-03-17 | 2017-09-26 | 曾雅梅 | 复数字词学习机的语音评测装置及其评测与连续语音图像化方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114258847A (zh) * | 2021-12-17 | 2022-04-01 | 山东浪潮工业互联网产业股份有限公司 | 一种花卉无土栽培管控方法、装置及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Eskenazi | An overview of spoken language technology for education | |
US7433819B2 (en) | Assessing fluency based on elapsed time | |
US7299188B2 (en) | Method and apparatus for providing an interactive language tutor | |
US20070055514A1 (en) | Intelligent tutoring feedback | |
JP2001159865A (ja) | 対話型語学指導のための方法および装置 | |
Hincks | Technology and learning pronunciation | |
Tsubota et al. | Practical use of English pronunciation system for Japanese students in the CALL classroom | |
WO2021074721A2 (en) | System for automatic assessment of fluency in spoken language and a method thereof | |
Trouvain et al. | The IFCASL corpus of French and German non-native and native read speech | |
Dhillon et al. | Does mother tongue affect the English pronunciation | |
Demenko et al. | The use of speech technology in foreign language pronunciation training | |
Peabody et al. | Towards automatic tone correction in non-native mandarin | |
Kabashima et al. | Dnn-based scoring of language learners’ proficiency using learners’ shadowings and native listeners’ responsive shadowings | |
KR101599030B1 (ko) | 음성분석기술을 이용한 시각적 영어 발음 교정시스템 및 교정법 | |
CN111508523A (zh) | 一种语音训练提示方法及*** | |
JP2007148170A (ja) | 外国語学習支援システム | |
CN111508522A (zh) | 一种语句分析处理方法及*** | |
Kantor et al. | Reading companion: The technical and social design of an automated reading tutor | |
Utami et al. | Improving students’ English pronunciation competence by using shadowing technique | |
US8768697B2 (en) | Method for measuring speech characteristics | |
Díez et al. | Non-native speech corpora for the development of computer assisted pronunciation training systems | |
JP3621624B2 (ja) | 外国語学習装置、外国語学習方法および媒体 | |
Demenko et al. | An audiovisual feedback system for acquiring L2 pronunciation and L2 prosody. | |
Tsubota et al. | Practical use of autonomous English pronunciation learning system for Japanese students | |
CN114783412B (zh) | 一种西班牙语口语发音训练纠正方法及*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200807 |