CN105608960A - 一种基于多参量分析的口语形成性教学方法及*** - Google Patents
一种基于多参量分析的口语形成性教学方法及*** Download PDFInfo
- Publication number
- CN105608960A CN105608960A CN201610057339.4A CN201610057339A CN105608960A CN 105608960 A CN105608960 A CN 105608960A CN 201610057339 A CN201610057339 A CN 201610057339A CN 105608960 A CN105608960 A CN 105608960A
- Authority
- CN
- China
- Prior art keywords
- pronunciation
- voice
- evaluation
- accuracy
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000011527 multiparameter analysis Methods 0.000 title abstract description 4
- 238000011156 evaluation Methods 0.000 claims abstract description 80
- 238000012360 testing method Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 9
- 238000000491 multivariate analysis Methods 0.000 claims description 32
- 230000033764 rhythmic process Effects 0.000 claims description 21
- 230000008451 emotion Effects 0.000 claims description 18
- 230000011218 segmentation Effects 0.000 claims description 11
- 239000000284 extract Substances 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 5
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000003203 everyday effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000010276 construction Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000002354 daily effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/01—Assessment or evaluation of speech recognition systems
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明公开了一种基于多参量分析的口语形成性教学方法及***,所述方法,包括:获取口语测试语音,对所述口语测试语音进行预处理;从预处理后的口语测试语音中提取特征参数;对所述特征参数进行多参量评价,得到多参量评价结果;对所述多参量评价结果进行分级处理,获得综合发音指导;根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息。本发明实施例的基于多参量分析的口语形成性教学方法和***,通过多参量对口语进行测试,并对测试结果进行处理,能够满足学生学习及教师教学的需求。
Description
技术领域
本发明涉及语音识别和评价技术领域,尤其涉及一种基于多参量分析的口语形成性教学方法和***。
背景技术
计算机辅助教学***的研究是当前的热点问题,由国家***制订的《大学英语课程教学要求》指出“新的教学模式应以现代信息技术,特别是网络技术为支撑,在充分利用现代信息技术的同时,要合理继承传统教学模式中的优秀部分,发挥传统课堂教学的优势。应有相应的面授辅导课时,以保证学习的效果。”形成性评估(formativeassessment)又称过程性评价,是在教学过程中即时、动态、多次对学生实施的评价,它注重及时反馈,用以强化和改进学生的学习。
目前的教学评估***并没有很好地运用形成性评估“通过一定的教学手段获知学生的学***的变化趋势。
发明内容
本发明实施例的目的在于提供一种基于多参量分析的口语形成性教学方法和***,通过多参量对口语进行测试,并对测试结果进行处理,能够满足学生学习及教师教学的需求。
为了实现上述目的,一方面,本发明实施例提供了一种基于多参量分析的口语形成性教学方法,包括:
获取口语测试语音,对所述口语测试语音进行预处理;
从预处理后的口语测试语音中提取特征参数;
对所述特征参数进行多参量评价,得到多参量评价结果;
对所述多参量评价结果进行分级处理,获得综合发音指导;
根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息。
进一步的,所述预处理包括预加重、分帧、加窗和端点检测。
进一步的,所述从预处理后的口语测试语音中提取特征参数包括:
对预处理后的口语测试语音进行单词切分,将所述口语测试语音切分为语音段;提取所述语音段的语音关键词。
进一步的,所述多参量评价的参数包括发音准确度、情感、重音、语速、节奏和语调;
所述对所述特征参数进行多参量评价,得到多参量评价结果包括:
根据对所述语音关键词发音识别的正确率,获得所述语音关键词的发音准确度评价;
根据对所述语音关键词发音情感的正确率,获得所述语音关键词的发音情感准确度评价;
根据对所述语音关键词发音重音的正确率,获得所述语音关键词的发音重音准确度评价;
根据对所述语音关键词发音的速度,获得所述语音关键词的发音语速评价;
根据对所述语音关键词发音的节奏,获得所述语音关键词的发音节奏评价;
根据对所述语音关键词发音语调的正确率,获得所述语音关键词的发音语调准确度评价。
进一步的,所述对所述多参量评价结果进行分级处理,获得综合发音指导包括:
根据发音准确度、情感、重音、语速、节奏和语调的评价结果形成个人学习信息、班级学习信息和语段学习信息。
进一步的,所述综合发音指导包括个人口语成绩,班级成绩分布信息,语段成绩;
所述根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息,包括:
根据所述个人口语成绩及第一预设规则形成个人总评分信息和基于所述多参量的个人平均分信息;
根据所述班级成绩分布信息及第二预设规则形成班级总评分信息、班级学生的总评分和/或基于所述多参量的班级平均分信息;
根据所述语段成绩及第三预设规则形成语段平均分信息。
为了实现所述目的,另一方面,本发明实施例提供了一种基于多参量分析的口语形成性教学***,包括语音采集单元、语音预处理单元、语音特征提取单元、多参量分析单元、综合评价单元,评价信息形成单元和标准模型库;
所述语音采集单元,用于获取口语测试语音;
所述语音预处理单元,用于对所述口语测试语音进行预处理;
所述语音特征提取单元,用于从预处理后的口语测试语音中提取特征参数;
所述多参量分析单元,用于对所述特征参数进行多参量评价,得到多参量评价结果;
所述综合评价单元,用于对所述多参量评价结果进行分级处理,获得综合发音指导;
所述评价信息形成单元,用于根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息;
所述标准模型库,用于存储标准语音语句和所述标准语音语句的语音特征参数。
进一步的,所述语音特征提取单元包括:
单词切分单元,用于对预处理后的口语测试语音进行单词切分,将所述口语测试语音切分为语音段;
关键词提取单元,用于提取所述语音段的语音关键词;
进一步的,所述多参数评价单元包括:
发音准确度评价单元,用于根据对所述语音关键词发音识别的正确率,获得所述语音关键词的发音准确度评价;
情感准确度评价单元,用于根据对所述语音关键词发音情感的正确率,获得所述语音关键词的发音情感准确度评价;
重音准确度评价单元,用于根据对所述语音关键词发音重音的正确率,获得所述语音关键词的发音重音准确度评价;
语速准确度评价单元,用于根据对所述语音关键词发音的速度,获得所述语音关键词的发音语速评价;
节奏准确度评价单元,用于根据对所述语音关键词发音的节奏,获得所述语音关键词的发音节奏评价;
语调准确度评价单元,用于根据对所述语音关键词发音语调的正确率,获得所述语音关键词的发音语调准确度评价。
进一步的,所述评价信息形成单元包括:
个人评价信息形成单元,用于根据所述个人口语成绩及第一预设规则形成个人总评分信息和基于所述多参量的个人平均分信息;
班级评价信息形成单元,用于根据所述班级成绩分布信息及第二预设规则形成班级总评分信息、班级学生的总评分和/或基于所述多参量的班级平均分信息;
语段评价信息形成单元,用于根据所述语段成绩及第三预设规则形成语段平均分信息。
本发明实施例提供的基于多参量分析的口语形成性教学方法和***,本发明实施例提供的基于多参量分析的口语形成性教学方法,通过提取口语测试语音的特征参数,并根据所述特征参数,利用预先建立的隐马尔可夫模型进行语音关键词识别,根据语音关键词获得多参量评价结果,通过对多参量评价结果进行处理获得综合发音指导,将综合发音指导以图表的形式直观地展示给教师和学生,从而为教师日常口语教学提供在线形成性评价工具,为学生的日常口语学习提供在线形成性指导。相较于现有技术,本发明一方面口语发音进行多参量客观评价,将成绩及时反馈给学生,充分发挥了学生的主观能动性;另一方面深入学生个体、语段个体、班级个体对学习状况进行分析,为教师教学提供形成性评估依据。
附图说明
图1是本发明提供的基于多参量分析的口语形成性教学方法的一个实施例的方法流程图;
图2是本发明提供的个人总评分信息图;
图3是本发明提供的个人平均分信息图;
图4是本发明提供的班级总评分信息和基于所述多参量的班级平均分信息图;
图5是本发明提供的班级学生的总评分分布图;
图6是本发明提供的语段平均分信息图;
图7是本发明提供的基于多参量分析的口语形成性教学***的一个实施例的***结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。实施例中各个步骤前的标号仅为了对各个步骤进行更清楚地标识,各个步骤之间没有必然的先后顺序的限定。本发明实施例中,虽仅以英语语音的评测为例,但本领域技术人员应当理解,本发明也可应用到其他语言的语音处理中。
参见图1,是本发明提供的基于多参量分析的口语形成性教学方法的一个实施例的方法流程图。
如图1所示,所述基于多参量分析的口语形成性教学方法包括以下步骤:
S11,获取口语测试语音,对所述口语测试语音进行预处理;
其中,所述预处理包括但不限于预加重、分帧、加窗和端点检测。
S12,从预处理后的口语测试语音中提取特征参数;
本步骤具体包括:对预处理后的口语测试语音进行单词切分,将所述口语测试语音切分为语音段;提取所述语音段的特征参数,根据所述特征参数提取所述语音段的语音关键词。
在具体实施当中,优选采用双门限法对预处理后的所述口语测试语音进行单词切分,根据短时平均能量和短时平均过零率是否达到预设的阈值,将所述口语测试语音切分成为多个语音段。所述特征参数包括但不限于MFCC(Mel-FrequencyCepstralCoefficients,Mel倒谱系数)特征参数。
根据所述特征参数,利用预先建立的隐马尔可夫(HMM)模型对语音段进行关键词语音识别,提取出所述口语测试语音中使用的关键词,获得口语关键词。可根据标准语音语句的答题关键词和所述答题关键词的同义词预先建立隐马尔可夫模型,并存储于标准模型库中,以在需要进行关键词语音识别时进行调用。在关键词语音识别中,可根据口语测试语音的Mel倒谱系数,预先建立的隐马尔可夫模型进行模型匹配,以识别出所述获得口语测试语音中所使用的关键词。
S13,对所述特征参数进行多参量评价,得到多参量评价结果;
其中,所述多参量评价参数包括发音准确度、情感、重音、语速、节奏和语调;
所述对所述特征参数进行多参量评价,得到多参量评价结果,具体包括:
根据对所述语音关键词发音识别的正确率,获得所述语音关键词的发音准确度评价;
根据对所述语音关键词发音情感的正确率,获得所述语音关键词的发音情感准确度评价;
根据对所述语音关键词发音重音的正确率,获得所述语音关键词的发音重音准确度评价;
根据对所述语音关键词发音的速度,获得所述语音关键词的发音语速评价;
根据对所述语音关键词发音的节奏,获得所述语音关键词的发音节奏评价;
根据对所述语音关键词发音语调的正确率,获得所述语音关键词的发音语调准确度评价。
S14,对所述多参量评价结果进行分级处理,获得综合发音指导;
本步骤具体包括:
根据发音准确度评价、发音情感准确度评价、发音重音准确度评价、发音语速评价、发音节奏评价和发音语调准确度评价形成个人口语成绩,班级成绩分布信息,语段成绩。
S15,根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息。
该步骤具体包括:
S151、根据所述个人口语成绩及第一预设规则形成个人总评分信息和基于所述多参量的个人平均分信息;
其中,个人口语成绩来源于安卓手机客户端上的学***均分信息的第一预设规则为根据离散数据形成雷达图的规则。对应的,个人总评分信息以如图2所示的饼状图的形式体现;基于所述多参量的个人平均分信息以如图3所示的雷达图的形式体现。方便学生及时掌握自己口语学习的情况,充分发挥了学生的主观能动性。
S152、根据所述班级成绩分布信息及第二预设规则形成班级总评分信息、班级学生的总评分和/或基于所述多参量的班级平均分信息;
其中,服务器在每次完成口语语音测试后保存每次的班级成绩分布信息。所述第二预设规则可以是根据离散数据形成线形图的规则,也可以是根据离散数据形成饼状图的规则。对应的,班级总评分信息和基于所述多参量的班级平均分信息以如图4所示的线性图的形式体现。班级学生的总评分按照教师所教的不同班级将班级学生的总评分以如图5所示的饼状图的形式体现。方便教师针对不同班级的情况进行教学计划的修改。
S153、根据所述语段成绩及第三预设规则形成语段平均分信息。
其中,服务器在每次完成口语语音测试后保存每次的语段信息。所述第三预设规则是根据离散数据形成柱状图的规则。对应的,语段平均分信息以如图6所示的柱状图的形式体现,方便教师按照学生针对句子的不同掌握情况进行有针对性的辅导。
通过步骤S15将综合发音指导以图表的形式直观地展示给教师和学生,从而为教师日常口语教学提供在线形成性评价工具,为学生的日常口语学习提供在线形成性指导。
本发明实施例提供的基于多参量分析的口语形成性教学方法,通过提取口语测试语音的特征参数,并根据所述特征参数,利用预先建立的隐马尔可夫模型进行语音关键词识别,根据语音关键词获得多参量评价结果,通过对多参量评价结果进行处理获得综合发音指导,将综合发音指导以图表的形式直观地展示给教师和学生,从而为教师日常口语教学提供在线形成性评价工具,为学生的日常口语学习提供在线形成性指导。相较于现有技术,本发明一方面口语发音进行多参量客观评价,将成绩及时反馈给学生,充分发挥了学生的主观能动性;另一方面深入学生个体、语段个体、班级个体对学习状况进行分析,为教师教学提供形成性评估依据。
参见图7,是本发明提供的基于多参量分析的口语形成性教学***的一个实施例的***结构图。所述基于多参量分析的口语形成性教学***的实质内容与图1所示实施例的基于多参量分析的口语形成性教学方法对应,本实施例中未详述之处可参见图1所示实施例中的相关描述。
如图7所示,所述基于多参量分析的口语评测***包括语音采集单元21、语音预处理单元22、语音特征提取单元23、多参量分析单元24、综合评价单元25、评价信息形成单元26和标准模型库27。
语音采集单元21安装于如手机等的客户端供口语学习者使用,语音预处理单元22、语音特征提取单元23、多参量分析单元24、综合评价单元25、评价信息形成单元26和标准模型库27安装于服务器中,通过在线提交方式让服务器对口语学习者的发音进行评测并处理,口语教学者可通过该***查看测试者个人成绩、班级整体成绩和语段成绩等多种可视化的统计图表,将统计数据作为形成性评价依据,对学生进行有针对性的辅导。
其中,所述语音采集单元21,用于获取口语测试语音;
所述语音预处理单元22,用于对所述口语测试语音进行预处理;
所述语音特征提取单元23,用于从预处理后的口语测试语音中提取特征参数;
所述多参量分析单元24,用于对所述特征参数进行多参量评价,得到多参量评价结果;
所述综合评价单元25,用于对所述多参量评价结果进行分级处理,获得综合发音指导;
所述评价信息形成单元26,用于根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息;
所述标准模型库27,用于存储标准语音语句和所述标准语音语句的语音特征参数。
进一步地,所述语音特征提取单元23包括:
单词切分单元,用于对预处理后的口语测试语音进行单词切分,将所述口语测试语音切分为语音段;
关键词提取单元,用于提取所述语音段的语音关键词;
进一步的,所述多参数分析单元24包括:
发音准确度评价单元,用于根据对所述语音关键词发音识别的正确率,获得所述语音关键词的发音准确度评价;
情感准确度评价单元,用于根据对所述语音关键词发音情感的正确率,获得所述语音关键词的发音情感准确度评价;
重音准确度评价单元,用于根据对所述语音关键词发音重音的正确率,获得所述语音关键词的发音重音准确度评价;
语速准确度评价单元,用于根据对所述语音关键词发音的速度,获得所述语音关键词的发音语速评价;
节奏准确度评价单元,用于根据对所述语音关键词发音的节奏,获得所述语音关键词的发音节奏评价;
语调准确度评价单元,用于根据对所述语音关键词发音语调的正确率,获得所述语音关键词的发音语调准确度评价。
进一步的,所述评价信息形成单元26包括:
个人评价信息形成单元,用于根据所述个人口语成绩及第一预设规则形成个人总评分信息和基于所述多参量的个人平均分信息;
班级评价信息形成单元,用于根据所述班级成绩分布信息及第二预设规则形成班级总评分信息、班级学生的总评分和/或基于所述多参量的班级平均分信息;
语段评价信息形成单元,用于根据所述语段成绩及第三预设规则形成语段平均分信息。
综上所述,本发明实施例提供的基于多参量分析的口语形成性教学方法及***,通过提取口语测试语音的特征参数,并根据所述特征参数,利用预先建立的隐马尔可夫模型进行语音关键词识别,根据语音关键词获得多参量评价结果,通过对多参量评价结果进行处理获得综合发音指导,将综合发音指导以图表的形式直观地展示给教师和学生,从而为教师日常口语教学提供在线形成性评价工具,为学生的日常口语学习提供在线形成性指导。相较于现有技术,本发明一方面口语发音进行多参量客观评价,将成绩及时反馈给学生,充分发挥了学生的主观能动性;另一方面深入学生个体、语段个体、班级个体对学习状况进行分析,为教师教学提供形成性评估依据。
通过以上实施方式的描述,所属领域的技术人员可以清楚地了解到本发明可借助软件加必需的通用硬件的方式来实现,当然也可以通过专用硬件包括专用集成电路、专用CPU、专用存储器、专用元器件等来实现。本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该软件产品存储在可读取的存储介质中,如计算机的软盘,U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,RandomAccessMemory)、磁碟或者光盘等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (10)
1.一种基于多参量分析的口语形成性教学方法,其特征在于,包括:
获取口语测试语音,对所述口语测试语音进行预处理;
从预处理后的口语测试语音中提取特征参数;
对所述特征参数进行多参量评价,得到多参量评价结果;
对所述多参量评价结果进行分级处理,获得综合发音指导;
根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息。
2.如权利要求1所述的基于多参量分析的口语形成性教学方法,其特征在于,所述预处理包括预加重、分帧、加窗和端点检测。
3.如权利要求1所述的基于多参量分析的口语形成性教学方法,其特征在于,所述从预处理后的口语测试语音中提取特征参数包括:
对预处理后的口语测试语音进行单词切分,将所述口语测试语音切分为语音段;提取所述语音段的特征参数,根据所述特征参数提取所述语音段的语音关键词。
4.如权利要求3所述的基于多参量分析的口语形成性教学方法,其特征在于,
所述多参量评价的参数包括发音准确度、情感、重音、语速、节奏和语调;
所述对所述特征参数进行多参量评价,得到多参量评价结果包括:
根据对所述语音关键词发音识别的正确率,获得所述语音关键词的发音准确度评价;
根据对所述语音关键词发音情感的正确率,获得所述语音关键词的发音情感准确度评价;
根据对所述语音关键词发音重音的正确率,获得所述语音关键词的发音重音准确度评价;
根据对所述语音关键词发音的速度,获得所述语音关键词的发音语速评价;
根据对所述语音关键词发音的节奏,获得所述语音关键词的发音节奏评价;
根据对所述语音关键词发音语调的正确率,获得所述语音关键词的发音语调准确度评价。
5.如权利要求4所述的基于多参量分析的口语形成性教学方法,其特征在于,所述对所述多参量评价结果进行分级处理,获得综合发音指导包括:
根据发音准确度评价、发音情感准确度评价、发音重音准确度评价、发音语速评价、发音节奏评价和发音语调准确度评价形成个人口语成绩,班级成绩分布信息,语段成绩。
6.如权利要求5所述的基于多参量分析的口语形成性教学方法,其特征在于,
所述根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息,包括:
根据所述个人口语成绩及第一预设规则形成个人总评分信息和基于所述多参量的个人平均分信息;
根据所述班级成绩分布信息及第二预设规则形成班级总评分信息、班级学生的总评分和/或基于所述多参量的班级平均分信息;
根据所述语段成绩及第三预设规则形成语段平均分信息。
7.一种基于多参量分析的口语形成性教学***,其特征在于,包括语音采集单元、语音预处理单元、语音特征提取单元、多参量分析单元、综合评价单元,评价信息形成单元和标准模型库;
所述语音采集单元,用于获取口语测试语音;
所述语音预处理单元,用于对所述口语测试语音进行预处理;
所述语音特征提取单元,用于从预处理后的口语测试语音中提取特征参数;
所述多参量分析单元,用于对所述特征参数进行多参量评价,得到多参量评价结果;
所述综合评价单元,用于对所述多参量评价结果进行分级处理,获得综合发音指导;
所述评价信息形成单元,用于根据所述综合发音指导及预设规则形成个人学习信息、班级学习信息和语段学习信息;
所述标准模型库,用于存储标准语音语句和所述标准语音语句的语音特征参数。
8.根据权利要求7所述的基于多参量分析的口语形成性教学***,其特征在于,所述语音特征提取单元包括:
单词切分单元,用于对预处理后的口语测试语音进行单词切分,将所述口语测试语音切分为语音段;
关键词提取单元,用于提取所述语音段的语音关键词。
9.根据权利要求8所述的基于多参量分析的口语形成性教学***,其特征在于,所述多参数评价单元包括:
发音准确度评价单元,用于根据对所述语音关键词发音识别的正确率,获得所述语音关键词的发音准确度评价;
情感准确度评价单元,用于根据对所述语音关键词发音情感的正确率,获得所述语音关键词的发音情感准确度评价;
重音准确度评价单元,用于根据对所述语音关键词发音重音的正确率,获得所述语音关键词的发音重音准确度评价;
语速准确度评价单元,用于根据对所述语音关键词发音的速度,获得所述语音关键词的发音语速评价;
节奏准确度评价单元,用于根据对所述语音关键词发音的节奏,获得所述语音关键词的发音节奏评价;
语调准确度评价单元,用于根据对所述语音关键词发音语调的正确率,获得所述语音关键词的发音语调准确度评价。
10.根据权利要求8所述的基于多参量分析的口语形成性教学***,其特征在于,所述评价信息形成单元包括:
个人评价信息形成单元,用于根据所述个人口语成绩及第一预设规则形成个人总评分信息和基于所述多参量的个人平均分信息;
班级评价信息形成单元,用于根据所述班级成绩分布信息及第二预设规则形成班级总评分信息、班级学生的总评分和/或基于所述多参量的班级平均分信息;
语段评价信息形成单元,用于根据所述语段成绩及第三预设规则形成语段平均分信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610057339.4A CN105608960A (zh) | 2016-01-27 | 2016-01-27 | 一种基于多参量分析的口语形成性教学方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610057339.4A CN105608960A (zh) | 2016-01-27 | 2016-01-27 | 一种基于多参量分析的口语形成性教学方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105608960A true CN105608960A (zh) | 2016-05-25 |
Family
ID=55988862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610057339.4A Pending CN105608960A (zh) | 2016-01-27 | 2016-01-27 | 一种基于多参量分析的口语形成性教学方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105608960A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107704996A (zh) * | 2017-09-12 | 2018-02-16 | 青岛大学 | 一种基于情感分析的教师评价*** |
CN108074203A (zh) * | 2016-11-10 | 2018-05-25 | ***通信集团公司 | 一种教学调整方法和装置 |
CN108648526A (zh) * | 2018-05-15 | 2018-10-12 | 刘光荣 | 一种美式英语音标发音训练*** |
CN111915940A (zh) * | 2020-06-29 | 2020-11-10 | 厦门快商通科技股份有限公司 | 一种口语发音评测和教学方法、***、终端及存储介质 |
CN112767961A (zh) * | 2021-02-07 | 2021-05-07 | 哈尔滨琦音科技有限公司 | 一种基于云端计算的口音矫正方法 |
CN113516410A (zh) * | 2021-07-31 | 2021-10-19 | 北京翰雅科技有限公司 | 一种语言教学***及方法 |
CN113793238A (zh) * | 2021-04-26 | 2021-12-14 | 王晶 | 一种教育***及方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072860A (ja) * | 2001-09-12 | 2002-03-12 | Yasuhiko Nagasaka | 多言語学習支援サーバ装置、端末装置およびこれらの装置を用いた多言語学習支援システムならびに多言語学習支援プログラム |
US20040214145A1 (en) * | 2003-04-23 | 2004-10-28 | Say-Ling Wen | Sentence-conversation teaching system with environment and role selections and method of the same |
CN103617799A (zh) * | 2013-11-28 | 2014-03-05 | 广东外语外贸大学 | 一种适应于移动设备的英语语句发音质量检测方法 |
CN103928023A (zh) * | 2014-04-29 | 2014-07-16 | 广东外语外贸大学 | 一种语音评分方法及*** |
CN104050965A (zh) * | 2013-09-02 | 2014-09-17 | 广东外语外贸大学 | 具有情感识别功能的英语语音发音质量评价***及方法 |
CN104732977A (zh) * | 2015-03-09 | 2015-06-24 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和*** |
CN104810017A (zh) * | 2015-04-08 | 2015-07-29 | 广东外语外贸大学 | 基于语义分析的口语评测方法和*** |
-
2016
- 2016-01-27 CN CN201610057339.4A patent/CN105608960A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002072860A (ja) * | 2001-09-12 | 2002-03-12 | Yasuhiko Nagasaka | 多言語学習支援サーバ装置、端末装置およびこれらの装置を用いた多言語学習支援システムならびに多言語学習支援プログラム |
US20040214145A1 (en) * | 2003-04-23 | 2004-10-28 | Say-Ling Wen | Sentence-conversation teaching system with environment and role selections and method of the same |
CN104050965A (zh) * | 2013-09-02 | 2014-09-17 | 广东外语外贸大学 | 具有情感识别功能的英语语音发音质量评价***及方法 |
CN103617799A (zh) * | 2013-11-28 | 2014-03-05 | 广东外语外贸大学 | 一种适应于移动设备的英语语句发音质量检测方法 |
CN103928023A (zh) * | 2014-04-29 | 2014-07-16 | 广东外语外贸大学 | 一种语音评分方法及*** |
CN104732977A (zh) * | 2015-03-09 | 2015-06-24 | 广东外语外贸大学 | 一种在线口语发音质量评价方法和*** |
CN104810017A (zh) * | 2015-04-08 | 2015-07-29 | 广东外语外贸大学 | 基于语义分析的口语评测方法和*** |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108074203A (zh) * | 2016-11-10 | 2018-05-25 | ***通信集团公司 | 一种教学调整方法和装置 |
CN107704996A (zh) * | 2017-09-12 | 2018-02-16 | 青岛大学 | 一种基于情感分析的教师评价*** |
CN107704996B (zh) * | 2017-09-12 | 2021-07-02 | 青岛大学 | 一种基于情感分析的教师评价*** |
CN108648526A (zh) * | 2018-05-15 | 2018-10-12 | 刘光荣 | 一种美式英语音标发音训练*** |
CN111915940A (zh) * | 2020-06-29 | 2020-11-10 | 厦门快商通科技股份有限公司 | 一种口语发音评测和教学方法、***、终端及存储介质 |
CN112767961A (zh) * | 2021-02-07 | 2021-05-07 | 哈尔滨琦音科技有限公司 | 一种基于云端计算的口音矫正方法 |
CN112767961B (zh) * | 2021-02-07 | 2022-06-03 | 哈尔滨琦音科技有限公司 | 一种基于云端计算的口音矫正方法 |
CN113793238A (zh) * | 2021-04-26 | 2021-12-14 | 王晶 | 一种教育***及方法 |
CN113516410A (zh) * | 2021-07-31 | 2021-10-19 | 北京翰雅科技有限公司 | 一种语言教学***及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105608960A (zh) | 一种基于多参量分析的口语形成性教学方法及*** | |
CN104732977B (zh) | 一种在线口语发音质量评价方法和*** | |
Kang | Impact of rater characteristics and prosodic features of speaker accentedness on ratings of international teaching assistants' oral performance | |
KR100733469B1 (ko) | 외국어 발음 평가 시스템 및 외국어 발음 평가 방법 | |
US9262941B2 (en) | Systems and methods for assessment of non-native speech using vowel space characteristics | |
US9489864B2 (en) | Systems and methods for an automated pronunciation assessment system for similar vowel pairs | |
Cheng | Automatic assessment of prosody in high-stakes English tests. | |
Bolanos et al. | Automatic assessment of expressive oral reading | |
Ahsiah et al. | Tajweed checking system to support recitation | |
Kang et al. | Acoustic and temporal analysis for assessing speaking | |
Ghanem et al. | Pronunciation features in rating criteria | |
CN102723077A (zh) | 汉语教学语音合成方法及装置 | |
Sztahó et al. | A computer-assisted prosody pronunciation teaching system. | |
Tao et al. | DNN Online with iVectors Acoustic Modeling and Doc2Vec Distributed Representations for Improving Automated Speech Scoring. | |
Loukina et al. | Automated assessment of pronunciation in spontaneous speech | |
Sakamoto | Investigation of factors behind foreign accent in the L2 acquisition of Japanese lexical pitch accent by adult English speakers | |
Zechner et al. | Automatic scoring of children’s read-aloud text passages and word lists | |
Kim et al. | Automatic assessment of American English lexical stress using machine learning algorithms | |
Yamashita et al. | Automatic scoring for prosodic proficiency of English sentences spoken by Japanese based on utterance comparison | |
Lan | Perception of English Fricatives and Affricates by Advanced Chinese Learners of English. | |
CN103021226B (zh) | 一种基于发音节奏的语音评测方法及装置 | |
Greenberg | Deep Language Learning | |
Hussein et al. | Mandarin tone perception and production by German learners. | |
Septiyani et al. | The Influence of English Song and Joox Application toward Students’ Pronunciation (A True Experimental Study at the Eighth Grade of SMPN 6 Kota Serang) | |
Li et al. | English sentence pronunciation evaluation using rhythm and intonation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160525 |