CN111028853A - 一种口语表达力评估方法及*** - Google Patents
一种口语表达力评估方法及*** Download PDFInfo
- Publication number
- CN111028853A CN111028853A CN201911164553.XA CN201911164553A CN111028853A CN 111028853 A CN111028853 A CN 111028853A CN 201911164553 A CN201911164553 A CN 201911164553A CN 111028853 A CN111028853 A CN 111028853A
- Authority
- CN
- China
- Prior art keywords
- spoken language
- index
- testee
- language expression
- sentence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims description 12
- 238000000034 method Methods 0.000 claims abstract description 57
- 239000000126 substance Substances 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000012549 training Methods 0.000 abstract description 8
- 238000012854 evaluation process Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本发明实施例提供一种口语表达力评估方法及***。方法包括:根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力。本发明实施例提供的方法及***,通过被测试者的原始语音数据,获取被测试者的口语表达指标集合,进而根据被测试者的口语表达指标集合,评估被测试者的口语表达力。相比于传统方法,本发明实施例提供的方法能够更客观、更直接、更实时、更科学地反映出被测试者的口语表达力,评估过程无需消耗大量人力,简便易行、对实施者的专业要求完全控制在现有教学与培训机构可操作的范围内。
Description
技术领域
本发明涉及智能教学技术领域,尤其涉及一种口语表达力评估方法及***。
背景技术
表达是将思维所得的成果用语言、语音、语调、表情、行为等方式反映出来的一种行为。语言分为口语与书面语两大类,表达力也可分为口语表达力和书面表达力。
传统方法在评估口语表达力时采用教师或考官现场面试的方法,评估个体口语表达力耗时较长、人力消耗大,更对群体交流沟通时的口语表达力评估无从下手。另外,教师或考官通过主观感觉来判断被测试者口语表达力,评估结果不够客观。
发明内容
针对现有技术存在的问题,本发明实施例提供一种口语表达力评估方法及***。
第一方面,本发明实施例提供一种口语表达力评估方法,包括:
根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;
根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力;其中,
所述口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,
所述语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
进一步地,该方法还包括:
根据所述被测试者的口语表达指标集合,向所述被测试者提供相应的解决方案,以提高所述被测试者的口语表达力。
进一步地,该方法还包括:
获取所有相关联的被测试者的口语表达指标集合;
根据所述所有相关联的被测试者的口语表达指标集合,获取所述所有相关联的被测试者所组成的群体的口语表达力。
进一步地,该方法还包括:
根据所述所有相关联的被测试者的口语表达指标集合,向所述所有相关联的被测试者所组成的群体对应的教师提供相应的解决方案,以提高所述群体的口语表达力。
进一步地,根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合,包括:
对采集到的所述被测试者的原始语音数据进行模数转换,得到所述被测试者的数字化语音数据;
对所述被测试者的数字化语音数据进行滤波降噪;
对所述被测试者的滤波降噪后的数字化语音数据进行特征识别,得到所述被测试者的语音特征值;
根据所述被测试者的语音特征值,得到所述被测试者的口语表达指标集合。
进一步地,该方法还包括:
将所述被测试者的口语表达指标集合和口语表达力进行展示。
进一步地,该方法还包括:
将所述所有相关联的被测试者的口语表达指标集合,以及所述所有相关联的被测试者所组成的群体的口语表达力进行展示。
第二方面,本发明实施例提供一种口语表达力评估***,包括:
口语表达指标集合获取模块,用于根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;
口语表达力评估模块,用于根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力;其中,
所述口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,
所述语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
第三方面,本发明实施例提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如第一方面所提供的方法的步骤。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面所提供的方法的步骤。
本发明实施例提供的一种口语表达力评估方法及***,通过被测试者的原始语音数据,获取被测试者的口语表达指标集合,进而根据被测试者的口语表达指标集合,评估被测试者的口语表达力。相比于传统方法,本发明实施例提供的方法能够更客观、更直接、更实时、更科学地反映出被测试者的口语表达力,评估过程无需消耗大量人力,简便易行、对实施者的专业要求完全控制在现有教学与培训机构可操作的范围内。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种口语表达力评估方法流程图;
图2为本发明实施例提供的一种口语表达力评估***的结构示意图;
图3为本发明实施例提供的一种电子设备的实体结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1为本发明实施例提供的一种口语表达力评估方法流程图,如图1所述,该方法包括:
步骤101,根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;
步骤102,根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力;其中,
所述口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,
所述语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
为了更清楚地说明本发明实施例提供的方法,将该方法应用于智慧教室中进行说明,需要说明的是,本发明实施例中的智慧教室指的是具备一些智能化教学设备的教室,教师可以通过智慧教室进行智能化教学,学员可以通过智慧教室进行更好地学习。
上述的智能化教学设备至少包括多个能够实时测量和反馈人际沟通效率的装置和一个服务器。
在智慧教室中,每个学员(也即被测试者)均佩戴一个该装置,在实际的学习环境或社交沟通环境中,通过该装置可以获取佩戴该装置的被测试者的原始语音数据,需要说明的是,原始语音数据是模拟语音数据。
该装置获取到原始语音数据后,首先将其进行模数转换,转换为数字化的语音数据(也即数字化语音数据);然后将数字化语音数据通过wifi发送到服务器。
服务器接收到被测试者的数字化语音数据后,首先通过其中的人际沟通效率分析软件,得到被测试者语音随时间变化的波形;然后将该波形进行滤波降噪;随后通过特征识别技术,将滤波降噪后的波形进行转换,得到被测试者的语音特征值,即,被测试者语音随时间变化的数据。
服务器得到被测试者语音随时间变化的数据后,以该数据为基础,可计算得到被测试者在实际的学习环境或社交沟通环境中的一些反映其口语表达力的指标集合(即口语表达指标集合)。
以下对口语表达指标集合进行介绍:
口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
影响力指标:这项指标能反映受测试者改变他人行为状态的能力;
中心度指标:这项指标能反映受测试者与同伴联系的紧密程度;
同伴关注度指标:这项指标能反映受测试者吸引同伴关注自己、回应自己的能力;
活跃度指标:这项指标能反映受测试者在集体活动中的整体兴奋程度;
教师关注度指标:这项指标能反映受测试者对对教学活动的配合程度;
教学配合度指标:这项指标能反映受测试者吸引老师关注的程度。
通过被测试者的口语表达指标集合,评估被测试者的口语表达力。可以理解的是,由于口语表达力可以反映被测试者的思维所得成果,因此,通过被测试者的口语表达力,可以反映其对教学内容的吸收掌握程度等。
本发明实施例提供的方法,通过被测试者的原始语音数据,获取被测试者的口语表达指标集合,进而根据被测试者的口语表达指标集合,评估被测试者的口语表达力。相比于传统方法,本发明实施例提供的方法能够更客观、更直接、更实时、更科学地反映出被测试者的口语表达力,评估过程无需消耗大量人力,简便易行、对实施者的专业要求完全控制在现有教学与培训机构可操作的范围内。
基于上述任一实施例,本发明实施例提供的方法还包括:
根据所述被测试者的口语表达指标集合,向所述被测试者提供相应的解决方案,以提高所述被测试者的口语表达力。
具体地,服务器根据被测试者的口语表达指标集合,可得到被测试者的口语表达力等沟通特质,并根据被测试者的口语表达力等沟通特质,给被测试者提供一套个性化解决方案,推送给被测试者。其中,解决方案可以为提升被测试者某些个维度(影响力、中心度、同伴关注度、活跃度、教师关注度和教学配合度中的一个或多个)需要采取的措施;解决方案还可以为根据被测试者的特点匹配到的合适的线上课程,服务器可以将该线上课程显示在被测试者的账户中;解决方案还可以为根据被测试者的特点匹配到的合适的线下课程,服务器可以将该线下课程的讲座信息、课程信息、提供课程的教育机构,不定期发送到被测试者的账户中。
需要说明的是,被测试者还可通过使用浏览器访问服务器,并可根据权限获得服务器中与其自身相关的数据(口语表达指标集合、口语表达力和解决方案中的一个或多个)。
本发明实施例提供的方法,根据被测试者的口语表达指标集合,针对性地向被测试者推送相应的解决方案,以提高被测试者的口语表达力。本发明实施例提供的方法,推送过程无需消耗大量人力,简便易行、对实施者的专业要求完全控制在现有教学与培训机构可操作的范围;同时,孩子、家长足不出户就可以获得建议、开展训练,节省家庭的时间、精力投入;并且,基于精确评估得到的解决方案,可以为没有专业知识的家长指明方向,例如该补充什么知识、该报哪个培训班,省下了学习、摸索、试错的时间和精力。
基于上述任一实施例,本发明实施例提供的方法还包括:
获取所有相关联的被测试者的口语表达指标集合;
根据所述所有相关联的被测试者的口语表达指标集合,获取所述所有相关联的被测试者所组成的群体的口语表达力。
具体地,本发明实施例中的智慧教室中存在多个被测试者,每个被测试者均佩戴有一个能够实时测量和反馈人际沟通效率的装置,此时,每个该装置均将自身采集到的佩戴该装置的被测试者的原始语音数据进行模数转换后通过wifi发送至服务器。
此时,服务器能够同时接收到多个上述装置发送的数字化语音数据。
服务器接收到多个被测试者的数字化语音数据后,汇总并开展分析。首先,服务器中的人际沟通效率分析软件获取每个被测试者的语音随时间变化的波形,并进行滤波降噪;然后,服务器通过特征识别技术将滤波降噪后的波形进行转换,得到每个被测试者的语音特征值,即,每个被测试者语音随时间变化的数据。
服务器得到每个被测试者语音随时间变化的数据后,以该数据为基础,可计算得到每个被测试者在实际的学习环境或社交沟通环境中的一些反映其口语表达力的指标集合(即口语表达指标集合)。上述实施例中已对口语表达指标集合进行了详细说明,此处不再赘述。
通过所有相关联的被测试者的口语表达指标集合,获取所有相关联的被测试者所组成的群体的口语表达力。具体来说,服务器中的软件对所有被测试者的上述指标进行综合分析,并结合应用经验,将每位被测试者的数据综合起来,形成反映全班整体课堂状态的数据,即,群体的口语表达力。
可以理解的是,由于口语表达力可以反映群体的思维所得成果,因此,通过群体的口语表达力,可以反映群体对教学内容的吸收掌握程度等,进而使得教师更好地掌握班级学员的学习情况,及时准确的把握课堂状态,为教师的教学提供帮助。
基于上述任一实施例,本发明实施例提供的方法还包括:
根据所述所有相关联的被测试者的口语表达指标集合,向所述所有相关联的被测试者所组成的群体对应的教师提供相应的解决方案,以提高所述群体的口语表达力。
需要说明的是,在教师工作站,教师可通过使用浏览器访问服务器,根据权限获得数据服务器中的相关数据,并可根据教师经验做判断,修正相关数据和添加智能推送解决方案。
基于上述任一实施例,根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合,包括:
对采集到的所述被测试者的原始语音数据进行模数转换,得到所述被测试者的数字化语音数据;
对所述被测试者的数字化语音数据进行滤波降噪;
对所述被测试者的滤波降噪后的数字化语音数据进行特征识别,得到所述被测试者的语音特征值;
根据所述被测试者的语音特征值,得到所述被测试者的口语表达指标集合。
基于上述任一实施例,本发明实施例提供的方法还包括:
将所述被测试者的口语表达指标集合和口语表达力进行展示。需要说明的是,可将上述内容展示于教师机上或被测试者所持的学习终端上。
基于上述任一实施例,本发明实施例提供的方法还包括:
将所述所有相关联的被测试者的口语表达指标集合,以及所述所有相关联的被测试者所组成的群体的口语表达力进行展示。需要说明的是,可将上述内容展示于教师机上或被测试者所持的学习终端上。
基于上述任一实施例,图2为本发明实施例提供的一种口语表达力评估***的结构示意图,如图2所示,该***包括:
口语表达指标集合获取模块201,用于根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;口语表达力评估模块202,用于根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力;其中,所述口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,所述语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
具体地,本发明实施例提供的***具体用于执行上述方法实施例,本发明实施例对此不再进行赘述。本发明实施例提供的***,通过被测试者的原始语音数据,获取被测试者的口语表达指标集合,进而根据被测试者的口语表达指标集合,评估被测试者的口语表达力。相比于传统方法,本发明实施例提供的方法能够更客观、更直接、更实时、更科学地反映出被测试者的口语表达力,评估过程无需消耗大量人力,简便易行、对实施者的专业要求完全控制在现有教学与培训机构可操作的范围内。
综上所述,本发明实施例提供的方法及***,通过实时测量和反馈人际沟通效率的装置获得被测试者的语音数据,及时计算出被测试者的语句相关指标和影响力、中心度、同伴关注度、活跃度、教师关注度、教学配合度。任课教师能从***获得群体结果、从而及时准确的把握课堂状态。同目前仅靠问卷调查对口语表达力进行评估的方法相比,本发明实施例所提供的方法及***能够更客观、更直接、更实时地反映出个人或群体语句相关指标和的影响力、中心度、同伴关注度、活跃度、教师关注度、教学配合度。课后汇总系列课程数据,可以方便的对不同群组学员的表现做出对比,或者对不同课程的效果做比较,所得结果用于指导教学。
另外,解决方案推送算法可根据个体情况的不同、推荐量身定制的训练方案。孩子、家长足不出户就可以获得建议、开展训练,节省家庭的时间、精力投入。基于精确测评的指导方案,可以为没有专业知识的家长指明方向:该补充什么知识、该报哪个培训班。省下了学习、摸索、试错的时间和精力。
图3为本发明实施例提供的一种电子设备的实体结构示意图,如图3所示,该电子设备可以包括:处理器(processor)301、通信接口(Communications Interface)302、存储器(memory)303和通信总线304,其中,处理器301,通信接口302,存储器303通过通信总线304完成相互间的通信。处理器301可以调用存储在存储器303上并可在处理器301上运行的计算机程序,以执行上述各实施例提供的方法,例如包括:根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力;其中,所述口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,所述语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
此外,上述的存储器303中的逻辑指令可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本发明实施例还提供一种非暂态计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现以执行上述各实施例提供的方法,例如包括:根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力;其中,所述口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,所述语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行各个实施例或者实施例的某些部分所述的方法。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种口语表达力评估方法,其特征在于,包括:
根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;
根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力;其中,
所述口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,
所述语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
2.根据权利要求1所述的方法,其特征在于,还包括:
根据所述被测试者的口语表达指标集合,向所述被测试者提供相应的解决方案,以提高所述被测试者的口语表达力。
3.根据权利要求1所述的方法,其特征在于,还包括:
获取所有相关联的被测试者的口语表达指标集合;
根据所述所有相关联的被测试者的口语表达指标集合,获取所述所有相关联的被测试者所组成的群体的口语表达力。
4.根据权利要求3所述的方法,其特征在于,还包括:
根据所述所有相关联的被测试者的口语表达指标集合,向所述所有相关联的被测试者所组成的群体对应的教师提供相应的解决方案,以提高所述群体的口语表达力。
5.根据权利要求1所述的方法,其特征在于,根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合,包括:
对采集到的所述被测试者的原始语音数据进行模数转换,得到所述被测试者的数字化语音数据;
对所述被测试者的数字化语音数据进行滤波降噪;
对所述被测试者的滤波降噪后的数字化语音数据进行特征识别,得到所述被测试者的语音特征值;
根据所述被测试者的语音特征值,得到所述被测试者的口语表达指标集合。
6.根据权利要求1所述的方法,其特征在于,还包括:
将所述被测试者的口语表达指标集合和口语表达力进行展示。
7.根据权利要求3所述的方法,其特征在于,还包括:
将所述所有相关联的被测试者的口语表达指标集合,以及所述所有相关联的被测试者所组成的群体的口语表达力进行展示。
8.一种口语表达力评估***,其特征在于,包括:
口语表达指标集合获取模块,用于根据被测试者的原始语音数据,获取所述被测试者的口语表达指标集合;
口语表达力评估模块,用于根据所述被测试者的口语表达指标集合,评估所述被测试者的口语表达力;其中,
所述口语表达指标集合包括:语句相关指标子集、影响力指标、中心度指标、同伴关注度指标、活跃度指标、教师关注度指标和教学配合度指标中的任意一种或多种;其中,
所述语句相关指标子集包括:中等长度语句持续时间、次长语句持续时间、次短语句持续时间、最长语句持续时间、最短语句持续时间、发言计次和说话总时长中的任意一种或多种。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至7任一项所述方法的步骤。
10.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至7任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911164553.XA CN111028853A (zh) | 2019-11-25 | 2019-11-25 | 一种口语表达力评估方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911164553.XA CN111028853A (zh) | 2019-11-25 | 2019-11-25 | 一种口语表达力评估方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111028853A true CN111028853A (zh) | 2020-04-17 |
Family
ID=70206486
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911164553.XA Pending CN111028853A (zh) | 2019-11-25 | 2019-11-25 | 一种口语表达力评估方法及*** |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111028853A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116343824A (zh) * | 2023-05-29 | 2023-06-27 | 新励成教育科技股份有限公司 | 口才表达能力的全面评估与解决方法、***、装置及介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101782941A (zh) * | 2009-01-16 | 2010-07-21 | 国际商业机器公司 | 评价口语能力的方法和*** |
CN106851216A (zh) * | 2017-03-10 | 2017-06-13 | 山东师范大学 | 一种基于人脸和语音识别的课堂行为监控***及方法 |
CN108154304A (zh) * | 2017-12-26 | 2018-06-12 | 重庆大争科技有限公司 | 具有教学质量评估功能的服务器 |
CN109493968A (zh) * | 2018-11-27 | 2019-03-19 | 科大讯飞股份有限公司 | 一种认知评估方法及装置 |
CN109800663A (zh) * | 2018-12-28 | 2019-05-24 | 华中科技大学鄂州工业技术研究院 | 基于语音和视频特征的教师教学评估方法及设备 |
CN110111011A (zh) * | 2019-05-09 | 2019-08-09 | 成都终身成长科技有限公司 | 一种教学质量监管方法、装置及电子设备 |
-
2019
- 2019-11-25 CN CN201911164553.XA patent/CN111028853A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101782941A (zh) * | 2009-01-16 | 2010-07-21 | 国际商业机器公司 | 评价口语能力的方法和*** |
CN106851216A (zh) * | 2017-03-10 | 2017-06-13 | 山东师范大学 | 一种基于人脸和语音识别的课堂行为监控***及方法 |
CN108154304A (zh) * | 2017-12-26 | 2018-06-12 | 重庆大争科技有限公司 | 具有教学质量评估功能的服务器 |
CN109493968A (zh) * | 2018-11-27 | 2019-03-19 | 科大讯飞股份有限公司 | 一种认知评估方法及装置 |
CN109800663A (zh) * | 2018-12-28 | 2019-05-24 | 华中科技大学鄂州工业技术研究院 | 基于语音和视频特征的教师教学评估方法及设备 |
CN110111011A (zh) * | 2019-05-09 | 2019-08-09 | 成都终身成长科技有限公司 | 一种教学质量监管方法、装置及电子设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116343824A (zh) * | 2023-05-29 | 2023-06-27 | 新励成教育科技股份有限公司 | 口才表达能力的全面评估与解决方法、***、装置及介质 |
CN116343824B (zh) * | 2023-05-29 | 2023-08-15 | 新励成教育科技股份有限公司 | 口才表达能力的全面评估与解决方法、***、装置及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Byun et al. | Retroflex versus bunched in treatment for rhotic misarticulation: Evidence from ultrasound biofeedback intervention | |
CA2919762C (en) | Method and system for measuring communication skills of crew members | |
Lemons et al. | Effectiveness of decoding and phonological awareness interventions for children with Down syndrome | |
Izura et al. | Age/order of acquisition effects and the cumulative learning of foreign words: A word training study | |
Wren et al. | James Law, Wendy Lee 2, Sue Roulstone 3 | |
WO2019024247A1 (zh) | 一种基于数据交换网络的在线教学考评***及方法 | |
CN103294199B (zh) | 一种基于脸部肌音信号的无声信息识别*** | |
CN109147440A (zh) | 一种互动教学***及方法 | |
Jones et al. | The effects of concurrent cognitive load on phonological processing in adults who stutter | |
CN107133303A (zh) | 用于输出信息的方法和装置 | |
CN105022929A (zh) | 一种人格特质值测验的认知准确度分析方法 | |
Thibodeaux et al. | What do youth tennis athletes say to themselves? Observed and self-reported self-talk on the court | |
Bejar et al. | Automated scoring with validity in mind | |
CN104346389A (zh) | 口语考试半开放题型的评分方法及*** | |
Wang et al. | Using the LENA in Teacher Training: Promoting Student Involement through automated feedback | |
Franciscatto et al. | Towards a speech therapy support system based on phonological processes early detection | |
Polišenská et al. | Improving child compliance on a computer-administered nonword repetition task | |
CN111028853A (zh) | 一种口语表达力评估方法及*** | |
Maćesić-Petrović et al. | Cognitive development of the children with visual impairment and special educational treatment | |
CN116090879A (zh) | 一种基于眼动数据的飞行训练品质评估方法 | |
Bae | Student music therapists' differences in their clinical reflections across practicum levels | |
Chenausky et al. | From intuition to intervention: Developing an intonation‐based treatment for autism | |
Bu et al. | Effects of practice variability on second-language speech production training | |
Runzrat et al. | Applying item response theory in adaptive tutoring systems for Thai language learners | |
CN110782189A (zh) | 一种基于认知负荷测量教学水平的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200417 |