CN111639220A - 一种口语测评方法及装置、电子设备、存储介质 - Google Patents
一种口语测评方法及装置、电子设备、存储介质 Download PDFInfo
- Publication number
- CN111639220A CN111639220A CN202010408128.7A CN202010408128A CN111639220A CN 111639220 A CN111639220 A CN 111639220A CN 202010408128 A CN202010408128 A CN 202010408128A CN 111639220 A CN111639220 A CN 111639220A
- Authority
- CN
- China
- Prior art keywords
- evaluation
- user
- spoken language
- spoken
- evaluation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 348
- 238000000034 method Methods 0.000 claims abstract description 48
- 238000001514 detection method Methods 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 14
- 210000000707 wrist Anatomy 0.000 description 10
- 230000003993 interaction Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 4
- 238000012854 evaluation process Methods 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/63—Querying
- G06F16/632—Query formulation
- G06F16/634—Query by example, e.g. query by humming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/04—Speaking
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
- G09B5/065—Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/10—Speech classification or search using distance or distortion measures between unknown speech and reference templates
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
- G10L15/25—Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Library & Information Science (AREA)
- Tourism & Hospitality (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Economics (AREA)
- Human Resources & Organizations (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Primary Health Care (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例涉及计算机技术领域,公开了一种口语测评方法及装置、电子设备、存储介质,该方法包括:获取测评内容,测评内容由若干内容单元组成;从屏幕展示的用户的实时画像中捕捉到用户的嘴部;在靠近用户的嘴部的指定位置呈现用户当前所读的测评单元;测评单元属于上述若干内容单元中的任一内容单元;根据拾取到的用户读测评单元时的口语发音,对用户读测评单元进行口语测评,获得用户读测评单元的口语测评结果;控制呈现的测评单元显示出与口语测评结果相对应的颜色。实施本申请实施例,可以更好的引导学生对测评内容(如单词)进行口语测评,从而有利于提升学生对测评内容(如单词)发音的准确性。
Description
技术领域
本申请涉及计算机技术领域,具体涉及一种口语测评方法及装置、电子设备、存储介质。
背景技术
目前,学生在学习单词(如英语单词)的过程中时常会出现单词发音不准的情况,而如何更好的引导学生对学习的单词进行口语测评,以提升学生对单词发音的准确性,是很多家长和老师不断探讨的热点问题。
发明内容
本申请实施例公开了一种口语测评方法及装置、电子设备、存储介质,可以更好的引导学生对测评内容(如单词)进行口语测评,从而有利于提升学生对测评内容(如单词)发音的准确性。
本申请实施例第一方面公开一种口语测评方法,所述方法包括:
获取测评内容,所述测评内容由若干内容单元组成;
从屏幕展示的用户的实时画像中捕捉到所述用户的嘴部;
在靠近所述用户的嘴部的指定位置呈现所述用户当前所读的测评单元;所述测评单元属于所述若干内容单元中的任一内容单元;
根据拾取到的所述用户读所述测评单元时的口语发音,对所述用户读所述测评单元进行口语测评,获得所述用户读所述测评单元的口语测评结果;
控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色。
结合本申请实施例第一方面,在一些可选实施例中,所述控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色之后,所述方法还包括:
控制显示出与所述口语测评结果相对应的颜色的所述测评单元按照所述屏幕预设的滑出方向从所述指定位置滑出所述屏幕。
结合本申请实施例第一方面,在一些可选实施例中,所述控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色之后,所述方法还包括:
根据所述用户读所述测评单元的口语测评结果,识别出所述用户读所述测评单元的口语发音是否准确;
若准确,执行所述的控制显示出与所述口语测评结果相对应的颜色的所述测评单元按照所述屏幕预设的滑出方向从所述指定位置滑出所述屏幕;
若不准确,将显示出与所述口语测评结果相对应的颜色的所述测评单元滑动至所述屏幕的被选定区域进行显示。
结合本申请实施例第一方面,在一些可选实施例中,所述方法还包括:
在所述用户读完毕所述测评内容中的所述若干内容单元之后,检测所述测评内容是否关联有待解锁对象;
若所述测评内容关联有待解锁对象,获取所述待解锁对象被配置的解锁允许阈值;其中,所述解锁允许阈值为口语发音准确的内容单元的指定数量;
统计所述若干内容单元中的口语发音准确的测评单元的总数量;
对比所述总数量是否超过所述指定数量,若超过,对所述待解锁对象进行解锁。
结合本申请实施例第一方面,在一些可选实施例中,所述获取测评内容之后,以及从屏幕展示的用户的实时画像中捕捉到所述用户的嘴部之前,所述方法还包括:
在屏幕的底部横向展示所述测评内容;
按照读的顺序,控制展示的所述测评内容中的即将被读的测评单元突出显示。
本申请实施例第二方面公开一种口语测评装置,包括:
第一获取模块,用于获取测评内容,所述测评内容由若干内容单元组成;
捕捉模块,用于从屏幕展示的用户的实时画像中捕捉到所述用户的嘴部;
呈现模块,用于在靠近所述用户的嘴部的指定位置呈现所述用户当前所读的测评单元;所述测评单元属于所述若干内容单元中的任一内容单元;
测评模块,用于根据拾取到的所述用户读所述测评单元时的口语发音,对所述用户读所述测评单元进行口语测评,获得所述用户读所述测评单元的口语测评结果;
颜色控制模块,用于控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色。
结合本申请实施例第二方面,在一些可选实施例中,所述装置还包括:
滑动控制模块,用于在所述颜色控制模块控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色之后,控制显示出与所述口语测评结果相对应的颜色的所述测评单元按照所述屏幕预设的滑出方向从所述指定位置滑出所述屏幕。
结合本申请实施例第二方面,在一些可选实施例中,所述装置还包括:
触发模块,用于在所述颜色控制模块控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色之后,根据所述用户读所述测评单元的口语测评结果,识别出所述用户读所述测评单元的口语发音是否准确;若准确,触发所述滑动控制模块执行所述的控制显示出与所述口语测评结果相对应的颜色的所述测评单元按照所述屏幕预设的滑出方向从所述指定位置滑出所述屏幕;
所述滑动控制模块,还用于在所述触发模块识别出所述用户读所述测评单元的口语发音不准确时,将显示出与所述口语测评结果相对应的颜色的所述测评单元滑动至所述屏幕的被选定区域进行显示。
结合本申请实施例第二方面,在一些可选实施例中,所述装置还包括:
检测模块,用于在所述用户读完毕所述测评内容中的所述若干内容单元之后,检测所述测评内容是否关联有待解锁对象;
第二获取模块,用于在所述检测模块检测出所述测评内容关联有待解锁对象时,获取所述待解锁对象被配置的解锁允许阈值;其中,所述解锁允许阈值为口语发音准确的内容单元的指定数量;
统计模块,用于统计所述若干内容单元中的口语发音准确的测评单元的总数量;
解锁模块,用于对比所述总数量是否超过所述指定数量,若超过,对所述待解锁对象进行解锁。
结合本申请实施例第二方面,在一些可选实施例中,所述装置还包括:
展示模块,用于在所述第一获取模块获取测评内容之后,以及在所述捕捉模块从屏幕展示的用户的实时画像中捕捉到所述用户的嘴部之前,在屏幕的底部横向展示所述测评内容;以及,按照读的顺序,控制展示的所述测评内容中的即将被读的测评单元突出显示。
本申请实施例第三方面公开一种电子设备,包括本申请实施例第二方面或第二方面任一可选实施例描述的口语测评装置。
本申请实施例第四方面公开一种电子设备,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本申请实施例第一方面或第一方面任一可选实施例描述的所述口语测评方法的全部或部分步骤。
本申请实施例第五方面一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机指令,所述计算机指令运行时使计算机执行本申请实施例第一方面或第一方面任一可选实施例描述的所述口语测评方法的全部或部分步骤。
与现有技术相比,本申请实施例具有以下有益效果:
本申请实施例中,可以从屏幕展示的用户的实时画像中捕捉到用户的嘴部,并且在靠近用户的嘴部的指定位置呈现用户当前所读的测评单元,用户当前所读的测评单元属于组成测评内容的若干内容单元中的任一内容单元;以及,可以根据拾取到的用户读该测评单元时的口语发音,对用户读该测评单元进行口语测评,从而可以获得用户读该测评单元的口语测评结果,并控制呈现的该测评单元显示出与口语测评结果相对应的颜色。可见,实施本申请实施例可以提升口语测评过程中的人机互动性,从而可以更好的引导学生对测评内容(如单词)进行口语测评,有利于提升学生对测评内容(如单词)发音的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例公开的口语测评方法的第一实施例的流程示意图;
图2是本申请实施例公开的口语测评方法的第二实施例的流程示意图;
图3是本申请实施例公开的口语测评方法的第三实施例的流程示意图;
图4是本申请实施例公开的屏幕的界面示意图;
图5是本申请实施例公开的口语测评装置的第一实施例的结构示意图;
图6是本申请实施例公开的口语测评装置的第二实施例的结构示意图;
图7是本申请实施例公开的口语测评装置的第三实施例的结构示意图;
图8是本申请实施例公开的电子设备的第一实施例的结构示意图;
图9是本申请实施例公开的电子设备的第二实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、***、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例公开了一种口语测评方法及装置、电子设备、存储介质,可以更好的引导学生对测评内容(如单词)进行口语测评,有利于提升学生对测评内容(如单词)发音的准确性。以下进行结合附图进行详细描述。
请参阅图1,图1是本申请实施例公开的口语测评方法的第一实施例的流程示意图。其中,图1所描述的口语测评方法适用于教育类设备(如家教设备、课堂电子设备)、电脑(如学生平板、个人PC)、移动手机、智能居家设备(如智能电视、智能音箱、智能机器人)等各类电子设备,本申请实施例不作限定。在图1所描述的口语测评方法中,以电子设备作为执行主体对该口语测评方法进行描述。如图1所示,该口语测评方法可以包括以下步骤:
101、电子设备获取测评内容,测评内容由若干内容单元组成。
示例性的,电子设备获取的测评内容可以是外语句子(如英语句子、俄语句子等),而组成该外语句子的若干内容单元可以是该外语句子包含的各个单词(如英语单词、俄语单词等)。又示例性的,电子设备获取的测评内容可以是中文句子,而组成该中文句子的若干内容单元可以是该中文句子包含的各个汉字。又示例性的,电子设备获取的测评内容还可以是音符串(如音乐符号1-7组成的音符串),而组成该音符串的若干内容单元可以是该音符串包含的各个音乐符号。
示例性的,电子设备可以通过摄像设备(如摄像头)拍摄学习模块中被用户选取(如被用户点击)的测评内容。其中,学习模块可以是用户对应的某一学习页面(如纸质学习页面或电子学习页面),也可以是用户对应的某一学习页面包含的某一学习章节。
示例性的,电子设备可以定位出被用户手指、书写笔或语音所选取的学习模块,并将被用户手指、书写笔或语音所选取的学习模块作为用户对应的学习模块。举例来说,电子设备可以采用摄像设备(如摄像头)拍摄被用户手指或书写笔所选取的学习模块作为用户对应的学习模块;或者,电子设备可以采用拾音设备(如麦克风)拾取被用户发出的语音所选取的学习模块作为用户对应的学习模块。在一些实施方式中,摄像设备(如摄像头)可以设置在用户手指所佩戴的指环上,当指环检测到其佩戴的用户手指伸直时,指环可以启动摄像设备(如摄像头)拍摄被用户手指所选取的学习模块,并由指环将拍摄到的被用户手指所选取的学习模块传递给电子设备,使电子设备可以确定出用户对应的学习模块。其中,实施这种实施方式,可以减少由电子设备拍摄被用户手指所选取的学习模块所带来的功耗,从而可以提升电子设备的电池续航能力。
在另一些示例中,电子设备可以获取其被他外部设备为用户选取的学习模块,并将被其他外部设备为用户选取的学习模块作为用户对应的学习模块。举例来说,电子设备可以预先与用户的监管者(如课堂教师或家长)佩戴的腕式穿戴设备建立通信连接,该监管者将其佩戴腕式穿戴设备的手腕所在手掌的某一手指顶住耳部根部以使耳部行成密闭音腔,并且该监管者可以发出音量低于某一阈值的、用于为该用户选取学习模块的语音信号;其中,该语音信号作为一种振动信号通过手掌的骨介质传导入该腕式穿戴设备,由该腕式穿戴设备将该语音信号传递给电子设备。其中,实施这种实施方式,用户的监管者(如课堂教师或家长)可以灵活的为用户选取学习模块,并且在为用户选取学习模块的过程中不会造成对周围人的声音干扰。
在一些示例中,当上述外部设备可以为课堂教师佩戴的腕式穿戴设备,该腕式穿戴设备可以同时与课堂上的多个用户(即学生)各自使用的电子设备建立通信连接,相应地,该监管者发出的音量低于某一阈值的、用于为该用户选取学习模块的语音信号可以包含被选取的学习模块的标识(如章节号)和该用户的身份标识(如姓名和/或座位号);进一步的,该腕式穿戴设备可以根据该用户的身份标识(如姓名和/或座位号),将该语音信号传递给该用户使用的电子设备,使得该用户使用的电子设备可以根据该语音信号包含的被选取的学习模块的标识(如章节号)确定出该用户对应的学习模块。其中,实施这种实施方式,课堂教师可以根据课堂(如培训课堂)上的多个用户各自的不同学习进度分别为课堂上的多个用户选取不同的学习模块,从而可以提升为课堂上的多个用户分别选取不同的学习模块时的灵活性和便捷性。
102、电子设备从屏幕展示的用户的实时画像中捕捉到该用户的嘴部。
示例性的,电子设备可以通过摄像设备(如摄像头)拍摄用户的实时画像,并将拍摄到的用户的实时画像输出至屏幕(如电子设备设置的显示屏幕或电子设备通信连接的外部的显示屏幕)进行展示。进一步地,电子设备可以结合面部识别技术,从屏幕展示的用户的实时画像中捕捉到该用户的嘴部。
103、电子设备在靠近该用户的嘴部的指定位置呈现该用户当前所读的测评单元;其中,该测评单元属于上述若干内容单元中的任一内容单元。
示例性的,电子设备在拾取到该用户当前所读的测评单元的口语发音时,可以确定该测评单元的口语发音的被拾取次序,并且根据该测评单元的口语发音的被拾取次序以及上述若干内容单元中的各个内容单元的排列次序,从上述若干内容单元中确定出该用户当前所读的测评单元。举例来说,若电子设备确定出该用户当前所读的测评单元的口语发音的被拾取次序为第3个,而上述若干内容单元为“I like to walk to the office”,并且内容单元“I”的排列次序为第1个,内容单元“like”的排列次序为第2个,第一个内容单元“to”的排列次序为第3个,内容单元“walk”的排列次序为第3个,第二个内容单元“to”的排列次序为第5个,内容单元“the”的排列次序为第6个,内容单元“office”的排列次序为第7个;此时,电子设备可以根据该测评单元的口语发音的被拾取次序(即第3个)以及上述若干内容单元“I like to walk to the office”中的各个内容单元的排列次序,从上述若干内容单元“I like to walk to the office”中确定出该用户当前所读的测评单元为第一个内容单元“to”(第一个内容单元“to”的排列次序为第3个)。
104、电子设备根据拾取到的该用户读该测评单元时的口语发音,对该用户读该测评单元进行口语测评,获得该用户读该测评单元的口语测评结果。
其中,电子设备可以将拾取到的该用户读该测评单元时的口语发音与该测评单元的标准读音进行对比,从而可以获得该用户读该测评单元的口语测评结果。示例性的,该用户读该测评单元的口语测评结果可以分为准确和不准确两类。
105、电子设备控制呈现的该测评单元显示出与该口语测评结果相对应的颜色。
示例性的,若该口语测评结果为准确,那么电子设备可以控制屏幕呈现的该测评单元显示出与该口语测评结果相对应的绿色;反之,若该口语测评结果为不准确,那么电子设备可以控制屏幕呈现的该测评单元显示出与该口语测评结果相对应的红色。
可见,实施图1所描述的口语测评方法,可以提升口语测评过程中的人机互动性,从而可以更好的引导学生对测评内容(如单词)进行口语测评,有利于提升学生对测评内容(如单词)发音的准确性。
此外,实施图1所描述的口语测评方法,可以减少由电子设备拍摄被用户手指所选取的学习模块所带来的功耗,从而可以提升电子设备的电池续航能力。
此外,实施图1所描述的口语测评方法,用户的监管者(如课堂教师或家长)可以灵活的为用户选取学习模块,并且在为用户选取学习模块的过程中不会造成对周围人的声音干扰。
此外,实施图1所描述的口语测评方法,可以根据课堂(如培训课堂)上的多个用户各自的不同学习进度分别为课堂上的多个用户选取不同的学习模块,从而可以提升为课堂上的多个用户分别选取不同的学习模块时的灵活性和便捷性。
请参阅图2,图2是本申请实施例公开的口语测评方法的第二实施例的流程示意图。在图2所描述的口语测评方法中,以电子设备作为执行主体对该口语测评方法进行描述。如图2所示,该口语测评方法可以包括以下步骤:
201、电子设备获取测评内容,测评内容由若干内容单元组成。
示例性的,上述步骤201的实现方式可以参考前面步骤101,本申请实施例此处不作赘述。
202、电子设备从屏幕展示的用户的实时画像中捕捉到该用户的嘴部。
203、电子设备在靠近该用户的嘴部的指定位置呈现该用户当前所读的测评单元;其中,该测评单元属于上述若干内容单元中的任一内容单元。
204、电子设备根据拾取到的该用户读该测评单元时的口语发音,对该用户读该测评单元进行口语测评,获得该用户读该测评单元的口语测评结果。
205、电子设备控制呈现的该测评单元显示出与该口语测评结果相对应的颜色。
206、电子设备根据该用户读该测评单元的口语测评结果,识别出该用户读该测评单元的口语发音是否准确;若准确,执行步骤207;若不准确,执行步骤208。
207、电子设备控制显示出与该口语测评结果相对应的颜色的该测评单元按照屏幕预设的滑出方向从该指定位置滑出屏幕,并结束本流程。
其中,测评单元按照屏幕预设的滑出方向从该指定位置滑出屏幕时,用户可以从屏幕上观赏到测评单元按照屏幕预设的滑出方向从该指定位置滑出屏幕时的动画。
示例性的,该屏幕预设的滑出方向可以是从该指定位置朝向(如竖直向下朝向或斜向下朝向)屏幕的底部的方向;或者,该屏幕预设的滑出方向也可以是从该指定位置朝向(如竖直向上朝向或斜向上朝向)屏幕的顶部的方向;或者,该屏幕预设的滑出方向也可以是从该指定位置朝向(如水面向左朝向或斜向左朝向)屏幕的左侧的方向;又或者,该屏幕预设的滑出方向也可以是从该指定位置朝向(如水面向右朝向或斜向右朝向)屏幕的右侧的方向;本申请实施例不作限定。
在一些实施方式中,屏幕预设的滑出方向可以被电子设备灵活的调整。例如,电子设备可以确定出该用户的嘴部中心分别到屏幕的底部、顶部、左侧以及右侧的四个距离值,并从这四个距离值中确定出最大距离值,并将从该指定位置朝向该最大距离值对应的某一侧(如底部)的方向调整为屏幕预设的滑出方向。可见,实施这种实施方式,即使该用户的嘴部中心发生偏移,也可以使得用户尽可能长时间地观赏到测评单元按照屏幕预设的滑出方向从该指定位置滑出屏幕时的动画,从而可以提高人机交互的时效性。
208、电子设备将显示出与该口语测评结果相对应的颜色的该测评单元滑动至该屏幕的被选定区域进行显示,并结束本流程。
其中,实施上述步骤208,可以在该屏幕的被选定区域为用户集中的显示的其口语发音不准确的测评单元,从而有利于用户反复地练习口语发音不准确的测评单元的口语发音,提升用户口语发音的准确性。
可见,实施图2所描述的口语测评方法,可以提升口语测评过程中的人机互动性,从而可以更好的引导学生对测评内容(如单词)进行口语测评,从而可以提升学生对测评内容(如单词)发音的准确性。
此外,实施图2所描述的口语测评方法,可以减少由电子设备拍摄被用户手指所选取的学习模块所带来的功耗,从而可以提升电子设备的电池续航能力。
此外,实施图2所描述的口语测评方法,用户的监管者(如课堂教师或家长)可以灵活的为用户选取学习模块,并且在为用户选取学习模块的过程中不会造成对周围人的声音干扰。
此外,实施图2所描述的口语测评方法,可以根据课堂(如培训课堂)上的多个用户各自的不同学习进度分别为课堂上的多个用户选取不同的学习模块,从而可以提升为课堂上的多个用户分别选取不同的学习模块时的灵活性和便捷性。
此外,实施图2所描述的口语测评方法,可以使得用户尽可能长时间地观赏到测评单元按照屏幕预设的滑出方向从该指定位置滑出屏幕时的动画,从而可以提高人机交互的时效性。
此外,实施图2所描述的口语测评方法,有利于用户反复地练习口语发音不准确的测评单元的口语发音,提升用户口语发音的准确性。
请参阅图3,图3是本申请实施例公开的口语测评方法的第三实施例的流程示意图。在图3所描述的口语测评方法中,以电子设备作为执行主体对该口语测评方法进行描述。如图3所示,该口语测评方法可以包括以下步骤:
301、电子设备获取测评内容,测评内容由若干内容单元组成。
示例性的,上述步骤301的实现方式可以参考前面步骤101,本申请实施例此处不作赘述。
302、电子设备在屏幕的底部横向展示测评内容。
303、电子设备按照读的顺序,控制展示的测评内容中的即将被读的测评单元突出显示。
以图4所示的屏幕的界面示意图为例,电子设备获取的测评内容为“I like towalk to the office”,该测评内容包括从左到右依次排列的“I”、“like”、“to”、“walk”、“to”、“the”以及“office”7个内容单元;其中,电子设备可以在屏幕的底部横向展示该测评内容“I like to walk to the office”;以及,电子设备可以按照读的顺序,控制展示的测评内容中的即将被读的排列次序为第5个的测评单元“to”以加粗形式突出显示。在一些实施方式中,即将被读的测评单元以可以采用指定颜色突出显示或者采用指定字体突出显示,本申请实施例不作限定。
304、电子设备从屏幕展示的用户的实时画像中捕捉到该用户的嘴部。
305、电子设备在靠近该用户的嘴部的指定位置呈现该用户当前所读的测评单元;其中,该测评单元属于上述若干内容单元中的任一内容单元。
以图4所示的屏幕的界面示意图为例,电子设备可以在靠近该用户的嘴部的指定位置呈现该用户当前所读的测评单元“walk”;其中,测评单元“walk”属于上述“I”、“like”、“to”、“walk”、“to”、“the”以及“office”7个内容单元中的第4个内容单元。
306、电子设备根据拾取到的该用户读该测评单元时的口语发音,对该用户读该测评单元进行口语测评,获得该用户读该测评单元的口语测评结果。
以图4所示的屏幕的界面示意图为例,电子设备可以根据拾取到的该用户读该测评单元“walk”时的口语发音,对该用户读该测评单元“walk”进行口语测评,获得该用户读该测评单元“walk”的口语测评结果。
307、电子设备控制呈现的该测评单元显示出与该口语测评结果相对应的颜色。
以图4所示的屏幕的界面示意图为例,若该用户读该测评单元“walk”的口语测评结果为准确,那么电子设备可以控制屏幕呈现的该测评单元“walk”显示出与该口语测评结果相对应的绿色(图4未显示色彩);反之,若该用户读该测评单元“walk”的口语测评结果为不准确,那么电子设备可以控制屏幕呈现的该测评单元“walk”显示出与该口语测评结果相对应的红色(图4未显示色彩)。
308、电子设备根据该用户读该测评单元的口语测评结果,识别出该用户读该测评单元的口语发音是否准确;若准确,执行步骤309;若不准确,执行步骤310。
以图4所示的屏幕的界面示意图为例,电子设备可以根据该用户读该测评单元“walk”的口语测评结果,识别出该用户读该测评单元“walk”的口语发音是否准确;若准确,执行步骤309;若不准确,执行步骤310。
309、电子设备控制显示出与该口语测评结果相对应的颜色的该测评单元按照屏幕预设的滑出方向从该指定位置滑出屏幕,并执行步骤311。
以图4所示的屏幕的界面示意图为例,若电子设备识别出该用户读该测评单元“walk”的口语发音准确,电子设备可以控制显示出与该口语测评结果相对应的颜色的该测评单元“walk”按照屏幕预设的滑出方向(以带箭头的弧线表示滑出方向)从该指定位置滑出屏幕。
310、电子设备将显示出与该口语测评结果相对应的颜色的该测评单元滑动至该屏幕的被选定区域进行显示,并执行步骤311。
以图4所示的屏幕的界面示意图为例,若电子设备识别出该用户读该测评单元“like”的口语发音不准确,电子设备可以将显示出与该口语测评结果相对应的颜色的该测评单元“like”滑动至该屏幕的右上角的被选定区域。
311、电子设备在用户读完毕测评内容中的上述若干内容单元之后,检测测评内容是否关联有待解锁对象;若关联有,执行步骤312~步骤314;若未关联有,结束本流程。
示例性的,待解锁对象可以是待解锁APP、待解锁电子屏幕、待解锁智能门锁等,本申请实施例不作限定。
312、电子设备获取待解锁对象被配置的解锁允许阈值;其中,解锁允许阈值为口语发音准确的内容单元的指定数量。
其中,待解锁对象可以被电子设备配置解锁允许阈值,或者,待解锁对象可以被电子设备的用户的监管者(如课堂教师或家长)佩戴的腕式穿戴设备配置解锁允许阈值。
313、电子设备统计上述若干内容单元中的口语发音准确的测评单元的总数量。
314、电子设备对比该总数量是否超过该指定数量,若超过,执行步骤315;若未超过,结束本流程。
315、电子设备对待解锁对象进行解锁。
在一些应用场景中,电子设备可以位于某一室内环境中,而该室内环境设置的待解锁智能门锁可以作为上述待解锁对象。在这种应用场景下,上述步骤317中电子设备对待解锁对象进行解锁的方式可以为:
电子设备基于待解锁智能门锁的内部摄像机拍摄到的室内图像确定使用电子设备的用户的当前空间位置信息;
以及,电子设备可以校验使用电子设备的用户的当前空间位置信息是否与该用户的监管者(如家长)针对该用户(属于被监护对象)专门配置的被监护对象相对于待解锁智能门锁的内部摄像机的三维位置信息相匹配,若匹配,才控制待解锁智能门锁进行解锁;其中,当该用户位于该用户的监管者(如家长)针对该用户(属于被监护对象)专门配置的被监护对象相对于待解锁智能门锁的内部摄像机的三维位置信息时,该用户的监管者在该室内环境中可以直接观察到该用户。从而可以要求电子设备的用户在监管者专门配置的、该监管者看得见该用户的某一空间位置上才允许使用电子设备控制待解锁智能门锁进行解锁,让监管者可以直观地知道待解锁智能门锁被哪个被监护对象解锁,从而可以提升电子设备的用户对待解锁智能门锁进行解锁时的可见性,防止电子设备的用户在监管者不知情的情况下偷偷解锁待解锁智能门锁外出而发生意外(如儿童被拐)。
与前面实施例相比,图3所描述的口语测评方法还具备以下有益效果:
对于室内环境中的孩子而言,若要解锁待解锁智能门锁外出,除了被要求位于该监管者看得见的某一空间位置之外,还被要求口语发音准确的测评单元的总数量超过指定数量,从而可以起到敦促室内孩子练习口语发音,以提升口语发音的准确性的目的。
请参阅图5,图5是本申请实施例公开的口语测评装置的第一实施例的结构示意图。该口语测评装置可以包括:
第一获取模块501,用于获取测评内容,该测评内容由若干内容单元组成;
捕捉模块502,用于从屏幕展示的用户的实时画像中捕捉到该用户的嘴部;
呈现模块503,用于在靠近该用户的嘴部的指定位置呈现该用户当前所读的测评单元;其中,测评单元属于上述若干内容单元中的任一内容单元;
测评模块504,用于根据拾取到的该用户读该测评单元时的口语发音,对该用户读该测评单元进行口语测评,获得该用户读该测评单元的口语测评结果;
颜色控制模块505,用于控制呈现的该测评单元显示出与口语测评结果相对应的颜色。
示例性的,第一获取模块501可以通过摄像设备(如摄像头)拍摄学习模块中被用户选取(如被用户点击)的测评内容。其中,学习模块可以是用户对应的某一学习页面(如纸质学习页面或电子学习页面),也可以是用户对应的某一学习页面包含的某一学习章节。
在一些实施方式中,该口语测评装置可以属于电子设备的一部分或者属于电子设备通信连接的外部设备,该电子设备可以定位出被用户手指、书写笔或语音所选取的学习模块,并将被用户手指、书写笔或语音所选取的学习模块作为用户对应的学习模块。举例来说,电子设备可以采用摄像设备(如摄像头)拍摄被用户手指或书写笔所选取的学习模块作为用户对应的学习模块;或者,电子设备可以采用拾音设备(如麦克风)拾取被用户发出的语音所选取的学习模块作为用户对应的学习模块。在一些实施方式中,摄像设备(如摄像头)可以设置在用户手指所佩戴的指环上,当指环检测到其佩戴的用户手指伸直时,指环可以启动摄像设备(如摄像头)拍摄被用户手指所选取的学习模块,并由指环将拍摄到的被用户手指所选取的学习模块传递给电子设备,使电子设备可以确定出用户对应的学习模块。其中,实施这种实施方式,可以减少由电子设备拍摄被用户手指所选取的学习模块所带来的功耗,从而可以提升电子设备的电池续航能力。
在另一些示例中,电子设备可以获取其被他外部设备为用户选取的学习模块,并将被其他外部设备为用户选取的学习模块作为用户对应的学习模块。举例来说,电子设备可以预先与用户的监管者(如课堂教师或家长)佩戴的腕式穿戴设备建立通信连接,该监管者将其佩戴腕式穿戴设备的手腕所在手掌的某一手指顶住耳部根部以使耳部行成密闭音腔,并且该监管者可以发出音量低于某一阈值的、用于为该用户选取学习模块的语音信号;其中,该语音信号作为一种振动信号通过手掌的骨介质传导入该腕式穿戴设备,由该腕式穿戴设备将该语音信号传递给电子设备。其中,实施这种实施方式,用户的监管者(如课堂教师或家长)可以灵活的为用户选取学习模块,并且在为用户选取学习模块的过程中不会造成对周围人的声音干扰。
在一些示例中,当上述外部设备可以为课堂教师佩戴的腕式穿戴设备,该腕式穿戴设备可以同时与课堂上的多个用户(即学生)各自使用的电子设备建立通信连接,相应地,该监管者发出的音量低于某一阈值的、用于为该用户选取学习模块的语音信号可以包含被选取的学习模块的标识(如章节号)和该用户的身份标识(如姓名和/或座位号);进一步的,该腕式穿戴设备可以根据该用户的身份标识(如姓名和/或座位号),将该语音信号传递给该用户使用的电子设备,使得该用户使用的电子设备可以根据该语音信号包含的被选取的学习模块的标识(如章节号)确定出该用户对应的学习模块。其中,实施这种实施方式,课堂教师可以根据课堂(如培训课堂)上的多个用户各自的不同学习进度分别为课堂上的多个用户选取不同的学习模块,从而可以提升为课堂上的多个用户分别选取不同的学习模块时的灵活性和便捷性。
可见,实施图5所描述的口语测评装置,可以提升口语测评过程中的人机互动性,从而可以更好的引导学生对测评内容(如单词)进行口语测评,从而可以提升学生对测评内容(如单词)发音的准确性。
此外,实施图5所描述的口语测评装置,可以减少由电子设备拍摄被用户手指所选取的学习模块所带来的功耗,从而可以提升电子设备的电池续航能力。
此外,实施图5所描述的口语测评装置,用户的监管者(如课堂教师或家长)可以灵活的为用户选取学习模块,并且在为用户选取学习模块的过程中不会造成对周围人的声音干扰。
此外,实施图5所描述的口语测评装置,可以根据课堂(如培训课堂)上的多个用户各自的不同学习进度分别为课堂上的多个用户选取不同的学习模块,从而可以提升为课堂上的多个用户分别选取不同的学习模块时的灵活性和便捷性。
请一并参阅图6,图6是本申请实施例公开的口语测评装置的第二实施例的结构示意图。其中,图6所示的口语测评装置是由图5所示的口语测评装置优化得到的。在图6所示的口语测评装置中,该口语测评装置还包括:
滑动控制模块506,用于在颜色控制模块505控制呈现的测评单元显示出与口语测评结果相对应的颜色之后,控制显示出与口语测评结果相对应的颜色的测评单元按照屏幕预设的滑出方向从指定位置滑出屏幕。
可选地,该口语测评装置还包括:
触发模块507,用于在颜色控制模块505控制呈现的测评单元显示出与口语测评结果相对应的颜色之后,根据用户读测评单元的口语测评结果,识别出用户读测评单元的口语发音是否准确;若准确,触发滑动控制模块506执行上述的控制显示出与口语测评结果相对应的颜色的测评单元按照屏幕预设的滑出方向从指定位置滑出屏幕;
滑动控制模块506,还用于在触发模块507识别出用户读测评单元的口语发音不准确时,将显示出与口语测评结果相对应的颜色的测评单元滑动至屏幕的被选定区域进行显示。
在一些实施方式中,屏幕预设的滑出方向可以被电子设备灵活的调整。例如,电子设备可以确定出该用户的嘴部中心分别到屏幕的底部、顶部、左侧以及右侧的四个距离值,并从这四个距离值中确定出最大距离值,并将从该指定位置朝向该最大距离值对应的某一侧(如底部)的方向调整为屏幕预设的滑出方向。可见,实施这种实施方式,即使该用户的嘴部中心发生偏移,也可以使得用户尽可能长时间地观赏到测评单元按照屏幕预设的滑出方向从该指定位置滑出屏幕时的动画,从而可以提高人机交互的时效性。
可见,相较于图5所示的口语测评装置,图6所示的口语测评装置还可以使得用户尽可能长时间地观赏到测评单元按照屏幕预设的滑出方向从该指定位置滑出屏幕时的动画,从而可以提高人机交互的时效性。
以及,有利于用户反复地练习口语发音不准确的测评单元的口语发音,提升用户口语发音的准确性。
请一并参阅图7,图7是本申请实施例公开的口语测评装置的第三实施例的结构示意图。其中,图7所示的口语测评装置是由图6所示的口语测评装置优化得到的。在图7所示的口语测评装置中,还包括:
检测模块508,用于在用户读完毕测评内容中的若干内容单元之后,检测测评内容是否关联有待解锁对象;
第二获取模块509,用于在检测模块508检测出测评内容关联有待解锁对象时,获取待解锁对象被配置的解锁允许阈值;其中,解锁允许阈值为口语发音准确的内容单元的指定数量;
统计模块510,用于统计上述若干内容单元中的口语发音准确的测评单元的总数量;
解锁模块511,用于对比该总数量是否超过指定数量,若超过,对待解锁对象进行解锁。
可选地,口语测评装置还包括:
展示模块512,用于在第一获取模块501获取测评内容之后,以及在捕捉模块从屏幕展示的用户的实时画像中捕捉到用户的嘴部之前,在屏幕的底部横向展示测评内容;以及,按照读的顺序,控制展示的测评内容中的即将被读的测评单元突出显示。
在一些应用场景中,包含该口语测评装置的电子设备可以位于某一室内环境中,而该室内环境设置的待解锁智能门锁可以作为上述待解锁对象。在这种应用场景下,解锁模块511对待解锁对象进行解锁的方式可以为:
基于待解锁智能门锁的内部摄像机拍摄到的室内图像确定使用电子设备的用户的当前空间位置信息;
以及,可以校验使用电子设备的用户的当前空间位置信息是否与该用户的监管者(如家长)针对该用户(属于被监护对象)配置的被监护对象相对于待解锁智能门锁的内部摄像机的三维位置信息相匹配,若匹配,才控制待解锁智能门锁进行解锁;其中,当该用户位于该用户的监管者(如家长)针对该用户(属于被监护对象)配置的被监护对象相对于待解锁智能门锁的内部摄像机的三维位置信息时,该用户的监管者在该室内环境中可以直接观察到该用户。从而可以要求电子设备的用户在监管者专门配置的、该监管者看得见该用户的某一空间位置上才允许使用电子设备控制待解锁智能门锁进行解锁,让监管者可以直观地知道待解锁智能门锁被哪个被监护对象解锁,从而可以提升电子设备的用户对待解锁智能门锁进行解锁时的可见性,防止电子设备的用户在监管者不知情的情况下偷偷解锁待解锁智能门锁外出而发生意外(如儿童被拐)。
与前面实施例相比,图7所描述的口语测评装置还具备以下有益效果:
对于室内环境中的孩子而言,若要解锁待解锁智能门锁外出,除了被要求位于该监管者看得见的某一空间位置之外,还被要求口语发音准确的测评单元的总数量超过指定数量,从而可以起到敦促室内孩子练习口语发音,以提升口语发音的准确性的目的。
请参阅图8,图8是本申请实施例公开的电子设备的第一实施例的结构示意图。如图8所示,该电子设备可以包括上述实施例中任意一种口语测评装置。
请参阅图9,图9是本申请实施例公开的电子设备的第二实施例的结构示意图。如图9所示,可以包括:
存储有可执行程序代码的存储器901
与存储器耦合的处理器902;
其中,处理器902调用存储器901中存储的可执行程序代码,执行上述口语测评方法的全部或部分步骤。
需要说明的是,本申请实施例中,图9所示的电子设备还可以包括扬声器模组、显示屏、光投射模组、电池模组、无线通信模组(如移动通信模块、WIFI模块、蓝牙模块等)、传感器模组(如接近传感器等)、输入模组(如麦克风、按键)以及用户接口模组(如充电接口、对外供电接口、卡槽、有线耳机接口等)等未显示的部件。
本发明实施例公开一种计算机可读存储介质,其上存储有计算机指令,该计算机指令运行时使计算机执行上述口语测评方法的全部或部分步骤。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的上述口语测评方法及装置、电子设备,存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (12)
1.一种口语测评方法,其特征在于,所述方法包括:
获取测评内容,所述测评内容由若干内容单元组成;
从屏幕展示的用户的实时画像中捕捉到所述用户的嘴部;
在靠近所述用户的嘴部的指定位置呈现所述用户当前所读的测评单元;所述测评单元属于所述若干内容单元中的任一内容单元;
根据拾取到的所述用户读所述测评单元时的口语发音,对所述用户读所述测评单元进行口语测评,获得所述用户读所述测评单元的口语测评结果;
控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色。
2.根据权利要求1所述的口语测评方法,其特征在于,所述控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色之后,所述方法还包括:
控制显示出与所述口语测评结果相对应的颜色的所述测评单元按照所述屏幕预设的滑出方向从所述指定位置滑出所述屏幕。
3.根据权利要求2所述的口语测评方法,其特征在于,所述控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色之后,所述方法还包括:
根据所述用户读所述测评单元的口语测评结果,识别出所述用户读所述测评单元的口语发音是否准确;
若准确,执行所述的控制显示出与所述口语测评结果相对应的颜色的所述测评单元按照所述屏幕预设的滑出方向从所述指定位置滑出所述屏幕;
若不准确,将显示出与所述口语测评结果相对应的颜色的所述测评单元滑动至所述屏幕的被选定区域进行显示。
4.根据权利要求3所述的口语测评方法,其特征在于,所述方法还包括:
在所述用户读完毕所述测评内容中的所述若干内容单元之后,检测所述测评内容是否关联有待解锁对象;
若所述测评内容关联有待解锁对象,获取所述待解锁对象被配置的解锁允许阈值;其中,所述解锁允许阈值为口语发音准确的内容单元的指定数量;
统计所述若干内容单元中的口语发音准确的测评单元的总数量;
对比所述总数量是否超过所述指定数量,若超过,对所述待解锁对象进行解锁。
5.根据权利要求1~4任一项所述的口语测评方法,其特征在于,所述获取测评内容之后,以及从屏幕展示的用户的实时画像中捕捉到所述用户的嘴部之前,所述方法还包括:
在屏幕的底部横向展示所述测评内容;
按照读的顺序,控制展示的所述测评内容中的即将被读的测评单元突出显示。
6.一种口语测评装置,其特征在于,包括:
第一获取模块,用于获取测评内容,所述测评内容由若干内容单元组成;
捕捉模块,用于从屏幕展示的用户的实时画像中捕捉到所述用户的嘴部;
呈现模块,用于在靠近所述用户的嘴部的指定位置呈现所述用户当前所读的测评单元;所述测评单元属于所述若干内容单元中的任一内容单元;
测评模块,用于根据拾取到的所述用户读所述测评单元时的口语发音,对所述用户读所述测评单元进行口语测评,获得所述用户读所述测评单元的口语测评结果;
颜色控制模块,用于控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色。
7.根据权利要求6所述的口语测评装置,其特征在于,所述装置还包括:
滑动控制模块,用于在所述颜色控制模块控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色之后,控制显示出与所述口语测评结果相对应的颜色的所述测评单元按照所述屏幕预设的滑出方向从所述指定位置滑出所述屏幕。
8.根据权利要求7所述的口语测评装置,其特征在于,所述装置还包括:
触发模块,用于在所述颜色控制模块控制呈现的所述测评单元显示出与所述口语测评结果相对应的颜色之后,根据所述用户读所述测评单元的口语测评结果,识别出所述用户读所述测评单元的口语发音是否准确;若准确,触发所述滑动控制模块执行所述的控制显示出与所述口语测评结果相对应的颜色的所述测评单元按照所述屏幕预设的滑出方向从所述指定位置滑出所述屏幕;
所述滑动控制模块,还用于在所述触发模块识别出所述用户读所述测评单元的口语发音不准确时,将显示出与所述口语测评结果相对应的颜色的所述测评单元滑动至所述屏幕的被选定区域进行显示。
9.根据权利要求8所述的口语测评装置,其特征在于,所述装置还包括:
检测模块,用于在所述用户读完毕所述测评内容中的所述若干内容单元之后,检测所述测评内容是否关联有待解锁对象;
第二获取模块,用于在所述检测模块检测出所述测评内容关联有待解锁对象时,获取所述待解锁对象被配置的解锁允许阈值;其中,所述解锁允许阈值为口语发音准确的内容单元的指定数量;
统计模块,用于统计所述若干内容单元中的口语发音准确的测评单元的总数量;
解锁模块,用于对比所述总数量是否超过所述指定数量,若超过,对所述待解锁对象进行解锁。
10.一种电子设备,其特征在于,包括权利要求6~9任一项所述的口语测评装置。
11.一种电子设备,其特征在于,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行权利要求1~5任一项所述口语测评方法的全部或部分步骤。
12.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令运行时使计算机执行权利要求1~5任一项所述口语测评方法的全部或部分步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010408128.7A CN111639220A (zh) | 2020-05-14 | 2020-05-14 | 一种口语测评方法及装置、电子设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010408128.7A CN111639220A (zh) | 2020-05-14 | 2020-05-14 | 一种口语测评方法及装置、电子设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111639220A true CN111639220A (zh) | 2020-09-08 |
Family
ID=72329352
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010408128.7A Pending CN111639220A (zh) | 2020-05-14 | 2020-05-14 | 一种口语测评方法及装置、电子设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111639220A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7051022B1 (en) * | 2000-12-19 | 2006-05-23 | Oracle International Corporation | Automated extension for generation of cross references in a knowledge base |
CN101114943A (zh) * | 2007-09-14 | 2008-01-30 | 中兴通讯股份有限公司 | 一种对网管数据上载比较结果进行优化展现的方法 |
CN106409030A (zh) * | 2016-12-08 | 2017-02-15 | 河南牧业经济学院 | 一种个性化外语口语学习*** |
CN108122561A (zh) * | 2017-12-19 | 2018-06-05 | 广东小天才科技有限公司 | 一种基于电子设备的口语语音测评方法及电子设备 |
CN109272992A (zh) * | 2018-11-27 | 2019-01-25 | 北京粉笔未来科技有限公司 | 一种口语测评方法、装置及一种生成口语测评模型的装置 |
CN110379221A (zh) * | 2019-08-09 | 2019-10-25 | 陕西学前师范学院 | 一种英语发音测试与评价*** |
-
2020
- 2020-05-14 CN CN202010408128.7A patent/CN111639220A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7051022B1 (en) * | 2000-12-19 | 2006-05-23 | Oracle International Corporation | Automated extension for generation of cross references in a knowledge base |
CN101114943A (zh) * | 2007-09-14 | 2008-01-30 | 中兴通讯股份有限公司 | 一种对网管数据上载比较结果进行优化展现的方法 |
CN106409030A (zh) * | 2016-12-08 | 2017-02-15 | 河南牧业经济学院 | 一种个性化外语口语学习*** |
CN108122561A (zh) * | 2017-12-19 | 2018-06-05 | 广东小天才科技有限公司 | 一种基于电子设备的口语语音测评方法及电子设备 |
CN109272992A (zh) * | 2018-11-27 | 2019-01-25 | 北京粉笔未来科技有限公司 | 一种口语测评方法、装置及一种生成口语测评模型的装置 |
CN110379221A (zh) * | 2019-08-09 | 2019-10-25 | 陕西学前师范学院 | 一种英语发音测试与评价*** |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108537207B (zh) | 唇语识别方法、装置、存储介质及移动终端 | |
CN106104569B (zh) | 用于在电子装置之间建立连接的方法及设备 | |
US11138422B2 (en) | Posture detection method, apparatus and device, and storage medium | |
CN108363706A (zh) | 人机对话交互的方法和装置、用于人机对话交互的装置 | |
CN107360157A (zh) | 一种用户注册方法、装置及智能空调器 | |
US20180204480A1 (en) | Cognitive training system | |
CN110992989B (zh) | 语音采集方法、装置及计算机可读存储介质 | |
US20170199543A1 (en) | Glass-type terminal and method of controling the same | |
CN111723855A (zh) | 一种学习知识点的显示方法、终端设备及存储介质 | |
CN101393694A (zh) | 一种具有汉字正音功能的汉字发音学习装置及其方法 | |
EP3790001A1 (en) | Speech information processing method, device and storage medium | |
CN109558788A (zh) | 静默语音输入辨识方法、计算装置和计算机可读介质 | |
CN104965589A (zh) | 一种基于人脑智慧和人机交互的人体活体检测方法与装置 | |
CN113327620A (zh) | 声纹识别的方法和装置 | |
CN113033245A (zh) | 一种功能调节方法、装置、存储介质及电子设备 | |
CN111739534B (zh) | 一种辅助语音识别的处理方法、装置、电子设备及存储介质 | |
US11819996B2 (en) | Expression feedback method and smart robot | |
CN113822187A (zh) | 手语翻译、客服、通信方法、设备和可读介质 | |
KR101567154B1 (ko) | 다중 사용자 기반의 대화 처리 방법 및 이를 수행하는 장치 | |
CN110491384B (zh) | 一种语音数据处理方法及装置 | |
CN113409770A (zh) | 发音特征处理方法、装置、服务器及介质 | |
CN111639220A (zh) | 一种口语测评方法及装置、电子设备、存储介质 | |
CN106778622A (zh) | 识别颜色的方法、装置和移动终端 | |
CN111639567B (zh) | 一种三维模型的互动显示方法、电子设备及存储介质 | |
CN111639227B (zh) | 一种虚拟角色的口语控制方法、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200908 |
|
RJ01 | Rejection of invention patent application after publication |