CN114420088A - 一种展示方法及其相关设备 - Google Patents
一种展示方法及其相关设备 Download PDFInfo
- Publication number
- CN114420088A CN114420088A CN202210065698.XA CN202210065698A CN114420088A CN 114420088 A CN114420088 A CN 114420088A CN 202210065698 A CN202210065698 A CN 202210065698A CN 114420088 A CN114420088 A CN 114420088A
- Authority
- CN
- China
- Prior art keywords
- pronunciation
- text
- data
- analysis
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 141
- 230000008569 process Effects 0.000 claims abstract description 67
- 238000012545 processing Methods 0.000 claims abstract description 49
- 238000011156 evaluation Methods 0.000 claims description 22
- 238000013507 mapping Methods 0.000 claims description 19
- 238000012098 association analyses Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 4
- 238000010219 correlation analysis Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 27
- 230000006870 function Effects 0.000 description 11
- 230000009286 beneficial effect Effects 0.000 description 8
- 238000010801 machine learning Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000007547 defect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 230000003278 mimic effect Effects 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
本申请公开了一种展示方法及其相关设备,该方法包括:在获取到用户输入的目标发音文本之后,可以先对该目标发音文本进行发音解析处理,得到待使用发音解析结果,以使该待使用发音解析结果能够表示出该目标发音文本的发音特点;再根据该待使用发音解析结果、以及拟态人物,确定待展示发音解析数据,以使该待展示发音解析数据能够更好地表示出该目标发音文本的发音特点;最后,向用户展示待展示发音解析数据,以使该用户能够从该待展示发音解析数据中了解到该目标发音文本的发音特点,从而使得该用户能够基于该待展示发音解析数据,实现针对目标发音文本的自主学习过程,如此能够有效地提高用户的声调学习效果,从而能够提高该用户的语言学习效果。
Description
技术领域
本申请涉及数据处理技术领域,尤其涉及一种展示方法及其相关设备。
背景技术
声调学习是语言学习的基础内容,对后期语言的学习有着深远的影响。可见,声调的学习对语言的初学者来说十分重要。
目前,声调教学依赖于语言授课老师的现场直接教学,这种教学方式能直观的向学生展示声调的变化,有利于学生快速学习。
然而,因老师现场教学存在缺陷,易导致学生的声调学习效果较差,从而易导致学生的语言学习效果。
发明内容
本申请实施例的主要目的在于提供一种展示方法及其相关设备,能够提高用户的声调学习效果,从而能够提高该用户的语言学习效果。
本申请实施例提供了一种展示方法,所述方法包括:
获取用户输入的目标发音文本;
对所述目标发音文本进行发音解析处理,得到待使用发音解析结果;
根据所述待使用发音解析结果、以及拟态人物,确定待展示发音解析数据;
向所述用户展示所述待展示发音解析数据。
在一种可能的实施方式中,所述待使用发音解析结果包括发音解析文本数据、以及发音解析音频数据中的至少一个;其中,所述发音解析音频数据携带的语义信息与所述发音解析文本数据携带的语义信息之间存在交集。
在一种可能的实施方式中,所述发音解析文本数据包括至少一个待使用解析文本;所述发音解析音频数据包括所述至少一个待使用解析文本对应的音频数据。
在一种可能的实施方式中,所述待使用发音解析结果的确定过程,包括:
获取所述目标发音文本的发音关联解析内容;
根据所述目标发音文本的发音关联解析内容,确定所述待使用发音解析结果。
在一种可能的实施方式中,所述发音关联解析内容包括发音声调描述数据、发音嘴型描述数据、以及发音举例介绍数据中的至少一个。
在一种可能的实施方式中,所述根据所述目标发音文本的发音关联解析内容,确定所述待使用发音解析结果,包括:
根据所述目标发音文本的发音关联解析内容,确定至少一个待使用解析文本;
根据各个待使用解析文本,确定各个待使用解析文本对应的语音播报文本;
将各个待使用解析文本对应的语音播报文本分别进行音频数据转化处理,得到各个待使用解析文本对应的音频数据;
根据所述至少一个待使用解析文本、以及所述至少一个待使用解析文本对应的音频数据,确定所述待使用发音解析结果。
在一种可能的实施方式中,所述方法还包括:
根据所述目标发音文本,确定所述拟态人物。
在一种可能的实施方式中,所述根据所述目标发音文本,确定所述拟态人物,包括:
识别所述目标发音文本的语种类型;
从预设映射关系中查找所述目标发音文本的语种类型对应的候选人物形象,确定为待配置人物形象;其中,所述预设映射关系包括所述目标发音文本的语种类型与所述待配置人物形象之间的对应关系;
根据所述待配置人物形象,确定所述拟态人物。
在一种可能的实施方式中,所述方法还包括:
对所述待使用发音解析结果进行语义识别处理,得到待使用语义识别结果;
根据所述待使用语义识别结果,确定待使用人物配置参数;
所述根据所述待配置人物形象,确定所述拟态人物,包括:
利用所述待使用人物配置参数,对所述待配置人物形象进行参数配置处理,得到所述拟态人物。
在一种可能的实施方式中,所述根据所述待使用发音解析结果、以及拟态人物,确定待展示发音解析数据,包括:
根据所述待使用发音解析结果、以及拟态人物,确定至少一个待展示页面以及所述至少一个待展示页面的展示顺序;
所述向所述用户展示所述待展示发音解析数据,包括:
按照所述至少一个待展示页面的展示顺序,向所述用户展示所述至少一个待展示页面。
在一种可能的实施方式中,所述待使用发音解析结果包括N个数据组;所述拟态人物包括所述N个数据组对应的讲解配合人物;
所述至少一个待展示页面的确定过程,包括:
根据第n个数据组、以及所述第n个数据组对应的讲解配合人物,确定第n个待展示页面;其中,所述第n个数据组包括第n个待使用解析文本、以及所述第n个待使用解析文本对应的音频数据;n为正整数,n≤N,N表示待展示页面的个数。
在一种可能的实施方式中,所述方法还包括:
在获取到所述用户针对所述目标发音文本输入的用户发音音频数据之后,对所述用户发音音频数据进行发音评价处理,得到待展示用户发音评价结果;
向所述用户展示所述待展示用户发音评价结果。
本申请实施例还提供了一种展示装置,包括:
文本获取单元,用于获取用户输入的目标发音文本;
发音解析单元,用于对所述目标发音文本进行发音解析处理,得到待使用发音解析结果;
数据确定单元,用于根据所述待使用发音解析结果、以及拟态人物,确定待展示发音解析数据;
数据展示单元,用于向所述用户展示所述待展示发音解析数据。
本申请实施例还提供了一种设备,所述设备包括:处理器、存储器、***总线;
所述处理器以及所述存储器通过所述***总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行本申请实施例提供的展示方法的任一实施方式。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行本申请实施例提供的展示方法的任一实施方式。
本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行本申请实施例提供的展示方法的任一实施方式。
基于上述技术方案,本申请具有以下有益效果:
本申请提供的技术方案中,在获取到用户输入的目标发音文本(例如,带声调的单个音素、或者某个带声调的拼音)之后,可以先对该目标发音文本进行发音解析处理,得到待使用发音解析结果,以使该待使用发音解析结果能够表示出该目标发音文本的发音特点(例如,声调特征等);再根据该待使用发音解析结果、以及拟态人物,确定待展示发音解析数据,以使该待展示发音解析数据能够更好地表示出该目标发音文本的发音特点;最后,向用户展示待展示发音解析数据,以使该用户能够从该待展示发音解析数据中了解到该目标发音文本的发音特点,从而使得该用户能够基于该待展示发音解析数据,实现针对该目标发音文本的自主学习过程,如此能够有效地克服老师现场教学所存在缺陷,从而能够有效地提高该用户的声调学习效果,进而能够提高该用户的语言学习效果。
另外,上述“待展示发音解析数据”还能够模拟出针对目标发音文本的老师现场讲解过程,使得该“待展示发音解析数据”能够更好地表示出该目标发音文本的发音特点,从而使得在将该“待展示发音解析数据”展示给用户之后,该用户能够享受到由虚拟老师针对该目标发音文本进行语音讲解过程,进而使得该用户能够在该虚拟老师的引导下更好地进行声调学习,如此能够有效地提高该用户的声调学习效果,进而能够提高该用户的语言学习效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种展示方法的流程图;
图2为本申请实施例提供的一种发音声调展示页面的示意图;
图3为本申请实施例提供的一种发音嘴型展示页面的示意图;
图4为本申请实施例提供的一种发音举例展示页面的示意图;
图5为本申请实施例提供的一种目标发音文本的整体发音讲解展示页面的示意图;
图6为本申请实施例提供的一种展示装置的结构示意图。
具体实施方式
发明人在针对上述“老师现场教学”的研究中发现,因语言授课老师受限于教学时长,使得该语言授课老师无法实时地针对学生进行现场教学,从而使得学生无法在课下自己进行自主学习,如此不利于学生的声调学习过程,从而导致学生的声调学习效果不太好。
基于上述发现,为了解决背景技术部分所示的技术问题,本申请实施例还提供了一种展示方法,其具体可以包括:在获取到用户输入的目标发音文本(例如,带声调的单个音素、或者某个带声调的拼音)之后,可以先对该目标发音文本进行发音解析处理,得到待使用发音解析结果,以使该待使用发音解析结果能够表示出该目标发音文本的发音特点(例如,声调特征等);再根据该待使用发音解析结果、以及拟态人物,确定待展示发音解析数据,以使该待展示发音解析数据能够更好地表示出该目标发音文本的发音特点;最后,向用户展示待展示发音解析数据,以使该用户能够从该待展示发音解析数据中了解到该目标发音文本的发音特点,从而使得该用户能够基于该待展示发音解析数据,实现针对该目标发音文本的自主学习过程,如此能够有效地克服老师现场教学所存在缺陷,从而能够有效地提高该用户的声调学习效果,进而能够提高该用户的语言学习效果。
另外,本申请实施例不限定本申请实施例提供的展示方法的执行主体,例如,本申请实施例提供的展示方法可以应用于展示设备或服务器。又如,本申请实施例提供的展示方法也可以借助展示设备与服务器之间的数据交互过程进行实现。其中,展示设备是指具有信息展示功能的终端设备;而且本申请实施例不限定展示设备,例如,该展示设备可以为智能手机、计算机、个人数字助理(Personal Digital Assitant,PDA)、平板电脑、具有显示屏的扫描笔、或者具有显示屏的学习辅助设备(例如,词典笔)等。服务器可以为独立服务器、集群服务器或云服务器。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
方法实施例一
参见图1,该图为本申请实施例提供的一种展示方法的流程图。
本申请实施例提供的展示方法,包括S1-S4:
S1:获取用户输入的目标发音文本。
上述“用户”是指针对目标发音文本触发发音解析请求的触发者;而且本申请实施例不限定该“用户”,例如,其可以是词典笔的使用者。
上述“发音解析请求”用于请求针对目标发音文本进行发音解析处理;而且本申请实施例不限定该“发音解析请求”的触发方式,例如,其具体可以为:通过用户针对在词典笔上部署的具有发音解析请求触发功能的可触发组件(例如,按钮等)进行触发操作(例如,点击操作等)。
上述“目标发音文本”是指一个携带有声调的文本数据,以使该“目标发音文本”用于代表用户想要进行声调自主学习的学习对象。
另外,上述“目标发音文本”可以包括一个带声调音素;而且本申请实施例不限定上述“目标发音文本”,例如,“目标发音文本”可以是带有声调的单音素(例如,á)。又如,“目标发音文本”也可以是带有声调的音素组合(例如,类似于“gá”的拼音等),而且á就是该“目标发音文本”中带声调音素。其中,“音素组合”是由至少两个单音素组合而成的。
此外,本申请实施例也不限定上述“目标发音文本”的获取过程,例如,其具体可以包括S11-S12:
S11:接收预设采集设备发送的采集对象描述数据。
上述“预设采集设备”用于针对声调自主学习的学习对象进行采集处理;而且本申请实施例不限定该“预设采集设备”,例如,其可以是扫描设备(例如,具有扫描功能的词典笔、具有扫描功能的扫描笔、或者其他具有扫描功能的电子设备等)。又如,其也可以是图像采集设备(例如,照相机、摄像头等)。还如,其也可以是字符输入设备(例如,键盘、鼠标、触控笔等)。
另外,上述“预设采集设备”能够与本申请实施例提供的展示方法的执行主体进行数据通信。
上述“采集对象描述数据”用于表示用户想要进行声调自主学习的学习对象;而且本申请实施例不限定该“采集对象描述数据”,例如,其可以是一个图像数据(例如,由扫描设备通过针对扫描介质进行扫描所得的图像数据,或者,由图像采集设备针对学习对象进行拍摄所得的图像数据等)。
S12:根据采集对象描述数据,确定目标发音文本。
需要说明的是,本申请实施例不限定S12的实施方式,例如,当上述“采集对象描述数据”属于图像数据时,S12具体可以为:对采集对象描述数据进行文本转换处理,得到目标发音文本,以使该目标发音文本用于表示该采集对象描述数据中所携带的字符信息(例如,具有声调的单音素或者音素组合等)。
基于上述S1的相关内容可知,对于一个具有声调自主学习需求的用户来说,当该用户想要针对某个学习对象(例如,具有声调的单音素或者音素组合等)进行发音学习(尤其是,进行声调学习)时,该用户可以借助预设采集设备输入目标发音文本,以使该目标发音文本能够以文字形式表示出该学习对象,以便后续能够基于该目标发音文本,确定该学习对象的发音教学过程,如此使得该用户能够借助该发音教学过程针对该学习对象进行自主学习。
S2:对目标发音文本进行发音解析处理,得到待使用发音解析结果。
上述“待使用发音解析结果”是指针对目标发音文本的发音解析结果,以使该“待使用发音解析结果”能够借助至少一个表达形式(例如,文字表达、语音表达、图像表达、以及视频表达等)表示出针对目标发音文本的发音解析内容。
另外,本申请实施例不限定上述“待使用发音解析结果”,例如,其可以包括发音解析文本数据、以及发音解析音频数据中的至少一个。
上述“发音解析文本数据”是指针对目标发音文本的发音解析文本,以使该“发音解析文本数据”能够以文字形式表示出针对目标发音文本的发音解析内容。
上述“发音解析音频数据”是指针对目标发音文本的发音解析音频,以使该“发音解析文本数据”能够以语音形式表示出针对目标发音文本的发音解析内容;而且该“发音解析音频数据”携带的语义信息与上文“发音解析文本数据”携带的语义信息之间存在交集。
需要说明的是,本申请实施例不限定上述“交集”,例如,上述“发音解析音频数据”携带的语义信息可以包括上文“发音解析文本数据”携带的语义信息,以使该“发音解析音频数据”能够准确地表示出该“发音解析文本数据”所携带的语义信息。为了便于理解,下面结合示例进行说明。
作为示例,当上述“发音解析文本数据”包括N个待使用解析文本时,该“发音解析音频数据”可以包括该N个待使用解析文本对应的音频数据,而且“第n个待使用解析文本对应的音频数据”携带的语义信息包括该第n个待使用解析文本携带的语义信息。其中,n为正整数,n≤N,N为正整数。需要说明的是,“待使用解析文本”的相关内容请参见下文S221,而且“待使用解析文本对应的音频数据”的相关内容请参见下文S222。
另外,本申请实施例也不限定上述“待使用发音解析结果”的确定过程,例如,其具体可以包括S21-S22:
S21:获取目标发音文本的发音关联解析内容。
上述“目标发音文本的发音关联解析内容”是指与该目标发音文本相关的发音讲解内容;而且本申请实施例不限定该“目标发音文本的发音关联解析内容”,例如,其可以包括:发音声调描述数据、发音嘴型描述数据、以及发音举例介绍数据中的至少一个。
上述“发音声调描述数据”用于表示目标发音文本中带声调音素的发音表示,以使该“发音声调描述数据”能够更准确地表示出该“目标发音文本中带声调音素”的发音特点。为了便于理解,下面结合图2进行说明。
作为示例,如图2所示,当上述“目标发音文本”中带声调音素是á时,则该“发音声调描述数据”不仅可以包括二声调a的发音表示á,还可以包括除了二声调以外其他声调下a的发音表示(也就是,一声调a的发音表示ā、三声调a的发音表示ǎ、以及四声调a的发音表示à),以使该“发音声调描述数据”不仅能够表示出该“目标发音文本中带声调音素”的发音声调,还能够表示出该“目标发音文本中带声调音素”的发音声调与其他发音声调之间的区别,从而使得该“发音声调描述数据”能够突出表示出该“目标发音文本中带声调音素”的发音特点。
上述“发音嘴型描述数据”用于表示目标发音文本中带声调音素的发音嘴型;而且本申请实施例不限定该“发音嘴型描述数据”,例如,其可以包括:发音嘴型描述文本、发音嘴型描述图像、以及发音嘴型描述视频中的至少一个。其中,“发音嘴型描述文本”用于以文字形式表示出目标发音文本中带声调音素的发音嘴型。“发音嘴型描述图像”用于以图像形式表示出目标发音文本中带声调音素的发音嘴型。“发音嘴型描述视频”用于以视频形式(如图3所示的视频形式)表示出目标发音文本中带声调音素的发音嘴型。
上述“发音举例介绍数据”用于表示针对目标发音文本中带声调音素的发音应用示例,以使该“发音举例介绍数据”能够结合示例更好地表示出该“目标发音文本中带声调音素”的发音特点。
另外,本申请实施例不限定上述“发音举例介绍数据”,例如,其可以包括发音举例介绍文本、发音举例介绍图像、以及发音举例介绍视频中的至少一个。其中,“发音举例介绍文本”用于以文字形式(如图4所示的文字形式)介绍针对目标发音文本中带声调音素的发音应用示例。“发音举例介绍图像”用于以图像形式(如图4所示的图像形式)介绍针对目标发音文本中带声调音素的发音应用示例。“发音举例介绍视频”用于以视频形式介绍针对目标发音文本中带声调音素的发音应用示例。
本申请实施例不限定S21的实施方式,例如,其可以借助预先构建的发音解析内容数据库进行实施。其中,“发音解析内容数据库”用于记录与各个带声调音素相关的发音解析内容。又如,其可以借助预先构建的具有发音解析功能的机器学习模型进行实施。
基于上述S21的相关内容可知,在获取到目标发音文本之后,可以根据该目标发音文本中带声调音素,确定该目标发音文本的发音关联解析内容,以使该发音关联解析内容能够比较准确地表示出针对该目标发音文本中带声调音素的发音特点。
S22:根据目标发音文本的发音关联解析内容,确定待使用发音解析结果。
需要说明的是,本申请实施例不限定S22的实施方式,例如,S22具体可以包括S221-S222:
S221:根据目标发音文本的发音关联解析内容,确定至少一个待使用解析文本,以使该“至少一个待使用解析文本”用于以文字形式表示出该发音关联解析内容。
作为示例,当上述“目标发音文本的发音关联解析内容”包括发音声调描述数据、发音嘴型描述数据、以及发音举例介绍数据时,S221具体可以为:将发音声调描述数据,确定为第1个待使用解析文本;将发音嘴型描述数据所涉及的字符信息,确定为第2个待使用解析文本;将发音举例介绍数据所涉及的字符信息,确定为第3个待使用解析文本。
S222:根据至少一个待使用解析文本,确定待使用发音解析结果。
需要说明的是,本申请实施例不限定S222的实施方式,例如,其具体可以为:将至少一个待使用解析文本进行集合处理,确定为待使用发音解析结果。
又如,当上述“发音嘴型描述数据”还包括非文本数据(例如,发音嘴型描述图像和/或发音嘴型描述视频),且上述“发音举例介绍数据”还包括非文本数据(例如,发音举例介绍图像和/或发音举例介绍视频)时,S222具体可以为:将至少一个待使用解析文本、发音嘴型描述数据中非文本数据、以及发音举例介绍数据中非文本数据进行集合处理,得到该待使用发音解析结果,以使该待使用发音解析结果能够更全面地表示出上述“目标发音文本的发音关联解析内容”所携带的语义信息(尤其是,用于表示发音特点的语义信息)。
实际上,为了更好地讲解目标发音文本的发音,本申请实施例还提供了S222的另一种可能的实施方式,例如,其具体可以包括S2221-S2223:
S2221:根据各个待使用解析文本,确定各个待使用解析文本对应的语音播报文本。
其中,“第n个待使用解析文本对应的语音播报文本”用于表示在针对该第n个待使用解析文本进行语音播报时所使用的语音播报内容;而且该“第n个待使用解析文本对应的语音播报文本”携带的语义信息包括该第n个待使用解析文本携带的语义信息。n为正整数,n≤N,N为正整数。
S2222:对各个待使用解析文本对应的语音播报文本进行音频数据转化处理,得到各个待使用解析文本对应的音频数据。
本申请实施例中,在获取到第n个待使用解析文本对应的语音播报文本之后,可以针对该“第n个待使用解析文本对应的语音播报文本”进行音频数据转化处理,得到第n个待使用解析文本对应的音频数据,以使该“第n个待使用解析文本对应的音频数据”的语音内容包括该“第n个待使用解析文本对应的语音播报文本”,从而使得该“第n个待使用解析文本对应的音频数据”携带的语义信息包括该第n个待使用解析文本携带的语义信息。其中,n为正整数,n≤N,N为正整数。
需要说明的是,本申请实施例不限定上述“音频数据转化处理”的实施方式,例如,可以采用现有的或者未来出现的任意一种能够将文本数据转化为音频数据的方法进行实施。
S2223:根据至少一个待使用解析文本、以及至少一个待使用解析文本对应的音频数据,确定待使用发音解析结果。
需要说明的是,本申请实施例不限定S2223的实施方式,例如,其具体可以包括步骤11-步骤12:
步骤11:根据第n个待使用解析文本、以及该第n个待使用解析文本对应的音频数据,确定第n个数据组。其中,n为正整数,n≤N,N为正整数。
上述“第n个数据组”用于表示针对第n个待使用解析文本进行展示的多媒体展示数据;而且本申请实施例不限定该“第n个数据组”的确定过程,例如,其具体可以为(1)-(3):
(1)如果第n个待使用解析文本是根据上文“发音声调描述数据”确定的,则可以直接利用该第n个待使用解析文本、以及该第n个待使用解析文本对应的音频数据,构建第n个数据组,以使该第n个数据组能够以二元组形式进行表示。也就是,第n个数据组可以表示为(第n个待使用解析文本,该第n个待使用解析文本对应的音频数据)。
(2)当第n个待使用解析文本是根据上文“发音嘴型描述数据”确定的,而且该“发音嘴型描述数据”还包括非文本数据(例如,发音嘴型描述图像和/或发音嘴型描述视频)时,可以利用该第n个待使用解析文本、该第n个待使用解析文本对应的音频数据、以及该“发音嘴型描述数据”中非文本数据,构建第n个数据组,以使该第n个数据组能够以三元组形式进行表示。也就是,第n个数据组可以表示为(第n个待使用解析文本,该第n个待使用解析文本对应的音频数据,发音嘴型描述图像和/或发音嘴型描述视频)。
(3)当第n个待使用解析文本是根据上文“发音举例介绍数据”确定的,而且该“发音举例介绍数据”还包括非文本数据(例如,发音举例介绍图像和/或发音举例介绍视频)时,可以利用该第n个待使用解析文本、该第n个待使用解析文本对应的音频数据、以及该“发音举例介绍数据”中非文本数据,构建第n个数据组,以使该第n个数据组能够以三元组形式进行表示。也就是,第n个数据组可以表示为(第n个待使用解析文本,该第n个待使用解析文本对应的音频数据,发音举例介绍图像和/或发音举例介绍视频)。
步骤12:将第1个数据组至第N个数据组进行集合处理,得到待使用发音解析结果。
本申请实施例中,在获取到第1个数据组、第2个数据组、……、以及第N个数据组之后,可以将这N个数据组进行集合处理,得到待使用发音解析结果,以使该待使用发音解析结果能够包括这N个数据组,从而使得该待使用发音解析结果能够以多媒体形式表示出目标发音文本的发音关联解析内容,进而使得该待使用发音解析结果能够更好地表示出针对目标发音文本的发音解析内容。
基于上述S2的相关内容可知,在获取到目标发音文本之后,可以针对该目标发音文本进行发音解析处理,得到待使用发音解析结果,以使该待使用发音解析结果能够表示出针对目标发音文本的发音解析内容,以便后续用户能够基于该待使用发音解析结果携带的语义信息,实现针对该目标发音文本的自主声调学习。
S3:根据待使用发音解析结果、以及拟态人物,确定待展示发音解析数据。
上述“拟态人物”用于表示虚拟老师;而且本申请实施例不限定该“拟态人物”的确定过程,例如,可以预先设定。又如,可以采用方法实施例二所示的“拟态人物”的确定过程的任一实施方式进行实施。
上述“待展示发音解析数据”是指需要向用户展示的数据;而且该“待展示发音解析数据”能够模拟虚拟老师针对目标发音文本的发音讲解过程。
另外,本申请实施例不限定上述“待展示发音解析数据”,例如,其可以包括:至少一个待展示页面(例如,图2-图4所示的页面)。需要说明的是,上述“至少一个待展示页面”的相关内容请参见下文方法实施例三所示的相关内容。
此外,本申请实施例不限定S3的实施方式,例如,其可以采用方法实施例三所示的待展示发音解析数据的确定过程的任意一种可能的实施方式进行实施。
S4:向用户展示待展示发音解析数据。
需要说明的是,本申请实施例不限定S4的实施方式,例如,其可以直接将待展示发音解析数据展示给用户。又如,其可以采用方法实施例三所示的待展示发音解析数据的展示过程的任意一种可能的实施方式进行实施。
基于上述S1至S4的相关内容可知,对于本申请实施例提供的展示方法来说,在获取到用户输入的目标发音文本(例如,带声调的单个音素、或者某个带声调的拼音)之后,可以先对该目标发音文本进行发音解析处理,得到待使用发音解析结果,以使该待使用发音解析结果能够表示出该目标发音文本的发音特点(例如,声调特征等);再根据该待使用发音解析结果、以及拟态人物,确定待展示发音解析数据,以使该待展示发音解析数据能够更好地表示出该目标发音文本的发音特点;最后,向用户展示待展示发音解析数据,以使该用户能够从该待展示发音解析数据中了解到该目标发音文本的发音特点,从而使得该用户能够基于该待展示发音解析数据,实现针对该目标发音文本的自主学习过程,如此能够有效地克服老师现场教学所存在缺陷,从而能够有效地提高该用户的声调学习效果,进而能够提高该用户的语言学习效果。
方法实施例二
实际上,为了更好地模拟出针对目标发音文本的老师讲解过程,本申请实施例还提供了上述“拟态人物”的确定过程,其具体可以为:根据目标发音文本,确定拟态人物,以使该拟态人物能够更好地配合展示上述“待使用发音解析结果”。为了便于理解,下面结合三个示例进行说明。
示例1,上述“拟态人物”的确定过程,具体可以包括步骤21-步骤23:
步骤21:识别目标发音文本的语种类型。
上述“目标发音文本的语种类型”用于表示该目标发音文本所属的语言种类(例如,中文、英文、俄文或日文等);而且本申请实施例不限定该“目标发音文本的语种类型”的识别过程,例如,可以采用现有的或者未来出现的任意一种能够针对文本数据进行语种识别的方法进行实施。又如,可以借助预先构建的具有语种识别功能的机器学习模型进行实施。
步骤22:从预先构建的预设映射关系中查找目标发音文本的语种类型对应的候选人物形象,确定为待配置人物形象。其中,预设映射关系包括目标发音文本的语种类型与待配置人物形象之间的对应关系。
上述“预设映射关系”用于记录各个候选语种对应的候选人物形象;而且本申请实施例不限定该“预设映射关系”,例如,其可以包括:第1个候选语种(例如,中文)与第1个候选人物形象之间的对应关系;第2个候选语种(例如,英文)与第2个候选人物形象之间的对应关系;……(以此类推);第M个候选语种(例如,俄文)与第M个候选人物形象之间的对应关系。其中,M为正整数。
可见,在获取到目标发音文本的语种类型之后,可以将该“目标发音文本的语种类型”与预设映射关系中M个候选语种进行匹配,以便在确定该“目标发音文本的语种类型”与该预设映射关系中第m个候选语种匹配成功时,可以将该第m个候选语种对应的第m个候选人物形象,确定为待配置人物形象。其中,m为正整数,m∈{1,2,3,……,M}。
上述“待配置人物形象”是指在针对目标发音文本构建拟态人物时所需使用的人物形象。
步骤23:根据待配置人物形象,确定拟态人物。
本申请实施例不限定步骤23的实施方式,例如,具体可以为:直接将待配置人物形象,确定为拟态人物。
基于上述步骤21至步骤23的相关内容可知,在获取到目标发音文本之后,可以结合该目标发音文本的语种类型,确定拟态人物,以使该拟态人物更符合该用户的语种教学需求。
示例2,为了更好地模拟出针对目标发音文本的老师讲解过程,上述“拟态人物”的确定过程,具体可以包括步骤31-步骤35:
步骤31:识别目标发音文本的语种类型。
步骤32:从预先构建的预设映射关系中查找目标发音文本的语种类型对应的候选人物形象,确定为待配置人物形象。
需要说明的是,步骤31-步骤32的相关内容请分别参见上文步骤21-步骤22的相关内容。
步骤33:对待使用发音解析结果进行语义识别处理,得到待使用语义识别结果。
上述“待使用语义识别结果”用于表示待使用发音解析结果携带的语义信息;而且本申请实施例不限定该“待使用语义识别结果”的确定过程,例如,可以采用现有的或者未来出现的任意一种语义识别方法进行实施。
另外,本申请实施例不限定上述“待使用语义识别结果”,例如,当上述“待使用发音解析结果”包括待展示发音声调数据、待展示发音嘴型数据、以及待展示发音举例数据时,该“待使用语义识别结果”可以包括:该待展示发音声调数据的语义识别结果、该待展示发音嘴型数据的语义识别结果、以及待展示发音举例数据的语义识别结果。
上述“待展示发音声调数据”是指需要向用户展示的与上文“发音声调描述数据”相关的数据;而且本申请实施例不限定该“待展示发音声调数据”,例如,其可以是指根据上文“发音声调描述数据”确定数据组(例如,如图2所示,该“数据组”具体可以包括:发音声调描述数据、以及该发音声调描述数据对应的音频数据)。
上述“待展示发音嘴型数据”是指需要向用户展示的与上文“发音嘴型描述数据”相关的数据;而且本申请实施例不限定该“待展示发音嘴型数据”,例如,其可以是指根据上文“发音嘴型描述数据”确定数据组(例如,如图3所示,该“数据组”具体可以包括:发音嘴型描述数据、该发音嘴型描述数据对应的音频数据、以及发音嘴型描述视频)。
上述“待展示发音举例数据”是指需要向用户展示的与上文“发音举例介绍数据”相关的数据;而且本申请实施例不限定该“待展示发音举例数据”,例如,其可以是指根据上文“发音举例介绍数据”确定数据组(例如,如图4所示,该“数据组”具体可以包括:发音举例介绍数据、该发音举例介绍数据对应的音频数据、以及发音举例介绍图像)。
上述“待展示发音声调数据的语义识别结果”用于表示该待展示发音声调数据携带的语义信息。
上述“待展示发音嘴型数据的语义识别结果”用于表示该待展示发音嘴型数据携带的语义信息。
上述“待展示发音举例数据的语义识别结果”用于表示该待展示发音举例数据携带的语义信息。
基于上述步骤33的相关内容可知,在获取到待使用发音解析结果之后,可以针对该待使用发音解析结果进行语义识别处理,得到待使用语义识别结果,以使该待使用语义识别结果能够表示出该待使用发音解析结果所携带的语义信息。
步骤34:根据待使用语义识别结果,确定待使用人物配置参数。
上述“待使用人物配置参数”用于表示拟态人物在至少一个方面(例如,穿着、配饰、手持物、肢体动作等方面)的状态配置;而且本申请实施例不限定该“待使用人物配置参数”的确定过程,为了便于理解,下面结合示例进行说明。
作为示例,当“待使用语义识别结果”包括:待展示发音声调数据的语义识别结果、待展示发音嘴型数据的语义识别结果、以及待展示发音举例数据的语义识别结果时,步骤34具体可以包括步骤341-步骤344:
步骤341:根据待展示发音声调数据的语义识别结果,确定该待展示发音声调数据对应的人物配置参数。
上述“待展示发音声调数据对应的人物配置参数”是指在展示该待展示发音声调数据时拟态人物的状态配置,以使该“待展示发音声调数据对应的人物配置参数”能够表示出在展示该待展示发音声调数据时拟态人物所处状态(例如,配备教鞭、利用教鞭以及肢体动作表示出不同声调的发音变化等)。
需要说明的是,本申请实施例不限定上述“待展示发音声调数据对应的人物配置参数”的确定过程,例如,可以借助预先构建的具有人物配置参数确定功能的机器学习模型进行实施。又如,其也可以借助预先构建的待使用映射关系进行实施。其中,“待使用映射关系”用于记录各个候选语义对应的人物配置参数。
步骤342:根据待展示发音嘴型数据的语义识别结果,确定该待展示发音嘴型数据对应的人物配置参数。
上述“待展示发音嘴型数据对应的人物配置参数”是指在展示该待展示发音嘴型数据时拟态人物的状态配置,以使该“待展示发音嘴型数据对应的人物配置参数”能够表示出在展示该待展示发音嘴型数据时拟态人物所处状态(例如,配备教鞭、利用教鞭以及肢体动作指示出发音时嘴型变化等)。
需要说明的是,本申请实施例不限定上述“待展示发音嘴型数据对应的人物配置参数”的确定过程,例如,可以借助预先构建的具有人物配置参数确定功能的机器学习模型进行实施。又如,其也可以借助预先构建的待使用映射关系进行实施。
步骤343:根据待展示发音举例数据的语义识别结果,确定该待展示发音举例数据对应的人物配置参数。
上述“待展示发音举例数据对应的人物配置参数”是指在展示该待展示发音举例数据时拟态人物的状态配置,以使该“待展示发音举例数据对应的人物配置参数”能够表示出在展示该待展示发音举例数据时拟态人物所处状态(例如,配备教鞭、利用教鞭以及肢体动作指示出发音举例时发音特点等)。
需要说明的是,本申请实施例不限定上述“待展示发音举例数据对应的人物配置参数”的确定过程,例如,可以借助预先构建的具有人物配置参数确定功能的机器学习模型进行实施。又如,其也可以借助预先构建的待使用映射关系进行实施。
步骤344:将待展示发音声调数据对应的人物配置参数、待展示发音嘴型数据对应的人物配置参数、以及待展示发音举例数据对应的人物配置参数进行集合处理,得到待使用人物配置参数。
基于上述步骤34的相关内容可知,在获取到待使用语义识别结果之后,可以参考该待使用语义识别结果,确定待使用人物配置参数,以使具备该待使用人物配置参数的拟态人物能够借助肢体状态表达出该待使用语义识别结果所携带的语义信息。
还需要说明的是,本申请实施例不限定步骤33-步骤34的执行时间与步骤31-步骤32的执行时间之间的关联关系。
步骤35:利用待使用人物配置参数,对待配置人物形象进行参数配置处理,得到拟态人物。
本申请实施例中,在获取到待使用人物配置参数之后,可以利用该待使用人物配置参数,对待配置人物形象进行参数配置处理,得到拟态人物,以使该拟态人物能够表示出具有待使用人物配置参数的待配置人物形象,从而使得该拟态人物能够更好地表示出上文“待使用发音解析结果”所携带的语义信息,以便后续该拟态人物与该“待使用发音解析结果”进行更形象地配合,如此有利于提高该“待使用发音解析结果”的展示效果。
另外,本申请实施例不限定步骤35的实施方式,例如,当上述“待使用人物配置参数”包括待展示发音声调数据对应的人物配置参数、待展示发音嘴型数据对应的人物配置参数、以及待展示发音举例数据对应的人物配置参数时,步骤35具体可以包括步骤351-步骤354:
步骤351:利用待展示发音声调数据对应的人物配置参数,对待配置人物形象进行参数配置处理,得到该待展示发音声调数据对应的讲解配合人物。
步骤352:利用待展示发音嘴型数据对应的人物配置参数,对待配置人物形象进行参数配置处理,得到该待展示发音嘴型数据对应的讲解配合人物。
步骤353:利用待展示发音举例数据对应的人物配置参数,对待配置人物形象进行参数配置处理,得到该待展示发音举例数据对应的讲解配合人物。
步骤354:将待展示发音声调数据对应的讲解配合人物、待展示发音嘴型数据对应的讲解配合人物、以及待展示发音举例数据对应的讲解配合人物进行集合处理,得到拟态人物,以使该拟态人物能够更好地配合展示不同方面的发音解析内容。
基于上述步骤31至步骤35的相关内容可知,在获取到目标发音文本、以及待使用发音解析结果之后,可以结合该目标发音文本的语种类型、以及该待使用发音解析结果,确定拟态人物,以使该拟态人物不仅符合该用户的语种教学需求,还能够更好地配合展示该待使用发音解析结果,如此有利于提高针对目标发音文本的老师讲解过程的模拟效果。
实际上,在一些应用场景中,不仅可以向用户展示目标发音文本中带声调音素的发音特点,还可以向用户整体展示目标发音文本。基于此,本申请实施例还提供了上述“拟态人物”的确定过程的另一种可能的实施方式,下面结合示例3进行说明。
示例3,当上述“目标文本”是指带有声调的音素组合时,上述“拟态人物”的确定过程,具体可以包括步骤41-步骤46:
步骤41:识别目标发音文本的语种类型。
步骤42:从预设映射关系中查找目标发音文本的语种类型对应的候选人物形象,确定为待配置人物形象。
需要说明的是,步骤41-步骤42的相关内容请分别参见上文步骤21-步骤22的相关内容。
步骤43:对待使用发音解析结果进行语义识别处理,得到待使用语义识别结果。
步骤44:根据待使用语义识别结果,确定待使用人物配置参数。
需要说明的是,步骤43-步骤44的相关内容请分别参见上文步骤33-步骤34的相关内容。
步骤45:对目标发音文本进行语义识别处理,得到该目标发音文本的语义识别结果。
上述“目标发音文本的语义识别结果”用于表示该目标发音文本携带的语义信息;而且本申请实施例不限定该“目标发音文本的语义识别结果”的确定过程,例如,可以采用现有的或者未来出现的任意一种语义识别方法进行实施。
步骤46:根据目标发音文本的语义识别结果,确定该目标发音文本对应的人物配置参数。
上述“目标发音文本对应的人物配置参数”是指在展示该目标发音文本时拟态人物的状态配置,以使该“目标发音文本对应的人物配置参数”能够表示出在展示该目标发音文本时拟态人物所处状态(例如,配备教鞭、利用教鞭以及肢体动作表示出该目标发音文本的整体特点等)。
需要说明的是,本申请实施例不限定上述“目标发音文本对应的人物配置参数”的确定过程,例如,可以借助预先构建的具有人物配置参数确定功能的机器学习模型进行实施。又如,其也可以借助预先构建的待使用映射关系进行实施。
还需要说明的是,本申请实施例不限定步骤45-步骤46的执行时间与步骤41-步骤44的执行时间之间的关联关系。
步骤47:利用待使用人物配置参数、以及目标发音文本对应的人物配置参数,对待配置人物形象进行参数配置处理,得到拟态人物。
基于上述步骤41至步骤47的相关内容可知,在获取到目标发音文本、以及待使用发音解析结果之后,可以结合该目标发音文本的语种类型、该目标发音文本的语义识别结果、以及该待使用发音解析结果的语义识别结果,确定拟态人物,以使该拟态人物不仅能够更好地配合展示该待使用发音解析结果,还能够更好地配合展示该目标发音文本。
方法实施例三
为了进一步提高用户的声调学习效果,本申请实施例还提供了展示上述“待使用发音解析结果”的一种可能的实施方式,其具体可以包括步骤51-步骤52:
步骤51:根据待使用发音解析结果、以及拟态人物,确定至少一个待展示页面以及至少一个待展示页面的展示顺序。
上述“至少一个待展示页面”用于展示待使用发音解析结果、以及拟态人物;而且该“至少一个待展示页面”中各个待展示页面所展示的语义信息之间存在差别。例如,上述“至少一个待展示页面”可以包括图2-图4所示的页面。
另外,本申请实施例不限定上述“至少一个待展示页面”的确定过程,例如,当上述“待使用发音解析结果”包括N个数据组,且该拟态人物包括该N个数据组对应的讲解配合人物时,上述“至少一个待展示页面”的确定过程具体可以包括:根据第n个数据组、以及该第n个数据组对应的讲解配合人物,确定第n个待展示页面,以使在该第n个待展示页面上,由该第n个数据组对应的讲解配合人物,针对该第n个数据组中音频数据进行播报,并且还在该第n个待展示页面上显示有该第n个数据组中非音频数据(例如,文本数据、图像数据、以及视频数据等中至少一个)。其中,n为正整数,n≤N。
上述“第n个数据组对应的讲解配合人物”是指按照该第n个数据组对应的人物配置参数所配置的虚拟人物。
需要说明的是,“数据组”的相关内容请参见上文步骤11的相关内容。
为了便于理解,下面结合具体示例进行说明。
作为示例,当第1个数据组是指上文“待展示发音声调数据”,第2个数据组是指上文“待展示发音嘴型数据”,且第3个数据组是指上文“待展示发音举例数据”时,上述“至少一个待展示页面”的确定过程具体可以包括步骤511-步骤513:
步骤511:根据待展示发音声调数据、以及该待展示发音声调数据对应的讲解配合人物,确定第1个待展示页面(如图2所示的页面),以使该第1个待展示页面不仅能够展示出针对目标文本的声调讲解文字以及声调讲解语音,还能够模拟出由虚拟老师针对该目标文本的声调讲解过程。
上述“待展示发音声调数据对应的讲解配合人物”是指利用该待展示发音声调数据对应的人物配置参数,对待配置人物形象进行参数配置处理得到的,以使该“待展示发音声调数据对应的讲解配合人物”能够更好地配合针对该待展示发音声调数据的展示过程。
另外,为了能够更好地突显目标发音文本中带声调的音素(例如,á),可以按照预先设定的标注方式(例如,字符颜色设定为红色等),对第1个待展示页面中上述“目标发音文本中带声调的音素”进行标注处理,以使用户能够从该第1个待展示页面中准确地了解到该“目标发音文本中带声调的音素”。
步骤512:根据待展示发音嘴型数据、以及该待展示发音嘴型数据对应的讲解配合人物,确定第2个待展示页面(如图3所示的页面),以使该第2个待展示页面不仅能够展示出针对目标文本的嘴型讲解文字以及嘴型讲解语音,还能够模拟出由虚拟老师针对该目标文本的嘴型讲解过程。
上述“待展示发音嘴型数据对应的讲解配合人物”是指利用该待展示发音嘴型数据对应的人物配置参数,对待配置人物形象进行参数配置处理得到的,以使该“待展示发音嘴型数据对应的讲解配合人物”能够更好地配合针对该待展示发音嘴型数据的展示过程。
步骤513:根据待展示发音举例数据、以及该待展示发音举例数据对应的讲解配合人物,确定第3个待展示页面(如图4所示的页面),以使该第3个待展示页面不仅能够展示出针对目标文本的发音举例讲解文字以及发音举例讲解语音,还能够模拟出由虚拟老师针对该目标文本的发音举例讲解过程。
上述“待展示发音举例数据对应的讲解配合人物”是指利用该待展示发音举例数据对应的人物配置参数,对待配置人物形象进行参数配置处理得到的,以使该“待展示发音举例数据对应的讲解配合人物”能够更好地配合针对该待展示发音举例数据的展示过程。
基于上述步骤511至步骤513的相关内容可知,对于包括待展示发音声调数据、待展示发音嘴型数据、以及待展示发音举例数据的待使用发音解析结果来说,可以参考各个数据及其对应的讲解配合人物,构建图2-图4所示的页面,以使这些页面能够更好地模拟出虚拟老师针对目标文本的发音讲解过程。
上述“至少一个待展示页面的展示顺序”用于表示在将该至少一个待展示页面展示给用户时所按照的顺序;而且本申请实施例不限定该“至少一个待展示页面的展示顺序”,例如,当上述“至少一个待展示页面”包括图2-图4所示的页面时,该“至少一个待展示页面的展示顺序”具体可以为:先展示图2所示的页面,再展示图3所示的页面,最后展示图4所示的页面。
另外,本申请实施例不限定上述“至少一个待展示页面的展示顺序”的确定过程,例如,可以利用预先设定的页面展示规则进行确定。需要说明的是,本申请实施例不限定“页面展示规则”,例如,其具体可以包括:声调讲解页面的优先级高于发音嘴型讲解页面的优先级,该发音嘴型讲解页面的优先级高于发音举例页面的优先级。
基于上述步骤51的相关内容可知,在获取到待使用发音解析结果之后,可以先参考该待使用发音解析结果、以及拟态人物,确定至少一个待展示页面以及该至少一个待展示页面的展示顺序,以使这些待展示页面能够展示出针对该待使用发音解析结果的老师讲解过程。
步骤52:按照至少一个待展示页面的展示顺序,向用户展示该至少一个待展示页面。
本申请实施例中,在获取到至少一个待展示页面的展示顺序之后,可以按照该展示顺序,向用户自动地播放这些待展示页面,以使该用户能够体验到由虚拟老师针对目标文本的发音讲解过程,如此有利于提高用户的声调学习效果。
基于上述步骤51至步骤52的相关内容可知,在获取到待使用发音解析结果之后,可以先参考该待使用发音解析结果、以及拟态人物,确定至少一个待展示页面以及该至少一个待展示页面的展示顺序;再按照该展示顺序,向用户自动地播放这些待展示页面,以使该用户能够体验到由虚拟老师针对目标文本的发音讲解过程,以实现用户在课下进行自动声调学习,如此有利于提高用户的声调学习效果。
方法实施例四
在一些应用场景下(例如,当上述“目标发音文本”是带声调音素组合时),不仅可以向用户展示待展示发音解析数据,还可以向该用户展示针对目标发音文本的整体讲解内容。
基于此,本申请实施例还提供了展示方法的另一种可能的实施方式,在该实施方式下,当上述“目标文本”是指带有声调的音素组合时,该展示方法不仅可以包括上述S1-S3,可以还包括S5-S6:
S5:确定目标发音文本的整体讲解数据。
上述“目标发音文本的整体讲解数据”用于表示针对该目标发音文本的整体讲解内容(例如,整体发音、整体语义等)。
另外,本申请实施例不限定上述“目标发音文本的整体讲解数据”,例如,其可以包括该目标发音文本的整体讲解描述文本、该目标发音文本的整体讲解描述音频、以及该目标发音文本对应的讲解配合人物,以使该“目标发音文本的整体讲解数据”不仅能够表示出针对该目标发音文本的整体讲解文本以及整体讲解语音,还能够表示出由虚拟老师针对该目标文本的整体讲解过程。
上述“目标发音文本对应的讲解配合人物”是指利用该目标发音文本对应的人物配置参数,对待配置人物形象进行参数配置处理得到的,以使该“目标发音文本对应的讲解配合人物”能够更好地配合针对该目标发音文本的整体讲解过程。
此外,本申请实施例不限定上述“目标发音文本的整体讲解数据”,例如,其可以是一个页面(如图5所示的页面)。
需要说明的是,本申请实施例不限定S5的执行时间,而且该S5的执行时间介于上文S1的执行时间与下文S6的执行时间之间。
S6:向用户展示目标发音文本的整体讲解数据、以及待展示发音解析数据。
需要说明的是,本申请实施例不限定S6的实施方式,例如,当上述“目标发音文本的整体讲解数据”为图5所示的页面,且上述“待展示发音解析数据”包括图2-图4所示的页面时,S6具体可以为:依次向用户展示图5、图2、图3、以及图4。
基于上述S5至S6的相关内容可知,在获取到目标发音文本之后,不仅可以针对该目标发音文本中带声调的音素进行发音解析处理,得到待展示发音解析数据,还可以针对该目标发音文本进行整体分析,得到该目标发音文本的整体讲解数据,以便后续能够将该目标发音文本的整体讲解数据、以及待展示发音解析数据均展示给用户,以使该用户能够更好地了解该目标发音文本,如此有利于提高该用户针对该目标发音文本的学习效果,从而有利于提高该用户的语言学习效果。
方法实施例五
另外,为了进一步提高用户的声调学习效果,本申请实施例还提供了展示方法的另一种可能的实施方式,在该实施方式中,该展示方法除了包括上述部分步骤(例如,S1-S4;或者,S1-S3、以及S5-S6)以外,可以还包括S7:
S7:在获取到用户针对目标发音文本输入的用户发音音频数据之后,对该用户发音音频数据进行发音评价处理,得到待展示用户发音评价结果。
上述“用户发音音频数据”是指由用户针对目标发音文本录制的音频数据,以使该“用户发音音频数据”能够表示出该用户针对该目标发音文本的学习成果(尤其是,发音学习成果)。
另外,本申请实施例不限定上述“用户发音音频数据”,例如,其可以包括:声调发音录制数据、以及整体发音录制数据中的至少一个。其中,“声调发音录制数据”用于表示用户针对目标发音文本中带声调的音素的发音。“整体发音录制数据”用于表示用户针对目标发音文本的整体发音。
上述“待展示用户发音评价结果”用于表示用户针对目标发音文本的发音是否准确;而且本申请实施例不限定该“待展示用户发音评价结果”的确定过程,例如,可以预先构建的具有发音评价功能的机器学习模型进行实施即可。
S8:向用户展示待展示用户发音评价结果。
本申请实施例中,在获取到待展示用户发音评价结果之后,可以将该待展示用户发音评价结果展示给用户,以使该用户能够从该待展示用户发音评价结果中获知其针对目标发音文本的发音是否准确,从而使得该用户能够检验其针对该目标发音文本的学习成果,如此有利于提高该用户针对该目标发音文本的学习效果,从而有利于提高该用户的语言学习效果。
基于上述S7至S8的相关内容可知,对于一些应用场景来说,用户还可以将其针对目标发音文本的学习成果(例如,发音录制音频等)进行上传,以便在将待展示用户发音评价结果展示给该用户之后,该用户能够从该待展示用户发音评价结果中获知其所学习到的发音是否准确,如此有利于更好地提高该用户的学习效果,从而有利于提高该用户的语言学习效果。
基于上述方法实施例提供的展示方法,本申请实施例还提供了一种展示装置,下面结合附图进行解释和说明。
装置实施例
装置实施例对展示装置进行介绍,相关内容请参见上述方法实施例。
参见图6,该图为本申请实施例提供的一种展示装置的结构示意图。
本申请实施例提供的展示装置600,包括:
文本获取单元601,用于获取用户输入的目标发音文本;
发音解析单元602,用于对所述目标发音文本进行发音解析处理,得到待使用发音解析结果;
数据确定单元603,用于根据所述待使用发音解析结果、以及拟态人物,确定待展示发音解析数据;
数据展示单元604,用于向所述用户展示所述待展示发音解析数据。
在一种可能的实施方式中,所述待使用发音解析结果包括发音解析文本数据、以及发音解析音频数据中的至少一个;其中,所述发音解析音频数据携带的语义信息与所述发音解析文本数据携带的语义信息之间存在交集。
在一种可能的实施方式中,所述发音解析文本数据包括至少一个待使用解析文本;所述发音解析音频数据包括所述至少一个待使用解析文本对应的音频数据。
在一种可能的实施方式中,所述发音解析单元602,包括:
第一获取子单元,用于获取所述目标发音文本的发音关联解析内容;
第一确定子单元,用于根据所述目标发音文本的发音关联解析内容,确定所述待使用发音解析结果。
在一种可能的实施方式中,所述发音关联解析内容包括发音声调描述数据、发音嘴型描述数据、以及发音举例介绍数据中的至少一个。
在一种可能的实施方式中,所述第一确定子单元,具体用于:根据所述目标发音文本的发音关联解析内容,确定至少一个待使用解析文本;根据各个待使用解析文本,确定各个待使用解析文本对应的语音播报文本;将各个待使用解析文本对应的语音播报文本分别进行音频数据转化处理,得到各个待使用解析文本对应的音频数据;根据所述至少一个待使用解析文本、以及所述至少一个待使用解析文本对应的音频数据,确定所述待使用发音解析结果。
在一种可能的实施方式中,所述展示装置600还包括:
人物确定单元,用于根据所述目标发音文本,确定所述拟态人物。
在一种可能的实施方式中,所述人物确定单元,包括:
语种识别子单元,用于识别所述目标发音文本的语种类型;
第二确定子单元,用于从预设映射关系中查找所述目标发音文本的语种类型对应的候选人物形象,确定为待配置人物形象;其中,所述预设映射关系包括所述目标发音文本的语种类型与所述待配置人物形象之间的对应关系;
第三确定子单元,用于根据所述待配置人物形象,确定所述拟态人物。
在一种可能的实施方式中,所述人物确定单元还包括:
语义识别子单元,用于对所述待使用发音解析结果进行语义识别处理,得到待使用语义识别结果;
第四确定子单元,用于根据所述待使用语义识别结果,确定待使用人物配置参数;
所述第三确定子单元,具体用于:利用所述待使用人物配置参数,对所述待配置人物形象进行参数配置处理,得到所述拟态人物。
在一种可能的实施方式中,所述数据确定单元603,具体用于:根据所述待使用发音解析结果、以及拟态人物,确定至少一个待展示页面以及所述至少一个待展示页面的展示顺序;
所述数据展示单元604,具体用于:按照所述至少一个待展示页面的展示顺序,向所述用户展示所述至少一个待展示页面。
在一种可能的实施方式中,所述待使用发音解析结果包括N个数据组;所述拟态人物包括所述N个数据组对应的讲解配合人物;
所述至少一个待展示页面的确定过程,包括:根据第n个数据组、以及所述第n个数据组对应的讲解配合人物,确定第n个待展示页面;其中,所述第n个数据组包括第n个待使用解析文本、以及所述第n个待使用解析文本对应的音频数据;n为正整数,n≤N,N表示待展示页面的个数。
在一种可能的实施方式中,所述展示装置600还包括:
发音评价单元,用于在获取到所述用户针对所述目标发音文本输入的用户发音音频数据之后,对所述用户发音音频数据进行发音评价处理,得到待展示用户发音评价结果;
评价展示单元,用于向所述用户展示所述待展示用户发音评价结果。
进一步地,本申请实施例还提供了一种设备,包括:处理器、存储器、***总线;
所述处理器以及所述存储器通过所述***总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述展示方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行上述展示方法的任一种实现方法。
进一步地,本申请实施例还提供了一种计算机程序产品,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行上述展示方法的任一种实现方法。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (16)
1.一种展示方法,其特征在于,所述方法包括:
获取用户输入的目标发音文本;
对所述目标发音文本进行发音解析处理,得到待使用发音解析结果;
根据所述待使用发音解析结果、以及拟态人物,确定待展示发音解析数据;
向所述用户展示所述待展示发音解析数据。
2.根据权利要求1所述的方法,其特征在于,所述待使用发音解析结果包括发音解析文本数据、以及发音解析音频数据中的至少一个;其中,所述发音解析音频数据携带的语义信息与所述发音解析文本数据携带的语义信息之间存在交集。
3.根据权利要求2所述的方法,其特征在于,所述发音解析文本数据包括至少一个待使用解析文本;所述发音解析音频数据包括所述至少一个待使用解析文本对应的音频数据。
4.根据权利要求1所述的方法,其特征在于,所述待使用发音解析结果的确定过程,包括:
获取所述目标发音文本的发音关联解析内容;
根据所述目标发音文本的发音关联解析内容,确定所述待使用发音解析结果。
5.根据权利要求4所述的方法,其特征在于,所述发音关联解析内容包括发音声调描述数据、发音嘴型描述数据、以及发音举例介绍数据中的至少一个。
6.根据权利要求4所述的方法,其特征在于,所述根据所述目标发音文本的发音关联解析内容,确定所述待使用发音解析结果,包括:
根据所述目标发音文本的发音关联解析内容,确定至少一个待使用解析文本;
根据各个待使用解析文本,确定各个待使用解析文本对应的语音播报文本;
将各个待使用解析文本对应的语音播报文本分别进行音频数据转化处理,得到各个待使用解析文本对应的音频数据;
根据所述至少一个待使用解析文本、以及所述至少一个待使用解析文本对应的音频数据,确定所述待使用发音解析结果。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述目标发音文本,确定所述拟态人物。
8.根据权利要求7所述的方法,其特征在于,所述根据所述目标发音文本,确定所述拟态人物,包括:
识别所述目标发音文本的语种类型;
从预设映射关系中查找所述目标发音文本的语种类型对应的候选人物形象,确定为待配置人物形象;其中,所述预设映射关系包括所述目标发音文本的语种类型与所述待配置人物形象之间的对应关系;
根据所述待配置人物形象,确定所述拟态人物。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
对所述待使用发音解析结果进行语义识别处理,得到待使用语义识别结果;
根据所述待使用语义识别结果,确定待使用人物配置参数;
所述根据所述待配置人物形象,确定所述拟态人物,包括:
利用所述待使用人物配置参数,对所述待配置人物形象进行参数配置处理,得到所述拟态人物。
10.根据权利要求1-9任一项所述的方法,其特征在于,所述根据所述待使用发音解析结果、以及拟态人物,确定待展示发音解析数据,包括:
根据所述待使用发音解析结果、以及拟态人物,确定至少一个待展示页面以及所述至少一个待展示页面的展示顺序;
所述向所述用户展示所述待展示发音解析数据,包括:
按照所述至少一个待展示页面的展示顺序,向所述用户展示所述至少一个待展示页面。
11.根据权利要求10所述的方法,其特征在于,所述待使用发音解析结果包括N个数据组;所述拟态人物包括所述N个数据组对应的讲解配合人物;
所述至少一个待展示页面的确定过程,包括:
根据第n个数据组、以及所述第n个数据组对应的讲解配合人物,确定第n个待展示页面;其中,所述第n个数据组包括第n个待使用解析文本、以及所述第n个待使用解析文本对应的音频数据;n为正整数,n≤N,N表示待展示页面的个数。
12.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在获取到所述用户针对所述目标发音文本输入的用户发音音频数据之后,对所述用户发音音频数据进行发音评价处理,得到待展示用户发音评价结果;
向所述用户展示所述待展示用户发音评价结果。
13.一种展示装置,其特征在于,包括:
文本获取单元,用于获取用户输入的目标发音文本;
发音解析单元,用于对所述目标发音文本进行发音解析处理,得到待使用发音解析结果;
数据确定单元,用于根据所述待使用发音解析结果、以及拟态人物,确定待展示发音解析数据;
数据展示单元,用于向所述用户展示所述待展示发音解析数据。
14.一种设备,其特征在于,所述设备包括:处理器、存储器、***总线;
所述处理器以及所述存储器通过所述***总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行权利要求1至12任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备执行权利要求1至12任一项所述的方法。
16.一种计算机程序产品,其特征在于,所述计算机程序产品在终端设备上运行时,使得所述终端设备执行权利要求1至12任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210065698.XA CN114420088A (zh) | 2022-01-20 | 2022-01-20 | 一种展示方法及其相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210065698.XA CN114420088A (zh) | 2022-01-20 | 2022-01-20 | 一种展示方法及其相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114420088A true CN114420088A (zh) | 2022-04-29 |
Family
ID=81274771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210065698.XA Pending CN114420088A (zh) | 2022-01-20 | 2022-01-20 | 一种展示方法及其相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114420088A (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002032003A (ja) * | 2000-06-09 | 2002-01-31 | E Faarii Michael | 言語学習システム |
US20030028378A1 (en) * | 1999-09-09 | 2003-02-06 | Katherine Grace August | Method and apparatus for interactive language instruction |
KR20080087694A (ko) * | 2007-03-26 | 2008-10-01 | 봉래 박 | 발음기관 동영상 시뮬레이션 시스템 및 구현 방법 |
US20150042662A1 (en) * | 2013-08-08 | 2015-02-12 | Kabushiki Kaisha Toshiba | Synthetic audiovisual storyteller |
US20150325145A1 (en) * | 2014-05-06 | 2015-11-12 | Seoungwon SEO | Method and Apparatus for Teaching Language |
KR20160032334A (ko) * | 2014-09-15 | 2016-03-24 | (주)위버스마인드 | 문장입력을 통해 발음교정을 실시하는 중국어 학습장치 |
CN108763190A (zh) * | 2018-04-12 | 2018-11-06 | 平安科技(深圳)有限公司 | 基于语音的口型动画合成装置、方法及可读存储介质 |
US20190197755A1 (en) * | 2016-02-10 | 2019-06-27 | Nitin Vats | Producing realistic talking Face with Expression using Images text and voice |
CN110189744A (zh) * | 2019-04-09 | 2019-08-30 | 阿里巴巴集团控股有限公司 | 文本处理的方法、装置和电子设备 |
CN110853614A (zh) * | 2018-08-03 | 2020-02-28 | Tcl集团股份有限公司 | 虚拟对象口型驱动方法、装置及终端设备 |
WO2021043053A1 (zh) * | 2019-09-02 | 2021-03-11 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的动画形象驱动方法和相关装置 |
CN113539240A (zh) * | 2021-07-19 | 2021-10-22 | 北京沃东天骏信息技术有限公司 | 动画生成方法、装置、电子设备和存储介质 |
-
2022
- 2022-01-20 CN CN202210065698.XA patent/CN114420088A/zh active Pending
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030028378A1 (en) * | 1999-09-09 | 2003-02-06 | Katherine Grace August | Method and apparatus for interactive language instruction |
JP2002032003A (ja) * | 2000-06-09 | 2002-01-31 | E Faarii Michael | 言語学習システム |
KR20080087694A (ko) * | 2007-03-26 | 2008-10-01 | 봉래 박 | 발음기관 동영상 시뮬레이션 시스템 및 구현 방법 |
US20150042662A1 (en) * | 2013-08-08 | 2015-02-12 | Kabushiki Kaisha Toshiba | Synthetic audiovisual storyteller |
US20150325145A1 (en) * | 2014-05-06 | 2015-11-12 | Seoungwon SEO | Method and Apparatus for Teaching Language |
KR20160032334A (ko) * | 2014-09-15 | 2016-03-24 | (주)위버스마인드 | 문장입력을 통해 발음교정을 실시하는 중국어 학습장치 |
US20190197755A1 (en) * | 2016-02-10 | 2019-06-27 | Nitin Vats | Producing realistic talking Face with Expression using Images text and voice |
CN108763190A (zh) * | 2018-04-12 | 2018-11-06 | 平安科技(深圳)有限公司 | 基于语音的口型动画合成装置、方法及可读存储介质 |
CN110853614A (zh) * | 2018-08-03 | 2020-02-28 | Tcl集团股份有限公司 | 虚拟对象口型驱动方法、装置及终端设备 |
CN110189744A (zh) * | 2019-04-09 | 2019-08-30 | 阿里巴巴集团控股有限公司 | 文本处理的方法、装置和电子设备 |
WO2021043053A1 (zh) * | 2019-09-02 | 2021-03-11 | 腾讯科技(深圳)有限公司 | 一种基于人工智能的动画形象驱动方法和相关装置 |
CN113539240A (zh) * | 2021-07-19 | 2021-10-22 | 北京沃东天骏信息技术有限公司 | 动画生成方法、装置、电子设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
YE BAI;: "Learn spelling from teachers: transferring knowledge from language models to sequence-to-sequence speech recognition", 《ARXIV》, 13 June 2019 (2019-06-13) * |
周颖: "基于普通话发音气流建模的3D说话人***设计与实现", 《中国优秀硕士学位论文全文数据库(信息科技辑)》, 15 February 2019 (2019-02-15) * |
张思光: "韵律文本驱动的三维口型动画研究", 《中国优秀硕士学位论文全文数据库(信息科技辑)》, 15 August 2008 (2008-08-15) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110797010A (zh) | 基于人工智能的问答评分方法、装置、设备及存储介质 | |
CN110600033B (zh) | 学习情况的评估方法、装置、存储介质及电子设备 | |
US20120141959A1 (en) | Crowd-sourcing the performance of tasks through online education | |
CN113657509B (zh) | 教学训练提升方法、装置、终端和存储介质 | |
CN113253838A (zh) | 基于ar的视频教学方法、电子设备 | |
CN113205729A (zh) | 一种面向外国留学生的演讲评测方法、装置及*** | |
CN111966839A (zh) | 数据处理方法、装置、电子设备及计算机存储介质 | |
JP3930402B2 (ja) | オンライン教育システム、情報処理装置、情報提供方法及びプログラム | |
CN114420088A (zh) | 一种展示方法及其相关设备 | |
CN111768667A (zh) | 一种用于英语教学的互动式循环演示方法及*** | |
CN112951274A (zh) | 语音相似度确定方法及设备、程序产品 | |
CN112951013A (zh) | 一种学习交互方法、装置、电子设备以及存储介质 | |
KR102658252B1 (ko) | 캐릭터를 활용한 인공지능 자연어 처리 기반의 화상교육 콘텐츠 제공 방법 및 장치 | |
KR102528293B1 (ko) | 인공지능 기술을 활용한 교수-학습지원 통합 시스템 및 외국어 학습과제 처리 방법 | |
TWI771858B (zh) | 結合影像辨識及語音辨識之智慧語言學習方法及其系統 | |
CN117273014B (zh) | 基于迁移学习的跨领域语义解析方法 | |
KR102260280B1 (ko) | 외국어-수화 동시 학습방법 | |
CN118195852A (zh) | 在线语言学习方法、装置、电子设备和存储介质 | |
CN117975967A (zh) | 教学资源的生成方法、装置、设备和存储介质 | |
CN110059231B (zh) | 一种回复内容的生成方法及装置 | |
CN114489440A (zh) | 一种展示方法及其相关设备 | |
CN116129910A (zh) | 一种具有声纹识别功能的点读笔*** | |
KR20230064906A (ko) | 자막 출력 장치 | |
CN114895795A (zh) | 交互方法、装置、平台、电子设备和存储介质 | |
WO2022240358A1 (en) | System and method for training a culturally-specific assisting language learning model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |