CN111241308A - 一种语言口语自助学习方法及*** - Google Patents

一种语言口语自助学习方法及*** Download PDF

Info

Publication number
CN111241308A
CN111241308A CN202010125446.2A CN202010125446A CN111241308A CN 111241308 A CN111241308 A CN 111241308A CN 202010125446 A CN202010125446 A CN 202010125446A CN 111241308 A CN111241308 A CN 111241308A
Authority
CN
China
Prior art keywords
library
standard
spoken language
voice
scene
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010125446.2A
Other languages
English (en)
Other versions
CN111241308B (zh
Inventor
曾兴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN202010125446.2A priority Critical patent/CN111241308B/zh
Publication of CN111241308A publication Critical patent/CN111241308A/zh
Application granted granted Critical
Publication of CN111241308B publication Critical patent/CN111241308B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3343Query execution using phonetics

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

本发明公开了一种语言口语自助学习方法及***,其特征在于,构建公共口语标准发音库和/或公共口语标准场景语音库供使用者模仿学习,学习者发音符合要求后收录入个人语音数据库,形成具有学习者口音特点的我的标准发音库并扩充至公共口语标准发音库,和/或我的标准发音库发展为我的场景语音库,学习者再与我的标准发音库和/或我的场景语音库进行互动式训练。本发明突破性地提出了一种新的语言口语自助学习***,达到自我自助式教学方式,自己教自己,增加学习的信心和兴趣,能迅速扩充我的标准发音库,快速形成我的场景语言***。未来我的标准发音库、我的场景语言***可拓展的应用非常广泛,实现之后具有重大价值。

Description

一种语言口语自助学习方法及***
技术领域
本发明涉及一种语言口语自助学习方法及***,属于教育及计算技术领域。
背景技术
语言是人类最重要的交际工具,是人们进行沟通的主要表达方式。语言学习指个体学会使用语言进行交际的过程,口头言语简称“口语”是一个人凭借自己的发音器官所发出的有声言语。分为会话言语和独白言语。随着计算机技术的发展,计算辅助学习作为一种新的学习方式逐渐进入人们的日常生活中,学习者可以通过互联网在线口语学习,极大的提高学习者学习的效率。
如:CN105654785A ( CN201610156700.9 )《个性化外语口语学习***及方法》,录制一段来自用户的外文音频;对所录制的外文音频进行识别判断,以形成口语诊断结果;根据所述口语诊断结果在数据库中索引相匹配的口语学习内容,并将索引到的口语学习内容推送给用户进行选择;以及根据用户的选择在数据库中建立与用户相匹配的个性化索引表,所述个性化索引表与用户选择的口语学习内容相对应。
再如,CN109493658A (CN201910014790.1)《情景化人机对话式口语交互学习方法》,包括以下步骤,S1、置入一个或多个情景模式下的对话内容,生成可训练的口语内容;S2、开启口语训练,进入人机对话模式;S3、通过语音方式表达出口语内容的前句,用户根据前句的所表达的内容,通过口语表达出后句的内容;S4、对用户口语表达出的后句内容进行采集、分析、评分以及反馈;S5、重复步骤S3、S4直至情景对话结束,完成口语对话训练。
CN104637355A( CN201510054936.7 )《基于云网络的多人互动口语学习方法及***》,云服务器创建口语学习活动;至少一用户向云服务器发送参加口语学习活动的命令;所述云服务器将该角色对话指令发送给扮演该角色的用户;所述用户将发言数据上传给云服务器;所述云服务器对该发言数据进行分析评价;重复上述口语学习过程,直至所述剧本的所有角色对话指令执行完成,所述云服务器向所述至少一用户反馈学习评价信息。
CN106355960A( CN201610944463.2 )《一种交互式英语学习***及方法》,中央处理***分别电性输入连接键盘输入子***、语音输入子***和滑动控制电路。
上述技术中,CN105654785A 采用口语诊断并根据口语诊断结果进行口语学习内容的推荐,为用户提供有针对性的联系,提高口语学习效果。 CN109493658A 通过人机交互对话练习口语,矫正、提升发音标准,提高口语表达能力及语言应用能力,在特定情景中进行针对性口语训练,使用户熟悉及掌握某个场景的口语表达。CN104637355A通过角色扮演的方式提高了学习者的热情、兴趣和效率,以及给学习者带来娱乐性和挑战性,达到寓教于乐,轻松学习的效果。 CN106355960A实现自助式的英语语言学习,而且具有丰富的功能,可以从语言、听力、读写,语法等方面对学生进行训练,可以下载和观看海量的英语学习视频,可以对学习者有针对性的口语训练,当学习者发音不准确时,能够及时的纠正和指导,提高学习者的学习兴趣,摆脱了学习者只是单一的通过老师授课方式学习,有问题时,不能及时的解决的问题。
近几年,区块链技术用于语言学习的技术在近年来正在形成热点。
如CN108810187A(CN201810568477.8) 《一种通过区块链对接语音服务的网络***》,包括:至少一个区块链语音DNS单元,用于注册至少一个聊天机器人的网址,并能够进行聊天机器人域名查询,返回该聊天机器人的地址;至少一个语音浏览器,能够和所述区块链语音DNS单元通讯,利用聊天机器人的名称进行域名查询,获得该聊天机器人的网址,并进行通信。
国际商业机器公司(美国纽约阿芒克)的 CN110019751A(CN201910012993.7)《机器学习模型修改和自然语言处理》,用于使基于知识图的数据持久性的框架自动化,并且解决知识图中的时间变化和不确定性。自然语言理解与一个或多个机器学习模型(MLM)一起用于从非结构化信息中提取数据,包括实体和实体关系。提取的数据被填充到知识图中。由于KG可能会发生变化,因此KG用于创建新的以及重新训练现有的机器学习模型(MLM)。加权以准确度值的形式应用到填充的数据。区块链技术被用于填充数据,以确保数据的可靠性,并提供可审计性以评估数据的变化。
其它相关技术用于语言学习的也有不少如:
CN101661675A ( CN200910186154.3)《一种错误自感知的声调发音学***均的二次函数绘制声调曲线;最后将目标声调语音和实际发音的声调曲线反馈给学习者。
安徽科大讯飞信息科技股份有限公司的CN101105939A( CN200710145859.1)《发音指导方法》,包括建立标准和非标准语音库;对非标准语音库中的各音素以及语音片段提供发音评价标注和语音评分标注;通过标准和非标准语音库获得非标准语音库中各音素的第一声学后验概率和音素检错阀值以及各语音片段的第一语音特征与语音评分标注之间的映射模型;获取用户发音,并根据该发音获得其各音素的第二声学后验概率以及语音片段的第二语音特征;根据该第二声学后验概率与该音素检错阀值的比较以及该第二语音特征与第一语音特征与语音评分间映射模型进行匹配。
上述技术中,CN108810187A能够为多个聊天机器人解析域名,并能够接入多个智能音箱,综合了聊天机器人与传统WEB服务,域名可以采用自然语言的形式,便于呼叫和解析,在DNS单元中按照不同的语言建立了域名树,使得同种语言发音得到同种语言的网址,提高了用户使用的便利,具有本地域名学***台。 CN101661675A 通过声音和图像两种方式来直接反映声调发音质量,能够提供形象、直观的反馈信息,使学习者可以自发地感知声调发音错误并进行校正,并增加了学习的娱乐性和趣味性,提高学习效率。CN101105939A向该用户提供对其发音各音素的发音评价标注的评价内容以及语音片段的语音评分标注,让用户得知其发音中各个音素的发音是否标准以及发音中各语音片段的标准程度。
本发明创造依始至得到本发明阶段(至中国申请日之前),尚未发现一种口语标准发音库供使用者模仿学习,学习者发音符合要求后收录入个人语音数据库,形成用户标准发音库并扩充至公共口语标准发音库,学习者在与自己的场景语言***进行互动式训练学习方法和学习***。
发明内容
本发明的目的在于创造一种口语标准发音库供使用者模仿学习,学习者发音符合要求后收录入个人语音数据库,形成用户标准发音库并扩充至公共口语标准发音库,学习者在与自己的场景语言***进行互动式训练学习方法和学习***。从而提供一种语言口语自助学习方法及***。
本发明采用如下技术方案实现:
技术方案之一:
一种语言口语自助学习方法,构建公共口语标准发音库和/或公共口语标准场景语音库供使用者模仿学习,学习者发音符合要求后收录入个人语音数据库,形成具有学习者口音特点的我的标准发音库并扩充至公共口语标准发音库,和/或我的标准发音库发展为我的场景语音库,学习者再与我的标准发音库和/或我的场景语音库进行互动式训练。
技术方案之二:
一种语言口语自助学***与我的标准发音库的数据量及数据水平动态扩充及交互提高并趋向标准口语;直到学习者完全掌握该种口语并形成最终版的我的标准发音库;最终版的我的标准发音库能选择参与构建公共口语标准发音库,成为他人学习的标准口语。
进一步,在收录入该学习者的个人语音数据库,形成具有学习者口音特点的我的标准发音库的过程中,还包括通过人工智能技术生成学习者模仿学习之外的新词句,新词句与收录入词句一样,在我的标准发音库中同样能动态扩充及交互提高并趋向标准口语。
进一步,我的标准发音库的数据量及数据水平动态扩充及交互提高的过程中或扩充提高到设定值后,我的标准发音库自然或通过合成技术发展升级为具有学***在自然状态或在所述合成技术或在人工智能技术的支撑下持续扩充提高;学习者的场景口语和我的场景语音库趋向标准场景口语;直到学习者完全掌握该种口语及场景口语并形成最终版的我的场景语音库;最终版的我的场景语音库能选择参与构建公共口语标准发音库和/或公共口语标准场景语音库,成为他人学习的标准场景口语。
技术方案之三:
一种语言口语自助学习方法,构建某一或各种公共口语标准发音库和/或公共口语标准场景语音库,供使用者模仿学习,学习者在学习其中任一种口语过程中,发音符合要求即通过口语评价标准后收录入个人语音数据库,形成具有学习者口音特点的我的标准发音库,我的标准发音库通过收录和/或技术性生成持续扩充;在扩充过程中或扩充到一定量时,我的标准发音库自然或通过技术性生成再发展为具有学习者口音特点的我的场景语音库,学习者与我的标准发音库和/或我的场景语音库形成沉浸式自学训练,借助公共口语标准发音库和/或公共口语标准场景语音库及口语评价标准,学习者与我的标准发音库和/或我的场景语音库动态扩充并交互提高,直到学习者完全掌握该种口语,并形成最终版的我的标准发音库和/或我的场景语音库,我的标准发音库和/或我的场景语音库能选择参与构建公共口语标准发音库和/或公共口语标准场景语音库;
技术性生成学习者模仿学习之外的新词句,新词句与收录入词句一样,在我的标准发音库中同样能动态扩充及交互提高并趋向标准口语。
技术方案之四:
一种语言口语自助学习方法,所述方法通过参与者构建个人语音数据库,个人语音数据库包括个人标准发音库和/或个人场景语音库,不选择参与公共标准语音库时,个人语音数据库设权限使用;选择无权限参与和/或设权限参与,则成为公共标准语音库的一部分,供使用者模仿学习,学习者发音符合要求后收录入学习者个人语音数据库,形成具有学习者口音特点的我的标准发音库和/或我的标准发音库发展为我的场景语音库;学习者再与公共标准语音库、我的标准发音库和/或我的场景语音库进行互动式训练及交互提高;直到学习者完全掌握该种口语并形成最终版的我的标准发音库和/或我的场景语音库;最终版的我的标准发音库和/或我的场景语音库不选择参与公共标准语音库时设权限使用;选择无权限参与和/或设权限参与,则成为公共标准语音库的一部分;形成学习者、参与者之间的循环,同时又为参与者和学习者提供了一个建立个人语音数据库的权利。
进一步,公共口语标准发音库中的标准口语通过权威认定和/或大众从众评定;若干公共口语标准发音库构成公共标准语音库供使用者模仿学习。
进一步,标准口语涵盖任何语言口语,包括国家、地区、民族和/或某一个特定人群的标准发音。
进一步,口语评价标准通过权威认定设定和/或大众从众动态评定,口语评价标准为一级或二级或多级,每一级别的评价水平不一样且逐步趋向标准口语评价标准。
进一步,我的标准发音库和/或我的场景语音库使用权限采用开放式或有权限式,其中选择参与构建公共口语标准发音库和公共口语标准场景语音库后即为开放式,不选择参与构建公共口语标准发音库和公共口语标准场景语音库后能设置权限;最终版的我的标准发音库和/或我的场景语音库的使用范围包括但不限于语音控制、交流;如物联网、老人陪护类机器人及自配置语音导航。
技术方案之四:
一种语言口语自助学习***,它包括,
公共标准语音库,构建公共口语标准发音库和/或公共口语标准场景语音库,供使用者模仿学习;
标准识别***,通过与口语评价标准进行对比识别,当模仿学习达到口语评价标准,通过识别并收录;
个人语音数据库,个人语音数据库包括我的标准发音库和/或我的场景语音库,
我的标准发音库,学习者在学习其中任一种口语过程中,发音符合要求即通过标准识别后收录入,形成具有学习者口音特点的即我的标准发音库;
我的场景语音库,我的标准发音库的数据量及数据水平动态扩充及交互提高的过程中或扩充提高到设定值后,我的标准发音库升级为具有学习者口音特点的我的场景语音库,同时对外提供第三方语音库接口;
辅助***,辅助***至少包括公共标准语音库收集***、我的标准发音库中模仿学习之外的新词句生成***和/或我的标准发音库升级为具有学习者口音特点的我的场景语音库的合成***;
公共标准语音库、标准识别***、个人语音数据库中的我的标准发音库和我的场景语音库和/或辅助***之间的数据直接和/或间接联通。
进一步,公共标准语音库设有各参与者的混合库和/或独立库,参与者如构建独立的个人语音数据库,事先选择是否参加公共标准语音库独立库,独立的个人语音数据库包括个人标准发音库和个人场景语音库。
进一步,综合利用云计算、大数据、人工智能、移动技术、区块链中的一种或多种技术手段构建某一或各种公共口语标准发音库和/或公共口语标准场景语音库***。
进一步,我的标准发音库采用人工智能、大数据、区块链中的一种或多种合成技术再发展为具有学习者口音特点的我的场景语音库。
进一步,最终版的我的标准发音库和/或我的场景语音库使用权限采用开放式或有权限式,其中选择参与构建公共口语标准发音库和公共口语标准场景语音库后即为开放式,不选择参与构建公共口语标准发音库和公共口语标准场景语音库后能设置权限;使用范围包括但不限于语音控制、交流,如物联网、老人陪护类机器人及自配置语音导航。
技术方案之五:
一种语言口语自助学习***,通过云计算、大数据、人工智能、移动技术、区块链中的一种或多种技术构建公共口语标准发音库和/或公共口语标准场景语音库,学习者同步模仿学习,并收录至个人语音数据库,个人语音***包括我的标准发音库和我的场景语音库;通过构建语言比对协议识别发音差距,对比标准发音,强化学习者趋向标准发音,当学习者发音符合标准发音范畴后,***自动收录存入个人语音数据库,形成我的标准发音库;借助我的标准发音库和/或公共口语标准发音库和/或公共口语标准场景语音库中的某个人标准发音,通过合成技术形成具有学习者口音特点的我的场景语音库;学习者再与我的标准发音库和/或我的场景语音库进行互动语言沉浸式自学训练并动态扩充及交互提高,个人语音数据库能选择参与构建公共口语标准发音库和/或公共口语标准场景语音库,个人语音数据库使用权限采用开放式或有权限式。
进一步,
(1)通过区块链技术构建公共口语标准发音库,收集涵盖任何语言口语,包括国家、地区、民族和/或某一个特定人群的标准发音;
(2)学习者选定任一种标准发音,同步模仿学习,并收录至***,***发现学习者模仿学习中存在的差异时,通过区块链智能合约的标准发音比对协议识别发音差距,强化学习者趋向标准发音,当学习者某一单词或某一句子的发音达到标准发音后,***自动收录构建区块数据给出奖励分值;或***随机调配出不同人的同标准发音,强化学习者趋向标准发音,当学习者某一单词或某一句子的发音达到标准发音后,***自动收录构建区块数据给出奖励分值;
(3)当学习者单词达到标准发音数量达到一定的时候,通过区块链智能合约的个人语音成果验证协议,一旦通过,将被公共口语标准发音库区块链收录为标准发音库,成为公共语音库区块链贡献一员;
(4)学习者再通过与我的标准发音库对比学习,强化学习者的单词或句子的标准发音;同时,进一步收集学习者新增单词或句子的标准发音;再扩充我的标准发音库;
(5)当我的标准发音库区块链接到公共口语标准发音库后,再通过语音合成算法技术,形成具有学习者口音特点的我的场景语音库;
(6)学***。
进一步,步骤(1),构建公共口语标准发音库时,采用POA共识机制中专用节点为应用提供标准发音采集数据的存储能力。
进一步,步骤(4),通过区块链数据存储和Hash映射实现语音区块数据单元制作,扩充我的标准发音库。
进一步,我的场景语音库至少形成语音控制或对话场景语言;我的场景语音库至少形成包括老人陪护类机器人的对话场景语言;我的场景语音库至少包括自己或亲人或爱人或朋友的场景语言。
技术方案之六:
一种语言口语自助学习***,参与者构建个人语音数据库,个人语音数据库包括个人标准发音库和个人场景语音库;参与者与***对话或单向收录,***自动收录存入个人语音数据库,形成具有参与者口音特点的个人标准发音库;借助个人标准发音库形成具有学习者口音特点的个人场景语音库;参与者再与个人标准发音库和/或个人场景语音库进行互动语言的沉浸式扩充训练、自身语音修正和同步完善,个人语音数据库能选择参与构建公共口语标准发音库,个人语音数据库使用权限采用开放式或有权限式。
进一步,在收录入参与者的个人语音数据库,形成具有参与者口音特点的我的标准发音库的过程中,还包括通过人工智能技术生成参与者收录之外的新词句,参与者再与个人标准发音库进行互动语言的沉浸式扩充训练、双向语音修正和同步完善,新词句和个人标准发音库趋向参与者标准口语。
进一步,个人标准发音库采用云计算、大数据、人工智能、移动技术、区块链中的一种或多种合成技术再发展为具有学习者口音特点的个人场景语音库。
进一步,个人场景语音库形成至少包括老人陪护类机器人的对话场景语言;个人场景语音库至少包括自己或亲人或爱人或朋友的场景语言。
本发明突破性地提出了一种新的语言口语(语音)自助学习***,达到自我自助式教学方式,自己教自己,增加学习的信心和兴趣,特别是通过区块链智能合约技术能迅速扩充我的标准发音库,快速形成我的场景语言***。
本发明实施后,意味着会同时打造一个语言口语(语音)的标准语音链。这条链不只是一个地区的人,可能一个国家的,甚至全世界的,每一个人都通过练习形成个性语音标准库。假设您作为学习者或参与者,有一个您自己(或亲人或爱人或朋友)的标准的库(参与者),口语单词常用的有五六千,您也读了五六千个,然后挂接到这个区块链当中来,未来导航就用您自己或亲人或爱人或朋友的声音了。实现过程仅仅需要通过跟您这个***对接,就能换成各种人,各种各式的声音。当然除了语音导航之外,包括我们生活当中很多的声音和场景,也可以换,譬如我们回家有自己或亲人或爱人或朋友的提醒,闹钟,电影自动翻译语音,都可以换成自己或亲人或爱人或朋友的声音或者想要的声音了。再拓展为语音控制或对话,特别包括老人陪护类机器人的对话(自己或亲人或爱人或朋友的声音)。
本发明如采用大众从众认可(区块链技术),还具有如下特性:(1)去中心化公正性。***由于和标准发音对比后形成客观评价,不需要专家评委评判,具有去权威中心化的公正性。(2)语音数据可信及版权安全。分布式语音账本保障个人语音数据及版权安全和未来可能收益。(3)自组织激励机制增强自主性参与度降低建库难度。由于采用自组织激励方式完善发音库,解决标准语音库建设难题。
本发明包括公共口语标准发音库和/或公共口语标准场景语音库供使用者模仿学习,学习者发音符合要求后收录入个人语音数据库,形成具有学习者口音特点的我的(用户)标准发音库并扩充至公共口语标准发音库,和/或我的(用户)标准发音库发展为我的(用户)场景语音***,学习者在与我的(用户)场景语音***和/或我的(用户)标准发音库进行互动式训练。现有技术未公开这一技术特征,因此本发明具备新颖性。
同时,上述区别特征也未被检索到在其他对比文件中公开,也不属于本领域的公知常识,本领域技术人员在没有本发明的启示、不付出创造性劳动的情况下难以获得具有上述特征的技术方案,因此,本发明具有突出的实质性特点和显著的进步,具有创造性。
未来我的标准发音库、我的场景语言***可拓展的应用非常广泛,实现之后具有重大价值。
附图说明
图1是本发明实施例1的技术架构方框图;
图2是本发明实施例1的***区块链技术框架图;
图3是本发明实施例1的***应用流程图;
图4是本发明实施例1的比对协议识别发音差距示意图。
具体实施方式
下面结合具体实施例对本发明的技术方案做详细说明。
实施例1
以一种基于区块链技术的语言口语(语音)自助学习***为例,通过区块链技术构建公共口语标准发音库,学习者同步模仿学习,并收录至语音区块链***,通过构建口语评价标准即公共口语标准发音库比对协议识别发音差距,对比标准发音,强化学习者趋向标准发音,当学习者发音符合标准发音范畴后,即当达到设定的口语评价标准或被大众从众认可后,***自动收录存入个人语音数据库,形成我的标准发音库,再扩充到公共口语标准发音库中;借助公共口语标准发音库中的某个人标准发音可以形成具有学习者口音特点的我的场景语言***;学习者再与我的场景语言***进行互动语言的沉浸式自学训练。沉浸式自学训练并动态扩充及交互提高,个人语音数据库能选择参与构建公共口语标准发音库和/或公共口语标准场景语音库,个人语音数据库使用权限采用开放式或有权限式。
图1所示:
(1)通过区块链技术构建公共口语(语音)标准发音库,采用POA共识机制中专用节点为应用提供标准发音采集数据的存储能力;收集涵盖任何语言口语,包括国家、地区、民族和/或某一个特定人群的标准发音;
(2)学习者选定任一种标准发音,同步模仿学习,并收录至***,***发现学习者模仿学习中存在的差异时,通过区块链智能合约的标准发音比对协议识别发音差距,***随机调配出不同人的同标准发音,强化学习者趋向标准发音,当学习者某一单词或某一句子的发音达到标准发音后,***自动收录构建区块数据给出奖励分值;
(3)当学习者单词达到标准发音数量达到一定的时候,通过区块链智能合约的个人语音成果验证协议,一旦通过,将被公共口语标准发音库区块链收录为标准发音库,成为公共语音库区块链贡献一员;
(4)学习者再通过与我的标准发音库对比学习,强化学习者的单词或句子的标准发音;同时,进一步收集学习者新增单词或句子的标准发音;再通过区块链数据存储和Hash映射实现语音区块数据单元制作,扩充我的标准发音库;
(5)当我的标准发音库区块链接到公共口语标准发音库后,再通过语音合成算法技术,形成具有学习者口音特点的我的场景语音库;
(6)学***。
图2所示,语言口语(语音)自助学习***,是一种基于以太坊区块链技术支撑的***,技术体系分为五个层级,从基础层、网络层、核心层、拓展层到应用层,其中基础层主要是基础的数据结构及基本算法支撑,侧重数据区块的数据存储及基本数据结构;网络服务层侧重P2P网络支撑框架;核心层是区块链技术的核心部分包括区块链基本操作、EVM、及共识激励机制;拓展层是智能合约及API接口处理层;应用包括发音、比对、合成等面向用户使用的功能模块。
图3所示,个人口语阅读练习,发音的单词通过比对算法进行打分,达标且为最高分时通知智能合约存入个人语音库,不达标提示继续学习和努力;当积累的标准语音库语音不断增多,达到智能合约约定的标准后,即挖矿成功生成新区块,挂链接受奖励,发布个人标准语音库到英语自助口语区块链中对外发布公开。
通过区块链技术构建语言口语(语音)标准发音库,日常学习过程中学习者不断和标准发音比对算法对照,当单词达标后计入个人标准语音库,随着学习的持续,库中的达标语音数量越来越丰富,当满足智能合约中约定的标准,自动通过PoA授权的节点生成个人标准语音新区块,即代表挖矿成功生成新区块并获得相关奖励。随着参与人数的增多发音库也将逐渐丰富趋于完善,从而构建出一套基于区块链的语言口语(语音)标准发音库。
比对协议识别发音差距,如下图4所示,练***对齐、IRS滤波、时延线性频率补偿、扰动失真、不对称等几步处理后进行相似度百分制打分,分数超过90分以上认为达标,比对协议通过通知智能合约,相反不通过,提醒练习者继续加油学习。
构建区块数据给出奖励分值,在个人标准语音库未正式提交区块链之前,区块数据由个人每次练习达标的语音组成,个人一个单词发音取最高的语音评分数据进行存储,且每个存储都给予口语学习奖励分值,一旦入链形成新区块后结合现有奖励分值兑换出相应的口语学习币。
区块链智能合约的个人语音成果验证协议是;个人语音成果随着达标语音单词量增加而越来越丰富,当数量达到智能合约约定的标准后,个人语音成果将会量变发生质变,挖掘出个人标准语言口语(语音)库并打包生成区块并挂链,这时候个人特征语音库作为新增区块,将可以被外界应用在相关场景,创造使用价值进行收益转化。
通过区块链数据存储和Hash映射实现区块数据单元制作,由于和文字相比语音数据量较大,区块链采用分布式账本存储成本偏高,故我们账本中只存有代表音频数据存储地址的Hash值,当打包数据单元区块时,只需将Hash值代表语音数据打包入链即可,节省了大量区块链存储空间降低账本存储压力,当使用时通过Hash地址找到存储地址提取即可。
语音合成是指个人学习者通过单词或词组口语练习,***进行有效的语音数据存储后,在使用时可以通过文字剧本,自动索引到音频并进而合成为语音剧本,生成具有学习者口音特点的语言场景。
我的场景语言***:个人标准语音库形成之后,将具有实用拓展价值,譬如通过文字剧本可以给电影进行自动个性化配音,学习者可以看到自己或亲人或爱人或朋友配音的电影从而增加学习兴趣和形成优化完善口语发音的学习冲动,即场景语言***就是个人标准语音库沉浸式再利用***。
本发明实施例语言口语(语音),即包括国家语言如中、俄、英(美式)、德、法、西、葡、日、韩等;也包括地区语言、地区方言、次方言,如少数民族语言;官话方言、吴方言、湘方言、客家方言、闽方言、粤方言、赣方言等等;还包括以腔调划分的,如伦敦腔、贵族腔等等。
参与者通过区块链技术构建公共口语标准发音库,并收录至个人语音区块链***,个人语音区块链***包括我的标准发音库和我的场景语言***;***自动收录存入个人语音数据库,形成具有参与者口音特点的我的标准发音库;借助我的标准发音库形成具有学习者口音特点的我的场景语言***;参与者再与我的标准发音库和/或我的场景语言***进行互动语言的沉浸式自学训练、自身语音修正和同步完善,个人语音数据库同时参与构建公共口语标准发音库,个人语音数据库使用权限采用开放式或有权限式。
本发明实施例基于以太坊区块链技术基础,选择较为成熟的语音比对算法和常用的语音合成算法,属于相对成熟的技术栈群。创新结合了区块链去中心化、语音安全可信、激励机制等优势,又创新地构建了更加优越的语言口语(语音)沉浸式学习环境,从而激发学生学习兴趣是一个较大的应用创新。总而言之是一次技术创新和应用创新糅合的产物,技术可行思路有新意。
本发明实施例个人语音***挂载到公共语音库后形成未来的沉浸式场景中或其他场景中。未来所有应用都是基于公共语音库的,我的个人语音库挂载到公共库后正式进行扩展应用,否则只能自学自我调整,若为其他人所用,必须得到公共语音链的认可才行。
基于本发明的构思,采用云计算、大数据、人工智能、移动技术、区块链中的一种或多种技术,特别是随着新技术的发展,涉及的选项将会不断增加或扩展,学习或使用者选择的内容会越来越多。
上述实施例仅用以说明本发明的一种实施技术方案,而非对本发明的构思和保护范围进行限定,本发明的普通技术人员对本发明的技术方案进行修改或者等同替换,特别是以更好更先进的***实施技术或单个实施技术来实现本发明的主要构思,如涉及到语音识别新技术、语音合成新技术、包括算法的一个相对复杂技术***的更新或突破,而不脱离本发明的宗旨和范围,其均应涵盖在本发明的权利要求范围中。

Claims (20)

1.一种语言口语自助学习方法,其特征在于,构建公共口语标准发音库和/或公共口语标准场景语音库供使用者模仿学习,学习者发音符合要求后收录入个人语音数据库,形成具有学习者口音特点的我的标准发音库并扩充至公共口语标准发音库,和/或我的标准发音库发展为我的场景语音库,学习者再与我的标准发音库和/或我的场景语音库进行互动式训练。
2.一种语言口语自助学***与我的标准发音库的数据量及数据水平动态扩充及交互提高并趋向标准口语;直到学习者完全掌握该种口语并形成最终版的我的标准发音库;最终版的我的标准发音库能选择参与构建公共口语标准发音库,成为他人学习的标准口语。
3.根据权利要求2所述的一种语言口语自助学习方法,其特征在于,在收录入该学习者的个人语音数据库,形成具有学习者口音特点的我的标准发音库的过程中,还包括通过人工智能技术生成学习者模仿学习之外的新词句,新词句与收录入词句一样,在我的标准发音库中同样能动态扩充及交互提高并趋向标准口语。
4.根据权利要求2或3所述的一种语言口语自助学***动态扩充及交互提高的过程中或扩充提高到设定值后,我的标准发音库自然或通过合成技术发展升级为具有学***在自然状态或在所述合成技术或在人工智能技术的支撑下持续扩充提高;学习者的场景口语和我的场景语音库趋向标准场景口语;直到学习者完全掌握该种口语及场景口语并形成最终版的我的场景语音库;最终版的我的场景语音库能选择参与构建公共口语标准发音库和/或公共口语标准场景语音库,成为他人学习的标准场景口语。
5.一种语言口语自助学习方法,其特征在于,构建某一或各种公共口语标准发音库和/或公共口语标准场景语音库,供使用者模仿学习,学习者在学习其中任一种口语过程中,发音符合要求即通过口语评价标准后收录入个人语音数据库,形成具有学习者口音特点的我的标准发音库,我的标准发音库通过收录和/或技术性生成持续扩充;在扩充过程中或扩充到一定量时,我的标准发音库自然或通过技术性生成再发展为具有学习者口音特点的我的场景语音库,学习者与我的标准发音库和/或我的场景语音库形成沉浸式自学训练,借助公共口语标准发音库和/或公共口语标准场景语音库及口语评价标准,学习者与我的标准发音库和/或我的场景语音库动态扩充并交互提高,直到学习者完全掌握该种口语,并形成最终版的我的标准发音库和/或我的场景语音库,我的标准发音库和/或我的场景语音库能选择参与构建公共口语标准发音库和/或公共口语标准场景语音库;
技术性生成学习者模仿学习之外的新词句,新词句与收录入词句一样,在我的标准发音库中同样能动态扩充及交互提高并趋向标准口语。
6.一种语言口语自助学习方法,其特征在于所述方法通过参与者构建个人语音数据库,个人语音数据库包括个人标准发音库和/或个人场景语音库,不选择参与公共标准语音库时,个人语音数据库设权限使用;选择无权限参与和/或设权限参与,则成为公共标准语音库的一部分,供使用者模仿学习,学习者发音符合要求后收录入学习者个人语音数据库,形成具有学习者口音特点的我的标准发音库和/或我的标准发音库发展为我的场景语音库;学习者再与公共标准语音库、我的标准发音库和/或我的场景语音库进行互动式训练及交互提高;直到学习者完全掌握该种口语并形成最终版的我的标准发音库和/或我的场景语音库;最终版的我的标准发音库和/或我的场景语音库不选择参与公共标准语音库时设权限使用;选择无权限参与和/或设权限参与,则成为公共标准语音库的一部分;形成学习者、参与者之间的循环,同时又为参与者和学习者提供了一个建立个人语音数据库的权利。
7.根据以上任一权利要求所述的一种语言口语自助学习方法,其特征在于,公共口语标准发音库中的标准口语通过权威认定和/或大众从众评定;若干公共口语标准发音库构成公共标准语音库供使用者模仿学习。
8.根据以上任一权利要求所述的一种语言口语自助学习方法,其特征在于,标准口语涵盖任何语言口语,包括国家、地区、民族和/或某一个特定人群的标准发音。
9.根据以上任一权利要求所述的一种语言口语自助学***不一样且逐步趋向标准口语评价标准。
10.根据以上任一权利要求所述的一种语言口语自助学习方法,其特征在于,我的标准发音库和/或我的场景语音库使用权限采用开放式或有权限式,其中选择参与构建公共口语标准发音库和公共口语标准场景语音库后即为开放式,不选择参与构建公共口语标准发音库和公共口语标准场景语音库后能设置权限;最终版的我的标准发音库和/或我的场景语音库的使用范围包括但不限于语音控制、交流;如物联网、老人陪护类机器人及自配置语音导航。
11.一种语言口语自助学习***,其特征在于它包括,
公共标准语音库,构建公共口语标准发音库和/或公共口语标准场景语音库,供使用者模仿学习;
标准识别***,通过与口语评价标准进行对比识别,当模仿学习达到口语评价标准,通过识别并收录;
个人语音数据库,个人语音数据库包括我的标准发音库和/或我的场景语音库,
我的标准发音库,学习者在学习其中任一种口语过程中,发音符合要求即通过标准识别后收录入,形成具有学习者口音特点的即我的标准发音库;
我的场景语音库,我的标准发音库的数据量及数据水平动态扩充及交互提高的过程中或扩充提高到设定值后,我的标准发音库升级为具有学习者口音特点的我的场景语音库,同时对外提供第三方语音库接口;
及辅助***,辅助***至少包括公共标准语音库收集***、我的标准发音库中模仿学习之外的新词句生成***和/或我的标准发音库升级为具有学习者口音特点的我的场景语音库的合成***;
公共标准语音库、标准识别***、个人语音数据库中的我的标准发音库和我的场景语音库和/或辅助***之间的数据直接和/或间接联通。
12.根据权利要求11所述的一种语言口语自助学习***,其特征在于,公共标准语音库设有各参与者的混合库和/或独立库,参与者如构建独立的个人语音数据库,事先选择是否参加公共标准语音库独立库,独立的个人语音数据库包括个人标准发音库和个人场景语音库。
13.根据权利要求11或12所述的一种语言口语自助学习***,其特征在于,综合利用云计算、大数据、人工智能、移动技术、区块链中的一种或多种技术手段构建某一或各种公共口语标准发音库和/或公共口语标准场景语音库***;和/或我的标准发音库采用人工智能、大数据、区块链中的一种或多种合成技术再发展为具有学习者口音特点的我的场景语音库。
14.根据权利要求11—13任一权利要求所述的一种语言口语自助学习***,其特征在于,最终版的我的标准发音库和/或我的场景语音库使用权限采用开放式或有权限式,其中选择参与构建公共口语标准发音库和公共口语标准场景语音库后即为开放式,不选择参与构建公共口语标准发音库和公共口语标准场景语音库后能设置权限;使用范围包括但不限于语音控制、交流,如物联网、老人陪护类机器人及自配置语音导航。
15.一种语言口语自助学习***,其特征在于,通过云计算、大数据、人工智能、移动技术、区块链中的一种或多种技术构建公共口语标准发音库和/或公共口语标准场景语音库,学习者同步模仿学习,并收录至个人语音数据库,个人语音***包括我的标准发音库和我的场景语音库;通过构建语言比对协议识别发音差距,对比标准发音,强化学习者趋向标准发音,当学习者发音符合标准发音范畴后,***自动收录存入个人语音数据库,形成我的标准发音库;借助我的标准发音库和/或公共口语标准发音库和/或公共口语标准场景语音库中的某个人标准发音,通过合成技术形成具有学习者口音特点的我的场景语音库;学习者再与我的标准发音库和/或我的场景语音库进行互动语言沉浸式自学训练并动态扩充及交互提高,个人语音数据库能选择参与构建公共口语标准发音库和/或公共口语标准场景语音库,个人语音数据库使用权限采用开放式或有权限式。
16.根据权利要求15所述的一种语言口语自助学习***,其特征在于,
(1)通过区块链技术构建公共口语标准发音库,收集涵盖任何语言口语,包括国家、地区、民族和/或某一个特定人群的标准发音;
(2)学习者选定任一种标准发音,同步模仿学习,并收录至***,***发现学习者模仿学习中存在的差异时,通过区块链智能合约的标准发音比对协议识别发音差距,***随机调配出不同人的同标准发音,强化学习者趋向标准发音,当学习者某一单词或某一句子的发音达到标准发音后,***自动收录构建区块数据给出奖励分值;
(3)当学习者单词达到标准发音数量达到一定的时候,通过区块链智能合约的个人语音成果验证协议,一旦通过,将被公共口语标准发音库区块链收录为标准发音库,成为公共语音库区块链贡献一员;
(4)学习者再通过与我的标准发音库对比学习,强化学习者的单词或句子的标准发音;同时,进一步收集学习者新增单词或句子的标准发音;再扩充我的标准发音库;
(5)当我的标准发音库区块链接到公共口语标准发音库后,再通过语音合成算法技术,形成具有学习者口音特点的我的场景语音库;
(6)学***。
17.根据权利要求16所述的一种语言口语自助学习***,其特征在于,我的场景语音库至少形成语音控制或对话场景语言;我的场景语音库至少形成包括老人陪护类机器人的对话场景语言;我的场景语音库至少包括自己或亲人或爱人或朋友的场景语言。
18.一种语言口语自助学习***,其特征在于,参与者构建个人语音数据库,个人语音数据库包括个人标准发音库和个人场景语音库;参与者与***对话或单向收录,***自动收录存入个人语音数据库,形成具有参与者口音特点的个人标准发音库;借助个人标准发音库形成具有学习者口音特点的个人场景语音库;参与者再与个人标准发音库和/或个人场景语音库进行互动语言的沉浸式扩充训练、自身语音修正和同步完善,个人语音数据库能选择参与构建公共口语标准发音库,个人语音数据库使用权限采用开放式或有权限式。
19.根据权利要求18所述的一种语言口语自助学习***,其特征在于,在收录入参与者的个人语音数据库,形成具有参与者口音特点的我的标准发音库的过程中,还包括通过人工智能技术生成参与者收录之外的新词句,参与者再与个人标准发音库进行互动语言的沉浸式扩充训练、双向语音修正和同步完善,新词句和个人标准发音库趋向参与者标准口语。
20.根据权利要求18或19所述的一种语言口语自助学习***,其特征在于,个人标准发音库采用云计算、大数据、人工智能、移动技术、区块链中的一种或多种合成技术再发展为具有学习者口音特点的个人场景语音库;
个人场景语音库形成至少包括老人陪护类机器人的对话场景语言;
个人场景语音库至少包括自己或亲人或爱人或朋友的场景语言。
CN202010125446.2A 2020-02-27 2020-02-27 一种语言口语自助学习方法及*** Active CN111241308B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010125446.2A CN111241308B (zh) 2020-02-27 2020-02-27 一种语言口语自助学习方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010125446.2A CN111241308B (zh) 2020-02-27 2020-02-27 一种语言口语自助学习方法及***

Publications (2)

Publication Number Publication Date
CN111241308A true CN111241308A (zh) 2020-06-05
CN111241308B CN111241308B (zh) 2024-04-26

Family

ID=70865266

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010125446.2A Active CN111241308B (zh) 2020-02-27 2020-02-27 一种语言口语自助学习方法及***

Country Status (1)

Country Link
CN (1) CN111241308B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102723077A (zh) * 2012-06-18 2012-10-10 北京语言大学 汉语教学语音合成方法及装置
CN106531182A (zh) * 2016-12-16 2017-03-22 上海斐讯数据通信技术有限公司 一种语言学习***
CN106782609A (zh) * 2016-12-20 2017-05-31 杨白宇 一种口语比对方法
CN108806719A (zh) * 2018-06-19 2018-11-13 合肥凌极西雅电子科技有限公司 交互式语言学习***及其方法
CN108962217A (zh) * 2018-07-28 2018-12-07 华为技术有限公司 语音合成方法及相关设备
CN110751940A (zh) * 2019-09-16 2020-02-04 百度在线网络技术(北京)有限公司 一种生成语音包的方法、装置、设备和计算机存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102723077A (zh) * 2012-06-18 2012-10-10 北京语言大学 汉语教学语音合成方法及装置
CN106531182A (zh) * 2016-12-16 2017-03-22 上海斐讯数据通信技术有限公司 一种语言学习***
CN106782609A (zh) * 2016-12-20 2017-05-31 杨白宇 一种口语比对方法
CN108806719A (zh) * 2018-06-19 2018-11-13 合肥凌极西雅电子科技有限公司 交互式语言学习***及其方法
CN108962217A (zh) * 2018-07-28 2018-12-07 华为技术有限公司 语音合成方法及相关设备
CN110751940A (zh) * 2019-09-16 2020-02-04 百度在线网络技术(北京)有限公司 一种生成语音包的方法、装置、设备和计算机存储介质

Also Published As

Publication number Publication date
CN111241308B (zh) 2024-04-26

Similar Documents

Publication Publication Date Title
CN107958433A (zh) 一种基于人工智能的在线教育人机交互方法与***
US20160365087A1 (en) High end speech synthesis
Engwall et al. Designing the user interface of the computer-based speech training system ARTUR based on early user tests
Newmark et al. ‘The rez accent knows no borders’: Native American ethnic identity expressed through English prosody
Wang et al. Computer-assisted audiovisual language learning
B Roettger Tonal placement in Tashlhiyt: How an intonation system accommodates to adverse phonological environments
CN108986785B (zh) 一种文本改编方法及装置
KR20220128897A (ko) 인공지능 아바타를 활용한 회화 능력 평가 시스템 및 그 방법
JP6656529B2 (ja) 外国語の会話訓練システム
EA004079B1 (ru) Система и способ моделирования голоса конкретных людей
Zhao et al. [Retracted] Standardized Evaluation Method of Pronunciation Teaching Based on Deep Learning
Anjos et al. A serious mobile game with visual feedback for training sibilant consonants
CN111090704A (zh) 一种基于区块链技术的语言口语自助学习***
CN111241308B (zh) 一种语言口语自助学习方法及***
Mayr et al. Bilingual phonological development across generations: Segmental accuracy and error patterns in second-and third-generation British Bengali children
Terry The emergence of intransitive verb inflection in Northern East Cree: A case study
KR102395702B1 (ko) 문장을 이루는 단위를 단계별 확장하여 스텝화한 영어 교육 서비스 제공 방법
Leppik et al. Estoñol, a computer-assisted pronunciation training tool for Spanish L1 speakers to improve the pronunciation and perception of Estonian vowels
CN113452871A (zh) 用于从视频自动生成课程的***和方法
Xu Language technologies in speech-enabled second language learning games: From reading to dialogue
CN113838445B (zh) 歌曲创作方法及相关设备
CN115457931B (zh) 一种语音的合成方法、装置、设备及存储介质
Ungureanu et al. pROnounce: Automatic Pronunciation Assessment for Romanian
Elfahal Automatic recognition and identification for mixed sudanese arabic–english languages speech
Bao et al. [Retracted] An Auxiliary Teaching System for Spoken English Based on Speech Recognition Technology

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant