基于增强现实和人工智能的多人互动教学的展示方法
技术领域
本发明涉及互动教学技术领域,具体涉及一种基于增强现实和人工智能的多人互动教学的展示方法。
背景技术
市场上现有的互动教学装置包括:电脑/平板电脑或智能手机上的教育软件、点读机、点读笔、电子书等。但是上述这些现有的互动教学装置存在着下列缺点和缺陷:
1)互动教学装置趣味性不足,难以吸引学习者主动参与。
2)互动教学装置中的课件内容无法及时更新,亦无法根据每位学习者的学习情况进行量身定做。
3)教学***设计复杂,操作繁琐,使用门槛较高。
4)没有讲更先进的人工智能和增强现实应用到教学中。
5)没有实现多人互动学习和学习情况的实时反馈。
科技伴随着时代不断进步,图片、文字、视频等媒介在互动教学过程里起到的作用越来越大,从三岁孩子到花甲老人在日常生活和学习中都会接触到大量的上述媒介资料。然而传统的媒介在表现手法上存在着表述不清晰、内容更新慢、不能根据学习进度定制学习内容等弊端,无法让学习效率最大化,使得学习者、教学者和监督者不得不付出额外的精力来持续矫正教学过程。
近年来增强现实(Augmented Reality简称AR)逐渐被研究和应用。其通过计算机装置将虚拟信息应用到现实世界,将现实世界与虚拟信息实时地叠加到装置上显示的方法非常适合应用到教学中。使用AR技术将虚拟信息和真实世界呈现的信息融合显示,让两者实现信息互补、强调,促使使用者扩大感官上的体验,提升接收信息的质量。
另外,教师虽然使用了AR技术等先进手段进行教学,实现了更有效的讲授知识,但依然未能解决一名教师面对多名学生时的有针对性的辅导问题。学生在学习过程中,因个体学习能力差异必然出现进度不同,掌握知识点程度不同等问题,当一个知识点某位学生已经掌握后,教师如果继续教授该知识点,学生必然会出现注意力转移等情况。又或者教师在单独为某一名学生有针对性的教学时,其他学生也会出现注意力涣散等情况。并且教师也很难因材施教,高效、快速的掌握每一名学生的学习进度和知识掌握情况。
随着人工智能(Artificial Intelligence简称AI)的发展,其能够具有推理、知识、规划、学习、交流、感知、移动和操作物体的能力等。但如何将上述AI技术已经拥有的能力应用到教学当中,并且与AR技术相结合,尚存在技术空白。
发明内容
针对现有的技术不足和空白,本发明提供了一种基于增强现实和人工智能的多人互动教学的展示方法及***,既可以实现教学内容更加生动、有趣,具有沉浸感体验,还可以实现教师、学生、监管等多角色和多终端的实时互动,并且还能够根据每名学生的学习情况由***自动调整学习内容和教学方法,大大提升学生学习的兴趣,提高主观能动性和学习效果,同时,也让教师、监管等角色更轻松有效的完成工作,增强学生之间、教师之间、监管之间的互动效果。
为了达到上述目的,本发明的技术方案是基于增强现实和人工智能的多人互动教学的展示方法,其包括S1主***、S1数据库、C1控制***、K1子***、F1辅助***;
步骤1:C1控制***发出指令至S1主***,S1主***控制S1数据库输出数据模组到K1子***;
步骤2:K1子***上的Ki装置,其中i=1,2,…,n,接收上述数据模组,将所述数据模组呈现到Ki显示单元和/或Ki音频输出单元上,通过Ki交互控制单元进行互动学习;
步骤3:K1子***将Ki装置上呈现的实时数据由F1辅助***分配到对应的Fi装置上,其中i=1,2,…,n;并由Fi运算单元和Fi显示单元进行实时显示;
步骤4:K子***上的Ki装置,其中i=1,2,…,n,经S1主***中的AI引擎输出数据至S1数据库,并结合S1数据库中已有数据模组中的全部数据,由S1主***中的AI引擎进行数据处理,形成Ki装置对应的自定义数据模组,并储存到S1数据库中,其中自定义数据模组包括成绩数据;
步骤5:S1主***由S1数据库获得自定义数据模组,并向K1子***、F1辅助***中的对应的Ki装置、Fi装置输出成绩数据;
步骤6:C1控制***发出指令至S1主***,S1主***控制S1数据库输出经过AI引擎数据处理后的自定义数据模组到K1子***;
重复步骤2-6。
需要说明的是,本申请中i=1,2,…,n;其中n取大于0的自然数,上述的自定义数据模组中包括成绩数据,还包括由AI引擎输出的自定义教案数据、自定义题目数据、自定义语言数据、自定义提问数据、自定义答案数据等一些其他的自定义数据。成绩数据是分为题目数据和自定义成绩数据。成绩数据是未经过AI引擎输出的,自定义成绩数据是经过AI引擎处理输出的数据。
基于上述的技术方案,K1子***将Ki装置上呈现的实时数据由F1辅助***分配到对应的Fi装置上,即可实现监管者,包括家长、教师等第三方可以实时获得其对应的学生的学习状况。
另外,对单独的第i个学生而言,其获得的数据模组在不断更新,并且是根据其自身对上一次数据模组的学习情况,进行的个性化更新,不断形成新的自定义数据模组,这样的教学更加具有针对性,教学效果更好。
其次,实现多角色和多终端的实时互动,多名学生可同时对数据模组进行学习。
优选的,所述数据模组包括基础数据模组、可识别图像模组、题目数据模组、教案数据模组和用户数据组件中的一项或多项。
优选的,所述基础数据模组包括文本数据、脚本数据、三维模型数据、音效数据、音乐数据、语音数据、动画数据、视频数据和/或特效数据;可识别图像模组包括可识别图像数据和/或自定义可识别图像数据;题目数据模组包括题目数据和/或自定义题目数据;教案数据模组包括标准答案数据、教案数据和/或自定义教案数据;用户数据组件包括成绩数据、用户信息数据、自定义答案数据和/或自定义提问数据。
进一步的,所述步骤4中AI引擎进行数据处理具体包括数据推理、知识总结、规划数据、学习数据、数据交流、感知能力、移动数据和操作数据。
需要说明的是,上述的数据处理方法,为利用本领域公知常识均可以完成的方法。
进一步的,所述步骤4中AI引擎得到Ki装置,其中i=1,2,…,n,输出的数据后结合由S1数据库中已存在的可识别图像模组中的数据,包括每一张可识别图像中的vi(i=1,2,…,n)、yi(i=1,2,…,n)、wi(i=1,2,…,n)关键点数据;经由AI引擎结合S1数据库中其它数据模组进行数据训练,得到全新的自定义可识别图像;
AI引擎得到Ki装置输出的数据后结合由S1数据库中已存在的教案数据模组中的数据,包括每一节课程数据中的mi(i=1,2,…,n)、ji(i=1,2,…,n)、Ii(i=1,2,…,n)、ki(i=1,2,…,n)关键点数据,经由AI引擎结合S1数据库中其它数据模组进行数据训练,得到新自定义教案数据;
AI引擎得到Ki装置输出的数据后结合由S1数据库中已存在的题目数据模组中的数据,包括每一个问题数据中的ni(i=1,2,…,n)、nai(i=1,2,…,n)、qi(i=1,2,…,n)、qai(i=1,2,…,n)、pi(i=1,2,…,n)关键点数据,经由AI引擎结合S1数据库中其它数据模组进行数据训练,得到新的自定义题目数据;
AI引擎得到Ki装置输出的数据后结合由S1数据库中已存在的基础数据模组中的数据,包括每一个三维模型数据中的a1、a2、a3、…、an关键点数据;每一个视频数据中的b1、b2、b3、…、bn关键点数据;每一个动画数据中的c1、c2、c3、…、cn关键点数据;每一个特效数据中的d1、d2、d3、…、dn关键点数据;每一个音乐数据中的e1、e2、e3、…、en关键点数据;每一个脚本数据中的f1、f2、f3、…、fn关键点数据;每一个音效数据中的g1、g2、g3、…、gn关键点数据;每一个文本数据中的h1、h2、h3、…、hn关键点数据;每一个语音数据中的i1、i2、i3、…、in关键点数据;经由AI引擎结合S1数据库中其它数据模组进行数据训练,得到全新的基础数据模组;
AI引擎得到Ki装置输出的数据后结合由S1数据库中已存在的数据模组,包括题目数据模组、教案数据模组、用户数据组件、基础数据模组、可识别图像模组进行数据训练,得到成绩数据。
进一步的,所述步骤1的具体方法为C1控制***通过C1装置上的C1控制器和/或C1音频输出单元经过C1通讯单元和C1运算单元发出指令,由S1数据库中输出数据模组到K1子***和S1主***。
进一步的,所述步骤2的具体方法为K1子***上的Ki装置使用Ki通讯单元接收数据模组并由Ki运算单元、Ki三维引擎单元、KiAR引擎单元结合Ki摄像头、Ki现实环境将数据模组呈现到Ki显示单元和Ki音频输出单元上,通过Ki交互控制单元完成互动学习。
进一步的,所述步骤3的具体方法为K1子***将Ki装置上呈现的实时数据由F1辅助***分配到对应的Fi装置上并由Fi运算单元和Fi显示单元进行实时显示。
进一步的,所述步骤4的具体方法为K1子***上的Ki装置通过Ki交互控制输出数据或经由Ki音频输出单元通过S1装置上的语音识别引擎输出数据并结合S1数据库中已有的题目数据模组、教案数据模组、用户数据组件、基础数据模组、可识别图像模组中的全部数据,由S1主***中的AI引擎进行数据处理,所述数据处理包括数据推理、知识总结、规划数据、学习数据、数据交流、感知能力、移动数据和/或操作数据;形成Ki装置对应的自定义答案数据、成绩数据、自定义可识别图像、自定义题目数据;并储存到S1数据库中。
需要说明的是,所述Ki装置为第i个学生终端;Fi装置为第i个学生对应的监管者终端。其中学生终端可以是学生的手机或PC端,所述的监管者终端可以为该学生的家长所使用的手机或PC端,亦或者是教师终端。
本发明中部分术语解释:
S1主***:S1主***是本专利的中枢神经,负责并联S1、C1、K1、F1各个***和子***、装置和子装置以及S1数据库。
S1数据库:S1数据库是本***的知识元素,由基础数据、可识别图像、题目、教案、用户等若干个数据模组构成,并通过S1、C1、K1、F1装置上的持续输出装置和引擎输出新的数据进而通过人工智能持续构建输入更有效的数据模组。
S1装置:S1装置在本***中负责交流和感知,包含S1***、S1装置中的语音识别引擎、AI引擎、存储单元、运算单元、通信单元、音频输出单元、现实单元、可识别图像等,用于C1、S1、K1、F1***的集成、协同运行和人工智能、语音识别等输入输出识别。
K1子***:K1子***作用于学习。由K1子***负责与S1、C1、K1、F1各个***和子***、装置和子装置以及K1子***下的Ki子***(Ki装置)并联,每位***中的学生使用其专属的Ki子***(Ki装置)进行学习。
Ki装置:Ki装置由Ki通信单元、Ki三维引擎单元、Ki音频输入单元、Ki音频输出单元、KiAR引擎单元、Ki摄像头、Ki交互控制单元等单元组成,用于承载和运行K1子***。
C1控制***:C1控制***负责S1、C1、K1、F1各个***和子***、装置和子装置的运行控制,并可对AI引擎的学习结果进行修正控制。
C1装置:由C1控制器、C1显示单元、C1音频输入单元、C1音频输出单元、C1通信单元、C1运算单元等单元构成,用于运行C1控制***。
F1辅助***:F1辅助***在C1控制***授权下监督K1子***中具有一对一关系的Ki装置上呈现的学习结果。
F1装置:F1装置由显示单元、运算单元、通信单元等单元构成,用于承载和运行F1辅助***。
数据模组:是S1数据库中在初始阶段预置的若干模组构成,包括:题目数据模组、教案数据模组、用户数据模组、基础数据模组和可识别图像模组构成。在***启动后,通过S1、C1、K1、F1各个***和子***、装置和子装置通过AI引擎或C1控制***输入自定义数据后,数据模组自行进行学习和扩充。
自定义数据:是由自定义题目数据、自定义教案数据、自定义提问数据、自定义答案数据、自定义可识别图像数据等若干自定义数据构成,上述数据可以是C1控制***输入,也可以是由S1、C1、K1、F1各个***和子***通过AI引擎自动输入。
现实环境:区别于虚拟现实环境,指的是真实世界的环境。
本发明的有益效果:实现教师、学生、监管等多角色和多终端的实时互动,并且还能够根据每名学生的学习情况由***自动调整学习内容和教学方法。
附图说明
图1为本发明的方法流程图;
图2为本发明数据模组与AI引擎交互流程图;
图3为本发明的装置连接关系示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行进一步详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程。
如图1及图3所示,基于增强现实和人工智能的多人互动教学的展示方法,其包括S1主***、S1数据库、C1控制***、K1子***、F1辅助***;
步骤1:C1控制***发出指令至S1主***,S1主***控制S1数据库输出数据模组到K1子***;
步骤2:K1子***上的Ki装置,其中i=1,2,…,n,接收上述数据模组,将所述数据模组呈现到Ki显示单元和/或Ki音频输出单元上,通过Ki交互控制单元进行互动学习;
步骤3:K1子***将Ki装置上呈现的实时数据由F1辅助***分配到对应的Fi装置上,其中i=1,2,…,n;并由Fi运算单元和Fi显示单元进行实时显示;
步骤4:K子***上的Ki装置,其中i=1,2,…,n,经S1主***中的AI引擎输出数据至S1数据库,并结合S1数据库中已有数据模组中的全部数据,由S1主***中的AI引擎进行数据处理,形成Ki装置对应的自定义数据模组,并储存到S1数据库中,其中自定义数据模组包括成绩数据;
步骤5:S1主***由S1数据库获得自定义数据模组,并向K1子***、F1辅助***中的对应的Ki装置、Fi装置输出成绩数据;
步骤6:C1控制***发出指令至S1主***,S1主***控制S1数据库输出经过AI引擎数据处理后的自定义数据模组到K1子***;
重复步骤2-6。
优选的,所述数据模组包括基础数据模组、可识别图像模组、题目数据模组、教案数据模组和用户数据组件中的一项或多项。
优选的,所述基础数据模组包括文本数据、脚本数据、三维模型数据、音效数据、音乐数据、语音数据、动画数据、视频数据和/或特效数据;可识别图像模组包括可识别图像数据和/或自定义可识别图像数据;题目数据模组包括题目数据和/或自定义题目数据;教案数据模组包括标准答案数据、教案数据和/或自定义教案数据;用户数据组件包括成绩数据、用户信息数据、自定义答案数据和/或自定义提问数据。
进一步的,所述步骤4中AI引擎进行数据处理具体包括数据推理、知识总结、规划数据、学习数据、数据交流、感知能力、移动数据和操作数据。
如图2所示,进一步的,所述步骤4中AI引擎得到Ki装置,其中i=1,2,…,n,输出的数据后结合由S1数据库中已存在的可识别图像模组中的数据,包括每一张可识别图像中的vi(i=1,2,…,n)、yi(i=1,2,…,n)、wi(i=1,2,…,n)关键点数据;经由AI引擎结合S1数据库中其它数据模组进行数据训练,得到全新的自定义可识别图像;
AI引擎得到Ki装置输出的数据后结合由S1数据库中已存在的教案数据模组中的数据,包括每一节课程数据中的mi(i=1,2,…,n)、ji(i=1,2,…,n)、Ii(i=1,2,…,n)、ki(i=1,2,…,n)关键点数据,经由AI引擎结合S1数据库中其它数据模组进行数据训练,得到新自定义教案数据;
AI引擎得到Ki装置输出的数据后结合由S1数据库中已存在的题目数据模组中的数据,包括每一个问题数据中的ni(i=1,2,…,n)、nai(i=1,2,…,n)、qi(i=1,2,…,n)、qai(i=1,2,…,n)、pi(i=1,2,…,n)关键点数据,经由AI引擎结合S1数据库中其它数据模组进行数据训练,得到新的自定义题目数据;
AI引擎得到Ki装置输出的数据后结合由S1数据库中已存在的基础数据模组中的数据,包括每一个三维模型数据中的a1、a2、a3、…、an关键点数据;每一个视频数据中的b1、b2、b3、…、bn关键点数据;每一个动画数据中的c1、c2、c3、…、cn关键点数据;每一个特效数据中的d1、d2、d3、…、dn关键点数据;每一个音乐数据中的e1、e2、e3、…、en关键点数据;每一个脚本数据中的f1、f2、f3、…、fn关键点数据;每一个音效数据中的g1、g2、g3、…、gn关键点数据;每一个文本数据中的h1、h2、h3、…、hn关键点数据;每一个语音数据中的i1、i2、i3、…、in关键点数据;经由AI引擎结合S1数据库中其它数据模组进行数据训练,得到全新的基础数据模组;
AI引擎得到Ki装置输出的数据后结合由S1数据库中已存在的数据模组,包括题目数据模组、教案数据模组、用户数据组件、基础数据模组、可识别图像模组进行数据训练,得到成绩数据。
进一步的,所述步骤1的具体方法为C1控制***通过C1装置上的C1控制器和/或C1音频输出单元经过C1通讯单元和C1运算单元发出指令,由S1数据库中输出数据模组到K1子***和S1主***。
进一步的,所述步骤2的具体方法为K1子***上的Ki装置使用Ki通讯单元接收数据模组并由Ki运算单元、Ki三维引擎单元、KiAR引擎单元结合Ki摄像头、Ki现实环境将数据模组呈现到Ki显示单元和Ki音频输出单元上,通过Ki交互控制单元完成互动学习。
进一步的,所述步骤3的具体方法为K1子***将Ki装置上呈现的实时数据由F1辅助***分配到对应的Fi装置上并由Fi运算单元和Fi显示单元进行实时显示。
进一步的,所述步骤4的具体方法为K1子***上的Ki通过K交互控制输出数据或经由K音频输出单元通过S1装置上的语音识别引擎输出数据并结合S1数据库中已有的题目数据模组、教案数据模组、用户数据组件、基础数据模组、可识别图像模组中的全部数据由S1主***中的AI引擎进行数据处理,所述数据处理包括数据推理、知识总结、规划数据、学习数据、数据交流、感知能力、移动数据和/或操作数据;形成Ki装置对应的自定义答案数据、成绩数据、自定义可识别图像、自定义题目数据;并储存到S1数据库中。
对实施例的进一步说明,所述S1主***是本专利的中枢神经,负责并联S1、C1、K1、F1各个***和子***、装置和子装置以及S1数据库;所述S1数据库是本***的知识元素,由基础数据、可识别图像、题目、教案、用户等若干个数据模组构成,并通过C1、S1、K1、F1装置上的持续输出装置和引擎输出新的数据进而通过人工智能持续构建输入更有效的数据模组;所述S1装置在本***中负责交流和感知,包含S1***、S1装置中的语音识别引擎、AI引擎、存储单元、运算单元、通信单元、音频输出单元、现实单元、可识别图像等,用于C1、S1、K1、F1***的集成、协同运行和人工智能、语音识别等输入输出识别;所述K1子***作用于学习,由K1子***负责与C1、S1、K1、F1各个***和子***、装置和子装置以及K1子***下的Ki子***并联,每位***中的学生使用其专属的Ki子***进行学习;所述Ki装置由Ki通信单元、Ki三维引擎单元、Ki音频输入单元、Ki音频输出单元、KiAR引擎单元、Ki摄像头、Ki交互控制单元等单元组成,用于承载和运行Ki子***;
所述C1控制***负责C1、S1、K1、F1各个***和子***、装置和子装置的运行控制,并可对AI引擎的学习结果进行修正控制;所述C1装置由C1控制器、C1显示单元、C1音频输入单元、C1音频输出单元、C1通信单元、C1运算单元等单元构成,用于运行C1控制***;所述F1辅助***在C1控制***授权下监督K1子***中具有一对一关系的Ki装置上呈现的学习结果;所述F1装置由显示单元、运算单元、通信单元等单元构成,用于承载和运行F1辅助***;所述数据模组是S1数据库中在初始阶段预置的若干模组构成,包括:题目数据模组、教案数据模组、用户数据模组、基础数据模组和可识别图像模组构成。在***启动后,通过C1、S1、K1、F1各个***和子***、装置和子装置通过AI引擎或C1控制***输入自定义数据后,数据模组自行进行学习和扩充;所述自定义数据是由自定义题目数据、自定义教案数据、自定义提问数据、自定义答案数据、自定义可识别图像数据等若干自定义数据构成,上述数据可以是C控制***输入,也可以是由C1、S1、K1、F1各个***和子***通过AI引擎自动输入。
具体的说,S1数据库包括:题目数据模组、教案数据模组、用户数据组件、基础数据模组和可识别图像模组构成。其中题目数据模组包括:题目数据、自定义题目数据;教案数据模组包括:标准答案数据、教案数据、自定义教案数据;用户数据组件包括:成绩数据、用户信息数据、自定义答案数据、自定义提问数据;基础数据模组包括:文本数据、脚本数据、三维模型数据、音效数据、音乐数据、语音数据、动画数据、视频数据、特效数据;可识别图像模组包括:可识别图像数据、自定义可识别图像数据。S1装置包括:语音识别引擎、S1存储单元、S1运算单元、S1通讯单元、AI引擎、S1音频输出单元、S1显示单元和可识别图像。C1装置包括:C1控制器、C1显示单元、C1音频输入单元、C1音频输出单元、C1通讯单元、C1运算单元。
可以理解的是,Ki装置表示第i个学生使用的终端,整个***包括若干个K装置,每个K装置都包括:K通讯单元、K三维引擎单元、K AR引擎单元、K显示单元、K摄像头、K通讯单元、K音频输入单元、K音频输出单元、K运算单元、K交互单元以及K现实环境。同样的,Fi装置表示第i个学生对应的第i个监管者终端,***中包括若干个F装置,每个F装置都包括:F显示单元、F运算单元、F通讯单元。
上述的对实施例的描述是为便于该技术领域的普通技术人员能理解和使用发明。熟悉本领域技术的人员显然可以容易地对这些实施例做出各种修改,并把在此说明的一般原理应用到其他实施例中而不必经过创造性的劳动。因此,本发明不限于上述实施例,本领域技术人员根据本发明的揭示,不脱离本发明范畴所做出的改进和修改都应该在本发明的保护范围之内。